The Mercatus Center at George Mason University

De Governança Algoritmos
Ir para: navegação, pesquisa

The Mercatus Center da George Mason University é a principal fonte universitária do mundo para ideias voltadas para o mercado - fazendo a ponte entre ideias acadêmicas e problemas do mundo real.

Como um centro de pesquisa de base universitária, o Mercatus Center treina estudantes, realiza pesquisas de conseqüência e comunica de forma persuasiva ideias econômicas para resolver os problemas mais prementes da sociedade e promove o conhecimento sobre como os mercados funcionam para melhorar a vida das pessoas.

Nossa missão é gerar conhecimento e compreensão das instituições que afetam a liberdade de prosperar e encontrar soluções sustentáveis que superem as barreiras que impedem os indivíduos de viver vidas livres, prósperas e pacíficas.

Desde 1980, o Mercatus Center faz parte da George Mason University, localizada nos campi de Arlington e Fairfax.


========================================= ========================= ========================

ARTIFICIAL INTELLIGENCE AND PUBLIC POLICY August 23, 2017 Adam Thierer - Senior Research Fellow Andrea O'Sullivan - Feature Writer Raymond Russell - Google Policy Fellow https://www.mercatus.org/system/files/thierer-artificial-intelligence-policy-mr-mercatus-v1.pdf

A inteligência artificial, comumente conhecida como AI, emergiu como uma importante discussão política nos últimos anos. Por causa do aumento do interesse, alguns estão preocupados e querem restringir o crescimento da IA ​​para evitar que seus receios sobre os efeitos nocivos se tornem uma realidade. As questões sobre a governança legal e regulatória da IA, aprendizagem de máquina, “sistemas autônomos” e robótica e tecnologias de dados só continuarão a ser levantadas à medida que a tecnologia avança.

Adam Thierer, Andrea Castillo O'Sullivan e Raymond Russell consideram os efeitos de tentar reprimir o progresso desta tecnologia. Os formuladores de políticas devem abordar a tecnologia da IA ​​a partir de um ponto de vista baseado no conceito de inovação sem permissão, que geralmente permite a experimentação de novas tecnologias e modelos de negócios como padrão.

AS AMEAÇAS REGULATÓRIAS À INOVAÇÃO AI

Os formuladores de políticas podem, inicialmente, ser tentados a restringir preventivamente as tecnologias de IA com muita cautela por causa da percepção de segurança, bem-estar e riscos de mercado que essas inovações podem parecer representar.

A compreensão que muitas pessoas têm das tecnologias de inteligência artificial é, infelizmente, amplamente informada por filmes de ficção científica, televisão e livros distópicos. Se a única concepção de uma tecnologia vem de representações de Hollywood de sistemas robóticos assassinos, é importante lembrar que essas representações são fictícias.

Preocupações têm crescido sobre a “ascensão dos robôs” e o impacto da automação e da adoção da IA ​​na força de trabalho atual. Esses medos são mais antigos do que muitos imaginam. A capa da revista LIFE, de julho de 1963, discute o ponto sem retorno com o aumento da automação. O progresso tecnológico só se acelerou desde então, e esse pessimismo se repetiu com maior frequência. Os pessimistas sempre se preocuparão com a desigualdade gerada pelo deslocamento desproporcional de trabalhadores no curto prazo.

Como a adoção da IA ​​mais prontamente substitui a mão-de-obra repetitiva e de baixa qualificação, os empregos que tendem a pagar menos e exigem níveis mais baixos de educação enfrentam o maior risco de automação. Embora toda revolução tecnológica tenha tornado certas indústrias obsoletas, a história foi pontuada por períodos de destruição criativa; quando uma profissão se torna desnecessária, surgem outras oportunidades de emprego, melhorando a sociedade.

COMO ENTENDER AI

A comparação entre o advento das tecnologias de IA e o desenvolvimento da Internet comercial na década de 1990 lança alguma luz sobre como os formuladores de políticas podem se tornar defensores de políticas pró-crescimento e, simultaneamente, como podem manter um nível apropriado de supervisão e responsabilidade para os consumidores.

Não há necessidade de anular uma indústria potencialmente revolucionária antes mesmo de ter a oportunidade de se desenvolver. Os principais conceitos discutidos no documento incluem o seguinte:

Um caminho regulatório alternativo para a tecnologia AI pode ser fundamentado no princípio da paciência e da inovação sem permissão. Os formuladores de políticas precisam desenvolver um entendimento mais forte da versatilidade da inteligência artificial em vários setores. Os formuladores de políticas precisam entender como propostas regulatórias excessivamente proibitivas prejudicam uma indústria promissora enquanto ainda está em sua juventude. Existem limitações naturais à nossa capacidade de prever o futuro da IA, e os medos que as pessoas podem nunca chegarão a ser concretizadas.

CONCLUSÃO

Há muitos desafios a serem superados, mas uma variedade incrível de aplicativos promissores, oportunidades econômicas e melhorias na qualidade de vida exigem que os formuladores de políticas tenham as prioridades corretas. Os benefícios das tecnologias de IA são simplesmente grandes demais para permitir que eles sejam extintos por políticas mal consideradas.

============== =============================================== ====================

PREPARING FOR THE FUTURE OF ARTIFICIAL INTELLIGENCE - July 22, 2016 - Adam Thierer - Senior Research Fellow Andrea O'Sullivan - Feature Write https://www.mercatus.org/publication/preparing-future-artificial-intelligence

O Escritório de Política Científica e Tecnológica (OSTP) solicitou comentários relativos à governança das tecnologias de inteligência artificial (IA).

O Programa de Políticas Tecnológicas do Mercatus Center na George Mason University é dedicado ao avanço do conhecimento sobre o impacto da regulamentação na sociedade. Realiza análises cuidadosas e independentes, empregando estudos econômicos contemporâneos para avaliar questões políticas sob a perspectiva do interesse público.

Escrevemos aqui para comentar sobre a estrutura política adequada para as tecnologias de inteligência artificial (IA) neste estágio inicial de seu desenvolvimento e para defender a prudência, a paciência e a adoção contínua da “inovação sem permissão”. A inovação sem permissão se refere à ideia que “a experimentação com novas tecnologias e modelos de negócios deve geralmente ser permitida por padrão. A menos que se possa argumentar com convicção que uma nova invenção trará sérios danos à sociedade, a inovação deve continuar inabalável e os problemas, se forem desenvolvidos, podem ser resolvidos mais tarde ”.

Os formuladores de políticas podem ser tentados a restringir preventivamente as tecnologias de IA com uma cautela abundante em relação aos riscos percebidos que essas inovações podem parecer apresentar. No entanto, um exame da história da política de tecnologia dos EUA demonstra que essas preocupações podem ser adequadamente tratadas sem anular uma nova indústria potencialmente revolucionária.

Especificamente, como os formuladores de políticas consideram a governança da IA, seria sensato considerar as lições que podem ser tiradas de nossa recente experiência com a Internet. Os Estados Unidos fizeram da inovação sem permissão a base da política de Internet que começou no início dos anos 90, e logo se tornou o "molho secreto" que impulsionou a ascensão da moderna revolução digital.

Se os formuladores de políticas desejam replicar o sucesso dos Estados Unidos com a Internet, eles precisam adotar uma abordagem similar de “toque leve” para a governança das tecnologias de IA. Para destacar os benefícios da inovação sem permissão, o Mercatus Center da George Mason University publicou recentemente um livro, uma série de artigos de revisão de leis e vários documentos de agências que explicam o que essa visão política envolve para diferentes tecnologias e setores. Um resumo dos principais insights desses estudos pode ser encontrado em um artigo recente do Mercatus Center intitulado “Inovação sem permissão e políticas públicas: um projeto de 10 pontos”.

Se a concepção exclusiva de uma tecnologia vem de Hollywood, representações de ficção científica distópica ou sistemas robóticos assassinos enlouquecem, é compreensível que alguém possa querer usar a força da regulação para reprimir de forma decisiva essas “ameaças”. Mas essas representações fictícias são apenas isso: fictício. As tecnologias AI são muito mais benignas e fantásticas na realidade.

Os benefícios econômicos da IA ​​são projetados para serem enormes. Um estudo recente usou benchmarks derivados de estudos metodologicamente conservadores de Internet de banda larga, telefones celulares e robótica industrial para estimar que o impacto econômico da IA ​​poderia ficar entre US $ 1,49 trilhão e US $ 2,95 trilhões nos próximos dez anos. Com premissas menos rigorosas, os benefícios econômicos poderiam ser ainda maiores.

No entanto, alguns céticos já estão defendendo uma regulação preventiva das tecnologias de IA. As justificativas para o controle são variadas, incluindo preocupações que vão desde a desindustrialização até a desumanização, bem como preocupações com a “justiça” dos algoritmos por trás dos sistemas de IA.

Devido a essas ansiedades associadas à IA, alguns acadêmicos argumentam que os formuladores de políticas devem “legislar cedo e com frequência” para “se antecipar” a esses problemas hipotéticos. Específicos são frequentemente escassos, com alguns críticos simplesmente insinuando que “algo deve ser feito” para tratar de preocupações amorfas.

Outros estudiosos forneceram esquemas normativos mais concretos, no entanto. Eles propõem, entre outras coisas, a aprovação de uma ampla legislação, como a “Artificial Intelligence Development Act”, bem como a criação de uma agência federal de IA ou possivelmente uma “Federal Robotics Commission” ou “National Algorithmic Technology Safety Administration”. Essas leis e agências propostas estabeleceriam um processo de certificação exigindo que os inovadores submetessem suas tecnologias à revisão regulatória para “garantir a segurança de sua IA”. Ou, no mínimo, essas agências aconselhariam outras autoridades federais, estaduais e locais e organizações sobre como elaborar políticas para IA e robótica.

Tais propostas baseiam-se no raciocínio do princípio de precaução. O princípio da precaução refere-se à crença de que novas inovações devem ser reduzidas ou proibidas até que seus desenvolvedores possam provar que não causarão danos a indivíduos, grupos, entidades específicas, normas culturais ou várias leis, normas ou tradições existentes.

É certamente verdade que as tecnologias AI podem dar origem a alguns dos problemas que os críticos sugerem. E devemos continuar a procurar soluções construtivas para os problemas potencialmente espinhosos que alguns desses críticos discutem. Isso não significa que, no entanto, a regulação tecnocrática de cima para baixo seja sensata.

Os sistemas regulatórios administrativos tradicionais tendem a ser excessivamente rígidos, burocráticos e lentos para se adaptar a novas realidades. Isso é particularmente problemático no que se refere à governança de novas tecnologias de rápida movimentação.

Restrições prévias às atividades inovadoras são uma receita para a estagnação. Concentrando-se em remédios preventivos que visam prever problemas hipotéticos que podem nunca acontecer, os reguladores correm o risco de fazer apostas ruins com base no excesso de confiança em sua capacidade de prever o futuro. Pior ainda, ao antecipar experimentos benéficos que geram novas e melhores maneiras de fazer as coisas, a regulamentação administrativa sufoca o tipo de soluções criativas, orgânicas e ascendentes que serão necessárias para resolver problemas que podem ser imprevisíveis hoje em dia.

Esse risco talvez seja mais pronunciado ao lidar com tecnologias de IA. Como a "inteligência artificial" é regulada faz pouco sentido até que os formuladores de políticas definam o que ela realmente implica. Os limites da IA ​​são amorfos e estão sempre mudando. As tecnologias AI já estão à nossa volta - exemplos incluem software de reconhecimento de voz, sistemas automatizados de detecção de fraudes e tecnologias de diagnóstico médico - e novos sistemas estão constantemente surgindo e evoluindo rapidamente. Os formuladores de políticas devem ter em mente a rica e distinta variedade de oportunidades apresentadas pelas tecnologias da IA, para que as regulamentações mais apropriadas para um tipo de aplicação impedam inadvertidamente o desenvolvimento de outra.

Com esse fim, sugerimos que é necessária uma abordagem política diferente para a IA, que esteja enraizada na humildade e no reconhecimento de que possuímos conhecimento limitado sobre o futuro.

Isso não significa que não haja papel para o governo no que se refere às tecnologias de IA. Mas isso significa que os formuladores de políticas devem primeiro buscar remédios menos restritivos para problemas sociais e econômicos complexos antes de recorrer a propostas de cima para baixo que sejam preventivas e proscritas.

Os formuladores de políticas devem garantir cuidadosamente que eles tenham uma compreensão completa dos limites e promessas de todas as tecnologias que abordam. Muitas tecnologias de inteligência artificial apresentam pouco ou nenhum risco para a segurança, a concorrência justa no mercado ou o bem-estar do consumidor. Esses aplicativos não devem ser bloqueados devido a um esquema regulatório inadequado que procura abordar uma tecnologia totalmente separada. Eles devem ser distinguidos e isentos de regulamentos, conforme apropriado.

Outras tecnologias de IA podem exigir mais consideração regulatória se elas gerarem riscos substanciais para o bem-estar público. Ainda assim, os reguladores devem proceder com cautela.

Na medida em que os formuladores de políticas desejam estimular o desenvolvimento de uma ampla gama de novas tecnologias que enriquecem a vida, ao mesmo tempo em que buscam soluções sensatas para desafios complexos, os formuladores de políticas devem considerar uma abordagem de inovação mais flexível, ascendente e sem permissão. Regime político dos EUA para tecnologias de IA.

========================= =========================== ====================