Mudanças entre as edições de "An FDA for Algorithms"

De Governança Algoritmos
Ir para: navegação, pesquisa
(Criou página com ' O surgimento de algoritmos cada vez mais complexos exige uma reflexão crítica sobre a melhor forma de prevenir, deter e compensar os danos que eles causam. Este artigo argu...')
 
 
(Uma revisão intermediária pelo mesmo usuário não está sendo mostrada)
Linha 1: Linha 1:
  
O surgimento de algoritmos cada vez mais complexos exige uma reflexão crítica sobre a melhor forma de prevenir, deter e compensar os danos que eles causam. Este artigo argumenta que os sistemas de regulamentação criminal e de responsabilidade civil não serão páreo para os difíceis enigmas normativos que os algoritmos colocam. A regulamentação algorítmica exigirá uniformidade federal, julgamento especializado, independência política e análise pré-mercado para evitar - sem sufocar a inovação - a introdução de algoritmos inaceitavelmente perigosos no mercado. Este artigo propõe que uma nova agência reguladora especializada deve ser criada para regulamentar a segurança algorítmica. Um FDA para algoritmos.
+
O surgimento de algoritmos cada vez mais complexos exige uma reflexão crítica sobre a melhor forma de prevenir, deter e compensar os danos que eles causam. Este artigo argumenta que os sistemas de regulamentação criminal e de responsabilidade civil não serão páreo para os difíceis enigmas normativos que os algoritmos colocam. A regulamentação algorítmica exigirá uniformidade federal, julgamento especializado, independência política e análise pré-mercado para evitar - sem sufocar a inovação - a introdução de algoritmos inaceitavelmente perigosos no mercado. '''Este artigo propõe que uma nova agência reguladora especializada deve ser criada para regulamentar a segurança algorítmica: Um FDA para algoritmos.'''
  
 
Essa agência federal de proteção ao consumidor deve ter três poderes. Primeiro, ele deve ter o poder de organizar e classificar algoritmos em categorias regulatórias por seu design, complexidade e potencial de dano (tanto no uso comum quanto pelo uso indevido). Segundo, ele deve ter o poder de impedir a introdução de algoritmos no mercado até que sua segurança e eficácia tenham sido comprovadas por meio de testes pré-mercado baseados em evidências. Terceiro, a agência deve ter ampla autoridade para impor requisitos de divulgação e restrições de uso para evitar o mau uso nocivo dos algoritmos.
 
Essa agência federal de proteção ao consumidor deve ter três poderes. Primeiro, ele deve ter o poder de organizar e classificar algoritmos em categorias regulatórias por seu design, complexidade e potencial de dano (tanto no uso comum quanto pelo uso indevido). Segundo, ele deve ter o poder de impedir a introdução de algoritmos no mercado até que sua segurança e eficácia tenham sido comprovadas por meio de testes pré-mercado baseados em evidências. Terceiro, a agência deve ter ampla autoridade para impor requisitos de divulgação e restrições de uso para evitar o mau uso nocivo dos algoritmos.
  
Para explicar por que uma agência federal será necessária, este artigo prossegue em três partes. Primeiro, explica a diversidade de algoritmos que já existem e que estão por vir. No futuro, muitos algoritmos serão “treinados” e não “projetados”. Isso significa que a operação de muitos algoritmos será opaca e difícil de prever em casos de fronteira, e a responsabilidade por seus danos será difusa e difícil de atribuir. Além disso, embora os algoritmos “projetados” já desempenhem papéis importantes em muitas situações de vida ou morte (de aterrissagens de emergência a sistemas automatizados de frenagem), algoritmos cada vez mais “treinados” serão implantados nessas aplicações de missão crítica.
+
'''Para explicar por que uma agência federal será necessária, este artigo prossegue em três partes. Primeiro, explica a diversidade de algoritmos que já existem e que estão por vir.''' No futuro, muitos algoritmos serão “treinados” e não “projetados”. Isso significa que a operação de muitos algoritmos será opaca e difícil de prever em casos de fronteira, e a responsabilidade por seus danos será difusa e difícil de atribuir. Além disso, embora os algoritmos “projetados” já desempenhem papéis importantes em muitas situações de vida ou morte (de aterrissagens de emergência a sistemas automatizados de frenagem), algoritmos cada vez mais “treinados” serão implantados nessas aplicações de missão crítica.
  
Em segundo lugar, este artigo explica por que outros possíveis esquemas regulatórios - tais como delitos de estado e leis ou regulamentos criminais através de órgãos reguladores - não serão tão desejáveis ​​quanto a criação de uma agência reguladora federal centralizada para a administração de algoritmos como categoria. Para os consumidores, é pouco provável que os atos ilícitos e as leis criminais contra-processem os danos causados ​​pelos algoritmos. Danos rastreáveis ​​a algoritmos podem freqüentemente ser difusos e difíceis de detectar. A responsabilidade e a responsabilidade humanas por tais danos serão difíceis de estabelecer. E restrições de uso restritas podem ser difíceis de serem aplicadas por meio de regulamentação indireta. Para os inovadores, a disponibilidade de preempção federal de responsabilidade local e ex-post provavelmente será desejada.
+
'''Em segundo lugar,''' este artigo e'''xplica por que outros possíveis esquemas regulatórios''' - tais como delitos de Estado e leis ou regulamentos criminais através de órgãos reguladores - '''não serão tão desejáveis ​​quanto a criação de uma agência reguladora federal centralizada para a administração de algoritmos como categoria.''' Para os consumidores é pouco provável que os atos ilícitos e as leis criminais contra processem os danos causados ​​pelos algoritmos. Danos rastreáveis ​​a algoritmos podem ser frequentemente difusos e difíceis de detectar. A responsabilidade humana por tais danos serão difíceis de estabelecer. E restrições de uso restrito podem ser difíceis de serem aplicadas por meio de regulamentação indireta. Para os inovadores, a disponibilidade de preempção federal de responsabilidade local e ex-post provavelmente será desejada.
  
Em terceiro lugar, este artigo explica que as preocupações que impulsionam a regulamentação de alimentos, medicamentos e cosméticos se assemelham às preocupações que devem impulsionar a regulação de algoritmos. Com relação ao funcionamento de muitas drogas, os mecanismos precisos pelos quais eles produzem seus benefícios e danos não são bem compreendidos. O mesmo será em breve verdadeiro para muitos dos algoritmos futuros mais importantes (e potencialmente perigosos). Com base nas lições do crescimento e desenvolvimento instáveis ​​do FDA, o artigo propõe que o esquema regulatório do FDA é um modelo apropriado para projetar uma agência encarregada da regulação algorítmica.
+
'''Em terceiro lugar,''' este artigo '''explica que as preocupações que impulsionam a regulamentação de alimentos, medicamentos e cosméticos se assemelham às preocupações que devem impulsionar a regulação de algoritmos'''. Com relação ao funcionamento de muitas drogas, os mecanismos precisos pelos quais eles produzem seus benefícios e danos não são bem compreendidos. O mesmo será em breve verdadeiro para muitos dos algoritmos futuros mais importantes (e potencialmente perigosos). Com base nas lições do crescimento e desenvolvimento instáveis ​​do FDA, o artigo propõe que o esquema regulatório do FDA é um modelo apropriado para projetar uma agência encarregada da regulação algorítmica.
  
O artigo se encerra enfatizando a necessidade de pensar proativamente sobre os potenciais perigos que os algoritmos representam. Os Estados Unidos criaram o FDA e expandiram seu alcance regulatório somente após várias tragédias graves terem revelado sua necessidade. Se não conseguirmos antecipar a trajetória da moderna tecnologia algorítmica, a história poderá se repetir.
+
'''O artigo se encerra enfatizando a necessidade de pensar proativamente sobre os potenciais perigos que os algoritmos representam.''' Os Estados Unidos criaram o FDA e expandiram seu alcance regulatório somente após várias tragédias graves terem revelado sua necessidade. '''Se não conseguirmos antecipar a trajetória da moderna tecnologia algorítmica, a história poderá se repetir.'''

Edição atual tal como às 14h53min de 20 de janeiro de 2019

O surgimento de algoritmos cada vez mais complexos exige uma reflexão crítica sobre a melhor forma de prevenir, deter e compensar os danos que eles causam. Este artigo argumenta que os sistemas de regulamentação criminal e de responsabilidade civil não serão páreo para os difíceis enigmas normativos que os algoritmos colocam. A regulamentação algorítmica exigirá uniformidade federal, julgamento especializado, independência política e análise pré-mercado para evitar - sem sufocar a inovação - a introdução de algoritmos inaceitavelmente perigosos no mercado. Este artigo propõe que uma nova agência reguladora especializada deve ser criada para regulamentar a segurança algorítmica: Um FDA para algoritmos.

Essa agência federal de proteção ao consumidor deve ter três poderes. Primeiro, ele deve ter o poder de organizar e classificar algoritmos em categorias regulatórias por seu design, complexidade e potencial de dano (tanto no uso comum quanto pelo uso indevido). Segundo, ele deve ter o poder de impedir a introdução de algoritmos no mercado até que sua segurança e eficácia tenham sido comprovadas por meio de testes pré-mercado baseados em evidências. Terceiro, a agência deve ter ampla autoridade para impor requisitos de divulgação e restrições de uso para evitar o mau uso nocivo dos algoritmos.

Para explicar por que uma agência federal será necessária, este artigo prossegue em três partes. Primeiro, explica a diversidade de algoritmos que já existem e que estão por vir. No futuro, muitos algoritmos serão “treinados” e não “projetados”. Isso significa que a operação de muitos algoritmos será opaca e difícil de prever em casos de fronteira, e a responsabilidade por seus danos será difusa e difícil de atribuir. Além disso, embora os algoritmos “projetados” já desempenhem papéis importantes em muitas situações de vida ou morte (de aterrissagens de emergência a sistemas automatizados de frenagem), algoritmos cada vez mais “treinados” serão implantados nessas aplicações de missão crítica.

Em segundo lugar, este artigo explica por que outros possíveis esquemas regulatórios - tais como delitos de Estado e leis ou regulamentos criminais através de órgãos reguladores - não serão tão desejáveis ​​quanto a criação de uma agência reguladora federal centralizada para a administração de algoritmos como categoria. Para os consumidores é pouco provável que os atos ilícitos e as leis criminais contra processem os danos causados ​​pelos algoritmos. Danos rastreáveis ​​a algoritmos podem ser frequentemente difusos e difíceis de detectar. A responsabilidade humana por tais danos serão difíceis de estabelecer. E restrições de uso restrito podem ser difíceis de serem aplicadas por meio de regulamentação indireta. Para os inovadores, a disponibilidade de preempção federal de responsabilidade local e ex-post provavelmente será desejada.

Em terceiro lugar, este artigo explica que as preocupações que impulsionam a regulamentação de alimentos, medicamentos e cosméticos se assemelham às preocupações que devem impulsionar a regulação de algoritmos. Com relação ao funcionamento de muitas drogas, os mecanismos precisos pelos quais eles produzem seus benefícios e danos não são bem compreendidos. O mesmo será em breve verdadeiro para muitos dos algoritmos futuros mais importantes (e potencialmente perigosos). Com base nas lições do crescimento e desenvolvimento instáveis ​​do FDA, o artigo propõe que o esquema regulatório do FDA é um modelo apropriado para projetar uma agência encarregada da regulação algorítmica.

O artigo se encerra enfatizando a necessidade de pensar proativamente sobre os potenciais perigos que os algoritmos representam. Os Estados Unidos criaram o FDA e expandiram seu alcance regulatório somente após várias tragédias graves terem revelado sua necessidade. Se não conseguirmos antecipar a trajetória da moderna tecnologia algorítmica, a história poderá se repetir.