Mudanças entre as edições de "An FDA for Algorithms"

De Governança Algoritmos
Ir para: navegação, pesquisa
(Criou página com ' O surgimento de algoritmos cada vez mais complexos exige uma reflexão crítica sobre a melhor forma de prevenir, deter e compensar os danos que eles causam. Este artigo argu...')
 
Linha 1: Linha 1:
  
O surgimento de algoritmos cada vez mais complexos exige uma reflexão crítica sobre a melhor forma de prevenir, deter e compensar os danos que eles causam. Este artigo argumenta que os sistemas de regulamentação criminal e de responsabilidade civil não serão páreo para os difíceis enigmas normativos que os algoritmos colocam. A regulamentação algorítmica exigirá uniformidade federal, julgamento especializado, independência política e análise pré-mercado para evitar - sem sufocar a inovação - a introdução de algoritmos inaceitavelmente perigosos no mercado. Este artigo propõe que uma nova agência reguladora especializada deve ser criada para regulamentar a segurança algorítmica. Um FDA para algoritmos.
+
O surgimento de algoritmos cada vez mais complexos exige uma reflexão crítica sobre a melhor forma de prevenir, deter e compensar os danos que eles causam. Este artigo argumenta que os sistemas de regulamentação criminal e de responsabilidade civil não serão páreo para os difíceis enigmas normativos que os algoritmos colocam. A regulamentação algorítmica exigirá uniformidade federal, julgamento especializado, independência política e análise pré-mercado para evitar - sem sufocar a inovação - a introdução de algoritmos inaceitavelmente perigosos no mercado. '''Este artigo propõe que uma nova agência reguladora especializada deve ser criada para regulamentar a segurança algorítmica: Um FDA para algoritmos.'''
  
 
Essa agência federal de proteção ao consumidor deve ter três poderes. Primeiro, ele deve ter o poder de organizar e classificar algoritmos em categorias regulatórias por seu design, complexidade e potencial de dano (tanto no uso comum quanto pelo uso indevido). Segundo, ele deve ter o poder de impedir a introdução de algoritmos no mercado até que sua segurança e eficácia tenham sido comprovadas por meio de testes pré-mercado baseados em evidências. Terceiro, a agência deve ter ampla autoridade para impor requisitos de divulgação e restrições de uso para evitar o mau uso nocivo dos algoritmos.
 
Essa agência federal de proteção ao consumidor deve ter três poderes. Primeiro, ele deve ter o poder de organizar e classificar algoritmos em categorias regulatórias por seu design, complexidade e potencial de dano (tanto no uso comum quanto pelo uso indevido). Segundo, ele deve ter o poder de impedir a introdução de algoritmos no mercado até que sua segurança e eficácia tenham sido comprovadas por meio de testes pré-mercado baseados em evidências. Terceiro, a agência deve ter ampla autoridade para impor requisitos de divulgação e restrições de uso para evitar o mau uso nocivo dos algoritmos.
Linha 6: Linha 6:
 
Para explicar por que uma agência federal será necessária, este artigo prossegue em três partes. Primeiro, explica a diversidade de algoritmos que já existem e que estão por vir. No futuro, muitos algoritmos serão “treinados” e não “projetados”. Isso significa que a operação de muitos algoritmos será opaca e difícil de prever em casos de fronteira, e a responsabilidade por seus danos será difusa e difícil de atribuir. Além disso, embora os algoritmos “projetados” já desempenhem papéis importantes em muitas situações de vida ou morte (de aterrissagens de emergência a sistemas automatizados de frenagem), algoritmos cada vez mais “treinados” serão implantados nessas aplicações de missão crítica.
 
Para explicar por que uma agência federal será necessária, este artigo prossegue em três partes. Primeiro, explica a diversidade de algoritmos que já existem e que estão por vir. No futuro, muitos algoritmos serão “treinados” e não “projetados”. Isso significa que a operação de muitos algoritmos será opaca e difícil de prever em casos de fronteira, e a responsabilidade por seus danos será difusa e difícil de atribuir. Além disso, embora os algoritmos “projetados” já desempenhem papéis importantes em muitas situações de vida ou morte (de aterrissagens de emergência a sistemas automatizados de frenagem), algoritmos cada vez mais “treinados” serão implantados nessas aplicações de missão crítica.
  
Em segundo lugar, este artigo explica por que outros possíveis esquemas regulatórios - tais como delitos de estado e leis ou regulamentos criminais através de órgãos reguladores - não serão tão desejáveis ​​quanto a criação de uma agência reguladora federal centralizada para a administração de algoritmos como categoria. Para os consumidores, é pouco provável que os atos ilícitos e as leis criminais contra-processem os danos causados ​​pelos algoritmos. Danos rastreáveis ​​a algoritmos podem freqüentemente ser difusos e difíceis de detectar. A responsabilidade e a responsabilidade humanas por tais danos serão difíceis de estabelecer. E restrições de uso restritas podem ser difíceis de serem aplicadas por meio de regulamentação indireta. Para os inovadores, a disponibilidade de preempção federal de responsabilidade local e ex-post provavelmente será desejada.
+
Em segundo lugar, este artigo explica por que outros possíveis esquemas regulatórios - tais como delitos de Estado e leis ou regulamentos criminais através de órgãos reguladores - não serão tão desejáveis ​​quanto a criação de uma agência reguladora federal centralizada para a administração de algoritmos como categoria. Para os consumidores é pouco provável que os atos ilícitos e as leis criminais contra processem os danos causados ​​pelos algoritmos. Danos rastreáveis ​​a algoritmos podem ser frequentemente difusos e difíceis de detectar. A responsabilidade humana por tais danos serão difíceis de estabelecer. E restrições de uso restrito podem ser difíceis de serem aplicadas por meio de regulamentação indireta. Para os inovadores, a disponibilidade de preempção federal de responsabilidade local e ex-post provavelmente será desejada.
  
 
Em terceiro lugar, este artigo explica que as preocupações que impulsionam a regulamentação de alimentos, medicamentos e cosméticos se assemelham às preocupações que devem impulsionar a regulação de algoritmos. Com relação ao funcionamento de muitas drogas, os mecanismos precisos pelos quais eles produzem seus benefícios e danos não são bem compreendidos. O mesmo será em breve verdadeiro para muitos dos algoritmos futuros mais importantes (e potencialmente perigosos). Com base nas lições do crescimento e desenvolvimento instáveis ​​do FDA, o artigo propõe que o esquema regulatório do FDA é um modelo apropriado para projetar uma agência encarregada da regulação algorítmica.
 
Em terceiro lugar, este artigo explica que as preocupações que impulsionam a regulamentação de alimentos, medicamentos e cosméticos se assemelham às preocupações que devem impulsionar a regulação de algoritmos. Com relação ao funcionamento de muitas drogas, os mecanismos precisos pelos quais eles produzem seus benefícios e danos não são bem compreendidos. O mesmo será em breve verdadeiro para muitos dos algoritmos futuros mais importantes (e potencialmente perigosos). Com base nas lições do crescimento e desenvolvimento instáveis ​​do FDA, o artigo propõe que o esquema regulatório do FDA é um modelo apropriado para projetar uma agência encarregada da regulação algorítmica.
  
 
O artigo se encerra enfatizando a necessidade de pensar proativamente sobre os potenciais perigos que os algoritmos representam. Os Estados Unidos criaram o FDA e expandiram seu alcance regulatório somente após várias tragédias graves terem revelado sua necessidade. Se não conseguirmos antecipar a trajetória da moderna tecnologia algorítmica, a história poderá se repetir.
 
O artigo se encerra enfatizando a necessidade de pensar proativamente sobre os potenciais perigos que os algoritmos representam. Os Estados Unidos criaram o FDA e expandiram seu alcance regulatório somente após várias tragédias graves terem revelado sua necessidade. Se não conseguirmos antecipar a trajetória da moderna tecnologia algorítmica, a história poderá se repetir.

Edição das 05h42min de 20 de janeiro de 2019

O surgimento de algoritmos cada vez mais complexos exige uma reflexão crítica sobre a melhor forma de prevenir, deter e compensar os danos que eles causam. Este artigo argumenta que os sistemas de regulamentação criminal e de responsabilidade civil não serão páreo para os difíceis enigmas normativos que os algoritmos colocam. A regulamentação algorítmica exigirá uniformidade federal, julgamento especializado, independência política e análise pré-mercado para evitar - sem sufocar a inovação - a introdução de algoritmos inaceitavelmente perigosos no mercado. Este artigo propõe que uma nova agência reguladora especializada deve ser criada para regulamentar a segurança algorítmica: Um FDA para algoritmos.

Essa agência federal de proteção ao consumidor deve ter três poderes. Primeiro, ele deve ter o poder de organizar e classificar algoritmos em categorias regulatórias por seu design, complexidade e potencial de dano (tanto no uso comum quanto pelo uso indevido). Segundo, ele deve ter o poder de impedir a introdução de algoritmos no mercado até que sua segurança e eficácia tenham sido comprovadas por meio de testes pré-mercado baseados em evidências. Terceiro, a agência deve ter ampla autoridade para impor requisitos de divulgação e restrições de uso para evitar o mau uso nocivo dos algoritmos.

Para explicar por que uma agência federal será necessária, este artigo prossegue em três partes. Primeiro, explica a diversidade de algoritmos que já existem e que estão por vir. No futuro, muitos algoritmos serão “treinados” e não “projetados”. Isso significa que a operação de muitos algoritmos será opaca e difícil de prever em casos de fronteira, e a responsabilidade por seus danos será difusa e difícil de atribuir. Além disso, embora os algoritmos “projetados” já desempenhem papéis importantes em muitas situações de vida ou morte (de aterrissagens de emergência a sistemas automatizados de frenagem), algoritmos cada vez mais “treinados” serão implantados nessas aplicações de missão crítica.

Em segundo lugar, este artigo explica por que outros possíveis esquemas regulatórios - tais como delitos de Estado e leis ou regulamentos criminais através de órgãos reguladores - não serão tão desejáveis ​​quanto a criação de uma agência reguladora federal centralizada para a administração de algoritmos como categoria. Para os consumidores é pouco provável que os atos ilícitos e as leis criminais contra processem os danos causados ​​pelos algoritmos. Danos rastreáveis ​​a algoritmos podem ser frequentemente difusos e difíceis de detectar. A responsabilidade humana por tais danos serão difíceis de estabelecer. E restrições de uso restrito podem ser difíceis de serem aplicadas por meio de regulamentação indireta. Para os inovadores, a disponibilidade de preempção federal de responsabilidade local e ex-post provavelmente será desejada.

Em terceiro lugar, este artigo explica que as preocupações que impulsionam a regulamentação de alimentos, medicamentos e cosméticos se assemelham às preocupações que devem impulsionar a regulação de algoritmos. Com relação ao funcionamento de muitas drogas, os mecanismos precisos pelos quais eles produzem seus benefícios e danos não são bem compreendidos. O mesmo será em breve verdadeiro para muitos dos algoritmos futuros mais importantes (e potencialmente perigosos). Com base nas lições do crescimento e desenvolvimento instáveis ​​do FDA, o artigo propõe que o esquema regulatório do FDA é um modelo apropriado para projetar uma agência encarregada da regulação algorítmica.

O artigo se encerra enfatizando a necessidade de pensar proativamente sobre os potenciais perigos que os algoritmos representam. Os Estados Unidos criaram o FDA e expandiram seu alcance regulatório somente após várias tragédias graves terem revelado sua necessidade. Se não conseguirmos antecipar a trajetória da moderna tecnologia algorítmica, a história poderá se repetir.