Mudanças entre as edições de "An FDA for Algorithms"
Linha 4: | Linha 4: | ||
Essa agência federal de proteção ao consumidor deve ter três poderes. Primeiro, ele deve ter o poder de organizar e classificar algoritmos em categorias regulatórias por seu design, complexidade e potencial de dano (tanto no uso comum quanto pelo uso indevido). Segundo, ele deve ter o poder de impedir a introdução de algoritmos no mercado até que sua segurança e eficácia tenham sido comprovadas por meio de testes pré-mercado baseados em evidências. Terceiro, a agência deve ter ampla autoridade para impor requisitos de divulgação e restrições de uso para evitar o mau uso nocivo dos algoritmos. | Essa agência federal de proteção ao consumidor deve ter três poderes. Primeiro, ele deve ter o poder de organizar e classificar algoritmos em categorias regulatórias por seu design, complexidade e potencial de dano (tanto no uso comum quanto pelo uso indevido). Segundo, ele deve ter o poder de impedir a introdução de algoritmos no mercado até que sua segurança e eficácia tenham sido comprovadas por meio de testes pré-mercado baseados em evidências. Terceiro, a agência deve ter ampla autoridade para impor requisitos de divulgação e restrições de uso para evitar o mau uso nocivo dos algoritmos. | ||
− | Para explicar por que uma agência federal será necessária, este artigo prossegue em três partes. Primeiro, explica a diversidade de algoritmos que já existem e que estão por vir. No futuro, muitos algoritmos serão “treinados” e não “projetados”. Isso significa que a operação de muitos algoritmos será opaca e difícil de prever em casos de fronteira, e a responsabilidade por seus danos será difusa e difícil de atribuir. Além disso, embora os algoritmos “projetados” já desempenhem papéis importantes em muitas situações de vida ou morte (de aterrissagens de emergência a sistemas automatizados de frenagem), algoritmos cada vez mais “treinados” serão implantados nessas aplicações de missão crítica. | + | '''Para explicar por que uma agência federal será necessária, este artigo prossegue em três partes. Primeiro, explica a diversidade de algoritmos que já existem e que estão por vir.''' No futuro, muitos algoritmos serão “treinados” e não “projetados”. Isso significa que a operação de muitos algoritmos será opaca e difícil de prever em casos de fronteira, e a responsabilidade por seus danos será difusa e difícil de atribuir. Além disso, embora os algoritmos “projetados” já desempenhem papéis importantes em muitas situações de vida ou morte (de aterrissagens de emergência a sistemas automatizados de frenagem), algoritmos cada vez mais “treinados” serão implantados nessas aplicações de missão crítica. |
− | Em segundo lugar, este artigo | + | '''Em segundo lugar,''' este artigo e'''xplica por que outros possíveis esquemas regulatórios''' - tais como delitos de Estado e leis ou regulamentos criminais através de órgãos reguladores - '''não serão tão desejáveis quanto a criação de uma agência reguladora federal centralizada para a administração de algoritmos como categoria.''' Para os consumidores é pouco provável que os atos ilícitos e as leis criminais contra processem os danos causados pelos algoritmos. Danos rastreáveis a algoritmos podem ser frequentemente difusos e difíceis de detectar. A responsabilidade humana por tais danos serão difíceis de estabelecer. E restrições de uso restrito podem ser difíceis de serem aplicadas por meio de regulamentação indireta. Para os inovadores, a disponibilidade de preempção federal de responsabilidade local e ex-post provavelmente será desejada. |
− | Em terceiro lugar, este artigo explica que as preocupações que impulsionam a regulamentação de alimentos, medicamentos e cosméticos se assemelham às preocupações que devem impulsionar a regulação de algoritmos. Com relação ao funcionamento de muitas drogas, os mecanismos precisos pelos quais eles produzem seus benefícios e danos não são bem compreendidos. O mesmo será em breve verdadeiro para muitos dos algoritmos futuros mais importantes (e potencialmente perigosos). Com base nas lições do crescimento e desenvolvimento instáveis do FDA, o artigo propõe que o esquema regulatório do FDA é um modelo apropriado para projetar uma agência encarregada da regulação algorítmica. | + | '''Em terceiro lugar,''' este artigo '''explica que as preocupações que impulsionam a regulamentação de alimentos, medicamentos e cosméticos se assemelham às preocupações que devem impulsionar a regulação de algoritmos'''. Com relação ao funcionamento de muitas drogas, os mecanismos precisos pelos quais eles produzem seus benefícios e danos não são bem compreendidos. O mesmo será em breve verdadeiro para muitos dos algoritmos futuros mais importantes (e potencialmente perigosos). Com base nas lições do crescimento e desenvolvimento instáveis do FDA, o artigo propõe que o esquema regulatório do FDA é um modelo apropriado para projetar uma agência encarregada da regulação algorítmica. |
− | O artigo se encerra enfatizando a necessidade de pensar proativamente sobre os potenciais perigos que os algoritmos representam. Os Estados Unidos criaram o FDA e expandiram seu alcance regulatório somente após várias tragédias graves terem revelado sua necessidade. Se não conseguirmos antecipar a trajetória da moderna tecnologia algorítmica, a história poderá se repetir. | + | '''O artigo se encerra enfatizando a necessidade de pensar proativamente sobre os potenciais perigos que os algoritmos representam.''' Os Estados Unidos criaram o FDA e expandiram seu alcance regulatório somente após várias tragédias graves terem revelado sua necessidade. '''Se não conseguirmos antecipar a trajetória da moderna tecnologia algorítmica, a história poderá se repetir.''' |
Edição atual tal como às 14h53min de 20 de janeiro de 2019
O surgimento de algoritmos cada vez mais complexos exige uma reflexão crítica sobre a melhor forma de prevenir, deter e compensar os danos que eles causam. Este artigo argumenta que os sistemas de regulamentação criminal e de responsabilidade civil não serão páreo para os difíceis enigmas normativos que os algoritmos colocam. A regulamentação algorítmica exigirá uniformidade federal, julgamento especializado, independência política e análise pré-mercado para evitar - sem sufocar a inovação - a introdução de algoritmos inaceitavelmente perigosos no mercado. Este artigo propõe que uma nova agência reguladora especializada deve ser criada para regulamentar a segurança algorítmica: Um FDA para algoritmos.
Essa agência federal de proteção ao consumidor deve ter três poderes. Primeiro, ele deve ter o poder de organizar e classificar algoritmos em categorias regulatórias por seu design, complexidade e potencial de dano (tanto no uso comum quanto pelo uso indevido). Segundo, ele deve ter o poder de impedir a introdução de algoritmos no mercado até que sua segurança e eficácia tenham sido comprovadas por meio de testes pré-mercado baseados em evidências. Terceiro, a agência deve ter ampla autoridade para impor requisitos de divulgação e restrições de uso para evitar o mau uso nocivo dos algoritmos.
Para explicar por que uma agência federal será necessária, este artigo prossegue em três partes. Primeiro, explica a diversidade de algoritmos que já existem e que estão por vir. No futuro, muitos algoritmos serão “treinados” e não “projetados”. Isso significa que a operação de muitos algoritmos será opaca e difícil de prever em casos de fronteira, e a responsabilidade por seus danos será difusa e difícil de atribuir. Além disso, embora os algoritmos “projetados” já desempenhem papéis importantes em muitas situações de vida ou morte (de aterrissagens de emergência a sistemas automatizados de frenagem), algoritmos cada vez mais “treinados” serão implantados nessas aplicações de missão crítica.
Em segundo lugar, este artigo explica por que outros possíveis esquemas regulatórios - tais como delitos de Estado e leis ou regulamentos criminais através de órgãos reguladores - não serão tão desejáveis quanto a criação de uma agência reguladora federal centralizada para a administração de algoritmos como categoria. Para os consumidores é pouco provável que os atos ilícitos e as leis criminais contra processem os danos causados pelos algoritmos. Danos rastreáveis a algoritmos podem ser frequentemente difusos e difíceis de detectar. A responsabilidade humana por tais danos serão difíceis de estabelecer. E restrições de uso restrito podem ser difíceis de serem aplicadas por meio de regulamentação indireta. Para os inovadores, a disponibilidade de preempção federal de responsabilidade local e ex-post provavelmente será desejada.
Em terceiro lugar, este artigo explica que as preocupações que impulsionam a regulamentação de alimentos, medicamentos e cosméticos se assemelham às preocupações que devem impulsionar a regulação de algoritmos. Com relação ao funcionamento de muitas drogas, os mecanismos precisos pelos quais eles produzem seus benefícios e danos não são bem compreendidos. O mesmo será em breve verdadeiro para muitos dos algoritmos futuros mais importantes (e potencialmente perigosos). Com base nas lições do crescimento e desenvolvimento instáveis do FDA, o artigo propõe que o esquema regulatório do FDA é um modelo apropriado para projetar uma agência encarregada da regulação algorítmica.
O artigo se encerra enfatizando a necessidade de pensar proativamente sobre os potenciais perigos que os algoritmos representam. Os Estados Unidos criaram o FDA e expandiram seu alcance regulatório somente após várias tragédias graves terem revelado sua necessidade. Se não conseguirmos antecipar a trajetória da moderna tecnologia algorítmica, a história poderá se repetir.