Picturing algorithmic surveillance: The politics of facial recognition systems

De Governança Algoritmos
Revisão de 19h23min de 13 de novembro de 2018 por Samadeu (Discussão | contribs) (Criou página com ' Este documento abre para '''análise as políticas de vigilância algorítmica''' através de um exame de Sistemas de Reconhecimento Facial (FRSs) em vigilância por vídeo,...')

(dif) ← Edição anterior | Revisão atual (dif) | Versão posterior → (dif)
Ir para: navegação, pesquisa

Este documento abre para análise as políticas de vigilância algorítmica através de um exame de Sistemas de Reconhecimento Facial (FRSs) em vigilância por vídeo, mostrando que decisões de design aparentemente mundanas podem ter consequências políticas importantes que devem ser sujeitas a escrutínio. Em primeiro lugar, enfoca a política da tecnologia e sistemas de vigilância algorítmica em particular: considerando a ampla política da tecnologia; a natureza da vigilância algorítmica e da biometria, afirmando que os algoritmos de software são um domínio particularmente importante da tecnopolítica; e finalmente considerando tanto o crescimento da vigilância biométrica algorítmica quanto os problemas potenciais com tais sistemas. Em segundo lugar, fornece uma descrição das FRS's, dos algoritmos nos quais elas são baseadas e dos vieses embutidos nela. Na terceira parte, as maneiras pelas quais esses vieses podem se manifestar na implementação no mundo real das FRSs são delineadas. Finalmente, algumas sugestões de políticas para o futuro desenvolvimento de FRS's são feitas; Note-se que as críticas mais comuns de tais sistemas são baseadas em noções de privacidade que parecem cada vez mais em desacordo com o mundo dos sistemas automatizados.