Bearing Account-able Witness to the Ethical Algorithmic System
Este documento explora como a responsabilidade pode tornar algoritmos obscuros e inacessíveis disponíveis para governança. O potencial de importação e dificuldade de prestação de contas é claro na narrativa convincente reproduzida em relatórios populares e acadêmicos recentes. Por meio dessa narrativa, somos informados de que os algoritmos nos aprisionam e controlam nossas vidas, minam nossa privacidade, têm poder e um impacto agencial independente, ao mesmo tempo em que são inacessíveis, reduzindo nossas oportunidades de engajamento crítico. O artigo sugere que as sensibilidades STS podem fornecer uma base para examinar os termos da narrativa convincente, perturbando a noção de que os algoritmos têm uma característica única e essencial e um poder ou agência previsível. Em vez de dar por certo os termos da narrativa convincente, O trabalho etnometodológico em relatos de sentido é elaborado em conjunto com abordagens mais convencionais de prestação de contas focadas em abertura e transparência. O artigo usa material empírico de um estudo sobre o desenvolvimento de um sistema de vigilância por vídeo algorítmico “inteligente” e “inteligente”. O artigo introduz o sistema de vigilância algorítmica "ética", a abordagem de responsabilidade desenvolvida e alguns dos desafios de tentar a responsabilização algorítmica em ação. O artigo conclui com reflexões sobre questões futuras de algoritmos e prestação de contas. O artigo introduz o sistema de vigilância algorítmica "ética", a abordagem de responsabilidade desenvolvida e alguns dos desafios de tentar a responsabilização algorítmica em ação. O artigo conclui com reflexões sobre questões futuras de algoritmos e prestação de contas. O artigo introduz o sistema de vigilância algorítmica "ética", a abordagem de responsabilidade desenvolvida e alguns dos desafios de tentar a responsabilização algorítmica em ação. O artigo conclui com reflexões sobre questões futuras de algoritmos e prestação de contas.