Public administration, public leadership and the construction of public value in the age of the algorithm and ‘big data’
Os estudos de administração pública tem, em grau significativo, negligenciado a mudança tecnológica. A idade do algoritmo e "big data" está lançando novos desafios para a liderança pública, que já estão sendo confrontados por líderes públicos em diferentes jurisdições. Algoritmos podem ser percebidos como apresentando novos tipos de "problemas perversos" para autoridades públicas. O artigo oferece uma visão preliminar do tipo de desafio algorítmico enfrentado pelos líderes públicos em um ambiente em que o contexto discursivo é moldado pelas empresas de tecnologia corporativa. A teoria do valor público é avaliada como uma estrutura analítica para examinar como os líderes públicos estão buscando abordar as questões éticas e de valor público que afetam a governança e a regulamentação, com base na experiência recente do Reino Unido em particular. O artigo sugere que esta é uma área frutífera para pesquisas futuras.
Índice
Metodo
O artigo baseia-se em uma revisão qualitativa de 18 meses de artigos acadêmicos e artigos, materiais documentais, como documentos governamentais e legislativos, conteúdo de mídia, pesquisas e relatórios de consultorias e organizações corporativas. A análise indutiva desse material foi usada para desenvolver uma visão geral dos riscos algorítmicos, perguntando se os desafios que eles representam para os administradores públicos podem ser considerados "problemas perversos" (Rittell e Webber, 1973). Com base na análise qualitativa, a seção de discussão examina as maneiras pelas quais os líderes públicos estão tentando dar sentido aos desafios da regulação algorítmica, incluindo algumas das propostas de políticas que estão sendo avançadas no Reino Unido em particular. Estes são problemas ao vivo e este é um campo que se move rapidamente.
O artigo adota uma abordagem multi-teórica para as questões de pesquisa identificadas. Ele faz uso de avaliações recentes (2017) de Alford e Head de "problemas perversos". Se o artigo se concentrasse em desafios de política específicos de domínio, por exemplo, em relação às mídias sociais, a análise de múltiplos fluxos de Kingdon e a estrutura de coalizão de defesa de Sabatier poderiam ter sido utilizados para examinar os desenvolvimentos. Como o artigo aborda questões mais amplas de governança de uma nova tecnologia, o artigo baseia-se no ciclo de quatro fases de regulamentação tecnológica de Spar (2001) para ilustrar como o discurso sobre a regulação tecnológica é moldado. O artigo usa a teoria do valor público (PVT) como uma estrutura analítica para identificar como as questões de valor e ética foram abordadas nas políticas públicas, observando que o PVT raramente foi usado para sustentar a ação regulatória. Em termos de uma contribuição teórica, procura-se sugerir a necessidade de uma maior pesquisa sobre o papel do PVT como uma estrutura analítica para o desenvolvimento deliberativo de governança e abordagens regulatórias em novas áreas onde o valor público é contestado.
Algoritmos, Big Data e Valor Público
A definição de dicionário de um algoritmo é "um processo ou conjunto de regras a serem seguidas em cálculos ou outras operações de solução de problemas, especialmente por um computador". Mergel et al. (2016) definem big data como: 'dados de alto volume que freqüentemente combinam dados administrativos altamente estruturados coletados ativamente por organizações do setor público com dados em tempo real estruturados e não estruturados coletados de forma contínua e automática, que são muitas vezes criados passivamente por entidades públicas e privadas Interações na Internet '. O problema surge na era do aprendizado de máquina e do big data, com algoritmos projetados para autoaprendizagem e ajustes, mas baseados, é claro, em julgamentos humanos ou preconceitos inerentes à sua criação (Diakopoulos 2015; Turing 2017).
Pasquale (2015) diz que "a autoridade é cada vez mais expressa por algoritmos". Yeung (2017) fala de "poder algorítmico". Obviamente, isso não significa dizer que todos os algoritmos exigem governança ou intervenção regulatória. Gillespie (2014) chamou certos tipos de algoritmos de "algoritmos de relevância pública" que têm "valência política". Neste artigo, examinarei alguns dos possíveis danos ou riscos que já foram identificados como desafios para a governança, uma vez que é a identificação de riscos que é o provável catalisador de ações políticas ou governamentais (Beck, 1992).
A relevância do PVT é sustentada por duas observações principais de pesquisa. Primeiro, os valores estão no centro das discussões sobre algoritmos e big data (Mittelstadt et al. 2016). Os dilemas éticos exigem resolução se os dados grandes contribuírem para o valor público (Mergel et al. 2016, seguindo boyd e Crawford 2012). Estes incluem quem pode usar dados e para que finalidade; como a privacidade pode ser protegida quando os dados podem ser coletados de várias maneiras que coletivamente permitem a identificação de indivíduos; como as questões de segurança podem ser gerenciadas? Quantos dados podem ser efetivamente gerenciados por órgãos públicos e como a "exaustão digital" - dados capturados para outros fins - podem ser usados legitimamente para a tomada de decisões públicas? Como os algoritmos estão sendo treinados em big data, os problemas que eles identificam têm influência na regulação de algoritmos também. Em segundo lugar, como Veale et al. (2018) apontam, os profissionais já estão implantando esses sistemas no setor público e "estão enfrentando desafios imediatos e carregados de valores". Eles sugerem que os pesquisadores não devem presumir que os profissionais do setor público são ingênuos quanto a "desafios como justiça e responsabilidade", e pedem um maior engajamento, baseado na confiança, entre órgãos públicos e pesquisadores.
O PVT foi originalmente concebido como uma maneira de avaliar a gestão pública de qualidade (Jorgensen e Bozeman 2007). O valor público pode ser pensado tanto como o que o público valoriza quanto como o que agrega valor à esfera pública, definido como "um espaço democrático que inclui, mas não coincide com o estado" (Benington 2011). A noção de esfera pública, tal como concebida por Habermas (1962), é obviamente contestada (Lunt e Livingstone, 2013), mas "seu valor normativo permanece considerável" (Sparks, 2004).
Como Bryson et al. (2017), o foco normativo da PVT foi desenvolvido através do triângulo estratégico de Moore, que insta os gestores públicos a serem claros sobre seu propósito de criar valor público, engajar publicamente para responder e moldar o ambiente de autorização mais amplo da esfera pública e se concentrar em garantir que sua organização tem a capacidade operacional necessária para fornecer valor público. Eles dizem que isso é "um guia heurístico de raciocínio prático" facilmente compreensível e útil para os gestores públicos, mas argumentam que tem havido pouca pesquisa empírica sobre a estrutura em operação. Os autores do documento original do Gabinete do Reino Unido de 2002 sobre o papel potencial da teoria do valor público na governança britânica argumentavam que os usos da PVT poderiam incluir "regulamentação governamental" (Kelly et al. 2002). Moore (2013) analisa alguns casos de criação de valor público por órgãos reguladores. O PVT tem sido usado para sustentar a governança da BBC, "provavelmente o conjunto de reflexões mais desenvolvido sobre o valor público e a implementação de um regime baseado em valor público de qualquer órgão público do Reino Unido" (Collins 2007). O PVT teve um impacto significativo como uma ferramenta operacional em vários estados membros da UE (Donders e Moe 2011). Na literatura da administração pública, a aplicação do PVT no regulamento da BBC é apenas brevemente referenciada (Alford e O'Flynn 2009; Benington e Moore 2011; Williams e Shearer 2011; Dahl e Soss).
Alford e O'Flynn (2009) argumentam que a TVP é uma abordagem empírica e normativa, capaz de ser lida como paradigma, retórica, narrativa e medida de desempenho. Alguns (Rhodes e Wanna 2007) argumentam que o PVT corre o risco de omitir os diferentes papéis dos gestores públicos e dos líderes políticos e pode ter menos relevância nos sistemas que seguem o modelo de Westminster, onde há demarcações claras. No entanto, existem muitos exemplos de regulamentação nos modelos de política de Westminster onde os princípios gerais são estabelecidos pelos políticos e os detalhes são deixados para os reguladores (Majone 1997), como o OFCOM no campo da política de tecnologia de comunicações do Reino Unido (Lunt and Livingstone 2012). Também é possível que os princípios democráticos estabeleçam princípios para garantir a clareza entre os gestores públicos e os líderes políticos eleitos (Governança Pública, 2005). Moore (2014) reconhece que havia fragilidades em sua formulação original e demonstra sua consciência da importância da liderança política no estabelecimento de metas. Enquanto isso, Hartley et al. (2015) identificam a astúcia política como uma habilidade necessária para os gestores públicos. Bryson et al. (2017) enfatizam o compromisso de Moore com "o importante papel dos políticos, liderança política e política na produção de valor público em uma sociedade democrática".
Uma crítica válida foi a de Dahl e Soss (2014) de que o PVT evitou, em grande medida, as "questões fundamentais de poder e conflito" e dedica pouca atenção ao tradicional papel do Estado como um "poder compensador" (Galbraith, 1952). Jacobs (2014) argumentou que a TVP pode ser facilmente incorporada à racionalidade neoliberal. No entanto, Moore (2014) argumentou que a palavra "valor rejeitou implicitamente as ideias neoliberais que procuravam limitar as preocupações do governo aos esforços técnicos para combater várias formas de falha de mercado", reafirmando o papel do governo na promoção da equidade e justiça, usando a autoridade do Estado.
A potencial aplicação da teoria do valor público (PVT) a problemas perversos foi abordada pelo próprio Moore (2013). Ele se junta aos co-autores (Geuijen et al. 2017) para adicionar outras dimensões: plataformas institucionais separadas (governo, sociedade civil, comercial) e múltiplas “esferas” de ação (internacional, nacional, estadual ou federal, governo local, nível). Com o ajuste, eles sugerem que o triângulo estratégico de Moore é diretamente relevante para as "questões globais perversas". Eles também chamam a atenção para a maneira como discursos políticos específicos falam apenas com os elementos de valor público que se encaixam em suas narrativas. Morse, enquanto isso, identifica a liderança pública "integrativa" como um processo no qual inúmeros atores de diferentes esferas trabalham juntos para criar valor público: o valor público, portanto, é "uma construção social" (Morse 2010).
Considerarei agora as descobertas da pesquisa empírica sob os títulos de riscos algorítmicos, problemas perversos e o contexto discursivo antes de passar a uma discussão sobre a relevância da teoria do valor público para a prontidão da governança para problemas algorítmicos.
Riscos Algorítmicos
Abaixo, desenvolvo seis exemplos amplos de desafios algorítmicos para políticas públicas. Minha intenção é ilustrativa: ela indica os amplos desafios algorítmicos enfrentados pelos líderes públicos nos níveis local, federal, nacional e internacional, a fim de demonstrar os níveis multi-governamentais nos quais a capacidade administrativa e regulatória está sendo construída.
A primeira questão é o que eu chamo de erro de seleção algorítmica, como foi visto nos algoritmos de rastreamento facial e de reconhecimento facial da polícia do Reino Unido. No entanto, há também exemplos de algoritmos cujos mecanismos de seleção foram encontrados para operar de maneira discriminatória. Estes incluem algoritmos projetados para verificar o valor do crédito, ou elegibilidade para licenças de condução, ou pedidos de emprego, para o policiamento preditivo, na educação ou para publicidade ou outros serviços. O sistema de reconhecimento de voz do Google foi encontrado para ter problemas significativos no reconhecimento das vozes das mulheres (Tatman 2016). A publicidade do Google era mais propensa a mostrar aos homens altos cargos de CEOs do que mulheres (Datta et al. 2015). A pesquisa de publicidade exibiu anúncios que apresentam "detenção" com mais frequência para os nomes que identificam negros do que para os primeiros nomes que identificam apenas brancos (Sweeney 2013). A tecnologia de reconhecimento facial foi considerada tendenciosa para o reconhecimento de pessoas brancas (Buolamwini 2017). Um algoritmo de policiamento preditivo resultou em segmentação racial de bairros negros (Lum e Isaac 2016). Julgamentos algorítmicos sobre os riscos de reincidência dos indivíduos foram encontrados com viés racial (Angwin 2016). Enquanto isso, os professores foram injustamente demitidos com base em algoritmos (O'Neil 2016, 2017a, 2017b).
Em segundo lugar, estamos vendo um número crescente de casos de quebra de leis algorítmicas. O fabricante de automóveis Volkswagen usou um "dispositivo de derrota" para fugir da legislação sobre limitação de emissões. Esse algoritmo reconheceu quando o carro estava em uma situação de teste de conformidade, em vez de uma situação de estrada em tempo real, e ativou o software de controle de poluição para reduzir as emissões de escape quando o carro estava sendo testado. Quando o carro estava na estrada, os dispositivos de controle de poluição foram desligados, o que significa que níveis mais altos de poluentes do ar foram emitidos do que sob testes. A desativação desses dispositivos resultou em maior desempenho na estrada e uso mais econômico do combustível do que aconteceria com o sistema de controle de emissões totalmente ativo (Congressional Research Service 2016). Casos civis e criminais foram levados adiante nos Estados Unidos (Environmental Protection Agency 2017). Ações ou ameaças de ação se seguiram em outras jurisdições. Enquanto isso, a Uber não foi autorizada a operar em algumas cidades, e funcionários públicos implantaram medidas para tentar rastrear suas tentativas de operar onde foi proibida. Estas incluíram operações de 'picada', pelas quais as autoridades municipais procuram usar o aplicativo Uber para organizar passeios para demonstrar que a empresa está operando em violação das leis, regulamentos ou acordos locais. Em retaliação, diz-se que os funcionários Uber tomaram medidas no sentido de identificar os funcionários públicos que possam estar procurando para pegá-los para fora, identificando a saudação de passeios ao redor prédios públicos como tentativas prováveis em 'picadas', ou procurando ao perfil funcionários públicos de mídia social e marcando-os com um pedaço de código que dizia 'Greyball' e uma série de números. Se alguém etiquetou chamar um carro, o Uber poderia mobilizar carros "fantasmas" em uma versão falsa do aplicativo ou mostrar que não havia carros disponíveis para serem convocados. Se os motoristas pegassem alguém sinalizado como "Greyball", o Uber poderia ligar para o motorista, instruindo-o a terminar o passeio (Isaac 2017).
A terceira questão é a manipulação algorítmica ou o jogo. Tem havido foco considerável recentemente no fenômeno de "notícias falsas" e sua influência política. Notícias falsas são sustentadas por receitas de publicidade derivadas de plataformas online. Mais curtidas, mais compartilhamentos e mais cliques geram mais dinheiro para anunciantes e plataformas (Tambini 2017). A vasta gama do Facebook torna a plataforma particularmente atraente para os anunciantes - e sua capacidade de atingir o público-alvo de micro, com base nos dados acumulados sobre os usuários, e comprada em outros lugares (Halpern 2016) está no centro disso. O algoritmo por trás do Newsfeed do Facebook organiza as informações de acordo com sua compreensão aprendida de gostos e interesses pessoais, a fim de manter sua atenção e manter as pessoas em seu site (Luckerson 2015; Wu 2016). Os criadores de notícias falsas segmentam os usuários com notícias emotivas projetadas para atrair seus interesses e aumentar a probabilidade de serem compartilhadas com os partidários que pensam da mesma forma. Para ilustrar, 140 sites de notícias falsas pró-Trump estavam sendo gerados para lucrar com a única cidade macedônia de Veles. O engajamento com notícias falsas excedeu o engajamento com notícias reais no Facebook nos meses que antecederam a eleição presidencial dos EUA (Silverman 2016a, 2016b).
A pesquisa mostrou que "ao explorar o Facebook de uma pessoa, um computador era capaz de prever a personalidade de uma pessoa com mais precisão do que a maioria de seus amigos e familiares" (Youyou et al. 2015). A segmentação por micro de publicidade do Facebook durante a campanha britânica Brexit e eleição presidencial dos EUA por organizações comerciais com experiência em guerra psicológica ou "psy-ops" tem sido objecto de uma série de notícias e agora investigações regulamentares e legislativas em relação ao seu envolvimento no voto do Reino Unido Brexit (Cadwalladr 2017), a eleição presidencial dos EUA (Grassegger e Krogerus 2017) e outras jurisdições (Keter 2017). O comissário de informação do Reino Unido (2018a) está investigando o uso político de dados privados. A Comissão Eleitoral do Reino Unido (2018) está examinando esforços supostamente coordenados pelas diferentes campanhas Brexit 'Leave'. Nos Estados Unidos, a Federal Trade Commission (FTC) tem uma investigação aberta sobre as práticas de privacidade do Facebook (FTC 2018). Tambini et al. (2017) dizem que essas empresas privadas: "não foram projetadas para desempenhar um papel tão significativo na esfera pública. Seus códigos de prática são insuficientes, eles não tornam seus dados transparentes e seus algoritmos proprietários carecem de supervisão independente. ”Essas questões agora estão sob escrutínio nas legislaturas dos EUA, Reino Unido e Canadá em particular (Senado 2018; Câmara dos Comuns 2018a). Parlamento do Canadá 2018).
O quarto exemplo é o que chamo de propaganda algorítmica. A comunidade de inteligência dos EUA - CIA, FBI e National Security Agency - declarou que as atividades de propaganda russa na campanha eleitoral presidencial de 2016 contavam com operações secretas de inteligência, como atividade cibernética, além de esforços mais abertos por parte de agências do governo russo. Mídia financiada, intermediários de terceiros e usuários ou trolls de mídia social pagos, e bots orquestrados pela Internet Research Agency, uma “fazenda de trolls” apoiada pela Rússia. Esta foi uma tentativa deliberada de "minar a ordem democrática liberal liderada pelos EUA (...) minar a fé pública no processo democrático dos EUA, denegrir a secretária Hillary Clinton e prejudicar sua elegibilidade e potencial presidência". As agências disseram que tinham alta confiança nesses julgamentos (Escritório do Diretor de Inteligência Nacional 2017). O Facebook admitiu que os postos apoiados pela Rússia alcançaram 126 milhões de americanos; O Twitter suspendeu 50.000 contas falsas (Solon e Siddiqui 2017; Swaine 2018).
O quinto risco é a contaminação algorítmica da marca. De acordo com o Interactive Advertising Bureau (IAB), "nos últimos anos, o comércio programático teve um aumento meteórico no espaço da veiculação de anúncios digitais". A publicidade programática é definida pelo IAB como "o uso de sistemas e processos automatizados para comprar e vender estoque". Isso inclui, mas não se limita a negociação que usa leilões de lances em tempo real (IAB 2014). A publicidade programática é personalizada e projetada para oferecer aos consumidores anúncios em tempo real que parecem ser do seu interesse enquanto navegam em sites, plataformas de mídia social ou mecanismos de pesquisa. Por isso, requer informações sobre as coisas que lhes interessam ou que podem desencadear decisões de compra por elas. Durante 2017, uma série de denúncias de jornal provocou os anunciantes a olhar mais de perto para onde sua propaganda estava sendo colocada. Isso resultou em pressão sobre intermediários da Internet, como o Google (particularmente em relação à sua subsidiária, o Youtube) e o Facebook, a remoção de material, pedidos de regulamentação e boicotes de anunciantes. (Mostrous e Dean 2017; Solon 2017; Vizard 2017).
A sexta área é o que poderíamos chamar de incógnitas algorítmicas. Isso levanta a questão de saber se o aprendizado de máquina significa que os algoritmos estão se tornando muito complicados para os humanos entenderem ou desfazerem. A noção de tecnologia "fora de controle" tem sido um tema no pensamento político há séculos (Winner 1977, 1986). Chollet (2018) identifica o comumente expressado medo de que a IA ganhe uma agência própria, torne-se sobre-humana e opte por destruir-nos - a noção de "General AI" - como um dos desafios enfrentados pelos pesquisadores de IA. Floridi (2017) adverte que as sociedades da informação estão sendo construídas sem qualquer tipo de plano, e que estamos cercados de desinformação sobre o futuro, alertas alarmistas sobre cenários de ficção científica e ignorância, obscurantismo, populismo de todos os tipos. Como Boyd e Crawford (2012) argumentam, "como outros fenômenos sócio-técnicos, o Big Data desencadeia a retórica utópica e distópica". A noção de "agência computacional" (Tufekci 2015) sustenta esse sentimento de que as coisas poderiam ir além do controle humano. Os cientistas contestam por quanto tempo, ou se alguma vez, a "IA geral" será desenvolvida, distinta da inteligência artificial capaz de operar em domínios específicos (Stone et al. 2016; Grace et al. 2017). A capacidade do aprendizado de máquina para produzir resultados algorítmicos além do entendimento humano impulsionou a questão da responsabilização algorítmica, levando a demandas por abordagens regulatórias (Pasquale 2015; Mulgan 2016) e envolvimento precoce com questões éticas (Mittelstadt et al. 2016).
Problemas Falsos?
Para Head e Alford (2015), as preocupações sobre os problemas perversos estão associadas ao pluralismo social (ou seja, interesses de múltiplos atores), complexidade institucional (incluindo governança multinível) e incerteza científica. Eles recomendam o desenvolvimento de uma escala de tipos de problemas, observando a sugestão de Heifetz (1994) de três tipos: o primeiro ou o mais fácil, onde a definição do problema e a provável solução são claras para o tomador de decisão; o segundo onde a definição é clara, mas a solução não é; e o terceiro tipo onde a definição do problema e a solução não são claras. Eles observam que as decisões sobre definição de problemas e identificação de soluções também dependem das perspectivas das partes interessadas, com base em Kingdon (1984) e Sabatier (1988) - em outras palavras, questões técnicas são apenas parte da discussão. Questões são contestadas - não há apenas "desafios analíticos-cognitivos, mas também desafios comunicativos, políticos e institucionais".
Separadamente, eles argumentam que o termo "problema perverso" é "inflado e usado demais" e se tornou "uma abordagem totalizadora" (Alford e Head, 2017). Há pressão para "uma intervenção transformadora dramática" em vez de abordagens incrementalistas. Problemas verdadeiramente perversos, que são "tecnicamente complexos", exigem "análise ponderada, diálogo e ação" por parte das partes interessadas afetadas. É mais provável que os problemas perversos sejam aqueles que têm complexidade estrutural, são "incognoscíveis" - isto é, a informação está oculta, disfarçada ou intangível; onde o conhecimento é fragmentado ou tem menos visibilidade por causa de seu enquadramento, onde existem conflitos de interesse e poder desiguais entre as partes interessadas. Eles defendem uma abordagem mais contingente, portanto, para a identificação e classificação de problemas que podem levar a intervenções mais apropriadas.
Embora muitas das questões algorítmicas possam inicialmente parecer problemas sérios, as cinco primeiras representam questões nas quais os órgãos reguladores ou outros órgãos estatais estão agindo, onde há um alto grau de escrutínio legislativo e da mídia, e onde as soluções parecem estar em mão. Embora os reguladores nos níveis local, federal, estadual ou internacional possam ter precisado aumentar sua compreensão técnica, estes caem amplamente na área dos dois primeiros tipos de problema de Heifetz. É claro que algumas das questões levantadas pelo big data, algoritmos e inteligência artificial podem cruzar fronteiras regulatórias: a regulamentação da propaganda política, baseada em anúncios personalizados direcionados pela análise de dados, para dar um exemplo, pode envolver reguladores eleitorais, reguladores de mídia, reguladores de publicidade e autoridades de proteção de dados, exigindo atenção interorganizacional. Isso os torna complicados, mas não necessariamente "perversos". Algoritmos que desafiam a compreensão humana são os que poderiam se apresentar como "problemas perversos".
Abordar problemas complexos pode ser tanto uma questão de definição de problemas quanto de solução de problemas. Como Schoen (1983, p. 40) escreve, a configuração do problema é:
o processo pelo qual definimos a decisão a ser tomada, os fins a serem alcançados, os meios que podem ser escolhidos. Na prática do mundo real, os problemas não se apresentam aos praticantes como dados. Eles devem ser construídos a partir de materiais ou situações problemáticas que sejam intrigantes, problemáticas e incertas.
Dentro das organizações, os indivíduos aplicam uma forma de construção de sentido, dependendo do contexto social e histórico em que se encontram (Weick et al. 2005; Weber e Glynn 2006). Hoppe (2011) argumenta que há uma heurística útil a ser encontrada para o desenho de políticas ao pensar em problemas em uma série de estágios articulados: detecção de problemas, definição de problemas e resolução de problemas. Isso nos ajuda a conceber os problemas perversos não como estáticos, mas como evoluindo e capazes de serem moldados e gerenciados. Grint (2010) sugere que "o papel do líder com um problema perverso ... é fazer as perguntas certas em vez de fornecer as respostas certas". O desafio para a liderança pública na era do algoritmo é tanto sobre o enquadramento de problemas quanto sobre sua resolução.
O Contexto Discursivo
A assimetria de informação entre as instituições de governança e regulatórias e as empresas de tecnologia é um dos fatores que afetam se um problema pode ou não ser definido como "mau" e soluções encontradas (Danaher et al., 2017). As relações de poder entre governos e atores privados são desequilibradas no "estado esgotado" (Lodge 2013), e os atores privados têm recursos financeiros para recrutar talentos disponíveis com pacotes de recompensas que superam os oferecidos pelo governo ou pela academia. Os empreendedores de tecnologia e as empresas que eles controlam são capazes de moldar não apenas o conhecimento, mas também o discurso em torno da tecnologia, usando seu "controle da linguagem técnica" (Marvin 1988) "discursivamente para enquadrar seus serviços e tecnologias" (Gillespie 2010). como um exemplo de sua percepção de 'liderança de pensamento' (Drezner 2017) e 'autoridade epistêmica' (Coni ‐ Zimmer et al. 2017). Nesse contexto, a palavra "algoritmo" é usada para sugerir decisões objetivas desprovidas de preconceitos humanos: os Trending Topics do Facebook foram "revelados por um algoritmo", disse a empresa em 2016 depois de ser acusado de preconceito anticoncursivo (Osofsky 2016).
No Vale do Silício, dizem Levina e Hasinoff (2017), a interrupção é retratada como uma estratégia que impulsiona o progresso tecnológico e melhora o mercado, ajudando a desmantelar regulamentações governamentais e monopólios ineficientes, que dizem libertar e capacitar indivíduos. Esta é a doutrina da "inovação disruptiva" (Christensen, 1997), expressa na formulação do Facebook "Mova-se rapidamente e parta as coisas" (Taplin 2017). Como Beck (1992) observou, a noção de tecnologia como progresso tornou-se a posição hegemônica. Eu chamo essa abordagem de "valores do silício", em oposição a valores públicos ou humanos. Em 2016, o presidente Obama fez uma defesa deliberada e ponderada do valor público sobre os valores do Silicon, afirmando que "o governo nunca funcionará como o Vale do Silício funciona", já que o governo teve de lidar com problemas que ninguém queria resolver (Casa Branca 2016) .
Carr (2016) sugere que a liderança política na "era da informação" requer a compreensão de que a política pode moldar a tecnologia. Em reação à afirmação de que a Internet era ingovernável, Spar (2001) analisou desenvolvimentos anteriores em tecnologias de comunicação para identificar fases de evolução em direção à governança baseada em regras, argumentando que quando uma tecnologia é nova, ela muitas vezes parece ingovernável. Ela identifica quatro fases de desenvolvimento: inovação, comercialização, anarquia criativa e regras (ver também Kohl 2012). Ela identifica o desafio da criação de regras: "é improvável que as leis antigas cubram as tecnologias emergentes e que as novas demorem a ser criadas". Empreendedores podem entrar em um "mercado sem forma" planejando dominá-lo. Mas logo, torna-se necessário estabelecer regras claras de propriedade, coordenação de normas técnicas e evitar o monopólio, ou a regulamentação em que monopólios naturais são formados. Às vezes, a pressão vem dos pioneiros tecnológicos, às vezes de seus concorrentes, ou "às vezes é o estado e, às vezes, uma coalizão de grupos sociais afetados pela nova tecnologia e pelo mercado que ela produziu". A regulação nunca é neutra: como Moe (1990) disse, "para a maioria das questões, na maioria das vezes, um conjunto de grupos de interesse organizados já ocupa e estrutura os níveis mais altos da tomada de decisões políticas". Ele sugere que o compromisso é frequentemente construído na construção de instituições reguladoras, sejam elas agências ou leis. A governança e a regulamentação se desenvolvem em um contexto contestado.
Discussão
Questões de ética e valor são fundamentais para o desenvolvimento da governança dos algoritmos mais complexos (Walport 2017). Esta seção examinará a busca por valor público na formulação de políticas utilizando o princípio organizador de Moore do triângulo estratégico (Benington e Moore, 2011):
- O desenvolvimento de um claro propósito público - Gestão do ambiente autorizador - Desenvolvimento da capacidade relevante.
A "base filosófica" revista de Moore (2014) para PVT tem relevância direta. Como Geuijen et al. (2017) argumentam que a definição da meta de valor público precisa levar em conta a reivindicação de direitos e o cumprimento de deveres, equilibrando custos e benefícios sociais, no interesse de uma sociedade justa global coletivamente concebida. Cath et al. (2018) sugerem que o conceito de dignidade humana assumido no Regulamento Geral Europeu de Proteção de Dados (GDPR), que se baseia na Declaração Universal dos Direitos Humanos de 1948, deveria ser o conceito central para a "boa sociedade da IA". O relatório sobre governança de dados da Royal Society e British Academy (2017) argumenta que "a promoção do florescimento humano é o princípio geral que deve guiar o desenvolvimento de sistemas de governança de dados".
Alford et al. (2017) reconhecem que no relato de Moore a construção de constituintes legitimadores é uma parte necessária da gestão pública estratégica e pode incluir "legisladores, grupos de interesse, reguladores, clientes e ... o público em geral". Criar o ambiente de autorização significa construir uma demanda pública por ação. As evidências empíricas mostram que isso significa problematizar, em termos políticos, as questões que afetam a vida cotidiana das pessoas, e não os algoritmos propriamente ditos. É improvável que o estabelecimento de qualquer caso para ação seja incontestável. Aqueles com poder existente, como empresas de tecnologia corporativa, podem argumentar que a intervenção é desnecessária e também uma ameaça à inovação. Em alguns casos, os governos fazem parcerias com eles na elaboração de políticas, como foi o caso do Facebook e da política britânica de inteligência artificial (Hall e Pesenti 2017). Pode haver prioridades políticas concorrentes: as questões de privacidade podem dominar em um domínio, mas as aspirações de competitividade econômica podem competir com as preocupações de segurança em outro (por exemplo, carros sem motorista). Os desafios políticos não podem ser eliminados (McConnell 2018). O argumento está sendo discutido caso a caso em cada domínio político, desenvolvendo uma compreensão mais ampla dos desafios do governo, do Parlamento e das redes reguladoras, na mídia e por meio do engajamento público.
O debate sobre governança algorítmica repousa dentro de círculos políticos, políticos e midiáticos de elite, embora às vezes tenha sido estruturado o diálogo público com grupos focais, pesquisas e discussões (Royal Society / IPSOSMori 2017). A pesquisa empírica sugere que ações específicas foram realizadas para chamar a atenção para um ambiente autorizador, incluindo:
- uma clara narrativa mobilizadora (Royal Society / British Academy 2017) - o endosso de especialistas no campo (Hall e Pesenti 2017) - endosso político amplo e transversal (House of Lords, 2018).
A conclusão geral da pesquisa da Royal Society / IPSOSMori e outras evidências de pesquisa do programa Mercado Único Digital da UE (Comissão Europeia 2017) sugere que as pessoas estão abertas a explorar o papel da inteligência artificial, embora acreditem que essas tecnologias exigem "gerenciamento cuidadoso" .
Lodge e Wegrich (2014) destacam quatro capacidades necessárias para a prontidão de governança: entrega, regulação, coordenação e análise. Diz-se que estes são necessários para resolver "problemas perversos". Tais capacidades podem incluir novos poderes, inclusive em matéria de execução, como aqueles apresentados pelo governo do Reino Unido para o Comissário de Informação em 2018 (House of Commons 2018b) ou aumento do financiamento, pessoal e aprendizagem organizacional (Denham 2018; Information Commissioner's Office 2018b). Em termos de algoritmos em negociação de alta frequência, o objetivo do regulador, a Financial Conduct Authority, era "não deixar o melhor se tornar o inimigo do bem", reconhecendo que "a perfeição é, francamente, uma impossibilidade" (Wheatley 2014). ). Isso ilustra os dilemas em tempo real que os reguladores enfrentam: eles precisam operar com base em julgamentos e heurísticas, e não em testes absolutamente controlados por laboratório. A prontidão regulatória, portanto, não é um estado estabelecido, mas um processo dinâmico e interativo de aprendizado e adaptação, no qual os reguladores estão sempre, até certo ponto, "alcançando" a tecnologia (Gomber e Gsell, 2006).
A análise empírica identificou uma série de maneiras pelas quais as instituições governamentais estão procurando se tornar "governança pronta" para a era algorítmica. Estes incluíram a publicação de evidências científicas autorizadas de especialistas internos do governo (Walport 2013, 2016; Gabinete Executivo do Presidente 2016); o comissionamento de conselhos éticos e analíticos externos (Hall e Pesenti 2017; Royal Society / British Academy 2017); a organização de encontros deliberativos com o público e pesquisa de opinião (Royal Society / IPSOSMori 2017); consulta pública formal (Comissão Europeia 2017); o envolvimento de comités de legisladores em inquéritos baseados em evidências sobre estas áreas (Parlamento Europeu 2016; Câmara dos Comuns 2016, 2017, 2018a, 2018c; Câmara dos Lordes 2016, 2018); a criação de novas instituições, como o Instituto Allan Turing, o Centro de Ética e Inovação de Dados e o Office for AI (DBIS 2014; DCMS 2018); e investimento setorial (DBEIS / DCMS 2018).
A análise empírica das discussões regulatórias contemporâneas do Reino Unido identificou soluções políticas específicas defendidas para regulamentação futura de algoritmos e big data, que incluem soluções técnicas, de governança, regulatórias, legislativas e institucionais (para um resumo mais completo, ver Andrews, 2017). Além disso, haverá desafios setoriais específicos na regulação algorítmica (Royal Society 2017). A atenção limitada parece ter sido dada às questões de governança multinível em nível local ou federal, embora a cooperação internacional tenha sido amplamente discutida (Parlamento Europeu 2016; Cath et al. 2018).
Conclusão
A mudança tecnológica permanece sob pesquisa e pouco teorizada na literatura da administração pública, mas os desafios tecnológicos enfrentados pelos profissionais da administração pública estão crescendo em complexidade. Este artigo analisou alguns deles em relação à governança de algoritmos, big data, aprendizado de máquina e inteligência artificial, conforme apresentados no contexto de mídia e políticas públicas. O artigo identifica que certos tipos de algoritmos podem ser considerados "problemas graves", mas que outros estão sendo abordados por meio de leis existentes, como proteção de dados, privacidade e igualdade e leis de direitos humanos, ou procedimentos regulatórios. Os reguladores podem ter que desenvolver novas capacidades para entender os desafios que estão surgindo e, em alguns casos, as leis podem ter que ser atualizadas. Em relação aos desafios algorítmicos que não testam os limites da compreensão humana, há uma necessidade de análise domínio-a-domínio dos desafios e prováveis riscos futuros (Reisman et al., 2018). Os reguladores precisam dar atenção às maneiras pelas quais os problemas são construídos pelos participantes do mercado, incluindo grandes empresas corporativas de tecnologia. Algoritmos cujo trabalho levanta questões que desafiam a compreensão humana - muitas vezes identificadas como "caixas-pretas" (Pasquale 2015) - devem ser considerados "problemas perversos", e o artigo amplia nossa compreensão da natureza dos "problemas perversos" sob essa luz.
O artigo também considerou se a teoria do valor público pode ser considerada como uma estrutura analítica para examinar como reguladores e governos tratam de questões complexas e inovadoras. O artigo discute isso no contexto específico de trabalho no Reino Unido sobre dados e governança algorítmica. A análise empírica descrita aqui sugere que pode. O trabalho original de Moore (1995) desenvolveu o PVT a partir do exame detalhado do caso das formas pelas quais os gerentes públicos se comportavam. Mais recentemente, ele e outros (Geuijen et al., 2017) consideraram como a PVT poderia ser utilizada para lidar com problemas graves. Neste artigo, analisei como os envolvidos em questões de dados e governança algorítmica identificaram claramente um objetivo de valor público, exploraram as questões levantadas deliberadamente em um “ambiente autorizador” construído e tentativo e consideraram se a capacidade de governança necessária existe, levando a recomendações específicas, como a criação de um novo Centro de Ética e Inovação de Dados, agora sendo estabelecido "com uma missão específica para algoritmos" (Câmara dos Comuns 2018c) e outras medidas de capacitação (Câmara dos Lordes 2018). Assim como o valor público estava sendo desenvolvido antes de Moore construir o PVT, os cientistas de dados, especialistas em ética, advogados e líderes públicos estão criando valor público em um novo campo de governança, mesmo que o PVT não seja explicitamente citado como sustentador de seu trabalho. Claramente, há uma necessidade de mais pesquisas sobre o uso de PVT como uma estrutura analítica e normativa para avaliação regulatória, usando estudos de caso, entrevistas qualitativas, análise documental e modelagem quantitativa. Isso pode incluir uma análise empírica de como os reguladores lidam com novos desafios em uma base caso a caso, domínio por domínio ou comparativo. O artigo, portanto, sugere maneiras novas e frutíferas pelas quais a PVT pode ser explorada em contextos regulatórios e de governança, dando apoio adicional à análise filosófica de Moore (2014).