Sex, Violence, and Autocomplete Algorithms
O preenchimento automático é uma daquelas maravilhas modernas da tecnologia de pesquisa em tempo real que quase parece que você está lendo sua mente. Graças a analisar e analisar o que milhões de outros usuários já pesquisaram e clicaram, o Google sabe que, quando você começa a digitar uma consulta com um "d", provavelmente está procurando um dicionário. Além dos ganhos de eficiência de não ter que digitar tanto, as sugestões podem ser acertadas e educacionais, estimulando idéias alternativas de consulta. No processo, nosso comportamento de pesquisa é sutilmente influenciado pela exposição a possibilidades de consulta que talvez não tenhamos considerado se deixadas a nós mesmos.
Então, o que acontece quando coisas desagradáveis, talvez impertinentes ou mesmo ilegais, se infiltram nessas sugestões? Como sociedade, provavelmente não queremos que os pedófilos tenham mais facilidade para encontrar fotos de crianças nuas ou para incitá-las violentamente predispostas a novas idéias de abuso. Essas sugestões são bloqueadas e filtradas - censuradas - por seu potencial de nos influenciar.
Como o Google escreve em suas Perguntas frequentes sobre preenchimento automático, "excluímos uma classe restrita de consultas de pesquisa relacionadas a pornografia, violência, incitação ao ódio e violação de direitos autorais". Bing, por outro lado, garante "filtrar spam" e " detectar conteúdo adulto ou ofensivo ”, de acordo com uma publicação recente no blog do Bing. Tais escolhas humanas preparam o terreno para especificar amplamente quais tipos de coisas são censuradas, apesar das afirmações do Google de que os preenchimentos automáticos são, na maioria das vezes, "determinados por algoritmos ... sem qualquer intervenção humana".