Por Taiza Oliveira e Giselli Nichols |
Um grupo de cientistas denominado Coalizão para Tecnologia Crítica (Coaltition for Critical Technology) se manifestou contra a publicação de um artigo cujo tema é a criação de um software com Inteligência Artificial que prevê comportamento criminoso apenas com análise facial. A carta pública destinada à editora norte-americana aborda as consequências da tecnologia baseada em aprendizagem de máquina apontando o risco de recrudescimento do racismo. O documento indica que a machine learning não é uma tecnologia neutra, pois herda crenças da cultura dominante e não existe possibilidade de desenvolver sistemas de previsão criminal livres do racismo.
Impacto em Segurança e Defesa: Tecnologias de reconhecimento facial para prevenção criminal sem imparcialidade podem provocar aumento da tensão racial e descrença no sistema legal, influenciando na geração de conflitos domésticos e consequente aumento da insegurança civil.
Fonte: Coalition for Critical Technology. MEDIUM, 2020. Abolish the #TechToPrisonPipeline. Disponível em: https://www.itnews.com.au/news/scientists-want-minority-report-pre-crime-face-recognition-ai-stopped-549633