Neste episódio, convidamos a cientista da computação Nina da Hora para discutir injustiças algorítmicas e como máquinas e a inteligência artificial podem reproduzir preconceitos e perpetuar problemas da sociedade.
Entre os casos citados no episódio, estão a distorção causada por um algoritmo que calculava a chance de reincidência de presos nos Estados Unidos, como revelado pela ProPublica; câmeras da Nikon que perguntavam se asiáticos estavam piscando; e um algoritmo para calcular a gravidade de problemas no fígado que errava na análise quando os pacientes eram negros.
Aqui está a Linha do Tempo do Racismo Algorítmico criada por Tarcízio Silva. E o artigo do Boston Review que faz uma analogia entre testes de fármacos novos e a falta de reflexão sobre as consequências de novas tecnologias de inteligência artificial.
Para acabar, leia aqui a matéria O Preconceito das Máquinas, de onde vieram os comentários que abrem o episódio.