Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Getty Images/iStockphoto
Quem é mais preciso para calcular as chances de um réu cometer novos crimes :
um software utilizado pela justiça americana ou um bando de palpiteiros na mesa de
boteco sem nenhuma formação na área?
VEJA TAMBÉM
https://tecnologia.uol.com.br/noticias/redacao/2018/04/24/preconceito-das-maquinas-como-algoritmos-tomam-decisoes-discriminatorias.htm 1/7
24/04/2018 Preconceito das máquinas: como algoritmos podem ser racistas e machistas - Notícias - Tecnologia
E se isso já seria preocupante por si só, o cenário fica ainda pior com o
conhecimento de que o tal software tende a prever de maneira equivocada a
reincidência criminal de pessoas negras, apontando o dobro da probabilidade
em comparação com brancas.
O tema tem sido motivo de debate em fóruns acadêmicos, discussões legais e entre
a iniciativa privada ao redor do mundo. E não é difícil entender o por quê. Desde a
maneira como Facebook decide quais conteúdos serão exibidos para determinado
usuário, ao cálculo de chance de obter um empréstimo ou financiamento, e até a
https://tecnologia.uol.com.br/noticias/redacao/2018/04/24/preconceito-das-maquinas-como-algoritmos-tomam-decisoes-discriminatorias.htm 2/7
24/04/2018 Preconceito das máquinas: como algoritmos podem ser racistas e machistas - Notícias - Tecnologia
Racismo e machismo
O software usa 137 critérios para avaliar a chance de reincidência criminal - raça
não é uma delas. Mesmo assim, ele tende a ser mais rigoroso com negros do
que com brancos. A partir de uma investigação com o histórico de sete mil casos
analisados, a ONG ProPublica concluiu que 44.9% dos negros identificados como
de alto risco não cometeram novos crimes, contra 23.5% de brancos no mesmo
cenário. Por outro lado, brancos identificados como de baixo risco voltaram ser
presos em 47.7% dos casos, contra 28% de negros.
Mas esse está longe de ser o único caso de máquinas preconceituosas. Em 2016,
Tay, um bot criado pela Microsoft para interagir e aprender com pessoas no Twitter,
chamou atenção não pela sua eficiência, mas pela rapidez em que se transformou
em um monstro. Do discurso simpático das primeiras postagens, em menos de
24 horas passou para o ódio às feministas e defesa de Hitler - o que obrigou a
empresa a tirá-la do ar. Assustador, mas ainda assim um experimento social sem
muitos efeitos práticos.
https://tecnologia.uol.com.br/noticias/redacao/2018/04/24/preconceito-das-maquinas-como-algoritmos-tomam-decisoes-discriminatorias.htm 3/7
24/04/2018 Preconceito das máquinas: como algoritmos podem ser racistas e machistas - Notícias - Tecnologia
Isso sem contar os algoritmos do Uber que pagam mais para motoristas do sexo
masculino (https://tecnologia.uol.com.br/noticias/redacao/2018/02/07/mulheres-
motoristas-de-uber-ganham-7-a-menos-do-que-homens-diz-estudo.htm), segundo
um estudo da Universidade Stanford.
"Esse é um problema da toda tecnologia, ela pode ter um bom ou um mal uso. O
desafio é encontrar maneiras de inibir o mau uso", diz André de Carvalho, professor
do Instituto de Ciências Matemáticas e Computação da USP.
Uma das abordagens propostas para contornar essa questão chama-se FAT - sigla
para Fairness, Accountability e Transparency. "É a ideia de que os algoritmos
precisam ser justos, transparentes e de que as respostas a que eles chegam
possam ser explicáveis", conta Rocha.
Como exemplo dessa abordagem, ele cita um projeto na Unicamp que busca prever
cegueira causada por diabetes com base em imagens de retina. "Os primeiros
algoritmos tomavam decisões e não explicavam como. Agora buscamos clareza e
na própria imagem utilizada são identificadas quais regiões foram consideradas
para chegar ao resultado, ou seja, é explicável."
"Tudo está em código aberto, então é transparente, não há segredos. Por fim, o
algoritmo acaba justo porque damos como elementos de treinamento dados
balanceados que buscam reproduzir características da doença na população em
geral, tanto em etnias variadas quanto nos sexos", diz o professor.
https://tecnologia.uol.com.br/noticias/redacao/2018/04/24/preconceito-das-maquinas-como-algoritmos-tomam-decisoes-discriminatorias.htm 4/7
24/04/2018 Preconceito das máquinas: como algoritmos podem ser racistas e machistas - Notícias - Tecnologia
Leis
Uma das saídas também pode estar na formulação de leis que pedem maior
transparência dos algoritmos. Na General Data Protection Regulation (GDPR),
regulação de proteção a dados e privacidade que passa a vigorar em maio na União
Européia, há exigências para que uma pessoa sujeita a decisões tomadas de
maneira automática por algoritmos tenha direito à revisão e explicação desse
processo, assim como uma segunda análise feita por um humano.
https://tecnologia.uol.com.br/noticias/redacao/2018/04/24/preconceito-das-maquinas-como-algoritmos-tomam-decisoes-discriminatorias.htm 5/7
24/04/2018 Preconceito das máquinas: como algoritmos podem ser racistas e machistas - Notícias - Tecnologia
Na realidade, Doneda explica que o Brasil tem uma lei que trata da necessidade de
clareza sobre decisões tomadas por algoritmos com base em banco de dados. É a
Lei 12.424, conhecida como Lei do Cadastro Positivo, que regula informações
utilizadas por entidades financeiras para calcular, entre outras coisas, a viabilidade
de oferecer empréstimo ou financiamentos para determinada pessoa.
Ainda assim, boa sorte se quiser descobrir porque sua oferta de crédito caiu
de um mês para outro ou porque não consegue financiar um apartamento. "Eu
não conheço decisões que tenham exigido explicações minimamente concreta de
empresas. Serasa e Boa Vista [dois dos maiores nomes desse setor] estão
tentando avançar um pouco com páginas onde explicam o que é o score de crédito,
mas são informações muito básicas que não mostram o processo de decisões", diz
Doneda.
Veja também
https://tecnologia.uol.com.br/noticias/redacao/2018/04/24/preconceito-das-maquinas-como-algoritmos-tomam-decisoes-discriminatorias.htm 6/7
24/04/2018 Preconceito das máquinas: como algoritmos podem ser racistas e machistas - Notícias - Tecnologia
© 1996-2018 UOL - O melhor conteúdo. Todos os direitos reservados. Hospedagem: UOL Host
https://tecnologia.uol.com.br/noticias/redacao/2018/04/24/preconceito-das-maquinas-como-algoritmos-tomam-decisoes-discriminatorias.htm 7/7