fbpx

Podem as máquinas receber e reproduzir valores humanos?

Podem as máquinas receber e reproduzir valores humanos?

A definição clássica de algoritmo na Ciência da Computação é “conjunto finito de instruções lógicas e sequenciais aplicadas sobre um conjunto finito de dados para a resolução de cálculos ou classes de problemas”. Na prática, todos os programas de computadores (softwares) são algoritmos codificados em linguagem computacional.

A evolução dos algoritmos nos trouxe a Inteligência Artificial (IA), que pode ser definida como o estudo e projeto de “agentes inteligentes”, isto é, entidades capazes de aprender, raciocinar, perceber e decidir logicamente sobre os fatos no ambiente em que estão inseridos, seja ele físico ou virtual.

De fato, a principal característica das tecnologias de IA é sua capacidade de aprender, ou seja, tomar decisões analisando padrões, tendo como base experiências bem e/ou malsucedidas. Por exemplo, para aprender como pousar uma aeronave, um sistema de IA deve ser “treinado” usando dados históricos de diversos pousos, bem e mal sucedidos, em diversos contextos.

De fato, a principal característica das tecnologias de IA é sua capacidade de aprender, ou seja, tomar decisões analisando padrões, tendo como base experiências bem e/ou malsucedidas.

Assim, o programador vai “mostrar” ao sistema o jeito certo de aterrissar uma aeronave. Com o passar do tempo, o sistema absorve o conhecimento e se torna apto a realizar a operação de maneira autônoma, melhorando sua eficiência a cada novo pouso.

Essa semelhança com a inteligência humana traz consigo um sério problema: o enviesamento, uma espécie de incorporação da subjetividade humana. Segundo Fabrício Lira, executivo de dados da IBM Brasil, “Ao treinar as máquinas para reproduzirem as tarefas e formas humanas de reação e interação, corremos o risco de reforçar e reproduzir os estereótipos e preconceitos também se não houver esse cuidado para que os sistemas recebam valores humanos com senso de diversidade e inclusão” (Revista Intelligent Automation, edição 01).

No dia 19 de setembro, o Twitter, uma das redes sociais pioneiras, protagonizou um episódio que evidenciou como algoritmos enviesados podem causar sérios problemas. Na ocasião, alguns usuários perceberam que o algoritmo projetado para otimizar a visualização de imagens no feed de notícias estava priorizando rostos de pessoas brancas em detrimento de pessoas negras.

Um dos primeiros a perceber isso foi o usuário Tony Arcieri (@bascule). Arcieri, ao postar montagens que colocavam lado a lado o rosto do senador Mitch McConnel e o do ex-presidente Barack Obama, percebeu que o algoritmo sempre priorizava o primeiro para ser exibido no feed de notícias.

“Ao treinar as máquinas para reproduzirem as tarefas e formas humanas de reação e interação, corremos o risco de reforçar e reproduzir os estereótipos e preconceitos também se não houver esse cuidado para que os sistemas recebam valores humanos com senso de diversidade e inclusão”

— Fabricio Lira (Executivo de Dados – IBM Brasil)

Sim, quando a imagem era clicada, ela era exibida completamente, mas, na exibição primária, priorizava-se o rosto branco, o que casou muita polêmica. Para piorar, o algoritmo mostrou o mesmo comportamento com imagens de desenho animado e de animais. Um caso clássico de enviesamento racial.

A assessoria de imprensa do Twitter emitiu um comunicado em seu perfil oficial afirmando que, durante os testes pré-lançamento, não foram encontradas evidências de preconceito racial ou de gênero. Mas também afirmaram que novos testes seriam realizados.

O que pode ter acontecido? De acordo com Leandro Nunes de Castro Silva, coordenador de desenvolvimento e inovação da Universidade Presbiteriana Mackenzie, “O enviesamento humano, às vezes, é imperceptível. Então, quando se pegam diferentes fontes, consegue-se mitigar um pouco o viés. Um dos aspectos que toca bastante o viés de máquina é o ético” (Revista Intelligent Automation, edição 01).

Assim, uma das maneiras de se mitigar o problema é usar amostras de dados diversas e, principalmente, contar com uma equipe multidisciplinar de profissionais capazes de considerar aspectos técnicos, éticos, sociais, legais e inclusivos. Em 2018, a Cognizant, empresa de consultoria estadunidense, publicou um estudo em que listou a profissão de auditor de viés de algoritmo como uma das principais carreiras deste século.

A julgar por esse episódio envolvendo o Twitter e, principalmente, o forte crescimento da IA, esse profissional será imprescindível a todas as organizações que usam ou são afetadas pela IA, sejam públicas ou privadas.


Texto publicado originalmente no Jornal de Jales, coluna Fatecnologia, no dia 04/10/2020


Para saber mais:

Jorge Luís Gregório

Jorge Luís Gregório

Professor e entusiasta de tecnologia, estudioso da cultura NERD e fã de quadrinhos, animes e games. Mais um pai de menino, casado com a mulher mais linda da galáxia e cristão convicto. Gosto de ler ficção científica e discutir tecnologia, filmes, seriados, teologia, filosofia e política. Quer falar sobre esses e diversos outros assuntos? Venha comigo!