• 06-10-2024

Pesquisadores dos EUA descobriram que veículos tecnológicos detectam melhor pedestres com tons de pele mais claras por viés humano

A lista de preocupações sobre segurança e ética com carros autônomos ficou mais longa. Além dos cuidados com motorista, passageiro e pedestres e responsabilidade com o tráfego, agora também é preciso ter atentar-se com o "racismo digital". 

 

De acordo com estudo do Instituto de Tecnologia da Geórgia, dos Estados Unidos, um negro tem maior probabilidade de ser atingido por um carro autônomo do que um branco, pois os veículos autônomos detectam melhor pedestres com tons de pele mais claras.  

 

Os autores da pesquisa, que foi intitulada "Iniquidade Preditiva na Detecção de Objetos", fizeram uma pergunta simples, segundo  reportagem  do  Vox : com que rigor os modelos de detecção de objetos de última geração detectam pessoas de grupos demográficos diferentes? 

 

Para descobrir, eles analisaram um conjunto de imagens com pedestres e dividiram as pessoas usando a escala de Fitzpatrick —  uma classificação para os tons de pele humana, do mais claro ao escuro. 

Os pesquisadores, então, analisaram quantas vezes o sistema detectou corretamente a presença de pessoas no grupo de pele clara  versus a frequência com que acertaram as pessoas no grupo de pele escura. 

O resultado? A análise foi cinco pontos percentuais menos precisa, em média, para o grupo de pele escura. Essa disparidade persistiu mesmo quando os pesquisadores controlavam variáveis ​​como o horário do dia ou a visão ocasionalmente obstruída de pedestres. 

O relatório, no entanto, não deve ser tomado como 100% correto ainda. Além de não ter passado pela revisão de pares, um procedimento comum na academia em que cientistas revisam os estudos de colegas para certificar a precisão das informações, o documento não levou em consideração os sistemas específicos de detecção de objetos desenvolvidos pelas fabricantes de carros autônomos. 

Em vez disso, foram usados modelos desenvolvidos anteriormente por pesquisadores do tema, com base em dados públicos. Isso porque as montadoras não divulgam abertamente os detalhes de seus sistemas de segurança – algo que gera polêmica no setor, dada a importância do tema. 

Os resultados, contudo, sugerem novas evidências sobre como o viés humano se infiltra nos sistemas de inteligência artificial. 

O exemplo mais famoso veio à luz em 2015, quando o sistema de reconhecimento de imagem do Google classificou afroamericanos como "gorilas". Como os sistemas algorítmicos "aprendem" com base nos exemplos com os quais são alimentados, se não receberem modelos suficientes de mulheres negras, por exemplo, durante o estágio de aprendizado, eles terão mais dificuldade em reconhecê-las quando a tecnologia for implantada. 

Segundo os pesquisadores, o equilíbrio dos dados pode ajudar a corrigir o viés. Ou seja, uma solução para problema é incluir mais exemplos de negros no sistema, além de garantir que as equipes que desenvolvem novas tecnologias sejam racialmente diversas. 

Fonte G1

Redação Africanize

Redação do Africanize