Google vê aumento de tensão com o seu grupo de ética em inteligência artificial

Pesquisadores de IA desejam que a empresa faça para “reconstruir a confiança” com a equipe e criar um ambiente no qual eles possam continuar seu trabalho

A tensão entre o grupo Ethical AI do Google (o grupo de ética da Inteligência Artificial da empresa) e os executivos da companhia aumentou na quarta-feira (16), quando os funcionários enviaram uma lista de demandas sobre a recente saída de Timnit Gebru, uma mulher negra com papel de liderança na equipe e proeminente em um campo que é predominantemente branco e masculino.

Enviada ao CEO Sundar Pichai, a carta tem como título “O futuro da Ethical AI no Google”. O documento descreve0 os movimentos que os pesquisadores desejam que a empresa faça para “reconstruir a confiança” com a equipe e criar um ambiente no qual eles possam continuar seu trabalho.

A equipe pesquisa as repercussões éticas da inteligência artificial e assessora a empresa sobre políticas e produtos de IA.

Leia também:
Novo unicórnio: Creditas recebe aporte de US$ 255 mi e agora vale US$ 1,75 bi
Natal chegando: 11 eletrônicos lançados este ano que custam de R$ 199 a R$ 5.400

A carta foi enviada logo depois da saída repentina de Timnit Gebru, que até o início de dezembro era uma poucas funcionárias negras na empresa  (3,7% dos funcionários do Google são negros, de acordo com o relatório anual de diversidade da empresa em 2020), e raríssima na divisão de IA. A pesquisadora também é cofundadora do grupo Black in AI, que tem como objetivo aumentar a representação de negros na área.

As demandas na carta incluem a remoção de uma vice-presidente do Google, Megan Kacholia, da cadeia de gestão da equipe; a transparência em torno da saída de Gebru; e um pedido de desculpas para Gebru feito pelo chefe de IA do Google, Jeff Dean, e pela VP Kacholia.

Também pede que a empresa ofereça a Gebru um novo cargo de alto nível, que se comprometa publicamente com a integridade das pesquisas conduzidas no Google e que garanta que não prejudicará nenhum trabalhador que defenda a executiva demitida.

Em uma mensagem enviada a Pichai e outras pessoas relacionadas à carta, Alex Hanna, pesquisador sênior da Ethical AI, disse que o documento foi enviado em nome de sua equipe. Uma fonte familiarizada com a equipe disse que o grupo é formado por cerca de uma dúzia de funcionários.

Relatada em primeira mão pela Bloomberg, a carta também foi vista pela CNN Business, que confirmou sua autenticidade. O Google não respondeu a um pedido de comentário sobre o tema. 

No dia 2 de dezembro, Gebru tuitou que ela fora “demitida imediatamente” por causa de um email que havia enviado recentemente para a lista de emails interna da empresa Brain Women and Allies do Google. No email, ela expressou consternação com a contínua falta de diversidade na empresa e frustração com um processo interno relacionado à revisão de um artigo de pesquisa ainda não publicado, do qual é coautora.

Em tuítes posteriores, Gebru esclareceu que ninguém no Google disse com clareza a razão de sua demissão. Afirmou também que o Google não atenderia a uma série de condições que ela colocaria para retornar, porque seu email refletia “comportamento que é inconsistente com as expectativas de uma gerente do Google”.

A saída repentina de Gebru irritou rapidamente milhares de funcionários da empresa e representantes das comunidades de tecnologia e acadêmica.

No dia 9 de dezembro, o Google disse que examinaria a partida de Gebru. Em um memorando enviado aos funcionários do Google, Pichai escreveu que a empresa precisa “avaliar as circunstâncias” que levaram Gebru a deixar a empresa e examinar “onde poderíamos ter melhorado e conduzido um processo mais respeitoso”.

“Começaremos uma revisão do que aconteceu para identificar todos os pontos onde podemos aprender – considerando tudo, desde estratégias de desaceleração até novos processos que podemos implementar”, escreveu ele em um memorando que foi confirmado como autêntico pela CNN Business.

Gebru é conhecida por sua pesquisa sobre preconceito e desigualdade em IA e, em particular, por um estudo de 2018, do qual é coautora, que destacou como o software comercial de reconhecimento facial se saiu mal ao tentar classificar mulheres e pessoas não brancas.

Seu trabalho despertou uma consciência generalizada dos problemas comuns na IA hoje, especialmente quando a tecnologia tem a tarefa de identificar qualquer coisa sobre os seres humanos.

(Texto traduzido, clique aqui para ler o original em inglês).

 

Tópicos