A importância da diversidade na construção de Inteligências Artificiais

Original article was published by Leco Vilela on Artificial Intelligence on Medium


A importância da diversidade na construção de Inteligências Artificiais

Criada em 1950, pelo matemático, John McCarthy, a Inteligência Artificial (IA), tornou-se com o passar do tempo um dos assuntos mais abordados da atualidade. Entre os temas mais discutidos pelo universo acadêmico, o impacto que a IA pode ter na economia, assim como na força de trabalho levaram a um número expressivo de trabalhos acadêmicos sobre o assunto.

McCarthy, nascido em 4 de setembro de 1927, em Boston (USA), desenvolveu a linguagem Lisp, que tinha o objetivo de tratar dados simbólicos, dando a capacidade de uma máquina manipular determinadas funções. McCarthy defendeu em seu artigo “Logic and Formalizing Common Sense”, como a lógica matemática pode ser utilizada para pré definir o senso comum e a partir disso resolver problemas dessa ordem através de raciocínio lógico.

Toda tecnologia dedicada a criação de uma inteligência robótica parte então de um princípio de preditividade com base no acúmulo de dados, em que ação e reação são perpetuadas aumentando o índice de confiabilidade da informação entregue pela IA. Esse comportamento de triagem de informações realizada por robôs corrobora para que pessoas com atitudes e opiniões similares se aproximem devido a facilidade em prever através de dados que pessoa A teria mais propensão a se interessar pela pessoa B. Tal conexão com ideias comuns acaba por afastar pessoas com opiniões diferentes, gerando bolhas sociais em que o senso comum vigente reflete apenas as informações que circulam dentro desse microuniverso, criando um recorte / reflexo muito específico de realidade, propagando um comportamento vicioso de exclusão do diferente, comportamento este explicado pela teoria de comunicação conhecida por Espiral do Silêncio, da alemã Elisabeth Noelle-Neumann.

Exemplo de tweet produzido pelo chatbot @TayandYou

O caso que ficou mundialmente famoso do chatbot @TayandYou, da empresa Microsoft, exemplifica esse comportamento. Nesse teste a IA foi exposta a uma rede sociais de microblog, o Twitter, e em menos de duas horas exposta aos conteúdos gerados pelas pessoas que interagiam com o seu perfil, @TayandYou tornou-se uma persona radical, disseminando mensagens racistas, homofóbicas e xenófobas, o que forçou a empresa tirar a tecnologia do ar em menos de 24 horas.

Cortana (Microsoft), Siri (Apple), Alexia (Amazon), são outros exemplos IAs com quem interagimos no nosso dia a dia, qualquer pessoa com acesso a um computador ou celular já interagiu, seja via voz ou texto, com um robô. A massa de dados geradas por cada uma dessas inteligências acaba sendo tratada e filtrada a fim de evitar a reprodução de comportamento hostil como o caso anterior. Esse movimento realizado pelas empresas de tecnologia acaba reforçando a necessidade de utilizar dados socioculturais na análise de informação. Esse recurso traz, em partes, uma primeira humanização do processo preditivo desses robôs. Porém ainda é necessário trabalhar com dados socioeconômicos, uma vez que a tecnologia é mais acessível em países desenvolvidos e para pessoas com alto poder aquisitivo, excluindo assim uma parcela de dados significativa.

A exclusão de dados periféricos, por exemplo, é o que leva ao fato de IAs serem menos inteligentes em países subdesenvolvidos. Um estudo realizado por profissionais do departamento de inteligência artificial do Facebook, identificou que IAs de reconhecimento de imagens são 20% menos inteligentes em países do terceiro mundo. Dentre as inteligências testadas estão a das empresas: Facebook, Google, IBM, Microsoft e Amazon, algumas dessas proprietárias das IAs descritas no parágrafo anterior.

Recorte da capa do livro “Algorithms of Oppression: How Search Engines Reinforce Racism”, da autora e pesquisadora Safiya Umoja Noble

O problema gerado pela falta de referência é tão grande que a inteligência aritifical do Google já confundiu imagens de mulheres negras com gorilas, como Safiya Umoja Noble expõe no seu livro “Algorithms of Oppression: How Search Engines Reinforce Racism”, a empresa chegou a se desculpar publicamente sobre o assunto e passou a tratar a informação evitando que isso voltasse a acontecer. Ainda sobre este assunto, a pesquisadora Joy Buolamwini, do MIT, estudou a precisão de identificação de mulheres negras através de sistemas de reconhecimento facial, em seu artigo “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”.

Fica evidente assim a necessidade de trabalhar a gestão de diversidade em projetos de inteligência artificial, não só para acúmulo de massa de dados diversificado como também a composição de times diversos, permitindo a inclusão de vivências outras e recortes de realidade únicos. A reparação histórica, tão falada pelos movimento antirracismo, deve também ser considerada quando pensamos no presente dessas IAs, é necessário criar mecanismos que garantam o maior peso aos dados de minorias sociais uma vez que estes grupos apresentam menor histórico de dados. Só assim conseguiremos alcançar um lugar igualitário capaz de prever cenários inclusivos e sustentáveis.

*Publicado originalmente em minha conta no linkedin, em 08 de outubro de 2019.