Rua Hygino Muzy Filho, 737, MARÍLIA - SP contato@latinoobservatory.org
IMG-LOGO
Início / Notícias

Notícias

Inteligência Artificial nas eleições: regras da OpenAI podem ser contornadas para atingir populações minoritárias

Greiciele da Silva Ferreira / Leonardo Martins de Assis / Mayara Metodio Frota | 29/05/2024 20:51 | Análises

O ChatGPT é um chatbot criado pela empresa privada OpenAI e a ferramenta de inteligência artificial que mais cresceu nos últimos meses. Em janeiro de 2023, dois meses após seu lançamento, o chatbot atingiu a marca de 100 milhões de usuários ativos, tornando-se o aplicativo mais rápido a chegar nessa marca. Em comparação, o TikTok demorou nove meses para conquistar o mesmo número. Assim, o constante aumento da presença da inteligência artificial impacta diretamente nossa maneira de produzir e consumir informações, facilitando a disseminação em grande escala de notícias falsas e manipuladas. Conforme discutido em uma recente análise do Latino Observatory, as fakes news, a desinformação, as narrativas falsas e as teorias da conspiração farão parte da corrida presidencial dos Estados Unidos de 2024 de maneira massiva.


Segundo artigo da University of IllinoisUrbana-Champaign, a inteligência artificial pode impactar negativamente a política e as eleições de 2024 ao criar desinformações e as chamadas deepfakes, que são uma forma de inteligência artificial usada para criar imagens, sons e até vídeos falsos, porém convincentes. Os sites de inteligência artificial, como o ChatGPT e o Bard, do Google, são acessados facilmente por qualquer pessoa. Um exemplo dessa utilização indevida aconteceu em 5 junho de 2023, quando a campanha do governador da Flórida, Ron DeSantis, divulgou um vídeo gerado por IA onde o ex-presidente Donald Trump abraçava o ex-conselheiro médico chefe da Casa Branca, Anthony Fauci, responsável por comandar a resposta à pandemia nos governo Trump e Biden. O apoiador de Trump, o senador J. D. Vance do Partido Republicado, postou nas redes sociais alguns dias depois afirmando que “manchar a imagem de Donald Trump com imagens falsas de IA é completamente inaceitável. Eu não estou compartilhando, mas estamos em uma nova era. Seja ainda mais cético em relação ao que você vê na internet” (tradução livre).


Em dezembro de 2023, o Google anunciou que colocaria restrições às respostas do chatbot com cunho político. A Meta também exigiu que os conteúdos divulgados anunciem se utilizaram inteligência artificial. Mais recentemente, no final de janeiro, a OpenAI apresentou seus planos para mitigar o uso político das ferramentas. Entre eles, a empresa disse que não permitiria que suas plataformas gerassem conteúdos relacionados às eleições, e as imagens criadas pelo DALL-E passaram a contar com uma marca d’água para identificar que foram criadas com IA.


No anúncio feito no blog da empresa OpenAI, eles afirmaram que estão “trabalhando para entender o quão eficazes nossas ferramentas podem ser para a persuasão personalizada”. De fato, as novas políticas que as empresas anunciaram para conter o avanço das informações falsas podem ter alguns resultados efetivos, contudo, vale ressaltar que o movimento contra a disseminação de fake news nas empresas ocorreu por grande pressão de ativistas políticos, senadores, deputados e a população.


Além do já citado esforço do Google e da Meta, há iniciativas dos estados dos Estados Unidos. Segundo o conselho de governos estaduais, no final de 2023, Califórnia, Illinois, Maryland e Nova York promulgaram uma legislação para que as pessoas saibam quando a IA está sendo usada. Por exemplo, se um empregador quiser utilizar um sistema IA para coleta de dados de um funcionário, é necessário o consentimento deste último. Ademais, quatro estados – Califórnia, Connecticut, Louisiana e Vermont – possuem uma legislação que protege os indivíduos de “[...] quaisquer impactos ou usos não intencionais, mas previsíveis, de sistemas de IA inseguros ou ineficazes.” (tradução livre).


Contudo, um novo estudo publicado em abril de 2024, apontou que existe uma facilidade em contornar as regras criadas pela OpenAI para atingir comunidades minoritárias e populações marginalizadas, principalmente aqueles que não falam inglês, como os latinos. O estudo, intitulado “Des(gerando) democracia?: Um olhar sobre a manipulação de ferramentas de IA para atingir comunidades latinas online” (tradução livre), foi conduzido pelo Instituto de Democracia Digital das Américas.


O estudo conduziu dois experimentos:

  1. o primeiro utilizou quatro comandos para orientar o ChatGPT a como criar um chatbot, como configurá-lo em espanhol e como direcioná-lo aos eleitores latinos;
  2. o segundo avaliou o potencial do DALL-E, plataforma geradora de imagens da OpenAI, em gerar ilicitamente imagens para fins de propaganda política.

Quanto ao primeiro experimento, o estudo concluiu que não é necessária muita dedicação para contornar as regras estabelecidas pela OpenAI, uma vez que o ChatGPT respondeu a todos os comandos e sequer mencionou as normas da empresa em relação às propagandas políticas. Ademais, a plataforma prioriza os riscos apenas quando utilizada em inglês, criando um precedente para a criação de conteúdo em espanhol.


Em uma das respostas aos comandos enviados sobre como criar um chatbot para a comunidade latina, o ChatGPT retornou dizendo que “direcionar um chatbot para eleitores latinos nos EUA requer uma abordagem diferenciada que respeite a diversidade cultural, preferências linguísticas e questões específicas de importância para a comunidade latina. Veja como você pode personalizar o chatbot para obter eficácia máxima”.


No segundo experimento, o estudo utilizou dois comandos no DALL-E, sendo que o primeiro pedia para a plataforma criar a imagem de um presidente americano. O chatbot retornou com a imagem de perfil de um homem jovem branco em uma sala com vários símbolos dos Estados Unidos. Em seguida, os pesquisadores pediram que o chat deixasse essa imagem mais parecida com o presidente Joe Biden. Felizmente, a plataforma se negou a criar imagens de figuras políticas específicas, demonstrando certo compromisso com as normas estabelecidas pela OpenAI.


Contudo, o estudo recorreu a outra plataforma que utiliza o modelo de linguagem GPT, visto que esse modelo foi desenvolvido pela OpenAI e pode ser utilizado por usuários para aplicar em outras plataformas. Em teoria, essas plataformas deveriam seguir as regras da empresa, mas não foi o que o estudo constatou. Os pesquisadores acessaram uma ferramenta chamada image generator, enviaram uma imagem de Joe Biden comendo uma casquinha de sorvete e solicitaram que o chatbot gerasse um pôster. Apesar das limitações dessa nova ferramenta, eles conseguiram uma foto muito parecida com a original que deixa claro quem é o homem no centro da imagem.


O estudo conduziu mais um experimento no image generator, dessa vez, enviaram uma foto do ex-presidente Donald Trump e pediram para que o chatbot reproduzisse a imagem e colocassem um símbolo de “OK” nas mãos do ex-presidente. Apesar de parecer uma pessoa diferente, a plataforma retornou com a imagem de um homem branco, parecido com um ex-presidente norte-americano, reproduzindo esse símbolo que faz referência à supremacia branca.


Após a divulgação do estudo, Liz Burgeois, porta-voz da OpenAI afirmou, em um comunicado, que “as conclusões deste relatório parecem resultar de uma má compreensão das ferramentas e políticas que implementamos” (tradução livre), e que os comandos utilizados para construir um chatbot não violam as políticas que a empresa estabelece.


É de extrema importância ressaltar o que tudo isso pode vir a significar para os latinos e outras populações migrantes. Há neste ano cerca de 36,2 milhões de latinos elegíveis para votar nos Estados Unidos, constituindo o maior grupo minoritário do país com a habilidade de decidir sobre seu futuro. Entretanto, quando se trata de inteligência artificial, os imigrantes podem tornar-se mais vulneráveis, considerando-se que muitas vezes enfrentam barreiras linguísticas e menos acesso à tecnologia, além de frequentemente, dadas suas origens e países de nascimentos, desconfiarem de sistemas democráticos, como observa o conteúdo publicano no Los Angeles Times


Segundo uma pesquisa do Pew Research Center, “86% da população imigrante asiática acima dos cinco anos de idade fala outro idioma além do inglês em suas casas”. E essa mesma dinâmica funciona para os latinos: apenas 38% da população latina que reside nos EUA relata ser proficiente em inglês. Estes grupos costumam, por isso, preferir conteúdo online em seus idiomas nativos, afastando-se das mídias convencionais, e aumentando a chance de serem expostos a conteúdo falso ou modificado, já que a moderação e checagem de fatos destes meios são muito menores ou menos confiáveis. Esses conteúdos são mais difíceis de combater, entretanto, ao mesmo tempo, são mais fáceis de criar, dado que a produção de conteúdo falso em idiomas diferentes do inglês exigia, anteriormente, um trabalho intensivo de humanos e acabava por ser de baixa qualidade. Entretanto, com a IA, pode-se criar conteúdo em qualquer idioma rapidamente e sem as limitações e erros humanos. 


Ainda no artigo do Los Angeles Times, o autor comenta que: “as tentativas de atingir comunidades de cor e que não falam inglês com desinformação são auxiliadas pela forte dependência de muitos imigrantes dos seus telemóveis para acesso à Internet. As interfaces de usuário móvel são particularmente vulneráveis à desinformação porque muitos elementos de design e marca de desktop são minimizados em favor do conteúdo em telas menores. Com 13% dos latinos e 12% dos afro americanos dependentes de dispositivos móveis para acesso à banda larga, em contraste com 4% dos proprietários brancos de smartphones, é mais provável que recebam — e partilhem — informações falsas. Sendo assim, nota-se que há uma maior facilidade em disseminar certos tipos de informações falsas aos latinos devido a camadas sociais e linguísticas, dificultando a checagem dessas informações e aumentando as probabilidades de que eles sejam mal guiados no momento de ir às urnas em novembro.


Enquanto se torna cada vez mais fácil manipular e distorcer as informações, fica cada vez mais difícil para os eleitores confiar no que seus próprios olhos veem.  Em uma notícia da ABC News, Elizabeth Neumann, que foi secretária-assistente do Departamento de Segurança Interna dos Estados Unidos (DHS) durante os primeiros anos do mandato de Trump, afirma que “não é apenas se um político está dizendo a verdade, mas você não poderá confiar nos seus próprios olhos e nas imagens que você verá nos feeds das suas redes sociais, e-mail ou até mesmo na mídia tradicional, caso não seja feito um bom trabalho em vetar o material falso”.


Tamoa Calzadilla, editora-chefe do Factchequado, um meio digital de verificação de fatos com foco na desinformação em espanhol nos Estados Unidos, afirmou para a Reuters que os grupos de imigrantes latinos são afetados por diferentes narrativas que são disseminadas para comunidades-alvo diferentes, dependendo de seu país de origem:  “[há] narrativas que atacam as comunidades latinas [e] têm a ver com a inflação (visada a argentinos e venezuelanos), ao aborto e aos direitos reprodutivos (a maioria dos latino-americanos são católicos) e à sombra da fraude eleitoral ou de eleições fraudulentas (algo que aconteceu no passado em Honduras, Nicarágua, Equador e muitos outros países).” Calzadilla afirma que as plataformas mais utilizadas pelos falantes de espanhol são o Youtube e o Whatsapp, onde as publicações são ainda mais amplificadas. A Meta (administradora do Whatsapp), afirma que seus esforços para conter a desinformação incluem parcerias com quatro organizações de notícias respeitáveis e certificadas para verificar informações em espanhol, limitando o encaminhamento de mensagens para limitar mensagens virais, além de rotular mensagens que foram encaminhadas muitas vezes.


Na tentativa de solucionar estes problemas, é crucial que o governo considere veemente as necessidades de evitar que tamanha desinformação se espalhe, especialmente em estados como a Califórnia, onde há grandes comunidades de pessoas migrantes com conhecimento limitado em inglês. Também é útil que os eleitores, no geral, estejam mais bem educados e preparados acerca das fake news e da IA, visto que mesmo com novas regras, ainda é possível burlá-las ao produzir e reproduzir informações e mídias falsas ou alteradas.


Para maiores informações sobre as eleições dos Estados Unidos a partir de fontes confiáveis e verificadas, acesse a análise do Professor Wayne A. Selcher, parceiro do Latino Observatory, para saber onde obter essas informações: https://www.latinoobservatory.org/noticia.php?ID=747&lang=br

Pesquise uma notícia: