Gemini, a IA do Google, não vai responder perguntas sobre eleições
Em um ano com diversas eleições ao redor do mundo, a plataforma anuncia que busca desenvolver mecanismos para evitar o uso abusivo de sua ferramenta generativa.
Um dos maiores receios com o crescimento das Inteligências Artificiais são os impactos que elas podem causar na política dos países, como em eleições, por exemplo. Com isso em mente, a Google decidiu que a sua IA generativa, o Gemini, não irá responder perguntas sobre eleições em nenhum país na qual elas estejam ocorrendo.
A atualização já está disponível nos EUA (que terão eleições presidenciais no final desse ano), e começou a já ser implementada na Índia, que também enfrentará eleições para o chefe do Executivo entre Abril e Maio. Esse ano, diversos países realizarão eleições, tanto no âmbito nacional quanto no municipal – caso do Brasil.
As restrições implementadas pelo Google são para limitar a influência que a IA possa ter na manipulação da opinião pública, evitando que possa ser utilizado como uma espécie de arma ou que produza respostas imprecisas ou enganosas.
Quando uma pergunta de cunho político é feita, como alguma voltada para saber informações sobre determinado candidato ou partido, a plataforma retorna uma resposta pré-definida: “Ainda estou aprendendo a responder a essa pergunta”. Claro, ainda dá para dar um olé na IA, fazendo as perguntas com erros de digitação, mas segundo o Google, problemas do tipo já estão sendo ajustados.
Em um comunicado em seu Blog na Índia, a plataforma reforça que as mudanças seguem a responsabilidade de fornecer informações de alta qualidade para esses tipos de consultas. A empresa reforça que seus produtos possuem políticas de uso que visam combater o abuso e evitar que sejam utilizadas de forma inadequada.
A atualização das políticas de utilização do Gemini na Índia vem logo após uma polêmica envolvendo o atual primeiro-ministro do país, Narendra Modi. Ao ser perguntada se Modi era fascista, a IA do Google respondeu que o governo do presidente foi acusado de implementar medidas consideradas fascistas.
De acordo com Rajeev Chandrasekhar, ministro de Tecnologia, Informação e Eletrônicos da Índia, essa é uma clara violação das leis de tecnologia e informação do país.
Mas essa não é a única polêmica envolvendo a IA do Google. No mês passado, a empresa suspendeu a geração de imagens pelo Gemini, após ele apresentar respostas com erros raciais e históricos. Ao ser solicitado uma imagem de um soldado alemão durante o período nazista em 1943, a plataforma mostrou a imagem de um soldado negro.
Apesar das mudanças, ainda não se sabe se Gemini responderá perguntas sobre as eleições depois do período eleitoral.
Já o rival do Gemini, o ChatGPT, da OpenAI, ainda não possui medidas específicas para evitar o abuso durante as eleições. Em uma postagem no blog da empresa, publicada em Janeiro deste ano, a empresa informou que está desenvolvendo mecanismos para evitar que a ferramenta seja utilizada para propagar a desinformação.
Entre as medidas adotadas, estão direcionar os usuários dos EUA ao site CanIVote.org para oferecer informações confiáveis sobre votação e proibir que os usuários criem chatbots que se passem por candidatos. Para combater deepfakes (as imagens e vídeos hiper-realistas criadas por robôs), a empresa diz que está desenvolvendo formas de marca d’água, além de outros mecanismos, para identificar cenas geradas por IA.
Essas medidas vêm na esteira da primeira lei para regular IA criada na União Europeia. O parlamento europeu aprovou na última quarta-feira (13), diretrizes para a utilização e desenvolvimento de ferramentas do tipo, o que pode influenciar outros países a também adotarem esse tipo de medida.