OpenAI descobriu que campanhas de propaganda russas e chinesas usaram sua tecnologia

SÃO FRANCISCO – OpenAI, fabricante do ChatGBT, disse quinta-feira que tem como alvo grupos na Rússia, China, Irã e Israel na tentativa de influenciar o discurso político em todo o mundo usando sua tecnologia, destacando preocupações de que a criação de inteligência artificial esteja facilitando a propaganda secreta para atores estatais. Campanhas à medida que as eleições presidenciais de 2024 se aproximam.

A OpenAI removeu contas associadas a atividades de propaganda conhecidas na Rússia, China e Irã; Agência de Campanha Política Israelense; Um grupo até então desconhecido que apareceu na Rússia, os pesquisadores do instituto chamaram de “má gramática”. As equipes usam a tecnologia OpenAI para escrever postagens, traduzi-las para diferentes idiomas e desenvolver software para postar automaticamente nas redes sociais.

Nenhum desses grupos conseguiu ganhar muita força; Suas contas de mídia social associadas alcançaram alguns usuários Alguns seguidores, disse Ben Nimmo, analista principal do Grupo de Inteligência e Investigações da OpenAI. No entanto, o relatório da OpenAI mostra que os ativistas que atuam nas redes sociais há anos estão usando a tecnologia de IA para impulsionar as suas campanhas.

“Nós os vimos produzir texto com maior volume e menos erros do que essas operações tradicionalmente gerenciavam”, disse Nimmo, que anteriormente trabalhou em operações de meta-rastreamento de influenciadores, em um briefing com repórteres. Nimmo disse que outros grupos podem usar as ferramentas da OpenAI sem o conhecimento da empresa.

“Não é hora para complacência. “A história mostra que as atividades dos influenciadores que não levaram a lugar nenhum durante anos podem explodir repentinamente se ninguém estiver procurando por elas”, disse ele.

Há anos que governos, partidos políticos e grupos de activistas utilizam as redes sociais para influenciar a política. Após preocupações sobre a influência russa nas eleições presidenciais de 2016, as plataformas de redes sociais começaram a analisar mais de perto a forma como as suas plataformas estavam a ser utilizadas para influenciar os eleitores. As empresas geralmente impedem que governos e grupos políticos encobrem esforços concertados para influenciar os utilizadores e exigem que os anúncios políticos revelem quem pagou por eles.

READ  O crescimento do PIB da China no terceiro trimestre mostra recuperação económica

Os investigadores da desinformação levantaram preocupações de que, à medida que as ferramentas de IA que podem gerar textos, imagens e vídeos realistas se tornam mais amplamente disponíveis, será mais difícil detetar e responder à desinformação ou às atividades de influência encoberta online. Milhões de pessoas estão votando nas eleições em todo o mundo este ano, e os deepfakes de IA já proliferaram.

OpenAI, Google e outras empresas de IA estão trabalhando em tecnologia para identificar deepfakes feitas com suas próprias ferramentas, mas tal tecnologia ainda não foi comprovada. Alguns especialistas em IA acham que os detectores deepfake não são totalmente eficazes.

No início deste ano, um grupo afiliado ao Partido Comunista Chinês supostamente endossou o áudio gerado por IA de um candidato concorrendo nas eleições de Taiwan em detrimento de outro. No entanto, o político, Terry Koh, fundador da Foxconn, não apoiou o outro político.

Em janeiro, os eleitores nas primárias de New Hampshire receberam uma chamada automática que supostamente era do presidente Biden, mas foi rapidamente identificada como IA. Na semana passada, um democrata que disse ter operado uma chamada automática foi indiciado sob a acusação de supressão de eleitores e falsificação de identidade de candidato.

O relatório da OpenAI detalhou como cinco grupos usaram a tecnologia da empresa nos seus esforços para influenciar as atividades. Spamouflage, um grupo anteriormente conhecido da China, usou a tecnologia da OpenAI para pesquisar atividades nas redes sociais e escrever postagens em chinês, coreano, japonês e inglês, disse a empresa. Um grupo iraniano chamado União Internacional de Mídia Virtual também usou a tecnologia da OpenAI para criar artigos publicados em seu site.

READ  Victor Wembanyama, do Spurs, perdeu para o Lakers em uma noite de 5x5

Um grupo até então desconhecido, Bad Grammar, usou a tecnologia OpenAI para criar um programa que pode postar automaticamente no aplicativo de mensagens Telegram. Bad Grammar então usou a tecnologia OpenAI para gerar postagens e Segundo o relatório, argumenta em russo e inglês que os EUA não deveriam apoiar a Ucrânia.

O relatório descobriu que uma empresa de campanha política israelense chamada Stoic usou a OpenAI para criar postagens pró-Israel sobre a guerra de Gaza e teve como alvo pessoas no Canadá, nos Estados Unidos e em Israel, disse a OpenAI. Na quarta-feira, o proprietário do Facebook, Meta, também elogiou o trabalho de Stoick, dizendo que ele derrubou 510 contas do Facebook e 32 contas do Instagram usadas pelo grupo. A empresa disse aos repórteres que algumas contas foram hackeadas, enquanto outras eram contas de pessoas fictícias.

Os relatos em questão costumam comentar páginas de indivíduos conhecidos ou meios de comunicação que mostram estudantes universitários americanos pró-Israel, afro-americanos e outros. Os comentários apoiaram os militares israelenses e alertaram os canadenses de que o “Islã radical” ameaçava os valores liberais ali, disse Meta.

A IA agiu de acordo com a redação de alguns comentários, que pareceram estranhos e fora de contexto aos usuários reais do Facebook. O desempenho foi fraco, disse a empresa, atraindo apenas cerca de 2.600 seguidores legítimos.

META opera após o Laboratório de Pesquisa Forense Digital do Atlantic Council foi descoberto Rede em X

No ano passado, investigadores de desinformação sugeriram que os chatbots de IA poderiam ter conversas longas e detalhadas com pessoas específicas online, tentando influenciá-las numa determinada direção. As ferramentas de IA podem absorver grandes quantidades de dados sobre indivíduos e enviar mensagens diretamente a eles.

READ  Tiroteio na Morgan State University: Um tiroteio na Morgan State University deixou 5 feridos, gerando ordens de permanência em casa de horas durante a semana do baile.

A OpenAI não identificou nenhuma aplicação de ponta de IA, disse Nimmo. “É mais uma evolução do que uma revolução”, disse ele. “Não há nada que diga que não veremos isso no futuro.”

Joseph Menn contribuiu para este relatório.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *