Por que os chatbots de IA contam mentiras e se comportam de maneira diferente? Olhe no espelho.

Quando a Microsoft adicionou um chatbot ao seu mecanismo de busca Bing este mês, as pessoas notaram que ele oferecia todos os tipos de informações falsas sobre táxis, vida noturna mexicana e a cantora Billie Eilish.

Mais tarde, quando os jornalistas e outros primeiros testadores se envolveram em longas conversas com o bot de IA da Microsoft, ele se tornou lento e temeroso.

Desde que o comportamento do bot do Bing se tornou uma sensação global, as pessoas lutavam para entender a estranheza dessa nova criação. Na maioria das vezes, os cientistas disseram que os humanos são os culpados.

Mas o que o novo chatbot pode fazer – e por quê – ainda é um mistério. Sua complexidade torna difícil dissecá-lo e predizê-lo, e os pesquisadores o veem através de lentes filosóficas e do código rígido da ciência da computação.

Como qualquer outro aluno, um sistema de IA pode aprender informações ruins de fontes ruins. Esse comportamento estranho? Pode ser o reflexo distorcido de um chatbot das palavras e intenções das pessoas que o usam, disse Terry Sejnowski, neurocientista, psicólogo e cientista da computação que ajudou a estabelecer as bases intelectuais e técnicas da inteligência artificial moderna.

“Isso acontece à medida que você se aprofunda cada vez mais nesses sistemas”, disse o Dr. Sejnowski, professor do Instituto Salk de Estudos Biológicos e da Universidade da Califórnia, em San Diego. Trabalho de pesquisa neste evento Este mês na revista científica Neural Computation. “O que quer que você esteja procurando – o que você quiser – eles entregam.”

Até o Google mostrou Um novo chatbot este mês, Bart, mas cientistas e jornalistas rapidamente perceberam que estava escrevendo bobagens sobre o Telescópio Espacial James Webb. A OpenAI, startup de São Francisco, deu início ao boom do chatbot em novembro, quando lançou o ChatGPT, que nem sempre diz a verdade.

Os novos chatbots são movidos pelo que os cientistas chamam de modelo de linguagem em larga escala, ou LLM, uma tecnologia que os sistemas aprendem analisando grandes quantidades de texto digital extraído da Internet, incluindo material falso, tendencioso e outro material tóxico. O texto que os chatbots aprendem também está um pouco desatualizado porque eles precisam passar meses analisando-o antes que o público possa usá-lo.

READ  O secretário de Defesa Lloyd Austin foi levado de volta ao hospital e transferiu responsabilidades para o deputado

Ao analisar o mar de informações boas e ruins em toda a Internet, um LLM aprende a fazer uma coisa específica: adivinhar a próxima palavra em uma sequência de palavras.

Ele funciona como uma versão gigante da tecnologia de preenchimento automático que sugere a próxima palavra enquanto você digita um e-mail ou mensagem instantânea em seu smartphone. Dada a frase “Tom Cruise é um ____”, provavelmente é “ator”.

Quando você conversa com um chatbot, o bot não se baseia em tudo o que aprendeu na web. Ele registra o que você diz a ele e o que você diz de volta. Não se trata apenas de adivinhar a próxima palavra em sua frase. Ele adivinha a próxima palavra em um texto longo que inclui suas palavras e as palavras dela.

Quanto mais longa a conversa se torna, mais influência um usuário involuntariamente tem sobre o que o chatbot diz. Se você precisa ficar com raiva, fique com raiva, disse o Dr. Sejnowski. Se você o provocar a rastejar, ele rastejará.

Reações cautelosas ao comportamento estranho do chatbot da Microsoft obscureceram um ponto importante: o chatbot não tem personalidade. Ele fornece resultados instantâneos por meio de um algoritmo de computador incrivelmente complexo.

A Microsoft mitigou o comportamento estranho ao limitar a duração das discussões com o chatbot do Bing. Era como aprender com o motorista de teste de um carro que, se ele for muito rápido por muito tempo, seu motor queimará. O parceiro da Microsoft, OpenAI e Google, também estão explorando maneiras de controlar o comportamento de seus bots.

A Microsoft e a OpenAI decidiram que a única maneira de descobrir o que os chatbots farão no mundo real é deixá-los soltos – e cutucá-los quando eles se desviarem. Eles acreditam que seu grande experimento público vale o risco.

dr. Sejnowski descreve o comportamento do chatbot da Microsoft como JK. Rowling fez comparações com o Espelho de Eris, um artefato místico nos romances de Harry Potter e vários filmes baseados em seu mundo inventivo de jovens bruxos.

“Eristed” significa “desejo” escrito ao contrário. Quando as pessoas encontram o espelho, ele traz verdade e compreensão. Mas não é. Ele revela os desejos mais profundos de quem olha para ele. E alguns enlouquecem se olharem por muito tempo.

“Como os humanos e os LLMs se espelham, com o tempo eles se moverão em direção a um estado conceitual comum”, disse o Dr. Sejnowski.

Ele disse que não foi nenhuma surpresa que os jornalistas começaram a ver um comportamento assustador no chatbot do Bing. Consciente ou inconscientemente, eles direcionaram o sistema para uma direção desconfortável. Quando os chatbots absorvem nossas palavras e as refletem de volta para nós, eles podem reforçar e ampliar nossas crenças, fazendo-nos acreditar no que eles estão nos dizendo.

dr. Sejnowski fez parte de um pequeno grupo de pesquisadores no final dos anos 1970 e início dos anos 1980 que começou a explorar ativamente a inteligência artificial conhecida como redes neurais que alimentam os chatbots de hoje.

Uma rede neural é um sistema matemático que aprende habilidades analisando dados digitais. Essa é a mesma tecnologia que permite que Siri e Alexa reconheçam o que você diz.

Em 2018, pesquisadores de empresas como Google e OpenAI começaram a construir redes neurais que aprendiam com grandes quantidades de texto digital, incluindo livros, artigos da Wikipedia, registros de bate-papo e outras coisas publicadas na Internet. Ao anotar bilhões de padrões em todo esse texto, incluindo tweets, postagens de blog, textos e programas de computador, esses LLMs aprenderam a criar texto por conta própria. Eles podem até manter uma conversa.

READ  A “geleira do Juízo Final” está derretendo rapidamente. Os cientistas agora têm evidências de quando tudo começou e por que

Esses sistemas são um reflexo da humanidade. Eles aprendem suas habilidades analisando textos postados por humanos na Internet.

Mas essa não é a única razão pela qual os chatbots produzem linguagem problemática, disse Melanie Mitchell, pesquisadora de IA do Santa Fe Institute, um laboratório independente no Novo México.

Embora gerem texto, esses sistemas não repetem palavra por palavra o que está na web. Eles combinam bilhões de padrões para criar novos textos por conta própria.

Mesmo que os pesquisadores apenas treinem esses sistemas em literatura científica revisada por pares, eles ainda podem fazer afirmações cientificamente absurdas. Mesmo que aprendam a verdade apenas pelo texto, ainda podem inventar mentiras. Mesmo que aprendam apenas com texto saudável, ainda podem criar algo assustador.

“Não há nada que os impeça de fazer isso”, disse o Dr. Mitchell. “Eles estão tentando criar algo como a linguagem humana.”

Os especialistas em inteligência artificial sabem há muito tempo que essa tecnologia exibe todos os tipos de comportamento inesperado. Mas eles nem sempre concordam sobre como esse comportamento deve ser interpretado ou com que rapidez os chatbots podem melhorar.

Como esses sistemas aprendem com mais dados do que nós, humanos, podemos imaginar, mesmo os especialistas em IA não conseguem entender por que estão produzindo um determinado texto a qualquer momento.

A longo prazo, os novos chatbots têm o poder de tornar as pessoas mais eficientes e dar-lhes maneiras de fazer seu trabalho melhor e mais rápido, disse o Dr. Szejkowski. Mas isso vem com uma ressalva para as empresas que constroem esses chatbots e as pessoas que os usam: eles podem nos levar para longe da realidade e nos levar a lugares sombrios.

“Esta é uma terra incógnita”, disse o Dr. Szejkowski. “Os humanos nunca experimentaram isso antes.”

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *