quarta-feira, abril 24

Ninguém sabe se a inteligência artificial será uma bênção ou uma maldição num futuro distante. Mas neste momento há um desconforto e um desprezo quase universais por um hábito destes chatbots e agentes: as alucinações, aqueles factos inventados que aparecem nos resultados de grandes modelos de linguagem como o ChatGPT. No meio do que parece ser uma resposta cuidadosamente construída, o LLM irá introduzir algo que parece razoável, mas é uma invenção total. Seu chatbot típico pode fazer com que o ex-congressista George Santos se pareça com Abe Lincoln. Como parece inevitável que os chatbots um dia gerem a grande maioria de toda a prosa já escrita, todas as empresas de IA estão obcecadas em minimizar e eliminar alucinações, ou pelo menos convencer o mundo de que o problema está em questão.

Obviamente, o valor dos LLMs atingirá um novo nível quando e se as alucinações se aproximarem de zero. Mas antes que isso aconteça, peço-lhe que faça um brinde às confabulações da IA.

As alucinações me fascinam, embora os cientistas de IA tenham uma boa ideia de por que acontecem. Uma startup de IA chamada Vectara estudou-os e à sua prevalência, até compilando as taxas de alucinação de vários modelos quando solicitado a resumir um documento. (O GPT-4 da OpenAI se sai melhor, tendo alucinações apenas cerca de 3 por cento do tempo; o agora desatualizado Palm Chat do Google – não seu chatbot Bard! – teve uma taxa chocante de 27 por cento, embora, para ser justo, resumir documentos não estava na casa do leme do Palm Chat .) O CTO da Vectara, Amin Ahmad, diz que os LLMs criam uma representação compactada de todos os dados de treinamento alimentados por seus neurônios artificiais. “A natureza da compressão é que os pequenos detalhes podem se perder”, diz ele. Um modelo acaba preparado com as respostas mais prováveis ​​às dúvidas dos usuários, mas não tem os fatos exatos à sua disposição. “Quando chega aos detalhes, começa a inventar coisas”, diz ele.

Santosh Vempala, professor de ciência da computação na Georgia Tech, também estudou alucinações. “Um modelo linguístico é apenas um modelo probabilístico do mundo”, diz ele, e não um espelho verdadeiro da realidade. Vempala explica que a resposta de um LLM busca uma calibração geral com o mundo real – conforme representado em seus dados de treinamento – que é “uma versão fraca de precisão”. Sua pesquisa, publicada com Adam Kalai da OpenAI, descobriu que as alucinações são inevitáveis ​​para fatos que não podem ser verificados usando as informações dos dados de treinamento de um modelo.

Essa é a ciência/matemática das alucinações de IA, mas elas também são notáveis ​​pela experiência que podem provocar em humanos. Por vezes, estas invenções generativas podem parecer mais plausíveis do que os factos reais, que são muitas vezes surpreendentemente bizarros e insatisfatórios. Quantas vezes você ouve algo descrito como tão estranho que nenhum roteirista ousaria fazer o roteiro de um filme? Hoje em dia, o tempo todo! As alucinações podem nos seduzir, parecendo nos prender a um mundo menos chocante do que aquele em que vivemos. Além do mais, acho revelador observar quais detalhes os bots tendem a inventar. Na sua tentativa desesperada de preencher as lacunas de uma narrativa satisfatória, gravitam em torno da versão estatisticamente mais provável da realidade, tal como representada nos seus dados de treino à escala da Internet, o que pode ser uma verdade em si. Comparo isso a um escritor de ficção escrevendo um romance inspirado em acontecimentos reais. Um bom autor desviará do que realmente aconteceu para um cenário imaginado que revela uma verdade mais profunda, esforçando-se para criar algo mais real do que a realidade.

Quando pedi ao ChatGPT para escrever um obituário para mim – admita, você também tentou isso – ele acertou muitas coisas, mas algumas coisas erradas. Deu-me netos que não tinha, concedeu-me uma data de nascimento anterior e acrescentou um National Magazine Award ao meu currículo por artigos que não escrevi sobre a crise das pontocom no final da década de 1990. Na avaliação da minha vida pelo LLM, isso é algo que deve aconteceram com base nos fatos da minha carreira. Concordo! Foi apenas por causa da imperfeição da vida real que a Sociedade Americana de Editores de Revistas não conseguiu me premiar com a escultura de metal do elefante que acompanha essa honra. Depois de quase 50 anos escrevendo revistas, a culpa é deles, não de mim! É quase como se o ChatGPT fizesse uma enquete sobre possíveis multiversos e descobrisse que na maioria deles eu ganhei um prêmio Ellie. Claro, eu teria preferido que, aqui no meu canto do multiverso, juízes humanos me chamassem ao pódio. Mas o reconhecimento de uma rede neural artificial vampírica é melhor do que nada.

Além de fornecer uma visão instrutiva de realidades alternativas plausíveis, a dissociação dos resultados da IA ​​do domínio dos factos também pode ser produtiva. Como os LLMs não pensam necessariamente como humanos, seus voos de fantasia estatística podem ser ferramentas valiosas para estimular a criatividade. “É por isso que os sistemas generativos estão sendo mais explorados pelos artistas, para obter ideias nas quais eles não necessariamente teriam pensado”, diz Ahmad, da Vectara. Uma das missões mais importantes daqueles que constroem a IA é ajudar a resolver os problemas intratáveis ​​da humanidade, aparentemente apresentando ideias que ultrapassem os limites da imaginação humana. Ahmad é uma das várias pessoas com quem conversei que acreditam que, mesmo que descubramos como eliminar em grande parte essas mentiras algorítmicas, ainda deveríamos mantê-las por perto. “Os LLMs deveriam ser capazes de produzir coisas sem alucinações, mas então podemos transformá-los em um modo onde eles possam produzir alucinações e nos ajudar a fazer brainstorming”, diz ele. Vempala, da Georgia Tech, concorda: “Deve haver um botão que você possa girar”, diz ele. “Quando você quer dirigir seu carro, você não quer que a IA tenha alucinações sobre o que está na estrada, mas você quer quando está tentando escrever um poema para um amigo.”

Há outra grande razão pela qual valorizo ​​as alucinações. Neste momento, as suas imprecisões estão a proporcionar à humanidade algum espaço para respirar na transição para a coexistência com entidades superinteligentes de IA. Como não podemos confiar que os LLMs estejam corretos, ainda precisamos fazer o trabalho de verificá-los. Isso mantém nós em contato com a realidade, pelo menos até entregarmos toda a questão aos GPTs.

Tomemos como exemplo a profissão jurídica. Mesmo que os LLMs possam produzir o que parece ser um resumo jurídico confiável, o resultado pode ser desastrosamente fictício. Vimos isso no célebre caso em que dois advogados apresentaram petição citando seis pareceres judiciais que se mostraram inteiramente imaginados pelo ChatGPT, a quem solicitaram a elaboração do documento. O juiz sancionou os advogados e eles se tornaram motivo de chacota. Depois disso, apenas um advogado totalmente idiota usaria chatbots para desenterrar jurisprudência que apoiasse um argumento e não verificar novamente o resultado. Acontece que essas pessoas existem. Michael Cohen está atualmente cumprindo pena de prisão por ser o consertador de Donald Trump e está apelando da sentença. Ele forneceu a seus advogados decisões judiciais fictícias fabricadas pelo chatbot Bard, do Google, com tecnologia LLM, e foi pego.

Mas Cohen é uma exceção. Por enquanto, os próprios advogados são obrigados a revelar os precedentes. Isso é uma coisa boa. Imagine se a IA pudesse gerar de forma confiável um resumo jurídico convincente, com total precisão na localização de precedentes. Com total recordação da jurisprudência, um LLM poderia incluir dezenas de casos. Os advogados irão apresentá-los sem se preocupar em examiná-los, confiantes de que são relevantes. Caberá aos juízes pobres considerar como estes casos se aplicam. Naturalmente, eles recorrerão à IA para resumir os casos e talvez até usarão a IA para redigir sua opinião final. Eventualmente, toda a nossa jurisprudência será determinada por argumentos lançados e julgados pela IA. Os humanos serão apenas espectadores. E haverá muito pouco trabalho a fazer para os advogados de verdade. Caramba, ChatGPT-4 já pode passar no exame da ordem!

O mesmo se aplica a outras áreas que exigem precisão, que é praticamente toda profissão humana. Como não podemos confiar nos LLMs, ainda há trabalho para os humanos fazerem. As alucinações são uma espécie de barreira entre nós e o desemprego massivo.

Chegará o dia em que nos livraremos das alucinações? Os cientistas discordam. “A resposta em sentido amplo é não”, diz Vempala, cujo artigo foi intitulado “Modelos Calibrados Devem Alucinar”. Ahmad, por outro lado, acha que podemos fazer isso. “Há um foco intenso na comunidade de pesquisa neste momento no problema da alucinação, e ele está sendo abordado de todos os ângulos”, diz ele.

Entretanto, como estamos presos às alucinações, deveríamos pelo menos respeitá-las. Sim, entendo o valor, e até mesmo a necessidade, de fazer com que os LLMs se atenham aos fatos em algumas tarefas. Mas estremeço ao pensar no quanto nós, humanos, sentiremos falta se recebermos passe livre para pular as fontes de informação que nos tornam verdadeiramente conhecedores. E lamentarei os inúmeros empregos perdidos quando entregarmos a maior parte do trabalho de colarinho branco a robôs. Por enquanto, porém, a IA não é confiável. Um brinde a vocês, alucinações!

Viagem no tempo

Escrevo sobre inteligência artificial há pelo menos 40 anos – tratei disso em meu primeiro livro, Hackers– mas pode fazer uma reivindicação especial de um certo grau de presciência para um ensaio que inicia uma seção especial da WIRED sobre IA em 2010. Chamava-se “A revolução da IA ​​​​está ligada”. (Incluí partes disso em alguns outros episódios de Viagem no Tempo, mas suspeito que meus leitores humanos provavelmente tenham esquecido, embora o ChatGPT provavelmente não tenha.) O que parecia ficção científica agora é realidade.

Estamos envolvidos numa dança permanente com as máquinas, presos num abraço cada vez mais dependente. E, no entanto, como o comportamento dos bots não se baseia em processos de pensamento humano, muitas vezes somos impotentes para explicar as suas ações. Wolfram Alpha, o site criado pelo cientista Stephen Wolfram, pode resolver muitos problemas matemáticos. Também parece mostrar como essas respostas são derivadas. Mas os passos lógicos que os humanos veem são completamente diferentes dos cálculos reais do site. “Isso não faz nenhum desses raciocínios”, diz Wolfram. “Esses passos são totalmente falsos. Nós pensamos: como podemos explicar isso para um daqueles humanos lá fora?”

A lição é que nossos computadores às vezes precisam nos agradar, ou eles vão nos assustar. Eric Horvitz – agora um importante pesquisador da Microsoft – ajudou a construir um sistema de IA na década de 1980 para ajudar os patologistas em seus estudos, analisando cada resultado e sugerindo o próximo teste a ser realizado. Havia apenas um problema: as respostas eram fornecidas muito rapidamente. “Descobrimos que as pessoas confiavam mais se adicionássemos um loop de atraso com uma luz piscando, como se estivessem bufando para encontrar uma resposta”, diz Horvitz.

Mas devemos aprender a nos adaptar. A IA é tão crucial para alguns sistemas – como a infraestrutura financeira – que livrar-se dela seria muito mais difícil do que simplesmente desconectar os módulos do HAL 9000. “Em certo sentido, você pode argumentar que o cenário da ficção científica já está começando a acontecer”, diz Hillis, da Thinking Machines. “Os computadores estão no controle e nós simplesmente vivemos no mundo deles.” Wolfram diz que esse enigma se intensificará à medida que a IA assumir novas tarefas, afastando-se ainda mais da compreensão humana. “Você regula um algoritmo subjacente?” ele pergunta. “Isso é loucura, porque na maioria dos casos não é possível prever quais consequências esse algoritmo terá.”

Pergunte-me uma coisa

Derek pergunta: “Além de camisetas tie-dye e Birkenstocks, o que o mundo tecnológico do Vale do Silício dos anos 70 e 80 tinha que está faltando hoje?”

Obrigado pela pergunta, Derek. Como alguém que narrou o Vale dos anos 70 e passou algum tempo no local nos anos 80, posso responder com alguma autoridade. Muitas das grandes empresas da época, como a Hewlett-Packard e a Intel, eram bastante discretas tanto em termos de vestuário como de cultura, embora os seus produtos fossem pioneiros. Mas o espírito motriz, como a sua pergunta indica, foi um zelo quase contracultural para revolucionar o mundo com computadores pessoais e tecnologia digital. Embora não fosse celebrado na época, o Homebrew Computer Club mudou o mundo ao dar o pontapé inicial na indústria de PCs, incluindo a Apple. Entre seus geeks estavam malucos, alguns dos quais realmente arrasaram nas Birkenstocks.

Embora hoje seja possível encontrar um entusiasmo geek semelhante entre os pioneiros da tecnologia, não há tanto da contracultura e de sua pureza de intenções. Afinal, os de fora agora são os de dentro. Embora os tecnólogos de hoje ainda sigam o mantra de “construir, construir, construir”, é provável que você ouça isso tanto de treinadores de vida quanto de seu consultor Y Combinator. Quando a Apple e a Microsoft surgiram, o caminho para a super-riqueza não era bem trilhado – nem mesmo imaginado. Sim, a nascente indústria de capital de risco estava de olho em grandes prêmios – mas aqueles que estavam nas trincheiras tinham uma visão inocente. experiência então isso agora está perdido.

Por outro lado, as Birkenstocks voltaram a ser populares! Na verdade, apenas em outubro passado, a Birkenstock abriu o capital, avaliada em mais de 8 mil milhões de dólares. Parece que esses sapatos hippies, como aquelas empresas outrora hippies do Vale do Silício, agora fazem parte irremediavelmente do establishment.

Você pode enviar perguntas para mail@wired.com. Escrever PERGUNTE A LEVY na linha de assunto.

Crônica do Fim dos Tempos

As estatísticas de audiência recentemente reveladas pela Netflix mostram que em 2023 as pessoas engoliram programas com tema de apocalipse, incluindo o sucesso Deixar o mundo para trás. Você acha que eles sabem alguma coisa?

Por último, mas não menos importante

O cientista-chefe de IA da Meta, Yann LeCun, sempre vê o lado bom da vida da IA.

O Twitter não é a única empresa relacionada com aves a ter problemas. Aqui está um relato da queda da Bird, que passou de bilhões à falência.

Os placebos funcionam mesmo quando as pessoas sabem que não estão tomando remédios de verdade. Portanto, não culpe seus médicos quando eles prescreverem medicamentos falsos.

O complexo de US$ 100 milhões de Mark Zuckerberg no Havaí tem um enorme bunker subterrâneo para impedir a entrada de pessoas que ele pode ou não conhecer durante o apocalipse. Obrigado!

Não perca as futuras edições desta coluna apenas para assinantes. Assine o WIRED (50% de desconto para leitores de texto simples) hoje.

Compartilhe:

Comentários estão fechados.