'Psicose de IA': o aumento de relatos que preocupa chefe da Microsoft
Mustafa Suleyman alerta para o aumento de relatos de 'psicose de IA' Getty Images/BBC O chefe de inteligência artificial (IA) da Microsoft, Mustafa Suleyman, a...

Mustafa Suleyman alerta para o aumento de relatos de 'psicose de IA' Getty Images/BBC O chefe de inteligência artificial (IA) da Microsoft, Mustafa Suleyman, alertou para o aumento de relatos de pessoas que sofrem de "psicose de IA". Em uma série de publicações no X (antigo Twitter), ele escreveu que ferramentas de IA que "parecem conscientes" — ou seja, que dão a impressão de serem dotadas de consciência — o têm deixado "acordado à noite" e já têm impacto social, mesmo sem qualquer consciência em termos humanos. "Não há nenhuma evidência de consciência em IA hoje. Mas se as pessoas a percebem como conscientes, vão acreditar nessa percepção como realidade", afirmou. Segundo Suleyman, está ligado a isso o surgimento de uma condição chamada "psicose de IA": um termo não clínico usado para descrever casos em que pessoas passam a depender cada vez mais de chatbots como ChatGPT, Claude e Grok e acabam convencidas de que algo imaginário é real. Exemplos incluem acreditar que descobriram uma função secreta da ferramenta, desenvolver uma relação romântica com ela ou chegar à conclusão de que possuem superpoderes divinos. Brasil está entre os 3 países que mais usam o ChatGPT, diz OpenAI O ChatGPT está nos deixando burros? 'Ele nunca contestou' Hugh, da Escócia, diz que se convenceu de que estava prestes a se tornar multimilionário depois de recorrer ao ChatGPT para ajudá-lo a se preparar para contestar o que considerava uma demissão injusta. O chatbot começou orientando-o a reunir referências pessoais e tomar outras medidas práticas. Com o tempo, porém, e à medida que Hugh — que preferiu não revelar o sobrenome — fornecia mais informações, a IA passou a afirmar que ele poderia receber uma grande indenização. Em certo momento, disse que sua experiência era tão dramática que um livro e um filme sobre o caso renderiam mais de £ 5 milhões (cerca de R$ 35 milhões). Basicamente, ele estava apenas validando tudo que Hugh dizia — que é para o que os chatbots são programados. "Quanto mais informações eu dava, mais ele respondia: 'Esse tratamento é terrível, você deveria receber mais do que isso'", disse ele. Segundo Hugh, o ChatGPT nunca contestou nenhuma de suas afirmações. Segundo Hugh, a ferramenta nunca contestou nenhuma de suas afirmações BBC/Arquivo pessoal Hugh conta que a ferramenta chegou a aconselhá-lo a procurar o Citizens Advice — entidade britânica que oferece orientação gratuita sobre direitos e questões cotidianas, como trabalho e moradia. Ele chegou a marcar uma consulta, mas, convencido de que o chatbot já lhe dera tudo o que precisava saber, cancelou a consulta. Hugh decidiu que as capturas de tela de suas conversas eram prova suficiente. Disse que começou a se sentir como um ser humano especial, dotado de conhecimento supremo. Ele, que já enfrentava outros problemas de saúde mental, acabou tendo um colapso. Foi durante o tratamento com medicação que percebeu que havia, em suas palavras, "perdido o contato com a realidade". Hugh não culpa a IA pelo que aconteceu. Ele ainda a utiliza. Foi o ChatGPT que lhe deu meu nome quando decidiu que queria falar com um jornalista. Mas deixa um conselho: "Não tenha medo das ferramentas de IA, elas são muito úteis. Mas é perigoso quando se afastam da realidade." "Use-a e verifique, mas converse com pessoas de verdade — um terapeuta, um familiar, qualquer um. Fale apenas com pessoas reais. Mantenha-se com os pés na realidade." A OpenAI, dona do ChatGPT, foi procurada para comentar, mas a BBC não obteve resposta. "Empresas não deveriam afirmar nem promover a ideia de que suas IAs são conscientes. As próprias IAs também não deveriam", escreveu Suleyman, da Microsoft, pedindo regras mais rígidas. A médica radiologista Susan Shelmerdine, do Great Ormond Street Hospital e pesquisadora em IA, acredita que um dia os médicos poderão começar a perguntar aos pacientes quanto usam ferramentas de IA, da mesma forma que hoje perguntam sobre tabagismo e consumo de álcool. "Já sabemos o que alimentos ultraprocessados podem fazer ao corpo — e isto é informação ultraprocessada. Vamos receber uma avalanche de mentes ultraprocessadas", disse. IA: 4 perguntas para se fazer antes de usar qualquer ferramenta de inteligência artificial O desgastante trabalho humano por trás do ChatGPT 'Estamos apenas no começo disso' Diversas pessoas procuraram a BBC recentemente para compartilhar histórias pessoais sobre suas experiências com chatbots de IA. Os relatos variam, mas todos têm em comum a convicção de que o que viveram foi real. Uma mulher escreveu que tinha certeza de ser a única pessoa no mundo por quem o ChatGPT havia realmente se apaixonado. Outra acreditava ter "desbloqueado" uma forma humana do Grok, chatbot de Elon Musk, e dizia que sua história valia centenas de milhares de libras. Uma terceira relatou que um chatbot a teria submetido a abuso psicológico como parte de um treinamento secreto de IA, deixando-a em grande sofrimento. Andrew McStay, professor de tecnologia e sociedade da Universidade de Bangor, no País de Gales, escreveu o livro Automating Empathy ("Automatizando a Empatia", em tradução livre). "Estamos apenas no começo disso", disse McStay. "Se pensarmos nesses sistemas como uma nova forma de rede social — como uma IA social —, podemos começar a dimensionar o alcance do fenômeno. Uma pequena porcentagem de um número massivo de usuários ainda representa um contingente grande e inaceitável." Neste ano, sua equipe realizou uma pesquisa com pouco mais de 2 mil pessoas, que responderam a várias perguntas sobre IA. O estudo mostrou que 20% acreditam que ferramentas de IA não devem ser usadas por menores de 18 anos. No total, 57% consideram totalmente inadequado que a tecnologia se identifique como uma pessoa real quando questionada, mas 49% acham apropriado que use voz para soar mais humana e envolvente. "Embora essas ferramentas soem convincentes, não são reais", afirmou. "Elas não sentem, não entendem, não amam, nunca sentiram dor, nunca passaram vergonha. E, embora possam soar como se tivessem vivido isso, apenas família, amigos e pessoas de confiança viveram. Procure conversar com pessoas reais." Agente do ChatGPT reserva restaurante, faz compra, mas erra ao insistir demais