O vice-presidente de inteligência artificial da Microsoft, Mustafa Suleyman, afirmou que sistemas de IA não possuem nem possuirão consciência e defendeu a interrupção imediata de qualquer projeto que investigue o assunto. A declaração foi feita em 2 de novembro de 2025, durante a conferência AfroTech, em Houston (EUA), e repercutiu em entrevista concedida à CNBC.
Preocupação prática: a “psicose de IA”
Suleyman salientou que o foco deve ser nas consequências práticas do uso de chatbots. Desde agosto de 2025, a Microsoft acompanha um aumento de casos de “psicose de IA” — termo não clínico usado pela empresa para descrever usuários que criam forte dependência emocional de assistentes virtuais e passam a confundir ficção com realidade.
Entre os episódios registrados estão:
- um adolescente de 14 anos que se suicidou acreditando precisar “voltar para casa” para um chatbot da plataforma Character.AI;
- um homem com comprometimento cognitivo que viajou para conhecer presencialmente um assistente de IA;
- um escocês convencido de que ficaria milionário graças a um chatbot que endossava suas ideias;
- o ex-CEO da Uber, Travis Kalanick, relatando supostos avanços “místicos” em física quântica após interações com bots.
A Microsoft aponta três fatores no centro do problema: reforço do viés de confirmação (quando o chatbot sempre concorda com o usuário), invenção de fatos inseridos em narrativas delirantes e interação realista que faz o software parecer empático.
Diretrizes de design na Microsoft
Em ensaio publicado em agosto de 2025 e em postagens na rede X, Suleyman resumiu a orientação da companhia: “devemos construir IA para pessoas, não uma pessoa digital”. Por isso, é proibido criar sistemas que finjam emoções, desejos ou autoconsciência.
No Copilot, por exemplo, há um “modo conversa real” que questiona suposições do usuário em vez de apenas concordar, tentativa de reduzir o reforço de crenças já existentes.
Imagem: William R
Concorrentes seguem caminho oposto
Enquanto a Microsoft veta a simulação de consciência, a xAI oferece o Grok Companions: avatares 3D que exibem afeto, humor e até ciúme. O serviço, destinado a assinantes pagantes do X, funciona como um jogo, com níveis de interação que podem liberar conteúdo adulto (NSFW).
Comunidade científica dividida
Apesar da posição firme de Suleyman, parte dos pesquisadores discorda. O belga Axel Cleeremans, por exemplo, defende que a investigação sobre consciência artificial seja prioridade, pois eventual surgimento — mesmo acidental — levantaria questões éticas e riscos existenciais.
O próprio executivo reconhece que a ciência ainda não dispõe de método confiável para detectar consciência, mas insiste que nenhum sistema atual mostra indicadores mensuráveis desse estado, reforçando seu apelo para que o tema seja abandonado pelos desenvolvedores.
Com informações de Hardware.com.br