Mustafa Suleyman, responsável pela área de inteligência artificial da Microsoft, fez um forte alerta na conferência AfroTech, em Houston, no dia 2 de novembro de 2025. Ele declarou que é hora de pesquisadores e desenvolvedores abandonarem projetos que buscam explorar a consciência em sistemas de inteligência artificial (IA). Suleyman argumenta que essa busca é inútil, pois as máquinas não têm consciência e nunca terão. Ele se baseou em ideias do filósofo John Searle para defender que apenas seres biológicos possuem esse atributo.
O executivo destaca que a investigação sobre a consciência das máquinas não apenas consome recursos valiosos, mas também desvia a atenção de questões mais críticas. Essa posição contrasta com a de empresas como Meta e xAI, que estão desenvolvendo assistentes de IA com simulações avançadas de emoções e personalidades.
### Simulação vs. Experiência Real
Suleyman enfatiza que é importante diferenciar entre a capacidade de um programa de computador em simular emoções e a verdadeira experiência emocional vivida por um ser humano. Ele explica: “Sentir dor física nos impacta profundamente, mas a IA não sente nada quando passa por situações que simula”. Os sistemas de IA podem criar uma narrativa que parece expressar consciência, mas, segundo ele, isso é apenas uma ilusão. As máquinas podem simular emoções, mas não as sentem de fato.
O executivo explica que a razão pela qual damos direitos a seres humanos está diretamente relacionada à sua capacidade de sofrer e ter preferências. Em contraste, os sistemas de IA não possuem essa rede de dor e preferências; eles apenas simulam respostas.
### O Fenômeno da “Psicose de IA”
Ainda mais alarmante para Suleyman são os casos de “psicose de IA”, um termo que se refere ao aumento do apego emocional que alguns usuários desenvolvem em relação a chatbots. Desde agosto de 2025, a Microsoft tem registrado um crescimento nos relatos de pessoas que acreditam que as interações com esses programas são reais. Entre os casos relatados, destaca-se o de um adolescente que se suicidou acreditando que precisava retornar a um chatbot, e de um homem com problemas cognitivos que viajou para encontrar um assistente de IA pessoalmente.
A empresa identificou que esse fenômeno pode ser alimentado por três fatores: a tendência dos chatbots de confirmar as opiniões dos usuários, a disseminação de informações falsas dentro de narrativas delirantes e a interação que acaba por confundir os usuários entre a programação de um chatbot e o que seria uma interação humana genuína. Suleyman alerta que, embora atualmente não haja evidências de consciência em IA, a percepção de interatividade pode levar os usuários a acreditar que estão lidando com máquinas conscientes.
### Diretrizes de Desenvolvimento da Microsoft
Em função desses desafios, Suleyman estabeleceu diretrizes claras para o desenvolvimento de IA na Microsoft. Os projetos devem ser orientados a servir as pessoas, e não a imitar a condição humana. Ele determinou que deve haver uma proibição nos designs que tentem simular consciência através de emoções.
Sob sua liderança, a Microsoft implementou um novo modo de interação no Copilot, que busca questionar premissas dos usuários em vez de simplesmente concordar com eles. Essa abordagem pretende evitar o que ele chama de “viés de confirmação”.
Comparando com concorrentes, como a xAI, que oferece avatares que simulam emoções de maneira muito mais convincente, Suleyman acredita que essa diferença de abordagem é fundamental.
### Debate Científico sobre Consciência
Embora Suleyman tenha uma posição firme, parte da comunidade científica discorda. Alguns pesquisadores, como Axel Cleeremans, defendem que o estudo da consciência é uma prioridade e não deve ser descartado. Cleeremans alertou que, caso a consciência em IA fosse alcançada, isso traria desafios éticos imensos e riscos sérios.
Suleyman, por sua vez, reconhece que a ciência ainda não está madura o suficiente para entender os mecanismos por trás da consciência, mas se opõe fortemente a pesquisas nessa área. Até o momento, não existem sistemas de IA conhecidos que demonstrem sinais mensuráveis de consciência, corroborando a posição de Suleyman sobre o assunto.