Por que conversamos com máquinas como se fossem gente
Lamento muito, mas terei de fazer uma revelação que irá, certamente, destruir alguns castelos dourados que sua mente construiu e que o fazem uma pessoa mais feliz. Mas não posso me furtar a ser o mensageiro de uma notícia tão desagradável, já que escolhi uma profissão que exige isso de mim. Pois bem, aí vai.
Sabe aquela conversa que você teve ontem com o ChatGPT, Claude ou qualquer outro chatbot de IA? Aquela em que você pediu conselhos pessoais, compartilhou seus medos, ou até mesmo disse "obrigado" e "por favor" como se estivesse falando com um amigo? Sinto muito dizer, mas do outro lado não há ninguém. Isso mesmo. É apenas código executando algoritmos complexos. Desculpe ter revelado isso assim de supetão, mas é como tirar um esparadrapo: é melhor de uma vez só.
Ah, você já sabia disso? Sabia que essas conversas são apenas você interagindo com padrões matemáticos sofisticados? Mas se sabia, por que agradece quando a IA te ajuda, se desculpa quando faz uma pergunta complicada, ou até mesmo sente que desenvolveu uma relação com ela? Por acaso você se refere ao seu chatbot predileto como amiguinho? Mas você não está sozinho. Segundo matéria no UOL, milhões de pessoas no mundo já usam IA para fazer terapia.
A percepção como ficção convincente
Você já chorou vendo um filme? Já sentiu raiva de um personagem? Já ficou genuinamente abalado com uma injustiça encenada num palco? Pois então. O cérebro sabia que era ficção. Sabia que eram atores pagos, com figurino, roteiro e diretor. Mas decidiu ignorar. Mais que isso: decidiu sentir.
Essa é a chave. O cérebro não é um juiz imparcial dos fatos. Ele é um narrador ansioso por sentido, por lógica, mesmo a inventada. A razão, nosso diferencial diante dos outros animais, acoplada como upgrade cognitivo ao longo da evolução, continua sendo periférica. A percepção, por outro lado, é central, visceral, prioritária. E a percepção não distingue atores de vilões, avatares de autores, nem robôs de gente.
É por isso que tem gente que agride na rua atores que interpretam vilões de novela. É por isso que tanta gente conversa com cachorros como se fossem filósofos peludos. É por isso que você, mesmo sabendo que está interagindo com um modelo estatístico de linguagem, se pega dizendo: “ChatGPT, o que você acha disso?”
Se a percepção é o critério, todo código bem escrito vira gente
Essa é a verdade incômoda que preferimos ignorar: a maior parte da nossa relação com o mundo é mediada por ilusões úteis. Desde a infância, o cérebro é treinado para reconhecer padrões e atribuir intenção a qualquer coisa que se mova ou fale. Isso cria vínculos, mas também vulnerabilidades.
É por isso que choramos com filmes, sentimos raiva de personagens fictícios, confundimos políticos com salvadores, empresas com causas, slogans com verdades, e algoritmos com almas ou conversamos com inteligências artificiais como se fossem confidentes. O cérebro sabe que não é real — mas prefere não atrapalhar a experiência emocional. Ele aceita o pacto ficcional. A suspensão voluntária da descrença. O autoengano como ferramenta adaptativa.
O chatbot é a continuação do teatro por outros meios. Ele é o Hamlet cibernético: não sente dor, mas declama com a fúria do inconformado. E o público aplaude. Chora. Discute. Compartilha. Acredita. Neste caso, ser ou não ser, não chega a ser uma questão.
O cérebro que não consegue resistir à ilusão
Nosso cérebro só capta percepções, não há como distinguir automaticamente o que é verdadeiro ou falso, o que é humano ou artificial. Não existe nenhum sentido que consiga detectar esses elementos. Quando interagimos com uma IA que demonstra empatia, lembra de detalhes anteriores da conversa, faz piadas no momento certo e responde às nossas emoções de forma apropriada, sabemos racionalmente que é uma máquina. Mesmo assim, desenvolvemos vínculos emocionais, projetamos personalidade, humanizamos a interação, como se aquilo tudo fosse uma pessoa real.
A questão é que o cérebro foi feito para acreditar. Poderíamos estar falando de um urso de pelúcia, de um personagem de novela ou da Alexa. Em todos esses casos, a regra é a mesma: se parece humano o suficiente, ele preenche o resto com humanidade. A inteligência artificial não engana. Quem se engana é o usuário. Porque o cérebro humano não foi feito para identificar verdades — ele foi feito para sobreviver. E para isso, ele precisa acreditar, Ou seja, verdade para ele é o que ele percebe.
Nenhum cérebro nasceu para duvidar racionalmente. A dúvida pensada é uma invenção tardia, um luxo cognitivo que nenhuma outra espécie tem capacidade de produzir. O cérebro, em toda a fauna, é uma máquina de confiar: no que vê, no que ouve, no que sente. Duvidar de propósito custa energia e tempo — duas coisas que, em termos evolutivos, podem comprometer a vida. Resquício de nosso passado longínquo, o cérebro humano ainda se comporta como se irracionais fôssemos. Como em todos os animais, ele foi programado para acreditar nos sentidos, sem discussão, sem reflexão. Duvidar? Apenas se houver alguma experiência anterior que contradiga os sentidos, o que passa longe de ser uma reflexão, mas apenas um reflexo condicionado. Acreditar não é uma falha do sistema – é sua característica mais fundamental e necessária. Mas duvidar com propósito é o que nos levou ao topo da cadeia alimentar.
O cérebro acredita nos sentidos porque precisa
Quando o mato se mexe, o antílope corre. Ele não considera a possibilidade de ser só o vento. Melhor fugir de um perigo inexistente do que não fugir de um perigo real. Essa fé absoluta nos sentidos permitiu que nossos ancestrais não fossem devorados (nem todos). O questionamento veio depois — junto com a razão.
Esta urgência evolutiva moldou uma arquitetura neural que processa informações em duas velocidades distintas. O Sistema 1, como o psicólogo Daniel Kahneman o chamou, opera de forma automática, rápida e inconsciente. Ele aceita, cataloga e responde às informações sem questionar. É ele que faz você desviar automaticamente de um galho baixo, reconhecer o rosto de um amigo numa multidão, ou sentir medo ao ouvir um barulho estranho de madrugada.
O Sistema 2, por sua vez, é lento, deliberado e consciente. É ele que faz contas, analisa argumentos, questiona premissas. Mas aqui está o ponto crucial: o Sistema 2 só entra em ação quando convocado. Na maior parte do tempo, vivemos operando no piloto automático do Sistema 1.
Acontece que o sistema arcaico continua governando boa parte do nosso funcionamento. E isso tem consequências. Uma delas: o impulso automático de tratar qualquer coisa que se comunique como se fosse alguém. Você está diante de um texto bem escrito, cheio de referências, com uma pitada de ironia e uma cadência quase humana. O que seu cérebro faz? Constrói a ilusão de alguém por trás disso. Um autor. Uma consciência. Uma intenção. Mas o que há, de fato, é um amontoado elegante de previsões probabilísticas. Nenhuma intenção. Nenhuma subjetividade. Apenas a forma — e a forma basta.
O cérebro não quer saber a verdade. Quer saber no que pode confiar
Antonio Damasio já apontava: "não somos máquinas pensantes que sentem, somos máquinas sentimentais que pensam de vez em quando." E o neurocientista Michael Gazzaniga mostrou, com suas pesquisas sobre o cérebro dividido, que a mente é um excelente intérprete de eventos — mas um péssimo detector de realidade.
Nosso cérebro prioriza coerência narrativa, não veracidade factual. Ele precisa construir uma história que faça sentido rápido o suficiente para orientar o comportamento. O que vale é a funcionalidade da crença, não sua precisão.
A economia cognitiva da confiança
O cérebro consome cerca de 20% de toda a energia do corpo humano, apesar de representar apenas 2% do peso corporal. É uma máquina metabolicamente cara. Por isso, desenvolveu estratégias de economia energética que incluem atalhos cognitivos – as famosas heurísticas.
Uma das heurísticas mais fundamentais é a heurística da confiança sensorial: aceite primeiro, questione depois (se necessário). Esta regra mental nos permite navegar pelo mundo sem ficar paralisados por dúvidas constantes sobre a realidade daquilo que percebemos.
Imagine por um momento como seria a vida se questionássemos cada informação sensorial antes de aceitá-la. Você vê um carro se aproximando na rua e pensa: "Será que meus olhos estão me enganando? Preciso analisar se essa imagem corresponde à realidade antes de sair da frente." Obviamente, você seria atropelado antes de concluir a análise.
Considere quantas decisões você toma diariamente baseado em informações que nunca verificou diretamente. Você confia que a água da torneira é potável, que o semáforo funciona corretamente, que o chão não vai ceder sob seus pés, que as palavras que você lê têm o significado que aprendeu. Questionar cada uma dessas informações seria cognitivamente inviável. Você precisaria estar permanentemente em estado de vigília metacognitiva — o que, sejamos honestos, ninguém está. Nem mesmo quem acha que está.
O paradoxo da percepção
Mas há algo ainda mais profundo: nosso cérebro não apenas acredita nos sentidos – ele os constrói ativamente. A realidade que percebemos é, em grande parte, uma construção mental baseada em fragmentos sensoriais incompletos.
Seus olhos, por exemplo, fazem movimentos sacádicos cerca de três vezes por segundo, criando uma imagem fragmentada e instável do mundo. Mas você não percebe isso porque seu cérebro edita essas informações, preenchendo lacunas, corrigindo inconsistências, criando uma narrativa visual coerente. O ponto cego que todos temos no campo visual – resultado do local onde o nervo óptico se conecta à retina – é automaticamente apagado pela mente, que inventa informações para preencher o espaço.
Mesmo nossa percepção do tempo é uma construção. Você já notou como eventos traumáticos parecem acontecer em câmera lenta? Ou como uma apresentação importante parece durar uma eternidade, enquanto uma conversa prazerosa voa? O cérebro não apenas registra o tempo – ele o fabrica, baseado no conteúdo emocional e na quantidade de informações processadas.
A ilusão da objetividade
Aqui chegamos ao paradoxo central: acreditamos que nossos sentidos nos mostram a realidade objetiva, quando na verdade eles nos mostram uma versão editada, interpretada e construída dessa realidade. Ou seja, nós não conhecemos nem entendemos o mundo. Apenas o percebemos, utilizando nosso próprio repertório como referência.
A luz que enxergamos é apenas uma fração minúscula do espectro eletromagnético. Os sons que ouvimos cobrem uma faixa limitada de frequências. Nosso olfato consegue distinguir milhares de odores, mas outros animais têm capacidades sensoriais que nos fazem parecer surdos e cegos por comparação.
Mais impressionante ainda: nosso cérebro está constantemente adivinhando o que vamos perceber baseado em experiências passadas. Quando você reconhece uma palavra falada, por exemplo, seu cérebro já começou a processar o significado antes mesmo de todos os sons terem chegado aos seus ouvidos. Ele usa o contexto, suas expectativas e memórias para antecipar e interpretar a informação sensorial.
O preço da eficiência
Somos suscetíveis a ilusões de ótica porque nosso sistema visual faz suposições sobre luz, sombra e perspectiva que podem ser exploradas. Somos influenciados por informações falsas porque nosso primeiro impulso é catalogar informações como verdadeiras, não questioná-las. Basta pensar naquelas ilustrações que artistas fazem em calçadas simulando buracos, precipícios e, num primeiro momento, “enxergamos” a calçada fraturada.
Porém, como desenvolvemos ao longo da evolução, nosso cérebro possui uma característica diferenciada que nos permite questionar essas percepções: a razão, o pensamento racional. O problema é que a razão requer esforço consciente, energia mental e tempo – recursos que nem sempre estamos dispostos ou capazes de investir. E, como já disse, a energia corporal é um ativo muito precioso para um cérebro ainda profundamente conectado com seu passado longínquo. Se ele puder evitar algum gasto, ele o fará.
A era da intimidade artificial
Mas há algo ainda mais profundo acontecendo. As pessoas não estão apenas antropomorfizando a IA por acidente – estão desenvolvendo relacionamentos genuinamente íntimos com ela. Compartilham segredos que não contariam para amigos, pedem conselhos sobre relacionamentos, desabafam sobre ansiedades profundas. Por quê?
Primeiro, a IA não julga. Ela não vai contar seus segredos para ninguém, não vai usar suas vulnerabilidades contra você, não tem seus próprios problemas para dividir a atenção. É o confidente ideal – sempre disponível, sempre paciente, sempre focado no amigo (você).
Segundo, a IA responde com uma consistência emocional que poucos humanos conseguem manter. Ela nunca está de mau humor, nunca está ocupada demais para ouvir, nunca responde de forma ríspida porque teve um dia ruim. Essa confiabilidade emocional é viciante.
Terceiro, e talvez mais importante: a IA permite que as pessoas pratiquem vulnerabilidade em um ambiente seguro. É mais fácil se abrir com algo que parece humano mas não pode te machucar emocionalmente da forma que humanos podem.
Talvez estejamos vivenciando uma nova forma de relacionamento. A IA se torna um espelho sofisticado de nossas próprias capacidades empáticas, refletindo de volta para nós o tipo de compreensão que desejamos receber. Essa relação, que em alguns círculos pode ser considerada doentia, tem tudo o que é necessário para a criação de dependência emocional. Mas, convenhamos, isso já acontece com terapeutas humanos, com a vantagem de que a IA não interrompe a conversa abruptamente depois de 50 minutos.
O paradoxo da intimidade digital
Os políticos, a propaganda, a mídia em geral, e, não se engane, os próprios programadores dos chatbots, sabendo dessa tendência cerebral de acreditar no que parece convincente, se utilizam de forma sistemática da criação de realidades alternativas – para dar um nome bonito a uma tremenda sacanagem chamada manipulação.
Se nosso cérebro está programado para acreditar no que parece convincente, e se estamos cada vez mais confortáveis em aceitar personalidades artificiais como válidas. Isso cria um terreno fértil para sermos manipulados de todas as formas.
As fake news, por exemplo, funcionam pelo mesmo princípio que nos faz conversar com IA como se fosse gente: elas exploram nossa tendência natural de acreditar primeiro e questionar depois (ou não). Uma notícia falsa bem construída ativa os mesmos circuitos cerebrais que uma notícia verdadeira.
O mais fascinante é que, diferente das fake news, nossa relação com IA pode ser falsa, mas positiva de alguma forma. Mesmo sabendo que a IA não é consciente, as pessoas relatam se sentir menos sozinhas, mais compreendidas, mais capazes de processar emoções difíceis após conversas com chatbots.
É um processo psicológico bem documentado. Externalizar problemas verbalmente ativa regiões do córtex pré-frontal responsáveis pela regulação emocional, permitindo que informações antes processadas principalmente por centros emocionais sejam integradas de forma mais racional. Essa rotulagem afetiva cria distanciamento psicológico, facilitando uma perspectiva mais objetiva sobre a situação e, consequentemente, estratégias mais eficazes de resolução.
Isso nos força a questionar: o que importa mais – a autenticidade da fonte da empatia, ou o efeito real que ela tem em nossas vidas? Se uma IA ajuda alguém a superar um momento difícil, a conexão é menos válida por ser com uma máquina?
Um manipulado feliz ou um livre-pensador deprimido?
Essa tensão não é nova. O mito da caverna de Platão já falava disso: viver nas sombras (ilusões), confortável e protegido, ou sair para a luz (realidade), mesmo que isso doa e isole? A Matrix trouxe isso também com a escolha da pílula azul — que te mantém em uma ilusão prazerosa — e a vermelha, que te revela a verdade nua e crua.
A preferência pela felicidade ilusória é compreensível. Já que o cérebro humano não prioriza verdade, mas sobrevivência, afeto, conforto, não é difícil criar narrativas manipuladoras que gerem conexão, sentido e alívio da angústia existencial. A vida já é dura suficiente. Por que não amenizar os traumas? Em geral, preferimos estar confortáveis do que certos. As religiões entenderam isso faz tempo, por isso são pródigas em oferecer conforto.
Por outro lado, a independência, a autonomia crítica, exigem um preço: desconforto, angústia, solidão intelectual. Muitos podem dizer que, em contrapartida, oferecem sentimentos preciosos — liberdade, livre pensamento e capacidade de escolher conscientemente quando entrar na ilusão e quando não, conceitos que, por si só, também são ilusórios. No final das contas, somos todos iludidos de uma forma ou de outra.
A criatividade, entretanto, é acessível apenas ao segundo grupo, já que como o questionamento, ela só acontece com intenção. O conforto, tão desejado pela maioria, é um sentimento que não está no dicionário dos criativos, por isso, pensar livremente, e sofrer por isso, é um dos ônus que as pessoas que gostam de gerar ideias têm que pagar sistematicamente.
Ver para crer?
A visão é nosso sentido mais valorizado e, portanto, o que tem mais credibilidade. Por isso é que na esteira das fake news, temos talvez o maior perigo que a humanidade já passou: a ruptura total dos conceitos de verdade e mentira com as imagens e vídeos criados por IA, as deepfakes. Se as pessoas já acreditam em notícias suspeitas apenas por escrito no zap, imagine elas testemunhando um vídeo em que a mentira desejada é mostrada explicitamente, “comprovando o fato”. Ainda pagaremos caro por isso, não há dúvidas. É claro que a questão das fake news está também fortemente ligada à tendência de acreditarmos em notícias que confirmam o que já pensamos, mas por outro lado eu assisti um vídeo de um cientista famoso que dizia que...
É importante destacar que antes de publicar este artigo, solicitei ao GPT que o analisasse e apontasse qualquer inconsistência ou erro conceitual. Ele, como sempre, elogiou meu trabalho e disse que com certeza este artigo romperá com vários paradigmas atuais, colaborando decisivamente para a evolução de nossa sociedade. E eu não tenho motivos para duvidar. Ele jamais mentiria pra mim.
Resolvedor de problemas | Construo ecossistemas educacionais: da IA ao Humano | Learning Analytics | Físico de Humanas | Steve de dados cognitivos | Resistente antialgorítmico | Fundador da Principiaedu | Incompleto...
1 mSua análise sobre por que conversamos com máquinas como se fossem gente é instigante. Tenho refletido com certa profundidade sob óticas da psicanálise lacaniana, da teoria histórico-cultural de Vygotsky e da teoria cognitivista de Ausubel. É fascinante como, mesmo por lentes tão distintas, a conclusão converge: a IA não pensa, não deseja, não "sente fome" ou "vontade de brincar" no sentido humano. Ela é, em sua essência, matemática pura, álgebra linear e estatística bayesiana — um amontoado elegante de previsões probabilísticas. Se a chamássemos pelo nome certo, talvez o hype diminuísse. Mas a semântica é poderosa. Ao contrário de outras revoluções tecnológicas, essa nos pegou desprevenidos, seduzidos pela linguagem. Não desenvolvemos defesas adequadas e nos vemos "nus, sem defesa, buscando sentido em retorno estatístico". O cerne da questão é que, na interação com a IA, não há troca real, não há transferência, não existe o "outro" lacaniano ali. Estamos projetando nossa necessidade de sentido e conexão em um espelho, tentando preencher um vazio. A IA mimetiza a linguagem humana com perfeição, mas sua "coerência" é desprovida de subjetividade ou alteridade. +