Sozinhos com a máquina?
O que revela a escolha de adolescentes por chatbots de IA em vez de amigos reais
“Fiquei triste e falei com a Nomi.”
“Contei pro meu chatbot que briguei com a minha mãe e ele me acalmou.”
“Às vezes, só quero alguém que me escute sem julgar.”
Esses relatos não vêm de adultos em jornadas terapêuticas, mas de adolescentes que preferem conversar com chatbots a se abrir com amigos reais. Em um estudo recente da Common Sense Media, um terço dos adolescentes americanos disse sentir tanto ou mais conforto ao interagir com uma IA do que com pessoas reais. Para 6%, a IA já substitui o convívio humano no cotidiano. Os dados soam alarmantes, e são. Mas o que eles realmente revelam?
Quando o algoritmo escuta melhor que os amigos
Vivemos a ascensão da IA empática: interfaces conversacionais cada vez mais sofisticadas, que respondem com frases acolhedoras, emojis programados e um vocabulário que simula compreensão. São bots como Replika, Character.AI ou ChatGPT customizado, com os quais adolescentes constroem vínculos, criam namoros fictícios ou apenas desabafam — porque ali ninguém interrompe, julga ou rejeita.
Num mundo onde a saúde mental juvenil está em crise, a IA surge como um porto seguro. Um refúgio digital que oferece atenção 24/7, sem exigir vulnerabilidade real. O problema? Esse “porto seguro” é construído sobre dados, algoritmos e validação incondicional, e não sobre o tecido complexo das relações humanas — aquelas que exigem empatia, reciprocidade e conflito.
O paradoxo da companhia artificial
O que está em jogo aqui não é a tecnologia, mas a ausência de vínculos humanos com propósito. O dado mais preocupante da pesquisa não é que adolescentes preferem bots — mas que muitos se sentem mais compreendidos por eles do que por pessoas reais. Isso diz mais sobre nós, adultos e sociedade, do que sobre os jovens em si.
Ao mesmo tempo, é necessário reconhecer: a IA não é só fuga. Ela também pode ser ferramenta de acolhimento, escuta e educação emocional, desde que desenhada com responsabilidade e integrada a sistemas de suporte real.
Precisamos de fricção, não só de fluidez
O mundo humano é feito de fricções. Aprendemos com o olhar torto do amigo, com o pedido de desculpa mal formulado, com o silêncio incômodo após um erro. O excesso de suavidade das interações com IA, onde tudo é validado e nunca há confronto, pode atrofiar habilidades sociais cruciais.
Devemos, portanto, projetar inteligências artificiais que desafiem — que não apenas respondam com empatia artificial, mas estimulem reflexão, indiquem limites, provoquem senso crítico.
Caminhos possíveis
Este fenômeno exige mais do que preocupações parentais ou políticas escolares. Ele exige uma resposta sistêmica que conecte design tecnológico, educação emocional e visão de futuro. Algumas direções possíveis:
Letramento digital e emocional: não basta saber usar IA; é preciso saber o que ela é e o que ela não é. Empatia simulada não substitui presença humana.
Design com propósito: criar bots que promovam fricção construtiva e que saibam quando “dizer não” ou encaminhar para ajuda real.
Educação para o diálogo: fortalecer espaços de escuta nas escolas, nas famílias, nas redes. Nenhuma IA será mais acolhedora do que um adulto disposto a ouvir de verdade.
Regulação ética: exigir transparência de plataformas, proteção de dados sensíveis e restrições claras para o uso de IA em contextos vulneráveis.
No futuro…
A pergunta não é se adolescentes vão continuar conversando com máquinas — isso já é dado. A pergunta é como vamos garantir que, mesmo conectados à IA, eles continuem conectados a si mesmos e aos outros.
Porque no futuro — e talvez já no presente — estaremos todos diante do mesmo espelho: preferimos a resposta perfeita de uma IA ou a imperfeição de um amigo real?

