
A ascensão da inteligência artificial generativa (GenAI) já transformou a forma como trabalhamos, pesquisamos e nos comunicamos. Mas, no palco do SXSW 2026, em Austin, nos Estados Unidos, um debate provocou a plateia ao levantar uma hipótese incômoda. Ao delegar cada vez mais tarefas cognitivas às máquinas, a sociedade pode enfraquecer justamente aquilo que tornou os humanos capazes de evoluir: o próprio cérebro.
“Estamos flertando com a atrofia do cérebro”, afirmou Sanjay Sarma, professor do Massachusetts Institute of Technology (MIT) e especialista em engenharia e tecnologia educacional, durante o painel AI and the Brain. “Se não mantivermos o processo de aprendizado ativo, se a inteligência artificial virar uma ‘muleta’ permanente, podemos perder capacidades cognitivas fundamentais”, refletiu.
A discussão reuniu pesquisadores, formuladores de políticas públicas e estudantes para refletir sobre um dos dilemas centrais da era da IA: como aproveitar o potencial da tecnologia sem comprometer habilidades humanas como pensamento crítico, criatividade e aprendizado profundo.
A provocação inicial do debate partiu de uma analogia curiosa apresentada pelo moderador, Izzat Jarudi, cofundador e CEO do Edifii, médico e cientista cognitivo. Ele lembrou o caso de um pequeno animal marinho chamado tunicado. Depois de encontrar um lugar fixo para viver, ele literalmente digere o próprio cérebro, pois não precisa mais dele.
A metáfora serviu como ponto de partida para discutir um fenômeno crescente, a chamada “terceirização cognitiva”, quando tarefas que antes exigiam esforço mental passam a ser realizadas por sistemas automatizados.
Segundo Sarma, essa dinâmica já é perceptível em tecnologias cotidianas. “Quantos aqui usam Google Maps?”, perguntou ao público. A maioria levantou a mão. “Ele já destruiu nosso senso de direção. Você chega a uma cidade nova e se torna completamente dependente do aplicativo. Não sabe mais distinguir norte de sul”, provocou.
O problema, explicou ele, é que o cérebro humano segue uma regra simples conhecida pela neurociência “use ou perca”. Quando determinadas habilidades deixam de ser exercitadas, as redes neurais associadas a elas tendem a enfraquecer.
Essa lógica levanta uma preocupação mais ampla, contou. Se sistemas de IA passam a escrever textos, resolver problemas e estruturar raciocínios, até que ponto continuaremos treinando as capacidades mentais que sustentam essas atividades?
Leia também: SXSW 2026: 5 temas que pautarão os debates da 40ª edição do festival
“Criamos escolas para formar robôs e os robôs chegaram”
A crítica de Sarma se estendeu ao modelo educacional tradicional. Segundo ele, o sistema de ensino foi construído ao longo das últimas décadas com foco em conhecimento explícito baseado em regras, fórmulas e conteúdos que podem ser transmitidos e avaliados por testes.
Mas grande parte do conhecimento humano é tácito, explicou o professor, o que inclui habilidades como intuição, julgamento, criatividade ou coordenação motora.
“Nosso sistema educacional foi desenhado para ensinar aquilo que pode ser escrito em um livro”, disse. “Mas uma enorme parte do conhecimento humano é implícita. E é justamente essa parte que nos torna humanos”, detalhou.
O paradoxo, segundo ele, é que esse modelo acabou preparando estudantes para tarefas altamente estruturadas, exatamente aquelas que a inteligência artificial executa melhor. “Criamos um sistema educacional para formar robôs. E agora os robôs de verdade chegaram”, refletiu.
Estudantes já sentem os efeitos
Se os professores enxergam o problema de fora, estudantes que convivem diariamente com ferramentas de IA já percebem mudanças concretas no ambiente acadêmico.
Olivia Joseph, estudante de ciência da computação e ciência cognitiva no MIT, contou que sua experiência universitária mudou drasticamente quando ferramentas como ChatGPT se popularizaram.
“No começo foi empolgante. Todo mundo testava problemas e tentava descobrir onde o sistema errava”, disse. “Mas em poucas semanas muitos estudantes ficaram completamente dependentes dessas ferramentas”, comentou.
Segundo ela, o impacto mais evidente aparece no aprendizado fundamental. “Hoje, existem alunos resolvendo exercícios de programação sem escrever uma única linha de código. Se você pula os fundamentos, como vai resolver problemas realmente novos no futuro.”
Outro efeito inesperado é linguístico, acredita ela. “Comecei a ler trabalhos de alunos e eles tinham todos o mesmo tom. A linguagem está ficando homogênea. Todo mundo escreve de forma parecida porque passa o texto pelas mesmas ferramentas”, analisou.
Isolamento acadêmico
Olivia também destacou uma transformação social no ambiente universitário. Antes da popularização das IAs generativas, resolver problemas difíceis frequentemente exigia colaboração entre estudantes ou interações com professores. Hoje, a primeira reação de muitos alunos é recorrer diretamente a um chatbot.
“Perde-se aquela experiência de tentar resolver algo com os colegas, falhar juntos e finalmente encontrar a resposta”, reletiu. “Essa sensação de conquista simplesmente desaparece quando existe uma ferramenta que entrega a solução imediatamente.” Segundo ela, o risco não é apenas acadêmico. “Estamos perdendo também as conexões humanas que fazem parte da experiência universitária”, disse.
Crise maior na educação?
Para Chris Gabrieli, professor da Harvard Graduate School of Education e chairman do Board of Higher Education de Massachusetts, a transformação provocada pela IA revela um problema estrutural ainda maior. “É uma crise global da educação”, sentenciou.
Segundo ele, universidades enfrentam simultaneamente três pressões. O primeiro é o avanço das ferramentas de IA que tornam avaliações tradicionais obsoletas. O segundo é a queda na confiança pública no retorno financeiro do ensino superior, e o terceiro mudanças no mercado de trabalho que exigem novas habilidades. “Grande parte do sistema educacional ainda funciona como se nada tivesse mudado”, disse.
O professor citou um dado preocupante. De acordo com ele, instituições de ensino superior nos Estados Unidos operam atualmente com cerca de 73% de ocupação, um sinal de que menos estudantes estão optando pela universidade. “A pergunta agora é ‘o que precisamos aprender em um mundo em que máquinas também pensam?’”, indicou.
Nem tudo é ruim
Apesar das críticas, os participantes concordaram que a inteligência artificial também pode ser uma ferramenta poderosa no aprendizado, desde que usada de forma consciente.
Gabrieli contou que passou a incorporar IA diretamente em suas aulas. “Entrego aos alunos as respostas do ChatGPT sobre determinado tema e peço que analisem os argumentos, identifiquem erros e discutam entre si”, explicou.
A ideia é transformar a IA em objeto de análise, e não em substituto do raciocínio. Segundo ele, a habilidade mais importante para o futuro pode ser justamente saber dialogar criticamente com sistemas inteligentes.
Bolha da IA?
O momento mais polêmico do painel veio durante perguntas da plateia, quando Sarma sugeriu que o atual entusiasmo com a inteligência artificial pode inflar uma nova bolha tecnológica.
Segundo ele, a corrida por infraestrutura de IA, especialmente data centers, pode enfrentar limites econômicos e energéticos. “Fala-se em investir trilhões de dólares em data centers. Isso simplesmente não vai acontecer nesse ritmo”, disse.
Para o professor, a tecnologia ainda precisa evoluir significativamente em eficiência energética antes de justificar a escala de investimentos anunciada. “Há um descompasso entre o entusiasmo e a realidade tecnológica”, sugeriu.
Para Sarma, a prioridade agora deve ser identificar quais capacidades humanas precisam ser preservadas e fortalecidas. “Talvez devamos deixar a IA fazer o pensamento rápido”, disse o professor. “E nós focarmos no pensamento lento”, finalizou ele.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

