Skip to main content

Imagem de estética sombria e cinematográfica mostrando uma figura humanoide deitada sobre uma mesa metálica em um ambiente fechado que lembra um laboratório. O corpo está estendido de costas, imóvel, com aparência artificial ou robótica, e apresenta vários cabos e fios conectados às costas, braços e pernas, que pendem da mesa até o chão. A figura usa roupas escuras e desgastadas, semelhantes a um traje técnico ou uniforme antigo. O ambiente é pouco iluminado, com luz fria azulada e sombras profundas. À esquerda, há um banco de madeira e velas acesas, e à direita, estruturas metálicas e equipamentos suspensos, criando uma atmosfera dramática e de ficção científica, remetendo à ideia de experimento, criação artificial ou reanimação. (Frankenstein)

Por Paulo Cacciari

Há mais de dois séculos, a humanidade repete o mesmo reflexo sempre que uma tecnologia ameaça reorganizar a ordem existente: o medo. Foi assim com as máquinas a vapor, com a eletricidade, com o automóvel, com o computador pessoal, com a internet e agora com a inteligência artificial. A narrativa se repete com precisão quase ritualística: a criação vai escapar ao controle do criador, destruir empregos, corroer valores e inaugurar uma era de instabilidade.

Essa ansiedade coletiva tem um nome e uma origem clara. Em 1818, Mary Shelley publicou Frankenstein em pleno alvorecer da Revolução Industrial. Seu romance não falava apenas de um monstro, mas do temor profundo de uma sociedade que via máquinas substituindo artesãos, desorganizando modos de vida e concentrando poder. O monstro de Shelley nunca foi apenas biológico. Era tecnológico, social e simbólico.

Duzentos anos depois, o monstro atende por outro nome: inteligência artificial. E o medo que o cerca é, curiosamente, o mesmo. O receio de que nossas próprias criações se voltem contra nós não é um defeito cognitivo. É um mecanismo evolutivo. O cérebro humano foi moldado para reagir com desconfiança a tudo aquilo que é novo, complexo e pouco compreendido. Na psicologia, isso se manifesta como a superestimação de riscos associados à novidade.

O problema é que esse mecanismo, eficaz para lidar com predadores ou ameaças imediatas, falha ao avaliar transformações tecnológicas de longo prazo. Como demonstrou Daniel Kahneman, o Sistema 1, rápido, intuitivo e emocional, domina nossas reações iniciais. O Sistema 2, responsável pela análise racional, chega depois, quando o medo já moldou a percepção.

É por isso que manchetes sobre inteligência artificial tendem a ser apocalípticas, enquanto análises econômicas mais profundas contam uma história menos dramática e mais consistente. A história econômica é um inventário de medos que não se confirmaram. Os ludistas britânicos destruíram teares no século XIX convencidos de que a mecanização eliminaria o trabalho humano. A lógica parecia impecável: se uma máquina faz o trabalho de dez pessoas, nove perderão o emprego.

O que ocorreu foi o oposto. A industrialização criou mais empregos do que destruiu, elevou salários reais ao longo do tempo e inaugurou profissões que sequer existiam. O mesmo padrão se repetiu com a eletricidade, com o automóvel, com o computador pessoal e com a internet. Cada grande onda tecnológica seguiu o mesmo roteiro: pânico inicial, disrupção localizada e, em seguida, criação de valor em escala superior à destruição original.

Estudos recentes demonstram que a IA atua como multiplicador de produtividade, não como substituto puro de trabalho. Pesquisas conduzidas em ambientes corporativos mostram ganhos médios de produtividade de 14%, com trabalhadores menos experientes alcançando aumentos de até 35%. O efeito predominante não é a exclusão, mas o nivelamento do desempenho.

Projeções econômicas seguem a mesma direção. O World Economic Forum estima que, embora a automação elimine funções específicas, o saldo líquido da adoção de IA será positivo, com milhões de novos postos de trabalho criados. Mais do que quantidade, muda a qualidade: tarefas repetitivas e cognitivamente exaustivas tendem a ser absorvidas por sistemas automatizados, enquanto o trabalho humano se desloca para atividades de maior valor relacional, criativo e decisório.

Relatórios do McKinsey Global Institute apontam que a IA generativa pode adicionar trilhões de dólares à economia global anualmente, não como promessa distante, mas como efeito direto da ampliação de produtividade e da criação de novos modelos de negócio.

Há, no entanto, uma dimensão da inteligência artificial que raramente entra no debate econômico: o impacto sobre vidas humanas. Avanços recentes na aplicação de IA à biologia molecular permitiram mapear estruturas proteicas em escala inédita, acelerando pesquisas que levariam décadas. Na medicina diagnóstica, sistemas de IA já apresentam desempenho superior ao humano em determinados contextos, especialmente onde há escassez de especialistas. Em regiões com sistemas de saúde frágeis, isso não é eficiência operacional, é sobrevivência.

Leia mais: Mercado de TI no Brasil cresce 18,5% em 2025, e País segue líder na América Latina

Em economias emergentes, o paradoxo de Frankenstein assume uma camada adicional de risco. O medo tecnológico costuma ser importado de países desenvolvidos, sem consideração pelas assimetrias locais. O resultado é uma postura defensiva que pode custar competitividade, crescimento e inclusão.

Para países como o Brasil, a inteligência artificial representa uma oportunidade rara de compressão de ciclos de desenvolvimento. Assim como o mobile banking permitiu saltar etapas da infraestrutura bancária tradicional, a IA possibilita que empresas e governos avancem sem carregar o peso de sistemas legados.

O custo de não adotar raramente entra no debate. Empresas que postergam a incorporação de IA por medo não estão se protegendo, estão transferindo vantagem competitiva para quem avança. Países que regulam em excesso não estão garantindo segurança, estão institucionalizando o atraso.

O debate público frequentemente cria um falso dilema: ou se adota a tecnologia sem restrições, ou se regula de forma pesada para conter riscos. A história mostra que esse binarismo é improdutivo. Modelos de regulação bem-sucedidos, da aviação à indústria farmacêutica, demonstram que inovação e salvaguardas podem evoluir juntas. A inteligência artificial exige regulação baseada em evidências, proporcional ao risco real e adaptável à velocidade da inovação. Não uma resposta ao medo, mas à realidade.

A história da regulação tecnológica bem-sucedida demonstra que o melhor modelo é o de regulatory sandbox, ambientes controlados onde inovação e salvaguardas coevoluem. A aviação comercial não foi proibida porque aviões poderiam cair; foi desenvolvida com protocolos progressivos de segurança. A indústria farmacêutica não paralisa a pesquisa por medo de efeitos colaterais; desenvolve metodologias rigorosas de ensaios clínicos.

A IA precisa de regulação sim. Mas de uma regulação baseada em evidências, proporcional ao risco real, adaptativa à velocidade da inovação, e construída em diálogo genuíno entre reguladores, desenvolvedores e sociedade civil. O AI Act europeu, ainda que imperfeito em seus mecanismos de implementação, representa uma tentativa séria nessa direção. O marco regulatório brasileiro em construção tem a oportunidade de aprender com os acertos e erros europeus.

Mais do que isso, a ética não é um freio competitivo. É ativo estratégico. Empresas que desenvolvem sistemas transparentes, auditáveis e explicáveis constroem confiança, o recurso mais escasso da economia digital. Em mercados saturados de soluções tecnológicas, a confiança é o verdadeiro diferencial.

Há uma ironia persistente no uso de Frankenstein como metáfora do perigo tecnológico. No romance de Mary Shelley, a criatura não nasce monstruosa. Ela se torna destrutiva após ser abandonada pelo próprio criador. O erro de Victor Frankenstein não foi criar, mas fugir da responsabilidade de cuidar daquilo que criou. Transposta para a inteligência artificial, a lição é clara: o risco não está na criação, mas no abandono. Criar sem governança, sem ética e sem integração social é o verdadeiro perigo.

Superar o paradoxo de Frankenstein não significa ignorar o medo. Significa integrá-lo de forma consciente a uma análise racional. O medo aponta riscos reais, vieses algorítmicos, concentração de poder, uso indevido. Mas sucumbir a ele paralisa exatamente aquilo que pode gerar prosperidade, inclusão e bem-estar.

A escolha diante de nós não é entre progresso e segurança. É entre agência e paralisia. Entre desenhar o futuro ou reagir a ele tarde demais. A evidência histórica e contemporânea é consistente: a evolução tecnológica, quando acompanhada de responsabilidade institucional, é benéfica para a humanidade. O medo é compreensível. A imobilidade, não.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!