
O uso de inteligência artificial (IA) no desenvolvimento de software cresce de forma acelerada, mas a confiança dos profissionais nesse tipo de código ainda está longe de ser plena. Um levantamento recente da Sonar, especializada em qualidade e segurança de software, mostra que 96% dos desenvolvedores não confiam totalmente que o código gerado por IA seja funcional e correto, mesmo assim, muitos admitem não revisar esse material com o cuidado necessário antes de colocá-lo em produção.
Os dados fazem parte do relatório State of Code Developer Survey, que analisou hábitos e percepções de profissionais de tecnologia em relação ao uso de ferramentas de IA generativa. Segundo o estudo, cerca de 42% do código atualmente produzido por desenvolvedores já tem algum grau de participação de inteligência artificial. Em 2023, esse percentual era de apenas 6%. A expectativa é que a fatia chegue a aproximadamente 65% até 2027.
Segundo o Tech Radar, apesar desse avanço, apenas 48% dos desenvolvedores afirmam que sempre revisam o código gerado por IA antes de integrá-lo a projetos. O dado chama atenção porque indica um descompasso entre a velocidade de adoção das ferramentas e os processos de validação, abrindo espaço para erros, falhas de segurança e vulnerabilidades em aplicações corporativas e de consumo.
O estudo mostra ainda que, embora 59% dos entrevistados digam dedicar um esforço moderado ou substancial à verificação do código produzido por IA, 38% afirmam que esse processo demanda mais tempo do que revisar código escrito exclusivamente por humanos. Um dos motivos é que, segundo 61% dos desenvolvedores, o código gerado por modelos treinados com grandes volumes de dados da internet frequentemente “parece correto”, mas contém falhas difíceis de identificar à primeira vista.
A pesquisa da Sonar dialoga com outros levantamentos recentes do setor. Um estudo divulgado pela CodeRabbit indica que códigos gerados por IA apresentam, em média, 1,7 vez mais problemas do que aqueles escritos por desenvolvedores humanos, incluindo falhas consideradas críticas. Em paralelo, estimativas de mercado apontam que uma em cada cinco violações de segurança já estaria relacionada, direta ou indiretamente, ao uso de código criado com apoio de inteligência artificial.
O uso dessas ferramentas, no entanto, não se restringe a tarefas experimentais ou de baixo impacto. De acordo com a Sonar, 88% dos desenvolvedores utilizam IA em atividades de prototipagem, e 83% em softwares voltados à produção na internet. Além disso, 73% afirmam empregar código gerado por IA em aplicações voltadas diretamente ao cliente, o que amplia os riscos caso falhas passem despercebidas.
Ferramentas de IA mais usadas
Entre as ferramentas mais utilizadas, destacam-se o GitHub Copilot e o ChatGPT, citados por 75% e 74% dos entrevistados, respectivamente. Outras plataformas, como o Perplexity, também aparecem com uso relevante em determinados perfis de desenvolvedores.
Um ponto adicional levantado pelo relatório diz respeito à forma de acesso a essas ferramentas. Mais de um terço dos desenvolvedores (35%) afirma utilizar contas pessoais, e não corporativas, para acessar soluções de IA. Esse número sobe para 52% entre usuários do ChatGPT e chega a 63% no caso do Perplexity. A prática levanta preocupações relacionadas à exposição de dados confidenciais, já que informações sensíveis de empresas podem acabar sendo processadas fora de ambientes controlados.
Não por acaso, os principais receios apontados pelos profissionais estão ligados à segurança. A exposição de dados aparece como a maior preocupação para 57% dos entrevistados, seguida por pequenas vulnerabilidades (47%) e falhas severas de segurança (44%). Esses percentuais reforçam a percepção de que, embora a IA traga ganhos de produtividade, ela também amplia a superfície de risco quando não acompanhada de processos robustos de governança.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

