
“IAs mal treinadas e as pessoas mal treinadas. Quando esta dupla está mal treinada, isso só significa uma coisa: catástrofe”. Foi essa a provocação trazida por Patrícia Peck, PhD, especialista em direito digital e sócia-fundadora do Peck Advogados, durante sua fala no IT Forum Na Mata, que trouxe o debate sobre governança e políticas na era da inteligência artificial (IA).
No início de sua apresentação, Patrícia lembrou que enquanto a população humana já alcançou a marca de oito milhões de pessoas, já são mais de 1,2 bilhão de chatbots ativos no mundo. O cenário global torna obrigatória a definição de regras que irão reger as interações entre pessoas e agentes e programas de IA dentro de organizações.
A advogada, que desde 2014 mantém um laboratório de robótica dentro de seu escritório, contou que, diante da convivência diária entre humanos e agentes sintéticos, decidiu incluir nos códigos de ética corporativos um capítulo específico sobre a relação entre pessoas, robôs e sistemas de inteligência artificial.
“Um robô sem governança é como um colaborador sem código de conduta”, afirmou durante a apresentação no Distrito Itaqui, nesta sexta-feira (24). “Eles precisam estar sujeitos às mesmas regras de integridade, compliance e supervisão.”
Leia mais: “Pessoas usando IA na organização é diferente da organização usar IA”, enfatiza Alexandre Del Rey
Patrícia destacou que o avanço das tecnologias tem exposto empresas a riscos de segurança e responsabilidade jurídica. Para ela, a maior vulnerabilidade não está nas máquinas, mas na forma como as organizações lidam com elas. “Incidentes de IA acontecem não porque a tecnologia é ruim, mas porque foi mal implementada, mal supervisionada ou mal treinada”, disse.
A necessidade de que as inteligências artificiais corporativas sejam treinadas com dados éticos e revisadas periodicamente também é latente, alertou. Patrícia comparou o processo de aprendizagem das máquinas, por exemplo, ao de uma criança. “IA mal treinada é igual criança mal-educada: repete erro, aprende vício e não sabe distinguir o certo do errado”, afirmou.
Ao final, Patrícia defendeu que o Brasil avance em mecanismos de autorregulação antes mesmo da consolidação de uma lei específica para inteligência artificial. Ela propôs que o mercado estabeleça guias de melhores práticas e padrões mínimos de segurança, comparando o momento atual à época em que o cinto de segurança se tornou obrigatório nos carros. “Estamos sem o cinto de três pontas da IA. Falta um modelo de proteção de fábrica que garanta a integridade de todos”, concluiu.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!


