Mais de 40% das violações de dados relacionadas à inteligência artificial até 2027 serão causadas pelo uso indevido da IA generativa fora das fronteiras onde estão as empresas, diz o Gartner em novo relatório. Isso significa na prática que a localização de dados usados para treinar modelos são motivo de preocupação tanto para líderes executivos de dados como de segurança da informação.
Segundo a consultoria americana, a adoção rápida da GenAI por usuários finais ultrapassou o desenvolvimento de medidas de segurança e governança de dados, “levantando preocupações sobre a localização de dados devido ao poder de computação centralizado necessário para fornecer suporte a essas tecnologias”.
“As transferências de dados não intencionais além das fronteiras geralmente ocorrem devido à supervisão insuficiente, principalmente quando a GenAI é integrada a produtos existentes sem descrições ou anúncios claros”, diz em comunicado Joerg Fritsch, vice-presidente e analista do Gartner. “As empresas estão percebendo mudanças no conteúdo produzido pelos funcionários que usam as ferramentas de GenAI.”
Leia também: Ex-OpenAI, Mira Murati lança Thinking Machines Lab, startup de IA
Segundo ele, essas ferramentas podem ser usadas com segurança em aplicações de negócios aprovadas, mas “apresentam riscos de segurança se prompts sensíveis forem enviados para ferramentas de IA e APIs hospedadas em locais desconhecidos”.
O Gartner diz que a falta de práticas recomendadas e padrões globais consistentes para IA e governança de dados agrava o problema, pois causa fragmentação do mercado e força as empresas a desenvolverem estratégias específicas para cada região. O problema pode inclusive limitar a capacidade delas de se beneficiar globalmente da tecnologia.
“A complexidade de gerenciar fluxos de dados e manter a qualidade devido a políticas de IA localizadas pode levar a ineficiências operacionais”, pondera Fritsch. “As empresas devem investir em governança e segurança avançadas de inteligência artificial para proteger dados sensíveis e garantir a conformidade.”
Corrida da governança de IA
O Gartner prevê que, até 2027, a governança de IA se tornará um requisito de todas as leis e regulamentações soberanas de inteligência artificial no mundo. Para mitigar os riscos de violações de dados de IA, principalmente do uso indevido da GenAI “além das fronteiras”, o Gartner recomenda algumas ações:
- Aprimorar a governança de dados: garantir a conformidade com as regulamentações internacionais e monitorar transferências de dados transfronteiriças não intencionais ao ampliar as estruturas de governança para incluir diretrizes para dados processados por IA. Isso envolve a incorporação de avaliações de impacto de linhagem de dados e transferência de dados em avaliações regulares de impacto de privacidade.
- Estabelecer comitês de governança: formar comitês para aprimorar a supervisão da IA e garantir uma comunicação transparente sobre as implementações de inteligência artificial e o tratamento de dados. Esses comitês precisam ser responsáveis pela supervisão técnica, gerenciamento de risco e conformidade e relatórios de comunicação e decisão.
- Reforçar a segurança dos dados: usar tecnologias avançadas, criptografia e anonimização para proteger dados sensíveis. Por exemplo, verificar Ambientes de Execução Confiáveis (Trusted Execution Environments) em regiões geográficas específicas e aplicar tecnologias avançadas de anonimização, como a Privacidade Diferencial (Differential Privacy), quando os dados precisarem sair dessas regiões.
- Investir em produtos TRiSM: Planejar e alocar orçamentos para produtos e recursos de gerenciamento de confiança, risco e segurança (TRiSM) adaptados às tecnologias de IA. Isso inclui governança de IA, governança de segurança de dados, filtragem e redação de prompt e geração sintética de dados não estruturados.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!