O uso de ferramentas públicas de inteligência artificial generativa por profissionais da saúde está aumentando o número de tentativas de enviar informações confidenciais para locais não aprovados pela TI, tanto na web quanto na nuvem. Tanto ChatGPT como o Gemini, do Google, dois modelos mais usados na área, estão frequentemente envolvidos nessa classe de violações de políticas de dados, alerta a Netskope em novo relatório.
A questão é particularmente sensível porque dados de pacientes são muitas vezes regulados, seja por governos ou por entidades e associações do setor. “As aplicações GenAI oferecem soluções inovadoras, mas também revelam novos vetores para potenciais violações de dados, especialmente em ambientes de alta pressão e alto risco, como o da saúde”, pondera em comunicado Gianpietro Cutolo, pesquisador de ameaças à nuvem no Netskope Threat Labs.
Leia também: Número de empresas de IA crescem 857% em 2 anos, aponta pesquisa
Segundo ele, as organizações de saúde devem “equilibrar os benefícios” da IA com proteções de segurança e de dados “para mitigar esses riscos”.
O levantamento indica que 81% das violações de política de dados em organizações de saúde nos últimos doze meses eram relacionadas a dados regulamentados, ou seja, protegidos por regulamentações e leis locais, nacionais ou internacionais, incluindo informações sensíveis médicas e clínicas. Senhas e chaves, código-fonte ou propriedade intelectual também foram afetados (19% no total).
Grande número dessas violações ocorreu por envio de dados sensíveis para contas pessoais do Microsoft OneDrive ou do Google Drive.
O risco é ainda maior quando se considera que a GenAI e suas aplicações são utilizadas em 88% das organizações de saúde. O estudo alerta que 44% das violações envolvem dados regulamentados, 29% incluem código-fonte, 25% propriedade intelectual e 2% senhas e chaves.
O relatório da Netskope Threat Labs pode ser lido nesse link.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!