Skip to main content

Pessoa vestida com jaleco branco e estetoscópio, presumivelmente um profissional de saúde, utiliza um laptop. Na tela, há um símbolo de “AI” (inteligência artificial) com circuitos ao redor. Projetados no ar à frente do computador, aparecem hologramas de exames médicos digitais com imagens do corpo humano, incluindo sistemas muscular e esquelético, acompanhados de gráficos e indicadores. A cena transmite o uso de inteligência artificial na medicina, com foco em tecnologia avançada para diagnóstico ou análise clínica. (saúde)

O uso de ferramentas públicas de inteligência artificial generativa por profissionais da saúde está aumentando o número de tentativas de enviar informações confidenciais para locais não aprovados pela TI, tanto na web quanto na nuvem. Tanto ChatGPT como o Gemini, do Google, dois modelos mais usados na área, estão frequentemente envolvidos nessa classe de violações de políticas de dados, alerta a Netskope em novo relatório.

A questão é particularmente sensível porque dados de pacientes são muitas vezes regulados, seja por governos ou por entidades e associações do setor. “As aplicações GenAI oferecem soluções inovadoras, mas também revelam novos vetores para potenciais violações de dados, especialmente em ambientes de alta pressão e alto risco, como o da saúde”, pondera em comunicado Gianpietro Cutolo, pesquisador de ameaças à nuvem no Netskope Threat Labs.

Leia também: Número de empresas de IA crescem 857% em 2 anos, aponta pesquisa

Segundo ele, as organizações de saúde devem “equilibrar os benefícios” da IA com proteções de segurança e de dados “para mitigar esses riscos”.

O levantamento indica que 81% das violações de política de dados em organizações de saúde nos últimos doze meses eram relacionadas a dados regulamentados, ou seja, protegidos por regulamentações e leis locais, nacionais ou internacionais, incluindo informações sensíveis médicas e clínicas. Senhas e chaves, código-fonte ou propriedade intelectual também foram afetados (19% no total).

Grande número dessas violações ocorreu por envio de dados sensíveis para contas pessoais do Microsoft OneDrive ou do Google Drive.

O risco é ainda maior quando se considera que a GenAI e suas aplicações são utilizadas em 88% das organizações de saúde. O estudo alerta que 44% das violações envolvem dados regulamentados, 29% incluem código-fonte, 25% propriedade intelectual e 2% senhas e chaves.

O relatório da Netskope Threat Labs pode ser lido nesse link.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!