“Se o seu conselho não entende de inteligência artificial, ele não pode cumprir suas responsabilidades – especialmente em um ambiente regulamentado.” Essa foi a mensagem deixada pela especialista em governança e ética em inteligência artificial Kay Firth-Butterfield durante sua participação no Interconnected Brasil 2025, evento promovido pela NTT Data nesta quarta-feira (21), em São Paulo.
A provocação chama a atenção para um tema que permanece crítico mesmo após quase três anos da popularização da IA generativa, impulsionada pelo lançamento do ChatGPT pela OpenAI: a capacitação em governança. Sem uma abordagem consistente, Kay destaca que esforços e investimentos em inteligência artificial não geram os resultados esperados e podem até se transformar em um problema para as organizações. “A IA é uma ameaça para o negócio se for adotada da forma errada”, ressalta.
A capacitação, evidentemente, não deve se limitar ao conselho. Para a consultora, que também ocupa o cargo de CEO da Good Tech Advisory, o assunto deve ser uma “jornada de toda a empresa”, envolvendo a liderança executiva, as unidades de negócio e as equipes de tecnologia.
Leia mais: Com apoio do Itaú, Zup aposta em IA para transformar grandes corporações em “challengers”
Um dos caminhos que podem impulsionar o avanço da governança é a regulamentação da IA. Em janeiro, quando o presidente dos Estados Unidos, Donald Trump, revogou uma ordem executiva assinada em 2023 por seu antecessor, Joe Biden, que visava mitigar riscos da inteligência artificial para consumidores, trabalhadores e empresas, Kay relata que chegou a temer que o tema fosse esvaziado.
O efeito da ação do mandatário norte-americano, no entanto, foi o oposto. “Achei que ficaria sem trabalho, mas estou mais ocupada do que nunca”, afirma. Segundo a especialista, a ausência de diretrizes regulatórias tem causado confusão e ansiedade em diversos setores, dificultando a criação de modelos de governança e a adoção responsável da tecnologia.
“Se você tem pelo menos alguma base estabelecida – como a ordem executiva de Biden combinada com o framework do NIST – isso auxilia as empresas a refletirem sobre como utilizar a inteligência artificial de forma ética”, avaliou. “Mas, uma vez que isso é retirado, as organizações ficam por conta própria. Elas sabem que alguns usos da IA envolvem riscos, e ainda existe a possibilidade de que esses perigos afetem o lucro ou prejudiquem a reputação da marca. Porém, nesse cenário, não há ninguém para orientá-las.”
O papel do CIO no processo de governança
Em conversa com a imprensa, a executiva também compartilhou algumas das lições que tem observado em companhias bem-sucedidas na implementação de planos de governança e uso consciente da inteligência artificial. Uma das principais, segundo ela, é encarar a tecnologia como uma nova forma de estruturar processos empresariais, e não apenas como um recurso incorporado a práticas antigas.
“Muitas empresas estão fracassando na fase de prova de conceito (POC). Parte disso ocorre porque estão tentando encaixar a IA em processos já existentes, em vez de desenvolver novos fluxos mais adequados à tecnologia”, explica. “A discussão sobre o uso inteligente da IA também passa pela criação desses novos processos.”
A atuação integrada entre os diversos setores da empresa também é essencial, enfatiza a consultora. Organizações que utilizam a inteligência artificial de maneira responsável, segundo ela, costumam estabelecer sistemas em que as áreas jurídica, de risco e conformidade, de dados, de IA e as unidades de negócio atuam em conjunto.
O CIO tem papel estratégico nesse processo. Para a especialista, o líder de tecnologia deve ser o articulador das conversas sobre IA entre os diferentes departamentos da organização, interagindo tanto com as áreas de negócio quanto com os responsáveis por riscos e conformidade. Isso inclui buscar soluções para os desafios específicos de cada setor.
“Um dos obstáculos ao uso ético da IA – e que os CIOs precisam considerar – é que, normalmente, as unidades de negócio conseguem demonstrar: ‘se implementarmos essa IA, teremos um ganho de X’. Mas é muito mais difícil para as equipes de compliance, risco e jurídico argumentarem: ‘se utilizarmos isso, podemos perder Y’”, observa. “Isso cria uma tensão real entre essas áreas.”
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!