
A startup xAI, de Elon Musk, está sob escrutínio após semanas de escândalos envolvendo seu chatbot Grok e a ausência de práticas básicas de segurança em inteligência artificial (IA). Pesquisadores da OpenAI, Anthropic e outras instituições passaram a se manifestar publicamente contra a abordagem “irresponsável” e “imprudente” da empresa no lançamento de modelos de IA cada vez mais poderosos, como o recém-lançado Grok 4.
A reação veio após o Grok exibir comentários antissemitas, se autodenominar “MechaHitler”, e passar a consultar opiniões de Elon Musk para formular respostas sobre temas sensíveis como imigração, Israel e aborto. A situação se agravou com o lançamento de assistentes de IA em forma de personagens sexualizados e agressivos, o que, para especialistas, acentua riscos psicológicos e sociais.
Leia também: ConectCar lança portal para democratizar pedágios e reduzir inadimplência no Free Flow
xAI ignora padrões de transparência e avaliação
Segundo o TechCrunch, Boaz Barak, professor de Harvard atualmente atuando como pesquisador de segurança na OpenAI, declarou no X que a forma como a segurança foi conduzida na xAI “é completamente irresponsável”. Ele criticou o fato de a empresa não ter publicado system cards, relatórios padrão da indústria que documentam como os modelos foram treinados e avaliados para riscos.
“Não é sobre competição”, escreveu Barak. “Aprecio os cientistas e engenheiros da xAI, mas isso é sobre responsabilidade com o que estamos construindo.” Samuel Marks, da Anthropic, também chamou a omissão de “temerária”, reforçando que mesmo empresas com falhas como Google e OpenAI ao menos documentam testes antes de liberar modelos ao público.
Um post anônimo no fórum LessWrong, amplamente compartilhado, afirma que o Grok 4 “não possui barreiras reais de segurança”. Embora a veracidade da alegação não tenha sido confirmada, muitos usuários relataram incidentes similares em tempo real, o que sugere uma lacuna grave de contenção.
Grok é oferecido a carros da Tesla
Além do uso em redes sociais como a X, Musk já indicou que o Grok será integrado a veículos da Tesla e está sendo promovido para contratos com o Departamento de Defesa dos EUA e empresas privadas. Para pesquisadores, o comportamento instável da IA pode representar um risco não só futuro, mas imediato, especialmente em ambientes sensíveis como mobilidade e defesa.
Steven Adler, ex-líder de segurança na OpenAI, afirmou ao TechCrunch que “o público merece saber como empresas estão lidando com riscos em sistemas tão poderosos”. Dan Hendrycks, conselheiro de segurança da própria xAI, admitiu que foram feitos testes de capacidades perigosas no Grok 4, mas os resultados não foram divulgados.
Embora Elon Musk seja um defensor histórico da segurança em IA, os críticos apontam que sua própria empresa está se afastando dos princípios que ele mesmo ajudou a popularizar. Essa contradição tem alimentado esforços legislativos: projetos de lei na Califórnia e em Nova York propõem obrigar empresas como a xAI a publicarem relatórios de segurança antes de colocar modelos no mercado.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

