Um novo estudo revelou que quase dois terços das principais empresas privadas de IA vazaram informações confidenciais no GitHub.
Os pesquisadores da Wiz examinaram 50 empresas da lista Forbes AI 50 e confirmaram que 65% haviam exposto segredos verificados, como chaves de API, tokens e credenciais. Coletivamente, as empresas afetadas estão avaliadas em mais de US$ 400 bilhões.
A pesquisa, publicada hoje, sugere que a rápida inovação em inteligência artificial está superando as práticas básicas de segurança cibernética. Mesmo empresas com repositórios públicos mínimos vazaram informações.
Uma empresa sem repositórios públicos e apenas 14 membros ainda expôs segredos, enquanto outra com 60 repositórios públicos evitou totalmente vazamentos, provavelmente devido a práticas de segurança mais fortes.
Cavando abaixo da superfície
Para identificar essas exposições, os pesquisadores disseram que expandiram sua varredura além das pesquisas tradicionais do GitHub.
A estrutura “Profundidade, Perímetro e Cobertura” de Wiz analisou mais profundamente os históricos de commits, bifurcações excluídas, gists e até mesmo repositórios pessoais de colaboradores.
Essa abordagem ajudou a descobrir segredos ocultos em partes obscuras ou excluídas de bases de código que os scanners padrão geralmente perdem.
Entre as credenciais mais comumente vazadas estavam as chaves de API da WeightsAndBiases, ElevenLabs e HuggingFace. Alguns deles poderiam ter permitido o acesso a dados de treinamento privados ou informações organizacionais – ativos críticos para o desenvolvimento da IA.
Desafios de divulgação
Embora algumas empresas, incluindo LangChain e ElevenLabs, tenham agido rapidamente para corrigir suas exposições, o cenário mais amplo de divulgação permanece desigual. Quase metade de todas as divulgações ficaram sem resposta ou não conseguiram atingir suas metas.
Muitas organizações não tinham um processo oficial para receber e responder a relatórios de vulnerabilidade, destacando uma lacuna significativa na prontidão da segurança corporativa.
Os exemplos incluem chaves de API LangChain encontradas em arquivos Python e Jupyter e uma chave ElevenLabs descoberta em um arquivo de configuração de texto simples. Outra empresa AI 50 não identificada foi encontrada com um token HuggingFace em um fork excluído, expondo cerca de 1000 modelos privados.
Fortalecendo as defesas
Para combater esses perigos, os pesquisadores da Wiz incentivam as startups de IA a:
-
Implementar a verificação de segredos obrigatória para todos os repositórios públicos
-
Estabelecer canais de divulgação claros para pesquisadores externos
-
Desenvolva scanners proprietários para seus tipos secretos exclusivos
O relatório conclui que, à medida que o desenvolvimento da IA acelera, o mesmo deve acontecer com o desenvolvimento da IA Práticas de segurança.
“A velocidade não pode comprometer a segurança”, disse Wiz.
“Para as equipes que constroem o futuro da IA, ambas devem se mover juntas.”
