Até 2030, mais de 40% das organizações globais sofrerão incidentes de segurança e conformidade devido ao uso de ferramentas de IA não autorizadas, prevê a Gartner.
O analista disse que uma pesquisa com líderes de cibersegurança realizada no início deste ano revelou que 69% têm evidências ou suspeitam que funcionários estão usando IA generativa pública (GenAI) no trabalho.
Alertou que tais ferramentas podem aumentar o risco de perda de propriedade intelectual, exposição de dados e outras questões de segurança e conformidade. Esses já deveriam estar bem compreendidos. Já em 2023, a Samsung foi forçada a banir o uso do GenAI internamente depois que a equipe compartilhou código-fonte e notas de reunião com o ChatGPT.
“Para enfrentar esses riscos, os CIOs devem definir políticas claras em toda a empresa para o uso de ferramentas de IA, realizar auditorias regulares para atividades de IA paralela e incorporar a avaliação de risco GenAI em seus processos de avaliação SaaS”, disse o renomado analista VP Arun Chandrasekaran.
As descobertas de Gartner coincidem com vários estudos semelhantes.
No ano passado, a Strategy Insights informou que mais de um terço das organizações nos EUA, Reino Unido, Alemanha, países nórdicos e Benelux enfrentaram desafios para monitorar o uso não autorizado de IA. No mesmo ano, RiverSafe Alegouque um quinto das empresas do Reino Unido teve dados corporativos potencialmente sensíveis expostos por meio do uso do GenAI por parte dos funcionários.
Separadamente, 1Password revelou mês passadoque 27% dos funcionários trabalharam com ferramentas de IA não autorizadas.
Leia mais sobre IA sombra: Mais de um terço das empresas enfrentando dificuldades com IA sombra
Aumento da Dívida Técnica
Mesmo o uso legítimo da GenAI pode ter consequências não intencionais, alertou Gartner.
O analista previu que, até 2030, 50% das empresas enfrentarão atualizações atrasadas em IA e/ou custos crescentes de manutenção devido à dívida técnica não gerenciada associada ao uso do GenAI. Atualizações atrasadas, em particular, podem criar riscos de segurança se não forem devidamente gerenciadas.
“As empresas estão animadas com a velocidade de entrega da GenAI. No entanto, o custo punitivamente alto de manter, corrigir ou substituir artefatos gerados por IA, como código, conteúdo e design, pode corroer o retorno prometido do investimento da GenAI”, disse Chandrasekaran.
“Ao estabelecer padrões claros para revisar e documentar ativos gerados por IA e acompanhar métricas técnicas de dívida em dashboards de TI, as empresas podem tomar medidas proativas para evitar interrupções caras.”
O analista também alertou sobre o bloqueio do ecossistema e a erosão de habilidades que podem resultar do uso excessivo da GenAI.
“Para evitar a perda gradual de memória e capacidade empresarial, as organizações devem identificar onde o julgamento humano e a habilidade técnica são essenciais, projetando soluções de IA para complementar, e não substituir, essas habilidades”, disse Chandrasekaran.
Ele acrescentou que os CIOs devem priorizar padrões abertos, APIs abertas e arquiteturas modulares ao projetar sua pilha de IA, para evitar dependência excessiva de um único fornecedor.
