A introdução dos agentes de inteligência artificial nas operações das empresas trouxe questões significativas de segurança. À medida que as empresas adotam sistemas com múltiplos agentes, os riscos associados aumentam exponencialmente.
Quando agentes de IA são integrados aos fluxos de trabalho, eles precisam acessar dados e documentos sensíveis para realizar suas tarefas. Isso os torna alvos em potencial para ataques, especialmente em organizações preocupadas com segurança, como mencionado por Nicole Carignan, vice-presidente de cibersegurança estratégica na Darktrace.
Ela observa que o uso crescente de sistemas multiagentes cria novos pontos de vulnerabilidade, agravados pelo aumento das conexões e interfaces envolvidas.
Por que os agentes de IA representam um alto risco de segurança
Os agentes de IA, conhecidos por sua autonomia em executar ações em nome dos usuários, ganharam popularidade recentemente. Eles podem executar tarefas desde a busca por informações em documentos internos até recomendações para decisões humanas. Porém, ao conceder acesso a informações privadas, surgem preocupações quanto à exposição de dados, precisão nas ações e responsabilidade.
Chris Betz, CISO da AWS, aponta que casos de uso envolvendo geração aumentada por recuperação (RAG) são desafiadores do ponto de vista de segurança. Ele destaca que as políticas de compartilhamento de dados devem ser revisadas, pois agentes podem acessar informações indiscriminadamente em busca de completar suas tarefas. Assim, é crucial definir os limites de acesso de maneira clara.
Outro ponto de atenção é a identificação dos agentes. Eles devem ser tratados como “funcionários digitais” ou softwares? Qual o nível de acesso permitido e como devem ser identificados?
Vulnerabilidades dos agentes de IA
O avanço da inteligência artificial gerativa trouxe à tona vulnerabilidades que podem ser exploradas pelos agentes. Ataques como envenenamento de dados, injeção de prompts e engenharia social para manipular o comportamento do agente são riscos existentes.
De acordo com Carignan, as empresas precisam monitorar atentamente o acesso dos agentes para garantir a segurança dos dados. Isso inclui revisar métodos tradicionais de controle de acesso humano, pois muitos dos problemas de permissão enfrentados por funcionários podem se aplicar a agentes. Cada etapa de um fluxo de trabalho representa uma oportunidade para hackers explorarem brechas.
Dando identidade aos agentes
Uma solução potencial seria atribuir identidades específicas aos agentes. Jason Clinton, CISO da Anthropic, sugere que, em um ambiente onde agentes raciocinam sobre problemas durante dias, é essencial registrar a identidade do agente e a responsabilidade do humano que solicitou sua ação.
Empresas já fazem isso com seus funcionários, garantindo acesso limitado a dados e registrando suas atividades. Algo semelhante pode ser aplicado a agentes, criando fluxos de trabalho onde cada etapa acessa apenas os dados necessários. Isso pode minimizar os riscos de compartilhamento excessivo de informações.
Auditorias não são mais suficientes
Empresas também podem adotar plataformas que oferecem maior transparência sobre as ações dos agentes. Por exemplo, Don Schuerman, CTO da Pega, destaca que sua plataforma audita não apenas o trabalho humano, mas também cada etapa realizada por agentes.
A ferramenta AgentX permite aos usuários visualizarem o progresso e as ações dos agentes em tempo real, oferecendo níveis mais altos de controle e segurança.
Embora auditorias e identificação sejam passos importantes, elas não resolvem completamente os desafios de segurança dos agentes de IA. À medida que as empresas experimentam com essas tecnologias, novas soluções devem surgir para mitigar os riscos e garantir a proteção dos dados.