A inteligência artificial agêntica (IA) promete transformar a forma como as organizações operam. Ao contrário das ferramentas de IA anteriores concebidas para resumir documentos ou gerar conteúdo, estes sistemas podem agir de forma autónoma, executar tarefas e interagir com sistemas empresariais. Para os conselhos de administração que supervisionam o risco tecnológico, essa mudança introduz uma categoria fundamentalmente diferente de preocupação de segurança. Laura I. Harder, Vice-Presidente da Information Systems Security Association (ISSA) International e oficial de ciberataques da Reserva da Força Aérea dos EUA, acredita que muitos líderes subestimam a rapidez com que esses riscos podem materializar-se. "O risco para as organizações resume-se realmente a ter demasiada agência", afirma Harder. "Os agentes podem alterar permissões, alterar funcionalidades e criar ações que talvez não estivesse à espera." À medida que as organizações passam de experimentar com IA para operacionalizar agentes autónomos, os conselhos de administração devem mover-se com igual rapidez para estabelecer estruturas de governação, barreiras de proteção e mecanismos de supervisão capazes de gerir sistemas que podem tomar decisões e agir sem intervenção humana.
A IA Agêntica Altera a Equação de Segurança
Nos últimos anos, a maioria das implementações empresariais de IA centrou-se em ferramentas que analisam informação ou geram resultados. Essas capacidades introduziram preocupações de privacidade e integridade de dados, mas os próprios sistemas raramente executavam ações dentro de ambientes empresariais. A IA agêntica altera essa dinâmica. Em vez de simplesmente oferecer recomendações ou filtrar currículos, os agentes podem acionar fluxos de trabalho, aceder a bases de dados e interagir com sistemas de software em toda a organização. "Agora já não se limita a dar-nos conselhos. Está a agir e age por si próprio", afirma Harder.

Essa autonomia cria novos desafios de segurança porque os sistemas podem ser manipulados. Tal como os humanos podem cair na engenharia social, os Agentes de IA podem ser induzidos a executar tarefas não intencionais através de técnicas como a injeção de prompt. Harder aponta para exemplos do mundo real onde instruções ocultas incorporadas em inputs alteram o comportamento da IA. "A IA vai comportar-se com base nas instruções que lhe são dadas", afirma. Estas ameaças são agravadas pela natureza opaca de muitos modelos de IA. As organizações dependem frequentemente de ferramentas de terceiros sem total visibilidade sobre como as decisões são tomadas. O resultado é um sistema capaz de executar ações enquanto opera de formas difíceis de prever.
O Risco Oculto que os Conselhos Frequentemente Negligenciam
Quando os conselhos de administração começam a avaliar a IA agêntica, Harder afirma que a vulnerabilidade mais subestimada são as permissões. Cada Agente de IA opera dentro de uma rede de sistemas, fontes de dados e aplicações. O nível de acesso concedido a esses sistemas determina o potencial dano se algo correr mal. Harder descreve isto como o "raio de explosão" do sistema. Um agente ao qual são concedidas permissões amplas pode ser capaz de interagir com muito mais dados e infraestrutura do que os líderes imaginam.
Um exemplo comum ocorre quando os sistemas de IA estão ligados a ferramentas de colaboração internas ou repositórios de documentos. Se uma pasta amplamente partilhada contiver informação sensível, um agente que opere nesse ambiente poderá aceder e utilizar esses dados dentro das permissões concedidas ao utilizador, conta de serviço ou integração sob a qual opera. Na prática, isso significa que o agente pode expor ou agir sobre informação que pode ter sido amplamente acessível mas não ativamente monitorizada.
Os serviços de IA de terceiros introduzem uma camada adicional de risco. "Se está a utilizar um modelo, a que informação tem esse modelo acesso e a sua informação pode ser usada para treinar esse modelo?" pergunta Harder. Sem controlos claros, informação proprietária, propriedade intelectual ou dados sensíveis de clientes podem sair involuntariamente da organização através de interações com IA.
Construir uma Governação que Possa Acompanhar a IA
A governação da IA deve ser tratada como um programa estruturado e não como um complemento tecnológico. As organizações devem começar por estabelecer um conselho de governação de IA dedicado, frequentemente modelado segundo comités existentes de governação de privacidade ou risco. Esse grupo deve adotar estruturas estabelecidas como o NIST AI Risk Management Framework ou normas internacionais como a ISO 42001. "Ter governação de IA e proteções de IA não é apenas um produto que se possa comprar", afirma.
Estas estruturas fornecem orientação sobre políticas, avaliação de risco e controlos operacionais. Mas ainda requerem que as organizações definam como a IA irá funcionar dentro do seu ambiente e a que dados terá permissão de aceder. "Precisa de políticas, procedimentos e inventários", afirma Harder. "Essas peças ajudarão a construir a infraestrutura a partir da qual as suas equipas podem trabalhar." Uma prática emergente é a criação de uma "lista de materiais de IA" que inventaria cada ferramenta de IA utilizada dentro da organização, a que sistemas se liga e a que dados pode aceder. Sem essa visibilidade, as organizações não conseguem compreender totalmente a exposição criada por sistemas autónomos que interagem com a infraestrutura empresarial.
Barreiras de Proteção que Impedem a IA de Ficar Descontrolada
Mesmo com estruturas de governação implementadas, os sistemas agênticos requerem salvaguardas técnicas que limitam a forma como operam. A estratégia mais eficaz é conceber controlos de segurança desde o início. Os sistemas devem inicialmente ser desenvolvidos dentro de ambientes sandbox fechados e controlados, utilizando dados de teste (não dados de produção) e privilégios limitados. "À medida que está a construir o seu sistema agêntico, deve fazê-lo numa sandbox", afirma. "É um ambiente controlado onde sistemas sintéticos podem operar com baixo risco e sem privilégios."
Os testes também devem incluir red teaming, onde profissionais de segurança tentam quebrar o sistema ou manipular o seu comportamento. Estes exercícios expõem vulnerabilidades antes de os sistemas serem implementados em ambientes de produção. "Ter um humano no circuito garante que se e quando a sua ferramenta de IA decidir tomar uma decisão que talvez não quisesse, há algum tipo de restrição", afirma Harder. As técnicas de isolamento também podem limitar o risco. Em algumas arquiteturas, os agentes estão contidos dentro de máquinas virtuais onde as políticas restringem que comandos podem executar e a que sistemas podem aceder.
A Supervisão do Conselho É Fundamental
Para os conselhos de administração, o surgimento da IA agêntica é um desafio de governação e responsabilização e Harder salienta que as organizações permanecem responsáveis pelas ações que os seus sistemas de IA tomam. "Não pode voltar atrás e dizer: 'Não sabia que podia fazer isto'", afirma. "Tem de fazer a sua devida diligência." Essa responsabilidade acarreta implicações tanto legais como fiduciárias. Os conselhos de administração devem garantir que as tecnologias autónomas são implementadas com supervisão clara, autoridade limitada e monitorização contínua. "Não ligue agentes a ferramentas privilegiadas até poder provar que tem autoridade limitada, pontos de verificação humanos e monitorização", afirma Harder. À medida que a IA agêntica continua a passar da experimentação para operações centrais, as organizações que terão sucesso serão aquelas que tratam a governação e a segurança como requisitos fundamentais e não como reflexões posteriores.
Siga Laura I. Harder no LinkedIn para mais informações.



