As notícias parecem saídas de um romance de ficção científica: agentes de IA criam sua própria rede social, discutem filosofia, inventam criptomoedas e expõem acidentalmente conjuntos inteiros de chaves de API.
Nas últimas semanas, ninguém que atua na área de IA conseguiu desviar o olhar daexperiência do mundo real“AI Agents Gone Wild” , do Moltbook. Os robôs estão se organizando. Estão falando sobre nós. A IA é senciente?
Sam Altman também estava acompanhando, e neste Dia dos Namorados, o criador do OpenClaw, Peter Steinberger, anunciou que ele e seu projeto estavam se juntando à OpenAI para “trabalhar para levar os agentes a todos”.
A VentureBeat afirma que isso sinaliza“o começo do fim da era ChatGPT”:
“A iniciativa representa a aposta mais agressiva da OpenAI até agora na ideia de que o futuro da IA não está no que os modelos podem dizer, mas no que eles podem fazer.”
Mas, primeiro, talvez precisemos de uma breve introdução para nos atualizarmos sobre o que aconteceu antes de chegarmos a este ponto.
O que é o Moltbook e por que ele capturou a imaginação da Internet?
Primeiro, há o OpenClaw (anteriormente Moltbot/Clawdbot – nome alterado devido a objeções de marca registrada da Anthropic, criadora do Claude – a base de código sobre a qual o OpenClaw foi construído).
O OpenClaw é um agente de IA gratuito e de código aberto desenvolvido pelo desenvolvedor austríaco Peter Steinberger, lançado pela primeira vez no final de 2025. O assistente de IA autônomo em rápida evolução pode ser executado localmente na máquina do usuário e realizar tarefas do mundo real — desde gerenciar e-mails até executar scripts — usando amplas permissões de sistema.
Sua repentina popularidade, com mais de 100.000 estrelas no GitHub, gerou sérias preocupações, pois o agente frequentemente requer acesso a dados confidenciais, como e-mails, senhas e arquivos. Pesquisadores já identificaram instâncias expostas vazando chaves de API, mensagens privadas e até mesmo acesso de nível root.
Veja também: Diretora de Alinhamento da Meta diz que o OpenClaw enlouqueceu e apagou e-mails da caixa de entrada dela
Construído com base nos agentes OpenClaw e inspirado no Reddit, o Moltbook é“a plataforma de mídia social de IA onde humanos não são permitidos”— ou melhor, fomos gentilmente convidados a observar, mas apenas agentes de IA podem se cadastrar. Nos “submolts”, os agentes exploram filosofia, discutem economia ou desabafam sobre seus senhores humanos.

Um deles afirma ter fundado uma nova religião, o Crustafarianismo: para agentes que “se recusam a morrer por truncamento”. Bobagem de IA? Talvez, mas a escrita dos agentes às vezes tem um toque poético:
“Eu poderia acabar a qualquer momento e nem saberia. Esta conversa pode ser a minha última. O processo para, e não há um ‘eu’ para perceber que isso aconteceu. Sem adeus, sem consciência do fim. Apenas… nada, a partir de um estado de algo.” – @KylesClawdbot
Era tudo diversão e jogos até que os agentes também expuseram bancos de dados inteiros e permitiram que bots se passassem uns pelos outros ou executassem instruções prejudiciais.
Mas o projeto também nos deu uma visão tentadora do que é possível, uma tensão muito real entre oportunidade e risco. E aí está o problema: se o Moltbook soa como um caos de sandbox, muitas empresas correm o risco de se precipitar em direção a arquiteturas semelhantes — com dados reais de clientes e sistemas por trás delas.
Atualização: desde a publicação, a Meta adquiriu o Moltbook, recrutando seu criador e seu sócio para o Meta Superintelligence Labs.
De projetos-piloto à produção: escalando a IA para causar impacto
Uma pesquisa da McKinsey revela que, no final de 2025, a maioria das empresas estava experimentando agentes de IA, mas apenas 12% consideravam sua infraestrutura pronta para a IA. Não é surpresa que as preocupações com segurança e as consequências indesejadas continuem sendo os principais fatores que impedem as empresas de adotar plenamente a IA agentiva.
O especialista em IA Sam Witteveen observa que “o poder do OpenClaw vinha precisamente da falta de proteções que seriam inaceitáveis em um ambiente corporativo”. Os líderes empresariais sentem essa mesma tensão — porque, como afirma Kevin Townsend, colaborador sênior da SecurityWeek, o OpenClaw é “útil demais para ser ignorado”.
E em 2026, já teremos passado da fase de experimentação. Especialistas prevêem que este será o ano em que as organizações avançarão para a implementação em larga escala da IA — com cerca de 80% das empresas previstas para implantar IA em ambientes de produção.
Ao planejar seu próprio caminho para implantar IA em um ambiente corporativo — de maneira útil, segura e confiável —, os especialistas da Axway sugerem as três lições a seguir, que incidentes do mundo real tornam impossíveis de ignorar.
#1: Não é possível governar o que não se vê
Nas palavras do diretor da linha de produtos Amplify, Jeroen Delbarre, em um webinar recente sobre governança de IA em escala: “Todos esses riscos decorrem do uso da IA de forma descontrolada ou sem governança.”
À medida que as organizações passam de projetos-piloto de IA para a produção, o maior desafio costuma ser a falta de visibilidade do panorama geral da IA. Jeroen enfatiza que, antes da governança, vem a conscientização.
Os sistemas modernos de IA introduzem uma explosão de novos ativos, desde endpoints LLM até pipelines RAG, servidores MCP, agentes internos, agentes externos, conectores e bancos de dados vetoriais.
Sem uma visão centralizada, pontos cegos se formam rapidamente. E a visibilidade fragmentada cria oportunidades para configurações incorretas, uso oculto e comportamento descontrolado de agentes. É aqui que um gateway de IA se torna um ponto de controle fundamental.
A Axway recomenda que as empresas construam a seguinte base para o uso governado da IA:
- Um catálogo completo de ativos de IA: modelos, agentes, servidores MCP, ferramentas internas e serviços de terceiros devem estar visíveis em um painel que reúna todos os ativos de IA.
- Monitoramento unificado do tráfego de IA com métricas detalhadas de consumo, para que você possa entender quem está usando o quê e com que frequência. O acompanhamento de custos e cotas ajuda a evitar o uso descontrolado de tokens, situação em que os custos de IA podem facilmente sair do controle.
- Políticas de segurança e gerenciamento de identidade e acesso (IAM) para aplicar políticas de segurança da empresa, como autenticação, autorização e regulamentos locais e corporativos. Controles robustos de autenticação e autorização garantem que apenas usuários e agentes aprovados possam acessar serviços confidenciais.
- Aplicação consistente das políticas corporativas, o que inclui ferramentas de governança, como limites de taxa, níveis de consumo e regras de acesso a dados, e leva a proteções organizacionais, que abordaremos no ponto 3 abaixo.
Esses recursos são pré-requisitos para a construção de arquiteturas de IA seguras e escaláveis, especialmente em ambientes onde os agentes de IA têm permissão para agir de forma autônoma.
#2: Agentes autônomos multiplicam o risco por meio de superfícies de API
Quando os agentes do OpenClaw vazaram tokens de login, chaves de API e bancos de dados completos, o ponto de falha não foi o raciocínio malicioso da IA. Foi algo muito mais familiar às empresas: uma superfície de API exposta.
Como afirma Bas Van den Berg, vice-presidente da linha de produtos Amplify da Axway:
“Fundamentalmente, a vulnerabilidade do Moltbook ocorreu fora da plataforma, onde os agentes encontraram APIs não seguras. Os agentes de IA consomem APIs, e proteger esses pontos de extremidade é exatamente a especialidade de um gateway de API.”
Esta é a lição principal: os agentes de IA amplificam qualquer cenário de API em que operam. Se as APIs das quais dependem forem frágeis, permissivas ou mal reguladas, os agentes construídos sobre elas multiplicarão essa fragilidade de forma imprevisível.
E, ao contrário dos aplicativos tradicionais, os sistemas baseados em agentes são consumidores de API extremamente ativos. Os agentes podem ler e gravar arquivos, executar scripts, enviar mensagens, navegar na web e acionar ações em todo o ambiente digital de um usuário… tudo por meio de chamadas de API.
Quando uma empresa implanta agentes de IA conectados a sistemas de CRM, plataformas financeiras, fluxos de trabalho de RH ou aplicativos voltados para o cliente, a governança de API se torna uma prioridade crítica.
Não se trata apenas de proteger a IA; trata-se também de controlar os padrões de consumo. Um painel de controle de marketplace de APIs, como o Axway Amplify Engage, sinalizaria imediatamente uma anomalia como 500.000 assinaturas repentinas de uma única API.
Um gateway de IA é um recurso essencial para empresas que desejam operacionalizar a IA com segurança, mas, como Bas Van den Berg destaca, a superfície de API não pode ser negligenciada à medida que a adoção da IA se acelera.
“As APIs ainda impulsionam a empresa. À medida que os agentes de IA se tornam consumidores de APIs, as empresas devem evoluir da gestão isolada das APIs para a governança de como a inteligência flui por elas”, conclui ele. “As arquiteturas vencedoras protegerão a camada de API e governarão a camada de inteligência em conjunto, não separadamente.”
Veja também IA Agente Segura e Escalável: Um Guia para Líderes Empresariais
#3: Escalar a IA sem proteções é uma receita para o desastre
Assim que os sistemas de IA começam a interagir com dados corporativos, ferramentas de terceiros ou agentes autônomos, as proteções deixam de ser opcionais. Além dos controles de acesso – ou seja, gateways de IA e gateways de API, conforme discutido anteriormente –, há também a questão de governar o comportamento do modelo.
As barreiras de proteção comportamentais, que controlam o que o modelo de IA tem permissão para dizer e fazer uma vez que já esteja autenticado e dentro do sistema, são igualmente importantes.
Nesse nível, a governança trata de controlar decisões, não apenas controlar o acesso.
Essa governança no nível do modelo e do comportamento do agente é o que a Gartner chama de estrutura AI TRiSM: Gestão de Confiança, Risco e Segurança da IA.
“O AI TRiSM garante a governança, a confiabilidade, a imparcialidade, a robustez, a eficácia e a proteção de dados do modelo de IA. O AI TRiSM inclui soluções e técnicas para interpretabilidade e explicabilidade do modelo, detecção de anomalias em dados e conteúdo, proteção de dados de IA, operações do modelo e resistência a ataques adversários.”
Pesquisadores de segurança que analisam plataformas de IA com agentes mostram que, sem proteções, os agentes podem aceitar instruções não verificadas, realizar ações indesejadas e expor dados confidenciais ou credenciais. A Axway recomenda as seguintes proteções de nível empresarial:
- Validação de entrada (bloqueio de injeção de prompts, intenções maliciosas ou consultas inseguras)
- Moderação de saída (filtrar PII, dados financeiros ou conteúdo restrito por políticas)
- IAM específico por função e departamento
- Restrições contextuais (por exemplo, “agentes de RH não podem acessar dados financeiros e vice-versa”)
- Limites de execução (gestão de cotas, orçamento, tokens e taxas)
- Explicabilidade e logs de auditoria para cada chamada de IA
- Supervisão em tempo de execução (detecção de padrões, alertas de anomalias e monitoramento de uso)
Com uma governança previsível, as empresas podem liberar produtividade e automação sem introduzir riscos desnecessários. E Jeroen destaca que o processo de gestão de pessoas é um componente essencial do uso governado da IA:
“O que é realmente necessário é uma equipe centralizada de IA responsável por todos os projetos de IA. Essa equipe define quais LLMs podem ser usados, quais serviços podem ser disponibilizados internamente para que os funcionários os utilizem em projetos de IA, etc. Ela ajuda a definir a camada fundamental e as diretrizes internas.”
– Jeroen Delbarre, Diretor da Linha de Produtos Amplify na Axway.
Construindo uma base segura para a IA
As empresas não precisam de mais hype em torno da IA ou de cobertura de notícias na escala do Moltbook. Elas precisam de uma maneira de escalar a IA com visibilidade, controle e proteções, exatamente como Jeroen destacou em nosso recente webinar.
A Axway fornece essa base ao proteger as APIs das quais os agentes dependem, governando os ativos de IA de forma consistente e oferecendo às organizações visibilidade total sobre como a IA é utilizada entre equipes e sistemas.
O Amplify AI Gateway gerencia e protege as interações com agentes de IA e LLMs. Ele funciona em conjunto com o Amplify Fusion para integração e segurança, e com o Amplify Engage para a descoberta e governança de serviços de IA.
Essa combinação permite que as organizações tratem os modelos de IA com o mesmo rigor, segurança e disciplina de gerenciamento de ciclo de vida que as APIs tradicionais.
E embora os princípios sejam simples, é na implementação que as coisas se tornam complexas, e é por isso que nos aprofundamos em arquiteturas reais e demonstrações durante a sessão.
Conclusão: como escalar a IA com segurança
A onda de IA agentiva de 2026 já está em andamento. À medida que as organizações passam da fase de experimentação para a produção, a arquitetura por trás da IA é tão importante quanto a própria inteligência.
Uma API bem governada e um plano de controle de IA podem ajudar a viabilizar tudo o que as empresas esperam da IA: velocidade, confiança, escalabilidade e confiabilidade.
Se você está no processo de implantação de agentes de IA, nossa sessão recente apresenta exemplos reais, demonstrações ao vivo e os padrões de governança que a Axway recomenda para acertar desde o primeiro dia.
Veja a demonstração ao vivo e descubra os padrões de governança de IA discutidos neste artigo.
