Microsoft lança kit de ferramentas de tempo de execução de código aberto para aumentar o controle sobre agentes autônomos de IA

Microsoft lança kit de ferramentas de tempo de execução de código aberto para aumentar o controle sobre agentes autônomos de IA



A Microsoft introduziu um novo kit de ferramentas de código aberto focado na segurança do tempo de execução para impor uma governança mais rigorosa sobre os agentes corporativos de IA.

Resumo

  • A Microsoft lançou um kit de ferramentas de código aberto focado na segurança de tempo de execução para governar agentes corporativos de IA.
  • O sistema monitora e bloqueia as ações dos agentes em tempo real, abordando os riscos de modelos autônomos que executam código. Ele insere uma camada de política entre os modelos de IA e os sistemas corporativos, criando trilhas de decisão auditáveis.
  • O kit de ferramentas também ajuda a controlar o uso da API e o consumo de tokens, reduzindo riscos operacionais e de custos.

O kit de ferramentas é construído em torno da segurança do tempo de execução, abordando preocupações de que os modelos de linguagem modernos não estão mais limitados a funções de consultoria, mas estão executando código ativamente e interagindo com sistemas internos. As salvaguardas tradicionais, como verificações de código estático e verificações pré-implantação, lutam para acompanhar esses comportamentos dinâmicos.

As implantações anteriores de IA se concentraram principalmente em copilotos com acesso restrito e somente leitura, mantendo os humanos no comando da execução. Esse modelo está mudando. As empresas agora estão integrando sistemas de agentes capazes de realizar ações independentes em APIs, ambientes de nuvem e pipelines de desenvolvimento.

Nessas configurações, um agente de IA poderia analisar um email, gerar um script e implantá-lo em um servidor sem intervenção humana. Uma instrução defeituosa ou injeção imediata pode levar a alterações não intencionais no banco de dados ou à exposição de informações confidenciais. O novo kit de ferramentas aborda esse risco monitorizando as ações à medida que acontecem e intervindo em tempo real, em vez de depender de controlos predefinidos.

O sistema se concentra em como os agentes de IA interagem com ferramentas externas. Quando um modelo precisa realizar uma ação além do seu processamento interno, como consultar um sistema corporativo, ele gera um comando direcionado a essa ferramenta.

A Microsoft insere uma camada de aplicação de políticas entre o modelo e a rede corporativa. Cada solicitação de saída é interceptada e avaliada em relação a regras de governança predefinidas antes da execução. Se uma ação violar a política, por exemplo, um agente tentando iniciar uma transação apesar de estar limitado ao acesso somente leitura, a solicitação será bloqueada e registrada para revisão.

Essa abordagem cria um rastro auditável de decisões, ao mesmo tempo que elimina a necessidade de os desenvolvedores incorporarem restrições de segurança em cada prompt ou fluxo de trabalho. A governança muda da lógica de aplicação para controles em nível de infraestrutura.

A estrutura também atua como um buffer para sistemas legados, muitos dos quais não foram projetados para lidar com entradas imprevisíveis geradas por máquinas. Ao filtrar e validar solicitações antes que elas cheguem aos sistemas principais, limita o risco representado por comportamento de IA comprometido ou mal direcionado.

A decisão da Microsoft de lançar o kit de ferramentas como código aberto está vinculada às práticas atuais de desenvolvimento. As equipes que criam fluxos de trabalho de IA geralmente dependem de uma combinação de ferramentas e modelos de terceiros. Uma solução proprietária poderia ser contornada em favor de alternativas mais rápidas. A disponibilidade aberta permite que os controles se integrem em ambientes variados, incluindo sistemas que usam modelos de concorrentes como o Anthropic.

Também abre a porta para que as empresas de segurança cibernética criem camadas adicionais de monitorização e resposta no topo da estrutura, ajudando a estabelecer uma base partilhada para proteger as operações orientadas pela IA.

Trazendo disciplina financeira para fluxos de trabalho de IA

A segurança é apenas uma parte do desafio. Os agentes autônomos também introduzem riscos financeiros e operacionais, principalmente por meio do uso descontrolado de APIs.

Estes sistemas operam em loops contínuos, fazendo chamadas repetidas para serviços externos. Sem limites, mesmo uma tarefa simples pode desencadear milhares de consultas a bases de dados ou APIs pagas, aumentando rapidamente os custos. Em casos extremos, agentes mal configurados podem entrar em ciclos recursivos que consomem grandes quantidades de recursos computacionais em pouco tempo.

O kit de ferramentas permite que as organizações definam limites rígidos sobre o uso de tokens e a frequência de solicitação. Ao controlar a frequência com que um agente pode agir dentro de um determinado período, as empresas podem gerir melhor os gastos e evitar processos descontrolados.

A supervisão do tempo de execução também oferece suporte aos requisitos de conformidade, fornecendo controles mensuráveis ​​e registros de auditoria claros. A responsabilidade está se transferindo dos fornecedores de modelos para os sistemas que executam decisões em ambientes do mundo real.

A implementação de tais estruturas de governação exigirá coordenação entre as equipas de engenharia, jurídicas e de segurança. À medida que os sistemas de IA assumem funções mais autónomas, a infraestrutura que gere o seu comportamento torna-se central para uma implantação segura.

Microsoft expande impulso de infraestrutura de IA no Japão

O lançamento acompanha o investimento contínuo em infraestrutura de IA. Microsoft recentemente planos delineados comprometer US$ 10 bilhões no Japão nos próximos quatro anos, com foco em data centers e sistemas de suporte.

O anúncio ocorreu após negociações entre o presidente da Microsoft, Brad Smith, e o primeiro-ministro japonês, Sanae Takaichi, em Tóquio. Smith descreveu o investimento como uma “resposta à crescente necessidade do Japão por serviços de nuvem e IA”.

A empresa está trabalhando com o Grupo SoftBank e Sakura Internet para expandir a infraestrutura doméstica. O compromisso mais recente baseia-se num plano de 2,9 mil milhões de dólares anunciado em 2024, destinado a reforçar as capacidades de IA e a resiliência da segurança cibernética no país.



POstagem Original.