Integração e Desenvolvimento5 min de leitura

Como Integrar 9 Provedores de IA com 1 Linha de Código

Tutorial prático para integrar OpenAI, Anthropic, Google Gemini, AWS Bedrock, DeepSeek, Mistral, Groq, Azure AI e Manus em uma única API. Basta trocar uma linha de código.

Adapt11
|19 de março de 2026

Como Integrar 9 Provedores de IA com 1 Linha de Código

Se sua aplicação já consome inteligência artificial — ou está prestes a consumir — você provavelmente enfrenta (ou vai enfrentar) um dilema: qual provedor escolher? OpenAI? Anthropic? Google Gemini? AWS Bedrock? E quando perceber que diferentes modelos são melhores para diferentes tarefas, vai precisar integrar vários provedores ao mesmo tempo — cada um com sua API, seu formato de autenticação, seu modelo de cobrança e suas peculiaridades.

A boa notícia: existe uma forma de acessar 9 provedores de IA sem manter 9 integrações separadas. A ideia central é simples — usar um broker de IA que ofereça uma API padronizada e faça o roteamento para o provedor adequado. No caso do Adapt11, a migração para esse modelo envolve trocar exatamente uma linha de código: a `base_url` da requisição.

Este tutorial mostra como isso funciona na prática, com exemplos em Python, JavaScript e cURL.

O problema: integração direta com múltiplos provedores

Antes de mostrar a solução, vale entender o problema que ela resolve.

Quando uma aplicação integra a API da OpenAI diretamente, o código está acoplado àquele provedor específico. A URL de endpoint, o formato de autenticação, os nomes dos modelos e até o tratamento de erros são específicos da OpenAI. Se amanhã a organização decidir usar o Claude (Anthropic) para uma tarefa, precisa implementar uma segunda integração — com autenticação diferente, endpoint diferente e formato de resposta diferente.

Multiplique isso por 9 provedores e o resultado é um pesadelo de manutenção: 9 SDKs, 9 formatos de erro, 9 sistemas de billing para reconciliar, 9 conjuntos de credenciais para gerenciar. Toda vez que um provedor muda sua API (e eles mudam com frequência), o código precisa ser atualizado.

Para o setor público, o problema vai além da engenharia. Sem centralização, não há como responder às perguntas que o TCU vai fazer: quanto foi gasto com cada provedor, quem usou, quais dados foram processados. A governança de IA exige visibilidade unificada — e integrações separadas são o oposto disso.

A solução: uma API, todos os provedores

O Adapt11 funciona como uma camada intermediária compatível com o formato OpenAI. Isso significa que qualquer aplicação que já usa a API da OpenAI pode acessar todos os 9 provedores integrados sem alterar a lógica da aplicação. A única mudança é o endpoint — a `base_url`.

Os 9 provedores disponíveis

Através de uma única integração com o Adapt11, a aplicação acessa:

OpenAI: GPT-4o, GPT-4o-mini, o-series e modelos de embedding e geração de imagens (DALL-E). Anthropic: Claude Opus, Sonnet e Haiku — modelos reconhecidos por análise de documentos longos e raciocínio. Google Gemini: modelos com janelas de contexto massivas e capacidades multimodais avançadas. AWS Bedrock: acesso a modelos hospedados na infraestrutura AWS, incluindo variantes do Claude, Llama e outros. DeepSeek: modelos open-source com excelente relação custo-desempenho, especialmente em raciocínio e código. Mistral: modelos europeus com forte performance em múltiplos idiomas e eficiência de custo. Groq: inferência ultrarrápida com hardware dedicado — ideal para aplicações que exigem baixa latência. Azure AI: modelos OpenAI hospedados na infraestrutura Microsoft Azure, com certificações enterprise. Manus: provedor especializado com capacidades diferenciadas para cenários específicos.

Como funciona a troca

A integração padrão com a OpenAI utiliza um código como este (exemplo em Python):

```python from openai import OpenAI

client = OpenAI( api_key="sk-sua-chave-openai", base_url="https://api.openai.com/v1" # endpoint direto OpenAI )

response = client.chat.completions.create( model="gpt-4o", messages=[{"role": "user", "content": "Resuma este documento."}] ) ```

Para acessar todos os 9 provedores via Adapt11, a única mudança é a `base_url`:

```python from openai import OpenAI

client = OpenAI( api_key="adapt11-sua-chave", base_url="https://api.adapt11.com.br/v1" # agora via Adapt11 )

response = client.chat.completions.create( model="gpt-4o", # ou claude-3-opus, gemini-pro, deepseek-chat... messages=[{"role": "user", "content": "Resuma este documento."}] ) ```

Uma linha. A mesma estrutura de requisição, o mesmo formato de resposta, a mesma biblioteca SDK. Mas agora, em vez de acessar apenas a OpenAI, a aplicação pode direcionar requisições para qualquer provedor simplesmente trocando o parâmetro `model`.

Exemplo em JavaScript

```javascript import OpenAI from 'openai';

const client = new OpenAI({ apiKey: 'adapt11-sua-chave', baseURL: 'https://api.adapt11.com.br/v1' // uma linha });

const response = await client.chat.completions.create({ model: 'claude-3-sonnet', // Anthropic via Adapt11 messages: [{ role: 'user', content: 'Analise este contrato.' }] }); ```

Exemplo em cURL

```bash curl https://api.adapt11.com.br/v1/chat/completions \ -H "Authorization: Bearer adapt11-sua-chave" \ -H "Content-Type: application/json" \ -d '{ "model": "gemini-pro", "messages": [{"role": "user", "content": "Liste os pontos principais."}] }' ```

O mesmo endpoint, o mesmo formato, qualquer provedor. A abstração do broker elimina a complexidade de gerenciar múltiplas integrações.

O que acontece por trás da requisição

Quando a requisição chega ao Adapt11, a plataforma executa uma sequência de operações antes de encaminhá-la ao provedor:

Autenticação e autorização

O Adapt11 verifica se a chave de API é válida, identifica a organização, o departamento e o usuário associados e confere se têm permissão para usar o modelo solicitado. Essa verificação pode ser integrada ao sistema de identidade da organização (SSO/SAML/OIDC).

Verificação de políticas

A plataforma confere as políticas configuradas: o departamento tem franquia disponível? O modelo solicitado está na lista de modelos permitidos? O tipo de IA (chat, embedding, imagem, áudio) está autorizado para este usuário?

Roteamento

Com as políticas validadas, o Adapt11 direciona a requisição ao provedor. O roteamento pode seguir diferentes estratégias — por política (provedor fixo por departamento), por custo (menor preço por token), por latência (menor tempo de resposta) ou por disponibilidade (failover automático).

Registro de auditoria

Cada requisição é registrada com metadados completos: timestamp, identificação do solicitante, provedor e modelo utilizados, custo estimado, políticas aplicadas e status da resposta. Esse registro compõe a trilha de auditoria que o TCU espera — e que a organização pode consultar a qualquer momento.

Entrega da resposta

A resposta do provedor é normalizada para o formato padrão e entregue à aplicação. Do ponto de vista da aplicação, a resposta é indistinguível de uma resposta direta do provedor — o mesmo formato, os mesmos campos, o mesmo comportamento de streaming.

Cenários práticos de uso multi-provedor

Cenário 1: departamentos diferentes, provedores diferentes

O departamento jurídico usa Claude (Anthropic) para análise de contratos longos — o modelo se destaca em documentos extensos. O departamento de comunicação usa GPT-4o (OpenAI) para geração de conteúdo. O departamento de TI usa DeepSeek para tarefas de código, aproveitando a relação custo-desempenho superior. Todos acessam a mesma API do Adapt11, com a mesma integração. A única diferença é o parâmetro `model` em cada requisição.

Cenário 2: failover automático

A aplicação está configurada para usar o Claude como provedor primário. Em um momento de instabilidade da Anthropic, o Adapt11 detecta a degradação e redireciona automaticamente as requisições para o GPT-4o como provedor secundário. A aplicação nem percebe a troca — a resposta chega normalmente, com o provedor alternativo registrado na auditoria.

Cenário 3: otimização de custos

Para tarefas simples como classificação de textos ou respostas padrão de atendimento, a aplicação usa modelos menores e mais baratos (GPT-4o-mini, Mistral-small, Haiku). Para tarefas complexas como análise jurídica ou geração de relatórios, escala para modelos maiores (Claude Opus, GPT-4o). O Adapt11 permite configurar regras de roteamento que fazem essa seleção automaticamente, otimizando o custo sem intervenção manual.

Cenário 4: migração sem interrupção

A organização estava usando exclusivamente a OpenAI. Após testes, decide migrar a análise de documentos para o Claude. Com integração direta, isso exigiria uma nova integração e meses de desenvolvimento. Com o Adapt11, basta mudar o parâmetro `model` nas requisições de análise de documentos. Zero interrupção, zero reescrita de código.

Integração com os 4 modos de entrega

A simplicidade da integração se mantém independentemente do modo de entrega escolhido:

No Proxy Centralizado, a `base_url` aponta para o endpoint cloud do Adapt11. É o modo padrão, mais simples de configurar.

No Gateway no Cliente, a `base_url` aponta para o endpoint do gateway instalado na infraestrutura do próprio órgão. Os dados não passam pela nuvem do Adapt11 — vão direto para o provedor. A integração no código é idêntica; muda apenas o endereço.

Na Revenda Direta, a dinâmica é a mesma do proxy, mas com a simplificação contratual de ter todos os provedores em um único contrato.

No SDK Direto (BYOK), a organização usa suas próprias chaves de API. O SDK do Adapt11 se integra à aplicação para aplicar governança e registrar auditoria, sem intermediar o tráfego de dados.

Em todos os casos, o código da aplicação permanece essencialmente o mesmo. A diferença está na infraestrutura, não na integração.

O que a integração via broker resolve para o setor público

Para desenvolvedores, a vantagem imediata é óbvia: menos código, menos complexidade, menos manutenção. Mas para o setor público, os benefícios vão além da engenharia.

Conformidade com o TCU: toda requisição é auditada automaticamente. Quando o TCU pedir um relatório de uso de IA — quanto foi gasto, por quem, qual provedor, qual período — a resposta está a um clique. Sem necessidade de consolidar dados de 9 provedores diferentes. FinOps nativo: custos por departamento, alertas de consumo e limites configuráveis são funcionalidades da plataforma. O controle financeiro que o TCU exige vem pronto. Eliminação de shadow AI: quando a organização oferece uma plataforma fácil de usar, com acesso a múltiplos provedores e modelos, os servidores não precisam recorrer a contas pessoais. O shadow AI perde a razão de existir. Alinhamento com o PBIA: o Plano Brasileiro de IA prevê 115 mil servidores capacitados em IA. Esses servidores precisarão de uma plataforma institucional para trabalhar — e ela precisa estar pronta.

Perguntas frequentes

É possível usar múltiplos provedores de IA com uma única integração?

Sim. Com um broker de IA como o Adapt11, a aplicação se conecta a uma única API e acessa qualquer provedor integrado sem integrações separadas.

Preciso reescrever meu código para usar o Adapt11?

Não. Se sua aplicação já usa a API da OpenAI, basta trocar a `base_url`. O formato de requisição e resposta é compatível.

Quais provedores de IA o Adapt11 integra?

OpenAI, Anthropic (Claude), Google Gemini, AWS Bedrock, DeepSeek, Mistral, Groq, Azure AI e Manus — 9 provedores em uma única API.

O Adapt11 adiciona latência?

A latência adicional é mínima — entre 5 e 30 milissegundos. Imperceptível para o usuário final e compensada pelo failover automático.

Como funciona o failover automático?

Se o provedor primário falha ou apresenta latência elevada, o Adapt11 redireciona a requisição para um provedor secundário configurado. A aplicação não precisa tratar a falha — a resposta chega normalmente.

Conclusão: complexidade zero, governança total

A promessa de integrar 9 provedores de IA com uma linha de código não é um exagero de marketing — é a consequência natural de usar um broker que abstrai a complexidade de múltiplas APIs. A aplicação se conecta ao Adapt11 da mesma forma que se conectaria à OpenAI. A diferença é que, por trás, a plataforma oferece acesso a todos os provedores, com roteamento inteligente, failover automático, FinOps e trilha de auditoria.

Para desenvolvedores, é menos código e menos manutenção. Para gestores, é visibilidade e controle. Para o setor público, é conformidade e prestação de contas.

A integração é a parte fácil. O valor está na governança que vem junto.


O Adapt11 é a plataforma brasileira de governança de inteligência artificial que funciona como broker de múltiplos provedores. Com trilha de auditoria inviolável, controle de custos por departamento, conformidade com LGPD e 4 modos de entrega para soberania de dados, o Adapt11 foi projetado para o setor público. Agendar demonstração → | Solicitar material para licitação → | Conheça a solução →

Tags

integração IAAPI unificadamulti-provedorOpenAIAnthropicGoogle GeminiAWS Bedrocktutorialdesenvolvedor

O Adapt foi projetado para governança de IA no setor público.

Trilha de auditoria inviolável, controle de custos, conformidade LGPD e 4 modos de entrega.