Provedores¶
Configure diferentes provedores de LLM via LangChain.
Providers Suportados¶
| Provider | Identificador | Modelos Atuais (2025/2026) |
|---|---|---|
google_genai |
gemini-3-flash-preview, gemini-2.5-flash, gemini-2.5-pro | |
| OpenAI | openai |
gpt-5.2, gpt-5.2-mini, gpt-4.1 |
| Anthropic | anthropic |
claude-sonnet-4-5, claude-opus-4-6, claude-haiku-4-5 |
| Groq | groq |
llama-3.3-70b-versatile, llama-3.1-8b-instant, openai/gpt-oss-120b, openai/gpt-oss-20b, groq/compound |
| Cohere | cohere |
command-r, command-r-plus |
| Mistral | mistral |
mistral-large, mistral-small |
Google Gemini (Padrão)¶
# Padrão - não precisa especificar
resultado = dataframeit(df, Model, PROMPT)
# Explícito
resultado = dataframeit(
df, Model, PROMPT,
provider='google_genai',
model='gemini-3-flash-preview'
)
# Com parâmetros extras
resultado = dataframeit(
df, Model, PROMPT,
provider='google_genai',
model='gemini-2.5-pro',
model_kwargs={
'temperature': 0.2,
'top_p': 0.9
}
)
Modelos Recomendados¶
| Modelo | Uso | Custo |
|---|---|---|
gemini-3-flash-preview |
Uso geral, mais recente | Baixo |
gemini-2.5-flash |
Uso geral, rápido | Baixo |
gemini-2.5-pro |
Tarefas complexas, reasoning | Médio |
OpenAI¶
resultado = dataframeit(
df, Model, PROMPT,
provider='openai',
model='gpt-5.2-mini'
)
# Com modelo mais avançado
resultado = dataframeit(
df, Model, PROMPT,
provider='openai',
model='gpt-5.2',
model_kwargs={
'temperature': 0.2
}
)
Modelos Recomendados¶
| Modelo | Uso | Custo |
|---|---|---|
gpt-5.2-mini |
Uso geral, econômico | Baixo |
gpt-5.2 |
Máxima qualidade | Alto |
gpt-4.1 |
Coding, instruções precisas | Médio |
Anthropic Claude¶
resultado = dataframeit(
df, Model, PROMPT,
provider='anthropic',
model='claude-sonnet-4-5'
)
# Com max_tokens
resultado = dataframeit(
df, Model, PROMPT,
provider='anthropic',
model='claude-opus-4-6',
model_kwargs={
'max_tokens': 4096
}
)
Modelos Recomendados¶
| Modelo | Uso | Custo |
|---|---|---|
claude-sonnet-4-5 |
Uso geral, excelente qualidade | Médio |
claude-opus-4-6 |
Máxima qualidade, agentic | Alto |
claude-haiku-4-5 |
Rápido, econômico | Baixo |
Groq¶
resultado = dataframeit(
df, Model, PROMPT,
provider='groq',
model='llama-3.3-70b-versatile'
)
# Modelo mais rápido/econômico
resultado = dataframeit(
df, Model, PROMPT,
provider='groq',
model='llama-3.1-8b-instant',
model_kwargs={
'temperature': 0.2
}
)
# GPT-OSS para tarefas com raciocínio mais pesado
resultado = dataframeit(
df, Model, PROMPT,
provider='groq',
model='openai/gpt-oss-120b'
)
Modelos Recomendados¶
Produção:
| Modelo | Contexto | Throughput | Uso |
|---|---|---|---|
llama-3.3-70b-versatile |
131K | ~280 t/s | Uso geral, boa qualidade |
llama-3.1-8b-instant |
131K | ~560 t/s | Alta velocidade, econômico |
openai/gpt-oss-120b |
131K | ~500 t/s | Raciocínio, tarefas complexas |
openai/gpt-oss-20b |
131K | ~1000 t/s | Mais rápido que o 120b, custo baixo |
groq/compound |
- | ~450 t/s | Sistema agêntico com web search e execução de código embutidos |
Preview (podem mudar ou ser descontinuados):
| Modelo | Uso |
|---|---|
meta-llama/llama-4-scout-17b-16e-instruct |
Llama 4 Scout, alta velocidade |
qwen/qwen3-32b |
Qwen3, bom para reasoning |
Disponibilidade e free tier
O Groq oferece free tier com limites de requisições por minuto por modelo. A lista de modelos muda com frequência (especialmente os preview); verifique console.groq.com/docs/models para o catálogo atual e limites.
Cohere¶
Mistral¶
Servidor no Brasil (São Paulo)¶
Os providers acima usam endpoints públicos globais. Para servir do Brasil — útil por latência, residência de dados ou exigência regulatória — use um dos três caminhos abaixo. Em todos eles, o dataframeit repassa o que vier em model_kwargs direto para o LangChain.
Vertex AI (Gemini em southamerica-east1)¶
Duas variantes. A primeira não exige instalar pacote novo:
# Variante A: usa langchain-google-genai (já é dep do provider 'google_genai')
resultado = dataframeit(
df, Model, PROMPT,
provider='google_genai',
model='gemini-2.5-flash',
model_kwargs={
'vertexai': True,
'project': '<id-do-projeto-gcp>',
'location': 'southamerica-east1',
},
)
# Variante B: usa langchain-google-vertexai (provider dedicado)
# pip install langchain-google-vertexai
resultado = dataframeit(
df, Model, PROMPT,
provider='google_vertexai',
model='gemini-2.5-flash',
model_kwargs={
'project': '<id-do-projeto-gcp>',
'location': 'southamerica-east1',
},
)
Autenticação (qualquer variante):
gcloud auth application-default login
# OU
export GOOGLE_APPLICATION_CREDENTIALS=/caminho/service-account.json
AWS Bedrock (sa-east-1)¶
resultado = dataframeit(
df, Model, PROMPT,
provider='bedrock_converse',
model='anthropic.claude-3-5-sonnet-20240620-v1:0',
model_kwargs={'region_name': 'sa-east-1'},
)
Os IDs de modelo disponíveis em sa-east-1 mudam — confira o console Bedrock antes. Para inferência cross-region, use o prefixo us. (ex.: us.anthropic.claude-...) e ajuste region_name ao que sua conta tiver habilitado.
Para a API Bedrock legada (não-converse), troque por provider='bedrock' mantendo o mesmo model_kwargs. A nova API (bedrock_converse) é recomendada para novos projetos.
Azure OpenAI (Brazil South)¶
pip install langchain-openai
export AZURE_OPENAI_API_KEY="sua-chave"
export AZURE_OPENAI_ENDPOINT="https://<seu-recurso>.openai.azure.com/"
export OPENAI_API_VERSION="2025-03-01-preview"
resultado = dataframeit(
df, Model, PROMPT,
provider='azure_openai',
model='gpt-4o', # ou o nome do deployment
model_kwargs={'azure_deployment': '<nome-do-deployment>'},
)
A região é codificada no AZURE_OPENAI_ENDPOINT — provisione o recurso em "Brazil South" no portal Azure.
A versão da API (OPENAI_API_VERSION) muda com frequência. Confira a versão estável mais recente em aka.ms/azure-openai-api-versions.
Comparação de Preços (Aproximado - 2025)¶
| Provider | Modelo | Input (1M tokens) | Output (1M tokens) |
|---|---|---|---|
| gemini-3-flash-preview | $0.50 | $3.00 | |
| gemini-2.5-pro | $1.25 | $5.00 | |
| OpenAI | gpt-5.2-mini | $0.30 | $1.20 |
| OpenAI | gpt-5.2 | $5.00 | $15.00 |
| Anthropic | claude-sonnet-4-5 | $3.00 | $15.00 |
| Anthropic | claude-haiku-4-5 | $1.00 | $5.00 |
Preços mudam
Verifique os preços atuais nos sites oficiais dos providers.
Passando API Key Diretamente¶
Se preferir não usar variáveis de ambiente:
resultado = dataframeit(
df, Model, PROMPT,
provider='openai',
model='gpt-5.2-mini',
api_key='sk-...' # Sua chave diretamente
)
Segurança
Evite colocar API keys diretamente no código. Prefira variáveis de ambiente.
Parâmetros Comuns (model_kwargs)¶
| Parâmetro | Descrição | Providers |
|---|---|---|
temperature |
Criatividade (0-1) | Todos |
top_p |
Nucleus sampling | Todos |
max_tokens |
Limite de saída | Todos |