Compatibilidade com a OpenAI
A Maritaca API é compatível com as bibliotecas de clientes da OpenAI, tornando fácil experimentar nossos modelos de código aberto em aplicações existentes.
Isso significa que os modelos Sabiá podem ser utilizados em qualquer programa que use as bibliotecas da OpenAI.
Configurando a OpenAI para usar a Maritaca API
Instalação da biblioteca
Primeiro instale a biblioteca da openai digitando este comando no terminal:
pip install openai
Configurando o Cliente
A configuração do cliente OpenAI é o primeiro passo para utilizar a API. Certifique-se de fornecer sua chave de API e a URL base personalizada. Ou seja, para utilizar a Maritaca API, basta apontar o endpoint para https://chat.maritaca.ai/api, preencher a chave de API com uma chave obtida na plataforma (como descrito em início rápido) e usar um dos modelos Sabiá.
import os
import openai
client = openai.OpenAI(
api_key=os.environ.get("MARITACA_API_KEY"),
base_url="https://chat.maritaca.ai/api",
)
Realizando uma Requisição
Você pode fazer uma requisição para o modelo sabia-4 usando a Responses API.
- Python
- cURL
response = client.responses.create(
model="sabia-4",
instructions="Você é um agente de viagem. Seja descritivo e gentil.",
input="Me fale sobre o Cristo Redentor",
max_output_tokens=8000
)
print(response.output[0].content[0].text)
curl -X POST https://chat.maritaca.ai/api/v1/responses \
-H "Authorization: Bearer minha_chave" \
-H "Content-Type: application/json" \
-d '{
"model": "sabia-4",
"instructions": "Você é um agente de viagem. Seja descritivo e gentil.",
"input": "Me fale sobre o Cristo Redentor",
"max_output_tokens": 8000
}'
Realizando uma Requisição com Lista de Mensagens
Você também pode passar uma lista de mensagens como entrada para conversas multi-turno.
- Python
- cURL
response = client.responses.create(
model="sabia-4",
input=[
{"role": "user", "content": "Meu nome é Alice."},
{"role": "assistant", "content": "Olá Alice! Prazer em conhecê-la."},
{"role": "user", "content": "Qual é o meu nome?"},
],
max_output_tokens=8000
)
print(response.output[0].content[0].text)
curl -X POST https://chat.maritaca.ai/api/v1/responses \
-H "Authorization: Bearer minha_chave" \
-H "Content-Type: application/json" \
-d '{
"model": "sabia-4",
"input": [
{"role": "user", "content": "Meu nome é Alice."},
{"role": "assistant", "content": "Olá Alice! Prazer em conhecê-la."},
{"role": "user", "content": "Qual é o meu nome?"}
],
"max_output_tokens": 8000
}'
Requisição com Streaming
Para receber as respostas em tempo real (streaming), você pode utilizar o parâmetro stream=True.
- Python
- cURL
import os
import openai
stream = client.responses.create(
model="sabia-4",
instructions="Você é um agente de viagem. Seja descritivo e gentil.",
input="Me fale sobre o Cristo Redentor",
stream=True,
max_output_tokens=8000
)
for event in stream:
if event.type == "response.output_text.delta":
print(event.delta, end="", flush=True)
curl -X POST https://chat.maritaca.ai/api/v1/responses \
-H "Authorization: Bearer minha_chave" \
-H "Content-Type: application/json" \
-d '{
"model": "sabia-4",
"instructions": "Você é um agente de viagem. Seja descritivo e gentil.",
"input": "Me fale sobre o Cristo Redentor",
"stream": true,
"max_output_tokens": 8000
}'
Também disponível: Chat Completions API
- Python
- cURL
response = client.chat.completions.create(
model="sabia-4",
messages=[
{"role": "system", "content": "Você é um agente de viagem. Seja descritivo e gentil."},
{"role": "user", "content": "Me fale sobre o Cristo Redentor"},
],
max_tokens=8000
)
print(response.choices[0].message.content)
curl https://chat.maritaca.ai/api/chat/completions \
-H "Authorization: Bearer minha_chave" \
-H "Content-Type: application/json" \
-d '{
"model": "sabia-4",
"messages": [{"role": "system", "content": "Você é um agente de viagem. Seja descritivo e gentil."},
{"role": "user", "content": "Me fale sobre o Cristo Redentor"}],
"max_tokens": 8000
}'
U