Pular para o conteúdo principal

Compatibilidade com a OpenAI

A Maritaca API é compatível com as bibliotecas de clientes da OpenAI, tornando fácil experimentar nossos modelos de código aberto em aplicações existentes.

Isso significa que os modelos Sabiá podem ser utilizados em qualquer programa que use as bibliotecas da OpenAI.

Configurando a OpenAI para usar a Maritaca API

Instalação da biblioteca

Primeiro instale a biblioteca da openai digitando este comando no terminal:

pip install openai

Configurando o Cliente

A configuração do cliente OpenAI é o primeiro passo para utilizar a API. Certifique-se de fornecer sua chave de API e a URL base personalizada. Ou seja, para utilizar a Maritaca API, basta apontar o endpoint para https://chat.maritaca.ai/api, preencher a chave de API com uma chave obtida na plataforma (como descrito em início rápido) e usar um dos modelos Sabiá.

import os
import openai

client = openai.OpenAI(
api_key=os.environ.get("MARITACA_API_KEY"),
base_url="https://chat.maritaca.ai/api",
)

Realizando uma Requisição

Você pode fazer uma requisição para o modelo sabia-4 usando a Responses API.

response = client.responses.create(
model="sabia-4",
instructions="Você é um agente de viagem. Seja descritivo e gentil.",
input="Me fale sobre o Cristo Redentor",
max_output_tokens=8000
)

print(response.output[0].content[0].text)

Realizando uma Requisição com Lista de Mensagens

Você também pode passar uma lista de mensagens como entrada para conversas multi-turno.

response = client.responses.create(
model="sabia-4",
input=[
{"role": "user", "content": "Meu nome é Alice."},
{"role": "assistant", "content": "Olá Alice! Prazer em conhecê-la."},
{"role": "user", "content": "Qual é o meu nome?"},
],
max_output_tokens=8000
)

print(response.output[0].content[0].text)

Requisição com Streaming

Para receber as respostas em tempo real (streaming), você pode utilizar o parâmetro stream=True.

import os
import openai

stream = client.responses.create(
model="sabia-4",
instructions="Você é um agente de viagem. Seja descritivo e gentil.",
input="Me fale sobre o Cristo Redentor",
stream=True,
max_output_tokens=8000
)
for event in stream:
if event.type == "response.output_text.delta":
print(event.delta, end="", flush=True)

Também disponível: Chat Completions API

response = client.chat.completions.create(
model="sabia-4",
messages=[
{"role": "system", "content": "Você é um agente de viagem. Seja descritivo e gentil."},
{"role": "user", "content": "Me fale sobre o Cristo Redentor"},
],
max_tokens=8000
)

print(response.choices[0].message.content)

U