Pular para o conteúdo principal

Compatibilidade com a OpenAI

A Maritaca API é compatível com as bibliotecas de clientes da OpenAI, tornando fácil experimentar nossos modelos de código aberto em aplicações existentes.

Isso significa que os modelos Sabiá podem ser utilizados em qualquer programa que use as bibliotecas da OpenAI.

Configurando a OpenAI para usar a Maritaca API

Intalação da biblioteca

Primeiro instale a biblioteca da openai digitando este comando no terminal:

pip install openai

🛠️ Configurando o Cliente

A configuração do cliente OpenAI é o primeiro passo para utilizar a API. Certifique-se de fornecer sua chave de API e a URL base personalizada. Ou seja, para utilizar a Maritaca API, basta apontar o endpoint para https://chat.maritaca.ai/api, preencher a chave de API com uma chave obtida na plataforma (como descrito em início rápido) e usar um dos modelos Sabiá.

import os
import openai

client = openai.OpenAI(
api_key=os.environ.get("MARITACA_API_KEY"),
base_url="https://chat.maritaca.ai/api",
)

🗨️ Realizando uma Requisição de Chat

Você pode fazer uma requisição de chat para o modelo sabia-3 passando uma lista de mensagens.

response = client.chat.completions.create(
model="sabia-3",
messages=[
{"role": "system", "content": "Você é um agente de viagem. Seja descritivo e gentil."},
{"role": "user", "content": "Me fale sobre o Cristo Redentor"},
],
max_tokens=8000
)

print(response.choices[0].message.content)

💻 Realizando uma requisição para completar entrada

Além de chats, você também pode utilizar o modelo para completar a entrada, como no exemplo abaixo:

response = client.completions.create(
model="sabia-3",
prompt="Era uma vez, em um reino distante, um jovem aventureiro que sonhava em explorar terras desconhecidas. Um dia, ele encontrou um mapa misterioso que mostrava o caminho para um tesouro perdido",
max_tokens=175
)

print(response.choices[0].text)

🔄 Requisição de Chat com Streaming

Para receber as respostas em tempo real (streaming), você pode utilizar o parâmetro stream=True.

import os
import openai

stream = client.chat.completions.create(
model="sabia-3",
messages=[
{"role": "system", "content": "Você é um agente de viagem. Seja descritivo e gentil."},
{"role": "user", "content": "Me fale sobre o Cristo Redentor"},
],
stream=True,
max_tokens=8000
)
for chunk in stream:
print(chunk.choices[0].delta.content or "", end="", flush=True)