Pular para o conteúdo principal

Responses

Criar uma resposta

POST https://chat.maritaca.ai/api/v1/responses

Envia uma pergunta ao modelo e recebe uma resposta. Suporta texto simples, conversas multi-turno, chamada de funções, saídas estruturadas e streaming.

Corpo da Requisição


model string Obrigatório

Modelo a ser usado (ex: sabia-4).


input string ou array Obrigatório

O que você quer perguntar ao modelo. Pode ser um texto simples ou uma lista de itens de entrada.

Mensagem de conversa (object)
  • role (string) Obrigatório: Papel do autor: user, assistant, system ou developer.
  • content (string ou array) Obrigatório: Conteúdo da mensagem.
function_call (object)

Representa uma chamada de função feita pelo assistente em um turno anterior.

  • type (string) Obrigatório: Sempre "function_call".
  • call_id (string) Obrigatório: Identificador único da chamada.
  • name (string) Obrigatório: Nome da função chamada.
  • arguments (string) Obrigatório: Argumentos em JSON serializado.
function_call_output (object)

Resultado de uma chamada de função para devolver ao modelo.

  • type (string) Obrigatório: Sempre "function_call_output".
  • call_id (string) Obrigatório: O mesmo call_id da chamada correspondente.
  • output (string) Obrigatório: Resultado da função (string, geralmente JSON).

instructions string ou null Opcional

Instruções de sistema que definem o comportamento do modelo (ex: "Responda sempre em português").


temperature float ou null Opcional

Padrão é 0.7. Controla a aleatoriedade das respostas (0.0 a 2.0).


top_p float ou null Opcional

Padrão é 0.95. Amostragem nucleus — mantém tokens com probabilidade cumulativa >= top_p.


max_output_tokens int ou null Opcional

Número máximo de tokens na resposta.


stop array ou null Opcional

Sequências que, quando geradas, fazem o modelo parar de gerar.


stream bool ou null Opcional

Padrão é false. Se true, retorna a resposta via Server-Sent Events em tempo real.


tools array ou null Opcional

Lista de ferramentas (funções) que o modelo pode chamar. Cada tool tem o formato:

Formato do objeto Tool
  • type (string): Sempre "function".
  • name (string) Obrigatório: Nome da função.
  • description (string): Descrição da função.
  • parameters (object): JSON Schema dos parâmetros.
  • strict (bool): Se true, ativa validação estrita do schema. Padrão: true.

tool_choice string ou object ou null Opcional

Padrão é "auto". Controla o uso de ferramentas:

  • "auto": o modelo decide se usa uma ferramenta.
  • "none": o modelo não usará ferramentas.
  • "required": o modelo deve chamar ao menos uma ferramenta.
  • {"type": "function", "name": "nome"}: força uma função específica.

parallel_tool_calls bool ou null Opcional

Padrão é true. Permite que o modelo faça múltiplas chamadas de função em paralelo.


text object ou null Opcional

Configuração de formato de saída estruturada.

Mostrar propriedades
  • format.type (string): "text", "json_schema" ou "json_object". Padrão: "text".
  • format.name (string): Nome do schema (obrigatório quando type é "json_schema").
  • format.schema (object): JSON Schema da saída (obrigatório quando type é "json_schema").
  • format.strict (bool): Ativa modo estrito para validação do schema.

metadata object ou null Opcional

Pares chave-valor para rastreamento. Máximo 16 pares, chave até 64 caracteres, valor até 512 caracteres.


store bool ou null Opcional

Padrão é false. Se deve armazenar a resposta no servidor.


Exemplo de Request

import openai

client = openai.OpenAI(
api_key="SUA_CHAVE_API",
base_url="https://chat.maritaca.ai/api",
)

response = client.responses.create(
model="sabia-4",
input="Qual é a capital do Brasil?",
)

print(response.output[0].content[0].text)