Pular para o conteúdo principal

Modelos

A Maritaca AI oferece uma gama de modelos na família Sabiá, projetados para atender a diversas necessidades e cenários de uso. Cada modelo é ajustado para oferecer um equilíbrio ideal entre inteligência, velocidade e custo, permitindo que você escolha a opção que melhor se alinha aos requisitos do seu projeto.

CampoSabiá 3 🥇Sabiazinho 3
DescriçãoNosso modelo mais avançado, ideal para tarefas complexas que exigem maior assertividade.Nosso modelo mais econômico, projetado para tarefas mais simples. Ideal para aplicações que priorizam velocidade e custo.
Exemplos de usoEscrever artigos de pesquisa complexos, criar documentos técnicos detalhados, chatbots, gerar códigoTradução de textos, gerar descrições de produtos, resumos de artigos, criação de respostas para FAQs, ideias de conteúdo para blogs
Contexto Máximo (Tokens)12800032000
Custo por Milhão de Tokens (Entrada)R$ 5R$ 1
Custo por Milhão de Tokens (Saída)R$ 10R$ 3
TPM (Entrada)2 milhões2 milhões
TPM (Saída)200 mil200 mil
RPM10001000
Dados de TreinamentoAté meados de 2023Até meados de 2023

TPM = Tokens por minuto.

RPM = Requisições por minuto.

Modelos descontinuados

Conforme lançamos modelos mais seguros e avançados, descontinuamos regularmente os modelos antigos. Nossa documentação é continuamente atualizada com essas informações. Nesta página, você encontrará uma lista completa de modelos desativados, além das recomendações de substituição.

Aqui estão os modelos que foram descontinuados:

ModeloData de encerramentoSubstituição Recomendada
sabia-2-medium2024-10-01sabia-3
sabia-3-2024-07-152024-10-01sabia-3
sabia-2-small2025-01-15sabiazinho-3
  • O modelo sabia-3-2024-09-09 será descontinuado em 2025-02-15, recomendamos a mudança para o sabia-3

Como saber quantos tokens serei cobrado?

Para saber de antemão o quanto suas requisições irão custar, use a função count_tokens para saber o número de tokens em um dado prompt.

from maritalk import count_tokens

prompt = "Com quantos paus se faz uma canoa?"

total_tokens = count_tokens(prompt, model="sabia-3")

print(f'O prompt "{prompt}" contém {total_tokens} tokens.')

É necessário instalar a biblioteca da maritalk (pip install maritalk) para rodar do trecho de código acima.