A OpenAI lançou recentemente o GPT-4o mini, uma versão menor e mais econômica do seu modelo GPT-4o. Aqui estão os pontos principais sobre o GPT-4o mini:
-
Supera o GPT-3.5 Turbo em benchmarks de inteligência textual e raciocínio multimodal, e até mesmo supera o GPT-4 no ranking de chatbots LMSYS.
-
Suporta uma janela de contexto de 128K tokens e pode gerar até 16K tokens por solicitação, permitindo lembrar conversas mais longas e gerar respostas mais extensas em comparação com o GPT-3.5 Turbo.
-
O preço é significativamente menor que o GPT-3.5 Turbo:
- $0,15 por milhão de tokens de entrada (cerca de 1,09 RMB)
- $0,60 por milhão de tokens de saída (cerca de 4,36 RMB)
- Mais de 60% mais barato que o GPT-3.5 Turbo
-
Substituirá o GPT-3.5 Turbo para usuários gratuitos no ChatGPT.
-
Alimentará os recursos de IA da Apple em dispositivos móveis e Macs a partir deste outono, embora provavelmente ainda através de processamento na nuvem em vez de no dispositivo.
-
Atualmente suporta entrada/saída de texto via API, com suporte a imagem, vídeo e áudio chegando posteriormente.
-
Compartilha melhorias na geração de tokens com o GPT-4o, tornando-o mais eficiente para processamento de texto não-inglês.
-
Benchmarks mostram que supera modelos "econômicos" similares como Gemini 1.5 Flash e Claude 3 Haiku em áreas como raciocínio matemático e geração de código.
-
O foco em um modelo menor e mais econômico é uma mudança para a OpenAI, provavelmente em resposta à demanda dos desenvolvedores por tais opções.
-
Muitas empresas estão migrando para modelos de IA menores para reduzir custos enquanto ainda atendem às necessidades de desempenho.
A OpenAI visa equilibrar o avanço das capacidades da IA com o fornecimento de opções mais acessíveis para desenvolvedores e aplicações. O GPT-4o mini representa sua entrada no espaço de modelos "menores mas capazes" que outras empresas já vêm explorando.