OpenAI lança uma versão melhorada e econômica de seu modelo principal

OpenAI lança uma versão melhorada e econômica de seu modelo principal

Uma das maiores barreiras à adoção de IA generativa para as empresas é o custo. Os fornecedores agora oferecem modelos mais leves e de alto desempenho, ao mesmo tempo que oferecem mais flexibilidade. A OpenAI, que lançou o GPT-4o em maio passado, apresentou na semana passada uma versão mais leve e aprimorada de seu modelo principal: o GPT-4o mini. Por estar adaptado a ambientes com recursos limitados, a startup o apresenta como seu modelo mais rentável até o momento.

O GPT-4o mini foi projetado para uma ampla gama de aplicações graças ao seu baixo custo e baixa latência. É particularmente adequado para cenários de sequenciamento ou balanceamento de múltiplas chamadas de modelo, por exemplo, chamada de múltiplas APIs ou análise de grandes quantidades de dados contextuais, como mesclagem de bases de código inteiras ou históricos de conversas. Os chatbots de suporte ao cliente também podem se beneficiar de respostas rápidas e precisas em tempo real.

No momento, o modelo processa apenas texto e imagens, mas a entrada e saída de áudio e vídeo também serão suportadas, ampliando as capacidades do aplicativo em diversos campos. Possui 128.000 tokens pop-up e pode lidar com até 16.000 tokens por pedido. Custa 15 centavos por milhão de códigos de entrada e 60 centavos por milhão de códigos de saída (cerca de 2.500 páginas de um livro padrão), uma redução de mais de 60% em comparação com o GPT-3.5 Turbo. Ele suporta a mesma gama de idiomas do GPT-4o, porém, o lançamento não é conhecido em outubro de 2023.

Desempenho impressionante

Apesar do seu pequeno tamanho, o GPT-4o mini mantém um forte desempenho e oferece respostas de alta qualidade em vários contextos. A Open AI avaliou-o em relação ao GPT-3.5 Turbo e ao GPT-4o, mas também em relação aos modelos mais leves, Gemini Flash do Google e Claude Haïku da Anthropic.

READ  Acura apresenta seu primeiro modelo elétrico

Sua geração de texto e capacidades de inferência multimodal permitiram superar esses modelos, com exceção do GPT-4o, em todas as tarefas. Para tarefas de inferência envolvendo texto e visão, obteve pontuação de 82,0% no MMLU, em comparação com 77,9% no Gemini Flash, 73,8% no Cloud Haiku e 69,8% no GPT-3.5 Turbo (88,7% no GPT-4o).

O GPT-4o mini é excelente em tarefas de raciocínio matemático e programação. No MGSM, uma medida de raciocínio matemático, obteve 87,0%, em comparação com 75,5% para Gemini Flash, 71,7% para Cloud Haiku e 87,2% para HumanEval, que mede o desempenho de codificação, em comparação com 71,5% para Gemini Flash e 75,9% para Nuvem Haiku.

Segurança e confiabilidade

A segurança é um pilar fundamental do desenvolvimento do mini GPT-4o. O modelo inclui medidas de segurança robustas desde a fase de pré-formação, filtrando conteúdos indesejados, como discurso de ódio e spam. Após o treinamento, técnicas avançadas como Aprendizado Reforçado com Feedback Humano (RLHF) foram usadas para alinhar o comportamento do modelo a padrões rigorosos. O GPT-4o mini foi projetado para resistir a tentativas de jailbreak e outros ataques, garantindo respostas confiáveis ​​e seguras.

Disponibilidade

GPT-4o mini está disponível como um modelo de texto e visual na API Assistants, API Chat Completions e API Batch. As equipes da OpenAI estão trabalhando para melhorar suas configurações.

No ChatGPT, ele agora substitui o GPT-3.5 e está disponível para usuários Plus e Team, mas também está disponível para usuários da versão Free. Os usuários corporativos também terão acesso esta semana. Esta ampla disponibilidade demonstra o compromisso da OpenAI em tornar os benefícios da IA ​​acessíveis a todos.

You May Also Like

About the Author: Genevieve Goodman

"Criador. Fã de café. Amante da Internet. Organizador. Geek da cultura pop. Fã de TV. Orgulhoso por comer.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *