ChatGPT:s nya GPT-4o AI-modell är bättre på att prata och tala

ChatGPT drivs av några olika AI-modeller, med GPT-4 Turbo för betalande prenumeranter och GPT-3.5 för alla andra. OpenAI har nu avslöjat en ny modell som snart är tillgänglig för alla: GPT-4o.

GPT-4o (“o” är tydligen för “omni”) är en ny AI-modell som hanterar text, ljud eller bilder som både input och output. Det är en stor förändring från OpenAIs tidigare modeller, som var mer specialiserade och måste kombineras för olika arbetsbelastningar. Google Gemini är designat för att fungera på ett liknande sätt, så det verkar som om OpenAI kommer ikapp konkurrenterna.

I ett blogginlägg sa OpenAI att GPT-4o “kan svara på ljudingångar på så lite som 232 millisekunder, med ett genomsnitt på 320 millisekunder, vilket liknar mänsklig responstid i en konversation. Den matchar GPT-4 Turbo-prestanda på text på engelska och kod, med betydande förbättring av text på icke-engelska språk, samtidigt som den är mycket snabbare och 50 % billigare i API:et. GPT-4o är särskilt bättre på syn- och ljudförståelse jämfört med befintliga modeller.”

De uppgraderade ljud- och röstmöjligheterna gör att GPT-4o kan bete sig mer som en virtuell assistent, vilket är något som OpenAI och Google har provat med blandad framgång tidigare. OpenAI planerar att lägga till ett röstläge “under de kommande veckorna” drivs av GPT-4o, som först kommer att vara tillgänglig för ChatGPT Plus-prenumeranter.

GPT-4o är inte en fullständig ersättning för GPT-4 och GPT-3.5, åtminstone inte ännu. Det kan bete sig annorlunda i vissa scenarier, eftersom det tränas annorlunda, men OpenAI lovar liknande prestanda som GPT-4 Turbo i text, resonemang och kodningsintelligens. Viktigt är att det kommer att vara tillgängligt på gratis ChatGPT-konton, som hittills varit begränsade till den mindre kapabla GPT-3.5-modellen.

Den nya GPT-4o-modellen rullas ut nu i ChatGPT, för både gratisanvändare och ChatGPT Plus-prenumeranter. Den kommer att ha en meddelandegräns, men gränsen kommer att vara “5 gånger högre” för Plus-användare. ChatGPT Plus-prenumeranter kommer också att få tillgång till röstläget “under de kommande veckorna” och den nya modellen är nu tillgänglig som ett API för utvecklare att testa.

Källa: OpenAI (1, 2)


Posted

in

by

Tags:

Comments

Leave a Reply