GPT-4 lanseras idag, men du kanske redan har testat det

0
84
Justin Duino/Review Geek

Fyra månader efter ChatGPT’s extremt framgångsrika lansering är OpenAI tillbaka med en uppgraderad språkmodell. GPT-4 lanseras idag och kommer snart att integreras i appar som Duolingo och Khan Academy. Men det finns en hygglig chans att du redan har testat GPT-4.

I ett nytt blogginlägg säger Microsoft att dess Bing-chatbot redan använder GPT-4. Faktum är att den lanserades med GPT-4. Detta kommer som lite av en överraskning—Microsoft har tidigare beskrivit Bing-chatboten som en “kraftigare” och “anpassad” version av GPT-3.5. (För att vara helt tydlig är Bing’s AI-chatbot inte en barebones-version av GPT-4. Den grundläggande GPT-4-modellen kan inte komma åt information efter september 2021, bland andra skillnader.)

Debuten av GPT-4 är faktiskt ganska blygsam. Det här verkar vara en stegvis uppgradering, och OpenAI:s vd Sam Altman varnar för att GPT-4 “verkar mer imponerande vid första användningen än efter att du spenderat mer tid med den.” Baserat på vår erfarenhet av Bing chatbot, är jag benägen att hålla med. Liksom GPT-3.5 är den nya GPT-4-modellen utsatt för felaktigheter och hallucinationer.

Växla vy i full storlek1 av 3Föregående bild
Dave McQuilling/Granska GeekNästa bild Föregående bild
Begär en ASCII-bild med GPT-4. Dave McQuilling/Granska GeekNästa bild Föregående bild
Producerar samma ASCII-bild med GPT-3.5. Dave McQuilling/Granska GeekNext Slide

Som sagt, GPT-4 är fortfarande ett anmärkningsvärt framsteg. OpenAI hävdar att denna nya språkmodell är “40 % mer sannolikt” att producera sakliga svar än sin föregångare. Och intressant nog är det 82 % mindre sannolikhet att tillhandahålla “otillåtet innehåll” till användaren. (Men jag är lite skeptisk, eftersom vi inte hade så mycket problem med att hämta den första uppmaningen och annat “otillåtet innehåll” från Bings chatbot.)

RELATERATAI är inte riktigt artificiell intelligens

Och GPT-4 är ett multimodalt system, vilket betyder att det kan fungera med mer än bara text. Men detta multimodala system är lite rudimentärt. GPT-4 kan “se” bilder, vilket borde visa sig vara otroligt användbart, men det kan inte producera bilder (med undantag för ASCII-bilder). Modellens utdata är fortfarande begränsad till språk.

Jag bör upprepa att detta är en inkrementell uppdatering. GPT-4 saknar fortfarande allmän intelligens, och med vd:n Sam Altman’s ord, “den är fortfarande bristfällig, fortfarande begränsad.” Att överdriva eller överhypa kapaciteten hos denna AI är en dålig idé—språkmodeller som GPT-4 är användbara och intressanta, men de bör inte behandlas som en auktoritetskälla, särskilt i miljöer som Bing eller Google Sök.

Du kan testa GPT-4 idag med ChatGPT Plus (med ett tak på 100 meddelanden var fjärde timme). Eller gå helt enkelt med i Bing-chatbotprogrammet för tidig åtkomst. Multimodal funktionalitet fungerar inte för närvarande; antagligen kommer den att lanseras efter GPT-4-utvecklarevenemanget den 14 mars kl. 16:00 ET.

Källa: OpenAI