
Vier maanden na de uiterst succesvolle lancering van ChatGPT is OpenAI terug met een geüpgraded taalmodel. GPT-4 wordt vandaag gelanceerd en zal binnenkort worden geïntegreerd in apps zoals Duolingo en Khan Academy. Maar de kans is groot dat u GPT-4 al heeft getest.
In een nieuwe blogpost zegt Microsoft dat zijn Bing-chatbot al gebruikmaakt van GPT-4. Het is zelfs gelanceerd met GPT-4. Dit komt enigszins als een verrassing – Microsoft beschreef de Bing-chatbot eerder als een “krachtigere” en “op maat gemaakt” versie van GPT-3.5. (Voor alle duidelijkheid: de AI-chatbot van Bing is geen barebones-versie van GPT-4. Het basismodel GPT-4 heeft naast andere verschillen geen toegang tot informatie na september 2021.)
p>
Het debuut van GPT-4 is eigenlijk vrij bescheiden. Dit lijkt een incrementele upgrade te zijn, en Sam Altman, CEO van OpenAI, waarschuwt dat GPT-4 “bij het eerste gebruik indrukwekkender lijkt dan nadat je er meer tijd mee hebt doorgebracht.” Op basis van onze ervaring met de Bing-chatbot ben ik geneigd het daarmee eens te zijn. Net als GPT-3.5 is het nieuwe GPT-4-model vatbaar voor onnauwkeurigheden en hallucinaties.
Toggle Volledige weergave1 van 3Vorige dia
Dave McQuilling/Review GeekNext Slide Vorige Slide
Een ASCII-afbeelding aanvragen met GPT-4. Dave McQuilling/Review GeekNext Slide Vorige Slide
Dezelfde ASCII-afbeelding produceren met GPT-3.5. Dave McQuilling/Review GeekNext Slide
Dat gezegd hebbende, GPT-4 is nog steeds een opmerkelijke vooruitgang. OpenAI beweert dat dit nieuwe taalmodel “40% waarschijnlijker is” om feitelijke antwoorden te produceren dan zijn voorganger. En interessant genoeg is het 82% minder waarschijnlijk dat er “niet-toegestane inhoud” aan de gebruiker. (Maar ik ben een beetje sceptisch, aangezien we niet veel moeite hadden om de eerste prompt en andere “niet-toegestane inhoud” uit de chatbot van Bing te halen.)
GERELATEERDAI is niet echt kunstmatige intelligentie
En GPT-4 is een multimodaal systeem, wat betekent dat het met meer dan alleen tekst kan werken. Maar dit multimodale systeem is een beetje rudimentair. GPT-4 kan “zien” afbeeldingen, wat ongelooflijk nuttig zou moeten blijken te zijn, maar het kan geen afbeeldingen produceren (behalve ASCII-afbeeldingen). De uitvoer van het model is nog steeds beperkt tot taal.
Ik moet herhalen dat dit een incrementele update is. GPT-4 mist nog steeds algemene intelligentie, en in de woorden van CEO Sam Altman: “het is nog steeds gebrekkig, nog steeds beperkt.” De mogelijkheden van deze AI overschatten of overdrijven is een slecht idee. Taalmodellen zoals GPT-4 zijn nuttig en interessant, maar ze mogen niet worden behandeld als een bron van autoriteit, vooral niet in omgevingen zoals Bing of Google Search.
Je kunt GPT-4 vandaag nog testen met ChatGPT Plus (met een maximum van 100 berichten per 4 uur). Of doe gewoon mee aan het Bing chatbot-programma voor vroege toegang. Multimodale functionaliteit werkt momenteel niet; vermoedelijk wordt het gelanceerd na het GPT-4-ontwikkelaarsevenement op 14 maart om 16.00 uur ET.
Bron: OpenAI