ChatGPT is het enige waar iedereen de laatste tijd over kan praten. Aangedreven door het taalmodel GPT 3 en GPT 3.5 (voor Plus-abonnees), is de AI-chatbot met grote sprongen gegroeid in wat hij kan doen. Veel mensen hebben echter met ingehouden adem gewacht op een geüpgraded model dat de grenzen verlegt. Welnu, OpenAI heeft dat nu werkelijkheid gemaakt met GPT-4, de nieuwste multimodale LLM die boordevol verbeteringen en ongekende technologie in AI zit. Bekijk alle details hieronder!
GPT-4 is multimodaal en presteert beter dan 3.5
Het onlangs aangekondigde GPT-4-model van OpenAI is een groot ding in kunstmatige intelligentie. Het belangrijkste om te vermelden is dat GPT-4 een groot multimodaal model is. Dit betekent dat het beeld-en tekstinvoer kan accepteren waardoor het een beter begrip krijgt. OpenAI vermeldt dat hoewel het nieuwe model in veel real-world scenario’s minder capabel is dan mensen, het toch op verschillende niveaus kan presteren op menselijk niveau.
GPT-4 wordt ook beschouwd als een betrouwbaarder, creatiever en efficiënter model dan zijn voorganger GPT-3.5. Bijvoorbeeld: het nieuwe model zou een gesimuleerd bar-examen kunnen halen met een score rond de top 10% van de testpersonen (~90 percentiel), terwijl GPT 3.5 in de onderste 10% kwam. GPT-4 kan ook meer genuanceerde instructies verwerken dan het 3.5-model. OpenAI vergeleek beide modellen met verschillende benchmarks en examens en GPT-4 kwam als beste uit de bus. Bekijk hier alle coole dingen die ChatGPT kan doen.
GPT-4 en visuele invoer
Zoals hierboven vermeld, kan het nieuwe model promoties van zowel tekst als afbeeldingen accepteren. Vergeleken met een beperkte tekstinvoer, zal GPT-4 veel beter presteren in het begrijpen van invoer die zowel tekst als afbeeldingen bevat. De visuele invoer blijft consistent in verschillende documenten, waaronder tekst en foto’s, diagrammen en zelfs schermafbeeldingen.
OpenAI toonde hetzelfde door GPT-4 te voeden met een afbeelding en een tekstprompt met de vraag om te beschrijven wat er grappig is aan de afbeelding. Zoals hierboven te zien was, kon het model met succes een willekeurige afbeelding van Reddit lezen en de door de gebruiker gevraagde prompt beantwoorden. Het was toen in staat om het humoristische element te identificeren. De beeldinvoer van GPT-4 is echter nog steeds niet openbaar beschikbaar en is een onderzoekspreview.
Gevoelig voor hallucinaties en beperkte gegevens
Hoewel GPT-4 een grote stap vooruit is ten opzichte van de vorige iteratie, bestaan er nog steeds enkele problemen. Om te beginnen vermeldt OpenAI dat het nog steeds niet volledig betrouwbaar is en vatbaar is voor hallucinaties. Dit betekent dat de AI redeneerfouten zal maken en dat de output ervan met de grootste zorg en met menselijke tussenkomst moet worden genomen. Het kan ook zelfverzekerd verkeerd zijn in zijn voorspellingen, wat kan leiden tot fouten. GPT-4 vermindert echter hallucinaties in vergelijking met eerdere modellen. Om precies te zijn: het nieuwe model scoort 40% hoger dan GPT-3.5 in de evaluaties van het bedrijf.
Een ander nadeel waarvan velen hoopten dat het opgelost zou worden met GPT-4, is de beperkte dataset. Helaas mist GPT-4 nog steeds kennis van gebeurtenissen die plaatsvonden na september 2021, wat teleurstellend is. Het leert ook niet van zijn ervaring, wat zich vertaalt in de bovengenoemde redeneerfouten. Bovendien kan GPT-4 falen bij harde problemen, net als mensen, inclusief beveiligingsproblemen. Maar u hoeft zich nergens zorgen over te maken, aangezien Microsoft Bing AI het GPT-4-model gebruikt. Ja, je kunt het nieuwe AI-model uitproberen, met de ondersteuning van realtime internetgegevens op Bing. Bekijk dit artikel om te leren hoe u toegang krijgt tot Bing AI-chat in elke browser-niet beperkt tot Edge.
Toegang tot GPT-4 met ChatGPT Plus
GPT-4 is beschikbaar voor ChatGPT Plus-abonnees met een gebruikslimiet. OpenAI vermeldt dat het de exacte gebruikslimiet zal aanpassen, afhankelijk van de vraag en de systeemprestaties. Bovendien zou het bedrijf zelfs een’nieuwe abonnementslaag’kunnen introduceren voor GPT-4-gebruik met een groter volume. Gratis gebruikers zullen daarentegen moeten wachten, aangezien het bedrijf geen specifieke plannen heeft genoemd en alleen’hoopt’dat het een aantal gratis GPT-4-query’s kan aanbieden aan mensen zonder abonnement.
Zo te zien zal GPT-4 een extreem aantrekkelijk taalmodelworden, zelfs met enkele scheuren in zijn pantser. Voor degenen die op zoek zijn naar nog meer gedetailleerde informatie, we hebben al iets in de maak. Dus houd ons in de gaten voor meer.
Laat een reactie achter