OpenAI brengt nieuw GPT-4o-model uit: binnenkort beschikbaar
OpenAI onthulde maandagavond een nieuw, geavanceerder ChatGPT-model met de naam GPT4o tijdens het live OpenAI Spring Update-evenement. De nieuwe GPT-4o is sneller dan GPT-4 en kan tegelijkertijd tekst, audio en afbeeldingen verwerkingen. Het model kan in essentie door de camera van een apparaat ‘zien’.
Tijdens de stream van 26 minuten liet het OpenAI-team de nieuwe functies en mogelijkheden van het nieuwe model in realtime zien. Ze deelden ook informatie over aankomende updates voor vorige versies, zoals de nieuwe desktopapp.
“Het grote nieuws voor vandaag is dat we ons nieuwe vlaggenschipmodel uitbrengen en we noemen het ChatGPT-4o”, zei Mira Murati, technisch directeur van OpenAI.
Murati legde uit dat het nieuwe model en de nieuwe functies voor vorige versies spoedig gratis beschikbaar zijn voor iedereen, ook voor gebruikers die niet zijn geregistreerd. “We zullen ze in de komende paar weken uitbrengen”, zei Murati.
Tijdens de eerste demonstratie liet het OpenAI-team zien hoe GPT-4o gesprekken kan voeren met een vrouwelijke stem, onderbroken kan worden, snel en creatief kan antwoorden met een gevoel voor humor en zelfs emoties kan herkennen en advies kan geven.
Daarna presenteerde het team verschillende scenario’s waarin GPT-4o kan worden gebruikt. Ze laten zien hoe het model de ‘visie’-functie kan gebruiken om te helpen bij het oplossen van lineaire vergelijkingen die op papier zijn geschreven, code en grafische elementen kan begrijpen door het scherm te delen via de desktopversie en te helpen bij simultane vertalingen tijdens echte gesprekken. GPT-4o kan in meerdere talen spreken en met verschillende stemtonen en -stijlen.
Tot slot lieten de experts zien hoe het model menselijke emoties kan herkennen en ook fouten maakt. Tijdens de demonstraties had GPT-4o een aantal keren last van problemen. Het model dacht bijvoorbeeld dat een van de presentatoren een afbeelding van hout was en dat een wiskundig probleem al opgelost was terwijl het teamlid nog niets had laten zien.
GPT-4o verontschuldigde zich echter snel en het publiek was gecharmeerd door de reacties. “Houd toch op, je laat me blozen!” was het antwoord toen een van de hoofdonderzoekers, Barret Zoph, vertelde hoe geweldig GPT-4o was.
Reacties op GPT-4o
OpenAI deelde meerdere korte video’s op X om de verschillende functies van het nieuwe GPT-4o-model te demonstreren.
Meerdere personen op X associeerden het met de film Her, waar de hoofdrolspeler Theodore Twombly, gespeeld door Joaquin Phoenix, verliefd wordt op een virtuele AI-assistente die wordt ingesproken door Scarlett Johanson. “Dit is ongelofelijk, ik moest meteen aan deze film denken toen ik deze video’s zag!” reageerde een gebruiker. “Dit is letterlijk Scarlett Johansson. Hoe?!” schreef een andere.
Hoewel de meeste gebruikers onder de indruk waren van de nieuwe functies, deelden andere wat kritiek en zorgen. “Beste @openai, jullie demo was erg indrukwekkend en eng, maar het Italiaanse accent was verschrikkelijk :)”, plaatste Massimo Banzi, mede-oprichter van het robotanimatieproject Arduino.
“Echt uitstekend, maar ik denk dat je veel betalende gebruikers verliest als de limiet het enige verschil is met de gratis versie”, zei een andere gebruiker.
In de komende dagen zullen het nieuwe model en de updates beschikbaar zijn voor meer mensen om de technologie uit te testen en zelf te ervaren.
Laat een reactie achter
Annuleer