Start-up voor kunstmatige intelligentie OpenAI organiseerde maandag zijn live-evenement Spring Update, waar het een bijgewerkte versie aankondigde van zijn alom populaire grote taalmodel (LLM) GPT-4, genaamd de ChatGPT 4o, of GPT-4 ‘Omni’.
OpenAI lanceert nieuwe multimodale AI, GPT-4o, die opdrachten in tekst, spraak en beeld kan begrijpen
GPT-4o, dat de komende weken beschikbaar zal zijn voor meer dan 100 miljoen betaalde en gratis gebruikers van ChatGPT, zal spraak- en videomogelijkheden toevoegen aan de AI-aangedreven chatbot.
In een X-post schreef Sam Altman, CEO van OpenAI, dat het model “native multimodaal” is, wat betekent dat het inhoud kan genereren of opdrachten in spraak, tekst of afbeeldingen kan begrijpen.
Volgens OpenAI zijn de veranderingen die aan de LLM zijn aangebracht gericht op “het verminderen van de wrijving” tussen “mens en machine” en “het naar iedereen brengen van AI”. Mira Murali, hoofd technologie van het door Microsoft gesteunde bedrijf, een van de presentatoren van het live gestreamde evenement, demonstreerde GPT-4o door er realtime gesprekken mee te voeren.
ChatGPT kan nu de emoties van gebruikers interpreteren en visuele gesprekken in realtime voeren
Ze vroeg de AI om haar een verhaaltje voor het slapengaan te vertellen, en dat gebeurde zonder enige vertraging. OpenAI-onderzoeker Mark Chen spoorde GPT-4o aan om grappen te maken en liedjes met verschillende stemmen te zingen. Het team demonstreerde ook de videomogelijkheden van het model.
In de videomodus kan ChatGPT nu realtime gesprekken met de gebruiker voeren. Tijdens de demo schreven OpenAI-ingenieurs wiskundige vergelijkingen op een stuk papier en plaatsten deze voor een iPhone waarop de app met GPT-4o draaide. Het model kon de problemen door de lens van de telefoon bekijken en deze oplossen terwijl ze langs grappige gesprekken slenterde.
ChatGPT is goed in staat emoties te lezen door via de camera naar het gezicht van de gebruiker te kijken. Op het evenement lieten engineers een lachend gezicht zien en de chatbot vroeg of ze de reden voor hun goede vibes wilden delen.
OpenAI belooft dat de visuele en spraakmogelijkheden van GPT-4o de kwaliteit en snelheid van ChatGPT in meer dan 50 talen zullen verhogen “om deze ervaring naar zoveel mogelijk mensen te brengen”.
Er is ook een desktopversie van de LLM beschikbaar, die vandaag op de Mac wordt uitgebracht voor betalende abonnees van ChatGPT.
De gemiddelde responstijd van GPT-4 Omni van 320 milliseconden is vergelijkbaar met die van mensen
OpenAI beweert dat GPT-4 Omni in slechts 232 milliseconden op audio-invoer kan reageren. De gemiddelde reactietijd van het model bedraagt 320 milliseconden, wat vergelijkbaar is met de reactietijd van mensen in een gesprek.
Hoewel de bijgewerkte functies beschikbaar zijn voor gratis en betaalde gebruikers, zei het bedrijf dat de Pro GPT-4o-gebruikers toegang zullen hebben tot vijf keer de capaciteit van gratis abonnees.
Kijkers waren onder de indruk van het vermogen van de AI om gesprekken te voeren met drie presentatoren die er tegelijkertijd tegen praatten. Het model heeft met succes alle sprekers onderscheiden en met elk van hen gesproken.
De presentatoren toonden ook het vermogen van GPT-4o om tussen talen te vertalenechte tijd. Ze baseerden dit op de vraag van een X-gebruiker om Engelse woorden naar het Italiaans te vertalen.
GPT-4o-gebruikers kunnen aangepaste GPT’s maken met spraak- en visuele mogelijkheden voor een specifiek doel
De veranderingen zullen ook zichtbaar zijn op de application programming interface (API) van ChatGPT, die nu naar verluidt 2 keer sneller en 50% goedkoper is dan GPT-4 Turbo.
OpenAI gebruikte het evenement om te verwijzen naar de Custom GPT Store, die eerder dit jaar werd uitgebracht. De startup van miljardair Sam Altman ziet een toekomst voor zich waarin microgemeenschappen zich kunnen vormen rond aangepaste versies van GPT’s.
Ze gaven voorbeelden van een professor die een aangepaste GPT voor zijn studenten maakte, of een podcaster die er een maakte voor zijn luisteraars.
OpenAI heeft de lancering van GPT-4 Omni getimed net vóór Google I/O, waar de techgigant uit Silicon Valley naar verwachting een verzameling AI-producten zal aankondigen die deel uitmaken van zijn Gemini-assortiment.
Meer nieuws: Wat Kunt U Verwachten Van De Maandagaankondiging Van OpenAI?