Durante la presentazione, OpenAI ha messo in evidenza l'interazione vocale, sottolineando come GPT-4o risponda praticamente istantaneamente, a differenza del suo predecessore. Questo nuovo modello non solo comprende le parole, ma è anche in grado di interpretare le emozioni degli utenti attraverso il tono di voce. Un esempio impressionante mostrato durante la live ha visto un dimostratore simulare un respiro affannoso, con GPT-4o che ha riconosciuto lo stato di affaticamento del suo interlocutore.
Un'altra novità cruciale è che GPT-4o sarà reso disponibile gratuitamente a tutti gli utenti, non solo a quelli paganti. Questo rilascio sarà graduale, iniziando dagli Stati Uniti per poi espandersi progressivamente al resto del mondo.
Tra le altre innovazioni presentate, OpenAI ha introdotto un'app per desktop che permetterà di utilizzare ChatGPT direttamente dal proprio computer. Inoltre, sono state mostrate due interazioni particolarmente interessanti: la prima ha visto ChatGPT fare da traduttore istantaneo tra due persone che parlavano rispettivamente in inglese e in italiano. La seconda ha dimostrato la capacità del modello di risolvere problemi di matematica in tempo reale, analizzando ciò che veniva scritto su un foglio attraverso la telecamera del telefono.
Questo progresso tecnologico apre nuove prospettive, come la possibilità di utilizzare ChatGPT per montare un mobile con l'aiuto dell'intelligenza artificiale che guida l'utente passo dopo passo. Un altro esempio ha visto l'AI riconoscere le emozioni umane osservando il volto di una persona inquadrato dalla telecamera e descrivendo le emozioni percepite.
Le novità presentate rappresentano un significativo passo avanti nel rendere l'intelligenza artificiale più accessibile e interattiva per tutti gli utenti. Sarà interessante osservare come queste innovazioni influenzeranno l'uso quotidiano della tecnologia nei prossimi mesi.
Nessun commento:
Posta un commento