OpenAI presenta GPT-4o

La società dietro il popolare ChatGPT, OpenAI, ha recentemente annunciato l’arrivo di un nuovo modello di intelligenza artificiale, denominato GPT-4o. Questo nome indica la capacità del modello di gestire testo, voce e video.

GPT-4o rappresenta un passo avanti rispetto al suo predecessore, GPT-4 Turbo, offrendo capacità migliorate, velocità di elaborazione più elevate e risparmi per gli utenti. Il modello è disponibile per entrambi gli utenti gratuiti e a pagamento, con alcune funzionalità che verranno gradualmente introdotte nei prossimi settimane.

Il nuovo modello presenta una significativa miglioramento nella velocità di elaborazione, riducendo il costo di circa il 50%, aumentando i limiti di velocità di cinque volte e supportando più di 50 lingue.

OpenAI pianifica di introdurre gradualmente il nuovo modello per gli utenti di ChatGPT Plus e Team, con l’accesso per le aziende “in arrivo presto”. La società ha anche iniziato a distribuire il nuovo modello per gli utenti di ChatGPT Free, sebbene con limitazioni d’uso, lunedì.

GPT-4o migliora significativamente l’esperienza in ChatGPT, il chatbot di OpenAI. Il modello consente ai utenti di interagire con ChatGPT in modo più naturale, interrompendo la conversazione e ricevendo risposte in tempo reale. Il modello può anche rilevare le emozioni dei utenti e rispondere in modo appropriato.

Inoltre, GPT-4o introduce nuove funzionalità di visione, consentendo a ChatGPT di rispondere rapidamente a domande relative a immagini o schermate desktop. Queste funzionalità potrebbero evolvere ulteriormente, consentendo a ChatGPT di “guardare” un evento sportivo in diretta e spiegare le regole.

GPT-4o è anche più multilingue, offrendo prestazioni migliorate in circa 50 lingue. Nell’API e nel servizio di OpenAI su Microsoft Azure, GPT-4o è due volte più veloce e a metà prezzo rispetto a GPT-4 Turbo, con limiti di velocità più elevati.

Durante la dimostrazione, GPT-4o ha dimostrato di poter comprendere le emozioni dei utenti ascoltando il loro respiro. Quando ha notato che un utente era stressato, ha offerto consigli per aiutarlo a rilassarsi. Il modello ha anche dimostrato di poter conversare in diverse lingue, traducendo e rispondendo alle domande automaticamente.

L’annuncio di OpenAI mostra come rapidamente stia evolvendo il mondo dell’intelligenza artificiale. Le migliorie nei modelli e la velocità con cui lavorano, insieme alla capacità di unire capacità multimediali in un’unica interfaccia omni-modale, stanno per cambiare il modo in cui le persone interagiscono con questi strumenti.

Condividi
Archivio Blog