Sebbene i numeri degli utenti settimanali del chatbot sviluppato da OpenAI sia in lenta diminuzione, ChatGPT continua ad aggiornarsi. Nel corso della prima conferenza interamente dedicata agli sviluppatori, sono stati annunciati numerosi miglioramenti, tra cui un arricchimento dei modelli linguistici GPT-4 e GPT-3.5, oltre al tanto richiesto Copyright Shield, contro la violazione dei diritti d’autore.
L’iniziativa del CEO di OpenAI di intervenire come Microsoft nei casi di violazione di copyright, iniziando ad offrire quello che è un vero e proprio scudo legale e monetario per i propri clienti, giunge in un momento critico. Di recente, infatti, un nutrito gruppo di autori di bestsellers, tra cui George R.R. Martin, si era unito alla causa della “gilda degli scrittori” contro ChatGPT ed i suoi modelli linguistici in grado di replicare il loro stile alla perfezione.
Dal rilascio di ChatGPT e Whisper tramite API, per consentire di implementare questi modelli in siti ed applicazioni, OpenAI può vantare oltre due milioni di sviluppatori, il 92% delle aziende Fortune 500 e circa 25 milioni di visitatori al giorno. Questi numeri da capogiro hanno permesso all’azienda di presentare GPT-4 Turbo ed una piattaforma per creare versioni personalizzate di ChatGPT.
Le funzionalità di GPT-4 Turbo
Oltre al conoscere gli eventi mondiali fino all’aprile del 2023, questa nuova e migliorata versione del modello linguistico sarà in grado di generare l’equivalente di un libro di medie dimensioni in un unico prompt. Nella conferenza si parla di oltre 300 pagine di testo, che aiuterebbero ChatGPT a formulare risposte più attinenti e complete.
Come nelle sue precedenti versioni, GPT-4 Turbo manterrà la possibilità di generare su richiesta immagini complesse grazie all’integrazione di DALL-E 3 e di parlare agli utenti grazie a degli strumenti di sintesi vocale. Inoltre, sarà possibile inserire all’interno delle immagini dei segnali o delle etichette di testo che l’ampio modello linguistico (LLM) creerà per voi.
Il rilascio di questo aggiornamento avverrà nelle prossime settimane, stando alle parole dell’azienda, ma non ci sarebbe una data esatta. Una certezza che però è stata fornita nella conferenza è che GPT-4 Turbo sarà più economico da eseguire per gli sviluppatori. Il costo per un input da 1000 token (le lettere o le unità minime di testo di un codice che il modello linguistico dovrà leggere) sarebbe di 0.01 dollari, invece che 0.03 dollari, rendendo lo sviluppo di questo chatbot tre volte più economico.
LEGGI ANCHE: OpenAI dà a ChatGPT orecchie, occhi e una voce a Spotify