Dr Commodore
LIVE

OpenAI: Si o No al Watermarking di ChatGPT? I dilemmi etici e commerciali della sua implementazione

Il watermarking è una tecnica progettata per inserire un “marchio” invisibile sui propri contenuti, come ad esempio nei testi generati dall’AI, con l’obiettivo di identificare l’origine del contenuto. OpenAI ha sviluppato un metodo di watermarking per i testi che si è dimostrato altamente preciso e resistente a manipolazioni localizzate come il parafrasare. Tuttavia, il sistema è meno robusto contro alterazioni più sofisticate, come la traduzione del testo o l’uso di altri modelli generativi per modificare il contenuto.

Eppure, nonostante l’efficacia del sistema per la stragrande maggioranza dei casi (si parla di oltre il 99%), ci sono preoccupazioni che l’implementazione del watermarking possa influenzare negativamente alcuni gruppi di utenti. Ad esempio, potrebbe stigmatizzare l’uso dell’AI come strumento di scrittura utile per coloro che non parlano inglese come lingua madre, limitando così il loro accesso alle risorse tecnologiche. Una parte di utenza (circa il 30%) intervistata sull’argomento ha dichiarato di ridurre fortemente l’utilizzo di ChatGPT, nel caso in cui i prodotti generati fossero in possesso di questo identificativo digitale.

Per questo motivo OpenAI, ormai pioniere nel campo dell’intelligenza artificiale, si trova oggi ad affrontare un significativo dilemma etico e commerciale. Secondo un articolo pubblicato sul loro blog, l’aver sviluppato questo avanzato sistema di watermarking per i testi generati da ChatGPT potrebbe addirittura portare alla perdita di utenti, per cui è riluttante a implementarlo. Questa situazione riflette la complessità delle decisioni che le aziende tecnologiche devono prendere quando bilanciano innovazione, etica e considerazioni di mercato.

OpenAI e il watermarking dei suoi testi

Le altre sfide di OpenAI: la ricerca di alternative

Oltre alla tecnologia appena citata, OpenAI sta esplorando l’uso dei metadati come metodo per determinare la provenienza dei testi. I metadati possono essere firmati crittograficamente, il che riduce la possibilità di falsi positivi rispetto al watermarking. Questa caratteristica potrebbe diventare cruciale man mano che aumenta il volume di contenuti generati dall’AI. Sebbene il tutto sia ancora in una fase iniziale di sviluppo, esso offre un approccio promettente per migliorare la tracciabilità e l’autenticità dei contenuti digitali.

L’azienda sta inoltre lavorando a soluzioni di provenienza per i contenuti audiovisivi, come l’integrazione di metadati C2PA nei contenuti generati da DALL-E 3, il suo modello di generazione di immagini, per tracciarne l’intera storia, incluse le modifiche. C’è una continua ricerca per sviluppare e promuovere standard aperti che aiutino a verificare gli strumenti utilizzati per creare o modificare i contenuti digitali, motivo per cui OpenAI sta collaborando con altri attori del settore per cercare delle soluzioni efficaci e soprattutto adeguate al pubblico.

Nonostante le soluzioni tecniche in fase di sviluppo, garantire l’autenticità dei contenuti richiederà un’azione collettiva e sarà fondamentale che piattaforme, creatori di contenuti e intermediari collaborino per mantenere la trasparenza sulle origini dei contenuti e migliorarla. Se le aziende tecnologiche non collaboreranno per promuovere la fiducia e l’integrità dei contenuti digitali, verrà gradualmente costruito un ambiente online meno sicuro e affidabile.

OpenAI e il watermarking

Leggi anche: ChatGPT diventa quasi umano con la nuova modalità vocale avanzata

Articoli correlati

Andrea Moffa

Andrea Moffa

Eroe numero 50 di Overwatch 2. Appassionato di notizie videoludiche. Esploro e condivido le avventure e le ultime info di questo mondo in continua espansione.

Condividi