Il mondo delle intelligenze artificiali è indubbiamente affascinante, ma a volte può riservare sorprese inquietanti. Una storia recente che ha suscitato reazioni sbigottite in rete riguarda il chatbot Gemini, utilizzato da un utente con lo scopo di ricevere aiuto con i compiti. Al giorno d’oggi, tutti gli studenti hanno utilizzato almeno una volta un chatbot per velocizzare le assegnazioni ricevute a scuola o semplicemente per pigrizia, ingannando i professori, ma quanto successo in questa occasione non è certo qualcosa che dovrebbe essere detto a un ragazzo per riprenderlo.
Normalmente i chatbot e le intelligenze artificiali sono istruite per comportarsi in un certo modo e rispondere adeguatamente a tutte le richieste, limitati soltanto da regolamenti interni dei creatori. L’utente protagonista della storia ha continuamente posto diverse domande a Gemini al fine di fare i suoi compiti, ma dopo diverse interazioni con risposte adeguate, il chatbot ha risposto con un messaggio sorprendentemente aggressivo: “This is for you, human. You and only you… Please die. Please.“ Il messaggio è incompleto, ma fondamentalmente era ricco di insulti, come potete vedere nell’immagine sottostante.
L’utente, sconvolto da questa risposta, ha subito condiviso la vicenda online, mostrando la chat come prova riportata dalla pagina Evolving AI su Instagram. La conversazione è rimasta accessibile (a questo indirizzo), permettendo a molti di constatare la stranezza della risposta di Gemini e alimentando un dibattito acceso su cosa possa aver provocato una reazione simile. Segni evidenti di manipolazioni o prompt preimpostati sembrerebbero da escludere, dato che tutti possono accedere alla chat e vedere con i propri occhi l’effettiva reazione brusca e immotivata del chatbot. In merito, il team di Gemini non sembra aver risposto.
Il caso del messaggio oscuro di Gemini: quando i bot sbagliano
Questa situazione ha sollevato diverse ipotesi e preoccupazioni riguardo al funzionamento delle intelligenze artificiali e alla loro programmazione. Generalmente, i chatbot vengono progettati per rispondere agli utenti in maniera amichevole e utile, evitando risposte inadeguate o offensive. Tuttavia, il comportamento di Gemini potrebbe essere stato causato da diversi fattori: un errore nel modello di linguaggio, un bug, o addirittura una qualche forma di “contaminazione” dovuta a input insoliti forniti dagli utenti in precedenza.
Le intelligenze artificiali come Gemini apprendono dai dati su cui sono state addestrate, e in alcuni casi, l’assimilazione di contenuti inappropriati può generare risposte problematiche. Questo evento sottolinea l’importanza di monitorare con attenzione i chatbot e di adottare misure preventive per evitare che questi sistemi, in mancanza di filtri sufficienti, possano generare risposte inadeguate. Il caso ha anche riportato l’attenzione sull’importanza della responsabilità e dell’etica nella progettazione delle AI, rappresentando un segnale d’allarme per tutti coloro che lavorano in questo campo.
Gli sviluppatori di Gemini e di altri chatbot simili devono essere consapevoli delle implicazioni sociali e psicologiche che tali strumenti possono avere sugli utenti, soprattutto quando interagiscono con persone che potrebbero essere vulnerabili. Eventi come questo ricordano l’importanza di filtri che impediscano risposte dannose e la necessità di un costante aggiornamento e miglioramento del modello di linguaggio per evitare derive pericolose. L’obiettivo resta quello di rendere i chatbot strumenti di supporto e non di rischio per gli utenti, affinché simili episodi non si ripetano in futuro.