In un’epoca in cui l’intelligenza artificiale plasma sempre più l’ambiente digitale, un esperimento condotto dall’Università di Zurigo su Reddit ha sollevato un’ondata di indignazione e interrogativi etici non indifferenti. Senza alcun preavviso alla piattaforma o ai moderatori coinvolti, un team di ricercatori ha dato il via a uno studio sul potere persuasivo dei commenti generati da modelli linguistici di grandi dimensioni (LLM), infiltrandosi nella community di r/ChangeMyView con account anonimi e automatizzati.
L’obiettivo? Valutare quanto l’AI sia efficace nel far cambiare opinione agli utenti su temi delicati e controversi. I metodi utilizzati, tuttavia, sono stati giudicati gravemente scorretti e lesivi, al punto da attirare l’attenzione legale della piattaforma. Insomma un test non organizzato e all’oscuro del team di moderazione e degli utenti stessi, il quale ha portato numerose segnalazioni e a una necessaria sessione di ban a tappeto di tutti gli account coinvolti e legati all’Università di Zurigo.
Secondo quanto ammesso dagli stessi ricercatori, i profili creati simulavano identità reali, in alcuni casi drammatiche: una donna che raccontava di aver subito una violenza sessuale o un uomo nero in disaccordo con il movimento Black Lives Matter. L’intelligenza artificiale veniva quindi utilizzata per argomentare contro le opinioni espresse dagli utenti, mantenendo nascosta la natura artificiale dei commenti.

La giustificazione accademica e la risposta della community di Reddit
Il team ha dichiarato che, pur riconoscendo la violazione delle regole di Reddit contro l’uso di contenuti generati da AI non dichiarati, l‘importanza sociale dello studio ne avrebbe giustificato la condotta. Ma per Reddit e per la community coinvolta, la motivazione non basta. “Non è necessario sperimentare su soggetti umani non consenzienti“, ha scritto Reddit in un comunicato ufficiale, mentre i moderatori del subreddit hanno sottolineato come, se fossero stati interpellati, avrebbero negato il permesso per lo studio.
Il Chief Legal Officer della piattaforma, Ben Lee, ha definito l’esperimento “profondamente sbagliato dal punto di vista morale e legale“, aggiungendo che viola non solo le regole di Reddit, ma anche gli standard dei diritti umani e della ricerca accademica. Tutti gli account collegati allo studio sono stati bannati. Nonostante ciò, l’Università di Zurigo ha difeso la pubblicazione dei risultati sostenendo che i rischi per i partecipanti erano minimi e che lo studio offriva “spunti importanti” per la società.
Reddit ha però ribattuto che studi simili esistono già, uno fra tutti, quello condotto da OpenAI sulla stessa community di r/ChangeMyView, ma in forma etica e senza coinvolgere utenti ignari. Questa vicenda mette in luce una crescente tensione tra la ricerca scientifica sull’AI e la protezione dei diritti degli utenti online. In un contesto dove la persuasione algoritmica è già oggetto di dibattito nei social network, la linea tra analisi e manipolazione rischia di diventare sempre più sottile.
