Apple ha recentemente introdotto il sistema Apple Intelligence sui propri dispositivi, offrendo diverse funzioni basate sull’intelligenza artificiale per migliorare e semplificare l’esperienza utente. Tra queste, è stata aggiunta una funzione che mira a riassumere le notizie in brevi notifiche. Disponibile solo sui modelli più recenti di iPhone e iPad, il sistema è pensato per aiutare gli utenti a consultare rapidamente le informazioni chiave. Tuttavia, numerosi errori nei riassunti generati hanno scatenato una tempesta di critiche. Tra i casi più eclatanti, il sistema ha erroneamente affermato che il sospettato di un caso di omicidio si fosse suicidato e ha persino anticipato risultati sportivi prima che gli eventi avessero luogo.
Non solo: ha persino attribuito una falsa dichiarazione personale a Rafael Nadal. Questi errori hanno portato organizzazioni come la BBC a lamentarsi pubblicamente, sostenendo che tali riassunti non solo contraddicono i contenuti originali ma rischiano di minare la fiducia già fragile nei media. Nonostante le proteste, Apple ha risposto solo recentemente, annunciando che chiarirà quando le notifiche sono generate dall’AI. Tuttavia, molti osservatori, tra cui Alan Rusbridger e Reporters Without Borders, ritengono che tali misure siano insufficienti e chiedono la sospensione della funzione.
Il dibattito tra innovazione e responsabilità
La situazione solleva domande importanti sulla responsabilità delle aziende tecnologiche nell’uso dell’intelligenza artificiale. Funzioni come quelle di Apple Intelligence dimostrano il potenziale innovativo dell’AI, ma evidenziano anche i pericoli di un’applicazione prematura e poco controllata. Gli errori non riguardano solo Apple: anche Google, con i suoi riassunti nei risultati di ricerca, ha affrontato critiche per risposte imprecise.
L’aspetto più problematico è la delega agli utenti della verifica delle informazioni. In un panorama già complesso, affidare al pubblico il compito di distinguere tra notizie vere e false rischia di amplificare la disinformazione. Organizzazioni giornalistiche e associazioni come il National Union of Journalists chiedono che le aziende tecnologiche adottino standard più rigorosi prima di rilasciare prodotti che influenzano il flusso di informazioni.
Apple, dal canto suo, ha promesso miglioramenti nelle settimane a venire, ma il dibattito sulla sua funzione AI rimane acceso. La questione centrale non è solo la correzione degli errori, ma l’urgenza di una maggiore trasparenza e responsabilità nello sviluppo di tecnologie che impattano la vita pubblica e che influiscono su un settore delicato come quello dei media.