Alphabet, la società madre di Google, ha aggiornato in silenzio i suoi principi etici sull’intelligenza artificiale, rimuovendo un passaggio fondamentale che in precedenza limitava l’uso dell’AI in applicazioni potenzialmente dannose, come le armi. La sezione eliminata, intitolata “Applicazioni AI che non perseguiremo”, includeva un riferimento esplicito a “tecnologie che causano o sono suscettibili di causare danni complessivi”.
Il cambiamento è stato notato grazie ad alcuni screenshot esaminati da Bloomberg, che ha confrontato la versione attuale con quella precedente dei principi aziendali di Google. Secondo alcuni analisti, la scelta di eliminare questa clausola potrebbe riflettere un cambiamento di strategia in linea con le pressioni governative e gli interessi nazionali statunitensi. Google non ha fornito commenti sui motivi specifici dietro la decisione o su eventuali nuovi piani di sviluppo per l’AI in ambito militare o di sicurezza, limitandosi a pubblicare un post ufficiale nel quale afferma:
Dubbi etici e implicazioni strategiche sulla scelta di Google
La rimozione della clausola relativa alle applicazioni dannose ha immediatamente suscitato preoccupazioni tra esperti e attivisti del settore. Margaret Mitchell, ex ricercatrice AI in Google e attuale scienziata capo di Hugging Face, ha criticato duramente la decisione: “Questo cambiamento cancella anni di lavoro svolto da chi si è battuto per un’AI responsabile. Più preoccupante ancora, significa che ora Google potrebbe essere disposta a sviluppare tecnologie con potenziale distruttivo.”
Anche Tracy Pizzo Frey, ex responsabile del team di Responsible AI di Google Cloud, ha sottolineato l’importanza dei principi etici per guidare l’innovazione senza compromettere la fiducia degli utenti. Un’assenza di regole chiare potrebbe infatti sollevare dubbi sulla trasparenza delle scelte aziendali e sulle future applicazioni dell’AI, soprattutto in ambito governativo e militare.
Questo cambiamento di rotta si inserisce in un contesto più ampio di ridefinizione del rapporto tra aziende tecnologiche e governi. Negli ultimi anni, sempre più colossi dell’hi-tech hanno riallineato le proprie strategie per adattarsi alle pressioni politiche e agli interessi nazionali. L’AI è ormai un elemento centrale nelle tensioni geopolitiche, in particolare tra Stati Uniti e Cina, dove la corsa al dominio tecnologico si gioca anche sulle capacità delle aziende di sviluppare strumenti avanzati in campo militare e di sicurezza.
Google non è l’unica compagnia a riconsiderare il proprio approccio etico. Molti giganti del settore stanno rivedendo i loro impegni precedenti in materia di diversità, uguaglianza e trasparenza, ridimensionando iniziative che fino a poco tempo fa erano considerate pilastri fondamentali. La scelta di Google potrebbe quindi rappresentare solo il primo passo di un cambiamento più ampio nell’industria dell’intelligenza artificiale, con conseguenze ancora tutte da valutare.