Nei termini di utilizzo dei tool AI di OpenAI è sempre stato detto espressamente che c’è il divieto di utilizzarli per scopi militari o per ferire gli altri. Eppure questa regola è sparita silenziosamente lo scorso 10 gennaio. Ad accorgersene sono stato i redattori del sito The Intercept, che hanno tentato di contattare anche l’azienda.
Quella regola vietava l’utilizzo di ChatGPT e altri tool di OpenAI per scopi che presentano un altro rischio di danni fisici, tra cui sviluppo di armi, attività militari e guerra. Il divieto era chiaramente formulato per evitare che il Dipartimento della Difesa americano e altri eserciti statali ne facessero un uso ufficiale nelle loro operazioni.
Adesso quella regola è diventata semplicemente un divieto a non danneggiare se stessi e gli altri, e tra gli esempi ora è solo presente lo sviluppo di armi. Non sono più menzionati l’uso militare o l’uso nelle guerre. Qual è il motivo che ha portato l’azienda a modificare in questo modo i termini di utilizzo?
La spiegazione di OpenAI
The Intercept è riuscito a scambiare due parole con Niko Felix, un portavoce di OpenAI, il quale ha rivelato che il loro obiettivo era quello di semplificare le politiche di utilizzo per farle diventare dei “principi universali” come “Non danneggiare gli altri“.
Felix ha spiegato che l’azienda vuole creare dei principi universali che siano facili da ricordare e da applicare, perché ormai i loro tool vengono utilizzati tutti i giorni da persone sparse per tutto il pianeta, che ora sono pure in grado di creare GPT. Infatti secondo loro il principio di “Non danneggiare gli altri” si applica a molteplici contesti, per questo come esempi hanno lasciato soltanto la creazione di armi e le lesioni agli altri.
Nonostante queste spiegazioni, la mossa rimane comunque controversa, visto che diversi eserciti vorrebbero usare le AI nelle loro operazioni o per attività di spionaggio. Secondo alcuni esperti le AI di OpenAI potrebbero essere utilizzate indirettamente per aiutare le infrastrutture operative, mentre tool come ChatGPT non dovrebbero trovare chissà quale uso per i militari.