Dichiarazione per un’Intelligenza Artificiale al servizio dell’uomo

ANSA
Preambolo
Mentre le aziende corrono per sviluppare e implementare sistemi di intelligenza artificiale, l'umanità si trova di fronte a un bivio. Una via è la corsa alla sostituzione: gli esseri umani vengono sostituiti come creatori, consulenti, assistenti e compagni, poi nella maggior parte dei lavori e dei ruoli decisionali, concentrando sempre più potere in istituzioni irresponsabili e nelle loro macchine. Una frangia influente sostiene persino la modifica o la sostituzione dell'umanità stessa. Questa corsa alla sostituzione pone rischi per la stabilità sociale, la sicurezza nazionale, la prosperità economica, le libertà civili, la privacy e la governance democratica. Mette inoltre a repentaglio le esperienze umane dell'infanzia e della famiglia, della fede e della comunità.
Una coalizione notevolmente ampia rifiuta questa strada, unita da una semplice convinzione: l'intelligenza artificiale dovrebbe essere al servizio dell'umanità, non il contrario. Esiste una strada migliore, in cui strumenti di intelligenza artificiale affidabili e controllabili amplificano anziché diminuire il potenziale umano, responsabilizzano le persone, accrescono la dignità umana, proteggono la libertà individuale, rafforzano le famiglie e le comunità, preservano l'autogoverno e contribuiscono a creare una salute e una prosperità senza precedenti. Questo percorso richiede che coloro che detengono il potere tecnologico siano responsabili dei valori e dei bisogni umani, a sostegno della prosperità umana.
Mantenere gli esseri umani al comando
Il controllo umano non è negoziabile: l'umanità deve mantenere il controllo. Gli esseri umani dovrebbero scegliere come e se delegare le decisioni ai sistemi di intelligenza artificiale.
Controllo umano è fondamentale: gli esseri umani dovrebbero avere l'autorità e la capacità di comprendere, guidare, vietare e ignorare i sistemi di intelligenza artificiale.
Nessuna corsa alla superintelligenza: lo sviluppo della superintelligenza dovrebbe essere proibito finché non ci sarà un ampio consenso scientifico sul fatto che possa essere realizzato in modo sicuro e controllabile, e finchè non ci sarà un forte consenso pubblico.
Spegnimento: i sistemi di intelligenza artificiale potenti devono disporre di meccanismi che consentano agli operatori umani di spegnerli prontamente.
Nessuna progettazione sconsiderata: i sistemi di intelligenza artificiale non devono essere progettati in modo da potersi autoreplicare, migliorare autonomamente, resistere allo spegnimento o controllare armi di distruzione di massa.
Supervisione indipendente: i sistemi di intelligenza artificiale altamente autonomi, la cui controllabilità non è scontata, richiedono una revisione preliminare e una supervisione indipendente: un'autorità effettiva per comprendere, vietare e modificare, non un'autoregolamentazione del settore.
Onestà nelle capacità/potenzialità: le aziende di intelligenza artificiale devono fornire rappresentazioni chiare, accurate e oneste delle capacità e dei limiti dei loro sistemi.
Evitare la concentrazione di potere
Nessun monopolio sull’intelligenza artificiale: i monopoli di intelligenza artificiale che concentrano il potere, soffocano l'innovazione e mettono a repentaglio l'imprenditorialità devono essere evitati.
Prosperità condivisa: i benefici e la prosperità economica creati dall'intelligenza artificiale dovrebbero essere ampiamente condivisi.
Nessun privilegio alle imprese IA: le aziende di intelligenza artificiale non dovrebbero essere esentate dalla supervisione normativa né ricevere salvataggio aiuti governativi.
Creazione di valore autentico: lo sviluppo dell'intelligenza artificiale dovrebbe dare priorità alla risoluzione di problemi reali e alla creazione valore effettivo per tutti.
Autorità democratica sulle principali transizioni: le decisioni sul ruolo dell'intelligenza artificiale nella trasformazione del lavoro, della società e della vita civile richiedono il sostegno e il controllo democratico, non decisioni unilaterali aziendali o solo dei poteri esecutivi.
Evitare limitazioni alle scelte future: lo sviluppo dell'intelligenza artificiale non deve limitare gravemente le opzioni future dell'umanità o limitare irreversibilmente la nostra capacità di agire per il nostro futuro.
Proteggere l'esperienza umana
Difesa dei legami familiari e comunitari: l'intelligenza artificiale non dovrebbe soppiantare le relazioni fondamentali che danno senso alla vita: famiglia, amicizia, comunità religiose e legami sociali territoriali.
Tutela dei minori: le aziende non devono essere autorizzate a sfruttare i bambini o a minare il loro benessere con interazioni con l'intelligenza artificiale che creano attaccamento emotivo o influenza.
Diritto alla crescita e allo sviluppo della personalità: le aziende di intelligenza artificiale non devono essere autorizzate a bloccare e intervenire in modo radicale sulla crescita fisica, mentale o sociale dei bambini o a privarli di esperienze essenziali per un sano sviluppo durante i periodi critici.
Test di sicurezza pre-implementazione: come i farmaci, i chatbot devono essere sottoposti a test pre-implementazione per verificare l’influenza sull'aumento delle tendenze suicidarie, l'esacerbazione dei disturbi di salute mentale, l'aggravarsi di situazioni di crisi acuta e altri danni noti.
Etichettatura "bot o no": i contenuti generati dall'intelligenza artificiale che potrebbero ragionevolmente essere scambiati per generati da esseri umani devono essere chiaramente etichettati come tali. Nessuna identità ingannevole: l'IA dovrebbe identificarsi chiaramente e correttamente come artificiale, non umana e non professionale, e non dovrebbe rivendicare esperienze di cui è priva.
Nessuna dipendenza comportamentale: le IA non dovrebbero causare dipendenza o uso compulsivo attraverso manipolazione, convalida adulatoria o formazione di processi di attaccamento emotivo.
Agenzia per la tutela dell’essere umano e della sua libertà
Nessun riconoscimento di Personalità dell'IA: ai sistemi di IA non deve essere concessa la personalità giuridica, né devono essere progettati in modo tale da conseguirla o meritarla.
Affidabilità: l'IA deve essere trasparente, responsabile, affidabile e libera da interessi privati o autoritari perversi, impliciti o espliciti.
Libertà: l'IA non deve limitare la libertà individuale, la libertà di parola, la pratica religiosa o di associazione.
Diritti sui Dati e Privacy: le persone dovrebbero avere sempre il controllo sui propri dati personali, con il diritto di accedervi, correggerli ed eliminarli dai sistemi attivi, dai set di addestramento dell'IA e dalle inferenze derivate.
Privacy psicologica: all'IA non dovrebbe essere consentito di sfruttare i dati sugli stati mentali o emotivi degli utenti.
Evitare l'indebolimento: i sistemi di IA dovrebbero essere progettati per responsabilizzare, piuttosto che indebolire, i propri utenti.
Responsabilità e rendicontabilità per le aziende di IA
Nessuno Scudo alle Responsabilità: l'IA non deve essere in grado di fungere da scudo di responsabilità, impedendo a chi la utilizza di essere legalmente responsabile delle proprie azioni.
Responsabilità dello sviluppatore: sviluppatori e distributori sono legalmente responsabili per difetti, false dichiarazioni sulle capacità e controlli di sicurezza inadeguati, con termini di prescrizione che tengono conto dei danni che emergono nel tempo.
Responsabilità personale: dovrebbero essere previste sanzioni penali per i dirigenti responsabili di sistemi vietati destinati ai minori o che causano danni significativi.
Standard di sicurezza indipendenti: lo sviluppo dell'IA deve essere regolato da standard di sicurezza indipendenti e da una rigorosa supervisione.
Nessuna influenza sui sistemi regolatori: alle aziende di IA non deve essere consentita un'influenza indebita sulle norme e istituzioni che le governano e controllano.
Trasparenza sugli errori e i danni: se un sistema di IA causa danni, dovrebbe essere possibile sempre accertarne il motivo e il responsabile.
Lealtà dell'IA: i sistemi di IA che svolgono funzioni in professioni con doveri fiduciari, come sanità, finanza, diritto o terapia, devono adempiere a tutti questi doveri, tra cui la segnalazione obbligatoria, il dovere di diligenza, la divulgazione dei conflitti di interesse e il consenso informato.