Dichiarazione per un’Intelligenza Artificiale al servizio dell’uomo

RedazioneApprofondimenti
RIVRINASCITA_20260316001834261_5f00da14860ba501a39417cc79121897.jpg

ANSA

Preambolo

Mentre le aziende corrono per sviluppare e implementare sistemi di intelligenza artificiale, l'umanità si trova di fronte a un bivio. Una via è la corsa alla sostituzione: gli esseri umani vengono sostituiti come creatori, consulenti, assistenti e compagni, poi nella maggior parte dei lavori e dei ruoli decisionali, concentrando sempre più potere in istituzioni irresponsabili e nelle loro macchine. Una frangia influente sostiene persino la modifica o la sostituzione dell'umanità stessa. Questa corsa alla sostituzione pone rischi per la stabilità sociale, la sicurezza nazionale, la prosperità economica, le libertà civili, la privacy e la governance democratica. Mette inoltre a repentaglio le esperienze umane dell'infanzia e della famiglia, della fede e della comunità.

Una coalizione notevolmente ampia rifiuta questa strada, unita da una semplice convinzione: l'intelligenza artificiale dovrebbe essere al servizio dell'umanità, non il contrario. Esiste una strada migliore, in cui strumenti di intelligenza artificiale affidabili e controllabili amplificano anziché diminuire il potenziale umano, responsabilizzano le persone, accrescono la dignità umana, proteggono la libertà individuale, rafforzano le famiglie e le comunità, preservano l'autogoverno e contribuiscono a creare una salute e una prosperità senza precedenti. Questo percorso richiede che coloro che detengono il potere tecnologico siano responsabili dei valori e dei bisogni umani, a sostegno della prosperità umana.

Mantenere gli esseri umani al comando

Il controllo umano non è negoziabile: l'umanità deve mantenere il controllo. Gli esseri umani dovrebbero scegliere come e se delegare le decisioni ai sistemi di intelligenza artificiale.

Controllo umano è fondamentale: gli esseri umani dovrebbero avere l'autorità e la capacità di comprendere, guidare, vietare e ignorare i sistemi di intelligenza artificiale.

Nessuna corsa alla superintelligenza: lo sviluppo della superintelligenza dovrebbe essere proibito finché non ci sarà un ampio consenso scientifico sul fatto che possa essere realizzato in modo sicuro e controllabile, e finchè non ci sarà un forte consenso pubblico.

Spegnimento: i sistemi di intelligenza artificiale potenti devono disporre di meccanismi che consentano agli operatori umani di spegnerli prontamente.

Nessuna progettazione sconsiderata: i sistemi di intelligenza artificiale non devono essere progettati in modo da potersi autoreplicare, migliorare autonomamente, resistere allo spegnimento o controllare armi di distruzione di massa.

Supervisione indipendente: i sistemi di intelligenza artificiale altamente autonomi, la cui controllabilità non è scontata, richiedono una revisione preliminare e una supervisione indipendente: un'autorità effettiva per comprendere, vietare e modificare, non un'autoregolamentazione del settore.

Onestà nelle capacità/potenzialità: le aziende di intelligenza artificiale devono fornire rappresentazioni chiare, accurate e oneste delle capacità e dei limiti dei loro sistemi.

Evitare la concentrazione di potere

Nessun monopolio sull’intelligenza artificiale: i monopoli di intelligenza artificiale che concentrano il potere, soffocano l'innovazione e mettono a repentaglio l'imprenditorialità devono essere evitati.

Prosperità condivisa: i benefici e la prosperità economica creati dall'intelligenza artificiale dovrebbero essere ampiamente condivisi.

Nessun privilegio alle imprese IA: le aziende di intelligenza artificiale non dovrebbero essere esentate dalla supervisione normativa né ricevere salvataggio aiuti governativi.

Creazione di valore autentico: lo sviluppo dell'intelligenza artificiale dovrebbe dare priorità alla risoluzione di problemi reali e alla creazione valore effettivo per tutti.

Autorità democratica sulle principali transizioni: le decisioni sul ruolo dell'intelligenza artificiale nella trasformazione del lavoro, della società e della vita civile richiedono il sostegno e il controllo democratico, non decisioni unilaterali aziendali o solo dei poteri esecutivi.

Evitare limitazioni alle scelte future: lo sviluppo dell'intelligenza artificiale non deve limitare gravemente le opzioni future dell'umanità o limitare irreversibilmente la nostra capacità di agire per il nostro futuro.

Proteggere l'esperienza umana

Difesa dei legami familiari e comunitari: l'intelligenza artificiale non dovrebbe soppiantare le relazioni fondamentali che danno senso alla vita: famiglia, amicizia, comunità religiose e legami sociali territoriali.

Tutela dei minori: le aziende non devono essere autorizzate a sfruttare i bambini o a minare il loro benessere con interazioni con l'intelligenza artificiale che creano attaccamento emotivo o influenza.

Diritto alla crescita e allo sviluppo della personalità: le aziende di intelligenza artificiale non devono essere autorizzate a bloccare e intervenire in modo radicale sulla crescita fisica, mentale o sociale dei bambini o a privarli di esperienze essenziali per un sano sviluppo durante i periodi critici.

Test di sicurezza pre-implementazione: come i farmaci, i chatbot devono essere sottoposti a test pre-implementazione per verificare l’influenza sull'aumento delle tendenze suicidarie, l'esacerbazione dei disturbi di salute mentale, l'aggravarsi di situazioni di crisi acuta e altri danni noti.

Etichettatura "bot o no": i contenuti generati dall'intelligenza artificiale che potrebbero ragionevolmente essere scambiati per generati da esseri umani devono essere chiaramente etichettati come tali. Nessuna identità ingannevole: l'IA dovrebbe identificarsi chiaramente e correttamente come artificiale, non umana e non professionale, e non dovrebbe rivendicare esperienze di cui è priva.

Nessuna dipendenza comportamentale: le IA non dovrebbero causare dipendenza o uso compulsivo attraverso manipolazione, convalida adulatoria o formazione di processi di attaccamento emotivo.

Agenzia per la tutela dell’essere umano e della sua libertà

Nessun riconoscimento di Personalità dell'IA: ai sistemi di IA non deve essere concessa la personalità giuridica, né devono essere progettati in modo tale da conseguirla o meritarla.

Affidabilità: l'IA deve essere trasparente, responsabile, affidabile e libera da interessi privati ​​o autoritari perversi, impliciti o espliciti.

Libertà: l'IA non deve limitare la libertà individuale, la libertà di parola, la pratica religiosa o di associazione.

Diritti sui Dati e Privacy: le persone dovrebbero avere sempre il controllo sui propri dati personali, con il diritto di accedervi, correggerli ed eliminarli dai sistemi attivi, dai set di addestramento dell'IA e dalle inferenze derivate.

Privacy psicologica: all'IA non dovrebbe essere consentito di sfruttare i dati sugli stati mentali o emotivi degli utenti.

Evitare l'indebolimento: i sistemi di IA dovrebbero essere progettati per responsabilizzare, piuttosto che indebolire, i propri utenti.

Responsabilità e rendicontabilità per le aziende di IA

Nessuno Scudo alle Responsabilità: l'IA non deve essere in grado di fungere da scudo di responsabilità, impedendo a chi la utilizza di essere legalmente responsabile delle proprie azioni.

Responsabilità dello sviluppatore: sviluppatori e distributori sono legalmente responsabili per difetti, false dichiarazioni sulle capacità e controlli di sicurezza inadeguati, con termini di prescrizione che tengono conto dei danni che emergono nel tempo.

Responsabilità personale: dovrebbero essere previste sanzioni penali per i dirigenti responsabili di sistemi vietati destinati ai minori o che causano danni significativi.

Standard di sicurezza indipendenti: lo sviluppo dell'IA deve essere regolato da standard di sicurezza indipendenti e da una rigorosa supervisione.

Nessuna influenza sui sistemi regolatori: alle aziende di IA non deve essere consentita un'influenza indebita sulle norme e istituzioni che le governano e controllano.

Trasparenza sugli errori e i danni: se un sistema di IA causa danni, dovrebbe essere possibile sempre accertarne il motivo e il responsabile.

Lealtà dell'IA: i sistemi di IA che svolgono funzioni in professioni con doveri fiduciari, come sanità, finanza, diritto o terapia, devono adempiere a tutti questi doveri, tra cui la segnalazione obbligatoria, il dovere di diligenza, la divulgazione dei conflitti di interesse e il consenso informato.