Intelligenza artificiale: l’etica delle macchine e la politica degli umani

ANSA
Quando sentiamo parlare di etica dell’intelligenza artificiale, il riflesso più immediato è pensare a principi, codici di condotta, linee guida. Fairness, trasparenza, responsabilità, non discriminazione: il lessico è ormai familiare. Di fronte a una tecnologia che inquieta e promette insieme, la risposta più comune consiste nel costruire una cornice morale che rassicuri governi, imprese e cittadini.
Il punto è che questa risposta, da sola, non regge più la scala del fenomeno. L’intelligenza artificiale non coincide soltanto con una serie di strumenti sofisticati. È ormai una componente strutturale dell’economia, dell’informazione, della pubblica amministrazione, della sicurezza e del lavoro. Quando una tecnologia assume questa forma, la questione smette di essere soltanto etica e diventa apertamente politica.
L’etica dell’AI è necessaria, ma insufficiente. Non basta chiedersi se gli algoritmi siano giusti, trasparenti o responsabili. Bisogna guardare ai rapporti di forza nei quali quei sistemi vengono progettati, distribuiti e impiegati. Bisogna capire chi controlla i dati, chi possiede la potenza di calcolo, chi definisce le regole, chi subisce le decisioni automatizzate e chi ha gli strumenti per contestarle.
In questo senso, la domanda decisiva riguarda il governo del potere tecnologico. E il governo del potere, nelle società democratiche, passa attraverso diritto, istituzioni, autorità indipendenti, partecipazione pubblica e conflitto regolato.
L’idea che la tecnologia non sia neutrale ha una genealogia precisa. Nel 1980 Langdon Winner, in un saggio diventato classico come Do Artifacts Have Politics?, sosteneva che gli artefatti tecnici incorporano assetti di potere e forme di organizzazione sociale. Alcune tecnologie, scriveva Winner, non si limitano a essere usate in un contesto politico: contribuiscono a produrlo. Oggi quella intuizione appare centrale per leggere l’AI.
L’AI come specchio dell’umano e infrastruttura di potere
Per capire dove si gioca davvero la partita, occorre partire da una demistificazione. L’intelligenza artificiale non è intelligente nel senso umano del termine. Non possiede coscienza, intenzionalità, esperienza vissuta. È un insieme di sistemi statistici e computazionali che apprendono regolarità dai dati e le trasformano in classificazioni, previsioni, raccomandazioni, contenuti.
Proprio per questo l’AI funziona come uno specchio dell’umano. Riflette ciò che trova nei dati, nelle scelte di design, negli obiettivi economici, nei criteri di ottimizzazione. Se la società che alimenta questi sistemi è attraversata da disuguaglianze, discriminazioni e gerarchie, gli algoritmi tendono a riprodurle con maggiore velocità e maggiore scala.
La questione, allora, non riguarda una fantomatica autonomia morale delle macchine. Riguarda le funzioni che affidiamo loro. Chi viene favorito quando una piattaforma decide quali contenuti amplificare. Chi viene scartato quando un sistema automatizzato filtra curriculum. Chi finisce sotto osservazione quando un software di scoring stabilisce i profili considerati più rischiosi. Chi perde accesso a un beneficio, a un’opportunità o a una tutela per effetto di una decisione opaca.
A questo livello l’AI appare per ciò che è diventata: una infrastruttura di potere. Potere economico, perché dati, chip, modelli e data center si concentrano in poche mani. Potere informativo, perché i sistemi di raccomandazione organizzano visibilità e invisibilità nello spazio pubblico digitale. Potere politico, perché la stessa infrastruttura interviene sulla formazione dell’opinione, sulla circolazione della disinformazione, sulle modalità della partecipazione democratica.
Tre limiti dell’“AI ethics” senza politica
Negli ultimi anni si è moltiplicata la produzione di documenti dedicati alla cosiddetta AI ethics. Manifesti, principi, advisory board, framework aziendali, checklist di compliance. Questo lavoro ha avuto un merito importante: ha incrinato l’idea ingenua secondo cui la tecnologia sarebbe neutra per definizione.
Eppure, quando resta separata dalla politica, questa etica mostra almeno tre limiti evidenti.
Il primo riguarda la volontarietà. Un principio non vincolante può orientare, suggerire, sensibilizzare. Difficilmente basta a trasformare pratiche industriali consolidate o modelli di business fondati sulla raccolta aggressiva di dati, sull’estrazione di valore e sulla concentrazione del controllo. Senza obblighi giuridici, verifiche indipendenti e sanzioni effettive, il rischio di moral washing diventa altissimo.
Il secondo limite riguarda le asimmetrie di potere. L’etica, da sola, non riequilibra il rapporto tra chi possiede infrastrutture di calcolo, competenze e capitale e chi subisce gli effetti delle decisioni automatizzate. Una piattaforma può dichiararsi trasparente o responsabile, ma la distanza resta enorme se utenti, lavoratori e cittadini non dispongono di diritti effettivi, tutele procedurali e strumenti per opporsi.
Il terzo limite riguarda la materialità dell’AI. Kate Crawford, in Atlas of AI, ha insistito su questo punto con grande chiarezza. L’intelligenza artificiale non vive in una nuvola immateriale. È una filiera industriale che parte dall’estrazione di minerali, passa per la produzione di semiconduttori, attraversa data center energivori, lavoro spesso invisibile di annotazione dei dati, consumo di acqua e impatti territoriali. Se l’AI è anche questo, allora il suo governo richiede politiche industriali, sociali e ambientali.
Winner e la politicità degli artefatti
La lezione di Langdon Winner aiuta a leggere con precisione ciò che accade oggi. Se gli artefatti hanno politica, i sistemi di intelligenza artificiale rappresentano uno dei casi più evidenti.
Un algoritmo usato nel welfare non si limitano a migliorare un flusso amministrativo. Definisce priorità, filtra sospetti, orienta controlli. Un software per il recruiting non si limita a risparmiare tempo. Stabilisce quali candidati meritano attenzione e quali restano esclusi prima ancora di un colloquio. Un motore di raccomandazione non si limita a personalizzare un feed. Organizza la gerarchia delle voci presenti nello spazio pubblico.
Tutte queste operazioni hanno natura politica, perché distribuiscono opportunità, rischi, riconoscimento e marginalità. Presentarle come semplici problemi di efficienza tecnica significa sottrarle al dibattito democratico e trasferirle in una zona opaca, governata da specialisti, aziende e procedure proprietarie.
Dal principio alla legge: l’AI Act europeo
Il passaggio più importante dall’etica alla politica, almeno in Europa, è rappresentato dall’AI Act dell’Unione Europea, cioè il Regolamento UE 2024/1689. Con questo testo Bruxelles ha scelto di non fermarsi alla dichiarazione di principi e di costruire invece un quadro normativo vincolante per sviluppo, immissione sul mercato e uso dei sistemi di intelligenza artificiale.
L’impianto del regolamento segue una logica basata sul rischio. Più un sistema è in grado di incidere sui diritti fondamentali, sulla sicurezza o sull’assetto sociale, più crescono gli obblighi che lo accompagnano. Alcune pratiche sono proibite. Tra queste rientrano il social scoring, alcune tecniche manipolative, lo scraping indiscriminato di immagini facciali per creare database di riconoscimento e alcuni usi del riconoscimento delle emozioni in contesti come scuola e lavoro.
Per i sistemi ad alto rischio, invece, il regolamento impone requisiti stringenti di documentazione, valutazione, governance dei dati, supervisione umana e gestione del rischio. Conta il dato politico di fondo. L’Europa ha deciso che i principi etici, per avere forza, devono entrare in un sistema di regole, controlli pubblici e sanzioni.
L’etica, in questa prospettiva, non scompare. Cambia statuto. Entra nell’ordinamento, passa per istituzioni rappresentative, autorità competenti, procedure di enforcement e contenzioso giudiziario. È una soglia qualitativa diversa rispetto ai codici interni delle imprese.
Quando interviene un tribunale, quando agisce un municipio
Un esempio emblematico di questa transizione è il caso SyRI nei Paesi Bassi. SyRI era un sistema progettato per individuare frodi nel welfare attraverso l’incrocio di grandi quantità di dati relativi a cittadini e quartieri considerati sensibili. Nel 2020 il tribunale dell’Aia ha stabilito che quel sistema violava il diritto alla vita privata, giudicandolo sproporzionato rispetto agli obiettivi dichiarati.
Il punto decisivo sta nel tipo di risposta. Non si è scelto di raccomandare un aggiustamento etico o una revisione di facciata. Si è affermato che uno strumento del genere era incompatibile con diritti fondamentali tutelati dall’ordinamento. È il diritto che interviene per fissare un limite invalicabile.
Un altro caso significativo arriva da New York City. Con la Local Law 144, il Comune ha imposto a chi utilizza strumenti automatizzati per assunzioni e promozioni di sottoporli a bias audit indipendenti almeno una volta l’anno, di rendere pubblici alcuni risultati e di informare i candidati dell’uso di sistemi automatizzati. Anche qui il passaggio è chiaro. L’accountability smette di essere una formula volontaria e diventa una condizione legale.
Geopolitica della computazione e nuove istituzioni di safety
Se lo sguardo si allarga al piano globale, l’AI rivela un’altra dimensione decisiva: la geopolitica della computazione. I modelli più potenti dipendono da risorse di calcolo immense, da GPU avanzate, da data center giganteschi e da supply chain estremamente delicate. La capacità di sviluppare AI avanzata si lega sempre più a scelte di politica industriale, strategia commerciale e sicurezza nazionale.
Non è un caso che i semiconduttori siano diventati terreno di confronto tra grandi potenze. I controlli all’export, gli incentivi pubblici per attrarre produzione di chip, le discussioni sulla capacità computazionale come asset strategico mostrano che l’AI non è più una questione confinata ai laboratori. È parte dell’ordine geopolitico.
In parallelo stanno nascendo nuove istituzioni pubbliche dedicate alla sicurezza dei sistemi avanzati. Negli Stati Uniti il NIST ha promosso l’AI Safety Institute e un ampio consorzio di soggetti pubblici e privati per sviluppare standard, test e metodi di valutazione. Sul piano internazionale, la Bletchley Declaration ha riconosciuto la necessità di cooperazione tra Stati sui rischi dei modelli di frontiera.
Questa evoluzione segnala un mutamento di paradigma. Dalla stagione dei principi generali si passa a una governance dell’AI fatta di standard, benchmark, procedure di test, audit, autorità pubbliche e coordinamento internazionale.
Piattaforme, sorveglianza e potere informazionale: Zuboff
Una delle analisi più influenti per comprendere la dimensione economico-politica dell’AI resta quella di Shoshana Zuboff in The Age of Surveillance Capitalism. Zuboff descrive un modello economico fondato sull’appropriazione sistematica dell’esperienza umana, trasformata in dati comportamentali utili a prevedere e orientare il comportamento futuro.
In questa architettura l’intelligenza artificiale svolge un ruolo cruciale. Rende più efficiente la capacità di profilare, anticipare, classificare e influenzare individui e popolazioni. Il nodo non riguarda soltanto la privacy in senso stretto. Riguarda la forma del potere informazionale esercitato su larga scala.
Affidare la regolazione di questi processi alla sola etica delle piattaforme significherebbe lasciare il controllo a chi trae profitto dalla massimizzazione della raccolta dati e dalla gestione proprietaria degli ecosistemi digitali. Per questa ragione entrano in gioco strumenti come il Digital Services Act, il diritto della concorrenza, la trasparenza algoritmica e la supervisione pubblica delle piattaforme sistemiche.
Giustizia sociale, povertà e razza: Eubanks e Benjamin
Due studiose hanno posto una domanda semplice e decisiva. Chi paga gli errori dell’AI? Virginia Eubanks, in Automating Inequality, mostra come i sistemi automatizzati impiegati nel welfare, nell’assegnazione di alloggi e nella protezione dei minori colpiscano in modo sproporzionato le persone povere e vulnerabili. Quando un algoritmo sbaglia, spesso lo fa scaricando il costo dell’errore su chi ha meno risorse per difendersi.
Ruha Benjamin, in Race After Technology, ha proposto l’espressione “New Jim Code” per indicare il modo in cui le tecnologie possono riprodurre gerarchie razziali e sociali sotto la copertura dell’oggettività tecnica. Non serve un razzismo dichiarato perché il risultato sia discriminatorio. Bastano dati storici distorti, criteri opachi, design sbilanciati e assenza di controllo democratico.
In questi casi l’etica delle intenzioni conta poco. Ciò che conta è la possibilità di contestare una decisione, ottenere spiegazioni, attivare ricorsi, sottoporre i sistemi a verifiche indipendenti e far valere diritti effettivi. Il terreno è quello della giustizia sociale e della politica pubblica.
L’impronta materiale di modelli e data center: Ren et al. e oltre
Anche il tema ambientale spinge nella stessa direzione. I lavori di Shaolei Ren e coautori sulla water footprint dell’AI hanno provato a stimare il consumo di acqua legato all’addestramento e all’uso dei grandi modelli linguistici. I dati indicano una richiesta significativa di risorse, soprattutto quando si considera il raffreddamento dei data center e il fabbisogno energetico complessivo.
Questo significa che il costo dell’AI non si misura soltanto in innovazione, produttività o convenienza d’uso. Va misurato anche in termini di acqua, energia, suolo, infrastrutture e impatto sulle comunità locali. Le letture minimizzanti, concentrate sul singolo prompt o sul singolo utilizzo, tendono a nascondere la dimensione sistemica e il cosiddetto rebound effect, cioè l’aumento complessivo dei consumi man mano che l’accesso alla tecnologia diventa più facile e diffuso.
Anche in questo caso la risposta richiede strumenti pubblici. Servono regole ambientali, obblighi di reporting, pianificazione territoriale, valutazioni sugli impatti e scelte industriali coerenti con la sostenibilità.
Sheila Jasanoff e gli immaginari sociotecnici
Per comprendere il nesso profondo tra tecnologia e società, il lavoro di Sheila Jasanoff sugli immaginari sociotecnici resta fondamentale. In Dreamscapes of Modernity, Jasanoff mostra come le società costruiscano visioni condivise del futuro, visioni che orientano sia le tecnologie considerate desiderabili sia le istituzioni incaricate di governarle.
L’intelligenza artificiale, letta da questa prospettiva, non è un destino impersonale. È il prodotto di immaginari, interessi, culture politiche e priorità economiche. Decidere che cosa automatizzare, quali usi considerare legittimi, quali rischi tollerare e quali benefici premiare significa già fare politica.
Se questo processo resta monopolizzato da poche grandi imprese o da pochi Stati, il futuro dell’AI sarà definito da una ristretta élite tecnologica. Se invece entra nello spazio del dibattito democratico, diventa possibile discutere fini, limiti e alternative.
Oltre l’etica: verso una politica democratica dell’AI
A questo punto la conclusione si impone con una certa evidenza. L’etica dell’intelligenza artificiale resta indispensabile perché aiuta a riconoscere valori, pericoli e responsabilità. Serve a dare un nome a ciò che vogliamo difendere. Serve anche a segnalare ciò che una società considera inaccettabile.
Però non basta. Senza istituzioni, norme, standard, autorità di controllo, auditing indipendenti, poteri ispettivi e diritti azionabili, l’etica rischia di fermarsi alla superficie. Le grandi domande aperte dall’AI riguardano infatti il governo del potere tecnologico, la distribuzione dei benefici, la tutela dei soggetti vulnerabili, l’equilibrio tra innovazione e diritti, il rapporto tra infrastrutture digitali e democrazia.
È in questo senso che autori come Winner, Crawford, Zuboff, Eubanks, Benjamin e Jasanoff restano così importanti. Tutti, da prospettive diverse, mostrano che l’intelligenza artificiale non è soltanto una tecnologia potente. È un dispositivo che condensa visioni del mondo, interessi materiali e rapporti di forza.
Per questa ragione la sfida del nostro tempo non consiste soltanto nel rendere più etiche le macchine. Consiste nel rendere più responsabili le istituzioni, più controllabili le imprese, più trasparenti i sistemi, più esigibile la tutela dei diritti, più democratico il governo dell’innovazione.
Nell’era dell’intelligenza artificiale, l’etica indica la direzione. La politica decide se quella direzione avrà davvero forza, limiti e istituzioni capaci di reggerla. È lì che si misura la qualità del futuro che stiamo costruendo.