Intelligenza Artificiale e lavoro: un’opportunità se incanalata

L'intelligenza artificiale può aumentare il benessere collettivo. Ma solo se la politica smette di delegare al mercato e costruisce regole condivise a livello globale

Giacomo LepriApprofondimenti
RIVRINASCITA_20260330103709505_a28ef60f73b907ed9be69291d89bbf42.jpg

ANSA

Molte rivoluzioni tecnologiche hanno creato spaccature tra chi ne raccoglie i frutti e chi ne subisce i costi. Con l’intelligenza artificiale il cambiamento è già in atto e la risposta che stiamo finora dando, cioè quella di affidarsi all'appetito del mercato senza regole condivise, rischia di produrre impatti economici e sociali senza precedenti. L’obiettivo non dev’essere fermare lo sviluppo tecnologico ma aumentare il benessere collettivo, attraverso coraggio politico e coordinamento internazionale.

Cosa potrebbe infatti succedere, se continuiamo a non governare davvero il cambiamento? Ci può aiutare a rispondere - seppur riconducibile a un esercizio di fantasia provocatoria - il recente articolo (febbraio 2026) pubblicato sul noto sito di newsletter Substack da parte di Citrini Research, una firma che mira ad analizzare gli attuali megatrend trasformativi. Il The Guardian l’ha considerato come una rappresentazione apocalittica, che ben si presta ad essere divorata dai suoi lettori, tuttavia ai nostri scopi serve ricostruirla.

Lo scenario si sviluppa in fasi concatenate. Nella prima, quella attuale, gli Agenti AI (software autonomi basati sull’intelligenza artificiale, in grado di percepire il proprio ambiente, ragionare, pianificare e intraprendere azioni concrete per raggiungere obiettivi specifici. A differenza dei tradizionali chatbot essi agiscono attivamente, hanno memoria e imparano dai risultati per ottimizzare i flussi di lavoro) fanno un salto qualitativo nell'organizzazione del lavoro e nella gestione dei dati, erodendo progressivamente l'attrito economico su cui migliaia di aziende intermediarie hanno costruito il proprio modello di business: agenzie immobiliari, di viaggio, fornitori di servizi SaaS.

Quando queste aziende entrano in crisi, scatta quindi la seconda fase: una corsa al ribasso dei prezzi, licenziamenti di massa tra i cosiddetti “colletti bianchi” e un loro riversamento nella economia della precarietà. I consumi, di conseguenza, si riducono e le aziende rispondono alla crisi acquistando ancora più AI e alimentando un loop deflazionistico. La terza fase è rappresentata dal contagio finanziario: il private credit, costruito su proiezioni di ricavi futuri che però in questa crisi risultano irrealistici, inizia a scricchiolare, mentre le insolvenze sui mutui salgono proprio tra chi tradizionalmente è considerato più solido, il ceto medio impiegatizio. A questo punto i governi si trovano spiazzati: avrebbero bisogno di trasferire risorse alle famiglie proprio quando il gettito fiscale tende a ridursi rappresentando la quarta spirale, quella istituzionale che non riesce a offrire adeguati ammortizzatori sociali. Il risultato finale dipinge dunque un’esplosione delle disuguaglianze e una coesione sociale erosa.

Si tratta con evidenza di uno scenario forzato, probabilmente accentuato anche dal fatto che uno degli autori potrebbe aver avuto interesse diretto nella sua diffusione, dato che una prefigurazione di questo genere avvantaggerebbe proprio la sua società di Agenti personali AI. Tuttavia, questo articolo speculativo su una piattaforma di newsletter potrebbe aver contribuito a spostare miliardi di capitalizzazione: lo scorso 23 febbraio, il giorno dopo la sua pubblicazione, l’indice S&P 500 ha perso l’1% e la componente software dell’indice è crollata ai livelli più bassi da quando Trump annunciò il suo Liberation Day.

Molte altre recenti opinioni e ricerche analizzano il problema: non allarmano su una possibile crisi sistemica ma vogliono accendere alcuni campanelli d’attenzione. È il caso dell’ex governatore della Fed, Michael Barr, che è recentemente intervenuto sostenendo che l’AI può portare nel lungo termine effetti positivi, ma che è necessario tutelare alcune fasce sociali, come i lavoratori giovani e all’inizio di carriera, in settori a maggiore esposizione al nuovo cambiamento tecnologico. L’Università di Stanford, certo non sospettabile di ostilità verso il settore tech, ha recentemente condotto un’analisi da cui emerge che i lavoratori più giovani nei lavori più esposti all’AI hanno subito una riduzione del 13 - 16% dal 2022, anno dell’introduzione di Chat GPT, a oggi.

Un altro perimetro di disaggregazione d’analisi è quello che valuta quali lavori potrebbero essere più a rischio: uno studio recente condotto da Anthropic (l’azienda creatrice di un’altra famosissima AI, Claude) ha evidenziato, sulla base di quello che l'IA sta già determinando nel mondo del lavoro oggi, che i più colpiti saranno i programmatori, i lavoratori che lavorano nel campo del servizio clienti, il settore legale, il settore contabile, l’attività di segreteria e gli analisti finanziari: molti lavoratori impiegatizi, per l’appunto. Inoltre, viene affermato che l’AI appare ancora lontana dal suo potenziale teorico.

Comprendere quali lavori e quali categorie di lavoratori potranno essere a maggior rischio appare dunque fondamentale. Sappiamo infatti bene che i mercati sono efficienti nell'allocare risorse verso il profitto ma non lo sono altrettanto nel proteggere i più vulnerabili, durante le transizioni. Per questo appare sempre più indispensabile, al fine di garantire una stabilità economica e sociale locale e globale, definire solide linee guida che possano favorire uno sviluppo incanalato. Non sarà facile, poiché l’approccio necessario non può essere assertivo né tuttavia difensivo, diversamente si rischierebbe di limitare i grandi benefici in termini di innovazione, produttività ed automazione che possono ottenersi.

Come sintetizzato nei suoi diversi studi dall’economista e premio Nobel, Daron Acemoglu, l’obiettivo sta nel combattere l’AI che sostituisce i lavoratori (automatizzazione) e incentivare invece la tecnologia che aumenta la produttività dei lavoratori (potenziamento). In sintesi, la regolamentazione dovrebbe indirizzare lo sviluppo dell’AI verso la direzione corretta. In generale già molti Stati nel mondo si sono mossi nella direzione di una regolamentazione. L’Europa ha adottato l’AI Act, il Giappone ha approvato l'AI Promotion Act e altri esempi si potrebbero citare nel mondo: tutti prevedono livelli di regolamentazione più o meno rigidi e su perimetri diversi.

Tuttavia, in un'economia globalizzata come quella odierna, una regolamentazione che si fermi ai confini nazionali produce inevitabilmente distorsioni competitive. Infatti, un Paese che tutela i propri lavoratori imponendo standard elevati alle aziende AI rischia di trovarsi svantaggiato rispetto a quelli con un approccio più orientato al laissez faire economico, che quindi possono attirare investimenti e Big Tech. Insomma, senza crescenti forme di unanime e coordinata regolazione a livello internazionale, ogni Stato che intende proteggere i propri lavoratori rischia di farlo a caro prezzo economico. Serve quindi, per fare un parallelismo, qualcosa di simile a ciò che gli accordi di Parigi hanno rappresentato per il clima. Non sorprende quindi registrare come il Paese che più di tutti dovrebbe guidare questa cordata globale, ossia gli Stati Uniti, si stia muovendo in direzione diametralmente opposta: l'amministrazione Trump, nonostante il quadro normativo avviato dall’amministrazione Biden, ha scelto la deregolamentazione in nome della competitività, ma soprattutto degli interessi delle aziende AI con sede, lavoratori e profitti in USA.

Pur se le recenti vicende a cui assistiamo nel mondo non sembrano certo deporre verso una volontà maggioritaria di regolazioni internazionali condivise, si deve continuare a prefigurarle con coraggio e lungimiranza. Anzitutto, dovrebbe essere previsto, nella maggior parte dei programmi formativi superiori e universitari, un percorso di approfondimento che prepari i giovani lavoratori qualificati a presentarsi al mondo del lavoro in maniera competitiva. Peraltro, sarà sempre doveroso distinguere i corsi di AI empowerment dagli altri corsi universitari: resta fondamentale conoscere il proprio ambito di studi per saperne poi potenziare l’applicazione, grazie al supporto dell’AI.

Per tutelare le fasce più deboli del mercato del lavoro, si dovrebbe pensare a seri piani di investimento nelle politiche attive, con l’introduzione di un’adeguata formazione per i lavoratori nel campo dell’intelligenza artificiale. Allo stesso tempo, chi è già nel mondo del lavoro dovrebbe acquisire conoscenze base per il proprio specifico ambito lavorativo. Se si diffonde una seppur minima conoscenza comune di questi strumenti, si eviteranno possibili polarizzazioni in ambito lavorativo, tra chi conosce lo strumento e chi invece viene lasciato indietro.

Daron Acemoglu suggerisce sgravi fiscali per le aziende che assumono persone fisiche, invece di investire massicciamente in AI complementare al lavoro umano. L’economista non si pone in antitesi con questa nuova tecnologia, ma la intende a supporto nel compimento di un’operazione: ad esempio, per aumentare la produttività dell’analista con informazioni in tempo reale o per suggerire il tecnico nella sua attività di riparazione. Tuttavia, questi importanti interventi - insieme a inevitabili misure di politiche passive del lavoro con vari ammortizzatori sociali, così da sostenere la probabile disoccupazione seppur transitoria generata dall’AI - necessitano chiaramente di un “contrappeso economico”.

Si potrebbero elaborare dunque tre direttrici, per finanziare questa transizione strutturale in modo anche economicamente sostenibile. Alcuni studiosi e osservatori prefigurano di strutturare un fondo comune internazionale, dedicato alla transizione occupazionale indotta dall'AI. Questo fondo potrebbe essere in parte finanziato ispirandosi alla proposta, già discussa al G20 in Brasile nel 2024 e avanzata dell'economista e direttore dell’Osservatorio Fiscale Europeo, Gabriel Zucman: una tassa minima del 2% sui patrimoni dei più ricchi miliardari, che può generare tra 200 e 250 miliardi di dollari l'anno.

La seconda direttrice, da più parti suggerita, si muove nel senso di colpire una quota degli extraprofitti delle Big Tech che dall'Intelligenza Artificiale stanno ricavando rendite, economiche e di posizione, senza precedenti storici. Esse sovente oggi contribuiscono alla fiscalità dei vari Paesi in misura inferiore a qualsiasi media impresa, negli USA come in Europa.

Una possibile terza leva economica sta nel prevedere sanzioni verso quelle aziende che sostituiscono i lavoratori con l'AI in modo predatorio, senza investire in riqualificazione o transizione. Si tratta dell'idea speculare agli incentivi fiscali proposti da Acemoglu: così come si premiano le aziende virtuose, si tratta di disincentivare quelle che usano l'automazione come strumento per tagliare il costo del lavoro.

Il sistema economico oggi si regge ancora sul fatto che l’offerta di intelligenza umana sia una risorsa scarsa e che quindi vada remunerata adeguatamente. Tuttavia se non facciamo nulla e lasciamo che l’AI eroda questa scarsità, stiamo evidentemente minando le solide fondamenta del nostro contratto sociale. Serve dunque una “grande carta dell’AI”: non un codice etico di facciata, ma un trattato vincolante che affronti davvero la tutela del lavoro, così come tanti altri temi, quali la cybersicurezza e l’uso in ambito militare. Un accordo ambizioso, certo. Ma o la politica torna a guidare il mercato oppure sarà esso stesso, sempre più, a riscrivere le regole del gioco, a vantaggio di pochi.