Introduzione – L’intelligenza artificiale e il futuro del lavoro: chi guadagna e chi resta indietro
Quest’ultima puntata è sicuramente la più complessa, non solo perché affronta le implicazioni delle innovazioni tecnologiche sulla società, ma anche perché ne ricava tendenze e previsioni che, per quanto fondate, possono risultare scomode, controverse e certamente degne di discussione e riflessione.
Quando nel 1997 il supercomputer Deep Blue sconfisse Garry Kasparov a scacchi, il mondo capì che qualcosa stava cambiando. Da allora l’intelligenza artificiale ha smesso di essere un esercizio teorico per diventare il motore silenzioso delle nostre economie. Oggi gli algoritmi gestiscono portafogli finanziari, analizzano radiografie, scrivono articoli e compongono musica. Ma mentre le macchine diventano più “intelligenti”, il lavoro umano sembra entrare in una lunga stagione di incertezza.
Oggi non sono più solo le catene di montaggio ad essere automatizzate. Lo sono i processi cognitivi, le decisioni e perfino la creatività. Sistemi come IBM Watson, ChatGPT e gli algoritmi di trading automatico operano in ambiti un tempo riservati all’intelligenza umana.
La differenza è che ora le macchine imparano da sole. Elaborano milioni di dati (Big Data), riconoscono pattern, traggono conclusioni. Nel settore finanziario, oltre il 70% delle operazioni di borsa è gestito da software di trading. In medicina, gli algoritmi diagnosticano tumori con una precisione superiore a quella dei radiologi.
Secondo gli economisti Acemoglu e Restrepo, ogni PC installato sostituisce in media 3,3 lavoratori. È la cosiddetta “disoccupazione tecnologica” di cui parlava già Keynes nel secolo scorso, ma su scala globale e con una velocità senza precedenti.
L’idea che la tecnologia liberi l’uomo dai compiti più faticosi è antica quanto la rivoluzione industriale. Eppure, a differenza delle rivoluzioni precedenti, quella digitale non sta generando un’ondata equivalente di nuovi posti di lavoro. Sta invece ridefinendo il valore stesso del lavoro — e di chi lo svolge.
Le sette crepe del mercato del lavoro contemporaneo
La correlazione storica tra maggiore produttività e redditi più elevati è venuta meno ed oggi i segnali di questa frattura sono visibili in tutto l’Occidente. Quanto riporto di seguito è tratto da studi sul mercato del lavoro in USA, ma vale come tendenza per tutto l’Occidente.
Gli economisti individuano sette tendenze che stanno ridisegnando il panorama occupazionale:
1. Ristagno dei salari – La produttività cresce, ma le buste paga no. Questa tendenza si manifesta dalla metà degli anni 70. Dal 1980 la produttività segna un netto distacco dai salari

Fonte: Lawrence Mishel, Economic Policy Institute su base dati Bureau of Labor Statistic.
Tra il 1947 e il 1973, le economie occidentali vissero un periodo che gli storici chiamano “l’età dell’oro” del capitalismo industriale. I salari crescevano insieme alla produttività, la classe media si espandeva e la mobilità sociale sembrava una promessa mantenuta.
Poi arrivarono gli anni Settanta: la crisi petrolifera, la stagflazione, la disoccupazione di massa. Da quel momento, il legame tra tecnologia e prosperità condivisa si è incrinato.
Secondo l’economista Thomas Piketty, dagli anni Ottanta in poi la quota di reddito destinata al lavoro ha iniziato a ridursi, mentre quella dei profitti da capitale ha preso il largo. La tecnologia, insomma, ha smesso di essere un ascensore sociale e si è trasformata in un moltiplicatore di disuguaglianza.
2. Più potere alle corporation – Le grandi corporate raccolgono margini enormi, comprimendo il potere contrattuale dei lavoratori.

Quota del reddito negli USA riservata ai lavoratori (1947-2014). Fonte: US Bureau of Labor Statistic, FRED (Federal Reserve Economics Data)
In Giappone, Canada, Francia, Italia, Germania e Cina c’è stato un calo maggiore rispetto agli USA.

Profitti Aziandali in percentuale sul PIL, Fonte FRED (Federal Reserve Economics Data)
Negli anni Ottanta, l’informatica riportò innovazione e crescita, ma i profitti si concentrarono nelle mani di pochi. I salari, invece, restarono fermi.
3. Meno partecipazione alla forza lavoro – Sempre più persone abbandonano il mercato o si accontentano di impieghi precari. Il tasso di disoccupazione tiene conto delle persone che cercano attivamente lavoro, il tasso di partecipazione alla forza lavoro tiene conto delle persone che non cercano più lavoro perché si sono arresi.

Tasso di partecipazione alla forza lavoro in USA, Fonte FRED (Federal Reserve Economics Data)
4. Riprese economiche senza occupazione – Dopo le crisi economiche, il PIL torna a salire, ma l’occupazione resta indietro e si bruciano posti di lavoro. I tempi di ripresa dalle crisi si allungano e la disoccupazione di lunga durata debilita scoraggiando la ricerca di lavoro. L’economia si riprende con meno occupazione.

Creazione netta di posti di lavoro per decennio negli USA, Fonte Fonte FRED (Federal Reserve Economics Data)
5. Disuguaglianza crescente – Il divario tra i più ricchi e tutti gli altri si è dilatato costantemente a partire dagli anni 70. Oltre la metà della crescita del reddito negli Stati Uniti tra il 1993 e il 2010 è andata all’1% più ricco. Questa tendenza si è accentuata, dal 2009 al 2012 il 95% della crescita del reddito USA è finita in mano all’1% della popolazione.
Negli ultimi anni, il vero potere non risiede più solo nella produzione o nella conoscenza, ma nella finanza.
Le corporation tecnologiche sono diventate colossi capaci di muovere capitali pari al PIL di intere nazioni ed esiste un rischio palese che l’elite finanziaria “sequestri la Politica”, rischio evidentemente alto soprattutto negli USA
6. Calo del reddito e sotto-occupazione dei laureati – Un corso di laurea di 3-5 anni è ormai considerato una credenziale indispensabile per l’ingresso nella classe media. Nel 2012 in USA lo stipendio medio orario dei laureati superava dell’80% quello dei diplomati alle superiori, ma tra il 2000 ed il 2010 il reddito dei giovani lavoratori con laurea è diminuito del 15%.
L’automazione ha dequalificato il lavoro svolto dai lavoratori meno istruiti (diplomati)
Un titolo di studio non basta più per garantirsi un posto adeguato, ma l’investimento in un corso di laurea è comunque migliore delle alternative.
7. Polarizzazione ed impieghi part time – Durante le fasi di ripresa economica, i posti di lavoro che vengono creati risultano spesso peggiori di quelli distrutti durante le recessioni. In molti casi, infatti, si tende ad accettare occupazioni meno qualificate e con salari più bassi, pur di rientrare nel mercato del lavoro.
Gran parte dei nuovi impieghi generati nelle riprese economiche è di tipo part-time, il che contribuisce a rendere più precaria la condizione lavorativa complessiva.
Tra i fattori decisivi che influenzano questa dinamica vi sono l’automazione dei lavori di routine, la globalizzazione dei mercati e la delocalizzazione delle produzioni.
Durante le recessioni, i lavori di routine vengono progressivamente eliminati; tuttavia, con la successiva ripresa economica, si scopre che molti di quei posti possono essere sostituiti dalla tecnologia dell’informazione. In questo modo, la crescita economica non sempre si traduce in un miglioramento della qualità dell’occupazione, ma spesso in una sua trasformazione strutturale.
Una lettura tecnologica delle cose
Vediamo cosa è successo nel settore aeronautico con il progresso tecnologico e quale impatto ha avuto sul lavoro negli ultimi settant’anni, cercando un parallelismo con il settore manifatturiero.
L’evoluzione degli aerei — dai motori a combustione dei primi jet ai droni e ai voli autonomi — riflette in modo sorprendente ciò che è accaduto nelle fabbriche, negli uffici e nei mercati di tutto il mondo.
Ogni salto di potenza, ogni nuovo strumento di controllo, ha avuto un corrispettivo economico: produttività crescente, salari altalenanti, e una distribuzione della ricchezza sempre più sbilanciata.
1. 1947–1973: l’età dell’oro e il decollo del progresso
Il dopoguerra fu un’epoca di entusiasmo, di crescita e di fiducia cieca nella tecnologia. Tra la fine degli anni Quaranta e i primi Settanta, la produttività delle economie occidentali aumentava a ritmi che oggi sembrano inimmaginabili. Le industrie si ricostruivano, i salari crescevano quasi di pari passo con la produzione, e il lavoro salariato rappresentava il cuore pulsante della prosperità collettiva.
Erano gli anni in cui i motori a reazione sostituivano la combustione nei velivoli commerciali. Quel passaggio simbolico — dalla spinta meccanica al getto — raccontava un mondo che si muoveva più veloce, più lontano, più efficiente. Allo stesso modo, l’automazione industriale e la catena di montaggio perfezionata promettevano di liberare l’uomo dalla fatica.
Ogni operaio che lavorava in fabbrica poteva immaginare un futuro migliore per sé e per i propri figli. L’innovazione era un’alleata del lavoro, non una minaccia. Le macchine producevano, ma il frutto di quella produzione era distribuito. Si trattava di un equilibrio fragile, ma per un quarto di secolo funzionò.
2. Gli anni Settanta: la crisi che inceppò il motore
Poi, improvvisamente, il motore tossì.
L’aumento del prezzo del petrolio, l’aumento dei prezzi (inflazione), la mancanza di crescita economica (stagnazione) e le prime ondate di delocalizzazione incrinarono il mito del progresso inarrestabile. Le fabbriche rallentarono, la disoccupazione salì, e la tecnologia smise di correre.
Come i jet di quegli anni — rimasti quasi identici ai modelli precedenti — anche l’innovazione industriale sembrava essersi fermata a metà strada. I salari persero spinta, e con essi l’idea di un benessere universale fondato sul lavoro.
Fu un momento di disorientamento collettivo. Per la prima volta, si iniziava a percepire che la tecnologia poteva non bastare. Non bastava a creare nuovi posti, non bastava a tenere in equilibrio la società. Il motore del progresso, alimentato per decenni dal lavoro umano, cominciava a girare a vuoto.
3. Gli anni Ottanta: il computer entra in cabina
Negli anni Ottanta, il cielo tornò a illuminarsi.
I computer iniziarono a diffondersi, prima nelle aziende, poi nelle case. Nacque la convinzione che l’informatica avrebbe riportato crescita, occupazione, modernità. E in parte fu così.
Nelle fabbriche, gli operai imparavano a usare i terminali digitali, a dialogare con le macchine. Si parlava di riqualificazione, una parola che sembrava magica: bastava imparare un nuovo linguaggio per restare nel gioco.
Anche in aviazione qualcosa cambiava. I computer cominciavano a comparire nei cockpit: non sostituivano ancora i piloti, ma li aiutavano. Il volo diventava più sicuro, più prevedibile, meno soggetto all’errore umano.
Eppure, dietro la promessa di efficienza, si nascondeva una trasformazione più profonda. Il reddito da lavoro iniziava a calare. Le imprese guadagnavano in produttività, ma non in equità. Per la prima volta, la forbice tra capitale e lavoro si allargava visibilmente.
Era il preludio alla grande divergenza che avrebbe segnato i decenni successivi.
4. Gli anni Novanta: Internet decolla
Con gli anni Novanta, l’informatica si fece rete. Internet, che fino ad allora era un progetto per pochi, si trasformò in un fenomeno globale. I computer non solo contavano o controllavano: cominciavano a connettere.
Le imprese si digitalizzarono, le comunicazioni si moltiplicarono, la distanza tra i continenti si accorciò in modo radicale. Era la nuova frontiera della globalizzazione.
Gli aerei di quegli anni — con jet simili ai modelli precedenti, ma sempre più automatizzati — raccontavano lo stesso processo: l’uomo restava in cabina, ma le macchine prendevano sempre più decisioni per lui.
L’economia reagì come un motore a doppia elica: una spinta di crescita e di innovazione da una parte, e una perdita di controllo e di sicurezza dall’altra. Le imprese si globalizzavano, i profitti aumentavano, ma il lavoro cominciava a perdere centralità.
5. Gli anni 2000: l’automazione invisibile
L’inizio del nuovo millennio portò con sé una rivoluzione silenziosa.
Il termine “Internet delle cose” — IoT — entrò nel linguaggio comune, e la digitalizzazione dei processi produttivi divenne la norma. Le catene di montaggio si svuotarono, le aziende iniziarono a delocalizzare, i servizi si spostarono nel cloud.
Era la stagione della dematerializzazione: si produceva sempre di più con sempre meno persone. La propulsione dell’economia restava invariata — crescita, consumo, profitto — ma i piloti erano sempre meno.
Nel frattempo, l’industria aeronautica sperimentava la simulazione, i sistemi automatizzati di volo, e l’uso estensivo dei dati per la manutenzione predittiva. Gli aerei non cambiavano motore, ma cambiavano cervello.
Così anche le economie: il capitale umano era lo stesso, ma a guidare erano ormai gli algoritmi.
6. Dal 2010 in poi: l’era dell’intelligenza artificiale
Nel giro di pochi anni, concetti come machine learning e deep learning sono passati dai laboratori alla vita quotidiana. Le macchine non si limitano più a eseguire istruzioni: imparano, adattano, creano.
Nelle cabine di pilotaggio, i sistemi di volo autonomo permettono ai piloti di addormentarsi mentre l’aereo segue da solo la rotta. Nei cieli civili e militari, i droni volano senza pilota. Nel mondo del lavoro, gli algoritmi scrivono testi, traducono lingue, analizzano dati medici, concedono prestiti, negoziano azioni.
La frontiera tra uomo e macchina si è fatta sottile e, con essa, anche il confine tra lavoro e automazione.
Il lavoro nell’era dell’intelligenza artificiale
Negli ultimi decenni, i progressi dell’intelligenza artificiale hanno trasformato profondamente il mondo del lavoro, mettendo a rischio non solo le mansioni manuali, ma anche i cosiddetti lavori da colletti bianchi.
Le reti neurali artificiali, ideate già alla fine degli anni Quaranta, hanno trovato la loro piena espressione nel deep learning, che oggi consente alle macchine di apprendere, ragionare e persino creare. Già nel 1997 il computer Deep Blue di IBM sconfisse Garry Kasparov a scacchi, e nel 2011 Watson, sempre di IBM, vinse a Jeopardy!, un gioco che richiede comprensione linguistica, ironia e ambiguità — capacità tradizionalmente umane.
Da allora, Watson è stato trasferito sul cloud, diventando accessibile a chiunque e trovando applicazioni decisive, soprattutto in medicina: grazie all’analisi di milioni di pubblicazioni e cartelle cliniche, può individuare diagnosi e ridurre gli errori medici, che causano ogni anno decine di migliaia di morti (in USA 98.000/anno). Oggi alcune professioni, come quella del radiologo, iniziano a essere sostituite dai sistemi di AI.
Nel 2009 sono nati i primi software “creativi”, capaci di scoprire da soli le leggi della fisica classica (EUREQA, sw creato da Nutonian, startup del MIT, poi acquisita da DataRobot ) o scrivere articoli sportivi (è del 2009 la prima cronaca sportiva generata da un software: StatsMonkey della InfoLab startup della Northwestern University): un segno che anche le attività cognitive non sono più esclusivamente umane.
Le tecniche di programmazione genetica, ispirate ai principi dell’evoluzione darwiniana, consentono agli algoritmi di auto-crearsi e migliorarsi progressivamente, generando una spirale di apprendimento e autonomia sempre più rapida. L’intelligenza artificiale sviluppa diversi sistemi software: quelli che funzionano vengono mantenuti ed evoluti, mentre gli altri vengono scartati dalla stessa AI.
Nel 2012 un computer compose una sinfonia eseguita dalla London Symphony Orchestra, mentre a Wall Street gli algoritmi di trading gestivano già il 70% delle transazioni. I big data e gli algoritmi predittivi entrano nella vita quotidiana: l’azienda Target, ad esempio, è riuscita a prevedere una gravidanza analizzando gli acquisti di soli 25 prodotti. Emblematico il caso di un genitore di una minorenne in USA che nel 2012 ha sporto reclamo a Target per una lettera promozionale di articoli per gravidanza, per poi realizzare che Target era più informata di lui.
Tuttavia, queste analisi si basano su correlazioni, non su comprensione causale — un cambiamento profondo nel modo in cui la conoscenza viene prodotta.
Anche l’istruzione, tradizionalmente vista come la chiave per il progresso, mostra segni di crisi. Sempre più laureati svolgono lavori per cui sono sovra-qualificati: il 20% negli Stati Uniti, il 30% in Europa, fino al 43% in Cina. La crescita fondata sulla conoscenza sembra oggi minacciata proprio dalla tecnologia che l’ha resa possibile.
Le macchine non consumano
La simbiosi tra redditi in aumento e domanda da parte dei consumatori sta lentamente venendo meno. Ogni bene o servizio prodotto in una economia viene acquistato o consumato da qualcuno. Domanda significa il desiderio o la necessità di qualcosa, supportati dalla possibilità e dalla disponibilità ad acquistarlo. I consumatori individuali fanno per lo più affidamento sul proprio lavoro per ottenere il proprio reddito. I posti di lavoro sono il principale meccanismo di distribuzione del potere d’acquisto.
Naturalmente anche le imprese acquistano delle cose, ma non si tratta di domanda finale ma di mezzi che usano per produrre qualcos’altro. Se però non esiste una domanda per ciò che l’azienda produce, questa chiuderà e smetterà di comprare mezzi produttivi. Certamente l’impresa può vendere beni e servizi ad un’altra impresa, ma ad un certo punto la catena deve finire con una persona o un ente pubblico perché sono solamente due i soggetti che creano domanda finale di beni e servizi: gli individui e gli Stati.
Il punto è che un lavoratore è anche consumatore trainando la domanda finale. Quando un lavoratore viene rimpiazzato da una macchina, quella macchina non si mette a consumare. Può consumare energia, pezzi di ricambio o manutenzione, ma anche questi sono input per la produzione, non sono domanda finale. Se non c’è nessuno che possa comprare ciò che la macchina produce, prima o poi essa verrà spenta.
La trappola della disuguaglianza
Effetto macroeconomico: i lavoratori, che sono anche consumatori, dipendono dai salari per sostenere la domanda. Se i redditi si concentrano in una piccola parte della popolazione, i consumi si riducono. Negli Stati Uniti, tra il 1992 e il 2012, la quota di spesa dei più ricchi (il 5% della popolazione) è aumentata dal 27% al 38%, mentre quella del 95% più povero è diminuita dal 47% al 39%. Una società in cui pochi concentrano la ricchezza rischia di soffocare la domanda interna, riducendo innovazione e crescita economica.
Se la tecnologia riduce i costi e aumenta la produttività, perché le economie non crescono più come prima? La risposta potrebbe trovarsi nel crollo della domanda aggregata.
Una estrema concentrazione del reddito nelle mani di un piccolissimo segmento di potenziali acquirenti potrebbe prima o poi mettere a rischio la sostenibilità dei mercati.
In altre parole: le persone che guadagnano meno — e che spendono di più in proporzione — stanno perdendo potere d’acquisto. E se la domanda cala, anche l’innovazione e la crescita rallentano. L’economista Joseph Stiglitz parla di “un capitalismo che divora sè stesso”: un sistema in cui il progresso tecnologico non alimenta più la crescita, ma la erode.
Il 5% più ricco in USA è costituito soprattutto da professionisti e lavoratori della conoscenza con almeno una laurea. Come abbiamo visto nella parte “Il lavoro nell’era dell’intelligenza artificiale“, molte di queste occupazioni sono sotto il tiro dell’AI e del progresso tecnologico. L’AI può eliminare interamente certe professioni o spingere al ribasso il loro reddito. Quindi anche il 5% della popolazione è a rischio di erosione del reddito con l’aggravante che è finanziariamente più esposto rispetto al resto della popolazione.
Senza un incremento dei redditi, l’unico meccanismo che permetterebbe al 95% meno abbiente di spendere di più sarebbe un maggiore indebitamento.
Alcuni economisti sono dell’idea che le macchine e l’innovazione tecnologica spinta, renderebbe tutto molto più economico. Il problema è che molte persone potrebbero essere completamente disoccupate inoltre molte voci di spesa in un budget famigliare sono pressochè immuni dall’impatto della tecnologia (es. costo dei terreni e delle abitazioni).
Nuovo paradigma economico
Come uscire da questa spirale? Sempre più economisti e studiosi, da Guy Standing a Frey e Osborne, propongono una soluzione che fino a poco tempo fa sembrava utopica: un reddito di base universale.
Per questo, alcuni economisti propongono un nuovo paradigma economico: l’introduzione di un reddito minimo garantito, una sorta di “dividendo del cittadino” finanziato tassando le imprese che utilizzano robot e automazione avanzata. L’obiettivo sarebbe redistribuire parte della produttività generata dalle macchine, per mantenere equilibrio sociale e stabilità dei mercati.
Non è un pensiero nuovo: anche Friedrich von Hayek, padre del liberalismo economico, considerava un dividendo universale compatibile con un mercato efficiente. Oggi, con l’AI che minaccia di sostituire intere categorie professionali, la proposta torna d’attualità come misura di sopravvivenza del sistema stesso.
In definitiva, l’avanzata dell’intelligenza artificiale non rappresenta solo una sfida tecnologica, ma un profondo cambiamento culturale ed economico. Se non si ripensa il rapporto tra uomo, lavoro e macchina, rischiamo un futuro efficiente ma diseguale, in cui la tecnologia avanza più velocemente della nostra capacità di adattarci ad essa.
L’orizzonte della singolarità
Oltre la cronaca economica, c’è un tema più profondo: quello della singolarità tecnologica.
Ray Kurzweil (ad oggi CTO di Google) prevede che entro il 2045 le macchine supereranno la capacità cognitiva umana e inizieranno a migliorarsi autonomamente.
Gli esseri umani si fonderanno con le macchine (umani potenziati con impianti cerebrali, quindi cyborg). Questo percorso è già cominciato con Neuralink: nel Gennaio 2024 annuncia di aver impiantato nel cervello umano un dispositivo con l’obiettivo di consentire a una persona, affetta da grave paralisi, di controllare un computer, un braccio robotico, una sedia a rotelle o un altro dispositivo con il solo Pensiero.
Se la Singolarità accadesse, non sarebbe solo il lavoro a cambiare, ma la civiltà intera. In un mondo dove la conoscenza si concentra in algoritmi e reti neurali, quale spazio resterebbe per l’intelligenza umana, per la creatività, per il valore?
Potremmo assistere alla nascita di un’economia post-umana, dove la produzione non ha più bisogno di lavoratori, ma di energia e dati. La sfida, allora, non sarà solo economica, ma etica, politica e sociale: come redistribuire il potere in un sistema in cui il sapere stesso è automatizzato?
Conclusione
La crescente spinta all’ottimizzazione dei costi e all’aumento della produttività sta portando le imprese a sostituire una parte crescente della forza lavoro con le macchine (Amazon ha licenziato di recente 30.000 lavoratori). L’automazione riguarda soprattutto le mansioni ripetitive e prevedibili, ma la sua frontiera si estende rapidamente anche ai lavori cognitivi.
Restano centrali, tuttavia, i settori “a valore umano”, come assistenza, educazione, arte, ricerca, salute, benessere, sport e turismo, dove l’interazione, la creatività e l’empatia non possono essere replicati dalle macchine.
L’innovazione tecnologica produce tre effetti principali: sostituzione, creazione di nuovi ruoli e incremento della produttività. Le macchine possono sostituire l’uomo in molti compiti, ma allo stesso tempo generano nuove professioni che richiedono competenze più complesse e capacità di collaborazione con le tecnologie. L’aumento della produttività può accrescere il reddito complessivo, ma i benefici dipendono da come vengono distribuiti all’interno della società.
Le conseguenze dell’intelligenza artificiale sul lavoro, quindi, non sono determinate dalla tecnologia in sé, ma da come viene implementata. Le politiche pubbliche, la formazione e la regolamentazione del mercato del lavoro giocano un ruolo decisivo nel trasformare l’automazione in un motore di inclusione anziché di disuguaglianza.
Come ricordano Acemoglu e Restrepo, la sfida non è temere che le macchine “rubino” il lavoro, ma orientare l’innovazione verso la complementarità con l’uomo, non verso la sua sostituzione.
L’economia del XXI secolo sarà giudicata non dalla velocità dell’innovazione, ma dalla capacità di garantire dignità e senso al lavoro umano. Governare la tecnologia significa viverla come un’estensione del nostro potenziale; subirla significa accettare di diventare superflui.
In definitiva, l’automazione non è un destino inevitabile, ma una scelta collettiva: dipende da come le società decidono di integrare la tecnologia nei propri sistemi produttivi, educativi e culturali.
Nicola Lanzolla, Curioso per natura. Coerente per scelta

Approfondimenti:
Acemoglu, D., & Restrepo, P. , Automation and Rent Dissipation: Implications for Wages, Inequality, and Productivity: Acemoglu_Restrepo_May 2024
FRED (Federal Reserve Economic Data) : What is FRED? | Getting To Know FRED
Kurzweil, R. (2005). La Singolarità è vicina – Quando l’Umanità supera la biologia, APOGEO
Kurzweil, R. (2024). La Singolarità è più vicina – Quando l’Umanità si unisce all’AI, APOGEO
Kurzweil, R. (2012). Come creare una mente. APOGEO
OECD (Organisation for Economic Co-operation and Development): Employment Outlook 2025; OECD Employment Outlook 2025 | OECD
Piketty, T. (2014). Il capitale nel XXI secolo, Bompiani
Martin Ford, Il Futuro senza lavoro – Accelerazione tecnologica e macchine intelligenti – Il Saggiatore, 2015-2017
Ocse: Job creation and local economic development 2018















