Indice dei contenuti
In questo momento, una porzione sorprendentemente ampia della capitalizzazione azionaria statunitense ruota attorno a sette aziende che offrono servizi di intelligenza artificiale. I loro prodotti e le loro promesse occupano da mesi le prime pagine, polarizzando gli investimenti e ridisegnando le aspettative su produttività e lavoro. Tra i messaggi più seducenti di questa campagna di marketing permanente c’è l’idea che l’IA possa rimpiazzare intere fasce di mansioni, lasciando agli umani un ruolo di controllo e supervisione: una declinazione estrema dell’approccio noto come “human in the loop” (HITL), in cui una persona interviene nei passaggi decisivi di un processo automatizzato.
In realtà, la prospettiva di un’IA capace di sostituire il lavoro umano cela tensioni più profonde. Non è solo una questione di limiti tecnici: gran parte dei modelli attuali richiede infrastrutture colossali, consumi energetici crescenti e un esercito invisibile di lavoratori a basso salario che sorvegliano, correggono e nutrono gli algoritmi — una manodopera che la retorica della piena automazione tende quasi sempre a occultare.
A spingere questa visione non sono tanto le necessità reali del mercato quanto la narrativa di crescita perpetua costruita da pochi colossi già saturi nei propri settori, che oggi presentano l’IA come nuova frontiera di espansione. La promessa è la stessa di sempre: ridurre il personale, spostare il potere contrattuale lontano dai lavoratori e incanalare l’entusiasmo degli investitori. Ma, a differenza di altre ondate di automazione del passato, qui affiora un problema economico concreto che la narrazione pubblica tende a rimuovere. È un nodo che definisce l’intero fenomeno e che, più avanti, mostrerà tutta la sua portata.
In questo articolo, che non prometto breve, proverò a far luce sugli aspetti problematici di questo nodo: da dove nasce la promessa dell'IA “salva-produttività”, come è sostenuta la bolla finanziaria che la alimenta, perché l’equilibrio economico che la sostiene è molto più fragile di quanto sembri, e le inevitabili conseguenze pratiche per chi lavora in un'economia che rischia di pagare un conto altissimo.
Il mito della crescita infinita
La prima cosa da considerare è che le aziende che producono IA non stanno cavalcando un’onda innovativa priva di ostacoli: la narrativa della crescita perpetua cozza con un dato strutturale innegabile: i mercati principali su cui operano queste aziende sono ormai saturi. La ricerca, la pubblicità online, i sistemi operativi, il cloud, l’hardware e le piattaforme social mostrano da anni dinamiche da “mercato maturo”: quote consolidate, costi d’acquisizione elevati, margini difesi più da lock-in e rendite di posizione che da vera espansione. A differenza delle fasi pionieristiche del web o dell’e-commerce, in cui ogni nuovo cliente migliorava gli economics unitari, qui la promessa di crescita viene proiettata su un'adiacenza (la IA generativa) che è strutturalmente capex-intensive, energivora e - soprattutto - soggetta a rendimenti decrescenti: più modelli, più dati e più potenza non garantiscono margini migliori, mentre aumentano i costi vivi (addestramento, inferenza, data-center) e i rischi legali (copyright, privacy, responsabilità).
Ne risulta un paradosso: per sostenere target di ricavo sempre più ambiziosi in mercati esausti, l’IA diventa la nuova narrativa di crescita, ma questa narrativa dipende dall'idea - tutta da dimostrare - che si possano sostituire su larga scala mansioni umane con sistemi che, per funzionare decentemente, richiedono proprio più supervisione, più dati curati, più infrastruttura. Quello che viene pubblicizzato come "crescita per tutti" è in realtà il tentativo di spremere un mercato già saturo, spostando risorse da un comparto all’altro con costi in aumento e rischi sistemici che il marketing tende a occultare.
Dogshit unit-economics
Le società che oggi dominano il dibattito sull’IA non stanno attraversando una semplice fase di rodaggio: bruciano denaro in modo strutturale, indipendentemente dal momento di lancio o dall’espansione iniziale. Non si tratta di un classico scenario da startup in perdita nei primi anni — con spese elevate che poi si ammortizzano man mano che l’attività cresce — ma di un modello economico intrinsecamente deficitario, che fatica a generare margini positivi anche quando il prodotto è già diffuso. Ogni nuovo cliente non migliora i conti ma li peggiora, perché i costi variabili crescono più rapidamente dei ricavi. Nel caso dell'IA generativa, ogni interazione aggiuntiva richiede potenza di calcolo, energia elettrica, raffreddamento e larghezza di banda: risorse che hanno un costo crescente e poco comprimibile. A complicare il quadro, ogni nuova generazione di modelli comporta un salto nei requisiti: dataset più vasti da acquisire e ripulire, infrastrutture di addestramento più costose, GPU di fascia sempre più alta, consumi elettrici e idrici in aumento. Invece di ridursi, il costo di servire l’utente tende a crescere con l’evoluzione del prodotto.
Il contrasto con le grandi piattaforme digitali “storiche” è evidente: servizi come motori di ricerca, social network o marketplace hanno beneficiato di economie di scala classiche, dove il costo marginale per ogni nuovo utente era in discesa: gestire cento milioni di utenti non costava cento volte più che gestirne un milione. Nell’IA generativa accade l’opposto: più utenti significa più capacità di calcolo da mantenere attiva, più modelli da aggiornare e più infrastruttura da alimentare, con un impatto diretto e lineare — spesso esponenziale — sui costi.
Non serve una laurea in economia per rendersi conto che si tratta di una situazione paradossale e priva di prospettive a lungo termine, fotografata magistralmente da Ed Zitron con l'espressione “dogshit unit-economics”. Uno scenario che ribalta completamente il paradigma economico su cui si fondano i mercati tech: invece di scalare a costi decrescenti, il settore dell'IA cresce a costi espansivi, il che lo rende fragile di fronte a cali di liquidità o contrazioni negli investimenti.
In conclusione, si tratta di un modello che non ha alcuna chance di raggiungere una redditività soddisfacente. E cosa succede quando ci si rende conto che un investimento non ha modo di raggiungere il break-even point e non offre prospettive credibili di generare utili nel prossimo futuro?
Bilanci contorti, conti gonfiati
Per prima prima cosa, succede che si prova a prendere tempo con l'ingegneria contabile, alterando la percezione di ricavi e marginalità nel disperato tentativo di coprire il gigantesco baratro di cassa. Un pattern ricorrente è lo scambio incrociato di valore tra partner: ad esempio, un grande fornitore cloud concede capienza di calcolo come parte di un “investimento” strategico; l’azienda di IA la impiega per addestramento e inferenza e la registra come costo operativo; il fornitore, a sua volta, può riconoscere quella stessa capienza come ricavo del proprio business cloud. La medesima cifra finisce così per comparire in tre voci diverse (investimento, costo, ricavo), gonfiando il quadro aggregato senza che vi sia un corrispondente flusso di cassa.
È, in sostanza, quanto avvenuto tra Microsoft e OpenAI: Microsoft ha concesso a OpenAI credito d’uso dei propri data center come parte di un “investimento” strategico, valorizzato a livello contabile in circa 10 miliardi di dollari. Per OpenAI quella cifra compare come costo operativo per addestrare e servire i modelli, mentre per Microsoft è stata riconosciuta come ricavo cloud da cliente. La medesima grandezza economica compare così, in contesti diversi, come investimento, costo e ricavo, contribuendo a una narrativa di crescita senza un corrispondente afflusso di cassa.
Una dinamica simile coinvolge Nvidia: molti operatori di data-center, per espandersi rapidamente, hanno ipotecato i lotti di GPU come collaterale per ottenere credito, riportando nei bilanci il valore di quelle schede sia come attività sia come garanzia di finanziamento. In questo modo il patrimonio apparente si gonfia, ma non aumenta la liquidità effettiva né la capacità di generare utili.
Questa danza contabile consente di presentare “ricavi” e “asset” superiori a quanto effettivamente incassato, e di mascherare perdite operative croniche: finché il capitale continua ad affluire e il credito resta facile, la finzione regge; quando la liquidità si restringe, il castello di carte diventa evidente.
Questa sorta di "impalcatura" contabile si accompagna spesso ad altri accorgimenti:
- Ricavi “annualizzati” a partire dal mese migliore (o dal run-rate di un grande cliente), che proiettano su base annua picchi non ripetibili.
- Ampio uso di metriche “adjusted” (EBITDA rettificato, ricavi normalizzati, esclusioni selettive di voci di costo) che attenuano l’impatto delle perdite operative.
- Crediti di fornitura (capacity credits, vendor credits) scambiati come contropartite economiche, che migliorano i numeri contabili più di quanto migliorino la liquidità.
- Riclassificazioni e partite tra parti correlate che rendono opaco capire chi stia effettivamente pagando cosa (e quando).
L’effetto complessivo è una narrazione di crescita sostenuta da ricavi non interamente monetari, che maschera perdite croniche e rinvia il confronto con i fondamentali (quanto costa davvero servire un utente?). Finché i capitali affluiscono e il credito è abbondante, il gioco regge. Sfortunatamente, i numeri non riconciliati con la cassa prima o poi presentano sempre il conto: è sufficiente un colpo di vento - tassi in aumento, investitori che tirano il freno, clienti che tagliano la spesa, crediti di fornitura che scadono - per far crollare questo castello di carte.
Infrastrutture e debiti: GPU, data center, ipoteche
Un aspetto spesso trascurato nel dibattito sull’IA riguarda l’enorme apparato fisico necessario per mantenerla in funzione: data center di scala industriale, decine di migliaia di GPU di fascia alta, sistemi di raffreddamento a liquido, continui consumi di energia e acqua, oltre a personale tecnico per la manutenzione. Questa infrastruttura ha costi fissi elevatissimi, che si sommano ai costi variabili di ogni sessione di addestramento o di ogni richiesta degli utenti.
Per sostenere l’espansione, molti operatori del settore — non solo i produttori di IA, ma anche le aziende che forniscono loro la capacità di calcolo — hanno fatto ricorso a finanziamenti garantiti dagli stessi asset tecnologici: in pratica, ipotecano le GPU acquistate, usandole come collaterale per ottenere prestiti. Il problema è che, a differenza di un immobile o di un macchinario industriale, le GPU perdono valore molto in fretta: il ciclo di innovazione le rende obsolete in pochi anni (talvolta pochi mesi), e il loro valore di rivendita crolla rapidamente.
A questa obsolescenza accelerata si aggiunge un’alta usura operativa: i cicli di addestramento di modelli di grandi dimensioni possono durare settimane e coinvolgere decine di migliaia di chip; non è raro che, al termine del processo, una quota significativa di GPU risulti guasta o degradata, aumentando i costi di sostituzione e manutenzione.
Molti fornitori di capacità computazionale, come i grandi intermediari di infrastrutture cloud specializzate in IA, operano con livelli di debito molto alti e contratti di fornitura a breve termine stipulati con le big tech. Se quei contratti non venissero rinnovati — o venissero ridotti a fronte di un rallentamento della domanda o di tagli agli investimenti — queste aziende rischierebbero insolvenze a catena, con possibili effetti domino sull’intero ecosistema: dai fornitori di hardware ai gestori di data center, fino ai produttori di energia.
Il risultato è che l’apparente solidità di questa nuova “economia dell’IA” poggia su asset volatili e debiti ingenti, in un settore in cui la capacità produttiva invecchia più in fretta dei piani di rimborso dei prestiti: una combinazione che rende fragile non solo le singole aziende, ma l’intera filiera tecnologica su cui l’IA si regge.
L’impatto sull'economia reale
A questo punto, dopo aver messo in fila costi, fragilità e acrobazie contabili, resta una domanda cruciale: tutti questi azzardi compiuti per tenere in piedi una tecnologia che appare ben poco sostenibile sono giustificati da un’efficacia davvero dirompente dell’IA? Il modo migliore per rispondere è guardare ai dati dell'economia reale. E anche in questo caso, sfortunatamente, le evidenze empiriche suggeriscono un quadro tutt'altro che roseo. Nonostante il clamore mediatico e le aspettative sollevate, le evidenze empiriche finora disponibili mostrano che l’adozione dell’IA non ha prodotto trasformazioni macroscopiche nei principali indicatori economici.
Uno studio dell’University of Chicago (“Early Economic Impacts of Generative AI”, SSRN, 2025) rileva che l’introduzione di sistemi di IA generativa non ha inciso in modo significativo su salari, ore lavorative o reddito medio per addetto nei comparti analizzati. L’impatto occupazionale è risultato marginale e concentrato in nicchie altamente specializzate, senza riflessi sulla produttività aggregata.
Un’analisi condotta dal MIT (“We Analyzed 16,625 Papers to Figure Out Where AI Is Headed Next”, MIT Technology Review, 2019) ha evidenziato che circa il 95 % delle aziende che hanno sperimentato l’IA non ha riportato risultati economici tangibili o ha addirittura registrato perdite nette rispetto agli investimenti effettuati.
Questo divario tra aspettative e risultati alimenta una vera e propria illusione collettiva, gonfiata dalle campagne di marketing e dall’enfasi di media e investitori. Ne deriva un paradosso: mentre la retorica dominante annuncia che l’IA ridurrà drasticamente il costo del lavoro, le prove sul campo dicono che i benefici sono finora limitati, mentre i costi (computazionali e di manodopera umana di supporto) restano elevati.
“Agenti” in saldo: il miraggio dell’efficienza
A questo punto, qualcuno potrebbe obiettare che l’economia reale non è fatta solo di aziende che investono nell'IA, ma anche — e soprattutto — di organizzazioni che usano l'IA in modo pragmatico e quotidiano. La tesi è semplice: magari i grandi player bruciano denaro, però la maggioranza sta già beneficiando del “semplice” impiego di agenti che sbrigano parte del lavoro. Parliamo, in altre parole, dei "vantaggi economici" risultanti dall'utilizzo standard di strumenti come ChatGPT, Claude o Copilot mediante l'invio di prompt più o meno elaborati: bozze di email, verbali automatizzati, documenti prodotti sulla base di template, vibe coding e così via. In molte realtà questo flusso è già diventato routine: il dipendente istruisce l'agente affinché svolga il lavoro al posto suo, revisiona l'output e infine lo rivende come farina del proprio sacco, con l'impressione di risparmiare un sacco di tempo e ridurre nel contempo i rischi legati a refusi, errori umani, ecc.
Fin qui, tutto sembra funzionare. Il problema è che la convenienza strepitosa che rende vantaggioso questo trade-off è tenuta in piedi da una sorta di periodo promozionale permanente: crediti gratuiti, sconti sulle API, bundling con altri servizi e contabilità che sposta i costi dall’uso ai canoni, e in generale prezzi oggettivamente troppo bassi, che non sono evidentemente in grado di coprire i costi reali di chi eroga queste tecnologie (calcolo, energia, infrastruttura, supervisione). L'intero settore si trova attualmente immerso in una sorta di dumping tecnologico: è grossomodo la stessa strategia con cui, negli anni duemila, Amazon Web Services praticò prezzi di storage sotto costo con l'intento di incrementare a dismisura la propria base utenti a discapito dei competitor, e che adottò Uber quando offrì corse scontate per scalzare i taxi tradizionali: il problema è che, nel caso della IA, stavolta non parliamo di un singolo comparto, ma di una strategia che coinvolge milioni di persone in quasi tutti i principali settori produttivi — dal customer care alla programmazione, dall’editoria al marketing, dalla finanza operativa all’istruzione, fino alla sanità amministrata e alla PA.
Quando i sussidi diretti e indiretti finiranno o i listini torneranno a riflettere i costi, questa apparente "efficienza" rischierà di trasformarsi in rincari improvvisi, contrazioni dei servizi, lock-in onerosi e shock occupazionali diffusi, compromettendo l’operatività quotidiana di un numero enorme di organizzazioni e lavoratori.
Il conto finale per i lavoratori
Se la bolla dell’IA dovesse sgonfiarsi bruscamente, i primi a pagarne il prezzo sarebbero i lavoratori. Il paradosso è che molti di loro rischiano di essere colpiti due volte: prima sostituiti o dequalificati da strumenti che promettono di rimpiazzarli ma che, in realtà, non possono svolgere il loro lavoro con la stessa affidabilità; poi espulsi dal mercato quando quei sistemi diventeranno troppo costosi da mantenere e verranno dismessi.
Questa prospettiva è resa particolarmente allarmante dal fatto che la retorica dell’automazione alimenta licenziamenti preventivi, dettati più dall’aspettativa di risparmi che dalla reale capacità dei modelli di sostituire l’uomo. Il risultato è che intere funzioni aziendali vengono ridotte o smantellate, mentre le attività operative continuano a richiedere supervisione e intervento umano, che però è inevitabilmente destinato ad essere marginalizzato ovvero spostato verso ruoli precari, esternalizzati o mal pagati.
Per dirla in altri termini: al momento attuale l'IA non può toglierti il lavoro, ma chi la promuove può convincere il tuo capo a licenziarti (o a pagarti molto meno). E quando i capitali che oggi tengono in vita questi servizi verranno meno, causando la chiusura o il ridimensionamento di molte piattaforme che oggi offrono servizi AI, il danno sarà ormai compiuto. Il personale già licenziato, presumibilmente rimpiazzato o riqualificato in mansioni HITL o freelance a basso compenso, non tornerà automaticamente al suo posto. Avremo così un mercato del lavoro impoverito e frammentato, con competenze interrotte e una platea di lavoratori che, dopo aver addestrato l’IA, si troverà senza un ruolo stabile.
Conclusioni
In definitiva, i rischi più evidenti legati all'utilizzo diffuso delle tecnologie AI non riguardano tanto gli scenari da apocalisse robotica che oggi occupano la maggior parte delle conferenze e degli articoli sul tema, ma un possibile (e ahimé sempre più probabile) crash occupazionale: la combinazione di aspettative gonfiate, licenziamenti prematuri e chiusura improvvisa di servizi non sostenibili può tradursi in shock diffusi in settori cruciali - dalla logistica al customer service, dalla contabilità alla sanità amministrata - con conseguenze che andrebbero ben oltre i bilanci delle big tech.
E quel che è peggio, almeno per chi scrive, è che anche nello scenario più “ottimista” - quello in cui la bolla non scoppierà a breve - i lavoratori rischiano comunque di non guadagnarci nulla. L’extra-valore generato dall’adozione dell’IA, come sempre accade, tende a risalire la filiera, concentrandosi presso chi controlla chip, cloud e piattaforme, mentre a valle non si percepisce alcun vantaggio reale: l'aumento di produttività, quando c’è, viene immediatamente capitalizzato in margini e prezzi di licenza, non in salari più alti o riduzione dell’orario a parità di retribuzione. Anzi: spesso si traduce in aumento della quantità di lavoro richiesto a parità di salario ("tanto adesso c'è l'AI ad aiutarti") e/o tagli di organico, esternalizzazioni e contratti più fragili.
In altre parole, la promessa di “lavorare meno guadagnando di più” non si sta materializzando: l’efficienza viene contabilizzata ai piani alti, mentre ai piani bassi si comprimono tempi, tutele e compensi. Se non si costruiscono meccanismi espliciti di condivisione del dividendo di produttività — contrattazione, trasparenza dei costi, clausole su orari e salari, diritto di audit sugli impatti — l’Intelligenza Artificiale non ridistribuirà spontaneamente i suoi benefici. E così, anche senza un botto spettacolare, potremmo ritrovarci con più precarietà e meno potere contrattuale: un’economia che produce di più, ma non per chi la fa funzionare, con tutte le conseguenze del caso.
Se vogliamo che l’IA produca benessere diffuso, il “dividendo di produttività” va contrattualizzato, non lasciato all'inerzia del mercato. Questo significa legare esplicitamente l'adozione dei sistemi a impegni verificabili su salari, orari e qualità del lavoro; pretendere trasparenza sui costi totali (calcolo, energia, supervisione) e sulla reale resa dei progetti; introdurre clausole di pass-through che trasformino i guadagni di efficienza in buste paga migliori o in tempo libero; fissare periodi di no-layoff e di riqualificazione finanziati da chi implementa l'automazione (e otterrà i benefici maggiori); garantire interoperabilità e portabilità per evitare lock-in che scarichino i rincari a valle; e, cosa non meno importante, dotarsi di un sistema che consenta di misurare in modo oggettivo l'impatto migliorativo dell'adozione di questa tecnologia sulla condizione dei lavoratori: lavorare meno (a parità di retribuzione) o guadagnare di più (a parità di lavoro).
In assenza di queste regole, l'entusiasmo per l'IA continuerà a muovere profitti verso l'alto e rischi verso il basso: più margini per chi controlla chip, cloud e piattaforme, nonché per chi acquista i loro servizi, e più precarietà per chi tiene in piedi i processi. E qui sta il punto finale: se, come tutto sembra indicare, questo mercato non è sostenibile, il giorno in cui la musica si fermerà il conto non sarà pagato dai profeti della crescita, ma - come al solito - da chi lavora.
Fonti e riferimenti
- Spending on AI Is at Epic Levels. Will It Ever Pay Off? — The Wall Street Journal, Eliot Brown & Robbie Whelan (2025).
- $2 trillion in new revenue needed to fund AI’s scaling trend — Bain & Company’s 6th annual Global Technology Report — Bain & Company, Press Release (2025).
- We Analyzed 16,625 Papers to Figure Out Where AI Is Headed Next — MIT Technology Review, Karen Hao (2019).
- Large Language Models, Small Labor Market Effects — SSRN Working Paper, Anders Humlum & Emilie Vestergaard (2025).
- AI as Normal Technology — Knight First Amendment Institute, Arvind Narayanan & Sayash Kapoor (2025).
- Superclusters of Nvidia GPU/AI chips combined with end-to-end network platforms to create next generation data centers — IEEE ComSoc Technology Blog, Alan Weissberger (2024).
- Why Zuckerberg Says Risking Billions on AI Is Worth It — Business Insider (2025).