Questa mutazione del comportamento degli utenti sta avendo conseguenze enormi: i siti informativi e divulgativi stanno vivendo un crollo di traffico organico senza precedenti. E non parliamo solo di piccoli blogger: anche grandi testate internazionali ne sono travolte.
I dati del crollo
Secondo Digital Content Next, testate come NYT, Vox e Condé Nast hanno perso fino al 25% di traffico referral in poche settimane. La media annua segna un calo del 10% su base YoY: –7% per i siti di news, –14% per quelli generalisti.
Il New York Post riporta numeri ancora più drammatici: Forbes –40%, HuffPost –40%, DailyMail –32%, CNN –28%, Washington Post –27%, Wall Street Journal –17%. Tutto ciò nonostante eventi di grande rilevanza che avrebbero dovuto far crescere le visite.
Anche il Wall Street Journal conferma: i principali siti di notizie sono stati “schiacciati” dall’AI. Business Insider ha addirittura dimezzato il personale per il calo del traffico, segno che il fenomeno non è solo tecnologico ma anche occupazionale.
Le prospettive non sono incoraggianti: secondo SEMrush, entro 2–4 anni il traffico generato dalle risposte AI supererà quello proveniente dalla ricerca organica tradizionale. Se i siti non si adattano, il rischio è la marginalizzazione definitiva.
La tendenza alle zero-click searches è ormai consolidata: Coalition Technologies stima che già oggi il 60% delle ricerche non produce alcun click verso siti web. La maggior parte degli utenti trova ormai la risposta direttamente su Google.
Dalla SEO all’AEO
Non è un caso che chi lavora in ambito SEO parli quasi esclusivamente di Answer Engine Optimization (AEO) e di Generative Engine Optimization (GEO): entro il 2026 i brand che non si adatteranno potrebbero perdere fino al 40% del traffico organico (fonte).
Questo calo di traffico si traduce in un impatto diretto sulle revenue pubblicitarie. Meno visite = meno impression = meno clic = meno guadagni. Per molti siti significa mettere in discussione l’intero modello economico basato sostanzialmente su banner e AdSense.
La crisi non riguarda solo il traffico, ma il cuore stesso del modello di internet degli ultimi vent’anni. Google e gli editori hanno prosperato grazie agli annunci pubblicitari legati alla ricerca, ma se le visite calano, l’intero sistema rischia di collassare.
Un web che si è scavato la fossa
Tuttavia, la responsabilità non è esclusivamente delle AI. I siti web hanno ampiamente contribuito a scavarsi la fossa: negli anni immediatamente precedenti all’avvento dell’AI, internet è stato invaso da portali clickbait, contenuti superficiali e strategie di SEO aggressiva.
Accanto a fonti autorevoli come Stack Overflow, sono proliferati siti come Quora, spesso caotici e poco affidabili, che hanno privilegiato la quantità di risposte rispetto alla qualità. Un ecosistema informativo fragile, destinato a crollare al primo urto tecnologico.
Il caso Aranzulla è emblematico: “tutorial” pensati per intercettare il maggior numero possibile di ricerche e costruiti più per scalare le SERP che per informare davvero. Un modello replicato da migliaia di siti che hanno progressivamente degradato la qualità del web.
Il risultato è stato chiaro: negli anni pre-AI, internet si è trasformato da fonte di conoscenza in fonte di revenue, tradendo i principi originari del www e minando la fiducia degli utenti.
Il vuoto colmato dall’AI
Quando “finalmente” sono arrivate le AI, la scelta è sembrata naturale: risposte dirette e puntuali, prive di banner e pop-up, e soprattutto filtrate – almeno in teoria – da clickbait, off-topic e promozioni malcelate.
L’AI ha colmato il vuoto lasciato da tutti quei siti che avevano sacrificato qualità e autorevolezza sull’altare del business, offrendo l’illusione di poter svolgere al posto nostro quel lavoro di filtraggio e selezione che era diventato inevitabile.
Reinventarsi o sparire
E adesso? I siti web non spariranno, ma per sopravvivere dovranno reinventarsi. Non basta più produrre contenuti “SEO friendly”: i siti informativi dovranno imparare a scrivere per le AI, strutturando i testi come risposte sintetiche pronte a essere citate nei risultati generativi.
Questa è la logica dell’AEO e della GEO: usare metadati, FAQ, formati strutturati e contenuti profondi, progettati per essere recepiti dalle AI e non (solo) dai crawler tradizionali (fonte).
Ma la tecnica, come sempre, non basta. È necessaria anche una rinascita della qualità: dati originali, analisi proprietarie, storytelling autentico, contenuti che non possano essere sintetizzati da un LLM. In altre parole, offrire ciò che l’AI non può generare autonomamente.
Nuovi modelli di sostenibilità
Matthew Prince, CEO di Cloudflare, ha proposto un modello di business: far sì che le AI compensino i creatori, come Spotify fa con gli artisti, ristabilendo un equilibrio tra chi produce contenuti e chi li utilizza (Business Insider).
In ogni caso, il futuro sarà probabilmente dominato dalle risposte zero-click delle AI, e lo spazio residuo se lo contenderanno solo gli attori in grado di offrire valore autentico: esperienze vissute, opinioni, ricerca originale e pensiero critico, tutti elementi non “generabili”.
Conclusione
La “buona” notizia è che questa ennesima rivoluzione del web potrebbe comportare, almeno per qualche realtà futura, un ritorno alle origini: meno SEO esasperata, meno clickbait, contenuti di maggior valore e rinnovata attenzione all’utente e alle sue reali necessità.
Fonti e riferimenti
- Digiday – Google AI Overviews e calo del traffico referral
- New York Post – Drastico calo di traffico per i top news site
- Wall Street Journal – News publishers “schiacciati” dall’AI
- SEMrush – L’impatto della ricerca AI sul traffico SEO
- Coalition Technologies – AI search e zero-click searches
- Wikipedia – Answer Engine Optimization (AEO)
- Business Insider – Il modello di Matthew Prince