
L’evidenza empirica più recente smonta una delle narrazioni dominanti sull’intelligenza artificiale: il problema non è che l’AI “non funziona”, ma che le organizzazioni non riescono a trasformarla in valore sistemico.
Il PwC Global CEO Survey 2025–2026 rileva che oltre la metà dei CEO non ha ancora osservato benefici economici tangibili dall’adozione dell’AI, e solo una quota minoritaria segnala miglioramenti simultanei in costi e ricavi. Il fattore discriminante non è l’investimento in modelli avanzati, ma il grado di integrazione nei processi core e nella strategia d’impresa.
Il dato è coerente con il McKinsey Global State of AI 2025: l’uso dell’AI è ormai diffuso nella maggioranza delle imprese, ma la scalabilità e l’impatto a livello enterprise restano limitati. L’AI viene adottata, ma raramente viene istituzionalizzata.
Gli studi sperimentali più recenti confermano che l’AI può aumentare la produttività, ma con effetti diseguali e non sempre positivi per tutti. Un field experiment su larga scala nell’e-commerce (2025) mostra che l’introduzione di strumenti di generative AI produce incrementi misurabili nelle vendite e nella produttività, ma con forte eterogeneità: i benefici sono più marcati per operatori meno esperti e segmenti meno maturi.
Analogamente, uno studio longitudinale randomizzato su 6.000 knowledge workers (2025) documenta riduzioni significative del tempo dedicato a email e compiti routinari, ma effetti più deboli sulle attività che richiedono coordinamento e decisioni complesse. L’AI accelera il lavoro individuale; fatica a trasformare il lavoro collettivo e organizzativo.
Ma l’evidenza non è univoca: un recente studio randomizzato controllato su sviluppatori software esperti (METR, 2025) mostra un risultato controintuitivo: l’uso dell’AI può rallentare i profili senior, aumentando il tempo necessario per completare task complessi. L’AI non sostituisce automaticamente l’expertise; talvolta interferisce con essa.
Il messaggio empirico è che l’AI non è un moltiplicatore neutrale di performance. Se la produttività è eterogenea, la governance diventa la vera variabile critica.
Il PwC Responsible AI Survey 2025 mostra che le imprese con framework strutturati di Responsible AI — monitoraggio dei modelli, inventory dei casi d’uso, accountability cross-funzionale — ottengono migliori risultati economici e una riduzione misurabile dei rischi operativi.
Analogamente, la McKinsey Global AI Trust Maturity Survey 2025 evidenzia che la maggior parte delle organizzazioni si colloca ancora a livelli intermedi o bassi di maturità nella governance dell’AI, con gap significativi su data governance, risk indicators e incident response. Qui si coglie un punto strutturale: l’adozione dell’AI corre più veloce della capacità di governarla. Il rischio non è solo operativo; è istituzionale.
Un ulteriore dato empirico rafforza questa diagnosi. Il Global Trust in AI Report 2025 (University of Melbourne – KPMG) documenta che oltre la metà dei lavoratori utilizza l’AI senza dichiararlo ai propri datori di lavoro, spesso caricando dati sensibili e senza verificare l’accuratezza degli output. Questo produce una crisi di attribuzione della responsabilità:
- Chi risponde delle decisioni assistite da AI?
- Chi certifica la qualità dell’output?
- Chi controlla i dati e le distorsioni?
La questione è costituzionale: riguarda la titolarità del potere decisionale e la tracciabilità delle scelte in ambienti sempre più mediati da sistemi algoritmici. L’evidenza più recente suggerisce che l’AI stia diventando un’infrastruttura di coordinamento e di esercizio del potere, non solo uno strumento di efficienza. Modifica i flussi informativi, ridefinisce chi decide, anticipa o sostituisce giudizi umani, sedimenta prassi operative che finiscono per assumere un valore normativo implicito.
Quando manca una governance esplicita, si forma una “costituzione materiale algoritmica”: un insieme di regole non deliberate, ma prodotte dalla somma di automatismi, scorciatoie operative e dipendenze tecnologiche.
L’evidenza empirica converge sul fatto che il valore dell’AI non dipende dalla potenza dei modelli, ma dalla qualità delle istituzioni che li governano. Senza architetture di accountability, controlli sugli impatti e una chiara attribuzione delle responsabilità, l’AI non rafforza le organizzazioni. Ne riorganizza il potere senza dichiararlo.



