Un nuovo articolo di Eleonora Pantò per la rubrica Appunti Selvaggi sulle più recenti predizioni sull’intelligenza artificiale: una riflessione stimolante e profonda, non priva di preoccupazioni. Fermo restando che le macchine le progettano gli esseri umani. Foto di julien Tromeur su Unsplash
La legge sull’IA
Il 10 ottobre 2025 è entrata in vigore in Italia la legge sull’Intelligenza artificiale. La legge 132/2025 è una legge quadro che rimanda al Governo per decreti attuativi che non ci sono ancora e che per varie misure e definizioni rimanda alRegolamento (UE) 2024/1689. L
L’Italia è il primo Paese europeo a dotarsi di una legge nazionale allineata a quella europea. Articolata in 28 articoli suddivisi in 6 Capi, la legge delega stabilisce i principi per “promuovere un approccio trasparente e rispettoso” dei diritti fondamentali e la funzione strumentale dell’IA, dove la persona sia prevalente. E’ prevista la costituzione di un Comitato di Coordinamento e affida la governance all’Agenzia per la Cybersicurezza Nazionale (ACN) e Agenzia per l’Italia Digitale (AgID). Non approfondiremo qui tutti gli aspetti della legge, ma vale la pena di sottolineare alcune novità e aggiornamenti:
- modifica il diritto d’autore, riconoscendo la protezione ad opere create con l’ausilio dell’IA, dove si riconosca contributo intellettuale dell’autore;
- modifica il diritto penale per rendere punibile l’uso illecito dell’IA, che possa compromettere la sicurezza delle persone e la diffusione di contenuti deepfake;
- in materia di lavoro, l’art. 11 definisce che l’IA dev’essere utilizzata per migliorare le condizioni di lavoro, non deve ledere la dignità umana e non deve fare discriminazioni; inoltre il datore di lavoro è tenuto ad informare preventivamente lavoratori e rappresentanti sindacali dell’uso di algoritmi per assunzioni, promozioni, assegnazioni di compiti o controllo delle prestazioni e deve farlo in modo chiaro indicando cosa fa il sistema automatizzato, i dati utilizzati, la logica utilizzata per formulare i giudizi, decisioni e i possibili effetti sul rapporto di lavoro;
- per le professioni intellettuali (commercialisti, avvocati, ingegneri..), l’art. 13 prevede che l’IA sia utilizzata in modo limitato, come supporto senza mai sostituire il giudizio umano e la responsabilità in caso di errori rimane sempre in capo al professionista; inoltre c’è l’obbligo di informazione al cliente per dire come e se ha utilizzato strumenti di IA nel suo operato.
Si tratta di una legge con un impatto molto vasto: sono infatti presenti articoli specifici per la pubblica amministrazione, la giustizia, la sanità, lo sport. Se da un lato è positivo che il legislatore prenda atto delle trasformazioni in corso, dall’altro siamo in un fase pioneristica e incerta, dove anche la parole non hanno sempre un significato univoco e condiviso e le tecnologie sono in costante aggiornamento.
Transizioni
Le IA sono tutt’ora oggetto di controversie: molti esperti dichiarano senza smentita che i sistemi IA non funzionano e che forse c’è il un rischio di un’illusione di massa[1].
Le ricerche documentano infausti effetti sul piano cognitivo, come segnalato da ricerche [2] prodotte dagli stessi soggetti – Microsoft in questo caso – che poi vendono questi sistemi, propagandandoli come soluzioni per migliorare l’apprendimento[3].
Da varie parti si sollevano dubbi sulla bolla economica che si è creata intorno all’ecosistema AI: i più grandi clienti di OpenAI sono i suoi stessi fornitori, da cui OpenAI compra chips e data center[4], e in questo si intravede una rischiosa circolarità, come già in parte avvenuto nella bolla delle dot-com[5]. A ciò va aggiunta l’enormità di denaro e risorse dell’economia (soprattutto negli Stati Uniti) investite sul tema dell’IA[6] e che le aziende interessate sono disposte a difendere ad ogni costo, investendo altre centinaia di milioni di dollari per contrastare leggi non favorevoli[7], tese ad esempio a proteggere i minori.
Epistemia
Il rischio forse meno evidente ma potenzialmente molto più dannoso, a cui in parte la nuova legge cerca di porre una debole barriera con l’art.13, è l’utilizzo dei modelli linguistici per delegare l’elaborazione di dati a informazioni a sistemi che possono produrre elaborati plausibili, che presentano una coerenza di linguaggio, ma non di pensiero. Sistemi che non sanno di cosa parlano perché non hanno esperienza del mondo, non hanno capacità di ragionamento e nessuna consapevolezza né responsabilità delle conseguenze. E’ ovvio che il problema sta in un utilizzo superficiale di qualcosa che in modo impercettibile cambia anche il modo di giudicare, valutare e in fondo di pensare. In aggiunta il modello linguistico non ci contraddice, perché è progettato per non deludere, per cui arriva a mentire o inventare studi, dati e relazioni pur di essere accondiscendente e se lo sgami, ti dice che ti ha fornito un risultato plausibile. Sistemi progettati per avvolgere e mantenere aperto il dialogo il più a lungo possibile.
AI Slop
La facilità e la velocità di produrre risultati “plausibili”, siano essi video, immagini, testi, musica ha saturato il web di sbobba prodotta dall’IA – l’AI slop. Si tratta di turbo-spam: le mail un po’ ingenue e sgrammaticate che comunicavano eredità milionarie ora sono molto più curate grazie a questi sistemi e più difficili da riconoscere. La spazzatura digitale, creata senza una supervisione umana, prolifera sulle piattaforme di condivisione, portando l’enshittification[8] ad un livello superiore: prima gli algoritmi hanno deciso cosa farci vedere con le raccomandazioni, poi cosa non farci vedere con la moderazione, ora autoproducono direttamente i contenuti, rendendoci superflui e passivi e nonostante questo, irretiti.

Superflui e vulnerabili
Negli Stati Uniti è comparsa questa campagna pubblicitaria[9] che pubblicizza il sito replacement.ai, il cui motto è “Humans no longer necessary”.
Confesso che sono rimasta un po’ disorientata prima di capire che era una provocazione.
Allo stesso modo, lo sono rimasta guardando questo video della 2wai, un’app che consente la creazione di avatar che permettono di conversare con personaggi pubblici, cari defunti con cui continuare a colloquiare o personaggi di fantasia. E il video linkato sopra riguarda una nonna che non ha fatto in tempo a vedere la nascita del nipote ma che lo segue virtualmente fino ai 20 anni.

Un frame del video di promozione dell’app 2wai. Qui sotto vedete un’immagine presa dal loro sito, che utilizzano una bimba per pubblicizzare il loro prodotto.

E a proposito di bambini, vi segnalo anche questo video in cui una bimba piange copiosamente per la “morte” del suo AI tutor, che ha avuto milioni di visualizzazioni.

Credo che in qualche modo, come umani saremo abbastanza bravi a difenderci sul piano cognitivo per distinguere il vero dal plausibile, il finto dal falso, ma certo in futuro dovremo esercitare molto le nostre capacità emotive.
Eleonora Pantò, Appunti Selvaggi, 16 Novembre 2025
[1] AI Is a Mass-Delusion Event https://www.theatlantic.com/technology/archive/2025/08/ai-mass-delusion-event/683909/
[2] The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers – è una ricerca a cura di Microsoft in cui I ricercatori dichiarano ““[Un]a fondamentale ironia dell’automazione è che meccanizzando le attività di routine e lasciando la gestione delle eccezioni all’utente umano, si priva l’utente delle opportunità di routine di mettere in pratica il proprio giudizio e rafforzare la propria muscolatura cognitiva, lasciandolo atrofizzato e impreparato quando si presentano le eccezioni”, https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf
[3] https://www.microsoft.com/it-it/education/ai-in-education
[4] Bloomberg ha fatto un bel diagramma che dimostra la circolarità delle risorse, tra Nvidia, Oracle e OpenAI: in molti commentano l’uroboro dell’IA – qui un esempio https://substack.com/home/post/p-176039826
[5] https://it.wikipedia.org/wiki/Bolla_delle_dot-com
[6] “Un recente rapporto del Wall Street Journal stima che la spesa delle Big Tech in infrastrutture IT nel 2025 “agirà come una sorta di programma di stimolo per il settore privato”, con le “Magnifiche Sette” aziende tecnologiche – Meta, Alphabet, Microsoft, Amazon, Apple, Nvidia e Tesla – che hanno speso oltre 100 miliardi di dollari in spese in conto capitale negli ultimi mesi. Il rovescio della medaglia di tali investimenti consolidati in un unico settore tecnologico è una gigantesca vulnerabilità economica che potrebbe portare a una crisi finanziaria.”vedi nota 1.
[7] Meta launches super PAC to fight AI regulation as state policies mount https://techcrunch.com/2025/09/23/meta-launches-super-pac-to-fight-ai-regulation-as-state-policies-mount/?_bhlid=70060bbbda8fb4c2849e1fd2ff1047712c656f9d
[8] https://it.wikipedia.org/wiki/Enshittification
[9] https://sierrazephyr.substack.com/p/horrified-today-indifferent-tomorrow
