L’intelligenza artificiale generativa ci ha abituati a un paradosso ormai evidente: i sistemi appaiono sempre più fluidi, rapidi e convincenti, ma proprio questa apparente affidabilità può nascondere uno dei loro difetti più insidiosi, cioè la capacità di produrre risposte sbagliate, inventate o fuorvianti con tono sicuro e plausibile. Finora il tema delle cosiddette “allucinazioni” è stato discusso soprattutto in chiave tecnica o etica. Il passaggio davvero interessante, però, è un altro: in Italia sta diventando anche una questione di diritto dei consumatori.
È in questa chiave che va letta la comunicazione diffusa dall’Autorità Garante della Concorrenza e del Mercato il 30 aprile 2026, con cui l’AGCM ha annunciato la chiusura di tre istruttorie riguardanti DeepSeek, Mistral e NOVA AI. Non si tratta di una multa né di un accertamento definitivo di illecito. I procedimenti si sono chiusi con accettazione di impegni, senza accertamento di infrazione, ai sensi dell’art. 27, comma 7, del Codice del consumo. Ma sarebbe un errore minimizzare la portata del segnale. Anzi, proprio perché l’Autorità ha individuato nel difetto di trasparenza un problema giuridicamente serio, questi casi meritano molta attenzione.
Il punto di partenza è semplice. Se un consumatore usa un chatbot generativo per ottenere informazioni, suggerimenti o supporto operativo, il rischio che il sistema generi contenuti inesatti non è un dettaglio secondario. Può incidere sulla decisione economica dell’utente, sulla sua fiducia nel servizio e, in certi casi, perfino sulla scelta di acquistare un abbonamento o di registrarsi alla piattaforma. È qui che entra in gioco il Codice del consumo.
Gli artt. 20, 21 e 22 del d.lgs. 206/2005 disciplinano le pratiche commerciali scorrette e i profili di ingannevolezza, sia per azione sia per omissione. In termini molto concreti, il professionista non deve presentare il proprio servizio in modo tale da indurre il consumatore medio a una decisione che altrimenti non avrebbe preso, né può omettere informazioni essenziali per una scelta consapevole. Trasposto nel mondo dei chatbot, questo significa che la capacità del sistema di sbagliare non può essere lasciata sullo sfondo, in inglese, in note marginali o in condizioni generali difficili da trovare.
Ed è esattamente questo il cuore dei provvedimenti AGCM. Nel caso DeepSeek, il procedimento descrive il problema come insufficiente informativa sulla possibilità che il modello generi output inesatti, fuorvianti o inventati. Gli impegni accolti prevedono banner permanenti in lingua italiana sotto la finestra di dialogo, avvisi nella fase di registrazione, un rafforzamento delle avvertenze per query su temi sensibili come ambito medico, legale o finanziario, la traduzione dei termini di utilizzo in italiano e, dato particolarmente interessante, un impegno tecnico a ridurre diverse categorie di allucinazioni. L’AGCM valorizza molto il fatto che il nuovo messaggio non si limiti a dire genericamente che il contenuto è “for reference only”, ma inviti in modo esplicito a verificare sempre l’accuratezza delle risposte.
Anche il caso Mistral conferma la stessa linea. L’Autorità ritiene rilevante che il servizio Le Chat renda visibile un disclaimer permanente, prima e dopo il login, via web e via app, con formule che avvertano chiaramente della possibilità di errori nelle risposte. Conta molto, inoltre, che il richiamo sia in lingua italiana e collegato a condizioni di servizio più accessibili. Non è una questione puramente formale. Nel diritto dei consumatori, la trasparenza utile non coincide con la mera esistenza di una clausola: richiede che l’informazione sia percepibile, comprensibile e collocata in un punto del percorso decisionale in cui il consumatore possa davvero usarla.
Il procedimento su NOVA AI aggiunge un tassello ulteriore, forse il più interessante sul piano sistematico. NOVA non è presentata come il classico provider di un singolo modello, ma come una “chatbox cross-platform” che offre accesso, tramite un’unica interfaccia, a più chatbot. Qui la questione non è solo la chiarezza sul rischio di allucinazioni, ma anche la corretta rappresentazione della natura del servizio. In altri termini: l’utente deve capire che cosa sta effettivamente acquistando o utilizzando, quali modelli ci sono dietro, che tipo di intermediazione viene svolta e quali limiti ha il servizio. È un tema molto importante, perché anticipa discussioni future sull’allocazione del rischio contrattuale nelle architetture multi-modello e nei servizi che “impacchettano” strumenti di terzi.
Proprio nel caso NOVA emerge anche un delicato confine istituzionale con il Digital Services Act. Nei provvedimenti si richiama il ruolo di AGCom come Coordinatore dei servizi digitali per l’Italia e si discute se certi servizi possano o meno essere ricondotti alla categoria dei servizi intermediari o dei motori di ricerca online. L’AGCM, però, rivendica con chiarezza il proprio spazio di intervento sulle pratiche commerciali scorrette: il fatto che un servizio digitale possa porre anche questioni DSA non esclude automaticamente la rilevanza del diritto dei consumatori. Questo passaggio è prezioso, perché mostra che la regolazione dell’IA non si esaurirà in un solo testo normativo. Le imprese dovranno ragionare in modo stratificato: consumer law, privacy, DSA, AI Act e, in certi casi, anche responsabilità civile e contrattuale.
Qui conviene fermarsi su un punto essenziale. Questi provvedimenti non dicono che ogni allucinazione integra di per sé un illecito. Sarebbe una lettura sbagliata. L’AGCM non sta affermando che un sistema di IA debba essere infallibile, né che il solo verificarsi di un errore basti a fondare automaticamente una responsabilità. Il messaggio è più sottile, ma anche più incisivo: se il rischio di errore è strutturale e noto, allora non può essere nascosto o comunicato male. La questione giuridica, almeno in questa fase, non è l’esistenza del limite tecnologico in sé, ma il modo in cui il professionista lo gestisce verso il mercato.
Questo rende la notizia molto rilevante anche in prospettiva AI Act. Le decisioni AGCM non si fondano direttamente sul regolamento europeo sull’intelligenza artificiale, ma si collocano in un contesto in cui la trasparenza sta diventando una parola chiave dell’intera disciplina. La Commissione europea sta lavorando al codice di buone pratiche sulla marcatura e l’etichettatura dei contenuti generati dall’IA proprio in vista dell’applicazione, dal 2 agosto 2026, delle regole di trasparenza dell’art. 50 AI Act. Sarebbe quindi prudente leggere i casi italiani come un’anticipazione del clima regolatorio: chi offre strumenti generativi al pubblico deve iniziare già ora a ripensare interfacce, onboarding, condizioni contrattuali, avvertenze e processi di verifica.
Le ricadute pratiche sono molte. Per i provider di IA generativa, il primo insegnamento è che i disclaimer non possono essere trattati come semplice schermatura difensiva. Devono essere ben visibili, nella lingua del mercato servito e coerenti con il design reale del servizio. Per chi integra modelli di terzi in prodotti propri, il tema è ancora più delicato: non basta confidare nel fatto che il modello sottostante sia di un altro operatore. Chi si presenta al consumatore come fornitore del servizio assume anche un carico di chiarezza informativa e, verosimilmente, di governance contrattuale del rischio. Per studi legali e consulenti, infine, si apre uno spazio molto concreto di assistenza: revisione delle interfacce, audit delle condizioni d’uso, mappatura dei rischi consumeristici, coordinamento con privacy e AI compliance.
C’è poi un profilo che spesso viene sottovalutato. Le allucinazioni diventano particolarmente pericolose quando il chatbot viene percepito come assistente competente in materie sensibili: salute, diritto, finanza, lavoro, istruzione. In questi contesti, un output errato non è solo un inconveniente. Può orientare male una decisione, creare affidamento ingiustificato, indurre un comportamento economicamente svantaggioso o spingere l’utente a non cercare un supporto qualificato. Per questo la qualità della disclosure conta così tanto. Se il sistema appare affidabile come un consulente umano, ma non chiarisce adeguatamente i propri limiti, il rischio di distorsione della scelta del consumatore diventa molto più serio.
La lezione, in definitiva, è netta. Nel mercato dell’IA generativa non basta dire che i modelli possono sbagliare: bisogna dirlo bene, dirlo prima, dirlo nel posto giusto e in modo che l’utente lo capisca davvero. È esattamente qui che il diritto dei consumatori incontra la governance dell’IA. E il punto più prudente, oggi, è questo: chi vende o distribuisce servizi di IA generativa in Italia deve considerare la trasparenza sul rischio di errore non come un dettaglio redazionale, ma come un presidio giuridico centrale. L’Antitrust italiana lo ha già fatto capire con chiarezza. Ignorarlo sarebbe un errore molto meno “artificiale” di quanto sembri.
Fonti:
- AGCM, comunicato stampa del 30 aprile 2026: https://www.agcm.it/media/comunicati-stampa/2026/4/PS12942-PS12968-PS12973
- AGCM, provvedimento DeepSeek PS12942: https://www.agcm.it/dotcmsdoc/allegati-news/PS12942_acc.%20imp.%2Bchius..pdf
- AGCM, provvedimento Mistral PS12968: https://www.agcm.it/dotcmsdoc/allegati-news/PS12968_acc.%20imp..pdf
- AGCM, provvedimento NOVA AI PS12973: https://www.agcm.it/dotcmsdoc/allegati-news/PS12973_acc%20impegni%20%2B%20chius.%20proc.pdf
- Normattiva, Codice del consumo, d.lgs. 206/2005: https://www.normattiva.it/uri-res/N2Ls?urn%3Anir%3Astato%3Adecreto.legislativo%3A2005%3B206%21vig=
- EUR-Lex, regolamento (UE) 2022/2065, DSA: https://eur-lex.europa.eu/eli/reg/2022/2065/oj?locale=it
- EUR-Lex, regolamento (UE) 2024/1689, AI Act: https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=it
- Commissione europea, codice di buone pratiche su marking e labelling dei contenuti IA, 5 marzo 2026: https://digital-strategy.ec.europa.eu/it/library/commission-publishes-second-draft-code-practice-marking-and-labelling-ai-generated-content
