L’Autorité italienne de la concurrence et de la protection des consommateurs (AGCM) a récemment clos trois enquêtes majeures concernant des fournisseurs de chatbots basés sur l’intelligence artificielle, à savoir le chinois DeepSeek, le français Mistral AI et le turc Scaleup Yazilim (opérateur de Nova AI). Cette clôture n’est pas le fruit d’une simple approbation, mais d’une série d’engagements contraignants acceptés par ces entreprises, marquant ainsi un tournant décisif dans la manière dont les risques d’hallucinations de l’IA doivent être communiqués aux utilisateurs. En établissant une référence concrète pour une transparence « adéquate » en matière d’hallucinations, et en imposant un délai de conformité de 120 jours avant d’éventuelles sanctions financières, l’AGCM a posé les jalons d’une nouvelle ère de protection des consommateurs dans le domaine de l’intelligence artificielle en Europe.
Le Contexte des Investigations de l’AGCM : Une Question Cruciale de Transparence et d’Équité Commerciale
Les enquêtes de l’AGCM, identifiées sous les numéros PS12942 (DeepSeek), PS12968 (Mistral Le Chat) et PS12973 (Nova AI), avaient été ouvertes sur la base d’un constat préoccupant : les chatbots basés sur l’IA proposés par ces entreprises ne parvenaient pas à informer leurs utilisateurs de manière suffisamment claire, immédiate et intelligible sur la capacité inhérente de leurs systèmes à générer du contenu potentiellement imprécis, trompeur, ou même entièrement inventé. Ce phénomène, désormais bien connu sous le terme d' »hallucination de l’IA », est une limitation technique qui peut avoir des conséquences significatives sur la fiabilité des informations produites et, par ricochet, sur la capacité des utilisateurs à prendre des décisions éclairées.
Du point de vue de l’AGCM, cette défaillance de communication constituait une pratique commerciale potentiellement déloyale, en violation directe des articles 20, 21 et 22 du Code de la consommation italien. La logique derrière cette qualification est simple et fondamentale : en l’absence d’avertissements appropriés et visibles, les consommateurs étaient privés de la possibilité de prendre des décisions pleinement informées quant à l’opportunité d’utiliser ces services. Cette problématique revêt une acuité particulière dans des secteurs à fort enjeu tels que la santé, la finance ou le droit, où une confiance aveugle ou une dépendance excessive aux résultats générés par l’IA pourrait potentiellement causer des préjudices directs et irréversibles aux individus. Par conséquent, l’autorité a jugé impératif d’intervenir pour s’assurer que les utilisateurs soient pleinement conscients des limites et des risques associés à cette technologie avant de s’y fier, surtout pour des applications critiques.
Une Résolution Basée sur des Engagements, Non sur des Sanctions Immédiates : L’Efficacité d’un Mécanisme Préventif
Il est essentiel de souligner que, malgré la gravité des manquements identifiés, aucune de ces trois affaires n’a abouti à une conclusion formelle d’infraction assortie d’une amende immédiate. Ces dossiers ont plutôt été résolus grâce à l’application du mécanisme d’engagement, une disposition encadrée par l’article 27(7) du Code de la consommation italien. Ce cadre juridique innovant permet aux entreprises concernées de proposer des mesures correctives concrètes que l’autorité peut juger suffisantes pour remédier aux préoccupations soulevées. L’AGCM a, dans ce cas précis, accepté ces propositions, reconnaissant ainsi la volonté des entreprises d’améliorer leurs pratiques et de se conformer à des standards de transparence plus élevés.
Cependant, cette résolution amiable n’est pas sans conditions. Elle est assortie d’une clause stricte : le non-respect des engagements pris dans un délai de 120 jours entraînerait ipso facto la réouverture des dossiers. Dans un tel scénario, chaque entreprise s’exposerait alors à des amendes considérables, pouvant atteindre jusqu’à environ 11,6 millions de dollars. Cette épée de Damoclès, suspendue au-dessus des entreprises, souligne la détermination inébranlable de l’AGCM à garantir une conformité réelle et durable. Cette approche pragmatique et préventive privilégie la modification des pratiques commerciales déloyales plutôt qu’une simple sanction punitive, tout en instaurant une incitation puissante à l’exécution rapide et complète des mesures promises. C’est un équilibre délicat entre régulation souple et fermeté qui caractérise l’action de l’autorité.
Les Engagements Spécifiques des Fournisseurs de Chatbots : Une Approche Ciblée de la Transparence Renforcée
Les engagements acceptés par DeepSeek, Mistral AI et Nova AI ne sont pas uniformes ; ils ont été minutieusement adaptés en fonction des manquements spécifiques à la transparence identifiés dans chaque cas. Cette approche sur mesure témoigne de la rigueur de l’AGCM dans son analyse des pratiques individuelles et dans son élaboration de solutions concrètes et pertinentes.
DeepSeek : Un Engagement Global et un Investissement Technique Proactif pour Réduire les Hallucinations
DeepSeek, opéré par Hangzhou DeepSeek Artificial Intelligence et Beijing DeepSeek Artificial Intelligence, a consenti au paquet de mesures le plus étendu. Ces mesures comprennent l’ajout d’avertissements clairs, proéminents et visibles concernant le risque d’hallucination, directement intégrés sur ses interfaces de chat ainsi que sur son site web, le tout étant entièrement localisé en italien. De plus, l’entreprise s’est engagée à garantir une traduction exhaustive en italien de toutes les divulgations pertinentes et à organiser des ateliers de formation interne destinés à ses équipes afin d’assurer une meilleure compréhension et une application rigoureuse des nouvelles directives de conformité.
Un élément particulièrement distinctif et notable de l’engagement de DeepSeek réside dans son volet technique : l’entreprise s’est engagée à investir activement et de manière significative dans la réduction des taux d’hallucination de ses modèles d’IA. L’AGCM a explicitement reconnu que l’état actuel de la technologie ne permet pas d’éliminer entièrement ce phénomène, faisant ainsi de cet engagement technique une obligation prospective d’amélioration continue plutôt qu’une simple affirmation sur la perfection actuelle de sa technologie. Cette initiative positionne DeepSeek comme un acteur engagé non seulement dans la transparence de ses produits, mais également dans l’amélioration fondamentale et à long terme de la fiabilité de ses modèles d’IA. Enfin, DeepSeek s’est également engagé à soumettre un rapport de conformité détaillé à l’AGCM dans le délai imparti de 120 jours, assurant ainsi un suivi rigoureux de l’exécution de ses promesses.
Mistral AI (Le Chat) : La Transparence Contextuelle au Cœur de l’Expérience Utilisateur
Pour Mistral AI, la société française reconnue pour son offre « Le Chat », les engagements ont été structurés autour de quatre axes majeurs, conformément à la décision n° 31864 de l’AGCM, visant à instaurer une transparence radicalement plus efficace. Le premier axe est l’inclusion de « disclaimers » ou avertissements explicites, directement intégrés dans l’interface de chat. Ces messages, formulés de manière directe comme « Le Chat peut commettre des erreurs. Veuillez vérifier les réponses », ont pour objectif d’alerter l’utilisateur au moment précis où il interagit avec le système et où le risque d’information erronée se matérialise.
Le deuxième axe concerne le renforcement et la localisation en italien de ses conditions générales de service. Celles-ci devront désormais inclure une référence explicite et incontournable à la potentielle non-fiabilité des résultats générés par l’IA. Troisièmement, Mistral AI s’est engagé à améliorer de manière significative l’accessibilité de ces conditions tout au long du parcours utilisateur : elles devront être visibles et facilement consultables depuis la page d’accueil, lors des processus de connexion et d’inscription, sur les pages des boutiques d’applications, et bien sûr, au sein même de l’interface de chat. Enfin, un engagement de traduction complète en italien de son site web et de son centre d’aide complète ce dispositif exhaustif, garantissant que les informations essentielles soient accessibles à tous les utilisateurs italiens.
L’AGCM a particulièrement insisté sur le concept de « transparence contextuelle » : les utilisateurs doivent impérativement être avertis au moment et à l’endroit précis où le risque d’hallucination ou d’erreur apparaît, et non pas de manière générique ou dissimulée à travers des conditions générales souvent complexes et enfouies à la fin d’un processus d’inscription. Cette exigence est jugée fondamentale et redéfinit en profondeur la norme en matière de communication des risques liés à l’utilisation des systèmes d’intelligence artificielle.
Nova AI (Scaleup Yazilim) : Au-delà des Hallucinations, la Clarté de l’Architecture Agrégateur Révélée
Les engagements pris par Nova AI, opéré par Scaleup Yazilim Hizmetleri, ont adressé deux types de défaillances de transparence distinctes, illustrant la complexité des enjeux dans l’écosystème de l’IA. La première concernait, comme pour les autres cas, l’absence d’avertissements explicites concernant le risque d’hallucinations directement dans l’interface de chat. Cet aspect a été rectifié par l’intégration d’alertes claires et visibles, informant l’utilisateur des limites potentielles du service.
La seconde défaillance, cependant, était spécifiquement liée à l’architecture du produit Nova AI. Le service est en réalité un agrégateur multi-plateformes, offrant une interface unique pour accéder à une pluralité de modèles d’IA sous-jacents, tels que ChatGPT, Gemini, Claude et DeepSeek. Or, cette particularité essentielle n’était pas clairement communiquée aux utilisateurs, qui pouvaient légitimement croire interagir avec une seule et unique intelligence artificielle propriétaire. Ce manque de clarté pouvait induire en erreur les consommateurs quant à la source réelle des informations qu’ils recevaient et à la nature véritable du service qu’ils utilisaient.
En réponse, Scaleup s’est donc engagé à expliciter de manière transparente le caractère agrégateur de son service. Cela inclut la divulgation explicite du fait que l’entreprise n’agrège ni ne traite elle-même les réponses des modèles d’IA sous-jacents, se positionnant plutôt comme un intermédiaire. Cette mesure cruciale, associée aux exigences standard de divulgation des hallucinations, vise à garantir une compréhension complète et sans équivoque du fonctionnement de Nova AI par ses utilisateurs. Cette distinction est fondamentale pour permettre aux consommateurs d’évaluer avec précision la fiabilité et la responsabilité des informations obtenues, ainsi que la diversité des sources technologiques mobilisées derrière une interface unique.
Un Précédent Européen Majeur pour la Protection des Consommateurs à l’Ère de l’IA Générative
Cette action concertée de l’AGCM, impliquant simultanément trois fournisseurs majeurs de chatbots, représente une initiative sans précédent à l’échelle européenne. C’est en effet la première fois qu’un régulateur obtient des engagements aussi contraignants et spécifiques de la part d’entreprises d’IA concernant la divulgation des risques d’hallucinations en tant qu’obligation fondamentale de protection des consommateurs. La portée de cette décision est d’autant plus significative qu’elle a été menée auprès d’entreprises opérant sous trois juridictions distinctes (Chine, France, Turquie), appliquant avec rigueur la même norme exigeante de transparence à toutes.
Le cadre conceptuel établi par l’Italie est non seulement novateur, mais il est également éminemment transférable et adaptable à d’autres contextes réglementaires à travers le continent. L’argument sous-jacent est d’une clarté et d’une simplicité désarmantes : si un produit de consommation, qu’il soit physique ou numérique, peut potentiellement causer un préjudice à l’utilisateur par une dépendance excessive à ses résultats, alors l’obligation d’informer les utilisateurs de ce risque au point même de l’utilisation n’est plus une simple option de communication, mais devient une obligation fondamentale en matière de protection des consommateurs. Il s’agit d’un principe de base du droit de la consommation qui trouve désormais une application concrète, détaillée et contraignante dans le domaine complexe de l’intelligence artificielle générative.
L’AGCM : Un Acteur Proactif et Pionnier dans la Régulation de l’IA en Italie et en Europe
L’AGCM s’est clairement positionnée comme l’un des régulateurs les plus dynamiques et proactifs en Europe dans le domaine émergent de la protection des consommateurs face aux défis posés par l’intelligence artificielle. Parallèlement aux enquêtes sur les hallucinations, l’autorité a ainsi lancé, en juillet 2025, une enquête distincte pour abus de position dominante concernant l’intégration de Meta AI dans WhatsApp (affaire A576). En décembre 2025, elle est allée encore plus loin en imposant des mesures provisoires afin de suspendre certaines conditions de la solution WhatsApp Business qui bloquaient l’accès à la plateforme pour les assistants IA concurrents.
Alors même que la Commission européenne a ouvert sa propre affaire antitrust concernant l’intégration de l’IA de WhatsApp par Meta en décembre 2025, l’Italie, par l’intermédiaire de l’AGCM, démontre une capacité constante et remarquable à agir plus rapidement et de manière plus décisive que les institutions de Bruxelles. Cette réactivité confère à l’AGCM un rôle de pionnier et de laboratoire réglementaire, ses décisions établissant souvent des précédents qui sont ensuite attentivement observés, analysés et potentiellement adoptés à une échelle plus large dans l’ensemble de l’Union Européenne. C’est une illustration éloquente de la manière dont une autorité nationale peut influencer la trajectoire réglementaire continentale.
Les Implications Futures pour la Régulation de l’IA en Europe : Vers une Norme de Transparence Contextuelle Indispensable
Le standard pratique que l’Italie a désormais fermement articulé à travers ces engagements revêt une importance capitale pour l’avenir de la régulation de l’IA en Europe. Le message envoyé est clair et non négociable : les avertissements concernant les hallucinations ne peuvent plus être relégués à des clauses obscures ou à des conditions générales de service difficilement accessibles. Ils doivent être contextuels, c’est-à-dire présents de manière visible et intelligible directement dans l’interface de chat, au moment même de l’utilisation par l’utilisateur. Cette exigence fondamentale est appelée à influencer de manière significative la manière dont les autres régulateurs nationaux de l’UE, et à terme la Commission européenne dans le cadre des obligations de transparence prévues par l’AI Act pour les systèmes d’IA à usage général, aborderont cette question cruciale.
L’article 13 de l’AI Act (Règlement sur l’Intelligence Artificielle) exige déjà des fournisseurs de modèles d’IA à usage général qu’ils fournissent des informations adéquates et compréhensibles sur les capacités et les limitations de leurs systèmes. L’application précoce et concrète du code de la consommation par l’AGCM arrive en amont de la pleine mise en œuvre de l’AI Act et établit un précédent opérationnel et robuste de ce que signifie concrètement le terme « adéquat » en pratique. Ce mouvement anticipe et façonne l’interprétation des futures réglementations européennes, garantissant que la protection des consommateurs soit perçue et traitée comme une priorité tangible, immédiate et omniprésente dans le développement et le déploiement de l’IA.
Conclusion : Un Impératif de Transparence Renforcée pour Tous les Acteurs de l’IA Opérant en Europe
Pour l’ensemble des entreprises d’IA qui opèrent ou souhaitent opérer sur le marché européen, le message de l’AGCM est désormais sans équivoque : un simple avertissement générique ou un « disclaimer » dissimulé dans les conditions générales de service ne suffit plus, et ne satisfera plus, l’obligation fondamentale de transparence. L’avertissement doit impérativement être placé là où se trouve l’utilisateur, au moment précis où le risque de « hallucination » ou d’erreur est concret et potentiellement préjudiciable. Cette nouvelle exigence, axée sur la transparence contextuelle et proactive, marque un pas majeur et irréversible vers une intelligence artificielle plus responsable, plus éthique et plus digne de confiance. Elle place la protection du consommateur au cœur des préoccupations et des processus de conception des développeurs d’IA et des régulateurs. L’AGCM a non seulement rappelé avec force les fondamentaux de la protection des consommateurs, mais elle a également fourni un cadre d’action clair et des lignes directrices opérationnelles pour l’ensemble de l’industrie de l’IA.

