Points clés à retenir
- L’IA devient un levier majeur pour lutter contre la fraude sociale et fiscale, mais reste encore sous-exploitée par les administrations.
- Les technologies d’IA (machine learning, deep learning, IA générative) permettent d’analyser de grands volumes de données et d’identifier des schémas de fraude de plus en plus complexes.
- Les administrations utilisent déjà des outils avancés (data mining, facturation électronique, images aériennes, scanners), mais ces dispositifs restent souvent éloignés des capacités actuelles de l’IA.
- L’IA générative pourrait améliorer la productivité en cassant les silos d’information, en assistant les agents via des interfaces type chatbot, et même en accélérant le développement logiciel.
- Le déploiement de ces outils impose des garde-fous stricts : transparence, respect du RGPD, contrôle humain systématique et prévention des décisions automatisées arbitraires.
Rétrospectives
Le rapport sénatorial dédié au rôle de l’IA dans la lutte contre la fraude note d’abord une différence de culture entre la DGFIP qui est plus proactive, et les caisses de sécurité sociale qui sont plus en retrait. Or, d’après le rapport, il y a de nombreux intérêts à l’utilisation de l’IA : détecter la fraude stricto sensu, mais aussi la prévenir pour la fraude fiscale ou, en matière sociale, détecter les cas de non-recours, par les assurés, aux prestations sociales disponibles.
La prévention de la fraude fiscale commence avant même la déclaration fiscale. L’administration fiscale utilise désormais des technologies comme l’obligation de facturation électronique pour la TVA et la blockchain pour enregistrer les transactions, rendant quasi impossible la modification des documents une fois qu’ils transitent par l’administration.
Après les déclarations, la détection de la fraude fiscale repose en majorité sur le datamining, une technique utilisée depuis 2014 par la DGFIP. Le datamining est une méthode complexe de croisement de données sur la base d’un modèle statistique, mais qui n’est ni du machine learning, ni du deep learning. Les sources de données incluent des données internes, des données publiques et des données collectées spécifiquement en vue d’une analyse. L’administration possède plusieurs moyens afin de les obtenir. Ainsi, le projet « foncier innovation » utilise des images aériennes pour détecter des constructions non déclarées. Depuis les lois de finance pour 2020 (article 154) et 2024 (article 112), l’administration dispose désormais de pouvoirs d’investigation sur les médias sociaux pour collecter des informations.
En matière sociale, cet outil est aussi utilisé. Depuis 2011, la CAF en fait usage via le DMDE (i.e., datamining données entrantes) : le rapport indique qu’il s’agit d’un outil pour programmer des contrôles parmi les foyers d’allocataires : un algorithme statistique détermine un « score de risque » (de 0 à 1) sur la base d’environ 40 données/critères (sur les 300 contenues dans un dossier). Cet algorithme ne fonctionne que sur les seules données de la CAF : aucun croisement n’est fait avec d’autres organismes tels que France Travail (anciennement Pôle emploi). D’après le rapport, le DMDE aurait rendu possible 70 % des contrôles sur place.
Cependant, ces outils statistiques restent assez éloignés des dernières avancées en matière d’IA (notamment l’IA générative). Le rapport évoque des outils « très loin de la frontière technologique ».
Prospectives
Les rapporteurs envisagent le futur de la lutte contre la fraude sociale et fiscale grâce à l’IA au travers de plusieurs outils. En matière fiscale, de nombreux projets sont en cours, tels que le programme « 100% Scanning » qui utilise un algorithme pour analyser des images de scanners à rayons X afin de détecter les produits stupéfiants, ou le projet « Foncier Innovation », qui sera étendu à toute la France.
Mais le rapport va plus loin, les sénateurs estiment que l’IA générative pourrait jouer un rôle clé compte tenu de l’inflation législative et de leur complexité exponentielle. L’IA générative, opérant sur la base d’un langage naturel (et donc textuel), pourrait bien plus rapidement analyser les textes et faciliter in fine leur mise en œuvre.
En matière fiscale, un premier avantage de l’IA générative est de permettre le décloisonnement de l’information. L’IA générative pourrait avoir un intérêt comme interface ergonomique, sous la forme d’un chatbot, à la disposition des agents du contrôle fiscal pour recouper les informations. Lancé en 2018, le projet PILAT reprend cette idée mais accuse un retard de plus de deux ans.
Le rapport identifie un autre usage : l’IA générative pourrait aider les développeurs de l’Urssaf (laquelle utilise une centaine d’applications) à générer du code de manière automatisée. L’expansion de l’IA générative présente néanmoins certains risques, notamment en ce qui concerne la vie privée et la confidentialité des données des contribuables et des assurés. La détention d’informations personnelles en dehors des procédures de contrôle classiques et du droit de communication traditionnel représente une menace reconnue par la Cnil et le Conseil Constitutionnel.
Pour protéger le contribuable, plusieurs garanties ont été mises en place. Cela inclut le droit à la transparence, obligeant l’administration fiscale à informer explicitement les contribuables sur l’utilisation de l’IA, conformément à la loi pour une République numérique et au RGPD (règlement général sur la protection des données). Au niveau européen, l’AI Act, a récemment été approuvé, et vise à harmoniser les règles sur l’IA en Europe, classant les systèmes d’IA par niveau de risque et imposant des exigences plus strictes pour les systèmes à haut risque.
De plus, une intervention humaine est toujours requise pour vérifier la cohérence des informations. Si l’IA a contribué à la détection de la fraude, et à la rédaction de la lettre d’observation ou de la mise en demeure (via l’IA générative), le risque est grand d’une automatisation des redressements, sans nuance, sans prise en compte du contexte particulier de l’entreprise. Le rôle de l’avocat, conseil des entreprises sera ici essentiel, afin d’atténuer les excès ou erreurs de l’automatisation et apporter les éléments nécessaires pour limiter le caractère potentiellement binaire, voire arbitraire de l’IA.
Clause de non-responsabilité
Les opinions, présentations, chiffres et estimations présentés sur le site Web, y compris dans le blog, sont uniquement destinés à des fins d’information et ne doivent pas être considérés comme des conseils juridiques. Pour obtenir un avis juridique, vous devez contacter un professionnel du droit dans votre juridiction.
L’utilisation du contenu de ce site Web, y compris du blog, à des fins commerciales, y compris la revente, est interdite, sauf autorisation préalable de Evidency. La demande d’autorisation doit préciser le but et l’étendue de la reproduction. À des fins non commerciales, tout le matériel de cette publication peut être cité ou réimprimé librement, mais une reconnaissance est requise, ainsi qu’un lien vers ce site Web.



