Tag Archives: intelligence artificielle

Intelligence artificielle en police scientifique et en sciences forensiques - Forenseek

L’IA en criminalistique : Entre révolution technologique et défis humains

Par Yann CHOVORY, Ingénieur en IA appliquée à la criminalistique (Institut Génétique Nantes Atlantique – IGNA). Sur une scène de crime, chaque minute compte. Entre l’identification d’un suspect en fuite, la prévention de nouveaux délits et les contraintes temporelles de l’enquête, les enquêteurs sont engagés dans une véritable course contre la montre. Traces digitales, résidus de tir, traces biologiques, vidéosurveillance, données numériques… Autant d’indices qui doivent être collectés et analysés rapidement, sous peine de voir une affaire s’effondrer faute de preuves exploitables à temps. Pourtant, submergés par la masse croissante de données, les laboratoires de forensiques peinent à suivre le rythme.

Analyser les preuves avec rapidité et précision

Dans ce contexte, l’intelligence artificielle (IA) s’impose comme un accélérateur indispensable. Capable de traiter en quelques heures des volumes d’informations qui prendraient des semaines à analyser manuellement, elle optimise l’exploitation des indices en accélérant leur tri et en détectant des liens imperceptibles à l’œil humain. Plus qu’un simple gain de temps, elle permet aussi d’améliorer la pertinence des investigations : croiser rapidement des bases de données, repérer des motifs cachés dans des schémas d’appels téléphoniques, comparer des fragments d’ADN avec une précision inégalée. L’IA agit ainsi comme un analyste virtuel infatigable, réduisant le risque d’erreurs humaines et offrant de nouvelles perspectives aux experts en forensiques.

Mais cette révolution technologique ne se fait pas sans heurts. Entre scepticisme institutionnel et résistances opérationnelles, son intégration dans les pratiques d’enquête reste un défi. Mon parcours professionnel, marqué par une quête obstinée d’intégrer l’IA à la police scientifique, illustre cette transformation – et les obstacles qu’elle rencontre. De bioinformaticien marginalisé à responsable de projets IA à l’IGNA, j’ai pu observer de l’intérieur comment cette discipline, longtemps fondée sur des méthodes traditionnelles, s’adapte, parfois à marche forcée, à l’ère du big data.

Le risque d’erreur humaine est réduit et la fiabilité des identifications augmentée

Des exemples concrets : l’IA à l’œuvre de la scène de crime au laboratoire

L’IA investit déjà plusieurs domaines de la criminalistique, avec des résultats prometteurs. Par exemple, les systèmes de reconnaissance d’empreintes digitales AFIS (Automated Fingerprint Identification System ou Système d’identification automatique par empreintes digitales) intègrent désormais des composantes d’apprentissage automatique pour améliorer la correspondance des empreintes latentes. Le risque d’erreur humaine est réduit et la fiabilité des identifications augmentée [1]​. De même, en balistique, des algorithmes de vision par ordinateur comparent automatiquement les stries d’un projectile aux empreintes d’armes connues, accélérant le travail d’un expert en identification d’armes à feu. Nous voyons également apparaître des outils pour interpréter les traces de sang sur une scène : des modèles de machine learning1 peuvent aider à reconstituer la trajectoire de gouttelettes de sang et donc la dynamique d’une agression et d’un évènement sanglant [2]​. Ces exemples illustrent comment l’IA s’intègre dans la boîte à outils de l’expert criminalistique, de l’analyse d’images de scène de crime à la reconnaissance de motifs complexes.

Mais c’est sans doute en génétique forensique que l’IA suscite actuellement le plus d’espoirs. Les laboratoires d’analyse ADN traitent des milliers de profils génétiques et d’échantillons, avec des délais qui peuvent être critiques. L’IA offre un gain de temps considérable et une précision accrue. Dans le cadre de mes recherches, j’ai contribué au développement d’une IA interne capable d’interpréter 86 profils génétiques en seulement trois minutes [3]​, un progrès majeur lorsque l’analyse d’un profil complexe peut prendre plusieurs heures. Depuis 2024, elle traite en autonomie les profils simples, tandis que les profils génétiques complexes sont automatiquement orientés vers un expert humain, garantissant ainsi une collaboration efficace entre l’automatisation et l’expertise. Les résultats observés sont très encourageants. Non seulement le délai d’obtention des résultats ADN est drastiquement réduit, mais le taux d’erreur diminue également grâce à la standardisation apportée par l’algorithme.

L’IA ne remplace pas l’humain mais le complète 

Une autre avancée prometteuse concerne l’amélioration du portrait-robot génétique à partir de l’ADN. Actuellement, cette technique permet d’estimer certaines caractéristiques physiques d’un individu (comme la couleur des yeux, des cheveux ou la pigmentation de la peau) à partir de son code génétique, mais elle reste limitée par la complexité des interactions génétiques et l’incertitude des prédictions. L’IA pourrait révolutionner cette approche en exploitant des modèles de deep learning* entraînés sur de vastes bases de données génétiques et phénotypiques, permettant ainsi d’affiner ces prédictions et de générer des portraits plus précis. Contrairement aux méthodes classiques, qui reposent sur des probabilités statistiques, un modèle d’IA pourrait analyser des millions de variantes génétiques en quelques secondes et identifier des corrélations subtiles que les approches traditionnelles ne détectent pas. Cette perspective ouvre la voie à une amélioration significative de la pertinence des portraits ADN, facilitant l’identification des suspects en l’absence d’autres indices exploitables. La plate-forme Forenseek a exploré les avancées actuelles dans ce domaine, mais l’IA n’a pas encore été pleinement exploitée pour surpasser les méthodes existantes [5]​. Son intégration pourrait donc constituer une avancée majeure dans l’enquête criminelle.

Il est important de noter que dans tous ces exemples, l’IA ne remplace pas l’humain mais le complète. À l’IRCGN (Institut de Recherche Criminelle de la Gendarmerie Nationale) cité plus haut, si la majorité des profils ADN de routine et de bonne qualité peuvent être traités automatiquement, un contrôle qualité humain régulier subsiste : chaque semaine, un technicien revérifie aléatoirement des dossiers traités par l’IA, pour s’assurer qu’aucune dérive n’apparaît [3]​. Cette collaboration homme-machine est la clé d’un déploiement réussi, car le savoir-faire de l’expert criminalistique reste indispensable pour valider et interpréter finement les résultats, notamment lorsqu’un cas est complexe.

Intelligence artificielle IA en police scientifique et cybercriminalité - Forenseek

Des algorithmes nourris aux données : comment l’IA «apprend» en forensique

Les performances impressionnantes de l’IA en criminalistique reposent sur une ressource cruciale : les données. Pour qu’un algorithme d’apprentissage automatique sache identifier une empreinte digitale ou interpréter un profil ADN, il doit préalablement être entraîné sur de nombreux exemples. Concrètement, nous lui fournissons des jeux de données représentatifs, comportant chacun des entrées (images, signaux, profils génétiques, etc.) associées à un résultat attendu (identité du bon suspect, composition exacte du profil ADN, etc.). En analysant ces milliers (voir millions) d’exemples, la machine ajuste ses paramètres internes afin de reproduire au mieux les décisions des experts humains. On parle d’apprentissage supervisé, car l’IA apprend à partir de cas que l’on connaît déjà. Par exemple, pour entraîner un modèle à reconnaître des profils ADN, nous utilisons des données issues de cas résolus où l’on sait quel était le résultat attendu.

La performance d’une IA dépend de la qualité des données qui l’entraînent.

Plus le volume de données d’entraînement est grand et varié, mieux l’IA pourra détecter des motifs robustes et fiables. Toutefois, toutes les données ne se valent pas. Il faut s’assurer qu’elles soient de bonne qualité (par exemple, des images bien annotées, des profils ADN sans erreur de saisie) et qu’elles couvrent une diversité de situations suffisante. Si on biaise le système en ne lui montrant qu’un éventail restreint de cas, ce dernier risque d’échouer face à un scénario un peu différent. En génétique, cela signifie par exemple d’inclure des profils d’origines ethniques variées, des niveaux de dégradation différents, des configurations de mélanges multiples, afin que l’algorithme apprenne à gérer toutes les sources de variations possibles.

La transparence dans la composition des données est un impératif. Des études ont montré que certaines bases de données forensiques sont démographiquement déséquilibrées : par exemple, la base américaine CODIS comporte une sur-représentation de profils d’individus afro-américains par rapport aux autres groupes [6]​. Un modèle entraîné naïvement sur ces données pourrait hériter de biais systématiques et produire des résultats moins fiables ou moins justes pour des populations sous-représentées. Il est donc indispensable de contrôler les biais dans les données d’apprentissage et, si nécessaire, de les corriger (par échantillonnage équilibré, augmentation de données minoritaires, etc.) afin d’obtenir un apprentissage équitable.

Techniquement, l’entraînement d’une IA passe par des étapes rigoureuses de validation croisée et de mesure de performance. On divise généralement les données en trois ensembles : un pour l’apprentissage, un pour la validation pendant le développement (pour ajuster les paramètres) et un jeu de test final pour évaluer le modèle de façon objective. Des métriques quantitatives comme la précision, le rappel (sensibilité) ou les courbes d’erreur permettent de quantifier la fiabilité de l’algorithme sur des données qu’il n’a jamais vues [6]. On peut ainsi vérifier, par exemple, que l’IA identifie correctement une grande majorité des auteurs à partir de traces, tout en maintenant un faible taux de faux positifs. De plus en plus, nous intégrons également des critères de justice et d’éthique dans ces évaluations : nous examinerons si la performance reste constante quel que soit le groupe démographique ou la condition du test (genre, âge, etc.), afin de s’assurer qu’aucun biais inacceptable ne subsiste [6]. Enfin, le respect des contraintes juridiques (telles que le RGPD en Europe, qui encadre l’utilisation des données personnelles) doit être intégré dès la phase de conception du système [6]. Cela peut impliquer d’anonymiser les données, de limiter certaines informations sensibles ou de prévoir des procédures en cas de détection d’un biais éthique.

En définitive, la performance d’une IA dépend de la qualité des données qui l’entraînent. Dans le domaine forensique, cela signifie que les algorithmes « apprennent » à partir de l’expertise humaine accumulée. Chaque décision algorithmique porte en filigrane l’expérience de centaines d’experts qui ont fourni des exemples ou ajusté les paramètres. C’est à la fois une force (nous capitalisons sur une base de connaissance énorme) et une responsabilité : celle de bien sélectionner, préparer et contrôler les données qui serviront à nourrir l’intelligence artificielle.

Défis techniques et opérationnels pour intégrer l’IA en police scientifique

Si l’IA fait miroiter des gains substantiels, son intégration concrète sur le terrain forensique s’accompagne de nombreux défis. Il ne suffit pas d’entraîner un modèle en laboratoire : encore faut-il pouvoir l’utiliser dans le cadre contraint d’une enquête judiciaire, avec toutes les exigences de fiabilité que cela implique. Parmi les principaux défis techniques et organisationnels, on peut citer :

  • Accès aux données et infrastructures : paradoxalement, alors que l’IA a besoin de beaucoup de données pour apprendre, il peut être difficile de rassembler ces données en quantité suffisante dans le domaine forensique visé. Les profils ADN, par exemple, sont des données personnelles hautement sensibles, protégées par la loi et cloisonnées dans des bases sécurisées. Obtenir des jeux de données assez volumineux pour entraîner un algorithme peut nécessiter des coopérations complexes entre services, ou la génération de données synthétiques pour combler les manques. De plus, les outils informatiques doivent être adaptés pour traiter en temps raisonnable des masses de données – ce qui implique des investissements en matériel (serveurs, GPU2 pour le deep learning3) et en logiciels spécialisés. Certaines initiatives nationales commencent à voir le jour pour mutualiser des données forensiques de façon sécurisée, mais cela reste un chantier en cours.

  • Qualité des annotations et biais : l’apprentissage d’une IA dépend de la qualité de l’annotation des données d’entraînement. Dans bien des domaines forensiques, établir le « vrai » n’est pas trivial. Par exemple, pour entraîner un algorithme à reconnaître un visage sur une vidéo de surveillance, il faut que chaque visage soit correctement identifié par un humain au préalable – ce qui peut être ardu si l’image est floue ou partielle. De même, étiqueter des jeux de traces de semelles, de fibres ou des empreintes demandent un travail méticuleux d’experts, avec parfois une part de subjectivité. Si les données d’apprentissage comportent des erreurs d’annotation ou des biais historiques, l’IA les reproduira​ [6]. Un biais classique est lié à la représentativité démographique mentionnée plus haut, mais il peut y en avoir d’autres. Par exemple, si nous entraînons un modèle de détection d’armes principalement sur des images d’armes en intérieur, il sera moins performant pour détecter une arme en extérieur, sous la pluie, etc. La qualité et la diversité des données annotées sont donc un enjeu technique majeur. Cela implique d’établir des protocoles rigoureux de collecte et d’annotation (idéalement standardisés au niveau international), ainsi qu’un contrôle continu pour détecter les dérives du modèle (surapprentissage sur certains cas, perte de performance dans le temps, etc.). Cette validation repose sur des études expérimentales comparant les performances de l’IA aux experts humains. Toutefois, la complexité des procédures d’homologation et d’acquisition freine parfois l’adoption, retardant de plusieurs années la mise en service de nouveaux outils en criminalistique.
Intelligence Artificielle IA en police scientifique et en sciences forensiques cybercriminalité - Forenseek
  • Compréhension et acceptation par les acteurs judiciaires : introduire de l’intelligence artificielle dans le processus judiciaire soulève inévitablement la question de la confiance. Un enquêteur ou un technicien de laboratoire, formé aux méthodes classiques, doit apprendre à utiliser et à interpréter les résultats fournis par l’IA. Cela nécessite des formations et une acculturation progressive pour que l’outil devienne un allié et non une «boîte noire incomprise». Plus largement, les magistrats, avocats et jurés qui auront à discuter ces preuves doivent aussi en saisir les principes. Or, expliquer le fonctionnement interne d’un réseau de neurones ou la signification statistique d’un score de similarité n’est pas aisé. Nous observons parfois une incompréhension ou une méfiance de la part de certains acteurs judiciaires face à ces méthodes algorithmiques [6]. Si un juge ne comprend pas comment une conclusion a été obtenue, il pourrait être enclin à la rejeter ou à lui accorder moins de poids, par prudence. De même, un avocat de la défense cherchera légitimement à scruter les failles d’un outil qu’il ne connaît pas, ce qui peut donner lieu à des débats judiciaires autour de la validité de l’IA. Un défi conséquent est donc de rendre l’IA explicable (concept de «XAI» pour eXplainable AI), ou du moins d’en présenter les résultats dans un format compréhensible et pédagogiquement acceptable par un tribunal. Sans cela, l’intégration de l’IA risque de se heurter à un refus ou à des controverses lors des procès, limitant son apport pratique.
  • Cadre réglementaire et protection des données : enfin, les sciences forensiques évoluent dans un cadre légal strict, notamment en ce qui concerne les données personnelles (profil ADN, données biométriques, etc…) et la procédure pénale. L’utilisation d’une IA doit respecter ces régulations. En France, la CNIL (Commission Nationale de l’Informatique et des Libertés) veille au grain et peut imposer des restrictions si un traitement algorithmique porte atteinte à la vie privée. Par exemple, entraîner une IA sur des profils ADN nominatifs sans base légale serait impensable. Il faut souvent innover tout en restant dans les clous juridiques, ce qui impose des contraintes dès la conception des projets. Par ailleurs, le secret industriel autour de certains algorithmes pose un problème dans le contexte judiciaire : si un éditeur refuse de divulguer le fonctionnement interne de son logiciel pour des raisons de propriété intellectuelle, comment la défense ou le juge peuvent-ils s’assurer de sa fiabilité ? Des cas récents ont montré des accusés condamnés sur la foi de logiciels propriétaires (par exemple d’analyse ADN) sans que la défense n’ait pu examiner le code source utilisé [7]. Ces situations soulèvent un enjeu de transparence et de droits de la défense. Aux États-Unis, une proposition de loi intitulée «Justice in Forensic Algorithms Act» entend justement faire en sorte que le secret commercial ne puisse pas empêcher l’examen par des experts des algorithmes employés en criminalistique, afin de garantir l’équité des procès. Cela illustre bien la nécessité d’adapter le cadre réglementaire à ces nouvelles technologies.

Le manque de coopération ralentit la mise au point d’outils performants et limite leur adoption sur le terrain.

  • Un autre obstacle, plus structurel, réside dans la difficulté d’intégrer des profils hybrides aux institutions forensiques tout du moins en France. Aujourd’hui, les concours et les recrutements restent souvent cloisonnés entre différentes spécialités, limitant l’émergence d’experts possédant une double compétence. Par exemple, dans la police scientifique, le concours de technicien ou d’ingénieur de police scientifique est accessible via des spécialités distinctes, comme la biologie ou l’informatique, mais ne permet pas de valoriser une expertise combinée aux deux. Cette rigidité institutionnelle freine l’intégration de professionnels capables de faire le lien entre les domaines et d’exploiter pleinement le potentiel de l’IA en criminalistique. Pourtant, les avancées technologiques actuelles montrent que l’analyse des traces biologiques repose de plus en plus sur des outils numériques avancés. Face à cette évolution, une plus grande souplesse dans le recrutement et la formation des experts forensiques sera nécessaire pour répondre aux défis de demain.

L’IA en criminalistique ne doit pas être un enjeu de compétition ou de prestige entre laboratoires, mais un outil mis au service de la justice et de la vérité, au bénéfice des enquêteurs et des victimes.

  • Un autre frein majeur à l’innovation en criminalistique est le cloisonnement des efforts entre les différents acteurs du domaine qui travaillent en parallèle sur des problématiques identiques, sans mutualiser leurs avancées. Ce manque de coopération ralentit la mise au point d’outils performants et limite leur adoption sur le terrain. Pourtant, en partageant nos ressources – qu’il s’agisse de bases de données, de méthodologies ou d’algorithmes – nous pourrions accélérer la mise en production des solutions IA et garantir une amélioration continue fondée sur l’expertise de chacun. Mon expérience à travers les différents laboratoires français (Le Laboratoire de Police Scientifique de Lyon (Service National de Police Scientifique SNPS), L’Institut de Recherche Criminelle de la Gendarmerie Nationale (IRCGN) et maintenant l’Institut Génétique Nantes Atlantique IGNA) me permet de mesurer combien cette fragmentation freine les progrès, alors que nous poursuivons un même objectif : améliorer la résolution des enquêtes. C’est pourquoi il est essentiel de promouvoir le développement en open source lorsque cela est possible et de créer des plateformes de collaboration entre les entités publiques et judiciaires. L’IA en criminalistique ne doit pas être un enjeu de compétition ou de prestige entre laboratoires, mais un outil mis au service de la justice et de la vérité, au bénéfice des enquêteurs et des victimes.
Intelligence Artificielle IA en police scientifique et en sciences forensiques - Forenseek

Enjeux éthiques et légaux : innover sans renoncer aux garanties

Les défis évoqués ci-dessus ont tous une dimension technique, mais ils s’entremêlent à des questions éthiques et juridiques fondamentales. D’un point de vue éthique, la priorité absolue est de ne pas causer d’injustice par l’usage de l’IA. Il faut à tout prix éviter qu’un algorithme mal conçu n’entraîne l’inculpation injustifiée d’une personne ou, à l’inverse, le relâchement d’un coupable. Cela passe par la maîtrise des biais (pour ne pas discriminer certains groupes), par la transparence (pour que chaque partie au procès puisse comprendre et contester la preuve algorithmique) et par la responsabilisation des décisions. En effet, qui est responsable si une IA se trompe ? L’expert qui l’a utilisée à tort, le concepteur du logiciel, ou personne car «la machine a fait une erreur» ? Ce flou n’est pas acceptable en justice : il importe de toujours garder l’expertise humaine dans la boucle, de façon qu’une décision finale – incriminer ou disculper – repose sur une évaluation humaine éclairée par l’IA, et non sur le verdict opaque d’un automate.

Sur le plan légal, le paysage est en train d’évoluer pour encadrer l’utilisation de l’IA. L’Union européenne, notamment, finalise un Règlement sur l’IA (AI Act) qui sera la première législation au monde à définir un cadre pour le développement, la commercialisation et l’utilisation des systèmes d’intelligence artificielle​ [8]. Son objectif est de minimiser les risques pour la sécurité et les droits fondamentaux des personnes, en imposant des obligations en fonction du niveau de risque de l’application (et nul doute que les usages en matière pénale seront classés parmi les plus sensibles). En France, la CNIL a publié des recommandations soulignant qu’il est possible de concilier innovation et respect des droits des personnes lors du développement de solutions d’IA [9]​. Cela passe par exemple par le respect du RGPD, la limitation des finalités (nous n’entraînons un modèle qu’à des fins légitimes et clairement définies), la proportionnalité des données collectées, et l’évaluation d’impact préalable pour tout système algorithmique susceptible d’affecter significativement les individus. Ces garde-fous visent à ce que l’enthousiasme pour l’IA ne se fasse pas au détriment des principes fondamentaux de la justice et de la vie privée.

Encourager l’innovation tout en exigeant une validation scientifique solide et une transparence sur les méthodes

Un équilibre délicat doit donc être trouvé entre innovation technologique et cadre réglementaire. D’un côté, brider excessivement l’expérimentation et l’adoption de l’IA en criminalistique pourrait priver les enquêteurs d’outils potentiellement salvateurs dans la résolution d’enquêtes complexes. De l’autre, laisser le champ libre sans règles ni contrôle serait prendre le risque d’erreurs judiciaires ou d’atteintes aux droits. La solution réside sans doute dans une approche mesurée : encourager l’innovation tout en exigeant une validation scientifique solide et une transparence sur les méthodes. Des comités d’éthique et des experts indépendants peuvent être associés pour auditer les algorithmes, vérifier qu’ils respectent bien les normes et qu’ils ne reproduisent pas de biais problématiques. En outre, il convient d’informer et de former les professionnels du droit à ces nouvelles technologies, afin qu’ils soient en mesure d’en discuter avec pertinence lors des procès. Un juge formé aux concepts de base de l’IA sera plus à même de comprendre la valeur probante (et les limites) d’une preuve issue d’un algorithme.

Conclusion : L’avenir de la criminalistique à l’ère de l’IA

L’intelligence artificielle est en passe de transformer en profondeur la criminalistique, apportant aux enquêteurs des outils d’analyse plus rapides, plus précis et capables d’exploiter des volumes de données autrefois inaccessibles. Qu’il s’agisse de passer au crible des giga-octets d’informations numériques, de comparer des traces latentes avec une fiabilité accrue, ou de démêler des profils ADN complexes en quelques minutes, l’IA ouvre de nouvelles perspectives pour résoudre les enquêtes plus efficacement.

Mais cette avancée technologique s’accompagne de défis cruciaux. Techniques d’apprentissage, qualité des bases de données, biais algorithmiques, transparence des décisions, cadre réglementaire : autant d’enjeux qui détermineront si l’IA peut réellement renforcer la justice sans la fragiliser. À l’heure où la confiance du public dans les outils numériques est plus que jamais mise à l’épreuve, il est impératif d’intégrer ces innovations avec rigueur et responsabilité.

L’avenir de l’IA en criminalistique ne sera pas un face-à-face entre la machine et l’homme, mais un travail de collaboration où l’expertise humaine restera centrale. La technologie pourra aider à voir plus vite, plus loin, mais l’interprétation, le discernement et la prise de décision resteront entre les mains des experts forensiques et du monde judiciaire. Dès lors, la vraie question n’est peut-être pas jusqu’où l’IA peut aller en criminalistique, mais comment saurons-nous l’encadrer afin qu’elle puisse garantir une justice éthique et équitable. Serons-nous capables d’exploiter sa puissance tout en préservant les fondements mêmes du procès équitable et du droit à la défense ?

La révolution est en marche. Il nous appartient désormais d’en faire un progrès et non une dérive.

Bibliographie

[1]​ : Océane DUBOUST. L’IA peut-elle aider la police scientifique à trouver des similitudes dans les empreintes digitales ? Euronews, 12/01/2024 [vue le 15/03/2025] https://fr.euronews.com/next/2024/01/12/lia-peut-elle-aider-la-police-scientifique-a-trouver-des-similitudes-dans-les-empreintes-d#:~:text=,il
[2] : International Journal of Multidisciplinary Research and Publications. The Role of Artificial Intelligence in Forensic Science: Transforming Investigations through Technology. Muhammad Arjamand et al. Volume 7, Issue 5, pp. 67-70, 2024. Disponible sur : http://ijmrap.com/ [vue le 15/03/2025]
[3]​ : Gendarmerie Nationale. Kit universel, puce RFID, IA : le PJGN à la pointe de la technologie sur l’ADN.  Mis à jour le 22/01/2025 et disponible sur : https://www.gendarmerie.interieur.gouv.fr/pjgn/recherche-et-innovation/kit-universel-puce-rfid-ia-le-pjgn-a-la-pointe-de-la-technologie-sur-l-adn [vue le 15/03/2025]
[4]​ : Michelle TAYLOR. EXCLUSIVE: Brand New Deterministic Software Can Deconvolute a DNA Mixture in Seconds.  Forensic Magazine, 29/03/022. Disponible sur : https://www.forensicmag.com [vue le 15/03/2025]
[5]​ : Sébastien AGUILAR. L’ADN à l’origine des portraits-robot ! Forenseek, 05/01/2023. Disponible sur : https://www.forenseek.fr/adn-a-l-origine-des-portraits-robot/ [vue le 15/03/2025]
[6]​ : Max M. Houck, Ph.D.  CSI/AI: The Potential for Artificial Intelligence in Forensic Science.  iShine News, 29/10/2024. Disponible sur : https://www.ishinews.com/csi-ai-the-potential-for-artificial-intelligence-in-forensic-science/ [vue le 15/03/2025]
[7]​ : Mark Takano.  Black box algorithms’ use in criminal justice system tackled by bill reintroduced by reps. Takano and evans.  Takano House, 15/02/2024. Disponible sur : https://takano.house.gov/newsroom/press-releases/black-box-algorithms-use-in-criminal-justice-system-tackled-by-bill-reintroduced-by-reps-takano-and-evans [vue le 15/03/2025]
[8] : Mon Expert RGPD. Artificial Intelligence Act : La CNIL répond aux premières questions.  Disponible sur : https://monexpertrgpd.com [vue le 15/03/2025]
[9]​ ​: ​ CNIL.  Les fiches pratiques IA.  Disponible sur : https://www.cnil.fr [vue le 15/03/2025]

Définitions :

  1. Le Machine Learning (apprentissage automatique) est une branche de l’intelligence artificielle qui permet aux ordinateurs d’apprendre à partir de données sans être explicitement programmés. Il repose sur des algorithmes capables de détecter des motifs, de faire des prédictions et d’améliorer leurs performances avec l’expérience. ↩︎
  2. Un GPU (Graphics Processing Unit) est un processeur spécialisé conçu pour exécuter des calculs massivement parallèles, principalement utilisés pour le rendu graphique. Contrairement aux CPU (processeurs centraux) qui exécutent un nombre limité de tâches séquentielles avec des cœurs optimisés pour la polyvalence, les GPU possèdent des milliers de cœurs optimisés pour effectuer des opérations simultanées sur de grandes quantités de données. ↩︎
  3. Le Deep Learning (apprentissage profond) est une branche du Machine Learning qui utilise des réseaux de neurones artificiels composés de plusieurs couches pour modéliser des représentations complexes des données. Inspiré du fonctionnement du cerveau humain, il permet aux systèmes d’IA d’apprendre à partir de grandes quantités de données et d’améliorer leurs performances avec l’expérience. Le Deep Learning est particulièrement efficace pour le traitement des images, de la parole, du texte et des signaux complexes, avec des applications en vision par ordinateur, reconnaissance vocale, médecine légale et cybersécurité. ↩︎
IA intelligence artificielle contre la délinquance Police - Forenseek

Intelligence Artificielle (IA) : Un levier dans la lutte contre la délinquance

Par Benoit Fayet, consultant Défense & Sécurité Sopra Steria Next, membre du Comité stratégique du CRSIet Bruno Maillot, expert Data et Intelligence Artificielle Sopra Steria Next, pour le Centre de Réflexion sur la Sécurité Intérieure.

Élément de contexte

La majorité des Français expérimente l’IA sans parfois s’en rendre compte au quotidien : transports, commerce électronique, énergie, santé, domotique, agriculture etc. L’IA est en revanche moins présente dans le secteur de la sécurité et les métiers exercés par les Forces de sécurité intérieure (FSI), qu’ils soient policiers ou gendarmes nationaux alors que depuis des années l’informatique, les nouvelles technologies ont fait évoluer ces métiers, et que les Armées ou les Collectivités territoriales l’utilisent beaucoup plus sur des problématiques parfois proches. Les policiers et gendarmes nationaux s’appuient en effet aujourd’hui massivement sur le numérique, notamment pour :

  • Leurs activités au quotidien avec des systèmes d’informations et des applications qu’ils utilisent pour prendre un dépôt de plainte, rédiger des procédures, consulter des informations sur un individu, ou avec le développement de la biométrie largement utilisée, pour identifier et authentifier des individus (prise d’empreintes digitales, etc.),
  • Leurs échanges sur le terrain par des réseaux de communication adaptés, des outils mobiles pour les accompagner sur la voie publique ou en intervention.
  • Le suivi de la délinquance notamment localement ou en cas de gestion de crise (vidéoprotection, centre de commandement, etc.)
  • La prise en charge des victimes avec le développement récent de sites en ligne et applications présentant les mêmes offres qu’en unité (dépôt de plainte, signalement, etc.)

L’IA représente un levier décisif pour venir renforcer chacun de ces usages numériques actuels par les policiers et gendarmes nationaux. En effet, les outils numériques dont ils disposent déjà, les données qu’ils exploitent au quotidien et d’ores et déjà disponibles ainsi que leurs besoins opérationnels pourraient permettre cela, offrant ainsi une nouvelle révolution numérique au ministère de l’Intérieur.

En effet, l’IA n’est pas simplement un outil mais est une innovation disruptive des métiers et des pratiques professionnelles et pourrait ainsi amener des transformations en profondeur pour les métiers exercées par les policiers et gendarmes nationaux, notamment ceux en tension et en crise comme en police judiciaire. L’IA pourrait en outre répondre aux multiples irritants du quotidien que les Français subissent sur le plan de la sécurité en permettant par exemple d’augmenter la présence policière sur la voie publique par la réduction du temps consacré par les policiers et gendarmes nationaux à des tâches techniques ou administratives en unité ou en augmentant concrètement leurs capacités d’enquête, en permettant d’améliorer les taux d’élucidation de certaines infractions ou délits. Les capacités analytiques de l’IA dans le traitement de données complexes par exemple pourrait également venir renforcer la lutte contre la criminalité organisée ou le narcotrafic.

Pour déployer des systèmes d’IA, de nombreux prérequis sont toutefois nécessaires, à commencer par une bonne maîtrise du cadre juridique national et européen relatif à l’IA. Ensuite, il est indispensable de poser le cadre politique de l’usage de l’IA afin d’en faciliter l’acceptation par les policiers et gendarmes nationaux eux-mêmes et par les Français afin que l’IA soit identifiée comme un outil, non une fin en soi. La prise de décision et le contrôle devront toujours relever des forces de police, pour éviter de basculer dans « la civilisation des machines », comme le redoutait déjà Georges Bernanos dans La France contre les robots (1947).

L’IA représente un levier décisif pour venir renforcer chacun de ces usages numériques actuels par les policiers et gendarmes nationaux.

Enfin, dans un contexte accru de cybermenaces et de menace sur nos souverainetés, il conviendrait de s’assurer de la maturité, de la résilience des technologies employées et de travailler à une nécessaire identification des outils les plus sécurisés. Un point de vigilance doit ainsi être évoqué concernant le manque de souveraineté technologique de l’UE et de la France sur des solutions d’IA provenant aujourd’hui majoritairement de l’espace extra-européen. Il convient donc d’identifier des outils d’IA qui ne permettent pas une perte de cette souveraineté et d’une vulnérabilité renforcée à des opérations d’intelligence ou d’influence.

Les objectifs de cet article sont donc d’analyser les potentialités permises par le cadre juridique actuel pour s’appuyer sur l’IA dans le secteur de la sécurité intérieure et d’identifier des usages opérationnels concrets, réalistes à un horizon rapproché et maîtrisés d’un point de vue technologique.

Des premiers usages de l’IA en cours, une bascule avec les JO de Paris 2024 ?

Des projets existent déjà en France, que ce soit sur la voie publique dans le traitement de la délinquance, sur des activités à caractère administratif ou d’investigation. De récentes innovations autour de l’IA ont été permises avec les JO de Paris 2024.

De l’IA utilisée pour aider à la prise de décision dans la lutte contre la délinquance

L’IA a d’ores et déjà été sollicitée car elle répond parfaitement au cœur de métier des Forces de sécurité intérieure (FSI), à savoir l’anticipation et la prévention de faits, en l’occurrence de délinquance. L’IA a été développée non pas pour les prédire mais pour mieux les comprendre, les analyser et in fine aider à décider. En effet, la délinquance n’est pas un fait aléatoire et peut être analysée en récupérant des données statistiques sur un territoire défini et alimenter des modèles permettant aux FSI de mieux opérer au quotidien sur ce territoire (localisation, horaires des patrouilles, etc.). Des méthodes analytiques ont été utilisées par la Gendarmerie nationale sur des données non personnelles issues du Service Statistique Ministériel de la Sécurité Intérieure (SSMSI) et ensuite exploitées par de la data visualisation pour cartographier et suivre l’évolution de la délinquance sur un territoire. Il ne s’agit donc pas d’outils de police prédictive, car ils ne prévoient rien mais d’analyse décisionnelle sur des faits passés et qui peuvent fournir une orientation aux FSI qui ne peuvent croiser autant de données sans la capacité d’analyse de l’IA. La méthode consiste à regarder à titre d’exemple où ont eu lieu des cambriolages et des atteintes aux véhicules sur une période donnée et un territoire pour en déduire où risque de se produire les prochains. L’idée est de s’en servir pour cibler des territoires précis et planifier l’engagement de FSI où l’infraction risque de se produire et dissuader la délinquance.

D’autres expérimentations avec des outils plus prédictifs allant au-delà de l’aide à la décision et comprenant une prédiction en termes de risque ou d’occurrence ont aussi été réalisées mais n’ont pas démontré leur plus-value opérationnelle.

De l’IA développée pour aider au traitement de données en police judiciaire

Des premiers outils de traitement de données à base d’IA ont aussi été développés par la Gendarmerie nationale pour appuyer des phases d’enquête et d’investigation. Des outils peuvent ainsi être employés pour appuyer les FSI dans la surveillance de communications dans le cadre d’une enquête pour détecter des langues parlées dans des écoutes téléphoniques autorisées par un juge d’instruction, pour retranscrire et traduire les échanges, identifier et signaler les sujets pertinents pour l’enquête via des réseaux récurrents de neurones.

De même, un projet a été développé permettant la retranscription d’audition filmée d’une victime et offrant un outil d’annotation des objets d’un texte de procédure (personnes, lieux, date, objets, etc.).

Enfin, l’Agence du Numérique des Forces de Sécurité Intérieure (ANFSI), en charge du développement de leurs équipements numériques, expérimente un outil de réalisation du compte rendu d’intervention
simplifié par « commande vocale » sur les outils mobiles NEO.

Un tournant décisif avec les JO de Paris 2024 ?

A l’occasion des JO de Paris 2024, la « vidéo augmentée » a été autorisée en Île-de-France, sous la supervision de la préfecture de Police de Paris. La loi du 19 mai 2023 a permis en effet, pour la première fois, la mise en œuvre de solutions d’IA dans la vidéoprotection, dans un cadre strict excluant l’utilisation de la reconnaissance faciale. L’expérimentation ne visait que la détection d’évènements prédéterminés à savoir la présence d’objets abandonnés, la présence ou utilisation d’armes, le non-respect par un véhicule du sens de ce circulation ou d’une zone interdite, les mouvements de foule et les départs de feux. L’article 10 a notamment autorisé la mise en œuvre de l’IA sur certains flux vidéo à partir de caméras fixes aux fins de détecter certaines situations pour sécuriser les événements particulièrement exposés à un risque terroriste ou d’atteinte à la sécurité des personnes. Un comité d’évaluation de ces caméras algorithmiques doit remettre un rapport d’ici la fin de l’année 2024. D’ores et déjà, plusieurs cas d’usage de la vidéoprotection intelligente ont été jugés très efficaces, notamment ceux qui ont permis une détection d’individus dans des zones non autorisées, facilitant en outre l’ajustement de la présence policière dans ces zones, une détection d’une densité de population ou de mouvements de foule (liés à des rixes, etc.) ou encore des interpellations dans les transports urbains.

En synthèse, si des projets existent, ceux-ci restent toutefois à la marge, loin d’un passage à l’échelle généralisé qui devrait s’inscrire en outre dans un cadre juridique contraint et évolutif.

Un cadre juridique national clair et récemment renforcé au niveau européen avec l’IA Act

En France, un cadre strict avec la CNIL, des tentatives politiques pour avancer

La CNIL a formulé plusieurs recommandations précises afin de veiller à des déploiements de systèmes d’IA respectueux de la vie privée des individus en suivant les dispositions de la loi « Informatique et Libertés » de 1978 ou la directive européenne dite « Police-Justice » de 2016 définissant les règles relatives à la protection des données à l’égard de systèmes d’informations utilisés par les FSI. Les autorités publiques responsables de systèmes d’IA ont ainsi des obligations de transparence afin de rendre publiques les évaluations de ces systèmes et doivent suivre le principe de double proportionnalité, qui assure que l’usage de l’IA est justifié selon le cadre opérationnel (patrouille, enquête pour un délit, crime ou une menace terroriste) et le type de données utilisées (données personnelles, statistiques, etc.). Pour la CNIL, il convient donc d’appliquer aux systèmes d’IA les règles du droit commun des données (durées de conservation, contrôle indépendant, etc.).

En parallèle, le ministère de l’Intérieur et le pouvoir législatif ont avancé sur cette ligne de crête tracée par la CNIL que ce soit via le livre blanc de la Sécurité Intérieure (2020) ou la Loi d’Orientation et de Programmation du ministère de l’Intérieur (LOPMI, 2023), qui ont notamment formulé puis encadré par la loi les cas d’usage pouvant justifier l’utilisation de l’IA dans le secteur de la sécurité. Un cadre avait aussi été proposé pour des expérimentations, en perspective des JO de Paris 2024 : anonymisation des données, stockage sécurisé, prise de décision et maintien d’un contrôle des technologies par des agents.

La Commission Européenne a élaboré un règlement, l’IA Act, visant à encadrer l’utilisation de l’IA en Europe, voté par le Parlement européen en décembre 2023 et qui entrera en application en août 2026.

Un cadre renforcé au niveau européen avec l’IA Act

Complétant ce cadre national, la Commission Européenne a élaboré un règlement, l’IA Act, visant à encadrer l’utilisation de l’IA en Europe, voté par le Parlement européen en décembre 2023 et qui entrera en application en août 2026. L’objectif est de garantir que les systèmes d’IA utilisés dans l’Union Européenne soient sûrs, transparents et sous contrôle humain. Une vigilance accrue est portée sur les IA génératives qui créent des textes, du code et des images. L’IA Act apporte ainsi un cadre juridique précis concernant les usages dans la sphère publique et en particulier pour ce qui concerne la sécurité :

  • Des IA sont interdites car dangereuses : identification biométrique dans les espaces publics, base de données de reconnaissance faciale (dont permettant une comparaison avec des données en open source), système de police prédictive, etc.
  • Des IA sont encadrées car à haut risque avec de la documentation à fournir, un contrôle humain, des impératifs de conformité, de l’évaluation continue : système de catégorisation biométrique, gestion de la migration, etc.
  • Des IA à risque limité sont permises avec obligation de transparence : système de détections d’objets, etc. (Dès février 2025, les IA interdites devront être supprimées ou mises en conformité. A compter d’août 2025, les IA encadrées et à risque limité devront être mises en conformité.)

Il est à noter que l’IA Act fournit des exceptions notamment dans le cadre d’opérations de maintien de l’ordre permettant de la reconnaissance faciale « à distance » (avec caméra ou drone), « sous réserve d’une autorisation judiciaire préalable et pour des listes d’infractions strictement définie » concernant « la recherche d’une personne condamnée ou soupçonnée d’avoir commis un crime grave ».

Les perspectives d’usage et d’application de l’IA dans le secteur de la sécurité intérieure

Compte tenu des réflexions déjà engagées et du cadre réglementaire posé, il convient désormais de se projeter sur les apports concrets que l’IA pourrait amener dans les métiers de la sécurité exercés par la police et la gendarmerie nationales, en s’appuyant sur les technologies existantes, les développements récents notamment autour de l’IA générative, et en identifiant les conditions pour de tels usages : échanges et communications, accès à la donnée, simplification des tâches techniques, analyse de la donnée dans les phases d’enquête, etc.

L’IA doit venir en appui des FSI, sans devenir « l’agent », c’est-à-dire que les tâches qui pourraient être confiées à une IA devront rester sous la primauté humaine en contrôle et en validation.

Il est important de rappeler que les usages identifiés dans cette note le sont dans une démarche prospective qui tient compte du cadre juridique évoqué précédemment et s’inscrivent dans un usage de l’IA soucieux d’apporter une plus-value opérationnelle aux FSI tout en ne transigeant pas sur les enjeux éthiques de protection des données, d’un usage raisonné des données loin des pratiques de certains pays non européens qu’il convient d’éviter pour préserver notre modèle démocratique français. L’IA doit venir en appui des FSI, sans devenir « l’agent », c’est-à-dire que les tâches qui pourraient être confiées à une IA devront rester sous la primauté humaine en contrôle et en validation. Cette délégation doit ainsi accélérer l’action, la décision mais ne doit pas créer une dépendance. Il s’agit donc d’identifier les bons cas d’usage, sur les activités notamment à non ou faible valeur ajoutée afin de maintenir chez les FSI la capacité à prendre les décisions et à faire preuve d’agentivité.

L’IA, pour optimiser les échanges et la communication entre les FSI

Dans un contexte sécuritaire fortement dégradé, les enjeux autour de la communication et du partage de la donnée entre FSI sont clés que ce soit au quotidien en patrouille ou en intervention en termes de conduite à tenir (connaissance de la situation, des individus, etc.) ou a fortiori en cas d‘opérations contre des narcotrafiquants ou des situations plus graves (attentats, etc.).

Des cas d’usage précis, comme la capacité à centraliser puis traiter les données issues des équipements mobiles des FSI ou issues de caméras de vidéoprotection (vidéo, voix, radio, dialogues et appels entre FSI) sont aujourd’hui irréalisables et pourrait l’être en s’appuyant sur des outils intégrant de l’IA, alors que le nombre de données collectées ne cesse de croître. Ces facilités permettraient d’être plus performants grâce à une proximité renforcée et une facilité à se projeter dans les situations opérationnelles et pourraient être intégrées au programme en cours de transformation des moyens de communication des FSI via la mise en place d’un réseau mobile très haut débit. L’IA peut être un atout majeur pour aider au partage d’informations et de renseignements et pour que ceux-ci arrivent plus vite au niveau des policiers et gendarmes nationaux, pour qu’ils puissent traiter le problème identifié avant qu’il ne se détériore, dans le cas par exemple de détection de signaux faibles en lien avec les Cellules de renseignement opérationnel sur les stupéfiants (CROSS) ou la démarche partenariale entre élus, polices municipales, associations, permet d’échanger des informations qu’un outil d’IA peut traiter et qualifier rapidement.

L’IA, pour produire de la connaissance et appuyer l’action des FSI en temps réel

Produisant de plus en plus de données, notamment grâce à leurs outils mobiles, les FSI réalisent leurs missions dans un environnement où les données produites par des tiers sont en outre de plus en plus nombreuses. Face à cette double évolution, une stratégie de valorisation de ces données avec l’IA pourraient être développée combinant de l’analyse des données du passé, notamment dans des outils décisionnels déjà existants mais aussi de l’enrichissement de l’information opérationnelle en temps réel (géolocalisation des patrouilles, notes d’analyse transmises par de l’IA générative, etc.), le développement algorithmique et la valorisation de certaines données depuis l’extérieur (dans le respect des exigences posées par l’IA Act) avec par exemple l’analyse des données réelles des flux de déplacement de personnes dans les différents réseaux de transports urbains d’une métropole dans le cas d’une mission d’interpellation ou également en sécurité routière dans la gestion du trafic, en détectant en temps réel les accidents ou les perturbations, facilitant ainsi des réponses immédiates et informées.

L’une des caractéristiques apportées par l’IA est sa capacité à signaler automatiquement des incidents. Si des conditions ou des scénarios prédéfinis sont détectés, tels que des rixes ou des mouvements de foule, un système à base d’IA peut générer automatiquement des rapports d’incidents détaillés et envoyer des alertes aux FSI pour évaluer la situation. Cela accélère non seulement le processus de documentation, mais garantit également que même des infractions ou incidents mineurs (incivilités, dégradations), qui pourraient être négligés, soient remontés et traités.

De plus, la multiplication des données disponibles peut permettre de disposer en temps réel d’un nombre croissant d’informations. La situation tactique pourrait ainsi être enrichie par des données opérationnelles (géolocalisation des patrouilles, y compris d’autres acteurs « producteurs » de sécurité comme les polices municipales, la sécurité privée, géolocalisation d’une personne ciblée par une enquête ou une intervention), des données de contexte (points d’intérêt, densité, état des réseaux, etc.) et des données de capteurs (caméras piétons, etc.). L’IA peut aller chercher ces données nombreuses et diverses, les structurer et les rendre en temps réel aux FSI sur le terrain en voie publique pour des délais d’intervention plus rapides par exemple (communication automatique de données, etc.).

L’enjeu dans ce cas est de bien définir les besoins et les cas d’usage pour disposer de données pertinentes, exploitables et de travailler à la restitution (notamment par de la cartographie) ou à l’automatisation de la présentation des données dans les SI utilisés par les FSI ou leurs outils mobiles.

L’IA appliquée à ces tâches techniques en les automatisant pourrait permettre de faire gagner du temps aux FSI dans leurs activités au quotidien sur ce même type de tâches et les recentrer ainsi sur leur cœur de métier afin de permettre plus de présence sur le terrain, dans la rue en patrouille afin de renforcer le lien avec la population, dissuader et prévenir des faits de délinquance.

L’IA, pour faciliter, accélérer et rendre plus simple les tâches administratives et techniques des FSI

Les FSI déplorent que leur temps de travail soit de plus en plus consacré à des tâches administratives et rédactionnelles répétitives, lourdes et sans valeur ajoutée. L’apport de l’IA pour ce type de tâches techniques de «back-office» est largement répandu dans d’autres secteurs d’activité notamment avec l’IA générative qui bascule de l’analyse passive à la création active de contenus.

Ainsi, l’IA appliquée à ces tâches techniques en les automatisant pourrait permettre de faire gagner du temps aux FSI dans leurs activités au quotidien sur ce même type de tâches et les recentrer ainsi sur leur cœur de métier afin de permettre plus de présence sur le terrain, dans la rue en patrouille afin de renforcer le lien avec la population, dissuader et prévenir des faits de délinquance. Un des retours d’expérience des JO de Paris 2024 est que la présence massive et visible de FSI dans la rue a été non seulement efficace, mais aussi appréciée des populations.

Appuyer la rédaction des procédures, collecter des informations

L’IA ouvre ainsi de nombreuses fonctionnalités pour faciliter voire supprimer des tâches répétitives et chronophages qui constituent le quotidien des FSI dans des procédures de verbalisation (rédaction de procès-verbaux, etc.) d’interpellation, de prise de dépôt de plainte ou d’enquête. Sur des phases rédactionnelles et de transcription, l’IA pourrait permettre d’aller plus vite dans la rédaction de procès-verbaux que ce soit en unité ou en mobilité via de la génération automatisée de texte ou de propositions de texte (par exemple réglementaire), l’extraction d’informations d’intérêt dans des documents, l’accélération du traitement de bandes vidéo par élimination ou sélection de scènes sur requête sémantique, le masquage de passages, extraits ou parties de documents (identification d’une partie spécifique ou d’un segment dans une masse de vidéos via des « transformers », etc.).

L’usage de l’IA dans ce cadre se ferait sur la base de réseaux récurrents de neurones interprétant des flux de données et qui ont une mémoire des textes, des enchaînements de mots ou de phrases comme des réseaux de neurones biologiques mais avec une puissance de calcul multipliée et peuvent donc apporter de la valeur sur des activités rédactionnelles et de transcription.

Afin de permettre aux FSI de travailler plus efficacement, l’IA pourrait également démultiplier l’efficacité d’outils déjà en place au ministère de l’Intérieur comme l’intégration du traitement du langage naturel dans les outils du quotidien (réalisation de rapports ou de procès-verbaux par commandes vocales par exemple dans la rue, etc.). L’IA est ainsi un levier pour donner plus de temps aux FSI pour se concentrer sur des tâches à valeur ajoutée, en leur permettant par exemple pendant les temps de garde-à-vue de travailler un dossier, d’interroger un individu plutôt que de consacrer ce temps court à des actes administratifs et techniques (La durée d’une garde à vue est de 24 heures mais peut être portée à 48 heures lorsque le délit ou le crime concerné est puni d’une peine supérieure à un an d’emprisonnement. Pour certaines infractions, elle peut atteindre jusqu’à 96 heures (trafic de stupéfiants, terrorisme, association de malfaiteurs, etc.).

Vérifier des faits, aider à la recherche de preuves

Le recueil des déclarations, des témoignages, les différentes auditions constituent la base du travail d’investigation et souvent le premier pas dans la recherche des contradictions ou la vérification des faits. Les centaines de pièces qui viennent bien souvent enrichir un dossier sont encore essentiellement transcrites par un enquêteur, mais de plus en plus fréquemment, ou lorsque cela est prévu par la loi, elles sont filmées et enregistrées. A terme, elles pourraient être directement enregistrées et retranscrites automatiquement par un système à base d’IA constituant des données pouvant ensuite être rapidement exploitées et confrontées par les FSI qui pourront ainsi se concentrer sur l’analyse, la recherche de faits et in fine améliorer le taux d’élucidation des affaires.

Cette capacité d’agrégation est un des apports majeurs de l’IA qu’il convient d’appréhender au regard du cadre juridique énoncé par la CNIL mais qui peut permette d’offrir la possibilité aux FSI de disposer plus facilement et plus rapidement des informations qu’ils recherchent.

Rechercher des informations dans les systèmes d’information

L’IA pourrait aussi permettre de faciliter les travaux de recherche d’informations sur un individu ou un groupe d’individus interpellés ou recherchés. Ces phases de recherche sur des données biographiques, des données sur des antécédents judiciaires sont le quotidien des FSI et se font dans les différents fichiers de police mis à leur disposition (FPR – Fichier des Personnes Recherchées, TAJ – Traitement des antécédents judiciaires, etc.). Ces fichiers de police fonctionnent en silo et communiquent peu entre eux, notamment dans le but de respecter leurs finalités de traitement, conformément aux principes de la CNIL. Ainsi, le partage d’informations entre les fichiers est limité à des interfaçages applicatifs, et les FSI doivent souvent consulter un ou plusieurs fichiers en parallèle. Au regard de la profusion de données et du volume à analyser quotidiennement, l’IA pourrait permettre de dépasser cette problématique et faciliter la vie des FSI en leur apportant l’information agrégée. Cette capacité d’agrégation est un des apports majeurs de l’IA qu’il convient d’appréhender au regard du cadre juridique énoncé par la CNIL mais qui peut permette d’offrir la possibilité aux FSI de disposer plus facilement et plus rapidement des informations qu’ils recherchent, phase clé que ce soit pour leur sécurité personnelle en cas d’interpellation (disposer de l’information de la conduite à tenir rapidement vis-à-vis de l’individu interpellé), pour améliorer l’efficacité des contrôles sur la voie publique (garantie d’identifier la bonne personne par exemple dans le cas d’un contrôle) et enfin dans le domaine de la police judiciaire. L’IA pourrait ainsi utilement appuyer par exemple des rapprochements de données, désormais autorisés entre les systèmes de lecture automatisée des plaques d’immatriculation (LAPI) avec d’autres systèmes d’information, comme le fichier des véhicules volés, celui des données relatives à l’assurance des véhicules ou encore le système de contrôle automatisé. Cette capacité d’agrégation de l’IA pourrait aussi permettre de faciliter le recours à des saisies sur compte bancaire via les systèmes d’information du ministère de l’Economie et des Finances, pour améliorer le recouvrement des amendes, notamment les amendes forfaitaires délictuelles (AFD), ou pour s’adresser directement au « portefeuille » de certains délinquants, volonté politique affichée du Ministre de l’Intérieur, Bruno Retailleau.

Fiabiliser les fichiers de police et leurs usages

A côté de la consultation, une tâche récurrente consiste à également « alimenter » les fichiers de police sur des individus interpellés ou recherchés, avec des éléments descriptifs de faits, d’infractions, et surtout d’informations sur leurs identités (biographiques ou biométriques). Cette phase est clé, notamment pour ce qui concerne l’acquisition de données biométriques, car elle préfigure ensuite de la qualité des bases de données et permet ensuite dans le cas d’une infraction ou d’un crime d’authentifier des individus interpellés mis en cause ou des individus victimes. La puissance des algorithmes d’IA peut ainsi identifier et mettre en évidence les minuties (points spécifiques sur une empreinte digitale) avec plus de précision que l’œil humain, conduisant à des comparaisons plus précises.

L’interrogation des fichiers de police comportant les bases de données d’empreintes digitales ou génétiques pourrait aussi être automatisée avec l’IA pour aller plus vite et fiabiliser les comparaisons. Par ailleurs, la mise en œuvre d’une automatisation des contrôles de qualité technique permettrait de sécuriser la qualité d’acquisition des données par une application d’aide à la prise de vue des empreintes et de détecter automatiquement les empreintes photos non conformes. De même, l’IA pourrait être bénéfique pour la prise en compte des empreintes digitales laissées involontairement sur des surfaces (dites « latentes ») qui peuvent être parfois partielles, floues ou de mauvaise qualité. L’IA pourrait combler les parties manquantes en se basant sur des motifs reconnus, permettant de meilleures correspondances.

Sur des phases d’enquête et d’investigation, il pourrait être également opportun de s’appuyer sur l’IA pour de la recherche de données et la comparaison avec des bases de données importantes

L’IA, pour renforcer les activités d’analyse des FSI et mieux combattre la délinquance

Travailler sur des grandes masses de données

L’IA offre des opportunités de calcul et d’automatisation de certaines tâches pour les FSI confrontées à des masses de données à traiter, que ce soit dans des tâches administratives (criblage, etc.) ou des activités de police judiciaire. Des agents du ministère de l’Intérieur ont par exemple la charge d’activités de « criblage » des personnes embauchées sur des métiers sensibles auprès de l’ensemble des fichiers de police à analyser pour « valider » la personne concernée. Sur ces activités d’analyse de masse sur des fichiers de données sécurisées, un apport par de l’IA pour aller plus vite et fiabiliser les enquêtes pourrait amener de la valeur et concentrer l’œil humain sur l’essentiel ou permettre un contrôle et une décision in fine plus rapide. L’IA pourrait offrir aussi la possibilité d’optimiser les activités de contrôle par une automatisation des détections de cas de consultation anormale des fichiers de police.

Sur des phases d’enquête et d’investigation, il pourrait être également opportun de s’appuyer sur l’IA pour de la recherche de données et la comparaison avec des bases de données importantes pour renforcer les taux d’élucidation de crimes, par exemple avec la comparaison génétique et le fichier dédié des empreintes génétiques (FNAEG). L’analyse ADN est une des méthodes les plus employées par la police scientifique pour identifier l’auteur d’un crime. De plus, l’IA pourrait faciliter les enquêtes judiciaires ou les pièces et dossiers sont toujours plus volumineux et complexes. Devant la multiplicité et l’hétérogénéité des données, la puissance de calcul de l’IA peut permettre de mieux les classer, les lier entre elles et se souvenir de tout dans un délai très court. L’enquêteur pourrait donc analyser et confronter plus rapidement, avec moins d’erreur pour in fine améliorer les taux d’élucidation des affaires.

Ensuite, la plupart des données d’une enquête judiciaire sont stockées sur des disques durs afin d’être conservées. Des outils d’assistance à même de croiser et lier ces données sont nécessaires pour identifier des indices parmi les grandes masses de données disponibles. L’IA pourrait accomplir ce travail de classification et de connexions entre les faits et les indices, qui sont retrouvés dans les dossiers judiciaires. Un enjeu clé est la gestion de volumétrie de masse pour la donnée judiciaire, pour aller plus vite dans des processus d’enquête et d’investigation, sur la voie publique ou en intervention pour permettre une décision plus rapide. Il s’agit, ici aussi, de bien définir les cas d’usage et d’entraîner au préalable les systèmes à base d’IA pour assurer une pertinence des analyses via de la génération de données synthétiques.

Mieux analyser et interpréter des images, des sons et en grande quantité

L’IA générative introduit de nouvelles techniques qui permettent d’analyser et interpréter des images. Les développements génératifs de l’IA peuvent apporter beaucoup dans l’exploitation d’images en phase d’enquête, en étant capable de comprendre des requêtes, de sortir les éléments demandés d’une image, avec une capacité à exploiter des images en grande quantité avec des données hétérogènes. Ces solutions pourraient permettre d’appuyer les phases d’enquête par l’analyse de photos de scènes de crime, d’accident de la route ou d’images issues d’un centre de supervision urbain (CSU) et identifier ainsi des images d’intérêt (détection de véhicules, de personnes, etc.). De même, la vision par ordinateur pourrait devenir un atout majeur grâce à l’utilisation de réseaux neuronaux qui permettent d’interpréter et d’analyser à large échelle des informations visuelles complexes. Ces réseaux inspirés du fonctionnement du cerveau humain peuvent avoir un intérêt pour de la détection de surfaces spécifiques à partir de photographies aériennes ou d’images satellites qui peuvent être utiles aux policiers nationaux et gendarmes pour identifier des véhicules recherchés, des points de deal, etc.

L’IA permettra ainsi une plus grande vigilance dans l’observation d’images de vidéoprotection et donc une meilleure efficacité et une accélération de la réponse à apporter à des situations suspectes (points de deal, rixes, rassemblements, etc.). En effet, il est estimé qu’un opérateur d’un centre de supervision ou de commandement, au bout d’une heure d’observation d’images ou de vidéos en temps réel, perd de sa vigilance et potentiellement 50% des événements peuvent lui échapper. A terme, un opérateur d’un centre de supervision ou de commandement pourrait avec des systèmes d’IA ne plus regarder de flux en temps réel mais se concentrer sur de la levée de doutes, de l’analyse et de la prise de décision.

L’IA peut en effet accélérer le processus d’analyse actuellement effectué par l’œil humain et donc de détection via des outils effectuant de l’analyse d’image et de l’analyse comportementale avec des algorithmes de réseau à convolution capables de repérer des objets, des faits ou des individus. Actuellement les techniques d’apprentissage permettent de retrouver la photo d’un individu, d’un objet, d’une arme parmi les milliers de photos contenues communément dans un ordinateur, un téléphone. Les techniques d’apprentissage de l’IA dédiées à la reconnaissance d’objets ou de formes dans un contenu constituent un apport non négligeable.

Enfin, l’IA peut apporter beaucoup avec les technologies de reconnaissance vocale qui peuvent déchiffrer les caractéristiques vocales propres à chaque individu, convertir les mots parlés en modèles qui peuvent être exploités, comparés à des empreintes vocales stockées (échantillons vocaux provenant d’appels téléphoniques ou d’enregistrements).

L’IA permettra ainsi une plus grande vigilance dans l’observation d’images de vidéoprotection et donc une meilleure efficacité et une accélération de la réponse à apporter à des situations suspectes

Mieux analyser et détecter rapidement

Le recueil d’information en source ouverte (OSINT, SOCMINT) est une pratique désormais commune et répandue du fait de la multiplicité des données disponibles (réseaux sociaux, etc.). L’appui de l’IA sur ces phases de recueil d’information est fondamental pour détecter et caractériser rapidement des situations de danger et d’urgence à une vitesse supérieure à celle à laquelle des réseaux criminels ou des narcotrafiquants peuvent effacer leurs traces numériques par exemple ou pour réaliser par exemple de la veille pour analyser le « bruit informationnel » (web scraping, etc.), en intégrant le cadre fixé par l’IA Act (exclusion de la reconnaissance faciale, etc.), pour détecter et contrer de la propagande ou de la désinformation. En utilisant des algorithmes avancés d’IA et d’apprentissage automatique, il est possible d’analyser de vastes quantités de données à grande vitesse pour identifier des motifs, des mots-clés ou des contenus visuels, ce qui peut être décisif dans des enquêtes d’ampleur par exemple (narcotrafic, criminalité organisée). De plus, les systèmes pilotés par l’IA peuvent être entraînés sur des matériaux de propagande ou de désinformation connus pour repérer de manière proactive de nouveaux contenus partageant des caractéristiques similaires et les signaler, assurant une suppression réactive et efficace de ces contenus avant qu’ils ne se propagent.

Pour assurer l’efficacité de ces outils, l’enjeu réside dans la capacité à gérer des données structurées (mots, signes, chiffres, etc.) et non structurées à grande échelle (images, sons, vidéos, etc.), de disposer de plateformes pour les traiter et les rendre exploitables grâce à des modèles d’apprentissage automatiques auto-apprenants, ces outils pouvant en effet reformater ces données non structurées. Les technologies d’analyse automatisée du langage écrit, qui reposent sur l’IA, permettent de procéder à de l’analyse et de l’extraction de contenus, et traitent des volumes d’informations qu’il serait impossible de réaliser manuellement.

L’IA peut enfin permettre d’accéder à une vitesse de réponse plus rapide, via l’apprentissage automatique par exemple en donnant une multitude de données à un système d’IA qui va apprendre, au fur et à mesure, à les traiter automatiquement. Par exemple, un suivi de la trace du véhicule d’un auteur de crime en fuite est possible à travers les caméras de surveillance, l’analyse des vidéos se fera plus rapidement qu’une analyse humaine qui peut alors se concentrer sur l’exploitation des données et le contrôle de l’usage.

L’IA pourrait permettre d’appuyer des opérateurs d’un centre de supervision urbain dans leurs activités : détection de déchets, d’objets abandonnés, d’armes ou de départ de feu, calcul du temps de présence d’un véhicule, stationnement près de lieux sensibles, passage feux rouges, franchissement de lignes, analyse de mouvements de foule, etc.

L’IA, pour augmenter les capacités d’enquête et d’élucidation des faits

Les volumes de données à exploiter en phases d’enquêtes (flux vidéos, images) sont telles que leur exploitation est désormais impossible sans aide numérique. L’augmentation considérable de la volumétrie des données numériques génère une contrainte sur la capacité des FSI à les exploiter. L’utilisation de l’IA devient ainsi une nécessité, et à terme une condition indispensable de la capacité d’exploitation de données ou informations pouvant contribuer à l’établissement d’une preuve. Il est donc nécessaire que les FSI disposent d’outils de rationalisation de l’analyse vidéos, les assistant dans des phases d’enquête permettant de libérer un enquêteur de la visualisation de la totalité de sources vidéos ou d’images, ce qui fera gagner du temps et sera plus efficace, évitant toute perte de concentration dans la visualisation de ces flux et offrant la possibilité de se consacrer à des tâches d’analyse à plus grande valeur ajoutée. A défaut d’IA, il peut être considéré en outre que des enquêteurs renonceraient dans certaines affaires, faute de temps, à une exploitation systématique des sources vidéo disponibles et donc de preuves numériques particulièrement efficaces.

Parmi les éléments d’enquêtes, les enquêteurs disposent souvent d’auditions, de relevés bancaires, téléphonique, et des déclarations qui pourraient faire l’objet d’exploitation par des logiciels à base d’IA dédiés à relever des incohérences, à les repositionner dans une échelle de temps et géographiques ou à générer des schémas relationnels. L’incrémentation de ces données à partir des documents papiers ou numériques est longue. Les outils de l’IA pourraient permettre de détecter ces éléments directement dans des textes, à les identifier et les classer selon leur signification et à générer automatiquement des schémas relationnels. Le gain de temps et la souplesse d’emploi de ces outils offrent un apport réel avec par exemple la capacité de procéder à des classements et des liens, en temps réel à partir d’enregistrements sonores ou numériques, à suggérer des questions qui appuieront le travail des enquêteurs pour leur permettre d’identifier et interpeller plus vite.

L’IA pourrait aussi permettre des détections en temps réel et sur des flux très importants de faux documents, de fraudes que des agents ne peuvent faire et permettre ainsi de meilleurs taux d’élucidation des affaires. Dans les domaines de l’identité, les applications peuvent être multiples ainsi que dans le domaine de la sécurité routière que ce soit pour lutter contre la fraude au permis de conduire, la fraude à l’assurance ou contre des démarches frauduleuses, spécifiques et répétitives (fraudes liées à la contestation en cas d’amendes routières, fraude à l’immatriculation, vols de véhicules, etc.). Enfin, en utilisant des outils d’analyse pilotés par l’IA, les enquêteurs pourraient analyser des millions de transactions financières et détecter des volumes importants de données, tels que des mouvements de fonds suspects pour identifier des opérations de blanchiment difficiles à appréhender. Cela se traduirait concrètement par une capacité accrue à analyser et comprendre les schémas criminels, les connexions et environnements de mise en cause, à détecter des liens et faciliter la lutte contre des réseaux criminels organisés (narcotrafic, etc.). Récemment, les démantèlements de l’outil de communication cryptée EncroChat ou de la messagerie cryptée Matrix ont démontré le rôle crucial de l’analyse de données complexes.

Enfin, l’IA pourrait venir sécuriser les exploitations par les FSI d’images, de documents, de vidéos en automatisant le masquage de passages, extraits ou parties de documents à des fins de renforcement de la protection des données personnelles et du respect de la vie privée dans la lignée des recommandations de la CNIL et de l’IA Act. L’IA peut en effet détecter des éléments dans une donnée non structurée comme une image via des réseaux à convolution et opérer un filtre sur ce qui a été défini au préalable comme étant à masquer. L’utilisation de l’IA peut aussi permettre d’exploiter avec précision et rapidité des outils comme les caméras-piétons pour établir des preuves, dans le cas par exemple d’une mise en cause des FSI dans le cadre d’une intervention.

L’IA pourrait aussi faciliter des démarches type dépôt de plainte ou renouvellement de titres administratifs

L’IA, pour renforcer la prise en charge des victimes

Depuis quelques années, des sites en ligne ou applications sont déployés par le ministère de l’Intérieur permettant de signaler et déclarer des faits, de procéder à un dépôt de plainte (Perceval (plateforme de signalement des fraudes à la carte bancaire), Pharos (plateforme de signalement de contenus illicites sur internet), THESEE (plateforme de signalement des e-escroqueries), PNAV (plateforme numérique de signalement des atteintes aux personnes et de l’accompagnement des victimes), etc.) ou d’accéder à des informations en ligne (localiser une brigade ou un commissariat, etc.). Ces sites offrent des possibilités pour les citoyens en termes de démarches et aussi un levier concret de développement des usages autour de la donnée. Il s’agit d’un nouveau « gisement » de données bien souvent structurées (mots, signes, chiffres, etc.) qu’il conviendrait de développer et valoriser par de l’IA (cartographies des signalements, localisation de données sur la délinquance, types de faits par localisation, etc.) ou pour mettre à disposition des FSI sur le terrain en voie publique pour des délais d’intervention plus rapides par exemple (production de statistiques et de communications automatiques, etc.).

Par ailleurs, le développement de ces sites offre l’opportunité de réfléchir à de nouveaux usages de collecte d’informations et de renseignements. Ces sites pourraient s’inscrire dans une logique de renforcement des capacités de détection des signaux, même faibles, via de l’IA dans un contexte sécuritaire qui impose de diversifier les canaux de remontée des signalements en mobilisant tous les capteurs disponibles.

L’IA, pour faire évoluer la relation entre la police et la population

L’IA pourrait aussi faciliter des démarches type dépôt de plainte ou renouvellement de titres administratifs en ayant recours à des assistants conversationnels (chatbot ou callbot) pour obtenir des informations ou le service attendu.

En ajoutant des capacités d’IA aux logiciels de prise de plainte, les policiers et gendarmes nationaux en charge en unité de ces tâches pourraient en outre mieux et plus rapidement prendre en charge les victimes (obtention de rendez-vous dans un délai court via de la catégorisation, etc.). Ainsi, les services de plainte en ligne pourraient être également améliorés grâce à des possibilités offertes d’enregistrer automatiquement les plaintes et les analyser pour orienter les victimes vers les personnes compétentes et proposer la démarche la plus adaptée à l’événement (réponse automatisée avec récépissé de plainte, visioplainte avec un agent, rendez-vous en unité, etc.).

Recommandations et conclusion : Développer un modèle d’IA dans un cadre d’emploi clair et sécurisé

Les retours d’expérience réussis des JO de Paris 2024, les développements technologiques récents appellent à une nécessaire réflexion sur l’IA. En effet, le contexte sécuritaire fortement dégradé en France, une délinquance de plus en plus organisée, des métiers complexes et en tension dans lesquels le numérique est toujours plus présent (enquête, investigation), impliquent de recourir aux outils disponibles comme l’IA qui sont capables d’aider à la résolution de situations, l’élucidation d’affaires et apporter des réponses fortes pour permettre aux FSI de faire face.

L’IA n’est pas une fin en soi mais peut être un levier puissant pour améliorer le travail des FSI, comme le furent l’informatique ou la biométrie, et tel doit être le sens de cette innovation technologique. Pour permettre cela, il faut donc s’assurer de :

  • Un cadre politique clair pour rassurer la société dans son ensemble et stabiliser le cadre législatif.
  • Une stratégie ministérielle pour sécuriser les FSI dans l’utilisation de l’IA, associée à une gouvernance claire.
  • Une identification des bons cas d’usage de l’IA, des bons projets et de réunir les conditions pour passer à l’échelle : qualité des données pour assurer l’efficience des outils, robustesse, résilience et sécurité by-design des systèmes pour limiter les vulnérabilités face aux risques cyber venant d’une délinquance aguerrie sur ce type de menaces, auditabilité des systèmes pour comprendre et améliorer les résultats proposés par ces systèmes, etc.
  • Une approche intégrée à la fois éthique, juridique et technologique pour appréhender systématiquement l’importance des données manipulées, et qui nécessitent de mettre en place des équilibres en termes de sécurité informatique et de transparence vis-à-vis de la société.
  • Une identification des outils d’IA dont l’usage ne se fasse pas au prix d’une perte de souveraineté de la France et d’un risque de vulnérabilité renforcé face à des fuites de données, des cyberattaques ou des opérations d’intelligence ou d’influence (lutte informationnelle, etc.).

Faire ces pas technologiques est nécessaire pour être à la hauteur des enjeux forts de tranquillité publique et de sécurité qui se posent aujourd’hui en France.

un décodeur capable de retranscrire la pensée d’une personne avec une précision qui frise la perfection.

Bientôt la machine qui lit dans nos pensées ?

Des scientifiques de l’université d’Austin au Texas ont mis au point un décodeur capable de retranscrire les pensées d’une personne avec une précision qui frise la perfection. Pour quelles applications dans le futur ?

Quand informatique et neurosciences s’associent, cela donne naissance à une innovation technologique majeure qui risque de révolutionner la vie humaine. Dans une précédente étude, les universitaires de Zurich mettaient en évidence la possibilité de capter en moins de deux minutes l’empreinte d’un cerveau permettant d’identifier un individu avec une précision proche des 100% (voir article).

Cette fois-ci, les chercheurs américains ont utilisé deux technologies de pointe, un appareil IRM (Imagerie par Résonance Magnétique) et un modèle d’IA (Intelligence Artificielle) de type transformateur afin de décoder l’activité cérébrale et de la retranscrire en langage texte, tout cela de manière non invasive contrairement aux précédentes interfaces cerveau-machine qui exigeaient l’implantation d’électrodes par la chirurgie.

L’activité cérébrale passée au crible

Pour obtenir ce résultat, les scientifiques ont placé trois volontaires dans un appareil d’imagerie médicale et leur ont fait écouter des podcasts racontant des histoires. Pendant 16 heures, ils ont enregistré leur activité cérébrale et observé comment les mots et les idées générées par l’écoute de ces récits activaient les différentes régions du cerveau. Toutes ces données ont ensuite été passées au crible d’un système neuronal artificiel afin de les convertir en langage texte. Les tests, menés cette fois en faisant écouter de nouvelles histoires, ont permis de constater que le réseau décodait sans problèmes ces nouvelles pensées.

A terme, ce nouveau dispositif à visée médicale a pour but de permettre aux personnes lourdement handicapées, qui ont perdu l’usage de la parole et qui ne peuvent pas utiliser un clavier, de communiquer avec leur entourage par le simple fait de la pensée. Même si cette technologie reste perfectible, elle semble particulièrement prometteuse dans la mesure où selon l’un des chercheurs à l’origine de ce procédé, le décodeur IA peut déjà saisir l’essentiel d’une pensée parfois complexe et la retranscrire. En un mot, aller plus loin que les simples paroles…

Dans la tête d’un suspect …

Si l’étude suscite l’intérêt de tous les chercheurs en neurosciences, elle soulève également de nombreuses questions éthiques. Entrer dans la tête d’une personne pour fouiller dans ses pensées contre sa volonté pourrait à l’avenir devenir une réalité. On peut ainsi imaginer que dans le cadre d’une enquête judiciaire où le suspect reste muet et la victime introuvable, les policiers puissent obtenir des réponses et lever une fois pour toute le mystère de certaines disparitions. Et si cette machine avait pu faire « avouer » au cerveau malade de Michel Fourniret le lieu où est enterré le corps de la petite Estelle Mouzin ? Et si dans l’affaire de la disparition de Delphine Jubillar, cela permettait d’incriminer ou au contraire de disculper définitivement son mari actuellement en détention provisoire ? Autant de « si » qui plaident en faveur de ce procédé. A contrario, il peut également se transformer en arme redoutable pour museler la liberté de pensée, une tentation toujours possible dans certains pays pour qui la démocratie n’est pas une priorité.

Un risque qui n’existe pas selon les chercheurs à l’origine de l’étude. En effet, le décodeur ne fonctionne que sur le cerveau d’un sujet qui est entraîné et consentant. Dans le cas contraire, il lui est très facile de mettre en place des tactiques qui vont « saboter » les résultats. En bref, le cerveau humain gagne sur la machine. Pour l’instant…

Sources :

Des chercheurs parviennent à lire dans les pensées grâce à l’IA – Les Numériques (lesnumeriques.com)
L’IA peut maintenant lire vos pensées (iatranshumanisme.com)
Reconstruction sémantique du langage continu à partir d’enregistrements cérébraux non invasifs | Nature Neurosciences