Archives

LSU-E : Une approche générale pour améliorer la prise de décision, tout en réduisant le bruit et les biais

Traduction de l’article en anglais Linear Sequential Unmasking–Expanded (LSU-E): A general approach for improving decision making as well as minimizing noise and biais, Forensic Science International: Synergy, Volume 3, 2021, 100161, avec l’accord de l’auteur Itiel DROR (contact : [email protected])

Toute prise de décision — et en particulier celle des experts — implique l’examen, l’évaluation et l’intégration d’informations. La recherche a montré que l’ordre dans lequel l’information est présentée joue un rôle crucial dans le processus décisionnel et dans leurs résultats. En effet, une même donnée, présentée dans un ordre différent, peut mener à des décisions divergentes [1,2]. Puisque l’information doit nécessairement être considérée selon une certaine séquence, optimiser cet ordre devient essentiel pour optimiser la qualité des décisions. Adopter une séquence ou une autre est inévitable — un ordre de traitement est toujours utilisé — et, dès lors que la séquence adoptée influence le raisonnement, il est crucial de réfléchir à la manière la plus pertinente d’organiser les informations.

Dans le domaine des sciences forensiques, les approches existantes visant à optimiser l’ordre de traitement de l’information (comme le dévoilement séquentiel [3] ou le dévoilement linéaire et séquentiel — LSU [4]) présentent des limitations, tant en raison de leur champ d’application restreint à certains types de décisions que de leur objectif exclusif de réduction des biais, sans viser une optimisation plus globale de la prise de décision en contexte forensique. Nous introduisons ici le Dévoilement linéaire et séquentiel — version étendue (LSU-E), une approche applicable à toutes les décisions forensiques, et non plus limitée à un type particulier. En outre, le LSU-E ne se contente pas de minimiser les biais : il permet également de réduire le bruit et d’améliorer la qualité globale des décisions forensiques.

Le fondement des biais cognitifs

Tout processus décisionnel repose sur le cerveau humain et sur les mécanismes cognitifs. L’un des facteurs essentiels dans ce processus concerne l’ordre dans lequel l’information est reçue. Il est en effet bien établi que les individus ont tendance à mieux retenir — et à être plus fortement influencés par — les premières informations d’une séquence, en comparaison avec celles qui suivent — un phénomène connu sous le nom d’effet de primauté (primacy effect) [5,6]). Par exemple, lorsqu’on demande à une personne de mémoriser une liste de mots, elle retiendra plus facilement ceux figurant en début de liste que ceux placés au milieu (voir également l’effet de récence [7]).

Fait crucial, les premières informations d’une séquence ne sont pas seulement mieux mémorisées : elles influencent également le traitement des informations suivantes de multiples façons (voir Fig. 1). Ces premières données peuvent générer des premières impressions puissantes, difficiles à remettre en question [8] ; elles suscitent des hypothèses qui orientent l’attention sélective, déterminant ainsi quelles informations seront prises en compte ou négligées [[9], [10], [11], [12]] ; et elles peuvent déclencher une série d’effets décisionnels bien documentés tels que : biais de confirmation, escalade d’engagement, inertie décisionnelle, vision tunnel, persistance des croyances, état d’esprit figé (mind set) et effet d’ancrage [[13], [14], [15], [16], [17], [18], [19]].

Ces phénomènes ne se limitent pas aux décisions en science forensique : ils s’appliquent également aux experts médicaux, aux enquêteurs de police, aux analystes financiers, aux services de renseignement militaire — et plus largement à toute personne impliquée dans une prise de décision.

Fig 1 : Illustration de l’effet d’ordre. Prenons une séquence de trois symboles : A–B–14.
Si cette séquence est lue de gauche à droite, le symbole central sera naturellement interprété comme un B. En revanche, si elle est lue de droite à gauche, ce même symbole sera perçu comme un 13. Cela illustre à quel point l’interprétation d’une information peut dépendre des éléments qui la précèdent : l’ordre de présentation influence la perception.

De nombreuses études ont démontré à plusieurs reprises que présenter une même information dans un ordre différent peut conduire les décideurs à tirer des conclusions différentes. De tels effets ont été observés dans une grande variété de domaines, allant de la dégustation alimentaire [20] à la prise de décision par les jurés [21,22], en passant par la réfutation des discours conspirationnistes (notamment les théories du complot anti-vaccins [23]), démontrant ainsi que l’ordre dans lequel l’information est présentée joue un rôle fondamental.

Par ailleurs, ces effets d’ordre ont été spécifiquement mis en évidence dans le domaine de la science forensique. Par exemple, Klales et Lesciotto [24], ainsi que Davidson, Rando et Nakhaeizadeh [25], ont montré que l’ordre dans lequel les os d’un squelette sont analysés (par exemple : crâne avant le bassin) peut influencer l’estimation du sexe biologique.

Contexte des biais

Toute décision est susceptible d’être influencée par des biais cognitifs — c’est-à-dire à des déformations systématiques du jugement [26]. Ce type de biais ne doit pas être confondu avec un biais discriminatoire intentionnel. Le terme « biais », tel qu’il est employé ici, fait référence aux biais cognitifs qui affectent chacun d’entre nous, le plus souvent de manière involontaire et inconsciente [26,27].

Bien que de nombreux experts croient à tort être immunisés contre les biais cognitifs [28], ils y sont, à certains égards, encore plus sensibles que les non-experts [[27], [29], [30]]. En effet, l’impact des biais cognitifs sur la prise de décision a été documenté dans de nombreux domaines d’expertise, allant des enquêteurs judiciaires et des magistrats, aux experts en assurance, aux évaluateurs psychologiques, aux inspecteurs en sécurité et aux médecins [26,[31], [32], [33], [34], [35], [36]] — ainsi que, de manière spécifique, en science forensique [30].

Aucun champ de la science forensique — ni d’ailleurs aucun autre domaine — n’est à l’abri des biais.

Les biais en science forensique

L’existence et l’influence des biais cognitifs en sciences forensiques sont aujourd’hui largement reconnues (on parle notamment de « biais de confirmation en science forensique » [[27], [37], [38]]). Aux États-Unis, par exemple, la National Academy of Sciences [39], le President’s Council of Advisors on Science and Technology [40], ainsi que le National Commission on Forensic Science [41] ont tous reconnu les biais cognitifs comme un enjeu réel et important dans le processus décisionnel en science forensique. Des constats similaires ont été établis dans d’autres pays à travers le monde — par exemple, au Royaume-Uni, le Forensic Science Regulator a émis des recommandations visant à éviter les biais dans les travaux forensiques [42], tout comme en Australie [43].

Par ailleurs, les effets des biais ont été observés et reproduits dans de nombreuses disciplines forensiques (par exemple : dactyloscopie, pathologie médico-légale, génétique, balistique, forensique numérique, expertise d’écriture, psychologie légale, anthropologie forensique, et investigation de la scène de crime, entre autres [44]), y compris chez des experts en exercice dans ces domaines [[30], [45], [46], [47]]. En résumé, aucun champ de la science forensique — ni d’ailleurs aucun autre domaine — n’est à l’abri des biais.

Réduction des biais en sciences forensiques

Bien que la nécessité de lutter contre les biais en science forensique soit aujourd’hui largement reconnue, y parvenir concrètement dans la pratique constitue un tout autre défi. Dans le cadre des contraintes pragmatiques et opérationnelles des scènes de crime et des laboratoires de police scientifique, la réduction des biais ne va pas toujours de soi [48]. Étant donné que la simple prise de conscience et la volonté individuelle sont insuffisantes pour contrer les biais [27], il est indispensable de développer des contre-mesures à la fois efficaces et applicables sur le terrain.

La méthode du dévoilement linéaire et séquentiel de l’information (Linear Sequential Unmasking, LSU [4]) vise à réduire les biais en régulant le flux et l’ordre dans lequel l’information est révélée, de manière à ce que les décisions forensiques reposent uniquement sur les éléments de preuve et les informations pertinentes et objectives. Concrètement, la LSU exige que les décisions comparatives forensiques commencent par l’examen et la documentation des traces issues de la scène de crime (l’élément « de question » ou matériel inconnu), de façon indépendante, avant toute exposition au matériel de référence (le matériel connu, provenant d’un suspect ou d’un object). L’objectif est de minimiser l’effet potentiellement biaisant de l’exposition au matériel de référence sur l’interprétation des traces issues de la scène de crime (voir Niveau 2, Fig. 2). La LSU garantit ainsi que ce sont les éléments de preuve eux-mêmes — et non le profil du suspect ou caractéristiques d’un objet — qui orientent la décision forensique.

Cela est d’autant plus crucial que les éléments issus de la scène de crime sont particulièrement vulnérables aux biais, du fait de leur qualité et quantité d’information souvent limitées, ce qui les rend plus ambigus et susceptibles d’interprétations variables — contrairement aux matériels de référence, généralement plus complets. En procédant d’abord à l’examen du matériel indiciaire provenant de la scène, la LSU réduit le risque de raisonnement circulaire dans le processus décisionnel comparatif, en évitant que l’on ne raisonne « à rebours » depuis l’objet ou le suspect vers la trace.

Fig. 2. Sources de biais cognitifs pouvant survenir lors de l’échantillonnage, des observations, des stratégies d’analyse, des tests et/ou des conclusions, et qui affectent même les experts. Ces sources de biais sont organisées selon une taxonomie en trois catégories : les sources propres au cas (Catégorie A), les sources propres à l’individu (Catégorie B), et les sources liées à la nature humaine (Catégorie C).

Limites de la méthode LSU

Par nature, la méthode LSU est limitée aux décisions comparatives, dans lesquelles des éléments provenant de la scène de crime (comme des traces papillaires ou des écrits manuscrits) sont comparés à un élément de référence ou à un suspect. Cette approche a d’abord été développée pour réduire les biais spécifiquement dans l’interprétation forensique de l’ADN (dévoilement séquentiel [3]). Dror et al. [4] ont ensuite élargi cette méthode à d’autres domaines forensiques comparatifs (empreintes digitales, armes à feu, écriture manuscrite, etc.) et ont proposé une approche équilibrée permettant la révision des jugements initiaux, mais dans des limites bien définies.

La méthode LSU présente donc deux limites principales : premièrement, elle ne s’applique qu’à un ensemble restreint de décisions comparatives (telles que la comparaison de profils ADN ou d’empreintes digitales). Deuxièmement, sa fonction se limite à la réduction des biais, sans agir sur la variabilité aléatoire (le « bruit ») ni améliorer plus globalement la qualité des décisions.

Dans cet article, nous introduisons une version étendue : le dévoilement linéaire et séquentiel — version étendue (LSU-E). Le LSU-E constitue une approche applicable à toutes les décisions forensiques, et non plus seulement aux décisions comparatives. De plus, le LSU-E va au-delà de la simple réduction des biais : il permet également de diminuer le bruit et d’améliorer la qualité des décisions de manière générale, en optimisant cognitivement la séquence d’accès à l’information, de façon à maximiser son utilité et, ce faisant, à produire des décisions plus fiables et de meilleure qualité.

Dévoilement linéaire et séquentiel – version étendue (LSU-E)

Au-delà du domaine forensique comparatif

La méthode LSU, dans sa forme actuelle, n’est applicable qu’aux domaines forensiques reposant sur la comparaison d’éléments de preuve avec des éléments de référence spécifiques (par exemple, le profil ADN ou les empreintes digitales d’un suspect — voir Niveau 2 dans la Fig. 2). Comme indiqué précédemment, le problème réside dans le fait que ces éléments de référence peuvent influencer la perception et l’interprétation des traces, au point que l’analyse d’un même élément de preuve peut varier selon la présence et la nature de l’élément de référence — et la méthode LSU vise précisément à réduire ce biais en imposant un raisonnement linéaire plutôt que circulaire.

Il risque de formuler des hypothèses et attentes a priori, ce qui peut orienter de manière biaisée sa perception, son interprétation de la scène et, en conséquence, les traces qu’il choisira ou non de collecter.

Cependant, de nombreux jugements forensiques ne reposent pas sur la comparaison entre deux stimuli. Par exemple, la criminalistique numérique, la pathologie médico-légale et l’investigation de la scène de crime nécessitent des prises de décision qui ne s’appuient pas sur la confrontation d’une trace à un suspect identifié. Même si ces domaines ne mettent pas en jeu une « cible » ou un stimulus de comparaison, ils sont néanmoins exposés à des informations contextuelles biaisantes susceptibles d’induire des attentes problématiques et des processus cognitifs descendants — et la version étendue LSU-E offre un moyen de minimiser ces effets.

Prenons, par exemple, le cas de la police scientifique. Les techniciens de scène de crime reçoivent souvent des informations sur la scène avant même d’y accéder physiquement, telles que la cause présumée du décès (homicide, suicide, accident) ou des hypothèses d’enquête (par exemple, le témoignage d’un témoin affirmant que le cambrioleur est entré par la fenêtre arrière, etc.). Lorsqu’un enquêteur reçoit ces éléments en amont de son observation directe de la scène, il risque de formuler des hypothèses et attentes a priori, ce qui peut orienter de manière biaisée sa perception, son interprétation de la scène et, en conséquence, les traces qu’il choisira ou non de collecter.

La même problématique s’applique à d’autres domaines non comparatifs comme la pathologie médico-légale, l’investigation d’incendies ou la criminalistique numérique. Par exemple, informer un expert en incendies avant même qu’il n’examine la scène qu’un bien immobilier était sur le marché depuis deux ans sans trouver d’acquéreur, ou que le propriétaire l’avait récemment assuré, peut orienter ses analyses et ses conclusions.

La lutte contre les biais dans ces domaines est d’autant plus complexe que les experts ont besoin d’un certain niveau d’information contextuelle pour exercer leur travail (contrairement, par exemple, aux experts en empreintes digitales, en balistique ou en ADN, qui peuvent effectuer leurs comparaisons avec un minimum de contexte).

L’objectif du LSU-E n’est pas de priver les experts des informations nécessaires, mais de réduire les biais en fournissant ces informations dans un ordre optimal. Le principe est simple : commencer toujours par les données ou éléments de preuve eux-mêmes — et uniquement ceux-ci — avant de prendre en compte tout autre élément contextuel, qu’il s’agisse d’informations explicites ou implicites, d’éléments de référence ou de toute autre donnée contextuelle ou méta-information.

Dans le cadre d’une investigation sur une scène de crime, par exemple, aucune information contextuelle ne devrait être communiquée à l’enquêteur ou au policier scientifique avant qu’il n’ait observé la scène de crime par lui-même et consigné ses premières impressions, fondées exclusivement sur ce qu’il voit sur les lieux. Ce n’est qu’ensuite qu’il pourra recevoir des informations contextuelles pertinentes avant de commencer la collecte d’indices. L’objectif est clair : dans la mesure du possible, les experts doivent, au moins dans un premier temps, se forger une opinion à partir des données brutes, avant d’être exposés à toute information susceptible d’influencer leur jugement.

Naturellement, le LSU-E ne se limite pas aux sciences forensiques et peut s’appliquer à de nombreux domaines d’expertise. Par exemple, en médecine, un médecin devrait examiner un patient avant d’établir un diagnostic (ou même de formuler une hypothèse) à partir d’informations contextuelles. Le protocole SBAR (Situation, Background, Assessment and Recommendation [49,50]) ne devrait être communiqué qu’après l’observation du patient. De même, un inspecteur de sécurité au travail ne devrait pas être informé des antécédents de non-conformité d’une entreprise avant d’avoir évalué le site de manière indépendante [32].

Au-delà de la réduction des biais

Au-delà de la question des biais, les décisions des experts gagnent en robustesse lorsqu’elles sont moins sujettes au bruit (variabilité aléatoire) et fondées sur les « bonnes » informations — c’est-à-dire les données les plus appropriées, fiables, pertinentes et diagnostiques. Le LSU-E propose des critères (décrits plus bas) permettant d’identifier et de hiérarchiser ces informations.

Plutôt que d’exposer les experts à l’information de manière aléatoire ou accidentelle, le LSU-E vise à optimiser la séquence d’accès à l’information, afin de neutraliser les effets cognitifs et psychologiques connus — tels que l’effet de primauté, l’attention sélective ou encore le biais de confirmation — et ainsi permettre aux experts de formuler de meilleures décisions.

Il est également essentiel que, au fur et à mesure de leur progression dans la séquence informationnelle, les experts documentent les informations auxquelles ils accèdent ainsi que toute évolution dans leur opinion. Cette exigence vise à garantir la transparence du processus décisionnel : elle permet de retracer précisément quelles informations ont été utilisées et comment elles ont influencé le jugement [51,52].

Critères de hiérarchisation de l’information dans le LSU-E

L’optimisation de l’ordre d’accès à l’information permet non seulement de réduire les biais, mais aussi de limiter le bruit et d’améliorer, de manière plus générale, la qualité des décisions. La question est alors la suivante : comment déterminer quelles informations doivent être fournies à l’expert, et dans quel ordre ? Le LSU-E propose trois critères pour établir une séquence optimale d’exposition à l’information pertinente : le pouvoir de biais, l’objectivité, et la pertinence — détaillés ci-dessous.

1. Pouvoir de biais.
Le pouvoir de biais d’une information pertinente peut varier considérablement. Certaines données peuvent avoir un fort potentiel de biais, tandis que d’autres n’en présentent pratiquement aucun. Par exemple, la technique utilisée pour relever et révéler une trace digitale présente un risque de biais minime (voire nul), alors que la présence d’un médicament à proximité d’un corps peut influencer l’interprétation quant à la cause du décès. Il est donc recommandé de présenter en premier les informations pertinentes les moins biaisantes, puis, dans un second temps, celles qui présentent un pouvoir de biais plus important.

2. Objectivité.
Les informations pertinentes diffèrent également quant à leur degré d’objectivité. Par exemple, le témoignage d’un témoin oculaire est généralement moins objectif qu’un enregistrement vidéo du même événement — mais même une vidéo peut varier en objectivité selon sa qualité, son angle, sa complétude, etc. Il est donc recommandé de faire précéder les informations plus objectives des informations moins objectives dans la séquence d’exposition.

3. Pertinence.
Certaines informations pertinentes sont centrales pour l’analyse et sous-tendent directement la décision à prendre, alors que d’autres sont plus périphériques ou accessoires. Par exemple, pour déterminer la cause du décès, la présence d’un médicament à côté du corps sera généralement plus pertinente (par exemple pour orienter les analyses toxicologiques) que des antécédents de dépression. Il est donc recommandé de présenter d’abord les informations les plus pertinentes, avant les informations secondaires. Bien entendu, toute information non pertinente à la décision (comme les antécédents judiciaires d’un suspect, si non directement liés) devrait être exclue de la séquence.

Ces critères doivent être considérés comme des principes directeurs, pour plusieurs raisons :

A. Les critères proposés s’inscrivent en réalité sur un continuum, et non dans des catégories binaires simples [45,48,53]. On peut même observer des variations au sein d’une même catégorie d’information : par exemple, une vidéo de meilleure qualité pourra être considérée avant une vidéo de qualité inférieure, ou la déclaration d’un témoin sobre pourra être considérée avant celle d’un témoin en état d’ébriété.

B. Ces trois critères ne sont pas indépendants ; ils interagissent entre eux. Par exemple, l’objectivité et la pertinence peuvent se combiner pour déterminer le poids d’une information : une donnée très objective aura un impact limité si sa pertinence est faible, et inversement, une information hautement pertinente perdra en valeur si son objectivité est faible. Ainsi, il ne faut pas évaluer ces critères isolément, mais en interaction.

C. L’ordre de présentation des informations doit être mis en balance avec les bénéfices potentiels qu’elles peuvent apporter [52]. Par exemple, lors du procès de l’agent de police Derek Chauvin pour la mort de George Floyd, le médecin légiste Andrew Baker a témoigné avoir délibérément choisi de ne pas visionner la vidéo de la mort de Floyd avant de pratiquer l’autopsie, afin d’éviter de biaiser son examen par des idées préconçues susceptibles de l’orienter dans une direction ou une autre [54]. Il a ainsi préféré d’abord examiner les données brutes (l’autopsie du corps), avant toute exposition à d’autres sources d’information (la vidéo). Une telle décision doit aussi considérer les bénéfices éventuels qu’aurait pu apporter le visionnage de la vidéo en amont de l’autopsie — par exemple si celle-ci pouvait orienter utilement l’examen plutôt que le biaiser. En d’autres termes, le LSU-E exige de pondérer les bénéfices potentiels par rapport au risque de biais que peut entraîner une information [52].

Par cette approche, nous encourageons les experts à examiner attentivement comment chaque élément d’information répond à chacun des trois critères, et à déterminer s’il doit être inclus ou non dans la séquence, et à quel moment. Dans la mesure du possible, ils devraient également documenter leur justification quant à l’inclusion ou l’exclusion de chaque information donnée. Bien entendu, cela soulève des questions pratiques quant à la mise en œuvre du LSU-E — comme le recours à des gestionnaires de cas (case managers). Les stratégies d’implémentation efficaces peuvent varier selon les disciplines ou les laboratoires, mais il est essentiel, dans un premier temps, de reconnaître ces enjeux et la nécessité de développer des approches pour y répondre.

Conclusion

Dans cet article, nous nous sommes appuyés sur les travaux classiques en psychologie cognitive portant sur les facteurs qui influencent et structurent la prise de décision experte, afin de proposer une approche large et polyvalente visant à renforcer la qualité des décisions des experts. Les spécialistes, quel que soit leur domaine, devraient commencer par se forger une première impression fondée exclusivement sur les données brutes ou les éléments de preuve, sans accès à un quelconque matériel de référence ni à un contexte — même si ces derniers sont pertinents. Ce n’est qu’ensuite qu’ils pourront envisager quelles autres informations doivent leur être communiquées, et dans quel ordre, en se basant sur leur objectivité, leur pertinence, et leur pouvoir de biais.

Il est par ailleurs essentiel de documenter de manière transparente l’impact et le rôle de chaque information dans le processus décisionnel. Grâce à l’utilisation du LSU-E, les décisions seront non seulement plus transparentes et moins sujettes au bruit, mais elles permettront également de s’assurer que la contribution de chaque élément d’information soit justifiée et proportionnelle à sa valeur probante.

Références

[1] S.E. Asche, Forming impressions of personality, J. Abnorm. Soc. Psychol., 41 (1964), pp. 258-290
[2] C.I. Hovland (Ed.), The Order of Presentation in Persuasion, Yale University Press (1957)
[3] D. Krane, S. Ford, J. Gilder, K. Inman, A. Jamieson, R. Koppl, et al. Sequential unmasking: a means of minimizing observer effects in forensic DNA interpretation, J. Forensic Sci., 53 (2008), pp. 1006-1107
[4] I.E. Dror, W.C. Thompson, C.A. Meissner, I. Kornfield, D. Krane, M. Saks, et al. Context management toolbox: a Linear Sequential Unmasking (LSU) approach for minimizing cognitive bias in forensic decision making, J. Forensic Sci., 60 (4) (2015), pp. 1111-1112
[5] F.H. Lund. The psychology of belief: IV. The law of primacy in persuasion, J. Abnorm. Soc. Psychol., 20 (1925), pp. 183-191
[6] B.B. Murdock Jr. The serial position effect of free recall, J. Exp. Psychol., 64 (5) (1962), p. 482
[7] J. Deese, R.A. Kaufman. Serial effects in recall of unorganized and sequentially organized verbal material, J. Exp. Psychol., 54 (3) (1957), p. 180
[8] J.M. Darley, P.H. Gross. A hypothesis-confirming bias in labeling effects,J. Pers. Soc. Psychol., 44 (1) (1983), pp. 20-33
[9] A. Treisman. Contextual cues in selective listening, Q. J. Exp. Psychol., 12 (1960), pp. 242-248
[10] J. Bargh, E. Morsella. The unconscious mind, Perspect. Psychol. Sci., 3 (1) (2008), pp. 73-79
[11] D.A. Broadbent. Perception and Communication, Pergamon Press, London, England (1958)
[12] J.A. Deutsch, D. Deutsch. Attention: some theoretical considerations, Psychol. Rev., 70 (1963), pp. 80-90
[13] A. Tversky, D. Kahneman. Judgment under uncertainty: heuristics and biases, Science, 185 (4157) (1974), pp. 1124-1131
[14] R.S. Nickerson. Confirmation bias: a ubiquitous phenomenon in many guises, Rev. Gen. Psychol., 2 (1998), pp. 175-220
[15] C. Barry, K. Halfmann. The effect of mindset on decision-making, J. Integrated Soc. Sci., 6 (2016), pp. 49-74
[16] P.C. Wason. On the failure to eliminate hypotheses in a conceptual task, Q. J. Exp. Psychol., 12 (3) (1960), pp. 129-140
[17] B.M. Staw. The escalation of commitment: an update and appraisal, Z. Shapira (Ed.), Organizational Decision Making, Cambridge University Press (1997), pp. 191-215
[18] M. Sherif, D. Taub, C.I. Hovland. Assimilation and contrast effects of anchoring stimuli on judgments, J. Exp. Psychol., 55 (2) (1958), pp. 150-155
[19] C.A. Anderson, M.R. Lepper, L. Ross. Perseverance of social theories: the role of explanation in the persistence of discredited information, J. Pers. Soc. Psychol., 39 (6) (1980), pp. 1037-1049
[20] M.L. Dean. Presentation order effects in product taste tests, J. Psychol., 105 (1) (1980), pp. 107-110
[21] K.A. Carlson, J.E. Russo. Biased interpretation of evidence by mock jurors, J. Exp. Psychol. Appl., 7 (2) (2001), p. 91
[22] R.G. Lawson. Order of presentation as a factor in jury persuasion. Ky, LJ, 56 (1967), p. 523
[23] D. Jolley, K.M. Douglas. Prevention is better than cure: addressing anti-vaccine conspiracy theories, J. Appl. Soc. Psychol., 47 (2017), pp. 459-469
[24] A.R. Klales, K.M. Lesciotto. The “science of science”: examining bias in forensic anthropology, Proceedings of the 68th Annual Scientific Meeting of the American Academy of Forensic Sciences (2016)
[25] M. Davidson, C. Rando, S. Nakhaeizadeh. Cognitive bias and the order of examination on skeletal remains, Proceedings of the 71st Annual Meeting of the American Academy of Forensic Sciences (2019)
[26] D. Kahneman, O. Sibony, C. Sunstein. Noise: A Flaw in Human Judgment, William Collins (2021)
[27] I.E. Dror. Cognitive and human factors in expert decision making: six fallacies and the eight sources of bias, Anal. Chem., 92 (12) (2020), pp. 7998-8004
[28] J. Kukucka, S.M. Kassin, P.A. Zapf, I.E. Dror. Cognitive bias and blindness: a global survey of forensic science examiners, Journal of Applied Research in Memory and Cognition, 6 (2017), pp. 452-459
[29] I.E. Dror. The paradox of human expertise: why experts get it wrong, N. Kapur (Ed.), The Paradoxical Brain, Cambridge University Press, Cambridge, UK (2011), pp. 177-188
[30] C. Eeden, C. De Poot, P. Koppen. The forensic confirmation bias: a comparison between experts and novices, J. Forensic Sci., 64 (1) (2019), pp. 120-126
[31] C. Huang, R. Bull. Applying Hierarchy of Expert Performance (HEP) to investigative interview evaluation: strengths, challenges and future directions, Psychiatr. Psychol. Law, 28 (2021)
[32] C. MacLean, I.E. Dror. The effect of contextual information on professional judgment: reliability and biasability of expert workplace safety inspectors,J. Saf. Res., 77 (2021), pp. 13-22
[33] E. Rassin. Anyone who commits such a cruel crime, must be criminally irresponsible’: context effects in forensic psychological assessment, Psychiatr. Psychol. Law (2021)
[34] V. Meterko, G. Cooper. Cognitive biases in criminal case evaluation: a review of the research, J. Police Crim. Psychol. (2021)
[35] C. FitzGerald, S. Hurst. Implicit bias in healthcare professionals: a systematic review, BMC Med. Ethics, 18 (2017), pp. 1-18
[36] M.K. Goyal, N. Kuppermann, S.D. Cleary, S.J. Teach, J.M. Chamberlain. Racial disparities in pain management of children with appendicitis in emergency departments, JAMA Pediatr, 169 (11) (2015), pp. 996-1002
[37] I.E. Dror. Biases in forensic experts, Science, 360 (6386) (2018), p. 243
[38] S.M. Kassin, I.E. Dror, J. Kukucka. The forensic confirmation bias: problems, perspectives, and proposed solutions, Journal of Applied Research in Memory and Cognition, 2 (1) (2013), pp. 42-52
[39] NAS. National Research Council, Strengthening Forensic Science in the United States: a Path Forward, National Academy of Sciences (2009)
[40] PCAST, President’s Council of Advisors on science and Technology (PCAST), Report to the President – Forensic Science in Criminal Courts: Ensuring Validity of Feature-Comparison Methods, Office of Science and Technology, Washington, DC (2016)
[41] NCFS, National Commission on Forensic Science. Ensuring that Forensic Analysis Is Based upon Task-Relevant Information, National Commission on Forensic Science, Washington, DC (2016)
[42] Forensic Science Regulator. Cognitive bias effects relevant to forensic science examinations, disponible sur https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/914259/217_FSR-G-217_Cognitive_bias_appendix_Issue_2.pdf 
[43] ANZPAA, A Review of Contextual Bias in Forensic Science and its Potential Legal Implication, Australia New Zealand Policing Advisory Agency (2010)
[44] J. Kukucka, I.E. Dror. Human factors in forensic science: psychological causes of bias and error, D. DeMatteo, K.C. Scherr (Eds.), The Oxford Handbook of Psychology and Law, Oxford University Press, New York (2021)
[45] I.E. Dror, J. Melinek, J.L. Arden, J. Kukucka, S. Hawkins, J. Carter, D.S. Atherton. Cognitive bias in forensic pathology decisions, J. Forensic Sci., 66 (4) (2021)
[46] N. Sunde, I.E. Dror. A hierarchy of expert performance (HEP) applied to digital forensics: reliability and biasability in digital forensics decision making, Forensic Sci. Int.: Digit. Invest., 37 (2021)
[47] D.C. Murrie, M.T. Boccaccini, L.A. Guarnera, K.A. Rufino. Are forensic experts biased by the side that retained them? Psychol. Sci., 24 (10) (2013), pp. 1889-1897
[48] G. Langenburg. Addressing potential observer effects in forensic science: a perspective from a forensic scientist who uses linear sequential unmasking techniques, Aust. J. Forensic Sci., 49 (2017), pp. 548-563
[49] C.M. Thomas, E. Bertram, D. Johnson. The SBAR communication technique, Nurse Educat., 34 (4) (2009), pp. 176-180
[50] I. Wacogne, V. Diwakar. Handover and note-keeping: the SBAR approach, Clin. Risk, 16 (5) (2010), pp. 173-175
[51] M.A. Almazrouei, I.E. Dror, R. Morgan. The forensic disclosure model: what should be disclosed to, and by, forensic experts?, International Journal of Law, Crime and Justice, 59 (2019)
[52] I.E. Dror. Combating bias: the next step in fighting cognitive and psychological contamination, J. Forensic Sci., 57 (1) (2012), pp. 276-277
[53] D. Simon, Minimizing Error and Bias in Death Investigations, vol. 49, Seton Hall Law Rev. (2018), pp. 255-305
[54] CNN. Medical examiner: I « intentionally chose not » to view videos of Floyd’s death before conducting autopsy, April 9, 2021, disponible sur https://edition.cnn.com/us/live-news/derek-chauvin-trial-04-09-21/h_03cda59afac6532a0fb8ed48244e44a0 (2011)

Intelligence artificielle en police scientifique et en sciences forensiques - Forenseek

L’IA en criminalistique : Entre révolution technologique et défis humains

Par Yann CHOVORY, Ingénieur en IA appliquée à la criminalistique (Institut Génétique Nantes Atlantique – IGNA). Sur une scène de crime, chaque minute compte. Entre l’identification d’un suspect en fuite, la prévention de nouveaux délits et les contraintes temporelles de l’enquête, les enquêteurs sont engagés dans une véritable course contre la montre. Traces digitales, résidus de tir, traces biologiques, vidéosurveillance, données numériques… Autant d’indices qui doivent être collectés et analysés rapidement, sous peine de voir une affaire s’effondrer faute de preuves exploitables à temps. Pourtant, submergés par la masse croissante de données, les laboratoires de forensiques peinent à suivre le rythme.

Analyser les preuves avec rapidité et précision

Dans ce contexte, l’intelligence artificielle (IA) s’impose comme un accélérateur indispensable. Capable de traiter en quelques heures des volumes d’informations qui prendraient des semaines à analyser manuellement, elle optimise l’exploitation des indices en accélérant leur tri et en détectant des liens imperceptibles à l’œil humain. Plus qu’un simple gain de temps, elle permet aussi d’améliorer la pertinence des investigations : croiser rapidement des bases de données, repérer des motifs cachés dans des schémas d’appels téléphoniques, comparer des fragments d’ADN avec une précision inégalée. L’IA agit ainsi comme un analyste virtuel infatigable, réduisant le risque d’erreurs humaines et offrant de nouvelles perspectives aux experts en forensiques.

Mais cette révolution technologique ne se fait pas sans heurts. Entre scepticisme institutionnel et résistances opérationnelles, son intégration dans les pratiques d’enquête reste un défi. Mon parcours professionnel, marqué par une quête obstinée d’intégrer l’IA à la police scientifique, illustre cette transformation – et les obstacles qu’elle rencontre. De bioinformaticien marginalisé à responsable de projets IA à l’IGNA, j’ai pu observer de l’intérieur comment cette discipline, longtemps fondée sur des méthodes traditionnelles, s’adapte, parfois à marche forcée, à l’ère du big data.

Le risque d’erreur humaine est réduit et la fiabilité des identifications augmentée

Des exemples concrets : l’IA à l’œuvre de la scène de crime au laboratoire

L’IA investit déjà plusieurs domaines de la criminalistique, avec des résultats prometteurs. Par exemple, les systèmes de reconnaissance d’empreintes digitales AFIS (Automated Fingerprint Identification System ou Système d’identification automatique par empreintes digitales) intègrent désormais des composantes d’apprentissage automatique pour améliorer la correspondance des empreintes latentes. Le risque d’erreur humaine est réduit et la fiabilité des identifications augmentée [1]​. De même, en balistique, des algorithmes de vision par ordinateur comparent automatiquement les stries d’un projectile aux empreintes d’armes connues, accélérant le travail d’un expert en identification d’armes à feu. Nous voyons également apparaître des outils pour interpréter les traces de sang sur une scène : des modèles de machine learning1 peuvent aider à reconstituer la trajectoire de gouttelettes de sang et donc la dynamique d’une agression et d’un évènement sanglant [2]​. Ces exemples illustrent comment l’IA s’intègre dans la boîte à outils de l’expert criminalistique, de l’analyse d’images de scène de crime à la reconnaissance de motifs complexes.

Mais c’est sans doute en génétique forensique que l’IA suscite actuellement le plus d’espoirs. Les laboratoires d’analyse ADN traitent des milliers de profils génétiques et d’échantillons, avec des délais qui peuvent être critiques. L’IA offre un gain de temps considérable et une précision accrue. Dans le cadre de mes recherches, j’ai contribué au développement d’une IA interne capable d’interpréter 86 profils génétiques en seulement trois minutes [3]​, un progrès majeur lorsque l’analyse d’un profil complexe peut prendre plusieurs heures. Depuis 2024, elle traite en autonomie les profils simples, tandis que les profils génétiques complexes sont automatiquement orientés vers un expert humain, garantissant ainsi une collaboration efficace entre l’automatisation et l’expertise. Les résultats observés sont très encourageants. Non seulement le délai d’obtention des résultats ADN est drastiquement réduit, mais le taux d’erreur diminue également grâce à la standardisation apportée par l’algorithme.

L’IA ne remplace pas l’humain mais le complète 

Une autre avancée prometteuse concerne l’amélioration du portrait-robot génétique à partir de l’ADN. Actuellement, cette technique permet d’estimer certaines caractéristiques physiques d’un individu (comme la couleur des yeux, des cheveux ou la pigmentation de la peau) à partir de son code génétique, mais elle reste limitée par la complexité des interactions génétiques et l’incertitude des prédictions. L’IA pourrait révolutionner cette approche en exploitant des modèles de deep learning* entraînés sur de vastes bases de données génétiques et phénotypiques, permettant ainsi d’affiner ces prédictions et de générer des portraits plus précis. Contrairement aux méthodes classiques, qui reposent sur des probabilités statistiques, un modèle d’IA pourrait analyser des millions de variantes génétiques en quelques secondes et identifier des corrélations subtiles que les approches traditionnelles ne détectent pas. Cette perspective ouvre la voie à une amélioration significative de la pertinence des portraits ADN, facilitant l’identification des suspects en l’absence d’autres indices exploitables. La plate-forme Forenseek a exploré les avancées actuelles dans ce domaine, mais l’IA n’a pas encore été pleinement exploitée pour surpasser les méthodes existantes [5]​. Son intégration pourrait donc constituer une avancée majeure dans l’enquête criminelle.

Il est important de noter que dans tous ces exemples, l’IA ne remplace pas l’humain mais le complète. À l’IRCGN (Institut de Recherche Criminelle de la Gendarmerie Nationale) cité plus haut, si la majorité des profils ADN de routine et de bonne qualité peuvent être traités automatiquement, un contrôle qualité humain régulier subsiste : chaque semaine, un technicien revérifie aléatoirement des dossiers traités par l’IA, pour s’assurer qu’aucune dérive n’apparaît [3]​. Cette collaboration homme-machine est la clé d’un déploiement réussi, car le savoir-faire de l’expert criminalistique reste indispensable pour valider et interpréter finement les résultats, notamment lorsqu’un cas est complexe.

Intelligence artificielle IA en police scientifique et cybercriminalité - Forenseek

Des algorithmes nourris aux données : comment l’IA «apprend» en forensique

Les performances impressionnantes de l’IA en criminalistique reposent sur une ressource cruciale : les données. Pour qu’un algorithme d’apprentissage automatique sache identifier une empreinte digitale ou interpréter un profil ADN, il doit préalablement être entraîné sur de nombreux exemples. Concrètement, nous lui fournissons des jeux de données représentatifs, comportant chacun des entrées (images, signaux, profils génétiques, etc.) associées à un résultat attendu (identité du bon suspect, composition exacte du profil ADN, etc.). En analysant ces milliers (voir millions) d’exemples, la machine ajuste ses paramètres internes afin de reproduire au mieux les décisions des experts humains. On parle d’apprentissage supervisé, car l’IA apprend à partir de cas que l’on connaît déjà. Par exemple, pour entraîner un modèle à reconnaître des profils ADN, nous utilisons des données issues de cas résolus où l’on sait quel était le résultat attendu.

La performance d’une IA dépend de la qualité des données qui l’entraînent.

Plus le volume de données d’entraînement est grand et varié, mieux l’IA pourra détecter des motifs robustes et fiables. Toutefois, toutes les données ne se valent pas. Il faut s’assurer qu’elles soient de bonne qualité (par exemple, des images bien annotées, des profils ADN sans erreur de saisie) et qu’elles couvrent une diversité de situations suffisante. Si on biaise le système en ne lui montrant qu’un éventail restreint de cas, ce dernier risque d’échouer face à un scénario un peu différent. En génétique, cela signifie par exemple d’inclure des profils d’origines ethniques variées, des niveaux de dégradation différents, des configurations de mélanges multiples, afin que l’algorithme apprenne à gérer toutes les sources de variations possibles.

La transparence dans la composition des données est un impératif. Des études ont montré que certaines bases de données forensiques sont démographiquement déséquilibrées : par exemple, la base américaine CODIS comporte une sur-représentation de profils d’individus afro-américains par rapport aux autres groupes [6]​. Un modèle entraîné naïvement sur ces données pourrait hériter de biais systématiques et produire des résultats moins fiables ou moins justes pour des populations sous-représentées. Il est donc indispensable de contrôler les biais dans les données d’apprentissage et, si nécessaire, de les corriger (par échantillonnage équilibré, augmentation de données minoritaires, etc.) afin d’obtenir un apprentissage équitable.

Techniquement, l’entraînement d’une IA passe par des étapes rigoureuses de validation croisée et de mesure de performance. On divise généralement les données en trois ensembles : un pour l’apprentissage, un pour la validation pendant le développement (pour ajuster les paramètres) et un jeu de test final pour évaluer le modèle de façon objective. Des métriques quantitatives comme la précision, le rappel (sensibilité) ou les courbes d’erreur permettent de quantifier la fiabilité de l’algorithme sur des données qu’il n’a jamais vues [6]. On peut ainsi vérifier, par exemple, que l’IA identifie correctement une grande majorité des auteurs à partir de traces, tout en maintenant un faible taux de faux positifs. De plus en plus, nous intégrons également des critères de justice et d’éthique dans ces évaluations : nous examinerons si la performance reste constante quel que soit le groupe démographique ou la condition du test (genre, âge, etc.), afin de s’assurer qu’aucun biais inacceptable ne subsiste [6]. Enfin, le respect des contraintes juridiques (telles que le RGPD en Europe, qui encadre l’utilisation des données personnelles) doit être intégré dès la phase de conception du système [6]. Cela peut impliquer d’anonymiser les données, de limiter certaines informations sensibles ou de prévoir des procédures en cas de détection d’un biais éthique.

En définitive, la performance d’une IA dépend de la qualité des données qui l’entraînent. Dans le domaine forensique, cela signifie que les algorithmes « apprennent » à partir de l’expertise humaine accumulée. Chaque décision algorithmique porte en filigrane l’expérience de centaines d’experts qui ont fourni des exemples ou ajusté les paramètres. C’est à la fois une force (nous capitalisons sur une base de connaissance énorme) et une responsabilité : celle de bien sélectionner, préparer et contrôler les données qui serviront à nourrir l’intelligence artificielle.

Défis techniques et opérationnels pour intégrer l’IA en police scientifique

Si l’IA fait miroiter des gains substantiels, son intégration concrète sur le terrain forensique s’accompagne de nombreux défis. Il ne suffit pas d’entraîner un modèle en laboratoire : encore faut-il pouvoir l’utiliser dans le cadre contraint d’une enquête judiciaire, avec toutes les exigences de fiabilité que cela implique. Parmi les principaux défis techniques et organisationnels, on peut citer :

  • Accès aux données et infrastructures : paradoxalement, alors que l’IA a besoin de beaucoup de données pour apprendre, il peut être difficile de rassembler ces données en quantité suffisante dans le domaine forensique visé. Les profils ADN, par exemple, sont des données personnelles hautement sensibles, protégées par la loi et cloisonnées dans des bases sécurisées. Obtenir des jeux de données assez volumineux pour entraîner un algorithme peut nécessiter des coopérations complexes entre services, ou la génération de données synthétiques pour combler les manques. De plus, les outils informatiques doivent être adaptés pour traiter en temps raisonnable des masses de données – ce qui implique des investissements en matériel (serveurs, GPU2 pour le deep learning3) et en logiciels spécialisés. Certaines initiatives nationales commencent à voir le jour pour mutualiser des données forensiques de façon sécurisée, mais cela reste un chantier en cours.

  • Qualité des annotations et biais : l’apprentissage d’une IA dépend de la qualité de l’annotation des données d’entraînement. Dans bien des domaines forensiques, établir le « vrai » n’est pas trivial. Par exemple, pour entraîner un algorithme à reconnaître un visage sur une vidéo de surveillance, il faut que chaque visage soit correctement identifié par un humain au préalable – ce qui peut être ardu si l’image est floue ou partielle. De même, étiqueter des jeux de traces de semelles, de fibres ou des empreintes demandent un travail méticuleux d’experts, avec parfois une part de subjectivité. Si les données d’apprentissage comportent des erreurs d’annotation ou des biais historiques, l’IA les reproduira​ [6]. Un biais classique est lié à la représentativité démographique mentionnée plus haut, mais il peut y en avoir d’autres. Par exemple, si nous entraînons un modèle de détection d’armes principalement sur des images d’armes en intérieur, il sera moins performant pour détecter une arme en extérieur, sous la pluie, etc. La qualité et la diversité des données annotées sont donc un enjeu technique majeur. Cela implique d’établir des protocoles rigoureux de collecte et d’annotation (idéalement standardisés au niveau international), ainsi qu’un contrôle continu pour détecter les dérives du modèle (surapprentissage sur certains cas, perte de performance dans le temps, etc.). Cette validation repose sur des études expérimentales comparant les performances de l’IA aux experts humains. Toutefois, la complexité des procédures d’homologation et d’acquisition freine parfois l’adoption, retardant de plusieurs années la mise en service de nouveaux outils en criminalistique.
Intelligence Artificielle IA en police scientifique et en sciences forensiques cybercriminalité - Forenseek
  • Compréhension et acceptation par les acteurs judiciaires : introduire de l’intelligence artificielle dans le processus judiciaire soulève inévitablement la question de la confiance. Un enquêteur ou un technicien de laboratoire, formé aux méthodes classiques, doit apprendre à utiliser et à interpréter les résultats fournis par l’IA. Cela nécessite des formations et une acculturation progressive pour que l’outil devienne un allié et non une «boîte noire incomprise». Plus largement, les magistrats, avocats et jurés qui auront à discuter ces preuves doivent aussi en saisir les principes. Or, expliquer le fonctionnement interne d’un réseau de neurones ou la signification statistique d’un score de similarité n’est pas aisé. Nous observons parfois une incompréhension ou une méfiance de la part de certains acteurs judiciaires face à ces méthodes algorithmiques [6]. Si un juge ne comprend pas comment une conclusion a été obtenue, il pourrait être enclin à la rejeter ou à lui accorder moins de poids, par prudence. De même, un avocat de la défense cherchera légitimement à scruter les failles d’un outil qu’il ne connaît pas, ce qui peut donner lieu à des débats judiciaires autour de la validité de l’IA. Un défi conséquent est donc de rendre l’IA explicable (concept de «XAI» pour eXplainable AI), ou du moins d’en présenter les résultats dans un format compréhensible et pédagogiquement acceptable par un tribunal. Sans cela, l’intégration de l’IA risque de se heurter à un refus ou à des controverses lors des procès, limitant son apport pratique.
  • Cadre réglementaire et protection des données : enfin, les sciences forensiques évoluent dans un cadre légal strict, notamment en ce qui concerne les données personnelles (profil ADN, données biométriques, etc…) et la procédure pénale. L’utilisation d’une IA doit respecter ces régulations. En France, la CNIL (Commission Nationale de l’Informatique et des Libertés) veille au grain et peut imposer des restrictions si un traitement algorithmique porte atteinte à la vie privée. Par exemple, entraîner une IA sur des profils ADN nominatifs sans base légale serait impensable. Il faut souvent innover tout en restant dans les clous juridiques, ce qui impose des contraintes dès la conception des projets. Par ailleurs, le secret industriel autour de certains algorithmes pose un problème dans le contexte judiciaire : si un éditeur refuse de divulguer le fonctionnement interne de son logiciel pour des raisons de propriété intellectuelle, comment la défense ou le juge peuvent-ils s’assurer de sa fiabilité ? Des cas récents ont montré des accusés condamnés sur la foi de logiciels propriétaires (par exemple d’analyse ADN) sans que la défense n’ait pu examiner le code source utilisé [7]. Ces situations soulèvent un enjeu de transparence et de droits de la défense. Aux États-Unis, une proposition de loi intitulée «Justice in Forensic Algorithms Act» entend justement faire en sorte que le secret commercial ne puisse pas empêcher l’examen par des experts des algorithmes employés en criminalistique, afin de garantir l’équité des procès. Cela illustre bien la nécessité d’adapter le cadre réglementaire à ces nouvelles technologies.

Le manque de coopération ralentit la mise au point d’outils performants et limite leur adoption sur le terrain.

  • Un autre obstacle, plus structurel, réside dans la difficulté d’intégrer des profils hybrides aux institutions forensiques tout du moins en France. Aujourd’hui, les concours et les recrutements restent souvent cloisonnés entre différentes spécialités, limitant l’émergence d’experts possédant une double compétence. Par exemple, dans la police scientifique, le concours de technicien ou d’ingénieur de police scientifique est accessible via des spécialités distinctes, comme la biologie ou l’informatique, mais ne permet pas de valoriser une expertise combinée aux deux. Cette rigidité institutionnelle freine l’intégration de professionnels capables de faire le lien entre les domaines et d’exploiter pleinement le potentiel de l’IA en criminalistique. Pourtant, les avancées technologiques actuelles montrent que l’analyse des traces biologiques repose de plus en plus sur des outils numériques avancés. Face à cette évolution, une plus grande souplesse dans le recrutement et la formation des experts forensiques sera nécessaire pour répondre aux défis de demain.

L’IA en criminalistique ne doit pas être un enjeu de compétition ou de prestige entre laboratoires, mais un outil mis au service de la justice et de la vérité, au bénéfice des enquêteurs et des victimes.

  • Un autre frein majeur à l’innovation en criminalistique est le cloisonnement des efforts entre les différents acteurs du domaine qui travaillent en parallèle sur des problématiques identiques, sans mutualiser leurs avancées. Ce manque de coopération ralentit la mise au point d’outils performants et limite leur adoption sur le terrain. Pourtant, en partageant nos ressources – qu’il s’agisse de bases de données, de méthodologies ou d’algorithmes – nous pourrions accélérer la mise en production des solutions IA et garantir une amélioration continue fondée sur l’expertise de chacun. Mon expérience à travers les différents laboratoires français (Le Laboratoire de Police Scientifique de Lyon (Service National de Police Scientifique SNPS), L’Institut de Recherche Criminelle de la Gendarmerie Nationale (IRCGN) et maintenant l’Institut Génétique Nantes Atlantique IGNA) me permet de mesurer combien cette fragmentation freine les progrès, alors que nous poursuivons un même objectif : améliorer la résolution des enquêtes. C’est pourquoi il est essentiel de promouvoir le développement en open source lorsque cela est possible et de créer des plateformes de collaboration entre les entités publiques et judiciaires. L’IA en criminalistique ne doit pas être un enjeu de compétition ou de prestige entre laboratoires, mais un outil mis au service de la justice et de la vérité, au bénéfice des enquêteurs et des victimes.
Intelligence Artificielle IA en police scientifique et en sciences forensiques - Forenseek

Enjeux éthiques et légaux : innover sans renoncer aux garanties

Les défis évoqués ci-dessus ont tous une dimension technique, mais ils s’entremêlent à des questions éthiques et juridiques fondamentales. D’un point de vue éthique, la priorité absolue est de ne pas causer d’injustice par l’usage de l’IA. Il faut à tout prix éviter qu’un algorithme mal conçu n’entraîne l’inculpation injustifiée d’une personne ou, à l’inverse, le relâchement d’un coupable. Cela passe par la maîtrise des biais (pour ne pas discriminer certains groupes), par la transparence (pour que chaque partie au procès puisse comprendre et contester la preuve algorithmique) et par la responsabilisation des décisions. En effet, qui est responsable si une IA se trompe ? L’expert qui l’a utilisée à tort, le concepteur du logiciel, ou personne car «la machine a fait une erreur» ? Ce flou n’est pas acceptable en justice : il importe de toujours garder l’expertise humaine dans la boucle, de façon qu’une décision finale – incriminer ou disculper – repose sur une évaluation humaine éclairée par l’IA, et non sur le verdict opaque d’un automate.

Sur le plan légal, le paysage est en train d’évoluer pour encadrer l’utilisation de l’IA. L’Union européenne, notamment, finalise un Règlement sur l’IA (AI Act) qui sera la première législation au monde à définir un cadre pour le développement, la commercialisation et l’utilisation des systèmes d’intelligence artificielle​ [8]. Son objectif est de minimiser les risques pour la sécurité et les droits fondamentaux des personnes, en imposant des obligations en fonction du niveau de risque de l’application (et nul doute que les usages en matière pénale seront classés parmi les plus sensibles). En France, la CNIL a publié des recommandations soulignant qu’il est possible de concilier innovation et respect des droits des personnes lors du développement de solutions d’IA [9]​. Cela passe par exemple par le respect du RGPD, la limitation des finalités (nous n’entraînons un modèle qu’à des fins légitimes et clairement définies), la proportionnalité des données collectées, et l’évaluation d’impact préalable pour tout système algorithmique susceptible d’affecter significativement les individus. Ces garde-fous visent à ce que l’enthousiasme pour l’IA ne se fasse pas au détriment des principes fondamentaux de la justice et de la vie privée.

Encourager l’innovation tout en exigeant une validation scientifique solide et une transparence sur les méthodes

Un équilibre délicat doit donc être trouvé entre innovation technologique et cadre réglementaire. D’un côté, brider excessivement l’expérimentation et l’adoption de l’IA en criminalistique pourrait priver les enquêteurs d’outils potentiellement salvateurs dans la résolution d’enquêtes complexes. De l’autre, laisser le champ libre sans règles ni contrôle serait prendre le risque d’erreurs judiciaires ou d’atteintes aux droits. La solution réside sans doute dans une approche mesurée : encourager l’innovation tout en exigeant une validation scientifique solide et une transparence sur les méthodes. Des comités d’éthique et des experts indépendants peuvent être associés pour auditer les algorithmes, vérifier qu’ils respectent bien les normes et qu’ils ne reproduisent pas de biais problématiques. En outre, il convient d’informer et de former les professionnels du droit à ces nouvelles technologies, afin qu’ils soient en mesure d’en discuter avec pertinence lors des procès. Un juge formé aux concepts de base de l’IA sera plus à même de comprendre la valeur probante (et les limites) d’une preuve issue d’un algorithme.

Conclusion : L’avenir de la criminalistique à l’ère de l’IA

L’intelligence artificielle est en passe de transformer en profondeur la criminalistique, apportant aux enquêteurs des outils d’analyse plus rapides, plus précis et capables d’exploiter des volumes de données autrefois inaccessibles. Qu’il s’agisse de passer au crible des giga-octets d’informations numériques, de comparer des traces latentes avec une fiabilité accrue, ou de démêler des profils ADN complexes en quelques minutes, l’IA ouvre de nouvelles perspectives pour résoudre les enquêtes plus efficacement.

Mais cette avancée technologique s’accompagne de défis cruciaux. Techniques d’apprentissage, qualité des bases de données, biais algorithmiques, transparence des décisions, cadre réglementaire : autant d’enjeux qui détermineront si l’IA peut réellement renforcer la justice sans la fragiliser. À l’heure où la confiance du public dans les outils numériques est plus que jamais mise à l’épreuve, il est impératif d’intégrer ces innovations avec rigueur et responsabilité.

L’avenir de l’IA en criminalistique ne sera pas un face-à-face entre la machine et l’homme, mais un travail de collaboration où l’expertise humaine restera centrale. La technologie pourra aider à voir plus vite, plus loin, mais l’interprétation, le discernement et la prise de décision resteront entre les mains des experts forensiques et du monde judiciaire. Dès lors, la vraie question n’est peut-être pas jusqu’où l’IA peut aller en criminalistique, mais comment saurons-nous l’encadrer afin qu’elle puisse garantir une justice éthique et équitable. Serons-nous capables d’exploiter sa puissance tout en préservant les fondements mêmes du procès équitable et du droit à la défense ?

La révolution est en marche. Il nous appartient désormais d’en faire un progrès et non une dérive.

Bibliographie

[1]​ : Océane DUBOUST. L’IA peut-elle aider la police scientifique à trouver des similitudes dans les empreintes digitales ? Euronews, 12/01/2024 [vue le 15/03/2025] https://fr.euronews.com/next/2024/01/12/lia-peut-elle-aider-la-police-scientifique-a-trouver-des-similitudes-dans-les-empreintes-d#:~:text=,il
[2] : International Journal of Multidisciplinary Research and Publications. The Role of Artificial Intelligence in Forensic Science: Transforming Investigations through Technology. Muhammad Arjamand et al. Volume 7, Issue 5, pp. 67-70, 2024. Disponible sur : http://ijmrap.com/ [vue le 15/03/2025]
[3]​ : Gendarmerie Nationale. Kit universel, puce RFID, IA : le PJGN à la pointe de la technologie sur l’ADN.  Mis à jour le 22/01/2025 et disponible sur : https://www.gendarmerie.interieur.gouv.fr/pjgn/recherche-et-innovation/kit-universel-puce-rfid-ia-le-pjgn-a-la-pointe-de-la-technologie-sur-l-adn [vue le 15/03/2025]
[4]​ : Michelle TAYLOR. EXCLUSIVE: Brand New Deterministic Software Can Deconvolute a DNA Mixture in Seconds.  Forensic Magazine, 29/03/022. Disponible sur : https://www.forensicmag.com [vue le 15/03/2025]
[5]​ : Sébastien AGUILAR. L’ADN à l’origine des portraits-robot ! Forenseek, 05/01/2023. Disponible sur : https://www.forenseek.fr/adn-a-l-origine-des-portraits-robot/ [vue le 15/03/2025]
[6]​ : Max M. Houck, Ph.D.  CSI/AI: The Potential for Artificial Intelligence in Forensic Science.  iShine News, 29/10/2024. Disponible sur : https://www.ishinews.com/csi-ai-the-potential-for-artificial-intelligence-in-forensic-science/ [vue le 15/03/2025]
[7]​ : Mark Takano.  Black box algorithms’ use in criminal justice system tackled by bill reintroduced by reps. Takano and evans.  Takano House, 15/02/2024. Disponible sur : https://takano.house.gov/newsroom/press-releases/black-box-algorithms-use-in-criminal-justice-system-tackled-by-bill-reintroduced-by-reps-takano-and-evans [vue le 15/03/2025]
[8] : Mon Expert RGPD. Artificial Intelligence Act : La CNIL répond aux premières questions.  Disponible sur : https://monexpertrgpd.com [vue le 15/03/2025]
[9]​ ​: ​ CNIL.  Les fiches pratiques IA.  Disponible sur : https://www.cnil.fr [vue le 15/03/2025]

Définitions :

  1. Le Machine Learning (apprentissage automatique) est une branche de l’intelligence artificielle qui permet aux ordinateurs d’apprendre à partir de données sans être explicitement programmés. Il repose sur des algorithmes capables de détecter des motifs, de faire des prédictions et d’améliorer leurs performances avec l’expérience. ↩︎
  2. Un GPU (Graphics Processing Unit) est un processeur spécialisé conçu pour exécuter des calculs massivement parallèles, principalement utilisés pour le rendu graphique. Contrairement aux CPU (processeurs centraux) qui exécutent un nombre limité de tâches séquentielles avec des cœurs optimisés pour la polyvalence, les GPU possèdent des milliers de cœurs optimisés pour effectuer des opérations simultanées sur de grandes quantités de données. ↩︎
  3. Le Deep Learning (apprentissage profond) est une branche du Machine Learning qui utilise des réseaux de neurones artificiels composés de plusieurs couches pour modéliser des représentations complexes des données. Inspiré du fonctionnement du cerveau humain, il permet aux systèmes d’IA d’apprendre à partir de grandes quantités de données et d’améliorer leurs performances avec l’expérience. Le Deep Learning est particulièrement efficace pour le traitement des images, de la parole, du texte et des signaux complexes, avec des applications en vision par ordinateur, reconnaissance vocale, médecine légale et cybersécurité. ↩︎
Microbiome sexome nouvelle technique d'identification pour la police scientifique Forenseek

Le sexome, une preuve potentielle dans les agressions sexuelles

Grâce aux nouvelles techniques de prélèvement et d’analyse, les sciences forensiques jouent un rôle essentiel dans la résolution des crimes sexuels. Là où la recherche de sperme est mise en échec, le sexome, encore appelé microbiome génital, pourrait prendre le relais et devenir un outil complémentaire, voire déterminant.

Qu’est-ce que le sexome ? A l’heure où l’on découvre l’importance du microbiote humain dans de nombreux domaines de la santé, les chercheurs ne se limitent plus à l’analyse de cette flore bactérienne qui colonise la peau et l’intestin. Ils s’intéressent également aux micro-organismes qui peuplent les zones génitales féminines et masculines, le microbiome génital. Pour des questions de santé et notamment la prévention des infections sexuelles, mais pas seulement.

Une signature microbienne unique

L’étude menée par une équipe de chercheurs de l’Université Murdoch de Perth en Australie sur une douzaine de couples hétérosexuels, a en effet mis en évidence que chaque individu possède une flore microbienne génitale qui lui est propre. Plus abondante chez la femme que chez l’homme, elle se transfère de l’un à l’autre lors d’un rapport sexuel.  Pour Brendan Chapman, scientifique médico-légal et co-auteur de cette étude, la découverte de ces « traces » pourrait devenir une alternative efficace pour identifier l’auteur d’un crime sexuel.

Une identification possible même avec un préservatif

Selon les scientifiques à l’origine de cette découverte, cette nouvelle technique pourrait intervenir de manière décisive lorsque l’analyse ADN du sperme se révèle problématique.  Le prélèvement du matériel biologique sur une victime d’agression sexuelle est désormais très au point et permet grâce aux banques de données génétiques, de nombreuses identifications. Mais la méthode se heurte à plusieurs difficultés, notamment à la réalité temporelle. Au-delà de 48 heures, la quantité de spermatozoïdes diminue drastiquement et peut être insuffisante pour mener à bien des analyses concluantes. Par ailleurs, en l’absence d’éjaculation ou en présence d’un préservatif, ces traces biologiques sont inexistantes.

En revanche, grâce à des techniques de séquençage sophistiquées, il est possible de détecter la signature sexuelle transférée d’un partenaire à l’autre dans les échantillons prélevés jusqu’à cinq jours après le contact sexuel. Mieux encore, ces transferts sont détectables après le lavage des parties intimes, et même si c’est dans une moindre proportion, lorsqu’il y a eu utilisation d’un préservatif. Dans ce cas, précise Brendam Chapman, ce sont surtout les éléments du microbiome sexuel féminin qui sont retrouvés sur l’appareil génital masculin. De quoi confondre encore plus d’agresseurs sexuels même en l’absence d’ADN et cela, sans avoir besoin de réaliser de nouveaux prélèvements sur les victimes déjà fortement traumatisées !

La prochaine étape pour les scientifiques est d’affiner la technique en vérifiant quels sont les facteurs qui peuvent affecter le sexome, en particulier le microbiome vaginal soumis au cycle menstruel, ces variations risquant de fausser les résultats. Une recherche qui s’avère pleine d’espoir pour les sciences forensiques.

Lire l’étude complète (en anglais) ici

IA intelligence artificielle contre la délinquance Police - Forenseek

Intelligence Artificielle (IA) : Un levier dans la lutte contre la délinquance

Par Benoit Fayet, consultant Défense & Sécurité Sopra Steria Next, membre du Comité stratégique du CRSIet Bruno Maillot, expert Data et Intelligence Artificielle Sopra Steria Next, pour le Centre de Réflexion sur la Sécurité Intérieure.

Élément de contexte

La majorité des Français expérimente l’IA sans parfois s’en rendre compte au quotidien : transports, commerce électronique, énergie, santé, domotique, agriculture etc. L’IA est en revanche moins présente dans le secteur de la sécurité et les métiers exercés par les Forces de sécurité intérieure (FSI), qu’ils soient policiers ou gendarmes nationaux alors que depuis des années l’informatique, les nouvelles technologies ont fait évoluer ces métiers, et que les Armées ou les Collectivités territoriales l’utilisent beaucoup plus sur des problématiques parfois proches. Les policiers et gendarmes nationaux s’appuient en effet aujourd’hui massivement sur le numérique, notamment pour :

  • Leurs activités au quotidien avec des systèmes d’informations et des applications qu’ils utilisent pour prendre un dépôt de plainte, rédiger des procédures, consulter des informations sur un individu, ou avec le développement de la biométrie largement utilisée, pour identifier et authentifier des individus (prise d’empreintes digitales, etc.),
  • Leurs échanges sur le terrain par des réseaux de communication adaptés, des outils mobiles pour les accompagner sur la voie publique ou en intervention.
  • Le suivi de la délinquance notamment localement ou en cas de gestion de crise (vidéoprotection, centre de commandement, etc.)
  • La prise en charge des victimes avec le développement récent de sites en ligne et applications présentant les mêmes offres qu’en unité (dépôt de plainte, signalement, etc.)

L’IA représente un levier décisif pour venir renforcer chacun de ces usages numériques actuels par les policiers et gendarmes nationaux. En effet, les outils numériques dont ils disposent déjà, les données qu’ils exploitent au quotidien et d’ores et déjà disponibles ainsi que leurs besoins opérationnels pourraient permettre cela, offrant ainsi une nouvelle révolution numérique au ministère de l’Intérieur.

En effet, l’IA n’est pas simplement un outil mais est une innovation disruptive des métiers et des pratiques professionnelles et pourrait ainsi amener des transformations en profondeur pour les métiers exercées par les policiers et gendarmes nationaux, notamment ceux en tension et en crise comme en police judiciaire. L’IA pourrait en outre répondre aux multiples irritants du quotidien que les Français subissent sur le plan de la sécurité en permettant par exemple d’augmenter la présence policière sur la voie publique par la réduction du temps consacré par les policiers et gendarmes nationaux à des tâches techniques ou administratives en unité ou en augmentant concrètement leurs capacités d’enquête, en permettant d’améliorer les taux d’élucidation de certaines infractions ou délits. Les capacités analytiques de l’IA dans le traitement de données complexes par exemple pourrait également venir renforcer la lutte contre la criminalité organisée ou le narcotrafic.

Pour déployer des systèmes d’IA, de nombreux prérequis sont toutefois nécessaires, à commencer par une bonne maîtrise du cadre juridique national et européen relatif à l’IA. Ensuite, il est indispensable de poser le cadre politique de l’usage de l’IA afin d’en faciliter l’acceptation par les policiers et gendarmes nationaux eux-mêmes et par les Français afin que l’IA soit identifiée comme un outil, non une fin en soi. La prise de décision et le contrôle devront toujours relever des forces de police, pour éviter de basculer dans « la civilisation des machines », comme le redoutait déjà Georges Bernanos dans La France contre les robots (1947).

L’IA représente un levier décisif pour venir renforcer chacun de ces usages numériques actuels par les policiers et gendarmes nationaux.

Enfin, dans un contexte accru de cybermenaces et de menace sur nos souverainetés, il conviendrait de s’assurer de la maturité, de la résilience des technologies employées et de travailler à une nécessaire identification des outils les plus sécurisés. Un point de vigilance doit ainsi être évoqué concernant le manque de souveraineté technologique de l’UE et de la France sur des solutions d’IA provenant aujourd’hui majoritairement de l’espace extra-européen. Il convient donc d’identifier des outils d’IA qui ne permettent pas une perte de cette souveraineté et d’une vulnérabilité renforcée à des opérations d’intelligence ou d’influence.

Les objectifs de cet article sont donc d’analyser les potentialités permises par le cadre juridique actuel pour s’appuyer sur l’IA dans le secteur de la sécurité intérieure et d’identifier des usages opérationnels concrets, réalistes à un horizon rapproché et maîtrisés d’un point de vue technologique.

Des premiers usages de l’IA en cours, une bascule avec les JO de Paris 2024 ?

Des projets existent déjà en France, que ce soit sur la voie publique dans le traitement de la délinquance, sur des activités à caractère administratif ou d’investigation. De récentes innovations autour de l’IA ont été permises avec les JO de Paris 2024.

De l’IA utilisée pour aider à la prise de décision dans la lutte contre la délinquance

L’IA a d’ores et déjà été sollicitée car elle répond parfaitement au cœur de métier des Forces de sécurité intérieure (FSI), à savoir l’anticipation et la prévention de faits, en l’occurrence de délinquance. L’IA a été développée non pas pour les prédire mais pour mieux les comprendre, les analyser et in fine aider à décider. En effet, la délinquance n’est pas un fait aléatoire et peut être analysée en récupérant des données statistiques sur un territoire défini et alimenter des modèles permettant aux FSI de mieux opérer au quotidien sur ce territoire (localisation, horaires des patrouilles, etc.). Des méthodes analytiques ont été utilisées par la Gendarmerie nationale sur des données non personnelles issues du Service Statistique Ministériel de la Sécurité Intérieure (SSMSI) et ensuite exploitées par de la data visualisation pour cartographier et suivre l’évolution de la délinquance sur un territoire. Il ne s’agit donc pas d’outils de police prédictive, car ils ne prévoient rien mais d’analyse décisionnelle sur des faits passés et qui peuvent fournir une orientation aux FSI qui ne peuvent croiser autant de données sans la capacité d’analyse de l’IA. La méthode consiste à regarder à titre d’exemple où ont eu lieu des cambriolages et des atteintes aux véhicules sur une période donnée et un territoire pour en déduire où risque de se produire les prochains. L’idée est de s’en servir pour cibler des territoires précis et planifier l’engagement de FSI où l’infraction risque de se produire et dissuader la délinquance.

D’autres expérimentations avec des outils plus prédictifs allant au-delà de l’aide à la décision et comprenant une prédiction en termes de risque ou d’occurrence ont aussi été réalisées mais n’ont pas démontré leur plus-value opérationnelle.

De l’IA développée pour aider au traitement de données en police judiciaire

Des premiers outils de traitement de données à base d’IA ont aussi été développés par la Gendarmerie nationale pour appuyer des phases d’enquête et d’investigation. Des outils peuvent ainsi être employés pour appuyer les FSI dans la surveillance de communications dans le cadre d’une enquête pour détecter des langues parlées dans des écoutes téléphoniques autorisées par un juge d’instruction, pour retranscrire et traduire les échanges, identifier et signaler les sujets pertinents pour l’enquête via des réseaux récurrents de neurones.

De même, un projet a été développé permettant la retranscription d’audition filmée d’une victime et offrant un outil d’annotation des objets d’un texte de procédure (personnes, lieux, date, objets, etc.).

Enfin, l’Agence du Numérique des Forces de Sécurité Intérieure (ANFSI), en charge du développement de leurs équipements numériques, expérimente un outil de réalisation du compte rendu d’intervention
simplifié par « commande vocale » sur les outils mobiles NEO.

Un tournant décisif avec les JO de Paris 2024 ?

A l’occasion des JO de Paris 2024, la « vidéo augmentée » a été autorisée en Île-de-France, sous la supervision de la préfecture de Police de Paris. La loi du 19 mai 2023 a permis en effet, pour la première fois, la mise en œuvre de solutions d’IA dans la vidéoprotection, dans un cadre strict excluant l’utilisation de la reconnaissance faciale. L’expérimentation ne visait que la détection d’évènements prédéterminés à savoir la présence d’objets abandonnés, la présence ou utilisation d’armes, le non-respect par un véhicule du sens de ce circulation ou d’une zone interdite, les mouvements de foule et les départs de feux. L’article 10 a notamment autorisé la mise en œuvre de l’IA sur certains flux vidéo à partir de caméras fixes aux fins de détecter certaines situations pour sécuriser les événements particulièrement exposés à un risque terroriste ou d’atteinte à la sécurité des personnes. Un comité d’évaluation de ces caméras algorithmiques doit remettre un rapport d’ici la fin de l’année 2024. D’ores et déjà, plusieurs cas d’usage de la vidéoprotection intelligente ont été jugés très efficaces, notamment ceux qui ont permis une détection d’individus dans des zones non autorisées, facilitant en outre l’ajustement de la présence policière dans ces zones, une détection d’une densité de population ou de mouvements de foule (liés à des rixes, etc.) ou encore des interpellations dans les transports urbains.

En synthèse, si des projets existent, ceux-ci restent toutefois à la marge, loin d’un passage à l’échelle généralisé qui devrait s’inscrire en outre dans un cadre juridique contraint et évolutif.

Un cadre juridique national clair et récemment renforcé au niveau européen avec l’IA Act

En France, un cadre strict avec la CNIL, des tentatives politiques pour avancer

La CNIL a formulé plusieurs recommandations précises afin de veiller à des déploiements de systèmes d’IA respectueux de la vie privée des individus en suivant les dispositions de la loi « Informatique et Libertés » de 1978 ou la directive européenne dite « Police-Justice » de 2016 définissant les règles relatives à la protection des données à l’égard de systèmes d’informations utilisés par les FSI. Les autorités publiques responsables de systèmes d’IA ont ainsi des obligations de transparence afin de rendre publiques les évaluations de ces systèmes et doivent suivre le principe de double proportionnalité, qui assure que l’usage de l’IA est justifié selon le cadre opérationnel (patrouille, enquête pour un délit, crime ou une menace terroriste) et le type de données utilisées (données personnelles, statistiques, etc.). Pour la CNIL, il convient donc d’appliquer aux systèmes d’IA les règles du droit commun des données (durées de conservation, contrôle indépendant, etc.).

En parallèle, le ministère de l’Intérieur et le pouvoir législatif ont avancé sur cette ligne de crête tracée par la CNIL que ce soit via le livre blanc de la Sécurité Intérieure (2020) ou la Loi d’Orientation et de Programmation du ministère de l’Intérieur (LOPMI, 2023), qui ont notamment formulé puis encadré par la loi les cas d’usage pouvant justifier l’utilisation de l’IA dans le secteur de la sécurité. Un cadre avait aussi été proposé pour des expérimentations, en perspective des JO de Paris 2024 : anonymisation des données, stockage sécurisé, prise de décision et maintien d’un contrôle des technologies par des agents.

La Commission Européenne a élaboré un règlement, l’IA Act, visant à encadrer l’utilisation de l’IA en Europe, voté par le Parlement européen en décembre 2023 et qui entrera en application en août 2026.

Un cadre renforcé au niveau européen avec l’IA Act

Complétant ce cadre national, la Commission Européenne a élaboré un règlement, l’IA Act, visant à encadrer l’utilisation de l’IA en Europe, voté par le Parlement européen en décembre 2023 et qui entrera en application en août 2026. L’objectif est de garantir que les systèmes d’IA utilisés dans l’Union Européenne soient sûrs, transparents et sous contrôle humain. Une vigilance accrue est portée sur les IA génératives qui créent des textes, du code et des images. L’IA Act apporte ainsi un cadre juridique précis concernant les usages dans la sphère publique et en particulier pour ce qui concerne la sécurité :

  • Des IA sont interdites car dangereuses : identification biométrique dans les espaces publics, base de données de reconnaissance faciale (dont permettant une comparaison avec des données en open source), système de police prédictive, etc.
  • Des IA sont encadrées car à haut risque avec de la documentation à fournir, un contrôle humain, des impératifs de conformité, de l’évaluation continue : système de catégorisation biométrique, gestion de la migration, etc.
  • Des IA à risque limité sont permises avec obligation de transparence : système de détections d’objets, etc. (Dès février 2025, les IA interdites devront être supprimées ou mises en conformité. A compter d’août 2025, les IA encadrées et à risque limité devront être mises en conformité.)

Il est à noter que l’IA Act fournit des exceptions notamment dans le cadre d’opérations de maintien de l’ordre permettant de la reconnaissance faciale « à distance » (avec caméra ou drone), « sous réserve d’une autorisation judiciaire préalable et pour des listes d’infractions strictement définie » concernant « la recherche d’une personne condamnée ou soupçonnée d’avoir commis un crime grave ».

Les perspectives d’usage et d’application de l’IA dans le secteur de la sécurité intérieure

Compte tenu des réflexions déjà engagées et du cadre réglementaire posé, il convient désormais de se projeter sur les apports concrets que l’IA pourrait amener dans les métiers de la sécurité exercés par la police et la gendarmerie nationales, en s’appuyant sur les technologies existantes, les développements récents notamment autour de l’IA générative, et en identifiant les conditions pour de tels usages : échanges et communications, accès à la donnée, simplification des tâches techniques, analyse de la donnée dans les phases d’enquête, etc.

L’IA doit venir en appui des FSI, sans devenir « l’agent », c’est-à-dire que les tâches qui pourraient être confiées à une IA devront rester sous la primauté humaine en contrôle et en validation.

Il est important de rappeler que les usages identifiés dans cette note le sont dans une démarche prospective qui tient compte du cadre juridique évoqué précédemment et s’inscrivent dans un usage de l’IA soucieux d’apporter une plus-value opérationnelle aux FSI tout en ne transigeant pas sur les enjeux éthiques de protection des données, d’un usage raisonné des données loin des pratiques de certains pays non européens qu’il convient d’éviter pour préserver notre modèle démocratique français. L’IA doit venir en appui des FSI, sans devenir « l’agent », c’est-à-dire que les tâches qui pourraient être confiées à une IA devront rester sous la primauté humaine en contrôle et en validation. Cette délégation doit ainsi accélérer l’action, la décision mais ne doit pas créer une dépendance. Il s’agit donc d’identifier les bons cas d’usage, sur les activités notamment à non ou faible valeur ajoutée afin de maintenir chez les FSI la capacité à prendre les décisions et à faire preuve d’agentivité.

L’IA, pour optimiser les échanges et la communication entre les FSI

Dans un contexte sécuritaire fortement dégradé, les enjeux autour de la communication et du partage de la donnée entre FSI sont clés que ce soit au quotidien en patrouille ou en intervention en termes de conduite à tenir (connaissance de la situation, des individus, etc.) ou a fortiori en cas d‘opérations contre des narcotrafiquants ou des situations plus graves (attentats, etc.).

Des cas d’usage précis, comme la capacité à centraliser puis traiter les données issues des équipements mobiles des FSI ou issues de caméras de vidéoprotection (vidéo, voix, radio, dialogues et appels entre FSI) sont aujourd’hui irréalisables et pourrait l’être en s’appuyant sur des outils intégrant de l’IA, alors que le nombre de données collectées ne cesse de croître. Ces facilités permettraient d’être plus performants grâce à une proximité renforcée et une facilité à se projeter dans les situations opérationnelles et pourraient être intégrées au programme en cours de transformation des moyens de communication des FSI via la mise en place d’un réseau mobile très haut débit. L’IA peut être un atout majeur pour aider au partage d’informations et de renseignements et pour que ceux-ci arrivent plus vite au niveau des policiers et gendarmes nationaux, pour qu’ils puissent traiter le problème identifié avant qu’il ne se détériore, dans le cas par exemple de détection de signaux faibles en lien avec les Cellules de renseignement opérationnel sur les stupéfiants (CROSS) ou la démarche partenariale entre élus, polices municipales, associations, permet d’échanger des informations qu’un outil d’IA peut traiter et qualifier rapidement.

L’IA, pour produire de la connaissance et appuyer l’action des FSI en temps réel

Produisant de plus en plus de données, notamment grâce à leurs outils mobiles, les FSI réalisent leurs missions dans un environnement où les données produites par des tiers sont en outre de plus en plus nombreuses. Face à cette double évolution, une stratégie de valorisation de ces données avec l’IA pourraient être développée combinant de l’analyse des données du passé, notamment dans des outils décisionnels déjà existants mais aussi de l’enrichissement de l’information opérationnelle en temps réel (géolocalisation des patrouilles, notes d’analyse transmises par de l’IA générative, etc.), le développement algorithmique et la valorisation de certaines données depuis l’extérieur (dans le respect des exigences posées par l’IA Act) avec par exemple l’analyse des données réelles des flux de déplacement de personnes dans les différents réseaux de transports urbains d’une métropole dans le cas d’une mission d’interpellation ou également en sécurité routière dans la gestion du trafic, en détectant en temps réel les accidents ou les perturbations, facilitant ainsi des réponses immédiates et informées.

L’une des caractéristiques apportées par l’IA est sa capacité à signaler automatiquement des incidents. Si des conditions ou des scénarios prédéfinis sont détectés, tels que des rixes ou des mouvements de foule, un système à base d’IA peut générer automatiquement des rapports d’incidents détaillés et envoyer des alertes aux FSI pour évaluer la situation. Cela accélère non seulement le processus de documentation, mais garantit également que même des infractions ou incidents mineurs (incivilités, dégradations), qui pourraient être négligés, soient remontés et traités.

De plus, la multiplication des données disponibles peut permettre de disposer en temps réel d’un nombre croissant d’informations. La situation tactique pourrait ainsi être enrichie par des données opérationnelles (géolocalisation des patrouilles, y compris d’autres acteurs « producteurs » de sécurité comme les polices municipales, la sécurité privée, géolocalisation d’une personne ciblée par une enquête ou une intervention), des données de contexte (points d’intérêt, densité, état des réseaux, etc.) et des données de capteurs (caméras piétons, etc.). L’IA peut aller chercher ces données nombreuses et diverses, les structurer et les rendre en temps réel aux FSI sur le terrain en voie publique pour des délais d’intervention plus rapides par exemple (communication automatique de données, etc.).

L’enjeu dans ce cas est de bien définir les besoins et les cas d’usage pour disposer de données pertinentes, exploitables et de travailler à la restitution (notamment par de la cartographie) ou à l’automatisation de la présentation des données dans les SI utilisés par les FSI ou leurs outils mobiles.

L’IA appliquée à ces tâches techniques en les automatisant pourrait permettre de faire gagner du temps aux FSI dans leurs activités au quotidien sur ce même type de tâches et les recentrer ainsi sur leur cœur de métier afin de permettre plus de présence sur le terrain, dans la rue en patrouille afin de renforcer le lien avec la population, dissuader et prévenir des faits de délinquance.

L’IA, pour faciliter, accélérer et rendre plus simple les tâches administratives et techniques des FSI

Les FSI déplorent que leur temps de travail soit de plus en plus consacré à des tâches administratives et rédactionnelles répétitives, lourdes et sans valeur ajoutée. L’apport de l’IA pour ce type de tâches techniques de «back-office» est largement répandu dans d’autres secteurs d’activité notamment avec l’IA générative qui bascule de l’analyse passive à la création active de contenus.

Ainsi, l’IA appliquée à ces tâches techniques en les automatisant pourrait permettre de faire gagner du temps aux FSI dans leurs activités au quotidien sur ce même type de tâches et les recentrer ainsi sur leur cœur de métier afin de permettre plus de présence sur le terrain, dans la rue en patrouille afin de renforcer le lien avec la population, dissuader et prévenir des faits de délinquance. Un des retours d’expérience des JO de Paris 2024 est que la présence massive et visible de FSI dans la rue a été non seulement efficace, mais aussi appréciée des populations.

Appuyer la rédaction des procédures, collecter des informations

L’IA ouvre ainsi de nombreuses fonctionnalités pour faciliter voire supprimer des tâches répétitives et chronophages qui constituent le quotidien des FSI dans des procédures de verbalisation (rédaction de procès-verbaux, etc.) d’interpellation, de prise de dépôt de plainte ou d’enquête. Sur des phases rédactionnelles et de transcription, l’IA pourrait permettre d’aller plus vite dans la rédaction de procès-verbaux que ce soit en unité ou en mobilité via de la génération automatisée de texte ou de propositions de texte (par exemple réglementaire), l’extraction d’informations d’intérêt dans des documents, l’accélération du traitement de bandes vidéo par élimination ou sélection de scènes sur requête sémantique, le masquage de passages, extraits ou parties de documents (identification d’une partie spécifique ou d’un segment dans une masse de vidéos via des « transformers », etc.).

L’usage de l’IA dans ce cadre se ferait sur la base de réseaux récurrents de neurones interprétant des flux de données et qui ont une mémoire des textes, des enchaînements de mots ou de phrases comme des réseaux de neurones biologiques mais avec une puissance de calcul multipliée et peuvent donc apporter de la valeur sur des activités rédactionnelles et de transcription.

Afin de permettre aux FSI de travailler plus efficacement, l’IA pourrait également démultiplier l’efficacité d’outils déjà en place au ministère de l’Intérieur comme l’intégration du traitement du langage naturel dans les outils du quotidien (réalisation de rapports ou de procès-verbaux par commandes vocales par exemple dans la rue, etc.). L’IA est ainsi un levier pour donner plus de temps aux FSI pour se concentrer sur des tâches à valeur ajoutée, en leur permettant par exemple pendant les temps de garde-à-vue de travailler un dossier, d’interroger un individu plutôt que de consacrer ce temps court à des actes administratifs et techniques (La durée d’une garde à vue est de 24 heures mais peut être portée à 48 heures lorsque le délit ou le crime concerné est puni d’une peine supérieure à un an d’emprisonnement. Pour certaines infractions, elle peut atteindre jusqu’à 96 heures (trafic de stupéfiants, terrorisme, association de malfaiteurs, etc.).

Vérifier des faits, aider à la recherche de preuves

Le recueil des déclarations, des témoignages, les différentes auditions constituent la base du travail d’investigation et souvent le premier pas dans la recherche des contradictions ou la vérification des faits. Les centaines de pièces qui viennent bien souvent enrichir un dossier sont encore essentiellement transcrites par un enquêteur, mais de plus en plus fréquemment, ou lorsque cela est prévu par la loi, elles sont filmées et enregistrées. A terme, elles pourraient être directement enregistrées et retranscrites automatiquement par un système à base d’IA constituant des données pouvant ensuite être rapidement exploitées et confrontées par les FSI qui pourront ainsi se concentrer sur l’analyse, la recherche de faits et in fine améliorer le taux d’élucidation des affaires.

Cette capacité d’agrégation est un des apports majeurs de l’IA qu’il convient d’appréhender au regard du cadre juridique énoncé par la CNIL mais qui peut permette d’offrir la possibilité aux FSI de disposer plus facilement et plus rapidement des informations qu’ils recherchent.

Rechercher des informations dans les systèmes d’information

L’IA pourrait aussi permettre de faciliter les travaux de recherche d’informations sur un individu ou un groupe d’individus interpellés ou recherchés. Ces phases de recherche sur des données biographiques, des données sur des antécédents judiciaires sont le quotidien des FSI et se font dans les différents fichiers de police mis à leur disposition (FPR – Fichier des Personnes Recherchées, TAJ – Traitement des antécédents judiciaires, etc.). Ces fichiers de police fonctionnent en silo et communiquent peu entre eux, notamment dans le but de respecter leurs finalités de traitement, conformément aux principes de la CNIL. Ainsi, le partage d’informations entre les fichiers est limité à des interfaçages applicatifs, et les FSI doivent souvent consulter un ou plusieurs fichiers en parallèle. Au regard de la profusion de données et du volume à analyser quotidiennement, l’IA pourrait permettre de dépasser cette problématique et faciliter la vie des FSI en leur apportant l’information agrégée. Cette capacité d’agrégation est un des apports majeurs de l’IA qu’il convient d’appréhender au regard du cadre juridique énoncé par la CNIL mais qui peut permette d’offrir la possibilité aux FSI de disposer plus facilement et plus rapidement des informations qu’ils recherchent, phase clé que ce soit pour leur sécurité personnelle en cas d’interpellation (disposer de l’information de la conduite à tenir rapidement vis-à-vis de l’individu interpellé), pour améliorer l’efficacité des contrôles sur la voie publique (garantie d’identifier la bonne personne par exemple dans le cas d’un contrôle) et enfin dans le domaine de la police judiciaire. L’IA pourrait ainsi utilement appuyer par exemple des rapprochements de données, désormais autorisés entre les systèmes de lecture automatisée des plaques d’immatriculation (LAPI) avec d’autres systèmes d’information, comme le fichier des véhicules volés, celui des données relatives à l’assurance des véhicules ou encore le système de contrôle automatisé. Cette capacité d’agrégation de l’IA pourrait aussi permettre de faciliter le recours à des saisies sur compte bancaire via les systèmes d’information du ministère de l’Economie et des Finances, pour améliorer le recouvrement des amendes, notamment les amendes forfaitaires délictuelles (AFD), ou pour s’adresser directement au « portefeuille » de certains délinquants, volonté politique affichée du Ministre de l’Intérieur, Bruno Retailleau.

Fiabiliser les fichiers de police et leurs usages

A côté de la consultation, une tâche récurrente consiste à également « alimenter » les fichiers de police sur des individus interpellés ou recherchés, avec des éléments descriptifs de faits, d’infractions, et surtout d’informations sur leurs identités (biographiques ou biométriques). Cette phase est clé, notamment pour ce qui concerne l’acquisition de données biométriques, car elle préfigure ensuite de la qualité des bases de données et permet ensuite dans le cas d’une infraction ou d’un crime d’authentifier des individus interpellés mis en cause ou des individus victimes. La puissance des algorithmes d’IA peut ainsi identifier et mettre en évidence les minuties (points spécifiques sur une empreinte digitale) avec plus de précision que l’œil humain, conduisant à des comparaisons plus précises.

L’interrogation des fichiers de police comportant les bases de données d’empreintes digitales ou génétiques pourrait aussi être automatisée avec l’IA pour aller plus vite et fiabiliser les comparaisons. Par ailleurs, la mise en œuvre d’une automatisation des contrôles de qualité technique permettrait de sécuriser la qualité d’acquisition des données par une application d’aide à la prise de vue des empreintes et de détecter automatiquement les empreintes photos non conformes. De même, l’IA pourrait être bénéfique pour la prise en compte des empreintes digitales laissées involontairement sur des surfaces (dites « latentes ») qui peuvent être parfois partielles, floues ou de mauvaise qualité. L’IA pourrait combler les parties manquantes en se basant sur des motifs reconnus, permettant de meilleures correspondances.

Sur des phases d’enquête et d’investigation, il pourrait être également opportun de s’appuyer sur l’IA pour de la recherche de données et la comparaison avec des bases de données importantes

L’IA, pour renforcer les activités d’analyse des FSI et mieux combattre la délinquance

Travailler sur des grandes masses de données

L’IA offre des opportunités de calcul et d’automatisation de certaines tâches pour les FSI confrontées à des masses de données à traiter, que ce soit dans des tâches administratives (criblage, etc.) ou des activités de police judiciaire. Des agents du ministère de l’Intérieur ont par exemple la charge d’activités de « criblage » des personnes embauchées sur des métiers sensibles auprès de l’ensemble des fichiers de police à analyser pour « valider » la personne concernée. Sur ces activités d’analyse de masse sur des fichiers de données sécurisées, un apport par de l’IA pour aller plus vite et fiabiliser les enquêtes pourrait amener de la valeur et concentrer l’œil humain sur l’essentiel ou permettre un contrôle et une décision in fine plus rapide. L’IA pourrait offrir aussi la possibilité d’optimiser les activités de contrôle par une automatisation des détections de cas de consultation anormale des fichiers de police.

Sur des phases d’enquête et d’investigation, il pourrait être également opportun de s’appuyer sur l’IA pour de la recherche de données et la comparaison avec des bases de données importantes pour renforcer les taux d’élucidation de crimes, par exemple avec la comparaison génétique et le fichier dédié des empreintes génétiques (FNAEG). L’analyse ADN est une des méthodes les plus employées par la police scientifique pour identifier l’auteur d’un crime. De plus, l’IA pourrait faciliter les enquêtes judiciaires ou les pièces et dossiers sont toujours plus volumineux et complexes. Devant la multiplicité et l’hétérogénéité des données, la puissance de calcul de l’IA peut permettre de mieux les classer, les lier entre elles et se souvenir de tout dans un délai très court. L’enquêteur pourrait donc analyser et confronter plus rapidement, avec moins d’erreur pour in fine améliorer les taux d’élucidation des affaires.

Ensuite, la plupart des données d’une enquête judiciaire sont stockées sur des disques durs afin d’être conservées. Des outils d’assistance à même de croiser et lier ces données sont nécessaires pour identifier des indices parmi les grandes masses de données disponibles. L’IA pourrait accomplir ce travail de classification et de connexions entre les faits et les indices, qui sont retrouvés dans les dossiers judiciaires. Un enjeu clé est la gestion de volumétrie de masse pour la donnée judiciaire, pour aller plus vite dans des processus d’enquête et d’investigation, sur la voie publique ou en intervention pour permettre une décision plus rapide. Il s’agit, ici aussi, de bien définir les cas d’usage et d’entraîner au préalable les systèmes à base d’IA pour assurer une pertinence des analyses via de la génération de données synthétiques.

Mieux analyser et interpréter des images, des sons et en grande quantité

L’IA générative introduit de nouvelles techniques qui permettent d’analyser et interpréter des images. Les développements génératifs de l’IA peuvent apporter beaucoup dans l’exploitation d’images en phase d’enquête, en étant capable de comprendre des requêtes, de sortir les éléments demandés d’une image, avec une capacité à exploiter des images en grande quantité avec des données hétérogènes. Ces solutions pourraient permettre d’appuyer les phases d’enquête par l’analyse de photos de scènes de crime, d’accident de la route ou d’images issues d’un centre de supervision urbain (CSU) et identifier ainsi des images d’intérêt (détection de véhicules, de personnes, etc.). De même, la vision par ordinateur pourrait devenir un atout majeur grâce à l’utilisation de réseaux neuronaux qui permettent d’interpréter et d’analyser à large échelle des informations visuelles complexes. Ces réseaux inspirés du fonctionnement du cerveau humain peuvent avoir un intérêt pour de la détection de surfaces spécifiques à partir de photographies aériennes ou d’images satellites qui peuvent être utiles aux policiers nationaux et gendarmes pour identifier des véhicules recherchés, des points de deal, etc.

L’IA permettra ainsi une plus grande vigilance dans l’observation d’images de vidéoprotection et donc une meilleure efficacité et une accélération de la réponse à apporter à des situations suspectes (points de deal, rixes, rassemblements, etc.). En effet, il est estimé qu’un opérateur d’un centre de supervision ou de commandement, au bout d’une heure d’observation d’images ou de vidéos en temps réel, perd de sa vigilance et potentiellement 50% des événements peuvent lui échapper. A terme, un opérateur d’un centre de supervision ou de commandement pourrait avec des systèmes d’IA ne plus regarder de flux en temps réel mais se concentrer sur de la levée de doutes, de l’analyse et de la prise de décision.

L’IA peut en effet accélérer le processus d’analyse actuellement effectué par l’œil humain et donc de détection via des outils effectuant de l’analyse d’image et de l’analyse comportementale avec des algorithmes de réseau à convolution capables de repérer des objets, des faits ou des individus. Actuellement les techniques d’apprentissage permettent de retrouver la photo d’un individu, d’un objet, d’une arme parmi les milliers de photos contenues communément dans un ordinateur, un téléphone. Les techniques d’apprentissage de l’IA dédiées à la reconnaissance d’objets ou de formes dans un contenu constituent un apport non négligeable.

Enfin, l’IA peut apporter beaucoup avec les technologies de reconnaissance vocale qui peuvent déchiffrer les caractéristiques vocales propres à chaque individu, convertir les mots parlés en modèles qui peuvent être exploités, comparés à des empreintes vocales stockées (échantillons vocaux provenant d’appels téléphoniques ou d’enregistrements).

L’IA permettra ainsi une plus grande vigilance dans l’observation d’images de vidéoprotection et donc une meilleure efficacité et une accélération de la réponse à apporter à des situations suspectes

Mieux analyser et détecter rapidement

Le recueil d’information en source ouverte (OSINT, SOCMINT) est une pratique désormais commune et répandue du fait de la multiplicité des données disponibles (réseaux sociaux, etc.). L’appui de l’IA sur ces phases de recueil d’information est fondamental pour détecter et caractériser rapidement des situations de danger et d’urgence à une vitesse supérieure à celle à laquelle des réseaux criminels ou des narcotrafiquants peuvent effacer leurs traces numériques par exemple ou pour réaliser par exemple de la veille pour analyser le « bruit informationnel » (web scraping, etc.), en intégrant le cadre fixé par l’IA Act (exclusion de la reconnaissance faciale, etc.), pour détecter et contrer de la propagande ou de la désinformation. En utilisant des algorithmes avancés d’IA et d’apprentissage automatique, il est possible d’analyser de vastes quantités de données à grande vitesse pour identifier des motifs, des mots-clés ou des contenus visuels, ce qui peut être décisif dans des enquêtes d’ampleur par exemple (narcotrafic, criminalité organisée). De plus, les systèmes pilotés par l’IA peuvent être entraînés sur des matériaux de propagande ou de désinformation connus pour repérer de manière proactive de nouveaux contenus partageant des caractéristiques similaires et les signaler, assurant une suppression réactive et efficace de ces contenus avant qu’ils ne se propagent.

Pour assurer l’efficacité de ces outils, l’enjeu réside dans la capacité à gérer des données structurées (mots, signes, chiffres, etc.) et non structurées à grande échelle (images, sons, vidéos, etc.), de disposer de plateformes pour les traiter et les rendre exploitables grâce à des modèles d’apprentissage automatiques auto-apprenants, ces outils pouvant en effet reformater ces données non structurées. Les technologies d’analyse automatisée du langage écrit, qui reposent sur l’IA, permettent de procéder à de l’analyse et de l’extraction de contenus, et traitent des volumes d’informations qu’il serait impossible de réaliser manuellement.

L’IA peut enfin permettre d’accéder à une vitesse de réponse plus rapide, via l’apprentissage automatique par exemple en donnant une multitude de données à un système d’IA qui va apprendre, au fur et à mesure, à les traiter automatiquement. Par exemple, un suivi de la trace du véhicule d’un auteur de crime en fuite est possible à travers les caméras de surveillance, l’analyse des vidéos se fera plus rapidement qu’une analyse humaine qui peut alors se concentrer sur l’exploitation des données et le contrôle de l’usage.

L’IA pourrait permettre d’appuyer des opérateurs d’un centre de supervision urbain dans leurs activités : détection de déchets, d’objets abandonnés, d’armes ou de départ de feu, calcul du temps de présence d’un véhicule, stationnement près de lieux sensibles, passage feux rouges, franchissement de lignes, analyse de mouvements de foule, etc.

L’IA, pour augmenter les capacités d’enquête et d’élucidation des faits

Les volumes de données à exploiter en phases d’enquêtes (flux vidéos, images) sont telles que leur exploitation est désormais impossible sans aide numérique. L’augmentation considérable de la volumétrie des données numériques génère une contrainte sur la capacité des FSI à les exploiter. L’utilisation de l’IA devient ainsi une nécessité, et à terme une condition indispensable de la capacité d’exploitation de données ou informations pouvant contribuer à l’établissement d’une preuve. Il est donc nécessaire que les FSI disposent d’outils de rationalisation de l’analyse vidéos, les assistant dans des phases d’enquête permettant de libérer un enquêteur de la visualisation de la totalité de sources vidéos ou d’images, ce qui fera gagner du temps et sera plus efficace, évitant toute perte de concentration dans la visualisation de ces flux et offrant la possibilité de se consacrer à des tâches d’analyse à plus grande valeur ajoutée. A défaut d’IA, il peut être considéré en outre que des enquêteurs renonceraient dans certaines affaires, faute de temps, à une exploitation systématique des sources vidéo disponibles et donc de preuves numériques particulièrement efficaces.

Parmi les éléments d’enquêtes, les enquêteurs disposent souvent d’auditions, de relevés bancaires, téléphonique, et des déclarations qui pourraient faire l’objet d’exploitation par des logiciels à base d’IA dédiés à relever des incohérences, à les repositionner dans une échelle de temps et géographiques ou à générer des schémas relationnels. L’incrémentation de ces données à partir des documents papiers ou numériques est longue. Les outils de l’IA pourraient permettre de détecter ces éléments directement dans des textes, à les identifier et les classer selon leur signification et à générer automatiquement des schémas relationnels. Le gain de temps et la souplesse d’emploi de ces outils offrent un apport réel avec par exemple la capacité de procéder à des classements et des liens, en temps réel à partir d’enregistrements sonores ou numériques, à suggérer des questions qui appuieront le travail des enquêteurs pour leur permettre d’identifier et interpeller plus vite.

L’IA pourrait aussi permettre des détections en temps réel et sur des flux très importants de faux documents, de fraudes que des agents ne peuvent faire et permettre ainsi de meilleurs taux d’élucidation des affaires. Dans les domaines de l’identité, les applications peuvent être multiples ainsi que dans le domaine de la sécurité routière que ce soit pour lutter contre la fraude au permis de conduire, la fraude à l’assurance ou contre des démarches frauduleuses, spécifiques et répétitives (fraudes liées à la contestation en cas d’amendes routières, fraude à l’immatriculation, vols de véhicules, etc.). Enfin, en utilisant des outils d’analyse pilotés par l’IA, les enquêteurs pourraient analyser des millions de transactions financières et détecter des volumes importants de données, tels que des mouvements de fonds suspects pour identifier des opérations de blanchiment difficiles à appréhender. Cela se traduirait concrètement par une capacité accrue à analyser et comprendre les schémas criminels, les connexions et environnements de mise en cause, à détecter des liens et faciliter la lutte contre des réseaux criminels organisés (narcotrafic, etc.). Récemment, les démantèlements de l’outil de communication cryptée EncroChat ou de la messagerie cryptée Matrix ont démontré le rôle crucial de l’analyse de données complexes.

Enfin, l’IA pourrait venir sécuriser les exploitations par les FSI d’images, de documents, de vidéos en automatisant le masquage de passages, extraits ou parties de documents à des fins de renforcement de la protection des données personnelles et du respect de la vie privée dans la lignée des recommandations de la CNIL et de l’IA Act. L’IA peut en effet détecter des éléments dans une donnée non structurée comme une image via des réseaux à convolution et opérer un filtre sur ce qui a été défini au préalable comme étant à masquer. L’utilisation de l’IA peut aussi permettre d’exploiter avec précision et rapidité des outils comme les caméras-piétons pour établir des preuves, dans le cas par exemple d’une mise en cause des FSI dans le cadre d’une intervention.

L’IA pourrait aussi faciliter des démarches type dépôt de plainte ou renouvellement de titres administratifs

L’IA, pour renforcer la prise en charge des victimes

Depuis quelques années, des sites en ligne ou applications sont déployés par le ministère de l’Intérieur permettant de signaler et déclarer des faits, de procéder à un dépôt de plainte (Perceval (plateforme de signalement des fraudes à la carte bancaire), Pharos (plateforme de signalement de contenus illicites sur internet), THESEE (plateforme de signalement des e-escroqueries), PNAV (plateforme numérique de signalement des atteintes aux personnes et de l’accompagnement des victimes), etc.) ou d’accéder à des informations en ligne (localiser une brigade ou un commissariat, etc.). Ces sites offrent des possibilités pour les citoyens en termes de démarches et aussi un levier concret de développement des usages autour de la donnée. Il s’agit d’un nouveau « gisement » de données bien souvent structurées (mots, signes, chiffres, etc.) qu’il conviendrait de développer et valoriser par de l’IA (cartographies des signalements, localisation de données sur la délinquance, types de faits par localisation, etc.) ou pour mettre à disposition des FSI sur le terrain en voie publique pour des délais d’intervention plus rapides par exemple (production de statistiques et de communications automatiques, etc.).

Par ailleurs, le développement de ces sites offre l’opportunité de réfléchir à de nouveaux usages de collecte d’informations et de renseignements. Ces sites pourraient s’inscrire dans une logique de renforcement des capacités de détection des signaux, même faibles, via de l’IA dans un contexte sécuritaire qui impose de diversifier les canaux de remontée des signalements en mobilisant tous les capteurs disponibles.

L’IA, pour faire évoluer la relation entre la police et la population

L’IA pourrait aussi faciliter des démarches type dépôt de plainte ou renouvellement de titres administratifs en ayant recours à des assistants conversationnels (chatbot ou callbot) pour obtenir des informations ou le service attendu.

En ajoutant des capacités d’IA aux logiciels de prise de plainte, les policiers et gendarmes nationaux en charge en unité de ces tâches pourraient en outre mieux et plus rapidement prendre en charge les victimes (obtention de rendez-vous dans un délai court via de la catégorisation, etc.). Ainsi, les services de plainte en ligne pourraient être également améliorés grâce à des possibilités offertes d’enregistrer automatiquement les plaintes et les analyser pour orienter les victimes vers les personnes compétentes et proposer la démarche la plus adaptée à l’événement (réponse automatisée avec récépissé de plainte, visioplainte avec un agent, rendez-vous en unité, etc.).

Recommandations et conclusion : Développer un modèle d’IA dans un cadre d’emploi clair et sécurisé

Les retours d’expérience réussis des JO de Paris 2024, les développements technologiques récents appellent à une nécessaire réflexion sur l’IA. En effet, le contexte sécuritaire fortement dégradé en France, une délinquance de plus en plus organisée, des métiers complexes et en tension dans lesquels le numérique est toujours plus présent (enquête, investigation), impliquent de recourir aux outils disponibles comme l’IA qui sont capables d’aider à la résolution de situations, l’élucidation d’affaires et apporter des réponses fortes pour permettre aux FSI de faire face.

L’IA n’est pas une fin en soi mais peut être un levier puissant pour améliorer le travail des FSI, comme le furent l’informatique ou la biométrie, et tel doit être le sens de cette innovation technologique. Pour permettre cela, il faut donc s’assurer de :

  • Un cadre politique clair pour rassurer la société dans son ensemble et stabiliser le cadre législatif.
  • Une stratégie ministérielle pour sécuriser les FSI dans l’utilisation de l’IA, associée à une gouvernance claire.
  • Une identification des bons cas d’usage de l’IA, des bons projets et de réunir les conditions pour passer à l’échelle : qualité des données pour assurer l’efficience des outils, robustesse, résilience et sécurité by-design des systèmes pour limiter les vulnérabilités face aux risques cyber venant d’une délinquance aguerrie sur ce type de menaces, auditabilité des systèmes pour comprendre et améliorer les résultats proposés par ces systèmes, etc.
  • Une approche intégrée à la fois éthique, juridique et technologique pour appréhender systématiquement l’importance des données manipulées, et qui nécessitent de mettre en place des équilibres en termes de sécurité informatique et de transparence vis-à-vis de la société.
  • Une identification des outils d’IA dont l’usage ne se fasse pas au prix d’une perte de souveraineté de la France et d’un risque de vulnérabilité renforcé face à des fuites de données, des cyberattaques ou des opérations d’intelligence ou d’influence (lutte informationnelle, etc.).

Faire ces pas technologiques est nécessaire pour être à la hauteur des enjeux forts de tranquillité publique et de sécurité qui se posent aujourd’hui en France.

ADN trafic drogue narcotrafic - police scientifique

L’ADN traque aussi les narcotraficants

Du produit brut au sachet de drogue vendu dans la rue, chaque étape de manipulation multiplie les occasions de laisser des traces. Qu’il s’agisse d’empreintes digitales ou de résidus biologiques (ADN), ces indices sont précieux pour remonter jusqu’aux trafiquants.

L’ADN, clé des enquêtes criminelles

Depuis quelques années, l’analyse de l’ADN est devenue un outil incontournable pour élucider les affaires criminelles, y compris les plus anciennes (les « cold cases »). Dans une étude récente menée à l’Université Flinders, l’équipe de la doctorante en sciences forensiques Madison Nolan et du Professeur Adrian Linacre propose d’aller encore plus loin dans l’identification des suspects impliqués dans le trafic de stupéfiants grâce au profilage génétique.

Le conditionnement comme source de preuves

Avant d’être vendue, la drogue doit être transformée et conditionnée dans différents types d’emballages, qui deviennent alors une mine d’informations pour la police scientifique. Cependant, la répétition des manipulations et l’exposition aux facteurs extérieurs peuvent altérer l’ADN, le rendant parfois inexploitable. Pour améliorer le travail des enquêteurs, les chercheurs de Flinders se sont concentrés sur les zones d’emballage les plus susceptibles de conserver ces traces biologiques.

De meilleurs transferts à l’intérieur

Selon leurs conclusions, la présence d’ADN est particulièrement significative sur les gélules contenant des substances en poudre et sur les surfaces internes des sachets « Ziploc » qui renferment ces gélules, notamment au niveau des bords intérieurs de la fermeture. Même un bref contact (environ 30 secondes) suffit à y déposer des quantités d’ADN suffisantes. Le fait que ces traces se situent à l’intérieur de l’emballage limite par ailleurs les risques de contamination extérieure.

Des perspectives nouvelles pour les enquêtes

Pour la police scientifique, cette étude fournit de nouvelles pistes pour optimiser les prélèvements lors de saisies de drogue. En ciblant principalement l’extérieur des gélules et l’intérieur des sachets, il devient possible d’obtenir des profils génétiques de meilleure qualité, à condition de respecter scrupuleusement les procédures afin d’éviter toute contamination. Il n’en reste pas moins que, comme le rappellent les chercheurs, l’ADN récupéré peut déjà être altéré par les conditions de transport et de manipulation préalables, ce qui limite parfois sa fiabilité.

Sources :

https://www.sciencedirect.com/science/article/pii/S1872497324001789 https://news.flinders.edu.au/blog/2025/02/03/dna-study-targets-drug-making/

De la recherche ADN aux analyses de données numériques : l’évolution fulgurante de la police scientifique

La police scientifique n’a jamais été aussi performante qu’aujourd’hui. Grâce aux avancées technologiques, les enquêtes criminelles bénéficient désormais d’outils d’investigation pointus, permettant notamment de résoudre des affaires de meurtre, de viol, de vol à main armée ou encore de terrorisme. Dans ce contexte, le concours de la Police Scientifique revêt une importance capitale, car il permet de recruter de futurs Techniciens de Police Technique et Scientifique (TPTS), chargés d’intervenir rapidement sur les scènes de crime.

Un soutien essentiel pour la Police Judiciaire

En effet, l’expertise de la police scientifique fait gagner un temps précieux à la Police Judiciaire, que ce soit dans la gestion d’une scène de crime (homicide, assassinat, etc.) ou d’une scène de délit (vol, cambriolage, dégradations, trafic de stupéfiants). L’analyse d’indices tels que les empreintes digitales, l’ADN, les fibres, les éléments balistiques ou encore les traces numériques contribue à établir des preuves solides face aux tribunaux et permet de mieux cerner le profil des suspects.

L’importance du facteur humain

Malgré ces moyens technologiques de pointe, les effectifs de la police scientifique restent profondément humains. Chaque jour, ces professionnels doivent composer avec des situations parfois dramatiques et faire face à la détresse des victimes. Dans l’émission LEGEND sur YouTube, animée par Guillaume Pley, le policier scientifique Sébastien Aguilar, souligne l’impact psychologique de ces enquêtes. Il évoque des affaires hors du commun, parfois totalement folles, mais aussi des cas dont la violence l’a marqué pour toujours.

Police Scientifique : un métier loin des clichés

Cette réalité du terrain est souvent bien différente des clichés véhiculés au sujet de la police scientifique. Dans son ouvrage « Au cœur de l’enquête criminelle », publié dans la collection Darkside chez Hachette, Sébastien Aguilar décrit pas à pas le travail rigoureux des enquêteurs, épaulés par les policiers scientifiques entièrement dédiés à la recherche de la vérité. Il y relate également les différentes étapes qui mènent au procès en Cour d’Assises, offrant un aperçu complet du fonctionnement de la machine judiciaire.

Si vous souhaitez en savoir plus sur l’impact psychologique du métier, les techniques d’investigation modernes ou encore l’importance du concours de Technicien de Police Technique et Scientifique, retrouvez l’interview de Sébastien Aguilar par Guillaume Pley sur YouTube et plongez-vous dans « Au cœur de l’enquête criminelle » pour une immersion totale dans l’univers passionnant de la police scientifique.

Affaire Michel Fourniret et Monique Olivier - Forenseek

Fourniret : Ma rencontre avec un couple tueur en série

Procureur de le République à Charleville-Mézières de 2003 à 2008, j’ai été en charge de l’affaire Fourniret / Monique Olivier pendant 4 années et obtenu à leur procès d’assises leur condamnation à la réclusion criminelle à perpétuité. C’est une affaire exceptionnelle par le nombre de petites ou de jeunes filles victimes, par la durée du périple criminel de ce couple tueur en série, par l’abomination et l’inhumanité des crimes perpétrés et par la perversité inouïe de ces deux monstres.

Il m’a fallu 15 années après le procès de 2008 pour écrire mon livre « Ma rencontre avec le Mal » qui n’est pas une narration journalistique de tous ces crimes odieux mais l’écriture de mon vécu, ma part de vérité. Une tentative de contribution à la connaissance du traitement particulier que nécessite les grandes affaires criminelles et les crimes sériels, ainsi que les défis pénaux, criminologiques et sociaux qu’ils revêtent. Et surtout mon livre a été voulu pour tenter de faire comprendre si tant soit peu les tourments terribles et définitifs endurés par toutes les familles de ces malheureuses victimes pour qu’elles puissent être mieux écoutées par la justice, être l’objet d’une meilleure écoute et d’une empathie constante tout au long de leur éprouvant périple judiciaire.

La découverte glaçante d’un tueur en série

Dès ma nomination en qualité de procureur de la République à Charleville-Mézières en 2003, je prends immédiatement connaissance de deux affaires criminelles très graves, l’enlèvement et le meurtre de deux jeunes victimes.Le 16 mai 2000, Céline, âgée de 18 ans, disparaît à sa sortie d’un lycée de Charleville-Mézières. Toute fugue est rapidement exclue et les recherches entreprises immédiatement demeurent vaines jusqu’au 22 juillet 2000, date à laquelle ses ossements sont découverts dans un bois proche, à la frontière belge. Le 5 mai 2001, Mananya, 13 ans et demi, disparaît à son tour à Sedan, commune ardennaise, alors qu’elle sortait de la médiathèque et regagnait son domicile. Le 1er mars 2002, son corps est retrouvé à une trentaine de kilomètres, à proximité d’un village belge.  Les analogies entre ces deux crimes sont trop nombreuses pour imaginer de simples coïncidences, la proximité géographique des faits et des lieux de la découverte des corps, le mode opératoire des enlèvements en zone urbaine en toute discrétion, les détails de leur abandon, le profil physique et psychologique des victimes… Avec les juges d’instruction et les enquêteurs de la police judiciaire de Reims, l’hypothèse effrayante d’un tueur en série dans les Ardennes devient de plus en plus crédible. En dépit d’investigations multiples menées conjointement par les services de police judiciaire de Reims et de Dinan, en Belgique, les recherches restent infructueuses. Jusqu’au 26 juin 2003 où se produit un événement majeur qui va relancer ces deux enquêtes. Ce jour-là, une petite fille, Marie-Ascension, 13 ans, est enlevée en Belgique et, grâce à son courage et à son sang-froid, réussit à se défaire de ses liens et à s’enfuir de la camionnette dans laquelle son ravisseur l’avait séquestrée. Une automobiliste l’a recueillie et, fort intelligemment, parvient à relever l’immatriculation de ce véhicule, que les gendarmes attribuent à Monique Olivier, l’épouse de Michel Fourniret. Celui-ci est rapidement interpellé. Il reconnaît les faits et précise l’avoir ligotée, caressé ses seins, envisagé une relation sexuelle avec la fillette et lui avoir dit « qu’il était bien pire que Dutroux ».

Les perquisitions effectuées à son domicile permettent de retrouver des vêtements d’enfants, des cordes, du ruban adhésif, une paire de menottes, un masque inhalateur pour enfant, des ampoules d’éther et des armes diverses, notamment des revolvers de police dérobés lors d’un cambriolage.

Fourniret s’engage à tuer les deux précédents conjoints de Monique Olivier et, en échange, celle-ci lui offrira des jeunes filles vierges qu’ils appellent « des MSP (membranes sur pattes) » ou « des jeunes fentes » 

Michel Fourniret - Forenseek

Michel Fourniret et Monique Olivier : l’alliance mortelle d’un couple tueur en série

Monique Olivier déclare tout ignorer d’un quelconque penchant de son mari pour les enfants, ignorer tout de ses condamnations antérieures et affirmer, à l’instar de Fourniret, que cet enlèvement reste un cas isolé. Il faudra une année entière et le travail considérable des enquêteurs belges qui l’ont interrogée à 120 reprises, ainsi que la sonorisation d’un parloir, pour obtenir enfin ses premiers aveux, très partiels, quant au nombre de crimes commis et sa propre participation. Quelques jours après, confondu par les précisions apportées par son épouse, Fourniret avoue à son tour. Il explique avoir connu Monique Olivier alors qu’il était détenu pour une précédente affaire d’agressions sexuelles. Elle a répondu à son souhait de correspondre et, pendant huit mois, ils n’ont cessé de s’écrire, plus de 200 lettres au total. L’analyse de ces volumineux courriers est édifiante car, avant même toute rencontre physique, ils souscrivent un véritable pacte criminel. Fourniret s’engage à tuer les deux précédents conjoints de Monique Olivier et, en échange, celle-ci lui offrira des jeunes filles vierges qu’ils appellent « des MSP (membranes sur pattes) » ou « des jeunes fentes ». Deux mois après la libération de Fourniret, ce pacte jusqu’alors épistolaire, se concrétise pour le plus grand malheur d’Isabelle, 17 ans.

Le 11 décembre 1987, elle disparaît sur le trajet entre son lycée et son domicile, à Auxerre. Les aveux du couple Fourniret permettent d’établir l’organisation minutieuse de ce rapt, avec des repérages, l’enlèvement de la jeune fille par Monique Olivier, le stratagème de Fourniret qui feint d’être en panne d’essence, monte dans le véhicule, lui passe une cordelette passée autour du cou et Monique Olivier lui administre des cachets de rohypnol qui la rendent semi inconsciente. Amenée dans leur maison, Fourniret tente de la violer mais n’y parvient pas, faute d’une érection suffisante. Monique Olivier, d’initiative, lui pratique une fellation. Fourniret étrangle ensuite la jeune fille et tous deux se débarrassent du corps en le jetant dans un puits désaffecté. Il faudra plus de deux ans et une trentaine d’anciens puits explorés pour retrouver le corps de leur victime. Une scène déchirante pour le papa d’Isabelle. Les meurtres s’enchaînent les uns après les autres et le périple sanglant du couple va se poursuivre pendant 16 années.

En janvier 1988, Fourniret, accompagné de Monique Olivier, tire à bout portant avec un fusil de chasse sur un représentant de commerce pour lui dérober son portefeuille. Un fait criminel conforme à l’un de leurs engagements épistolaires. La victime survit miraculeusement.

Quelques semaines plus tard, ils commettent un meurtre en assassinant la compagne d’un ancien codétenu de Fourniret afin de dérober une partie du magot du gang des postiches, une équipe de braqueurs qui avait écumé de nombreux établissements bancaires de la région parisienne.  Cela leur permettra d’acheter pour la somme de 1,2 millions de francs la propriété du Sautou, un château du 19ème siècle avec un parc d’une quinzaine d’hectares. Un épisode criminel rocambolesque. En août de la même année, ils enlèvent et assassinent dans la Marne Fabienne, une étudiante de 20 ans. Fourniret tente de la tuer en lui injectant de l’air dans les veines avec une seringue, puis lui tire dessus à bout portant avec un fusil à canons sciés. Ils abandonnent le corps de la malheureuse victime dans le camp militaire de Mourmelon, reproduisant les crimes commis par un autre tueur en série, l’adjudant Chanal.

Michel Fourniret - Victime - Forenseek

En janvier 1989, le couple enlève à Charleville-Mézières Jeanne-Marie, une étudiante de 21 ans. Après avoir tenté de la violer, Fourniret l’étrangle tandis que Monique Olivier lui obture les voies nasales et buccales à l’aide d’un adhésif. Ils enfouissent le corps dans leur propriété du Sautou. Son corps ne sera retrouvé que 15 années plus tard, après des recherches compliquées par les manipulations et les provocations de Fourniret. En décembre 1989, à proximité de Namur en Belgique, Monique Olivier prend le prétexte de son nourrisson malade, dans un couffin à l’arrière de son véhicule, pour enlever avec Fourniret la petite Elizabeth, 12 ans. Après l’avoir emmené dans leur maison ardennaise, l’avoir enivrée et ligotée, Fourniret tente de la violer, en vain et en dépit à nouveau d’une fellation pratiquée par Monique Olivier. Elizabeth passe la nuit enchaînée puis est conduite le lendemain par Fourniret au château du Sautou où il l’étouffe dans un sachet plastique transparent. Lors d’une « conversation » avec lui, il tentera de me faire réagir en me livrant de manière odieuse tous les détails des transformations physiques d’un visage qui s’asphyxie.

Un mode opératoire similaire à celui d’un autre tueur en série, Francis Heaulme.

En novembre 1990, ils enlèvent Natacha, 13 ans, sur le parking d’un supermarché dans les environs de Nantes. Fourniret la roue de coups, la viole puis la poignarde longuement avec un poinçon. Il abandonne son corps sur une plage en Vendée, à 80 kilomètres de distance, mode opératoire similaire à celui d’un autre tueur en série, Francis Heaulme. En 1995, Fourniret agresse très violemment une toiletteuse pour chiens à Namur. Grâce à sa présence d’esprit, la victime, Joëlle, garde la vie sauve mais endure encore aujourd’hui des séquelles psychologiques définitives. Un véritable meurtre psychique. En 2000 et 2001, il enlève, viole et tue dans les Ardennes, Céline et Mananya, après de longues heures de torture morale. Un calvaire interminable pour ces deux jeunes victimes.

            Entre 1990 et 2000, bien loin « d’une période blanche », les activités criminelles du couple se poursuivent à un rythme effréné. Des faits commis, comme le meurtre de la petite Estelle à Guermantes en région parisienne, résolu 16 ans après, ainsi que de nombreuses tentatives ou des projets avortés d’enlèvements, de viols et de meurtres.

Michel Fourniret : le tueur en série le plus abouti 

Une plongée dans la psyché torturée d’un couple diabolique

Comment expliquer des déviances aussi folles et meurtrières ? Rien dans la vie passée de Fourniret ou de Monique Olivier n’apporte l’esquisse d’un début de commencement de réponse. Seules leurs nombreuses expertises psychologiques et psychiatriques permettent de lever un voile.

Monique Olivier - Forenseek

           

Fourniret est décrit comme « le tueur en série le plus abouti ». D’une froideur inouïe, très organisé et obsessionnel, sadique, extrêmement violent et pervers, sa pathologie criminelle a été considérée comme absolue. Il a éprouvé une réelle jouissance de la terreur et de l’humiliation de ses victimes, en prolongeant leur agonie. Monique Olivier dispose quant à elle d’un quotient intellectuel très supérieur à la moyenne. Perverse et manipulatrice, elle a su se rendre indispensable à Fourniret pour assouvir ses propres fantasmes les plus archaïques. C’est elle qui lui a délivré son permis de tuer ; « sans elle, il n’y a pas de meurtre ». Indifférente à la souffrance de ses jeunes victimes, elle a éprouvé une certaine fierté à être la complice de Fourniret et a joué un rôle particulièrement actif dans la commission de leurs crimes. L’emprise de l’un sur l’autre a été totale et réciproque par « l’aliénation de chacun dans le fantasme de l’autre ». Les experts ont parlé « d’une véritable cooptation des inconscients, un engrenage si intime qu’il est devenu constitutif d’une nouvelle entité tierce : le couple agissant. Tout se passe comme si un nouveau sujet était créé. Deux psychismes qui se sont engrenés pour conduire à l’action criminelle ».

Condamnations à perpétuité pour un verdict sans précédent

Ce couple monstrueux a été condamné en mai 2008 après huit longues semaines d’un procès particulièrement éprouvant. A l’attitude insupportable du couple a répondu l’exceptionnelle dignité de toutes les familles, au-delà de leur douleur intense et définitive, forçant ainsi l’admiration de tous.

Fourniret a été condamné à la réclusion criminelle à perpétuité incompressible, c’est-à-dire une perpétuité réelle, sans aucune possibilité d’aménagement ou de réduction de peine, permissions de sortir ou libération anticipée, condamnation rarissime en France. Monique Olivier a été condamnée à la réclusion criminelle à perpétuité assortie d’une période de sûreté de 28 ans. Elle est la seule femme à avoir été condamnée à une telle peine.

Jamais la France n’avait connu un couple tueur en série aussi monstrueux, sur une telle durée, à l’encontre d’un nombre aussi élevé de jeunes victimes, vraisemblablement entre trente et trente-cinq dont beaucoup non encore identifiées, martyrisées dans des conditions monstrueuses. Puisse cela ne plus jamais se reproduire.

 » Personne ne sortira indemne de l’affaire Fourniret, pas FRANCIS NACHBAR même vous, Monsieur le Procureur.  »

Cette phrase, Fourniret l’a assénée quelques minutes après sa première rencontre avec le procureur Nachbar. C’était le 3 juillet 2004, lors des fouilles dans le parc du château du Sautou, dans les Ardennes, où furent découvert les corps de deux de ses victimes. Le monstre ne s’est pas trompé. Dix-huit ans après, ces mots résonnent encore comme une mauvaise litanie. Effectivement, Francis Nachbar n’est pas sorti totalement indemne de cette affaire judiciaire exceptionnelle, de ces centaines d’heures passées avec Michel Fourniret et Monique Olivier, couple diabolique, symbole ultime du mal. Quinze ans après le procès d’Assises de 2008, Francis Nachbar décide de livrer sa part de vérité sur l’une des plus grandes affaires de tueurs en série qu’ait connue la France. Il lui a fallu toutes ces années pour se sentir prêt, libéré de ses fonctions judiciaires et de toute entrave.

Un livre salutaire qui éclaire d’un jour nouveau ce couple aux mains tâchées de sang. Au total, Michel Fourniret a avoué 11 meurtres. Il est par ailleurs suspecté dans 21 autres affaires de disparition de fillettes et de jeunes femmes. A commander ici.

cold case bientôt résolu grâce à l'ADN en parentèle Forenseek Police scientifique

Deux cold case résolus grâce à l’ADN de parentèle?

Comme pour l’affaire Elodie Kulik en 2011 et celle du prédateur des bois en 2022, deux dossiers repris par le pôle « Cold case » de Nanterre sont en passe d’être résolus grâce à la recherche de parentèle, une technique qui met l’ADN au centre du jeu.

« On n’est jamais trahi que par les siens », un proverbe qui prend ici toute sa dimension. Deux meurtres commis à distance de douze ans et à priori sans lien entre eux pointent désormais vers un seul et même suspect et cela grâce à un rapprochement entre l’ADN des membres d’une même famille.

En 1988, Valérie Boyer, 15 ans, est retrouvée égorgée sur la voie ferrée de Saint Quentin-Fallavier. En 2000, Laïla Afif, 40 ans, est tuée d’une balle dans la tête à Verpillière. Seul point commun entre ces deux événements, la situation géographique, puisqu’ils ont eu lieu dans deux communes voisines de l’Isère. Faute de pistes sérieuses et de similitudes dans le mode opératoire, ces enquêtes se retrouvent rapidement dans l’impasse jusqu’en mars 2024. Plus de 20 ans plus tard, le pôle cold case, créé en 2022, relance en effet l’affaire Laïla Afif en demandant de nouvelles analyses de l’ADN retrouvée sur la scène de crime.

La preuve par l’ADN en parentèle

Ces expertises, élargies grâce à la technique de recherche de parentèle, permettent de trouver dans le Fichier National Automatisé des Empreintes Génétiques (FNAEG) un individu mis en cause dans une autre affaire et dont l’ADN présente une correspondance à 50% avec celui présent dans le dossier Afif. Or, la loi de la génétique est implacable : dans la mesure où l’on partage la moitié de son génome avec ses parents et ses enfants biologiques, les enquêteurs remontent logiquement la piste jusqu’au père de cet homme. Trahi par l’ADN de son fils, Mohammed C. est aujourd’hui mis en examen, non seulement pour le meurtre de Laïla Afif mais également pour celui de Valérie Boyer, l’enquête ayant permis de faire des rapprochements troublants entre ces deux affaires. Cette dernière fait partie de la série « des disparus de l’Isère » qui a défrayé la chronique dans les années 80 et dont le pôle cold case s’est d’ores et déjà emparé.

Pour aller plus loin : COLD CASES UN MAGISTRAT ENQUÊTE – Jacques DALLEST

L’histoire criminelle est jalonnée d’assassinats sordides, de meurtres sauvages, de disparitions énigmatiques et de suicides étranges. « Énigmatiques  » et  » étranges « , car ces affaires n’ont jamais été résolues, leurs auteurs jamais identifiés, les coupables jamais condamnés. Ces dossiers, sont appelés en bon français des « cold cases ». Ils se chiffrent par dizaines, et sont souvent inconnus du grand public. Seules quelques grandes affaires restées inexpliquées sont inscrites dans les tablettes de l’histoire judiciaire et suscitent toujours débats et interrogations ; l’affaire de Bruay-en-Artois, l’affaire Fontanet, l’affaire Grégory, l’affaire Boulin, ou, plus récemment, la tuerie de Chevaline. Mais qu’appelle-t-on un cold case ? Quelle signification ce terme anglo-saxon revêt-il dans notre paysage judiciaire français ? Doit-on rouvrir ces dossiers ? Comment peut-on leur trouver une issue après toutes ces années ? Dans cet essai érudit et très documenté, Jacques Dallest, ancien juge d’instruction, procureur et avocat général, fait le point sur la question comme aucun livre ne l’avait fait auparavant.

Commandez en ligne : https://amzn.to/3OJYu3L

Fichier FAED empreintes Forenseek police scientifique

Le Fichier Automatisé des Empreintes Digitales (FAED) partage ses informations

Créé en 1987, le Fichier Automatisé des Empreintes Digitales (FAED) renferme différentes données relevées lors d’une enquête judiciaire. Son utilisation, strictement encadrée par la loi, vient d’être modifiée par décret en date du 23 avril 2024.

En janvier 2024, le FAED enregistrait les empreintes digitales et palmaires de plus de 6,7 millions d’individus ainsi que près de 300 000 traces non identifiées (chiffres CNIL). Il enregistre chaque année plus d’un million de nouveaux signalements. Cette masse d’informations fait de ce fichier un outil précieux dans la résolution des enquêtes, sa consultation permettant notamment de faire des rapprochements entre certaines affaires ou encore d’identifier des personnes disparues.

Plus d’interconnexions pour plus d’efficacité.

Le FAED n’est pas le seul fichier existant, loin de là. La France en compte un certain nombre, parmi lesquels le TAJ (Traitement des Antécédents Judiciaires) le CJN (Casier Judiciaire National), le DPN (Dossier Pénal Numérique) le FPR (Fichier des Personnes Recherchées), chacun d’entre eux contenant des millions de données, sans oublier les logiciels de procédure de la Police et de la Gendarmerie Nationale, le LRPPN et le LRPGN qui permettent le traitement automatisé de données à caractère personnel.

Le décret, mis en application le 24 avril 2024, vise à assurer la connexion entre eux de ces différents fichiers, dans le but évident de faciliter les rapprochements et de gagner en efficacité.

Une coopération européenne renforcée.

Le projet ne cible pas uniquement l’échelon national, il ambitionne également de relier ces fichiers nationaux à des systèmes européens afin d’en consulter les bases de données. Ce sera le cas pour le Système d’information Schengen deuxième génération  (SIS -II) qui comporte une partie centrale basée à Strasbourg associée à des bases nationales dans chaque pays membre de l’espace Schengen.  Ce système centralise les informations sur des personnes ou des objets signalés par les autorités administratives et judiciaires des différents états. L’autre système bénéficiaire est le système d’entrée et de sortie EES (pour  Entry/Exit System) qui enregistre et contrôle de manière automatisée les données des ressortissants de pays non membres de l’UE voyageant dans l’espace Schengen.

Dans les deux cas, cette mutualisation des données a pour objectif de faciliter les échanges, de renforcer les contrôles et donc la sécurité dans la zone européenne désormais dénuée de frontières intérieures. 

Des données suffisamment sécurisées ?

Le décret modifie également la durée de conservation des données enregistrées dans le FAED. Elle est portée à vingt cinq ans pour les crimes et certains délits et peut aller jusqu’à quarante ans pour certaines procédures criminelles.

Etant donné le volume d’informations traitées et ces nouvelles interconnexions entre les fichiers, la question se pose de la protection des données personnelles.  Suite à un rappel à l’ordre de la CNIL (Commission Nationale de l’Informatique et des Libertés) qui s’en était inquiétée auprès du Ministère de l’intérieur, des mesures ont été prises pour protéger la confidentialité de ces données et procéder de manière automatisée à leur mise à jour et à leur effacement à la fin du délai de conservation. Ces mesures seront-elles suffisantes ? L’avenir le dira…

Source :
Décret n° 2024-374 du 23 avril 2024 modifiant le code de procédure pénale et relatif au fichier automatisé des empreintes digitales – Légifrance (legifrance.gouv.fr)
Chapitre Ier : Système d’information Schengen de deuxième génération (SIS II) (Articles R231-1 à R231-16) – Légifrance (legifrance.gouv.fr)
L’entrée dans l’espace Schengen : la future mise en place des systèmes EES et ETIAS – Ministère de l’Europe et des Affaires étrangères (diplomatie.gouv.fr)
FAED : la CNIL clôt l’injonction prononcée à l’encontre du ministère de l’Intérieur 01 février 2024 – Global Security Mag Online

Learn more: Levitra