NEToo - métamoteur francophone pour tout trouver plus rapidement
  Web Actualités Blogs Voyages Images Vidéos Musique Annuaire  

Trouvez toutes les dernières nouvelles et dépêches publiées en interrogeant simultanément des multiples sources sur le web

Recherchez dernières actualités en temps réel 

   Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People   
 Dernières actualités multimédia sur métachercheur francophone NEToo
Le Parisien - High-Tech    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 22/08/2017 12:28:41

  • Robots tueurs : Elon Musk et des patrons tirent la sonnette d'alarme

Elon Musk revient à la charge. En compagnie d'une centaine de responsables d'entreprises de robotique ou spécialisées dans l'intelligence artificielle, le milliardaire a signé une lettre ouverte aux Nations...

  • Le Parisien a testé. Le scooter silencieux allemand Unu

Incontournables dans une Chine déjà surpolluée, les deux-roues à moteur électrique débarquent sur le marché français à des tarifs enfin abordables. Une baisse de prix rendue possible grâce à la baisse...

  • Nous avons suivi les «mappeurs» d'Uber sur la route

« Les autres conducteurs pensent souvent que c'est un radar mobile, personne n'ose me doubler sur le périphérique. » Yaniss, un chauffeur de 25 ans, a été recruté en intérim pour « mapper », c'est-à-dire...

  • Facebook lance «Watch», son nouveau service vidéo

La guerre des contenus sur Internet continue. La nouvelle fonctionnalité de Facebook vient concurrencer des rivaux tels que YouTube ou les services de streaming comme Netflix. Facebook met en place «Watch»,...

  • Julian Assange propose un emploi à l'ingénieur licencié par Google pour sexisme

Ses détracteurs l'accusent de justifier la très faible présence des femmes dans la «tech» par des «différences biologiques». L?auteur de la fameuse note a confirmé aux médias américains avoir été licencié...

  • Disney retire ses contenus de Netflix pour créer sa propre plateforme

Un pas en avant et un pas en arrière. Après avoir annoncé l'acquisition de l'éditeur de BD Millarworld, Netflix essuie un coup dur en voyant disparaître de sa plateforme l'ensemble des productions de Disney....

  • Sony et IBM mettent au point une cartouche de stockage de 330 To

Tous les livres de toutes les bibliothèques de France pourraient facilement y être stockés en format numérique. Les ingénieurs du Japonais Sony et du Chinois IBM ont réussi à créer une bande magnétique...

  • Le Parisien a testé. Le Spark, le mini-drone à tout faire de DJI

Il manquait à DJI un drone de petit format. C'est désormais du passé. Début juin, la firme chinoise et premier vendeur mondial a présenté le Spark, un mini-drone survitaminé qui peut être contrôlé par...

  • Une question ? Google Home vous répond

Plus besoin d'un clavier, d'une souris ou même de ses doigts sur l'écran d'un smartphone. Il suffit de prononcer deux mots en forme de sésame : « Ok Google ». Voilà la promesse de Google Home, l'enceinte...

  • Pierre-Ambroise Bosse, roi du 800m et créateur d'une application de dating

Tremble Tinder. Deux athlètes français se lançaient début février sur le marché du dating en créant l'application «Deserve Her». Traduisez : «Méritez-la». Parmi le duo de têtes pensantes, on retrouve le...


InternetActu.net    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 22/08/2017 08:09:42

  • Bonnes vacances !

Après cette dernière semaine de salve de publications, InternetActu.net part se mettre au vert et vous donne rendez-vous à la rentrée. Bonnes vacances et à bientôt !

Après cette dernière semaine de salve de publications, InternetActu.net part se mettre au vert et vous donne rendez-vous à la rentrée.

Bonnes vacances et à bientôt !

  • Admission post-bac, cas d?école des algorithmes publics ?

Admission Post-Bac (APB) est chaque année le passage obligé pour près de 800 000 lycéens qui souhaitent poursuivre des études supérieures. Ce dispositif national qui distribue les élèves dans les formations supérieures qu’ils ont sélectionnées génère chaque année auprès des futurs étudiants et de leurs familles inquiétudes et angoisses légitimes, (...)

Admission Post-Bac (APB) est chaque année le passage obligé pour près de 800 000 lycéens qui souhaitent poursuivre des études supérieures. Ce dispositif national qui distribue les élèves dans les formations supérieures qu’ils ont sélectionnées génère chaque année auprès des futurs étudiants et de leurs familles inquiétudes et angoisses légitimes, tant la formation supérieure concentre les attentes de réussite dans un monde devenu toujours plus compétitif. Force est pourtant de reconnaître que, malgré les critiques nourries que le système rencontre, l’infrastructure robuste d’APB fait relativement bien ce qu’on lui demande de faire (ne vous énervez pas tout de suite !).

Par son ampleur, par le nombre de personnes calculées par ce traitement algorithmique annuel, APB fait figure de cas d?école des défis que les algorithmes posent à la conduite de l?action publique. Reste que s’il est un modèle, il est aussi perfectible. Comment rendre le système plus compréhensible à l’ensemble des acteurs concernés ? Comment intégrer en amont les exigences de transparence et de redevabilité (accountability) qu?on attend de pareil système ? Comment conjuguer l?efficacité et l?équité qu?on en attend ?

Tels étaient quelques-uns des enjeux qui ont conduit Etalab et la Fing – éditeur d?InternetActu.net – à l?organisation le 28 juin dernier d?une journée d?étude afin d?initier une discussion autour d?APB. Cette journée faisait suite à la remise par Etalab d?un rapport sur les conditions d?ouverture du code d?APB qui devrait être effectif d?ici la fin de l?année. Un rapport dans lequel la Fing – via son groupe de travail NosSystèmes (que je co-anime avec Thierry Marcou) – a formulé, en conclusion, un ensemble de recommandations (.pdf) pour rendre APB plus intelligible et améliorer le dialogue entre usagers et concepteurs de cette plateforme. Des conclusions qui s?appuient sur une grille de lecture des systèmes techniques formulant des pistes d?innovation s?adressant à tout type de plateformes intégrant des calculateurs et des algorithmes.

À l?heure où APB cristallise à lui seul toutes les difficultés de l?éducation nationale, comme s?il en était à la fois la cause et l?unique responsable, nous avons voulu initier une discussion sur ses capacités comme sur ses limites. Pour cela, outre des séances d?ateliers et de discussions, nous avions convié plusieurs intervenants à nous expliquer APB en ses forces et limites. Tentons donc de comprendre avec eux, APB, modèle emblématique des inquiétudes légitimes et des incompréhensions manifestes autour des boites noires algorithmiques et de leurs effets !

APB, l?apparieur procédural

Bernard Koehret est professeur émérite à l?Institut national polytechnique (INP) de Toulouse. Il est LE concepteur d?APB. Et c?est à celui qui a vécu de l?intérieur toutes les évolutions d?APB que nous avons demandé d?en raconter l?histoire (voir sa présentation). À l?image de son logiciel, Bernard Koehret est aussi procédural qu?un algorithme. Tout a commencé en 2001, quand il a répondu à une demande du ministère de l?Éducation nationale pour créer un site national de candidature pour les classes préparatoires aux grandes écoles (CPGE). L?enjeu de la demande était de créer un système informatique avec un souci de transparence et de lisibilité pour optimiser le recrutement dans les classes préparatoires et limiter le nombre de places vacantes. En 2003, « Admission-Prepa » était accessible sur le web. « Les écoles ont vite compris l?intérêt d?une plateforme nationale », leur permettant de mieux gérer les effectifs notamment. Petit à petit, d?autres formations se sont ajoutées, comme les prépas intégrées des formations d?ingénieurs. Certaines académies, comme Paris, disposaient d?un système pour faciliter le recrutement des étudiants. En 2005, l?Académie de Nantes a demandé à l?INP de créer un système pour proposer aux étudiants de postuler à toutes les formations post-bac de l?Académie, « Nantes Post-Bac ». Pour la première fois, on quittait des formations sélectives pour des licences non sélectives, souligne Bernard Koehret, pointant par là le fait que l?intégration de deux logiques différentes par nature n?était pas si évidente. « Petit à petit, des Académies se sont agrégées à ce système et en 2009, APB était appliquée dans les 30 Académies sur décision du Ministère ».


Image : Bernard Koehret photographié par Yann Caradec.

Après avoir rappelé qu?APB concernait quasiment tous les étudiants à la recherche d?une formation en première année dans le supérieur, qu?il permettait d?accéder à plus de 10 000 formations, des licences aux BTS, IUT, DUT, classes préparatoires aux grandes écoles, et même de plus en plus d?écoles d?art, d?ingénieurs ou de commerce? son fondateur explique que chaque candidat y est invité à faire des voeux. Jusqu?à 24, avec un maximum de 12 formations par famille de formation (les familles signifiant les genres de formation comme les licences ou les BTS, etc.). En moyenne, les candidats font 7,6 voeux.

APB fonctionne selon un calendrier national contraint, très procédural, explique son fondateur, avec différentes phases permettant d?adapter la demande à l?offre. Les élèves doivent déposer leur candidature entre le 20 janvier et le 20 mars. Ils peuvent changer l?ordre de leurs choix jusqu?au 31 mai. À cette date, les formations sélectives doivent fournir les critères de classement des candidats, c?est-à-dire classer les dossiers reçus en fonction de critères pédagogiques, sans qu?ils connaissent l?ordre des préférences établies par les candidats. Le 8 juin, APB rend ses propositions. Chaque candidat dispose de 5 jours pour répondre à la proposition qui lui est faite. « Il n?en est fait qu?une seule, « la meilleure possible » selon l?ordre de ses voeux », assure Bernard Koehret – mais aussi selon les places disponibles, l?ordre des voeux de tous les autres candidats et tous les critères que prend en compte le système. Le candidat a le choix entre plusieurs réponses selon le v?u qu?il a obtenues : un oui définitif, un oui mais (j?espère mieux, notamment s?il est en attente sur un voeu mieux classé) ; un non, mais (je ne risque de rien avoir) et une démission (c?est-à-dire qu?il indique qu?il a obtenu ce qu?il voulait hors APB). Quelque 60 000 candidats sont démissionnés de manière automatique lors de cette première phase (malgré relances par e-mails et SMS). Ce n?est pas tant que les candidats s?en moquent, beaucoup sont des candidats qui sont pris dans une école par exemple. 60 % des candidats obtiennent leur premier voeu et souvent font un Oui définitif, assure l?ingénieur. Sur les 3 phases (2 autres phases de « matching » sont lancées plus tard, pour ceux qui n?ont pas été contentés par la première phase), 80 % des candidats vont obtenir leur premier v?u ou l?un des 3 premiers voeux.

En 2017, il y a eu 808 000 inscrits sur APB, c?est-à-dire 808 000 élèves qui ont indiqué au moins un voeu, dont 607 000 élèves de Terminale rappelle Bernard Koehret. Le 8 juin, 653 000 ont reçu une proposition (dont 507 000 élèves de Terminale). Depuis, si tous n?avaient pas reçu encore une réponse après la seconde phase d?appariement, comme le souligne le site dédié du Parisien, et malgré les alarmes légitimes générées, l?Education Nationale, effectivement, parvient chaque année à caser tout le monde, même si bien sûr, tout le monde ne parvient pas à obtenir la formation souhaitée, du fait des trop fortes demandes et du manque de place, avant tout.

« Dans le système actuel, APB, on cherche l?efficacité, d?où le fait de formuler la meilleure proposition possible pour chaque candidat depuis sa liste de voeux ordonnés », en tenant compte du nombre de places que propose chaque formation (en fait, les établissements proposent souvent plus de places pour anticiper les démissions qu?il y aura à chaque phase d?APB). Tout l?enjeu est d?arriver à tenir compte à la fois des formations sélectives et des formations non sélectives. Pour les inscriptions en licences, l?algorithme fait priorité aux candidats de l?Académie, comme l?y oblige la loi, prenant également en compte les préférences des candidats et leur situation de famille (notamment le fait d?être boursier). Le tri aléatoire, si décrié, n?est pas le fait d?APB, mais de la réglementation, souligne le père d?APB. Il faut comprendre que si 1000 candidats de l?Académie mettent en voeux 1 une formation où il n?y a que 250 places, peu d?autres solutions s?offrent au système. Pourtant, pointe très justement Bernard Keohret, le problème n?est pas tant APB que le manque de place ou la trop forte demande de certaines formations. Le tirage au sort relève d?un choix de société qui dépasse celui qui assure la maîtrise d?oeuvre du système. « Quelqu?un qui a une mention très bien et qui est refusé quelque part du fait du tirage au sort, cela pose effectivement un problème ».

« La grande difficulté pour les candidats », estime son concepteur, « reste d?ordonner ses voeux », qui invite les candidats à la plus parfaite sincérité, dans cet ordonnancement.

La présentation de Bernard Koehret est mesurée, prudente, fonctionnelle. Elle décrit les contraintes d?un système, son ampleur. Quoiqu?on en dise, elle souligne sa relative robustesse : l?essentiel des candidats trouvant une formation. Bien sûr, chaque année, on en mesure les imperfections. Celles-ci sont certainement plus nombreuses que ne le reconnaît son concepteur. Derrière le côté très procédural d?APB, qui demande aux élèves de faire des choix clairs, sans stratégie, on voit bien que la réalité n?est pas aussi simple. Que le premier voeu, auquel chacun aspire, ne concerne qu?un candidat sur six. Et que sous principe d?un égalitarisme très républicain, qui serait dans l?idéal parfait, APB n?est pas si égalitaire qu?il y paraît.

Existe-t-il un algorithme idéal ?

Julien Grenet est directeur adjoint de l?Institut des politiques publiques et professeur à l?École d?économie de Paris. Cet économiste est un spécialiste notamment des systèmes d?affectation, comme APB ou Affelnet, l?algorithme qui affecte les lycéens en lycée.

Depuis le milieu des années 2000, explique-t-il (voir sa présentation), il y a eu une profonde transformation des modalités d?affectation des élèves dans les établissements d?enseignement, comme ça a été le cas également pour la gestion des enseignants et des personnels de l?éducation. Partout, on a adopté des procédures centralisées et automatisées, avec l?adoption d?Affelnet au lycée et d?APB dans l?enseignement supérieur. Plutôt que de demander aux élèves de s?inscrire directement dans les établissements, la France, comme beaucoup d?autres pays, a opté pour des systèmes centralisés.

La présentation de Julien Grenet.

Ces systèmes, que l?on trouve également en Australie, en Belgique, au Chili, en Espagne? ont 3 caractéristiques communes : les élèves doivent faire des voeux d?inscription ; le système doit avoir des critères de priorité pour départager les candidats ; et enfin, ils nécessitent d?utiliser des algorithmes d?appariements pour mettre en relation les 2 côtés du marché, les élèves avec les formations.


Image : Julien Grenet à l?photographié par Yann Caradec.

À l?origine, rappelle le chercheur, l?adoption a surtout été motivée par une simplification et une rationalisation de gestion. Avant ces systèmes, chaque élève candidatait à une université, ce qui posait des problèmes quand ils ne venaient pas et ne prévenaient pas, car il était difficile de connaître les effectifs réels et adapter l?offre à la demande. Dans d?autres pays, comme le Chili, l?adoption d?un système centralisé a eu surtout pour motivation de limiter la corruption et de favoriser la transparence. En Norvège, la motivation avait pour objectif d?améliorer l?efficacité pour mieux faire se marier les aptitudes des candidats avec les prérequis des formations. Là-bas, on prend en compte les résultats scolaires pour opérer le classement (si les comparaisons internationales vous intéressent, signalons également l?article du Président de l?université Paris Descartes, Frédéric Dardel, qui revenait il y a peu sur les systèmes mis en place en Europe). Enfin, d?autres objectifs ont émergé encore. En France et en Belgique notamment, on a intégré un objectif de mixité sociale, notamment dans le secondaire, pour faciliter l?accès à certaines formations d?élèves d?origine modeste. Les élèves boursiers parisiens ont forcément leur premier voeu dans Affelnet. Au collège à Paris, la prise en compte des critères sociaux vise à rééquilibrer la composition sociale des collèges, qui est très ségréguée dans la capitale.

En France, les algorithmes ont mauvaise presse : on parle de casse-tête, d?usine à gaz, de jeu de dupes, de loterie? on dénonce le climat anxiogène que génèrent ces « boites noires »? Cette critique est en partie justifiée. Certains algorithmes ont parfois de mauvaises propriétés. « Mais le problème principal est moins les algorithmes que l?opacité et la complexité de certaines procédures », souligne le chercheur. « Dans l?enseignement supérieur, faire des voeux éclairés n?est pas à la portée de tous ». L?information et l?accompagnement à l?orientation des étudiants sont loin d?être également distribués. Enfin, les critères de priorités utilisés ne sont que les traductions techniques de choix politiques faits en amont, comme le tirage au sort, si reproché à APB. En première année de médecine, le taux d?échec est de 80 % et des élèves avec une mention très bien ne peuvent pas y accéder du fait du tirage au sort ! Pour Julien Grenet, on s?abrite là derrière l?opacité technique des algorithmes pour refuser de se confronter à une difficulté d?ordre politique.

Tous les systèmes d?affectation reposent sur un ensemble de procédures consistant à recueillir la capacité d?accueil des établissements et formations, à recueillir les voeux des élèves, à définir les règles pour prioriser et enfin à lancer l?algorithme d?affectation pour apparier les élèves avec les formations. La difficulté bien souvent repose sur les règles pour prioriser qui traduisent des objectifs politiques. Que fait-on quand on a une place pour deux candidats ? Que prend-on en compte ? Les résultats scolaires ? La distance ? Les critères sociaux ? La fratrie ?? Tous ces critères peuvent avoir une influence sur les résultats, même si l?algorithme tente de satisfaire au mieux les préférences des élèves en respectant les règles de priorité.

« Existe-t-il un algorithme idéal ? », interroge Julien Grenet. Le problème est que les algorithmes doivent respecter plusieurs propriétés : l?efficacité (c?est-à-dire le respect des préférences : il ne doit pas être possible de proposer un meilleur choix à un élève sans que cela affecte négativement un autre élève) ; l?équité (c?est-à-dire un critère légal : aucun élève ne peut se voir refuser une admission alors qu?il a une priorité plus élevée qu?un autre admis dans cette école) ; et la non-manipulabilité (on demande aux candidats d?être sincères dans leurs choix, ce qui a aussi pour vertu d?être une consigne simple). Le problème est que ces 3 critères ne sont pas mutuellement compatibles. « Il n?existe pas d?algorithmes qui satisfassent les 3 critères dans toutes les situations possibles. Mais certains compromis optimaux sont possibles ». Et le chercheur de distinguer plusieurs algorithmes. Certains sont très manipulables, comme l?algorithme de Boston, qui est l?un des plus couramment utilisés. Mais il est également inéquitable et inefficace. Il dissuade les élèves de classer en premier voeu une formation où ils ont peu de chance d?être admis et désavantage les élèves insuffisamment stratèges (même si les stratégies pour lesquelles opter se révèlent très compliquées). Un autre algorithme populaire est « l?algorithme d?acceptation différée » qui est utilisé par Affelnet à Paris notamment. Cet algorithme respecte les priorités, respecte l?équité et favorise la sincérité des choix et donne la satisfaction la plus élevée possible aux élèves.

APB s?inscrit dans ce cadre. C?est une procédure centralisée qui est effectivement chaque année une prouesse technique, rappelle le chercheur. Le système intègre des priorités : pour les filières sélectives, le classement est opéré par les formations elles-mêmes. Ce sont elles qui choisissent leurs étudiants ou les critères nécessaires pour postuler. Pour les filières non sélectives, si la demande est supérieure à l?offre, plusieurs critères entrent en oeuvre : privilégier les candidats de l?Académie (sauf si votre Académie ne propose pas la formation que vous souhaitez prendre) ; prendre en compte le rang relatif du voeu (par rapport aux formations de même type) ; prendre en compte le rang absolu du voeu (par rapport à tous les voeux) et enfin le tirage au sort.

APB ressemble beaucoup à l?algorithme d?acceptation différé, estime le chercheur. Le problème, c?est la prise en compte du rang des voeux comme critère de priorité pour les licences en tension. Pour les élèves, mettre en haut de liste une formation sélective ou une licence en tension fait courir le risque de « perdre sa priorité » sur les licences en tension situées plus loin dans sa liste. En fait, cette prise en compte de l?ordre des voeux pour les licences en tension peut pénaliser les candidats qui ont classé leurs voeux de manière sincère. Les critères de priorité incitent les étudiants à s?autocensurer ce qui limite le tirage au sort, ce qui pose le plus de problèmes dans APB : même s?ils sont encore trop nombreux, les étudiants ont tendance à éviter de s?inscrire dans les filières où l?on tire au sort comme en Paces (première année commune aux études de santé) ou en Staps (licences de sciences et techniques des activités physiques et sportives). Le problème est que ces critères de priorités pénalisent les candidats naïfs au profit d?étudiants mieux informés. L?autre problème est bien sûr la lisibilité de cela : il est difficile de donner des conseils clairs et certains aux candidats dans ces cas de figure.

Pourtant, Julien Grenet l?assure, APB est un système plutôt efficace. On estime que le taux de satisfaction des premiers voeux est très fort – pour autant qu?il soit réellement le v?u préféré des étudiants. Pour l?économiste, « APB est d?abord un symptôme des contradictions de l?enseignement supérieur qui défend un principe de non-sélection en licence, mais qui offre des capacités limitées en terme de places ». Les algorithmes d?affectation centralisée sont très puissants en terme de régulation, car leurs règles de priorité sont transparentes : ils incitent à la sincérité dans les choix et permettent de mettre en oeuvre des objectifs de politique éducative. Le problème demeure la complexité des procédures, le défaut d?information et l?absence de débat de fond sur les critères de priorité. Comme il le soulignait pour L?Étudiant, « quand il y a trop de demandes en licence, qu?a-t-on le droit de prendre en compte comme critères ? ». Pour lui, la solution n?est pas uniquement dans l?augmentation de l?offre, mais plutôt dans une meilleure orientation : « En étant orientés vers des formations mieux adaptées à leur profil, les élèves auraient plus de chances de réussir. » Ainsi que dans une meilleure adéquation entre formation et candidat, c?est-à-dire privilégier certaines filières (faire que les bacs pro et techno soient prioritaires dans les IUT et STS par exemple) ou que certaines formations aient des prérequis qui ne portent pas sur le classement ou les notes, mais sur la formation.

Où porte la ségrégation ?

Leila Frouillou est géographe et chercheuse associée à Géographie-Cités. Elle a soutenu en 2015 une thèse sur les mécanismes de ségrégation scolaire en Ile-de-France à l?entrée en université. Elle se rappelle le lancement de Ravel, l?ancêtre d?APB sur l?Ile-de-France, qui avait pour mission à la fois de recruter des étudiants pour les nouvelles universités d?Évry, Cergy, Saint-Denis? et d?éliminer les campements d?étudiants devant les prestigieuses universités parisiennes à l?époque où l?inscription était décentralisée et où la règle n?était pas le tirage au sort, mais celle du premier arrivé, premier servi !

À l?époque, la sectorisation de Ravel n?était pas celle d?APB, le recrutement en droit de Paris I et Paris VIII n?était pas limité à leur Académie, rappelle-t-elle par une carte. Le lancement d?APB en 2009 a changé les choses. « Si apparemment APB a étendu les filières à l?échelle nationale et propose un libre choix, dans les faits, APB a renforcé la « barrière académique » ». En montrant une carte (page 10 de sa présentation), elle montre que toutes filières confondues, APB a renforcé le recrutement purement académique. Les universités parisiennes n?ont plus recruté au-delà de Paris et St-Denis a recruté également uniquement sur son Académie, ce qui n?était pas le cas avant pour ces deux universités. Le problème, souligne la géographe, c?est que le renforcement de la barrière académique, en empêchant par exemple les étudiants de Seine-Saint-Denis d?accéder aux universités parisiennes, a surtout généré des incompréhensions et des frustrations. Pire, un sentiment de frustration territoriale.

Présentation de Leila Frouillou.

Leila Frouillou donne des exemples de verbatims d?étudiants recueillis pour sa thèse. Ainsi, un étudiant de Bobigny accepté à Paris I sur tirage au sort, réintègre une explication sur le type de Bac qu?il a eu pour tenter de donner un sens à sa chance. D?autres racontent le refus institutionnel à l?inscription du fait qu?ils viennent d?une autre Académie et l?interprètent comme une discrimination territoriale. Des exemples qui montrent combien les choix des voeux sont parfois faits par défaut. Pour la géographe, « il faut entendre l?impact de ces parcours, la démotivation ou la frustration que cela génère ».

« Ce qu?on constate en fait, c?est le développement de stratégies d?évitement, tant par les étudiants que par les formations ». Consistant à développer ou privilégier des doubles licences ou des options rares, voire sélectives. Il y a d?ailleurs de plus en plus de filières sélectives à l?université et nombre d?établissements les utilisent pour générer des formes de classes préparatoires. Et puis, quelques dérogations existent encore : on peut parfois s?inscrire à l?université après la rentrée, en activant des réseaux, des coups de fil? Avec APB, les stratégies d?évitement sont devenues plus complexes, reconnaît la chercheuse. « La procédure d?APB implique de se projeter et de hiérarchiser beaucoup d?information. Bien souvent, les candidats ne voient pas la barrière qui se dresse devant eux. Les étudiants d?Ile-de-France qui souhaitent faire leur droit se projettent à Assas et la Sorbonne », formations prestigieuses, dans un contexte où l?on invite à faire des voeux selon ce qu?on se souhaite de mieux. Et ce d?autant plus que « le système le leur permet, il ne leur livre pas de message de refus. Alors que les plus informés, eux, vont prendre une licence rare ou une double licence pour obtenir ces établissements qu?ils savent ne pas pouvoir avoir autrement. »

En fait, « la production de la liste de voeux est difficile. Tous les élèves ne sont pas égaux devant cette liste. » Certains reçoivent des conseils très personnalisés, d?autres sont laissés à eux-mêmes. Les informations et l?encadrement diffèrent d?un établissement à l?autre, au détriment le plus souvent des établissements et des élèves les plus fragiles. De même, lors des différentes phases, tous les élèves n?ont pas les mêmes stratégies. Des élèves peu assurés scolairement seront rassurés de répondre oui à la première proposition reçue, même si c?est un voeu qui était assez bas dans leur classement de peur de ne pas en obtenir un meilleur ensuite, alors que ça arrive parfois du fait des places qui se libèrent. Ils préfèrent savoir ce qu?ils vont faire l?année prochaine et limiter l?incertitude que de réclamer mieux. « Pour beaucoup, les calculs sont compliqués ».

En fait, souligne la chercheuse, le niveau de formation à APB est très différent selon les lycées où on est scolarisé. Dans les milieux moins politisés, on fait parfois des choix collectifs pour se retrouver tous sur le même campus où à la même licence. Or, la sélection ne marche pas ainsi. « Dans les lycées défavorisés, on vous explique la procédure APB. Alors que dans les lycées les plus favorisés, on met l?accent sur l?orientation. » Dans les meilleurs lycées, le proviseur vérifie les listes des voeux de chaque élève.

Bien sûr, « la question des capacités d?accueil demeure le problème central », surtout que nous connaissons actuellement le haut de la vague de la croissance démographique du nombre de candidats.

« Reste qu?APB conçoit l?orientation comme quelque chose où chaque individu est stratège et rationnel. APB suppose que chacun va prendre la bonne formation par rapport à son parcours. Mais ce n?est pas le cas, notamment dans les milieux les plus populaires. » Beaucoup se projettent dans l?enseignement supérieur, dans leur liste de voeux, selon ce dont ils ont entendu parlé ou ce qu?on fait leurs copains. « L?orientation est un processus inégal », rappelle la chercheuse. Il varie selon les établissements, les services académiques d?information et d?orientation (SAIO), et surtout les capacités des élèves à comprendre le système et ses 10 000 formations. « APB cristallise des tensions, car on a une vision tubulaire des cursus, tout en essayant de limiter les échecs en première année. » C?est cette vision de l?enseignement supérieur qui force à placer chacun dans une filière dont on doit suivre le droit fil de bout en bout qui met beaucoup de pression sur APB, et qui serait beaucoup moins forte si par exemple on pouvait rattraper d?autres filières à la fin du premier semestre. Bref, si le système permettait un peu d?adaptation?

C?est la piste qu?esquisse à nouveau le président de l?université Paris Descartes dans un autre billet qui souligne les gâchis que génère un système très « tubulaire », qui ne permet pas suffisamment de composer des licences « à la carte ».

L?orientation, clef d?APB ?

Muriel Ekovich est responsable de la plateforme Inspire-orientation.org, qui est un dispositif d?orientation développé par Frateli Lab – l?entreprise sociale de l?association Frateli dédiée à la promotion de l?égalité des chances – qui propose aux étudiants d?évaluer leurs capacités et aptitudes pour leur proposer de découvrir des formations adaptées à leurs profils. Le dispositif est augmenté d?une plateforme sociale qui permet de contacter des étudiants qui ont déjà fait ces formations afin de pouvoir interagir avec eux pour mieux préciser ses choix d?orientations. L?ensemble propose une forme de recommandation d?orientation personnalisée, comme l?explique très bien leur vidéo promotionnelle.

Cet outil, développé dans une démarche de recherche-action est encore en développement. Elle a permis d?accompagner quelque 5000 lycéens l?année dernière, mais ne propose pour l?instant que 56 pistes d?études. Tout l?enjeu pour Muriel Ekovich est de développer et d?améliorer sa plateforme, ainsi que d?augmenter le nombre d?étudiants éclaireurs. Quand on constate les difficultés à l?orientation que cristallise APB, on se dit qu?effectivement des outils qui apportent de la diversité, avec des outils un peu plus à la page que des brochures métiers, même en ligne, font partie de l?effort nécessaire pour améliorer le dispositif existant, qui on l?a vu déjà, va bien plus loin que le seul outil d?APB. Inspire-Orientation montre ainsi qu?APB pourrait aussi à l?avenir être une plateforme de plateforme, servant non seulement à permettre aux lycéens de faire leurs choix, mais aussi à les guider vers la formation la plus adaptée à leurs besoins.

APB, un symptôme ?

Au final, on se rend compte qu?APB est un symptôme. Que ce grand outil national qui souhaite traiter tout le monde sur un pied d?égalité peine à remplir cette mission. La faute n?est pas tant à renvoyer à l?outil, certes toujours perfectible. Et ce ne sont pas les 17 000 étudiants qui cette année ne savent toujours pas où ils seront affectés qui diront le contraire. La faute est en grande partie à renvoyer aux politiques publiques. Au manque de place. Et surtout, au gros défaut d?APB, qui est de renvoyer chaque candidat à la solitude de son choix, comme le constatait le médiateur de l?éducation. Si l?éducation nationale fait un grand effort chaque année pour accompagner les lycéens, reste que cet accompagnement semble ne pas être à la hauteur des enjeux.

Pour ma part, l?un des constats qui me frappe, c?est l?immobilisme spatial qu?entérine APB. La sectorisation qui renforce l?importance de son Académie d?appartenance semble contraindre à l?immobilisme spatial et social. On ne peut désormais se déplacer que par le choix de formations sélectives. Cette question de la mobilité spatiale pose aussi celle de la mixité sociale. La composition sociale des universités a-t-elle changé avec APB ? En fait, les stratégies scolaires semblent plus intenses désormais, et APB semble accentuer les discontinuités.

Dans les ateliers qui ont accompagné cette journée, la parole se libère. Plusieurs groupes réfléchissent à l?amélioration d?APB. L?un d?entre eux présente Service-Public.fr et propose d?imaginer sur son modèle une plateforme pour aider les élèves à comprendre APB, à s?orienter, pour répondre à leurs questions avec des professionnels chargés de le faire, pour construire une base de connaissance autour d?APB qui puisse servir à tous les étudiants qui naviguent dans l?océan d?information d?APB. Leur permettant à la fois de connaître leurs droits et les démarches. Le besoin de compréhension tant du fonctionnement que des possibilités d?APB est fort, on le voit chaque année. On a vu également le besoin d?information sur l?orientation, critère d?entrée stratégique pour développer l?équité. Aujourd?hui pourtant, en ligne, on trouve bien plus d?information dans les portails dédiés du Monde.fr, du Parisien ou de L?étudiant que sur le site du ministère de l?Éducation nationale. Aujourd?hui, la médiation autour d?APB est fortement décentralisée : elle repose sur les proviseurs, les professeurs et les SAIO? qui répondent à quelques 800 000 e-mails chaque année. Mais aucune base de connaissance n?est construite de tous ces échanges, qui permettrait à la fois d?en diminuer le volume en rendant l?information disponible et donc d?apporter un traitement plus personnalisé aux demandes.


Image : illustration des ateliers de la journée, via le compte Twitter de la DINSIC.

Certains pointent néanmoins qu?il y a trop d?information. Et que l?information ne suffit pas. « On a beau leur dire qu?il y a très peu de place, ça n?empêche pas les candidatures de se démultiplier », s?exaspère un participant. Effectivement, la hiérarchisation croissante des formations renforce la demande pour « les meilleures » licences. Dans le 93, tout le monde voudrait aller faire son droit à Assas, anticipant les taux d?insertion professionnelle que certaines formations permettent. « Donner des chiffres toujours plus fins, c?est aussi prendre le risque est qu?ils soient mal interprétés. Des boites privées vont proposer de faire de la prédiction facile : donne-moi ta note de math, je te dirais si tu peux postuler à tel ou tel endroit ! Le risque, n?est-il pas de renforcer encore plus la reproduction sociale !

Un autre rappelle que les professeurs, qui sont sensés accompagner les élèves sur APB, sont souvent peu voire pas formés. L?éducation nationale a fait quelques efforts, par exemple avec le site de l?Onisep pour expliquer la filière Staps? Mais ça n?a pas réduit le nombre de candidatures. Un autre s?exclame : « il faut des conseillers d?orientation formés plutôt que de l?information »? Mais ça n?a pas l?air d?être la politique la plus encouragée. « L?essentiel des questions qui arrivent sur APB sont des questions très individuelles, des jeunes qui se posent des questions sur leur orientation même. « Mais APB n?oriente pas ! Au mieux, il met en relation un jeune avec un établissement »?

La massification fait également que le public a changé. L?enjeu n?est pas qu?un enjeu d?orientation, c?est aussi aider les jeunes à construire leurs projets. Or, avec plus de 12 000 formations disponibles, comment s?y retrouver ? Qui est capable de comprendre cette complexité ? Mal accompagné, beaucoup de jeunes font de mauvais choix : tout le monde veut faire Staps pour faire du sport, mais ce n?est certainement pas la meilleure option par exemple.

Ce qu?on voit bien, c?est qu?APB est le réceptacle des douleurs de l?éducation nationale. Douleurs légitimes des recalés. Inadéquation entre les espoirs que chacun place dans le système qui permet de choisir la formation de son choix qui génère des attentes immenses? et le désarroi et le sentiment d?abandon de la réalité des résultats, comme s?en désole très justement la professeure Isabelle Barth sur son blog, qui parle même de maltraitance.

APB n?est pourtant que la boite noire qui contient toutes les autres. Sa réforme pour l?instant annoncée du coin des lèvres ne va certainement pas être si simple. Elle risque de favoriser la sélection au détriment de l?équité, en oubliant toujours les perdants de la sélection, comme le rappelait Louise Tourret sur Libé. Demain, les filières en tension demanderont aux étudiants des prérequis. Reste à les définir, comme s?en inquiétaient les doyens d?université. Le risque étant bien sûr de privilégier les notes (pour autant qu?on sache quelle note prendre ? Celle des 2 premiers trimestres ? Celle du bac qui n?est pas passé quand APB est lancé ? Qui décide des critères ? Le ministère ? Les établissements de formation ? Ces critères pourraient-ils être calculés plutôt que décidés, c?est-à-dire calculés depuis les résultats sur 4 ans de tout ceux qui ont réussi la première année de telle licence, montrant par exemple qu?aucun n?a réussi avec moins de 12 en math ou sans un bac techno?). Soit. Pas sûr que le « contrat de réussite étudiant » qui se concocte réponde aux problèmes de place, aux problèmes d?orientation? Et plus encore aux problèmes que génère la hiérarchisation des formations. Ce que montre APB, c?est que le problème n?est pas en haut : les formations de qualité sont toujours là, toujours plus présentes. Le risque des transformations qui s?annoncent est d?oublier ceux qui ne sont pas les meilleurs. Ceux qui n?ont pas les meilleures notes. Ceux qui n?ont pas trouvé leur voie via l?école, ou pas encore. Souvenez-vous. À 18 ans, saviez-vous ce que vous vouliez faire ?

ABP au final est surtout le reflet des dysfonctionnements du système éducatif français. Et il ne parvient pas à lui tout seul à renverser la reproduction sociale. Au contraire.

On ne peut certes pas tout demander à APB. Ce n?est qu?un outil pour marier un étudiant a une formation. On peut dire qu?il le fait relativement bien. C?est plutôt tout le reste qui pêche. L?offre de formation. L?accompagnement à l?orientation. Ce qui est certain, c?est que ce n?est pas en développant la sélection partout, en rendant la méritocratie toujours plus efficace, qu?on créera une société plus libre, égalitaire et fraternelle.

Hubert Guillaud

  • L?entrainement cérébral est-il efficace ?

Peut-on oui ou non entraîner le cerveau à l’aide d’outils numériques ? La question reste très controversée, et ce n’est pas le dernier post de blog du « Neurosceptique », paru sur le site de Discover Magazine (@neuro_skeptic et @discovermag), qui va calmer les esprits. Le post concerne une étude parue dans le (...)

Peut-on oui ou non entraîner le cerveau à l’aide d’outils numériques ? La question reste très controversée, et ce n’est pas le dernier post de blog du « Neurosceptique », paru sur le site de Discover Magazine (@neuro_skeptic et @discovermag), qui va calmer les esprits.

Le post concerne une étude parue dans le Journal of Neuroscience concernant un des plus fameux logiciels d?amélioration cérébrale, Lumosity. Ce dernier programme est plutôt considéré comme « sérieux », il ne s’agit pas d’un jouet comme Dr Kawashima (cf. notre vieil article « Faut-il exercer son esprit pour en avoir »).

Dans le cadre de cette recherche, 128 jeunes adultes ont été divisés en deux groupes, l’un se consacrant pendant 10 semaines aux activités d?entraînement cérébral de Lumosity, l’autre, le groupe contrôle, étant invité à jouer pendant le même temps à des jeux vidéo en ligne sans aucune prétention médicale.

Avec le temps, le groupe d’utilisateurs Lumosity a fait des progrès dans les exercices proposés par le logiciel (ce qui est un peu normal !). Mais cela a-t-il eu un effet sur les capacités cognitives en général ? C’est là que les résultats se montrent plutôt décevants.

Dans le domaine des fonctions exécutives (les facultés qui nous aident à prendre des décisions et planifier nos actions), aucun des deux groupes n’a semblé faire de progrès notable.

Des tests sur la mémoire de travail, l’attention et les autres aspects de la cognition auraient donné des résultats similaires?

A noter toutefois, précise le Neurosceptique, que cette étude concerne des adultes en bonne santé. Un travail sur des personnes âgées atteintes de déficiences cognitives pourrait donner un résultat différent.

A croire que la question de l’entraînement cérébral ne cesse de reculer à mesure qu’elle avance…

  • L?IRM pour lire des pensées complexes

En 2008, nous présentions les travaux de l’équipe de Marcel Just et Tom Mitchell, du Centre d’imagerie cognitive du cerveau de l’université de Carnegie Mellon, qui avait réussi à démontrer la capacité de l’IRM à lire des pensées simples en analysant les zones cérébrales activées lorsqu’on pense, par exemple, à (...)

En 2008, nous présentions les travaux de l’équipe de Marcel Just et Tom Mitchell, du Centre d’imagerie cognitive du cerveau de l’université de Carnegie Mellon, qui avait réussi à démontrer la capacité de l’IRM à lire des pensées simples en analysant les zones cérébrales activées lorsqu’on pense, par exemple, à un objet comme un marteau. Notre article de l?époque se terminait en signalant que les chercheurs allaient maintenant se pencher sur des pensées plus complexes, et par la phrase « réponse dans quelques mois ». Bon, en fait, ça a pris près de 10 ans, mais l’équipe de Just semble effectivement avoir franchi une nouvelle étape, présentée par le site Next Big Future (qui reprend en fait le communiqué de presse de l’université Carnegie-Mellon).

Selon Marcel Just, « l’une des grandes avancées du cerveau humain est la capacité de combiner les concepts individuels en pensées complexes, de penser non seulement à des « bananes », mais aussi à «J’aime manger des bananes en soirée avec mes amis». »

Pour arriver à modéliser de tels concepts, l’équipe a isolé un « alphabet » de 42 structures neurales correspondant à certaines significations sémantiques, comme les notions de « personne, d’environnement, de taille, d’interaction sociale, ou d’action physique ». Chacun de ces concepts étant géré par une partie différente du cerveau.

Ils ont ensuite testé leur méthode sur 240 phrases. Ils ont fait analyser par la machine IRM les 239 premières. Ensuite, ils ont soumis au système une 240e phrase, et ce dernier a analysé les zones cérébrales impliquées dans la formulation de celle-ci et à été en mesure de reconstituer son sens dans 87 % des cas. Pour vérifier la validité de leur travail, les chercheurs ont recommencé le test 240 fois, en laissant à chaque fois de côté une différente 240e phrase à des fins d’analyse par le programme.

Le système a également été capable de procéder à l’envers : en lui soumettant une nouvelle phrase, jamais analysée, il a été en mesure de prédire quelles seraient les zones cérébrales activées si quelqu’un pensait à cette dernière.

Bien entendu, il reste du travail à accomplir. Et l’équipe de Just veut aller encore plus loin, explique-t-il :

« Une prochaine étape pourrait consister à décoder le type général de sujet auquel pense une personne, par exemple la géologie ou le skateboard. Nous sommes sur la bonne voie pour cartographier tous les types de connaissances existant dans le cerveau. »

  • Où en est la police prédictive ?

Lors de la journée d?étude organisée par l?Institut national des hautes études sur la sécurité et la justice, il n?a pas été question que de justice prédictive, comme nous l?avons évoqué dans notre dossier. Il a aussi été question d?un tout autre sujet, celui de la police prédictive. Sur InternetActu.net (...)

Lors de la journée d?étude organisée par l?Institut national des hautes études sur la sécurité et la justice, il n?a pas été question que de justice prédictive, comme nous l?avons évoqué dans notre dossier. Il a aussi été question d?un tout autre sujet, celui de la police prédictive.

Sur InternetActu.net nous avons avec constance été très critique envers la police prédictive (voire notamment « Predpol, la prédiction des banalités »). Malgré des annonces d?expérimentations en France, celles-ci sont plutôt restées discrètes, tant sur leurs fonctionnements que sur leurs résultats? Or, au colloque de l?INHESJ, la police et la gendarmerie notamment, avaient été invitées à évoquer les expérimentations qu?elles mènent. Et elles ont pris la parole?

« L?outil reproduit ce qu?on connait déjà »

Le Colonel Philippe Mirabaud commande le groupement de la gendarmerie départementale du Nord. Pour lui, face au manque de moyens, il faut améliorer le ciblage des actions et zones où opérer, et c?est en quoi ces nouveaux outils sont intéressants. Jusqu?à présent, la gendarmerie a surtout été dans une logique statistique pour comprendre la délinquance a posteriori. Si cela permet de rendre compte de l?action des services, si cela peut fournir une aide à la décision, ces outils ne sont pas un moyen de lutte contre la délinquance. Ils ne permettent même pas par exemple de mieux connaître son adversaire? Tout l?enjeu est de comprendre si la logique statistique, l?analyse criminelle, peut permettre d?orienter le travail de la gendarmerie. Le Colonel rappelle que la police et la gendarmerie utilisent déjà de nombreuses bases de données et systèmes d?information, chacun avec leurs finalités. Mais regrette que bien souvent, l?analyse de leur usage n?aille pas plus loin qu?une analyse statistique.

Dans le cadre de ce qui est présenté comme des expérimentations, la gendarmerie a donc revu l?activité de son Service de renseignement criminel à Pontoise, à la fois pour aider les unités de terrain avec un outil d?analyse prédictive pour orienter les décisions opérationnelles et également pour développer des outils d?aide à la résolution des enquêtes. Le Colonel souligne que ces développements ont été accomplis avec des « attentes raisonnables », c?est-à-dire pas très élevées visiblement. L?enjeu semble plus avoir été de déployer une expérimentation pour comprendre le fonctionnement de ces outils que pour asseoir une réforme politique ambitieuse. « On est passé des cartes avec des punaises à des systèmes statistiques qui génèrent des cartes. Et désormais on tente de générer une modélisation depuis des données sur plusieurs années pour tenter de faire un peu d?anticipation ».

Le Colonel précise que plusieurs outils ont été développés en interne, même si tous ne sont pas finalisés. Il projette plusieurs cartes qui montrent les cambriolages puis les vols de véhicules, comparant les cartes produites par le système prédictif à la réalité de la délinquance constatée. « On a des pics en octobre liés au changement d?heure et au fait que la nuit tombe plus tôt ». La prédiction ressemble à une séance de voyance : on constate des évidences.

« L?outil permet d?analyser notre délinquance. Il ne nous dit pas où vont se produire les vols, mais montre que les structures sont différentes : le cambriolage est bien plus concentré dans l?espace et le temps que le vol de véhicule. On est là dans une logique de compréhension et d?organisation. Pas de prédiction ! »

Il montre d?autres cartes provenant d?un autre outil qui sont des cartes de chaleur indiquant les cambriolages pour la semaine à venir. Un système prédictif basé sur les enregistrements des cambriolages sur les 5 dernières années. « C?est encore un travail de R&D. On va les utiliser à partir de septembre pour voir si ça peut permettre de prévoir les tournées des patrouilles sur le terrain. » En Aquitaine, ils utilisent déjà un système similaire et prennent en compte les recommandations du logiciel pour réaliser les patrouilles. Les premiers retours sont que ces outils finalement n?annulent pas la délinquance, mais la repoussent. Un constat qui rappelle celui qu?on adresse à la vidéosurveillance. Reste que pour l?instant, le système fait apparaître des zones à risque qui semblent recouper les observations de terrain.


Image : les points chauds du cambriolage à une semaine sur une carte du département du Nord, qui confirme les observations de la police de terrain. De droite à gauche : Bilel Benbouzid, le commissaire Yves Gallot, le Colonel Mirabaud.

Le Colonel Mirabaud a l?air plus souriant en présentant un autre outil développé par la gendarmerie, AnaCrime. Nous sommes quelques jours après l?incroyable relance de l?affaire Gregory qui semble devoir beaucoup à ce logiciel. Par une analyse des interrelations entre toutes les pièces d?une enquête, le logiciel permettrait de détecter des relations qui n?avaient pas été faites jusqu?alors. « Le logiciel a montré un vrai potentiel sur des affaires complexes ». Il ouvre des perspectives : « nous allons avoir de plus en plus besoin de coordinateurs de données et de renseignements criminels pour exploiter toutes les informations ». En travaillant avec les enquêteurs, le logiciel permet de mieux orienter les questions. Transformer les dossiers en base de données permet d?en tirer une nouvelle analyse.

De retour sur le logiciel de police prédictive, le Colonel est contraint de constater que de grands défis l?attendent encore. Il souligne que pour l?instant, ces outils ne fonctionnent qu?avec des données de la police et de la gendarmerie. Il va falloir donc qu?ils intègrent des données externes : la météo, l?agenda des événements, mais aussi des informations sociologiques. Il va falloir aussi intégrer les activités que réalisent les gendarmes et notamment le circuit des patrouilles. Un autre enjeu concerne la fusion des données. Il explique qu?un des grands problèmes auquel ils sont confrontés, c?est le fait que beaucoup de données dans les bases sont séquentielles. Il voudrait pouvoir par exemple suivre les verbalisations d?un véhicule sur toute la France pour mieux comprendre ses déplacements, comme c?est le cas de véhicules volés. Enfin, reste encore un autre enjeu, le circuit de décision. L?usage pourrait-on dire. Car produire des prédictions c?est très bien, mais comment sont-elles utilisées et intégrées dans les décisions opérationnelles ? Il n?y a pas encore d?interface pour faire se croiser l?expérience et le ressenti des équipes, leur perception du territoire, et les prédictions d?un logiciel.

L?intervention qui suit, celle du commissaire Yves Gallot, chef de la division des systèmes d?information opérationnelle à la direction centrale de la Sécurité publique, vient prolonger celle de son collègue de la gendarmerie. C?est d?ailleurs sur la sollicitation de la gendarmerie que la police est venu compléter les données de l?expérimentation lancée dans l?Oise, précise le commissaire divisionnaire. Un travail qui a donné naissance à « PredVol », une application de police prédictive dédiée à la délinquance commise sur les véhicules. Le logiciel fournit une représentation cartographique du département et pointe des zones de risque selon une prévision à la semaine, à partir d?un historique qui remonte sur 5 ans. Il précise les infractions : vol de voiture, de deux roues ou vol à la roulotte. Celui qui consulte le logiciel a toujours accès à l?évolution dans le temps. Et le logiciel intègre une évaluation entre ce qui a été prédit et les infractions constatées. Les résultats montrent surtout que « l?outil reproduit ce qu?on connaît déjà ». Lancée opérationnellement en septembre 2016, la police et ses partenaires ont fait un premier bilan de l?expérimentation fin février 2017. Le constat est que les périmètres sont parfois trop large et surtout que les calculs ont tendance « à faire ressortir toujours les mêmes spots, les mêmes points chauds aux mêmes endroits ». Pour le dire autrement : les zones dangereuses sont dangereuses ! Magie et profondeur des prédictions !


Image : Predvol présenté par le commissaire Gallot.

Le commissaire Yves Gallot souligne rapidement que d?autres expérimentations sont en cours. Toulouse travaille sur les vols avec violence. Etalab sur les cambriolages. Toujours sur des périmètres limités. Reste qu?Yves Gallot souligne que, comme on l?a entendu dans la justice, les modèles prédictifs ne sont pas transposables à toutes les infractions? Ils marchent beaucoup moins bien pour prédire les atteintes aux personnes par exemple. Comme son collègue de la gendarmerie, il fait le constat que la modélisation n?est pas si simple, notamment pour localiser les choses et pour passer de choses localisées à des zones qui soient opérantes. Plus qu?un outil pour l?État-Major, l?autre difficulté a été de tenter de donner des accès via smartphones pour qu?il puisse être utilisé jusque sur le terrain.

Dommage en tout cas que les représentants de la police et de la gendarmerie soient partis dès leurs interventions terminées. Ils auraient pu constater que leurs interrogations commencent déjà à avoir des réponses. Et que les critiques faites aux systèmes de police prédictive comme PredPol, commencent à être intégrées comme de nouveaux défis par d?autres chercheurs et systèmes.

Que nous apprend la cartographie du crime ?

Le géostatisticien Jean-Luc Besson est le spécialiste de la cartographie criminelle à l?Observatoire national de la délinquance et des réponses pénales. Il est notamment l?auteur d?études sur la criminalité dans le grand Paris (.pdf). Ce spécialiste de l?observation de la criminalité produit des « machines à calculer » (.pdf) : c?est donc assez naturellement qu?il s?intéresse à la transposition des machines statistiques aux outils prédictifs, en travaillant particulièrement sur les questions de géolocalisation que soulèvent ces outils.

Il a ainsi développé un outil pour étudier « les vols avec violence sans arme contre les femmes sur la voie publique à Paris », reprenant et prolongeant visiblement des travaux initiés depuis 2008 (voire par exemple cette présentation .pdf). Il a utilisé des algorithmes du domaine public et a tenté de comprendre comment prévoir le déplacement géographique de la criminalité sur un territoire. Sa modélisation intègre les attributs géographiques et les vulnérabilités du terrain afin de déterminer si certains terrains sont des facteurs aggravants, c?est-à-dire s?ils expliquent l?émergence, la présence et la pérennisation des « hotspots », les lieux où se concentrent les faits (c?est ce qu?on appelle les technologies du risk terrain modeling : la modélisation des terrains de risques).

Jean-Luc Besson prend le temps de nous expliquer comment il découpé Paris en 10 833 cellules de 100 mètres de côté. Chaque cellule est ensuite modélisée selon la densité de ses caractéristiques : présence d?arbres, de friches, de magasins (et quels types), etc. pour voir si ces éléments-là sont influents, c?est-à-dire s?ils participent au facteur de risque? Il a ensuite intégré des données de la préfecture de police sur ce type de fait, comportant plaintes comme interpellations et disposant d?une précision géographique permettant de géocoder les événements et donc de les localiser. Là encore, il a fallu nettoyer les données, comme toutes celles qui n?ont pas de coordonnées géographiques par exemple. Au total, il a rapatrié 4173 faits géocodés sur Paris en 2014. 2073 cellules (soit 19 % des 10 833 cellules qui découpent Paris) contiennent un fait ou plus, montrant, presque par nature, une concentration géographique. Enfin, il a fallu intégrer la temporalité des événements, qui ont montré aussi des phénomènes de concentration des violences sans armes contre les femmes à Paris : entre 17 et 19h les après-midi de semaine, la nuit durant les week-ends avec une autre pointe à l?heure de sortie des boîtes de nuit.


Image : carte des hotspots parisiens concentrant les vols avec violence sans arme contre les femmes sur la voie publique de jour (à gauche) et de nuit (à droite) le week-end.

L?analyse montre surtout la grande régularité des hotspots sur le territoire parisien. Ce type de vol est très concentré à la fois sur certains points du territoire parisien et à certains horaires. L?analyse des attributs géographiques des cellules a permis de pointer 21 facteurs de risque, allant de la présence d?arrêts de bus, de magasins de restauration rapide, de café et de bar, de pharmacie, de guichet de banque, de magasin d?alimentation? mais aussi bien sûr des lieux où sévissent trafic de drogue et prostitution. Et ces différents facteurs s?agencent dans un autre ordre de jour et de nuit. Peut-on pour autant prédire ou prévoir ? Peut-on savoir ou comprendre ce qui marche et ne marche pas en la matière, comme tente de le faire la méta-étude Policing Matrix de l?université George Mason ? Et quand les modèles fonctionnent, comment les expérimenter ?


Image : la carte des risques aggravants significatifs des vols avec violence sans arme contre les femmes sur la voie publique à Paris, le week-end, de nuit. Les terrasses, la prostitution, les bars et le trafic de drogue sont devant les boites de nuit, les magasins d’alimentation et les métros.

Pour Jean-Luc Besson, ces indicateurs permettraient par exemple d?améliorer la prévention en l?adaptant aux endroits les plus dangereux, en permettant aux gens de comprendre les facteurs de risque. Reste que les données demeurent encore très partielles : on ne voit que la criminalité connue. « Si la démarche est scientifique, le résultat ne l?est pas », concède le chercheur. Enfin, ces études pointent très souvent des territoires à haute intensité criminelle qui posent le problème de réponses qui peuvent être facilement discriminatoires. Enfin, ces programmes de police prédictive promettent de rationaliser les forces de police. Si les budgets apprécient cela, c?est moins le cas des services, qui apprécient peu que les machines se substituent à leur expertise. Pour Jean-Luc Besson, il est important de comprendre que ces outils ont des effets directs sur les libertés publiques. Et c?est là une question que la société doit poser avant de se précipiter sur la réponse.

Hunchlab : vers une police prédictive responsable

Jeremy Heffner est data scientist chez Azavea, une « B Corp », une entreprise privée spécialisée dans l?analyse géographique et qui agit pour l?intérêt général. Il est le responsable d?un des principaux projets d?Azavea, Hunchlab (@hunchlab), un outil de police prédictive, concurrent direct de Predpol qui ne s?intéresse pas seulement à la prédiction du crime, mais à comment aider la police à répondre à ces prédictions afin d?apporter non seulement une mesure de la criminalité, mais surtout un effet et évaluer l?impact de ce retour. Le projet ne se définit d?ailleurs pas comme un projet de prédiction du crime, mais comme « un logiciel de gestion de patrouille de police proactif ».

L?enjeu n?est ni de prédire ni de prévoir, car c?est finalement assez simple, souligne Jeremy Heffner en invitant ceux qui développent des systèmes algorithmiques à faire preuve d?un peu plus d?humilité. Tout l?enjeu est plutôt de réussir à créer un système d?aide à la décision avec rétroaction plus solide, permettant de mieux évaluer ce que vous pouvez prédire et ce que vous n?êtes pas capable de prédire et surtout de prendre garde à ses contre-effets.

Comme nombre de systèmes, Hunchlab agrège des données hétérogènes et les traduit en carte, en points chauds. Le système produit des cibles ou missions selon un code couleur pour le type de crime. Tout l?enjeu est alors de proposer aux patrouilles de se rendre dans ces points chauds selon des modalités différentes, soit d?une manière visible, soit pas, pour une certaine durée. Hunchlab enregistre enfin les retours des patrouilles : les policiers doivent répondre à une série de questions pour évaluer leur travail comme le système – du type faut-il vous envoyer à cet endroit plus souvent, moins souvent? Contrairement à PredPol qui favorise le surcontrôle aux points chauds, Hunchlab utilise un modèle probabiliste pour faire varier les patrouilles et les encourager à patrouiller sans vraiment surestimer une zone sur une autre, pour ne pas transformer la réaction de la police à l’information qu’ils reçoivent.

Hunchlab cherche à réduire la nuisance globale de la criminalité en utilisant des données, en les analysant, en sélectionnant des localisations, en proposant aux patrouilles des manières d?y répondre et en tentant d?apprendre de ces réponses. Hunchlab utilise des données sur la criminalité, des données sur le terrain pour mieux le comprendre (emplacements de bars, de commerce, de stations de métro, etc. selon le principe de modélisation de terrains de risque que nous avons vu plus haut), des données sur le temps allant de la météo aux événements organisés dans la ville, et également des éléments calculés comme l?heure, le mois, les phases de la lune? Et le système tente de connecter toutes ces données au crime (voire cette vidéo explicative du fonctionnement de Hunchlab).

Comme ailleurs, Hunchlab produit un jeu de données pour entrainer le système, utilisant les premières années pour faire des prévisions et les années suivantes pour les vérifier et les améliorer. Le système produit des cartes de prédiction du crime selon le type de crime (vol, agression, cambriolage?), mais sans donner aux policiers de niveaux de risques alors que le système en dispose. Pourquoi ? Parce que la prédiction n?est pas le plus important, insiste Heffner. Le problème des logiciels de ce type, c?est qu?ils ont tendance à envoyer les policiers uniquement là où le risque calculé est le plus grand ce qui influe sur le comportement des policiers. Pour remédier à cela, Hunchlab introduit de l?aléatoire. Cette idée leur est venue des officiers eux-mêmes et de leur manière de travailler. Cela permet de regarder ce qu?il se passe quand on n?envoie pas de policiers dans un endroit qui est évalué à risque. Cela permet surtout aux policiers de ne pas sur-interpréter ce qu’ils constatent, comme de s’en prendre à n’importe qui parce qu’ils sont dans une zone où le risque de crime est fort. Enfin, Hunchlab observe aussi les tactiques que choisissent les policiers, leur présente des options et tente également d?évaluer leurs effets. « Quand on donne aux acteurs des choix dans un système, vous obtenez un bien meilleur engagement », rappelle Heffner, avec la force de l’évidence. En fait, ces systèmes ne cessent de faire des erreurs et c?est pourquoi il est important d?intégrer une rétroaction permanente afin de continuer à tenter de les réduire.

Pour Jemery Heffner, « plus vous développez un outil puissant, plus vous avez un impact possible, plus vous devez agir avec humilité ». Et le chercheur de rappeler que les modèles font des erreurs. C?est pourquoi il faut expliquer les choses, comment ça marche, à partir de quoi, comment ça se trompe? Beaucoup d?entreprises se cachent derrière leurs secrets d?affaires. « Je ne comprends pas pourquoi elles font ça », notamment parce que l?investissement dans l?algorithme est bien souvent la part la plus faible de l?investissement par rapport à l?ensemble du coût du système déployé. De plus, tout le monde utilise peu ou prou les techniques, des techniques assez communes. Le secret est un moyen de tromper le public, estime Heffner. Il est non seulement nécessaire d?expliquer comment fonctionne le système, mais il faut également expliquer comment le système transforme des calculs en décisions. « Les utilisateurs ont besoin d?avoir confiance en ces outils ».

Par rapport à PredPol, Hunchlab produit un autre renversement : il est transparent sur les données qu?il utilise, ses théories, ses modèles, ses algorithmes? Hunchlab n?a pas de secrets commerciaux. « La décision et l?allocation des politiques publiques doivent s?expliquer. On doit pouvoir les utiliser devant une Cour de justice. Les gens doivent avoir envie de les utiliser. » Et le spécialiste de critiquer ainsi les programmes qui calculent le risque de récidive aux États-Unis, comme ceux qu?évoquaient Angèle Christin. Si les prévenus qui ont un score supérieur à 7 présentent un risque, alors que ce passe-t-il pour celui qui obtient un 6,9 ou un 7,1 ? « Ces scores sont des estimations ! », rappelle le spécialiste. Fragiles par nature et construits sur des agrégats d?incertitudes.

Enfin, il faut rappeler que les hommes eux-mêmes font des erreurs. Même quand on leur montre une information, bien souvent, ils l?interprètent mal. Quand on leur montre une cellule avec une possibilité de crime, les officiers ne sont pas informés du niveau de risque, c?est-à-dire qu?ils ne savent pas si c?est une zone avec un risque très élevé ou une zone sélectionnée aléatoirement. Le but en fait, est de ne pas influer sur leur comportement. Ne pas faire que quand ils arrivent à un endroit, ils pensent que tout le monde est un criminel. En cachant certaines informations aux policiers, on espère apporter un meilleur résultat à l?ensemble du système, éviter les débordements, éviter l?optimisation pour l?optimisation.

« Dans la police prédictive, la prédiction n?est pas le plus important », conclut Heffner. L?enjeu c?est de construire des systèmes pour tenter de faire au mieux ce qu?ils doivent faire. Et dans ce cadre, plus que de faire des prédictions sans failles, il faut avant tout faire des estimations explicables, permettre d?avoir des décisions interprétables? c?est-à-dire aider les hommes à interagir avec la machine, pas à se faire dicter leur conduite par celle-ci.

 « L?opacité n?est pas insurmontable »

Laissons le mot de la fin au sociologue Bilel Benbouzid, spécialiste de ces sujets et organisateur de cette journée d?étude à l?INHESJ. Comment peut-on faire que la police statistique soit un acteur de la prévention, elle qui a surtout servi à mesurer le crime ? Les boîtes noires algorithmiques nous confrontent à des systèmes technique qu?on a du mal à interpréter, à comprendre. Pourtant, « la question de l?opacité n?est pas insurmontable ». Les sociologues des objets techniques ont toujours été confrontés à des objets opaques. Et tout l?enjeu, comme nous y invitait Bruno Latour, c?est de prendre le pli de ces techniques pour révéler leur somptueuse opacité.

Bill Benbouzid souligne la difficulté à enquêter sur ces systèmes de police prédictive. Malgré ses efforts, par exemple, il n?a jamais eu accès aux concepteurs de Predpol. Mais il a remonté le fil de leurs travaux pour comprendre que l?algorithme de Predpol qui prédit l?intensité du risque provenait d?un laboratoire de recherche de Chambéry dédié à la sismologie, comme il l?expliquait dans cet article pour la Vie des Idées. Comme pour les répliques des tremblements de terre, Predpol mesure la concentration et la contagion du crime pour tenter d?en définir l?intensité du risque. Mais si pour prédire les répliques, la contagion est importante, est-ce un critère valable pour le crime ? Et si c?est le cas, comment en rendre compte ? Comment pondérer les valeurs produites par ces systèmes pour qu?elles ne deviennent pas performatives, comme tente de le faire Hunchlab ?

La question de la régulation de ces systèmes est également un enjeu. Aujourd?hui, beaucoup considèrent que ces systèmes s?inscrivent dans un régime un peu spécial lié au terrorisme. Pour certains, ces systèmes entérinent la fin du droit, puisqu?ils sont régulés de l?intérieur.

Bilel Benbouzid s?est intéressé à la controverse en légitimité de ces systèmes. « Dans quelle mesure la police peut-elle contrôler une personne dans la rue à partir d?information provenant d?un algorithme ? » Pour le professeur de droit américain Chistopher Slobogin, la jurisprudence qui encadre la pratique policière aux États-Unis exige pour faire une saisie ou une perquisition une « cause probable », validée par le juge avec un mandat de perquisition par exemple. Dans les années 70, pour permettre à la police de faire du contrôle d?identité dans la rue, la jurisprudence va permettre aux officiers de se baser sur une simple « suspicion raisonnable ». Pour Slobogin, la jurisprudence du contrôle de rue repose sur un principe de proportionnalité qui pourrait s?adapter à la police algorithmique : « plus la cause probable est robuste, plus je peux être intrusif et inversement, plus la suspicion raisonnable est faible moins je peux être intrusif ». Pour Slobogin, ce principe de proportionnalité pourrait tout à fait s?appliquer à la régulation des algorithmes de police prédictive. Pour lui, il suffit que la justice demande aux producteurs d?algorithmes de s?assurer d?une représentation très rigoureuse des groupes sociaux impactés, c?est-à-dire de veiller à ne pas produire de biais.

D?autres juristes, comme l?Américain Andrew Ferguson – qui publie prochainement un livre sur le sujet – a comparé, par analogie, le raisonnement prédictif à celui d?un informateur. Pour les cours de justice, en tout cas, les informations d?un indic sont souvent suffisantes pour être retenues comme cause probable ou suspicion raisonnable. « Peut-on comparer un algorithme à un informateur ? » Pas tout à fait, estime Ferguson, car un indic raisonne souvent de manière individualisé, alors qu?un algorithme raisonne de manière générale. Sauf que bien souvent, la police a besoin de croiser l?information d?un informateur pour intervenir. Ferguson tente également une analogie avec le profilage, qu?utilisent déjà les officiers quand ils décident d?intervenir en constatant un comportement qui leur semble suspect. Pour Ferguson, la prédiction permet bien souvent de renforcer le profilage en situation.

Une jurisprudence américaine a déterminé qu?une zone à haut risque établie par un algorithme pouvait être considérée comme une suspicion raisonnable pour autoriser le contrôle policier. Pour autant qu?on sache juridiquement ce qu?est une zone à haut risque? Ce qu?aucune jurisprudence ne s?est encore penchée à faire. Pour Ferguson, ces outils permettent de gagner en précision. Il propose d?ailleurs de certifier les algorithmes comme la justice a certifié la qualité des chiens renifleurs.

D?autres juristes estiment que ni la cause probable ni la suspicion raisonnable ne suffisent. Le soupçon doit être individualisé c?est-à-dire qu?il doit désigner une personne ou une action pour opérer. Pour la professeure de droit à l?université d?Arizona, Jane Bambauer, dans l?un de ses articles intitulé « Tracas », l?enjeu consiste à minimiser le taux de tracas, et c?est justement ce que permettent ces outils. Les cours de justice, rappelle la juriste, interdisent la quantification de la cause probable et de la suspicion raisonnable. C?est-à-dire qu?ils ne peuvent être un argument probabiliste, car le soupçon doit être individualisé. Jane Bambauer rappelle néanmoins que les juristes ont très mal interprété cela. Pour eux, il y a une différence entre le soupçon individuel et général. Pour Bambauer, ces deux formes de soupçons ne doivent pas s?opposer : le soupçon que produit un algorithme prolonge celui du policier devant un individu. Pour elle, la jurisprudence montre l?importance de minimiser le taux de tracas. Cela signifie que ces outils doivent être utilisés proportionnellement au taux de tracas ou aux taux d?erreurs qu?ils génèrent. Ainsi on a longtemps interdit des interventions sur la base d?une information quantifiée, comme de faire une descente sur des campus parce qu?on est sûr de trouver de la drogue dans 60 % des chambres. Mais on voit bien qu?il pourrait demain en être autrement? L?enjeu n?est bien sûr pas de contrôler l?ensemble des dortoirs sur la base d?une information quantifiée. Mais peut-être faudrait-il regarder quel serait le taux de tracas raisonnable ? Et réintroduire du hasard, de l?aléatoire (comme le fait Hunchlab), pour générer une forme d?équité?

Faut-il introduire plus de transparence et de gouvernance ? C?est ce que proposent Slobogin comme Ferguson finalement, mais la transparence ne permettra pas à elle seule de répondre à l?opacité. « Peut-être que la puissance du machine learning exige de répondre par des principes semblables à ceux qu?utilisent le machine learning, c?est-à-dire des principes quantifiés ?», suggère le sociologue, à l?image du taux de tracas ou de l?aléatoire.

Ce que montrent ces controverses, c?est combien la question de la légitimité de ces outils elle-même est encore à défricher. Mieux déterminer leur légitimité, mieux l?encadrer, permettra certainement de mieux border leur utilisation, afin qu?elle ne se fasse pas seulement au profit d?une pure optimisation.

Hubert Guillaud

Notre dossier « Vers la justice analytique » :

  • Un troisième pouce pour étendre ses capacités naturelles

La designer Dani Clode (@daniclode), récemment diplômée du Royal College of Arts, nous propose de nous doter d?un troisième pouce (vidéo). Un moyen de montrer que les prothèses peuvent être plus que des substituts et devenir de véritables attributs, souligne le magazine Dezzen. « Étymologiquement, « prothèse » signifie « ajouter », ce qui ne (...)

La designer Dani Clode (@daniclode), récemment diplômée du Royal College of Arts, nous propose de nous doter d?un troisième pouce (vidéo).

Un moyen de montrer que les prothèses peuvent être plus que des substituts et devenir de véritables attributs, souligne le magazine Dezzen. « Étymologiquement, « prothèse » signifie « ajouter », ce qui ne veut pas dire réparer ou remplacer, mais étendre. Le troisième pouce s?inspire de cette étymologie. Son but est d’explorer l’augmentation humaine et de redéfinir les prothèses comme une extension du corps. »

Reste à savoir à que faire de ce 11e doigt. Et bien justement, toute la force de la proposition de Dani Clode est d?illustrer, dans des situations assez banales, ce à quoi ce doigt supplémentaire pourrait servir.

Décidément, les super-pouvoirs ont visiblement plus d?avenir que les augmentations ordinaires?

  • Vers la justice analytique (3/3) : entre performance et optimisation

Quels sont les enjeux de l’ouverture des données de justice qui s’annoncent ? Retour en détail sur un colloque de l?Institut national des hautes études de la sécurité et de la justice, pour prendre le temps d’en comprendre les enjeux. 3e partie. ? Le long chemin de la dématérialisation de la (...)

Quels sont les enjeux de l’ouverture des données de justice qui s’annoncent ? Retour en détail sur un colloque de l?Institut national des hautes études de la sécurité et de la justice, pour prendre le temps d’en comprendre les enjeux. 3e partie.

?

Le long chemin de la dématérialisation de la justice

Le professeur de droit et avocat, Bertrand Warusfel, rappelle quant à lui que les outils techniques ne sont jamais neutres comme l’ont montré Simondon et Ellul. Ils véhiculent toujours une logique. Les algorithmes prédictifs véhiculent des logiques d’efficacité et de performance qui reposent sur une calculabilité qui se confronte assez mal à la logique de la justice. « Si la manière dont on rend la justice doit toujours chercher à être efficace, passer à rendre la justice efficace est un biais dangereux ». L’autre biais de la logique des algorithmes est de considérer le droit comme une théorie des jeux où des acteurs rationnels calculeraient leurs gains ou leurs pertes pour décider de régler un différend à l’amiable ou en justice. Nous sommes confrontés à une normativité processuelle. Comme le disait Lawrence Lessig, le code exerce sur nos comportements plus d’effets que la loi. Tant et si bien qu’elle voudrait pouvoir s’y substituer. Si le code peut apporter de la performance, il faut entendre qu’il aura des effets importants sur notre manière de rendre justice et de faire le droit.

Bertrand Warusfel rappelle également que la dématérialisation de la justice a commencé il y a longtemps et avance assez lentement. « On échange des pièces via le réseau. On fait des PDF extractibles pour qu’on puisse récupérer les éléments en copier/coller. Nous sommes encore très loin de ce qu’on pourrait appeler le numérique ». Où sont les formulaires communs, les pièces hyperliées, les workflows intelligents? ? Voilà qui permettrait certainement de faire de belles progressions en terme de performance et qui serait moins porteur de risque que l’analyse prédictive modère l’avocat. « La justice pourra-t-elle faire l’économie de l’humble chemin de la numérisation ? »

Mais en même temps, le professeur de droit pointe aussi la limite d’une dématérialisation continue. Si dans la chaîne pénale la techno est partout, de la police à la justice, ne risque-t-on pas de perdre un attribut du juge ? questionne Bertrand Warusfel en évoquant les multiples bases de données du secteur. Le juge, notamment, est aussi le contrôleur des investigations. « Une chaîne continue risque d’introduire de la continuité entre police et justice là où, aujourd’hui, il y a rupture nécessaire. Face à la montée des outils d’aide à la décision juridique, la qualification juridique doit rester une prérogative du juge, notamment si l’on souhaite garder l’individualisation de la justice ». L’intime conviction doit rester celle du juge, pas de la machine.

Bien sûr, la question de la sécurité de ces instruments est entière. Entre les défaillances, les bugs, les effets systémiques mal calibrés et les fuites de données? on sait que les systèmes sont en permanence mis en danger, alors qu’ils doivent être utilisés pour traiter des choses sensibles qui ne peuvent pas en rester à une fausse impression de sécurité. Pour Bertrand Warusfel tous ces enjeux, en plus de la question de la gouvernementalité des algorithmes, montrent le besoin d’une structure politico-administrative nouvelle, conclut-il. Pas sûr de partager sa conclusion, mais les constats qu’il dresse montre bien que concilier justice analytique et justice n’est pas si simple. La numérisation est toujours une transformation.

Quelles données « ouvrir » ?

La justice est bien sûr une question régalienne par excellence. D’où l’importance d’entendre également le point de vue de l’Etat. C’est Jean-Paul Jean, magistrat et président de chambre à la Cour de cassation qui en a la charge lors de ce colloque. « Les questions soulevées par ces débats posent celle de la régulation entre notre système de droit et notre système de valeur. » Et la différence entre les deux ne se réduit pas par un outil. Pour la justice, comme en matière de santé, les données à partir desquelles on travaille sont sensibles et nécessitent une grande prudence quand on cherche à introduire de nouvelles technologies pour les traiter. Ce qui est sûr, c’est que dans le domaine, on va passer d’une justice actuarielle (c’est-à-dire de calcul du risque) artisanale à industrielle.

Les calculs de probabilité et la balance des intérêts ont toujours été utilisés par la justice. Elle l’est plus encore aujourd’hui et le sera plus encore demain. Ce sera peut-être très bien pour certains types de contentieux, car encore une fois, la justice n’est pas uniforme, comme le souligne l’activité des juridictions (.pdf) et la grande diversité des contentieux. Le civil n’est pas le pénal, pas plus que les amendes ne se recoupent avec les crimes. Mais est-ce que ce sera le cas de tous les contentieux ?, interroge le magistrat.  

La balance des intérêts que produit la justice analytique répond à une demande de prévisibilité des usagers, rappelle Jean-Paul Jean. Les justiciables ne veulent pas dépendre de biais spécifiques, comme d’un juge qui a connu un accident de la route dans sa famille pour juger un chauffard. L’économie du système pénal n’est pas uniforme, rappelle le magistrat. On ne peut pas répondre avec les mêmes types d’outils pour adresser la justice acceptée (la contravention), négociée (le conseil d’un avocat) et discutée (avec un juge et un débat contradictoire). Le magistrat souligne par là que l’ouverture des données et la justice analytique ne peuvent certainement pas être uniformes. Le risque principal qu’introduit l’analyse, c’est de distinguer les juges et les juridictions et de pouvoir les évaluer précisément depuis leurs productions, précise-t-il encore. Or, si aux États-Unis les juges sont élus, en France, les juges relèvent d’un service public? La justice analytique en permettant une évaluation toujours plus précise du système judiciaire pose aussi une question sur la manière dont il est construit, suggère Jean-Paul Jean. Est-ce à dire que de nouveaux outils nécessitent d’adapter et réformer le système ? C’est la question qu’on pouvait se poser en l’écoutant.

Pour Jean-Paul Jean, « il faut en revenir à la finalité des données ». L’approche rationnelle ne change pas la logique existante, mais sa dimension. Si on tente de le traduire, on pourrait estimer que l’application analytique partout est certainement ce qui produit des difficultés. Ce n’est d’ailleurs pour l’instant pas possible, faut-il le rappeler. L’article 10 de la loi informatique et libertés rappelle qu’aucune décision de justice impliquant une appréciation sur le comportement d’une personne ne peut avoir pour fondement un traitement automatisé.

De la dépolitisation à la repolitisation

Le magistrat Antoine Garapon, secrétaire général de l’Institut des hautes études sur la justice et producteur de la Discussion du soir sur France Culture a conclu une journée, « qui ne mérite pas d’être conclue ». Il est revenu sur l’hypothèse de la révolution graphique et la manière dont elle impacte notre rapport au monde. « L’écriture informatique est une écriture active qui enregistre et traite à la fois. Elle réévalue notre rapport au monde. C’est une écriture capable de juger, car capable d’être programmée. » Elle nous transforme en retour, comme le montre les travaux d’Angèle Christin. Les algorithmes posent problème, car ils induisent une nouvelle représentation du monde qu’on ne connaît pas, mais également impactent son fonctionnement et notre capacité d’action. « Avec eux, nous passons d’une organisation pyramidale des normes juridiques qui plaçaient à son sommet la volonté souveraine, à une organisation machinique, systémique, consistant à optimiser la circulation des process. » En cela, « le numérique implique une destitution », estime le juriste. On passe d’une justice qui implique la loyauté, l’équité, la réciprocité à une justice comme fitness, qui repose sur les correspondances, les assemblages? Les algorithmes sont des « matchmakers », ils produisent des appariements, génèrent du fonctionnement. « Ils nous affranchissent du monde tout en proposant une manière de le faire fonctionner ».


Image : Antoine Garapon sur la scène du colloque AlgoEthique, Inhesj.

C’est cette dépolitisation, cette image d’un monde terriblement parfait qu’ils proposent qu’il nous faut questionner. « Nous sommes dans une sorte de « transduction« . Le monde se reproduit sans n’avoir plus besoin d’éléments tiers. »

Ce qui est préoccupant dans cette dépolitisation, c’est bien sûr la dissimulation du pouvoir. « Un monde systématisé est un monde où le pouvoir ne se présente plus à nous, ne se met plus en scène, qui n’est plus représentable à l’image de l’écriture informatique, cette suite de nombre, de zéros et de uns, qui exclut toute signification pour fonctionner. Nous sommes confrontés à une machine qui rend le monde efficient, ou tout est visible, sauf l’organe qui produit cette efficience. » Pour répondre à cette dépolitisation, il faut bien sûr repolitiser le monde, estime le magistrat. Facebook ou Google, ces nouvelles formes globales qui réorganisent les interactions humaines ne nous demandent rien d’autre que l’agrégation de nos données? une forme politique sans pacte fondateur autre que le blanc-seing que sont leurs CGU, ces contrats d’adhésion contraints? Or les formes politiques sans pactes fondateurs partagés ne sont rien d’autre que des tyrannies ou des dictatures.

Face à ces technologies, nous avons besoin de retrouver notre condition d’homme politique, notre condition de vivre avec les autres qui nous sont si insupportables et si indispensables. Peut-on réorganiser les technologies avec des dimensions symboliques nécessaires pour faire politique ?

Pour Antoine Garapon notre premier travail est de « fixer, nommer, loger, localiser, formuler, donner force au numérique ». Et cela nécessite une réflexivité, une capacité de restitution pour nous permettre d’agir dessus. « Nous avons besoin d’une forme politique capable de réaffirmer la puissance des citoyens réunis ». Bel enjeu !

Hubert Guillaud

Notre dossier « Vers la justice analytique » :

  • Quand une IA en observe une autre?

Comment comprendre le raisonnement des IA ? Cela semble bien devenir la grande question des prochaines années, et nous avons déjà mentionné dans nos colonnes certaines tentatives visant à comprendre le fonctionnement de ces systèmes souvent opaques. Le New Scientist nous présente une nouvelle méthode, créée par Christopher Grimm, de l’université (...)

Comment comprendre le raisonnement des IA ? Cela semble bien devenir la grande question des prochaines années, et nous avons déjà mentionné dans nos colonnes certaines tentatives visant à comprendre le fonctionnement de ces systèmes souvent opaques.

Le New Scientist nous présente une nouvelle méthode, créée par Christopher Grimm, de l’université Brown à Providence. La technique consiste à créer une seconde IA qui supervisera le travail de la première. Ainsi, dans un programme de reconnaissance d’images, ce « superviseur » introduira du bruit blanc sur la figure à analyser, pour voir si cela affectera les capacités de reconnaissance de la machine. Si la présence de la partie « bruitée » ne change rien à la décision du logiciel, c’est qu’elle n’a pas utilisé les informations cachées pour effectuer son analyse.

L’équipe de Grimm a pu ainsi découvrir que si l’on présentait à l’IA observée l’image d’un cheval, celle-ci se concentrait d’abord sur la présence de pattes. Puis cherchait la tête. Pour un cerf, la machine commençait de la même manière, puis cherchait spécifiquement la présence des bois. Elle ignorait, en revanche, toute les portions de l’image qui ne seraient pas susceptibles de contenir une information déterminante.

Le système fonctionne de la même manière avec un document écrit ; la seconde IA masque certains mots et voit si cela change ou non le processus de décision de la première IA (rappelons qu’une récente recherche a montré qu’une simple « coquille » dans un texte suffisait pour faire déraper complètement l’analyse d’un programme).

Le système de Grimm a permis également de voir comment une IA peut se tromper. Ils ont fait jouer l’une d’entre elles à l’antique jeu Pong, et ont analysé une fois de plus comment l’IA cherchait l?information. Les chercheurs ont ainsi pu découvrir que cette dernière se concentrait sur la colonne ou se trouvait la raquette et ignorait de grandes portions de l’écran. En général, cela suffit pour un jeu de Pong simple, mais que se passe-t-il si on place deux raquettes et non une seule ? Si elles se trouvent toutes les deux sur la même colonne, pas de problèmes. Mais si l’une d’entre elles se trouve plus avancée sur l’écran, le système à tendance à prendre la seconde raquette pour une balle.

Le papier original est librement disponible sur ArXiv.

  • Vers la justice analytique (2/3) : prédiction et régulation en leurs limites

Quels sont les enjeux de l’ouverture des données de justice qui s’annoncent ? Retour en détail sur un colloque de l?Institut national des hautes études de la sécurité et de la justice, pour prendre le temps d’en comprendre les enjeux. 2e partie. Angèle Christin (@angelechristin), sociologue et ethnographe, spécialiste de la (...)

Quels sont les enjeux de l’ouverture des données de justice qui s’annoncent ? Retour en détail sur un colloque de l?Institut national des hautes études de la sécurité et de la justice, pour prendre le temps d’en comprendre les enjeux. 2e partie.

Angèle Christin (@angelechristin), sociologue et ethnographe, spécialiste de la justice pénale, est maître de conférence à Stanford. Elle s’intéresse aux algorithmes qui estiment la probabilité de récidive dans la justice pénale américaine. Des techniques qui ont été très critiqués notamment du fait des biais de ces programmes en matière de discrimination, du problème de l’absence d’information et de recours des justiciables et surtout de leurs limites à calculer effectivement ce qu’ils promettent.

Les limites de la prédiction

En fait, rappelle la chercheuse, la question de la prédiction du risque aux États-Unis est ancienne et peut remonter aux travaux en criminologie des années 30 et 70. Mais, si les bases de données sur lesquels s’appuient les outils d’évaluation du risque sont plus massives, les modèles sur lesquels ils s’appuient, eux, sont restés les mêmes. On est encore beaucoup sur des outils de régression statistique, consistant à analyser la relation entre variables. Les outils produisent des scores de risques sur un nombre toujours plus grand d’instruments. Plus de 60 sont utilisés dans les institutions américaines, à différents endroits de la chaîne pénale, que ce soit pour prévenir la délinquance sexuelle, la probation, le risque de délinquance des mineurs?

Et la chercheuse de nous montrer les ternes interfaces de ces programmes qui ressemblent plus à des programmes de Windows 93 qu’à des applications pour smartphones, comme l’outil d’évaluation du risque de comparution de l’État de Virginie, qui est un outil pour évaluer si la personne va se présenter au tribunal au moment de sa mise en détention provisoire. Ce programme informatique est utilisé par les procureurs et travailleurs sociaux au-delà du seul État de Virginie. Il tente d’évaluer différents facteurs de risques, comme de savoir si la personne consomme de la drogue, si elle a charge d’enfants ou de parents, un emploi, une résidence vérifiée, des comportements violents, un historique criminel ou s’il a déjà fait défaut en terme de comparution. Une fois les renseignements renseignés, le logiciel calcul un risque de 1 à 10. Elle montre également l’interface de Compas, l’outil de calcul de la récidive qu’avait évalué l’enquête de Propublica qui se base sur un questionnaire auquel doit répondre le prévenu et qui est utilisé dans de nombreuses juridictions américaines. Comme l’avait souligné Propublica, beaucoup de questions (le questionnaire en comporte 110) posent problème, notamment dans l’évaluation de la sociabilité des délinquants, leur mode de vie et leurs attitudes. Le logiciel donne un résultat augmenté d’un code couleur qui prédit le risque de récidive violent. Celui-ci est imprimé et ajouté au dossier et les magistrats le consultent pour prendre sa décision. Il se présente donc bien comme un outil d’aide à la décision plus qu’un outil de justice automatisé, prévient la chercheuse.

Il y a 4 grandes familles de critiques autour de ces nombreux outils, explique Angèle Christin. La première c’est leur opacité. Celle-ci est à plusieurs niveaux : le code des logiciels ou leurs bases de données ne sont jamais rendus publics. Au sein même des tribunaux, les prévenus n’ont souvent pas accès au résultat calculé par ces programmes. Enfin, aucun mécanisme de contestation ou de recours n’a été mis en place.

La seconde critique souligne le biais de discrimination de ces outils. Certaines variables au sein de ces modèles, comme quelque chose d’aussi simple que les codes postaux ou l’emploi, sont corrélées de manière significative avec l’appartenance ethnique. Tant et si bien que plusieurs de ces outils aujourd’hui sont entachés d’un soupçon d’inconstitutionnalité et enlever le code postal ou l’emploi ne suffira pas à ôter leur biais, notamment parce que l’historique des données et des systèmes judiciaires sont imprégnés de discriminations. La justice américaine incarcère les noirs et les pauvres plus massivement que les autres.

La troisième famille de critique repose sur l’inégalité sociale intrinsèque de nos systèmes. Les algorithmes prédictifs se concentrent presque exclusivement sur la justice pénale de masse, comme la comparution immédiate de masse. Les algorithmes pénaux s’intéressent uniquement aux pauvres, aucun ne s’intéresse à la délinquance financière ou à la délinquance fiscale par exemple, comme s’en était moqué le designer Sam Lavigne en lançant un système de police prédictive des zones de délinquance en col blanc. Ils entérinent une justice à deux vitesses : une pour les classes supérieures gérées par les humains, une automatisée pour les plus pauvres.


Image : L’île de Manhattan, zone chaude de la délinquance financière, moquée par Sam Lavigne.

Enfin, la dernière famille de critique repose sur l’optimisation intrinsèque à ces systèmes, leur caractère performatif qui génère leur propre autoréalisation. L’algorithme crée ce qu’il cherche à décrire : en cherchant des récidivistes potentiels, il en crée.

Reste que pour Angèle Christin, il est essentiel d’étudier les usages concrets de ces outils pour comprendre où et comment ils s’insèrent dans le système pénal, comme elle l’a fait en étudiant les comparutions immédiates dans la justice française, montrant que beaucoup de décisions de justice sont finalement prises sans prendre de temps et avec peu d’information. Peut-être qu’en apportant un peu plus d’information, ces outils peuvent avoir un intérêt.

La chercheuse est en train de réaliser une étude ethnographique dans trois tribunaux américains, pour regarder concrètement comment ces outils sont utilisés. Les résultats préliminaires montrent l’énorme manque de confiance des professionnels envers ces outils. Juges et procureurs ont l’impression que ces outils regardent les mêmes variables qu’eux. Ils se montrent le plus souvent défiants vis-à-vis des boîtes noires que constituent ces outils. Dans la réalité, ils sont peu utilisés, peu mentionnés, hormis comme des instruments de justification pour négocier une peine avec des avocats. La chercheuse pointe également le souci de manipulation qu’induisent ces instruments. Ce sont les travailleurs sociaux plus que les magistrats qui informent ces outils. Ces personnels connaissent très bien les critères qui pèsent dans le calcul algorithmique pour en jouer. Enfin, force est de reconnaître qu’il y a en fait un vaste écart entre l’idéal projeté dans ces outils – qui amélioreraient l’efficacité et la rapidité – et la réalité.

Pour la chercheuse, l’utilisation concrète de ces outils dans la pratique pénale se révèle plus complexe qu’on le pense. Ce qui est sûr, c’est que ces outils ne sont ni neutres, ni impartiaux, ni objectifs, ni efficaces. Ils portent en eux une nature d’ordre politique et posent la question du modèle de justice qu’on souhaite pour le futur.


Image : Angèle Christin et David Forest, sur la scène de l’amphithéâtre de l’Ecole militaire lors du séminaire de l’INHESJ.

La régulation algorithmique est-elle une question périphérique au droit ?

L’avocat David Forest (@df_forest) fait un pas de côté. Et comme tout pas de côté, c’est forcément intéressant. < em>« Les initiatives de régulation algorithmiques se trouvent aujourd’hui en périphérie du droit », attaque-t-il, en prenant comme exemple la question du droit à l’oubli, que la Cour de justice européenne a imposé à Google en 2014. Google a longtemps refusé d’appliquer cette législation parce que la firme a toujours considéré qu’elle ne lui était pas applicable. Beaucoup ont pourtant crié victoire suite à cette décision. À l’époque, Google avait lancé un comité d’éthique consultatif pour auditionner et comprendre les critères de désindexation qui lui étaient adressés. La firme américaine avait organisé de grandes réunions? Mais qu’en est-il vraiment resté ? Pour David Forest, cette victoire a été une illusion. « On a pensé qu?on pouvait effacer le passé. Mais le business model de Google, c?est d?abord la prévision du futur. » Si Google a bien mis en place un formulaire pour que les utilisateurs puissent demander la suppression d’un contenu, « la firme s’est-elle pour autant soumise à notre législation ? », interroge l’avocat. C’est oublier combien Google se considère et agit comme une entité transnationale souveraine. Or, le souverain, comme l’ont souligné Jean Bodin ou Carl Schmitt, c’est celui qui s’estime tenu par aucune loi. Pour David Forest, Google a pris une décision stratégique, commerciale et économique de mettre en oeuvre un processus de désindexation dont il maîtrise les paramètres. D’une certaine manière, il contourne la norme juridique à l’aide de processus fonctionnels, via un formulaire parfaitement procédural. Dans ses règles de confidentialité, Google ne fait référence à aucune loi ou directive qui s’imposerait à lui.

Pour David Forest, nous sommes en fait dans une forme de normativité processuelle hors la loi des juges. Un softpower pour reprendre le concept forgé par Joseph Nye, où l’enjeu est plus d’imposer des normes que de répondre à des lois. Thomas Berns et Antoinette Rouvroy ont parlé de gouvernementalité algorithmique pour décrire ce softpower (voir par exemple l’un de nos articles). La gouvernementalité fait référence à Foucault et désigne un gouvernement des conduites qui permet de contrôler et surveiller les populations. Et c’est bien ce que font les algorithmes : profiler les populations, reconfigurer leur environnement. Les LegalTechs participent également de cette gouvernementalité en anticipant les comportements des justiciables et des magistrats. Alain Supiot, lui, a parlé de « gouvernance par les nombres«  pour qualifier le renversement du règne de la loi. La gouvernance, elle, renvoie au bon gouvernement gestionnaire. La loi sur la sécurité financière a introduit la notion de gouvernement d’entreprise consistant à accorder une place au processus par le renfort du contrôle interne. Il y a même une norme ISO qui définit la gouvernance comme une série de processus. La gouvernance définit des normes dans le registre de l’autorégulation. Sur Amazon, quand vous êtes confronté à une usurpation d’identité ou un détournement de données bancaires, une série de processus s’enclenchent pour remédier à la désorganisation du système.

Cette gouvernance renvoie à la matrice cybernétique du mathématicien Norbert Wiener, qui repose sur l’information, le rétrocontrôle, la régulation et l’auto-organisation. Elle conduit à l’inversion des fins et des moyens. La gouvernance va de pair avec le rejet du droit. La boucle de rétroaction et la gouvernance sont la clef de la mise en relation entre les individus et les machines. La régulation est un dialogue de sourds avec le droit, un jeu de cache-cache permanent. Pour Wiener, la loi est un contrôle moral appliqué aux modes de communication. Elle doit être prévisible et certaine, comme le sont les processus de gouvernance qui les remplacent. D’une certaine manière, les producteurs des formes de gouvernance rejettent l’incertitude de la justice qui serait un facteur d’opacité. En ce sens, la justice prédictive est une forme de lutte contre le désordre anthropique. Tout dépend alors de la contractualisation généralisée entre les individus et les systèmes : ces CGU, ces contrats d’adhésion que nous proposent les Gafa et dont les termes ne sont pas négociables. Cette contractualisation ne repose pas sur la loi, mais sur l’éthique, un ensemble de valeurs relatives, contingentes, instrumentalisables? estime David Forest. C’est pourquoi, de la Loi Lemaire au projet Transalgo de l’Inria, on en appelle partout à l’éthique? L’éthique d’ailleurs, n’était-elle pas l’alpha et l’oméga de la régulation inscrite dans la déclaration d’indépendance du cyberspace de JP Barlow ? Pour Forest, l’éthique est le paravent de l’autorégulation qui renvoie à un mélange entre morale et intérêt d’entreprises se voulant « socialement responsable », critique-t-il. L’autorégulation construit une norme privée fonctionnant en circuit fermé, car bouclée sur elle-même. Elle est un mode de régulation alternatif, voire substitutif, à la régulation juridique.

Comme le souligne David Forest en conclusion d’une tribune sur ce sujet : le but du procédé algorithmique, mû par ses propres normes, n’est-il pas de s’affranchir totalement de la normativité juridique, à l’image de ce que propose blockchain ? Les 23 principes d’Asilomar adoptés comme guide de référence éthique de l’intelligence artificielle (voir l’article de Numerama) n’ont-ils pas été produits avant tout pour inciter le gouvernement à ne pas réglementer ? C’était également mon analyse : établir des principes pour éloigner l’impact réglementaire qui menace les acteurs de l’intelligence artificielle.

Échapper au droit ? À croire parfois que c’est le seul enjeu que cherchent à relever les acteurs du numérique.

Hubert Guillaud

Notre dossier « Vers la justice analytique » :

  • Vers la justice analytique (1/3) : l?enjeu de l?ouverture des données de justice

Dans un amphithéâtre un peu surchauffé de l?École militaire à Paris se tenait fin juin une journée d?étude sur la question des algorithmes appliqués à la justice et à la police organisée par l?Institut national des hautes études de la sécurité et de la justice et le projet de recherche (...)

Dans un amphithéâtre un peu surchauffé de l?École militaire à Paris se tenait fin juin une journée d?étude sur la question des algorithmes appliqués à la justice et à la police organisée par l?Institut national des hautes études de la sécurité et de la justice et le projet de recherche Innox qui s’intéresse à la gouvernance prédictive. L?occasion d?interroger les enjeux de l?ouverture annoncée des données de justice inscrites dans la loi pour une République numérique qui a promis la publication en open data des décisions judiciaires.

Reste que depuis la promulgation de la loi, les choses patinent un peu. Que faut-il ouvrir ? Comment ouvrir ? Comment anonymiser les documents automatiquement et en masse et s’assurer que la réidentification des justiciables ne soit pas possible ? Le caviardage automatisé doit-il aussi concerner le nom des juges, les montants, les noms des avocats… ? Enfin, comment exploiter ces milliers de décisions de justice ? Si pour l’instant, on évoque l’accès à quelque 360 000 décisions judiciaires annuelles via deux bases de données, à l’avenir, ces publications devraient accueillir plusieurs millions de documents par an : une perspective qui gonfle les ambitions de ce qu’on appelle déjà la Legal Tech, les entreprises de technologies chargées de transformer ce substrat en business. Comment border cette ouverture pour qu’elle bénéficie à tous ? Comment extraire du sens de la justice analytique qui arrive ?

Tels étaient quelques-uns des enjeux qui planaient sur cette journée de discussion? alors que les autorités judiciaires discutent des modalités opérationnelles de l’ouverture des données de justice : modalités qui auront une incidence forte sur ce que l’on pourra retirer de ces données et la façon de les exploiter.  

L’algorithme est-il seulement un nouvel outil ?

?Comme l’a rappelé Hélène Cazaux-Charles, directrice de l’INHESJ, réfléchir aux conséquences éthiques de l’introduction de nouvelles technologies dans le monde judiciaire et dans celui de la sécurité pose la question de comment la technologie aide la justice à faire son travail. Le risque est-il que « le terrain de la preuve glisse du droit à l?équation » ? L’algorithme qui anticipe le risque est-il appelé à être un outil parmi d’autres ou est-il un nouvel objet qui « transforme la probabilité en certitude et le soupçon en preuve » ?

Cet avenir pose également celui de l’équilibre constitutionnel. Aujourd’hui, le Procureur de la République peut demander des contrôles d’identité ciblés sur les territoires par exemple, mais demain, à l’heure de la police prédictive, qui en décidera ? Qui sera garant de l’équilibre constitutionnel ?


Image : au colloque sécurité et justice par l’INHESJ.

Enfin, ces transformations posent la question de l’essence même du pouvoir. « L’humain est-il un agrégat de comportements qui font données et systèmes ? La société est-elle encore un vivre ensemble ou une machine ? » L’activité humaine mise en chiffre induit, comme le soulignait le juriste Alain Supiot dans La gouvernance par les nombres que la société n’est plus construite comme une croyance qui la dépasse et où les lois portent des droits, mais comme un système où la vérité ne procède plus du débat contradictoire et de son imperfection. Pour Hélène Cazaux-Charles, nous devons nous défier de la mathématisation du monde.

Comme le rappelle Manuel Palacio, responsable des Cahiers de la sécurité et de la justice, il faut passer l’effet de sidération de ces sujets pour regarder concrètement ce qui s’annonce : comprendre en quoi consistent les usages du numérique dans la police et la justice, ce qu’ils apportent de nouveau, ce qu’ils modifient? Enfin, il faut interroger également la question prédictive. « Justice et police ne prédisent rien, mais calculent de plus en plus. Sur quoi portent ces calculs ? Qui les manie ? Qui les contrôle ? »

L’ouverture des données va-t-elle transformer la justice ?

Pour le magistrat Eloi Buat Menard, adjoint à la sous-direction de l’organisation judiciaire et de l’innovation au ministère de la Justice, l’obligation faite à la justice d’ouvrir ses données pose pour l’instant plus de questions qu’elle n’apporte de réponses. Elle se concentre surtout sur la mise à disposition des décisions de justice pas du tout à d’autres étapes comme le processus d’enquête. Elle vise à exploiter, tirer du sens, de décisions passées.

L’une des grandes questions que cette évolution pose est bien sûr celle de l’impact de la prédiction automatisée sur la prise de décision elle-même. Mais quel est le sens de cette promesse de prédictivité ? Prévoir, c’est établir une probabilité pour un fait futur. Reste que le prévisible n’est pas pour autant prédictible. On ne sait pas annoncer un élément qui va arriver. En matière de justice, l’enjeu consiste donc à déterminer la probabilité de succès d’une affaire selon les décisions qui ont été prises antérieurement. Or, la jurisprudence c’est-à-dire l’ensemble des décisions rendues n’est pas un système clos. Une décision de justice n’est pas la résultante des seules décisions passées. Et nul algorithme ne saurait embrasser l’ensemble des causalités qui interviennent dans une décision. « La justice demeure une oeuvre humaine. Tout n’est pas causal ni prédictif », rappelle avec raison Eloi Buat Menard qui souhaite qu’on écarte l’image fantasmatique d’une justice automatique, qui appliquerait les peines sans appréciation aucune.

Si on écarte cette perspective, reste la question de l’influence des décisions passées sur la décision des magistrats elle-même. Peut-on, doit-on apprécier la probabilité de succès d’une affaire en fonction des affaires passées ? Quels garde-fous mettre en place ? Quels écueils éviter ? L’objectivation de la jurisprudence ne peut pas ne pas avoir de conséquences sur la prise de décision estime le magistrat, notamment parce que le « bien-jugé » de ses pairs s’impose toujours à celui qui va juger. Mais demain chaque magistrat sera instruit de la jurisprudence de ses pairs par des éléments de corrélation plus que de causalité : tant de juges rendent une décision qui va dans tel sens? Le risque est de nous mettre dans la norme de nos pairs, de renforcer en quelque sorte la sociologie juridictionnelle c’est-à-dire d’harmoniser les pratiques jurisprudentielles – ce d’autant que le juriste est rarement un révolutionnaire, notamment parce qu’il doit appliquer le droit dans les limites dans lesquelles il est inséré, borné et cadré. Le risque est clair. C’est celui d’une performativité toujours plus grande, c’est-à-dire celui d’énoncer une réalité qui favorise sa répétition, d’une jurisprudence prisonnière du passé qui ne favorise ni son évolution ni sa réforme. Pour le magistrat, ces évolutions risquent de bloquer un moteur essentiel de l’évolution jurisprudentielle qui repose sur la « solitude » du juge, sur l’interprétation et la personnalisation. Or, l’optimisation en introduisant une sécurité juridique absolue peut finir par aboutir à la négation même de l’idée de justice.

La prévisibilité de la décision judiciaire va surtout servir au citoyen à faire une analyse économique coût/avantage. Si cette appréciation nouvelle a du sens dans le domaine du contentieux commercial ou civil, elle pose plus de questions appliquées à la sphère pénale. Va-t-on apprécier les règles du droit du travail par rapport au coût moyen des indemnités prononcées pour le même type de dommage ? « Le choix du respect d?une norme publique peut-elle être conditionnée par une analyse coût/avantage ? » Pour Eloi Buat Menard, le risque est de favoriser le « délinquant d’habitude », qui aura plus d’outils pour mesurer le risque qu’il prend. Autre problème que posent ces évolutions à venir, la possibilité d’avoir accès aux décisions individualisées et notamment d’avoir accès aux décisions des juges prit individuellement. Or, en France, le juge est censé s’effacer derrière le secret du délibéré et de l’institution. Avoir accès aux décisions de chaque juge risque surtout de poser plus avant la question de leur mode de désignation?

Quels garde-fous mettre en place ? Le magistrat en esquisse quelques-uns. Les juges devront motiver leurs décisions d’une manière plus structurée dès qu’ils s’écarteront de la norme. Il faut bien sûr pouvoir faire confiance aux outils utilisés. Si la justice algorithmique est une plus value, il faut que sa fiabilité soit complète. Si la transparence des technologies utilisées semble difficile, il faut certainement réfléchir au développement d’une plate-forme technique pour en évaluer les biais et à une autorité de régulation dédiée. Enfin, la question de la personnalisation de la justice va nécessiter de revoir les modalités de leur désignation : soit il faudra envisager de les élire, soit il faudra renforcer le contrôle citoyen.

Reste que ces inquiétudes exprimées, Eloi Buat Menard souhaite rester confiant. « L’ouverture des données va impliquer une plus grande responsabilité des juges. Elle va permettre au justiciable de mieux apprécier ce qu’il est susceptible d’attendre d’une procédure. » Et également permettre de développer des modes alternatifs aux règlements des litiges, comme la conciliation, l’arbitrage ou la transaction.

De l’analyse à la rétroaction

?
Pour pouvoir mieux l’apprécier, l’un des grands enjeux de ce débat consiste à comprendre ce que ces traitements automatisés permettent. Quels sens peut-on extraire des documents, des décisions de justice ? C’est ce que fait la startup phare de la LegalTech française, Predictice. Son jeune directeur des relations publiques, Louis Larret-Chahine, a pourtant choisi de ne pas montrer à l’assistance ce que permet concrètement son outil. Celui-ci est pourtant déployé à titre expérimental et mouline déjà des décisions de justice. Il permet ainsi de calculer à partir de décisions de justice comparables, les chances de succès, d’estimer des indemnités à partir du calcul d’une moyenne ou d’écarts, d’identifier les éléments qui ont le plus pesé dans les décisions de justice grâce à des techniques de compréhension du langage naturel. Il permet de regarder par juridiction ou par juge les décisions? Plus qu’une prédiction, le moteur de Predictive produit surtout une analyse statistique extrêmement précise des données judiciaire. Dans l’un des exemples que me montrait Louis Larret-Chahine en me présentant son outil il y a quelques mois, il prenait celui du calcul de prestations compensatoires de divorce, permettant de montrer les différences selon 2 juridictions, selon les juges, de calculer le niveau moyen selon des critères qui peuvent être précisés par l’analyse de cas comparables.


Image : les principales fonctionnalités de Predictice expliquées par leur FAQ.

Reste qu’à la tribune de l’École militaire, le directeur des relations publiques de Predictice souhaite rester modeste. « Il faut dépassionner ce débat. La réalité est bien loin de ce qu’on imagine. » D’ailleurs, plus que de justice prédictive, Larret-Chahine préfère parler, avec raison, de « justice analytique ». « Le système dans lequel l?algorithme s?améliore et prend des décisions où l?homme n?existe pas, ça n?existe pas, et ça n?arrivera pas ». La révolution annoncée n’est pas vraiment là. Elle repose sur la technologie de l’analyse du langage naturel qui découpe le langage et en extrait la force sémantique pour collecter l’information? Des choses très prosaïques comme des montants moyens d’indemnités ou les argumentaires retenus dans la décision de justice. Un algorithme peut lire plus de 70 000 décisions de justice en quelques millisecondes, bien plus que ne le fait un thésard en droit. Mais le traitement des machines n’est pas le même que celui des humains. L’enjeu en matière de justice analytique est plus proche des questions de gestion de la connaissance, et consiste surtout à croiser des documents pour en extraire de l’information. L’enjeu n’est pas tant de prédire, que de fournir un outil d’aide à la décision capable d’extraire et d’analyser les données. Reste qu’il n’évoque pas vraiment ce que transforme le fait d’apporter de nouvelles connaissances sur une réalité. Comme si cette nouvelle information n’avait pas de rétroaction sur la décision elle-même.

« La surprise de notre jeune société a été de constater que notre outil pourrait être utile à bien plus de personnes qu’on le pensait ». Si naturellement il est vu comme un outil d’aide à la décision à destination des avocats leurs permettant de mieux conseiller leurs clients, de collecter les meilleures argumentations selon leur impact réel sur le juge? l’outil intéresse également les assureurs pour mieux évaluer les risques, mais également les magistrats, pour les aider à décider, comme pour étudier comment la justice est rendue sur le territoire. Et donc également les citoyens.

Si les bénéfices de ces systèmes sont clairs, estime Louis Larret-Chahine (transparence, amélioration de la décision?), certains effets posent effectivement problème, comme le caractère performatif de l’analyse ou leur application à des questions pénales, sur lesquels, ces systèmes fonctionnent bien plus mal, notamment du fait de la faible motivation des décisions en la matière. Reste que, aujourd’hui, la question du périmètre de l’anonymisation est encore un point bloquant. Pour le directeur commercial de Predictice, plus on caviarde les décisions, moins on pourra produire de l’analyse, explique-t-il en défendant son business models. Reste qu’il y a toujours des solutions. On pourrait par exemple décider de remplacer les noms des magistrats par des numéros dont seul le ministère aurait la table de concordance. Seuls la Chancellerie et le ministère connaîtraient les magistrats laxistes ou intransigeants.

Pour Louis Larret-Chahine, il faut trouver le bon équilibre entre deux écueils pareillement dommageables : trop réglementer ou pas assez. D’où l’importance d’expérimenter, pour mieux identifier les problèmes, comme le fait Predictice avec les cours d’appel de Rennes et Douai. Mais pour l’ambitieuse startup, il y a une opportunité unique de permettre à la France de devenir leader de l’analyse juridique? Mais là, on a tout de même l’impression que la startup parle surtout de ses propres ambitions.

Hubert Guillaud

Notre dossier « Vers la justice analytique » :


  Chaines INFO  
 Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People 

Dernière modification: le   NEToo ™  Tous droits réservés • ©2004/2006 • CNIL n°892206