NEToo - métamoteur francophone pour tout trouver plus rapidement
  Web Actualités Blogs Voyages Images Vidéos Musique Annuaire  

Trouvez toutes les dernières nouvelles et dépêches publiées en interrogeant simultanément des multiples sources sur le web

Recherchez dernières actualités en temps réel 

   Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People   
 Dernières actualités multimédia sur métachercheur francophone NEToo
Le Parisien - High-Tech    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 19/09/2018 02:51:02

  • Remplacer sa batterie d?iPhone va bientôt coûter plus cher

Les feux du BatteryGate, la polémique de 2017 sur des batteries volontairement ralenties, sont bel et bien éteints. Apple avait consenti un geste commercial depuis un an en baissant drastiquement le coût...

  • La 4G partout sur les lignes SNCF, c?est pour fin 2019

Etre un utilisateur régulier du RER C n?est pas de tout repos. Entre les incessantes coupures de circulation nocturnes pour travaux, les innombrables incidents quotidiens, auxquels s?ajoutent, ceux, plus...

  • Les «deepfakes», ces fausses vidéos très réalistes qui inquiètent

Donald Trump accusant publiquement Barack Obama de vol. L?ancien président des Etats-Unis traitant son successeur de « connard ». Emma Watson jouant dans des films pornos. Votre voisin dansant aussi bien...

  • Google mise sur Paris pour doper ses recherches en intelligence artificielle

La peinture est encore fraîche et les open spaces pas encore garnis mais les chercheurs sont sur le pont depuis un mois pour faire chauffer les algorithmes. Google a inauguré mardi matin à Paris (IXe)...

  • L?illectronisme, un risque méconnu

Payer ses impôts, consulter ses comptes, transmettre ses notes de frais, s?inscrire à une formation : autant de démarches qui se sont dématérialisées au fil des années. Internet est passé par là pour le...

  • Alerte aux faux sites administratifs

Demander un acte de naissance, s?inscrire sur les listes électorales, ou encore refaire sa carte grise après l?avoir perdue : désormais, il est possible d?effectuer ces démarches administratives sur les...

  • Créer son entreprise en ligne, c?est facile !

Grâce aux legaltech, ces entreprises qui ont développé les technologies et logiciels dans le domaine du droit, la plupart des démarches de création d?entreprise sont aujourd?hui dématérialisées et à moindre...

  • Nouvelle-Aquitaine : le musée 3D s?expose à domicile

156 ?uvres, 32 salles et quatre parcours à la carte, le tout accessible depuis chez soi ou un smartphone : Alienor.org vient d?inaugurer un musée virtuel 3D sur Internet. Cette association poitevine qui...

  • L?Oise fait le pari du wi-fi gratuit dans les lieux publics

Internet, partout et tout le temps ? C?est l?un des avenirs possibles, dans l?Oise, grâce au déploiement de la fibre optique. À Thérines, village de 200 habitants du nord de Beauvais, deux Cigales ? des...

  • Des bornes connectées qui racontent l?histoire du vignoble champenois

C'est bien connu, toutes les vignes se ressemblent pour un néophyte ! C'est en partant de ce constat qu'entre en scène la borne connectée créée par une jeune société ardennaise : Daven Design. Son fondateur,...


InternetActu.net    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 18/09/2018 21:34:15

  • La guerre mémétique aura bien lieu

Après des années de silence, R.U Sirius, alias Ken Goffman, a relancé sur le web sa revue séminale, Mondo 2000 (@2000_mondo), qui fit les beaux jours de la première cyberculture. Un post de ce blog collaboratif nous faire découvrir un document de 44 pages publié par l?Institut pour le Futur (...)

Après des années de silence, R.U Sirius, alias Ken Goffman, a relancé sur le web sa revue séminale, Mondo 2000 (@2000_mondo), qui fit les beaux jours de la première cyberculture. Un post de ce blog collaboratif nous faire découvrir un document de 44 pages publié par l?Institut pour le Futur (IFTF), biology of disinformation (.pdf), qui aborde le problème de la « guerre mémétique » et des fake news. R.U Sirius en a profité pour interviewer assez longuement les trois auteurs de ce papier.

L’un d’entre eux, Jake Dunagan, est chercheur à l’IFTF, les deux autres collaborateurs sont bien connus dans les milieux de la contre-cyberculture… David Pescovitz, lui aussi chercheur à l’IFTF, est un des auteurs de Boing Boing, l’un des plus célèbres (et des plus anciens, et des meilleurs) blogs culturels. Le troisième, c’est Douglas Rushkoff (Wikipedia, @rushkoff), lui aussi vieux routier de la cyberculture, qui commença à traiter le sujet dès les années 90, et dont le livre « Media Virus ! Hidden Agendas in Popular Culture » (1995), apparaît comme l’inspiration majeure de cette « biologie de la désinformation ».

Du mème au « Virus médiatique »


Rappelons un peu l’histoire des mèmes. Avant de devenir le phénomène médiatique qu’on connaît aujourd’hui, le mème était une hypothèse lancée par le biologiste Richard Dawkins, qui postulait dans son livre Le gène égoïste que la sélection naturelle par les gènes, centrale dans l’univers du vivant, avait cédé chez l’humain à la sélection des « mèmes », des « unités culturelles » capables, tout comme les gènes, de s’autorépliquer. Cela a donné pendant un moment naissance à une discipline scientifique, la mémétique, qui cherchait à comprendre l’évolution culturelle en termes darwiniens. Mais la mémétique n’a guère convaincu les chercheurs en sciences humaines, et elle disparut bientôt dans les limbes. Quant aux mèmes internet, ils allaient connaître la gloire qu’on leur connaît. Une histoire – ce passage de la théorie darwinienne à la « pop culture » – que nous vous avions déjà raconté…

Le titre même du papier de l’IFTF, « la biologie de la désinformation », montre cependant qu’il se situe directement dans la lignée des grandes théories de la mémétique… et ce, même s’il est toujours aussi difficile de définir un mème. En effet, quelle est la différence entre un mème et une idée, par exemple ? « Si on a affaire à une idée ou une image qui semblent demander, «copie moi» ou «transmets-moi», alors nous avons affaire à un mème », nous explique le papier de l’IFTF. Pas sûr que cela suffise à faire une distinction pérenne. En fait, malgré l’emploi du mot mème tout au long du document, c’est plutôt un autre concept qui domine la « biologie de la désinformation ». C’est celui de « virus médiatique » inventé par Douglas Rushkoff.

« Un virus médiatique est composé de deux parties : une nouvelle enveloppe médiatique (telle que l’exploitation d’un nouveau support ou la rupture d’un standard de médias) et un matériel mémétique provocateur à l’intérieur. Un virus biologique nous infecte parce que nos anticorps sont incapables de reconnaître son enveloppe protéique. Un virus média fonctionne de la même manière ; son « enveloppe » consiste en une utilisation inédite d’un média. »

« Un caméscope capture une brutalité policière. (…) Un album de rock est suspecté de contenir des messages sataniques cachés. Un microphone sans fil enregistre des remarques sexistes d’un candidat politique à propos d’une collègue féminine. Une femme diffuse en live des images de son mari mourant de blessures par balle. Un membre du Congrès transmet à un mineur des photos de ses organes génitaux issues de son smartphone. (?) Un président menace d’une attaque nucléaire par un message public de 140 caractères tapé avec ses pouces. »

Lorsqu’il a écrit Media Virus dans les années 90 (avant que l’internet ne devienne bien connu du grand public), Rushkoff avait surtout en tête les bateleurs de la contre-culture, qui, à l?instar des situationnistes, pervertissaient les médias de masse pour favoriser la réflexion. Mais Rushkoff avait déjà pu constater très vite la « récupération » de son concept par la machine capitaliste (le « marketing viral »). C’est une aventure qui est arrivée à d?autres, par exemple Joseph Matheny pour le transmedia. Pourtant, aujourd’hui, le recyclage des idées subversives de la contre-culture par les agences de publicité apparaît presque comme une nuisance bien inoffensive : ce ne sont plus tant les marchands qui se sont emparés de ces idées, mais les franges les plus extrêmes de l?activisme politique, l’alt-right, les suprémacistes blancs et bien sûr, le clown médiatique en chef, Donald Trump.

Parmi ces mèmes appartenant à la sphère de l?extrême droite, on notera par exemple la triple parenthèse (nommée « l?écho ») entourant les noms d’origine juive ou supposée telle, le signe classique « OK » fait avec la main, détourné pour symboliser le « white power », mais surtout, on n’oubliera pas « Pepe la grenouille« , un personnage de comics créé par Matt Furie, qui est devenu, en grande partie grâce aux activistes de 4chan, le symbole de cette nouvelle droite raciste. En 2015, lors de la campagne présidentielle, Trump lui-même se représentera dans un tweet sous la forme de Pepe la grenouille (à noter que tout cela s’est fait au corps défendant de son auteur, qui a d’ailleurs décidé de « tuer Pepe » pour mettre fin à cette dérive).

La société des mèmes


Mais qu’est-ce qui fait qu’un mème « fonctionne ? Les deux premiers paramètres qui viennent à l’esprit sont évidemment son contenu et la structure de ses hôtes, les cerveaux humains.

Bien sûr le contenu compte. Par exemple, les auteurs citent un travail effectué à l’université de Memphis (.pdf), montrant que les mots courts, concrets, ont plus d’efficacité que les termes longs ou abstraits, et que les mots grossiers augmentent la viralité (franchement, on s’en serait douté un peu).

On peut bien sûr se pencher aussi sur les aspects neurologiques. Comment et pourquoi le cerveau est-il infecté ? Le document mentionne ainsi une recherche que nous avons déjà présentée, sur la manière dont notre cerveau réagit à la présence d’un mème. Les limites de notre cerveau entrent aussi en ligne de compte. Selon des chercheurs de l?université d?Indiana et de Shanghai, également cités dans le rapport de le l’IFTF, notre cerveau réagit très mal à la surcharge d?informations. En cas de bombardement trop intensif, nous disent les auteurs, nous devenons encore plus incapables de différencier la vérité du mensonge.

Mais pour les auteurs de la biologie de la désinformation, le plus important reste un autre facteur : l’écosystème global. Les auteurs citent par exemple un travail effectué au centre de recherche sur les systèmes complexes à l?université de l?Indiana (.pdf), où les chercheurs ont été en mesure de prédire le succès d’un mème en fonction exclusivement des réseaux sociaux dans lesquels il était diffusé, indépendamment de son contenu. Du reste, continuent les auteurs, « les mèmes viraux n’étaient pas différents de ceux qui ne l’étaient pas. Leur succès est dû à la structure du réseau social. »

La thèse principale du papier de l’IFTF est que si on veut comprendre le fonctionnement des mèmes, il ne faut pas tant se pencher sur leur contenu, ou même leur forme, que sur l’écosystème dans lesquels ils se meuvent : notre société dans son ensemble. « En un sens, le pouvoir des virus, qu’ils soient biologiques ou médiatiques, nous révèlent moins sur eux-mêmes que sur leurs hôtes. Un virus ne nous rend pas malade, sauf si nous manquons d’un système immunitaire capable de reconnaître sa coquille puis neutraliser son code. Tant que nous n’y arrivons pas, le virus se réplique et notre système immunitaire devient fou, nous donnant de la fièvre, des frissons, de la congestion, ou des vomissements – qui se manifestent dans la culture par la confusion des médias, les guerres sur Twitter, les manifestations dans la rue, les nuits sans sommeil, et le terrorisme domestique ».

Quelles solutions ?


Les auteurs n’ont guère d’estime pour les solutions technologiques, comme le recours à l’IA ainsi que l’explique Rushkoff dans l’interview à Mondo 2000 : « Mark Zuckerberg veut lutter contre les fake news grâce à l’intelligence artificielle. Génial ! Il est déjà dépassé par un environnement médiatique qu?il ne comprend pas. Il ne sait pas pourquoi sa plate-forme a entraîné tant d?effets inattendus. Et donc, quelle est sa solution ? Recourir encore à une autre technologie, qu’il comprend encore moins, espérant résoudre le problème avec une autre boîte noire. »

Quels sont les autres moyens disponibles ? Si la technologie ne fonctionne pas peut-on par exemple compter sur l?éducation ? Ouvrir par exemple des discussions sur les sujets qui fâchent, comme le racisme, la culpabilité coloniale, etc. afin de crever des abcès souvent utilisés par les mèmes (et leurs concepteurs) pour favoriser la réplication. Mais cela pose un problème de base. Qui sera en mesure de promouvoir et organiser cette éducation ? Si elle provient d?une « autorité », qu’elle quelle soit, elle risque d’être encore plus contestée.

Pourquoi ne pas alors utiliser les armes de l?ennemi ? Opposer des « contre-mèmes » pour neutraliser ceux qui sont dangereux ? Certains s’y essaient : « la technique – actuellement pratiquée par une agence mémétique hongroise appelée Darwin – consiste à analyser le paysage des mèmes autour d’une idée particulière afin de comprendre les différents voisinages mémétiques, comment positionner ou repositionner le mème, et quels autres mèmes peuvent compléter ou dégrader sa viralité. »

Après tout, n’est-ce pas ce que faisaient les artistes et « ingénieurs culturels » de la contre-culture, les adeptes du Media Virus chanté par Rushkoff en 1995 ? Aujourd’hui, ce dernier semble avoir un peu changé son fusil d?épaule. Comme il l’explique à R.U Sirius :

« Même s’ils finissent par faire pénétrer de force des idées importantes au sein de la conversation culturelle, et même s’ils mènent finalement à de bonnes choses, ils nous infectent de l’extérieur. Ils attaquent les faiblesses de notre code et continuent à se reproduire jusqu’à ce que nous réparions ce dernier ou jusqu’à ce que nous en venions à reconnaître la «coque» du virus lui-même. »

Et le document d’enfoncer le clou :

« Le danger avec les virus est qu’ils sont construits pour contourner le néocortex – la partie de notre cerveau qui pense et qui ressent – et s’adresser plus directement au reptile plus primitif situé en dessous. Un mème sur le changement climatique, scientifiquement prouvé, par exemple, ne possédera pas la même intensité en termes de réponse culturelle que le mème sur « la conspiration des élites ».

La logique ou la vérité n’y sont pour rien. Les mèmes fonctionnent en provoquant des réactions de combat ou de fuite. Et ces sortes de réponses sont très individualistes. Les mèmes ne sont pas prosociaux : ils sont anti-sociaux. »


Image tirée du webcomic Wumo

De plus, les mèmes ont un comportement imprévisible et les retours de bâton sont fréquents. Il y a quelque temps, expliquent les auteurs, la Mairie de New York a essayé de lancer son propre « mème », #mynypd, grâce auquel les gens étaient encouragés sur twitter à poster des images d’eux mêmes en compagnie de membres de la police de la ville. Ce qui (qui en sera surpris ?) a abouti a des centaines d’illustrations de brutalités policières.

Si la technologie ne suffit pas, que l?éducation ne suffit pas, que la « guerre mémétique » ne peut que mener à la catastrophe, quelle serait donc la solution ? Agir sur l?écosystème nous disent les auteurs, rendre la société plus immune à l’attaque des mèmes en s’attaquant directement au milieu dans lequel ils prolifèrent : le numérique.

« Notre neurologie est construite pour établir un rapport avec d’autres humains, pratiquer l’altruisme réciproque et travailler vers des objectifs communs. (…) La rédaction de ce rapport, par exemple, a dépendu d’un contact oculaire, de la respiration synchronisée et de la reconnaissance de modifications subtiles du timbre vocal. »

Autant de « signaux non verbaux » qui disparaissent lorsque nous entrons dans une communication par le biais d?outils numériques. Du coup, le degré de confiance entre les interlocuteurs s?abaisse dangereusement, on entre dans une spirale de suspicion et d’agressivité. Un parfait terrain pour la prolifération des mèmes !

La bonne méthode comme l’expliquent les auteurs, ne fonctionnera qu’à très long terme. Elle consiste à renouer avec notre vie physique et organique. Se déconnecter. Renouer avec des rapports sociaux traditionnels, dans « la vraie vie ». « Les personnes ayant une certaine expérience de la politique locale, de l’entraide, et de la préservation de l’environnement se montrent plus résistantes aux constructions mémétiques du paysage idéologique synthétique », écrivent les auteurs.

Le caractère un peu trop lointain et abstrait de la solution proposée n’échappe pas à R.U Sirius qui s’interroge sur la faisabilité de cette « mutation culturelle ». « De nombreuses personnes – de Bucky Fuller aux marxistes en passant par les transhumanistes – ont espéré des solutions matérielles, explique-t-il. Rendons la vie suffisamment gratifiante et les gens cesseront d’être en guerre. C’est un raisonnement douteux, mais peut-être moins douteux que d’attendre que tout le monde soit cool, individuellement. »

C’est Dunagan qui lui répond, en guise de conclusion. Pour lui, une telle reconnexion au corps ne viendra probablement pas de l?intervention d’une entité nationale comme les USA, mais plutôt des villes elles-mêmes. « J’ai travaillé avec des maires des deux partis, les grandes villes et les petites… et la vision, la créativité et le côté pratique des maires, sont remarquables et inspirants. Le défi à venir, à mon avis, est de savoir comment élaborer une politique qui lie de manière cohérente et productive les villes et leurs dirigeants »

L’idée est intéressante, mais j’avoue continuer à me poser la même question que R.U Sirius. Et finalement, cette guerre mémétique n’est-elle pas la énième réincarnation d’un phénomène bien plus ancien et universel ? Après tout, les rumeurs, les slogans, la propagande existent depuis bien longtemps. Nul doute que le numérique lui a donné une nouvelle forme, mais des gens plus connectés « organiquement » seront-ils pour autant moins sensibles aux « fake news » ? Je crains que l’histoire nous apprenne le contraire.

Rémi Sussan

  • De la tyrannie des métriques

On n’a pas attendu le numérique pour produire des métriques, mais celui-ci a incontestablement simplifié et amplifié leur production. Quitte à produire un peu n’importe quelles mesures puisque celles-ci semblent désormais accessibles et ajustables en quelques clics. On connaît la rengaine : « ce qui ne peut être mesuré ne peut être (...)

On n’a pas attendu le numérique pour produire des métriques, mais celui-ci a incontestablement simplifié et amplifié leur production. Quitte à produire un peu n’importe quelles mesures puisque celles-ci semblent désormais accessibles et ajustables en quelques clics. On connaît la rengaine : « ce qui ne peut être mesuré ne peut être géré » (même si la formule de Peter Drucker est en fait plus pertinente que ce que nous en avons retenu). Est-ce pour autant qu’on ne gère que ce que l’on sait chiffrer ?

Non. C’est en tout cas ce que répond le stimulant petit livre du professeur d’histoire de l’université catholique d’Amérique, Jerry Z. Muller (@jerryzmuller), La tyrannie des métriques, qui se révèle être un très bon petit guide pour nous inviter à prendre un peu de recul sur notre obsession pour les chiffres.

Le propos de Jerry Muller relève pour beaucoup du simple bon sens.

« Il y a des choses qui peuvent être mesurées. Il y a des choses qui valent d’être mesurées. Mais ce que nous pouvons mesurer n’est pas toujours ce qui vaut d’être mesuré ; ce qui est mesuré peut n’avoir aucune relation avec ce que nous voulons vraiment savoir. Le coût de la mesure peut-être plus fort que ses bénéfices. Les choses que nous mesurons peuvent nous éloigner des choses dont nous voulons vraiment prendre soin. Et la mesure nous apporte souvent une connaissance altérée – une connaissance qui semble solide, mais demeure plutôt décevante. »

De l’excès de mesure… au paradoxe de la mesure

Relier la responsabilité aux mesures et à leur transparence s’avère souvent décevant. La responsabilité signifie être responsable de ses actions. Mais, par un glissement de sens, la responsabilité signifie souvent démontrer une réussite via des mesures standardisées, comme si seulement ce qui était mesurable comptait vraiment. Pour Muller, nous sommes obsédés par les chiffres. Nous avons une pression irrépressible à mesurer la performance, à en publier les chiffres, et à récompenser les performances depuis ceux-ci, quand bien même l’évidence nous montre que cela ne fonctionne pas si bien. Pour Muller, notre problème n’est pas tant la mesure que ses excès. Trop souvent nous préférons substituer des chiffres, des mesures, à un jugement personnel. Trop souvent le jugement est compris comme personnel, subjectif, orienté par celui qui le produit, alors que les chiffres, en retour, eux, sont supposés fournir une information sûre et objective. S’il y a beaucoup de situations où prendre des décisions basées sur une mesure est supérieur au jugement basé sur l’expérience? reste que les chiffres sont utiles quand l’expérience de quelqu’un est limitée pour développer son intuition. Certes, comme le montrait le livre Moneyball, l’analyse statistique est parfois capable de mesurer des caractéristiques négligées qui sont plus significatives que celles sur lesquelles s’appuie l’expérience et l’intuition. Mais ce n’est pas toujours le cas. Trop souvent, les métriques sont contre-productives, notamment quand elles peinent à mesurer ce qui ne l’est pas, à quantifier ce qui ne peut l’être.

Muller montre par de nombreux exemples comment nous nous ingénions à contourner les mesures, à l’image des hôpitaux britanniques qui avaient décidé de pénaliser les services dont les temps d’attente aux urgences étaient supérieurs à 4 heures. La plupart des hôpitaux avaient résolu le problème en faisant attendre les ambulances et leurs patients en dehors de l’hôpital ! Comme le rappelle la loi de Goodhart : « lorsqu’une mesure devient un objectif, elle cesse d’être une bonne mesure. » Plus qu’une obsession, nous sommes coincés dans un paradoxe de la mesure. Plus nous en produisons, plus elles sont précises, plus nous nous ingénions à les contourner à mesure qu’elles ne parviennent pas à remplir ce qu’elles étaient censées accomplir. Pour Muller, si les chiffres sont potentiellement des outils précieux, leurs vertus nous a été survendu, et leurs coûts toujours sous-estimés, comme l’explique le sociologue Jérôme Denis dans son livre Le travail invisible des données, qui souligne combien celles-ci sont toujours travaillées, « obtenues »… et donc que les standards qu’elles sont censées produire ont toujours un caractère « potentiellement conflictuel » !

La transparence des chiffres n’induit pas la responsabilité

Pour Muller, l’obsession des métriques repose sur : la croyance qu’il est possible et désirable de remplacer le jugement acquis par l’expérience personnelle et le talent, avec des indicateurs numériques de performance comparative basés sur des données standardisées ; la croyance que rendre ces mesures publiques (c’est-à-dire transparentes) assure que les institutions effectuent leurs buts (c’est-à-dire leur responsabilité) ; la croyance que la meilleure façon de motiver les gens dans les organisations est de les attacher à des récompenses ou des pénalités depuis ces mesures de performance (que les récompenses soient monétaires ou réputationnelles). L’obsession des métriques repose sur la persistance de ces croyances malgré les conséquences négatives qu’elles entraînent quand elles sont mises en pratique. Mais, si cela ne fonctionne pas, c’est d’abord et avant tout parce que tout ce qui est important n’est pas toujours mesurable et beaucoup de ce qui est mesurable n’est pas toujours important. À nouveau, toute mesure utilisée comme objectif, utilisée comme outil de contrôle devient douteuse. Par nature, toute mesure sera détournée ! Pire, rappelle Muller : forcer les gens à se conformer à des objectifs mesurés à tendance à étouffer l’innovation et la créativité, et renforce la poursuite d’objectifs à court terme sur ceux à long terme. La mesure a fait plus de progrès que le progrès lui-même, ironise Muller.

Le petit livre de Jerry Muller assène bien des évidences, certes. Mais des évidences qui font du bien, tant la démultiplication des chiffres dans le monde dans lequel nous vivons semble nous avoir fait perdre de vue toute raison.

Il souligne que trop souvent, on mesure le plus ce qui est le plus facile à mesurer, le plus simple. Mais c’est rarement le plus important. En mesurant le plus simple, on en oublie la complexité : ainsi quand on mesure les objectifs d’un employé, on oublie souvent que son travail est plus complexe que cela. On mesure plus facilement les sommes dépensées ou les ressources qu’on injecte dans un projet que les résultats des efforts accomplis. Les organisations mesurent plus ce qu’elles dépensent que ce qu’elles produisent. Bien souvent, la mesure, sous prétexte de standardisation, dégrade l’information, notamment pour rendre les choses comparables au détriment des ambiguïtés et de l’incertitude.

Quant aux manières de se jouer des métriques, elles sont là aussi nombreuses : simplifier les objectifs permet souvent de les atteindre au détriment des cas difficiles ; améliorer les chiffres se fait souvent en abaissant les standards? sans parler de la triche, on ne peut plus courante.

Les métriques au détriment du jugement, les chiffres au détriment de l’intangible

L’historien, bien sûr, tente de retracer rapidement l’origine de la mesure et tente d’expliquer pourquoi elle est devenue si populaire. C’est vraiment avec Frederick Taylor, cet ingénieur américain qui va inventer le management scientifique au début du 20e siècle, que la mesure va s’imposer. Le but même du taylorisme était de remplacer le savoir implicite des ouvriers avec des méthodes de production de masse, développées, planifiées, surveillées et contrôlées par les managers. Le Taylorisme va s’imposer en promouvant l’efficacité par la standardisation et la mesure, d’abord dans l’industrie avant de coloniser avec le siècle, tous les autres secteurs productifs. Le Taylorisme a été développé par les ingénieurs, mais aussi par les comptables. L’expertise nécessitait des méthodes quantitatives. Les décisions basées sur des chiffres étaient vues comme scientifiques, comme objectives et précises. La performance de toute organisation pouvait alors être optimisée en utilisant les mêmes outils et techniques de management. Ceux qui calculaient les coûts et les marges de profits s’alliaient avec ceux qui retiraient l’expérience des travailleurs pour les fondre dans des machines qui décomposaient les tâches pour mieux mesurer chacune et pour les rendre non spécialisée, permettant de remplacer n’importe quel travailleur par un autre. Le calcul s’est immiscé partout. Le biais matérialiste également : il était partout plus facile de mesurer les apports et rendements tangibles que les facteurs humains intangibles – comme la stratégie, la cohésion, la morale? La confiance et la dépendance dans les chiffres ont minimisé et réduit le besoin de connaître les institutions de l’intérieur. « Ce qui pouvait être mesuré a éclipsé ce qui était important ». Et la culture du management a exigé toujours plus de données? mais en parvenant à mesurer certains critères plutôt que d’autres, à favoriser donc certaines valeurs au détriment d’autres.

Muller explique encore que si les métriques sont devenues si populaires c’est parce qu’elles permettaient de se passer du jugement individuel. Elle permettait de remplacer ceux qui avaient la connaissance pour juger, par n’importe qui sachant lire les chiffres. L’objectivité des chiffres semblait supérieure au jugement subjectif et ce d’autant que les chiffres et les courbes étaient compréhensibles par tous. Les métriques se sont imposées dans les secteurs où la confiance était faible. Les décisions humaines sont devenues trop dangereuses à mesure qu’elles impliquaient une trop grande complexité de facteurs : d’où la prolifération des métriques, des process, des règles? La demande d’un flux constant de rapports, de données, de chiffres? a finalement diminué l’autonomie de ceux qui étaient les plus bas dans les organisations. La feuille de calcul est devenue l’outil phare du calcul, une façon de voir la réalité par les chiffres. La feuille de calcul qu’analysait Paul Dourish a créé une illusion d’analyse en profondeur. Alors que les données sont toujours plus faciles à collecter et à traiter, le chiffre et son traitement sont devenus la réponse à toute question posée par les organisations.

Dans les organisations, la mesure a remplacé la confiance. « Les nombres sont vus comme une garantie d’objectivité, un moyen de remplacer la connaissance intime et la confiance ». Les indicateurs de performance sont devenus des stratégies. Muller rappelle que la connaissance pratique est le produit de l’expérience? Si elle peut-être apprise par la pratique, elle ne se résume pas en formule générale. Alors que la connaissance abstraite, chiffrée, n’est qu’une question de technique, qui peut être systématisée, communiquée et appliquée.

Dans son livre, Muller évoque nombre de secteurs où les chiffres n’ont pas produit ce qu’on attendait d’eux. Dans le domaine scolaire, en médecine, dans le domaine militaire, dans la police et bien sûr dans les affaires? les chiffres sont souvent mal utilisés et ne parviennent pas à mesurer l’important. Bien souvent, les chiffres déplacent les objectifs, favorisent le court-termisme, découragent la prise de risque, l’innovation, la coopération? coûtent du temps (« Bien souvent, la métrique du succès est le nombre et la taille des rapports générés, comme si rien n’était accompli jusqu’à ce qu’il soit extensivement documenté »), voire sont dommageable pour la productivité elle-même (« Une question qui devrait être posée est de savoir dans quelle mesure la culture des métriques a elle-même contribué à la stagnation économique ? »)…

Interroger la légitimité des chiffres et assumer ses jugements !

Pour conclure son livre, Jerry Muller propose une checklist pour évaluer la légitimité de ce que vous cherchez à mesurer. Malgré ses critiques, nourries, il ne rejette pas tout chiffre, mais souligne qu’on devrait plus souvent penser à s’en passer.

Pour lui, il faut d’abord se poser la question de ce que l’on cherche à mesurer en se souvenant que plus un objet mesuré est influencé par la procédure de mesure, moins il est fiable. Et que ce constat empire quand la mesure repose sur l’activité humaine, plus capable de réagir au fait d’être mesurée, et pire encore quand des systèmes de récompenses ou de punition sont introduits?

L’information est-elle utile ? Le fait que quelque chose soit mesurable ne signifie pas qu’il faille le faire (au contraire, bien souvent la facilité à mesurer est inversement proportionnelle à sa signification !). « Posez-vous la question de ce que vous voulez vraiment savoir ! », conseille l’historien.

Est-ce que plus d’information est utile ? Si la mesure est utile, cela ne signifie pas pour autant que plus de mesure est plus utile.

D’autres indicateurs sont-ils disponibles ?

À qui profite la mesure ? Pour qui l’information sera-t-elle transparente ? – Et donc, pour qui ne le sera-t-elle pas ?

Quels sont les coûts pour acquérir ces métriques ?

Qui demande des chiffres et pourquoi ?

Comment et par qui ces mesures sont-elles faites (notamment pour souligner que bien souvent les métriques des uns ne devraient pas être celles des autres) ?

Comment corrompre vos chiffres ou faire diversion sur les objectifs ?

Souvenez-vous enfin que reconnaître ses limites est le début de la sagesse. Tout ne peut pas être amélioré par des chiffres. Et rendre un problème plus transparent par des chiffres peut rendre le problème plus saillant sans le rendre plus soluble.

Les métriques ne sont pas là pour remplacer le jugement, rappelle Muller, mais plutôt pour l’informer. Et pour cela, cela nécessite aussi de savoir quel poids donner aux mesures, savoir reconnaître ce qu’elles déforment, apprécier aussi ce qui n’est pas mesurable.

Oui, Jerry Muller semble égrainer des évidences. Mais c’est pour mieux souligner combien les chiffres participent à nous les faire perdre de vue. Souvenons-nous de ce que disait Dan Ariely : la précision, l’exactitude, l’immédiateté, la granularité ou la transparence ne sont pas toujours les meilleures façons de présenter les choses. La précision des chiffres ne rend pas les données plus utiles. Parfois produire des données moins fines, des indicateurs sans chiffres? sont des options qui peuvent aisément remplacer des données qui calculent mal ce qu’elles sont censées calculer? Trop souvent, les chiffres servent à faire passer des jugements dans les biais qui les masquent. La précision des chiffres, bien souvent, comme le rappelle le journaliste spécialiste des données Nicolas Kayser-Bril sur son blog, sert à nous faire croire en leur fiabilité, alors qu’ils sont comme tout savoirs, incertains !

À l’heure où le monde semble si facilement mesurable, souvenons-nous que ces mesures ne produisent pas toujours du sens, au contraire. Comme disait Pablo Jensen, le modèle du social que les chiffres induisent présupposent une forme de social qui n’a rien de la neutralité sous laquelle elle se présente.

Le monde numérique, qui produit des chiffres avec tant de facilité, peine bien souvent à prendre un peu de recul sur la validité des métriques qu’il démultiplie, oubliant de trouver le bon indicateur, qui n’est que rarement celui qui est produit. Sans compter que les indicateurs des uns ont tendance à devenir les indicateurs des autres, alors que trop souvent les métriques devraient être différentes et différenciées, afin que les indicateurs des uns ne soient pas nécessairement les indicateurs des autres.

La facilité à produire une tyrannie ne doit pas nous faire oublier ce que nous produisons. Si nous avons les moyens de la produire, il nous faut nous interroger sur comment y résister et comment réduire, atténuer voire contester cette production. Si nous sommes capables d’imposer une tyrannie, il faut nous interroger sur comment la défaire.

Hubert Guillaud

  • À mesure qu?elles croissent, les plateformes deviennent-elles plus hostiles ?

Adam Clair (@awaytobuildit) dans le toujours aussi excellent magazine Real Life (@_reallifemag) expliquait qu’à mesure que les médias sociaux grossissaient, ils avaient tendance à devenir plus hostiles envers leurs utilisateurs. La croissance est le but des plateformes de partage de contenus. Pour attirer le plus grand nombre possible d’utilisateurs, elles (...)

Adam Clair (@awaytobuildit) dans le toujours aussi excellent magazine Real Life (@_reallifemag) expliquait qu’à mesure que les médias sociaux grossissaient, ils avaient tendance à devenir plus hostiles envers leurs utilisateurs.

La croissance est le but des plateformes de partage de contenus. Pour attirer le plus grand nombre possible d’utilisateurs, elles pratiquent une modération a posteriori. Mais cela ne signifie pas que cette modération est contrainte. Comme l’explique le chercheur Tarleton Gillespie (@tarletong) dans son dernier livre, Custodians of the Internet : Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media (Les gardiens de l’Internet : les plates-formes, la modération du contenu et les décisions cachées qui façonnent les médias sociaux, Yale University Press, juin 2018, non traduit), la modération est au coeur de l’offre des plateformes de médias sociaux. Les médias sociaux ont émergé par la promesse d’apprivoiser le chaos du web, via des modèles lisibles, des protocoles ordonnés et du contenu sélectionné. « La modération est, à bien des égards », affirme Gillespie, « la marchandise offerte par les plateformes ». Tout l’enjeu pour elles est donc d’équilibrer le contrôle de la qualité et la croissance qui permettra de s’assurer un monopole et une influence leur permettant de redéfinir les attentes des utilisateurs.

Mais si les plateformes souhaitent conserver le contrôle de la qualité, tirer parti des effets de réseau pour croître est une priorité plus importante encore, ce qui suggère que la valeur de la plateforme repose plus sur sa croissance que sur ses capacités de modération… Or, l’ampleur et les failles de la modération sont à hauteur de la taille des réseaux. Comme le soulignait dans une tribune pour le New York Times le spécialiste des médias Siva Vaidhyanathan (@sivavaid), auteur Antisocial Media : How Facebook Disconnects Us and Undermines Democracy (Médias antisociaux : comment Facebook nous déconnecte et mine la démocratie, Oxford University Press, mai 2018, non traduit), en évoquant l’audition récente de Sheryl Sandberg de Facebook par le Congrès américain, la modération est un tonneau des Danaïdes pour les médias sociaux. Sandberg estime que Facebook aurait supprimé 1,3 milliard de faux comptes d’utilisateurs entre octobre 2017 et mars 2018 ! Un chiffre bien plus élevé que ce à quoi nous avait habitué le rapport de transparence du géant des réseaux sociaux. Pour Siva Vaidhyanathan, si Facebook a déployé des efforts considérables pour lutter contre la désinformation, force est de constater que le nettoyage du web ressemble au nettoyage des écuries d’Augias ! Ni les chiffonniers du web de Manille ou d’ailleurs, ni les algorithmes de détection de contenus ne suffisent à endiguer l’horreur, comme le soulignait très bien l’excellent documentaire The Cleaners. Pour Vaidhyanathan, les failles de ce nettoyage causent trop de préjudices à trop de monde. Il va falloir accepter que Facebook soit « trop gros pour gouverner et trop gros pour être réparé ». Comme nous le disions déjà en interrogeant la question de la taille de nos outils, le problème des réseaux sociaux est de ne pas pouvoir demeurer à l’échelle de nos possibilités d’action.

Ces failles de modération expliquent les différences entre les règles que ces réseaux affichent et les règles qu’ils appliquent. La modération du contenu est comme la sécurité des aéroports : elle relève plus de la comédie sécuritaire que de la sécurité. Les erreurs de modération ne signifient pas que ce que voit un utilisateur est aléatoire pour autant, poursuit Adam Clair. Supprimer ou amplifier un type de contenu particulier – qu’il s’agisse de dissensions politiques, de discours de haine, d’images choquantes ou violentes… – est une question de volonté et non de capacité. Ce n’est pas non plus vraiment un problème technique : aucun code ou technologie sophistiquée n’est requis pour supprimer simplement le contenu. Cela nécessite simplement des ressources, généralement humaines.

Le problème, souligne Adam Clair, c’est que les imperfections de la modération peuvent être acceptables à petites échelles, sur un forum de niche par exemple, elles deviennent structurellement malsaines à grande échelle.

Or, les plateformes aiment à paraître neutres. Comme le note Gillespie, les plateformes aiment communiquer sur les incroyables quantités de contenu qu’elles mettent à disposition, mais restent relativement silencieuses sur ce qu’elles suppriment – notamment « pour préserver l’illusion d’être une plateforme ouverte et éviter la responsabilité juridique et culturelle ». L’opacité autour de la modération de contenu permet pourtant à chaque camp de se plaindre, de manipuler… ou de croire être manipulé. Les plateformes sont devenues un champ de bataille et plus elles deviennent grandes, plus les antagonismes pour les tribus disparates qui s’y développent sont élevés.

Gillespie note que les plateformes commencent par accueillir «des utilisateurs plus homogènes, qui partagent l’objectif de protéger et de nourrir la plate-forme, et qui peuvent résoudre certaines tensions par des moyens informels». Sur un petit forum, quelques centaines ou même quelques milliers d’utilisateurs peuvent se réunir pour discuter d’un sujet donné avec un certain degré d’homogénéité entre eux, comme tout groupe d’intérêt. L?harmonie y est favorisée non seulement par le sujet de niche, mais aussi par les normes communautaires et le fait qu’on puisse s?adresser directement à des modérateurs humains accessibles. Les moutons noirs peuvent être réprimandés pour qu’ils se conforment aux normes de la communauté? Mais, au fur et à mesure que les utilisateurs se multiplient et se diversifient, le bloc monolithique se fissure et des communautés avec des systèmes de valeurs très différentes se forment et exigent des méthodes pour résoudre les conflits.
« À un certain moment, une plateforme devient trop pluraliste pour être gouvernée de manière holistique. »

Les plateformes de médias sociaux présupposent souvent que leurs utilisateurs sont de bonne foi, minimisant les effets de réseaux qu’elles amplifient. Lorsqu’elles traitent d’abus, elles ont tendance à se concentrer sur les noeuds qui relaient ces informations plus que sur les interconnexions qui les propagent. Les modérateurs déterminent la validité des messages sans connaître l’identité du posteur ou le contexte. Dans leur tentative supposée neutre pour arbitrer les contenus, les plateformes assument donc une interprétation erronée. Or, les tensions sur les médias sociaux se forment à des niveaux globaux plus qu’individuels. Comme le soulignait la fondatrice de Recode, Kara Swisher (@karaswisher), cet été dans le New York Times, Facebook, Google et Twitter sont devenus les marchands d’armes numériques de l’âge moderne. Les plateformes sont devenues des champs de bataille, et plus les plateformes sont vastes et plus les enjeux pour les communautés qui se disputent en visibilité sont élevés? Or, rappelle Gillespie, la modération sur ces plateformes est devenue industrielle. Les personnes et les programmes qui modèrent ne sont plus issus des communautés. Ils examinent des milliers d’images et de contenus hors contexte. Pour protéger leur propre santé mentale, ils doivent apprendre d’ailleurs à compartimenter leur travail, les séparant davantage des communautés qu’ils surveillent et rendant impossible toute réflexion sur les normes de ces communautés.

Dans son livre, Gillespie estime que les plateformes devaient modérer plus agressivement et recommande d’améliorer la transparence de la modération, de mieux la distribuer aux utilisateurs, de rejeter les mesures de popularité et de diversifier les employés qui conçoivent les plateformes. Mais pour Adam Clair, il faut encore que les plateformes soient incitées à améliorer la modération. Sans chiffres montrant la valeur commerciale de l’amélioration de la modération, aucune plateforme n’investira dans des changements. Et ce d’autant qu’aucune communauté ne souhaite être modérée (sauf si elle peut utiliser cette modération contre les autres communautés).

Les plateformes préfèrent ne pas mettre en avant leurs interventions. Cela ne les empêche pas d’être très visibles pour les utilisateurs, où pas un jour ne passe sans qu’on évoque des censures de contenus, qui mettent en avant des technologies invisibles, mais omniprésentes. Siva Vaidhyanathan, dans son livre, estime que si les plateformes étaient moins aveuglées par leur orgueil et l’assurance de leur toute-puissance bienveillante, elles auraient pu construire des solutions pour rendre Facebook moins ingouvernable et moins facilement détournable. Pour lui, le fait de croire que l’interconnexion des utilisateurs est nécessairement bonne en soi est un présupposé qui pose problème en soi. Les cadres de ces entreprises qui se considèrent comme des dieux bienveillants estiment trop rapidement que les individus et les communautés sont à la recherche d’expériences nouvelles. Mais ce sont des arguments qui leur permettent de masquer leur rôle dans l’armement généralisé de la communication. Comme le soulignait la chercheuse Zeynep Tufekci dans Wired, en regrettant l’âge d’or de la liberté d’expression, nous avons peu de défense contre ces menaces nouvelles et puissantes à l’encontre des idéaux du discours démocratique.

Clair rappelle qu’une plateforme n’est rien sans ce que les utilisateurs y publient. Ils créent à la fois la valeur et en supportent la toxicité. Pour lui, la crise des médias sociaux découle à la fois d’un fantasme sur ce que les gens souhaitent et d’un fantasme sur le comportement des gens qui seraient naturellement intéressés, infiniment rationnels et indépendants de tout contexte. Pour Clair, il est temps pour les médias sociaux de reconnaître la nature des conflits et d’abandonner la neutralité qu’ils promeuvent. « Avec des milliards d?utilisateurs en jeu, les sociétés de médias sociaux sont peu disposées à apporter des changements majeurs à leurs fondements, mais si elles ne le font pas, elles risquent de voir leurs structures entières s?effondrer sous leur propre poids. »

  • De l?imbrication algorithmique

On se souvient de la mort d’Elaine Herzberg, première humaine tuée par une voiture autonome en mars 2018 (voir l’enquête qu’en dressait l’écrivain Thierry Crouzet). Pour le Guardian, le journaliste Andrew Smith (@wiresmith) revient sur les hésitations de l’algorithme de la voiture à reconnaître ce qu’il se passait. Pour la (...)

On se souvient de la mort d’Elaine Herzberg, première humaine tuée par une voiture autonome en mars 2018 (voir l’enquête qu’en dressait l’écrivain Thierry Crouzet). Pour le Guardian, le journaliste Andrew Smith (@wiresmith) revient sur les hésitations de l’algorithme de la voiture à reconnaître ce qu’il se passait.

Pour la programmeuse et essayiste Ellen Ullman, le problème est que la programmation est de plus en plus éloignée de la compréhension humaine du fait de l’intrication des programmes, algorithmes et données. Les gens pensent souvent que les algorithmes peuvent être modifiés, mais le plus souvent, ils s’exécutent et évoluent par eux-mêmes (cf. notre dossier, réinventer la programmation). Leurs concepteurs ne les contrôlent pas vraiment et ce d’autant plus qu’ils font appellent à des bases de données, à des bibliothèques de programmes distants, à d’autres algorithmes qui évoluent également.

À l’origine, rappelle Smith, les algorithmes étaient relativement simples, ils fonctionnaient selon des règles basiques du type : si A se produit, alors faites B, sinon, faites C. Les ordinateurs semblaient déjà magiques, parce qu’ils étaient rapides plus qu’intelligents. Mais désormais, les algorithmes désignent des systèmes logiciels de prise de décision complexes, avec un nombre de règles et de critères volumineux, souvent interreliés et interdépendants. Or, ils nous ont été toujours présentés comme des promesses d’objectivité, d’où le fait qu’ils se soient étendus à nombre de décisions de la vie courante : octroi de prêts, de prestations, de places? Pourtant, ces décisions ne sont pas sans biais, du fait de la manière même dont ces relations sont conçues par les ingénieurs.

Les machines ne sont pas sans biais non plus. L’apprentissage par renforcement par exemple, se fait sans aucun contexte. La machine apprend à faire ce qu’on lui demande de faire, comme obtenir le meilleur score possible à un jeu en y jouant des millions de fois. Mais ce qu’elle en apprend n’est pas transférable d’un jeu à un autre. Et elle ne sait expliquer comment elle y arrive. Le problème, c’est que quand l’algorithme apprend, nous ne savons plus quels sont les règles et les paramètres qu’il utilise puisqu’il les transforme. Ces algorithmes-là ne sont plus prévisibles et peuvent se mettre à produire des résultats erratiques. Pour Smith ce sont des « algorithmes Frankenstein », des machines qui créent leurs propres règles, comme ceux qui dominent désormais les marchés financiers via les transactions à haute fréquence. Pour Neil Johnson, physicien de la complexité à l’université George Washington, Facebook peut ainsi avoir des algorithmes simples pour reconnaître un visage dans une photo? Mais que se passe-t-il quand des milliers d’algorithmes travaillent ensemble sur des milliards de profils ? « Vous ne pouvez pas prédire le comportement global appris à partir de règles microscopiques ».

Neil Johnson, qui a publié récemment un article (.pdf) sur l’émergence de populations radicales par la polarisation des opinions, explique que c’est la concurrence des opinions qui accroit la polarisation en ligne. Pour lui, les entreprises qui développent des algorithmes devraient aussi apprendre à modéliser leurs effets à grande échelle, comme les climatologues modélisent le changement climatique. Pour la mathématicienne Cathy O’Neil (@mathbabedotorg), dans l’environnement algorithmique complexe actuel, il est difficile de définir les responsabilités des différents segments de codes imbriqués les uns aux autres. Les Flash Crash, ces krachs financiers éclair, n’ont pas lieu que sur les marchés financiers. La tarification algorithmique d’Amazon s’emballe aussi parfois en faisant grimper le prix de livres à des hauteurs folles. Or, comprendre où se situe la responsabilité de ces emballements n’est pas si simple. « Comme dans la finance, le déni est intégré au système ».

Lorsqu’un chauffeur d’une Toyota Camry a été tué après avoir accéléré brutalement sans raison évidente, des experts ont passé plusieurs mois à examiner les millions de lignes de code du système d’exploitation de la voiture sans trouver de preuves concluantes que la voiture ait accélérées de son propre chef. D’autres experts ont fini par trouver que le chevauchement de codes imbriqués pouvait produire des résultats anormaux et imprévisibles. Éviter les conflits de code sur des millions de lignes de code alimentés par des flux d’information constants est extrêmement difficile. Pour l’historien des sciences George Dyson, le problème est que nous construisons des systèmes qui vont au-delà de nos moyens intellectuels pour les contrôler. Or, nous pensons que si un système est déterministe (c’est-à-dire qu’il agit selon des règles fixes), alors il est prévisible et que s’il est prévisible alors il peut être contrôlé. Mais ces deux hypothèses sont fausses, estime Dyson. « La loi d’Ashby dit qu’un système de contrôle doit être aussi complexe que le système qu’il contrôle ». Mais cela se révèle difficile. Nous ne savons pas tester cette complexité de manière exhaustive. Pour le professeur d’Intelligence artificielle Toby Walsh (@tobywalsh), « personne ne sait écrire un code pour reconnaître un stop ». En fait, pour y parvenir, les programmeurs décomposent le problème en parties suffisamment simples pour correspondre à des instructions, notamment en les nourrissant d’exemples. Le véhicule autonome qui a tué Herzberg a hésité à classer correctement ce qu’il voyait sur la route. « Est-ce dû à une mauvaise programmation, à une formation algorithmique insuffisante ou à un refus démesuré d’apprécier les limites de notre technologie ? Le vrai problème est que nous ne pourrons jamais le savoir », conclut Andrew Smith.

Pour la sociologue Lucy Suchman de l’université de Lancaster, ces problèmes sont partout. Une étude sur les attaques par drones au Pakistan entre 2003 et 2013 a ainsi montré que 2 % des personnes tuées par drones étaient des cibles présentant une menace. 20 % étaient considérés comme des non-combattants? Et 75 % étaient des cibles? « non identifiés ». Pour elle, nous sommes face à une technologie d’identification très grossière. Dans ce contexte, la perspective du développement d’armes autonomes laisse plus que perplexe. Pour Lilly Irani (@gleemie) de l’université de Californie, les choix des concepteurs d’algorithmes nous sont trop souvent présentés comme objectifs quand ils cachent des enjeux politiques.

Les méthodes de programmation ne sont plus adaptées à la taille, à la complexité, à l’interdépendance et à l’impact des programmes sur la société. Pour relever ce défi, il faudrait pouvoir mieux évaluer les interactions algorithmiques.

Pour Johnson, les ingénieurs sont formés pour écrire des programmes d’optimisation. Il serait temps de nous demander qu’elle est la pire chose qui puisse se produire avec ces optimisations une fois qu’elles interagissent avec d’autres optimisations. Mais nous n’avons ni mot pour comprendre cela, ni science pour l’étudier. «Le fait est que l’optimisation consiste à maximiser ou à minimiser quelque chose – ce qui, en termes informatiques, est identique. Alors, qu?elle est le contraire d?une optimisation – c?est-à-dire le cas le moins optimal -, et comment l?identifier et le mesurer ? La question que nous devons nous poser, que nous n?avons jamais posée, est la suivante : «Quel est le comportement le plus extrême possible dans un système que je pensais optimiser» ? » Pour cela, explique-t-il, nous avons besoin d’une autre science. Décidément !

MAJ : Sur son blog, Olivier Ertzscheid revient également sur cet article du Guardian pour proposer une taxonomie algorithmique… qui distingue les algorithmes opaques et imprévisibles des algorithmes transparents et prévisibles.

  • Vers une science de la causalité

Depuis l?invention des statistiques, la science ne cherche plus à se prononcer sur la notion de causalité. Corrélation n?étant pas causalité, les statisticiens se refusent à porter un jugement sur quel phénomène « cause » tel autre. La causalité n’est que la forme extrême de la corrélation, autrement dit, ce qui se (...)

Depuis l?invention des statistiques, la science ne cherche plus à se prononcer sur la notion de causalité. Corrélation n?étant pas causalité, les statisticiens se refusent à porter un jugement sur quel phénomène « cause » tel autre. La causalité n’est que la forme extrême de la corrélation, autrement dit, ce qui se passe quand une corrélation atteint 100 % de succès.

Pourtant, nous explique Judea Pearl (Wikipédia, @yudapearl), dans son livre The Book of Why (Basic Books, 2018 non traduit), écrit en collaboration avec Dana Mackenzie, il nous faut une science de la causalité ! Celle-ci existe déjà, elle s’est développée tout au long du XXe siècle, mais très discrètement. Selon Pearl, elle est un élément indispensable à notre compréhension du monde. Notamment, dans le domaine de l’intelligence artificielle, ce n’est que lorsqu’une parfaite compréhension de la notion de causalité sera atteinte que nous pourrons créer des machines véritablement intelligentes.

Judea Pearl n’est pas un perdreau en matière de recherche : aujourd’hui âgé de 81 ans, c’est son premier ouvrage de vulgarisation. Il est plus coutumier de travaux obscurs consacrés aux hautes sphères de l’IA et des mathématiques, et il a obtenu en 1991 le prix Turing pour ses recherches sur les « réseaux bayésiens« , couramment utilisés aujourd?hui en IA.

Deux langages pour une nouvelle science


Comme toutes les disciplines scientifiques, cette nouvelle science de la causalité dispose d’un langage, ou plutôt de deux. Le premier est exclusivement graphique. Il s’agit de diagrammes fléchés qui indiquent l?enchaînement causal supposé. L’autre langage est plus formel, plus proche des maths. Dans son livre, Pearl favorise largement l’usage des diagrammes, plus simples à comprendre, mais donne quelques exemples « d’équations causales ». Celles-ci se caractérisent par l?intervention d’un nouvel opérateur, le « do » (pour « faire » en anglais). Cet opérateur permet de distinguer dans un calcul les modifications observées de celles qui sont le produit d’une intervention volontaire. Autrement dit, observer ce qu’il se passe lorsque les gens mangent des brocolis ne sera pas formulé de la même manière qu’une expérience où un groupe a mangé des brocolis pendant six mois, tandis que le groupe contrôle n’en mangeait jamais.

L?introduction ce petit opérateur change profondément les choses. En fait, une fois qu’on a pris en compte la possibilité d’une intervention, il est possible de calculer ses conséquences sans pour autant la réaliser effectivement : « L’une des réalisations majeures de la Révolution causale a été d’expliquer comment prédire les effets d’une intervention sans la mettre en pratique. Cela n’aurait jamais été possible si, avant tout, nous n’avions pas défini l’opérateur de manière à pouvoir poser la bonne question et, deuxièmement, imaginé un moyen de l’imiter par des moyens non invasifs. »

Pour Pearl, l’usage d?un langage formel est nécessaire à la compréhension d’un phénomène. Rappelons qu’il est lui-même chercheur en IA. « Tout d’abord, dans le monde de l’IA, explique-t-il, vous ne comprenez pas vraiment un sujet avant de pouvoir l’enseigner à un robot. C’est pourquoi vous me verrez mettre l’accent sur la notation, le langage, le vocabulaire et la grammaire (…). C’est incroyable tout ce qu’on peut apprendre en suivant simplement la grammaire des énoncés scientifiques. Mon insistance sur le langage vient aussi de la conviction profonde que la langue façonne nos pensées. Vous ne pouvez pas répondre à une question que vous ne pouvez pas poser et vous ne pouvez pas poser une question pour laquelle vous n’avez pas de mots.  »

Voici un exemple très simple donné par Pearl d’un tel diagramme causal. Il concerne le fonctionnement d’un peloton d’exécution. Il y a d’abord une décision du tribunal, qui transmet l’ordre au capitaine du peloton, constitué de deux tireurs. Que se passe-t-il si on intervient et que le tireur B décide ne pas tirer ? On supprime la flèche allant de B à l?exécution. Mais cela ne change rien puisque A tire de toute façon. Que se passe-t-il si finalement la cour martiale ne donne pas l’ordre d?exécution ? On efface alors la première flèche. Ce second diagramme est-il possible ? Pour un ordinateur classique, explique Pearl, la question ne se pose pas. La règle est que les soldats ne tirent que si la cour en a donné l’ordre. Mais avec la causalité, explique Pearl, « nous devons apprendre aux ordinateurs à briser les règles ». Un des deux soldats peut décider de tirer même contre l’avis de la cour.

On le voit, c’est bête comme chou. Mais vous n’imaginez pas à quel point ces diagrammes deviennent vite complexes tout au long du livre. Si l’ouvrage de Pearl est destiné au grand public, il ne faut pas s’imaginer pour autant qu’il soit simple d’accès. J’avoue qu’il m’a souvent perdu.
Une chose différencie cette approche causale de l’approche statistique classique. Elle implique, de la part du chercheur, une mise en ?uvre de sa connaissance du monde. Pour lui : « (…) dessiner un diagramme de causalité n?est pas un exercice statistique ; c’est un exercice de génétique, d’économie, de psychologie ou de tout autre domaine d’expertise du scientifique. »

Les trois niveaux de compréhension du monde


Que signifie l’avènement de cette nouvelle science de la causalité pour l’IA, qui rappelons-le, est la spécialité de Judea Pearl ?

Ce dernier divise les progrès dans la compréhension du monde en trois étapes.

Le premier stade est l’observation. Le sujet observe son environnement, remarque des régularités et en déduit un certain nombre de conclusions. En d’autres termes, il effectue des corrélations. C’est le stade atteint par les animaux, et selon Pearl, par les actuels systèmes de Deep Learning, qui sont donc loin, selon lui, d?égaler l’intelligence humaine.

Le second stade est celui de l’intelligence humaine, c’est celui de l’intervention (le fameux opérateur « do »). Le sujet effectue une action pour voir ce qui se passe. Il compare les résultats de son acte à la situation antérieure, lorsqu’il n’était pas intervenu. C’est le niveau où on se pose la question « comment? ? »

Le troisième stade, atteint par des humains matures, est celui des « conditions contre-factuelles », autrement dit, on élabore des scénarios imaginaires en se demandant « et si? ? ». Toute interrogation sur les causes d’un phénomène se déroule à ce niveau. Autrement dit, se demander « pourquoi » est en en fait une question contre-factuelle déguisée. Si on revient à l’exemple du diagramme plus haut, on se demande par exemple : « que se passerait-il si la cour ne donnait pas l’ordre d?exécution ? »

Pearl résume ainsi sa théorie : « le niveau 1 traite du monde tel qu’il est perçu, le 2 d’un monde meilleur, mais néanmoins perceptible, tandis que le niveau 3 traite d’un monde qui ne peut être perçu (parce qu’il contredit ce qui est perçu) ».

Les limites des data


A quel stade se trouvent actuellement les machines intelligentes ? Pour Pearl elles restent coincées au niveau 1, comme d?ailleurs les statistiques traditionnelles : elles ne peuvent répondre à la question « pourquoi ». « Les données peuvent vous dire que les gens qui ont pris un médicament se sont rétablis plus rapidement que ceux qui ne l’ont pas pris, mais elles ne peuvent pas vous dire pourquoi. Peut-être que ceux qui ont pris le médicament l’ont fait parce qu’ils pouvaient se le permettre et se seraient rétablis aussi rapidement sans lui. »

En opposition avec sa nouvelle science de la causalité, les data sont incapables d’établir une flèche du temps cohérente. Si A est corrélé à B, B est également corrélé à A. La causalité, elle, ne va que dans un sens.

Dans un monde gouverné uniquement par les data, « par exemple, les patients éviteraient d’aller chez le médecin pour réduire la probabilité d’être gravement malade ; les villes licencieraient leurs pompiers pour réduire l’incidence des incendies ; les médecins recommanderaient un médicament aux hommes et aux femmes, mais pas aux patients dont le sexe n’a pas été divulgué ; etc. »

Pearl ne minimise pas les progrès actuels en intelligence artificielle, notamment les technologies du Deep Learning, mais perçoit également leurs limites. « Les réussites du Deep Learning ont été vraiment remarquables et ont surpris nombre d’entre nous. Néanmoins, le Deep Learning a principalement réussi en montrant que certaines questions ou tâches que nous pensions difficiles ne le sont pas en réalité. »

Pour tester les futures machines intelligentes, Pearl envisage un mini-test de Turing. Au lieu d’avoir à tromper ses interlocuteurs en se faisant passer pour un humain comme c’est le cas actuellement du test de Turing, ce mini-test serait (en apparence) plus facile : « L’idée est de prendre une histoire simple, de la coder sur une machine, puis de tester si la machine peut répondre correctement aux questions causales auxquelles un être humain peut répondre. »

L’accès au niveau 3 de la compréhension du monde aurait aussi une autre conséquence. Il permettrait enfin de créer des robots « moraux ». Pour Pearl, un système de règles comme celui des trois lois d’Asimov est une impasse. Il faut permettre au robot de réfléchir à ses propres actions, de se demander « pourquoi » ?

Pourquoi ce lien entre la réflexion sur « des mondes qui n’existent pas » et la conscience morale ? Parce que cela permet de se demander « comment on aurait pu faire autrement ». C’est cette interrogation qui nous permet de réfléchir aux conséquences de nos actes. Si nous arrivons à créer une telle IA, insiste Pearl (et il affirme que certains de ses étudiants mettent actuellement au point des algorithmes allant dans ce sens), alors il n’y aura aucune raison d’avoir peur de l’intelligence des machines.

Rémi Sussan

  • Technologie : l?âge sombre

L?artiste et essayiste James Bridle (@jamesbridle) s?intéresse depuis longtemps aux dysfonctionnements de notre monde moderne. Il observe ce qui ne fonctionne pas : les bugs, les glitchs, les ratés de notre développement technologique? Longtemps, il a regardé les espaces de friction entre technologie et société comme le lieu d?expression et de (...)

L?artiste et essayiste James Bridle (@jamesbridle) s?intéresse depuis longtemps aux dysfonctionnements de notre monde moderne. Il observe ce qui ne fonctionne pas : les bugs, les glitchs, les ratés de notre développement technologique? Longtemps, il a regardé les espaces de friction entre technologie et société comme le lieu d?expression et de production de nouvelles formes culturelles. C?était ce qu?il appelait « la nouvelle esthétique », celle produite au croisement de la technologie et de la réalité, ces « irruptions visuelles du monde numérique dans le monde physique ». Il en a joué plus que tout autre, en produisant des dispositifs pour interroger la manière même dont nous produisons notre monde moderne. L?un des exemples les plus célèbres – parmi d’autres – étant certainement le piège à voiture autonome qu?il imagina, comme une mise en abîme des limites de la soi-disant intelligence artificielle qu?on pouvait prendre au piège comme un enfant? On avait évoqué rapidement, au printemps, la sortie de son dernier livre Le nouvel âge sombre : la technologie et la fin du futur (Verso Books, 2018, en anglais)? Il est temps d?y revenir.

Les bugs ne sont pas amenés à être corrigés !

Ce New Dark Age porte un titre prophétique et apocalyptique. Un peu trop peut-être. C?est effectivement un livre très critique sur notre rapport à la technologie, très éloigné du rapport souvent curieux et amusé que Bridle portait aux technologies avec la nouvelle esthétique. En une dizaine de chapitres, Bridle explore les glitchs qui sont désormais devenus des schismes, des scissions, des ruptures? comme s?ils n?étaient plus aussi distrayants. Dans son livre, il montre combien les bugs se cristallisent en caractéristiques. Combien la complexité technique que nous avons construite s?entremêle pour produire des effets en réseau, complexes, profonds, intriqués que nous ne parvenons plus vraiment à démêler. Son constat principal consiste à dire que ces dysfonctionnements ne sont pas amenés à être corrigés. Ils sont au contraire intrinsèques à la nature même des technologies qui se déploient aujourd’hui. Contrairement à ce que nous annonçaient les pionniers et les prophètes des technologies, pour Bridle, la technologie n?annonce pas de nouvelles Lumières ou une Renaissance, mais, comme Jules Michelet parlait du Moyen Âge, un âge sombre, une ère d?obscurité pour ne pas dire d?obscurantisme. Ni les réseaux sociaux, ni l?intelligence artificielle, ni les systèmes techniques ne vont nous aider à faire monde commun. Au contraire.

Le constat de Bridle est définitif. « L?accélération technologique a transformé notre planète, nos sociétés et nous-mêmes, mais elle n?a pas réussi à transformer notre compréhension de la technologie ». Nous n?arrivons plus à penser en dehors ou sans technologie. Pire, la technologie s?est fait la complice de tous les défis auxquels nous sommes confrontés : à la fois d?un système économique hors de contrôle qui ne cesse d?élargir les inégalités, la polarisation politique comme le réchauffement climatique. Pour Bridle, la technologie n?est pas la solution à ces défis, elle est devenue le problème. Il nous faut la comprendre plus que jamais, dans sa complexité, ses interconnexions et ses interactions : mais cette compréhension fonctionnelle ne suffit pas, il faut en saisir le contexte, les conséquences, les limites, le langage et le métalangage.

Trop souvent, on nous propose de résoudre ce manque de compréhension de la technologie par un peu plus d?éducation ou son corollaire, par la formation d?un peu plus de programmeurs. Mais ces deux solutions se limitent bien souvent en une compréhension procédurale des systèmes. Et cette compréhension procédurale vise surtout à renforcer la « pensée computationnelle », c?est-à-dire la pensée des ingénieurs et des informaticiens qui n?est rien d?autre que le métalangage du solutionnisme technologique : « la croyance que tout problème donné peut-être résolu par l?application de solutions de calcul ». Or la pensée des ingénieurs, la pensée informatique, intègre plus que toute autre le solutionnisme : elle ne parvient pas à voir le monde autrement qu?en terme computationnel. Dans ce mode de pensée, le monde est un système qu?il faut décoder? Et c?est là notre erreur de perspective principale, estime James Bridle.

L?écueil de la pensée computationnelle

Les systèmes techniques sont devenus de plus en plus complexes. Trop critiques et interconnectés pour être compris, pensés ou conçus. Leur compréhension n?est disponible plus que pour quelques-uns et le problème est que ces quelques-uns sont les mêmes que ceux qui sont au sommet des structures de pouvoir. Pour James Bridle, il y a une relation causale entre la complexité des systèmes, leur opacité, et les violences et inégalités qu?ils propagent. « Trop souvent, les nouvelles technologies sont présentées comme étant naturellement émancipatrices. », Mais c?est là typiquement un exemple de pensée computationnelle estime Bridle. Les primo-utilisateurs qui en ont vanté les mérites, si naïvement, ont bénéficié des opportunités de la technique, sans saisir ce que leur déploiement à large échelle pouvait transformer ni voir que le fait qu?ils en bénéficient ne signifiait pas qu?elle allait bénéficier à tous. Dans notre monde en réseau, l?individualisme l?a emporté sur la solidarité.

Le cloud (l?informatique en nuage) n?est plus une métaphore du réseau, c?est l?incarnation de ce système global et surpuissant qu?aucun d?entre nous ne peut désormais attraper. Ce nuage est pourtant une bien mauvaise métaphore. Rien de ce qu?il recèle n?y est sans poids, rien n?y est amorphe ou invisible. Le cloud cache une infrastructure physique complexe faite de lignes téléphoniques, de fibre optique, de satellite, de vastes entrepôts d?ordinateurs, qui consomment d?énormes quantités d?énergie et qui influent sur de multiples juridictions. Le cloud est l?incarnation d?une nouvelle industrie.

L?absence de compréhension dans laquelle nous sommes maintenus est délibérée, estime Bridle. De la sécurité nationale aux secrets industriels, il y a beaucoup de raisons à obscurcir ce que recouvre ce nuage. Mais ce qui s?en évapore est assurément notre propriété (dans les nuages, tout appartient à d?autres) et notre agentivité, c?est-à-dire notre capacité à faire. Le nuage est une métaphore qui obscurcit la réalité opérationnelle de la technologie : un moyen de cacher ce qu?elle accomplit, sa propre agentivité, via des codes opaques et insondables, via une distance physique réelle entre l?utilisateur et les matériels qu?il active et une construction juridique qui fonctionne selon le principe d?extraterritorialité. La technologie est une opération de puissance qui utilise ses outils pour se cacher de nous.

Le réseau est-il l?accomplissement du progrès ?

Ce réseau technologique de systèmes entremêlés qui s?est construit petit à petit est caractérisé par son absence d?intention apparente, claire ou unique. Personne n?a décidé de créer le réseau tel qu’il s’est développé? Il s?est bâti peu à peu, dans le temps, système contre système, culture contre culture, comme une agrégation de technologies se liant ensemble via des programmes publics et des investissements privés, via des relations personnelles et des protocoles techniques? Le réseau donne l?impression d?être à la fois l?idéal de progrès le plus abouti et l?idéal de base de notre culture tout en paraissant avoir émergé inconsciemment, poursuivant son but d?interconnexion sans fin pour lui-même et par lui-même? « Nous présumons que l?interconnexion est inhérente et inévitable. Le réseau semble être devenu le résultat du progrès, son accomplissement ultime », à l?image de machines qui accompliraient ainsi leurs propres désirs. Internet semble avoir accompli l?idéal des Lumières, l?idéal du progrès : celui que plus de connaissance et plus d?information conduit toujours à prendre de meilleures décisions.

Mais n?est-ce pas plutôt le contraire auquel nous assistons ? « Ce qui était censé éclairer le monde l?a obscurci. L?abondance d?information et la pluralité d?opinion accessible à tous n?ont pas produit un consensus cohérent, mais au contraire a déchiré la réalité en narrations simplistes, en théories fumeuses et en politique d?opinion. Contrairement au Moyen Âge, où l?âge sombre était lié à une perte de connaissance antique, l?âge sombre moderne est lié à une abondance de connaissance dont nous ne savons plus démêler collectivement l?apport. » Et Bridle de faire référence à l?obscurité qu?annonçait Lovecraft dès les premières lignes de l?Appel de Cthulhu :

« la chose la plus miséricordieuse en ce monde, je crois, c?est l?inaptitude de l?esprit humain à corréler tout ce dont il est témoin. Nous vivons sur une placide île d?ignorance au milieu de noires mers d?infini, et cela ne veut pas dire que nous puissions voyager loin. Les sciences, chacune attelée à sa propre direction, nous ont jusqu?ici peu fait de tort ; mais rassembler nos connaissances dissociées nous ouvrira de si terrifiants horizons de réalité, et la considération de notre effrayante position ici-bas, que soit nous deviendrons fous de la révélation, soit nous en fuirons la lumière mortelle dans la paix et la sécurité d?une nouvelle ère d?obscurité. »

L?obscurité dont parle Bridle c?est notre incapacité à voir clairement ce qui est devant nous, avec capacité et justice. Pour Bridle pourtant, ce constat ne doit pas être lu comme une condamnation de la technologie. Au contraire. Pour relever l?âge sombre qui s?annonce, il nous faut nous engager plus avant dans la technologie, avec elle, mais avec une compréhension radicalement différente de ce qu?il est possible d?en faire, en retrouver un sens que la seule recherche d?efficacité nous a fait perdre. Tout comme le changement climatique, les effets de la technologie s?étendent sur le globe et affectent tous les aspects de nos vies. Mais comme le changement climatique, ses effets sont potentiellement catastrophiques et résultent de notre incapacité à comprendre les conséquences de nos propres inventions. Nous devons changer de manière de voir et penser le monde, nous invite Bridle, un peu facilement ou naïvement. L?âge sombre n?est pas qu?un lieu de danger, c?est aussi un moment de possibilité et de liberté. Mais cet optimisme semble un peu de façade, tant la description qu?il fait de notre utilisation des technologies est sombre et glaçante. Les glitchs qu?il s?amusait à recenser comme une expression étrange des transformations culturelles nées de notre capacité à l?interconnexion semblent être devenus des sortes de monstres que personne ne maîtrise. Les effets de bords de nos créations sont devenus des créatures qui nous dévorent en retour. Nous perdons pied dans ce que nous avons créé.

Peut-on s?extraire de la pensée computationnelle ?

Dans son livre, Bridle étrille longuement la pensée computationnelle, ce mode de pensée à travers les machines, né du calcul, et qui estime que tout problème est soluble par essence. Il rappelle l?histoire de l?informatique, intimement liée à la question de la modélisation des essais nucléaires, des tirs balistiques et de la prédiction à l?image des travaux du mathématicien Lewis Fry Richardson qui va réaliser – des années 1910 à 1922, bien avant l?apparition des ordinateurs donc – des mesures climatiques pour produire le premier modèle de prédiction météorologique. Il faudra attendre les premiers ordinateurs pour être enfin capables de traiter d?imposants volumes de données pour que la prédiction météorologique se développe et se réalise. Le développement de capteurs (satellites, capteurs météo?) a mis peu à peu le globe sous calcul, sans que nous nous en rendions vraiment compte.

Pour James Bridle, l’histoire de la prédiction repose sur une série d?échecs – des échecs à distinguer la réalité de sa simulation, même si ce n’est peut-être pas le cas dans tous les domaines, notamment la météo justement – et qui promet sans cesse de s?améliorer sans voir que son principal écueil demeure de croire en sa surpuissance. « Nous avons été conditionnés pour croire que les ordinateurs rendaient le monde plus limpide et plus efficace, qu?ils allaient réduire la complexité et facilité de meilleures solutions aux problèmes qui nous assiègent, qu?ils allaient étendre notre capacité à adresser de plus larges domaines d?expertise. Mais cette histoire ne s?est pas révélée exacte du tout. Une meilleure lecture de l?histoire de l?informatique souligne une opacité croissante alliée à une concentration croissante du pouvoir et un pouvoir qui se retranche derrière des domaines d?expertise toujours plus étroits. » Effectivement, l?informatique n?a pas simplifié le monde.

En construisant des architectures complexes, qui ne peuvent plus être questionnées, on bloque et on transforme les problèmes en abstraction, en dilemmes définitivement rebelles à toute solution autre que mathématique. Tout problème devient une question mathématique plutôt qu?une question démocratique ou égalitaire. « En rapprochant la simulation de l?approximation, les grands prêtres de la pensée computationnelle pensent remplacer le monde par des modèles biaisés de lui-même ; et en le faisant, les modeleurs s?assurent du contrôle du monde. » James Bridle s’inscrit dans la continuité des constats de l’historien des sciences David Noble qui, dans Le progrès sans le peuple notamment, soulignait combien la pensée des ingénieurs avait contribué à donner du pouvoir aux puissants plutôt que favoriser l’équité ou la démocratie ; comme dans celle de Richard Sclove du Loka Institute, qui dans Choix technologiques, choix de société, soulignait combien les enjeux démocratiques restaient le parent pauvre de la question technologique.

Aujourd?hui, nous pouvons avoir l?impression que le monde nous est disponible, instantanément, explique Bridle, à l?image du site FlightRadar, un site qui permet de voir tous les avions en vol en temps réel? depuis le signal ADS-B qu?ils émettent. Enfin, pas tous. Seulement les vols commerciaux, ce qui escamote les manoeuvres militaires comme les vols des jets privés? Le GPS est devenu un autre de ces signaux invisibles qui surveille toute activité sur la planète, une horloge géographique qui régule les déplacements et le temps, la logistique, les infrastructures électriques comme les marchés financiers. Mais notre dépendance de plus en plus grande dans de tels systèmes masque combien ils sont manipulables, alors que nous avons tendance à penser qu’ils ne le sont pas.

La connectivité est devenue notre réalité

Notre rapport à l?espace et au code ne s?exprime pas uniquement dans les systèmes informatiques, rappelle Bridle. Des géographes comme Rob Kitchin et Martin Dodge, on posé le concept de code/space pour décrire l?imbrication du calcul avec nos environnements, à l?image des aéroports, conçus comme des systèmes et qui ne peuvent fonctionner sans informatique. C?est le cas de plus en plus de nos environnements les plus immédiats, gérés par des systèmes informatiques. Nos outils de travail les plus quotidiens comme nos véhicules exigent désormais des mises à jour quotidiennes et des échanges de données pour fonctionner. La connectivité et les algorithmes rythment jusqu?à nos vies sociales. Nos objets quotidiens sont tous devenus des code/space. Toutes nos activités sont « de plus en plus gouvernées par une logique algorithmique et policées par des processus informatiques opaques et cachés ». Cette emphase de production physique et culturelle du monde par l?informatique masque les inégalités de pouvoir qu?elles induisent, reproduisent et amplifient.

La pensée computationnelle s?infiltre partout : elle devient notre culture. Elle nous conditionne à la fois parce qu?elle nous est illisible et à la fois parce que nous la percevons comme neutre émotionnellement et politiquement. Les réponses automatisées nous semblent plus dignes de confiance que celles qui ne le sont pas. Dans la pensée computationnelle, nous sommes victimes du biais d?automatisation : « nous avons plus confiance dans l?information automatisée que dans notre propre expérience, même si elle est en conflit avec ce qu?on observe ». Les conducteurs de voitures comme les pilotes d?avion ont plus tendance à croire leurs instruments que leur expérience, même si celle-ci n?est pas alignée. Ceux qui suivent les systèmes automatisés prennent leurs décisions plus rapidement avec moins de questions : comme si l?action qui leur était suggérée prévenait toute question ou toute introspection relatives au problème. Dans le stress, nous préférons choisir l?option la plus simple, la plus immédiate. Nous préférons les stratégies faciles à suivre et à justifier. Nous préférons ce que nous dit la machine à ce que nous dit notre intuition qu?il faudrait corroborer en faisant un effort cognitif supplémentaire.

Pour Bridle, l?informatique, en ce sens, est un piratage de notre capacité cognitive, de notre capacité attentionnelle, qui renvoie toute responsabilité sur la machine. « À mesure que la vie s?accélère, les machines ne cessent de prendre en main de plus en plus de tâches cognitives, renforçant par là leur autorité – sans regarder les conséquences ». « Nous nous accommodons de mieux en mieux et de plus en plus aux confortables raccourcis cognitifs que nous proposent nos machines. L?informatique remplace la pensée consciente. Nous pensons de plus en plus comme des machines, ou plutôt nous ne pensons plus du tout ! ».

Nous vivons désormais dans la computation

Nous vivons désormais dans la computation. Elle n?est plus seulement l?architecture de notre monde : elle est devenue le fondement même de notre manière de penser. Elle est devenue si pervasive, si séductrice, que nous l?utilisons pour tout : elle remplace le mécanique, le physique, le social, le cognitif? « À mesure que l?informatique nous encercle, que nous lui assignons la puissance et la capacité à générer la vérité, et que nous lui confions de plus en plus de tâches cognitives, la réalité prend l?apparence d?un ordinateur et nos modes de pensées également. » La pensée computationnelle ne gouverne pas seulement nos actions présentes, mais modèle le futur pour qu?il s?adapte à ses paramètres. « Ce qui est difficile à modéliser, à calculer, à quantifier, ce qui est incertain ou ambigu, est désormais exclu du futur possible. » L?informatique projette un futur qui ressemble au passé (« Les algorithmes ne prédisent pas le futur, ils codifient le passé », disait déjà Cathy O’Neil). La pensée computationnelle est paresseuse. Elle propose finalement des réponses faciles. Elle nous fait croire qu?il y a toujours des réponses.

« La pensée computationnelle a triomphé parce qu?elle nous a d?abord séduits par sa puissance, puis elle nous a embrouillée par sa complexité, et finalement elle s?est imposée dans nos cortex comme une évidence. » Elle n?en demeure pas moins le produit d?une sursimplification, de données biaisées, d?obfuscation délibérée? qui nous montrent chaque jour leurs limites, à l?image des révélations quotidiennes qu?on peut lire sur les défaillances technologiques de notre monde. « Plus nous sommes obsédés à modéliser le monde, plus il apparaît inconnaissablement complexe », comme si notre tentative à le réduire était par nature impossible à mesure qu?on semble croire y parvenir.

Avons-nous atteint un pic de la connaissance ?

James Bridle nous rappelle que, comme le climat, les infrastructures en réseau sont fragiles. Un rapport britannique (A National infrastructure for the 21st Century (.pdf), 2009), qui évoquait autant l?internet que les réseaux d?adduction d?eau, d?approvisionnement d?électricité ou de gaz, l?avait très bien souligné : les réseaux souffrent d?une gouvernance fragmentée, sans responsabilités claires, peu cartographiés et sous-financés ; des infrastructures en silos ; des investissements privés comme publics insuffisants et plus encore un manque de compréhension de la complexité de leur fonctionnement… expliquent leur fragilité intrinsèque et la difficulté de leur maintenance. Ajoutez à cela les impacts du changement climatique sur leur maintenance et leur évolution et vous comprendrez que les réseaux ne sont pas dimensionnés pour faire face au futur. Bref, non seulement l?informatique contribue largement au réchauffement climatique, mais elle risque d?en être l?une des principales victimes.

Pour autant, peu de gens s?inquiètent vraiment de cette responsabilité quant aux usages mêmes que l?on fait du réseau. Les rares solutions esquissées qui peuvent aller de la taxation, à des régressions techniques, semblent impensables à projeter à l?échelle des réseaux. À mesure que la culture numérique devient toujours plus rapide et plus gourmande en données, elle devient aussi plus coûteuse et nécessite de plus en plus d?énergie.

Le problème du changement climatique c?est qu?il dégrade notre capacité à prédire le futur. Pour James Bridle, alors que la prédiction est au coeur du futur, celui-ci est de moins en moins clair, de moins en moins prévisible. Les modèles et cycles de la nature que nous avons établis depuis des siècles (comme la pollinisation, les migrations animales, etc.) sont en train de changer : les connaissances que nous avons accumulées sont en train de devenir fausses. Or, notre civilisation repose pour beaucoup sur ce type de prédiction, comme de savoir quelle graine planter à quel moment de l?année, comme d?être capable de prédire les sécheresses ou les feux de forêt? Nos enfants pourraient demain en savoir bien moins sur le monde que nous !

Le spécialiste du climat William Gail, fondateur du Global Weather Corporation, dans le New York Times, estimait que nous avons peut-être passé un « pic de connaissance » ! Pour le philosophe Timothy Morton (@the_eco_thought) blog), le réchauffement climatique est un « hyperobjet », comme il l’explique dans son livre éponyme : quelque chose qui nous entoure, nous enveloppe, mais qui est trop énorme pour qu?on puisse le voir ou le comprendre entièrement. On perçoit les hyperobjets par l?influence qu?ils ont sur certains éléments, comme la fonte des glaciers ou le développement des turbulences en avion? Ils défient nos capacités à les décrire rationnellement. Le réseau, comme le changement climatique, est une représentation de notre réalité précisément parce qu?il est très difficile à penser, estime Bridle. On a beau transporter ce réseau dans nos poches, le stocker dans des centres de données? Il n?est pas réductible à ces unités concrètes. Il est non-local et par nature contradictoire. On ne peut pas le connaître !

Où est passé le progrès ?

Dans le monde de la SF, on parle par exemple du temps du moteur à vapeur, explique l’auteur de science-fiction William Gibson. Le temps de la machine à vapeur est un concept qui désigne le moment où ce moteur est advenu sans que personne ne sache vraiment pourquoi il est apparu à tel moment plutôt qu?à un autre. En fait, Ptolémée avait largement expliqué le principe du moteur à vapeur et rien n?aurait pu empêcher les Romains par exemple d?en construire. Mais ce n?est pas ce qu?il s?est passé. Les moteurs à vapeur sont apparus quand c?était leur temps. L?histoire des sciences nous montre que la plupart des inventions sont simultanées et ont plusieurs auteurs. Elles apparaissent souvent à plusieurs endroits simultanément. Cela implique une certaine manière de raconter l?histoire des sciences. La recherche, la science, la technologie convergent en une invention qui semble toujours le résultat d?un passé qui y conduit directement. L?histoire semble servir à créer une justification a posteriori, tout comme la fameuse loi de Moore. Mais c?est là à la fois une projection et une extrapolation qui reposent plutôt sur nos préférences pour les histoires héroïques qu?autre chose, avance Bridle. Nous avons un biais qui nous fait préférer la marche inévitable du progrès plutôt que ses hoquets, qui nous fait préférer voir le progrès et ses prolongements vers le futur. Pourtant, « la loi de Moore n?est ni technique, ni économique : elle est libidinale ! », clame Bridle. Le développement des circuits intégrés dès les années 60 par quelques entreprises a transformé le secteur au profit de quelques très grosses entreprises. Cette industrie a transformé le matériel et l?a distingué du logiciel. Elle a aussi mis fin à l?artisanat, à la réparation et à l?efficacité logicielle? Alors que les premiers développeurs logiciels avaient le souci d?économiser les ressources en optimisant leur code, les programmeurs ont pu s?en passer, sachant qu?ils devaient attendre quelques mois pour disposer de deux fois plus de puissance. L?héritage de la loi de Moore c?est que le logiciel est devenu le centre de nos sociétés. La courbe de puissance dessinée par la loi de Moore est devenue l?image du progrès elle-même : un futur d?abondance, où le présent n?avait plus besoin de s’accommoder de quoi que ce soit. « La loi de l?informatique est devenue une loi économique et une loi morale ». La conséquence est qu?on a l?impression de vivre dans un âge d?informatique ubiquitaire, disponible partout et tout le temps, dans des nuages à la puissance de calcul infinis? En 2008, Chris Anderson, proclamait la fin de la théorie, c?est-à-dire que nous n?aurons plus besoin de construire des modèles du monde. L?informatique massive allait produire la vérité depuis des volumes sans précédent de données, le Big Data. Pour Bridle, « la fausse promesse du Big Data est le résultat logique du réductionnisme scientifique : la croyance que des systèmes complexes peuvent être compris en en démantelant les composants et en étudiants ces pièces isolément. »

Mais les grands volumes de données ne produisent pas de la connaissance automatiquement. Dans la recherche pharmacologique par exemple, les dépenses et investissements n?ont jamais été aussi forts alors que les découvertes, elles, n?ont jamais produit aussi peu de nouveaux traitements. On appelle cela la loi d?Eroom : l?exact inverse de la loi de Moore. Le nombre de résultats de recherche chute et ces résultats sont de moins en moins dignes de confiance. Si les publications scientifiques n?ont jamais été aussi volumineuses (au détriment de leur qualité), les rétractions ont augmenté et le nombre de recherches ayant un impact significatif, elles, ont diminué proportionnellement. La science connaît une crise de réplicabilité majeure. Le p-hacking (la tromperie sur les probabilités – la signification statistique que réprésente la valeur p -, c?est-à-dire le fait de considérer un résultat expérimental comme statistiquement signifiant alors qu?il ne l?est pas) se porte bien. Le séquençage ADN est devenu très rapide. Les bases de données de protéines ont explosé en volume en 25 ans. Le coût pour les utiliser a chuté, les recherches ont explosé? Mais le nombre de nouveaux médicaments lui a périclité.

Plusieurs facteurs expliquent ce revirement de la loi du progrès. La première est que les choses les plus évidentes à découvrir ont été exploitées. La régulation est également devenue plus exigeante et la société moins tolérante aux risques. Mais le problème principal relève certainement des méthodes désormais employées. Historiquement, la découverte de médicament était le fait de petites équipes de chercheurs qui se concentrait intensément sur de petits groupes de molécules. Mais depuis 20 ans, ces processus ont été largement automatisés, sous la forme de ce qu?on appelle le HTS (High-throughput screening pour criblage à haut débit) qui consiste en des recherches automatisées de réactions potentielles via de vastes bibliothèques de composants. Le HTS a priorisé le volume sur la profondeur. Ce qui a marché dans d?autres industries a colonisé la recherche pharmaceutique : automatisation, systématisation et mesures? Certains commencent à douter de l?efficacité de ces méthodes et voudraient revenir à l?empirisme humain, au hasard, au bordel, au jeu? À nouveau, « la façon dont nous pensons le monde est façonnée par les outils à notre disposition ». Nos instruments déterminent ce qui peut être fait et donc, ce qui peut être pensé. À mesure que la science est de plus en plus technologisée, tous les domaines de la pensée humaine le sont à leur tour. Les vastes quantités de données ne nous aident qu?à voir les problèmes des vastes quantités de données.

Pris au piège de l’interconnexion

Les bourses et places de marchés d?antan ont été remplacées par des entrepôts, des data centers, anonymes, dans des banlieues d?affaires impersonnelles. La dérégulation et la numérisation ont transformé en profondeur les marchés financiers. La vitesse des échanges s?est accélérée avec la technologie. Les transactions à haute fréquence (HFT, High-frequency trading) reposent sur la latence et la visibilité. La latence, c?est-à-dire la rapidité d?échange où des millions peuvent s?échanger en quelques millisecondes et la visibilité (sauf pour les non-initiés), c?est-à-dire le fait que les échanges sont visibles de tous les participants, instantanément. Les échanges reposent sur des algorithmes capables de calculer des variations éclair et de masquer les mouvements de fonds. Les échanges sont plus opaques que jamais : ils s?imposent sur des forums privés, les « dark pools » (en 2015, la SEC, l’organisme américain de réglementation et de contrôle des marchés financiers, estimait que les échanges privés représentaient 1/5e du total des échanges)? Les échanges financiers ont été rendus obscurs et plus inégaux que jamais, rappelle Bridle. Dans son livre, Flash Boy, l’ancien investisseur Michael Lewis décrivait combien ces marchés étaient devenus un système de classe, un terrain de jeu accessible seulement à ceux qui ont les ressources pour y accéder. Le marché, qui était par nature public et démocratique, est devenu fermé et privé. Les constats de l’économiste Thomas Piketty dans Le Capital au XXIe siècle sur la montée des inégalités? montrent à leur tour combien l?idée de progrès s?est renversée. Les économistes ont longtemps défendu l?idée que la croissance réduisait les inégalités. Mais cela ne se fait pas automatiquement, tant s?en faut. Au contraire. Pour James Bridle, « La technologie est devenue un moteur des inégalités ».

L?automatisation rend les compétences humaines obsolètes et même ceux qui programment les machines ne sont pas épargnés. À mesure que les capacités des machines s?améliorent et s?élargissent, de plus en plus de professions sont assiégées. L?internet et les effets de réseaux renforcent encore ces effets en favorisant des places de marché où le plus fort l?emporte. Pour Bridle, l?une des clefs qui expliquent que les inégalités se renforcent avec la technologie est intrinsèquement liée à l?opacité des systèmes. Comme les robots des entrepôts d?Amazon et ses employés commandés par des commandes vocales émanant de robots, nous sommes en train d?arranger le monde pour rendre les machines toujours plus efficaces, quitte à ce que le monde devienne incompréhensible et inadapté aux humains. Les travailleurs deviennent le carburant des algorithmes, utiles seulement pour leurs capacités à se déplacer et à suivre des ordres. Pour Bridle, les startups et les Gafam signent le retour des barons voleurs, ces tyrans industriels du XIXe siècle. La technologie est venue couvrir d?un voile d?opacité la prédation : l?avidité s?est habillée de la logique inhumaine des machines. Amazon ou Uber cachent derrière des pixels lumineux un système d?exploitation sans faille. Leurs applications sont des télécommandes qui agissent sur des gens, dans le monde réel, avec des effets quasi impossibles à voir pour celui qui appuie sur le bouton. La technologie est mise au service des entreprises et du profit au détriment de tout autre intérêt, comme l?a montré le dieselgate. « L?histoire de l?automatisation n?est pas qu?une histoire de machines qui prennent le travail de travailleurs humains, c?est aussi et avant tout l?histoire d?une concentration du pouvoir en de moins en moins de mains, et une concentration de la compréhension du monde en de moins en moins de têtes. »

La complexité a ajouté un voile d?opacité supplémentaire. Désormais, les programmes de HFT scannent également l?information. En 2013, à 1:07 pm, le compte twitter officiel d?Associated press a été piraté par l?Armée électronique syrienne. Un tweet annonçant deux explosions à la maison blanche et le président Obama blessé a été envoyé à 2 millions d?abonnés. À 1:08 pm le Dow Jones a connu un flash crash : l?index a perdu 150 points avant même que la plupart des abonnés humains au compte d?AP n?aient vu le tweet.

L?interconnexion algorithmique du monde n?en est qu?à ses débuts, estime Bridle. Et les marchés ne sont pas le seul endroit où ces étranges cascades algorithmiques se déroulent. Sur des places de marchés de produits personnalisables, des algorithmes créent des milliers de produits automatiquement? à l’image de slogans pour tee-shirts insultants. Ces produits n?ont bien souvent jamais trouvé d?acheteurs. Ils n?existaient que virtuellement. Reste que ces programmes interreliés ne seront pas demain confinés aux marchés financiers et aux supermarchés en ligne, prédit Bridle. Ils vont entrer dans tous les pans de nos vies quotidiennes. Et générer de nombreux problèmes, à l?image de ceux relevés autour des serrures de portes électroniques ou des objets connectés.

À quoi va ressembler demain ? Epagogix est une startup qui analyse les scénarios de films pour prédire leur succès (selon des critères émotionnels et lucratifs, bien sûr). Ils extraient des données de Netflix, Hulu ou YouTube notamment et produisent des propositions pour alimenter les binge-watchers? alimentant leur propre paranoïa de blockbusters toujours plus semblables? Au risque de produire un sens toujours plus étroit, un monde toujours plus uniforme à mesure que la puissance computationnelle s?interrelie.

Pour la sociologue Deborah Cowen (@debcowen), nous sommes entrés dans la tyrannie de la techne explique-t-elle dans The Deadly Life of Logistics (2014) : l?efficacité est devenu primordiale sur tous les autres objectifs, sur toutes les autres valeurs…

L?étrangeté va-t-elle devenir ce qui ressemble le plus à l’intelligence ?

Comment une machine apprend-elle avec l?apprentissage automatisé ? Bridle rapporte une histoire pour en montrer les limites. Pour faire fonctionner un système de machine learning, il suffit de fournir à une machine des images. Sur certaines, on distingue un char d’assaut qu?elle doit apprendre à reconnaître. Sur d?autres, il n?y en a pas, et elle doit apprendre qu?il n?y en a pas en comparant ces images aux précédentes. La machine évalue les images selon de multiples couches, comme des angles de compréhension, mais sans avoir aucune compréhension de ce qu?elle analyse. Jusqu?à distinguer les images où il y a char de celles où il n?y en a pas. Vous contrôlez ensuite qu?elle a bien compris en lui fournissant des images sur lesquelles on trouve parfois des chars. Tout se passe bien, elle les reconnaît parfaitement ! Puis vous lui en fournissez encore d?autres, et là, la reconnaissance s?effondre d?un coup ! Que s?est-il passé ? En fait, la machine n?a pas appris à reconnaître les chars d?assaut. Elle a appris à reconnaître un autre élément qui était présent sur les images originelles et les suivantes, comme la présence du soleil du matin, c’est-à-dire le moment où la photo a été prise.

Pour Bridle, cette histoire est emblématique d?un problème majeur de l?Intelligence artificielle : le fait qu?elle soit fondamentalement différente et insondable. « Nous ne pouvons pas vraiment comprendre ce qu?elle produit, nous pouvons juste ajuster ses résultats ». À l?origine, rappelle-t-il, les premiers travaux sur les réseaux de neurones ont été développés avec le Perceptron mis au point par le laboratoire de recherche de la Navy américaine, conçu par le psychologue Frank Rosenblatt. L?idée originelle du Perceptron reposait sur le connectionnisme : la croyance que l?intelligence était une propriété émergente de la connexion entre les neurones. Cette vision a été attaquée par d?autres chercheurs qui pensaient plutôt que l?intelligence était le produit de la manipulation des symboles, nécessitant des connaissances du monde pour raisonner. Ce débat, entre ces deux courants de l?IA, n?a pas tant porté sur ce que signifiait être intelligent, mais sur ce qui était intelligible de l?intelligence. Il rappelle que l?un des avocats du connectionnisme était Friedrich Hayek, le père du néolibéralisme. Pour Bridle, le parallèle entre l?ordre néolibéral du monde (où un marché impartial règne en maître sur les passions humaines) et cette vision du fonctionnement du cerveau qui sépare le monde sensible de sa réalité est signifiant. Pour Hayek, la connaissance est dispersée et distribuée dans le cortex cérébral tout comme elle est distribuée sur le marché entre les individus. Aujourd?hui, le modèle connectionniste règne sur l?IA. Un ordre naturel du monde peut donc émerger spontanément quand les biais humains sont retirés de la production de connaissance. Mais ces affirmations ne sont pas sans poser problème?

La reconnaissance d?image ou de texte s?est imposé comme le premier terrain de jeu de l?IA, jusqu?à l?excès, à l?image des recherches menées par 2 chercheurs de Shanghai, Xiaolin Wu et Xi Zhang, qui ont entraîné un système pour inférer la criminalité depuis les traits du visage. Cette horrible phrénologie, qui marche dans les pas de Francis Galton et Cesare Lombroso, rappelle combien l’analyse de données est parfois assez proche des pires pseudosciences, comme le dénonçait Cathy O’Neil ? Autre exemple avec How-Old.net un outil de reconnaissance faciale qui tente de prédire l?âge d?une personne, et qui a été utilisée pour deviner l?âge de migrants arrivants au Royaume-Uni. Microsoft, qui a développé cette application, s?est défendu et a dénoncé cette utilisation… comme les 2 chercheurs chinois. Ceux-ci expliquaient néanmoins dans leur défense que leur système était « sans préjugé » (sic). Comme souvent, on nous explique que la technologie, et plus encore l?apprentissage automatisé, est neutre. Mais « la technologie n?émerge pas de nulle part. Elle est toujours la réification de croyances et de désirs, notamment de ses créateurs. Leurs biais sont encodés dans les machines et les bases de données ou les images que nous prenons du monde. »

Bridle nous rappelle l?histoire de Joz Wang, qui s?était rendu compte que son nouvel appareil photo ne reconnaissait pas ceux qui n?étaient pas blancs ou celle de la caméra d?un ordinateur HP qui ne faisait pas le point sur les visages noirs. Mais cela n?est pas propre aux développements les plus récents. Les artistes Adam Broomberg et Oliver Chanarin ont rappelé que des années 50 aux années 80, les pellicules argentiques de Kodak avaient déjà un problème avec les peaux sombres. Les créateurs de ces technologies n?ont pas créé volontairement des machines racistes, bien sûr, mais ces machines ont révélé les inégalités présentes dans notre société. Elles ont révélé que le préjudice racial était profondément encodé dans notre culture. Et tout ce qui en relève le révèle. « Nous ne résoudrons pas les problèmes du présent avec des outils du passé », conclut Bridle de ces exemples.

Pour l?artiste Trevor Paglen (@trevorpaglen), la montée de l?IA amplifie ces erreurs, car nous utilisons des données du passé pour l?entraîner. Bridle revient également sur l?origine des systèmes de police prédictive et leur liaison avec l?étude des tremblements de terre, qui tente de croire que la contagion du crime est semblable aux répliques sismiques.

Pour lui, le risque est que ces nouveaux modèles produits par les machines, leurs modalités de décision et les conséquences de ces décisions, nous restent incompréhensibles, car produites par des processus cognitifs trop différents des nôtres. Google Translate par exemple, de 2006 jusqu?en 2016 utilisait une technique d?inférence statistique du langage. Plutôt que d?essayer de comprendre comment les langues fonctionnent, le système fonctionnait depuis un vaste corpus de traductions existantes (provenant de traduction de réunions des Nations Unies et du Parlement européen notamment). Son rôle était d?enlever la compréhension de l?équation pour la remplacer par des corrélations basées sur des données. Comme le disait le spécialiste de ces questions chez IBM, Frederick Jelinek : « chaque fois que je vire un linguiste, la performance de mon système de reconnaissance du langage s?améliore ! ». En 2016, Google a commencé à déployer des réseaux de neurones pour faire fonctionner Google Translate, et la qualité des traductions a réellement progressé. Google Translate a développé sa propre carte de connexion entre les mots où les mots sont encodés par leur distance aux autres mots dans une grille de sens qui n’est compréhensible que par l?ordinateur. Cette carte multidimensionnelle suit tant de pistes différentes qu?un esprit humain ne pourrait pas la comprendre. L?apprentissage automatisé tire du sens d?un espace qui nous est invisible et intangible. Est-ce à dire que l?étrangeté est en passe de devenir ce qui nous semble le plus ressembler à l?intelligence ?

À l?époque de Deep Blue, c?est la force brute de l?ordinateur qui a permis de vaincre Kasparov : la capacité de la machine à évaluer des milliers de combinaisons provenant de millions de parties? Quand AlphaGo a vaincu Lee Sedol, la machine a été capable de faire des mouvements qui ont stupéfié l?assistance, car ils n?avaient jamais été faits. AlphaGo avait été également nourri de millions de parties jouées par des experts du Go, mais la machine avait également joué contre elle-même des millions de parties? Désormais les images de nos appareils photo sont capables de composer depuis des photos, des images qui n?existent pas en les recombinant. « Les algorithmes inventent une mémoire et des images qui n?ont jamais existé ». Les processus d?enregistrements que nous avons mis au point produisent des artefacts qui ne proviennent plus de l?expérience du monde, mais que nous ne pouvons plus distinguer de la réalité. Pour Bridle, le problème n?est pas tant que les machines puissent réécrire la réalité, mais que la réalité, le passé comme le futur, ne puissent plus être correctement racontés. DeepDream de Google illustre parfaitement cela. L?enjeu n?est pas pour nous de comprendre ce qu?est l?image, mais de nous demander ce que le réseau de neurones veut y voir ?

Pour Bridle, nous devrions ajouter une 4e loi aux trois lois de la robotique d?Asimov. Les machines intelligentes devraient être capables de s?expliquer aux humains. Ce devrait être une loi première, car éthique. Mais le fait que ce garde-fou ait déjà été brisé laisse peu d?espoir quant au fait que les autres règles le soient à leur tour. « Nous allons devoir affronter un monde où nous ne comprendrons plus nos propres créations et le résultat d?une telle opacité sera toujours et inévitablement violent ».

Pour Bridle, l?alliance entre l?humain et la machine peut encore fonctionner, comme l?a montré Garry Kasparov avec les échecs avancés, consistant à ce qu?une IA et qu?un humain jouent ensemble plutôt qu?ils ne s?affrontent. C?est dans la perspective d?associer les talents des humains et des machines, d?associer leurs différences d?une manière coopérative plutôt que compétitive que nous parviendrons à réduire l?opacité computationnelle. La perspective que l?intelligence des machines nous dépasse dans nombre de disciplines est une perspective destructrice. Nous devons trouver la voie d?une éthique de la coopération avec les machines, plutôt qu?un affrontement.

Surveillance : nous sommes devenus plus paranoïaques

Bridle s?en prend également longuement à la surveillance et notamment à la surveillance d?Etat pour souligner combien elle nous est masquée et continue à l?être, malgré les révélations d?Edward Snowden. Vous pouvez lire n?importe quel e-mail dans le monde d?une personne dont vous avez l?adresse. Vous pouvez regarder le trafic de tout site web. Vous pouvez suivre les mouvements de tout ordinateur portable à travers le monde. Pour Bridle, cela nous a montré qu?il n?y a pas de restriction possible à la capacité de surveillance du réseau. L?échelle et la taille de la surveillance a excédé ce que nous pensions comme étant techniquement possible. Les révélations sur la surveillance ont dépassé notre capacité à vouloir les ignorer. Pourtant, nous n?avons pas réagi. Nous sommes seulement devenus un peu plus paranoïaques. « Tout comme le changement climatique, la surveillance de masse était trop vaste et trop déstabilisatrice pour que la société jette sa tête dedans ». Si les gouvernements ont toujours espionné leur population comme leurs ennemis, leur capacité de surveillance a été radicalement transformée par la puissance de la technologie. La possibilité technique a nourri la nécessité politique. « La surveillance s?est développée parce qu?elle pouvait l?être, pas parce qu?elle est efficace et comme toute autre implémentation de système automatique, parce qu?elle altère la frontière de la responsabilité et permet de faire reposer les reproches sur la machine. » En 2016, le lanceur d?alerte William Binney témoignant devant une commission d?enquête du parlement britannique expliquait que les données collectées par les agences de renseignement étaient à 99 % inutiles. Le volume de données a depuis longtemps débordé l?analyse, rendant impossible le fait de trouver les données pertinentes pour résoudre les menaces spécifiques. Cet avertissement a souvent été répété, sans que ses implications ne soient suivies d?effets. Comme le disait le président Obama : trop d?intelligence est le problème. Notre problème n?est pas tant l?échec de la collecte de l?intelligence que l?échec à intégrer et comprendre l?intelligence que nous avons déjà. Plus d?information ne signifie pas plus de compréhension. Les caméras de surveillance comme la surveillance globale ne font que renforcer la paranoïa sans proposer de solutions pour la résoudre. Les deux sont rétroactives et vengeresses. Au mieux, elles ne servent à arrêter qu?une fois le crime commis, qu?une fois que l?événement est passé et n?aide pas à en comprendre les causes. La lumière permet aux gens de sentir en sécurité, mais ne les rend pas plus en sécurité. Pour Bridle, si la surveillance échoue, c?est aussi parce qu?elle repose et dépend d?images plus que de compréhension et qu?elle repose sur la croyance qu?il suffit d?une justification pour s’imposer.

En opposition au secret, nous demandons de la transparence, mais elle n?est peut-être pas le bon levier. La NSA et Wikileaks partagent la même vision du monde avec des finalités différentes, rappelle Bridle. Les deux pensent qu?il y a des secrets au coeur du monde qui, s?ils étaient connus, pourraient rendre le monde meilleur. Wikileaks veut la transparence pour tous. La NSA veut la transparence pour elle. Les deux fonctionnent sur une même vision du monde. Wikileaks ne voulait pas devenir le miroir de la NSA, mais voulait briser la machine de surveillance. En 2006, Assange a écrit « Conspiracy as Governance » (.pdf). Pour lui, tout système autoritaire repose sur des conspirations, car leur pouvoir repose sur le secret. Les leaks minent leur pouvoir, pas par ce qui fuite, mais parce que la peur et la paranoïa dégradent la capacité du système autoritaire à conspirer. Mais les fuites de données ne suffisent pas à remettre en cause ou à abattre l?autorité. Les révélations ne font pas bouger l?opinion, sinon, nous aurions réagi bien avant les révélations de Snowden. Tant que les organisations de surveillance ne changent pas de l?intérieur, ceux qui sont en dehors de ces organisations, comme les lanceurs d?alertes, n?ont pas de capacité d?action. Ils attendent que des fonctionnaires ou que la justice confirment ce qu?ils avancent. Tout comme la disponibilité de vaste capacité de calcul conduit au développement de la surveillance globale, cette logique induit et limite notre manière d?y répondre. La plus petite part d?incertitude l?emporte. La dépendance à la logique du calcul pour saisir la vérité du monde nous laisse dans une position fondamentalement et paradoxalement précaire. La connaissance requiert la surveillance. Mais toute connaissance est réduite alors à qui est connaissable par le calcul. Toute connaissance repose alors sur des formes de surveillance. La logique computationnelle nous refuse toute capacité à penser la situation et à agir rationnellement en absence de certitude. Elle ne permet qu?une action réactive, qui n?est possible seulement après qu?une quantité suffisante d?évidences ait été accumulée et empêche toute action présente, quand on en a le plus besoin. La surveillance et notre complicité sont l?une des caractéristiques les plus fondamentales du nouvel âge sombre, car elle repose sur une vision aveugle : tout est éclairé, mais rien n?est vu ! « Nous sommes désormais convaincu que jeter la lumière sur un sujet est la même chose que le penser et que d?avoir des moyens d?action sur lui ». Mais la lumière du calcul nous dépossède de pouvoir, car elle nous fait crouler sous l?information et nous donne un faux sens de la sécurité. C?est là encore une conséquence de la pensée computationnelle. « Notre vision est devenue universelle, mais notre capacité d?action, elle, s?est réduite plus que jamais. » A l?image du réchauffement climatique, à nouveau, « nous savons de plus en plus de choses sur le monde, mais nous sommes de moins en moins capable d?agir sur lui ». Au final, nous nous sentons plus démunis que jamais. Plutôt que de reconsidérer nos hypothèses, nous nous enfonçons dans la paranoïa et la désintégration sociale.

De l?incompréhension entre les hommes quand les machines régulent leurs relations

Le monde est devenu trop complexe pour des histoires simples. En fait, « la démultiplication de l?information ne produit pas plus de clarté, mais plus de confusion ». L?un des symptômes de la paranoïa consiste à croire que quelqu?un vous surveille. Mais cette croyance est désormais devenue raisonnable, s?amuse Bridle en évoquant la surveillance d?Etat comme la surveillance des services numériques. Nous sommes entièrement sous contrôle, tant et si bien qu?on peut se demander qui est paranoïaque désormais ? Bridle évoque les chemtrails, cette croyance, très populaire sur le net, qui pense que les avions sont utilisés pour contrôler l?atmosphère ou les esprits via des diffuseurs chimiques. Dans notre monde hyperconnecté, des schismes émergent de nos modes de perception de masse. « Nous regardons tous les mêmes cieux, mais nous y voyons des choses différentes ». Et certains y voient une conspiration globale pour contrôler les cerveaux ou pour transformer le climat à des fins néfastes. Si les chemtrails peuvent paraître être un folklore du réseau, force est de constater qu?il s?est répandu. Des questions à ce sujet sont adressées aux Parlements, aux organisations scientifiques, aux médias? Ceux qui adhèrent à ces théories sont multiples et celles-ci ne sont d?ailleurs pas uniques, mais plutôt fractales, multifacettes. Les chemtrails sont même devenus le vortex de bien d?autres théories conspirationnistes. Le journaliste Carey Dunne en a même fait le récit. À nouveau, Bridle détaille l?entremêlement entre la vérité et la désinformation. Il souligne qu?en 2017 par exemple, la dernière édition de l?Atlas des nuages international publié par l?organisation météorologique mondiale a ajouté une nouvelle classification à sa liste officielle de nuages : l?homogenitus, plusieurs formes de nuages qui se forment et se développent à la suite de l?activité humaine. Des nuages anthropocéniques en quelque sorte. Effectivement, rappelle-t-il, la combustion du kérosène dans les moteurs d?avions produit de la vapeur d?eau et du dioxyde de carbone. La vapeur d?eau se transforme en petite goutte d?eau et en cristaux de glace. À haute altitude, avec les impuretés du kérosène, des nuages se forment sur le passage des avions. Ce sont les Cirrus Homogenitus, les « Contrails », les traînées de condensation, qui sont effectivement les résultats de l?action humaine. Ils sont le signe visible de ce que rejettent les moteurs d?avions d?une manière invisible. On estime d?ailleurs qu?ils peuvent affecter le climat, notamment quand ils persistent, pas tant par leur composition chimique que par l?opacité nuageuse qui affecte l?atmosphère?

Avant on lisait l?avenir dans les haruspices et le vol des oiseaux. Désormais, on les traque en ligne, cherchant des traces de modification du monde dans ce qu?on enregistre dans l?informatique en nuage. Nombre de théories conspirationnistes reposent sur des formes de connaissance folkloriques, produites par des gens qui ne savent pas articuler les formes scientifiques qu?ils peuvent recouvrir de manière acceptable. Les Inuits ont depuis longtemps une connaissance du changement climatique qu?ils décrivent par des changements d?alignement d?étoiles, par des changements dans les vents, par les modifications des parcours des animaux? ou de luminosité de la neige… et par un ensemble de connaissance qui n?ont pas eu de reconnaissance scientifique directe avant que d’autres indices, plus scientifiques, ne les éclaire.

« Les théories conspirationnistes sont le dernier ressort des sans pouvoirs, imaginant ce que serait que d?être puissant », avance Bridle. Pour le spécialiste de la postmodernité, Frederic Jameson, les théories conspirationnistes sont « la cartographie cognitive des plus démunis dans un âge postmoderne ». C?est la figure dégradée de la logique par ceux qui ont le moins de capital culturel, une tentative désespérée de se représenter un système qu?ils ne comprennent pas. Encerclé par l?évidence de la complexité, l?individu a recours à un récit simpliste pour tenter de regagner un peu de contrôle sur la situation. À mesure que la technologie augmente et accélère le monde, celui-ci devient plus complexe. Les théories conspirationnistes deviennent alors des réponses, étranges, intriquées et violentes, pour s?en accommoder.

Avec la désinformation et les fakes news, la paranoïa de notre monde est devenue mainstream. Les nuages faits par l?homme n?ont plus besoin d?être plantés dans l?atmosphère : ils sont insérés comme du code dans les réseaux d?information et transforment notre perception du monde. Pour Bridle, les réseaux ont changé la manière dont nous formons notre culture.

Bridle rappelle que le premier cas documenté de schizophrénie paranoïaque a été celui de James Tilly Matthews en 1796 qui accusait le parlement britannique de l?avoir soumis à une machine faite de pompe hydraulique et de systèmes magnétiques pour contrôler son esprit. Or rappelle Bridle, à la même époque Lavoisier et Priestley, avaient créés une nouvelle compréhension du monde physique en expliquant les éléments. Les disputes scientifiques étaient très relayées dans les débats. James Matthews semble en avoir tiré sa propre interprétation pour en produire une conspiration. Il en est souvent ainsi. La complexité technique produit ses propres interprétations. Le nombre de gens qui consultent des forums sur la prise de contrôle de l?esprit est plus nombreux que ceux qui reçoivent un traitement pour se guérir de cette paranoïa. Entre le délire et la sous-culture, il y a une différence parfois imperceptible. Toute opposition à ces croyances peut être rejetée comme un moyen de dissimuler la vérité que ces gens expriment ou ressentent. Les microcommunautés conspirationnistes se cooptent, créent leur dynamique, qui se supportent mutuellement et se soutiennent. Ils créent des espaces où leur vision, leur compréhension du monde, leur croyance sont validées et mises en valeur. Ces groupes qui autorenforcent leurs croyances semblent être une caractéristique de la nouvelle obscurité. Notre capacité à décrire le monde résulte des outils que nous avons à notre disposition, et nous avons construit des outils qui renforcent encore ces effets : « un populisme automatisé », qui donne aux gens ce qu?ils veulent dès qu?ils le souhaitent.

Ainsi, si vous cherchez de l?information sur les vaccins, vous tomberez invariablement sur de l?information contre les vaccins. Si vous cherchez de l’information sur la rotondité de la terre, vous tomberez inexorablement sur ceux qui pensent qu’elle est plate. Ces opinions divergentes semblent devenir la majorité tant elles sont exprimées et répétées avec force. « Ce qui se passe quand vous désirez en savoir de plus en plus sur le monde entre en collision avec un système qui va continuer à assortir ses réponses à n?importe quelle question, sans résolution ». Vous trouverez toujours quelqu?un pour rejoindre vos points de vue. Et toujours un flux pour les valider. Voici l’âge de la radicalisation algorithmique (à l’image de ce que disait Zeynep Tufekci de YouTube). Les théories conspirationnistes sont devenues la narration dominante. Elles expliquent tout. Dans la zone grise des connaissances, tout prend un sens. Les multiples explications que notre cognition limitée utilise fonctionnent comme un masque sur les demi-vérités du monde. La zone grise permet toutes les approximations et nous empêche, assez confortablement, d?agir avec sens dans le présent.

Coincés dans la boucle algorithmique

Les vidéos de déballage de paquets cadeaux connaissent un énorme succès sur l?internet. Sur YouTube, vous pouvez passer des heures à en visionner. Certaines ont déjà été vues par des millions de personnes. Ryan?s Toy Review, spécialisé dans l?ouverture de jouets, est l?une des 6 chaînes les plus populaires de YouTube ! On peut se perdre à regarder ces gens surpris : notre désir à les regarder peut-être alimenté en boucle et sans fin par les systèmes de recommandation algorithmique. Dans son livre, Bridle revient sur la dénonciation des vidéos automatisés pour enfants que l?on trouve sur YouTube et contre lesquels il s?était élevé il y a quelques mois (voir l’article originel). Sur YouTube, ni les algorithmes ni l?audience ne se préoccupent du sens. Tout l?enjeu de la recommandation est de vous montrer le plus de vidéos possibles et de préférence celles qui devraient le plus vous plaire – parce qu’elles ont plu au plus grand nombre.

Le problème de cette recommandation automatisée est de fonctionner sur des rapprochements sans signification. Les contenus de confiance, comme ceux produits par des marques ou chaînes officielles, conduisent, via les recommandations automatiques, à des contenus similaires, mais qui ne leur ressemble en rien. C?est le même processus qui est à l?oeuvre sur FB ou Google : le contenu est rapproché de contenus similaires ou proches, mais cette proximité n?est pas de sens, mais est faite de mots clés, d’audiences… Les contenus inappropriés se mêlent ainsi à tous les autres. Peppa Pig, la reine des neiges ou Bob l’éponge mènent à tous les contenus qui en parlent? D?une information médicale sur l?apport de la vaccination vous glissez vers une information contre la vaccination. Les contenus sont agencés en flux sans fin et sans sens par l?automatisation algorithmique et sémantique. Des vidéos sont créés automatiquement par des logiciels pour bénéficier de l?audience des contenus les plus vus. Des bots exploitent les systèmes d?apprentissage automatisés de YouTube en en faisant bénéficier YouTube, permettant de générer plus d?exposition publicitaire et plus de revenus. La complicité de YouTube aux failles de son exploitation est totale, pointe Bridle. Le problème, c?est que des enfants voient les vidéos totalement absurdes générées par des programmes automatisés pour bénéficier des mouvements d?audience de la plateforme, à l?image de chaînes comme Bounce Patrol ou Video Gyan. C?est une conséquence logique de l?automatisation, comme les caméras racistes ou les produits insultants vendus sur Amazon. Ces produits algorithmiques sont parfaitement adaptés aux algorithmes et à la boucle de revenus qui leur profite autant à eux qu?aux plateformes qui les accueillent.

Bridle souligne que ce n?est pas que des trolls qui tentent de profiter d?un système ou qu?une conséquence de l?automatisation? « C?est une vaste – et complètement cachée – matrice d?interactions entre des désirs et des récompenses, des technologies et leurs audiences, des tropes et des masques ». Des technologies peu maîtrisées sont mises au service d?une production industrialisée cauchemardesque. Les failles des algorithmes sont les dernières failles du capitalisme où certains s?infiltrent non pas pour le renverser, mais pour tenter de gratter un peu d?argent que les plus gros systèmes s?accaparent. Au final, des vidéos automatisées finissent par être vues par des enfants. Leurs personnages préférés y font n?importe quoi, parfois suggèrent des scènes de meurtre ou de viols. Ces effets de réseaux causent des problèmes réels. Les algorithmes de YouTube ont besoin d?exploitation pour produire leurs revenus. Derrière leurs aspects séduisants, ils encodent les pires aspects du marché, notamment l?avidité. « La capacité à exploiter l?autre est encodée dans les systèmes que nous construisons », pointe très justement James Bridle, puisque leur efficacité repose sur leur capacité à extraire de l?argent de nos comportements. Contrairement à ce qu?on croyait, à l’avenir, les IA et les robots ne vont pas tant dominer les usines et nos lieux de travail, mais vont dominer et exploiter nos salles de jeux, nos salons, nos maisons? À défaut d’une solution, Google annonçait en avril que l’application YouTube Kids allait devenir « non-algorithmique »… À croire, comme le pointait très justement le chercheur Olivier Ertzscheid, que l’algorithimsation n’est pas une solution sans limites.

Pour Bridle, les humains sont dégradés des deux côtés de l’équation : à la fois dans l?exploitation qui est faite de leur attention et à la fois dans l?exploitation de leur travail. Ces nouvelles formes de violence sont inhérentes aux systèmes numériques et à leur motivation capitaliste. Le système favorise l?abus et ceux qui le produisent sont complices, accuse-t-il. L?architecture qu?ils ont construite pour extraire le maximum de revenus des vidéos en ligne a été hackée par d?autres systèmes pour abuser d?enfants à une échelle massive. Les propriétaires de ces plateformes ont une responsabilité forte dans l?exploitation qu?ils ont mise en place. « C?est profondément un âge sombre quand les structures qu?on a construites pour étendre la sphère de communications sont utilisées contre nous d?une manière systématique et automatique. »

La crise de cette production de vidéo automatisé que YouTube ne parvient pas à endiguer, comme la crise des effets de l?automatisation que l?on croise de partout, de Google à FB, reflète bien sûr une crise cognitive plus large qui est la conséquence même de nos rapports à ces systèmes automatisés. « Sur les réseaux sociaux, toutes les sources ont l?air d?être les mêmes, les titres qui nous poussent à cliquer combinées avec nos biais cognitifs agissent de la même façon que les algorithmes de YouTube. » Pour Bridle, les fausses nouvelles ne sont pas le produit de l?internet. Elles sont le produit de la cupidité et de la démocratisation de la propagande où tout a chacun peut devenir un propagandiste. Elles sont un amplificateur de la division qui existe déjà dans la société, comme les sites conspirationnistes amplifient la schizophrénie. La confusion est l?ami des charlatans. Le bruit leur accessoire. Selon un rapport britannique réalisé un an après le Breixit, plus de 13 000 comptes automatisés ont été identifiés. S?ils tweetaient pour et contre le Brexit, ils étaient 8 fois plus nombreux à soutenir le départ du Royaume-Uni que le contraire. Sur ces 13 000 comptes effacés par Twitter après le référendum, l?origine de la plupart est restée inconnue. 1/5 e des débats en ligne autour de l?élection américaine de 2016 était automatisée. Pour Bridle, quelque chose ne va plus quand ceux qui participent du débat démocratique n?ont pas à répondre de ce qu?ils font, restent intraçables? Leurs motivations et leur origine demeurent complètement opaques, quand bien même leurs effets sont réels.

Et les bots se démultiplient? Nous discutons désormais avec des logiciels. On nous invite à nous socialiser avec des systèmes où il devient de plus en plus impossible de socialiser. Bridle souligne que quand il a publié ses recherches sur les vidéos pour enfants automatisés, il a reçu des milliers de messages de gens qui semblaient savoir d?où provenaient ces vidéos. Les spéculations et explications partaient dans tous les sens. Mais ce qu?il y a de commun avec le Brexit, les élections américaines ou les profondeurs de YouTube, c?est que malgré tous les soupçons, il reste impossible de savoir qui fait ça, qu?elles sont leurs motivations, leurs intentions. On peut regarder sans fin ces flux vidéos, on peut parcourir sans fin les murs de mises à jour de statuts ou de tweets? cela ne permet pas de discerner clairement ce qui est généré algorithmiquement ou ce qui est construit délibérément et soigneusement pour générer des revenus publicitaires. On ne peut pas discerner clairement la fiction paranoïaque, l?action d?États, la propagande du spam? Ces confusions servent les manipulateurs quels qu?ils soient bien sûr, mais cela les dépasse aussi. C?est la manière dont le monde est. Personne ne semble réellement décider de son évolution? « Personne ne veut d?un âge sombre, mais nous le construisons quand même et nous allons devoir y vivre. »

De la violence

Pour Eric Schmidt, ancien CEO de Google, rendre les choses visibles les rend meilleurs et la technologie est l?outil qui permet de rendre les choses visibles. Ce point de vue désormais domine, mais il est non seulement faux, il est activement dangereux, estime Bridle. Pour Smith, si chaque habitant du Rwanda avait eu un Smartphone en 1994, le massacre aurait été impossible. Pourtant, Bridle rappelle que nous étions alertés bien avant ce génocide des risques qui pesaient sur la région. Comme on l?a vu, la surveillance ne permet pas d?agir rétroactivement, pas plus que d?agir au moment présent, elle permet seulement de constater ce qu?il s?est passé. « Le problème n?est pas ce que l?on sait, mais ce que l?on fait ». Pire, pour les chercheurs Jan Pierskalla et Florian Hollenbach, en Afrique en tout cas, l?accroissement de la couverture téléphonique est plutôt lié à de plus hauts niveaux de violence. Ni les images satellites ni les smartphones ne créent de la violence bien sûr. Mais le fait de croire que la technologie est neutre nous maintient dans l?erreur. « L?information est complètement et inextricablement liée à la violence, et l?armement de l?information est accéléré par les technologies qui prétendent renforcer le contrôle sur le monde ».

Si « les données sont le nouvel or noir » (comme l’estimait Clive Humby, un mathématicien britannique en 2006, architecte du programme de fidélité de Tesco), cette comparaison pourrait être acceptable parce que la donnée ne peut pas être utilisée sans être raffinée. Le pétrole doit être transformé pour créer de la valeur, tout comme la donnée doit être analysée. Mais l?analogie de l?exploitation est devenue celle de la spéculation. La donnée est devenue l?or noir sur laquelle tout le monde spécule. Notre soif de données comme notre soit de pétrole est et demeure impérialiste et colonialiste et profondément imbriquée dans l?exploitation capitaliste. La donnée est utilisée pour classer les sujets de l?intention impérialiste, tout comme les sujets des empires étaient forcés à suivre les règles de leurs maîtres. Les Empires d?antan ont transformé leur territoire pour continuer leurs opérations à un niveau infrastructurel. Ils maintiennent leur pouvoir dans les réseaux. Les régimes conduits par les données répètent les politiques racistes, sexistes et oppressives de leurs prédécesseurs parce que leurs biais ont été encodés à leurs racines. L?extraction et le raffinage du pétrole polluent l?air et le sol, tout comme l?extraction et le traitement des données polluent et empoisonnent nos relations sociales. Ils imposent la pensée computationnelle entre nous, renforcent la division de la société du fait de classification bâtarde, du populisme et accélèrent les inégalités. Les données soutiennent et nourrissent des relations de pouvoirs inégalitaires : dans la plupart de nos interactions, la donnée est quelque chose qui semble librement donné, mais qui est en fait extraite sous la contrainte, sans notre consentement explicite. L?extraction est opérée par certains au détriment du plus grand nombre. Et l?exploitation des données risque de continuer indéfiniment, quels que soient les dommages qu?elle cause.

Exploiter plus de données pour construire de meilleurs systèmes est une erreur. Cette méthode ne parviendra pas à prendre en compte la complexité humaine ni à la résoudre. Le développement de l?information n?a pas conduit à une meilleure compréhension du monde, mais au développement de points de vue alternatifs et concurrents. Nous devons changer nos façons de penser comme nous y invitait Lovecraft. Nous ne survivrons pas plus à l?information brute qu?à la bombe atomique. Le nouvel âge sombre est un lieu où le futur devient radicalement incertain et où le passé devient irrévocablement contesté. Mais c?est le présent dans lequel nous devons vivre et penser. Nous ne sommes pas sans pouvoir ni capacités. Mais pour cela nous devons nous défaire des promesses illusoires de la pensée computationnelle. Penser le monde autre, c’est ce à quoi nous invite James Bridle dans le nouvel âge sombre.

*

Ce compte-rendu de lecture excessif, exhaustif, (trop) complet? se veut le reflet de l’importance qu’il me semble devoir apporter à ce livre. James Bridle ne simplifie rien. Il malaxe une pensée complexe, retors. On ne peut pas la réduire à une technocritique facile, peu instruite ou peu informée, comme c?est souvent le cas de gens qui ne sont pas très spécialistes de ces sujets, qui font des raccourcis rapides pour rejeter toute faute sur l?internet ou sur le monde contemporain. Au contraire même. Brille déroule une pensée complexe. Il appuie bien souvent exactement là où la société augmentée du numérique irrite.

Reste à savoir si cet âge sombre des technologies est vraiment notre avenir. L?âge sombre du Moyen Âge n?a jamais vraiment existé ailleurs que dans les lacunes des historiens. On peut douter également de cette nouvelle obscurité ou regretter le titre faussement prophétique. Reste que la complexité et l?intrication du monde que décrit James Bridle, montrent combien il nous faut, plus que jamais, nous défaire justement d?une vision simple et manichéenne de la technologie.

On voudrait que les points que soulève Bridle ne soient pas aussi convaincants. On voudrait qu?il se trompe. On voudrait croire que contrairement à ce qu?il avance, les biais de nos systèmes soient réparables. Qu?on puisse y faire quelque chose. Mais pour cela, il a au moins raison quelque part. Il va nous falloir abandonner notre foi dans la technologie. La limiter. Décider de là où elle est nécessaire ou utile pour agir et de là où nous devons nous en passer. De la limiter. De l?utiliser autrement. Nous risquons bien d?y être contraints par le déchainement du monde et l?épuisement des ressources. Et pour cela, nous devons certainement apprendre à découpler la technologie des intérêts qu’elle sert.

Hubert Guillaud

  • A bientôt !

L’internet aussi prend parfois des vacances. Toutes les équipes d’InternetActu et de la Fing vous souhaitent une bonne déconnexion estivale. Vous allez pouvoir redécouvrir les vertus d’une activité normale, sans trop de technologies.

L’internet aussi prend parfois des vacances. Toutes les équipes d’InternetActu et de la Fing vous souhaitent une bonne déconnexion estivale. Vous allez pouvoir redécouvrir les vertus d’une activité normale, sans trop de technologies.

  • Concrètement, comment rendre les algorithmes responsables et équitables ?

Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d’apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l’AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions ». La (...)

Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d’apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l’AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions ». La question à laquelle sont confrontés les ingénieurs consiste à trouver les modalités pour rendre les systèmes techniques plus responsables, plus équitables. Les initiatives en ce sens se multiplient : en mai, le conseil municipal de New York, sous la responsabilité de Carmelyn Malalis, responsable de la Commission sur les droits de l’homme de la ville, a adopté un projet de loi et lancé un groupe de travail sur les biais algorithmiques, rapporte Nature en évoquant également les promesses du président français de rendre le code des algorithmes publics ouvert, ou les appels du gouvernement britannique à rendre les données utilisées par les services publics transparents et responsables, en se dotant d’un cadre éthique des données. Ce cadre éthique rappelle quelques grandes évidences, comme inviter les concepteurs à être clairs sur leurs objectifs, à utiliser les données d’une manière proportionnée aux besoins en cherchant à les minimiser, à en comprendre les limites et à avoir une approche responsable… et complète les principes émis par le Nesta pour améliorer la prise de décision algorithmique . Mais rendre les algorithmes équitables, responsables et efficaces n’est pas si simple. Ces questions ne sont pas nouvelles, rappelle l’article de Nature, mais à mesure que de grands ensembles de données et des modèles plus complexes se répandent, « il devient de plus en plus difficile d’ignorer leurs implications éthiques », explique le spécialiste de la justiciabilité des algorithmes Suresh Venkatasubramanian (@geomblog, blog).

L’article de Nature revient bien sûr sur la difficulté à créer des services algorithmiques responsables en évoquant notamment l’outil de prédiction du risque de maltraitance et d’agression d’enfants développés par le bureau de l’enfance, de la jeunesse et des familles du comté d’Allegheny en Pennsylvanie, qu’avait étrillé le livre de Virginia Eubanks, dont nous avions rendu compte ou les limites des logiciels de police prédictive (dont nous avons également déjà beaucoup parlé). Et rappelle la difficulté à définir mathématiquement l’équité, comme l’a souligné l’informaticien Arvind Narayanan (@random_walker) lors de la dernière édition de la conférence FAT (la conférence annuelle sur l’équité, la responsabilité et la transparence). Outre les biais et déséquilibres statistiques, rappelle David Robinson (@drobinsonian), responsable des associations EqualFuture et Upturn (et qui a notamment publié un rapport sur la question de l’examen public des décisions automatisées (.pdf)), leur impact dépend surtout de la manière dont sont utilisés ces systèmes, avec le risque, que pointait Eubanks, que les plus discriminés soient encore plus surveillés par ces systèmes.

Page d'accueil de l'AI Now Institude

Comment traquer les biais ?

Pour remédier à ces problèmes, beaucoup d’agences américaines ont recours à des chercheurs extérieurs pour déjouer les biais de leurs systèmes. En avril, l’AI Now Institute a défini un cadre (voir le rapport (.pdf)) pour les organismes publics qui souhaitent mettre en place des outils de prise de décision algorithmique, recommandant notamment de mettre à contribution la communauté de la recherche et de permettre à ceux que le système calcul de faire appel des décisions prises à leur sujet. Ce travail d’évaluation de l’impact algorithmique rappelle que les systèmes de décision automatisés sont déjà nombreux. L’initiative AI Now a appelé à la fin de l’utilisation de systèmes opaques pour les décisions publiques, afin d’assurer l’équité et la régularité des procédures et se prémunir contre la discrimination. Leurs recommandations invitent les systèmes à respecter le droit d’information du public, à recourir à des examens par des chercheurs indépendants, à améliorer l’expertise des organismes qui les conçoivent et à développer des modalités pour permettre au public de contester les décisions prises. L’initiative recommande aux agences publiques de répertorier et décrire les systèmes de décision automatisés, y compris d’évaluer leur portée et impact. Elle recommande également de mettre en place des modalités d’accès afin que des chercheurs, des experts indépendants, des associations ou des journalistes puissent accéder et évaluer ces systèmes et pour cela doivent s’assurer notamment que leurs fournisseurs privés de systèmes acceptent ces vérifications. Elle souligne également que les agences doivent monter en compétences pour être expertes des systèmes qu’elles mettent en place, notamment pour mieux informer le public, et invite les fournisseurs de solutions à privilégier l’équité, la responsabilité et la transparence dans leurs offres. Cela permettrait également aux organismes publics de développer des procédures de médiation, d’appel ou de réfutation des décisions prises. Obliger les systèmes à publier des analyses d’impact de leurs outils de décision automatisé pourrait enfin permettre au public d’évaluer les outils et la transparence des services.

La question de la mesure d’impact avait déjà été pointée par le travail original de Nicholas Diakopoulos (@ndiakopoulos) et Sorelle Friedler (@kdphd) pour Data & Society réalisé en 2016 dont nous avions rendu compte. Le rapport de l’AI Now Institute a depuis tenté de compléter la proposition, mais il demeure difficile de saisir, pratiquement, à quoi pourrait ressembler une déclaration d’impact. Pour cela, le chercheur Andrew Selbst (@aselbst) recommande, dans un de ses articles, de s’inspirer des études d’impact environnementales (voir également les explications sur le site du Ministère de la transition écologique et solidaire), afin de faire établir un rapport sur l’efficacité et le caractère discriminatoire des systèmes automatisés, qui seraient soumis à évaluation publique (ou qui pourrait fonctionner sur le modèle des Analyses d’impact relatives à la protection des données de la Cnil). Bien sûr, Andrew Selbst n’en est pas moins critique sur les études d’impact. Dans le cadre environnemental, ces études s’avèrent longues, coûteuses (jargonneuses) et pas toujours très utiles. Cependant, elles permettent de responsabiliser le producteur de traitement automatisé, d’explorer des alternatives argumentées (et donc de mieux comprendre les options choisies comme celles rejetées) et de mieux expliciter les conséquences des systèmes.

Matrice de déclaration d'impact relative à la protection des données par la CNIL

Mais ce n’est pas la seule piste qui permettrait d’interroger les biais des systèmes automatisés. Microsoft travaille à un outil de détection automatique des biais, Facebook également (notamment via le projet Fairness Flow annoncé par Isabel Kloumann du département d’IA de FB research à la dernière conférence de F8 Conference parmi une longue liste d’outils pour l’IA) rapporte la Technology Review. Accenture a également lancé un outil de ce type. D’autres chercheurs, comme Christo Wilson (@bowlinearl), travaillent à construire des outils pour simuler des systèmes afin d’en découvrir les biais, via des formes de rétro-ingénierie très convaincantes, à l’image de ce qu’il a construit pour comprendre l’algorithme de tarification d’Uber ou du travail réalisé pour comprendre les biais de genre des moteurs de recherche d’emplois. Wilson est notamment responsable d’un groupe de recherche sur l’audit algorithmique créé par le collège d’informatique de l’université Northeastern. En mai, Rayid Ghani (@rayidghani), directeur du Centre pour la Science des données et les politiques publiques de l’université de Chicago a lancé un logiciel open source, Aequitas, pour aider les ingénieurs à auditer leurs modèles.

L'arbre de décision équitable d'Aequitas

La mathématicienne Cathy O’Neil (@mathbabedotorg, blog), qui s’est fait connaître en dénonçant les dangers de ces outils, a lancé une entreprise d’audit algorithmique. Visiblement, souligne Wired, ses premiers clients sont des entreprises qui ont besoin de certifier qu’elles sont équitables : comme cela a été le cas de Rentlogic, une entreprise qui évalue les immeubles automatiquement pour leur attribuer une note, ou comme Pymetrics, une entreprise qui utilise des tests de personnalité pour aider les entreprises à embaucher qui avait besoin d’assurer que ses logiciels n’étaient pas discriminants. L’article de Wired rappelle que s’il n’existe pas de protocole standard pour ces audits réalisés par des entreprises indépendantes, ceux-ci sont rarement altruistes. « Les entreprises peuvent avoir à prouver aux régulateurs que leur technologie ne discrimine pas une catégorie de personnes protégée. Pour d’autres, un audit pourrait empêcher de futurs litiges. Pour d’autres encore, recevoir un sceau d’approbation de la part d’un tiers est un outil marketing, suggérant aux clients potentiels qu’ils peuvent avoir confiance… Quelle que soit la raison, de plus en plus d’entreprises se soumettent à des audits externes, signe qu’ils peuvent devenir la norme ». Mais si l’audit est une pratique courante, ce n’est pas encore le cas de l’audit des systèmes algorithmiques.

Tant et si bien que certains chercheurs et activistes en appellent à un moratoire à l’utilisation d’algorithmes dans certains domaines, comme la justice pénale, à l’exemple du Centre sur la race, l’inégalité et la loi de l’école de droit de l’université de New York.

Comment passer des serments éthiques à leur implémentation concrète ?

Autre réponse aux difficultés actuelles, ces derniers temps, la publication de déclarations éthiques a connu une rare inflation. Google a notamment proposé des objectifs et principes très généraux pour cadrer ses développements en intelligence artificielle. Dans son livre, Weapons of Math Destruction, Cathy O’Neil avait émis l’idée de créer un serment d’Hippocrate pour les datascientists, sous la forme d’un code de conduite édictant quelques principes moraux. Elle soulignait dans une remarquable interview pour Wired, que ce code de conduite n’était certes pas suffisant en soi, notamment parce que les datascientists ne sont pas seuls à décider de ce qui sera implémenté dans les services développés par les entreprises. Pour autant, ces techniciens ne peuvent pas seulement suivre « les recommandations des manuels d’optimisation qu’ils utilisent, sans tenir compte des conséquences plus larges de leur travail ». Cathy O’Neil a proposé une matrice éthique, basée sur les travaux du philosophe Ben Mepham qui l’a utilisé en bioéthique, qui aide à saisir ce sur quoi ce que l’on développe a un impact, et de l’autre ce dont s’inquiète les gens qui sont impactés par ce que l’on développe. Cette grille confronte quelques notions (exactitude, cohérence, partialité, transparence, équité, rapidité) à leur impact sur chacune des parties prenantes. La matrice sert à créer une conversation. Chaque case propose des questions : « qui souffre si le système se trompe ? » Le but est de révéler des problèmes. Quand la réponse pose problème, la case est colorée de rouge.

La matrice éthique de Cathy O'Neil
Image : la matrice éthique de Cathy O’Neil, présentée sur la scène de la Now You Know Conference de mai 2018 à Chicago via Giles Palmer.

Elle propose également de se poser plusieurs questions, comme « les algorithmes que nous déployons vont-ils améliorer les processus humains qu’ils remplacent ? » Bien souvent, on constate qu’ils fonctionnent beaucoup plus mal que les systèmes précédents. Pour elle, il est également nécessaire de se demander : « pour qui l’algorithme échoue-t-il ? » Un système de reconnaissance facial échoue-t-il plus souvent pour les femmes que pour les hommes, pour les gens de couleurs que pour les blancs, pour les personnes âgées que pour les jeunes ?… Enfin, elle invite à se poser une troisième catégorie de questions : « est-ce que cela fonctionne pour la société (donc à très large échelle) ? Est-ce que nous enregistrons les erreurs du système ? Peut-on les réintroduire dans l’algorithme pour l’améliorer ? Est-ce que le système a des conséquences non intentionnelles ?… » Et la chercheuse de rappeler qu’aucunes de ces questions ne mettent en danger les secrets des algorithmes que les entreprises veulent protéger. Même sur la question de l’audit des algorithmes, explique-t-elle, elles n’ont pas nécessairement besoin de dévoiler leurs algorithmes magiques. Il suffirait d’effectuer des tests avec des données pas nécessairement d’avoir accès au code source de leurs systèmes.

Pour l’instant, Cathy O’Neil a refusé de signer les serments d’Hippocrate pour les datascientists qui lui ont été soumis. Pour elle, trop souvent, ils n’insistent pas assez sur la responsabilité du datascientist.

Bon, cela n’a pas refroidi les initiatives. En février, Tom Simonite pour Wired rapportait les échanges qui avaient lieu lors de la conférence Data For Good Exchange, organisée par DJ Patil, l’ancien datascientist de l’administration Obama, et qui avaient donné lieu à une première liste de principes éthiques (qui a visiblement abouti depuis à ce code de conduite sur l’éthique des pratiques des données). Un des participants est demeuré sceptique : « Le projet de serment ressemble à une liste de principes généraux avec lesquels personne ne serait en désaccord ». Simonite souligne que le milieu ne dispose ni d’autorité ni de législation pour faire respecter des règles de pratique de toute façon. Et si les formations de datascientist se multiplient, nombre de ceux qui font ce travail sont des autodidactes. Dans son long rapport sur l’IA et la société, Microsoft estime que des principes de base pourraient être utiles. « Mais le président de Microsoft, Brad Smith, suggère que l’entreprise ne s’attend pas à ce que les clients qui construisent des systèmes d’intelligence artificielle en utilisant les services d’informatique en nuage de Microsoft répondent nécessairement aux mêmes normes. »

Code de conduite sur l'éthique des données

Le militant pour la protection de la vie privée Aral Balkan (@aral) estime qu’un code d’éthique risque surtout d’être utilisé comme caution de vertu par les entreprises pour continuer à faire comme d’habitude. Appliquer le RGPD aux États-Unis aurait plus d’impact pour prévenir les dommages algorithmiques. Sur son blog, Virginia Eubanks a réagi en proposant plutôt un « serment de non-violence numérique », qui, dans la forme au moins, est plus impliquant pour celui amené à le prononcer que de signer à quelques grands principes vagues. Sur Forbes, Lori Sherer de Bain & Company proposait également de transcrire le serment d’Hippocrate à l’intention des datascientists. Le think tank britannique qui milite pour un internet plus équitable DotEveryOne (@doteveryone) en a recensé des centaines (sous forme de principes, serments, manifestes? voir la liste) et en a proposé un très court. La France n’est pas en reste, rapportait récemment Le Monde : l’association Data for good (@dataforgood_fr) a publié un serment d’Hippocrate pour datascientists et un collectif d’entrepreneurs franco-américains ont publié le serment Holberton-Turing.

Les principes du serment d'Hippocrate de Data for Good

Les deux initiatives s’inspirent du serment d’Hippocrate que les médecins prêtent à la fin de leurs études. Ce rite de passage qui a plus valeur morale que portée juridique (par rapport au code de déontologie par exemple) rappelle aux médecins qu’ils ont des obligations légales, morales et éthiques. Mais, comme l’explique très bien l’écrivain et médecin Martin Winckler (blog, @MartinWinckler) dans l’édifiant Les brutes en blanc (2016), son ouvrage sur la maltraitance médicale, l’éthique n’a cessé d’évoluer. Dans le serment d’Hippocrate originel, il est ainsi interdit aux médecins d’offrir aux femmes la possibilité d’avorter sans que leur mari l’ait décidé. L’éthique se définit toujours par rapport à la morale dominante? rappelle Winckler. Pour lui, le serment d’Hippocrate derrière lequel se cache le corps médical est devenu une barrière à l’évolution des pratiques éthiques (comme de reconsidérer les questions de fin de vie ou de maltraitance). Le serment ne protège pas de la culture propre à chaque discipline, et le prêter ne protège pas de l’asymétrie de la relation entre le médecin et le patient, pas plus qu’elle ne protège de l’asymétrie entre le système de calcul et le calculé. Les règles de conduite ne suffisent pas toujours à créer des repères moraux. Dans son livre, Winckler finalement propose une autre approche qu’il faudrait certainement explorer, en donnant des conseils pratiques aux patients. Est-ce à dire qu’il faudrait plutôt construire des principes pour les calculés plutôt que pour les calculeurs ?

Sur O’Reilly Media, Mike Loukides (@mikeloukides), Hilary Mason (@hmason) et DJ Patil (@dpatil, blog), l’ancien datascientist de l’administration Obama, rappellent que les spécialistes des données n’ont pas attendu les problèmes récents pour se doter de codes d’éthique, à l’image du code d’éthique de l’ACM, l’une des grandes associations du secteur informatique, qui date de 1993, ou celui (.pdf) de l’Association américaine de statistique? Mais l’enjeu demeure de les mettre en pratique. « Tout code d’éthique des données vous indiquera que vous ne devez pas collecter des données de sujets expérimentaux sans leur consentement éclairé. Mais ce code de conduite ne vous dira pas comment implémenter ce consentement éclairé. Or, celui-ci est facile si vous interrogez quelques personnes pour une expérience de psychologie. Mais il signifie quelque chose de bien différent en ligne ». Et ce n’est pas la même chose bien sûr de demander la permission via une fenêtre pop-up par exemple ou que via une case précochée cachée? La mise en oeuvre de principes éthiques englobe des questions qui vont des choix dans l’interface utilisateur aux choix de structuration des données ou d’interrogation des données de connexion. Et pose la question de rendre néanmoins le service utilisable sans dégrader l’expérience utilisateur? L’enjeu consiste à réfléchir « à la mise en oeuvre pratique des principes éthiques », et à partager les meilleures pratiques. Comment par exemple concevoir une expérience utilisateur équitable sans rendre l’application inutilisable ? Faut-il mieux montrer aux utilisateurs une fenêtre pop-up avec des informations juridiques ou guider longuement l’utilisateur dans des explications sur les choix qu’il peut faire (pas sûr que l’un ou l’autre ne soient de bonnes options ni qu’ils ne rencontrent une grande approbation des utilisateurs comme des concepteurs d’ailleurs) ? Comment vérifier que les applications soient équitables si nous décidons de ne plus recourir à des données sensibles ? ? « En tant que technologues, nous partageons fréquemment de bonnes pratiques dans les conférences, sur nos blogs, via les technologies open source que nous développons, mais nous discutons rarement de problèmes tels que comment obtenir un consentement éclairé de l’utilisateur ».

Pour les trois auteurs, il est nécessaire de créer des cultures d’entreprises où l’on peut avoir ces discussions. « Il nous faut réfléchir aux conséquences involontaires produites par ce que nous imaginons ». Cela nécessite de créer ces espaces et ces temps dans les calendriers mêmes des projets. Il est nécessaire également de pouvoir arrêter la chaîne de production en cas de problème, surtout à l’heure du développement agile et du déploiement en temps réel de nouvelles fonctionnalités… L’autre problème, soulignent les auteurs, est bien sûr que les environnements d’entreprises sont souvent hostiles à tout autre chose qu’à la rentabilité à court terme. Si, comme le disait Susan Etlinger, l’éthique est un bon investissement, les changements de la culture d’entreprise, eux, prendront du temps. Reste, rappellent-ils, que les utilisateurs préfèrent s’engager avec des entreprises auxquelles ils peuvent faire confiance pour qu’elles n’en tirent pas un avantage injuste, au détriment de l’utilisateur. Les utilisateurs préféreront traiter avec des entreprises qui les traiteront et traiteront leurs données de manière responsable, et pas seulement pour en tirer un profit à court terme ou un engagement qu’il faut toujours maximiser. Et ces entreprises-là seront celles qui créeront un espace éthique au sein de leurs organisations, pas seulement en engageant des éthiciens, mais en faisant que les datascientists, les ingénieurs, les concepteurs, les spécialistes de l’IA au sein de ces entreprises y travaillent de concert.

la checklist de contrôle du développement de systèmes automatisésDans un autre article pour O’Reilly Media, les 3 mêmes auteurs pointent les limites des serments et déclaration d’intention. On ne les prête qu’une fois et on évalue donc insuffisamment et peu régulièrement si on est à la hauteur des enjeux. Les serments sont très généraux : souvent, ils déclarent ne pas vouloir nuire, mais les médecins eux-mêmes, même en prêtant serment, n’ont pas toujours fait le bien, sans savoir tout le temps qu’ils faisaient du mal au regard des connaissances dont ils disposaient. « Ces principes généraux sont une bonne idée, mais restent vides sur l’exécution, et les systèmes automatisés sont avant tout des questions d’exécution ». Ces principes sont certes importants, mais « ils ne nous amènent pas au point final que nous voulons atteindre. Ils ne relient pas nos idées sur ce qui est bien ou juste aux pratiques qui créent le bien ou la justice. Nous pouvons parler longtemps de l’importance d’être juste et impartial sans savoir comment être juste et impartial. Le serment peut-être finalement dangereux : il devient un outil pour vous convaincre que vous êtes quelqu’un de bien, que vous faites de bonnes choses? quand, en fait, vous ne savez pas. »

Par contre, ces serments et principes sont utiles pour susciter des discussions, pour sensibiliser à ces enjeux, pour comprendre que le travail réalisé n’est pas neutre. D’où leur démultiplication.

Les 3 auteurs s’inspirent de la célèbre liste de contrôle imaginée par le chirurgien Atul Gawande pour réduire les erreurs dans les salles d’opération. « Contrairement aux serments, les cheklists relient le principe à la pratique » En cochant une case sur un formulaire après avoir fait ce que vous deviez faire, vous ne risquez pas de l’oublier. La liste de contrôle n’est pas quelque chose qu’on récite une fois et qu’on oublie, c’est quelque chose que vous travaillez à chaque procédure. Leur efficacité est liée à leur simplicité. Les 3 auteurs sont partis du travail du manuel d’éthique des données du gouvernement britannique pour en proposer une. Elle n’est pas sans faille, mais ils l’a proposent comme une version à améliorer.

Audit, déclaration d’impact social, matrices, checklists? sont autant d’outils pratiques à construire pour rendre les développements logiciels responsables et équitables. Espérons que ces méthodes continuent à se développer.

Hubert Guillaud

Pour rappel, avec la Fing, éditeur d’InternetActu.net, via le groupe de travail NosSystèmes nous avons également établi des principes pour rendre les systèmes techniques plus responsables, qui recoupent en grande partie certains des enjeux esquissés dans cet article. Des méthodes, outils et techniques qui devraient permettre d’améliorer et préciser notre grille de lecture.

  • La méditation en question

On sait tous que de nombreuses entreprises de la Silicon Valley offrent des séances de méditation à leurs employés pour les aider à tenir le choc dans l?environnement complexe et stressant qu’ils doivent gérer. Mais ce n’est peut-être pas une bonne idée… Pour Kathleen Vohs, professeur de marketing à l’université (...)

On sait tous que de nombreuses entreprises de la Silicon Valley offrent des séances de méditation à leurs employés pour les aider à tenir le choc dans l?environnement complexe et stressant qu’ils doivent gérer. Mais ce n’est peut-être pas une bonne idée… Pour Kathleen Vohs, professeur de marketing à l’université du Minnesota, et Andrew C. Hafenbrack (@andyhafenbrack), professeur de comportement organisationnel à l’école de business et économie Catolica-Lisbon, la méditation de type « mindfulness » (pleine conscience) aurait au contraire pour mauvaise conséquence d’abaisser le niveau de motivation des employés. Ils ont publié leurs recherches dans le Journal of Organizational Behavior and Human Decision Processes et les ont résumées dans un article pour le New York Times.

L’équipe a procédé à une série d?expériences de structure classique, impliquant trois groupes, l’un de pratiquants de la méditation, un second qui devait laisser ses pensées vagabonder et un troisième dont les membres devaient lire les actualités ou écrire sur leur journée. Puis on a donné aux sujets une tâche à accomplir comme remplir un mémo, utiliser un traitement de texte, etc. Enfin on leur a donné un questionnaire. Selon les réponses, les « méditants » étaient les moins motivés pour accomplir ce genre de tâche…

Résultat : il semblerait que « la méditation était corrélée avec des pensées réduites sur l’avenir et de plus grands sentiments de calme et de sérénité – des états apparemment peu propices à vouloir s’attaquer à un projet de travail. »

La motivation, mais quelle motivation ?


Voilà pour la motivation, mais qu’en était-il de la performance elle-même ? « Ici, nous avons constaté qu’en moyenne, avoir médité n’a ni profité ni nui à la qualité du travail d’un participant. Ce fut une mauvaise nouvelle pour les partisans de la méditation en milieu de travail : après tout, des études antérieures ont montré que la méditation augmente la concentration mentale, suggérant que ceux qui ont effectué l’exercice de pleine conscience auraient mieux exécuté leur tâche. Leur niveau de motivation plus bas semblait toutefois annuler cet avantage. »

Les chercheurs ont ensuite cherché à savoir si octroyer une récompense pour de très bonnes performances serait susceptible d?accroire la motivation des méditants. Apparemment cela n’a pas eu d’effet. Pour les deux auteurs, la méditation s?apparenterait donc à une sieste : bénéfique, reposante, mais « qui en se réveillant d’une sieste, serait pressé d’organiser ses fichiers ? ».

Présenté comme cela, cela implique qu?effectivement, l’usage de la méditation n’est pas forcément positif. Mais j’avoue avoir une petite préférence pour la manière dont Boing Boing a présenté cette étude, et qui a le mérite, à mon avis, de frapper là où ça fait mal : « Les employés qui pratiquent la méditation pleine conscience sont moins motivés, ayant réalisé la futilité de leur travail ».

Enfin, une petite note supplémentaire : qu’est-ce qu’un pratiquant de la « méditation » ? L’article du New York Times nous explique que « certains des participants à nos études ont été formés à quelques-unes des techniques de méditation de pleine conscience les plus courantes. Un coach professionnel de méditation leur a demandé de se concentrer sur leur respiration ou de scanner mentalement leur corps à la recherche de sensations physiques, en leur rappelant doucement qu’il n’y avait pas de bonne ou de mauvaise façon de faire l’exercice. »

Autrement dit, l’expérience a fait appel à des débutants, plutôt qu’à des moines zen ! Quant au fait de dire qu’il n’y a pas de bonne ou mauvaise façon de faire l’exercice, ça se discute. Il n’y a qu’à lire les manuels de méditation bouddhistes des diverses obédiences, qu’ils soient d?Asie du Sud-Est, du Tibet ou issus du Zen, pour se rendre compte que oui, il y a apparemment de bonnes et mauvaises manières de pratiquer la méditation.

La méditation augmente-t-elle notre compassion ?


La psychologue Ute Kreplin, elle, s’est demandé dans Aeon si la méditation pouvait « participer à la création d’un monde meilleur », autrement dit, si, comme l’affirment ses adeptes, elle développe les sentiments d’empathie et de respect pour les autres humains.

Pour ce faire elle n’a pas réalisé d?expérience spécifique, mais a conduit une méta-analyse. Autrement dit, elle a examiné la littérature sur le sujet et comparé 20 expériences. Elle a bien sûr étudié les travaux sur la « méditation pleine conscience », mais, en accord avec son sujet, s’est intéressée aussi à une forme de méditation très appréciée aussi en occident, la méditation « loving-kindness » – « amour et compassion » -, qui consiste à se concentrer sur des sentiments positifs envers autrui.

Effectuer une méta-analyse n’est pas simple, car toutes les expériences ne suivent pas exactement le même protocole ni ne sont centrées sur exactement la même question… Ainsi, explique-t-elle, une des études consistait à enjoindre les méditants à se concentrer sur leur respiration, tandis que le groupe contrôle s’impliquait dans une discussion hebdomadaire sur les bienfaits de la compassion. Dans une autre recherche, continue-t-elle, le groupe actif pratiquait une forme de relaxation, en écoutant une bande audio parlant de la respiration, tandis que le groupe contrôle, lui, se contentait d’attendre dans la pièce à côté…

Pour contrôler le degré de compassion, explique-t-elle encore, certaines études se contentaient d’utiliser des questionnaires, tandis que d’autres cherchaient à mesurer le gain en empathie, par exemple en observant si les sujets avaient plus tendance à céder leur place assise dans une salle d’attente pleine.

Apparemment, les résultats de la méta-analyse furent plutôt positifs. Les chiffres semblaient bien indiquer une augmentation légère, mais réelle de la qualité du comportement social. Mais Ute Kreplin ne s’est pas arrêtée là. Elle a examiné comment chaque étude avait été menée. Son travail nous montre les difficultés de la recherche non seulement sur la méditation, mais en psychologie tout court.

Elle s’est ainsi interrogée sur les fameux « groupes contrôle ». Lorsqu’on effectue une recherche médicale, il est facile de définir un groupe contrôle : on donne à ses membres un placebo, ce qui permet de comparer aisément avec les effets de la molécule ingérée par les membres du groupe « actif ». Mais qu’est-ce qu’un placebo en psychologie ? Existe-t-il une méditation placebo ? Comme on l’a vu, plus haut, selon les études, les groupes contrôles pouvaient se voir confier diverses activités très variées. Et selon l’activité du groupe contrôle, les résultats pouvaient être très différents. Ainsi, si ce dernier se contentait d’attendre dans une pièce alors que leurs partenaires pratiquaient la « loving-kindness » pendant 8 semaines, les résultats étaient positifs. Mais dans l?expérience où le groupe contrôle devait s’engager dans des discussions sur la compassion, on n’observait aucune corrélation significative… Alors, se demande Ute Kreplin : A-t-on réellement établi le bénéfice de la méditation, ou cela est-il simplement la preuve « qu’il vaut mieux faire quelque chose plutôt que rien » ?

Autre problème, le biais de l’expérimentateur. Dans les recherches les plus rigoureuses en médecine, on utilise ce qu’on appelle le « double aveugle ». Non seulement les sujets ne savent pas ce qu’ils prennent, mais l?expérimentateur l?ignore aussi. Ute Kreplin s’est demandée si, dans les expériences qu’elle a étudiées, l’instructeur de méditation était l’un des auteurs, voire le principal auteur de l?étude en question. Et elle est arrivée au chiffre impressionnant de 48 %. Et bien évidemment, on ne peut que soupçonner la possibilité que l’enthousiasme du chercheur ait été involontairement communiqué aux sujets. L’affaire devient encore plus ennuyeuse lorsque la chercheuse à découvert que c?était dans ces cas, et uniquement dans ces cas, que la compassion semblait connaître une augmentation chez les participants. Lorsque l?expérimentateur était différent de l’instructeur (ou lorsque cet instructeur était une simple bande audio), on ne constatait aucun changement.

Dernier souci, le biais de confirmation. Les chercheurs auraient tendance, une fois terminée l?expérience, à surévaluer nettement les résultats, donnant une signification trop importante à des écarts de statistiques négligeables.

Dans le reste de son essai pour Aeon, Ute Kreplin mentionne les cas où la méditation a entraîné des attaques de panique, de la dépression, voire des épisodes psychotiques. Nul besoin de paniquer (c’est quand même assez rare), mais la psychologue en profite pour rappeler ce que les bouddhistes ont toujours dit de la méditation : son but n’est pas de calmer l’esprit, mais au contraire de remettre en cause la nature même de notre individualité. Et cela n’est pas sans risque, évidemment.

En attendant, que nous montrent ces études ? Certes pas que la méditation est inutile ou inefficace. Plutôt qu’il s’agit d’un phénomène complexe qui engage l’ensemble de la personnalité d’un individu, et non une pilule dont les effets seraient clairs et définis. Et peut-être aussi qu’il faut cesser de faire des études sur des débutants alors que cette pratique demande des années de discipline quotidienne !

Rémi Sussan

  • Peut-on rendre le ciblage psychologique productif ?

Sur la scène des conférences USI, intervenait notamment Sandra Matz, spécialiste de l’étude marketing des caractéristiques psychologiques via le Big Data. Le scandale Cambridge Analytica a mis en lumière le rôle du profilage psychologique. Peut-être pas d’une manière très valorisante, semble regretter Sandra Matz. Si elle ne souhaite pas parler (...)

Sur la scène des conférences USI, intervenait notamment Sandra Matz, spécialiste de l’étude marketing des caractéristiques psychologiques via le Big Data.

Le scandale Cambridge Analytica a mis en lumière le rôle du profilage psychologique. Peut-être pas d’une manière très valorisante, semble regretter Sandra Matz. Si elle ne souhaite pas parler de ce que fait ou n’a pas fait Cambridge Analytica, force est de constater que Sandra Matz travaille elle aussi comme la firme britannique, à rendre productif le profilage psychologique. Et c’est ce qu’elle souhaite expliquer sur la scène d’USI (voir la vidéo de son intervention) : Comment ça fonctionne ? Qu’est-ce que ça produit ? Et surtout, regarder si ce profilage est réellement efficace : « peut-on réellement influencer les gens avec ces techniques ? » « Quels sont les défis et les opportunités du ciblage et du profilage psychologique ? »


Image : Sandra Matz sur la scène des conférences USI, via USIevents.

Comment réalise-t-on des modèles psychologiques ?

Que signifie la personnalité pour des psychologues ? Nous différons en terme d’apparence et de caractère. Chez les philosophes grecs déjà, nos tempéraments (ce que nous appelons aujourd’hui la personnalité) étaient déterminés par un équilibre interne complexe d’humeurs, explique-t-elle rapidement. « Aujourd’hui, ce que les psychologues appellent la personnalité capture les différences fondamentales quant aux façons dont nous pensons, nous ressentons ou nous nous comportons. La personnalité n’est donc pas seulement un état émotionnel contextuel, mais consiste d’abord à définir un état relativement stable, des tendances et des préférences qui définissent chaque individu et qui les distingue les uns des autres. S’il existe différents systèmes ou cadres d’analyses psychologiques des personnalités, un modèle est devenu plus populaire que les autres : le modèle des Big Five. » Ce modèle estime qu’il y a 5 grands traits de personnalités qui captureraient nos différences cognitives et comportementales, à savoir l’ouverture à l’expérience (c’est-à-dire la curiosité), la « conscienciosité (c’est-à-dire le fait d’être organisé), l’extraversion (c’est-à-dire le fait de chercher la stimulation et la compagnie des autres), l’agréabilité (le fait d’être compatissant et coopératif) et le névrosisme (le fait d’éprouver facilement des émotions désagréables). Ces modèles, notamment le Big Five, partent d’une analyse lexicale du langage. À l’origine, dans leur article de 1936, les psychologues Gordon Allport et Henry Odbert ont analysé le dictionnaire anglais pour en extraire des milliers de termes et adjectifs utilisés pour décrire la personnalité ou le comportement et ont utilisés des méthodes statistiques pour les associer les uns aux autres. Ce modèle est effectivement l’un des modèles les plus utilisés aujourd’hui par la recherche en psychologie pour l’analyse de données. Il se présente sous la forme de tests de personnalité où les gens doivent autoévaluer des affirmations pour voir si elles leur correspondent au pas. C’est donc un modèle déclaratif. Ainsi pour mesurer l’extraversion par exemple, on donne aux gens l’affirmation suivante : « Je parle à beaucoup de gens lors de soirées » et on capture le degré avec lequel les gens sont d’accord avec cette affirmation (sur le mode de 5 choix, allant de tout à fait d’accord à fortement en désaccord – à l’exemple des tests psychologiques que vous pouvez réaliser sur le Centre de psychométrie de l’université de Cambridge.


Image : exemple de questions et de modalités de réponses d’un des innombrables tests de personnalités que l’on trouve en ligne.

Pour la chercheuse, si ces questionnaires, qui demandent 10 à 30 minutes pour être complétés, fonctionnent bien dans le contexte de la recherche, ils éprouvent leurs limites dans le domaine du marketing numérique ou de la persuasion de masse, notamment parce qu’il faut un peu de temps pour que les personnes les remplissent. Si on peut demander à des participants volontaires de remplir ces tests, on ne peut pas le demander à des millions d’internautes. Le travail de profilage consiste donc à parvenir à évaluer la personnalité des gens, sans leur demander de remplir ces tests. Pour cela, on les remplace par l’analyse de leurs traces, comme les contenus qu’ils partagent sur FB ou les likes qu’ils déposent sur les contenus, les musiques qu’ils écoutent ou les vidéos qu’ils regardent? (qu’on compare à l’analyse des traces d’un groupe témoin à qui on a fait passer le test et auquel on a associé des contenus, oublie d’expliquer Sandra Matz. On analyse des comportements depuis des profils témoins qu’on applique ensuite aux autres profils par inférence).

Prenons le temps d’expliquer plus précisément que ne le fait Sandra Matz sur la scène d’USI, comment se fait cette association.

Pour faire de l?analyse massive, vous avez besoin d?un côté des données d?utilisateurs et de l?autre d?un test. Le croisement des deux permet de créer des  modèles qui pourront être massivement appliqués à tous les autres utilisateurs. Un simple test psychologique qui semble amusant de prime abord permet de définir des caractéristiques psychologiques d?utilisateurs. En comparant ces profils à d?autres données, comme celles de leurs interactions sur Facebook ou le type de données qu?ils partagent, celles de leurs tweets ou celles de leurs usages de leurs téléphones mobiles, il est possible de produire des indicateurs significatifs, et de lier par exemple une action (le temps mis à répondre à un message, à un appel téléphonique ou votre régularité à ces appels et messages) à un type de profil psychologique.

Une fois ces modèles établis, on peut analyser n?importe quelles données pour les faire correspondre à ces prédicats. On peut ainsi prédire votre profil psychologique à partir de l?usage de votre téléphone qu?enregistre votre opérateur ou des applications mouchardes qu?il héberge. Depuis la diversité des contacts, votre régularité à entrer en relation avec eux? on peut donc déduire des informations psychologiques que les services marketing pourront exploiter. C?est pour cela que nombre d?applications tentent d?avoir accès à des informations dont elles n?ont pas besoin pour fonctionner et qu?une simple application qui transforme le flash de votre smartphone en lampe de poche récupère vos listes de contacts, vos SMS, vos informations de localisation? Autant de données qu?il sera possible de faire parler et de vendre à des agences spécialisées.

Le scandale Cambridge Analytica est entièrement construit sur un tel système : avec une application pour Facebook qui apparaissait comme un jeu (« this is your digital life ») qui s?appuyait sur un questionnaire permettant de réaliser le test et qui dans le même temps permet de récupérer les données des utilisateurs, comme des informations sur les gens avec qui ils sont en contacts ainsi que des informations sur eux-mêmes. Des données au final de quelque 50 millions d?utilisateurs qui ont permis à la firme britannique de construire des profils psychologiques et politiques permettant de les appliquer à d’autres profils, de cibler les utilisateurs avec des publicités convaincantes ou d?effectuer des simulations de participation électorales, etc.

Le Big data, couplé à des systèmes d?apprentissage automatisé (Machine Learning), permet de déterminer des modèles et des critères optimum. De mettre en avant des comportements et des analyses, à l’image du correcteur comportemental Crystal Knows dont nous vous avions déjà parlé qui établit des modèles psychologiques de vos correspondants et vous invite à corriger vos e-mails depuis cette analyse pour mieux vous adresser à eux.

Ces traces disent beaucoup des habitudes et des préférences des gens tant et si bien qu’il est inutile de savoir s’ils sont extravertis ou pas, il suffit de regarder leurs activités sur les réseaux sociaux et traduire ces données via des algorithmes en données et profils psychologiques significatifs, explique Sandra Matz. Sur la scène d’USI, elle montre des nuages de mots corrélés à quelques-uns des 5 grands types de profil. Ces nuages ne montrent pas tant des fréquences d’utilisation de mots clefs, que l’usage de certains mots a plus tendance à vous classer dans une catégorie qu’une autre. Ainsi les extravertis ont tendance à parler de soirée, d’impatience… de ce qu’ils font avec les autres, alors que les introvertis par exemple parlent plutôt de manga et d’ordinateurs? de choses qu’ils font par eux-mêmes. Pour Sandra Matz, cela ne se base nécessairement pas sur des algorithmes compliqués que sur une classification et un comptage de mots, explique-t-elle en continuant de montrer des nuages de mots selon de grands types de profil, qui donnent l’impression d’avoir à faire à des gens très différents les uns des autres par les mots mêmes qu’ils emploient. De même, on peut appliquer ces classements aux likes que les gens déposent sur les contenus? Ainsi, les gens qui ont tendance à être névrosés ont tendance par exemple à mettre des likes sur des expressions comme « Parfois, je me déteste » ou « je suis tellement content » ou à apprécier Kurt Cobain, alors que les personnes stables vont apprécier des contenus relatifs à l’administration des affaires, au Parkour, à comment gagner de l’argent? Le profilage psychologique permet ainsi de relier des contenus et leur vocabulaire à des types de profils.


Image : les nuages de mots relatifs aux extravertis et aux introvertis, présentés par Sandra Matz sur la scène d’USI, via @jordanvid.

La question de fond, estime Matz, reste de savoir si ces systèmes peuvent prédire la personnalité de quelqu’un. Le modèle Big Five reste essentiellement subjectif. L’enjeu est de comparer la prédiction réalisée par la machine à la perception de soi de la personne. Pour cela, Matz et ses équipes ont testé la prédiction psychologique en demandant à des gens et à leurs proches de remplir des questionnaires de personnalité et l’ont comparé à l’étude de contenu pour en analyser la précision. Et Matz d’expliquer qu’il suffit ainsi de 10 likes pour que le modèle soit aussi précis qu’un collègue, de 65 likes pour qu’il soit aussi précis qu’un ami et de 120 likes pour qu’il soit aussi précis que quelqu’un de votre famille et qu’il en faut 300 pour le comparer à votre compagnon. Pour Matz, ces comparaisons montrent combien une prédiction psychologique automatisée peut s’avérer précise et fiable. Il est donc possible de cibler psychologiquement les gens, non seulement en fonction de leur âge ou d’autres données déclaratives, mais également selon leurs grandes tendances psychologiques, comme le fait qu’ils soient plutôt extravertis ou introvertis.

Le profilage psychologique marche-t-il vraiment ?

Reste que ces tendances ne ciblent pas tant des individus uniques que des grandes tendances psychologiques (des profils auxquels nous sommes associés). En ciblant des goûts associés à l’extraversion par exemple, il devient possible d’adresser collectivement des gens qui aiment se socialiser à d’autres, plus que la moyenne. « Est-ce pour autant efficace ? », interroge Matz. Pouvons-nous depuis ces informations influer réellement sur ce que les gens cliquent ou achètent ? En fait, explique-t-elle, « nous pouvons faire correspondre le contenu que nous montrons aux gens au profil psychologique que nous avons inféré d’une manière qui augmente la probabilité qu’ils s’engagent avec ces contenus ». Et la chercheuse d’évoquer certaines de ses recherches, notamment associées à la promotion d’un jeu depuis une campagne publicitaire sur FB. L’enjeu était de promouvoir deux jeux, un simple jeu de casse-brique, qui s’adresse donc plutôt à des gens introvertis et un jeu de dé qui se joue avec des amis, qui s’adresse donc plutôt à des gens extravertis. On a créé des publicités pour FB dédiées, qui ont reçu en une semaine plus de 400 000 vues, 4000 clics qui ont donné lieu à 272 installations des jeux. En fait, les annonces qui correspondaient aux profils cibles réussissaient 8 fois plus que celles qui étaient adressées aux mauvais profils. Un résultat qui n’est pas anodin. Les gens ont 8 fois plus tendance à installer ou télécharger votre produit, quand il y a concordance entre celui-ci et la tendance psychologique des profils. Ces résultats peuvent paraître effrayants, constate Sandra Matz : les gens ne souhaitent pas être manipulés ainsi. Ils veulent pouvoir faire leurs propres décisions?

Reste qu’il faut remettre les choses en perspectives, tempère Matz. Il y a 500 millions de produits sur Amazon, des milliards de pages indexées par Google, des millions d’heures de vidéo sur YouTube? tant et si bien qu’il nous faudrait 1000 vies pour en regarder tout le contenu. « Nous avons besoin de mécanismes pour filtrer le contenu et aider les gens à trouver ce qu’ils cherchent ». C’est ce que nous appelons le paradoxe du choix : trop de choix tue notre capacité à décider et nous rend moins satisfaits. Pour Matz, cette abondance justifie le besoin de filtres et pour elle, les filtres psychologiques sont particulièrement bénéfiques aux utilisateurs. Reste que sur cette planche glissante, Matz prévient : l’appariement de produits, comme dans le cas de ces 2 jeux, fonctionnait bien, car les 2 produits étaient clairement distincts? Mais la plupart des produits sont bien plus neutres, bien moins distincts et s’appliquent bien moins à une distinction psychologique. Les formules d’abonnement à un forfait mobile par exemple sont plus difficiles à caractériser. D’où l’enjeu du marketing à adapter ses messages psychologiquement, explique-t-elle. Ici, l’enjeu n’est pas de disposer de produits psychologiquement clivants, mais d’adapter les messages d’accroches aux grands types de profils d’utilisateurs. Sandra Matz et ses équipes ont donc réalisé un autre test, avec une publicité pour un même produit à destination d’un public extraverti et une autre à destination d’un public introverti. La publicité a été vu 3 millions de fois, a généré 10 000 clics et 500 achats. L’appariement publicitaire était environ 1,5 fois plus efficace avec les profils correspondants. L’effet est beaucoup plus modeste que précédemment, concède la spécialiste, certainement parce que le produit, lui, ne matche pas avec les profils, mais il reste néanmoins significatif.

Et Sandra Matz d’évoquer DataSine, une entreprise avec laquelle elle a travaillé qui justement est capable d’adapter les messages selon différents grands types de profils clients et de proposer, selon les profils, d’adapter les messages avec des mots-clefs relatifs aux profils (voir notamment cette présentation vidéo de DataSine qui montre l’interface pour écrire des messages adaptés et qui suggère de remplacer les mots des messages ou les images selon les profils visés).


Image : l’interface de rédaction de DataSine qui propose des suggestions de termes pour adapter les messages en fonction du profil psychologique ciblé.

Ciblage psychologique : arme de manipulation massive ?

Reste à savoir jusqu’où ces systèmes sont efficaces. « Pourrait-on par exemple imaginer vraiment influencer le comportement de quelqu’un, le faire changer d’avis de façon spectaculaire par ces méthodes, comme de retourner un électeur convaincu d’Hillary Clinton en supporter de Trump ? » La réponse est non, affirme Sandra Matz. « Mais ce non, ne signifie pas que ces techniques ne sont pas efficaces ni que nous ne devrions pas nous inquiéter de l’amélioration à venir de ces techniques, car bien souvent les gens sont plus indécis que convaincus, et il suffit de peu de chose pour les faire changer d’avis. »

Le ciblage psychologie est-il une arme de destruction massive ou un catalyseur pour le bien social ?, interroge Sandra Matz. Pour certains, c’est un outil de manipulation des gens qui menace la démocratie, à l’exemple de Cambridge Analytica. Reste que pour Sandra Matz, le ciblage psychologique n’est pas mauvais en soi, défend-elle, mais certains de ses usages peuvent l’être. Si Hillary Clinton par exemple avait utilisé le ciblage psychologique non pas pour décourager les gens de voter, mais pour mieux communiquer avec eux, sur la base de ce qu’ils apprécient, pour leur parler selon leurs profils afin de les amener à s’engager en politique, elle aurait certainement été célébrée comme Obama l’a été pour le ciblage de ses supporters lors de la campagne de 2008. « Oui, le ciblage psychologique peut-être une menace contre la démocratie, mais il peut aussi être une solution pour amener plus de gens à s’engager? »

Pour défendre son point de vue, Sandra Matz convoque un dernier exemple, en rappelant, comme le soulignait Dan Ariely, que les gens ne sont pas très bons pour prendre des décisions qui leur profitent à long terme. Le ciblage psychologique peut nous aider à faire des choix, comme nous aider à choisir un fruit plutôt qu’un gâteau. Il peut aider les gens à prendre de meilleures décisions et à suivre leurs intentions. Elle explique qu’elle travaille actuellement sur l’épargne pour aider les gens à économiser de l’argent, en distinguant par exemple les objectifs selon des profils psychologiques afin que les messages soient plus adaptés. Nous pourrons demain adapter bien d’autres domaines à la psychologie des gens, à leurs personnalités, comme le travail ou l’éducation? Matz travaille par exemple à détecter les premiers signes de la dépression depuis des smartphones afin de pouvoir aider des gens qui ne sont pas en posture de le faire.

Pour Matz, le ciblage psychologique en est à ses débuts. Demain, nous tenterons de prédire bien d’autres choses depuis les profils que les seules personnalités : les valeurs, l’intelligence, les styles cognitifs, les humeurs? et même peut-être directement depuis les visages, leurs expressions et réactions, explique-t-elle avant de s’emballer jusqu’aux implants neuronaux qui permettront de nous dire ce que nous pensons, prévoyons en temps réel? « En tant que chercheur, je trouve ça très excitant, mais en tant que personne, je trouve ça très inquiétant? », concède-t-elle sur un mode schizophrénique. « Comme le disait l’oncle de Peter Parker : « avec de grands pouvoirs viennent de grandes responsabilités ». « Nous allons pouvoir comprendre la psychologie humaine bien mieux et à un niveau que nous n’avons jamais atteint », s’enthousiasme la psychologue. Pourtant, rappelle-t-elle, les psychologues travaillent avec le consentement de leurs patients. Les chercheurs en psychologie doivent dire aux participants quel type de données ils collectent, pour quoi faire. Il ne faudrait pas qu’on oublie les valeurs des pratiques de la psychologie. « C’est en étant responsables que nous transformerons le ciblage psychologique en catalyseur du bien social ».

Reste à savoir si ces pratiques relèvent plus de la psychologie que du marketing. C’est certainement dans ce flou que se produisent les bascules réductionnistes de l’analyse psychologique automatisée.

La psychologie, c’est un peu plus compliqué !

L’artiste, chercheur et psychologue Alexandre Saint-Jevin n’était pas convié à intervenir sur la scène d’USI, mais nous avions envie de remettre les propos de Sandra Matz en perspective, de comprendre un peu mieux les limites de ces modélisations psychologiques.

« La psychologie n’est pas une discipline uniforme », nous rappelle Alexandre Saint-Jevin. Les tests de type Big Five s’inscrivent dans ce qu’on appelle la psychologie différentielle, c’est-à-dire l’étude des différences psychologiques entre les individus par les statistiques, qui étudie à la fois la variabilité entre les individus, entre les groupes et la variabilité intra-individuelle.

Elle naît avec Francis Galton qui cherche à étudier les capacités intellectuelles humaines, afin de démontrer qu’elles sont héritables, c’est-à-dire qu’elles relèvent de la génétique et, partant de là, de favoriser l’évolution intellectuelle de l’espèce par la sélection, qui va donner naissance à rien de moins que l’eugénisme. Il est l’un des premiers à utiliser le questionnaire comme méthode pour étudier les différences de comportement. Il a également recours à l’étude des jumeaux homozygotes élevés séparément et de jumeaux hétérozygotes élevés ensemble pour mesurer les écarts d’intelligence et montrer que l’intelligence serait biologique plus que culturelle. Son protégé et biographe, Karl Pearson ajoutera une troisième méthode, toujours utilisée elle aussi, le coefficient de corrélation, qui associe des variables entre elles. Ce sont là les trois éléments de base des études différentielles.

Ce qu’on appelle généralement les Big Five sont un ensemble de tests psychométriques qui inventorient plusieurs facteurs de personnalités, parmi lesquels ont trouve le Big Five Inventory, le Neo Pi-R, le MBTI… En fait, on désigne sous l’expression de Big Five une multitude de tests qui ne fonctionnent pas exactement de la même façon. Ils reposent le plus souvent sur une hypothèse lexicale : les caractéristiques psychologiques « pertinentes » d’une personnalité seraient présentent dans le langage naturel qu’on classe par rapprochement. En gros, ce sont des études de texte, de langage, où chaque mot est corrélé à une signification. Effectivement, dans leur article fondateur, les psychologues Gordon Allport et Henry Odbert, ont analysé les termes relatifs à la personnalité dans un dictionnaire. Ils en ont relevé 18000 qu’ils ont classé en 4500 traits de personnalité, définis comme des déterminants stables de la personnalité. Dans les années 50, R. B. Cattell réduit ces traits à 35 variables pour produire 12 facteurs de personnalité en utilisation des corrélations statistiques donc des moyennes statistiques. À partir du premier test qu’il met en place, le 16PF, les chercheurs vont continuer à réduire le nombre de facteurs jusqu’à obtenir les 5 grands traits de personnalité des Big Five, qui ne sont donc rien d’autre que des ensembles d’adjectifs pour caractériser différents types de personnalités. L. R. Goldberg va créer les tests à 7 puis 5 facteurs : chaque grand facteur étant censé représenter le plus haut niveau d’abstraction de la personnalité, dont chacune englobe un grand nombre de caractéristiques distinctes et spécifiques. La démonstration de Goldberg est surtout mathématique : il souligne qu’au-dessus de 5 critères, les différences seraient négligeables d’un point de vue statistique. On a donc là un long cheminement d’analyse de vocabulaire et de réductionnisme statistique, nous rappelle Alexandre Saint-Jevin. Mais ce ne sont pas leurs seuls biais.

À l’origine, ces tests sont le résultat d’une auto-évaluation : l’individu renseigne des questions où il exprime ce qu’il pense de sa personnalité. Pour limiter les biais déclaratifs, les protocoles ont mis en place des évaluations conjointes par des gens qui connaissent la personne. Or, les études ont montré que ces contre-résultats ne donnaient pas toujours de bons résultats. La perception qu’on a de sa personnalité ne correspond pas toujours à celle que les proches en donnent.

En fait, le succès des Big Five, permet surtout de comprendre le succès de ces tests de personnalité basés sur l’analyse du langage. « On peut facilement en construire des modèles informatiques depuis les répertoires d’adjectifs, comme le fait depuis longtemps le traitement automatique du langage. Ces tests se prêtent bien plus à la programmation que d’autres, ce qui permet de rendre l’analyse lexicale applicable via un traitement statistique. » Or, rappelle le psychologue clinicien : le problème est que ces tests ne démontrent rien au niveau psychopathologique. Ils ne nous disent pas si une personne à telle ou telle pathologie. Le problème est qu’on a établi des corrélations entre des tests de personnalité et des tests diagnostics. Ainsi quelqu’un diagnostiqué par exemple comme ayant un trouble de la personnalité limite (TPL) aura statistiquement au niveau de la personnalité un fort névrosisme et une ouverture faible. Le risque alors est de considérer qu’une personnalité de ce type soit également quelqu’un ayant un TPL. Le risque est bien de prendre au final des  rapprochements statistiques, des corrélations, pour des diagnostics médicaux !, prévient Alexandre Saint-Jevin.

L’autre problème de ces tests de personnalité, c’est qu’ils sont dénués de contexte. Ils obligent le sujet à se baser sur une représentation de soi, hors contexte. À la question, de savoir si je me vois comme quelqu’un de bavard, il n’y a pas de contexte associé. Est-ce maintenant ? En général ? Pour Allport, les questions se rapportent à un état dit « stable », hors situation particulière… mais que veut dire être tout le temps bavard ?

En fait, même les tenants de la psychologie différentielle ne sont pas d’accord entre eux. Pour certains, la personnalité déterminerait les réactions, mais pour d’autres, c’est la situation qui déterminerait les réactions. D’où la naissance de tests de personnalité qui ne reposent pas sur des grandes affirmations, mais proposent des réactions en situation. Les psychologues ont recours ainsi à une multitude de tests de personnalité, à l’image de ceux proposés par l’éditeur Hogrefe. Nombreux sont conçus pour des milieux différents, à l’image du test MBTI, très utilisé dans le milieu des relations humaines et du management. Très utilisée, sa fiabilité a pourtant été très discutée. À la différence du test des Big Five, il ne repose pas sur une analyse lexicale, ce qui explique qu’il soit moins utilisé en informatique? car il ne permet pas aussi facilement de rendre des contenus textuels productifs.

D’autres tests existent encore, comme le fameux test de Rorschach où l’on demande de mettre des mots sur des images. On sait en faire un traitement statistique d’ailleurs, car on sait que beaucoup de gens voient telle ou telle chose dans telle planche? et quand une personne donne les réponses les plus courantes, on le diagnostic d’ailleurs comme normopathe. S’il n’y pas de réponse attendue à ce type de test, on connait l’ampleur des réponses possibles par la pratique et ont peut donc les coder.

Mais le grand problème des tests de personnalité, estime Alexandre Saint-Jevin, « c’est qu’ils enferment les personnes dans des catégories ». C’est un peu l’inverse de la psychanalyse, qui tente de faire verbaliser les éléments de personnalité. La psychanalyse relève d’une co-construction avec la personne qu’on ne retrouve pas du tout dans ces tests. Dernier problème : chacun d’entre nous est sommé d’entrer dans ces agencements signifiants. Là, on nous fait entrer dans des comportements auxquels on doit se conformer pour être. Le risque bien sûr, consiste surtout dans des dérives, des associations, des modalités qui font par exemple qu’on va utiliser l’analyse lexicale de tweets ou de SMS pour déterminer automatiquement une possible pathologie.

Enfin, bien sûr, l’une des grandes dérives de ces systèmes repose sur le fait qu’on fasse passer le test aux gens sans qu’ils le sachent, on analyse leurs corpus par-devers eux et on en déduit des traits de personnalité qu’on va rendre productifs en applicants ce qu’on en a appris aux contenus générés par des milliers d’autres personnes. Or en psychologie, tout test nécessite le consentement de la personne qui le passe. « Le psychologue n’a pas pour fonction de trouver des éléments de personnalité dont la personne n’a pas conscience, mais au contraire d’amener la personne à les trouver. » Ici, la mise en production psychologique produit des inférences que l’utilisateur ne voit pas. La dérive marketing du profilage psychologique est à l’inverse du rôle du psychologue.

Autre problème encore, ces tests fonctionnent par inférence. On crée des liens entre des notions sans les établir, en croisant des tests entre eux. On estime par exemple que ceux qui ont tendance à être organisés vont aimer l’environnement. Mais c’est un lien qu’on établit sans étude et qui enferme des gens dans des catégories. « Ces tests imaginent aussi l’individu comme un être rationnel, en faisant par corrélation des liens de cause à effets. Or, comme le rappelle la théorie des jeux, on sait que nous sommes bien moins rationnels que ne le montrent ces tests. Ces tests qui s’emmêlent créent des raccourcis sur la base de si quelqu’un a tel trait de personnalité, il aura tendance à aimer cela plutôt que cela. Or, on oublie de voir que nous sommes bien moins cohérents que ne le disent ces tests. La cohérence n’est pas notre fort ! » Or, on est face à des systèmes qui, par la corrélation, tentent de trouver des cohérences partout. « Bien souvent, ils mettent en cohérence des choses qui n’ont rien voir. C’est la critique qu’Hannah Arendt faisait des dictatures. Ce sont des régimes logiques qui se déploient selon une proposition de base et un enchaînement logique. C’est la critique qu’on a adressée à Galton et à l’eugénisme. » Ces systèmes ne visent pas à produire une performance psychologique d’ailleurs. Ils sont produits pour générer une performance marketing. Ils produisent une standardisation qui ne relève pas de la psychologie. Ils visent à rendre les profils productifs. Tout l’inverse de la psychologie en quelque sorte.

Hubert Guillaud

  • 52 nuances de réalité virtuelle

Jaron Lanier (@jaronlaniervr, Wikipédia) n’en est pas pas à son premier livre. La plupart sont des pamphlets, souvent inspirés, contre le web tel qu’il existe, et son dernier livre sur les réseaux sociaux continue sur la même lignée en proposant 10 arguments pour détruire tous nos comptes sur les réseaux (...)

Jaron Lanier (@jaronlaniervr, Wikipédia) n’en est pas pas à son premier livre. La plupart sont des pamphlets, souvent inspirés, contre le web tel qu’il existe, et son dernier livre sur les réseaux sociaux continue sur la même lignée en proposant 10 arguments pour détruire tous nos comptes sur les réseaux sociaux. Mais ce n’est pas dans cet ouvrage que je me suis plongé récemment, plutôt son précédent, publié en 2017 : Dawn of the New Everything : Encounters with Reality and Virtual Reality, une autobiographie qui est également un essai sur la technologie qui a rendu Lanier célèbre, à savoir la réalité virtuelle (il est censé être l?inventeur du terme, mais il rappelle dans son livre que le premier usage de l’expression est apparu sous la plume d?Antonin Artaud, dans son Théâtre de la Cruauté).

On peut traiter du bouquin sous plusieurs angles. D’abord, il constitue un témoignage amusant et souvent très distancé sur les premiers jours de la cyberculture, non pas dans années 90, mais bel et bien au début des années 80. Sous cet aspect, j’ai trouvé intéressant de le lire juste après les mémoires de John Barlow, car ils ont fréquenté les mêmes personnes, comme Timothy Leary ou l’équipe de Mondo 2000 et se sont bien connus (Lanier décrit Barlow comme un ami avec qui il est en complet désaccord sur les notions de liberté de l?information ou d’indépendance du cyberespace : « peut-être que nos différents points de vue étaient liés à mon passé d’agriculteur, par rapport à Barlow qui était un éleveur. Les clôtures étaient ses ennemies, mais elles étaient mes amies », écrit-il).

En gros cette partie autobiographique couvre l’enfance et l?adolescence de Lanier, puis raconte la création de sa « startup » VPL Research, qui mit au point les premiers systèmes de réalité virtuelle. Le livre se termine lorsqu’il quitte la société.

Mais l’ouvrage est également un essai sur la réalité virtuelle (VR pour Virtual Reality) : travail historique, puisqu’il nous explique à quoi ressemblaient les premiers systèmes créés par VPL dans les années 80. Et également réflexion philosophique sur la nature de ce nouveau médium. En fait, le livre ne contient pas moins de 52 définitions possibles de la réalité virtuelle : certaines sont anecdotiques, polémiques ou ironiques… d’autres sont plus profondes. J’ai choisi d’en sélectionner quelques-unes, qui m’ont semblé subjectivement les plus intéressantes.

Une technologie de la mesure


Rappelons la date de naissance de la VR : 1984 environ. A cette époque les graphismes sur ordinateur étaient des plus primitifs. En fait, il est arrivé à l’équipe de VPL de créer des réalités virtuelles d’une définition de 100×100 pixels ! Ce qui nous rappelle qu’il existe une différence entre la VR et les « mondes virtuels ». Au final, le réalisme de la scène simulée, sa richesse en détails, compte peu. D’où la définition n°25 : « une technologie de média dans laquelle la mesure est plus importante que l’affichage ».

« Si 100×100 est une résolution plausible pour une icône, pour un monde virtuel, c’est absurde. Rappelez-vous, l’image est étalée sur une grande partie de ce que vous pouvez voir. Par conséquent, chaque pixel peut sembler aussi gros qu’une brique dans un mur ! Et pourtant, l’effet était incroyable », raconte Lanier.

Pourquoi cela a-t-il fonctionné ? Parce qu’en fait, ce qui est central dans la VR n’est pas ce que vous voyez ou entendez, mais la manière dont les mouvements du corps sont captés et retransmis à « l’avatar ». Le coeur de la VR, c’est le tracking, pas le rendu. C’est cette capacité de mesure qui permet de « tromper le cerveau » et qui donne cette impression d’immersion dans un nouvel environnement. Rappelons d’ailleurs que le sens de la vue n’a pas été immédiatement privilégié par les premiers concepteurs de la VR. Lanier est connu surtout pour l’invention du dataglove, une interface haptique qui simule le sens du toucher (et qui connut pendant un court laps de temps une adaptation grand public, le Power Glove de Nintendo). Étrangement, au début des années 80, il était considéré comme plus facile, techniquement, de mettre au point de tels périphériques plutôt que des systèmes de visualisation sophistiqués. 30 ans plus tard, Oculus, HTC, Sony, Samsung et autres nous proposent des casques à bas prix, alors que les interfaces haptiques, elles, semblent toujours relever de la science-fiction !

LA VR contre l’IA


Depuis longtemps Lanier critique avec virulence le culte de l’intelligence artificielle (IA). Dès les années 90, alors que la mode n?était pas au deep learning, mais aux « agents intelligents », il écrivait que ces agents ne sont intelligents que parce qu’ils nous rendent plus stupides.

Pour lui, selon sa 46e définition : « VR = ?IA (la VR est l’opposé de l’IA) ». Il ne s?agit pas tant ici pour Lanier de s’opposer à la technologie de l?intelligence artificielle. Comme il le rappelle, il travaille lui même dans un laboratoire qui en fait largement usage. Là où il estime que la réalité virtuelle s’oppose à l’IA, c’est en terme de stratégie. Pour lui, face à un déluge de données, il importe tout d’abord de mettre au point une bonne interface utilisateur, et ensuite éventuellement d’y intégrer des algorithmes issus de l’IA, plutôt que partir directement de l’IA et créer, pour employer son expression, un être de fantaisie susceptible de résoudre les problèmes à notre place. En bref, la VR apparaît comme un outil d’intelligence augmentée (Lanier n’oublie pas d?ailleurs de souligner sa parenté avec d?autres techniques d’augmentation cognitive, comme les palais de mémoire).

Pourquoi est-il essentiel de construire d’abord l’interface utilisateur ? Parce que si vous ne disposez pas d’une bonne interface, insiste Lanier, qu’est-ce qui vous prouve que le « robot », quel qu’il soit, vous donnera la bonne réponse ? « L’IA rend l’ingénierie plus confuse, même lorsque la technologie sous-jacente est belle et nécessaire ». On le sait, c’est d’ailleurs le problème de base de l’IA : on ne sait pas comment les programmes arrivent à leurs conclusions, ce qui rend ces dernières sujettes à suspicion.

Une programmation sans « code source »


Voici une définition que je trouve fascinante, mais je dois avouer ne pas avoir tout compris aux spéculations de Lanier : « 52e définition de la VR : une manière d’utiliser les ordinateurs suggérant le rejet de la notion de code ».

Très vite, dès les années 80, il est apparu à Lanier que la programmation classique, en mode texte, d’un monde virtuel était insuffisante. Un bon système de programmation virtuel devrait être accessible depuis l’univers virtuel lui-même, et les modifications effectuées devraient se répercuter immédiatement dans l’environnement sans passer par une phase de compilation comme c’est le cas avec des langages comme le C++.
Lanier consacre tout un appendice de son ouvrage à la question de la programmation. En gros, si je saisis bien son idée, au lieu d’un seul et unique « code source », le développement se ferait par plusieurs interfaces différentes, qu’il appelle des « éditeurs » (et qui n’ont apparemment rien à voir avec les éditeurs de texte couramment utilisés par les programmeurs) : « Un éditeur peut ressembler à des images sur un écran d’ordinateur ou à des objets virtuels dans un monde virtuel ». Lanier reproche aux langages de programmation traditionnels de reposer sur des abstractions fixées dans la structure même du langage (par exemple, les « fonctions », les « listes », les « objets », etc.). Au contraire, les « éditeurs » présenteraient un même programme avec des abstractions différentes.

A la grande époque de VPL Lanier et son équipe ont essayé de développer ce nouveau style de développement : « L’expérience de la programmation était brièvement devenue un peu plus improvisée, un peu plus comme un mélange entre jouer du jazz sur un cornet et dessiner des diagrammes mathématiques ».

Selon Lanier les « éditeurs » à cette époque ressemblaient un peu au logiciel MAX, surtout utilisé en musique électronique. Je ne connais pas MAX, mais j’ai un peu pratiqué Pure Data, son « clone » open source : il s’agit d?un logiciel de programmation visuelle dans lequel on relie des « boites » par des « câbles ». C’est vrai que Pure Data permet de changer des paramètres à la volée, de faire de la programmation « en temps réel » et donc d’improviser (d’où sa valeur pour les DJs et les VJs). Je dois avouer cependant que la multiplication des « câbles » et des boites m’a paru rendre très vite la tâche très complexe, sans parler de la lisibilité du programme par un ?il extérieur. Je suis vite revenu aux langages à code source traditionnels pour ma part. Je ne suis pas sûr que connecter des dizaines de câbles dans un monde virtuel serait spécialement confortable. N’empêche que sur le fond, je trouve que Lanier a raison. Programmer une réalité virtuelle à l’aide d’un texte écrit, extérieur au monde qu’il représente, a un côté absurde.

Le virtuel rend la réalité plus réelle

« Définition numéro 7 : une réalité grossièrement simulée favorise l’appréciation de la profondeur de la réalité physique en comparaison. Quand la réalité virtuelle progressera dans le futur, la perception humaine s’en nourrira et apprendra à trouver encore plus de profondeur dans la réalité physique. »

Un mythe accompagne depuis ses débuts la réalité virtuelle. Celle de « l’univers truqué » comme ceux décrits par l’écrivain Philip K. Dick. Est-il possible de simuler le réel au point de rendre la simulation impossible à distinguer du modèle ? Est-ce là que vivront les prochains esprits « téléchargés » ? Et si ce genre de prouesse est possible, qu?est-ce qui nous prouve que nous ne sommes pas déjà à l?intérieur d’une simulation, à l’instar des personnages de Matrix (ou, plus sérieusement, si l’on suit l’argument de la simulation de Nick Bostrom, auquel Elon Musk s’est montré sensible) ? Ce genre d’idées, nous explique Lanier, était déjà en discussion dans les années 80, au « Little Hunan », le restaurant chinois de la Silicon Valley où la première génération de « hackers » aimait se retrouver. Mais, pour Jaron Lanier, ce genre de spéculation n’a pas grand sens. Selon lui, la réalité aura toujours un point d’avance sur toute tentative de simulation…

« Il y aura toujours des circonstances au cours desquelles une illusion fabriquée par une technologie médiatique, aussi raffinée qu’elle soit, se révélera un peu maladroite par rapport à la réalité non médiatisée. La falsification sera un peu plus grossière et plus lente ; très légèrement moins gracieuse. »

Que se passera-t-il dans les années qui viendront, alors que les rendus se révéleront de plus en plus perfectionnés ? Pour Lanier, cela nous entraînera à percevoir la réalité de manière encore plus fine : « Face à la VR de haute qualité, nous affinons nos capacités de discrimination. La réalité virtuelle nous entraîne à mieux percevoir, jusqu’à ce qu’au final, même la toute dernière configuration de réalité virtuelle ne nous semble plus de si haute qualité ». Sur ce point, la VR ressemble assez à la méthode scientifique, nous dit-il. Toujours en progrès, de plus en plus précise, mais toujours insuffisante par rapport à la réalité du monde qu’elle est censée décrire.

« La VR est la technologie qui permet de remarquer l?existence de la conscience », nous dit la 12e définition. Depuis des années, Lanier est entré en lutte contre une conception par trop robotique de la conscience humaine. En ligne de mire, il s’en prend à des philosophes comme Daniel Dennett, pour qui la conscience n’est qu’un épiphénomène de notre fonctionnement mental, une illusion sans réel impact sur notre comportement. Mais Dennett n’est que le porte-parole le plus sophistiqué d’une attitude très répandue dans la Silicon Valley : l’idée que notre personnalité puisse être mise en algorithme et prédite est l?application pratique la plus immédiate d?une telle théorie. Selon Lanier, la réalité virtuelle nous permet de nous rendre compte du caractère unique, inaltérable de l?expérience consciente. En effet, nous explique-t-il, « les machines sont modulaires. Si les parties d’une voiture sont remplacées une par une par les pièces d’un hélicoptère, alors vous finirez avec un hélicoptère ou un gros tas de camelote inerte, mais pas avec une voiture. »

Grâce à la réalité virtuelle, on peut tout changer dans notre expérience du réel. On peut habiter le corps d’un animal par exemple. Et bien entendu, l’environnement peut être complètement recréé. Mais à aucun moment on n’oublie qu’on est présent. La conscience ne change pas si l’on modifie certaines de ses parties. Le « spectateur unique du théâtre cartésien », comme le nomme ironiquement Daniel Dennett dans son livre La Conscience Expliquée (en niant sa réalité), existerait donc bel et bien.

Et c’est peut-être le grand point que Lanier souhaite démontrer avec sa technologie. Alors que de plus en plus on tend à représenter l’humain comme une espèce de robot inconscient, prévisible par les data et programmé par une multitude de biais, la VR n’a peut-être d’autre but que nous rappeler que nous existons.

Rémi Sussan

  • Transition écologique : nous ne pouvons pas (seulement) la faire nous-mêmes !

Comment mener une vie plus durable ? Cette question génère beaucoup de débats sur ce que les individus peuvent faire pour combattre le changement climatique. Bien souvent, les réponses adressent surtout les individus, leur demandant d’adopter des comportements plus responsables, comme d’acheter localement, d’isoler leurs maisons ou de prendre leur vélo (...)

Comment mener une vie plus durable ? Cette question génère beaucoup de débats sur ce que les individus peuvent faire pour combattre le changement climatique. Bien souvent, les réponses adressent surtout les individus, leur demandant d’adopter des comportements plus responsables, comme d’acheter localement, d’isoler leurs maisons ou de prendre leur vélo plutôt que la voiture? « Mais ces réponses individuelles posent la question de leur efficacité face à un changement de comportement qui nécessite d’être systémique », explique Kris de Decker sur Low-Tech Magazine (@lowtechmagazine).

Les politiques publiques de lutte contre le changement climatique, elles, sont de trois ordres : des politiques de décarbonisation (encouragement aux sources d’énergie renouvelable, aux voitures électriques…), d’efficacité énergétique (amélioration du rapport énergétique des appareils, véhicules, bâtiments?) et de changement comportemental (promotion de comportements plus durables). Les deux premières visent à rendre les modes de consommation existants moins gourmands en ressources, mais trop souvent en ne reposant que sur l’innovation technique, elles oublient l’accompagnement social, ce qui explique qu’elles n’aient pas conduit à une diminution significative des émissions de CO? ou de demande énergétique. Les progrès en matière d’efficacité énergétique ne tiennent pas compte des nouvelles habitudes de consommation et de l’effet rebond. De même, le développement des énergies renouvelables n’a pas conduit à une décarbonisation des infrastructures énergétiques car la demande énergétique augmente plus vite que le développement des sources d’énergie renouvelables. Pour Kris de Decker, cela souligne qu’il faut plus se concentrer sur le changement social. Si nous voulons que les politiques d’amélioration de l’efficacité énergétique et de décarbonisation soient efficaces, elles doivent être combinées à l’innovation sociale : d’où l’importance des politiques de changement de comportements !

Si les instruments du changement de comportement sont nombreux, ils relèvent pour la plupart de la carotte ou du bâton, quand ce n’est pas du sermon. Mais ces instruments (incitations économiques, normes et réglementations, information?) reposent sur une vision des individus comme des êtres rationnels : les gens s’engageraient dans un comportement pro-environnemental pour des raisons intéressées (parce que c’est agréable ou que cela leur fait économiser de l’argent) ou pour des raisons normatives. Mais nombres d’actions génèrent un conflit entre ces deux visions : le comportement pro-environnemental est souvent considéré comme moins rentable, moins agréable ou plus long, d’où parfois une inadéquation entre ce que les gens pensent et ce que les gens font réellement. Pour y répondre, on peut diminuer le coût des actions pro-environnementales ou augmenter le coût des actions nuisibles à la planète. Ou encore, renforcer les comportements normatifs.

Reste que les résultats de ces politiques de changement de comportement ont jusqu’à présent été plutôt limités et décevants. Le problème, estime Kris de Decker, c’est que ces politiques de changement comportemental sont basées sur le constat que ce que font les gens relève essentiellement d’une question de choix individuel. Mais, le fait que la plupart des gens mangent de la viande, conduisent des voitures ou sont connectés au réseau électrique n’est pas qu’une question de choix : les gens sont en fait enfermés dans des modes de vie insoutenables. Ce qu’ils font est conditionné, facilité et contraint par les normes sociales, les politiques publiques, les infrastructures, les technologies, le marché, la culture? En tant qu’individu, on peut par exemple acheter un vélo, mais nous ne pouvons pas développer l’infrastructure cyclable. Si les Danois ou les Néerlandais utilisent plus le vélo que d’autre, ce n’est pas tant parce qu’ils sont plus soucieux de l’environnement que d’autres, c’est d’abord parce qu’ils ont une excellente infrastructure cyclable, parce qu’il est socialement acceptable de se déplacer à vélo et parce que les automobilistes sont très respectueux des vélos et ce d’autant que l’automobiliste est toujours considéré comme responsable en cas d’accident, même si c’est le cycliste qui a commis une erreur. Or, sans cette infrastructure de soutien, on constate qu’il est plus difficile d’amener un grand nombre de personnes à pratiquer le vélo? De même, les particuliers n’ont pas le loisir de modifier les débits de l’internet ou de diminuer l’apport énergétique de la centrale électrique dont ils dépendent. « Si les individus peuvent faire des choix individuels pro-environnementaux basés sur leurs valeurs et attitudes, et inspirer les autres? ils n’ont pas la possibilité d’agir sur les structures qui facilitent ou limitent leurs options ». Les politiques comportementales renvoient les individus à leur responsabilité et culpabilité, exonérant les responsabilités politiques et économiques des institutions et des acteurs économiques, au risque de rendre ces politiques plus dissuasives qu’autre chose : les mangeurs de viande ou les automobilistes sont pointés du doigt sans qu’on interroge le système d’alimentation ou les infrastructures qui favorisent ces comportements. Mettre l’accent sur le changement de comportement individuel tient donc bien plus d’une position politique qu’autre chose.

Une autre façon de regarder les choses consiste donc à ne pas se focaliser sur les individus et leurs choix, mais sur l’organisation sociale des pratiques quotidiennes : comme la cuisine (par exemple, en luttant contre le fléau de déchets que génère les repas à emporter ou en réintroduisant des systèmes de consigne), le lavage, les déplacements… Cela signifie s’attaquer à la fois à ce qui rend par exemple la pratique automobile possible (voitures, routes, parkings, stations à essence?) et à leur signification sociale? L’action publique peut alors se déplacer, par exemple, les publicités automobiles promeuvent toutes la liberté individuelle et sont bien plus nombreuses que les promotions du cyclisme. De même, développer des routes cyclables ou limiter l’usage de la voiture est une autre action publique sur les infrastructures qui modifient la situation. Pour Kris de Decker, rien ne bougera si on n’adresse pas les problèmes de façon plus systémique qu’individuelle. « Les politiques de changement individuel ont les mêmes lacunes que les stratégies qui prônent l’efficacité ou l’innovation. Elles ne remettent pas en cause les infrastructures ou les conventions sociales qui ne sont pas soutenables ». Tout comme le recyclage des ordures ne remet pas en cause la production de déchets (voir, au contraire, le légitime), « les politiques de changement de comportement renforcent le statu quo ». L’innovation sociétale pertinente en terme de durabilité est celle qui s’installe de manière systémique dans tous les domaines du quotidien. Pour Kris de Decker, nous devons imaginer à quoi devrait ressembler la « nouvelle normalité » d’un monde durable au quotidien. Le changement social consiste à transformer ce que l’on considère comme normal. Nous y sommes plutôt bien parvenus en ce qui concerne la cigarette ou le port de la ceinture de sécurité, et ce très rapidement et même radicalement. Une politique durable et systémique nécessite de passer de « comment changer les comportements des individus » à « comment changer le fonctionnement de la société », ce qui conduit à des interventions radicalement différentes. C’est en changeant nos infrastructures de vies, les objectifs des institutions et des entreprises qui les façonnent, les conventions culturelles qui les sous-tendent que les comportements individuels changeront à leur tour ! Pas l’inverse.

MAJ : Le journaliste écologique du Guardian, George Monbiot (@georgemonbiot), rappelle dans une de ses excellentes tribunes, que nous ne sauverons pas la terre en adoptant de meilleures modalités de consommation, comme de remplacer nos usages de gobelets jetables en plastiques par des gobelets jetables en carton ou en amidon de maïs. « Bien sûr, nous devrions essayer de minimiser nos propres impacts, mais nous ne pouvons pas affronter le changement climatique et la crise des ressources simplement en prenant la responsabilité de ce que nous consommons ». Les tasses en café jetables en amidon de maïs perpétuent le problème plutôt que le résoudre. « Défendre la planète signifie changer le monde ».

  • La stratégie Océan Bleu : l?innovation peut-elle être méthodologique ?

Parmi, les grands succès des livres de management de ces dernières années, la Stratégie Océan Bleu (@blueoceanstrtgy) figure certainement en très bonne place. Publié en 2005 par les professeurs en stratégie Chan Kim et Renée Mauborgne, codirecteurs du Blue Ocean Strategy Institute et du Blue Ocean Global Network, les deux (...)

Parmi, les grands succès des livres de management de ces dernières années, la Stratégie Océan Bleu (@blueoceanstrtgy) figure certainement en très bonne place. Publié en 2005 par les professeurs en stratégie Chan Kim et Renée Mauborgne, codirecteurs du Blue Ocean Strategy Institute et du Blue Ocean Global Network, les deux spécialistes du management de l’Insead ont assurément teinté de bleu bien des projets de produits et de services depuis. La publication d?un nouveau livre, Blue Ocean Shift (déjà disponible en traduction française sous le titre Cap sur l’Océan Bleu : au-delà de la concurrence), propose une mise à jour de la méthode par le retour de ceux qu?elle a transformée, Renée Mauborgne, et qui a longtemps vécu en France, était invitée sur la scène des conférences USI pour en exposer les principaux enseignements.

Basculer dans l?Océan Bleu consiste à construire une stratégie de développement pour dépasser la compétition, pour passer de marchés extrêmes, très concurrentiels, à des marchés ouverts et en pleine croissance. « Pensez à la vente au détail, aux rues pleines de touristes, où les magasins ferment aussi vite qu?ils ouvrent. Le marché de la vente est sans pitié aujourd?hui. Même les plus puissants, comme les chaînes, peuvent faire banqueroute du jour au lendemain. » Il est difficile de naviguer dans des marchés très concurrentiels, ces océans rouges, certainement de la couleur du sang de leurs victimes dépecées par les requins qui s?y ébattent. D?où l?enjeu à les dépasser, à passer à des marchés plus ouverts, des Océans Bleus, comme de nouveaux horizons à conquérir. « Ce livre donne les outils pour passer du rouge au bleu et réussir votre transition », explique posément Renée Mauborgne en assumant le service commercial de son ouvrage et de sa méthode. « Le problème des océans rouges est que trop souvent l?offre est plus élevée que la demande ». Les concurrents se battent donc pour des miettes. L?enjeu stratégique du management est de développer de nouveaux marchés où s?épanouir, passer d?un marché contraint de concurrence, à un marché ouvert et abondant. Et bien sûr, y amener ses équipes pour qu?elles aussi accomplissent le « shift », le déplacement, la bascule, le changement de mentalité.

Renée Mauborgne souhaite rester concrète. Elle prend donc un des exemples dont elle discute longuement dans son livre. Elle montre au public une image un peu floue de bâtiments dans la jungle. Une base militaire ou une prison. En fait, c?est une base militaire de Malaisie reconvertie en prison. Le marché carcéral est-il efficace ? Pas aux États-Unis, assure la spécialiste du management. Depuis les années 80, la Californie a construit une vingtaine de prisons qui ont coûté plusieurs milliards et dont le taux de récidive est de plus de 60 %. « C?est de très mauvais résultats ». Quand le gouvernement de la Malaisie a adressé ce défi en 2010, il a pensé qu?il fallait changer de stratégie pour sortir du cycle délétère du marché carcéral, consistant à construire toujours plus de prisons dont on maximise l?utilisation en délaissant la réhabilitation. Le marché très concurrentiel des prisons n?était pas efficace. Renée Mauborgne a fait travailler ensemble plusieurs ministères pour créer une solution créative. L?idée a été de récupérer des bases militaires désaffectées pour les reconvertir en prison à moindre coût et à développer un programme de réhabilitation avec le ministère de l?Éducation permettant aux prisonniers de produire des produits agricoles, de gagner de l?argent, de recevoir des formations diplômantes, etc. En deux ans, les premières prisons ont vu le jour. Leur taux de récidive est très bas. Ces prisons sont moins chères à construire et moins chères en fonctionnement. Formés, payés, les prisonniers malais ont une seconde chance désormais à leur sortie de prison. Ce qui est loin d?être le cas partout ailleurs.

« Tout le monde me dit toujours? quand je termine une conférence? que, même si ça a marché pour eux, ça ne marchera pas pour moi. » Les gens pensent que leurs difficultés sont trop fortes, trop spécifiques. « Mais si ça a marché pour les prisons, pour qui cela ne marcherait pas ? », rassure Renée Mauborgne. « Il faut arrêter de s?inventer des excuses ». Le programme de réhabilitation communautaire de Malaisie a choisi de redéfinir les frontières, de transformer les conditions carcérales d?incarcération et de réhabilitation? preuve que beaucoup de « déplacements » sont possibles.


Image : Renée Mauborgne sur la scène d’USI, via USIevents.

Innover : c?est créer, pas disrupter !

la frontière de la productivité« Trop souvent, la stratégie d?une entreprise est la même que celle de ses concurrents ». C?est ce que Renée Mauborgne appelle la « frontière de la productivité ». Dans un marché compétitif, on ne se différencie de ses concurrents ou par un coût faible ou par une valeur pour l?acheteur forte. La frontière d?un marché représente la somme totale de ses meilleures pratiques. Dans un marché concurrentiel, la différenciation entre acteurs se joue donc sur le coût du produit ou la valeur pour l?acheteur. Pour réussir, une entreprise doit donc créer une rupture sur l?un de ces deux éléments : soit en proposant un produit moins cher, soit en proposant une valeur perçue plus élevée. « Le problème est que tous les concurrents fonctionnent depuis les mêmes postulats ! »

Mais créer un Océan Bleu, c?est faire tout à fait autre chose. Cela consiste à « rendre la concurrence non pertinente ». Pour Renée Mauborgne, les exemples sont innombrables : de JC Decaux qui a intégré la publicité aux arrêts de bus transformant le marché de la publicité urbaine, au Compte Nickel, qui a créé un espace bancaire qui n?existait pas?

« Souvent, on parle de disruption pour qualifier ces transformations », mais toutes les innovations n?en relèvent pas. Comme elle l?explique dans son livre, il faut distinguer la « création destructive », où une innovation déplace une technologie ou un produit précédent, comme la photographie numérique l?a fait à la photographie analogique. De la « disruption » où une innovation arrive avec une technologie « inférieure », plus simple ou moins performante, pour déplacer le marché. Mais parfois, l?innovation ne consiste pas en un déplacement, mais en une création « non disruptive » : il s?agit de créer de nouveaux marchés là où il n?y en avait pas. C?est le cas du marché des sonneries de téléphone, de la microfinance ou du viagra par exemple? Tous ont créé des marchés qui n?existaient pas. Dans le passage vers l?Océan Bleu, l?enjeu n?est pas de détruire, de bouleverser, de disrupter, mais au contraire de créer d?une manière non disruptive. Comme elle le précise dans son livre d?ailleurs, l?enjeu est de prêter attention à la valeur de l?innovation plus qu?à l?innovation technologique en tant que telle.

Renée Mauborgne rappelle que ses recherches ont commencé dans les années 80, dans le Michigan, où l’industrie automobile entrait en crise à l’heure de la concurrence japonaise. Les métiers industriels disparaissaient, l’âge d’or des États-Unis était derrière nous. Elle s’est intéressée alors aux organisations qui parvenaient à résister à la crise, et que pour y parvenir, celles-ci parvenaient le plus souvent à changer d’état d’esprit pour trouver une autre approche, de nouveaux clients ou marchés. « Les gens, dans leur travail, préfèrent créer des projets que gérer des situations de concurrence. Or, dans leur travail, ils passent leur temps à être en concurrence. Ils font l’opposé de ce qu’ils veulent et doivent faire. » Cela s’explique beaucoup par le fait qu’ils disposent d’outils pour tenter de gérer cette concurrence, plus que d’outils pour trouver de nouveaux clients, pour créer de nouveaux produits. Pour elle, la méthode Océan Bleu offre des outils et une feuille de route intellectuelle pour changer. « Ce ne sont pas les robots qui vont nous aider à changer ». Ce voyage doit se dérouler selon 5 étapes : tout d’abord avoir la bonne équipe pour réaliser ce déplacement conceptuel. Cette bonne équipe ne consiste pas nécessairement rassembler des gens volontaires et obéissants, au contraire, précise-t-elle. « La personne qui se plaint le plus est bien souvent celle qui a le mieux compris ce qui ne marche pas. C’est elle qui est capable de vous aider à trouver votre espace d’opportunité ». La seconde étape consiste à analyser clairement la situation. « Beaucoup d’organisations pensent que le monde est responsable de leur problème », plutôt que de regarder leurs lacunes et leurs erreurs. Cela suppose de prendre le temps d’analyser l’état du marché, ses forces et faiblesses, pour transformer les points faibles en opportunité, analyser clairement qui pourrait devenir de nouveaux clients et à quelles conditions? L’étape suivante consiste à reconstruire des frontières de marché, c’est-à-dire regarder concrètement comment aller vers ces nouvelles opportunités de marché en analysant l’environnement qui le compose pour y trouver de nouvelles possibilités de développement. Enfin, la dernière étape consiste à initier concrètement les changements. Et ce n’est pas nécessairement l’étape la plus facile.

La cartographie d'utilité de SEB pour réinventer la friteuseRenée Mauborgne prend l’exemple du groupe SEB, le groupe français spécialiste du petit électroménager qui a initié une stratégie Océan Bleu, il y a quelques années autour de la question des friteuses. Le marché des friteuses, à l’époque, était un marché sur le déclin. Seb était concurrencé par de nouveaux concurrents qui proposaient des produits d’importation beaucoup moins chers. Leur premier travail a été de se rendre compte que leur stratégie était la même que tous leurs concurrents. L’étape suivante a été alors de comprendre pourquoi les clients délaissaient les friteuses. Via un simple outil de cartographie d’utilité, permettant de pointer les points de frictions pour les clients, ils se sont rendu compte que la baisse du marché était liée aux caractéristiques des friteuses produites tant par Seb que par ses concurrents. Pour les utilisateurs, la friteuse coûte cher en huile, est difficile à nettoyer, dangereuse, sent mauvais? et on se retrouve avec de l’huile usagée dont on ne sait pas que faire. Les frites sont grasses et les faire depuis une friteuse, c’est compliqué. Tout l’enjeu a été donc pour Seb de se demander comment lever ces points bloquants. Pouvait-on proposer une friteuse qui n’ait aucune de ses contraintes ? C’est ainsi qu’ils ont créé le système ActiFry, une friteuse qui ne nécessite qu’une cuillère d’huile, facile à nettoyer, pas dangereuse, proposant des frites moins grasses? Ils ont inventé une machine plus saine. Seb est le leader de ce segment. Leur part de marché est en forte progression. Et ils ont même convaincu Oprah Winfrey de se remettre aux frites qu’elle avait arrêté de manger?

L’exemple est simple. Parlant. Pour Renée Mauborgne, il montre que le processus d’analyse proposé par la méthode porte ses fruits. Les outils méthodologiques d’analyse du marché, des besoins des clients sont utiles. « Ce processus permet à chacun de se rendre compte qu’on peut être bien plus créatif qu’on le pense et qu’on peut transformer cette créativité en opportunité ».

« Les gens ont besoin d’outils et de processus pour être encouragés à être créatifs, alors que l’essentiel de leurs outils ne les aide pas à cela. Beaucoup sont convaincus que c’est plus compliqué pour eux que pour les autres, notamment parce qu’ils ne savent pas comment s’y prendre. Croyez-vous que dans 5 à 10 ans, le marché de votre organisation va changer radicalement ? Oui, sans aucun doute répondent tous ceux qu’on interroge. Si quelqu’un va le faire changer, alors pourquoi ce ne serait-ce pas vous ? Vous pouvez le faire dès à présent. Ce n’est pas la peine d’attendre », conclut l’évangélisatrice de l’Océan Bleu, avant d’inviter le public à aller voir les prix des stratégies Océan Bleu, qui récompense depuis 2014 les meilleures stratégies de transformation d’organisations.

Magique, l’Océan Bleu ?

Bon, Renée Mauborgne fait sur scène ce qu’on attend d’elle. Elle déroule sa méthode. La nourri d’exemples simples, concrets et stimulants. Mais elle évite soigneusement d’interroger les critiques qu’a connus la méthode. Si beaucoup de spécialistes la présentent comme efficace et stimulante, elle a aussi connu des échecs. Or, à parler des succès, Renée Mauborge oublie d’évoquer les cas où le changement n’advient pas. La méthode a été également critiquée sur le fait que l’avantage stratégique qu’elle confère n’est pas nécessairement durable. La Wii de Nintendo avait bien créé une rupture dans le marché du jeu vidéo en proposant une autre expérience, mais la concurrence a réagi et la Wii U, son successeur n’a pas du tout rencontré le même succès, souligne Jean-Pierre Leac dans les Cahiers de l’innovation. Comme le pointait un autre spécialiste de stratégie des organisations, Philip Rosenzweig, l’un des premiers critiques de la méthode : si on n’interroge que les gagnants, jouer au loto devient une méthode tout à fait valable pour gagner de l’argent ! D’autres, comme Philippe Silberzahn, pointent que trouver un nouveau segment de clientèle est souvent plus le fruit d’une évolution continue d’un produit ou concept que le résultat d’une grande planification. Ou que créer un marché ne signifie pas qu’on le dominera : personne ne connaît plus les inventeurs des premiers lecteurs MP3, mais tout le monde se souvient de l’iPod venu pourtant quelques années plus tard. Pour Benoît Sarazin enfin, la méthode passe également sous silence les phénomènes de résistance à l’adoption. Vous pouvez tout à fait proposer un nouveau produit qui ne séduira personne et ce d’autant que d’autres solutions très différentes existent… à l’exemple des frites surgelées à cuire au four?

Bref, la grande force de l’Océan Bleu consiste, comme toujours, de proposer une méthode, avec, comme toute méthode de management stratégique, ses limites et aussi ses promesses. Et une méthode est toujours un levier pour naviguer dans les incertitudes d’un monde des affaires par définition sans cesse changeant, sans cesse mouvant? où chacun fait semblant de ne pas toujours avancer à tâtons au moins pour avoir l’air plus professionnel.

Hubert Guillaud

  • Comment construire des technologies avec les sciences comportementales ?

Dan Ariely (Wikipédia, @danariely) est un habitué de la grande scène des conférences USI qui se tenaient à Paris fin juin. Il était déjà là l’année dernière. Ce professeur de psychologie et d’économie comportementale, fondateur du Center for Advanced Hindsight est l’un des penseurs de l’économie comportementale, avec Richard Thaler (...)

Dan Ariely (Wikipédia, @danariely) est un habitué de la grande scène des conférences USI qui se tenaient à Paris fin juin. Il était déjà là l’année dernière. Ce professeur de psychologie et d’économie comportementale, fondateur du Center for Advanced Hindsight est l’un des penseurs de l’économie comportementale, avec Richard Thaler et Cass Sunstein (voir notre dossier de 2010 et sa mise à jour en 2017). Auteur de nombreux livres sur la psychologie comportementale (le dernier publié en novembre 2017 s’intéresse à notre mécompréhension de l’argent), le chercheur s’est également investi dans le développement de nombreux services et produits pour les repenser depuis les enseignements de l’économie comportementale.

« Les sciences sociales sont indispensables pour concevoir les choses », attaque le professeur sur la grande scène de l’USI, rappelant par là aux ingénieurs présents que leur vision et leur compréhension du monde sont profondément incomplètes et bien souvent inadaptées. Pour le démontrer, il va prendre un exemple simple et particulièrement éclairant : la question des régimes alimentaires. « On ne sait pas très bien comment aider les gens à perdre du poids ». Pourtant, les méthodes de régimes aujourd’hui sont partout. Multiples, innombrables, nous sommes cernés d’injonctions à maigrir, effectivement bien souvent parce que nous sommes trop gros ou que nous nous nourrissons mal ou que nous ne nous dépensons pas assez. Nombre d’entre nous pensent qu’il suffit de dire aux gens de perdre du poids pour qu’ils s’y mettent. Certains pensent qu’il faut améliorer l’information nutritionnelle? D’autres qu’il suffit de faire du sport? Mais toutes ces méthodes, toutes ces injonctions marchent assez mal et elles ne suffisent pas à nous faire prendre de bonnes habitudes et à être attentif à soi.


Image : Dan Ariely sur la scène d’USI, via @usievents.

La précision n’est pas toujours la meilleure information

« Dans la vie quotidienne, on ne pense pas souvent à sa santé. On y pense souvent en réaction à ce qui nous arrive. En fait, au quotidien, on n’y pense qu’à deux moments dans la journée : quand on se brosse les dents et quand on monte sur sa balance. »

Que savons-nous des balances ? On sait qu’il vaut mieux se peser le matin que le soir, non pas tant parce que le soir on pèse souvent un peu plus lourd (nous avons tous des fluctuations de poids dans la journée), mais parce que monter sur sa balance le matin nous rappelle que nous voulons être en bonne santé, alors que quand on le fait le soir, on s’endort et on n’y pense plus au matin. Le matin, monter sur sa balance agit comme un acte de renforcement, d’engagement, qui nous rappelle nos objectifs, à savoir qu’on veut rester en bonne santé. Reste que peu de gens aiment à monter sur leur balance le matin, car bien souvent, elle apporte une mauvaise nouvelle. En fait, quand les gens font des efforts pour manger moins ou plus équilibrés, ils s’attendent à ce que leur poids change très vite. On ne mange rien de la journée, et on espère que notre poids va réagir en conséquence. Or, en réalité, le corps met entre 8 et 15 jours à réagir. Il fonctionne autrement que notre motivation. « Bien souvent, on fait un effort, et puis on constate que ça n’a pas eu d’effet. On est déçu. On se démotive et on se remet à manger? » Personne n’aime monter sur une balance. Et tout le monde souhaite des résultats immédiats. Comment surmonter ces problèmes ? Peut-on concevoir une balance qui permettrait d’améliorer cela ?

la balance MyShapa et son applicationC’est ce à quoi a travaillé Dan Ariely avec MyShapa. MyShapa est une balance sans chiffre dotée d’une application. Plutôt que de donner une mesure précise ou ultra-précise comme le font la plupart des balances numériques, au risque de montrer les fluctuations de poids (et donc un gain de poids), MyShapa vous invite chaque jour à monter sur sa balance sans écran, pour vous rappeler votre engagement de prendre soin de votre santé. La balance calcule une moyenne de votre poids sur 3 semaines. Le but est ainsi de lisser votre poids pour que les fluctuations naturelles et quotidiennes ne viennent pas vous démotiver dans votre effort. L’application d’ailleurs ne vous donne jamais votre poids en kilo, elle vous donne une note de 1 à 5, pour vous aider à accomplir votre effort. « L’enjeu n’est pas de donner le plus d’information possible et précise en temps réel comme on le croit trop souvent, mais au contraire de traiter les informations pour vous aider à poursuivre vos objectifs, de saisir les liens de cause à effet. » Par exemple, lorsque les femmes ont leurs règles, elles ont tendance à boire plus d’eau et donc à prendre un peu de poids : d’où l’importance de lisser ce moment dans le temps, car si la prise de poids est démotivante, elle n’a ici qu’une incidence contextuelle (que la balance est capable de prendre en compte). En passant du poids à une indication de comportement qui vous indique vos progrès MyShapa semble une balance qui ment. En fait, elle est conçue pour encourager ceux qui font des efforts. Elle propose ainsi des missions à ses utilisateurs (marche, recettes de cuisine?) et encourage ceux qui l’utilisent sur une base journalière à tenir leurs engagements (voir la vidéo promotionnelle qui explique très bien le fonctionnement de la balance).

Les développeurs de MyShapa ont bien sûr testé leur solution. Alors qu’en 12 semaines, les personnes qui utilisent une balance normale ont tendance à perdre jusqu’à 0,78 % de leur poids ou gagner 1,22 %, les utilisateurs de Shapa ont perdu entre 0,88 % et 0,40 % de leur poids. En moyenne ils ont perdu un peu plus de 2Kg en 12 semaines. Mais surtout, insiste Ariely, les utilisateurs estiment que leur décision en matière de santé s’était améliorée. Bon, me direz-vous, vous aurez peut-être l’impression de recevoir là un très bon discours promotionnel pour un nouveau produit? Reste qu’adapter l’information à nos biais psychologiques et cognitifs comme le propose très concrètement cette balance est un intéressant renversement de paradigme. « Les balances numériques nous ont tracé avec trop de précision. Apporter plus d’information par rapport aux vieilles balances mécaniques à aiguilles était une erreur. Connaître les choses précisément ne signifie pas toujours mieux les connaître », pointe Ariely en nous invitant à concevoir l’information autrement pour qu’elle soit meilleure pour nous, plus adaptée à nos comportements.

Pour Dan Ariely cette approche pourrait bénéficier à bien d’autres appareils, notamment dans le domaine de la santé (et certainement bien au-delà). Retenons en tout cas que la précision, l’exactitude ou la transparence, ne sont pas toujours la meilleure façon de présenter les choses, bien au contraire. Les métriques produites en temps réel, comme nous le proposent nos produits numériques, célèbrent une forme d’engagement continu et immédiat, mais ne produisent pas pour autant les effets escomptés. Comme il le confiait à Wired, en critiquant les applications de mesure de soi : « en apportant aux gens plus de granularité, nous rendons l’information moins utile » C’est là des constats souvent pointés, mais qui demandent une autre approche pour être transformés. C’est la force de la démonstration d’Ariely : nous inviter à faire un pas de côté pour sortir de la précision angoissante des mesures produites uniquement parce qu’elles sont possibles. Et chercher d’autres solutions que les plus faciles.

Aligner les intérêts des parties prenantes

Dan Ariely est impliqué dans bien d’autres entreprises. Il s’est notamment beaucoup intéressé à la valeur de la confiance? Or, la confiance est une notion fragile. « On apprécie sa valeur quand on la perd ». Il présente à sa démonstration plusieurs petits jeux réalisés par des chercheurs pour tenter d’observer ce qui motive la confiance. L’un des plus connus est le « jeu des biens publics » (qu’il présentait déjà en 2016 à un TEDx). Prenons 10 personnes à qui l’on donne chaque matin 10 dollars. Ils peuvent garder cet argent pour eux-mêmes ou peuvent mettre cet argent dans un pot commun. L’argent mis dans le pot commun se multiplie chaque jour par 5 et est redistribué équitablement entre les 10 participants. Le premier jour, tout le monde met au pot commun et à la fin de la journée chacun a gagné 50 dollars. « Voilà une bonne société ! Tout le monde contribue au bien commun, le bien commun s’accroît et tout le monde en bénéficie ! » Mais un jour, un des participants ne contribue pas. Chacun gagne donc 45 dollars à la fin de journée, mais celui qui a trahi la confiance, lui a gagné 10 dollars de plus, les 10 dollars qu’il n’a pas mis au pot. Il a donc été récompensé de sa traîtrise. Le problème, c’est que le jour suivant, plus personne ne veut plus contribuer. Le jeu du bien public est un jeu à deux situations d’équilibre : soit tout le monde contribue et gagne, soit personne ne participe. « C’est un jeu qui favorise des positions extrêmes, sans situations intermédiaires, où l’optimum est extrêmement fragile ». Il suffit qu’une personne rompe la confiance et tout s’effondre. Et la situation n’est pas symétrique : une fois que la confiance est perdue, la rétablir est très difficile. Alors que le déséquilibre, lui, est très facile à atteindre. Ce jeu est une parabole de la confiance en société estime Ariely. La confiance est un bien commun si tout le monde y contribue? Et la difficulté est de trouver des mécanismes pour l’augmenter ou la développer tant elle est fragile.

L'interface de Lemonade, l'assureur chatbotLe monde de l’assurance devrait reposer sur la confiance. Mais ce n’est pas le cas. Les assurés paient des cotisations et, lors d’un sinistre, souhaitent être remboursés. Or, l’assureur n’a aucun intérêt à le faire. Le client est donc incité à tricher, l’assureur le sait et développe des méthodes de surveillance, de défiance, de contrôle rendant les règles de plus en plus complexes. « Quand les gens de Lemonade sont venu me trouver pour construire une compagnie d’assurance numérique, je leur ai dit que j’y participerais si on parvenait à éliminer le conflit d’intérêts et à générer de la confiance », explique le chercheur. Lemonade y est parvenu en faisant entrer un tiers dans le système, pour changer le modèle d’affaire de l’assurance. Dans le monde de l’assurance, chaque dollar qu’on vous rembourse est un dollar de moins pour les profits de l’entreprise. D’où le conflit d’intérêts profond que l’assureur a quand il vous arrive quelque chose. Lemonade prend un forfait fixe sur le montant de votre assurance et c’est tout. Les sommes collectées, elles, appartiennent collectivement aux assurés et les bénéfices sont reversés annuellement à des oeuvres de bienfaisance au choix de l’assuré. Cela incite les assurés à ne réclamer que leurs dus. Lemonade rembourse plus vite et plus facilement. Ce que vous récupérez, c’est ce qui ira en moins à l’oeuvre de bienfaisance bénéficiaire. Pour les inventeurs de Lemonade, c’est une entreprise à bénéfice public qui ne se rémunère pas en retardant ou en refusant un remboursement. Leur impact social est construit par leur modèle économique. En fait, souligne Ariely, quand on triche sur Lemonade pour obtenir un remboursement plus élevé? c’est au détriment de l’oeuvre de bienfaisance qu’on soutient. Pour Ariely, l’un des exemples qu’il aime à évoquer est l’histoire de Jim, client de Lemonade qui demande un remboursement pour un ordinateur qu’on lui a volé. Quelque temps après avoir reçu son remboursement, il a contacté Lemonade pour demander à ce qu’on le dérembourse parce qu’il avait retrouvé son ordinateur. D’autres histoires de ce type ont été rapportées, comme quelqu’un qui a remboursé un trop-perçu, car la facture de son plombier a finalement été moins élevée que prévu. Pour Ariely, ces exemples soulignent la valeur de confiance que la pépite de la technologie des assurances est parvenue à créer.

Le modèle économique de Lemonade n’est pas sa seule particularité, même si Ariely ne détaille pas les autres aspects. La startup emblématique du monde de l’assurance fonctionne avec force algorithmes, chatbots et IA pour fournir des contrats depuis une simple application et gérer les réclamations d’une manière automatique. Toute demande de remboursement est ainsi inspectée par des algorithmes de détection des fraudes en quelques minutes et un remboursement est le plus souvent déclenché automatiquement en quelques secondes. Lemonade n’assure pas tous les sinistres : elle est spécialisée pour l’instant dans l’assurance domestique, habitation et locative. Les innovations de la startup interrogent à la fois les modèles et critères que Lemonade prend en compte pour accepter de nouveaux clients (beaucoup de primoassurés, c’est-à-dire de gens n’ayant jamais souscrit d’assurances) ainsi que ses méthodes pour remplacer les gestionnaires de sinistres par des calculs (faisant peser de sombres perspectives sur le marché de l’emploi dans le secteur de l’assurance). Depuis les calculs qu’ils produisent, les fondateurs de Lemonade ont récemment décidé de supprimer les franchises et produit un contrat simplifié open source. Reste que, malgré toutes les explications disponibles sur le blog de l’entreprise, le fonctionnement technique de Lemonade demeure discret. Sur quels indices et critères leur IA décide-t-elle d’un remboursement ? Utilise-t-elle des techniques de reconnaissance faciale pour détecter si ses assurés mentent dans les vidéos qu’ils doivent produire pour déclarer un sinistre et réclamer un remboursement ? On ne sait pas. En tout cas, l’innovation chez Lemonade n’est pas circonscrite au modèle économique qu’expose Dan Ariely, ce qui en fait un service innovant sur bien des points.

Plusieurs mécanismes permettent d’augmenter la confiance, rappelle encore Ariely. Les relations à long terme, la réputation et la transparence, la vengeance… et plus encore, la construction d’intérêts alignés, à l’exemple du modèle de Lemonade.

Et le professeur de conclure : « Nous avons inventé la lumière pour lutter contre la nuit. Nous nous sommes construit des béquilles technologiques pour nous comporter comme des surhommes. Aujourd’hui, notre monde mental est devenu très complexe. Il nous faut désormais gérer beaucoup de complexité pour vivre plus longtemps et nos décisions sont devenues bien plus difficiles à prendre. D’où l’importance de construire des moyens pour avoir des prises sur le monde mental que nous avons construit. Il nous faut désormais travailler à construire des outils cognitifs, c’est-à-dire des outils qui nous aident à naviguer dans la complexité du monde mental qui est le nôtre. »

Lemonade ou MyShapa sont en tout cas deux produits emblématiques de l’application des théories de l’économie comportementale aux services. Et leurs modalités de différenciation sont assurément inspirantes.

Hubert Guillaud

  • Le dernier message de John Perry Barlow (2/2) : un penseur de la noosphère

Malgré leur intérêt historique, il faut bien reconnaître que les mémoires de Barlow nous laissent parfois sur notre faim (voir la première partie de notre compte-rendu de son livre posthume). Côté psychédélique ? On apprend que Barlow a fait la connaissance de Timothy Leary (autre grande icône du psychédélisme passée à (...)

Malgré leur intérêt historique, il faut bien reconnaître que les mémoires de Barlow nous laissent parfois sur notre faim (voir la première partie de notre compte-rendu de son livre posthume).

Côté psychédélique ? On apprend que Barlow a fait la connaissance de Timothy Leary (autre grande icône du psychédélisme passée à la cyberculture) dès 1967, qu’il lui a même présenté les membres du Dead. Mais il ne le reverra pas avant les années 90, et Leary n?apparaît que peu dans les mémoires.

Le Dead ? Oui, il a été le parolier de Bob Weir. Mais quiconque voudrait en savoir plus sur la vie au sein du groupe, voire sur l’histoire du Haight Ashbury et des hippies en général en sera pour ses frais. Peu de choses là-dessus. La plupart du temps, Barlow était dans le Wyoming ou à New York, loin du San Francisco de ses amis. Ses relations avec John Kennedy Jr. ? Un jour, Jackie Onassis lui téléphone, sur les conseils d’amis, pour obtenir pour son fils John un stage dans un ranch? Anecdotique.

L’énigmatique John Barlow


On a parfois l’impression à la lecture que Barlow est un simple spectateur, qui a croisé beaucoup de monde, mais qui finalement a joué un rôle mineur. C’est bien évidemment faux. Actif, influent, il l’a été. Pas seulement au niveau collectif avec la création de l’EFF et sa défense des libertés numériques. Mais aussi au niveau individuel, par les vocations qu’il a suscitées. Il raconte ainsi vers la fin de son bouquin, qu’il fit une intervention dans un collège en 1996, dans une classe où se trouvait le jeune Aaron Swartz, alors âgé de 10 ans. Pour mémoire, ce jeune activiste est connu pour avoir été persécuté par la justice américaine parce qu’il avait téléchargé et diffusé des articles scientifiques sous copyright. Risquant une peine de prison de 35 ans et une amende d’un million de dollars, il a préféré mettre fin à ses jours.

Lorsqu?en 2013, Aaron Swartz fit son entrée à titre posthume dans l’Internet Hall of Fame (en même temps que Barlow) ce dernier demanda au père du jeune homme s’il lui avait parlé de cette rencontre près de 20 ans plus tôt. Le père lui répondit : « sa vie a été différente à partir de ce jour ».

Son adhésion aux Républicains est également peu détaillée. Un Républicain psychédélique, opposé à la guerre du Vietnam, au nucléaire, à la guerre du Golfe ? Certes, Barlow n’est pas le seul Républicain issu de la contre-culture. L’acteur Dennis Hopper en est un autre exemple fameux. Mais on ne trouvera pas de justification de cet engagement dans son livre. Tout juste sait-on qu’à son retour d’Inde, Barlow transportera dans ses bagages une tête de Bouddha remplie de cannabis, un test pour savoir définitivement s’il « est un hors-la-loi ou Républicain ». Une formule qui éclaire peu, mais qui montre son ambiguïté quant à sa famille politique. Sans doute peut-on expliquer sa sympathie pour le parti à l?éléphant par son individualisme forcené, et par le fait que finalement, Barlow soit resté toute sa vie un cow-boy ; ou plus exactement un éleveur, un « cow-man » un « cow-boy de la haute », comme lui ont expliqué ses parents (« John Perry, un cow-boy travaille pour un salaire. Un cow-man est quelqu’un qui possède un ranch. C’est cela que tu veux être.« ).

D’où l’importance chez lui du mythe de la frontière, que partagent tant les Deadheads que les premiers adeptes du Réseau. John Barlow, le rancher entouré de cow-boys, est né et a vécu dans un western. Une fascination de l’Ouest qu’on retrouve constamment dans les paroles du Dead (paradoxalement, davantage dans celles écrites par Robert Hunter, l’autre parolier, que chez Barlow lui-même), mais qui est aussi ultra-présente dans la déclaration d’indépendance du cyberespace. Leary, nous raconte Barlow, avait coutume de le décrire comme l?américain archétypal, le présentant ainsi à ses amis : « voilà John Barlow, c’est un Américain ».

Quel héritage ?


Reste la question de son héritage. Que reste-t-il de sa déclaration d?indépendance du cyberespace, de son slogan « l’information veut être libre » (libre prenant aussi le sens de gratuit) ?

Il est évident qu?aujourd?hui avec les atteintes à la vie privée opérée par les entreprises, le rêve d’un internet anarchiste, complètement dérégulé, a pris un sacré coup de plomb dans l’aile. Un reproche que certains n?hésitent pas à faire à Barlow, par exemple l’écrivain Jesse Jarnow, auteur d’une biographie du mouvement psychédélique, dans Wired :

« Ses idées sur l’économie politique pouvaient parfois être classiquement proches du marché libre, mais elles étaient presque toujours exprimées avec une verve barlowienne. « La nature est un système de marché libre », écrivait Barlow en 1998. « Une forêt tropicale est une économie non planifiée, tout comme un récif de corail. La différence entre une économie qui trie l’information et l’énergie sous la forme de photons et une qui convertit l’information et l’énergie en dollars est légère dans mon esprit. L’économie est l’écologie. » Peut-être, mais il est également difficile de nier que la Grande Barrière de Corail aurait pu aller mieux grâce une intervention de type New Deal.

Cependant il me paraît difficile de classifier Barlow comme simplement un « libertarien ». Je ne me souviens pas – mais il faudrait éplucher l?ensemble de ses écrits -, qu’il se soit engagé en quelque manière contre les aides sociales et les droits du travailleur, deux revendications centrales des libertariens américains. Le terme – également américain – de « libertarien civil » lui conviendrait sans doute mieux.

Sans doute la situation est-elle compliquée par le fait qu’il n’existe en anglais qu’un seul mot pour libertarian – libertarien regroupant à la fois une croyance en la valeur du marché et dans les droits fondamentaux de l’individu, là où, en France nous distinguons « libertaire » et « libertarien ». Les abonnés du Monde libertaire sont rarement capitalistes ! Ce genre d’ambiguïtés de langage est un excellent exercice de méditation pour les adeptes de l’hypothèse Sapir-Whorf.

Son opposition au système du copyright, sa défense inconditionnelle de la liberté de l’information, est l’exemple de l’expression d’une position politique qui ne peut simplement être associée au capitalisme traditionnel. Une idée qui lui vient largement de ses années en compagnie du Grateful Dead. Contrairement à la plupart des autres musiciens, le Dead a toujours autorisé l’enregistrement de ses concerts, à la condition expresse que ces bandes (puis plus tard, ces fichiers) ne soient pas commercialement vendues, mais échangées gracieusement. Au final, le Dead, qui au cours de ses 30 années de carrière, a finalement assez peu enregistré d’albums en studio, dispose en fait d’une copieuse bibliothèques de concerts disponibles aujourd’hui sur le Net, que ce soit sur YouTube ou sur sugarmegs.org (hébergé par archive.org).

Une vision métaphysique


Si la déclaration d?indépendance du cyberespace peut sembler datée aujourd’hui, elle n’en constitue pas moins une vision qui a structuré le Net pendant ses premières années. Vision à corriger, à critiquer sans doute, mais vision tout de même : qu’on le veuille ou non, toute notre façon de penser le réseau, de la Wikipedia au logiciel libre en passant par les notions plus abstraites d’intelligence collective et de « participation », doivent beaucoup à l’esprit des années 90, pas seulement à Barlow mais à l’ensemble des promoteurs de la pensée hacker, comme R.U Sirius et la rédaction de Mondo 2000, ou John Gilmore, Richard Stallman ou Eric Raymond

Y a-t-il d’autres visions prêtes à prendre la succession ? D’autant plus que le besoin légitime de régulation de la Toile qui s’est fait jour ces dernières années n’a pas tardé à servir de prétexte à une nouvelle mainmise des États sur la libre expression du réseau, ainsi qu’on a pu le constater ces tout derniers jours, avec une loi sur les fake news, qui, tout en partant d’un bon sentiment, met en danger la liberté de la presse, ou, plus dangereux encore, les nouvelles lois sur le copyright actuellement discutées par la communauté européenne.

Et j?insiste sur le terme « vision » : le cyberespace libre, dans l’esprit d?un Barlow, appartient moins à la sphère de l’homo economicus (un concept que Gregory Bateson qualifiait de « la plus ennuyeuse des inventions »), qu’à celle de la métaphysique.

« Il existe très peu de choses dans ma vie qui n’ait pas été une forme d’exploration spirituelle », explique Barlow dans ses mémoires. Si Barlow se passionne pour l’internet, c’est bel et bien, parce que dès qu?il le découvre, il en entrevoit les possibilités philosophiques : « Ce qui était plus intéressant pour moi, c’était Internet lui-même. Immédiatement, il devint clair pour moi que c’était le système nerveux de la noosphère – une sphère hypothétique dominée par la conscience, l’esprit et les relations interpersonnelles – à laquelle je pensais depuis que j’en avais rencontré la notion dans les ?uvres du père Pierre Teilhard de Chardin pendant mon passage à l’université » (Barlow a un diplôme de religions comparées).

Barlow n’est pas le seul a faire le lien entre la noosphère de de Chardin et le Net : c?était presque un lieu commun dans les milieux cyber des années 90 (il existe un essai d?Eric Raymond, le père de l’open source qui s’intitule « s’établir dans la noosphère« ), mais je ne serai pas surpris que Barlow ait été le premier à établir cette comparaison).

Bien que Barlow n’ait jamais eu d?intérêt pour le transhumanisme (si l’on en croit ses mémoires, il aurait été celui qui a fini par convaincre Timothy Leary de renoncer à se faire cryogéniser ; même si, à mon avis, le fait que Leary se soit fait virer par sa compagnie de cryonique a aussi joué fortement !), on trouve chez lui cette idée de l’uploading, cette croyance à la possibilité du téléchargement de l’esprit dans un ordinateur. Mais cet uploading, pour lui, ne s’effectue pas au niveau individuel : c’est une transformation collective ! C’est toute l’humanité qui se « télécharge » !

Au final, la meilleure définition de Barlow a peut être été donnée il y a plus de deux décennies par l’écrivain Bruce Sterling, dans The Hacker Crackdown :

« Barlow se décrit lui-même comme un «techno-cinglé». Un terme vague comme «activiste social» ne serait peut-être pas incorrect non plus. Mais on pourrait mieux décrire Barlow comme un «poète» – si l’on garde à l’esprit la définition archaïque de Percy Shelley, des poètes en tant que «législateurs méconnus du monde». »

Rémi Sussan

  • De la démocratie aux médiarchies

Comme le remarquait Nicolas Vanbremeersch (@versac), directeur du Tank et co-organisateur de la 23e édition des rencontres Aux sources du numérique, le dernier livre d?Yves Citton, Médiarchies, est un livre qui fabrique de la théorie. C?est même un manuel de médiologie ajouterais-je, qui saisit les différentes couches qui organisent notre (...)

Comme le remarquait Nicolas Vanbremeersch (@versac), directeur du Tank et co-organisateur de la 23e édition des rencontres Aux sources du numérique, le dernier livre d?Yves Citton, Médiarchies, est un livre qui fabrique de la théorie. C?est même un manuel de médiologie ajouterais-je, qui saisit les différentes couches qui organisent notre rapport aux médias, à la manière d?une archéologie, qui déplierait, comme on le fait d?un oignon, les différentes strates qui composent ce régime qui nous gouverne, celui des médias.

Pour le professeur de littérature et média Yves Citton, qui dirige la revue Multitudes, la thèse du livre dit une banalité dont on ne tire pas conséquences : nous ne vivons pas dans des démocraties, mais dans des médiarchies. Si la démocratie est un désir, un espoir, un idéal? qui vise à donner le pouvoir au peuple, les médias semblent à la fois être une modalité de médiation entre cet idéal et la réalité et une modalité d’interférence. D’où l’enjeu qu’il y a à comprendre les structures de circulation, de production et valorisation de l’information? à « se donner des outils conceptuels et imaginaires pour apprendre à voir, comprendre et questionner en quoi consiste cette médiarchie », comme le souligne Citton dans son livre, « à comprendre ce qu’ils nous font« , ce que sont ces formes d’expériences et de pouvoirs.

Media, Médias, Médiums et Méta-media? : de l’enregistrement à la traite de l’information

Dans son livre, Yves Citton distingue 4 acceptions différentes des médias qu’il distingue par des termes aux graphies différentes. Le medium et les media concernent d’abord tout ce qui sert à enregistrer, transmettre, traiter ou transformer de l’information, des discours, des images, des sons. Ce terme désigne alors à la fois les supports (c’est-à-dire les objets matériels) mais aussi les effets de réseaux et les conventions. Le second niveau concerne les médias, c’est-à-dire ce qui permet de diffuser de l’information à un public, notamment les médias de masse (journaux, radio, télé?) et s’intéresse aux effets de diffusion. Un autre niveau désigne le médium et les médiums, c’est-à-dire les résonances médiatiques dans lesquelles baignent nos perceptions et nos échanges quotidiens en régime de modernité. Ce médium là, fait explicitement référence à celui qui a le pouvoir de communiquer avec les esprits : il évoque le magnétisme qui opère entre nous, les fantômes qui nous parlent encore, la magie, comme quand on lit un livre de Platon ou qu’on voit une vidéo de Foucault ou de Deleuze, ces morts qui ne cessent de nous parler ou dans la surveillance qu’exercent les outils numériques sur nos pratiques d’information… Ce niveau-là fait également référence aux questions de résonances de l’information. Le 4e niveau que distingue Yves Citton est spécifique aux médias numériques, qui parlent pour les distinguer de méta-media. C’est à la fois la capacité du numérique de simuler tout autre media préexistant et s’intéresser aux phénomènes de simulation que produit le numérique. Mais le numérique n’ajoute pas qu’une caractéristique de simulation, il ajoute aussi une qualité d’ubiquité et la capacité à enregistrer les traces. C’est à la fois la caractéristique du numérique à compliquer et à expliquer. « Le compliqué, c’est ce qui est plié dedans ou avec, alors qu’expliquer, c’est déplier, à l’image des média qui déplient les plis »

Avec le numérique, la capacité à enregistrer des traces est devenue primordiale, à l’image de FB qui les enregistre, les exploite et les vend. « Cette capacité nouvelle est importante parce qu’un medium ou des médias n’ont aucune valeur par eux-mêmes tant qu’il n?y a pas de l?attention humaine qui se donne à ces médiums, qui s?investissent, qui vivifient à ces médias. Ces traces, cette valeur, sont en grande partie nos comportements attentionnels. Les médias conditionnent notre attention en nous rendant attentifs au monde comme le fait le journal télévisé, et nous donnons en retour vie ou valeur à ce qui relève des médias par l’attention qu’on leur porte. » Les médias ont toujours prêté attention aux traces attentionnelles que ce soit en mesurant leurs ventes ou leur audience. Mais les méta-media renforcés par la caractéristique ubiquitaire du numérique, font que toutes nos formes d’attention sont susceptibles d’être traçables ce qui crée une dynamique nouvelle entre attention et attente. Par ces jeux-là, nos traces d’attention peuvent être dirigées vers nos attentes et inversement. Avec le numérique, il est donc possible d’opérer un traitement, une transformation. « La traite – le mot est intéressant – c’est à la fois ce qu’on fait aux vaches ou ce qu’on a fait au peuple africain. Les méta-media ont pour triple caractéristique donc de simuler les médias, d’être ubiquitaires et de permettre la traite de nos attentions ».

Comment répondre à cette « traite » ? Comment « décoloniser la médiarchie » ?, questionne Nicolas Vanbremeersch. C’est-à-dire comment décoloniser les médias de l’impérialisme publicitaire et de son emballement consumériste, mais aussi favoriser une diversité culturelle, et surtout « stimuler les esprits plutôt que de les occuper » ? Peut-il exister un traitement progressiste, un traitement qui ne soit pas autoritaire ?

« Il y a plusieurs manières de modifier l’infrastructure médiatique, comme y introduire de nouveaux virus ou organismes qui proposeront ou imposeront de nouveaux modèles », répond Yves Citton, à l’image de propositions des nouveaux médias qu’accueille le Tank Media. L’évolution des médias se fait souvent par le bas, par la proposition de nouvelles formes. Mais déconstruire les infrastructures des médias, cette « hétérarchie« , nécéssite de s’interroger aussi sur le régime de la médiarchie. Nikos Smyrnaios, dans son livre, Les Gafam contre l’internet développe la thèse que la médiarchie relève d’une oligarchie. Nous ne sommes pas dans un régime autocratique, mais dans une oligarchie de structures, d’agents et d’intérêts qui se partagent le gâteau attentionnel. Yves Citton préfère parler d’hétérarchie, c’est-à-dire d’une coexistence de plusieurs systèmes et critères de valeurs. Un écosystème qui se réorganise en permanence et qui est co-dépendant. On peut certes développer de nouveaux médias, mais ils s’inscrivent dans des lois, des règles, une organisation, des systèmes faits d’une multitude couches et de niveaux. À la fin de la Seconde Guerre mondiale on a ainsi mis en place un système de distribution des journaux en kiosques, avec certes des lourdeurs, mais qui était construit pour garantir un accès égal aux petits comme aux gros journaux. Chez les Grecs, il y a avait des lois et des règles pour parler à l’Agora.Il y a donc toujours des normes, des règles, des lois qui contrôlent la façon dont l?information circule dans une société. L?enjeu n?est pas tant de faire la révolution que d’introduire de nouvelles puissances ou de nouvelles règles pour participer à la métamorphose, à la transformation, à la régulation de l’infrastructure médiarchique, par exemple on pourrait le faire en taxant la publicité pour la redistribuer à la diversité informationnelle.

Le débat sur les fake news actuel montre qu’il est nécessaire de procéder à une recomposition, non pas tant de la circulation de l’information que des troubles attentionnels que certains exploitent pour nuire? rappelle Nicolas Vanbremeersch qui vient de publier un article sur la question dans la revue Le débat. Les médias doivent-ils se défaire du mythe de la recherche de la vérité ? N’est-ce pas pourtant parce qu’ils nous ont aidés à développer notre esprit critique qu’on n’y croit plus ?

Vérité, réalité, pertinence, cadrage : ce dont nous parlons a directement un effet sur la réalité

« Le terme de post-vérité m’agace beaucoup », reconnaît Yves Citton qui rappelle qu’il n’y a jamais eu de moments bénis de vérité. Il faut pourtant distinguer la vérité, au sens de la réalité extérieure à laquelle on peut faire référence, comme de dire qu’il pleut et qu’on puisse le vérifier, de sa pertinence, c’est-à-dire se demander ce que cette vérité nous dit : le fait qu’on soit à l’intérieur par exemple fait qu’il pleuve ou pas n’a pas la même incidence. « La vérité est dépendante de la pertinence » : le fait de savoir combien de cheveux on a sur la tête par exemple n’en a aucune. Or, beaucoup de vérités manquent de pertinence dans nos pratiques.

Enfin, entre la pertinence et la vérité, il faut aussi évoquer la question du cadrage. « Les médias cadrent ce qu’on voit, comme les journaux recadrent les images qu’ils nous donnent à lire ou décident des sujets qu’ils traitent ». Plus que les mensonges ou les contre-vérités, les problèmes relèvent bien souvent de questions de cadrages et de pertinence. Pourquoi les journaux s’intéressent-ils (et nous intéressent-ils) à un mariage princier plutôt qu’autre chose ? Le cadrage qu’ils proposent suit des obsessions et produit des dysfonctionnements. On cadre sur des types qui brandissent un couteau dans la rue et on s’obsède de cela. On cadre avec le terrorisme et on met cela en résonance avec une religion, une menace sur la civilisation, etc. Ces cadrages produisent des effets qui se démultiplient par rapport à l’information elle-même. En cela, les médias procèdent à des « coupes agencielles », ils ne représentent pas la réalité, mais la cadre d’une certaine façon qui fait réalité. Pour Yves Citton, c’est là l’effet médiumnique des médias. C’est l’effet magique de la parole et des médias. « Si je vous dis ne pensez pas aux éléphants, d’un coup, ils adviennent ! » Ce dont nous parlons a directement un effet sur la réalité.

L’artiste Lauren Huret s’apprête à faire une exposition au Centre culturel Suisse à Paris qui montre les gens qui travaillent pour Google et Facebook pour trier les contenus. Hans Block et Moritz Riesewieck ont réalisé un documentaire, The Cleaners (bande-annonce), qui s’intéresse également au travail de filtrage de ceux qui nettoient les égouts d’internet. La plupart du temps, ces employés ne tiennent pas longtemps. Comme les pompiers de Tchernobyl ou de Fukushima, ils ne tiennent pas longtemps face à la toxicité de ce à quoi ils sont confrontés. Les algorithmes signalent des choses, mais seule l’attention humaine peut les recadrer. Or, regarder ces contenus, ces images, c’est aussi être détruit par ces contenus et ces images. Les contenus et les images, leurs circulations, ont une action sur nous. Derrière l’action des algorithmes, il y a des pratiques très humaines et des conséquences directes sur les humains.

Éduquer aux médias : développer l’orientation plus que l’autonomie ou la critique

Dans son livre, Yves Citton pose également la question de l’éducation aux médias. Mais l’éducation a du mal à intégrer les dispositifs médiatiques, rappelle-t-il. Pour lui, l’enjeu est double : il consiste plus à les chercher, les trier, les situer, les utiliser? Il consiste plus à montrer comment faire, qu’a livrer une vérité. Il consiste plus à nous faire dépasser nos habitudes, à nous dés-habituer pour mieux articuler les savoirs qu’à les livrer. L’enjeu n’est pas tant de développer une approche critique des media (« C’est parce qu’on se méfie de tout, souvent pour de bonnes raisons, qu’on se trouve prêt à croire n’importe quoi ») que de créer des moyens d’orientation. C’est un travail qui demande effectivement un peu de finesse. Pour Yves Citton, protéger l’espace de classe de ce qui arrive par les médias en dehors de la classe n’est pas totalement idiot, comme l’est le fait de limiter la connectivité. Il est essentiel d’un côté de créer des effets d’écarts et de séparation. Comme disait Deleuze (à la suite de Maurice Blanchot), il faut du vide, un interstice qui permette de créer une association d’idées pour réfléchir. Réagir vite, nécessite de développer des réactions automatisées. Cela nécessite au préalable de laisser du temps aux stimuli pour macérer, pour se construire? « Penser, c’est d’abord être capable de suspendre sa réponse, comme le fait le philosophe ». Une salle de classe a donc besoin de créer du vide et de mettre des murs pour se protéger. Mais l’éducation a besoin aussi de mener les élèves à utiliser ces outils d’accès au savoir. Son but est également de nous aider à utiliser ces appareils, aux cadrages qu’ils créent et qu’il faut apprivoiser, décoder.

Pour autant, l’information n’est pas le problème de cette éducation. Il faut apprendre à distinguer ce qui circule par ces circuits de ce que nous en faisons, c’est-à-dire l’information de l’attention qui donne de la valeur aux médias et de la signification à l’information. L’information en tant que telle n’a ni pertinence ni signification. L’attention, elle, est un corps humain qui est toujours associé à un corps social. « L’attention c’est le passage par le système nerveux qui fait que l’information prend une signification. Le travail que l’on réalise en salle de classe consiste à transformer l’information en signification, à faire culture, à faire sens de cette accumulation de connaissance et de signification. Si le numérique donne accès à l’information, l’école doit nous aider à utiliser cet accès pour le transformer en émancipation. »

La question de l’éducation aux médias valorise souvent l’autonomie et la critique. Or, comme le dit Bruno Latour, l’autonomie et la critique sont des projets de la modernité qui posent problème. Elle devrait surtout s’intéresser à la question de l’orientation. Or, si on est toujours orienté, on s’oriente en fonction de stimuli. On s’oriente dans les environnements qui sont les nôtres, qu’ils soient réels ou symboliques, on s’oriente dans la rue, comme on s’oriente face au travailleur chinois qui fait le même travail que moi pour un autre salaire. Reste qu’il est difficile parfois de s’orienter, dans l’offre des médias ou plus encore dans les propositions que nous font nos smartphones. Nous avons besoin d’un temps d’acclimatation pour y parvenir. Sans compter qu’on sait s’orienter à certaines échelles et pas à d’autres. On sait s’orienter à des échelles qui ne sont pas adaptées à des questions de dérèglement climatique global par exemple. Pour s’orienter, nous avons besoin de principes, par exemple de suivre ce qui nous donne du plaisir quand on le fait. Dans son dernier livre, Où atterrir ?, Bruno Latour livre un tableau pour s’orienter en nous invitant par exemple à rappeler ce à quoi l’on tient, à définir ses ennemis? afin de nous aider à composer des intérêts communs.

Savoir distinguer ses intentions, affirmer ses valeurs, comprendre où s’orienter? Autant d’éléments qui se perdent finalement plus facilement de vue dans un monde où les médias et les méta-médias démultiplient les possibilités d’orientations, les valeurs? imposent ou superposent leurs propres intentions aux nôtres.

8 enjeux pour comprendre les médias numériques

Il y a assurément de la matière à penser dans le dernier livre d’Yves Citton. Riche en concepts, références et ressources originaux. C’est assurément sa force. Reste que ce manuel de médiologie est aussi souvent agaçant, notamment parce qu’il ne cesse d’avancer par des dualismes, des oppositions qui avancent une idée et en même temps son contraire pour montrer toute l’ambivalence de son objet (les médias). Dans son analyse des médias numériques (qui nous intéressera plus particulièrement ici), il introduit plusieurs concepts pour comprendre les tendances à l’oeuvre, sur lesquels j’aimerai revenir rapidement pour les exposer, alors qu’il n’en a pas parlé lors de sa conférence.

Pour Yves Citton, les médias numériques produisent de la « grammation » (plutôt que de la « grammatisation »), une capacité d’hyper-enregistrement des traces de nos comportements responsables d’un état de Mobilisation totale comme le pointe le philosophe Maurizio Ferraris. Si la grammatisation consiste à décrire le monde sous forme d’abstraction pour qu’il soit lisible par les machines, la grammation évoque l’exact inverse : le fait que les médias digitaux produisent une quantité énorme d’écritures secondaires pour enregistrer nos traces. Pour Citton, il est nécessaire de nous intéresser à cette grammation, à ces enregistrements secondaires et à ce qui bogue, à ce qui ne marche pas.

Plus que de programmation, il nous invite à parler de « préhensions ». Tout ce qui arrive dans le numérique est le fait de choix, qui ne sont pas seulement le résultat d’un travail de programmation, mais d’un travail qui consiste à prendre une portion de ce qui peut nous affecter pour en faire un moyen pour affecter autrui. « Les « données » sont donc en réalité des prises, généralement porteuses d’emprises ».

Pour Citton, le numérique engendre également des effets « d’hyper-industrialisation » qui reposent sur une exploitation implacable de nos traces et comportements : les algorithmes mobilisent nos cerveaux, nos gestes mentaux et leur assignent des micro-tâches qui transforment en retour ce que le numérique produit.

Il produit aussi une « D-personnalisation » : plutôt que de produire une personnalisation (c’est-à-dire une modulation et un ajustement aux spécificités des récepteurs et des producteurs), cette logique produit plus de D-personnalisation que de singularité. Nous sommes modelés sur des profils statistiques qui sont ceux de personnes, mais ceux des personae auquel des services cherchent à nous identifier pour rendre nos profils productifs.

Enfin, il faut saisir aussi la question de « l’échantillonnage », c’est-à-dire le fait que dans la surabondance numérique, nous sommes condamnés à n’accéder qu’à un échantillon, qu’à une partie de l’ensemble. Et que cet échantillonnage est bien une modalité de lecture, c’est-à-dire le mode de fonctionnement du numérique.

En milieu numérique également, il faut prendre en compte la question des « protocoles », c’est-à-dire la manière dont sont prescrites des formes standardisées.

Plus que d’autres formes de médias, le numérique déploie une forme de « prémédiation », c’est-à-dire des formes prescriptives qui pré-conditionnent nos réactions, qui utilisent la prédiction de nos comportements pour les rendre productives.

Autre caractéristique encore, « l’interconnectivité », dont il est difficile de s’écarter. Alors que Facebook voulait socialiser le web, son déploiement a contribué plutôt à « techniciser la socialité », à l’ingéniérer jusque dans nos routines quotidiennes pour la commercialiser. Une interconnectivité particulièrement puissante, mais qui a montré aussi qu’elle s’accompagnait de bien des écueils, notamment la difficulté à pouvoir s’en extraire.

Autant de concepts certes complexes, mais qui ont le mérite de nous être proposés à réflexion. À nous de les interroger pour voir comment et en quoi ils peuvent faire levier ou nous aider à éclairer les transformations en cours.

Hubert Guillaud

  • Le dernier message de John Perry Barlow (1/2) : Du rock n?roll à l?activisme numérique

En février dernier on apprenait la mort de celui qu’on avait surnommé le « maire de l’internet », John Barlow. Pour ceux qui avaient vécu les premiers jours de la Toile, s?étaient battus avec les protocoles FTP et TelNet, avaient joué avec les navigateurs Mosaic et Netscape, ce décès avait des allures (...)

En février dernier on apprenait la mort de celui qu’on avait surnommé le « maire de l’internet », John Barlow. Pour ceux qui avaient vécu les premiers jours de la Toile, s?étaient battus avec les protocoles FTP et TelNet, avaient joué avec les navigateurs Mosaic et Netscape, ce décès avait des allures symboliques. Le temps des pionniers était véritablement passé.

Mais pendant ses ultimes semaines, Barlow avait mis la dernière main, en association avec Robert Greenfield (auteur de nombreux livres sur la pop- et contre-culture), à ses mémoires, Mother American Night : my life in crazy times qui sont parues ce mois de juin.

Des mémoires bien pleines, car Barlow a eu plusieurs vies. Dans les années 70, il signait les paroles des chansons de Bob Weir, l’un des guitaristes du Grateful Dead, ce groupe de rock psychédélique devenu l?icône du mouvement hippie. Bien des décennies plus tard, il a connu une seconde carrière, et s’est transformé en défenseur des droits sur le réseau.

Barlow a connu tout le monde, dans tous les milieux? Né dans une famille de propriétaires d’un ranch, il ne s’est pas contenté de fréquenter l?élite geek et hippie. Il a également traîné avec John Kennedy Junior, postulé pour un poste au sénat dans le Wyoming côté? Républicain, et fréquenté par là même le jeune Dick Cheney, qui allait par la suite devenir vice-président de George W. Bush. (Il décrit Cheney, comme l’une des personnes les plus intelligentes qu’il ait rencontré avec Bill Gates, mais précise toutefois qu’il s’est rendu compte, avec le temps qu’il s’agissait d’un « sociopathe ».)

Pourquoi un parolier d’un groupe de rock en est-il venu à s’intéresser au Net naissant ? Les deux sont liés. C’est le Grateful Dead qui l’a conduit au Réseau. En effet, depuis des années, le groupe traînait derrière lui une tribu de fans qui les suivait dans tous leurs concerts, les « deadheads« , une communauté avec ses propres valeurs, ses propres rites, et qui s?était développée de manière tout à fait indépendante, presqu’une secte, à la grande surprise des membres du Dead. Barlow a voulu en savoir plus sur ces deadheads. Mais comment les observer dès lors que sa seule présence, en tant que membre du groupe, suffisait à modifier les attitudes ou les coutumes ? C?était une version anthropologique du principe de Heisenberg, note-t-il dans son livre. L’observateur modifie le comportement de la chose observée.

« Pourquoi ne vas-tu pas regarder les échanges sur le Net ?« , lui a suggéré une de ses amies. C’est ainsi, en consultant discrètement les groupes Usenet consacrés au Dead, qu’il a pu tranquillement se faire une idée des habitudes des deadheads. Et c’est aussi comme cela qu’il a découvert le Net. Par la suite, la vie de Barlow se lie à l’évolution du numérique. Il prend contact avec Apple (pendant la période où Steve Jobs a quitté la société), qui lui propose d’écrire une histoire de la compagnie. Il y renonce parce que : « si vous n’avez rien de gentil à dire, ne dites rien. » Et si l’ambiance de la firme à la pomme était aussi pesante, explique Barlow, c’est à cause de Jobs, bien que ce dernier ait cédé la place à John Sculley à cette époque. La raison qu’en donne Barlow est intéressante, parce qu’elle montre qu’au cours des années 80 la collusion entre le monde numérique et la contre-culture et le New Age était encore – ou déjà, selon le point de vue – très forte.


« À un moment donné, Steve avait demandé à tout le monde chez Apple de participer à Est, ce qui signifie Erhard Seminars Training, et de suivre ces cours destructeurs d’âmes qui avaient été créés par Werner Erhard pour transformer la façon dont les gens interagissent. Le but déclaré du programme était d’apprendre aux gens à s’exprimer naturellement plutôt que de suivre les règles, mais beaucoup de ces gens sont devenus d’encore plus gros connards qu’ils ne l’avaient été auparavant. » Et de conclure : « J’ai traité avec des gardes-frontières est-allemands beaucoup plus amicaux que la plupart des employés d’Apple. »

De fait, Est faisait partie de ces « thérapies » très à la mode dans les années 70, entre la bio-énergie reichienne, le cri primal d’Arthur Janov ou la Gestalt-thérapie de Fritz Perls. A noter qu’à la même époque environ, si l’on en croit les journaux de Jacques Vallée, Douglas Engelbart était lui aussi fasciné par Est et souhaitait y envoyer son équipe?

Peu importe ce que Barlow pense de Jobs, leurs vies finissent par se croiser lorsque Barlow devient rédacteur à NeXTWorld, un magazine consacré à l’ordinateur NeXT. Comme beaucoup à l?époque, il est fasciné par la grande qualité de cet ordinateur noir, qui préfigure les avancées technologiques des années suivantes. Mais il reconnaît aussi ses limites : « J’ai juste adoré cette machine. Bien que, comme Steve, elle avait des défauts vraiment flagrants. Mais contrairement à celles de Steve, les failles de NeXT ont été corrigées. »

Reste le grand ?uvre de Barlow, sa défense des droits sur Internet, qui aboutira à la création de l’EFF (Electronic Frontier Foundation), l’ONG de protection des libertés sur internet, en compagnie de Mitch Kapor. La première rencontre entre Barlow et des hackers (qui opéraient sous les noms de Acide Phreak et PhiberOptic) n’a pas été immédiatement chaleureuse. Barlow accusant ces « pirates » de n?être rien d’autre que des petits voyous sans envergure. Ce à quoi Phiber Optik lui a répondu en uploadant l’ensemble de son historique de transactions financières sur le Forum. « J’ai traîné dans des bars redneck avec des cheveux tombant jusqu’aux épaules, je me suis retrouvé en garde à vue pendant un trip sous acide, et déambulé dans Harlem longtemps après minuit, mais personne ne m’avait jamais flanqué les chocottes comme Phiber Optik ce jour-là. »

Par la suite, sa rencontre avec le jeune hacker lui fait découvrir sa véritable personnalité : « Lors de cette conversation, ainsi que dans toutes les autres qui ont suivi, j’ai rencontré un gamin de dix-huit ans, intelligent, civilisé et étonnamment pétri de principes, qui avait l’air de ne vouloir faire aucun mal aux êtres humains ou aux données. »

Par la suite, Barlow sera mêlé de près à l’offensive gouvernementale connue sous le nom d?opération Sundevil, une gigantesque chasse aux hackers qui aboutit à la destruction et à la saisie d’une multitude d’ordinateurs, de disques durs et à la perte d’un nombre considérable de données d’individus ou d’entreprises qui n’avaient guère de rapport avec la piraterie informatique, mais avaient la malchance de se trouver dans les parages. Cette histoire a été racontée à maintes reprises, par Barlow lui-même dans son essai Crime and Puzzlement, mais aussi de manière très complète par Bruce Sterling dans son livre The Hacker Crackdown (malheureusement non traduit, mais disponible en ligne sur le site du MIT). C’est avec l’EFF que Barlow atteint la célébrité bien au-delà des milieux du rock n’roll, en devenant le prophète du numérique, avec son fameux texte de 1996, sa « déclaration d’indépendance du cyberespace« .

Barlow restera pendant vingt-sept ans vice-président de l’EFF. Durant ses dernières années pourtant, ses intérêts vont se diversifier. Il s?intéresse notamment à l’accès à l?eau potable. Puis, avec les affaires WikiLeaks et Snowden, il renoue avec la question de la liberté d’expression et participe à la création de la fondation pour la liberté de la presse.

Pour quiconque s?intéresse, non seulement au numérique, mais à l?histoire de l’Amérique en général, les mémoires de John Barlow sont un document indispensable et, aspect non négligeable, très agréable à lire. Mais le personnage reste une énigme. Comme l?écrit Jesse Jarnow dans Wired  : « aussi accessible et généreux que Barlow l’aie été dans ses écrits et dans sa vie – avec ses numéros de téléphone et le contenu de sa messagerie affichés publiquement – il reste encore insaisissable, et difficile à cerner dans Mother American Night. Au lieu de résoudre les contradictions apparentes de Barlow, le livre les présente presque comme une parabole. »

Reste donc, ce livre en main, à s’interroger sur les choix du personnage et sur son héritage, à l’époque de l’internet post-GAFA.

Rémi Sussan

Voir la 2nde partie de ce dossier : Barlow, penseur de la noosphère

  • Design et Attention : perspectives critiques

Pour l’enseignant chercheur en design Anthony Masure (@anthonymasure), qui nous accompagne sur le groupe de travail rétro-design de l’attention lancé par la Fing, la question de la conception attentionnelle doit être replacée en contexte : celui de la conception des interfaces. L’attention dans l’histoire des interfaces : à quoi sert l’utilisateur ? A (...)

Pour l’enseignant chercheur en design Anthony Masure (@anthonymasure), qui nous accompagne sur le groupe de travail rétro-design de l’attention lancé par la Fing, la question de la conception attentionnelle doit être replacée en contexte : celui de la conception des interfaces.

L’attention dans l’histoire des interfaces : à quoi sert l’utilisateur ?

A l’origine, la conception des interfaces relève du paradigme cybernétique, comme il l’explique dans sa présentation. Dans le modèle de la communication de Claude Shannon et Warren Weaver théorisé dès 1948, tout l’enjeu consiste déjà à minimiser le bruit dans le signal, à jouer sur les paramètres de perception et donc sur l’attention. Cette théorie de l’information visait à analyser les moyens à mettre en ?uvre dans les techniques de télécommunication pour transmettre l’information le plus rapidement possible et avec le maximum de sécurité. L’enjeu était surtout de trouver des solutions pour maximiser les flux aériens et la balistique. Norbert Wiener, en définissant la cybernétique, prenait également comme champ d’application la balistique, en travaillant sur la capacité des missiles à adapter leurs trajectoires en fonction de leurs cibles. Cible, guerre, signal, bruit? autant d’éléments qui inscrivent dès l’origine des questions de représentation, de perception et donc d’attention.

Cette histoire se prolonge avec la naissance de l’informatique personnelle et des premières interfaces graphiques, qui vont permettre de s’extraire des lignes de commandes. Avec le Xerox Star, en 1981, et son interface WYSIWYG, s’invente alors un vocabulaire graphique, calqué sur l?environnement physique de travail, fait de « fenêtres », de « bureau » et d' »icônes ». L?interface du bureau est conçue par mimétisme au bureau physique, pour proposer un environnement familier à l’utilisateur afin qu’il poursuive ses objectifs, tout en améliorant son efficacité. Dès l’origine, l’interface va donc limiter les usages possibles par leur agencement et les choix de conception proposés. Dès l’origine, l’utilisateur apparaît comme une fiction nécessaire au processus de conception.

Pour Anthony Masure, adresser la question attentionnelle nécessite d’interroger le vocabulaire et les méthodologies qui sous-tendent ces façons de créer des interfaces. Cela nécessite aussi d?interroger la notion d?utilisateur : de quel utilisateur parle-t-on ? Bien souvent, l’utilisateur est par nature une fiction, un sujet universel (masculin, conscient, blanc, valide, aisé?) qui représente et décide pour un public plus large. Il faut prendre en compte le décalage entre conception et réception, comme nous y invitait le philosophe Gilbert Simondon, ainsi que cette volonté d’homogénéiser l’expérience, niant les situations, les différences, les individualités.

La poursuite des objectifs de l’utilisateur démultiplie et complexifie peu à peu les interfaces, accélérant, parasitant et perturbant son expérience, à l’image du fameux Clippy de Microsoft Word. Les logiciels puis les applications qui peuplent les interfaces graphiques envisagent l’ordinateur puis leurs déclinaisons – les smartphones – comme des télécommandes universelles capables de proposer une solution à tout problème. Il y a toujours une application pour vous proposer une solution, comme le disait une publicité pour l’Apple Store et, avec plus d’ironie, l’essayiste Evgeny Morozov.

Avec les applications vont naître notamment les notifications symbolisées par le symbole graphique de la cloche, signal d’alarme que l’on retrouve dans nombres d’interfaces, qui proposent une compréhension bureaucratique, hiérarchique, des relations humains-machines, où les machines ne cessent de nous sonner, de nous solliciter. Les applications ne masquent souvent que des formulaires à remplir, des données à renseigner, faits de cases à cocher qui nous sont présentés comme de simples formalités, mais qui ressemblent surtout à une forme édulcorée de bureaucratie, comme le pointait très justement David Graeber et où la sollicitation de notre attention semble surtout un moyen pour nous transformer en parfaits bureaucrates.

L’économie de l’attention s’inscrit dans une histoire du capitalisme

La question attentionnelle doit également être remise en perspective dans l’histoire économique dans laquelle elle s’inscrit, et ce d’autant que son exploitation est profondément inscrite dans le modèle économique des services qui l’exploitent. Au capitalisme industriel, qui se rémunère sur la force de production et qui vise à concentrer les moyens de production a succédé le capitalisme financier qui se rémunère sur le capital. Depuis les années 2000, une nouvelle strate du capitalisme s’accumule sur les deux autres : le capitalisme cognitif qui spécule sur les productions de l’esprit et se rémunère par l’exploitation des connaissances, des capacités psychiques, des sentiments et de l’attention. Ces questions deviennent un nouveau levier productif, mais qui dépasse rapidement la question de leur production pour s’intéresser aux limites de leur réception. Dans nos sociétés, riches en information, « la rareté [de l’attention] se situe du côté de la réception des biens culturels, et non plus seulement du côté de leur production alors que l?économie traditionnelle se définit par l?optimisation de la production des biens à partir de ressources limitées », rappelle le spécialiste du sujet, Yves Citton. L’enjeu, explique l’auteur de L?économie de l?attention, nouvel horizon du capitalisme et de Pour une écologie de l’attention, n’est plus tant de produire des contenus que d’attirer l’attention de publics submergés de propositions.

L?économie de l?attention s?appuie majoritairement sur les sciences cognitives, et plus précisément sur les modèles comportementaux. Aux États-Unis, à Stanford, un domaine de recherche, la captologie s’est développée pour explorer les liens entre les techniques de persuasion et l?informatique, y compris l?analyse de la conception d?outils numériques créés dans le but de changer les comportements des individus. Quand l?information devient abondante, l?attention devient ce qui est rare et cher, comme l’expliquait dès 2008, le psychologue et économiste Daniel Kahneman aux grands entrepreneurs de la Silicon Valley, en leur montrant par exemple le rôle de l’amorçage sur l’humeur et le comportement. Des leçons sur les techniques comportementales que les entrepreneurs du numérique ont parfaitement intégré dans leurs produits.

Les effets du design captologique : mesurer, punir, homogénéiser, dégrader? et toujours plus surveiller

Face à cette captation industrialisée, des réponses s’organisent, visant notamment à dénoncer ces techniques de manipulation attentionnelle, à l’image du site Dark Patterns qui recense et catégorise les différentes techniques utilisées où celles qu’avait pointé Tristan Harris. Pour le web designer Brad Frost, il est temps de mettre fin aux conneries !, lançait-il en invitant les designers à respecter les gens et leur temps. Pour Anthony Masure cela nécessite de parvenir néanmoins à mieux catégoriser nos vulnérabilités, en affinant la taxonomie de ce sur quoi agit la captologie, en inventant de nouvelles métriques qui ne reposent pas sur l’audience ou le temps consommé, en renforçant la prise de conscience individuelle tout comme la conception responsable. Aujourd’hui, trop souvent, la conception captologique consiste à mesurer et punir, pour faire écho au Surveiller et punir de Foucault. Le problème, notamment, c’est que la mesure à tendance à renforcer l’homogénéisation : les systèmes d’eye-tracking et de capture des clics sur les pages web par exemple pour analyser les comportements des internautes, optimiser la disposition des éléments et améliorer l’efficacité commerciale des services ont favorisé l’homogénéité des sites. Les stratégies d’A/B testing qui adaptent les interfaces ou les titres en fonction des réactions des utilisateurs favorisent également l’homogénéité. « La mesure produit des interfaces semblables, nous conduit vers un web sans saveur. Elle réduit le design à une démarche de pure ingénierie répondant à des métriques. Sa dimension esthétique s’efface au profit d’une optimisation, d’une efficacité pour elle-même. La captologie produit un design « dépolitisé ». » Elle va jusqu’à déposséder les designers de leur expertise esthétique et à nous faire perdre confiance dans nos jugements et goûts.

Un autre effet de ce design captologique consiste à dégrader volontairement les interfaces. Eshan Shah Jahan évoquait ainsi la montée de la torture de l’utilisateur par l’expérience utilisateur. Le concepteur d’expérience se transforme en tortionnaire spécialiste de la dégradation de l’interface pour maximiser le profit, livrant à l’utilisateur une expérience toujours plus douloureuse pour le pousser à payer, comme c’est souvent le cas dans les jeux gratuits qui dégradent l’expérience de jeu pour pousser le joueur à acheter des fonctions supplémentaires dans une relation qui tient plus de l’extorsion et du rançongiciel qu’autre chose. Dans un internet d’environnements majordomes faits de chatbots, d’assistants vocaux, d’objets connectés? – cette économie de l’infantilisation – on nous livre un fantasme de fluidité et d’interconnexion des interfaces (qui cachent une délocalisation de la main d’oeuvre humaine pour masquer les lacunes d’une reconnaissance vocale ou sémantique qui fonctionne encore bien mal) où données, traces et environnements sont de plus en plus monitorés alors que les interfaces graphiques deviennent de plus en plus pauvres. Pour Anthony Masure, le risque est que la captologie rende l’attention encore plus productive et renforce la surveillance des comportements des utilisateurs.

Des réponses par le design ?

Pour Anthony Masure, la réponse que peut apporter le design nécessite de concevoir des services plus simples, conçus pour minimiser le temps passé sur l’interface. C’est le cas par exemple de Trainline, le service de vente de billets de train, ou de la banque en ligne Simple. L’enjeu ici consiste à minimiser le bruit, à veiller à optimiser le service sous l’angle du respect de ce que cherche ou souhaite faire l’utilisateur et faire évoluer le service dans ce sens. Les promoteurs du « Time Well Spent » comme Tristan Harris proposent de bâtir des expériences centrées sur le « temps bien consommé ». Le risque de cette approche est pourtant de retomber dans une approche solutionniste et moralisatrice qui utilise les mêmes schémas mentaux et le même vocabulaire d’efficacité que celui déjà à l’oeuvre dans le monde de l’expérience utilisateur.

Pour Anthony Masure, il est nécessaire d’analyser le vocabulaire des interfaces pour proposer un vocabulaire alternatif, à l’exemple du BullshitIndex qu’il a construit avec Pia Pandelakis pour déconstruire la novlangue managériale appliquée aux champs de l’enseignement et de la recherche. L’enjeu est ici de sortir la conception du vocabulaire managérial qui l’a envahi. Cela nécessite de dépasser la seule mesure du temps passé qui insiste sur la quantité plus que sur l’intention, la qualité ou la volonté, l’idéologie de l’interaction « sans friction » (seamless) qui minimise la hiérarchie de l’interaction, et l’homogénéisation des lignes directrices (guidelines) qui laissent insuffisamment d’espace au designer pour construire un service pertinent.

Sortir le design de ce qui l’a colonisé, c’est ce que propose le designer Mike Monteiro dans une tribune récente : « L?histoire du design UX est, jusqu?à très récemment, l?histoire du design définie par d?autres domaines. Notre domaine a d?abord été défini par les ingénieurs, car, soyons honnêtes, ce sont eux qui ont inventé Internet. Et leur définition du design ? des gens avec des bonnets cools qui mettent des couleurs partout ? est encore largement acceptée par une grande majorité des designers. C?est la voie de la facilité. [?] Nous avons passé les vingt dernières années à prouver notre légitimité aux ingénieurs qui pensaient que nous étions une perte de temps. Jusqu?à ce qu?ils réalisent que nous pouvions amplifier leur puissance de façon exponentielle. » Mike Monteiro a ainsi proposé un code d’éthique pour le designer engageant sa responsabilité. Ce débat de la responsabilité du design n’est pas nouveau. Viktor Papanek dans son livre Design for the Real Worl (Design pour le monde réel, 1971) l’évoquait déjà. Les penseurs du design ont toujours proposé des vocabulaires alternatifs, en distinguant l’expérience de l’existence, l’usage de la pratique, la stratégie de la tactique, l’utilité du service ou de sa disponibilité, ou encore le dispositif de l’appareil. Le philosophe Bernard Stiegler par exemple soulignait dans « Quand s’usent les usages » que la pratique n’était pas unique et ne se limitait pas à l’usage d’un instrument. « L’objet, qui posait des questions de pratiques, devient de plus en plus un objet qui pose des questions d’usage. On ne va plus parler de pratiques des objets, c’est-à-dire de savoir-faire instrumentaux, mais d’usages des objets et d’utilisateurs ou d’usagers, en particulier pour les appareils et pour les services. Or, un objet que l’on pratique ouvre un champ de savoir-faire par lequel le praticien est lui-même transformé (…). » L’usage d’un marteau par la plupart d’entre nous n’est pas la pratique qu’en acquiert un chaudronnier ou un sculpteur. Pour Stiegler : « la réduction de toutes pratiques à des usages normalisés par les sociétés de contrôle réduit leurs existences à une pure et simple subsistance ». Pour lui, la conception doit favoriser des communautés apprenantes plus que d’usages qui le déqualifient, le conditionnent, le contrôlent.

Michel de Certeau, quant à lui, décrit les usagers comme des braconniers qui résistent à ce qu’offrent les producteurs et restent ainsi actifs. Dans L’invention du quotidien, il souligne qu’on ignore les pratiques, leur diversité et leur inventivité au profit de métriques qui produisent de l’homogénéité. Le designer Ezio Manzini ne parle pas d’autre chose quand il souligne que la variété débouche « sur le plus gris des mondes ».

Le philosophe Pierre-Damien Huyghe dans « Définir l’utile », l’un des fascicules de A quoi tient le design, distingue l’utilité, du service et de sa disponibilité. Le design travaille l’utile. Et ce qui s’oppose à l’utilité n’est pas l’inutilité, mais la nuisance. Chaque fonction d’un ordinateur ou d’un téléphone, chaque service qu’il propose se propose de répondre servilement à des attentes, à la manière d’instruments. Mais lorsqu’on utilise un appareil photographique de manière non automatique, il ouvre l’usage à des questions de pratiques qui interrogent l’utilisateur, le poussent à décider et à élargir les possibilités.

Ce à quoi nous invite Anthony Masure par ces réflexions, il nous semble, c’est à dépasser une conception étroite du design au service d’un but purement performatif, pour rouvrir le champ du possible.

De quelle attention parlons-nous ?

Enfin, il nous faut prendre garde à la façon dont on définit l’attention. La question attentionnelle ne se limite pas à la focalisation ou à la concentration. Voir l’attention sous l’angle de la consommation, du temps, favorise une approche économique de celle-ci au détriment de sa circulation, de sa captation et de son exploitation. Il est nécessaire d’avoir une compréhension élargie de la notion d’attention, comme nous y invite Yves Citton dans Pour une écologie de l’attention qui évoque par exemple l’attention collective (quels sont les environnements attentionnels communs dans les dispositifs numériques ?) ou l’attention conjointe (qui se caractérise par les situations relationnelles). Même l’attention individuelle recouvre plusieurs formes, allant d’une attention réflexive à une attention volontaire ou automatique. Pour Citton à nouveau, la question attentionnelle est à comprendre relativement à nos modes de production actuels qui individualisent la question. Celui qui n’est pas attentif, qui est distrait, est celui qui est attentif à autre chose que ce à quoi une autorité, comme c’est le cas de services numériques, souhaite qu’il soit attentif.

Cela signifie que les réponses individuelles à l’alarme attentionnelle, à l’image des bonnes pratiques auxquelles nous invite le Time Well Spent, ne peuvent être suffisantes. Il est nécessaire d’agir en amont, dès la conception des interfaces, à cette question attentionnelle. Il est nécessaire, comme le souligne Yves Citton, de passer d’une question de gestion des ressources, c’est-à-dire d’économie, à une question d’environnement, c’est-à-dire d’écologie. De passer d’un paradigme individualiste à un paradigme relationnel. Trop souvent, on se demande à quoi on est attentif, plutôt que de regarder ce qui nous conditionne à être attentifs, plus collectivement qu’individuellement.

À nouveau, il est également nécessaire de faire évoluer les cadres de pensées de la conception et de l’expérience utilisateur. De trouver des alternatives à la dichotomie entre répondre à des désirs ou répondre à des besoins. La manipulation de nos biais cognitifs est là pour longtemps : cela nécessite en tout cas de les documenter, de les comprendre à défaut de pouvoir les dépasser. De comprendre où et comment ils agissent afin d’être plus conscients des erreurs et des biais dont nous sommes victimes, comme nous y invitait Albert Moukheiber. Les enjeux psychiques qui se cachent derrière ces questions nécessitent en tout cas de veiller à ne pas décider pour d’autres, à prendre en compte l’altérité, à prendre soin des utilisateurs dans leur diversité. Le design ne doit pas travailler pour un utilisateur unique et idéal qui n’existe pas. Prendre en compte le comportement, l’humeur, la psychologie ou l’attention de l’utilisateur ne signifie pas les réduire ou les rendre productifs, mais leur donner par la conception l’espace où les respecter et les déployer.

Qu’est-ce qu’un service responsable ?

François Villard, responsable du service client de Trainline et Arianna Biamonti, designer produit chez Trainline, sont venus apporter un constat opérationnel, qui me semble complémentaire aux enjeux que soulevait Anthony Masure. Produire un service attentionnellement responsable nécessite de prendre au sérieux cette question de l’attention et de la mettre au coeur du développement du produit. C’est ce que semble faire Trainline qui vend des billets de train simplement et rapidement. Pour les concepteurs de Trainline, le postulat est que les gens ont mieux à faire que de passer du temps à acheter des billets de train. Pour Ariana Biamonti, un produit qui fonctionne est un produit qui répond à un besoin. Mais, derrière ce produit, il y a nombre de métiers qui doivent fonctionner ensemble (le marketing, l’ingénierie, le commercial, etc.)… et le design doit permettre de relier tous les métiers tout en faisant que l’interface avec le public ait du sens et délivre sa fonction. Sans compter que le produit doit être capable de s’adapter constamment aux évolutions. « Concevoir un produit, c’est faire des choix », rappelle François Villard. Si le service vise à apporter aux utilisateurs la bonne information au bon moment, les problèmes à résoudre et les opportunités d’amélioration sont infinis, alors que les ressources sont limitées. L’enjeu est donc de prioriser les évolutions, de lever les irritants qui ont le plus d’impacts, de hiérarchiser les fonctionnalités, de concevoir en continu…

Les services clients ont souvent pour défaut d’être externalisés, ce qui fait que le service client est loin du produit. Ils sont souvent très standardisés et impersonnels : les opérateurs suivent des scripts détaillés pour répondre aux difficultés que rencontrent les usagers. Cette externalisation fait que les personnes qui s’occupent du service client ne connaissent pas toujours le produit, ce qui les rend incompétents, voire impuissants, et ce d’autant que le processus qu’ils doivent suivre pour résoudre une difficulté est lent, hiérarchisé et cloisonné. Le résultat est tout aussi démotivant pour l’usager que pour le service client qui peine souvent à apporter une solution. Ces constats ont poussé Trainline à adopter une démarche inverse et à mettre le service client au coeur du processus et du service proposé. Les usagers accèdent à des humains qui ne suivent pas de scripts, qui n’ont pas de réponses préétablies et qui connaissent l’application. Pour cela, le service a décidé de privilégier une communication asynchrone et écrite au détriment du téléphone. L’écrit permet de rendre les choses claires, de laisser une trace et un engagement pour chaque partie. Le temps de réponse médian est le seul indicateur de qualité qu’utilise Trainline avec le taux de contact (c’est-à-dire le nombre de recours au service client par rapport au nombre de clients). « Mais l’enjeu est de rendre un service pertinent afin que les clients nous contactent le moins possible ». Trainline n’utilise pas le Net Promoter Score qui vise à faire noter par le client le service client. Pour François Villard, il est difficile de noter une relation humaine, d’autant que cette notation est très souvent ambivalente. Pour Trainline, le meilleur indice de satisfaction consiste à recevoir un remerciement une fois un problème résolu, sans qu’il soit demandé. « C’est l’indice qu’on a créé une relation humaine et non pas mécanique ». Le service client utilise le ton de la conversation amicale (sans tutoiement ni jargon, mais en utilisant le « je », celui qui répond s’exprimant en son nom propre plutôt que sous le signe d’un service et d’un « nous ») qui permet d’exprimer de l’empathie pour la difficulté du client. Ce service client n’est pas dans un bureau dédié, mais mélangé aux équipes afin que les autres services soient conscients de l’impact humain de ce qu’ils font. D’ailleurs, tout le monde à Trainline fait du support client au moins une demi-journée par mois.

Ces échanges constants permettent d’améliorer le service proposé? Par exemple par l’ajout d’une fonctionnalité qui avertit l’utilisateur s’il s’apprête à acheter une seconde fois le même billet de train alors qu’il l’a déjà dans son panier. Le service client permet ainsi de faire remonter des fonctionnalités et des besoins à développer pour l’améliorer. L’enjeu, souligne François Villard est d’observer les comportements pour mieux y répondre. Pour Trainline, le service client n’est pas un coût, mais un moyen d’améliorer la communication et l’expérience. Le but reste de diminuer le taux de contact : c’est pour Trainline l’indicateur d’une relation réussie puisque l’utilisateur a accompli ce qu’il voulait sans avoir besoin d’aide.

Trainline montre en tout cas qu’il est possible de proposer des services qui prennent soin de l’utilisateur. Qu’on peut construire une relation responsable de l’usager, fonctionnelle, sans être envahissante. Mais ce que pointe l’exemple de Trainline c’est que pour répondre à cette dynamique, il faut le vouloir, en faire une priorité, à l’image du design, mis au coeur de la relation et du service, plutôt que comme une prestation finale ou d’habillage d’une réalisation technique. Quand les entreprises développent des stratégies liées à la qualité, à la satisfaction du client, à la protection des données des utilisateurs, à la responsabilité sociale ou écologique, l’enjeu pour elles est de créer une culture et une stratégie autour de ces valeurs. Et ni cette culture, ni cette stratégie, ni ces valeurs ne s’imposent d’elles-mêmes, mais elles s’imposent par une prise de conscience et une volonté d’en faire une priorité durable. La question de l’attention des usagers doit donc être prise au sérieux pour passer d’une priorité basse, voire cosmétique, à un enjeu de responsabilité prioritaire. Il y a assurément encore du travail !

Hubert Guillaud et Véronique Routin

  • Les lanceurs d?alerte sont-ils une réponse aux problèmes de la technologie ?

L’artiste James Bridle (@jamesbridle), qui publiera en juillet Le nouvel âge sombre : la technologie et la fin du futur, dans une tribune pour Wired.co.uk, interpelle le monde de la technologie : nous ne pouvons pas laisser les décisions morales de la technologie reposer sur la conscience de la petite élite qui (...)

L’artiste James Bridle (@jamesbridle), qui publiera en juillet Le nouvel âge sombre : la technologie et la fin du futur, dans une tribune pour Wired.co.uk, interpelle le monde de la technologie : nous ne pouvons pas laisser les décisions morales de la technologie reposer sur la conscience de la petite élite qui la compose. Il rappelle que l’information que les citoyens obtiennent sur le fonctionnement des technologies numériques dépend de plus en plus (ou trop souvent) de lanceurs d’alertes, allant d’Edward Snowden à Christopher Wylie, le jeune data scientist de Cambridge Analytica (auxquels il faudrait ajouter le rôle des repentis (voir également le dossier d’Usine Digitale), des fuites de données, des chercheurs qui permettent de comprendre le fonctionnement des systèmes et bien sûr des journalistes, à l’image du travail de Mike Isaac, qui avait signalé l’existence de fonctionnalités secrètes d’Uber?).

« Malheureusement (?) la figure du lanceur d’alerte semble accomplir un acte curieux dans le discours moderne : fournir à la fois un messie et un bouc émissaire, pointant vers les abus les plus graves et les plus spécifiques qui peuvent ensuite être entrelacés dans une série de scandales avant de disparaître de la vue du public dans un torrent sans fin d’autres révélations. Reste que la mise en avant d’un lanceur d’alerte enracine dans nos esprits l’un des pires aspects de la culture numérique contemporaine : à savoir le fait qu’une petite élite technologique privilégiée nous fournisse les moyens, mais également les récits de notre avenir commun. »

L’acte de dénonciation est emblématique de l’agentivité personnelle, c’est-à-dire de la capacité d’agir, reléguée au niveau individuel plus que collectif. C’est un acte de conscience accompli par une personne dont le sens moral ne peut plus s’accommoder des tâches qui lui sont confiées. Mais pouvons-nous ou devons-nous laisser des décisions morales qui nous concernent tous reposer sur la conscience de quelques individus qui travaillent dans des formes de régimes oppressifs, interroge James Bridle. Oppressifs, parce que les grands acteurs de la technologie, comme les agences de sécurités auxquelles elles ressemblent et avec lesquelles elles coopèrent souvent, visent à construire d’énormes machines de surveillance dont nous ne savons rien, hormis lors de quelques fuites. L’universitaire et mathématicien suisse, Paul-Olivier Dehaye (blog, @podehaye), cofondateur de PersonalData.io, qualifie d’ailleurs ces systèmes d' »abusifs par conception » (abusive by design).

Comme nous le signalions d’ailleurs dans les conclusions du groupe de travail NosSystèmes, nombre de révélations sur les biais des systèmes techniques proviennent de lanceurs d’alertes ou d’enquêtes liées à des fuites de données qui permettent de poser un regard critique sur le travail des entreprises de technologies, mais dont nous aurions bien du mal à éclairer les effets autrement.

Bridle nous invite à prendre la mesure de cette limite et contradiction. Comment pouvons-nous, nous, utilisateurs, fournir un consentement éclairé à des systèmes dont les opérations sont obscures, dont la portée est sans limites et dont les produits sont sans fin? Nous ne pouvons pas prendre la mesure de ces systèmes sur la base de la confiance que nous demandent ces entreprises, de leurs politiques (bien timides) d’auto-divulgation? Leur manque de transparence n’est contrebalancé que par les révélations des lanceurs d’alertes qui semblent montrer l’existence d’un fossé entre des politiques affichées par ces entreprises et certaines de leurs pratiques qui nous sont cachées. Bridle conclu son propos en rappelant les propos de l’écrivain suédois, militant de la non-violence, Sven Lindqvist qui s’adressait ainsi à ses lecteurs en évoquant les violences coloniales : « Vous en savez assez. Moi aussi. Ce n’est pas la connaissance qui nous manque. Ce qui nous manque, c’est le courage de comprendre ce que nous savons et d’en tirer les conclusions ». De combien de lanceurs d’alertes aurons-nous besoin pour nous rendre compte qu’il y a quelque chose de pourri au royaume de la Silicon Valley ?

Le livre que s’apprête à publier Bridle est visiblement de cet acabit. Un peu abattu par le monde qui est le nôtre. Celui qui a pointé l’année dernière le problème des vidéos automatiques pour enfants sur YouTube, semble, dans son livre, un peu déprimé. Alors que notre vision est de plus en plus universelle, notre capacité d’action semble de plus en plus réduite. Nous en savons de plus en plus en plus sur le monde, tout en étant de moins en moins capables d’agir sur lui, du fait de sa complexité et de son intrication. Le sentiment d’impuissance qui en résulte, plutôt que de nous inviter à reconsidérer le monde, semble nous pousser plus avant dans la paranoïa et la désintégration sociale. Pour Bridle, nous avons déchaîné avec la technologie des systèmes si complexes qu’il nous devient difficile de comprendre ce qu’ils veulent. Pourtant, nous ne sommes pas aussi dépourvus qu’on veut bien le penser.

Alors que « la nouvelle esthétique », ce concept forgé par Bridle nous a permis de rendre visible l’invisible en montrant l’imbrication croissante entre culture numérique et environnement physique, le « Nouvel âge sombre » semble vouloir nous demander de penser l’impensable. Pour Bridle, souligne Niki Seth-Smith de OpenDemocracy.net, l’accès à plus d’information était censée nous conduire à prendre de meilleures décisions. Mais cet idéal, prolongement des Lumières, est en panne (voir le constat similaire que dressait récemment la chercheuse danah boyd). Les experts et leurs machines se noient dans les données. La NSA n’arrive pas à extraire du sens de sa collecte de masse qui se révèle en grande partie inutile, car produisant plus de bruit que de sens. Pour Bridle, ce n’est pas que les données nous submergent et nous induisent en erreur, c’est aussi qu’elles nous fournissent une image si convaincante du monde (même si faillible) qu’elles relèguent notre bon sens aux oubliettes. Nous faisons plus confiance aux machines qu’à nous-mêmes, hélas.

Dans son livre, visiblement, Bridle explique ainsi que la crise climatique est aussi une crise de connaissance et de compréhension. Nos systèmes de prévision échouent à prédire des événements climatiques qui sont appelés à devenir de plus en plus imprévisibles, comme ils échouent à nos faire prendre les décisions nécessaires. Et il est probable que les données au final ne nous aident pas autant qu’on le pense? à l’heure où l’incertitude est en passe de devenir la norme. Pour lui, le climat est à l’image de notre perte de connaissance et de contrôle. Bridle nous invite à embrasser l’incertitude et à refuser la pensée computationnelle. Pas si simple pourtant. Notamment parce que nous sommes accros à l’information, et que celle-ci est une ressource libre et infinie. Cependant, rappelle Bridle, les habitudes de consommation de données actuelles ont un coût environnemental élevé : « à mesure que la culture numérique gagne en rapidité, en bande passante et en images, elle devient plus coûteuse et destructrice ». À défaut de pouvoir changer de culture, peut-être est-il possible de ralentir, comme nous y invite le best-seller du neuroscientifique Daniel Levitin (@danlevitin), L’esprit organisé : penser clairement à l’ère de la surcharge informationnelle, qui offre des conseils pratiques et des stratégies pour naviguer dans un monde trop riche en information. C’est également l’un des enjeux que James Bridle adressera. Pour lui, nous devons avoir recours à de nouvelles catégories, à de nouvelles autorités pour apprendre à naviguer dans la complexité qui est la nôtre. Nous devons apprendre à parler les langues des réseaux. On a hâte de la le lire.

PS : Nous avons plusieurs fois évoqué les travaux de James Bridle, notamment l’un de ses précédents livres, Ring of Steel où il s’attaquait au système de vidéosurveillance de Londres ; lors d’une de ses conférences à Lift… Il a récemment publié une longue réflexion critique sur la génération quasi automatique de vidéo pour les enfants sur YouTube – voir le compte rendu en français de Rue89) dont les constats poussent YouTube a réfléchir à une désalgorithmisation des vidéos automatisées pour enfants.

PS2 : L’avocat Jean-Baptiste Soufron (@soufron) me fait pertinemment remarquer que « Le lanceur d’alerte en lui-même n’est-t-il pas une figure décupalbilisante, un élément qui empêche l’action et la réflexion collective, à l’image de la figure du hacker ? » Comme il le pointe dans un récent article d’ailleurs (.pdf) : « Avec l?invention de la figure du hacker ? un objet transitionnel permettant de positiver la rébellion au numérique, la politique numérique, les protestations et la violence ne semblent plus se dérouler que dans un monde virtuel et appartenir à une zone grise où les valeurs morales sont distantes et floues. Le choix même des dénominations de White Hat ? un bon hacker ? ou Black Hat ? un mauvais hacker ? semble plus lié au Seigneur des anneaux qu?au Manifeste du parti communiste. »

  • Quand le biomimétisme colonise Mars

Ainsi donc, parait-il, nous nous apprêtons à atterrir sur Mars. Il existe plusieurs projets dans ce sens, dont le plus connu, celui d’Elon Musk. Mais une autre entreprise, Mars One envisage elle d’offrir un aller simple à de futurs colons. La plupart de ces efforts se concentrent sur la possibilité (...)

Ainsi donc, parait-il, nous nous apprêtons à atterrir sur Mars. Il existe plusieurs projets dans ce sens, dont le plus connu, celui d’Elon Musk. Mais une autre entreprise, Mars One envisage elle d’offrir un aller simple à de futurs colons. La plupart de ces efforts se concentrent sur la possibilité d’atteindre la planète rouge. Pourtant, ce n’est qu’une partie de la question, et peut être la moins importante. Une fois qu’on est là bas, on fait quoi ?

Le studio expérimental de l’Ensci (Ecole nationale supérieure de création industrielle), mené par Guillian Graves et Marc Fournier de La Paillasse a proposé un challenge intéressant à cinq groupes d?étudiants : comment le biomimétisme peut-il nous aider à apprivoiser Mars ? Même s’il se base sur le vivant, le biomimétisme constitue une approche différente de celle proposée par les biotechnologies ou la biologie synthétique. Il ne s’agit pas de bidouiller des organismes vivants, mais de s’inspirer de ceux qui existent pour construire des artefacts plus efficaces. La bande velcro, inspirée de la bardane, est l’exemple le plus connu de biomimétisme.

Le travail s’est organisé autour de 10 demi-journées, mais évidemment les étudiants travaillaient à leurs projets en dehors de ces temps formels ! Les sujets abordés ont été divers allant de la nourriture à l’exploration géologique. À noter cependant que sur les cinq projets, trois se préoccupaient avant tout d’un problème trop souvent négligé, le bien-être des futurs colons.

Vivre heureux sur Mars


Par exemple, comment se nourriront les astronautes ? La nourriture doit pouvoir être stockée pour un voyage de plusieurs mois et ne pas prendre trop de place dans le vaisseau.

Solène Jarroux, Clément Le Maou, Solène Meinnel et Anna Luz Pueyo Kirwan ont fait un petit catalogue d’un ensemble d?organismes qui pourraient se prêter aisément à ce genre de contrainte. Ils peuvent en effet être cultivés dans des bioréacteurs et se présenter en poudre sur des biofilms. Parmi les candidats, on mentionnera les bactéries, les levures, les champignons et même les moisissures… L’équipe a également travaillé sur des poudres de fruits, de tomates…

Évidemment à première vue, ce n’est pas très appétissant. L’essentiel du travail de ce groupe de designers s’est en fait concentré sur ce problème. Comment améliorer l’ordinaire ?

La multiplicité des poudres pourrait permettre à chaque astronaute de composer son biofilm, de créer des cocktails mélangeant saveurs, couleurs et fonctions nutritives.

Il serait également possible de donner des formes nouvelles à ces aliments reconstitués. Par exemple, on pourrait souffler dans un biofilm pour donner au plat n’importe quelle forme. Ou le secouer. Il serait également envisageable de recourir à des techniques industrielles comme le centrifugeage et les appliquer à la nourriture, là encore pour créer des apparences originales. On pourra ainsi créer un nouveau répertoire formel à partir de ces poudres ou ces petits cubes et donner naissance à une nouvelle culture de la nourriture.

Toujours dans la catégorie « bien-être », un groupe d?étudiants, composé de Théodore Lagrange, Romain Coulon, Juliette Colson et Martin Tiessé, s’est intéressé à l?importante question des loisirs.

Évidemment, rien n?empêchera nos futurs colons martiens de jouer aux échecs ou au Monopoly, mais la planète rouge est elle un environnement intéressant pour le sport en plein air (sans l’air) ?

Il y a en fait de bonnes raisons pour se livrer à la randonnée ou à l’escalade. Ainsi, il existe sur Mars des dunes qui font jusqu’à 100 m de haut… À condition toutefois d’avoir le bon équipement adapté à la température, au sol et à la gravité !

C’est ici que le biomimétisme entre à nouveau en jeu. Il existe en effet sur Terre des espèces animales qui vivent dans un milieu assez proche de celui de la planète Mars. Par exemple, le crotale cornu a développé un moyen original de se déplacer sur les sables du désert. Au lieu de glisser avec tout son corps, il utilise uniquement deux points de contact avec le sol, tandis que le reste de son corps se soulève. Le poisson des sables, lui, possède des écailles chargées en soufre lui permettant de résister à l’abrasion.

Finalement, pour les balades, les designers ont conçu un objet hybride, entre surf et raquette, permettant simultanément de monter les dunes et de glisser pour la descente.

Avec ses hautes falaises à pic, Mars propose également des opportunités aux amateurs d’alpinisme. Mais comment escalader des parois complètement verticales ? Sur ce point les insectes peuvent nous donner des leçons. Nos designers se sont donc inspirés de la patte du criquet pour créer un nouveau type de piolet capable de s?accrocher et de tenir à la verticale. Tandis que les pieds disposeront eux, d’un système de grappin inspiré des pattes d’insecte.

Un peu différent des loisirs, mais toujours dans le domaine du bien-être une autre équipe (Nina Capron, Oscar Clermont et Caroline Tricaud) s’est penchée sur l’environnement immédiat du colon martien, et s’est demandé comment le rendre agréable et plus supportable. Pour ce faire, les étudiants sont partis du postulat que les premiers habitants de Mars vivraient comme des troglodytes, dans des grottes reliées par des galeries souterraines. Hypothèse plausible ? Très probablement.

C’est apparemment en tout cas ce que pense Elon Musk. Récemment, nous rappelle le site Futurism, Gwynne Shotwell, présidente de SpaceX a affirmé lors d’une interview à CNBC que l’autre compagnie de son patron, la Boring Company, pour l’instant concentrée sur la création de gigantesques tunnels en Californie « pourrait bien être le moyen par lequel nous hébergerons les gens sur Mars. Nous allons devoir creuser des tunnels pour ces gens ».

Des propos qu’on retrouve dans la bouche de Musk lui-même, puisque, nous rappelle Futurism, il avait déclaré lors d’une session de questions-réponses à la Conférence sur la recherche et le développement de la station spatiale internationale, en juillet dernier que : « Les gens voudront toujours aller à la surface de temps en temps, mais on peut construire de gigantesques structures souterraines sur Mars avec la bonne technologie de forage. » Reste que la vie sous terre n’est pas facile. On perd tout contact avec le monde extérieur. Même la sensation de l?écoulement du temps est perturbée. Redonner aux colons ce sens du passage du temps et une connexion avec le monde extérieur, c’est ce à quoi se sont attaqués ces étudiants de l’Ensci.

La pomme de pin, ainsi que les plantes qui s?ouvrent et se ferment selon les heures ou les saisons, leur a donné l’idée d’une paroi sur laquelle pourrait s’écouler régulièrement de l’eau. Ce « mur » serait en fait constitué de modules obtenus par l’assemblage de petits triangles, lesquels pourraient s’ouvrir ou se replier sous l’effet du débit du liquide. Un jeu de lumière pourrait accentuer la sensation du passage du temps.
Un tel mur serait placé dans un espace public de la cité souterraine. Dans leurs appartements privés, les colons disposeraient d’un « hublot 3d » (imaginez une espèce de boule de cristal) qui émettrait des lumières qui refléteraient symboliquement les conditions météo du monde extérieur.

Du bon usage de la poussière


Mais les étudiants de l’Ensci ne se sont pas préoccupés que du bien-être des futurs colons. Ainsi, une équipe s’est préoccupée de la mise en place d’un système industriel reposant sur une caractéristique particulière de la planète Mars. Son taux énorme de poussière, et ses vents qui la portent constamment dans les airs.

Mais peut-on utiliser cette poussière ? Après tout, elle constitue un formidable matériel possible de construction. Les chercheurs ont déjà envisagé la chose et ont imaginé de complexes systèmes techniques, comme des drones ou des imprimantes 3D géantes, pour tirer avantage de cette poussière. Les étudiants de l’Ensci, Ulysse van Duinen et Céline Déprez, ont eux travaillé sur des procédés beaucoup plus simples, qui s’inspirent de plusieurs espèces vivantes.

Pour construire un abri où les colons pourraient s’installer, les protégeant notamment des radiations, on pourrait ainsi bâtir une structure de type dôme avec des parois creuses en leur centre, susceptible de recevoir la poussière martienne apportée par les vents. La question étant : comment faire pour que la poussière qui a pénétré dans la structure y reste et s’accumule, et ne s’en aille pas avec les vents qui l’y ont apporté ?

C’est là que le biomimétisme entre en jeu. Il existe de multiples espèces qui ont développé au cours de leur évolution des procédés de filtrage qui permettent justement ce genre de chose. L’équipe a ainsi été inspirée par un filtre basé sur le nez et les dents du flamand rose, capable d’absorber des nutriments sans laisser passer le sable qui vient avec. Dans le même genre, il y a également les fanons des baleines, le système de respiration avec des valves des cafards de Madagascar ou encore les branchiospines des poissons leur permettant d’absorber le plancton. Il ne suffit pas que la poussière s’accumule dans la structure. Il faut également qu’elle se répartisse régulièrement, pour couvrir l’abri d’une épaisseur de 10 cm. Les étudiants se sont inspirés des pommes de pin qui peuvent se sécher plus rapidement en maximisant leur surface d’échange avec le vent.

La construction de grands abris fermés ne serait pas la seule utilisation de ces « attrape-poussière ». On pourrait aussi fabriquer des structures plus légères, par exemple des murs protégeant des espaces pour faire pousser des plantes.

Mars, en mode « black sky thinking »


La dernière équipe (constituée par Andréane Valot, Martin Moreau et Aloïs Demory) est peut-être la plus scientifique du lot. Ils se sont fait d’ailleurs aider par un ingénieur du CNRS pour mettre au point leur projet.

Ce projet se propose donc de faciliter une exploration « raisonnée » de la planète rouge. Raisonnée, parce que relativement économique. Raisonnée aussi, car respectueuse de l’environnement martien. Bien que ce soit assez douteux, on n’a jamais pu établir avec certitude l’absence de vie sur Mars (et la toute récente annonce de la NASA montre que le débat n’est pas clos) ce qui implique de rester prudent dans nos manipulations.

Aujourd’hui, l’exploration martienne se heurte à deux limites. Dans un cas, on essaie de cartographier par satellite et on obtient une image bien trop globale. Ou alors, on utilise les données envoyées par les rovers qui parcourent la surface de la planète, et dans ce cas on obtient l’effet inverse : ces informations sont bien trop locales, trop limitées pour permettre une vue d’ensemble.

Le projet des étudiants de l’Ensci repose sur l’idée d’utiliser les minéraux martiens eux-mêmes pour obtenir un ensemble d?information plus précis. Point besoin de rovers ou de satellites. Le travail serait accompli par une escouade de drones assez légers, dépourvus de fonctions complexes, mais juste capables de recueillir et transporter des minéraux, et de prendre des photos, y compris dans le spectre infrarouge.

Il existe plusieurs minerais déjà présents sur la planète qui seraient susceptibles de nous donner divers renseignements. Un drone pourrait ainsi prélever l’oxyde de fer et le déposer sous une forme particulière, par exemple en cercle, en différents lieux de la planète. La façon dont ces dépôts se déformeraient nous donnerait une idée de la manière dont fonctionne le réseau de vents.

La présence d’eau liquide est une grande question posée par l?exploration de Mars. Pour y apporter une réponse, les drones recueilleraient le natron, un composé minéral capable d?absorber l’humidité. Ils construiraient des barrières en différents lieux, puis reviendraient pour voir si leur apparence a changé sous l’effet possible de présence d’eau.

Enfin, un autre minéral, l?ilménite, réagit au champ magnétique. Cette pierre serait elle aussi collectée par un drone, qui ensuite la redisposerait sous la forme de petits tas en divers points de la surface martienne. Il lui faudrait ensuite prendre des photographies dans le spectre infrarouge pour cartographier les comportements du champ magnétique.

D’une certaine manière, cette équipe est celle qui s?éloigne le plus à première vue du biomimétisme, puisque ses membres ne se sont pas intéressés à adapter des structures vivantes. Mais d’un autre côté les étudiants ont développé un concept intéressant qui les rapproche de la pensée biologique : celle d’un « écosystème minéral ». Lorsqu’on parle d’écosystème en effet, on imagine surtout des créatures organiques. Mais les minéraux aussi interagissent entre eux et avec leur environnement. On peut donc encore parler de biomimétisme, à condition d’approcher cette notion de « vivant » par celle des systèmes complexes, fussent-ils ou non basés sur l’ADN.

Comment faut-il considérer ce genre de projets ? Faut-il prendre la colonisation de Mars au sérieux ? Il ne faut pas considérer les choses trop simplement. Se projeter dans le futur, même lointain, nous pousse à repenser les choses avec une nouvelle perspective, qui peut être utile dans le présent. Dans le cas de ces travaux, cela permet de repousser les frontières du biomimétisme. C’est un exemple de ce que Rachel Armstrong nomme le « black sky thinking » : « Le Black Sky Thinking consiste à se projeter au-delà des cadres actuels et des projections prédéterminées, dans le terrain de l?inconnu. Mais plus que cela, cela consiste à ramener cet inconnu dans le présent d?une manière qui possède des effets immédiats et engage autrui, en gardant toujours à l?esprit que l?avenir est désordonné, non-linéaire et non-déterministe ».

Rémi Sussan

Images tirés des travaux des cinq groupes d’étudiants du studio expérimental de l’Ensci

  • Arrêtez de faire de la prospective, faites de l?histoire !

Edwin Mootoosamy (@moodeo), cofondateur de l’agence Stroïka, fait son burn-out du futur. Et nous rappelle ce que nous dit l’overdose d’un futur sans perspective ou d’une prospective sans mémoire. Une tribune qui pique ! Ah, ces ateliers de prospective, où l?on brosse un futur désirable ou détestable à grand renfort de (...)

Edwin Mootoosamy (@moodeo), cofondateur de l’agence Stroïka, fait son burn-out du futur. Et nous rappelle ce que nous dit l’overdose d’un futur sans perspective ou d’une prospective sans mémoire. Une tribune qui pique !

Ah, ces ateliers de prospective, où l?on brosse un futur désirable ou détestable à grand renfort de post-its ! Ces conférences génériques sur le futur de ceci ou cela, sur la ville de demain, le futur de travail, ou encore la mobilité de nos enfants ! Jusqu?à l?overdose. Mais penser le futur de cette façon ne nous éloigne-t-il pas de notre présent ? Et même : penser le futur a-t-il une quelconque valeur prédictive ? Il est permis d?en douter.

?Je préfère un futur imprévisible à un futur imposteur.? ? Maurice Schumann

Un futur sans ambition

Dans la grande majorité des cas, nos apprentis prophètes se condamnent à représenter le futur comme une forme de présent continué. L?idéologie libérale a accompli son travail de sape systématique, en réduisant l?horizon des possibles imaginables. There is no alternative : ce mantra a fini par acquérir une valeur universelle. Il se conjugue à tous les temps. Il n?est pas difficile de prévoir le point d?arrivée d?une ligne droite. L’exercice du pouvoir se réduit alors à une simple administration des choses, oeuvre de gestionnaires qui doivent assurer la continuité du présent.


Illustration : Pepperclip.

Nous construisons, comme des somnambules, sans vraiment y penser, un système sans ambition, sans surprise, sans nouveauté.

Dans ce contexte, paradoxalement, regarder vers l?avenir nous paralyse, ici et maintenant. Nous sommes confrontés à cette injonction permanente au mouvement qu?imposent les enjeux de notre temps ? le réchauffement climatique, l?accroissement des inégalités ? mais nous demeurons tétanisés face à l?ampleur de ces derniers. Autant demander à un joggeur du dimanche de se mesurer à Usain Bolt, comme ça, du jour au lendemain. Inutile de se voiler la face : si notre futur ne peut se s?imaginer que comme un présent continué, il ne peut qu?être bien sombre.

La prospective : science ou divination ?

Parmi toutes les façons de penser le futur ? la science fiction, l?art ou la data science, par exemple ?, la prospective, avec son apparence de science, tient aujourd?hui le haut du pavé. Le problème, c?est que la prospective, du fait de sa méthodologie, consacre définitivement cette représentation linéaire de l?histoire à venir, ce trait d?union obtus entre présent et futur. Même lorsque le prospectiviste s?efforce d?introduire de la rupture, de la discontinuité, il ne peut qu?identifier péniblement des signaux marginaux et les accentuer à l’extrême. Or, quelle certitude que ces signaux faibles soient véritablement les moteurs de l?histoire à venir ? Aucune, à l?exception de l?intensité de la foi qu?on veut bien leur consacrer. Et c?est ainsi que certains se retrouvent à écrire des pavés rébarbatifs sur une ?troisième révolution industrielle?, où l?imprimante 3D est mise au rang d?appareil productif universel?

C?est qu?il faut une sacrée dose d?humilité pour dire, comme Socrate, que ?tout ce que je sais, c?est que je ne sais rien?. Et cette humilité est le préalable de toute recherche de la vérité. Or, le problème avec les experts prospectivistes, dit Nassim Taleb dans Le Cygne Noir, c?est qu?ils ?ne savent pas ce qu?ils ne savent pas?.
?
Le problème, c?est que l?exercice de la prédiction est à peu près impossible. Basta.

Nous vivons dans un environnement complexe, où les inter et rétro-actions sont omniprésentes : prévoir, prédire, s’apparente à un exercice de spéculation sur des variables infinies.

Prédire, c?est tenter de faire advenir. La prospective n?est alors rien d?autre qu?un outil pour faire advenir une forme de continuité et faire perdurer un système inchangé en donnant l?illusion de la mobilité, d?un futur en marche, alors qu?il est le garant de la sclérose. Faut-il pour autant jeter l?exercice de se projeter dans le futur avec l?eau du bain ? Non, à condition de lui redonner la place qui est la sienne, celle qui se situe entre la créativité, la spéculation et le travail normatif d?une pensée hypothétique.

Pour ce faire, reconnaissons d?abord que la prospective est donc peut-être moins une démarche scientifique que politique. Et ensuite, faisons de l?histoire.

Itinéraire de Delphes à TEDX

Ce rôle normatif des oracles a pris différentes formes au cours de l?histoire : de l?oracle de Delphes, en passant par certains écrits religieux ? l?apocalypse de Jean par exemple ? jusqu?aux prospectivistes d?aujourd?hui. Ces derniers participent activement à la construction d?un cadre discursif dans lequel la société est promise à se mouvoir. Ils vont répondre au besoin des élites de consolider la légitimité de leur domination présente dans l?avenir. Dans le même temps, ils vont rassurer, calmer les angoisses d?un peuple qui doit déléguer sa capacité à se gouverner lui-même. La machinerie fonctionne : depuis la monarchie jusqu?à notre démocratie représentative moderne, nous retrouvons la même délégation du pouvoir par le peuple à une élite.

Notre époque est orpheline de la vision partagée qu?était le progrès. Celle-ci donnait un sens au développement de l?humanité qui allait vers son émancipation. Il s?agissait également d?un horizon de convergence, de disparition progressive des distinctions sociales. Cela laisse de la place, peut-être trop, à différents oracles qui vont tenter de reconstruire cet horizon commun et profiter de la désorientation ambiante.

Rouvrir nos imaginaires

Qu?une société se dote d?oracles et de devins en tous genres n?est en soi pas un problème. Le problème, en revanche, c?est notre manière de faire de la prospective, qui délimite les horizons possibles et finit par enfermer le futur. Le futur devrait être un terrain d?expérimentations, le lieu de réalisations d?alternatives, un foyer de contre-cultures, pas une banale et tiède continuation du système actuel. Pire : on ridiculise volontiers les alternatives, on exclut de la table des négociations au nom de la sauvegarde de l?intégrité du ?cercle de la raison?. Sous couvert de ?pragmatisme?, on fait du TINA – ?There is no alternative? – de Thatcher la seule et unique ligne de conduite de notre présent et de notre futur.

Face à ce présent continué qui essaie de se faire passer pour l?avenir, il nous faut agir. Construire des discours capables de porter de nouveaux imaginaires, de désencastrer le futur, et de libérer nos capacités d?actions. L?hégémonie du TINA a aplati nos lectures du futur : il s?agit de leur redonner de la densité.

Il est temps d’arrêter de faire de la prospective pour commencer à faire de l?histoire.

Dé-prospectiver et ré-historiciser le futur du travail

Prenons un cas concret : la question du travail, ces derniers temps, semble constituer un terreau fertile pour le discours prospectivo-bullshit.

On nous rebat ainsi les oreilles d?un monde du travail dominé par une force de travail freelance, et ce dès demain. Déjà, il est fort difficile de juger de l?ampleur du phénomène à l?heure actuelle, aussi me garderai-je bien de me prononcer quant à ses développements futurs. Mais la vraie question n?est pas : est-ce que ça va arriver ou non ? La bonne question, c?est plutôt : une telle situation serait-elle absolument inédite ? Ou encore : quelles traces cette situation peut-elle laisser ?

Une seule discipline nous autorise à aborder la question sous cet angle : l?histoire. Elle peut nous apprendre que le recours massif à une force de travail ?distribuée? n?est pas forcément synonyme de nouveauté. Elle nous poussera par exemple à nous pencher sur le cas de l?Italie du nord entre 1800 et 1880. Elle nous apprendra qu?en parallèle d?une phase de pré-industrialisation somme toute proche du cas britannique, a eu lieu une proto-industrialisation tout à fait originale.

A cette période, suite à une hausse de la démographie, les héritages se sont retrouvés éclatés, et les exploitations familiales ? morcelées. Pour pallier cette contraction relative des ressources, des manufactures domestiques se multiplient au sein des exploitations. En découle la structuration d?un réseau d?approvisionnement et de distribution original.

On peut facilement tirer un parallèle avec la situation de nos freelances : la disparition de l?espace de travail géré par l?employeur, l?indépendance hiérarchique couplée à une dépendance économique, la difficulté de penser une forme de représentation collective, les frontières poreuses entre la sphère individuelle et la sphère professionnelle, l?existence d?un travail pluriel ou encore l?auto-organisation.

La distribution du travail ou son organisation plus horizontale ne serait ainsi en rien un signe de modernité. En revanche, nous pouvons mobiliser ce cas historique au bénéfice d?une analyse plus fine des évolutions présentes :

  • Distinguer à ce qui est fondamentalement nouveau dans la situation actuelle. Non pas que l?histoire se répète immuablement, bien au contraire, mais c?est en se posant cette question que l?on fera apparaître les spécificités d?un contexte et d?une période donnés.
  • Exhumer les traces que laissent des pratiques originales comme celles-ci. Dans notre exemple, l?accumulation d?expérience, la distribution originale du capital fut le terreau d?un environnement socio-économique particulier que l?on observe encore aujourd’hui en Italie du nord : une industrie familiale, spécialisée et distribuée sur le territoire.

Là où il y avait la prospective, il faut reconsidérer l?histoire

Nous avons appris l?histoire sur des frises, avec une lecture linéaire alors que celle-ci est faite d?expérimentations, de spécificités, de discontinuités. Il s?agit de penser les régimes d?historicité : la façon dont passé, présent et futur s?articulent les uns avec les autres. L?histoire n?est pas rationnelle, elle n?est pas pragmatique, elle n?a pas de sens. En appréhendant cette profondeur de l?histoire, on libère nos capacités d?action dans le présent.

Là où il y avait la prospective, il faut considérer l?histoire

Là où il y avait la continuité, il faut considérer la discontinuité.

Là où il y avait la science, il faut considérer la politique.

Densifier nos lectures de l’histoire, c?est sortir de la tyrannie du présent pour mieux ouvrir notre futur.

Edwin Mootoosamy

Edwin Mootoosamy (@moodeo) est cofondateur de Ouishare et de l’agence Stroïka, sur le site de laquelle cette tribune a été originellement publiée.

Pour aller plus loin :
? BASCHET Jérôme, Défaire la tyrannie du présent : temporalités émergentes et futurs inédits, Découverte, 2018.
? HARTOG François, Régimes d?historicité. Présentisme et expérience du temps, Seuil, 2003.
? KOSELLECK Reinhart, Le futur passé. Contribution à la sémantique des temps historique, Relié, 1990.

  • vTaïwan : le citoyen, clé de la discussion publique ?

Alexandre Detroux (@alexdetroux), ingénieur de concertation chez Bluenove, qui développe le logiciel de concertation Assembl, revient en détail sur le fonctionnement de la plateforme de participation taïwanaise vTaïwan, qui interroge la société sur des questions aussi diverses que les véhicules sans pilote, l’autorisation d’Airbnb, la vente d’alcool en ligne ou (...)

Alexandre Detroux (@alexdetroux), ingénieur de concertation chez Bluenove, qui développe le logiciel de concertation Assembl, revient en détail sur le fonctionnement de la plateforme de participation taïwanaise vTaïwan, qui interroge la société sur des questions aussi diverses que les véhicules sans pilote, l’autorisation d’Airbnb, la vente d’alcool en ligne ou les services de transports à la demande… Une occasion de porter un regard sur les performances de ce dispositif de participation inédit et radical qui interroge la manière même de faire société à l’heure du numérique. Comment dépasser les limites des outils des CivicTechs ?

vTaïwan (pour virtual Taïwan) est un dispositif élaboré de consultation citoyenne, croisant participation en ligne et délibérations physiques « augmentées ». Application pilote des technologies employées à des fins civiques, elle met en oeuvre également des moyens de communication de masse dédiés, tout en étant pleinement et officiellement intégrée au processus de création de la loi par les institutions taïwanaises, permettant d?impliquer des milliers de citoyens.

Il faut se pencher sur les rouages de ce mécanisme pour en comprendre le fonctionnement et ce en quoi il diffère d?autres innovations civiques reposant sur le numérique. Cela demande une certaine ténacité, car vTaïwan n?innove pas sans un degré de complexité. On pourra le lui reprocher, et cela peut expliquer qu?il ait fait peu d?émules en dehors d?Asie. Néanmoins, face à la richesse de cette expérimentation, il est important de se laisser entraîner dans sa découverte. Ceci d?autant plus que Taïwan n?est pas représentative du reste du sous-continent : c?est une économie industrialisée et à revenus élevés de 23 millions d?habitants, reposant à plus de 70 % sur les services et dont l?industrie est principalement basée sur la haute technologie. Son PIB par habitant, ses indices d?égalité des revenus et de développement humain sont égaux ou surpassent ceux qui prévalent au sein de l?Union européenne. Cette proximité objective ne fait que renforcer l?impératif de comprendre pour mieux s?inspirer.

Lorsqu?on l?analyse, il ressort que le succès du dispositif vTaïwan repose sur deux particularités inédites.

Un contexte politique mature

La première tient à la configuration sociale et politique dans laquelle il s?insère. Cela nous ramène à la genèse de vTaïwan. Printemps 2014, la chambre législative de Taïwan passe en force une régulation clé sur les relations avec la Chine après s?être pourtant engagée à la soumettre à un exercice de discussion publique. Débute alors pour 22 jours une occupation du parlement par les Taïwanais qui l?ouvrent sur la rue. 22 jours seulement, mais durant lesquels un terreau activiste fort fait la démonstration d?un nouveau mode de délibération collective sans intermédiaire. Rigueur et inventivité permettent à cette agora de citoyens présents comme absents de refaire la loi, en répondant aux nombreuses réserves de la population et en produisant une adhésion bien supérieure. Par l?efficacité démocratique de ce processus décisionnel, alors limité à des ateliers retransmis et à des outils technologiques simples, le « mouvement des Tournesols » venait de supplanter aux yeux de tous les instances établies. Par là même, il remettait ? pour l?heure du moins ? le citoyen au centre de la prise de décision et éloignait les dérives d?autorité d?une classe politique décrédibilisée.


Image : le mouvement des Tournesols, via Flickr.

Le renouvellement électoral qui s?ensuit mène à l?arrivée au gouvernement de figures nouvelles et de non-professionnels de la politique. Parmi ceux-ci la ministre Jaclyn Tsai, ancienne cadre d?IBM que l?on charge des questions technologiques. Elle capitalise sur l?enthousiasme récemment soulevé en organisant un hackathon avec pour objectif de créer un système de délibération en ligne des politiques à l?échelle du pays. Sa promesse est claire : poster toutes les ressources d?aide à la décision en ligne, un engagement liant du gouvernement sur les points de consensus identifiés, et des réponses aux interpellations des ministères dans les 7 jours. Le pouvoir s?impliquera et ne dénaturera pas les contributions. Après quelques semaines, le résultat est là et est nommé vTaïwan. Le dispositif engrange ses premières réalisations, menant à des solutions législatives innovantes et à une meilleure adhésion. En 2016, le nouveau premier ministre déclare dans une communication à ses administrations que toutes les problématiques substantielles au niveau national doivent passer par un processus du type vTaïwan. Le dispositif serait en passe d?être étendu à d?autres niveaux de pouvoir à Taïwan et de s?exporter ailleurs sur le continent.

Un tel basculement du paradigme politique à Taïwan n?aurait sans doute pas été possible sans qu?une force sous-jacente eût été prête à se mobiliser. Cette force est la société civile de l?île, conscientisée à son propre pouvoir politique par une émancipation de la dictature du Kuomintang durant les décennies 1980-1990. Il est cependant possible d?identifier plus particulièrement un groupe comme moteur du changement advenu depuis 2014. Il s?appelle g0v et se compose d?hacktivistes, de militants de l?autodétermination citoyenne, doublés de développeurs informatiques confirmés. C?est une communauté mature : elle expérimente depuis de nombreuses années pour soutenir une prise de décision plus décentralisée et plus factuelle (en produisant par exemple un outil interactif sur le budget national ou un outil d?édition de tableaux de comparaison ergonomiques via Google Doc). Ce collectif a permis de dépasser l?indignation nationale pour proposer des solutions. Il a aussi contribué à en consolider les acquis. Suite au Mouvement des tournesols, certains militants g0v se sont imposés sur des listes électorales locales en 2014 ? à l?image des Indignados à la Mairie de Barcelone, eux aussi à l?origine d?un dispositif de décision collective avec Decidim Barcelona. D?autres ont été officiellement chargés de définir et d?entretenir les processus constituants vTaïwan, ainsi que d?y former les fonctionnaires. Leur figure de proue, Audrey Tang (@audreyt), autodidacte et entrepreneuse reconnue dans le monde du logiciel libre, est à présent ministre en charge du digital (voir sa tribune pour LeMonde.fr, son Ted Talk ou la conférence qu’elle donna à Super Public).

vTaïwan : une solution méthodo-technologique efficace

La seconde particularité inédite de vTaïwan tient à l?ensemble méthodo-technologique qu?il renferme : composite, original et efficace. Une visite de la plateforme en ligne, coeur du dispositif, montre que le processus évolue selon les instances. Le processus accordant le plus de poids à la voix citoyenne et ayant mené à de réelles innovations réglementaires s’appuie sur 4 temps distincts :

Informer
Aussi tôt que possible, l?audience est informée sur l?instance de consultation en tant que telle (processus et consignes de participation) et sur les sujets qu?elle concerne. Ces informations, centralisées sur la plateforme vTaïwan, peuvent par exemple prendre la forme de présentations et un forum de discussion adjacent permet de les discuter. Chaque participant peut auditer les contenus sur la plateforme et les éditer selon les règles de collaboration.

Collecter, agréger, montrer
Les participants se positionnent sur les orientations stratégiques de la régulation, grâce au logiciel Pol.is qui recueille et analyse leurs contributions. Cette technologie open source lancée en 2014 à Seattle consiste en un algorithme auto-apprenant, similaire d?après son cofondateur Colin Megill « aux moteurs de recommandation tels que ceux de Netflix ou Spotify, ou encore à la vision artificielle ». Elle se présente sous la forme d?une page web minimaliste, accessible via un lien que l?on peut insérer partout (par exemple : dans un post partagé sur Facebook, dans un email ou sur un autre site web). Le participant découvre sur cette page une opinion sur le sujet ouvert à consultation et peut y réagir (via un simple choix : accord, désaccord, neutre) ou proposer une opinion alternative, cadrée seulement par une limite de caractères et la recommandation de ne produire qu?une idée par contribution. Une fois cela fait une nouvelle opinion apparaît, et ainsi de suite. La participation grossissant, les quelques opinions de départ lancées par les organisateurs sont supplantées par les opinions des participants eux-mêmes, qui deviennent ainsi le cadre autodéfini de l?exercice. Progressivement, l?algorithme associe le participant à un groupe d?opinion adoptant des positions similaires. Les orientations (réactions aux opinions) exprimées par l?ensemble des participants sont agrégées en continu et automatiquement dans une infographie présentée sous le module de réponse. En un regard, on peut y distinguer les orientations consensuelles parmi les membres de notre groupe d?opinion, mais aussi celles (moins nombreuses) qui font consensus à travers tous les groupes. C?est transparent, et cela incite le participant ? pour reprendre une formulation du maire de Kingersheim en Alsace, Jo Spiegel, pionnier de la démocratie participative (voir le documentaire Democratie(s) ? de Datagueule) ? « à quitter son cas particulier pour réfléchir à l?intérêt général du commun ». Pol.is permet donc tout à la fois de décliner un sujet en problématiques pertinentes aux yeux des participants et de connaître leur opinion nuancée sur chacun de ces aspects. Ce faisant, le focus est placé sur l?obtention fluide d?un consensus entre groupes d?opinions différents, et non pas sur l?émergence d?un parti gagnant au détriment des autres.



Image : en haut, le module de conversation, qui permet de partager une idée et la réaction associée. En bas, la représentation synthétique des positions sur une matrice qui permet de comprendre où elles se situent.

Délibérer
Les parties prenantes sont réunies lors d?une rencontre « augmentée », cadrée par les résultats du module Pol.is. Cette rencontre vise à faire réagir les différents groupes à ces résultats et à entamer leur traduction en principes de régulation. L?ordre du jour est publié au préalable, puis la discussion est facilitée conjointement par des membres de la communauté g0v et des membres de l?administration, pour une progression structurée et équitable. Dans cet échange, la collectivité des citoyens est représentée par le modérateur principal qui énonce les conclusions tirées du module Pol.is. Afin d?être accessible au plus grand nombre, la rencontre est retransmise en live streaming, les activistes de g0v ayant même commencé à expérimenter avec la vidéo 360° (voyez par exemple cet épisode de Talk to Taïwan, show télévisé où un membre du gouvernement répond à des questions posées par les citoyens). La plateforme de streaming permet à l?audience de discuter en direct des échanges et de poser des questions dont certaines sont soumises aux intervenants. Durant tout l?évènement, la progression claire et rythmée ainsi qu?une identification simple des différents orateurs aident à maintenir l?attention des observateurs à distance. Les contenus sont ensuite archivés en vidéo et transcrits en ligne.


Image : Streaming d’une audience sur la plateforme. Des logos identifient les positions des orateurs.

Observer et amender la prise de décision
Le suivi de la procédure décisionnelle est favorisé sur la plateforme vTaïwan, qui permet le streaming des déclarations de membres du gouvernement et des délibérations de l?organe parlementaire, puis la publication des textes législatifs et des communications officielles.

Dans certaines instances de vTaïwan, on retrouve en outre une étape de co-rédaction de la loi par les citoyens sous forme d’amendements citoyen. Une procédure « notice-and-comment » est alors activée sur la plateforme web gouvernementale join.gov.tw (similaire à la Regulation Room développée à l’université Cornell). Cette plateforme permet à l?organe législatif de publier la version pré-finale d?une régulation afin de recueillir d?éventuels amendements du public. Ces amendements doivent être formulés dans les deux mois puis récolter suffisamment de « soutiens » pour être soumis au législatif. Le législatif a ensuite l?occasion d?interroger la personne responsable de cet amendement puis dispose d?un temps pour se positionner sur la faisabilité et l?opportunité d?intégrer la proposition. Il est enfin tenu de communiquer sa décision par voie de presse et sur la plateforme, puis de faire référence à l?amendement citoyen dans la législation finale.

vTaïwan : une approche originale de la participation

En prenant du recul, on peut parler d?un exercice de participation décliné en deux offres aux citoyens. Ceux-ci peuvent saisir l?une, l?autre ou les deux. La première offre est de s?investir d?une manière plus légère, intégrable dans le quotidien sans que cela ne nécessite de concession particulière. Cette phase a pour condition de succès une participation assez massive. Il s?agit du module Pol.is, qui ne sollicite le citoyen que pour une réaction (clic sur un bouton) ou pour exprimer une opinion en une phrase (l?équivalent d?un tweet). Le module permet de générer de manière fluide un cadre de décision légitime, car il s?appuie sur le consensus (et non pas la majorité) des divers groupes d?opinions qui se sont dessinés durant l?exercice. Ce cadre pour la suite du processus de décision consiste en une série d?orientations stratégiques consensuelles, et d?une emphase sur les opinions divergentes significatives (fortement soutenues, mais ne faisant pas l?objet d?un consensus) pour lesquelles il faudra veiller à créer des compensations. La seconde offre faite au participant est de s?investir plus lourdement, au prix d?un effort de spécialisation qui nécessite d?être mis en priorité dans son quotidien. Cette phase ? bien qu?elle appelle également à une diversité de points de vue ? a pour condition de succès une participation plus réflexive et complexe. Il s?agit du module de débat augmenté et de l?éventuel module d?amendement, qui vont impliquer un nombre restreint de participants dans une discussion approfondie et la création de contenus techniques (en ce qu?ils doivent répondre à des contraintes d?applicabilité). Cela permet de décliner les orientations stratégiques contraignantes en une décision applicable. Le citoyen peut ainsi être au centre de la prise de décision du début à la fin du processus selon ses envies et ses facultés.


Image : page d’accueil de la plateforme vTaïwan présentant différents sujets en discussion.

Dans cette démarche, vTaïwan fait prévaloir quelques partis-pris distinctifs : une information du participant omniprésente et centralisée, une transparence maximale sur tous les rouages du dispositif et sur la mécanique gouvernementale, un cadre d?expression ouvert et autodéfini par et pour les citoyens, et un accent sur l?ergonomie voire le caractère attractif et ludique (cela devrait être « un peu comme regarder et jouer dans un film en IMAX 3D », suggère Audrey Tang).

Succès, limites et réalités
Ces caractéristiques ont permis à vTaïwan de rencontrer un succès sans précédent. Si on l?analyse comme un moyen d?aboutir à de meilleures politiques, il faut reconnaître que vTaïwan est parvenu à rapprocher les positions et à passer outre des tractations figées grâce à des solutions originales. Si on analyse cet engagement citoyen comme une fin en soi, on peut observer que les instances les plus populaires ont associé des milliers de personnes à l?exercice législatif en leur donnant un poids prépondérant. Pour autant, la réussite du dispositif sur ces quatre années doit être largement mesurée.

Un comptage réalisé sur la plateforme montre que la configuration de vTaïwan décrite auparavant (incluant un module Pol.is) semble s?être appliquée à moins de la moitié, voire moins d?un quart des instances de participation lancées. On peut trouver plusieurs instances sur la plateforme se résumant à un forum en ligne traditionnel, attirant peu de contributions, suivi d?un débat augmenté. Il est difficile d?estimer la raison de ce manque d?audace, bien qu?on puisse imaginer un facteur politique. Il semble en effet que le ferment institutionnel favorable ait évolué, au détriment de la voix citoyenne. La rupture d?équilibre de 2014 ayant mis le mouvement civique en avant pourrait avoir été corrigée par une forme de carriérisme politique depuis, malgré la reconnaissance accordée aux activistes. Un symptôme pourrait en être la réticence du gouvernement à inscrire les régulations pour lesquelles vTaiwan a été actionné à l?agenda parlementaire. De ce fait, elles peuvent demeurer à l?état de projet. Un autre indicateur en serait qu?à peu d?exceptions près, le pouvoir politique ne sollicite la population sur vTaïwan que pour des sujets en fort lien avec l?innovation digitale. Les thèmes plus traditionnels, à l?impact socio-économique plus large, n?ont pas encore été couverts malgré des réclamations claires de la société civile. vTaïwan apparaît donc encore sous-utilisé.

Néanmoins, à supposer que vTaïwan soit activé plus souvent et dans sa configuration la plus radicalement innovante, le dispositif lui-même reste imparfait. Il manque d?abord d?accessibilité pour une partie substantielle de la population. La participation se compte en milliers et pas encore en millions de contributeurs. Les participants sont très majoritairement ceux disposant d?un accès facilité au numérique et d?une bonne aisance d?utilisation ; les moins connectés restent écartés malgré des expérimentations en cours pour y parer. De plus, et comme souvent avec les civic techs gagnant en maturité, les processus et la méthodologie peuvent être inintelligibles et de ce fait moins engageants. Cette difficulté est encore accentuée par la diversité des processus ouverts au public sur la plateforme. Bien que permettant une itération et donc une amélioration, elle nuit à la lisibilité. L?attractivité et la performance démocratique de vTaïwan pourraient aussi bénéficier du développement de la « seconde offre » de participation, plus exigeante et chronophage. On pourrait ainsi imaginer que les rencontres augmentées prennent également place avant le module Pol.is pour une meilleure information et qualité des débats, que le module d?amendement citoyen soit systématisé, voire même en amont, qu?un module de co-rédaction auto-modéré d?une épreuve législative (à l?image du module de rédaction Wikipédia ou du logiciel Discuto) soit instauré, qui servirait de base de travail au pouvoir réglementaire.

En observant vTaïwan, comme bien d?autres initiatives visant à impliquer le citoyen dans les choix collectifs, on peut conclure à l?existence de deux paramètres de réussite. Le premier est la technologie ainsi que la méthodologie qui la met en ?uvre. Parvenir à la bonne solution pour une population donnée nécessite une amélioration continue qui s?inscrit dans la durée. Il s?agit de produits logiciels, télévisuels, algorithmiques à éprouver, mais aussi d?un savoir-faire d? « ingénierie » à développer. Cela fait écho au déploiement d?autres solutions élaborées, comme ce que nous faisons avec la plateforme franco-canadienne Assembl (vidéo).

Le second paramètre, sans doute encore plus primordial, est la participation sincère et effective de tous les acteurs à mettre le citoyen en primauté dans la procédure de décision. On peut appeler cela la culture de participation, mais, comme le montre l?exemple de vTaïwan, une telle culture ne se décrète pas et se tisse dans la pratique, en construisant dans le temps long des relations permanentes et de bonne foi.

Sur chacun de ces deux aspects, la dynamique en cours à Taïwan n?est pas parfaite. Mais malgré ses limitations actuelles et les fluctuations de l?engagement des institutions, sa résonance tient dans une démonstration pionnière : il est possible de combiner légitimité, efficience et finesse d?expression dans un véritable cadrage citoyen de l?action législative. En cela, vTaïwan non seulement ouvre au citoyen l?accès à la décision publique, mais il en fait la clé.

Alexandre Detroux

  • De quelle éducation aux médias avons-nous besoin ?

Lors du dernier SXSW consacré à l’éducation, la chercheuse américaine danah boyd (@zephoria) a, comme à son habitude, délivré une très intéressante conférence sur la question de l’éducation aux médias (vidéo) devant un parterre de spécialistes. Intéressante parce qu’elle remettait en question certaines approches faciles ou rapides de la façon (...)

Lors du dernier SXSW consacré à l’éducation, la chercheuse américaine danah boyd (@zephoria) a, comme à son habitude, délivré une très intéressante conférence sur la question de l’éducation aux médias (vidéo) devant un parterre de spécialistes. Intéressante parce qu’elle remettait en question certaines approches faciles ou rapides de la façon dont on considère l’éducation aux médias


Image : danah boyd sur la scène du SXSW edu.

Comment stopper les fake news ? Et est-ce que ces outils suffisent ?Idéalement, l’éducation demande aux élèves de remettre en cause leurs hypothèses, de chercher de nouvelles explications. Le problème est que le gouffre qui s’ouvre alors peut être rempli d’une manière profondément problématique, estime danah boyd. Lorsque nous demandons aux élèves d’interroger leurs croyances sans leur donner un nouveau cadre pour donner un sens au monde, d’autres sont souvent là pour le faire à la place de leurs professeurs ou de leurs parents. danah boyd a un profond respect pour l’objectif de l’éducation aux médias, qui consiste, comme l’explique la spécialiste du sujet Renee Hobbs en « une enquête active et une réflexion critique sur les messages que nous recevons et créons ». La « littératie médiatique » consiste donc à développer des compétences pour analyser, évaluer et créer des médias. Elle vise à la fois à autonomiser les individus et à leur donner des outils pour créer une société démocratique. Dans un récent rapport de Data & Society, Monica Bulger (@literacyonline) et Patrick Davison, rappellent d’ailleurs que l’éducation au média a montré des résultats positifs, notamment en permettant d’évaluer le contenu partisan, d’améliorer la pensée critique ou le changement de comportement, mais que celle-ci a encore des efforts à faire pour s’améliorer.

« Mais fondamentalement, c’est une forme de pensée critique qui demande aux gens de douter? Et ça me rend nerveuse ».

L’éducation aux médias à l’heure de la post-vérité

danah boyd avait commencé à éclairer ces questions dans un article publié l’année dernière. Elle y soulignait déjà que pour elle, les deux solutions pour combattre la désinformation, à savoir l’éducation aux médias et les initiatives de vérification de l’information, oublient de prendre en compte le contexte culturel de notre consommation d’information. Elle rappelle une histoire lors d’une interview avec une adolescente qui lui expliquait ce qu’elle pensait des rapports sexuels et lui avait rapporté des certitudes particulièrement inexactes, comme le fait qu’on ne pouvait pas tomber enceinte avant 16 ans ou que le Sida ne se propageait que via les baisers? Autant d’informations qu’elle avait validées par des recherches en ligne. « Lorsque les élèves sont invités à comprendre le fonctionnement des médias, on leur enseigne à être critique, tout en soulignant que certaines publications sont plus dignes de respect que d’autres. Or, tout le monde n’est pas d’accord sur ce qui fait une source fiable. Aux États-Unis (pas seulement) nous vantons la responsabilité personnelle. » Chacun est son propre maître : tant et si bien que chacun est sensé comprendre par exemple la finance pour gérer efficacement sa retraite. Cette logique culturelle libérale est très forte. Mais elle a également des conséquences pour la connaissance et l’information. « Tout ce qu’ils ont à faire est de « faire les recherches » par eux-mêmes et ils sauront mieux que quiconque ce qui est réel ». Ce qui n’est pas sans poser problème, comme le pointe une étude récente de Francesca Tripodi pour Data & Society, l’Institution de recherche que dirige danah boyd, qui a observé les pratiques de recherches d’information de conservateurs américains et qui souligne que ni Google, ni les termes que l’on recherche ne sont neutres. Les recherches visant à vérifier des faits finissent par les imposer. Tripodi parle ainsi « d’inférence scripturale » pour décrire les méthodes de recherche de ces publics, profondément influencés par leurs propres convictions et par les termes qu’utilisent les médias conservateurs auprès de leurs publics qui les invite à s’informer sur ceux-ci plutôt que sur d’autres, comme l’explique le Washington Post. Les différences de termes utilisés vous conduisent à faire des recherches différentes et à des résultats différents et orientés.

Lors du Pizzagate, qui associait Hillary Clinton à un réseau de trafic d’enfants censé être lié à une pizzeria de Washington, tous les journaux ont multiplié les efforts pour dénoncer et contester ces allégations. Or, ces dénis ont eu l’effet inverse, rappelle danah boyd. Pour beaucoup de gens qui ont appris à se défier des médias et qui étaient déjà enclins à ne pas faire confiance à Clinton, cette convergence a suggéré qu’il y avait quelque chose d’étrange? jusqu’à ce qu’un type déboule avec une arme à feu dans la pizzeria (sans faire de victime, heureusement).

De nombreux groupes marginalisés sont en colère envers la façon dont les médias, les institutions ou les élites les rejettent : rappelons, souligne danah boyd, qu’il a fallu 5 jours avant que les grands médias ne s’intéressent aux émeutes de Ferguson et plus de temps encore pour que des journalistes s’intéressent aux problèmes que des Indiens du Dakota avaient avec le projet de pipeline traversant leur territoire. « Pour de nombreux Américains qui ont vu leurs journaux locaux disparaître, les reportages d’actualités semblent déconnectés de leurs réalités. Les problèmes et les sujets qui, selon eux, affectent leurs vies sont souvent ignorés ».

Expérience contre expertise

Depuis longtemps, les responsables des droits civiques plaident pour le respect de l’expérience sur l’expertise. Mais force est de constater qu’elle est rarement prise en compte et qu’on lui donne rarement la parole. danah boyd compare la situation avec celle de la médecine. Longtemps les gens ont eu un médecin de famille dans lequel ils avaient confiance. Aujourd’hui, beaucoup les considèrent comme des gens arrogants et condescendants, trop chers et inattentifs à leurs besoins. Les médecins manquent de temps pour passer un peu de temps avec leurs patients. Les gens se sentent dupés par des coûts trop élevés et des procédures compliquées. La confiance du public envers les médecins a diminué. À l’inverse, les gens obtiennent de plus en plus facilement des informations de leurs réseaux sociaux. Non seulement ces informations sont moins chères à obtenir, mais elles proviennent de gens qui sont prêts à les écouter, à les comprendre, à comparer leurs avis et leurs recommandations. « Pourquoi faire confiance à des experts quand vous avez à portée de main une foule de personnes bien informées qui ont peut-être vécu la même expérience que vous et qui peuvent vous aider ? » danah boyd dresse alors un parallèle entre cette dynamique et les discussions autour des liens supposés entre autisme et vaccinations (non, il n’y en a pas !). À l’origine des doutes, on trouve un article produit par des experts reliant l’autisme aux vaccinations : un article qui a résonné avec l’expérience de nombreux parents. Puis d’autres experts ont contesté les motivations du chercheur et se sont engagés dans une campagne pour expliquer qu’il n’y avait pas de liens. « Ce qui se déroulait ressemblait à une guerre de l’expertise contre l’expérience ». Les anti-vaccinations soulignent, eux, que nous ne savons pas s’il y a des liens entre vaccination et autisme. Ils réclament le choix (le choix de ne pas vacciner). « Ils font ce que nous leur avons appris à faire : remettre en question les sources d’information. Le doute est devenu un outil. »

Fake news : le triomphe de la polarisation

L’obsession autour des fake news relève du même type de conflit. D’un côté les experts accusent les gens « stupides » de ne pas comprendre ce qui est réel. On invite les experts à étiqueter ce qui est réel de ce qui ne l’est pas. Et on en appelle à une meilleure éducation aux médias. Tant et si bien qu’il suffirait de couper certaines sources de FB ou des réseaux sociaux pour résoudre le problème. Le problème est que les gens croient en l’information qui confirme leurs croyances. « Si vous leur présentez des données qui les contredisent, ils recourront à leurs croyances plutôt que d’intégrer de nouvelles connaissances dans leur mode de compréhension ». C’est pourquoi, souligne danah boyd, montrer aux gens du contenu labellisé qui contredit leurs opinions risque surtout d’augmenter leur haine de Facebook en tant qu’institution, plutôt que corriger leur croyance… Bref, cela risque surtout de renforcer la polarisation. C’est d’ailleurs pourquoi les progressistes propagent à leur tour des fake news qui renforcent leur conviction que les partisans de Trump sont stupides et arriérés. danah boyd est convaincu que la labellisation de l’information risque surtout d’encourager la polarisation. Pour elle, s’attaquer aux fausses nouvelles va demander bien plus que labéliser l’information et ce d’autant qu’il n’est pas sûr que cela nous amène là où nous souhaitons aller. Pour elle, l’enjeu est plutôt de changer de culture sur la façon dont nous donnons un sens à l’information, sur ce en quoi nous avons confiance et comment nous comprenons notre rôle dans le traitement de l’information. Des solutions rapides et faciles peuvent peut-être limiter les controverses, mais elles ne permettront pas de résoudre le problème de fond.

danah boyd estime qu’en tant que défenseur de l’éducation aux médias, elle a raté son objectif. « Mes croyances et hypothèses ne s’alignent pas avec celles de la plupart des Américains ». Pour elle, les intermédiaires de l’information sont importants, car nul ne peut être pleinement informé, ce qui suppose de sous-traiter certaines questions. Or, les États-Unis détruisent son tissu social par la polarisation, la méfiance et l’auto-ségrégation. « Et que cela nous plaise ou non, notre culture du doute et de la critique, l’expérience plutôt que l’expertise et la responsabilité personnelle nous poussent à aller plus loin encore dans cette voie ». L’éducation aux médias nous invite à poser des questions et à nous méfier des informations et c’est justement ce qu’ils font, concluait alors la chercheuse dubitative devant ce paradoxe. Aucun pansement simple ne fonctionnera, estimait alors la chercheuse, sans proposer de piste d’action claire.

Un an plus tard, au SXSW donc, son propos s’est renforcé.

Fake news : une crise épistémologique

L’éducation aux médias n’existe pas vraiment dans les écoles explique-t-elle. On n’en trouve qu’une version dégradée invitant les élèves à distinguer CNN de Fox News, à débusquer le parti pris d’un reportage. Quand elle s’intéresse au numérique, elle se résume souvent à un « ne faites pas confiance à Wikipédia et faites des recherches sur Google ». L’éducation aux médias est régulièrement invoquée comme la solution aux fake news, quand elle n’est pas invoquée comme la solution pour résoudre par magie notre division politique. Or, rappelle danah boyd, nous vivons dans une société polarisée. Et pour une progressiste comme elle, les phénomènes conservateurs et libéraux qui imprègnent les questions médiatiques ne se réduisent pas simplement? en tout cas, ne se réduiront pas d’un simple coup de baguette magique. Les meilleures intentions peuvent conduire au pire et la vision étroite de l’éducation aux médias et à la pensée critique également. Dans un écosystème médiatique instable et en pleine transformation, il nous faut nous demander à quel type d’éducation aux médias nous devrions travailler.

En 2017, la sociologue Francesca Tripodi a réalisé un travail pour comprendre comment les communautés conservatrices comprenaient les propos contradictoires du président américain. Elle s’est rendu compte par exemple que les communautés conservatrices évangéliques, formées à l’interrogation critique des textes bibliques, ne prenaient pas les messages de Trump dans leur sens littéral. Les gens interprétaient leurs significations comme ils le font de la Bible. « Les métaphores et les constructions importent plus que la précision des mots ». Or, le plus souvent, nous valorisons la précision dans le langage. Pourtant, les compétences linguistiques et communicationnelles ne sont pas universellement appréciées, tant et si bien que la résistance à ces compétences est en passe de devenir une guerre culturelle. Comme le pointait Cory Doctorow : « Nous ne vivons pas une crise sur ce qui est vrai, nous vivons une crise sur la façon dont nous savons si quelque chose est vrai. Nous ne sommes pas en désaccord sur les faits : nous sommes en désaccord sur l’épistémologie », c’est-à-dire l’étude de la connaissance elle-même. Les éducateurs sont profondément attachés à la preuve, à la raison, aux faits. Mais la connaissance ou la science ne sont pas stables. Il y a 75 ans seulement, la science estimait encore que les noirs étaient biologiquement inférieurs, rappelle boyd. Dans de nombreuses communautés, l’expérience l’emporte encore sur la science comme clé de la connaissance. Sur des sujets comme la météo, le climat ou la médecine, d’autres formes de connaissance que la science occidentale existent. « Les épistémologies fondées sur l’expérience reposent aussi sur des preuves, mais pas sur le type de preuves qui seraient reconnues ou acceptées par les scientifiques occidentaux ». La tension entre les connaissances scientifiques et les connaissances confessionnelles, bien sûr, n’a jamais été facile à résoudre, au contraire. Cette tension a notamment d’innombrables ramifications politiques et sociales. Ce qui est certain, c’est que les différences épistémologiques fondamentales ne se résolvent pas par le compromis. « Les gens pensent toujours qu’ils sont engagés dans une pensée critique lorsqu’ils interrogent le sens du bon et du mal, du vrai et du faux, de l’honnête et du trompeur. Mais la plupart de ce qu’ils en concluent est en fait surtout enraciné dans leur croyance plus que dans une source d’information spécifique ». Le risque, si nous n’y prenons pas garde, c’est que « l’éducation aux médias ou la pensée critique soient déployées comme une affirmation d’autorité sur l’épistémologie ». C’est déjà le cas. Aujourd’hui, les débats sur la vérification des faits suggèrent qu’il n’y aurait qu’une seule vérité. Et nous devons reconnaître que beaucoup d’élèves ont appris qu’il n’y a qu’une seule façon légitime de connaître les choses, qu’une vision du monde qui est acceptée.

Armer la pensée critique

Le politologue Deen Freelon a tenté de donner un sens au rôle de la pensée critique pour traiter les fake news. Il est ainsi revenu sur une fascinante campagne publicitaire de Russian Today qui a été rapidement interdite aux États-Unis et au Royaume-Uni, ce qui a conduit Russian Today à créer des publicités pour expliquer cette interdiction qui clamaient : « Les preuves de l’impact de l’activité humaine sur le changement climatique sont-elles fiables ? La réponse n’est toujours pas claire. Un jugement équilibré n’est possible que si vous êtes mieux informé. En défiant la vue acceptée, nous révélons un côté de l’information que vous ne verriez normalement pas. Parce que nous croyons que plus vous remettez en question les choses, plus vous en savez ! » Si vous venez d’un milieu qui n’est pas certain que le changement climatique est réel, cette proposition semble tout à fait raisonnable. Pourquoi ne voudriez-vous pas plus d’informations ? Pourquoi ne devriez-vous pas être engagé dans la pensée critique ? N’est-ce pas ce qu’on vous a encouragé à faire à l’école ?

Et la chercheuse de pointer une autre publicité de Russian Today : « La terreur est-elle seulement commise par des terroristes ? La réponse n’est pas toujours claire. Un jugement équilibré n’est possible que si vous êtes mieux informé. En défiant la vue acceptée, nous révélons un côté de l’information que vous ne verriez normalement pas. Parce que nous croyons que plus vous remettez en question les choses, plus vous en savez ! »

Et de rappeler que les militants progressistes eux-mêmes, notamment, se demandent parfois si le gouvernement américain est responsable du terrorisme dans d’autres pays. Russian Today a fait une campagne efficace, estime la chercheuse. Ils ne sont pas apparus comme conservateurs ou libéraux, mais plutôt comme une entité médiatique censurée pour avoir posé des questions. Et en rapportant cette interdiction, les grands médias légitimaient eux-mêmes cette campagne sous la rubrique « liberté d’expression ».

La liberté d’expression et d’information en question

« Nous vivons dans un monde où nous assimilons la liberté de parole au droit d’être amplifié. Mais est-ce que tout le monde a le droit d’être amplifié ? » Les médias sociaux nous ont apporté cette infrastructure d’information sous la fausse image que si nous étions tous rassemblés à un même endroit nous trouverions un terrain d’entente et éliminerions les dissensions et conflits. Nous avons déjà vu cette logique à l’oeuvre auparavant. Après la Seconde Guerre mondiale, le monde pensait que la connexion du globe par l’interdépendance financière empêcherait la Troisième Guerre mondiale. Rien n’assure pourtant que cette logique se suffise à elle-même.

Pour le meilleur et pour le pire, en connectant le monde à travers les médias sociaux et en permettant à quiconque d’être amplifié, l’information peut se propager à une vitesse record. « Il n’y a pas de véritable curation ou contrôle éditorial. Il incombe au public d’interpréter ce qu’il voit. De s’auto-enquêter. Puisque nous vivons dans une société néolibérale qui donne la priorité à l’action individuelle, nous doublons la mise par l’éducation aux médias en tant que «solution» à la désinformation. C’est à chacun d’entre nous, en tant qu’individu, de décider par nous-mêmes si ce à quoi nous sommes confrontés est vrai ou non. »

Bien souvent, les gens qui affichent une désinformation claire et indiscutable le savent. Ils savent que c’est une foutaise, explique encore danah boyd. Ils se fichent de savoir si c’est vrai ou non. Mais pourquoi l’affichent-ils alors ? Parce qu’ils font une déclaration ! Les personnes qui ont posté l’un des mèmes à l’encontre d’Hillary Clinton, la faisant passer pour une sataniste, n’ont pas pris la peine de vérifier cette affirmation. Ils s’en fichaient. Ce qu’ils voulaient signaler clairement, c’est qu’ils détestaient Hillary Clinton. Et ce message a en effet été entendu haut et fort. Et ils sont offensés si vous leur dites qu’ils ont été dupés par les Russes pour répandre de la propagande. Ils ne vous croient pas une seconde.

La désinformation est contextuelle

« La désinformation est contextuelle » souligne la chercheuse. « La plupart des gens croient que les gens qu’ils connaissent sont crédules à de fausses informations, mais qu’ils sont eux-mêmes équipés pour séparer le bon grain de l’ivraie. Nous pensons tous être capables de vérifier l’information et d’être autonomes, mais ce n’est pas le cas. » Ajoutez à cela que pour nombre de personnes, l’éducation et les médias – deux institutions qui tentent de contrôler la façon de penser des gens, deux institutions qui tentent d’affirmer leur autorité sur l’épistémologie – sont des ennemis.

danah boyd a grandi sur les forums Usenet. Elle y a passé des nuits à discuter avec des gens dont elle pensait qu’ils avaient tort. La loi de Godwin était pour elle une réalité bien tangible. La loi de Poe également, soulignant qu’il est très difficile de faire la différence entre un propos extrême et sa parodie.

Dans leur livre, L’internet ambivalent : méfait, bizarrerie et antagonisme en ligne, les chercheurs en études des médias Whitney Phillips (@wphillips49) et Ryan Milner (@rmmilner) soulignent combien un segment de la société est si bien versé dans les communications numériques – mèmes, GIF, vidéos, etc. – qu’ils peuvent utiliser ces outils pour déstabiliser fondamentalement les structures de communication et les visions du monde des autres. Il est difficile de dire ce qui est réel et ce qui est fiction, ce qui est cruel et ce qui est une blague. Mais c’est justement le point. C’est ainsi que l’ironie et l’ambiguïté peuvent être militarisées. « Et pour certains, l’objectif est simple : démanteler les fondements mêmes des structures épistémologiques des élites si profondément ancrées dans les faits. »

« Beaucoup de gens, en particulier les jeunes, se tournent vers les communautés en ligne pour donner un sens au monde qui les entoure. Ils veulent poser des questions inconfortables, interroger les hypothèses et interroger les évidences qu’on leur assène. Bienvenue à la jeunesse ! Mais, il y a des questions qu’il est inacceptable de poser en public (comme à l’école) et ils l’ont appris. Mais dans de nombreux forums en ligne, aucune question ou exploration intellectuelle n’est considérée comme inacceptable. Restreindre la liberté de penser, c’est censurer ! Et ainsi toutes sortes de communautés ont surgi pour que les gens explorent les questions de race et de genre et d’autres sujets de la manière la plus extrême possible. Et ces communautés sont devenues glissantes. Ceux qui adoptent des vues aussi haineuses sont-ils réels ? Ou sont-ils ironiques ?

Personne ne veut de la pilule bleue !

Dans le film The Matrix de 1999, Morpheus dit à Neo : « Vous prenez la pilule bleue, l’histoire se termine. Vous vous réveillez dans votre lit et croyez ce que vous voulez. Vous prenez la pilule rouge, vous restez au pays des merveilles et je vous montre à quel point le trou du lapin est profond. » La plupart des jeunes ne souhaitent pas le confort de l’aveuglement, ils veulent avoir accès à ce qui est inaccessible, interroger ce qui est tabou et dire ce qui est politiquement incorrect. Qui ne voudrait pas prendre la pilule rouge ? »

Dans certaines communautés, prendre la pilule rouge signifie aussi interroger les médias et l’éducation. Poser des questions sur leur rôle et le remettre en question. danah boyd évoque ainsi la radicalisation de jeunes Américains responsables de tuerie de masse, qui commencent leur radicalisation en interrogeant de manière critique une réalité qu’ils ne comprennent pas et qui rejoignent peu à peu des forums doctrinaires, qui développent des visions du monde persuasives s’appuyant sur des mécanismes très construits pour contester d’innombrables hypothèses. La différence entre ce que l’on considère comme un travail éducatif et un travail radicaliste dépend beaucoup de votre vision du monde, pose-t-elle avec provocation.

La confiance dans les médias est assez faible, rappelle-t-elle. Il est assez facile de trouver des failles dans les médias, de construire une vision complotiste. L’éducation au média encourage souvent les jeunes à en créer pour en comprendre le fonctionnement. De nombreux jeunes apprennent également ces compétences par eux-mêmes, en promouvant leurs comptes instagram ou youtube. Mais à quelle fin ? « Chaque jour, je vois des adolescents produire des contenus antisémites ou misogynes en utilisant les mêmes outils que les activistes utilisent pour combattre ces préjugés ». Il est notable que ceux qui adoptent des points de vue extrêmes sont extraordinairement qualifiés pour utiliser les médias. « Développer des compétences dans la fabrication de médias ne garantit pas que quelqu’un les utilisera pour le bien ». C’est bien le problème. « Beaucoup de mes pairs pensent que si plus de gens sont qualifiés et si plus de gens posent des questions difficiles, le meilleur en sortira ». Mais, c’est certainement un peu naïf. Le cadre du marché des idées fondé sur la liberté de pensée est à la fois génial et également un peu naïf. Le problème est que les bonnes idées ne remontent pas toujours à la surface. Les messages contradictoires ont plus tendance à remonter à la surface que les messages bien intentionnés.

Qu’on s’entende bien, rappelle danah boyd : « Cela ne veut pas dire qu’il ne faille pas éduquer les gens ou produire de la pensée critique. Je ne veux pas d’un monde de moutons ». Mais l’éducation aux médias ne suffira peut-être pas à gagner la guerre culturelle en cours. Pour danah boyd, la propagande s’est transformée. L’enjeu désormais est de donner un sens à un paysage de l’information où les outils mêmes que les gens utilisent pour donner un sens au monde qui les entoure sont stratégiquement pervertis par d’autres qui croient résister aux puissants acteurs que nous cherchons à critiquer. L’une des meilleures façons de faire « flamber » un public consiste à troller les médias. En faisant en sorte que les médias soient contraints à la négation, les allumeurs comptent sur le fait que ceux qui se méfient des médias réagissent en faisant leur propre enquête… C’est un puissant effet boomerang. Ainsi, plus les médias niaient le lien entre autisme et vaccination et plus le public pensait que cela cachait quelque chose de réel. Autre exemple avec le Pizzagate : les médias ont couvert l’information pour le démonter. Beaucoup de gens ont contre enquêté, jusqu’à ce qu’un homme s’empare d’une arme à feu…

Comment douter ?

danah boyd appelle cela le gaslighting. Le terme renvoie à un film de 1944 (Hantise de Goerge Cukor) où une femme est manipulée par son mari d’une manière si efficace qu’elle pense qu’elle est folle. C’est une technique efficace, qui rend quelqu’un soumis et désorienté. Une fois instillé, le doute de soi est difficile à surmonter. Pour danah boyd, l’un des risques du nouveau paysage médiatique est qu’il soit utilisé pour abuser les gens. Mais contrairement à la violence domestique, il n’y a pas de sortie possible de notre univers d’information. On sait aujourd’hui par exemple qu’on ne combat pas la dépression par un discours rationnel. S’attaquer à la dépression est un travail difficile. Nous avons développé des outils formidables, reste à savoir comment éduquer les gens qui ne partagent pas votre cadre épistémologique.

Pour danah boyd, les réponses à ces problèmes sont difficiles. Mais il est nécessaire de développer des anticorps pour aider les gens à ne pas être trompés. C’est une question d’autant plus difficile que les gens préfèrent suivre leur instinct que leur esprit. Personne ne souhaite entendre qu’il est trompé. Pour danah boyd, l’enjeu est peut-être alors d’aider les gens à comprendre leur propre psychologie.

L’empathie est une émotion puissante que la plupart des éducateurs encouragent. Mais comment résister lorsque vous commencez à sympathiser avec des personnes ou des visions du monde toxiques ? Les chercheurs qui travaillent à essayer de comprendre les visions dangereuses du monde font un gros travail pour garder une distance émotionnelle. L’enjeu pour eux consiste à séparer les signaux, à regarder par un bout (en enlevant ce qui ne relève pas du contexte par exemple). Mais c’est le contraire de ce que l’on fait quand on analyse des médias où l’on apprécie d’abord le contexte et où l’on ne conserve pas de distance émotionnelle.

Pour danah boyd, une autre piste consiste à aider les élèves à mieux comprendre les différences épistémologiques : pourquoi des gens interprètent-ils différemment un même contenu ? « Plutôt que de penser à l’intention des productions, analysons les contradictions des interprétations ». Cela nécessite de développer un fort sens de la façon dont les autres pensent afin de comprendre où se situent les différences de perspective. D’un point de vue éducatif, cela nécessite de comprendre le point de vue d’autrui tout en gardant son point de vue ferme (même si apprécier la vision d’une personne toxique peut-être profondément déstabilisant).

Pour danah boyd, il est également nécessaire d’aider les élèves à voir comment ils comblent les failles d’une information. Comprendre les biais de confirmation, à savoir ce que nous acceptons et ce que nous rejetons de notre filtre informationnel est essentiel.

Reste que ces pistes sont des exercices de renforcement cognitif qui permettent de reconnaître ses propres faiblesses, mais pas celles du paysage médiatique qui nous entoure. « Nous ne devons pas tant affirmer notre autorité sur l’épistémologie, qu’encourager les élèves à être plus conscients de la façon dont l’interprétation est socialement construite », et comprendre comment cela peut-être manipulé. Reste que ce n’est pas parce que vous savez que vous êtes manipulé que vous pouvez y résister, reconnaît la chercheuse désarmée.

« Soyons honnêtes : notre paysage informationnel va devenir de plus en plus complexe ». Mais l’enjeu n’est pas tant de comprendre ce qu’est un fait ou comment évaluer les sources. La première génération d’éducation aux médias répondait à la question de la propagande dans un contexte de média de masse. Or, nous vivons désormais dans un monde réseau. Nous devons donc comprendre comment ces réseaux s’entrelacent et comment l’information qui s’y répand est comprise et vécue différemment de celle qui était produite et diffusée par les médias traditionnels.

L’information, peut, est, et sera militarisée. La propagande d’aujourd’hui n’est plus créée par Edward Bernays. Depuis l’internet, des cohortes de jeunes ont appris à pirater l’économie de l’attention dans le but d’acquérir un statut et un pouvoir dans ce nouvel écosystème informationnel. Pour la chercheuse, nous devons imaginer des réponses en réseau à ce paysage en réseau. Et envisager de construire la connaissance d’autres façons dont nous la construisions jusque là.

Depuis son article et son intervention, danah boyd a reçu beaucoup de critiques. Elle a tenu à y répondre dans un autre article, précisant que l’éducation aux médias actuelle ne provoque pas la haine, mais ne la résout pas. Mais bien souvent, les messages bien intentionnés que nous tentons de véhiculer ne cadrent pas avec la réalité. Pour elle, l’argument de base qu’elle a tenté de défendre est de dire que si nous n’y prêtons pas attention, l’éducation aux médias et à la pensée critique seront déployés comme une affirmation d’autorité sur l’épistémologie. Et elle n’est pas persuadée que ce soit une réponse satisfaisante.

Arrêtons-nous là pour l’instant. Même si l’on voit bien, dès à présent, que les pistes qu’explore danah boyd nécessitent encore d’être complétées. On y reviendra assurément.

Hubert Guillaud

  • Classes populaires : les oubliés du numérique

Le dernier numéro de la revue Réseaux, coordonné par Dominique Pasquier (qui fera paraître en septembre un ouvrage de recherche sur L’internet des familles modestes : enquête dans la France rurale, issu du projet de recherche Poplog) est consacré aux « Classes populaires en ligne, les « oubliés » de la recherche ? ». Dans son (...)

Le dernier numéro de la revue Réseaux, coordonné par Dominique Pasquier (qui fera paraître en septembre un ouvrage de recherche sur L’internet des familles modestes : enquête dans la France rurale, issu du projet de recherche Poplog) est consacré aux « Classes populaires en ligne, les « oubliés » de la recherche ? ».

Dans son introduction, la sociologue souligne qu’« on sait peu de choses sur la spécificité du rapport à internet dans les milieux populaires ». Les travaux sur les classes populaires n’ayant pas beaucoup interrogé la question du numérique et, de l’autre, les travaux sur le numérique ayant peu abordé les individus peu diplômés. Si on trouve des études sur la fracture numérique, celles-ci ont surtout montré que les classes populaires ont en grande partie rattrapé leur retard de connexion, mais interrogent peu les inégalités d’usages. Or, on sait depuis longtemps que les individus diplômés ont des usages d’internet plus diversifiés que les autres. Si internet est un outil qui se prête à des formes d’appropriation très plastiques, les usages populaires sont à la fois spécifiques et divers (avec notamment des différences à regarder entre usages ruraux et urbains ; entre usages des familles riches et pauvres).

Ainsi, notamment, dans les milieux populaires, internet est intimement associé à la sphère personnelle et aux loisirs et à tendance à favoriser une sociabilité familiale, locale, trait fort de la sociabilité populaire, rappelle Dominique Pasquier. C’est dans de petites différences que se nichent les particularités des usages populaires comme le fait d’avoir une adresse e-mail pour toute la famille par exemple? ou un contrôle familial parfois plus marqué qu’ailleurs (voir par exemple l’article d’Irène Bastard sur les problèmes d’affichage public du réseau d’amis sur Facebook). L’internet populaire n’est pas spectaculaire, mais particulier, souligne Dominique Pasquier.

Les capacités exploratoires sont souvent plus difficiles : les moins dotés scolairement ont plus de difficulté à gérer, hiérarchiser, sourcer l’information en ligne lors de leurs recherches par exemple. Mais là aussi, les choses se sont améliorées : la plupart trouvent ce qu’ils cherchent. Le sociologue Nicolas Auray avait pointé 4 types de compétences discriminantes : les compétences managériales (c’est-à-dire les capacités à discuter) sont moins évidentes pour les milieux populaires ; les compétences herméneutiques également (c’est-à-dire la capacité à expertiser un document) ; les compétences topologiques (la compétence à utiliser l’internet qui favorise ceux qui sont socialisés par la culture du jeu vidéo), elles, ne défavorisent pas nécessairement les classes populaires ; et les compétences sociales (la capacité à dépasser l’homophilie, c’est-à-dire à se connecter à ceux qui ne sont pas de notre milieu social) où les classes populaires montrent une grande résistance à se connecter à des gens socialement différents. Pour Dominique Pasquier, l’entre-soi des classes populaires freine la compétence exploratoire et ce d’autant plus que nombre de formes d’exploration n’ont pas de de pertinence pour certaines conditions ou parcours de vies.

La question de la participation, elle, montrait que les individus les moins diplômés investissent plus facilement des dispositifs « sans mémoire » et reposent sur des « types d’écritures très éloignés des canons légitimes », comme les messageries instantanées, le tchat, l’échange d’images… Jen Schradie parle d’ailleurs d’une « fracture de la production », du fait qu’on ne se sent pas toujours légitime à participer. « Finalement, qu’il s’agisse d’explorer ou de participer, la démocratisation d’internet s’est opérée sous des formes ségrégatives. Il y a une réelle ouverture sur de nouveaux savoirs, il y a certaines formes de participation, mais les territoires en ligne restent marqués par la stratification sociale et l’entre-soi ».

Autant de perspectives qu’approfondissent les différentes contributions du numéro. A lire donc.

  • L?attention, une question politique ?

Le concepteur éthique Américain Tristan Harris (@tristanharris) était l?un des invités du sommet Tech for Good, réuni par Emmanuel Macron à l?Élysée. Il était l?un des rares représentants d?une « société civile » dans un quarteron exclusivement entrepreneurial qui a surtout servi à faire des annonces sur le développement de (...)

Le concepteur éthique Américain Tristan Harris (@tristanharris) était l?un des invités du sommet Tech for Good, réuni par Emmanuel Macron à l?Élysée. Il était l?un des rares représentants d?une « société civile » dans un quarteron exclusivement entrepreneurial qui a surtout servi à faire des annonces sur le développement de leurs activités. Caution éthique plutôt inaudible d?une technologie en quête de garde-fous ? Certainement.

Dans la salle du Maif Social Club où Harris était invité la veille à intervenir en petit comité, il a commencé par montrer une vidéo, où des adolescents témoignent de leurs difficultés à gérer les sollicitations de leurs smartphones et de leurs services sociaux. Une vidéo où les adolescents soulignent combien ils sont conscients de l?accroche attentionnelle dont ils sont à la fois les cibles et les victimes, mis en parallèle avec un discours décomplexé des entrepreneurs de la technologie via des citations où ceux-ci sont montrés dans leur plus simple objectif, à l?exemple du patron de Netflix, Reed Hastings, avouant que son service est « en concurrence avec le sommeil ». Une vidéo qui souligne, à l?image de l?ONG qui l?a produite, Common Sense Media, que la question du « bien-être numérique » est devenue une question de société et un enjeu d?intérêt général.

Comment l?attention contrôle la société

Le propos de Tristan Harris depuis qu?il a commencé à faire parler de lui en mettant à jour la question de captation attentionnelle par le design est devenu clairement politique. On pourrait dire qu?il s?est radicalisé à mesure qu?il a en a soulevé les enjeux. « L?enjeu ne consiste pas seulement à décrypter comment les enfants utilisent le numérique, mais à comprendre comment l?attention peut contrôler la société », explique-t-il avec aplomb. « Il y a aujourd?hui un problème dans les choix que l?industrie de la technologie fait pour nous ». La technologie capture notre attention pour tout contrôler : les croyances, les élections, l?éducation, la santé publique et mentale? Elle s?insère dans chaque aspect de notre société, de manière invisible. Et, contrairement à la question des données personnelles par exemple, le thème de l?attention, de notre fonctionnement cognitif et social pour l?intérêt général, lui, n?est défendu par personne, souligne Tristan Harris.


Image : Tristan Harris au Maïf Social Club.

Harris rappelle qu?avant de travailler pour Google et de démissionner suite à une présentation interne (enfin disponible), qu?avant d?avoir lancé Apture qui a été racheté par Google et qu?avant d?être étudiant à Stanford, il s?était essayé à être magicien. Or, qu?est-ce qu?être prestidigitateur si ce n?est détourner les lois du fonctionnement de l?esprit ? Manipuler l?attention est au coeur de la magie, qui consiste à voir le monde sous l?angle de la vulnérabilité des esprits de ses contemporains. C?est en rêvant encore d’être magicien qu?il a étudié au Persuasive Technology Lab de Stanford, afin de mieux comprendre la psychologie et l?influencer. La technologie aujourd?hui utilise les mêmes techniques de persuasion. Pour nous faire utiliser un produit tous les jours, les techniciens les transforment en machines à sous qui nous délivrent des récompenses permanentes et aléatoires. Nos outils nous promettent des récompenses en permanence : que ce soit des messages, des likes ou de nouveaux followers? Des milliers de designers et d?ingénieurs décident ainsi du fonctionnement attentionnel de milliards de personnes. Ce n?est pas nous, utilisateurs, qui choisissons ces effets qui nous conduisent à consulter nos téléphones 150 fois par jour. « Je ne dis pas que c?est conçu de façon diabolique, mais qu?une multitude de petits choix, faits par-devers nous, nous influencent profondément ». Nous devons réancrer ces petits choix dans la réalité. Plutôt que de se livrer à une course pour capter l?esprit des gens, les ingénieurs et les designers ont une responsabilité à protéger les gens.

Que vous propose vraiment FB ? Voir une photo de vous ou perdre 20 minutes de votre temps ?Le Brexit, l?élection de Trump, l?affaire Cambridge Analytica? nous montrent bien – toute limite gardée quant à l?influence exacte du numérique sur ces questions politiques qui vont bien au-delà de la seule influence des outils sociaux, puis-je me permettre de nuancer – que nous ne sommes pas là devant de simples machines pour partager des photos, mais que nous sommes confrontés à « des machines d?influences pour contrôler les esprits ». Les algorithmes de Facebook calculent pour chaque utilisateur ce qu?il va voir apparaître, dans des langues que les ingénieurs de Facebook ne parlent pas. Personne chez Facebook ne parle le birman, le tamil, le rohingya? mais des milliers d?ingénieurs calculent néanmoins ce qu?il faut mettre dans l’esprit des gens qui parlent ces langues. Des gens en meurent, rappelle-t-il en faisant référence au rôle de Facebook dans le drame à l’encontre des Rohingya dénoncés par l?ONU. Il est temps d?avoir un débat, de comprendre comment cela fonctionne et de tenter de nous attaquer à ce problème, pointe Harris.

« L?extractivisme attentionnel consiste à extraire toujours davantage, à fracturer toujours plus notre capacité attentionnelle »

« Quand je termine ma bouteille d?eau, le fait qu?elle soit vide me dit que c?est fini. Je peux en vouloir encore, mais il me faut alors en prendre une autre », explique Tristan Harris en joignant le geste à la parole. « Il faut le vouloir ». Une expérience de psychologie cognitive a montré que nous ne nous rendions pas compte de ce que nous ingurgitions devant des bols de soupes truqués, qui se remplissaient sans fin. Les cobayes de l?expérience de Brian Wansink du Food & Brand Lab de l?université Cornell ont absorbé deux fois plus de soupe que ceux qui n?avaient pas de bols qui se remplissaient discrètement, et ce, sans s?en rendre compte et sans s?en trouver plus rassasiés que le groupe test qui buvait une soupe dans des bols normaux. « Notre cerveau a besoin d?indicateurs. Or, nos outils numériques nous cachent ces indicateurs, à l?image des fils d?information sans fin ou des vidéos qui se lancent automatiquement, pour nous inviter à consommer davantage. » Si notre quantité d?attention est limitée, finie, les géants des technologies ont construit des modèles économiques sur l?exploitation sans fin de notre attention. Nous sommes piégés dans une course à l?armement où chacun lutte pour capturer notre attention. Pour Harris, le constat est clair. Pour limiter cette guerre, il faut trouver des modalités, des lois, des protections, des normes attentionnelles, comme on l?a fait pour l?écologie. Si on déréglemente l?exploitation de la nature, nous savons que nous nous retrouverons rapidement sans plus aucune forêt, sans plus d’eau potable?

Tristan Harris au Maif Social Club photographié par David Berbain« L?extractivisme attentionnel consiste à extraire toujours davantage, à fracturer toujours plus notre capacité attentionnelle », à l?image de notre recours au multitâche nécessaire pour répondre à la démultiplication des sollicitations et qui conduit, par épuisement attentionnel, à renforcer encore plus l?exploitation dont nous sommes l?objet. Notre perception est désormais enfermée dans un instrument débilitant qui modifie notre capacité d?attention. Harris souligne que ce constat s?amplifie avec le développement du modèle publicitaire, comme si l?intérêt perçu sur notre attention devait augmenter tous les trimestres? à l?image des résultats de ces entreprises. « Ces entreprises ne minent pas seulement nos données personnelles, elles minent également notre attention ; et notre capacité de contrôle, elle, diminue proportionnellement en retour ».

Harris fait la promotion du Center for Humane Technology, l?association qu?il a lancé et qui prolonge le Time Well Spent, avec un ancien associé de Zuckerberg, l?investisseur Roger McNamee, avec lequel il s?est rendu au Congrès américain pour alerter les sénateurs américains sur ces questions. Alors que le Time Well Spent était une adresse aux concepteurs à retrouver le sens éthique, le Centre pour une technologie humaine semble avoir un objectif plus politique.

Quand les gens pensent aux méfaits à venir de l?intelligence artificielle, ils pensent souvent à Terminator et à Skynet. Nombre de ceux qui évoquent la nécessité d?encadrer l?IA, estiment qu?il faudrait la limiter, afin que sa puissance, que son potentiel ne s?échappe pas des laboratoires et qu?elle ne puisse devenir hors de contrôle, qu?elle ne puisse poursuivre son propre but, au détriment de l?humanité. « Mais l?IA s?est déjà échappée », annonce Harris. Elle est déjà là, dans le fil d?information de Facebook ou dans les algorithmes de recommandation de YouTube. Quand on utilise ces services, on active à distance de superordinateurs, les plus puissants du monde, ceux capables de battre les humains aux échecs. Kasparov a été le dernier humain à battre un ordinateur. Le moteur de publicité de Facebook, les algorithmes de YouTube sont des systèmes qui visent directement nos cerveaux et qui jouent aux échecs avec. Et ils gagnent. « L?IA n?est pas de notre côté ». Elle joue pour nous proposer un contenu toujours plus idéal, comme nous-mêmes nous jouons avec Tinder pour trouver une personne toujours plus idéale. « ,Mais l?IA ne joue pas avec nous, elle joue contre nous ».

Et Harris d?en appeler à des environnements numériques différents. « Personne ne veut vivre dans un monde qui cherche à accaparer votre capacité d?attention ».

Le risque d’une éthique entre moralisme et dépolitisation

Harris n?a pas de solutions toutes prêtes qu?il sortirait de son chapeau. Au contraire. Il prône des techniques réflexives et personnelles, une prise de distance outillée de pratiques et de patchs. Il invite chacun à trouver des rustines (comme le Facebook News Eradicator, un plug-in pour Chrome qui fait disparaître le fil d’information de Facebook), en attendant que les services prennent ces questions au sérieux. Autant de solutions qui ne sont pas sans critiques, comme le pointaient, très justement les journalistes et chercheurs Ben Tarnoff (@bentarnoff) et Moira Weigel (@moiragweigel) dans un récent article du Guardian. Ils soulignaient d’ailleurs, comme le résume très bien Mais où va le web ?, que la prise en compte du « temps bien employé » par les géants du Net risque de rendre l’attention encore plus performante et rentable. Et pointaient combien le discours moralisateur et paternaliste des designers éthiques, en renvoyant individuellement les utilisateurs à leur « addiction » (avec toutes les limites qu’il faut porter à cette question d’addiction) risquait de dépolitiser le problème en en faisant un problème individuel plus que collectif.

S’il reste flou sur l’écueil du moralisme, reste que Tristan Harris semble plutôt vouloir s’extraire de ce dernier piège, en politisant son propos. Comme le changement climatique, « nous devons sortir du paradigme de l?extraction, du minage publicitaire de l?attention ». Le charbon ne coûtait rien et était très profitable, résume-t-il. Son exploitation a donné une phase économique de prospérité sans précédent, mais a pollué notre environnement pour longtemps. La pub relève du même fonctionnement : elle extrait notre attention et l?exploite de manière efficace, mais pollue notre environnement politique, démocratique, psychique, mental? « La publicité est le modèle économique le plus cher, quoiqu?on en pense ». Il nous faut concevoir un modèle de remplacement. Nous avons besoin d?ingéniosité pour répondre au problème, comme nous le faisons pour le climat en cherchant des solutions renouvelables. Tristan Harris reste optimiste. Cela fait 5 ans qu?il travaille sur ces questions. Et en un an, beaucoup de choses ont changé. Qui aurait pu penser que Zuckerberg serait convoqué pour témoigner et que le Sénat américain ou la Commission européenne lui demanderaient d’adresser ces problématiques ? La question a bougé. Il reste encore du chemin à faire. Mais « c?est la conscience publique et la mobilisation de tous qui permettront de changer les choses ».

Bien sûr, Harris a dû répondre à quelques questions. L?une des premières visait à éclaircir l?un des points d?ombre des propositions de Tristan Harris, à savoir qui décide de ce qui est bon pour le cerveau ? Si ce n?est Google ou Facebook, est-ce pour les remplacer par le Centre pour les technologies humaines ?

Harris rappelle que son propos n?est pas d?être alarmiste de façon naïve ni d?être contre la technologie. Pour lui, il faut distinguer l?attention artificielle de l?attention consciente. Il faut tenter de comprendre quand la technologie détourne nos ressources spirituelles et cognitives. Le problème aujourd?hui c?est qu?on lit des quantités infinies d?informations, mais que nous ne nous rappelons de rien. Un livre n?est pas nécessairement « mieux » qu?internet, mais la manière dont nous nous immergeons dans l?un ou l?autre est très différent, notamment en terme de durabilité. Est-ce que quand on utilise ces machines on se sent seul ? Certainement, mais le but n?est pas pour autant de les optimiser pour le bonheur ou le plaisir, mais de nous permettre de regarder à l?intérieur de soi. Ce que la capture attentionnelle ne permet pas toujours. « Les téléphones programment les expériences humaines », insiste-t-il. « Qui décide ? C?est la question effectivement. Mais il n?y a aucune raison que Facebook et ses ingénieurs décident pour tout le monde ». C?est comme si on n?avait choisi que des mathématiciens pour construire Paris? et qu?ils avaient construit Paris pour maximiser les revenus des loyers au détriment de toute autre considération? Quelle ville cela aurait permis ? Le modèle économique retenu doit permettre de faire de l?urbanisme? « La publicité personnalisée est trop dangereuse à utiliser à long terme », avance-t-il encore. « Il nous faut provoquer la transition économique qui nous fera passer du modèle économique de la publicité personnalisée à autre chose. » Bien sûr, Facebook ou Google ne veulent pas lâcher. C?est le modèle le plus profitable. D?où l?enjeu à ne pas relâcher notre pression sur eux. Certes, Google a annoncé une initiative de Bien-être récemment (voir les explications du Monde.fr). C?est une étape. La pression publique va nous permettre de grignoter des avancées? Mais elles ne suffiront pas. Il nous faut enclencher un changement structurel. D?autres modèles existent. Les fournisseurs de services qu?on paye ont moins tendance à mobiliser notre attention, estime-t-il (certainement un peu rapidement, car ni la capture attentionnelle ni le minage des données n’est lié au tarif que vous payez, mais bien à une volonté de ne faire ni l’un ni l’autre). « Il faut provoquer une transition ! » Le témoignage de Zuckerberg est une diversion, affirme-t-il. « Nous devons leur demander une responsabilité permanente », leur demander de changer les mesures de succès, de changer l?organisation de leurs équipes au profit de plus de diversité?

Mais peut-on prouver que les entreprises créent de l?addiction ? Et si c?est le cas, quelle institution pourrait contrôler le « bon design » ? C?est juste, concède-t-il. Personne dans l?industrie de la technologie ne dit qu?il « faut « accrocher les gens » ». Mais cet objectif est caché derrière d?autres mots, comme le si célèbre « engagement ». « L?engagement – et le modèle d?entreprise qu?il implique – masque les objectifs attentionnels des entreprises et le contrôle qu?elles s?assurent pour les réaliser ». Ceci dit, la normalisation et la régulation sont compliquées. Mais elles ne sont pas plus simples dans d?autres domaines comme l?environnement. Il faut du temps pour trouver des accords et des lois pour réguler le monde.

Reste à savoir ce qu?est une « technologie humaine ». Pour Harris, une technologie qui n?est pas humaine est une technologie qui exploite ou influence les instincts biologiques ou psychologiques des hommes. C?est une technologie qui vole l?action humaine. Bien sûr, décider de ce qui est éthique et de ce qui ne l?est pas est compliqué d?autant que nous sommes là confrontés à des choses subtiles, persuasives? Certaines technologies vont mieux fonctionner, c?est-à-dire mieux nous rendre humains que d?autres, estime Harris qui les compare aux ciseaux les plus adaptés à nos mains par rapport à ceux qui ne le sont pas du tout. Le design est basé sur l?humain. C?est cela que le design ne doit pas oublier.

« Avec votre approche, ne risque-t-on pas de jeter la pertinence que nous apportent ces technologies avec l’eau du bain, à l?image de la pertinence que nous apporte YouTube pour trouver des contenus ? », lance quelqu?un. Le problème de YouTube, répond Harris, c?est que ses objectifs ne sont pas les vôtres. Son but est de vous garder le plus longtemps possible. Quand bien même vous y cherchez quelque chose d?important pour vous, consciemment, il transforme, par la multiplicité de ses réponses, votre objectif. Vous oubliez que vous aviez autre chose à faire par exemple. « Je pense que la technologie doit respecter les objectifs des gens » plutôt que de faire que les objectifs de la technologie deviennent les vôtres. Elle doit mieux comprendre nos besoins et les respecter.

Si le propos de Tristan Harris est toujours stimulant, reste que, selon moi, il peine à montrer comment faire de l’attention une question réellement politique. Comment la réguler ? Comment la circonscrire ? Quels leviers de normalisation mettre en place ? Quelle autorité de contrôle développer ?… Sont autant de questions dont il n’existe pas de réponse unique. Quand on parcourt avec attention les solutions que propose le Centre pour une technologie humaine (voir par exemple ces vidéos qui montrent comment les messageries instantanées pourraient nous aider à rester concentré, comment nos outils pourraient intégrer des limites de durée, ou comment faire qu’ils intègrent nos valeurs) on se rend compte que bien des solutions esquissées, relèvent bien plus de la conception que de la politique, visent à élargir nos capacités de choix et avec elles, mieux définir nos modalités d’interactions, plutôt que d’être seulement limités par les choix que font pour nous les concepteurs d’outils.

Hubert Guillaud


  Chaines INFO  
 Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People 

Dernière modification: le   NEToo ™  Tous droits réservés • ©2004/2006 • CNIL n°892206