NEToo - métamoteur francophone pour tout trouver plus rapidement
  Web Actualités Blogs Voyages Images Vidéos Musique Annuaire  

Trouvez toutes les dernières nouvelles et dépêches publiées en interrogeant simultanément des multiples sources sur le web

Recherchez dernières actualités en temps réel 

   Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People   
 Dernières actualités multimédia sur métachercheur francophone NEToo
Le Parisien - High-Tech    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 15/08/2018 01:14:35

  • Yuka, Foodvisor? mieux manger, une question d?application(s)

Parce qu?Aurélien vient d?avoir une petite-fille, que Sandra se remet d?un cancer du sein, que Michel veut profiter d?une retraite en forme? tous ont entamé une quête du mieux manger, mettant au ban les...

  • Avec l?appli Sweepers, trouvez une aide ménagère en quelques clics

Et si votre voisin venait faire une fois le ménage chez vous ? C?est l?idée de la start-up Sweepers, qui propose aux particuliers de faire le ménage chez un autre particulier pour arrondir leurs fins de...

  • La France en première ligne dans la course au train Hyperloop

Un jour, peut-être, nous pourrons monter à bord d?une capsule depuis Paris et prendre le soleil à Nice 40 minutes plus tard. Ou être propulsés de Paris à Amsterdam en 30 minutes. Le tout à la seule force...

  • L'Oréal s'associe à Facebook pour tester du maquillage en réalité augmentée

Le numéro un mondial des cosmétiques L'Oréal unit ses forces au réseau social Facebook. Bientôt, les utilisatrices pourront tester virtuellement du maquillage, grâce à la réalité augmentée. Un peu plus...

  • Reprendre une photo en ligne sans l?accord de l?auteur peut vous coûter cher

Quand l?exposé d?une lycéenne allemande contraint des juges à redéfinir la notion de droit d?auteur sur Internet? Jeudi 8 août, la Cour de justice européenne a donné raison au photographe professionnel...

  • Chantage sur Internet : une nouvelle arnaque basée sur le vol de mot de passe

Il y avait déjà eu cet e-mail qui encourageait à envoyer de l?argent pour partager un héritage, voici le temps des menaces et du chantage. Certains internautes ont eu la désagréable surprise de recevoir...

  • Armes 3D : Facebook interdit le partage des plans de fabrication

Les armes 3D, que certains veulent commercialiser aux Etats-Unis, continuent à susciter de nombreuses réactions. Facebook a annoncé ce jeudi qu?il allait interdire la diffusion sur son réseau des plans...

  • Benalla, «ingérence russe» et fichage politique : tout comprendre à la polémique

L?affaire Benalla a-t-elle été gonflée sur les réseaux sociaux par une poignée de comptes hyperactifs et soumis à des influences politiques ou étrangères ? C?est l?hypothèse avancée dans un premier temps...

  • Cette faille de sécurité pourrait compromettre vos échanges sur WhatsApp

Nul besoin de commencer à paniquer, vos échanges privés et intimes sont, jusqu?à présent, toujours protégés par un chiffrement. Mais le spécialiste israélien de la cybersécurité CheckPoint a révélé mercredi...

  • Le nouvel Android, baptisé «Pie», adopte l?intelligence artificielle

La liste des friandises s?allonge avec un petit nouveau dans les noms des différentes versions d?Android, le système d?exploitation mobile de Google. Le géant de Mountain View a dévoilé ce mardi le nom...


InternetActu.net    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 14/08/2018 19:46:24

  • A bientôt !

L’internet aussi prend parfois des vacances. Toutes les équipes d’InternetActu et de la Fing vous souhaitent une bonne déconnexion estivale. Vous allez pouvoir redécouvrir les vertus d’une activité normale, sans trop de technologies.

L’internet aussi prend parfois des vacances. Toutes les équipes d’InternetActu et de la Fing vous souhaitent une bonne déconnexion estivale. Vous allez pouvoir redécouvrir les vertus d’une activité normale, sans trop de technologies.

  • Concrètement, comment rendre les algorithmes responsables et équitables ?

Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d’apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l’AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions ». La (...)

Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d’apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l’AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions ». La question à laquelle sont confrontés les ingénieurs consiste à trouver les modalités pour rendre les systèmes techniques plus responsables, plus équitables. Les initiatives en ce sens se multiplient : en mai, le conseil municipal de New York, sous la responsabilité de Carmelyn Malalis, responsable de la Commission sur les droits de l’homme de la ville, a adopté un projet de loi et lancé un groupe de travail sur les biais algorithmiques, rapporte Nature en évoquant également les promesses du président français de rendre le code des algorithmes publics ouvert, ou les appels du gouvernement britannique à rendre les données utilisées par les services publics transparents et responsables, en se dotant d’un cadre éthique des données. Ce cadre éthique rappelle quelques grandes évidences, comme inviter les concepteurs à être clairs sur leurs objectifs, à utiliser les données d’une manière proportionnée aux besoins en cherchant à les minimiser, à en comprendre les limites et à avoir une approche responsable… et complète les principes émis par le Nesta pour améliorer la prise de décision algorithmique . Mais rendre les algorithmes équitables, responsables et efficaces n’est pas si simple. Ces questions ne sont pas nouvelles, rappelle l’article de Nature, mais à mesure que de grands ensembles de données et des modèles plus complexes se répandent, « il devient de plus en plus difficile d’ignorer leurs implications éthiques », explique le spécialiste de la justiciabilité des algorithmes Suresh Venkatasubramanian (@geomblog, blog).

L’article de Nature revient bien sûr sur la difficulté à créer des services algorithmiques responsables en évoquant notamment l’outil de prédiction du risque de maltraitance et d’agression d’enfants développés par le bureau de l’enfance, de la jeunesse et des familles du comté d’Allegheny en Pennsylvanie, qu’avait étrillé le livre de Virginia Eubanks, dont nous avions rendu compte ou les limites des logiciels de police prédictive (dont nous avons également déjà beaucoup parlé). Et rappelle la difficulté à définir mathématiquement l’équité, comme l’a souligné l’informaticien Arvind Narayanan (@random_walker) lors de la dernière édition de la conférence FAT (la conférence annuelle sur l’équité, la responsabilité et la transparence). Outre les biais et déséquilibres statistiques, rappelle David Robinson (@drobinsonian), responsable des associations EqualFuture et Upturn (et qui a notamment publié un rapport sur la question de l’examen public des décisions automatisées (.pdf)), leur impact dépend surtout de la manière dont sont utilisés ces systèmes, avec le risque, que pointait Eubanks, que les plus discriminés soient encore plus surveillés par ces systèmes.

Page d'accueil de l'AI Now Institude

Comment traquer les biais ?

Pour remédier à ces problèmes, beaucoup d’agences américaines ont recours à des chercheurs extérieurs pour déjouer les biais de leurs systèmes. En avril, l’AI Now Institute a défini un cadre (voir le rapport (.pdf)) pour les organismes publics qui souhaitent mettre en place des outils de prise de décision algorithmique, recommandant notamment de mettre à contribution la communauté de la recherche et de permettre à ceux que le système calcul de faire appel des décisions prises à leur sujet. Ce travail d’évaluation de l’impact algorithmique rappelle que les systèmes de décision automatisés sont déjà nombreux. L’initiative AI Now a appelé à la fin de l’utilisation de systèmes opaques pour les décisions publiques, afin d’assurer l’équité et la régularité des procédures et se prémunir contre la discrimination. Leurs recommandations invitent les systèmes à respecter le droit d’information du public, à recourir à des examens par des chercheurs indépendants, à améliorer l’expertise des organismes qui les conçoivent et à développer des modalités pour permettre au public de contester les décisions prises. L’initiative recommande aux agences publiques de répertorier et décrire les systèmes de décision automatisés, y compris d’évaluer leur portée et impact. Elle recommande également de mettre en place des modalités d’accès afin que des chercheurs, des experts indépendants, des associations ou des journalistes puissent accéder et évaluer ces systèmes et pour cela doivent s’assurer notamment que leurs fournisseurs privés de systèmes acceptent ces vérifications. Elle souligne également que les agences doivent monter en compétences pour être expertes des systèmes qu’elles mettent en place, notamment pour mieux informer le public, et invite les fournisseurs de solutions à privilégier l’équité, la responsabilité et la transparence dans leurs offres. Cela permettrait également aux organismes publics de développer des procédures de médiation, d’appel ou de réfutation des décisions prises. Obliger les systèmes à publier des analyses d’impact de leurs outils de décision automatisé pourrait enfin permettre au public d’évaluer les outils et la transparence des services.

La question de la mesure d’impact avait déjà été pointée par le travail original de Nicholas Diakopoulos (@ndiakopoulos) et Sorelle Friedler (@kdphd) pour Data & Society réalisé en 2016 dont nous avions rendu compte. Le rapport de l’AI Now Institute a depuis tenté de compléter la proposition, mais il demeure difficile de saisir, pratiquement, à quoi pourrait ressembler une déclaration d’impact. Pour cela, le chercheur Andrew Selbst (@aselbst) recommande, dans un de ses articles, de s’inspirer des études d’impact environnementales (voir également les explications sur le site du Ministère de la transition écologique et solidaire), afin de faire établir un rapport sur l’efficacité et le caractère discriminatoire des systèmes automatisés, qui seraient soumis à évaluation publique (ou qui pourrait fonctionner sur le modèle des Analyses d’impact relatives à la protection des données de la Cnil). Bien sûr, Andrew Selbst n’en est pas moins critique sur les études d’impact. Dans le cadre environnemental, ces études s’avèrent longues, coûteuses (jargonneuses) et pas toujours très utiles. Cependant, elles permettent de responsabiliser le producteur de traitement automatisé, d’explorer des alternatives argumentées (et donc de mieux comprendre les options choisies comme celles rejetées) et de mieux expliciter les conséquences des systèmes.

Matrice de déclaration d'impact relative à la protection des données par la CNIL

Mais ce n’est pas la seule piste qui permettrait d’interroger les biais des systèmes automatisés. Microsoft travaille à un outil de détection automatique des biais, Facebook également (notamment via le projet Fairness Flow annoncé par Isabel Kloumann du département d’IA de FB research à la dernière conférence de F8 Conference parmi une longue liste d’outils pour l’IA) rapporte la Technology Review. Accenture a également lancé un outil de ce type. D’autres chercheurs, comme Christo Wilson (@bowlinearl), travaillent à construire des outils pour simuler des systèmes afin d’en découvrir les biais, via des formes de rétro-ingénierie très convaincantes, à l’image de ce qu’il a construit pour comprendre l’algorithme de tarification d’Uber ou du travail réalisé pour comprendre les biais de genre des moteurs de recherche d’emplois. Wilson est notamment responsable d’un groupe de recherche sur l’audit algorithmique créé par le collège d’informatique de l’université Northeastern. En mai, Rayid Ghani (@rayidghani), directeur du Centre pour la Science des données et les politiques publiques de l’université de Chicago a lancé un logiciel open source, Aequitas, pour aider les ingénieurs à auditer leurs modèles.

L'arbre de décision équitable d'Aequitas

La mathématicienne Cathy O’Neil (@mathbabedotorg, blog), qui s’est fait connaître en dénonçant les dangers de ces outils, a lancé une entreprise d’audit algorithmique. Visiblement, souligne Wired, ses premiers clients sont des entreprises qui ont besoin de certifier qu’elles sont équitables : comme cela a été le cas de Rentlogic, une entreprise qui évalue les immeubles automatiquement pour leur attribuer une note, ou comme Pymetrics, une entreprise qui utilise des tests de personnalité pour aider les entreprises à embaucher qui avait besoin d’assurer que ses logiciels n’étaient pas discriminants. L’article de Wired rappelle que s’il n’existe pas de protocole standard pour ces audits réalisés par des entreprises indépendantes, ceux-ci sont rarement altruistes. « Les entreprises peuvent avoir à prouver aux régulateurs que leur technologie ne discrimine pas une catégorie de personnes protégée. Pour d’autres, un audit pourrait empêcher de futurs litiges. Pour d’autres encore, recevoir un sceau d’approbation de la part d’un tiers est un outil marketing, suggérant aux clients potentiels qu’ils peuvent avoir confiance… Quelle que soit la raison, de plus en plus d’entreprises se soumettent à des audits externes, signe qu’ils peuvent devenir la norme ». Mais si l’audit est une pratique courante, ce n’est pas encore le cas de l’audit des systèmes algorithmiques.

Tant et si bien que certains chercheurs et activistes en appellent à un moratoire à l’utilisation d’algorithmes dans certains domaines, comme la justice pénale, à l’exemple du Centre sur la race, l’inégalité et la loi de l’école de droit de l’université de New York.

Comment passer des serments éthiques à leur implémentation concrète ?

Autre réponse aux difficultés actuelles, ces derniers temps, la publication de déclarations éthiques a connu une rare inflation. Google a notamment proposé des objectifs et principes très généraux pour cadrer ses développements en intelligence artificielle. Dans son livre, Weapons of Math Destruction, Cathy O’Neil avait émis l’idée de créer un serment d’Hippocrate pour les datascientists, sous la forme d’un code de conduite édictant quelques principes moraux. Elle soulignait dans une remarquable interview pour Wired, que ce code de conduite n’était certes pas suffisant en soi, notamment parce que les datascientists ne sont pas seuls à décider de ce qui sera implémenté dans les services développés par les entreprises. Pour autant, ces techniciens ne peuvent pas seulement suivre « les recommandations des manuels d’optimisation qu’ils utilisent, sans tenir compte des conséquences plus larges de leur travail ». Cathy O’Neil a proposé une matrice éthique, basée sur les travaux du philosophe Ben Mepham qui l’a utilisé en bioéthique, qui aide à saisir ce sur quoi ce que l’on développe a un impact, et de l’autre ce dont s’inquiète les gens qui sont impactés par ce que l’on développe. Cette grille confronte quelques notions (exactitude, cohérence, partialité, transparence, équité, rapidité) à leur impact sur chacune des parties prenantes. La matrice sert à créer une conversation. Chaque case propose des questions : « qui souffre si le système se trompe ? » Le but est de révéler des problèmes. Quand la réponse pose problème, la case est colorée de rouge.

La matrice éthique de Cathy O'Neil
Image : la matrice éthique de Cathy O’Neil, présentée sur la scène de la Now You Know Conference de mai 2018 à Chicago via Giles Palmer.

Elle propose également de se poser plusieurs questions, comme « les algorithmes que nous déployons vont-ils améliorer les processus humains qu’ils remplacent ? » Bien souvent, on constate qu’ils fonctionnent beaucoup plus mal que les systèmes précédents. Pour elle, il est également nécessaire de se demander : « pour qui l’algorithme échoue-t-il ? » Un système de reconnaissance facial échoue-t-il plus souvent pour les femmes que pour les hommes, pour les gens de couleurs que pour les blancs, pour les personnes âgées que pour les jeunes ?… Enfin, elle invite à se poser une troisième catégorie de questions : « est-ce que cela fonctionne pour la société (donc à très large échelle) ? Est-ce que nous enregistrons les erreurs du système ? Peut-on les réintroduire dans l’algorithme pour l’améliorer ? Est-ce que le système a des conséquences non intentionnelles ?… » Et la chercheuse de rappeler qu’aucunes de ces questions ne mettent en danger les secrets des algorithmes que les entreprises veulent protéger. Même sur la question de l’audit des algorithmes, explique-t-elle, elles n’ont pas nécessairement besoin de dévoiler leurs algorithmes magiques. Il suffirait d’effectuer des tests avec des données pas nécessairement d’avoir accès au code source de leurs systèmes.

Pour l’instant, Cathy O’Neil a refusé de signer les serments d’Hippocrate pour les datascientists qui lui ont été soumis. Pour elle, trop souvent, ils n’insistent pas assez sur la responsabilité du datascientist.

Bon, cela n’a pas refroidi les initiatives. En février, Tom Simonite pour Wired rapportait les échanges qui avaient lieu lors de la conférence Data For Good Exchange, organisée par DJ Patil, l’ancien datascientist de l’administration Obama, et qui avaient donné lieu à une première liste de principes éthiques (qui a visiblement abouti depuis à ce code de conduite sur l’éthique des pratiques des données). Un des participants est demeuré sceptique : « Le projet de serment ressemble à une liste de principes généraux avec lesquels personne ne serait en désaccord ». Simonite souligne que le milieu ne dispose ni d’autorité ni de législation pour faire respecter des règles de pratique de toute façon. Et si les formations de datascientist se multiplient, nombre de ceux qui font ce travail sont des autodidactes. Dans son long rapport sur l’IA et la société, Microsoft estime que des principes de base pourraient être utiles. « Mais le président de Microsoft, Brad Smith, suggère que l’entreprise ne s’attend pas à ce que les clients qui construisent des systèmes d’intelligence artificielle en utilisant les services d’informatique en nuage de Microsoft répondent nécessairement aux mêmes normes. »

Code de conduite sur l'éthique des données

Le militant pour la protection de la vie privée Aral Balkan (@aral) estime qu’un code d’éthique risque surtout d’être utilisé comme caution de vertu par les entreprises pour continuer à faire comme d’habitude. Appliquer le RGPD aux États-Unis aurait plus d’impact pour prévenir les dommages algorithmiques. Sur son blog, Virginia Eubanks a réagi en proposant plutôt un « serment de non-violence numérique », qui, dans la forme au moins, est plus impliquant pour celui amené à le prononcer que de signer à quelques grands principes vagues. Sur Forbes, Lori Sherer de Bain & Company proposait également de transcrire le serment d’Hippocrate à l’intention des datascientists. Le think tank britannique qui milite pour un internet plus équitable DotEveryOne (@doteveryone) en a recensé des centaines (sous forme de principes, serments, manifestes? voir la liste) et en a proposé un très court. La France n’est pas en reste, rapportait récemment Le Monde : l’association Data for good (@dataforgood_fr) a publié un serment d’Hippocrate pour datascientists et un collectif d’entrepreneurs franco-américains ont publié le serment Holberton-Turing.

Les principes du serment d'Hippocrate de Data for Good

Les deux initiatives s’inspirent du serment d’Hippocrate que les médecins prêtent à la fin de leurs études. Ce rite de passage qui a plus valeur morale que portée juridique (par rapport au code de déontologie par exemple) rappelle aux médecins qu’ils ont des obligations légales, morales et éthiques. Mais, comme l’explique très bien l’écrivain et médecin Martin Winckler (blog, @MartinWinckler) dans l’édifiant Les brutes en blanc (2016), son ouvrage sur la maltraitance médicale, l’éthique n’a cessé d’évoluer. Dans le serment d’Hippocrate originel, il est ainsi interdit aux médecins d’offrir aux femmes la possibilité d’avorter sans que leur mari l’ait décidé. L’éthique se définit toujours par rapport à la morale dominante? rappelle Winckler. Pour lui, le serment d’Hippocrate derrière lequel se cache le corps médical est devenu une barrière à l’évolution des pratiques éthiques (comme de reconsidérer les questions de fin de vie ou de maltraitance). Le serment ne protège pas de la culture propre à chaque discipline, et le prêter ne protège pas de l’asymétrie de la relation entre le médecin et le patient, pas plus qu’elle ne protège de l’asymétrie entre le système de calcul et le calculé. Les règles de conduite ne suffisent pas toujours à créer des repères moraux. Dans son livre, Winckler finalement propose une autre approche qu’il faudrait certainement explorer, en donnant des conseils pratiques aux patients. Est-ce à dire qu’il faudrait plutôt construire des principes pour les calculés plutôt que pour les calculeurs ?

Sur O’Reilly Media, Mike Loukides (@mikeloukides), Hilary Mason (@hmason) et DJ Patil (@dpatil, blog), l’ancien datascientist de l’administration Obama, rappellent que les spécialistes des données n’ont pas attendu les problèmes récents pour se doter de codes d’éthique, à l’image du code d’éthique de l’ACM, l’une des grandes associations du secteur informatique, qui date de 1993, ou celui (.pdf) de l’Association américaine de statistique? Mais l’enjeu demeure de les mettre en pratique. « Tout code d’éthique des données vous indiquera que vous ne devez pas collecter des données de sujets expérimentaux sans leur consentement éclairé. Mais ce code de conduite ne vous dira pas comment implémenter ce consentement éclairé. Or, celui-ci est facile si vous interrogez quelques personnes pour une expérience de psychologie. Mais il signifie quelque chose de bien différent en ligne ». Et ce n’est pas la même chose bien sûr de demander la permission via une fenêtre pop-up par exemple ou que via une case précochée cachée? La mise en oeuvre de principes éthiques englobe des questions qui vont des choix dans l’interface utilisateur aux choix de structuration des données ou d’interrogation des données de connexion. Et pose la question de rendre néanmoins le service utilisable sans dégrader l’expérience utilisateur? L’enjeu consiste à réfléchir « à la mise en oeuvre pratique des principes éthiques », et à partager les meilleures pratiques. Comment par exemple concevoir une expérience utilisateur équitable sans rendre l’application inutilisable ? Faut-il mieux montrer aux utilisateurs une fenêtre pop-up avec des informations juridiques ou guider longuement l’utilisateur dans des explications sur les choix qu’il peut faire (pas sûr que l’un ou l’autre ne soient de bonnes options ni qu’ils ne rencontrent une grande approbation des utilisateurs comme des concepteurs d’ailleurs) ? Comment vérifier que les applications soient équitables si nous décidons de ne plus recourir à des données sensibles ? ? « En tant que technologues, nous partageons fréquemment de bonnes pratiques dans les conférences, sur nos blogs, via les technologies open source que nous développons, mais nous discutons rarement de problèmes tels que comment obtenir un consentement éclairé de l’utilisateur ».

Pour les trois auteurs, il est nécessaire de créer des cultures d’entreprises où l’on peut avoir ces discussions. « Il nous faut réfléchir aux conséquences involontaires produites par ce que nous imaginons ». Cela nécessite de créer ces espaces et ces temps dans les calendriers mêmes des projets. Il est nécessaire également de pouvoir arrêter la chaîne de production en cas de problème, surtout à l’heure du développement agile et du déploiement en temps réel de nouvelles fonctionnalités… L’autre problème, soulignent les auteurs, est bien sûr que les environnements d’entreprises sont souvent hostiles à tout autre chose qu’à la rentabilité à court terme. Si, comme le disait Susan Etlinger, l’éthique est un bon investissement, les changements de la culture d’entreprise, eux, prendront du temps. Reste, rappellent-ils, que les utilisateurs préfèrent s’engager avec des entreprises auxquelles ils peuvent faire confiance pour qu’elles n’en tirent pas un avantage injuste, au détriment de l’utilisateur. Les utilisateurs préféreront traiter avec des entreprises qui les traiteront et traiteront leurs données de manière responsable, et pas seulement pour en tirer un profit à court terme ou un engagement qu’il faut toujours maximiser. Et ces entreprises-là seront celles qui créeront un espace éthique au sein de leurs organisations, pas seulement en engageant des éthiciens, mais en faisant que les datascientists, les ingénieurs, les concepteurs, les spécialistes de l’IA au sein de ces entreprises y travaillent de concert.

la checklist de contrôle du développement de systèmes automatisésDans un autre article pour O’Reilly Media, les 3 mêmes auteurs pointent les limites des serments et déclaration d’intention. On ne les prête qu’une fois et on évalue donc insuffisamment et peu régulièrement si on est à la hauteur des enjeux. Les serments sont très généraux : souvent, ils déclarent ne pas vouloir nuire, mais les médecins eux-mêmes, même en prêtant serment, n’ont pas toujours fait le bien, sans savoir tout le temps qu’ils faisaient du mal au regard des connaissances dont ils disposaient. « Ces principes généraux sont une bonne idée, mais restent vides sur l’exécution, et les systèmes automatisés sont avant tout des questions d’exécution ». Ces principes sont certes importants, mais « ils ne nous amènent pas au point final que nous voulons atteindre. Ils ne relient pas nos idées sur ce qui est bien ou juste aux pratiques qui créent le bien ou la justice. Nous pouvons parler longtemps de l’importance d’être juste et impartial sans savoir comment être juste et impartial. Le serment peut-être finalement dangereux : il devient un outil pour vous convaincre que vous êtes quelqu’un de bien, que vous faites de bonnes choses? quand, en fait, vous ne savez pas. »

Par contre, ces serments et principes sont utiles pour susciter des discussions, pour sensibiliser à ces enjeux, pour comprendre que le travail réalisé n’est pas neutre. D’où leur démultiplication.

Les 3 auteurs s’inspirent de la célèbre liste de contrôle imaginée par le chirurgien Atul Gawande pour réduire les erreurs dans les salles d’opération. « Contrairement aux serments, les cheklists relient le principe à la pratique » En cochant une case sur un formulaire après avoir fait ce que vous deviez faire, vous ne risquez pas de l’oublier. La liste de contrôle n’est pas quelque chose qu’on récite une fois et qu’on oublie, c’est quelque chose que vous travaillez à chaque procédure. Leur efficacité est liée à leur simplicité. Les 3 auteurs sont partis du travail du manuel d’éthique des données du gouvernement britannique pour en proposer une. Elle n’est pas sans faille, mais ils l’a proposent comme une version à améliorer.

Audit, déclaration d’impact social, matrices, checklists? sont autant d’outils pratiques à construire pour rendre les développements logiciels responsables et équitables. Espérons que ces méthodes continuent à se développer.

Hubert Guillaud

Pour rappel, avec la Fing, éditeur d’InternetActu.net, via le groupe de travail NosSystèmes nous avons également établi des principes pour rendre les systèmes techniques plus responsables, qui recoupent en grande partie certains des enjeux esquissés dans cet article. Des méthodes, outils et techniques qui devraient permettre d’améliorer et préciser notre grille de lecture.

  • La méditation en question

On sait tous que de nombreuses entreprises de la Silicon Valley offrent des séances de méditation à leurs employés pour les aider à tenir le choc dans l?environnement complexe et stressant qu’ils doivent gérer. Mais ce n’est peut-être pas une bonne idée… Pour Kathleen Vohs, professeur de marketing à l’université (...)

On sait tous que de nombreuses entreprises de la Silicon Valley offrent des séances de méditation à leurs employés pour les aider à tenir le choc dans l?environnement complexe et stressant qu’ils doivent gérer. Mais ce n’est peut-être pas une bonne idée… Pour Kathleen Vohs, professeur de marketing à l’université du Minnesota, et Andrew C. Hafenbrack (@andyhafenbrack), professeur de comportement organisationnel à l’école de business et économie Catolica-Lisbon, la méditation de type « mindfulness » (pleine conscience) aurait au contraire pour mauvaise conséquence d’abaisser le niveau de motivation des employés. Ils ont publié leurs recherches dans le Journal of Organizational Behavior and Human Decision Processes et les ont résumées dans un article pour le New York Times.

L’équipe a procédé à une série d?expériences de structure classique, impliquant trois groupes, l’un de pratiquants de la méditation, un second qui devait laisser ses pensées vagabonder et un troisième dont les membres devaient lire les actualités ou écrire sur leur journée. Puis on a donné aux sujets une tâche à accomplir comme remplir un mémo, utiliser un traitement de texte, etc. Enfin on leur a donné un questionnaire. Selon les réponses, les « méditants » étaient les moins motivés pour accomplir ce genre de tâche…

Résultat : il semblerait que « la méditation était corrélée avec des pensées réduites sur l’avenir et de plus grands sentiments de calme et de sérénité – des états apparemment peu propices à vouloir s’attaquer à un projet de travail. »

La motivation, mais quelle motivation ?


Voilà pour la motivation, mais qu’en était-il de la performance elle-même ? « Ici, nous avons constaté qu’en moyenne, avoir médité n’a ni profité ni nui à la qualité du travail d’un participant. Ce fut une mauvaise nouvelle pour les partisans de la méditation en milieu de travail : après tout, des études antérieures ont montré que la méditation augmente la concentration mentale, suggérant que ceux qui ont effectué l’exercice de pleine conscience auraient mieux exécuté leur tâche. Leur niveau de motivation plus bas semblait toutefois annuler cet avantage. »

Les chercheurs ont ensuite cherché à savoir si octroyer une récompense pour de très bonnes performances serait susceptible d?accroire la motivation des méditants. Apparemment cela n’a pas eu d’effet. Pour les deux auteurs, la méditation s?apparenterait donc à une sieste : bénéfique, reposante, mais « qui en se réveillant d’une sieste, serait pressé d’organiser ses fichiers ? ».

Présenté comme cela, cela implique qu?effectivement, l’usage de la méditation n’est pas forcément positif. Mais j’avoue avoir une petite préférence pour la manière dont Boing Boing a présenté cette étude, et qui a le mérite, à mon avis, de frapper là où ça fait mal : « Les employés qui pratiquent la méditation pleine conscience sont moins motivés, ayant réalisé la futilité de leur travail ».

Enfin, une petite note supplémentaire : qu’est-ce qu’un pratiquant de la « méditation » ? L’article du New York Times nous explique que « certains des participants à nos études ont été formés à quelques-unes des techniques de méditation de pleine conscience les plus courantes. Un coach professionnel de méditation leur a demandé de se concentrer sur leur respiration ou de scanner mentalement leur corps à la recherche de sensations physiques, en leur rappelant doucement qu’il n’y avait pas de bonne ou de mauvaise façon de faire l’exercice. »

Autrement dit, l’expérience a fait appel à des débutants, plutôt qu’à des moines zen ! Quant au fait de dire qu’il n’y a pas de bonne ou mauvaise façon de faire l’exercice, ça se discute. Il n’y a qu’à lire les manuels de méditation bouddhistes des diverses obédiences, qu’ils soient d?Asie du Sud-Est, du Tibet ou issus du Zen, pour se rendre compte que oui, il y a apparemment de bonnes et mauvaises manières de pratiquer la méditation.

La méditation augmente-t-elle notre compassion ?


La psychologue Ute Kreplin, elle, s’est demandé dans Aeon si la méditation pouvait « participer à la création d’un monde meilleur », autrement dit, si, comme l’affirment ses adeptes, elle développe les sentiments d’empathie et de respect pour les autres humains.

Pour ce faire elle n’a pas réalisé d?expérience spécifique, mais a conduit une méta-analyse. Autrement dit, elle a examiné la littérature sur le sujet et comparé 20 expériences. Elle a bien sûr étudié les travaux sur la « méditation pleine conscience », mais, en accord avec son sujet, s’est intéressée aussi à une forme de méditation très appréciée aussi en occident, la méditation « loving-kindness » – « amour et compassion » -, qui consiste à se concentrer sur des sentiments positifs envers autrui.

Effectuer une méta-analyse n’est pas simple, car toutes les expériences ne suivent pas exactement le même protocole ni ne sont centrées sur exactement la même question… Ainsi, explique-t-elle, une des études consistait à enjoindre les méditants à se concentrer sur leur respiration, tandis que le groupe contrôle s’impliquait dans une discussion hebdomadaire sur les bienfaits de la compassion. Dans une autre recherche, continue-t-elle, le groupe actif pratiquait une forme de relaxation, en écoutant une bande audio parlant de la respiration, tandis que le groupe contrôle, lui, se contentait d’attendre dans la pièce à côté…

Pour contrôler le degré de compassion, explique-t-elle encore, certaines études se contentaient d’utiliser des questionnaires, tandis que d’autres cherchaient à mesurer le gain en empathie, par exemple en observant si les sujets avaient plus tendance à céder leur place assise dans une salle d’attente pleine.

Apparemment, les résultats de la méta-analyse furent plutôt positifs. Les chiffres semblaient bien indiquer une augmentation légère, mais réelle de la qualité du comportement social. Mais Ute Kreplin ne s’est pas arrêtée là. Elle a examiné comment chaque étude avait été menée. Son travail nous montre les difficultés de la recherche non seulement sur la méditation, mais en psychologie tout court.

Elle s’est ainsi interrogée sur les fameux « groupes contrôle ». Lorsqu’on effectue une recherche médicale, il est facile de définir un groupe contrôle : on donne à ses membres un placebo, ce qui permet de comparer aisément avec les effets de la molécule ingérée par les membres du groupe « actif ». Mais qu’est-ce qu’un placebo en psychologie ? Existe-t-il une méditation placebo ? Comme on l’a vu, plus haut, selon les études, les groupes contrôles pouvaient se voir confier diverses activités très variées. Et selon l’activité du groupe contrôle, les résultats pouvaient être très différents. Ainsi, si ce dernier se contentait d’attendre dans une pièce alors que leurs partenaires pratiquaient la « loving-kindness » pendant 8 semaines, les résultats étaient positifs. Mais dans l?expérience où le groupe contrôle devait s’engager dans des discussions sur la compassion, on n’observait aucune corrélation significative… Alors, se demande Ute Kreplin : A-t-on réellement établi le bénéfice de la méditation, ou cela est-il simplement la preuve « qu’il vaut mieux faire quelque chose plutôt que rien » ?

Autre problème, le biais de l’expérimentateur. Dans les recherches les plus rigoureuses en médecine, on utilise ce qu’on appelle le « double aveugle ». Non seulement les sujets ne savent pas ce qu’ils prennent, mais l?expérimentateur l?ignore aussi. Ute Kreplin s’est demandée si, dans les expériences qu’elle a étudiées, l’instructeur de méditation était l’un des auteurs, voire le principal auteur de l?étude en question. Et elle est arrivée au chiffre impressionnant de 48 %. Et bien évidemment, on ne peut que soupçonner la possibilité que l’enthousiasme du chercheur ait été involontairement communiqué aux sujets. L’affaire devient encore plus ennuyeuse lorsque la chercheuse à découvert que c?était dans ces cas, et uniquement dans ces cas, que la compassion semblait connaître une augmentation chez les participants. Lorsque l?expérimentateur était différent de l’instructeur (ou lorsque cet instructeur était une simple bande audio), on ne constatait aucun changement.

Dernier souci, le biais de confirmation. Les chercheurs auraient tendance, une fois terminée l?expérience, à surévaluer nettement les résultats, donnant une signification trop importante à des écarts de statistiques négligeables.

Dans le reste de son essai pour Aeon, Ute Kreplin mentionne les cas où la méditation a entraîné des attaques de panique, de la dépression, voire des épisodes psychotiques. Nul besoin de paniquer (c’est quand même assez rare), mais la psychologue en profite pour rappeler ce que les bouddhistes ont toujours dit de la méditation : son but n’est pas de calmer l’esprit, mais au contraire de remettre en cause la nature même de notre individualité. Et cela n’est pas sans risque, évidemment.

En attendant, que nous montrent ces études ? Certes pas que la méditation est inutile ou inefficace. Plutôt qu’il s’agit d’un phénomène complexe qui engage l’ensemble de la personnalité d’un individu, et non une pilule dont les effets seraient clairs et définis. Et peut-être aussi qu’il faut cesser de faire des études sur des débutants alors que cette pratique demande des années de discipline quotidienne !

Rémi Sussan

  • Peut-on rendre le ciblage psychologique productif ?

Sur la scène des conférences USI, intervenait notamment Sandra Matz, spécialiste de l’étude marketing des caractéristiques psychologiques via le Big Data. Le scandale Cambridge Analytica a mis en lumière le rôle du profilage psychologique. Peut-être pas d’une manière très valorisante, semble regretter Sandra Matz. Si elle ne souhaite pas parler (...)

Sur la scène des conférences USI, intervenait notamment Sandra Matz, spécialiste de l’étude marketing des caractéristiques psychologiques via le Big Data.

Le scandale Cambridge Analytica a mis en lumière le rôle du profilage psychologique. Peut-être pas d’une manière très valorisante, semble regretter Sandra Matz. Si elle ne souhaite pas parler de ce que fait ou n’a pas fait Cambridge Analytica, force est de constater que Sandra Matz travaille elle aussi comme la firme britannique, à rendre productif le profilage psychologique. Et c’est ce qu’elle souhaite expliquer sur la scène d’USI (voir la vidéo de son intervention) : Comment ça fonctionne ? Qu’est-ce que ça produit ? Et surtout, regarder si ce profilage est réellement efficace : « peut-on réellement influencer les gens avec ces techniques ? » « Quels sont les défis et les opportunités du ciblage et du profilage psychologique ? »


Image : Sandra Matz sur la scène des conférences USI, via USIevents.

Comment réalise-t-on des modèles psychologiques ?

Que signifie la personnalité pour des psychologues ? Nous différons en terme d’apparence et de caractère. Chez les philosophes grecs déjà, nos tempéraments (ce que nous appelons aujourd’hui la personnalité) étaient déterminés par un équilibre interne complexe d’humeurs, explique-t-elle rapidement. « Aujourd’hui, ce que les psychologues appellent la personnalité capture les différences fondamentales quant aux façons dont nous pensons, nous ressentons ou nous nous comportons. La personnalité n’est donc pas seulement un état émotionnel contextuel, mais consiste d’abord à définir un état relativement stable, des tendances et des préférences qui définissent chaque individu et qui les distingue les uns des autres. S’il existe différents systèmes ou cadres d’analyses psychologiques des personnalités, un modèle est devenu plus populaire que les autres : le modèle des Big Five. » Ce modèle estime qu’il y a 5 grands traits de personnalités qui captureraient nos différences cognitives et comportementales, à savoir l’ouverture à l’expérience (c’est-à-dire la curiosité), la « conscienciosité (c’est-à-dire le fait d’être organisé), l’extraversion (c’est-à-dire le fait de chercher la stimulation et la compagnie des autres), l’agréabilité (le fait d’être compatissant et coopératif) et le névrosisme (le fait d’éprouver facilement des émotions désagréables). Ces modèles, notamment le Big Five, partent d’une analyse lexicale du langage. À l’origine, dans leur article de 1936, les psychologues Gordon Allport et Henry Odbert ont analysé le dictionnaire anglais pour en extraire des milliers de termes et adjectifs utilisés pour décrire la personnalité ou le comportement et ont utilisés des méthodes statistiques pour les associer les uns aux autres. Ce modèle est effectivement l’un des modèles les plus utilisés aujourd’hui par la recherche en psychologie pour l’analyse de données. Il se présente sous la forme de tests de personnalité où les gens doivent autoévaluer des affirmations pour voir si elles leur correspondent au pas. C’est donc un modèle déclaratif. Ainsi pour mesurer l’extraversion par exemple, on donne aux gens l’affirmation suivante : « Je parle à beaucoup de gens lors de soirées » et on capture le degré avec lequel les gens sont d’accord avec cette affirmation (sur le mode de 5 choix, allant de tout à fait d’accord à fortement en désaccord – à l’exemple des tests psychologiques que vous pouvez réaliser sur le Centre de psychométrie de l’université de Cambridge.


Image : exemple de questions et de modalités de réponses d’un des innombrables tests de personnalités que l’on trouve en ligne.

Pour la chercheuse, si ces questionnaires, qui demandent 10 à 30 minutes pour être complétés, fonctionnent bien dans le contexte de la recherche, ils éprouvent leurs limites dans le domaine du marketing numérique ou de la persuasion de masse, notamment parce qu’il faut un peu de temps pour que les personnes les remplissent. Si on peut demander à des participants volontaires de remplir ces tests, on ne peut pas le demander à des millions d’internautes. Le travail de profilage consiste donc à parvenir à évaluer la personnalité des gens, sans leur demander de remplir ces tests. Pour cela, on les remplace par l’analyse de leurs traces, comme les contenus qu’ils partagent sur FB ou les likes qu’ils déposent sur les contenus, les musiques qu’ils écoutent ou les vidéos qu’ils regardent? (qu’on compare à l’analyse des traces d’un groupe témoin à qui on a fait passer le test et auquel on a associé des contenus, oublie d’expliquer Sandra Matz. On analyse des comportements depuis des profils témoins qu’on applique ensuite aux autres profils par inférence).

Prenons le temps d’expliquer plus précisément que ne le fait Sandra Matz sur la scène d’USI, comment se fait cette association.

Pour faire de l?analyse massive, vous avez besoin d?un côté des données d?utilisateurs et de l?autre d?un test. Le croisement des deux permet de créer des  modèles qui pourront être massivement appliqués à tous les autres utilisateurs. Un simple test psychologique qui semble amusant de prime abord permet de définir des caractéristiques psychologiques d?utilisateurs. En comparant ces profils à d?autres données, comme celles de leurs interactions sur Facebook ou le type de données qu?ils partagent, celles de leurs tweets ou celles de leurs usages de leurs téléphones mobiles, il est possible de produire des indicateurs significatifs, et de lier par exemple une action (le temps mis à répondre à un message, à un appel téléphonique ou votre régularité à ces appels et messages) à un type de profil psychologique.

Une fois ces modèles établis, on peut analyser n?importe quelles données pour les faire correspondre à ces prédicats. On peut ainsi prédire votre profil psychologique à partir de l?usage de votre téléphone qu?enregistre votre opérateur ou des applications mouchardes qu?il héberge. Depuis la diversité des contacts, votre régularité à entrer en relation avec eux? on peut donc déduire des informations psychologiques que les services marketing pourront exploiter. C?est pour cela que nombre d?applications tentent d?avoir accès à des informations dont elles n?ont pas besoin pour fonctionner et qu?une simple application qui transforme le flash de votre smartphone en lampe de poche récupère vos listes de contacts, vos SMS, vos informations de localisation? Autant de données qu?il sera possible de faire parler et de vendre à des agences spécialisées.

Le scandale Cambridge Analytica est entièrement construit sur un tel système : avec une application pour Facebook qui apparaissait comme un jeu (« this is your digital life ») qui s?appuyait sur un questionnaire permettant de réaliser le test et qui dans le même temps permet de récupérer les données des utilisateurs, comme des informations sur les gens avec qui ils sont en contacts ainsi que des informations sur eux-mêmes. Des données au final de quelque 50 millions d?utilisateurs qui ont permis à la firme britannique de construire des profils psychologiques et politiques permettant de les appliquer à d’autres profils, de cibler les utilisateurs avec des publicités convaincantes ou d?effectuer des simulations de participation électorales, etc.

Le Big data, couplé à des systèmes d?apprentissage automatisé (Machine Learning), permet de déterminer des modèles et des critères optimum. De mettre en avant des comportements et des analyses, à l’image du correcteur comportemental Crystal Knows dont nous vous avions déjà parlé qui établit des modèles psychologiques de vos correspondants et vous invite à corriger vos e-mails depuis cette analyse pour mieux vous adresser à eux.

Ces traces disent beaucoup des habitudes et des préférences des gens tant et si bien qu’il est inutile de savoir s’ils sont extravertis ou pas, il suffit de regarder leurs activités sur les réseaux sociaux et traduire ces données via des algorithmes en données et profils psychologiques significatifs, explique Sandra Matz. Sur la scène d’USI, elle montre des nuages de mots corrélés à quelques-uns des 5 grands types de profil. Ces nuages ne montrent pas tant des fréquences d’utilisation de mots clefs, que l’usage de certains mots a plus tendance à vous classer dans une catégorie qu’une autre. Ainsi les extravertis ont tendance à parler de soirée, d’impatience… de ce qu’ils font avec les autres, alors que les introvertis par exemple parlent plutôt de manga et d’ordinateurs? de choses qu’ils font par eux-mêmes. Pour Sandra Matz, cela ne se base nécessairement pas sur des algorithmes compliqués que sur une classification et un comptage de mots, explique-t-elle en continuant de montrer des nuages de mots selon de grands types de profil, qui donnent l’impression d’avoir à faire à des gens très différents les uns des autres par les mots mêmes qu’ils emploient. De même, on peut appliquer ces classements aux likes que les gens déposent sur les contenus? Ainsi, les gens qui ont tendance à être névrosés ont tendance par exemple à mettre des likes sur des expressions comme « Parfois, je me déteste » ou « je suis tellement content » ou à apprécier Kurt Cobain, alors que les personnes stables vont apprécier des contenus relatifs à l’administration des affaires, au Parkour, à comment gagner de l’argent? Le profilage psychologique permet ainsi de relier des contenus et leur vocabulaire à des types de profils.


Image : les nuages de mots relatifs aux extravertis et aux introvertis, présentés par Sandra Matz sur la scène d’USI, via @jordanvid.

La question de fond, estime Matz, reste de savoir si ces systèmes peuvent prédire la personnalité de quelqu’un. Le modèle Big Five reste essentiellement subjectif. L’enjeu est de comparer la prédiction réalisée par la machine à la perception de soi de la personne. Pour cela, Matz et ses équipes ont testé la prédiction psychologique en demandant à des gens et à leurs proches de remplir des questionnaires de personnalité et l’ont comparé à l’étude de contenu pour en analyser la précision. Et Matz d’expliquer qu’il suffit ainsi de 10 likes pour que le modèle soit aussi précis qu’un collègue, de 65 likes pour qu’il soit aussi précis qu’un ami et de 120 likes pour qu’il soit aussi précis que quelqu’un de votre famille et qu’il en faut 300 pour le comparer à votre compagnon. Pour Matz, ces comparaisons montrent combien une prédiction psychologique automatisée peut s’avérer précise et fiable. Il est donc possible de cibler psychologiquement les gens, non seulement en fonction de leur âge ou d’autres données déclaratives, mais également selon leurs grandes tendances psychologiques, comme le fait qu’ils soient plutôt extravertis ou introvertis.

Le profilage psychologique marche-t-il vraiment ?

Reste que ces tendances ne ciblent pas tant des individus uniques que des grandes tendances psychologiques (des profils auxquels nous sommes associés). En ciblant des goûts associés à l’extraversion par exemple, il devient possible d’adresser collectivement des gens qui aiment se socialiser à d’autres, plus que la moyenne. « Est-ce pour autant efficace ? », interroge Matz. Pouvons-nous depuis ces informations influer réellement sur ce que les gens cliquent ou achètent ? En fait, explique-t-elle, « nous pouvons faire correspondre le contenu que nous montrons aux gens au profil psychologique que nous avons inféré d’une manière qui augmente la probabilité qu’ils s’engagent avec ces contenus ». Et la chercheuse d’évoquer certaines de ses recherches, notamment associées à la promotion d’un jeu depuis une campagne publicitaire sur FB. L’enjeu était de promouvoir deux jeux, un simple jeu de casse-brique, qui s’adresse donc plutôt à des gens introvertis et un jeu de dé qui se joue avec des amis, qui s’adresse donc plutôt à des gens extravertis. On a créé des publicités pour FB dédiées, qui ont reçu en une semaine plus de 400 000 vues, 4000 clics qui ont donné lieu à 272 installations des jeux. En fait, les annonces qui correspondaient aux profils cibles réussissaient 8 fois plus que celles qui étaient adressées aux mauvais profils. Un résultat qui n’est pas anodin. Les gens ont 8 fois plus tendance à installer ou télécharger votre produit, quand il y a concordance entre celui-ci et la tendance psychologique des profils. Ces résultats peuvent paraître effrayants, constate Sandra Matz : les gens ne souhaitent pas être manipulés ainsi. Ils veulent pouvoir faire leurs propres décisions?

Reste qu’il faut remettre les choses en perspectives, tempère Matz. Il y a 500 millions de produits sur Amazon, des milliards de pages indexées par Google, des millions d’heures de vidéo sur YouTube? tant et si bien qu’il nous faudrait 1000 vies pour en regarder tout le contenu. « Nous avons besoin de mécanismes pour filtrer le contenu et aider les gens à trouver ce qu’ils cherchent ». C’est ce que nous appelons le paradoxe du choix : trop de choix tue notre capacité à décider et nous rend moins satisfaits. Pour Matz, cette abondance justifie le besoin de filtres et pour elle, les filtres psychologiques sont particulièrement bénéfiques aux utilisateurs. Reste que sur cette planche glissante, Matz prévient : l’appariement de produits, comme dans le cas de ces 2 jeux, fonctionnait bien, car les 2 produits étaient clairement distincts? Mais la plupart des produits sont bien plus neutres, bien moins distincts et s’appliquent bien moins à une distinction psychologique. Les formules d’abonnement à un forfait mobile par exemple sont plus difficiles à caractériser. D’où l’enjeu du marketing à adapter ses messages psychologiquement, explique-t-elle. Ici, l’enjeu n’est pas de disposer de produits psychologiquement clivants, mais d’adapter les messages d’accroches aux grands types de profils d’utilisateurs. Sandra Matz et ses équipes ont donc réalisé un autre test, avec une publicité pour un même produit à destination d’un public extraverti et une autre à destination d’un public introverti. La publicité a été vu 3 millions de fois, a généré 10 000 clics et 500 achats. L’appariement publicitaire était environ 1,5 fois plus efficace avec les profils correspondants. L’effet est beaucoup plus modeste que précédemment, concède la spécialiste, certainement parce que le produit, lui, ne matche pas avec les profils, mais il reste néanmoins significatif.

Et Sandra Matz d’évoquer DataSine, une entreprise avec laquelle elle a travaillé qui justement est capable d’adapter les messages selon différents grands types de profils clients et de proposer, selon les profils, d’adapter les messages avec des mots-clefs relatifs aux profils (voir notamment cette présentation vidéo de DataSine qui montre l’interface pour écrire des messages adaptés et qui suggère de remplacer les mots des messages ou les images selon les profils visés).


Image : l’interface de rédaction de DataSine qui propose des suggestions de termes pour adapter les messages en fonction du profil psychologique ciblé.

Ciblage psychologique : arme de manipulation massive ?

Reste à savoir jusqu’où ces systèmes sont efficaces. « Pourrait-on par exemple imaginer vraiment influencer le comportement de quelqu’un, le faire changer d’avis de façon spectaculaire par ces méthodes, comme de retourner un électeur convaincu d’Hillary Clinton en supporter de Trump ? » La réponse est non, affirme Sandra Matz. « Mais ce non, ne signifie pas que ces techniques ne sont pas efficaces ni que nous ne devrions pas nous inquiéter de l’amélioration à venir de ces techniques, car bien souvent les gens sont plus indécis que convaincus, et il suffit de peu de chose pour les faire changer d’avis. »

Le ciblage psychologie est-il une arme de destruction massive ou un catalyseur pour le bien social ?, interroge Sandra Matz. Pour certains, c’est un outil de manipulation des gens qui menace la démocratie, à l’exemple de Cambridge Analytica. Reste que pour Sandra Matz, le ciblage psychologique n’est pas mauvais en soi, défend-elle, mais certains de ses usages peuvent l’être. Si Hillary Clinton par exemple avait utilisé le ciblage psychologique non pas pour décourager les gens de voter, mais pour mieux communiquer avec eux, sur la base de ce qu’ils apprécient, pour leur parler selon leurs profils afin de les amener à s’engager en politique, elle aurait certainement été célébrée comme Obama l’a été pour le ciblage de ses supporters lors de la campagne de 2008. « Oui, le ciblage psychologique peut-être une menace contre la démocratie, mais il peut aussi être une solution pour amener plus de gens à s’engager? »

Pour défendre son point de vue, Sandra Matz convoque un dernier exemple, en rappelant, comme le soulignait Dan Ariely, que les gens ne sont pas très bons pour prendre des décisions qui leur profitent à long terme. Le ciblage psychologique peut nous aider à faire des choix, comme nous aider à choisir un fruit plutôt qu’un gâteau. Il peut aider les gens à prendre de meilleures décisions et à suivre leurs intentions. Elle explique qu’elle travaille actuellement sur l’épargne pour aider les gens à économiser de l’argent, en distinguant par exemple les objectifs selon des profils psychologiques afin que les messages soient plus adaptés. Nous pourrons demain adapter bien d’autres domaines à la psychologie des gens, à leurs personnalités, comme le travail ou l’éducation? Matz travaille par exemple à détecter les premiers signes de la dépression depuis des smartphones afin de pouvoir aider des gens qui ne sont pas en posture de le faire.

Pour Matz, le ciblage psychologique en est à ses débuts. Demain, nous tenterons de prédire bien d’autres choses depuis les profils que les seules personnalités : les valeurs, l’intelligence, les styles cognitifs, les humeurs? et même peut-être directement depuis les visages, leurs expressions et réactions, explique-t-elle avant de s’emballer jusqu’aux implants neuronaux qui permettront de nous dire ce que nous pensons, prévoyons en temps réel? « En tant que chercheur, je trouve ça très excitant, mais en tant que personne, je trouve ça très inquiétant? », concède-t-elle sur un mode schizophrénique. « Comme le disait l’oncle de Peter Parker : « avec de grands pouvoirs viennent de grandes responsabilités ». « Nous allons pouvoir comprendre la psychologie humaine bien mieux et à un niveau que nous n’avons jamais atteint », s’enthousiasme la psychologue. Pourtant, rappelle-t-elle, les psychologues travaillent avec le consentement de leurs patients. Les chercheurs en psychologie doivent dire aux participants quel type de données ils collectent, pour quoi faire. Il ne faudrait pas qu’on oublie les valeurs des pratiques de la psychologie. « C’est en étant responsables que nous transformerons le ciblage psychologique en catalyseur du bien social ».

Reste à savoir si ces pratiques relèvent plus de la psychologie que du marketing. C’est certainement dans ce flou que se produisent les bascules réductionnistes de l’analyse psychologique automatisée.

La psychologie, c’est un peu plus compliqué !

L’artiste, chercheur et psychologue Alexandre Saint-Jevin n’était pas convié à intervenir sur la scène d’USI, mais nous avions envie de remettre les propos de Sandra Matz en perspective, de comprendre un peu mieux les limites de ces modélisations psychologiques.

« La psychologie n’est pas une discipline uniforme », nous rappelle Alexandre Saint-Jevin. Les tests de type Big Five s’inscrivent dans ce qu’on appelle la psychologie différentielle, c’est-à-dire l’étude des différences psychologiques entre les individus par les statistiques, qui étudie à la fois la variabilité entre les individus, entre les groupes et la variabilité intra-individuelle.

Elle naît avec Francis Galton qui cherche à étudier les capacités intellectuelles humaines, afin de démontrer qu’elles sont héritables, c’est-à-dire qu’elles relèvent de la génétique et, partant de là, de favoriser l’évolution intellectuelle de l’espèce par la sélection, qui va donner naissance à rien de moins que l’eugénisme. Il est l’un des premiers à utiliser le questionnaire comme méthode pour étudier les différences de comportement. Il a également recours à l’étude des jumeaux homozygotes élevés séparément et de jumeaux hétérozygotes élevés ensemble pour mesurer les écarts d’intelligence et montrer que l’intelligence serait biologique plus que culturelle. Son protégé et biographe, Karl Pearson ajoutera une troisième méthode, toujours utilisée elle aussi, le coefficient de corrélation, qui associe des variables entre elles. Ce sont là les trois éléments de base des études différentielles.

Ce qu’on appelle généralement les Big Five sont un ensemble de tests psychométriques qui inventorient plusieurs facteurs de personnalités, parmi lesquels ont trouve le Big Five Inventory, le Neo Pi-R, le MBTI… En fait, on désigne sous l’expression de Big Five une multitude de tests qui ne fonctionnent pas exactement de la même façon. Ils reposent le plus souvent sur une hypothèse lexicale : les caractéristiques psychologiques « pertinentes » d’une personnalité seraient présentent dans le langage naturel qu’on classe par rapprochement. En gros, ce sont des études de texte, de langage, où chaque mot est corrélé à une signification. Effectivement, dans leur article fondateur, les psychologues Gordon Allport et Henry Odbert, ont analysé les termes relatifs à la personnalité dans un dictionnaire. Ils en ont relevé 18000 qu’ils ont classé en 4500 traits de personnalité, définis comme des déterminants stables de la personnalité. Dans les années 50, R. B. Cattell réduit ces traits à 35 variables pour produire 12 facteurs de personnalité en utilisation des corrélations statistiques donc des moyennes statistiques. À partir du premier test qu’il met en place, le 16PF, les chercheurs vont continuer à réduire le nombre de facteurs jusqu’à obtenir les 5 grands traits de personnalité des Big Five, qui ne sont donc rien d’autre que des ensembles d’adjectifs pour caractériser différents types de personnalités. L. R. Goldberg va créer les tests à 7 puis 5 facteurs : chaque grand facteur étant censé représenter le plus haut niveau d’abstraction de la personnalité, dont chacune englobe un grand nombre de caractéristiques distinctes et spécifiques. La démonstration de Goldberg est surtout mathématique : il souligne qu’au-dessus de 5 critères, les différences seraient négligeables d’un point de vue statistique. On a donc là un long cheminement d’analyse de vocabulaire et de réductionnisme statistique, nous rappelle Alexandre Saint-Jevin. Mais ce ne sont pas leurs seuls biais.

À l’origine, ces tests sont le résultat d’une auto-évaluation : l’individu renseigne des questions où il exprime ce qu’il pense de sa personnalité. Pour limiter les biais déclaratifs, les protocoles ont mis en place des évaluations conjointes par des gens qui connaissent la personne. Or, les études ont montré que ces contre-résultats ne donnaient pas toujours de bons résultats. La perception qu’on a de sa personnalité ne correspond pas toujours à celle que les proches en donnent.

En fait, le succès des Big Five, permet surtout de comprendre le succès de ces tests de personnalité basés sur l’analyse du langage. « On peut facilement en construire des modèles informatiques depuis les répertoires d’adjectifs, comme le fait depuis longtemps le traitement automatique du langage. Ces tests se prêtent bien plus à la programmation que d’autres, ce qui permet de rendre l’analyse lexicale applicable via un traitement statistique. » Or, rappelle le psychologue clinicien : le problème est que ces tests ne démontrent rien au niveau psychopathologique. Ils ne nous disent pas si une personne à telle ou telle pathologie. Le problème est qu’on a établi des corrélations entre des tests de personnalité et des tests diagnostics. Ainsi quelqu’un diagnostiqué par exemple comme ayant un trouble de la personnalité limite (TPL) aura statistiquement au niveau de la personnalité un fort névrosisme et une ouverture faible. Le risque alors est de considérer qu’une personnalité de ce type soit également quelqu’un ayant un TPL. Le risque est bien de prendre au final des  rapprochements statistiques, des corrélations, pour des diagnostics médicaux !, prévient Alexandre Saint-Jevin.

L’autre problème de ces tests de personnalité, c’est qu’ils sont dénués de contexte. Ils obligent le sujet à se baser sur une représentation de soi, hors contexte. À la question, de savoir si je me vois comme quelqu’un de bavard, il n’y a pas de contexte associé. Est-ce maintenant ? En général ? Pour Allport, les questions se rapportent à un état dit « stable », hors situation particulière… mais que veut dire être tout le temps bavard ?

En fait, même les tenants de la psychologie différentielle ne sont pas d’accord entre eux. Pour certains, la personnalité déterminerait les réactions, mais pour d’autres, c’est la situation qui déterminerait les réactions. D’où la naissance de tests de personnalité qui ne reposent pas sur des grandes affirmations, mais proposent des réactions en situation. Les psychologues ont recours ainsi à une multitude de tests de personnalité, à l’image de ceux proposés par l’éditeur Hogrefe. Nombreux sont conçus pour des milieux différents, à l’image du test MBTI, très utilisé dans le milieu des relations humaines et du management. Très utilisée, sa fiabilité a pourtant été très discutée. À la différence du test des Big Five, il ne repose pas sur une analyse lexicale, ce qui explique qu’il soit moins utilisé en informatique? car il ne permet pas aussi facilement de rendre des contenus textuels productifs.

D’autres tests existent encore, comme le fameux test de Rorschach où l’on demande de mettre des mots sur des images. On sait en faire un traitement statistique d’ailleurs, car on sait que beaucoup de gens voient telle ou telle chose dans telle planche? et quand une personne donne les réponses les plus courantes, on le diagnostic d’ailleurs comme normopathe. S’il n’y pas de réponse attendue à ce type de test, on connait l’ampleur des réponses possibles par la pratique et ont peut donc les coder.

Mais le grand problème des tests de personnalité, estime Alexandre Saint-Jevin, « c’est qu’ils enferment les personnes dans des catégories ». C’est un peu l’inverse de la psychanalyse, qui tente de faire verbaliser les éléments de personnalité. La psychanalyse relève d’une co-construction avec la personne qu’on ne retrouve pas du tout dans ces tests. Dernier problème : chacun d’entre nous est sommé d’entrer dans ces agencements signifiants. Là, on nous fait entrer dans des comportements auxquels on doit se conformer pour être. Le risque bien sûr, consiste surtout dans des dérives, des associations, des modalités qui font par exemple qu’on va utiliser l’analyse lexicale de tweets ou de SMS pour déterminer automatiquement une possible pathologie.

Enfin, bien sûr, l’une des grandes dérives de ces systèmes repose sur le fait qu’on fasse passer le test aux gens sans qu’ils le sachent, on analyse leurs corpus par-devers eux et on en déduit des traits de personnalité qu’on va rendre productifs en applicants ce qu’on en a appris aux contenus générés par des milliers d’autres personnes. Or en psychologie, tout test nécessite le consentement de la personne qui le passe. « Le psychologue n’a pas pour fonction de trouver des éléments de personnalité dont la personne n’a pas conscience, mais au contraire d’amener la personne à les trouver. » Ici, la mise en production psychologique produit des inférences que l’utilisateur ne voit pas. La dérive marketing du profilage psychologique est à l’inverse du rôle du psychologue.

Autre problème encore, ces tests fonctionnent par inférence. On crée des liens entre des notions sans les établir, en croisant des tests entre eux. On estime par exemple que ceux qui ont tendance à être organisés vont aimer l’environnement. Mais c’est un lien qu’on établit sans étude et qui enferme des gens dans des catégories. « Ces tests imaginent aussi l’individu comme un être rationnel, en faisant par corrélation des liens de cause à effets. Or, comme le rappelle la théorie des jeux, on sait que nous sommes bien moins rationnels que ne le montrent ces tests. Ces tests qui s’emmêlent créent des raccourcis sur la base de si quelqu’un a tel trait de personnalité, il aura tendance à aimer cela plutôt que cela. Or, on oublie de voir que nous sommes bien moins cohérents que ne le disent ces tests. La cohérence n’est pas notre fort ! » Or, on est face à des systèmes qui, par la corrélation, tentent de trouver des cohérences partout. « Bien souvent, ils mettent en cohérence des choses qui n’ont rien voir. C’est la critique qu’Hannah Arendt faisait des dictatures. Ce sont des régimes logiques qui se déploient selon une proposition de base et un enchaînement logique. C’est la critique qu’on a adressée à Galton et à l’eugénisme. » Ces systèmes ne visent pas à produire une performance psychologique d’ailleurs. Ils sont produits pour générer une performance marketing. Ils produisent une standardisation qui ne relève pas de la psychologie. Ils visent à rendre les profils productifs. Tout l’inverse de la psychologie en quelque sorte.

Hubert Guillaud

  • 52 nuances de réalité virtuelle

Jaron Lanier (@jaronlaniervr, Wikipédia) n’en est pas pas à son premier livre. La plupart sont des pamphlets, souvent inspirés, contre le web tel qu’il existe, et son dernier livre sur les réseaux sociaux continue sur la même lignée en proposant 10 arguments pour détruire tous nos comptes sur les réseaux (...)

Jaron Lanier (@jaronlaniervr, Wikipédia) n’en est pas pas à son premier livre. La plupart sont des pamphlets, souvent inspirés, contre le web tel qu’il existe, et son dernier livre sur les réseaux sociaux continue sur la même lignée en proposant 10 arguments pour détruire tous nos comptes sur les réseaux sociaux. Mais ce n’est pas dans cet ouvrage que je me suis plongé récemment, plutôt son précédent, publié en 2017 : Dawn of the New Everything : Encounters with Reality and Virtual Reality, une autobiographie qui est également un essai sur la technologie qui a rendu Lanier célèbre, à savoir la réalité virtuelle (il est censé être l?inventeur du terme, mais il rappelle dans son livre que le premier usage de l’expression est apparu sous la plume d?Antonin Artaud, dans son Théâtre de la Cruauté).

On peut traiter du bouquin sous plusieurs angles. D’abord, il constitue un témoignage amusant et souvent très distancé sur les premiers jours de la cyberculture, non pas dans années 90, mais bel et bien au début des années 80. Sous cet aspect, j’ai trouvé intéressant de le lire juste après les mémoires de John Barlow, car ils ont fréquenté les mêmes personnes, comme Timothy Leary ou l’équipe de Mondo 2000 et se sont bien connus (Lanier décrit Barlow comme un ami avec qui il est en complet désaccord sur les notions de liberté de l?information ou d’indépendance du cyberespace : « peut-être que nos différents points de vue étaient liés à mon passé d’agriculteur, par rapport à Barlow qui était un éleveur. Les clôtures étaient ses ennemies, mais elles étaient mes amies », écrit-il).

En gros cette partie autobiographique couvre l’enfance et l?adolescence de Lanier, puis raconte la création de sa « startup » VPL Research, qui mit au point les premiers systèmes de réalité virtuelle. Le livre se termine lorsqu’il quitte la société.

Mais l’ouvrage est également un essai sur la réalité virtuelle (VR pour Virtual Reality) : travail historique, puisqu’il nous explique à quoi ressemblaient les premiers systèmes créés par VPL dans les années 80. Et également réflexion philosophique sur la nature de ce nouveau médium. En fait, le livre ne contient pas moins de 52 définitions possibles de la réalité virtuelle : certaines sont anecdotiques, polémiques ou ironiques… d’autres sont plus profondes. J’ai choisi d’en sélectionner quelques-unes, qui m’ont semblé subjectivement les plus intéressantes.

Une technologie de la mesure


Rappelons la date de naissance de la VR : 1984 environ. A cette époque les graphismes sur ordinateur étaient des plus primitifs. En fait, il est arrivé à l’équipe de VPL de créer des réalités virtuelles d’une définition de 100×100 pixels ! Ce qui nous rappelle qu’il existe une différence entre la VR et les « mondes virtuels ». Au final, le réalisme de la scène simulée, sa richesse en détails, compte peu. D’où la définition n°25 : « une technologie de média dans laquelle la mesure est plus importante que l’affichage ».

« Si 100×100 est une résolution plausible pour une icône, pour un monde virtuel, c’est absurde. Rappelez-vous, l’image est étalée sur une grande partie de ce que vous pouvez voir. Par conséquent, chaque pixel peut sembler aussi gros qu’une brique dans un mur ! Et pourtant, l’effet était incroyable », raconte Lanier.

Pourquoi cela a-t-il fonctionné ? Parce qu’en fait, ce qui est central dans la VR n’est pas ce que vous voyez ou entendez, mais la manière dont les mouvements du corps sont captés et retransmis à « l’avatar ». Le coeur de la VR, c’est le tracking, pas le rendu. C’est cette capacité de mesure qui permet de « tromper le cerveau » et qui donne cette impression d’immersion dans un nouvel environnement. Rappelons d’ailleurs que le sens de la vue n’a pas été immédiatement privilégié par les premiers concepteurs de la VR. Lanier est connu surtout pour l’invention du dataglove, une interface haptique qui simule le sens du toucher (et qui connut pendant un court laps de temps une adaptation grand public, le Power Glove de Nintendo). Étrangement, au début des années 80, il était considéré comme plus facile, techniquement, de mettre au point de tels périphériques plutôt que des systèmes de visualisation sophistiqués. 30 ans plus tard, Oculus, HTC, Sony, Samsung et autres nous proposent des casques à bas prix, alors que les interfaces haptiques, elles, semblent toujours relever de la science-fiction !

LA VR contre l’IA


Depuis longtemps Lanier critique avec virulence le culte de l’intelligence artificielle (IA). Dès les années 90, alors que la mode n?était pas au deep learning, mais aux « agents intelligents », il écrivait que ces agents ne sont intelligents que parce qu’ils nous rendent plus stupides.

Pour lui, selon sa 46e définition : « VR = ?IA (la VR est l’opposé de l’IA) ». Il ne s?agit pas tant ici pour Lanier de s’opposer à la technologie de l?intelligence artificielle. Comme il le rappelle, il travaille lui même dans un laboratoire qui en fait largement usage. Là où il estime que la réalité virtuelle s’oppose à l’IA, c’est en terme de stratégie. Pour lui, face à un déluge de données, il importe tout d’abord de mettre au point une bonne interface utilisateur, et ensuite éventuellement d’y intégrer des algorithmes issus de l’IA, plutôt que partir directement de l’IA et créer, pour employer son expression, un être de fantaisie susceptible de résoudre les problèmes à notre place. En bref, la VR apparaît comme un outil d’intelligence augmentée (Lanier n’oublie pas d?ailleurs de souligner sa parenté avec d?autres techniques d’augmentation cognitive, comme les palais de mémoire).

Pourquoi est-il essentiel de construire d’abord l’interface utilisateur ? Parce que si vous ne disposez pas d’une bonne interface, insiste Lanier, qu’est-ce qui vous prouve que le « robot », quel qu’il soit, vous donnera la bonne réponse ? « L’IA rend l’ingénierie plus confuse, même lorsque la technologie sous-jacente est belle et nécessaire ». On le sait, c’est d’ailleurs le problème de base de l’IA : on ne sait pas comment les programmes arrivent à leurs conclusions, ce qui rend ces dernières sujettes à suspicion.

Une programmation sans « code source »


Voici une définition que je trouve fascinante, mais je dois avouer ne pas avoir tout compris aux spéculations de Lanier : « 52e définition de la VR : une manière d’utiliser les ordinateurs suggérant le rejet de la notion de code ».

Très vite, dès les années 80, il est apparu à Lanier que la programmation classique, en mode texte, d’un monde virtuel était insuffisante. Un bon système de programmation virtuel devrait être accessible depuis l’univers virtuel lui-même, et les modifications effectuées devraient se répercuter immédiatement dans l’environnement sans passer par une phase de compilation comme c’est le cas avec des langages comme le C++.
Lanier consacre tout un appendice de son ouvrage à la question de la programmation. En gros, si je saisis bien son idée, au lieu d’un seul et unique « code source », le développement se ferait par plusieurs interfaces différentes, qu’il appelle des « éditeurs » (et qui n’ont apparemment rien à voir avec les éditeurs de texte couramment utilisés par les programmeurs) : « Un éditeur peut ressembler à des images sur un écran d’ordinateur ou à des objets virtuels dans un monde virtuel ». Lanier reproche aux langages de programmation traditionnels de reposer sur des abstractions fixées dans la structure même du langage (par exemple, les « fonctions », les « listes », les « objets », etc.). Au contraire, les « éditeurs » présenteraient un même programme avec des abstractions différentes.

A la grande époque de VPL Lanier et son équipe ont essayé de développer ce nouveau style de développement : « L’expérience de la programmation était brièvement devenue un peu plus improvisée, un peu plus comme un mélange entre jouer du jazz sur un cornet et dessiner des diagrammes mathématiques ».

Selon Lanier les « éditeurs » à cette époque ressemblaient un peu au logiciel MAX, surtout utilisé en musique électronique. Je ne connais pas MAX, mais j’ai un peu pratiqué Pure Data, son « clone » open source : il s’agit d?un logiciel de programmation visuelle dans lequel on relie des « boites » par des « câbles ». C’est vrai que Pure Data permet de changer des paramètres à la volée, de faire de la programmation « en temps réel » et donc d’improviser (d’où sa valeur pour les DJs et les VJs). Je dois avouer cependant que la multiplication des « câbles » et des boites m’a paru rendre très vite la tâche très complexe, sans parler de la lisibilité du programme par un ?il extérieur. Je suis vite revenu aux langages à code source traditionnels pour ma part. Je ne suis pas sûr que connecter des dizaines de câbles dans un monde virtuel serait spécialement confortable. N’empêche que sur le fond, je trouve que Lanier a raison. Programmer une réalité virtuelle à l’aide d’un texte écrit, extérieur au monde qu’il représente, a un côté absurde.

Le virtuel rend la réalité plus réelle

« Définition numéro 7 : une réalité grossièrement simulée favorise l’appréciation de la profondeur de la réalité physique en comparaison. Quand la réalité virtuelle progressera dans le futur, la perception humaine s’en nourrira et apprendra à trouver encore plus de profondeur dans la réalité physique. »

Un mythe accompagne depuis ses débuts la réalité virtuelle. Celle de « l’univers truqué » comme ceux décrits par l’écrivain Philip K. Dick. Est-il possible de simuler le réel au point de rendre la simulation impossible à distinguer du modèle ? Est-ce là que vivront les prochains esprits « téléchargés » ? Et si ce genre de prouesse est possible, qu?est-ce qui nous prouve que nous ne sommes pas déjà à l?intérieur d’une simulation, à l’instar des personnages de Matrix (ou, plus sérieusement, si l’on suit l’argument de la simulation de Nick Bostrom, auquel Elon Musk s’est montré sensible) ? Ce genre d’idées, nous explique Lanier, était déjà en discussion dans les années 80, au « Little Hunan », le restaurant chinois de la Silicon Valley où la première génération de « hackers » aimait se retrouver. Mais, pour Jaron Lanier, ce genre de spéculation n’a pas grand sens. Selon lui, la réalité aura toujours un point d’avance sur toute tentative de simulation…

« Il y aura toujours des circonstances au cours desquelles une illusion fabriquée par une technologie médiatique, aussi raffinée qu’elle soit, se révélera un peu maladroite par rapport à la réalité non médiatisée. La falsification sera un peu plus grossière et plus lente ; très légèrement moins gracieuse. »

Que se passera-t-il dans les années qui viendront, alors que les rendus se révéleront de plus en plus perfectionnés ? Pour Lanier, cela nous entraînera à percevoir la réalité de manière encore plus fine : « Face à la VR de haute qualité, nous affinons nos capacités de discrimination. La réalité virtuelle nous entraîne à mieux percevoir, jusqu’à ce qu’au final, même la toute dernière configuration de réalité virtuelle ne nous semble plus de si haute qualité ». Sur ce point, la VR ressemble assez à la méthode scientifique, nous dit-il. Toujours en progrès, de plus en plus précise, mais toujours insuffisante par rapport à la réalité du monde qu’elle est censée décrire.

« La VR est la technologie qui permet de remarquer l?existence de la conscience », nous dit la 12e définition. Depuis des années, Lanier est entré en lutte contre une conception par trop robotique de la conscience humaine. En ligne de mire, il s’en prend à des philosophes comme Daniel Dennett, pour qui la conscience n’est qu’un épiphénomène de notre fonctionnement mental, une illusion sans réel impact sur notre comportement. Mais Dennett n’est que le porte-parole le plus sophistiqué d’une attitude très répandue dans la Silicon Valley : l’idée que notre personnalité puisse être mise en algorithme et prédite est l?application pratique la plus immédiate d?une telle théorie. Selon Lanier, la réalité virtuelle nous permet de nous rendre compte du caractère unique, inaltérable de l?expérience consciente. En effet, nous explique-t-il, « les machines sont modulaires. Si les parties d’une voiture sont remplacées une par une par les pièces d’un hélicoptère, alors vous finirez avec un hélicoptère ou un gros tas de camelote inerte, mais pas avec une voiture. »

Grâce à la réalité virtuelle, on peut tout changer dans notre expérience du réel. On peut habiter le corps d’un animal par exemple. Et bien entendu, l’environnement peut être complètement recréé. Mais à aucun moment on n’oublie qu’on est présent. La conscience ne change pas si l’on modifie certaines de ses parties. Le « spectateur unique du théâtre cartésien », comme le nomme ironiquement Daniel Dennett dans son livre La Conscience Expliquée (en niant sa réalité), existerait donc bel et bien.

Et c’est peut-être le grand point que Lanier souhaite démontrer avec sa technologie. Alors que de plus en plus on tend à représenter l’humain comme une espèce de robot inconscient, prévisible par les data et programmé par une multitude de biais, la VR n’a peut-être d’autre but que nous rappeler que nous existons.

Rémi Sussan

  • Transition écologique : nous ne pouvons pas (seulement) la faire nous-mêmes !

Comment mener une vie plus durable ? Cette question génère beaucoup de débats sur ce que les individus peuvent faire pour combattre le changement climatique. Bien souvent, les réponses adressent surtout les individus, leur demandant d’adopter des comportements plus responsables, comme d’acheter localement, d’isoler leurs maisons ou de prendre leur vélo (...)

Comment mener une vie plus durable ? Cette question génère beaucoup de débats sur ce que les individus peuvent faire pour combattre le changement climatique. Bien souvent, les réponses adressent surtout les individus, leur demandant d’adopter des comportements plus responsables, comme d’acheter localement, d’isoler leurs maisons ou de prendre leur vélo plutôt que la voiture? « Mais ces réponses individuelles posent la question de leur efficacité face à un changement de comportement qui nécessite d’être systémique », explique Kris de Decker sur Low-Tech Magazine (@lowtechmagazine).

Les politiques publiques de lutte contre le changement climatique, elles, sont de trois ordres : des politiques de décarbonisation (encouragement aux sources d’énergie renouvelable, aux voitures électriques…), d’efficacité énergétique (amélioration du rapport énergétique des appareils, véhicules, bâtiments?) et de changement comportemental (promotion de comportements plus durables). Les deux premières visent à rendre les modes de consommation existants moins gourmands en ressources, mais trop souvent en ne reposant que sur l’innovation technique, elles oublient l’accompagnement social, ce qui explique qu’elles n’aient pas conduit à une diminution significative des émissions de CO? ou de demande énergétique. Les progrès en matière d’efficacité énergétique ne tiennent pas compte des nouvelles habitudes de consommation et de l’effet rebond. De même, le développement des énergies renouvelables n’a pas conduit à une décarbonisation des infrastructures énergétiques car la demande énergétique augmente plus vite que le développement des sources d’énergie renouvelables. Pour Kris de Decker, cela souligne qu’il faut plus se concentrer sur le changement social. Si nous voulons que les politiques d’amélioration de l’efficacité énergétique et de décarbonisation soient efficaces, elles doivent être combinées à l’innovation sociale : d’où l’importance des politiques de changement de comportements !

Si les instruments du changement de comportement sont nombreux, ils relèvent pour la plupart de la carotte ou du bâton, quand ce n’est pas du sermon. Mais ces instruments (incitations économiques, normes et réglementations, information?) reposent sur une vision des individus comme des êtres rationnels : les gens s’engageraient dans un comportement pro-environnemental pour des raisons intéressées (parce que c’est agréable ou que cela leur fait économiser de l’argent) ou pour des raisons normatives. Mais nombres d’actions génèrent un conflit entre ces deux visions : le comportement pro-environnemental est souvent considéré comme moins rentable, moins agréable ou plus long, d’où parfois une inadéquation entre ce que les gens pensent et ce que les gens font réellement. Pour y répondre, on peut diminuer le coût des actions pro-environnementales ou augmenter le coût des actions nuisibles à la planète. Ou encore, renforcer les comportements normatifs.

Reste que les résultats de ces politiques de changement de comportement ont jusqu’à présent été plutôt limités et décevants. Le problème, estime Kris de Decker, c’est que ces politiques de changement comportemental sont basées sur le constat que ce que font les gens relève essentiellement d’une question de choix individuel. Mais, le fait que la plupart des gens mangent de la viande, conduisent des voitures ou sont connectés au réseau électrique n’est pas qu’une question de choix : les gens sont en fait enfermés dans des modes de vie insoutenables. Ce qu’ils font est conditionné, facilité et contraint par les normes sociales, les politiques publiques, les infrastructures, les technologies, le marché, la culture? En tant qu’individu, on peut par exemple acheter un vélo, mais nous ne pouvons pas développer l’infrastructure cyclable. Si les Danois ou les Néerlandais utilisent plus le vélo que d’autre, ce n’est pas tant parce qu’ils sont plus soucieux de l’environnement que d’autres, c’est d’abord parce qu’ils ont une excellente infrastructure cyclable, parce qu’il est socialement acceptable de se déplacer à vélo et parce que les automobilistes sont très respectueux des vélos et ce d’autant que l’automobiliste est toujours considéré comme responsable en cas d’accident, même si c’est le cycliste qui a commis une erreur. Or, sans cette infrastructure de soutien, on constate qu’il est plus difficile d’amener un grand nombre de personnes à pratiquer le vélo? De même, les particuliers n’ont pas le loisir de modifier les débits de l’internet ou de diminuer l’apport énergétique de la centrale électrique dont ils dépendent. « Si les individus peuvent faire des choix individuels pro-environnementaux basés sur leurs valeurs et attitudes, et inspirer les autres? ils n’ont pas la possibilité d’agir sur les structures qui facilitent ou limitent leurs options ». Les politiques comportementales renvoient les individus à leur responsabilité et culpabilité, exonérant les responsabilités politiques et économiques des institutions et des acteurs économiques, au risque de rendre ces politiques plus dissuasives qu’autre chose : les mangeurs de viande ou les automobilistes sont pointés du doigt sans qu’on interroge le système d’alimentation ou les infrastructures qui favorisent ces comportements. Mettre l’accent sur le changement de comportement individuel tient donc bien plus d’une position politique qu’autre chose.

Une autre façon de regarder les choses consiste donc à ne pas se focaliser sur les individus et leurs choix, mais sur l’organisation sociale des pratiques quotidiennes : comme la cuisine (par exemple, en luttant contre le fléau de déchets que génère les repas à emporter ou en réintroduisant des systèmes de consigne), le lavage, les déplacements… Cela signifie s’attaquer à la fois à ce qui rend par exemple la pratique automobile possible (voitures, routes, parkings, stations à essence?) et à leur signification sociale? L’action publique peut alors se déplacer, par exemple, les publicités automobiles promeuvent toutes la liberté individuelle et sont bien plus nombreuses que les promotions du cyclisme. De même, développer des routes cyclables ou limiter l’usage de la voiture est une autre action publique sur les infrastructures qui modifient la situation. Pour Kris de Decker, rien ne bougera si on n’adresse pas les problèmes de façon plus systémique qu’individuelle. « Les politiques de changement individuel ont les mêmes lacunes que les stratégies qui prônent l’efficacité ou l’innovation. Elles ne remettent pas en cause les infrastructures ou les conventions sociales qui ne sont pas soutenables ». Tout comme le recyclage des ordures ne remet pas en cause la production de déchets (voir, au contraire, le légitime), « les politiques de changement de comportement renforcent le statu quo ». L’innovation sociétale pertinente en terme de durabilité est celle qui s’installe de manière systémique dans tous les domaines du quotidien. Pour Kris de Decker, nous devons imaginer à quoi devrait ressembler la « nouvelle normalité » d’un monde durable au quotidien. Le changement social consiste à transformer ce que l’on considère comme normal. Nous y sommes plutôt bien parvenus en ce qui concerne la cigarette ou le port de la ceinture de sécurité, et ce très rapidement et même radicalement. Une politique durable et systémique nécessite de passer de « comment changer les comportements des individus » à « comment changer le fonctionnement de la société », ce qui conduit à des interventions radicalement différentes. C’est en changeant nos infrastructures de vies, les objectifs des institutions et des entreprises qui les façonnent, les conventions culturelles qui les sous-tendent que les comportements individuels changeront à leur tour ! Pas l’inverse.

  • La stratégie Océan Bleu : l?innovation peut-elle être méthodologique ?

Parmi, les grands succès des livres de management de ces dernières années, la Stratégie Océan Bleu (@blueoceanstrtgy) figure certainement en très bonne place. Publié en 2005 par les professeurs en stratégie Chan Kim et Renée Mauborgne, codirecteurs du Blue Ocean Strategy Institute et du Blue Ocean Global Network, les deux (...)

Parmi, les grands succès des livres de management de ces dernières années, la Stratégie Océan Bleu (@blueoceanstrtgy) figure certainement en très bonne place. Publié en 2005 par les professeurs en stratégie Chan Kim et Renée Mauborgne, codirecteurs du Blue Ocean Strategy Institute et du Blue Ocean Global Network, les deux spécialistes du management de l’Insead ont assurément teinté de bleu bien des projets de produits et de services depuis. La publication d?un nouveau livre, Blue Ocean Shift (déjà disponible en traduction française sous le titre Cap sur l’Océan Bleu : au-delà de la concurrence), propose une mise à jour de la méthode par le retour de ceux qu?elle a transformée, Renée Mauborgne, et qui a longtemps vécu en France, était invitée sur la scène des conférences USI pour en exposer les principaux enseignements.

Basculer dans l?Océan Bleu consiste à construire une stratégie de développement pour dépasser la compétition, pour passer de marchés extrêmes, très concurrentiels, à des marchés ouverts et en pleine croissance. « Pensez à la vente au détail, aux rues pleines de touristes, où les magasins ferment aussi vite qu?ils ouvrent. Le marché de la vente est sans pitié aujourd?hui. Même les plus puissants, comme les chaînes, peuvent faire banqueroute du jour au lendemain. » Il est difficile de naviguer dans des marchés très concurrentiels, ces océans rouges, certainement de la couleur du sang de leurs victimes dépecées par les requins qui s?y ébattent. D?où l?enjeu à les dépasser, à passer à des marchés plus ouverts, des Océans Bleus, comme de nouveaux horizons à conquérir. « Ce livre donne les outils pour passer du rouge au bleu et réussir votre transition », explique posément Renée Mauborgne en assumant le service commercial de son ouvrage et de sa méthode. « Le problème des océans rouges est que trop souvent l?offre est plus élevée que la demande ». Les concurrents se battent donc pour des miettes. L?enjeu stratégique du management est de développer de nouveaux marchés où s?épanouir, passer d?un marché contraint de concurrence, à un marché ouvert et abondant. Et bien sûr, y amener ses équipes pour qu?elles aussi accomplissent le « shift », le déplacement, la bascule, le changement de mentalité.

Renée Mauborgne souhaite rester concrète. Elle prend donc un des exemples dont elle discute longuement dans son livre. Elle montre au public une image un peu floue de bâtiments dans la jungle. Une base militaire ou une prison. En fait, c?est une base militaire de Malaisie reconvertie en prison. Le marché carcéral est-il efficace ? Pas aux États-Unis, assure la spécialiste du management. Depuis les années 80, la Californie a construit une vingtaine de prisons qui ont coûté plusieurs milliards et dont le taux de récidive est de plus de 60 %. « C?est de très mauvais résultats ». Quand le gouvernement de la Malaisie a adressé ce défi en 2010, il a pensé qu?il fallait changer de stratégie pour sortir du cycle délétère du marché carcéral, consistant à construire toujours plus de prisons dont on maximise l?utilisation en délaissant la réhabilitation. Le marché très concurrentiel des prisons n?était pas efficace. Renée Mauborgne a fait travailler ensemble plusieurs ministères pour créer une solution créative. L?idée a été de récupérer des bases militaires désaffectées pour les reconvertir en prison à moindre coût et à développer un programme de réhabilitation avec le ministère de l?Éducation permettant aux prisonniers de produire des produits agricoles, de gagner de l?argent, de recevoir des formations diplômantes, etc. En deux ans, les premières prisons ont vu le jour. Leur taux de récidive est très bas. Ces prisons sont moins chères à construire et moins chères en fonctionnement. Formés, payés, les prisonniers malais ont une seconde chance désormais à leur sortie de prison. Ce qui est loin d?être le cas partout ailleurs.

« Tout le monde me dit toujours? quand je termine une conférence? que, même si ça a marché pour eux, ça ne marchera pas pour moi. » Les gens pensent que leurs difficultés sont trop fortes, trop spécifiques. « Mais si ça a marché pour les prisons, pour qui cela ne marcherait pas ? », rassure Renée Mauborgne. « Il faut arrêter de s?inventer des excuses ». Le programme de réhabilitation communautaire de Malaisie a choisi de redéfinir les frontières, de transformer les conditions carcérales d?incarcération et de réhabilitation? preuve que beaucoup de « déplacements » sont possibles.


Image : Renée Mauborgne sur la scène d’USI, via USIevents.

Innover : c?est créer, pas disrupter !

la frontière de la productivité« Trop souvent, la stratégie d?une entreprise est la même que celle de ses concurrents ». C?est ce que Renée Mauborgne appelle la « frontière de la productivité ». Dans un marché compétitif, on ne se différencie de ses concurrents ou par un coût faible ou par une valeur pour l?acheteur forte. La frontière d?un marché représente la somme totale de ses meilleures pratiques. Dans un marché concurrentiel, la différenciation entre acteurs se joue donc sur le coût du produit ou la valeur pour l?acheteur. Pour réussir, une entreprise doit donc créer une rupture sur l?un de ces deux éléments : soit en proposant un produit moins cher, soit en proposant une valeur perçue plus élevée. « Le problème est que tous les concurrents fonctionnent depuis les mêmes postulats ! »

Mais créer un Océan Bleu, c?est faire tout à fait autre chose. Cela consiste à « rendre la concurrence non pertinente ». Pour Renée Mauborgne, les exemples sont innombrables : de JC Decaux qui a intégré la publicité aux arrêts de bus transformant le marché de la publicité urbaine, au Compte Nickel, qui a créé un espace bancaire qui n?existait pas?

« Souvent, on parle de disruption pour qualifier ces transformations », mais toutes les innovations n?en relèvent pas. Comme elle l?explique dans son livre, il faut distinguer la « création destructive », où une innovation déplace une technologie ou un produit précédent, comme la photographie numérique l?a fait à la photographie analogique. De la « disruption » où une innovation arrive avec une technologie « inférieure », plus simple ou moins performante, pour déplacer le marché. Mais parfois, l?innovation ne consiste pas en un déplacement, mais en une création « non disruptive » : il s?agit de créer de nouveaux marchés là où il n?y en avait pas. C?est le cas du marché des sonneries de téléphone, de la microfinance ou du viagra par exemple? Tous ont créé des marchés qui n?existaient pas. Dans le passage vers l?Océan Bleu, l?enjeu n?est pas de détruire, de bouleverser, de disrupter, mais au contraire de créer d?une manière non disruptive. Comme elle le précise dans son livre d?ailleurs, l?enjeu est de prêter attention à la valeur de l?innovation plus qu?à l?innovation technologique en tant que telle.

Renée Mauborgne rappelle que ses recherches ont commencé dans les années 80, dans le Michigan, où l’industrie automobile entrait en crise à l’heure de la concurrence japonaise. Les métiers industriels disparaissaient, l’âge d’or des États-Unis était derrière nous. Elle s’est intéressée alors aux organisations qui parvenaient à résister à la crise, et que pour y parvenir, celles-ci parvenaient le plus souvent à changer d’état d’esprit pour trouver une autre approche, de nouveaux clients ou marchés. « Les gens, dans leur travail, préfèrent créer des projets que gérer des situations de concurrence. Or, dans leur travail, ils passent leur temps à être en concurrence. Ils font l’opposé de ce qu’ils veulent et doivent faire. » Cela s’explique beaucoup par le fait qu’ils disposent d’outils pour tenter de gérer cette concurrence, plus que d’outils pour trouver de nouveaux clients, pour créer de nouveaux produits. Pour elle, la méthode Océan Bleu offre des outils et une feuille de route intellectuelle pour changer. « Ce ne sont pas les robots qui vont nous aider à changer ». Ce voyage doit se dérouler selon 5 étapes : tout d’abord avoir la bonne équipe pour réaliser ce déplacement conceptuel. Cette bonne équipe ne consiste pas nécessairement rassembler des gens volontaires et obéissants, au contraire, précise-t-elle. « La personne qui se plaint le plus est bien souvent celle qui a le mieux compris ce qui ne marche pas. C’est elle qui est capable de vous aider à trouver votre espace d’opportunité ». La seconde étape consiste à analyser clairement la situation. « Beaucoup d’organisations pensent que le monde est responsable de leur problème », plutôt que de regarder leurs lacunes et leurs erreurs. Cela suppose de prendre le temps d’analyser l’état du marché, ses forces et faiblesses, pour transformer les points faibles en opportunité, analyser clairement qui pourrait devenir de nouveaux clients et à quelles conditions? L’étape suivante consiste à reconstruire des frontières de marché, c’est-à-dire regarder concrètement comment aller vers ces nouvelles opportunités de marché en analysant l’environnement qui le compose pour y trouver de nouvelles possibilités de développement. Enfin, la dernière étape consiste à initier concrètement les changements. Et ce n’est pas nécessairement l’étape la plus facile.

La cartographie d'utilité de SEB pour réinventer la friteuseRenée Mauborgne prend l’exemple du groupe SEB, le groupe français spécialiste du petit électroménager qui a initié une stratégie Océan Bleu, il y a quelques années autour de la question des friteuses. Le marché des friteuses, à l’époque, était un marché sur le déclin. Seb était concurrencé par de nouveaux concurrents qui proposaient des produits d’importation beaucoup moins chers. Leur premier travail a été de se rendre compte que leur stratégie était la même que tous leurs concurrents. L’étape suivante a été alors de comprendre pourquoi les clients délaissaient les friteuses. Via un simple outil de cartographie d’utilité, permettant de pointer les points de frictions pour les clients, ils se sont rendu compte que la baisse du marché était liée aux caractéristiques des friteuses produites tant par Seb que par ses concurrents. Pour les utilisateurs, la friteuse coûte cher en huile, est difficile à nettoyer, dangereuse, sent mauvais? et on se retrouve avec de l’huile usagée dont on ne sait pas que faire. Les frites sont grasses et les faire depuis une friteuse, c’est compliqué. Tout l’enjeu a été donc pour Seb de se demander comment lever ces points bloquants. Pouvait-on proposer une friteuse qui n’ait aucune de ses contraintes ? C’est ainsi qu’ils ont créé le système ActiFry, une friteuse qui ne nécessite qu’une cuillère d’huile, facile à nettoyer, pas dangereuse, proposant des frites moins grasses? Ils ont inventé une machine plus saine. Seb est le leader de ce segment. Leur part de marché est en forte progression. Et ils ont même convaincu Oprah Winfrey de se remettre aux frites qu’elle avait arrêté de manger?

L’exemple est simple. Parlant. Pour Renée Mauborgne, il montre que le processus d’analyse proposé par la méthode porte ses fruits. Les outils méthodologiques d’analyse du marché, des besoins des clients sont utiles. « Ce processus permet à chacun de se rendre compte qu’on peut être bien plus créatif qu’on le pense et qu’on peut transformer cette créativité en opportunité ».

« Les gens ont besoin d’outils et de processus pour être encouragés à être créatifs, alors que l’essentiel de leurs outils ne les aide pas à cela. Beaucoup sont convaincus que c’est plus compliqué pour eux que pour les autres, notamment parce qu’ils ne savent pas comment s’y prendre. Croyez-vous que dans 5 à 10 ans, le marché de votre organisation va changer radicalement ? Oui, sans aucun doute répondent tous ceux qu’on interroge. Si quelqu’un va le faire changer, alors pourquoi ce ne serait-ce pas vous ? Vous pouvez le faire dès à présent. Ce n’est pas la peine d’attendre », conclut l’évangélisatrice de l’Océan Bleu, avant d’inviter le public à aller voir les prix des stratégies Océan Bleu, qui récompense depuis 2014 les meilleures stratégies de transformation d’organisations.

Magique, l’Océan Bleu ?

Bon, Renée Mauborgne fait sur scène ce qu’on attend d’elle. Elle déroule sa méthode. La nourri d’exemples simples, concrets et stimulants. Mais elle évite soigneusement d’interroger les critiques qu’a connus la méthode. Si beaucoup de spécialistes la présentent comme efficace et stimulante, elle a aussi connu des échecs. Or, à parler des succès, Renée Mauborge oublie d’évoquer les cas où le changement n’advient pas. La méthode a été également critiquée sur le fait que l’avantage stratégique qu’elle confère n’est pas nécessairement durable. La Wii de Nintendo avait bien créé une rupture dans le marché du jeu vidéo en proposant une autre expérience, mais la concurrence a réagi et la Wii U, son successeur n’a pas du tout rencontré le même succès, souligne Jean-Pierre Leac dans les Cahiers de l’innovation. Comme le pointait un autre spécialiste de stratégie des organisations, Philip Rosenzweig, l’un des premiers critiques de la méthode : si on n’interroge que les gagnants, jouer au loto devient une méthode tout à fait valable pour gagner de l’argent ! D’autres, comme Philippe Silberzahn, pointent que trouver un nouveau segment de clientèle est souvent plus le fruit d’une évolution continue d’un produit ou concept que le résultat d’une grande planification. Ou que créer un marché ne signifie pas qu’on le dominera : personne ne connaît plus les inventeurs des premiers lecteurs MP3, mais tout le monde se souvient de l’iPod venu pourtant quelques années plus tard. Pour Benoît Sarazin enfin, la méthode passe également sous silence les phénomènes de résistance à l’adoption. Vous pouvez tout à fait proposer un nouveau produit qui ne séduira personne et ce d’autant que d’autres solutions très différentes existent… à l’exemple des frites surgelées à cuire au four?

Bref, la grande force de l’Océan Bleu consiste, comme toujours, de proposer une méthode, avec, comme toute méthode de management stratégique, ses limites et aussi ses promesses. Et une méthode est toujours un levier pour naviguer dans les incertitudes d’un monde des affaires par définition sans cesse changeant, sans cesse mouvant? où chacun fait semblant de ne pas toujours avancer à tâtons au moins pour avoir l’air plus professionnel.

Hubert Guillaud

  • Comment construire des technologies avec les sciences comportementales ?

Dan Ariely (Wikipédia, @danariely) est un habitué de la grande scène des conférences USI qui se tenaient à Paris fin juin. Il était déjà là l’année dernière. Ce professeur de psychologie et d’économie comportementale, fondateur du Center for Advanced Hindsight est l’un des penseurs de l’économie comportementale, avec Richard Thaler (...)

Dan Ariely (Wikipédia, @danariely) est un habitué de la grande scène des conférences USI qui se tenaient à Paris fin juin. Il était déjà là l’année dernière. Ce professeur de psychologie et d’économie comportementale, fondateur du Center for Advanced Hindsight est l’un des penseurs de l’économie comportementale, avec Richard Thaler et Cass Sunstein (voir notre dossier de 2010 et sa mise à jour en 2017). Auteur de nombreux livres sur la psychologie comportementale (le dernier publié en novembre 2017 s’intéresse à notre mécompréhension de l’argent), le chercheur s’est également investi dans le développement de nombreux services et produits pour les repenser depuis les enseignements de l’économie comportementale.

« Les sciences sociales sont indispensables pour concevoir les choses », attaque le professeur sur la grande scène de l’USI, rappelant par là aux ingénieurs présents que leur vision et leur compréhension du monde sont profondément incomplètes et bien souvent inadaptées. Pour le démontrer, il va prendre un exemple simple et particulièrement éclairant : la question des régimes alimentaires. « On ne sait pas très bien comment aider les gens à perdre du poids ». Pourtant, les méthodes de régimes aujourd’hui sont partout. Multiples, innombrables, nous sommes cernés d’injonctions à maigrir, effectivement bien souvent parce que nous sommes trop gros ou que nous nous nourrissons mal ou que nous ne nous dépensons pas assez. Nombre d’entre nous pensent qu’il suffit de dire aux gens de perdre du poids pour qu’ils s’y mettent. Certains pensent qu’il faut améliorer l’information nutritionnelle? D’autres qu’il suffit de faire du sport? Mais toutes ces méthodes, toutes ces injonctions marchent assez mal et elles ne suffisent pas à nous faire prendre de bonnes habitudes et à être attentif à soi.


Image : Dan Ariely sur la scène d’USI, via @usievents.

La précision n’est pas toujours la meilleure information

« Dans la vie quotidienne, on ne pense pas souvent à sa santé. On y pense souvent en réaction à ce qui nous arrive. En fait, au quotidien, on n’y pense qu’à deux moments dans la journée : quand on se brosse les dents et quand on monte sur sa balance. »

Que savons-nous des balances ? On sait qu’il vaut mieux se peser le matin que le soir, non pas tant parce que le soir on pèse souvent un peu plus lourd (nous avons tous des fluctuations de poids dans la journée), mais parce que monter sur sa balance le matin nous rappelle que nous voulons être en bonne santé, alors que quand on le fait le soir, on s’endort et on n’y pense plus au matin. Le matin, monter sur sa balance agit comme un acte de renforcement, d’engagement, qui nous rappelle nos objectifs, à savoir qu’on veut rester en bonne santé. Reste que peu de gens aiment à monter sur leur balance le matin, car bien souvent, elle apporte une mauvaise nouvelle. En fait, quand les gens font des efforts pour manger moins ou plus équilibrés, ils s’attendent à ce que leur poids change très vite. On ne mange rien de la journée, et on espère que notre poids va réagir en conséquence. Or, en réalité, le corps met entre 8 et 15 jours à réagir. Il fonctionne autrement que notre motivation. « Bien souvent, on fait un effort, et puis on constate que ça n’a pas eu d’effet. On est déçu. On se démotive et on se remet à manger? » Personne n’aime monter sur une balance. Et tout le monde souhaite des résultats immédiats. Comment surmonter ces problèmes ? Peut-on concevoir une balance qui permettrait d’améliorer cela ?

la balance MyShapa et son applicationC’est ce à quoi a travaillé Dan Ariely avec MyShapa. MyShapa est une balance sans chiffre dotée d’une application. Plutôt que de donner une mesure précise ou ultra-précise comme le font la plupart des balances numériques, au risque de montrer les fluctuations de poids (et donc un gain de poids), MyShapa vous invite chaque jour à monter sur sa balance sans écran, pour vous rappeler votre engagement de prendre soin de votre santé. La balance calcule une moyenne de votre poids sur 3 semaines. Le but est ainsi de lisser votre poids pour que les fluctuations naturelles et quotidiennes ne viennent pas vous démotiver dans votre effort. L’application d’ailleurs ne vous donne jamais votre poids en kilo, elle vous donne une note de 1 à 5, pour vous aider à accomplir votre effort. « L’enjeu n’est pas de donner le plus d’information possible et précise en temps réel comme on le croit trop souvent, mais au contraire de traiter les informations pour vous aider à poursuivre vos objectifs, de saisir les liens de cause à effet. » Par exemple, lorsque les femmes ont leurs règles, elles ont tendance à boire plus d’eau et donc à prendre un peu de poids : d’où l’importance de lisser ce moment dans le temps, car si la prise de poids est démotivante, elle n’a ici qu’une incidence contextuelle (que la balance est capable de prendre en compte). En passant du poids à une indication de comportement qui vous indique vos progrès MyShapa semble une balance qui ment. En fait, elle est conçue pour encourager ceux qui font des efforts. Elle propose ainsi des missions à ses utilisateurs (marche, recettes de cuisine?) et encourage ceux qui l’utilisent sur une base journalière à tenir leurs engagements (voir la vidéo promotionnelle qui explique très bien le fonctionnement de la balance).

Les développeurs de MyShapa ont bien sûr testé leur solution. Alors qu’en 12 semaines, les personnes qui utilisent une balance normale ont tendance à perdre jusqu’à 0,78 % de leur poids ou gagner 1,22 %, les utilisateurs de Shapa ont perdu entre 0,88 % et 0,40 % de leur poids. En moyenne ils ont perdu un peu plus de 2Kg en 12 semaines. Mais surtout, insiste Ariely, les utilisateurs estiment que leur décision en matière de santé s’était améliorée. Bon, me direz-vous, vous aurez peut-être l’impression de recevoir là un très bon discours promotionnel pour un nouveau produit? Reste qu’adapter l’information à nos biais psychologiques et cognitifs comme le propose très concrètement cette balance est un intéressant renversement de paradigme. « Les balances numériques nous ont tracé avec trop de précision. Apporter plus d’information par rapport aux vieilles balances mécaniques à aiguilles était une erreur. Connaître les choses précisément ne signifie pas toujours mieux les connaître », pointe Ariely en nous invitant à concevoir l’information autrement pour qu’elle soit meilleure pour nous, plus adaptée à nos comportements.

Pour Dan Ariely cette approche pourrait bénéficier à bien d’autres appareils, notamment dans le domaine de la santé (et certainement bien au-delà). Retenons en tout cas que la précision, l’exactitude ou la transparence, ne sont pas toujours la meilleure façon de présenter les choses, bien au contraire. Les métriques produites en temps réel, comme nous le proposent nos produits numériques, célèbrent une forme d’engagement continu et immédiat, mais ne produisent pas pour autant les effets escomptés. Comme il le confiait à Wired, en critiquant les applications de mesure de soi : « en apportant aux gens plus de granularité, nous rendons l’information moins utile » C’est là des constats souvent pointés, mais qui demandent une autre approche pour être transformés. C’est la force de la démonstration d’Ariely : nous inviter à faire un pas de côté pour sortir de la précision angoissante des mesures produites uniquement parce qu’elles sont possibles. Et chercher d’autres solutions que les plus faciles.

Aligner les intérêts des parties prenantes

Dan Ariely est impliqué dans bien d’autres entreprises. Il s’est notamment beaucoup intéressé à la valeur de la confiance? Or, la confiance est une notion fragile. « On apprécie sa valeur quand on la perd ». Il présente à sa démonstration plusieurs petits jeux réalisés par des chercheurs pour tenter d’observer ce qui motive la confiance. L’un des plus connus est le « jeu des biens publics » (qu’il présentait déjà en 2016 à un TEDx). Prenons 10 personnes à qui l’on donne chaque matin 10 dollars. Ils peuvent garder cet argent pour eux-mêmes ou peuvent mettre cet argent dans un pot commun. L’argent mis dans le pot commun se multiplie chaque jour par 5 et est redistribué équitablement entre les 10 participants. Le premier jour, tout le monde met au pot commun et à la fin de la journée chacun a gagné 50 dollars. « Voilà une bonne société ! Tout le monde contribue au bien commun, le bien commun s’accroît et tout le monde en bénéficie ! » Mais un jour, un des participants ne contribue pas. Chacun gagne donc 45 dollars à la fin de journée, mais celui qui a trahi la confiance, lui a gagné 10 dollars de plus, les 10 dollars qu’il n’a pas mis au pot. Il a donc été récompensé de sa traîtrise. Le problème, c’est que le jour suivant, plus personne ne veut plus contribuer. Le jeu du bien public est un jeu à deux situations d’équilibre : soit tout le monde contribue et gagne, soit personne ne participe. « C’est un jeu qui favorise des positions extrêmes, sans situations intermédiaires, où l’optimum est extrêmement fragile ». Il suffit qu’une personne rompe la confiance et tout s’effondre. Et la situation n’est pas symétrique : une fois que la confiance est perdue, la rétablir est très difficile. Alors que le déséquilibre, lui, est très facile à atteindre. Ce jeu est une parabole de la confiance en société estime Ariely. La confiance est un bien commun si tout le monde y contribue? Et la difficulté est de trouver des mécanismes pour l’augmenter ou la développer tant elle est fragile.

L'interface de Lemonade, l'assureur chatbotLe monde de l’assurance devrait reposer sur la confiance. Mais ce n’est pas le cas. Les assurés paient des cotisations et, lors d’un sinistre, souhaitent être remboursés. Or, l’assureur n’a aucun intérêt à le faire. Le client est donc incité à tricher, l’assureur le sait et développe des méthodes de surveillance, de défiance, de contrôle rendant les règles de plus en plus complexes. « Quand les gens de Lemonade sont venu me trouver pour construire une compagnie d’assurance numérique, je leur ai dit que j’y participerais si on parvenait à éliminer le conflit d’intérêts et à générer de la confiance », explique le chercheur. Lemonade y est parvenu en faisant entrer un tiers dans le système, pour changer le modèle d’affaire de l’assurance. Dans le monde de l’assurance, chaque dollar qu’on vous rembourse est un dollar de moins pour les profits de l’entreprise. D’où le conflit d’intérêts profond que l’assureur a quand il vous arrive quelque chose. Lemonade prend un forfait fixe sur le montant de votre assurance et c’est tout. Les sommes collectées, elles, appartiennent collectivement aux assurés et les bénéfices sont reversés annuellement à des oeuvres de bienfaisance au choix de l’assuré. Cela incite les assurés à ne réclamer que leurs dus. Lemonade rembourse plus vite et plus facilement. Ce que vous récupérez, c’est ce qui ira en moins à l’oeuvre de bienfaisance bénéficiaire. Pour les inventeurs de Lemonade, c’est une entreprise à bénéfice public qui ne se rémunère pas en retardant ou en refusant un remboursement. Leur impact social est construit par leur modèle économique. En fait, souligne Ariely, quand on triche sur Lemonade pour obtenir un remboursement plus élevé? c’est au détriment de l’oeuvre de bienfaisance qu’on soutient. Pour Ariely, l’un des exemples qu’il aime à évoquer est l’histoire de Jim, client de Lemonade qui demande un remboursement pour un ordinateur qu’on lui a volé. Quelque temps après avoir reçu son remboursement, il a contacté Lemonade pour demander à ce qu’on le dérembourse parce qu’il avait retrouvé son ordinateur. D’autres histoires de ce type ont été rapportées, comme quelqu’un qui a remboursé un trop-perçu, car la facture de son plombier a finalement été moins élevée que prévu. Pour Ariely, ces exemples soulignent la valeur de confiance que la pépite de la technologie des assurances est parvenue à créer.

Le modèle économique de Lemonade n’est pas sa seule particularité, même si Ariely ne détaille pas les autres aspects. La startup emblématique du monde de l’assurance fonctionne avec force algorithmes, chatbots et IA pour fournir des contrats depuis une simple application et gérer les réclamations d’une manière automatique. Toute demande de remboursement est ainsi inspectée par des algorithmes de détection des fraudes en quelques minutes et un remboursement est le plus souvent déclenché automatiquement en quelques secondes. Lemonade n’assure pas tous les sinistres : elle est spécialisée pour l’instant dans l’assurance domestique, habitation et locative. Les innovations de la startup interrogent à la fois les modèles et critères que Lemonade prend en compte pour accepter de nouveaux clients (beaucoup de primoassurés, c’est-à-dire de gens n’ayant jamais souscrit d’assurances) ainsi que ses méthodes pour remplacer les gestionnaires de sinistres par des calculs (faisant peser de sombres perspectives sur le marché de l’emploi dans le secteur de l’assurance). Depuis les calculs qu’ils produisent, les fondateurs de Lemonade ont récemment décidé de supprimer les franchises et produit un contrat simplifié open source. Reste que, malgré toutes les explications disponibles sur le blog de l’entreprise, le fonctionnement technique de Lemonade demeure discret. Sur quels indices et critères leur IA décide-t-elle d’un remboursement ? Utilise-t-elle des techniques de reconnaissance faciale pour détecter si ses assurés mentent dans les vidéos qu’ils doivent produire pour déclarer un sinistre et réclamer un remboursement ? On ne sait pas. En tout cas, l’innovation chez Lemonade n’est pas circonscrite au modèle économique qu’expose Dan Ariely, ce qui en fait un service innovant sur bien des points.

Plusieurs mécanismes permettent d’augmenter la confiance, rappelle encore Ariely. Les relations à long terme, la réputation et la transparence, la vengeance… et plus encore, la construction d’intérêts alignés, à l’exemple du modèle de Lemonade.

Et le professeur de conclure : « Nous avons inventé la lumière pour lutter contre la nuit. Nous nous sommes construit des béquilles technologiques pour nous comporter comme des surhommes. Aujourd’hui, notre monde mental est devenu très complexe. Il nous faut désormais gérer beaucoup de complexité pour vivre plus longtemps et nos décisions sont devenues bien plus difficiles à prendre. D’où l’importance de construire des moyens pour avoir des prises sur le monde mental que nous avons construit. Il nous faut désormais travailler à construire des outils cognitifs, c’est-à-dire des outils qui nous aident à naviguer dans la complexité du monde mental qui est le nôtre. »

Lemonade ou MyShapa sont en tout cas deux produits emblématiques de l’application des théories de l’économie comportementale aux services. Et leurs modalités de différenciation sont assurément inspirantes.

Hubert Guillaud

  • Le dernier message de John Perry Barlow (2/2) : un penseur de la noosphère

Malgré leur intérêt historique, il faut bien reconnaître que les mémoires de Barlow nous laissent parfois sur notre faim (voir la première partie de notre compte-rendu de son livre posthume). Côté psychédélique ? On apprend que Barlow a fait la connaissance de Timothy Leary (autre grande icône du psychédélisme passée à (...)

Malgré leur intérêt historique, il faut bien reconnaître que les mémoires de Barlow nous laissent parfois sur notre faim (voir la première partie de notre compte-rendu de son livre posthume).

Côté psychédélique ? On apprend que Barlow a fait la connaissance de Timothy Leary (autre grande icône du psychédélisme passée à la cyberculture) dès 1967, qu’il lui a même présenté les membres du Dead. Mais il ne le reverra pas avant les années 90, et Leary n?apparaît que peu dans les mémoires.

Le Dead ? Oui, il a été le parolier de Bob Weir. Mais quiconque voudrait en savoir plus sur la vie au sein du groupe, voire sur l’histoire du Haight Ashbury et des hippies en général en sera pour ses frais. Peu de choses là-dessus. La plupart du temps, Barlow était dans le Wyoming ou à New York, loin du San Francisco de ses amis. Ses relations avec John Kennedy Jr. ? Un jour, Jackie Onassis lui téléphone, sur les conseils d’amis, pour obtenir pour son fils John un stage dans un ranch? Anecdotique.

L’énigmatique John Barlow


On a parfois l’impression à la lecture que Barlow est un simple spectateur, qui a croisé beaucoup de monde, mais qui finalement a joué un rôle mineur. C’est bien évidemment faux. Actif, influent, il l’a été. Pas seulement au niveau collectif avec la création de l’EFF et sa défense des libertés numériques. Mais aussi au niveau individuel, par les vocations qu’il a suscitées. Il raconte ainsi vers la fin de son bouquin, qu’il fit une intervention dans un collège en 1996, dans une classe où se trouvait le jeune Aaron Swartz, alors âgé de 10 ans. Pour mémoire, ce jeune activiste est connu pour avoir été persécuté par la justice américaine parce qu’il avait téléchargé et diffusé des articles scientifiques sous copyright. Risquant une peine de prison de 35 ans et une amende d’un million de dollars, il a préféré mettre fin à ses jours.

Lorsqu?en 2013, Aaron Swartz fit son entrée à titre posthume dans l’Internet Hall of Fame (en même temps que Barlow) ce dernier demanda au père du jeune homme s’il lui avait parlé de cette rencontre près de 20 ans plus tôt. Le père lui répondit : « sa vie a été différente à partir de ce jour ».

Son adhésion aux Républicains est également peu détaillée. Un Républicain psychédélique, opposé à la guerre du Vietnam, au nucléaire, à la guerre du Golfe ? Certes, Barlow n’est pas le seul Républicain issu de la contre-culture. L’acteur Dennis Hopper en est un autre exemple fameux. Mais on ne trouvera pas de justification de cet engagement dans son livre. Tout juste sait-on qu’à son retour d’Inde, Barlow transportera dans ses bagages une tête de Bouddha remplie de cannabis, un test pour savoir définitivement s’il « est un hors-la-loi ou Républicain ». Une formule qui éclaire peu, mais qui montre son ambiguïté quant à sa famille politique. Sans doute peut-on expliquer sa sympathie pour le parti à l?éléphant par son individualisme forcené, et par le fait que finalement, Barlow soit resté toute sa vie un cow-boy ; ou plus exactement un éleveur, un « cow-man » un « cow-boy de la haute », comme lui ont expliqué ses parents (« John Perry, un cow-boy travaille pour un salaire. Un cow-man est quelqu’un qui possède un ranch. C’est cela que tu veux être.« ).

D’où l’importance chez lui du mythe de la frontière, que partagent tant les Deadheads que les premiers adeptes du Réseau. John Barlow, le rancher entouré de cow-boys, est né et a vécu dans un western. Une fascination de l’Ouest qu’on retrouve constamment dans les paroles du Dead (paradoxalement, davantage dans celles écrites par Robert Hunter, l’autre parolier, que chez Barlow lui-même), mais qui est aussi ultra-présente dans la déclaration d’indépendance du cyberespace. Leary, nous raconte Barlow, avait coutume de le décrire comme l?américain archétypal, le présentant ainsi à ses amis : « voilà John Barlow, c’est un Américain ».

Quel héritage ?


Reste la question de son héritage. Que reste-t-il de sa déclaration d?indépendance du cyberespace, de son slogan « l’information veut être libre » (libre prenant aussi le sens de gratuit) ?

Il est évident qu?aujourd?hui avec les atteintes à la vie privée opérée par les entreprises, le rêve d’un internet anarchiste, complètement dérégulé, a pris un sacré coup de plomb dans l’aile. Un reproche que certains n?hésitent pas à faire à Barlow, par exemple l’écrivain Jesse Jarnow, auteur d’une biographie du mouvement psychédélique, dans Wired :

« Ses idées sur l’économie politique pouvaient parfois être classiquement proches du marché libre, mais elles étaient presque toujours exprimées avec une verve barlowienne. « La nature est un système de marché libre », écrivait Barlow en 1998. « Une forêt tropicale est une économie non planifiée, tout comme un récif de corail. La différence entre une économie qui trie l’information et l’énergie sous la forme de photons et une qui convertit l’information et l’énergie en dollars est légère dans mon esprit. L’économie est l’écologie. » Peut-être, mais il est également difficile de nier que la Grande Barrière de Corail aurait pu aller mieux grâce une intervention de type New Deal.

Cependant il me paraît difficile de classifier Barlow comme simplement un « libertarien ». Je ne me souviens pas – mais il faudrait éplucher l?ensemble de ses écrits -, qu’il se soit engagé en quelque manière contre les aides sociales et les droits du travailleur, deux revendications centrales des libertariens américains. Le terme – également américain – de « libertarien civil » lui conviendrait sans doute mieux.

Sans doute la situation est-elle compliquée par le fait qu’il n’existe en anglais qu’un seul mot pour libertarian – libertarien regroupant à la fois une croyance en la valeur du marché et dans les droits fondamentaux de l’individu, là où, en France nous distinguons « libertaire » et « libertarien ». Les abonnés du Monde libertaire sont rarement capitalistes ! Ce genre d’ambiguïtés de langage est un excellent exercice de méditation pour les adeptes de l’hypothèse Sapir-Whorf.

Son opposition au système du copyright, sa défense inconditionnelle de la liberté de l’information, est l’exemple de l’expression d’une position politique qui ne peut simplement être associée au capitalisme traditionnel. Une idée qui lui vient largement de ses années en compagnie du Grateful Dead. Contrairement à la plupart des autres musiciens, le Dead a toujours autorisé l’enregistrement de ses concerts, à la condition expresse que ces bandes (puis plus tard, ces fichiers) ne soient pas commercialement vendues, mais échangées gracieusement. Au final, le Dead, qui au cours de ses 30 années de carrière, a finalement assez peu enregistré d’albums en studio, dispose en fait d’une copieuse bibliothèques de concerts disponibles aujourd’hui sur le Net, que ce soit sur YouTube ou sur sugarmegs.org (hébergé par archive.org).

Une vision métaphysique


Si la déclaration d?indépendance du cyberespace peut sembler datée aujourd’hui, elle n’en constitue pas moins une vision qui a structuré le Net pendant ses premières années. Vision à corriger, à critiquer sans doute, mais vision tout de même : qu’on le veuille ou non, toute notre façon de penser le réseau, de la Wikipedia au logiciel libre en passant par les notions plus abstraites d’intelligence collective et de « participation », doivent beaucoup à l’esprit des années 90, pas seulement à Barlow mais à l’ensemble des promoteurs de la pensée hacker, comme R.U Sirius et la rédaction de Mondo 2000, ou John Gilmore, Richard Stallman ou Eric Raymond

Y a-t-il d’autres visions prêtes à prendre la succession ? D’autant plus que le besoin légitime de régulation de la Toile qui s’est fait jour ces dernières années n’a pas tardé à servir de prétexte à une nouvelle mainmise des États sur la libre expression du réseau, ainsi qu’on a pu le constater ces tout derniers jours, avec une loi sur les fake news, qui, tout en partant d’un bon sentiment, met en danger la liberté de la presse, ou, plus dangereux encore, les nouvelles lois sur le copyright actuellement discutées par la communauté européenne.

Et j?insiste sur le terme « vision » : le cyberespace libre, dans l’esprit d?un Barlow, appartient moins à la sphère de l’homo economicus (un concept que Gregory Bateson qualifiait de « la plus ennuyeuse des inventions »), qu’à celle de la métaphysique.

« Il existe très peu de choses dans ma vie qui n’ait pas été une forme d’exploration spirituelle », explique Barlow dans ses mémoires. Si Barlow se passionne pour l’internet, c’est bel et bien, parce que dès qu?il le découvre, il en entrevoit les possibilités philosophiques : « Ce qui était plus intéressant pour moi, c’était Internet lui-même. Immédiatement, il devint clair pour moi que c’était le système nerveux de la noosphère – une sphère hypothétique dominée par la conscience, l’esprit et les relations interpersonnelles – à laquelle je pensais depuis que j’en avais rencontré la notion dans les ?uvres du père Pierre Teilhard de Chardin pendant mon passage à l’université » (Barlow a un diplôme de religions comparées).

Barlow n’est pas le seul a faire le lien entre la noosphère de de Chardin et le Net : c?était presque un lieu commun dans les milieux cyber des années 90 (il existe un essai d?Eric Raymond, le père de l’open source qui s’intitule « s’établir dans la noosphère« ), mais je ne serai pas surpris que Barlow ait été le premier à établir cette comparaison).

Bien que Barlow n’ait jamais eu d?intérêt pour le transhumanisme (si l’on en croit ses mémoires, il aurait été celui qui a fini par convaincre Timothy Leary de renoncer à se faire cryogéniser ; même si, à mon avis, le fait que Leary se soit fait virer par sa compagnie de cryonique a aussi joué fortement !), on trouve chez lui cette idée de l’uploading, cette croyance à la possibilité du téléchargement de l’esprit dans un ordinateur. Mais cet uploading, pour lui, ne s’effectue pas au niveau individuel : c’est une transformation collective ! C’est toute l’humanité qui se « télécharge » !

Au final, la meilleure définition de Barlow a peut être été donnée il y a plus de deux décennies par l’écrivain Bruce Sterling, dans The Hacker Crackdown :

« Barlow se décrit lui-même comme un «techno-cinglé». Un terme vague comme «activiste social» ne serait peut-être pas incorrect non plus. Mais on pourrait mieux décrire Barlow comme un «poète» – si l’on garde à l’esprit la définition archaïque de Percy Shelley, des poètes en tant que «législateurs méconnus du monde». »

Rémi Sussan

  • De la démocratie aux médiarchies

Comme le remarquait Nicolas Vanbremeersch (@versac), directeur du Tank et co-organisateur de la 23e édition des rencontres Aux sources du numérique, le dernier livre d?Yves Citton, Médiarchies, est un livre qui fabrique de la théorie. C?est même un manuel de médiologie ajouterais-je, qui saisit les différentes couches qui organisent notre (...)

Comme le remarquait Nicolas Vanbremeersch (@versac), directeur du Tank et co-organisateur de la 23e édition des rencontres Aux sources du numérique, le dernier livre d?Yves Citton, Médiarchies, est un livre qui fabrique de la théorie. C?est même un manuel de médiologie ajouterais-je, qui saisit les différentes couches qui organisent notre rapport aux médias, à la manière d?une archéologie, qui déplierait, comme on le fait d?un oignon, les différentes strates qui composent ce régime qui nous gouverne, celui des médias.

Pour le professeur de littérature et média Yves Citton, qui dirige la revue Multitudes, la thèse du livre dit une banalité dont on ne tire pas conséquences : nous ne vivons pas dans des démocraties, mais dans des médiarchies. Si la démocratie est un désir, un espoir, un idéal? qui vise à donner le pouvoir au peuple, les médias semblent à la fois être une modalité de médiation entre cet idéal et la réalité et une modalité d’interférence. D’où l’enjeu qu’il y a à comprendre les structures de circulation, de production et valorisation de l’information? à « se donner des outils conceptuels et imaginaires pour apprendre à voir, comprendre et questionner en quoi consiste cette médiarchie », comme le souligne Citton dans son livre, « à comprendre ce qu’ils nous font« , ce que sont ces formes d’expériences et de pouvoirs.

Media, Médias, Médiums et Méta-media? : de l’enregistrement à la traite de l’information

Dans son livre, Yves Citton distingue 4 acceptions différentes des médias qu’il distingue par des termes aux graphies différentes. Le medium et les media concernent d’abord tout ce qui sert à enregistrer, transmettre, traiter ou transformer de l’information, des discours, des images, des sons. Ce terme désigne alors à la fois les supports (c’est-à-dire les objets matériels) mais aussi les effets de réseaux et les conventions. Le second niveau concerne les médias, c’est-à-dire ce qui permet de diffuser de l’information à un public, notamment les médias de masse (journaux, radio, télé?) et s’intéresse aux effets de diffusion. Un autre niveau désigne le médium et les médiums, c’est-à-dire les résonances médiatiques dans lesquelles baignent nos perceptions et nos échanges quotidiens en régime de modernité. Ce médium là, fait explicitement référence à celui qui a le pouvoir de communiquer avec les esprits : il évoque le magnétisme qui opère entre nous, les fantômes qui nous parlent encore, la magie, comme quand on lit un livre de Platon ou qu’on voit une vidéo de Foucault ou de Deleuze, ces morts qui ne cessent de nous parler ou dans la surveillance qu’exercent les outils numériques sur nos pratiques d’information… Ce niveau-là fait également référence aux questions de résonances de l’information. Le 4e niveau que distingue Yves Citton est spécifique aux médias numériques, qui parlent pour les distinguer de méta-media. C’est à la fois la capacité du numérique de simuler tout autre media préexistant et s’intéresser aux phénomènes de simulation que produit le numérique. Mais le numérique n’ajoute pas qu’une caractéristique de simulation, il ajoute aussi une qualité d’ubiquité et la capacité à enregistrer les traces. C’est à la fois la caractéristique du numérique à compliquer et à expliquer. « Le compliqué, c’est ce qui est plié dedans ou avec, alors qu’expliquer, c’est déplier, à l’image des média qui déplient les plis »

Avec le numérique, la capacité à enregistrer des traces est devenue primordiale, à l’image de FB qui les enregistre, les exploite et les vend. « Cette capacité nouvelle est importante parce qu’un medium ou des médias n’ont aucune valeur par eux-mêmes tant qu’il n?y a pas de l?attention humaine qui se donne à ces médiums, qui s?investissent, qui vivifient à ces médias. Ces traces, cette valeur, sont en grande partie nos comportements attentionnels. Les médias conditionnent notre attention en nous rendant attentifs au monde comme le fait le journal télévisé, et nous donnons en retour vie ou valeur à ce qui relève des médias par l’attention qu’on leur porte. » Les médias ont toujours prêté attention aux traces attentionnelles que ce soit en mesurant leurs ventes ou leur audience. Mais les méta-media renforcés par la caractéristique ubiquitaire du numérique, font que toutes nos formes d’attention sont susceptibles d’être traçables ce qui crée une dynamique nouvelle entre attention et attente. Par ces jeux-là, nos traces d’attention peuvent être dirigées vers nos attentes et inversement. Avec le numérique, il est donc possible d’opérer un traitement, une transformation. « La traite – le mot est intéressant – c’est à la fois ce qu’on fait aux vaches ou ce qu’on a fait au peuple africain. Les méta-media ont pour triple caractéristique donc de simuler les médias, d’être ubiquitaires et de permettre la traite de nos attentions ».

Comment répondre à cette « traite » ? Comment « décoloniser la médiarchie » ?, questionne Nicolas Vanbremeersch. C’est-à-dire comment décoloniser les médias de l’impérialisme publicitaire et de son emballement consumériste, mais aussi favoriser une diversité culturelle, et surtout « stimuler les esprits plutôt que de les occuper » ? Peut-il exister un traitement progressiste, un traitement qui ne soit pas autoritaire ?

« Il y a plusieurs manières de modifier l’infrastructure médiatique, comme y introduire de nouveaux virus ou organismes qui proposeront ou imposeront de nouveaux modèles », répond Yves Citton, à l’image de propositions des nouveaux médias qu’accueille le Tank Media. L’évolution des médias se fait souvent par le bas, par la proposition de nouvelles formes. Mais déconstruire les infrastructures des médias, cette « hétérarchie« , nécéssite de s’interroger aussi sur le régime de la médiarchie. Nikos Smyrnaios, dans son livre, Les Gafam contre l’internet développe la thèse que la médiarchie relève d’une oligarchie. Nous ne sommes pas dans un régime autocratique, mais dans une oligarchie de structures, d’agents et d’intérêts qui se partagent le gâteau attentionnel. Yves Citton préfère parler d’hétérarchie, c’est-à-dire d’une coexistence de plusieurs systèmes et critères de valeurs. Un écosystème qui se réorganise en permanence et qui est co-dépendant. On peut certes développer de nouveaux médias, mais ils s’inscrivent dans des lois, des règles, une organisation, des systèmes faits d’une multitude couches et de niveaux. À la fin de la Seconde Guerre mondiale on a ainsi mis en place un système de distribution des journaux en kiosques, avec certes des lourdeurs, mais qui était construit pour garantir un accès égal aux petits comme aux gros journaux. Chez les Grecs, il y a avait des lois et des règles pour parler à l’Agora.Il y a donc toujours des normes, des règles, des lois qui contrôlent la façon dont l?information circule dans une société. L?enjeu n?est pas tant de faire la révolution que d’introduire de nouvelles puissances ou de nouvelles règles pour participer à la métamorphose, à la transformation, à la régulation de l’infrastructure médiarchique, par exemple on pourrait le faire en taxant la publicité pour la redistribuer à la diversité informationnelle.

Le débat sur les fake news actuel montre qu’il est nécessaire de procéder à une recomposition, non pas tant de la circulation de l’information que des troubles attentionnels que certains exploitent pour nuire? rappelle Nicolas Vanbremeersch qui vient de publier un article sur la question dans la revue Le débat. Les médias doivent-ils se défaire du mythe de la recherche de la vérité ? N’est-ce pas pourtant parce qu’ils nous ont aidés à développer notre esprit critique qu’on n’y croit plus ?

Vérité, réalité, pertinence, cadrage : ce dont nous parlons a directement un effet sur la réalité

« Le terme de post-vérité m’agace beaucoup », reconnaît Yves Citton qui rappelle qu’il n’y a jamais eu de moments bénis de vérité. Il faut pourtant distinguer la vérité, au sens de la réalité extérieure à laquelle on peut faire référence, comme de dire qu’il pleut et qu’on puisse le vérifier, de sa pertinence, c’est-à-dire se demander ce que cette vérité nous dit : le fait qu’on soit à l’intérieur par exemple fait qu’il pleuve ou pas n’a pas la même incidence. « La vérité est dépendante de la pertinence » : le fait de savoir combien de cheveux on a sur la tête par exemple n’en a aucune. Or, beaucoup de vérités manquent de pertinence dans nos pratiques.

Enfin, entre la pertinence et la vérité, il faut aussi évoquer la question du cadrage. « Les médias cadrent ce qu’on voit, comme les journaux recadrent les images qu’ils nous donnent à lire ou décident des sujets qu’ils traitent ». Plus que les mensonges ou les contre-vérités, les problèmes relèvent bien souvent de questions de cadrages et de pertinence. Pourquoi les journaux s’intéressent-ils (et nous intéressent-ils) à un mariage princier plutôt qu’autre chose ? Le cadrage qu’ils proposent suit des obsessions et produit des dysfonctionnements. On cadre sur des types qui brandissent un couteau dans la rue et on s’obsède de cela. On cadre avec le terrorisme et on met cela en résonance avec une religion, une menace sur la civilisation, etc. Ces cadrages produisent des effets qui se démultiplient par rapport à l’information elle-même. En cela, les médias procèdent à des « coupes agencielles », ils ne représentent pas la réalité, mais la cadre d’une certaine façon qui fait réalité. Pour Yves Citton, c’est là l’effet médiumnique des médias. C’est l’effet magique de la parole et des médias. « Si je vous dis ne pensez pas aux éléphants, d’un coup, ils adviennent ! » Ce dont nous parlons a directement un effet sur la réalité.

L’artiste Lauren Huret s’apprête à faire une exposition au Centre culturel Suisse à Paris qui montre les gens qui travaillent pour Google et Facebook pour trier les contenus. Hans Block et Moritz Riesewieck ont réalisé un documentaire, The Cleaners (bande-annonce), qui s’intéresse également au travail de filtrage de ceux qui nettoient les égouts d’internet. La plupart du temps, ces employés ne tiennent pas longtemps. Comme les pompiers de Tchernobyl ou de Fukushima, ils ne tiennent pas longtemps face à la toxicité de ce à quoi ils sont confrontés. Les algorithmes signalent des choses, mais seule l’attention humaine peut les recadrer. Or, regarder ces contenus, ces images, c’est aussi être détruit par ces contenus et ces images. Les contenus et les images, leurs circulations, ont une action sur nous. Derrière l’action des algorithmes, il y a des pratiques très humaines et des conséquences directes sur les humains.

Éduquer aux médias : développer l’orientation plus que l’autonomie ou la critique

Dans son livre, Yves Citton pose également la question de l’éducation aux médias. Mais l’éducation a du mal à intégrer les dispositifs médiatiques, rappelle-t-il. Pour lui, l’enjeu est double : il consiste plus à les chercher, les trier, les situer, les utiliser? Il consiste plus à montrer comment faire, qu’a livrer une vérité. Il consiste plus à nous faire dépasser nos habitudes, à nous dés-habituer pour mieux articuler les savoirs qu’à les livrer. L’enjeu n’est pas tant de développer une approche critique des media (« C’est parce qu’on se méfie de tout, souvent pour de bonnes raisons, qu’on se trouve prêt à croire n’importe quoi ») que de créer des moyens d’orientation. C’est un travail qui demande effectivement un peu de finesse. Pour Yves Citton, protéger l’espace de classe de ce qui arrive par les médias en dehors de la classe n’est pas totalement idiot, comme l’est le fait de limiter la connectivité. Il est essentiel d’un côté de créer des effets d’écarts et de séparation. Comme disait Deleuze (à la suite de Maurice Blanchot), il faut du vide, un interstice qui permette de créer une association d’idées pour réfléchir. Réagir vite, nécessite de développer des réactions automatisées. Cela nécessite au préalable de laisser du temps aux stimuli pour macérer, pour se construire? « Penser, c’est d’abord être capable de suspendre sa réponse, comme le fait le philosophe ». Une salle de classe a donc besoin de créer du vide et de mettre des murs pour se protéger. Mais l’éducation a besoin aussi de mener les élèves à utiliser ces outils d’accès au savoir. Son but est également de nous aider à utiliser ces appareils, aux cadrages qu’ils créent et qu’il faut apprivoiser, décoder.

Pour autant, l’information n’est pas le problème de cette éducation. Il faut apprendre à distinguer ce qui circule par ces circuits de ce que nous en faisons, c’est-à-dire l’information de l’attention qui donne de la valeur aux médias et de la signification à l’information. L’information en tant que telle n’a ni pertinence ni signification. L’attention, elle, est un corps humain qui est toujours associé à un corps social. « L’attention c’est le passage par le système nerveux qui fait que l’information prend une signification. Le travail que l’on réalise en salle de classe consiste à transformer l’information en signification, à faire culture, à faire sens de cette accumulation de connaissance et de signification. Si le numérique donne accès à l’information, l’école doit nous aider à utiliser cet accès pour le transformer en émancipation. »

La question de l’éducation aux médias valorise souvent l’autonomie et la critique. Or, comme le dit Bruno Latour, l’autonomie et la critique sont des projets de la modernité qui posent problème. Elle devrait surtout s’intéresser à la question de l’orientation. Or, si on est toujours orienté, on s’oriente en fonction de stimuli. On s’oriente dans les environnements qui sont les nôtres, qu’ils soient réels ou symboliques, on s’oriente dans la rue, comme on s’oriente face au travailleur chinois qui fait le même travail que moi pour un autre salaire. Reste qu’il est difficile parfois de s’orienter, dans l’offre des médias ou plus encore dans les propositions que nous font nos smartphones. Nous avons besoin d’un temps d’acclimatation pour y parvenir. Sans compter qu’on sait s’orienter à certaines échelles et pas à d’autres. On sait s’orienter à des échelles qui ne sont pas adaptées à des questions de dérèglement climatique global par exemple. Pour s’orienter, nous avons besoin de principes, par exemple de suivre ce qui nous donne du plaisir quand on le fait. Dans son dernier livre, Où atterrir ?, Bruno Latour livre un tableau pour s’orienter en nous invitant par exemple à rappeler ce à quoi l’on tient, à définir ses ennemis? afin de nous aider à composer des intérêts communs.

Savoir distinguer ses intentions, affirmer ses valeurs, comprendre où s’orienter? Autant d’éléments qui se perdent finalement plus facilement de vue dans un monde où les médias et les méta-médias démultiplient les possibilités d’orientations, les valeurs? imposent ou superposent leurs propres intentions aux nôtres.

8 enjeux pour comprendre les médias numériques

Il y a assurément de la matière à penser dans le dernier livre d’Yves Citton. Riche en concepts, références et ressources originaux. C’est assurément sa force. Reste que ce manuel de médiologie est aussi souvent agaçant, notamment parce qu’il ne cesse d’avancer par des dualismes, des oppositions qui avancent une idée et en même temps son contraire pour montrer toute l’ambivalence de son objet (les médias). Dans son analyse des médias numériques (qui nous intéressera plus particulièrement ici), il introduit plusieurs concepts pour comprendre les tendances à l’oeuvre, sur lesquels j’aimerai revenir rapidement pour les exposer, alors qu’il n’en a pas parlé lors de sa conférence.

Pour Yves Citton, les médias numériques produisent de la « grammation » (plutôt que de la « grammatisation »), une capacité d’hyper-enregistrement des traces de nos comportements responsables d’un état de Mobilisation totale comme le pointe le philosophe Maurizio Ferraris. Si la grammatisation consiste à décrire le monde sous forme d’abstraction pour qu’il soit lisible par les machines, la grammation évoque l’exact inverse : le fait que les médias digitaux produisent une quantité énorme d’écritures secondaires pour enregistrer nos traces. Pour Citton, il est nécessaire de nous intéresser à cette grammation, à ces enregistrements secondaires et à ce qui bogue, à ce qui ne marche pas.

Plus que de programmation, il nous invite à parler de « préhensions ». Tout ce qui arrive dans le numérique est le fait de choix, qui ne sont pas seulement le résultat d’un travail de programmation, mais d’un travail qui consiste à prendre une portion de ce qui peut nous affecter pour en faire un moyen pour affecter autrui. « Les « données » sont donc en réalité des prises, généralement porteuses d’emprises ».

Pour Citton, le numérique engendre également des effets « d’hyper-industrialisation » qui reposent sur une exploitation implacable de nos traces et comportements : les algorithmes mobilisent nos cerveaux, nos gestes mentaux et leur assignent des micro-tâches qui transforment en retour ce que le numérique produit.

Il produit aussi une « D-personnalisation » : plutôt que de produire une personnalisation (c’est-à-dire une modulation et un ajustement aux spécificités des récepteurs et des producteurs), cette logique produit plus de D-personnalisation que de singularité. Nous sommes modelés sur des profils statistiques qui sont ceux de personnes, mais ceux des personae auquel des services cherchent à nous identifier pour rendre nos profils productifs.

Enfin, il faut saisir aussi la question de « l’échantillonnage », c’est-à-dire le fait que dans la surabondance numérique, nous sommes condamnés à n’accéder qu’à un échantillon, qu’à une partie de l’ensemble. Et que cet échantillonnage est bien une modalité de lecture, c’est-à-dire le mode de fonctionnement du numérique.

En milieu numérique également, il faut prendre en compte la question des « protocoles », c’est-à-dire la manière dont sont prescrites des formes standardisées.

Plus que d’autres formes de médias, le numérique déploie une forme de « prémédiation », c’est-à-dire des formes prescriptives qui pré-conditionnent nos réactions, qui utilisent la prédiction de nos comportements pour les rendre productives.

Autre caractéristique encore, « l’interconnectivité », dont il est difficile de s’écarter. Alors que Facebook voulait socialiser le web, son déploiement a contribué plutôt à « techniciser la socialité », à l’ingéniérer jusque dans nos routines quotidiennes pour la commercialiser. Une interconnectivité particulièrement puissante, mais qui a montré aussi qu’elle s’accompagnait de bien des écueils, notamment la difficulté à pouvoir s’en extraire.

Autant de concepts certes complexes, mais qui ont le mérite de nous être proposés à réflexion. À nous de les interroger pour voir comment et en quoi ils peuvent faire levier ou nous aider à éclairer les transformations en cours.

Hubert Guillaud


  Chaines INFO  
 Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People 

Dernière modification: le   NEToo ™  Tous droits réservés • ©2004/2006 • CNIL n°892206