NEToo - métamoteur francophone pour tout trouver plus rapidement
  Web Actualités Blogs Voyages Images Vidéos Musique Annuaire  

Trouvez toutes les dernières nouvelles et dépêches publiées en interrogeant simultanément des multiples sources sur le web

Recherchez dernières actualités en temps réel 

   Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People   
 Dernières actualités multimédia sur métachercheur francophone NEToo
Le Parisien - High-Tech    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 24/04/2018 13:46:42

  • Quand les robots aident à recruter des humains

Connaissez-vous les chatbots ? Il ne s?agit pas des dernières vidéos de chats postées sur Internet, mais d?agents conversationnels. Le terme vient de la contraction de « chat » ? terme anglais qui signifie...

  • Huit applications mobiles pour prendre soin de soi

Elles se comptent par milliers sur les boutiques en ligne de nos smartphones. Voici une sélection de quelques-unes des meilleures applications de la catégorie « santé » téléchargeables gratuitement sur...

  • Comment bien choisir son application santé ?

Utiles, futiles ou même, pour certaines, à l?efficacité médicale douteuse? Pas facile de s?y retrouver dans la jungle des quelque 200 000 applications de santé disponibles pour smartphones dans le monde.Avant...

  • Innovation : Virtuoz, un boîtier qui aide les malvoyants à se déplacer

«Mon passé de responsable des ressources humaines m'a donné envie de favoriser l'inclusion des personnes en situation de handicap», souligne Céline Favy-Huin, directrice générale et cofondatrice de Feelobject....

  • WeProov, l'application qui simplifie les états des lieux

« Quand j'étais jeune et que je louais une voiture, j'étais toujours stressé au moment de faire le tour du véhicule », explique Gabriel Tissandier, cofondateur de la start-up WeProov. Lancée en juin 2015,...

  • Netflix prépare une série documentaire sur l?affaire Grégory

Une adaptation sous forme de série. La plateforme de vidéo à la demande Netflix a annoncé mercredi qu?elle allait prochainement diffuser une série documentaire qui raconte l?affaire Grégory.L?entreprise...

  • A la recherche d?exoplanètes : la Nasa lance avec succès son télescope TESS

Après avoir reporté le décollage lundi, la Nasa a lancé avec succès mercredi son nouveau télescope, d?un coût de 337 millions de dollars, conçu pour rechercher des planètes d?une taille comparable à celle...

  • «Plus belle la vie» : un jeu en réalité augmentée pour enquêter à Marseille

Depuis samedi, ils arpentent les rues du centre de Marseille (Bouches-du-Rhône) scrutant leur téléphone. Les fans de la série « Plus belle la vie » disposent en effet désormais d?une nouvelle application...

  • Facebook : de nouvelles options de confidentialité offertes aux utilisateurs

Facebook va proposer à ses utilisateurs européens, à partir de « cette semaine », de nouveaux paramètres de confidentialité pour se conformer au règlement européen de protection des données (RGPD).Annoncées...

  • La Russie soupçonnée de s?infiltrer dans des systèmes informatiques sensibles

Le National Cyber Security Center britannique et le FBI n?ont pas mis de gants ou de conditionnel pour désigner le Kremlin comme le maitre d?oeuvre derrière une recrudescence de cyberattaques visant des...


InternetActu.net    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 24/04/2018 13:46:43

  • Demain, des psychologues pour robots ?

Une machine peut-elle souffrir de maladie mentale ? Peut-on parler de « névrose » pour un robot ? C’est la question que pose le psychologue Thomas Hills (@thomhills) dans Aeon.A propos des systèmes de Deep Learning, tels qu’AlphaGo, il affirme ainsi : « leurs problèmes ne sont pas apparents lorsqu’on regarde leur code source. Ils sont inhérents (...)

Une machine peut-elle souffrir de maladie mentale ? Peut-on parler de « névrose » pour un robot ? C’est la question que pose le psychologue Thomas Hills (@thomhills) dans Aeon.A propos des systèmes de Deep Learning, tels qu’AlphaGo, il affirme ainsi : « leurs problèmes ne sont pas apparents lorsqu’on regarde leur code source. Ils sont inhérents à la façon dont ils représentent l’information. Cette représentation est un espace multidimensionnel en constante évolution, c’est un peu comme se promener dans un rêve. La résolution de ces problèmes n’exige rien de moins qu’un psychothérapeute pour algorithmes. »


Les faits mentionnés dans l?article ne sont pas particulièrement inédits : les biais algorithmiques dont il parle, qui poussent les logiciels à avoir des comportements racistes, sexistes ou en tout cas des préjugés liés à la façon dont les « data » ont été entrées par les humains ont déjà été largement dénoncés, notamment dans nos colonnes (par exemple, entre autres, ici ou ici), et ce genre de problématique est au coeur du projet NosSystèmes de la Fing. On sait également que la moindre modification dans une image (même invisible par les humains) ou la plus petite coquille dans un texte, est susceptible d’induire des erreurs monumentales (et incompréhensibles) dans un programme.

Non, ce qui est intéressant, c’est le vocabulaire utilisé par Hills : peut-on dire qu’une machine qui voit sur une image quelque chose qui n’y figure pas qu’elle « hallucine » ? Après tout, pourquoi pas ?


Image : le robot aspirateur Roomba aurait-il peur du vide ? Visiblement, rapportent les auteurs du programme de recherche Sensibilités algorithmiques du médialab de Sciences Po, ses capteurs infrarouges auraient du mal à interpréter correctement les sols très sombres, les prenants pour un trou ou des escaliers qu’il a appris à éviter.

Mais il n’est pas question seulement de bugs, de biais ou de data incorrectes. Selon l’auteur, les IAs sont également susceptibles de rencontrer des problèmes de « santé mentale » à cause de leur structure même, et ces « maladies » se rapprochent de celles rencontrées par les humains. « Ils peuvent oublier les choses plus anciennes lorsqu’ils apprennent de nouvelles informations », explique-t-il… Un tel phénomène se nomme « l’oubli catastrophique » et touche les réseaux de neurones, selon l’auteur, qui cite une étude parue dans Pubmed qui présente le problème (et suggère des solutions). Dans un tel cas, l’algorithme « n’apprend plus rien et ne se souvient plus de rien ». Et Hills de rapprocher cet état d?une théorie sur sur le cerveau humain, selon laquelle le déclin cognitif lié à l’âge serait la conséquence d?une trop grande masse de souvenirs devenue ingérable?

Vers une science du « comportement machinique »


Ce qui pose réellement question dans l?article de Hills, c’est donc l’idée que la question de la valeur des algorithmes n’est pas uniquement un problème d?ingénierie, mais qu’il se rapproche d?études de l’humain. Parallèlement à cet article d’Aeon, la question du comportement des programmes est également abordée par la revue Nautil.us, de manière plus poussée, par deux chercheurs du Scalable Cooperation Group du MediaLab du MIT, Iyad Rahwan (@iyadrahwan) et Manuel Cebrian.

Si, contrairement, à Thomas Hills, les deux auteurs se gardent de tout anthropomorphisme, ils n’en affirment pas moins que l’analyse des algorithmes dépasse de loin l?unique domaine de l?ingénierie. « Et si les physiologistes étaient les seules personnes à étudier le comportement humain à toutes les échelles : du fonctionnement du corps humain, jusqu’à l’émergence des normes sociales, sans oublier le fonctionnement du marché boursier, la création, le partage et la consommation de la culture ? Et si les neuroscientifiques étaient les seules personnes chargées d’étudier le comportement criminel, de concevoir des programmes d’études et d’élaborer des politiques pour lutter contre l’évasion fiscale ?« , demandent-ils dès les premières lignes. C’est pourtant ainsi que nous agissons avec nos systèmes numériques : « Les scientifiques qui créent des agents IA, à savoir les informaticiens et les roboticiens, sont presque toujours les mêmes scientifiques qui étudient le comportement desdits agents IA. »

Aujourd’hui, la plupart des recherches sur les IAs se contentent de vérifier si l’algorithme remplit bien la tâche pour laquelle il a été créé : si la voiture sans chauffeur se déplace correctement sur une route, si le système de reconnaissance d’image repère bien les chats dans les vidéos, et, reconnaissent les auteurs, ce sont bien sûr des travaux très utiles, mais très limités.

« L’étude du comportement d’un agent intelligent (humain ou artificiel) doit être menée à différents niveaux d’abstraction, afin de bien diagnostiquer les problèmes et concevoir des solutions. C’est pourquoi nous avons une variété de disciplines concernées par l’étude du comportement humain à différentes échelles. De la physiologie à la sociologie, de la psychologie à la science politique et de la théorie des jeux à la macroéconomie, nous obtenons des perspectives complémentaires sur la façon dont les humains fonctionnent individuellement et collectivement. »

C’est pourquoi les deux auteurs appellent à la création d’une nouvelle disciple scientifique, « l?étude du comportement machinique ». Cette discipline aurait bien sûr des liens avec l’informatique et la robotique, mais traiterait d’un niveau d’abstraction supérieur. Il ne s’agirait pas d’entrer dans le code source d’un logiciel, ou d’analyser les problèmes intrinsèques au hardware : elle développerait sa propre méthodologie.

Il n’est point question pour eux de tomber dans l’anthropomorphisme ou le zoomorphisme (donc, non, ils ne parleraient certainement pas de maladie mentale des machines !) ; au contraire, les IAs sont un nouveau type d’agent possédant des processus cognitifs radicalement différents de celui des entités biologiques, et affecteraient un comportement que les auteurs n’hésitent pas à qualifier d' »alien« , ce en quoi ils se rapprochent des propos d’un Kevin Kelly, qui, dans un article paru dans Backchannel, effectuait la même comparaison.

Un tel type d’analyse de haut niveau serait nécessaire bien sûr tant à cause du comportement intrinsèquement imprédictible des programmes d’IA, que de l’illisibilité du code source, mais aussi parce que de toute façon, bon nombre des algorithmes sont inaccessibles pour cause de propriété intellectuelle.

Et bien sûr, une telle recherche ne se contenterait pas d?analyser le comportement de telle ou telle machine, mais, à l’instar des sciences humaines, se pencherait sur l?écosystème général, et donc sur le rapport qu’elles entretiennent avec les humains et la société en général. C’est à ce niveau, et pas à celui du code, qu’on pourrait examiner de façon satisfaisante des problèmes comme celui de l’éthique des machines.

Et bien entendu, pour créer ce nouveau champ d?études, de nouvelles compétences seraient nécessaires : des chercheurs venus des sciences sociales et de la psychologie devraient accompagner les roboticiens et informaticiens dans ces travaux.

D’ailleurs, les chercheurs l’avouent eux-mêmes : « Dans notre propre travail ? nous sommes nous-mêmes informaticiens – nous avons souvent été remis en cause par nos collaborateurs en sciences sociales et comportementales. Ils ont souvent souligné à quel point nos questions de recherche initiales étaient mal formées, ou comment notre application de certaines méthodes de sciences sociales était inappropriée ? par exemple manquant de mises en garde importantes ou tirant des conclusions trop hâtives. Nous avons appris – à la dure – à ralentir notre tendance naturelle à simplement analyser de gros volumes de données ou à construire des modèles d’apprentissage automatique. »

Dans un article de recherche, les auteurs poussent plus loin leur réflexion. Ils envisagent la création d’une plate-forme qu’ils nomment la « boite de Turing ». Cette « place de marché » aurait deux types de participants. Il y aurait d’un côté les contributeurs, qui uploaderaient leurs algorithmes, et de l’autre les examinateurs, qui mettraient au point des tâches et des méthodes permettant d’analyser et de mesurer le comportement des IAs, y compris dans des domaines qu’on n’a pas encore l’habitude prendre en compte, comme l’éthique.

De fait l’article de Thomas Hills comme les recherches d’Iyad Rahwan et Manuel Cebrian nous conduisent à imaginer la future profession de psychologue pour robot. Encore un exemple des capacités de prédiction de la science-fiction. Car Isaac Asimov avait déjà mis en scène, dès 1940, une telle professionnelle. La célèbre Susan Calvin, héroïne de sa très fameuse série de nouvelles et de romans sur les robots !

Rémi Sussan

  • Peut-on modéliser la société ?

Vous vous souvenez peut-être de notre article de 2014 sur la Physique sociale, le livre de Sandy Pentland, directeur notamment du Laboratoire de dynamique humaine du MIT. Dans ce livre, Pentland, l’un des pontes du MIT, avançait que l’extraction de la réalité via le Big Data allait rendre possible la (...)

Vous vous souvenez peut-être de notre article de 2014 sur la Physique sociale, le livre de Sandy Pentland, directeur notamment du Laboratoire de dynamique humaine du MIT. Dans ce livre, Pentland, l’un des pontes du MIT, avançait que l’extraction de la réalité via le Big Data allait rendre possible la modélisation mathématique de la société. Force est de constater depuis que cette réduction du social dans le Big data n’a pas vraiment porté les promesses attendues. Au contraire. Les critiques à l’encontre de la réduction du social qu’ont produit ces modélisations n’ont cessé de se démultiplier. Que ce soit celles de Cathy O’Neil (voir « Il est plus que temps que le Big data évalue ses impacts » ou « Ouvrir les modèles ! », pas seulement les données), de la police prédictive (voir « Predpol : la prédiction des banalités » et « Où en est la police prédictive ? »), de la justice prédictive (voir « l’évaluation automatique des risques de récidive » et notre dossier sur « la justice analytique ») à « l’automatisation des inégalités »… (et ce ne sont là qu’une vue bien partielle des nombreux problèmes qu’ont généré les questions d’analyse et de traitement de données depuis 2014) : partout, les biais réductionnistes des outils de modélisation du social ont imposés de nouveaux problèmes plutôt que de permettre de résoudre les défis auxquels est confrontée la société. La physique sociale semble plus avoir montré ses limites que démontrer ses capacités à améliorer la société. Peut-être est-il temps de se demander pourquoi ?

couverture du livre de Pablo JensenC’est peut-être une réponse qu’on peut trouver dans le récent livre de Pablo Jensen (@pablojensenlyon) : Pourquoi la société ne se laisse pas mettre en équations. Physicien, Pablo Jensen se consacre depuis plusieurs années aux sciences sociales, abandonnant l’analyse de la matière pour une autre, moins prévisible et plus complexe, la société, dans le cadre notamment de l’Institut rhônalpin des systèmes complexes. Il est également l’un des initiateurs des cafés des sciences, ce qui explique certainement que son livre soit plutôt clair et pédagogique malgré la complexité de ce qu’il tente d’y expliquer.

Le coeur de la démonstration de Pablo Jensen consiste à expliquer que la société ne relève pas de la physique. Que si la physique est parvenue à trouver des règles universelles, faire la même chose pour la société, en découvrir la mécanique sociale, ne relève pas de la même gageure. La réplicabilité et la prédictibilité du monde physique ne signifient pas que nous allons arriver à faire la même chose avec les phénomènes sociaux, comme le souligne d’ailleurs très bien la crise de réplicabilité et de prédictibilité actuelle.

La statistique, cette science pour l’État, a pu nous faire croire, que les régularités humaines étaient connaissables. La sociologie est venue armer ces connaissances. Et la politique se voudrait l’ingénieur du social capable de manipuler la société comme le font les physiciens avec les objets naturels. Reste que ce n’est pas aussi simple, comme le montre l’échec de la planification. La complexification de l’économie a rendu la planification plus difficile. L’avalanche de données, le Big Data, fait fantasmer les tenants d’une modélisation de la société. Le problème c’est de croire qu’il existerait des lois sociales, des règles qui sous-tendent la société et les comportements humains. Ce qui a marché pour les sciences naturelles et physiques peut-il s’appliquer à la société ?

Pourquoi la physique et les sciences naturelles sont-elles robustes ?

Pablo Jensen explique dans un premier temps pourquoi les sciences naturelles contrairement aux sciences humaines sont relativement fiables et robustes, permettant leur modélisation et leur prédictibilité. En physique par exemple, on peut isoler des éléments pour faire des expériences, alors qu’en sciences sociales on ne peut connaître le monde sans agir dessus, sans le transformer. Le monde physique a également la particularité d’être relativement stable. Parmi les exemples qu’évoque Pablo Jensen, il prend celui du climat. On dispose aujourd’hui de modèles planétaires de l’atmosphère, des simulations nourries quotidiennement de milliers d’observations, de plus en plus précises. La simulation s’est peu à peu imposée permettant d’améliorer les deux modèles de prédiction existants à savoir : le fait que demain il fera le même temps qu’aujourd’hui ou le fait que le temps demain sera le temps moyen de ce lieu en ce jour de l’année. En météorologie et climatologie, nos modèles virtuels sont désormais meilleurs que ces deux types de prédictions simples. En la matière, si la modélisation a permis de réaliser de manière routinière des prédictions fiables sur plusieurs jours, c’est d’abord parce que les relations fondamentales pour la prédiction atmosphérique sont bien connues et restent valables à toutes les échelles, comme dans le temps et l’espace. Les équations qui décrivent l’évolution des masses d’air et leur dynamique où les échanges de chaleur sont bien établis et rendent les calculs robustes. Ces modèles intègrent certes des phénomènes moins connus, comme la formation des nuages qui créent des incertitudes dans les prévisions, mais sans remettre en cause les équations fondamentales. De plus, on cherche à prédire un état moyen et non pas un état précis. Enfin, dernier point qui explique le succès de la modélisation climatique : celle-ci a été un lent et long travail d’organismes mondiaux capable de rassembler les données et de les homogénéiser, permettant de calibrer efficacement les données et les modèles. Autant de caractéristiques qu’on ne retrouve pas dans l’analyse du social par les données.

Le risque du réductionnisme des modèles

Sans compter que simuler la société est bien plus compliqué. Les modèles sociaux ont du mal à être fiables. Ils relèvent le plus souvent d’un séduisant réductionnisme. Souvenez-vous de la parabole des polygones, ce petit jeu qui vise à expliquer la théorie de l’économiste Thomas Schelling qui cherchait à comprendre la ségrégation raciale et qui montrait que même si les gens cherchaient à vivre dans des quartiers mixtes, le résultat conduisait à créer une société plus ségrégée. Ce petit jeu ne doit pas nous faire croire que la ségrégation est une fatalité. Il repose surtout sur un modèle très simplifié de la réalité. S’il permet de comprendre et de simplifier le réel, souligne que le cumul des égoïsmes n’est pas très bon pour la société et que les effets globaux des décisions individuelles ne sont pas toujours intuitifs, la démonstration peine à décrire la réalité. Le problème, rappelle Jensen, c’est que pour être utile, le modèle simplifie énormément la réalité du choix du logement, qui en réalité est bien plus complexe que cela. Le risque est de prendre la démonstration du modèle au pied de la lettre. On voit ici que la modélisation d’un phénomène social repose sur une interprétation arbitraire du comportement des polygones. « La force d’une chaîne logique n’est jamais que celle de son maillon le plus faible ». « Nul principe un tant soit peu général ne sort de ces modèles simples, dont les résultats sont fragiles, très dépendants des détails concrets, des hypothèses précises qui sont faites. S’ils constituent de jolis jeux mathématiques, on ne peut en tirer aucun enseignement certain sur le monde réel, dont les ingrédients sont toujours peu maîtrisés. » Ces petits jeux réductionnistes sont certes séduisants, mais peinent à dépasser leurs propres limites. Ce type de modélisation fonctionne dans des situations expérimentales spécifiques qui seront plus difficiles à démontrer dans d’autres contextes.

Le risque des prédictions simplistes et des « vraisemblances séduisantes »

Or, les modèles construisent des « vraisemblances séduisantes », mais limitées.

Jensen revient par exemple sur l’échec de GoogleFlu, l’outil de Google permettant de prédire la grippe depuis les recherches effectuées par les utilisateurs du moteur de recherche de leurs symptômes. Cet échec s’explique à la fois par une confiance naïve dans la puissance des Big data et par l’absence d’une modélisation valable. Les chercheurs de Google ont commis des erreurs élémentaires en corrélant des données qui étaient systématiquement corrélées en hiver par exemple, leur faisant trouver des correspondances sans rapport avec la grippe. Pourtant, cette recherche n’a pas été complètement inutile. Une équipe de Columbia spécialiste en épidémiologie a depuis utilisé les données fournies en temps réel par Google pour améliorer leur propre modèle. L’équipe a construit des modèles épidémiques nourris de données réelles et les a comparés à des requêtes Google pour affiner les résultats. En fait, souligne Pablo Jensen, l’échec de GoogleFlu a surtout montré que les modèles en chambre, assez facile à imaginer avec le Big Data, fonctionnent assez mal. C’est le savoir-faire des épidémiologues et de leurs données qui ont permis d’améliorer les modèles. L’utilisation des données par elles-mêmes ne suffit pas si elles ne se confrontent pas aux savoirs de spécialistes des sujets analysés. Les modèles prédictifs du Big Data ne se suffisent pas seuls.

Jensen évoque bien d’autres exemples, comme celui des perspectives de croissance du Fonds monétaire international (FMI). Chaque année, ces projections de croissance s’écartent fortement de la réalité, sans que les économistes du FMI ne semblent apprendre de leurs erreurs passées. En 2011, des chercheurs de l’université de Nice ont comparé systématiquement prédictions et valeurs réelles depuis 1998. « Même lorsqu’il s’agit de prédictions à court terme (une année), les modèles sophistiqués font à peine mieux que la « prévision » simpliste selon laquelle la croissance de l’année prochaine sera égale à? celle constatée cette année ! » Les prévisions de croissance sont invariablement optimistes, ce qui montre que les économistes sont victime d’un biais systémique.

Pour comprendre ces échecs, Jensen rappelle à nouveau qu’il y a deux grands types d’approches pour les prévisions : la première consiste à extrapoler les tendances passées, la deuxième à créer une modélisation virtuelle à partir d’éléments (de données) plus ou moins réalistes. La première méthode est assez efficace sur le court terme, même si elle ne fait guère mieux qu’un prolongement de tendance. Mais la difficulté de cette méthode c’est qu’elle ne parvient pas à prédire les crises économiques : or c’est quand des changements importants ont lieu qu’on a le plus besoin de prédiction. En fait, souligne-t-il, la méthode n’est pas vraiment améliorable par l’ajout de données qui rendraient les résultats robustes, car rien ne garantit que les corrélations passées se maintiennent. Par exemple, il existait un lien fort entre croissance et emploi jusqu’en 1999, mais ce lien s’est réduit aujourd’hui. La seconde méthode de prédiction, elle, souligne qu’il est difficile de créer des modèles robustes avec beaucoup de paramètres. Au contraire, la robustesse d’un modèle semble surtout diminuer à mesure qu’on ajoute des paramètres. Cela revient à choisir entre d’un côté des modèles séduisants, avec peu de paramètres, mais qui se révèlent rapidement faux. Et des modèles complexes, trop riches, mais dont les modélisations ne sont pas robustes et peuvent être facilement perturbées par de nouveaux événements. Un grand nombre de paramètres diminue la robustesse et peine malgré tout à voir les changements.

En fait, malgré notre grande régularité, les choix des acteurs individuels ne sont pas stables et ne se laissent pas facilement résumer par des formules simples. Deux raisons qui expliquent pourquoi les prédictions économiques sont loin d’égaler celles des climatologues.

Les Big Data peuvent-elles améliorer la prédiction ?

Est-ce que l’avalanche de données va permettre d’améliorer les modèles et de construire des résultats plus fiables ? Pas vraiment, estime Pablo Jensen.

Jensen fait référence à un article publié par Duncan Watts, directeur de la recherche chez Microsoft, qui en 2016, a tenté de prédire le nombre de retweets d’un tweet pour prédire les conditions de succès. Watts y discute des limites générales de la prédictibilité des phénomènes sociaux complexes. Il y explique que deux visions s’opposent. Une, optimiste, attribue la variabilité à une caractéristique qu’il faudrait identifier. L’autre, pessimiste, estime que les phénomènes sont trop complexes pour être prévisibles. Lui aussi distingue deux types de prédictions : celle qui extrapole le passé et celle qui tente de prédire un phénomène en fonction de caractéristiques propres. À nouveau, la seconde méthode est souvent moins efficace que la première, mais c’est la seule qui tente de trouver des caractéristiques distinctives. Watts a analysé 1,5 milliard de tweets en cherchant à prédire la réussite des messages d’une semaine l’autre via l’apprentissage automatique. Or, même si on analyse toutes les caractéristiques des messages, le succès reste largement imprévisible. Pire, le niveau de prévisibilité d’un succès peut être doublé depuis une seule variable : à savoir, le succès passé de l’utilisateur c’est-à-dire le nombre moyen de retweets qu’il a connu jusque là. On a découvert l’eau tiède ! Le succès appelle le succès !

Pourquoi les simulations de la société sont-elles si difficiles ?

Pour Jensen, ce qu’il faut retenir de cet exemple, c’est que la vie sociale est intrinsèquement imprédictible, du fait des fortes variabilités des interactions entre les personnes. Quand bien même un modèle pourrait fonctionner depuis les données qui l’entraîne, rien ne garantit qu’il pourrait fonctionner ensuite. La transférabilité dépend de trop de facteurs pour être mesurable. Pour Prabhakar Raghavan, vice-président de l’ingénierie de Google, la transférabilité est l’enjeu majeur des sciences sociales. Mais les « risques stables, ces règles de comportement robustes » qui permettront de transférer des modèles d’un exemple l’autre seront-elles un jour accessible ? En fait, explique Jensen, les données ne parviennent pas à réduire la grande variabilité des situations. Pire, quand on utilise beaucoup d’information, on ne parvient souvent à réduire les erreurs que marginalement. Si on prend le chômage par exemple, le taux moyen est de 7 %. Seuls quelques profils relèvent de taux plus élevés (20 à 30 %), ce qui signifie que l’erreur de prédiction reste forte pour les autres. Or, les catégories spécifiques se démultiplient à mesure qu’on en ajoute jusqu’à ne présenter que fort peu de personnes.

« Il existe quatre facteurs essentiels qui rendent les simulations de la société qualitativement plus difficiles que celles de la matière : l’hétérogénéité des humains ; le manque de stabilité de quoi que ce soit ; les nombreuses relations à prendre en compte aussi bien au niveau temporel que spatial ; la réflexivité des humains qui réagissent aux modèles qu’on fait de leur activité. »

La forte hétérogénéité des humains rend la simulation difficile. Alors que la physique peut reposer sur certaines formes de stabilité, dans les sciences sociales « aucun facteur isolé ne produit quoi que ce soit tout seul ». Cela n’a aucun sens par exemple de se demander ce que le salaire minimum provoque en l’absence de tout autre ingrédient. « En sciences sociales, il faut un réseau dense de conditions causales pour produire un résultat, et il est donc difficile d’étudier l’effet séparé de tel facteur, en l’isolant des autres facteurs agissants (et quand bien même on y parviendrait, rien ne garantit que sa conséquence serait la même dans d’autres situations) ». L’instabilité des effets d’une même cause dans des contextes différents semble être la règle dans les systèmes sociaux. Ainsi, l’effet d’un étage élevé sur le loyer d’un appartement dépend de nombreux paramètres. « La complexité des effets produits par la combinaison de plusieurs ingrédients rend la méthode analytique – divisons, analysons les morceaux un à un puis recomposons – nettement moins utile qu’en physique ». À cela s’ajoute donc le troisième facteur : le grand nombre de relations qui doivent être prises en compte qui induit des corrélations multiples dans les comportements des agents sociaux, amplifiant ou réduisant certains phénomènes. Enfin, les humains réagissent aux modèles de leur activité : à la différence d’un électron, assez indifférent à ce qu’on peut dire de lui, les humains réagissent. « Ces quatre facteurs font que les modèles sociaux ont du mal à être robustes ». Leur qualité prédictive, passé nos régularités simples, reste approximative. Certes, ils peuvent aider à écarter des solutions simplistes? en montrant que l’humain est souvent plus compliqué qu’on ne le pense. Le problème est que trop souvent on les utilise pour simplifier la décision plutôt que pour la complexifier. C’est tout le problème !

La constance des moyennes chère au précurseur de la démographie Adolphe Quételet nous a fait croire que la société suivait des constantes. Pour autant, rappelle Jensen, il faut relativiser les régularités du social. Elles sont aussi le produit de nos sociétés et n’existent pas par elles-mêmes. Émile Durkheim, le fondateur de la sociologie, soulignait déjà que la constante du nombre de suicides par exemple relevait de faits de société et n’était pas aussi homogène que constatée.

De la fascination des modèles

Jensen nous montre que les études et les modèles sont souvent fascinants, d’abord par le réductionnisme qu’ils proposent, qui parviennent à expliquer un phénomène en en réduisant sa complexité. « La vie sociale ne s’explique pas par l’addition des effets de quelques variables importantes jouant un rôle uniforme, mais par des conjonctions spécifiques, des événements. Du coup, chaque facteur causal (sexe, âge?) peut-être pertinent pour certains événements, mais par pour d’autres. » Les individus ne sont pas des atomes qui auraient des propriétés prédéfinies avant de s’assembler en société.

« Très souvent, il est impossible de décider entre des hypothèses différentes, car le problème n’est pas « dompté ». La criminalité a pu être « expliquée » par un grand nombre d’ingrédients : pas assez de policiers, trop de délinquants, des lois inadéquates, la pauvreté, l’inadaptation culturelle, des gènes? Chaque possibilité pointe vers une solution différente. Laquelle est correcte ? Il n’y a aucune règle qui permette de répondre à cette question de manière définitive. » Pour Jensen, cela ne veut pas dire qu’il faut renoncer aux explications sociales, mais il faut comprendre que bien des explications sociales ne sont que des opinions défendues par des modèles explicatifs?

Sans compter, rappelle Pablo Jensen, que les masses de données n’ont pour l’instant pas produit d’enseignements majeurs sur nos sociétés qu’on n’aurait pas pu obtenir autrement. Au mieux, elles confirment ce que nous savons déjà. Parfois améliorent la précision de quelques décimales (sans que cela se révèle déterminant). Pour le physicien, le Big data risque de renforcer les pouvoirs calculateurs pour piloter la société, alors qu’ils devraient surtout être utilisés pour permettre de mieux nous coordonner.

Indicateurs, contre-indicateurs, modèles, contre-modèles? : la modélisation du monde est politique !

Pourtant, dans la dernière partie de son ouvrage, Jensen est plus modéré. Ainsi explique-t-il, « les indicateurs chiffrés cherchent à caractériser une situation de manière impartiale, au-delà des perceptions de chacun. Du coup, ils sont souvent utilisés pour légitimer son point de vue, sous couvert d’objectivité. » Malgré les abus, reste que ces indicateurs ne sont pas dépourvus de sens, aussi imparfaits soient-ils. Si les indicateurs sont souvent des constructions complexes et imparfaites, ils permettent d’établir des comparaisons, des classements, des choix et des arbitrages. Les méthodes de calculs utilisées permettent la transparence et la discussion. Tout autant imparfaits que soient les classements par exemple, les indicateurs, ces outils de réduction de réalités sociales complexes, permettent de coordonner des communautés, de standardiser la réalité. Si les indicateurs sont fragiles, leur multiplication est certainement un moyen de les améliorer, de construire des indicateurs alternatifs. « La formule, en découpant l’origine de nos actions en un contexte et des caractéristiques internes, est très utile d’un point de vue pédagogique, pour comparer les approches de la physique, l’économie ou la sociologie. Au niveau qualitatif, elle permet également de résumer la démarche d’une grande partie de la sociologie : comprendre les pratiques des personnes, en étudiant à la fois les contraintes que le contexte fait peser sur l’action et les dispositions socialement constituées à partir desquelles les acteurs perçoivent la situation et agissent. Mais elle n’est pas efficace pour faire des prédictions quantitatives, à cause des nombreuses limites pratiques » existantes. « La vie sociale ne consiste pas en une suite d’interactions ponctuelles comme le supposent la formule ou les simulations ».

Jensen utilise un bel exemple pour rappeler que les relations et le contexte importent et ne se réduisent pas. Jean Piaget, père de la psychologie cognitive avait réalisé une expérience pour savoir à partir de quel âge les enfants acquièrent une notion claire des nombres. Un test avec des tableaux de jetons avait montré que les enfants de moins de 7 ans se trompaient. Un autre chercheur utilisant lui des bonbons avait montré que les jeunes enfants choisissaient systématiquement la bonne file. Pour Jensen, l’identification dynamique du contexte n’est pas réductible par la mise en chiffre de la société. Les régularités sociales ne font pas une société déterministe. « Ce n’est pas parce que la sociologie cherche les déterminismes – et trouve des régularités – que tout est déterminé. » Le déterminisme, comme le soulignait déjà le sociologue Bruno Latour est un « faitiche » utile, c’est-à-dire une croyance importante et efficace, mais elle reste un fétiche. Pour Jensen, le Big Data devrait nous aider à développer de la coordination et de l’action commune plutôt que de chercher à nous modéliser et nous simplifier. Force est de constater que nous n’en prenons pas beaucoup la direction hélas.

Les modèles du social que nous construisons par la modélisation présupposent des individus avec peu de caractéristiques. Si c’est utile pour comprendre certains phénomènes, ces réductions ne sont pas parvenues à éclairer des phénomènes complexes. Ces modèles éclairent même parfois qu’une part du problème, occultant par leur réductionnisme intrinsèque d’autres aspects de ce qu’ils tentent d’analyser. Leur fiabilité repose sur la diversité d’une communauté scientifique pluraliste, permettant de mettre en doute et corriger les suppositions et calculs. Mais surtout, conclut Pablo Jensen, derrière la modélisation, s’impose également une vision politique. La modélisation du monde est elle-même un modèle politique : elle suppose souvent que la dynamique de changement doit venir de l’extérieur de la situation plutôt que de la créativité des acteurs impliqués. Au final, la mise en équation de la société repose sur une conception de la société qui ne peut pas faire société.

Hubert Guillaud

  • Faut-il enseigner le jeu de rôle aux IAs ?

Beth Singler (@BVLSingler) le confesse dès les premières lignes de son article pour Aeon : cette anthropologue sociale est également une fan de Donjons et Dragons… Ce qui l’amène se demander pourquoi on n?entraîne pas les IA à jouer à ce jeu plutôt qu’aux Échecs ou au Go. Ce n’est bien (...)

Beth Singler (@BVLSingler) le confesse dès les premières lignes de son article pour Aeon : cette anthropologue sociale est également une fan de Donjons et Dragons… Ce qui l’amène se demander pourquoi on n?entraîne pas les IA à jouer à ce jeu plutôt qu’aux Échecs ou au Go.

Ce n’est bien sûr qu’une expérience de pensée, continue Singler (et de fait, créer un logiciel capable de jouer à D&D se heurterait immédiatement à une difficulté majeure que Beth Singler ne prend pas la peine de mentionner, probablement parce qu’elle est évidente : il faudrait y intégrer un super chatbot capable de comprendre aisément les propos du meneur de jeu et de ses partenaires, et de soutenir une conversation complexe !), mais elle nous permet de redéfinir la façon dont nous concevons l’intelligence.

Tout d’abord, D&D demande, de la part des joueurs, une grande flexibilité d’esprit : selon les parties, ils peuvent être amenés à jouer divers rôles, celui d’un elfe, d’un paladin ou d’un voleur. Or « les chercheurs en IA savent qu’il est très difficile d’obtenir un algorithme suffisamment bien entrainé pour être capable d’appliquer ses compétences à plusieurs domaines mêmes légèrement différents – quelque chose que nous, les humains, gérons étonnamment bien. »

Ensuite, D&D implique une intelligence incarnée. Les joueurs se retrouvent autour d’une table, à interagir avec une histoire, et leurs réactions physiologiques, leurs signaux non verbaux, jouent un rôle non négligeable dans le déroulement de la narration. Or, précise Beth Singler, « nous accordons peu d’attention à l’incarnation des agents artificiels, et à la façon dont cela pourrait affecter la manière dont ils apprennent et traitent l’information ».

De plus, jouer à un jeu de rôle implique une intelligence sociale, savoir s?intégrer dans un groupe, une « compagnie », être capable de collaborer?. « Une IA qui pourrait s’impliquer dans une narration sociale s’avère sans doute une base de recherche plus sûre et plus multifonctionnelle qu’une autre qui joue aux échecs ; de plus, il n’y a aucune garantie que les échecs puissent même constituer un pas dans la bonne direction pour élaborer une telle intelligence », rappelle l’anthropologue.

Mais le plus curieux, se demande-t-elle, reste la question de savoir pourquoi les chercheurs de ce domaine se sont si peu intéressés aux jeux de rôle. Ce n?est en tout cas pas par ignorance de l’existence de ces jeux, car, rappelle-t-elle, « D&D a été une icône de la culture technologique pendant les années 1980 et une source d’inspiration pour de nombreux jeux informatiques en mode texte, comme le soulignent Katie Hafner et Matthew Lyon dans Where Wizards Stay Up : The Origins of the Internet (1996). Même aujourd’hui, les chercheurs en IA qui jouent à des jeux pendant leur temps libre mentionnent souvent D&D. »


Image : jeu de rôle version XKCD

  • Quand les robots « grandissent »?

Un robot peut-il grandir, se développer comme le ferait une plante ou un animal ? La question peut sembler étrange, et pourtant les tentatives n?ont pas manqué depuis la naissance de ce domaine pour réaliser une telle prouesse. Le premier à s’être intéressé à la question n’est autre que John Von (...)

Un robot peut-il grandir, se développer comme le ferait une plante ou un animal ? La question peut sembler étrange, et pourtant les tentatives n?ont pas manqué depuis la naissance de ce domaine pour réaliser une telle prouesse. Le premier à s’être intéressé à la question n’est autre que John Von Neumann, qui peut être considéré avec Alan Turing comme le fondateur de l’informatique. Il se demandait comment une machine serait capable de s’autorépliquer en capturant des modules flottant dans l’environnement. En fait, les travaux de Von Neumann sur l?évolution des machines ont donné naissance au champ des automates cellulaires, puis à celui de la vie artificielle, un domaine très lié à cette idée de « croissance des robots ».

Dans un long papier pour Frontiers in Robotics and AI, les auteurs, membres du centre de micro-biorobotique à l’Institut italien de technologie nous proposent un historique de ces tentatives et mieux, élaborent une nomenclature des différentes possibilités de « croissance » des robots, ce qui contribue à clarifier les idées sur un domaine plutôt complexe.

Comment un robot peut-il se développer ? De deux manières nous disent les auteurs : il peut changer de taille, devenir littéralement plus grand, mais peut également augmenter la complexité de son organisation.

De fait, les auteurs, différencient deux types de croissance robotique : l’autoassemblage et l’autoreconfiguration. Ces deux facultés sont associées à une forme particulière de robotique, la robotique modulaire. Un robot modulaire est composé de plusieurs parties séparées. Dans le cas de l’autoassemblage, il est capable d’ajouter certaines de ses parties à son système. Dans celui de l’autoreconfiguration, il change l’organisation existant entre ses éléments. A noter qu’alors que l’ autoassemblage suggère nécessairement une « croissance », l?autoreconfiguration peut simplement être une réorganisation sans que réellement on puisse dire que le robot « grandit ». Les auteurs basent leur catégorisation des différents prototypes sur la similarité entre le développement des machines et celui de certaines formes de vies. Ils distinguent ainsi, les robots moléculaires, cellulaires et organiques.

Les robots moléculaires


La notion de « robot moléculaire » se base sur l’idée que les différentes parties se trouvent éparpillées dans l’environnement et sont susceptibles de se rencontrer, en se « cognant » les unes contre les autres.

La première tentative du genre est un système imaginé par Saul Griffith. Il s’agissait d’un ensemble de petits cubes magnétiques qui, correctement configurés, étaient capables de prendre par eux-mêmes n’importe quelle forme bidimensionnelle, par exemple, comme il l’a montré pour sa thèse, le logo du MIT.

Un autre exemple est celui des « lily robots » développés à l’école polytechnique de Lausanne (.pdf), il s’agit de petits cubes flottant dans l’eau, munis de capteurs magnétiques. Pour contrôler l’autoassemblage, on procède de deux manières : on peut paramétrer les capteurs magnétiques de chaque module, ou manipuler le flot de liquide dans lequel ils surnagent, ainsi que l’explique la chercheuse Bahar Haghighat dans la vidéo ci-dessous.

Les robots cellulaires


Les robots cellulaires semblent plus prometteurs et moins limités, selon les auteurs. Par cellulaires, ils n’entendent toutefois pas, comme dans le cas des cellules biologiques, la capacité d’autoréplication. Les robots cellulaires sont en fait les exemples typiques de « robotique modulaire » spécifiquement capables de croissance et d?auto-modification. Ils se définissent par trois caractéristiques. La modularité est bien sûr la première. Mais il faut également que chaque cellule soit dotée de fonctionnalités simples : elle n?héberge pas un programme compliqué. Pas de deep learning ou de big data pour les robots cellulaires ! Enfin, il faut que le système soit décentralisé ; l’intelligence est une fonctionnalité émergente de l’interaction entre les cellules. Une telle description rapproche beaucoup les robots cellulaires des différents collectifs de robots comme il en existe beaucoup, par exemple les « swarmanoids« . Mais dans la plupart de ces essaims, les différents éléments restent physiquement indépendants les uns des autres, même s’ils agissent de concert comme des fourmis dans une fourmilière. Alors qu’un robot cellulaire est bel et bien une entité unique obtenue par la réunion de ses différentes parties.

Contrairement aux robots moléculaires, où l’autoassemblage se fait uniquement grâce à la géométrie des modules et la nature de l?environnement, les robots « cellulaires » se cherchent, les modules sont capables de s?aborder entre eux. Cela implique plus d’intelligence de la part des modules, ainsi que de l?énergie pour assurer leur déplacement. On peut voir dans la vidéo ci-dessous un CKBot s’autoassemblant alors que ses différentes parties sont éparpillées sur le sol. Dans chaque groupe de modules, il en existe un disposant d’une caméra permettant de « chercher » ses congénères à distance.

Les robots « végétaux »


Reste la dernière option, les robots « organiques ».

Il ne s’agit plus ici de robotique modulaire : il n’existe pas plusieurs parties qui s’assemblent pour créer quelque chose de plus grand, mais une seule unité qui est capable d’accroître sa configuration en faisant usage d’un matériau trouvé dans l?environnement, ou, plus généralement, embarqué dans sa structure.

On divise volontiers les organismes vivants multicellulaires en animaux et en plantes et c’est surtout ces dernières qui intéressent les auteurs. Chez les végétaux, la capacité à croître est fondamentale : en effet, alors que les animaux se déplacent, la seule manière pour une plante de changer son comportement est de modifier sa forme. Un exemple de ces plantes robots a été élaboré à l’université Stanford. Il s’agit d’une espèce de tuyau qui est capable de se dérouler jusqu’à 72 mètres à une vitesse de 35 km/h. Le robot, nous explique le New Scientist, est constitué de trois chambres qu’on peut gonfler avec de l’air (vidéo). Lors de son déploiement, il est capable de changer de direction, et même d’effectuer des tâches simples comme tourner un robinet. Ce robot, nous dit encore le New Scientist, pourrait être utilisé à des fins chirurgicales, par exemple pour poser des cathéters.

Le projet européen « plantoïd » s’inspire quant à lui des racines d’un végétal pour s’enfoncer dans une surface meuble (vidéo). Pour croître, il intègre une petite imprimante 3D lui permettant de fabriquer ses extensions. Grâce à des capteurs, il pourrait analyser la nature chimique du sol, et, nous explique Science et Avenir, ce « tronc » pourrait disposer de feuilles analysant, elles, l’environnement atmosphérique.

Les « robots plantes » présentent par rapport aux systèmes modulaires l’avantage de pouvoir mieux régler leur configuration. Ils ne sont pas contraints par la taille des modules : selon la quantité de filaments utilisé par l’impression 3D dans le cas du plantoïd, ou la pression de l’air dans les chambres du « tuyau », il est possible de régler la croissance de manière plus précise.

Cependant, qu’elles soient cellulaires ou organiques, ces machines connaissent une limite : elles sont contraintes dans leur développement par la quantité de matériel disponible. Pour les cellulaires, il s’agit du nombre de modules accessibles dans l?environnement. Pour les « organiques », la quantité de filaments thermoplastiques en réserve ou la taille maximale du « tube ».

Quel est l?intérêt de toute cette recherche ? Comme l’indiquent les auteurs dans leur conclusion, de tels types de machines capables de se modifier et de se reconfigurer seraient particulièrement à l’aise dans des environnements incertains ou dangereux. Pour l’instant, on le voit, on reste dans le domaine de la recherche fondamentale. Comme le notent avec justesse les auteurs, c’est sans doute en conjonction avec d’autres recherches, comme celle sur les nouveaux matériaux ou en biologie synthétique, que ce genre de travaux pourra atteindre la maturité.

Rémi Sussan

  • L?intelligence artificielle embarquée, une solution pour des interfaces vocales respectueuses de la vie privée ?

Dans une tribune pour Les Echos, Rand Hindi (@randhindi), PDG de Snips (@snips), estime que les services numériques doivent prendre la protection des données personnelles au sérieux, défendant la privacy by design, la protection de la vie privée par la conception. Reste qu’à l’heure de l’interconnexion des systèmes via l’informatique (...)

Dans une tribune pour Les Echos, Rand Hindi (@randhindi), PDG de Snips (@snips), estime que les services numériques doivent prendre la protection des données personnelles au sérieux, défendant la privacy by design, la protection de la vie privée par la conception. Reste qu’à l’heure de l’interconnexion des systèmes via l’informatique en nuage (Cloud Computing) qui échangent en permanence les données des utilisateurs pour les rendre productives, cette privacy by design est difficile à mettre en oeuvre.
C’est notamment le cas en ce qui concerne les interfaces vocales, comme les enceintes connectées Google Home ou Amazon Echo, ainsi que la plupart des objets connectés, qui, pour fonctionner, collectent énormément de données personnelles (voir par exemple L’enfer de la maison intelligente). En attendant que des technologies de chiffrement solides soient disponibles pour que les données personnelles que ces objets utilisent ne soient pas accessibles facilement, les utilisateurs sont contraints de faire confiance aux entreprises qui proposent ces technologies, alors même que les fuites de données, leurs reventes et les problèmes de confidentialité peuvent être nombreux. Pourtant, rappelle Rand Hindi, il existe une alternative simple : « traiter les requêtes vocales de l’utilisateur directement sur l’appareil auquel il parle ». C’est ce qu’on appelle le Edge Computing (le traitement des données à la périphérie) ou Fog Computing ou encore l’intelligence artificielle embarquée : « au lieu de centraliser les données et de les traiter dans le cloud, vous les décentralisez complètement en les traitant directement sur l’appareil ». Simple ! Cette technologie permet ainsi d’utiliser l’appareil sans connexion, de réduire les fuites de données et la surveillance. Et ce alors que les technologies de traitement de la voix en local existent déjà, souligne celui qui en développe et qui propose une interface pour permettre à d’autres de les intégrer à leurs appareils.

Cette technologie montre qu’une autre manière d’innover est possible. Elle est par exemple au coeur du récent rapport de l’Arcep sur les terminaux, ainsi que d’un des débats que l’Arcep avait organisés le jour de la présentation de ce rapport. Yann Lechelle, directeur des opérations de Snips, y expliquait très simplement les enjeux de Snips : créer des applications qui reconnaissent des commandes vocales en local, sur des cas d’usages spécifiques. On peut ainsi remplacer les boutons d’une machine à café par une commande vocale qui comprenne et opère une gamme de commande, sans avoir besoin d’envoyer tout ce que vous dites dans le cloud et sur les serveurs distants de l’entreprise qui vous fournit un appareil connecté. Bien sûr, cela signifie que la machine ne pourra pas répondre à toutes les demandes, comme Alexa ou Google Home. Mais est-ce le but de toutes nos machines connectées ? On sait encoder le langage d’usage, créer le modèle, en réduisant les cas d’usages et faire que la machine comprenne plusieurs centaines de commandes liées à son fonctionnement. L’enjeu bien sûr est d’une part de préserver la vie privée des utilisateurs, mais plus encore, de garder de la maîtrise. « Si demain votre machine à café fonctionne avec Alexa ou Google Home, ce sont eux qui domineront le marché », et ce alors que le périmètre fonctionnel des interfaces vocales est bien souvent spécifique, circonscrit à des cas d’usages limités.

A cette table ronde, un autre acteur, Alexandre Zapolsky (@alex_zapolsky), PDG de Linagora, rappelait que la commande vocale s’annonce comme l’interface de demain, la prochaine vague de consommation du numérique. Mais lui aussi soulignait que le risque est que tous les services passent par le prisme de quelques acteurs centralisateurs et qu’ils privilégient certains services au détriment des autres. Le risque est bien à terme le renforcement de monopoles sur les services vocaux. Linagora développe notamment Linto, un produit libre, gratuit et open source pour que ceux qui développent des services puissent les « vocaliser » sans passer par des acteurs tiers. Les banques par exemple ne vont pas avoir envie qu’Amazon ou Google soient au courant des revenus de leurs clients? et ce d’autant qu’elles risquent demain de devenir leurs concurrents directs. Linto est un Alexa pour le monde de l’entreprise que chacun pourra utiliser en marque blanche pour développer ses propres services.

Les avantages de ces technologies sont nombreux, que ce soit en terme de réduction de la circulation de données, d’amélioration de la sécurité, de protection de la vie privée, des temps de réponse voir même d’éco-conception.

A l’heure où les assistants vocaux sont appelés à devenir la fonctionnalité de demain, il faut rappeler, comme le pointe très bien l’interview de Joana Revis, orthophoniste-vocologiste et maître de conférence associée à la faculté de médecine d’Aix Marseille Université pour le Laboratoire d’innovation numérique de la Cnil (@lincnil) combien la voix est spécifique et combien elle exprime nombre de nos caractéristiques : genre, âge, émotion, tempérament, caractéristiques psychiques, intensions? autant de caractéristiques qui peuvent être interprétées ou imitées par les machines. La commodité de la commande vocale ne doit pas se faire sur l’exploitation d’une donnée éminemment biométrique et personnelle comme la voix.

  • Comment la SF inspire les scientifiques

On dit souvent que les chercheurs trouvent une bonne part de leur inspiration dans la science-fiction. Mais jusqu’où est-ce vrai ? Si l’on en croit une récente étude publiée sur Arxiv et relayée par la Technology Review, c’est non seulement exact, mais le phénomène tend à s’amplifier. Pour établir ce fait, (...)

On dit souvent que les chercheurs trouvent une bonne part de leur inspiration dans la science-fiction. Mais jusqu’où est-ce vrai ? Si l’on en croit une récente étude publiée sur Arxiv et relayée par la Technology Review, c’est non seulement exact, mais le phénomène tend à s’amplifier.

Pour établir ce fait, cette équipe de chercheurs, menée par Philipp Jordan de l’université de Hawaï, s’est penchée sur un domaine particulier : l’interaction homme-machine, et a analysé les papiers présentés lors d’une des conférences les plus fameuses du domaine, la « conférence ACM sur les facteurs humains dans les systèmes informatiques« , qui se tient depuis 1982, soit 83 textes différents. Et nombre d’entre eux possédaient des références à la SF.

Les chercheurs ont découvert que lorsque des chercheurs mentionnaient ce genre littéraire ou cinématographique, c?était pour des raisons diverses. Dans certains cas, il s’agissait de « design fiction ». Dans d’autres, la SF était mentionnée comme inspiration pour des techniques d’interaction. Par exemple un papier de 2008 affirme que : « L’inspiration pour la technique présentée dans cet article vient d’un classique de la science-fiction, le roman Dune de Frank Herbert, paru en 1965, où le voyage spatial interstellaire est effectué grâce à un processus connut sous le nom de « pliage de l’espace. »

Un autre type d’usage consiste à utiliser la science-fiction comme outil de prospective, pour imaginer des conséquences sociales de diverses technologies, telles les voitures autonomes, la surveillance ubiquitaire, etc.

Enfin la SF est bien sûr convoquée pour aider à conceptualiser une technologie qui justement n’appartient pas encore tout à fait au présent : la modification ou l' »amélioration » du corps humain.

Le recours à la science-fiction dans les papiers de la conférence, notent les chercheurs, tend à augmenter avec le temps. Et ces mentions dans les papiers ne seraient que le sommet de l’iceberg : « Nous pensons que les références explicites à la science-fiction dans la recherche sur l’interaction homme-machine ne représentent qu’une fraction de l’inspiration et de l’impact exercé par cette dernière ».

Et la Technology Review de conclure que : « Les entreprises de technologie emploient de plus en plus de prospectivistes qui utilisent la science-fiction comme moyen d’explorer les nouvelles technologies potentielles et leur impact social. Ils appellent cela du prototypage de science-fiction.  »

  • Un chiffre pour mesurer la conscience ?

Qu’est-ce que la conscience ? La question est tellement difficile que bon nombre de penseurs ont renoncé à y répondre, préférant se cantonner à réfléchir à une autre notion (pourtant à peine plus aisée à définir) : « l’intelligence ». Pourtant, comprendre la conscience s’avère central pour envisager notre futur, et touche autant à (...)

Qu’est-ce que la conscience ? La question est tellement difficile que bon nombre de penseurs ont renoncé à y répondre, préférant se cantonner à réfléchir à une autre notion (pourtant à peine plus aisée à définir) : « l’intelligence ». Pourtant, comprendre la conscience s’avère central pour envisager notre futur, et touche autant à la psychologie humaine qu’à l’intelligence artificielle.

Dans nos colonnes, nous avons déjà présenté une théorie de la conscience, celle de l?information intégrée, proposée par le neuroscientifique Giulio Tononi. Pour résumer, Tononi postule qu’une conscience est le produit d’une intégration entre les différentes parties d’un système. Cette intégration peut être mesurée et exprimée sous la forme d’un nombre particulier, que Tononi désigne par la lettre grecque Phi.

Comme toutes les théories sur la conscience, celle de Tononi est loin de faire l’unanimité. Mais, nous explique Wired, une récente expérience, pourrait constituer, selon le magazine, « la première vraie preuve de la théorie de l’information intégrée ».

Ce travail a été réalisé par l’équipe de Marcello Massimini, de l’université de Milan. Il a tout d’abord testé un panel de 102 personnes en bonne santé ainsi que 48 personnes ayant subi des lésions cérébrales, mais capables de réagir à leur environnement. Il leur a appliqué une stimulation magnétique transcranienne, ciblant certaines zones du cerveau particulièrement connues pour être liées à la présence de conscience, tout en analysant les résultats par EEG, alors qu’ils étaient conscients et inconscients. Massimini a ainsi pu obtenir un nombre qu’il a nommé l' »index de complexité perturbatrice » ou PCI (pour Pertubational Complexity Index). Sur les 150 cas analysés, lorsque cette valeur était au-dessus de 0,31, le sujet était systématiquement conscient. En dessous, il était inconscient.

Masimini s’est ensuite livré à une autre expérience. Il a testé des patients qui étaient éveillés, mais qui, suite à un accident ou une maladie, avaient cessé de communiquer avec le monde extérieur. Et les résultats sont assez inquiétants : en effet, sur les 43 personnes testées, 34 obtenaient un résultat inférieur à cette valeur de 0,31, ce qui était attendu. Mais 9 autres se trouvaient au-dessus de cette limite. Ce qui pourrait bien signifier, selon Wired qu’« ils possédaient peut-être une expérience du monde, mais qu’ils étaient incapables de communiquer à qui que ce soit qu’ils étaient toujours présents, comme s’ils étaient enfermés dans une cloche de plongée au fond de la mer ».

Quel rapport entre PCI et Phi ? Pour Tononi qui a travaillé sur le design de l’expérience avec Massimini, le PCI serait, une version « simplifiée » de Phi, mais plus facilement testable. « C’est peut-être une version du pauvre, mais elle fonctionne mieux que toute autre chose. Le PCI fonctionne sur le rêve et sur le sommeil sans rêves. (…) Maintenant, nous pouvons dire, juste en regardant cette valeur, si quelqu’un est conscient ou non. Nous pouvons évaluer la conscience chez les patients non réactifs.  »

Bien sûr, la théorie de l?information intégrée possède un véritable retentissement sur les recherches en intelligence artificielle. Car, si la thèse de Tononi reconnait la possibilité d’une conscience à des systèmes dont nous considérons généralement qu’ils en sont dépourvus (comme les insectes qui possèdent un cerveau minuscule), il rejette cette même éventualité pour d’autres entités, comme les machines, en tous cas les machines actuelles.

L?article de Wired nous explique que Tononi est en train d?écrire un papier expliquant pourquoi les actuelles IA, même celles utilisant le deep learning, seraient incapables d’accéder à la conscience : « Le phi d’un ordinateur numérique serait égal à zéro, même s’il pouvait parler comme moi », explique le neuroscientifique italien.

En effet, pour lui, la structure physique sur laquelle repose une conscience est fondamentale. Il rejette ainsi la doctrine « fonctionnaliste » ou « computationaliste », qui suggère que si une entité se comporte comme nous, alors elle éprouvera une expérience consciente analogue à la nôtre. Rappelons que c’est exactement l’hypothèse de base sur laquelle repose le fameux « test de Turing ». Mais pour Tononi, une simulation reste une simulation, tant que le système physique qui la supporte ne dispose pas d’un Phi élevé, ne possède pas une structure suffisamment « intégrée »…

  • Technosciences : de la démocratie des chimères? aux chimères de la démocratie

La question du Gouvernement des technosciences, c’est-à-dire de la participation démocratique au choix du progrès est un des sujets de fonds de l’histoire et de la sociologie des sciences. Loin d’être le seul mode de gouvernement des sciences, la participation des citoyens à définir une innovation responsable et démocratique, leur (...)

La question du Gouvernement des technosciences, c’est-à-dire de la participation démocratique au choix du progrès est un des sujets de fonds de l’histoire et de la sociologie des sciences. Loin d’être le seul mode de gouvernement des sciences, la participation des citoyens à définir une innovation responsable et démocratique, leur permettant d’influer sur l’évolution technologique de la société, a semblé, depuis une vingtaine d’années, une réponse possible à des choix industriels et de recherche qui se font trop souvent par-devers eux – quand ce n’est pas contre eux. L’historien des sciences Dominique Pestre (Wikipédia), en introduction et en conclusion de son ouvrage collectif, pointait déjà pourtant combien l’enjeu de la gouvernance démocratique, qu’a promu au début des années 2000 le concept d’Empowerment (ou capacitation) tout comme la Commission Européenne via son livre blanc sur la Gouvernance européenne (.pdf), n’était pas parvenu, loin s’en faut, à inverser cette tension. Pourtant, ces dernières années, notamment avec l’essor du numérique et la montée des contestations à l’encontre de nombre de projets technologiques, la démocratie technique semblait avoir fait un pas en avant en proposant de nombreuses modalités de débats, de conférences participatives, de forums collaboratifs… Force est de constater qu’ils n’ont pas toujours produit grand-chose – quand ce n’est pas rien du tout. La question du dialogue et de la concertation pour limiter les risques des nouveautés techno-industrielles n’a pas réussi à inverser la logique libérale des marchés.

la démocratie des chimèresLe constat que dresse la sociologue Sara Aguiton dans son livre La démocratie des chimères, gouverner la biologie synthétique va dans le même sens. La démocratie des chimères propose à la fois une mise en perspective historique de la biologie synthétique sous l’angle de la sociologie des sciences et une très intéressante critique des dispositifs de discussion mis en oeuvre autour de cette technologie. Certes, le champ de la démocratie technique qu’elle observe par le prisme de la seule biologie synthétique ne recouvre pas toutes les expériences participatives existantes, mais néanmoins permet de faire le point sur ses échecs. Car force est de constater que, de modèle pour réinventer la gouvernance des technosciences, la biologie synthétique a surtout brillé par ses échecs en la matière. Si les technologies sont plus démocratiques, c’est-à-dire que de plus en plus de gens peuvent s’en emparer, force est de constater qu’elles sont, comme avant, orientées et façonnées, plus que jamais, par la recherche et les entreprises qui les produisent.

Les biologies synthétiques

Dans son livre, la chercheuse rappelle que comme domaine de recherche, la biologie synthétique est née avec le 21e siècle. Son objet, prometteur et inquiétant, visait à modifier le génome de micro-organismes pour les doter de comportements qu’ils n’ont pas naturellement. Si les promesses d’applications semblaient révolutionnaires, les risques l’étaient tout autant, d’où l’enjeu, rapidement identifié de vouloir gouverner en amont les problèmes que la technologie pouvait induire et les contestations qu’elle n’allait pas manquer de faire naître. Rapidement, rappelle la sociologue, « la biologie synthétique est devenue un site d’expérimentation de ce que devrait être le bon gouvernement d’un projet technoscientifique (…) ; un site d’expérimentation où la sécurité, la précaution et même la démocratie pourraient être assurées sans altérer la croissance et l’innovation ». Cela ne s’est pas passé ainsi.

Dans la première partie de son ouvrage, Sara Aguiton souligne que l’horizon de la biologie synthétique n’a pas été unique ou uniforme. Pour certains, comme Drew Endy (Wikipédia), avocat de la démocratisation de l’ingénierie génétique, l’objectif était de faire du vivant un matériel d’ingénierie. L’enjeu était de transformer la biologie en science de l’ingénieur, d’en faire un « programme technicien » : de créer des technologies de contrôle de l’activité cellulaire pour rapprocher le vivant du fonctionnement d’un dispositif mécanique. L’une des applications phare de ce programme a été le dispositif Biobricks (Wikipédia) et la compétition iGem visant à produire simultanément les unités élémentaires d’une bio-ingénierie standardisée et leurs praticiens (voir les explications que nous en livrait Rémi Sussan dès 2008).

Une autre vision a consisté plutôt à construire des applications industrielles, à construire des organismes aux finalités productives, d’en créer un « programme industriel ». Ici, on trouve plutôt des scientifiques entrepreneurs comme George Church, Jay Keasling ou Craig Venter, des institutions, des laboratoires de recherche, des startups et des entreprises? qui travaillent notamment (mais pas seulement) aux recherches et applications biotechnologiques relatives à l’énergie et à la biomédecine. Ici, on vise une effectivité commerciale plus que de révolutionner les pratiques des sciences.

La grande différence entre ces deux tenants de la biologie synthétique explique Sara Aguiton était que l’un portait plutôt un modèle open source, quand l’autre reposait surtout sur des technologies propriétaires. Mais cette différence n’a pas duré, souligne la chercheuse. Les promoteurs de iGem et des biobricks se sont peu à peu éloignés de l’open source, au profit de biobricks industrielles favorisant leur réemploi, notamment via le déploiement, dès 2006 du Synthetic Biology Engineering Research Center (SynBerc), une institution dédiée à la recherche dans ce secteur qui va permettre au programme industriel de s’imposer.

En France, la structuration du secteur sera plus lente et plus compliquée, notamment parce que si le domaine de recherche est vite identifié comme important, il demeure peu financé. Le Centre de recherche interdisciplinaire (CRI) est l’un des espaces où naît la discipline, en lien avec les chercheurs du Génopole. Des conceptions différentes de la biologie synthétique coexistent et se développent à l’initiative de petits réseaux de chercheurs et d’étudiants.

La chercheuse dresse un panorama de la biologie synthétique et de ses acteurs complexe et détaillé.

L’impossible réduction de la contestation

Très tôt, la biologie synthétique a attiré l’attention de groupes contestataires, avant même que ne soient réalisées des applications industrielles. Notamment de la part des activistes d’,ETC (Erosion, Technology, Concentration) au Canada et aux États-Unis. Une contestation qui s’est notamment cristallisée dans la contestation du projet Glowing Plant (plantes lumineuses), un succès de la plateforme de financement participatif Kickstarter lancé en 2013 consistant à insérer des gènes de bioluminescence dans une plante, projet développé au sein du laboratoire communautaire Biocurious. Malgré l’emballement (plus de 8000 bailleurs s’étaient engagés à donner environ 500 000 dollars au projet en l’échange de graines), aucune plante lumineuse n’a vu le jour. Et pour cause : la dissémination de graines génétiquement modifiée contrevenait aux réglementations en matière d’OGM. En mobilisant leur communauté, ETC obtient que Kickstarter interdise la rétribution des contributeurs par des OGM.

En France, le rapport à la biologie de synthèse s’est construit autrement. Le manque de recherche et la faible visibilité du domaine a encouragé la mise en place d’un débat sur la relation science-société, bien différent de la contestation menée par, ETC de l’autre côté de l’Atlantique. C’est notamment autour de l’association VivAgora que va se construire à partir de 2009 le débat. À la différence des États-Unis, la communauté scientifique française est alors embryonnaire, ce qui va donner à ces débats une visibilité importante. Mais les espaces d’échanges deviennent vite des espaces de conflits. Dès 2011, le débat est relayé par des institutions politiques. Plusieurs rapports insistent sur la nécessité « d’organiser des débats publics en amont pour éviter que la biologie synthétique ne souffre les contestations qu’ont rencontrées les OGM, les nanotechnologies ou l’énergie nucléaire ». Mais ces débats écartent de leur organisation VivAgora, accusée de non-neutralité (alors que d’autres acteurs comme le Génopole ou le Commissariat à l’Énergie atomique qui y participent, eux, ne sont pas considérés comme un problème).

Les deux formes de mobilisation donnent à voir des styles de critiques différents. D?un côté, ETC s’oppose au projet néolibéral de mondialisation s’appuyant sur des choix technologiques autoritaires, en montrant ce que la biologie synthétique produit, en interpellant la communauté scientifique et les instances de régulation. De l’autre VivAgora, cherche plutôt à mettre en débat le sujet, oscillant entre une position de neutralité et une position plus critique. Reste que, souligne Sara Aguiton, ni l’une ni l’autre ne parviennent à faire bouger la situation. Si aux États-Unis, les critiques sont marginalisées, en France, elles sont plutôt légitimisées jusqu’à être assimilées par les institutions tant qu’elles s’inscrivent dans une dynamique d’acceptabilité sociale de la biologie synthétique.

L’échec des relations sciences-société

En mars 2011, le ministère de l’Enseignement supérieur et de la Recherche publiait une Stratégie nationale de recherche et d’innovation, une feuille de route prospective pour développer la biologie synthétique en France. Pour les autorités, il faut à la fois développer le domaine et canaliser les préoccupations de la société. Plusieurs rapports soulignent le besoin de créer un dialogue entre science et société pour restaurer un climat de confiance permettant de développer la biologie synthétique. À cette époque, la participation est promue à la fois par des institutions et par des associations qui en font une cause politique, alors même que la recherche s’y intéresse aussi. Pour nombre de chercheurs dans le champ de la participation politique ou des études technologiques, la conviction est alors que les « dispositifs participatifs permettraient d’agir sur la répartition du pouvoir et l’intensité des conflits ». « En faisant du développement technologique un objet de dialogue, il serait possible de réduire les inégalités de pouvoir entre décideurs.se.s et société civile et d’apaiser les conflits qui les opposent. Des conflits irréductibles pourraient être transformés en compromis, grâce auxquels technoscience et paix sociale seraient produites de concert. Cette promesse repose sur une technologie politique principale : la procédure, considérée comme seule garante de l’équité entre acteurs et de leurs bonnes manières. »

Pourtant, comme le souligne la chercheuse, des dispositifs de ce type ont été mis en place depuis la fin des années 90 et ont été utilisés dans nombre de domaines controversés « sans affecter les modalités de la prise de décision ni l’intensité des conflits ». Pire, souligne la sociologue : les dispositifs participatifs ont souvent été employés comme instrument de canalisation de la critique. Un usage stratégique de la participation qui n’a pas échappé aux protestataires qui se sont mis à les considérer avec suspicion, comme des leurres politiques. Pour la chercheuse les dispositifs participatifs relèvent plus de « niches dialogiques déconnectées des pratiques scientifiques qu’elles étaient pourtant censées gouverner ». La biologie synthétique n’échappera pas à ces écueils. Au contraire, elle finira de les discréditer.

À la suite des travaux de Dominique Pestre notamment, Sara Aguiton dresse un rapide historique de la démocratie technique et de l’histoire du rêve participatif. La question de la gouvernance participative a été forgée dès les années 90, notamment par la Commission européenne en réaction contre les régulations étatiques jugées peu performantes. Nées en réaction à de nombreuses mobilisations technocritiques (contre le nucléaire, le développement de nouvelles lignes de TGV, le sang contaminé ou les OGM?), ces contestations soulignaient à la fois les dégâts de ces innovations et les limites de l’expertise scientifique pour prendre en compte leurs risques et de l’autre les limites des États et des institutions européennes à gérer ces risques. C’est pour répondre à ces critiques que les institutions formulent des principes de gouvernance participative. Dans le même temps, les sciences sociales théorisent les questions de démocratisation de l’expertise et d’ouverture participative de la société civile à la décision technopolitique. Avec les années 2000, ces questions d’engagement du public sont mises en pratique, par exemple par le think tank britannique Demos. Mais pas seulement. En France de nombreuses associations et institutions de recherche vont participer à fabriquer et légitimer la question participative et la démocratie technique, théorisée notamment par Michel Callon (Wikipédia) sous forme d’égalité procédurale. Les acteurs de la démocratie technique en ont fait un objet de revendication pour insuffler de la légitimité aux politiques technoscientifiques.

Cependant, depuis les années 2010, ces dispositifs se sont érodés. En fait, les dispositifs font l’expérience de leurs échecs. Leurs promoteurs font rapidement le constat amer et répété de l’absence de conséquence de ces dispositifs sur la décision politique. Tant et si bien que les dispositifs eux-mêmes sont de plus en plus contestés et délégitimisés. En fait, ils se révèlent également inefficaces pour gérer les conflits. Pire, ces dispositifs eux-mêmes deviennent la cible des groupes de contestation radicaux comme Pièces et Main-d’oeuvre (Wikipédia) ou le groupe Oblomoff. Les dispositifs sont pris pour cibles d’action de perturbation. Leurs promoteurs sont qualifiés « d’acceptologues ». Ces critiques ne sont pas dénuées de fondement, reconnaît la sociologue. Pour les institutions qui cherchent à les utiliser, les dispositifs ne sont jugés constructifs que s’ils permettent de maîtriser la critique. De fait, les deux promesses de la démocratie technique n’épuisent ni les inégalités de pouvoir ni les conflits. Les institutions les utilisent comme des moyens pour générer de l’acceptabilité. « La démocratie technique devient un moyen de ne rien changer. »

Cela n’empêche pas les institutions de chercher à continuer à utiliser ces outils. Jusqu’au crash industriel. La première réunion du Forum de la biologie de synthèse organisée par l’Observatoire de la biologie de synthèse le 25 avril 2013 est perturbée par un groupe d’opposant, les chimpanzés du futur. L’intervention met fin aux débats qui étaient censés se prolonger sur plusieurs mois. Et achève toute initiative d’organisation d’un dialogue sciences-société dans le domaine de la biologie synthétique.


Image : les chimpanzés du futur perturbent le débat du 25 avril 2013. Sur la banderole « Non à la vie synthétique ».

La participation pour créer des espaces d’expression sans conséquence

Sara Aguiton n’a pas de mots assez durs pour critiquer les dispositifs démocratiques. Pour elle, ces techniques de gouvernement des contestations ne cherchent pas tant à réduire les critiques au silence « qu’à leur créer un espace d’expression sans conséquence ».

« L’objectif de la participation n’est pas de démocratiser la technoscience, mais de contrôler sa possible contestation ». L’institution en charge du dialogue se focalise sur la gestion procédurale du dialogue au détriment du dialogue lui-même. En fait, souligne Sara Aguiton, la critique radicale, comme celle de PMO, résiste à l’enrôlement institutionnel. « En s’institutionnalisant, la participation s’est figée : les institutions imposant une série de contraintes aux dispositifs, elles empêchent la possibilité qu’une critique substantielle soit portée dans ces espaces. Accepter la forme du débat, c’est empêcher une critique de fond. »

Les débats passeront de mode. Un rapport de décembre 2013 visant à encourager le développement des nanotechnologies et de la biologie synthétique promeut d’autres types de manifestations du type « fête de la science » ou « semaine de l’industrie » et encourage les institutions scientifiques à parler du lien avec l’emploi : la promesse de la création d’emploi devenant le nouveau levier de l’acceptabilité sociale de la biologie synthétique. La culture d’une démocratie participative en matière de biologie synthétique est enterrée. La question de la participation va prendre dès lors un autre tournant orienté vers la vulgarisation et la promotion de la science, s’orientant vers le « faire ensemble » et des expériences plus positives. On entre dans « l’âge du faire ». La question du pouvoir est passée sous silence.

Le problème, souligne encore la chercheuse, c’est que la disparition de process démocratiques n’a pas fait disparaître la contestation et la conflictualité. Au contraire, comme le montre la multiplication des mouvements zadistes contestataires à Notre Dame des Landes ou à Bure. La répression d’État s’est également accrue. Le débat n’a pas disparu : il s’est assurément durci.

Comme elle nous le confie, l’utilisation de dispositifs participatifs a changé d’orientation. Les crises autour des processus de discussion mis en place par la démocratie technique ont réorienté et transformé les démarches pour produire des expériences éloignées des controverses. Reste que même décrédibilisées par la pratique, « la machine participative est toujours convoquée pour rendre acceptable les projets contestés et réduire l’intensité des conflits », comme c’est le cas actuellement à Bure, dans le cadre du projet Cigeo d’enfouissement de déchets nucléaires où le secrétaire d’État a annoncé un débat public pour tenter d’empêcher la zadisation du site et ce alors que les solutions ont été imposées jusqu’à présent d’une manière très peu participative. Pour elle, il y a toujours des formes d’organisation des pouvoirs à réinventer. Les dispositifs participatifs fonctionnent souvent sur des microniches, oubliant bien des questions d’organisation de la prise de décision ou du financement de la recherche? La démocratie des projets n’est pas compatible avec la raréfaction des budgets et la concentration des pouvoirs dans des têtes de réseaux de recherche européens.

Après la gouvernance ?

Aux États-Unis, pour éviter les controverses désastreuses, se met alors en place une collaboration entre sciences sociales et technoscience soumise aux injonctions de l’industrie, que ce soit via le SynBERC ou via, d’une manière plus surprenante, l’implication du FBI dans les questions de biologie synthétique, afin de déjouer les questions possibles de bioterrorisme. L’industrie coopère avec les autorités et voit dans cette collaboration à la fois un moyen de s’autoréguler et le moyen de faire de l’exemplarité un argument éthique. Alors que l’Europe cherchait dans les outils participatifs un moyen de gérer les risques, de l’autre côté de l’Atlantique, on préfère comme souvent les codes de bonne conduite et l’auto-réglementation. Et ce, tant au niveau des acteurs industriels qui développent des codes de bonne conduite, que de la communauté DIYBio qui éclot alors.

L'article de Wired UK de 2014 sur les fondateurs de La PaillasseLe réseau DIYBio est créé en avril 2008 par Jason Bobe et Mackenzie Cowell avec pour but d’initier un mouvement participatif et amateur dans le domaine des biotechnologies. Entre 2008 et 2010, le réseau prend de l’ampleur aux États-Unis, avec des groupes locaux à Boston, puis New York et San Francisco avant de s’étendre rapidement en Europe à Paris, Manchester, Amsterdam, Copenhague, Munich? À partir de 2010, les laboratoires communautaires essaiment : Genspace à New York, le Boston Open Science Laboratory, Biocurious en Californie, La Paillasse à Paris. Plus de 100 groupes locaux sont recensés sur le site diybio.org.

Ce réseau souvent présenté comme « révolutionnaire » repose pourtant sur un ensemble de pratiques simples et emblématiques qui ne relèvent pas toujours de la biologie synthétique d’ailleurs. Production d’instruments de laboratoire bon marché comme le projet Open PCR, d’expérimentations dignes de salles de biologie de collège et d’événements de médiation scientifique (extraction d’ADN ou pratiques de fermentation pour produire le Kombucha, cette boisson fermentée pétillante réalisée à partir de thé, de bactéries et de levures). Si les relations entre la communauté DIYbio et celle de la biologie synthétique sont fortes, leurs objectifs se séparent. Dès sa création, le réseau DIYbio a profité d’une forte visibilité publique, souvent sensationnaliste sur les menaces que ces pratiques pourraient faire courir, tout en ne cessant de rassurer sur leur réelle portée (comme par exemple en adoptant la charte des biohackerspaces).

Le mouvement DIYbio a été animé par des acteurs avec des profils de chercheurs et d’entrepreneurs, comme Thomas Landrain qui a été longtemps le responsable de la Paillasse (voir sa présentation à Lift en 2012). Beaucoup de gens dans ces réseaux venaient de la médiation scientifique et les pratiques iconiques de ces structures, comme le Kambucha, tenaient beaucoup d’activités très grand public. Néanmoins, les choses semblent avoir un peu bougé depuis 2014, nous confie la chercheuse. Aujourd’hui beaucoup de ces espaces sont devenus des incubateurs de projets. Ce n’est pas le cas de tous les collectifs DIYbio, mais néanmoins leurs travaux se partagent beaucoup entre un rôle de médiation scientifique, de l’animation associative auprès du grand public ; un rôle de porteur de projets, souvent open source et participatifs, et un rôle plus entrepreneurial, notamment en incubant des startups dans le domaine des biotechnologies.

Pour Sara Aguiton, avec le temps, la question de la réappropriation comme la question politique semblent avoir disparu de ces collectifs. La capacitation s’est dissoute avec la maturation, souvent via le soutien à des projets collectifs voire d’accompagnement de projets entrepreneuriaux et de connexion avec des investisseurs. Quant à la question politique (qui n’était pas présente partout), elle s’est normalisée. Certains collectifs demeurent des animateurs du débat public, mais souvent en étant plus orienté médiation scientifique auprès de publics déjà intéressés. Les publics critiques voire contestataires ne sont plus là.

Dans sa conclusion, Sara Aguiton souligne que tous les moyens mis en place pour gouverner la biologie synthétique visent à dissimuler ce qui se perpétue. Le constat qu’elle dresse est assez terrible pour les dispositifs citoyens, inopérants face aux forces techno-industrielles et leur domination. « Les risques sont construits comme des questions d’usages ou d’acceptabilité, si bien que les biotechnologies sortent toujours épargnées de l’analyse, de même que les rapports économiques et sociaux qui permettent leur production et ceux qui sont transformés par leur diffusion. Les biotechnologies et leur monde ne sont jamais le problème. »

Pour Sara Aguiton, la question des promesses de la biologie de synthèse s’est également passablement dégonflée en 18 ans. Peu de choses sont advenues au-delà des laboratoires de recherches et des startups. « Il y avait de grandes promesses portées par les acteurs et théoriciens de la biologie synthétique, notamment autour des unités modulables que représentaient les biobricks. Force est de constater que les promesses n’ont pas été au rendez-vous. Mais les promesses industrielles également n’ont pas été au rendez-vous. Le projet emblématique de traitement de la Malaria par la startup Amyris a aussi été plutôt un échec. Il faut dire que le domaine de la biotechnologie synthétique a été transformé par l’avènement de la technologie Crispr/Cas9, qui est née en marge de ces acteurs et qui a transformé l’approche du secteur. Le basculement technique n’est pas celui qui était annoncé. Il s’est fait avec d’autres acteurs autour d’une autre technologie. »

Le livre de Sara Aguiton permet de faire le point sur une de ces nombreuses promesses technologiques et plus encore sur la question de la démocratisation du progrès. Le constat est un peu sans appel. A nouveau, on croise une promesse qui n’est pas tenue. À nouveau, l’agitation démocratique est on ne peut plus limitée : rejet de toute contestation et protection des projets les plus industriels. Dans Le gouvernement des technosciences, Dominique Pestre n’était pas plus optimiste. Il soulignait que dans tous les domaines, les acteurs privés, avec la collaboration active des États ont favorisé l’autonomie de la libéralisation-privatisation des technosciences. Dans une architecture saturée de techniques s’objectivant toujours plus par le nombre et les chiffres, tout mode de jugement alternatif est par principe disqualifié et invalidé. « Ce qui caractérise le temps présent, c’est la mise en oeuvre, à large échelle, de manières de gérer les hommes et les choses qui se donnent comme inéluctables parce que sans recours ou scientifiquement fondées ; qui reposent sur l’expertise et « l’efficience » ; qui s’imposent à travers les acteurs économiques qui les portent et les « acteurs de la société civile » qui les soutiennent ; qui ont conduit à l’impuissance du politique et donc à la dévaluation et à la marginalisation des formes démocratiques – et qui font appel, ironie suprême, à la « participation » des populations, à leur engagement, à leur devoir de s’adapter. »

L’absence de débat sur les choix du progrès risque surtout d’en renforcer la contestation.

Hubert Guillaud

  • Pour une téléologie du numérique

Sur son toujours aussi excellent blog, le chercheur en science de l’information Olivier Ertzscheid (@affordanceinfo) nous invite à construire une « téléologie du numérique », c’est-à-dire à construire « l’étude des causes finales » des outils et des entreprises du numérique, à en comprendre les finalités, les objectifs et les enjeux. Il pointe notamment (...)

Sur son toujours aussi excellent blog, le chercheur en science de l’information Olivier Ertzscheid (@affordanceinfo) nous invite à construire une « téléologie du numérique », c’est-à-dire à construire « l’étude des causes finales » des outils et des entreprises du numérique, à en comprendre les finalités, les objectifs et les enjeux.

Il pointe notamment l’annonce par Gizmodo d’une collaboration entre Google et le département de la défense américain, afin de fournir à ce dernier des technologies d’intelligence artificielle pour faire du guidage de drones de combat sur des terrains d’opération militaire. L’objectif du « projet Maven » consiste à fournir à l’armée des objets identifiés. Or ces objets identifiés sont ceux que chacun d’entre nous identifions en utilisant les outils de Captchas de Google, en étant les travailleurs de l’ombre des plateformes, ses travailleurs du clic du digital labor chers au sociologue Antonio Casilli (@antoniocasilli). « Chaque jour, dans le cadre de ce que l’on nomme le « Digital Labor » nous entraînons donc et nous « améliorons » les technologies embarquées dans des drones militaires qui seront utilisées sur des zones de guerre. »

Le problème de ce projet, c’est que chacun d’entre nous, en renseignant des images pour les robots de Google participons potentiellement aux tirs futurs des drones militaires, tant et si bien qu’un simple clic sur une image peut nous rendre coresponsables d’une frappe, d’un mort? sans que nous ne l’ayons jamais voulu. Comme le pointe très justement le chercheur, la question de l’intentionnalité des régimes de collecte de données est donc une question essentielle.  » Il ne faudrait pas que le numérique nous rende anonymes par excès de données ou que nous l’envisagions comme une excuse possible à chaque fois que nous perdons la capacité de tracer ce qui en sera réellement fait. Car ce qui est fait de nos données aujourd’hui, comme hier ce qui était fait de notre force de travail ou de nos impôts, est ce qui façonne nos sociétés, pour le meilleur de ce qui peut relier et émanciper les êtres humains comme pour le pire de ce qui peut les détruire. » Comme s’énerve légitimement le chercheur, nous devons pouvoir dire non. Nous devons pouvoir savoir clairement et explicitement ce dont il est fait de nos données, avec quelles intentions elles seront utilisées. Derrière l’utilisation qui est faite de nos données, à quoi consentons-nous réellement ?, comme le pointe avec force pertinence le juriste Lionel Maurel.

Ce projet entre Google et le département de la défense américain a – fait assez rare dans une entreprise (comme chez tous les géants de la tech) où la contradiction est toujours très mal vue – fait sortir quelque 3000 employés de Google (sur 72 000) de leur réserve. Une pétition adressée à la direction a demandé le retrait de Google du projet Maven pointe le New York Times.

La nécessité d’éclairer les projets politiques des géants de la techno, comme le pointait également Diana Filippova (@dnafilippova), cofondatrice de l’agence Stroïka, sur AOC, reste néanmoins à construire. Il est plus que jamais nécessaire décoder les valeurs et les méthodes des entreprises. Reste que ce n’est pas si simple. A la fois, comme le montre le projet Maven de Google, parce que les méthodes et projets sont insidieux, opaques et intriqués d’une manière complexe. De l’autre, parce que les objectifs poursuivis par les entreprises ne sont pas clairs, mais multiples. Peut-on dire ainsi comme le pointe Diana Filippova que Google incarne un projet politique transhumaniste ? Ou que Uber vise à la destruction systématique de la relation salariale ?

La difficulté demeure d’identifier l’intention derrière ce qui transparaît des actions. « Les intentions n?y sont jamais saisissables à l??il nu, les liens de causalité par nature cachés et trompeurs, l?intentionnalité des individus étant toujours contrariée par celle, invisible, fourbe, et in fine inconnaissable de forces qui nous dépassent. »

Il n’y a qu’en comprenant les finalités par l’analyse des modalités que nous pourrons mettre à jour le projet politique qui se joue par-devers nous. Tout le problème est que bien souvent, la finalité n’est pas nécessairement inscrite à l’origine du projet mais se construit peu à peu. Assurément, nous sommes là devant une question difficile, quoiqu’essentielle.

  • Retour ? décevant ? sur l?expérience de Milgram

Difficile, lorsqu’on s?intéresse à la psychologie, de passer à côté de la fameuse expérience de Stanley Milgram, un véritable classique. Rappelons brièvement son déroulement : un chercheur expliquait aux participants qu’il s’agissait d’une étude sur l’apprentissage. Une personne assise sur une chaise et bardée d?électrodes devait répondre à une série de (...)

Difficile, lorsqu’on s?intéresse à la psychologie, de passer à côté de la fameuse expérience de Stanley Milgram, un véritable classique. Rappelons brièvement son déroulement : un chercheur expliquait aux participants qu’il s’agissait d’une étude sur l’apprentissage. Une personne assise sur une chaise et bardée d?électrodes devait répondre à une série de questions ; chaque fois qu’elle se trompait, la personne testée (qui ignorait qu’elle était le véritable « sujet » de l?expérience) devait appuyer sur un bouton lui envoyant un choc électrique, qui devenait de plus en plus puissant au fur et à mesure du déroulement de la séance. Il s’agissait bien sûr d’une mise en scène et c?était un acteur qui simulait la douleur due aux électrochocs. En réalité, l?éducation n?était pas le sujet de la recherche, c?était l?obéissance qui était testée.

La conclusion de Milgram est connue et fait maintenant partie de la culture générale en psychologie : les gens sous l’influence d’une autorité – en l?occurrence celle du « chercheur » – ont tendance à obéir aveuglément. Cela explique les phénomènes d?oppression de masse ou les camps de concentration…
Dans le New Scientist, la psychologue et écrivain Gina Perry s’est penchée à nouveau sur cette expérience, a interrogé certain des participants et consulté les archives de Milgram et ce qu’elle a découvert ne l’a guère convaincu : « J’ai été frappé par la fragilité des affirmations que le monde a acceptées comme étant des faits », écrit-elle. Elle a d’ailleurs publié un livre sur ses découvertes, Behind the shock Machine, the untold story of the notorious Milgram psychology experiments.

Selon Perry, Milgram a été plutôt cavalier avec les protocoles expérimentaux, les changeant parfois en cours de route.

Par exemple, au départ, il était entendu qu’un sujet refusant quatre fois d?appliquer des chocs électriques à la victime était considéré comme « résistant » et l?expérience était arrêtée. Cette condition a ensuite été abandonnée, et une fois, une femme a dû subir 26 fois l’insistance du chercheur avant de finalement céder. Une autre femme avait refusé de continuer et éteint la pseudo-machine censée envoyer les chocs. Mais le « chercheur » a rallumé l’appareil, insistant pour qu’elle continue, ce qu’elle a fini par faire. Selon Gina Perry : « en écoutant les bandes enregistrées, on pourrait croire qu’il s’agissait d’une recherche sur l’intimidation et la coercition, pas sur l’obéissance ».

Autre problème, les participants étaient-ils aussi naïfs que Milgram le supposait ? Certains ne se doutaient-ils pas qu’il s’agissait d’une simple mise en scène ?

En fait, Milgram l’a remarqué lui même : il a avoué que 56 % seulement des sujets croyaient à l’authenticité de l’opération. Et dans une étude non publiée, il reconnaît que les participants qui doutaient de la réalité de l?expérience étaient ceux qui avaient tendance à accepter de distribuer le plus facilement les chocs électriques.

Au final, que pensait Milgram lui-même de sa fameuse expérience ? Dans une note non publiée retrouvée dans ses archives, il se demande si celle-ci était : « de la science significative ou simplement du théâtre efficace… Je suis enclin à accepter cette dernière interprétation « .

Depuis quelque temps, les sciences sociales subissent une crise de crédibilité : expériences mal conçues, jamais répliquées… L?expérience de Milgram n’est pas le premier grand classique à être mis en doute. Sera-t-il le dernier ?

  • La mauvaise utilisation des données est une caractéristique pas un bug !

Alors que le scandale Cambridge Analytica bat son plein et plonge à nouveau Facebook dans la tourmente, Ethan Zuckerman (@EthanZ), directeur du Centre pour les médias civiques du Massachusetts Institute of Technology, pour The Atlantic, prend un peu de hauteur. Voilà un peu plus de 17 mois que les Américains (...)

Alors que le scandale Cambridge Analytica bat son plein et plonge à nouveau Facebook dans la tourmente, Ethan Zuckerman (@EthanZ), directeur du Centre pour les médias civiques du Massachusetts Institute of Technology, pour The Atlantic, prend un peu de hauteur. Voilà un peu plus de 17 mois que les Américains s’interrogent sur les effets des médias sociaux sur la démocratie. Mais la plupart du temps, c’est pour ne pointer que des bugs en provenance d’acteurs mal intentionnés : on y accuse tour à tour des adolescents macédoniens, des bots automatisés, des experts en désinformation… S’il y a certes de petits organismes qui peuvent infecter la santé de tout un écosystème, c’est aussi parce que cet écosystème a été conçu pour favoriser nos pires biais, allant du harcèlement social à l’intimidation, en passant par l’homophilie (le fait de se connecter à qui nous ressemble)?

Pourtant, rappelle le chercheur, tous ces effets exploitent des caractéristiques des médias sociaux. Aleksandr Kogan, le chercheur qui a créé un quiz pour recueillir des données sur des dizaines de millions de personnes sur Facebook qui a permis à Cambridge Analytica de produire ses analyses, n’a pas pénétré les serveurs de Facebook pour voler des données. Il a utilisé l’API de Facebook qui, jusqu’en avril 2015, permettait à ceux qui créaient des applications de récolter les informations de leurs utilisateurs et de tout leur réseau social. Comme le dit le spécialiste des médias, Jonathan Albright (@d1g1) : « La capacité d’obtenir des informations exceptionnellement riches sur les amis des utilisateurs est due à la conception et aux fonctionnalités de l’API Graph de Facebook. Et la grande majorité des problèmes qui en ont résulté étaient des caractéristiques pas de bugs. » Si Kogan a agi en violation de l’éthique, il n’a pu le faire que parce que Facebook l’a rendu possible, pointe Zuckerman. Certes, vendre ces données à Cambridge Analytica était une erreur, mais Facebook ne pouvait pas ignorer que des gens comme Kogan pouvaient accéder aux données de millions d’utilisateurs, puisque c’était précisément la fonctionnalité de Facebook annoncée aux développeurs d’applications, jusqu’à ce que Facebook referme un peu la corne d’abondance en 2014. Or, rappelle Ethan Zuckerman, le modèle économique de Facebook est basé sur la collecte des informations personnelles et psychographiques et la vente de la capacité à cibler publicitairement les produits de ces données (c’est-à-dire les utilisateurs).

Cette fonctionnalité n’est pas propre à Facebook, rappelle le chercheur. Google développe des profils de ses utilisateurs, depuis leurs historiques de recherches et les outils qu’il développe pour eux, pour aider des annonceurs à cibler leurs messages. La plupart des sites web financés par la publicité tracent leurs utilisateurs pour tirer de la valeur et améliorer le ciblage publicitaire. Comme l’avait déjà expliqué Zuckerman lui-même, c’est le modèle publicitaire même de l’internet qui est un modèle d’affaires dangereux et socialement corrosif puisque par nature, il vise à mettre les utilisateurs sous surveillance constante.

Les réseaux sociaux peuvent facilement résoudre les problèmes provenant d’acteurs mal intentionnés. Ils peuvent faire la chasse aux bots et aux acteurs de la mauvaise information et ils ont même intérêt à s’aligner sur les intérêts de la société pour lutter contre ce type d’acteurs. Par contre, il va être plus difficile pour les plateformes de lutter contre les autres phénomènes qu’elles activent. Il est difficile pour YouTube de corriger son moteur de recommandation qui favorise le temps passé et nous encourage à l’aller d’une vidéo populaire l’autre, en accumulant des vues pour optimiser ses annonces publicitaires, même si cela favorise des vidéos promouvant les théories du complot ou des vidéos débiles pour les enfants. Il est difficile pour Twitter de limiter le harcèlement et l’intimidation quand les utilisateurs les plus engagés sont aussi les plus opiniâtres. Et il est impossible pour Facebook de nous protéger des publicités manipulatrices quand leur modèle d’affaires repose sur la vente de cette forme particulière de persuasion. Pour réparer ces caractéristiques, nous avons certainement besoin que la société fasse pression pour des normes et des modalités de transparence plus opérantes, comme de savoir qui paye pour faire de la publicité sur Facebook. Désormais nous avons une infrastructure technologique pour exploiter nos biais et pour soutenir l’armement de nos émotions à une échelle globale. Les entrepreneurs qui ont construit cette infrastructure ont désormais l’obligation de rendre des comptes.

Peut-on se défaire de la publicité basée sur la surveillance ?

Sur son blog, Doc Searls (@dsearls) ne dit pas autre chose. Facebook est une machine de surveillance rappelait la chercheuse Zeynep Tufekci (@zeynep). Nos profils et nos données sont ce qui est vendu aux annonceurs. Mais c’est le cas de tout site ou service en ligne : les publicités ouvrent le cou numérique des gens aux vampires affamés du sang des données personnelles. Mais tous les médias où se sont exprimés ceux qui condamnent les médias sociaux ou Cambridge Analytica ne font guère mieux. Le New York Times, le New Yorker, comme les autres, divulguent des données de leurs lecteurs à des tiers. Chaque fois qu’une annonce est chargée sur une page, le site envoie l’adresse IP du visiteur, l’URL qu’il consulte et des informations sur son appareil à des centaines d’entreprises (des courtiers de données) qui enchérissent les uns contre les autres pour montrer de la publicité au visiteur (voir ces explications en vidéo pour en saisir le fonctionnement).

Pour Doc Searls, il est nécessaire de se défaire de la publicité basée sur la surveillance (ce qu’on appelle les adtech, les technologies de la publicité), de quitter le marketing direct pour revenir à la publicité. Certes, concède-t-il les journaux ne sont pas équivalents à ce que font des Facebook ou des Cambridge Analytica, mais cela participe d’un même écosystème. Il existe d’autres moyens de faire de la publicité.

Sur Linux Journal, Doc Searls prolonge sa réflexion en invitant à revenir à de la publicité sans surveillance. Pour Searls, le Règlement général sur la protection des données (RGPD) pourrait permettre au #donotbyte de réussir là où le #donottrack a échoué (le donotbyte est un jeu de mot qui signifie à la fois ne pas livrer de données (byte pour octet) et ne pas mordre ; et le donottrack fait référence à l’initiative lancée par les publicitaires permettant aux gens de se faire déférencer du traçage publicitaire selon des modalités si compliquées qu’elles n’ont jamais vraiment été utilisées ou promues). Pour lui, nous devons inverser le processus de conformité et inviter les éditeurs à accepter les conditions d’utilisation des données de leurs utilisateurs plutôt que l’inverse, ce qu’il propose de rendre concret en créant le Customer Commons, qui consiste à décrire des modalités d’utilisation des données personnelles des utilisateurs sur le modèle de ce que les licences Creative Commons ont fait en matière de droit d’auteur. L’enjeu est de faire discuter à la fois un code juridique, un règlement lisible par l’homme et un code associé lisible par la machine (qu’il sera nécessaire de normaliser et spécifier). L’enjeu, explique Searls est de proposer un nouveau modèle de conformité où les sites et les services puissent être conformes à ce que les gens veulent plutôt que l’inverse. L’enjeu également est d’augmenter la valeur de la protection pour tous les acteurs de la chaîne. Dans un autre article, Doc Searls estime encore que nous avons passé le pic de données. Cela signifie, pour lui, que le taux maximum d’extraction de données personnelles ne peut plus être maintenu au niveau où il est actuellement. « La puanteur de l’extraction de données dépasse la tolérance de tous les acteurs ». De là à croire qu’on puisse revenir à une publicité à l’ancienne, à l’affichage, il y a un pas que seul le toujours énergique Doc Searls peut franchir.

Facebook n’est pas le problème

Le chercheur en sécurité informatique, Bruce Schneier, le souligne néanmoins : Facebook n’est que l’arbre qui cache la forêt du capitalisme de surveillance.

Aux Etats-Unis, on dénombre entre 2500 et 4000 courtiers de données qui font des affaires en achetant et vendant des données personnelles. « Le capitalisme de surveillance est profondément ancré dans notre société de plus en plus informatisée, et si l’étendue de celle-ci venait à être révélée, il y aurait de larges demandes de réglementations. Mais parce que cette industrie peut fonctionner en grande partie dans le secret et l’opacité, seulement occasionnellement exposée après une violation de données ou un rapport d’enquête, nous demeurons la plupart du temps ignorants de sa portée réelle. » Pour lui aussi, le RGPD européen serait un moyen d’apporter un peu de limites à ce secteur. En limitant la collecte à des fins « spécifiques, explicites et légitimes » et en exigeant le consentement explicite de l’utilisateur, la réglementation souligne que le consentement ne peut plus être caché dans les termes et conditions d’utilisations. Nombre d’entreprises, pas seulement européennes, se préparent à se mettre en conformité avec cette réglementation, rappelle Schneier. En Europe, toutes les entreprises vont devoir expliciter comment elles utilisent les données. Paypal par exemple a discrètement publié une liste de 600 entreprises avec lesquelles elle partage des données. Une initiative qui mériterait d’être saluée et reproduite. Pour Bruce Schneier, la régulation est la seule réponse. S’il a peu d’espoir que le Congrès américain adopte une loi sur la protection des données personnelles semblable au RGPD, il estime néanmoins que les Etats-Unis pourraient exiger d’obtenir des entreprises qu’elles soient plus transparentes sur leurs pratiques, notamment sur la manière dont elles vendent, achètent et utilisent les données.

Les plateformes ont favorisé le laisser-faire !

Pour le game designer et chercheur Ian Bogost (@ibogost), lui, s’amuse du scandale. Il rappelle qu’entre 2010 et 2011, il avait développé un jeu pour Facebook : Cow Clicker, un jeu satirique à l’heure où Farmville battait des records d’audience. Et le développeur de confesser qu’il ne fallait pas faire beaucoup d’efforts pour extraire des données de Facebook. Il rappelle qu’en 2007, Facebook a transformé son réseau social en plateforme d’applications. Mais il a fallu attendre 2014 pour que Facebook se mette à limiter l’accès aux données, notamment celles partagées publiquement par un utilisateur. Pour Facebook, la politique officielle en matière de confidentialité a toujours reposé sur le contrôle des utilisateurs (sans toujours leur donner beaucoup de moyens pour le faire) plutôt que sur la vérification des applications des développeurs. Les autorisations d’applications ne sont pas exceptionnellement claires dans Facebook – ailleurs non plus ! Bogost rappelle que l’utilisateur doit accepter la demande de l’application à accéder à des données dès qu’il l’ouvre pour la première fois, avant même de savoir ce que fait l’application. Le plus souvent, cette demande d’autorisation est présentée par Facebook plus que par le tiers qui l’a demandé, ce qui semble la rendre pour l’utilisateur officielle, sûre et approuvée. Pour l’internaute, l’application semble relever de Facebook plus que d’un développeur tiers, alors que ce n’est pas le cas. En substance, Facebook présente les applications comme des extensions quasi approuvées de son service, quand le contrôle qu’il effectue se limite à un service minimum.

Dans les détails que Ian Bogost pointe, on se rend compte surtout combien Facebook a géré avec énormément de légèreté ces questions, les construisant au fur et à mesure que les problèmes étaient mis à jour. Comme le souligne le développeur, alors qu’il a fermé son application il y a des années, il dispose toujours de données sur les gens qui ont utilisé son jeu. Quand bien même les utilisateurs révoqueraient aujourd’hui des autorisations d’applications, est-ce que cela signifie que celles-ci supprimeront les données qu’ils ont stockées ? Révoquer l’accès à une application utilisée il y a des années ne va pas faire disparaître les transmissions qui ont eu lieu ! rappelle-t-il. Comme le soulignait le journaliste de Vice, Jason Koebler, Facebook ne dispose d’aucun mécanisme pour que les applications suppriment les données qu’elles ont récupérées. Facebook a favorisé le laisser-faire, accuse Bogost. La plateforme elle-même était en construction permanente. Certains développeurs ont été malhonnêtes dès le départ. Ce n’était certainement pas la majorité, malgré tout ce qu’il était possible de faire. Beaucoup ont développé des jouets stupides parce que Facebook le leur a permis. Dans l’ensemble, la plupart des développeurs n’ont pas demandé vos données. Mais ils les ont obtenus et… ils les ont encore.

« Des millions d’applications avaient été créées en 2012, lorsque j’ai raccroché mon chapeau de cow-boy. Pas seulement des applications apparemment conçues avec la duplicité à l’esprit, comme le quiz de personnalité d’Aleksandr Kogan, qui a extrait des données qui ont ensuite été vendues à Cambridge Analytica. Mais des centaines de milliers de créateurs de jouets stupides, de quizz? qui n’auraient peut-être jamais eu l’intention de duper ou de voler des utilisateurs l’ont sûrement fait parce que Facebook leur a jeté les données à la gorge. Dans l’ensemble, aucun de nous n’a demandé vos données. Mais nous les avons obtenues quand même. Et pour toujours. »

Pour Chris Hoofnagle, spécialiste de la sécurité des réseaux, responsable du laboratoire Vie privée et sécurité de Berkeley, le constat est le même. Facebook ou Google récompensent les développeurs qui travaillent avec leurs plateformes en rendant les données disponibles, et bien souvent en leur permettant d’accéder à plus de données qu’ils n’en ont besoin.

L’essentiel des commentaires américains va dans le même sens. Pour Will Oremus sur Slate, c’est le modèle d’affaire d’internet qui est en cause. Même chose pour Siva Vaidhyanathan dans le New York Times (@sivavaid), directeur du Centre pour les Medias et la citoyenneté de l’université de Virginie et auteur de la Googlisation de toutes choses.

Un éditorial du New York Times invite le Congrès à s’inspirer du RGPD européen en expliquant que le problème n’est pas tant Facebook que l’absence d’une réglementation forte pour protéger la vie privée des utilisateurs.

Reste que si Facebook a promis de simplifier et de rendre plus accessibles les paramètres pour gérer ses données, Zuckerberg vient d’annoncer à Reuters que s’il approuvait l’esprit du RGPD, il n’en fera pas un standard pour Facebook au-delà de l’Europe. Dommage. Comme le soulignait le New York Times, les entreprises trouveront comment gagner de l’argent même avec des règles de confidentialité plus strictes. Si la plupart des secteurs résistent à la régulation, force est pourtant de constater que de nombreux secteurs en ont bénéficié. Le plus souvent, les normes stimulent la demande. « Facebook et d’autres entreprises internet craignent les règles qui protègent la confidentialité des données, mais ils ne devraient pas. Des règles fortes pourraient être bonnes pour eux comme pour les consommateurs. »

Reste que si la réglementation est vertueuse, elle ne fait pas tout non plus. C’est ce que nous rappelle Joi Ito, à qui nous laisserons le mot de la fin.

Il faut remettre les humains dans la boucle !

Pour l’Union américaine des libertés civiles (ACLU), l’une des grandes organisations de défense des droits, Joi Ito (@joi), directeur du Media Lab du MIT, invite les ingénieurs à dépasser le mea-culpa.

« À bien des égards, les problèmes les plus pressants de la société actuelle – disparité croissante des revenus, problèmes de santé chroniques et changement climatique – sont le résultat des gains spectaculaires de productivité que nous avons obtenus grâce à la technologie et à la science. Internet, l’intelligence artificielle, le génie génétique, les cryptomonnaies et d’autres technologies nous fournissent de plus en plus d’outils pour changer le monde qui nous entoure.

Mais elles ont un coût.

Nous sommes en train de nous éveiller aux implications que beaucoup de ces technologies ont pour les individus et la société. »

Leurs effets sont déjà là. À l’image des programmes qui calculent la probabilité de récidive des condamnés américains (voir notre dossier sur la justice analytique) qui peinent à s’extraire de leurs biais. À l’image du controversé programme de la ville de Boston de confier la fixation des horaires d’écoles à un algorithme, abandonné suite au tollé des parents. Les ordinateurs ne savent pas résoudre les problèmes politiques.

Pour Joi Ito, la technologie ne peut oublier de mettre les humains dans la boucle (d’où le fait qu’il parle d’intelligence étendue pour évoquer la relation croissante entre les technologies et la société). Les systèmes techniques sont conçus par des ingénieurs qui décident quelles données utiliser, comment les pondérer, les agencer pour créer des modèles précis et efficaces. Le problème est que ces développeurs ne sont pas des experts des domaines qu’ils construisent. Ils ne connaissent rien en matière de liberté provisoire, de justice, de planification d’horaire ou de vie en collectivité. « Un problème important notamment est que tout biais ou erreur dans les données que les ingénieurs ont utilisées pour enseigner quelque chose à la machine entraînera des résultats qui reflètent ces biais. »

Pour remédier à ces problèmes, Karthik Dinakar (@kaydeeb0y) cherche à impliquer une plus grande variété d’experts dans systèmes d’apprentissage automatisés, afin de créer ce qu’il appelle des systèmes d’apprentissage avec des « humains dans la boucle ». L’enjeu au coeur du calcul humain dans la boucle est de construire des modèles depuis des expertises sur leurs enjeux. Pour Karthik, il est nécessaire d’utiliser une variété de lentilles et d’expertise dans la construction des systèmes, par exemple de demander à un juge d’évaluer les données et les paramètres utilisés dans un système de probation. Pour le MIT, l’enjeu est que ce couplage aide à créer des outils qui soient à la fois plus faciles à comprendre pour les humains et mieux à même de refléter des facteurs pertinents.

Joy Ito pointe notamment deux exemples où des chercheurs s’associent au public pour construire des outils capables de mieux s’inscrire dans la société. Comme le programme Machines Morales, de Iyad Rahwan (@iyadrahwan qui collecte les avis de millions de personnes sur le fameux dilemme du tramway pour mieux comprendre ce qui est acceptable et ce qui ne l’est pas pour les gens en matière de règle éthique pour la conduite autonome. Kevin Esvelt (@kesvelt), un spécialiste du génie génétique implique la population du lieu où se trouve son laboratoire pour savoir si les habitants souhaitent qu’il travaille à créer une souris résistante à la maladie de Lyme (en utilisant un dérivé de la technologie CRISPR, qui ne permette pas au génome modifié de se reproduire). Il a décidé par exemple que des citoyens surveilleraient son projet, avec notamment le droit de l’arrêter à tout moment, leur donnant le droit de ne jamais l’autoriser à déployer ses recherches.

Rétablir l’équilibre sur, au sein et entre les systèmes et les gens demandera du temps et des efforts. Pour Ito, « nous avons besoin de défenseurs des droits sociaux, d’avocats, d’artistes, de philosophes et de tous les citoyens pour nous engager à concevoir cette intelligence étendue. C’est le seul moyen pour réduire les coûts sociaux et améliorer les bénéfices de l’IA à mesure qu’elle s’intègre à notre culture. »

Hubert Guillaud

Sur ce sujet, encore, je vous invite à lire également l’excellent article d’Olivier Ertzscheid qui nous explique que nos données personnelles sont coincées entre le bunker et la passoire, sans que l’un ou l’autre des modèles ne soient sans défauts. Ou l’interview d’Antoinette Rouvroy qui souligne que le scandale Cambridge Analytica est avant tout l’échec de l’autorégulation des grandes plateformes et que l’algorithmique détruit tout rapport de pouvoir. Ou enfin l’excellente analyse de Lionel Maurel sur les question de protection par défaut et de consentement dans le RGPD.

  • Attention à l?attention

Pour éclairer les questions de conception attentionnelles, autour du programme Retro-Design de l’Attention lancé par la Fing, il nous a semblé essentiel de recevoir un éclairage provenant des neurosciences et de la psychologie comportementale. C’est pourquoi nous nous sommes associés à Chiasma (FB, blog, @chiasmaparis) une association qui organise des (...)

Pour éclairer les questions de conception attentionnelles, autour du programme Retro-Design de l’Attention lancé par la Fing, il nous a semblé essentiel de recevoir un éclairage provenant des neurosciences et de la psychologie comportementale. C’est pourquoi nous nous sommes associés à Chiasma (FB, blog, @chiasmaparis) une association qui organise des débats pour éveiller à la pensée critique. C’est cette approche pédagogique qu’a choisie son cofondateur, Albert Moukheiber, chercheur en neuroscience et psychologue clinicien pour expliquer au petit groupe d’étudiants que nous encadrons à l’Ensci ce qu’était l’attention.

« Chez Chiasma, on est attaché à la complexité. Or, pour aborder la complexité, il faut savoir nuancer ses propos », explique Albert Moukheiber en guise d’amorçage pour désarmer les critiques. « Aujourd’hui, nous entendons partout des propos très alarmistes sur les écrans et leurs effets. Mais il est important de se rappeler que ces questions sont récentes. Malgré les études, on n’a pas le recul nécessaire pour comprendre ce qu’il se passe ». Et si on est alarmiste, c’est souvent parce que, en tant qu’espèce, on préfère se protéger que prendre un risque. On disait déjà de la lecture de la presse dans les transports en commun que c’était une technologie antisociale. Internet n’a que 25 ans, un brin de paille à l’échelle des 200 000 ans de notre espèce, estime Albert Moukheiber en nous invitant à nous défier de l’alarmisme.


Image : Albert Moukheiber devant les étudiants de l’Ensci.

Pourquoi notre attention est-elle une ressource limitée ?

Pour comprendre pourquoi notre attention est une ressource limitée, il faut prendre beaucoup de recul. Jusqu’à notre sédentarisation, il y a environ 12 000 ans, le plus grand danger que nous ayons connu était les prédateurs. En tant qu’espèce, qu’Homo Sapiens, nous avions besoin de mécanismes pour assurer notre survie dans un environnement dangereux, alors que nous n’étions ni l’espèce la plus forte, ni la plus rapide. Nos ancêtres chasseurs-cueilleurs devaient gérer des dilemmes. Quand on entend un bruit dans la forêt, il fallait savoir si c’était le vent ou un prédateur. Or, nous avions un bénéfice à faire un choix plus qu’un autre. Manquer une alerte était bien plus coûteux que de s’alarmer pour rien. On a développé une hypervigilance? en préférant nous tromper que mourir. Et cette hypervigilance réflexe nous est restée. C’est ce qui explique notre hypervigilance attentionnelle : qu’on sursaute face à un événement imprévu, qu’on continue de mobiliser notre attention à partir de signaux faibles. « Le problème est qu’on ne vit plus dans le même environnement ». Contrairement aux robots qui analysent tout très vite, notre cerveau fait des approximations pour favoriser la réaction. Aujourd’hui, les robots savent récupérer une balle qu’on leur lance en faisant une analyse de trajectoire. Nous aussi, mais d’une manière bien plus approximative, ce qui explique que parfois on ne l’a rattrape pas. Contrairement aux robots, nous avons pour cela des modèles approximatifs, des modèles heuristiques qui sont basés sur nos expériences passées. Nous apprenons à récupérer une balle, à utiliser un robinet ou une porte par l’expérience, ce qui ne nous conduit à parfois faire des erreurs.

Le chercheur se livre à une petite expérience d’ancrage. Il nous montre plusieurs images d’objets blancs en posant à chaque fois une question dont la réponse est « blanc ». Jusqu’à une image qui montre un verre de lait en posant la question « que boivent les vaches ? » Bien évidemment, la plupart d’entre nous répondent « lait ». Les quelques rares qui apportent une bonne réponse le font avec un petit décalage par rapport aux réponses qui viennent immédiatement. Oui, les vaches boivent de l’eau. « En fait, réprimer notre première réponse demande un effort ». C’est un bon exemple de notre fonctionnement heuristique qui demande de l’apprentissage et du temps pour être maîtrisé, à l’image des jeunes enfants qui apprennent petit à petit à manger et à viser de mieux en mieux leurs bouches avec une cuillère.

Ces modèles ont été conceptualisés par certains chercheurs comme Daniel Kahneman, qui nous a expliqué que nous avions un système de pensée rapide et un autre lent. Derrière cette métaphore, il faut entendre que nous avons d’un côté un système rapide, plutôt inconscient, assez automatique, souvent utilisé pour des décisions du quotidien, mais très sujet aux erreurs. C’est le coût de la vitesse. Et un autre système, plus lent, plus conscient, qui demande des efforts, qu’on utilise pour des décisions plus complexes, et souvent plus fiables. Et tout le problème consiste à passer de l’un à l’autre, de savoir quel système utiliser. Même si notre histoire, en tant qu’espèce, nous a appris qu’il valait mieux traiter l’information vite et se tromper. C’est le fondement de la théorie de la gestion des erreurs mise à jour par David Buss et Marie Haselton, qui soulignent qu’il est coûteux d’intégrer tous les détails de notre environnement tout en restant rapides et précis, ce qui explique que nous préférions l’erreur la moins coûteuse. « Pour créer du sens, pour interagir dans un environnement saturé, nous faisons des compromis qui favorisent les erreurs les moins coûteuses ».

De nos biais cognitifs et de leurs impacts sur nos prises de décision

À l’image de ces biais de décision, nos biais cognitifs sont nombreux. On en recense des centaines que l’on classe en quatre grandes familles. Ceux liés au fait que nous recevons trop d’information et qui nous poussent à faire des raccourcis. Les biais de sens, qui nous poussent à surinterpréter quand nous n’avons pas assez d’information. Les biais de rapidité qui nous poussent à agir vite. Les biais de mémorisation qui nous font reconstruire nos souvenirs depuis ce que l’on croit le plus probable ou possible. « Les biais n’ont rien à voir avec l’intelligence ou le niveau de culture ! Nous y sommes tous sensibles ! », rappelle le chercheur.

« Le problème est que tous ces biais sont prédictibles, ce qui fait qu’on peut vous orienter vers la réponse qu’on souhaite que vous donniez, qu’on peut les « ingénieuriser ». En fait nous sommes tellement prédictibles que ça devient un problème ». Plein de gens sont ainsi convaincus que Facebook enregistre leurs propos depuis les micros de leurs smartphones ou de leurs ordinateurs parce qu’ils y voient apparaître des publicités pour des produits qu’ils souhaitent acheter par exemple. Or, Facebook dispose de suffisamment données pour prédire ce qui vous intéresse, notamment parce que nous sommes éminemment prédictibles. L’enjeu désormais pour Google ou Facebook consiste même à réduire la qualité de la prédiction pour ne pas effrayer ses utilisateurs.

« L’attention est un jeu à somme nulle »

Outre la raison liée à l’évolution, le second facteur qui explique que notre attention soit limitée est structurel. La capacité de nos cerveaux a des limites, explique Albert Moukheiber en nous invitant à regarder une petite vidéo pour tenter de voir ce qui change.

Vous avez vu quelque chose ? On ne voit pas ce qui change doucement. Notre attention est limitée temporellement et nous sommes peu réceptifs au changement progressif. C’est ce qui explique, notamment, qu’on ne se voit pas vieillir ou grossir. Notre attention est limitée dans le temps. Et nous sommes bien plus attentifs à ce qui bouge vite, à ce qui clignote… qu’à un changement progressif.

Albert Moukheiber utilise ainsi plusieurs vidéos du psychologue et prestidigitateur britannique, Richard Wiseman (Wikipédia, chaîne vidéo, @richardwiseman) pour montrer que notre capacité à nous concentrer est limitée (essayez par exemple de remarquer le changement de couleur dans ce fameux tour de carte). Notre attention est également sélective « spatialement ». Elle n’est pas non plus multitâche. On ne sait pas faire plusieurs choses en même temps. Le multitâche n’existe pas vraiment : on passe en fait d’une tâche à l’autre très vite et on perd en efficacité en fait du fait de ces engagements/désengagements.

« L’attention est un jeu à somme nulle » : si on en donne une part, on ne peut la donner à autre chose. Si je me concentre sur quelque chose, je ne peux me concentrer sur autre chose. C’est ce qui explique en grande partie l’hyper-compétitivité à l’égard de la captation de notre attention.

Pourtant, on ne cesse de tenter de faire plusieurs choses en même temps. Comme de lire un livre ou un article en écoutant de la musique. Reste que quand on fait deux choses en même temps, on perd en qualité. Prenez la conduite par exemple. Le jeune conducteur, au début, doit se concentrer sur sa route et n’est pas vraiment capable de discuter ou de siffloter en même temps. C’est seulement après une certaine pratique, qu’il arrive à siffloter ou à discuter. Mais dès que l’environnement est dangereux, même le conducteur chevronné s’arrête de siffloter ou de parler pour se reconcentrer sur la circulation. L’attention est une même somme brute, qu’on arrive à mieux gérer avec l’habitude ou l’automatisation.

Vers un web intuitif : adapté ou déformé par nos biais cognitifs

« Notre cerveau aime prédire ce qu’il va se passer. Si je lâche mes lunettes, je sais qu’elles vont tomber – et si ce n’était pas le cas, on flipperait grave. » Un design intuitif en ligne correspond à un site où l’utilisateur devine ce qu’il va se passer, c’est-à-dire où la prédictibilité de l’utilisateur matche avec la réalité. C’est ce qui explique que nous nous adaptons aux symboles que les interfaces utilisent. Ou que les gestuelles des écrans tactiles soient efficientes, car leurs fonctions en étant intuitives nous étaient aussi prédictibles. En permettant de mesurer avec précision nos comportements, le numérique permet de créer des interfaces particulièrement intuitives. On peut désormais détecter nombre de signaux de nos comportements en ligne pour les exploiter. À l’image de reCaptcha, qui n’est plus qu’une simple case à cocher pour signaler que nous ne sommes pas un robot, parce que l’interface détecte notre vitesse de réponse et le mouvement de notre souris pour nous distinguer des robots.

L’ingénierie de nos biais cognitifs ne date certes pas de l’internet : le marketing les exploite depuis longtemps. Mais le web design permet d’aller plus avant, en exploitant directement nos réponses et nos traces. Toutes ces formes d’exploitation ne sont pas à condamner. Beaucoup sont en fait très utiles. Pas toutes, explique-t-il avant de faire une revue des pires pratiques de prise en otage de notre attention (voir sa présentation).

Nombre de services exploitent ainsi le biais de conformité sociale, consistant à vous montrer ce qui est populaire chez vos amis parce qu’on aime se conformer à ce que font les autres. Facebook sait très bien utiliser ce levier pour proposer de la publicité où vous présenter des groupes ou des événements.

Un autre biais très exploité, c’est celui de l’attention continue, à l’image du scroll sans fin ou du déclenchement automatique d’un autre contenu, par exemple à la fin d’une vidéo.

Le biais de cadrage est très utilisé pour l’achat en ligne notamment. Il consiste à cadrer le comportement par une formulation ou des options limitées, afin de l’orienter, à l’image d’une présentation d’options tarifaires limitées, orientées pour vous faire préférer une offre sur les autres.

Le biais de désirabilité sociale consiste à susciter du désir pour se conformer à ce qui semble être le comportement des autres, ou ce que l’on vous présente comme tel. C’est l’un des grands enjeux du marketing de firmes comme Apple qui crée un besoin autour d’un objet présenté comme un statut social.

Le biais de répétition ou de matraquage consiste à démultiplier votre exposition à une information, le plus souvent une publicité. Plus qu’une erreur de ciblage, l’objectif est bien de vous faire douter (ou acheter) face à la répétition.

L’illusion de récence consiste à présenter de l’information comme étant nouvelle, quand bien même elle ne cesse de recycler des contenus.

Le biais d’effet de groupe consiste à créer le zeitgeist du moment, la chose dont tout le monde parle, partout, afin de vous amener à y céder, à l’image des séries télé dont tout le monde parle via des procédés de viralité publicitaire souvent très orchestrés.

L’aversion au risque est également un biais très exploité. Booking ou TripAdvisor par exemple le couplent avec les biais de rareté, de répétition et moult attaques sensorielles pour vous faire passer à l’achat.

Tout cela se fait sur un mode de gratification répétée, instantanée, programmée ou aléatoire, à l’image des récompenses variables théorisées par BJ Fogg et Nir Eyal. Sur les réseaux sociaux par exemple, l’algorithme dévoile nos publications par à-coups pour générer des likes, puis les montre à d’autres pour en générer de nouveau afin de nous faire revenir régulièrement pour obtenir ces micro-récompenses.

Sans compter également les « sludges », ces mauvaises pratiques, ces « dark patterns » (vidéo), ces pièges à utilisateurs, ces nudges inversés qui vont du précochage d’options aux bannières publicitaires qui semblent être sales pour vous inciter à mettre le doigt dessus pour nettoyer votre écran et cliquer sur elles.

On pourrait continuer longtemps ce répertoire de pratiques. Albert Moukheiber nous invite en conclusion à nouveau à être prudents et nuancés. Toute manipulation ne vise pas à déclencher des récompenses ou à activer nos neurotransmetteurs. La limite entre la manipulation et l’ergonomie demeure assez floue et s’évalue au cas par cas et ce d’autant que nous ne sommes pas égaux face aux biais. Ainsi, globalement, la prise de risque est plus forte à l’adolescence et l’aversion à la perte se renforce en vieillissant. Des questions de caractère et de psychologie jouent également. Les dépressifs ou les anxieux ont des biais spécifiques. Les biais et leur manipulation doivent s’étudier en contexte.

L’important est de comprendre qu’on ne peut pas déjouer ces mécanismes. On ne peut pas les éviter. On peut les comprendre. Apprendre à les inhiber un peu, apprendre à être vigilant, à douter de ses émotions, de ses intuitions? On ne peut qu’avoir une approche corrective, plus que préventive. Au niveau global, on peut faire des réglementations et des législations pour contraindre aux bonnes pratiques, comme le fait d’afficher les prix au kilo ou d’interdire le précochage sur internet.

Au niveau individuel, notre capacité d’action est plus limitée. Elle ne repose pas sur une question d’éducation. Tout le monde sait pourquoi le marketing nous propose des prix « psychologiques » en 9, cela n’empêche pas que cela marche. Au niveau individuel, on peut juste être plus conscients des erreurs de logiques que nous faisons, nous former à la pensée critique et aux nuances. Pour Chiasma justement, l’enjeu est justement de déplacer la question de l’estime de soi que génère une opinion, à l’estime du raisonnement critique. En attendant que les pratiques changent, nous ne pouvons que chercher à nous protéger en tant qu’individu.

Hubert Guillaud

  • En route pour la dé-extinction (3/3) : restaurer l?écosystème

S’il y a une chose à retenir du livre de Beth Shapiro, et par extension de l?ensemble des recherches en dé-extinction, c’est bien l’idée qu’il s’agit de restaurer des interactions écologiques plus que des espèces proprement dites. Et qu’il s’agit moins de ressusciter de « vrais mammouths » que d’enfanter des éléphants (...)

S’il y a une chose à retenir du livre de Beth Shapiro, et par extension de l?ensemble des recherches en dé-extinction, c’est bien l’idée qu’il s’agit de restaurer des interactions écologiques plus que des espèces proprement dites. Et qu’il s’agit moins de ressusciter de « vrais mammouths » que d’enfanter des éléphants susceptibles de vivre dans un environnement analogue à celui des mammouths?

Créer une population


Mais avant de lâcher ces animaux modifiés dans la nature, il faudra vaincre les difficultés de la dernière étape : créer toute une population viable. Et là encore, c’est loin d’être une chose facile.

Ce ne sera déjà pas évident d’obtenir le premier ovule ! A partir de là, plusieurs solutions s’offriront aux chercheurs. La première consistera à cloner cette cellule embryonnaire. Opération somme toute assez facile, mais qui donnera naissance à une population totalement dénuée de diversité génétique. Cela peut rendre sa survie à long terme assez hypothétique, car en cas d?événements catastrophiques (maladie, bouleversement écologique) tous les animaux auront le même type de réaction, et l?espèce pourrait s?éteindre en cas de mauvaise adaptation. Ceci dit, Shapiro nous rappelle que des espèces peuvent très bien survivre avec une faible diversité génétique, comme les ours blancs et… les êtres humains – qui est l?espèce de primate possédant le taux de diversité le plus pauvre ! Autre possibilité : créer une petite population et la laisser se reproduire avec les membres de l?espèce de « référence » ; mais alors les modifications génétiques obtenues après tant de difficultés risquent d’être perdues. Reste la dernière solution : recommencer la première opération en modifiant des cellules différentes de l’individu d’origines, pour créer une population la plus variée possible. Mais rien ne garantit que les modifications donneront les mêmes résultats sur des cellules différentes.

Une fois qu’on aura obtenu une population, pourra-t-on la lâcher immédiatement dans la nature ?

Évidemment non ! Même si le but n’est pas de maintenir les animaux enfermés dans un zoo, il y aura tout de même une phase de captivité. Et là, autre problème tous les animaux ne réagissent pas de la même manière face à celle-ci. Les éléphants, par exemple, la vivent très mal, ce qui augure mal du comportement des futurs « mammouths »?

Il faudra aussi « éduquer les petits », ce qui peut s?avérer facile s’il s’agit d?espèces très « câblées » génétiquement, beaucoup plus difficile pour les animaux très sociaux (comme, encore eux, les éléphants). A noter que la question s’est déjà posée lors de la sauvegarde d?espèces en voie de disparition, en dehors de tout projet de dé-extinction. Beth Shapiro mentionne l’exemple du condor de Californie. Donné comme pratiquement disparu en 1982, les écologistes avaient capturé les derniers spécimens restants, et avaient réussi par une astuce à faire pondre aux dernières femelles condor plus d’oeufs qu’elles ne pouvaient éduquer d’oisillons. Ce sont donc des humains qui se sont chargés de l?éducation, mais ils risquaient, s’ils se présentaient sous leur aspect réel, de favoriser une attitude des nouveaux nés par trop favorables à l?espèce humaine, ce qui pourrait s?avérer dangereux par la suite. Les éleveurs utilisèrent alors des marionnettes à l’effigie de condors pour dispenser leur enseignement !

Par la suite les condors ont été relâchés dans la nature et l?opération a été un succès.

L’impact écologique


Imaginons que tous ces problèmes aient été résolus. Quel sera l’impact de ces nouvelles espèces sur les écosystèmes ? Quel intérêt de ressusciter le pigeon migrateur ? Ou le mammouth laineux ?

Pour le premier cas, la fondation Revive and Restore donne une explication assez complète du rôle de ces oiseaux dans l?écosystème nord-américain. C’est assez paradoxal comme souvent avec les systèmes complexes, mais il se trouve que les vols de milliers de ces volatiles avaient tendance à perturber la stabilité des forêts américaines, parce qu’ils détruisaient le sommet d’un grand nombre d’arbres, ouvrant ainsi la canopée, ce toit vert qui recouvre les forêts les plus denses. Loin d’en faire des animaux nuisibles, cette « destruction créative » favorisait la variation et le renouvellement de la flore forestière.

Comme l?explique la légende de l’image ci-dessous :

« Après une perturbation de la canopée, un habitat ouvert dans celle-ci permet au soleil de stimuler la colonisation successive des herbes, des fleurs, des arbustes et des fourrés. Les communautés d’insectes, d’amphibiens, de reptiles, d’oiseaux et de mammifères changent à mesure que les vieux arbres se régénèrent, que de nouveaux arbres germent et mûrissent, et que la forêt referme de nouveau sa canopée. »

Malgré toutes les difficultés mentionnées pour les ressusciter, les mammouths auront au moins une chance, celle de disposer d’un lieu où se développer, le parc du pléistocène de Sergey Zimov. Celui-ci cherche à redonner vie à la toundra en réintroduisant des animaux qui proliféraient dans cette région il y a plus de 12 000 ans. Il ne s’agit pas, précise Nikita Zimov, le fils de Sergey Zimov dans la vidéo ci-dessous (an anglais, mais avec des sous-titres), de créer un lieu touristique ou en tout cas sans utilité immédiate. La théorie derrière ce projet, est, comme l’explique encore Nikita Zimov, que « les animaux peuvent maintenir l’écosystème, créer l’écosystème, développer l’écosystème ».

Le retour de gros herbivores dans cette partie du globe pourrait transformer un écosystème appauvri en un environnement beaucoup plus riche. En paissant, les mammouths renouvelleraient le sol, déplaceraient les graines et reverdiraient très vite la région. Mais ce n’est pas tout. Dans le sol de la toundra se trouve enfermée une grande quantité de gaz carbonique : environ 1400 gigatonnes, soit deux fois plus qu’il n’en existe dans l?atmosphère actuelle. Par chance, ce gaz est bloqué par le sol gelé, qui l?empêche de s?échapper… Pour l’instant.

Mais aujourd’hui, les étés sont plus chauds tandis qu’en hiver, la neige qui s’accumule (et qui n’a qu’une température de zéro degré) empêche le permafrost de conserver un niveau de froid suffisant pour maintenir prisonnier le gaz dans le sous-sol. Il y a plusieurs années, le permafrost possédait une température de -6 degrés. Aujourd’hui, il est à -3. S’il gagne encore trois degrés, explique Sergey Zimov dans la vidéo, le carbone qui y est capturé s’échappera dans l’atmosphère… »Nous sommes assis sur une énorme bombe de gaz carbonique », renchérit son fils.


Image : dans le permafrost, au parc du pléistocène..

Si de grands herbivores parcouraient la toundra en hiver, ils auraient tendance à déplacer la neige. Le sol serait alors en contact plus direct avec le froid arctique (à la température bien plus basse que celle de la neige). Ces animaux aideraient donc à maintenir l?intégrité du permafrost… et donc à sauver la planète d’une catastrophe climatique supplémentaire. Aujourd’hui, il y a déjà de grands herbivores dans le parc du pléistocène, comme des bisons, des rennes… Mais de très gros animaux, comme les mammouths ou les rhinocéros laineux, contribueraient encore plus au refroidissement du permafrost.

Que penser finalement de toutes ces recherches sur la dé-extinction ? On l’a vu, rien n’est impossible dans cette initiative, bien que de nombreuses difficultés existent à toutes les étapes du projet, qui, si elles ne sont pas résolues feront capoter entièrement la tentative.

Ce qui me frappe le plus dans ces travaux, cependant, c’est la manière dont ils permettent de repenser complètement des sujets qu’on croyait bien connaître, tels que la définition d’une espèce animale, comment fonctionne un écosystème, etc. Le simple fait de penser le projet met en lumière une multitude de phénomènes qui étaient connus auparavant (le rôle des pigeons migrateurs sur la canopée, par exemple, le problème de gaz carbonique séquestré dans toundra, etc.), mais qui n?avaient pas forcément été intégrés dans une vision globale. Il me semble que la dé-extinction pourrait bien être un exemple de la science de demain, celle qui se développera lors de ce que Danny Hillis a nommé « l’âge de l’intrication », précisant que nous entrons dans une époque où : « contrairement aux Lumières, où les progrès ont été analytiques et consistaient à séparer les choses les unes des autres, les progrès dans l?âge de l?intrication seront synthétiques et consisterons à réunir les choses. Au lieu de classifier des organismes, nous les construirons. Au lieu de découvrir de Nouveaux Mondes, nous les créerons. » (Re)créer une espèce, construire des écosystèmes comme le parc du pléistocène, nous aide à comprendre un système complexe comme la biosphère.

Peu importe finalement que les opérations de « dé-extinction » aient vraiment lieu comme imaginées, ou que nous découvrions des moyens plus efficaces ou plus aisés de sauvegarder la biodiversité et le climat. Le projet aura fait avancer les choses : il nous aura permis d’augmenter notre compréhension des interactions écologiques et il aura produit de la pensée originale et stimulante – n’est-ce pas ce qui compte le plus ?

Rémi Sussan

Le dossier « En route pour la dé-extinction »

  • Vers des interactions automatisées et empathiques à la fois

Comme le souligne très bien Tom Simonite pour Wired, les centres d’appel ont toujours été à la pointe des bouleversements technologiques et leurs employés ont souvent testés, bien avant les autres, toutes sortes d’innovations, le plus souvent de surveillance afin d’optimiser sans cesse leur productivité. La dernière innovation qui s’apprête (...)

Comme le souligne très bien Tom Simonite pour Wired, les centres d’appel ont toujours été à la pointe des bouleversements technologiques et leurs employés ont souvent testés, bien avant les autres, toutes sortes d’innovations, le plus souvent de surveillance afin d’optimiser sans cesse leur productivité. La dernière innovation qui s’apprête à bouleverser le secteur consiste à leur adjoindre des assistants intelligents qui vont analyser pour eux la voix et les émotions de leurs correspondants, mais également les leurs !

C’est en tout cas ce que propose déjà CogitoCorp, un outil d’analyse émotionnel du ton de la voix et des propos développé par le MIT pour accompagner les téléconseillers dans leur travail (et aider également leurs responsables à les contrôler). Le logiciel de Cogito écoute le rythme et les propos des interlocuteurs et notifie les téléconseillers pour les inviter à adapter leur comportement. « Nous essayons d’aider les gens à faire 60 appels dans la journée, même s’ils sont fatigués », précise le président de Cogito, Joshua Feast, qui se défend de délivrer des informations qui n’amélioreraient pas la relation client. Comme il l’explique dans la Technology Review, l’enjeu est d’améliorer la relation client en analysant les interactions et les émotions.


Image : une notification qui apparaît sur l’écran d’un téléconseiller qui donne des indications pour répondre au ton et aux mots d’un client qui pourrait devenir mécontent, via Wired.

Les premiers clients, comme l’assureur américain MetLife, envisagent de déployer la technologie après des premiers tests satisfaisants, puisqu’ils auraient permis d’améliorer la satisfaction client et diminuer la durée des appels. Même chose pour d’autres entreprises utilisant des services similaires, comme celui de CallMiner, basé sur les technologies de Nuance (qui implémente les capacités de reconnaissance vocale de Siri) : le service permettrait d’augmenter le nombre de téléconseillers par superviseurs. Assurément, les logiciels d’intelligence artificielle « socialement sensibles » promettent de pousser toujours plus loin le taylorisme technologique en dressant les comportements des employés et des clients.

Reste à savoir quelle information recevront les usagers. Les promoteurs de ces technologies estiment que l’indication d’enregistrement de l’appel tel qu’il existe actuellement pourrait suffire comme avertissement. Pas sûr. Outre la mise en production de leurs appels (pour nourrir les systèmes d’intelligence artificielle utilisés), ce traitement supplémentaire et asymétrique nécessiterait certainement d’être un peu mieux annoncé à ceux sur lesquels il opère.

De la réponse intelligente à la gratitude automatisée

Sur Medium, le philosophe Evan Selinger (@evanselinger, coauteur du récent Re-Enigneering Humanity, cf. De l’automatisation des relations à notre propre automatisation ») compare l’impact de Cogito, qui vise à améliorer les modèles de langage des téléconseillers, aux fonctionnalités de de « réponse intelligente » de Gmail, qui nous propose désormais des micro-réponses toutes prêtes pour nos correspondants, nous invitant notamment (et le plus souvent) à les remercier (12 % des réponses que le milliard d’utilisateurs de Gmail font, utiliseraient déjà ces fonctions de réponses automatiques, rapporte Engadget). « Bien que la réponse intelligente soit dépourvue d’émotion, dans de nombreuses circonstances, elle est toujours accompagnée d’une formulation à la fois affectivement chargée et suffisamment intelligente pour donner aux utilisateurs l’impression d’être consciencieux », voire sincères. La réponse intelligente (et ses avatars plus humoristiques) nous incite désormais à la politesse, via une forme d’injonction comportementale.


Image : Trois réponses proposées automatiquement par Gmail à renvoyer à nos correspondants.

L’enjeu de ce petit geste vise à rendre le contrat social qui nous lie aux autres visible et viable, estime Selinger. Comme le souligne la philosophe Sarah Buss dans un article sur la signification morale des bonnes manières, dire merci peut apparaître une réponse robotique profondément enracinée dans notre conditionnement social, mais c’est une déclaration qui permet de rappeler que les autres sont des agents moraux, c’est-à-dire qu’ils doivent être l’objet de notre préoccupation morale (même si bien des formes de politesses n’en relèvent parfois pas). S’il y a quelque chose d’infantilisant dans le fait que nos mails ou nos téléphones nous rappellent que nous devons dire merci, il y a une ligne de démarcation floue entre le fait de le dire spontanément et le fait qu’un logiciel le fasse pour nous. La gentillesse et la gratitude sont des vertus qui animent d’intention certains plus que d’autres.

Reste que ce « nudging » individuel se focalise uniquement sur le comportement. En maximisant une forme d’efficacité sociale, les carebots, ces robots qui prennent soin de nous, et « nos téléphones reconnaissants » nous rappellent que l’efficacité n’est pas que technique. Qu’importe si elle n’est pas toujours sincère, tant que ce manque de sincérité n’est pas apparent.

Ce « nudging » nous interroge profondément, comme le soulignait Mike Brown sur Inverse, qui a utilisé la réponse intelligente pendant une semaine pour répondre à tout ses mails. Les suggestions de réponses nous rappellent à nous-mêmes. Elles nous invitent à améliorer nos routines quotidiennes. Les réponses automatiques comme « non, merci » ou « Félicitations ! » nous donnent l’impression de mentir aux gens ou d’être dédaigneux. Depuis cette expérience, Mike Brown dit être plus attentif à ses réponses.

L’application Reply de Google, qui s’interface avec Slack, Facebook Messenger, Twitter et d’autres messageries instantanées, va encore plus loin dans la suggestion que ces simples réponses, souligne The Verge. Via l’accéléromètre de votre téléphone par exemple, il vous suggère précisément le nombre de minutes qu’il reste quand vous répondez à quelqu’un j’arrive ! A une requête du type « Où es-tu ? », il propose d’envoyer le lieu précis ou propose des réponses automatiques à des demandes de rendez-vous quand votre agenda indique que vous êtes déjà pris… Certes, constate The Verge, la fonctionnalité en bêta comporte encore des bugs et les réponses automatiques sont loin d’être toujours adaptées aux situations. Il n’empêche, ces exemples montrent bien que l’assistance comportementale s’apprête à envahir notre quotidien en démultipliant les injonctions émotionnelles et comportementales.

Le problème est que ce traitement des émotions n’est pas sans biais, comme le soulignait une remarquable enquête de Motherboard en octobre dernier. En utilisant le logiciel d’analyse de sentiment et de langage naturel de Google, Andrew Thompson a montré que certaines phrases, très simples, pouvaient être analysées négativement par ce type de systèmes. Ces outils reflètent les biais de nos sociétés, au détriments des minorités éthniques, religieuses, sexuelles…



Image : Analyse de sentiments depuis le logiciel de Google avec deux phrases simples : la première, « je suis chrétien » est analysée comme positive. La seconde, « je suis juif », est analysée comme négative !

Comme le constataient les chercheurs Camille Alloing (@caddereputation) et Julien Pierre (@artxtra), dans leur stimulant petit livre, Le web affectif, une économie numérique des émotions, la mesure et la fabrication des émotions vont de pairs. Déjà, pour la sociologue Eva Illouz dans Les sentiments du capitalisme, « le langage de l’affectivité et celui de l’efficacité économique sont en train de se mélanger étroitement ». La mise en chiffre de l’émotion intègre des choix techniques et moraux pour calculer ce qui doit circuler, notamment le langage approprié. Les affects numériques deviennent alors un mode de travail, un mode de production. Bienvenue à l’ère de la mise en production de nos émotions, ce digital affective labor. Une économie de l’exploitation émotionnelle, qui s’apprête à nous faire passer du capitalisme cognitif au capitalisme affectif. Pas sûr que nous l’apprécions plus que le stade précédent !

Hubert Guillaud

  • Comment les applications de circulation peuvent aggraver? les conditions de circulation

Une étude de l’Institut d’études sur le transport de l’université de Californie pointe que les applications de navigation communautaire comme Waze peuvent aggraver la congestion globale. Pour Alexandre Bayen, directeur de cet Institut, les externalités négatives des applications pourraient être plus fortes que prévu. En fait, l’étude souligne que la (...)

Une étude de l’Institut d’études sur le transport de l’université de Californie pointe que les applications de navigation communautaire comme Waze peuvent aggraver la congestion globale. Pour Alexandre Bayen, directeur de cet Institut, les externalités négatives des applications pourraient être plus fortes que prévu.

En fait, l’étude souligne que la fluidité que permettent ces outils, en permettant à des utilisateurs de prendre des voies secondaires lors d’incidents sur les voies principales par exemple, atteint ses limites quand trop d’utilisateurs les utilisent. Plus les conducteurs utilisent ces applications et plus la saturation sur les itinéraires de délestages, non prévus pour supporter de gros trafics, s’accroit. Au final, estiment les auteurs de l’étude, selon le niveau d’utilisation de ces applications, cela à tendance à renforcer le taux d’embouteillage total qu’à le soulager (voir les explications en vidéo d’une simulation avec en haut 20 % d’automobilistes qui utilisent une application leur délivrant des informations de circulation en temps réel et en dessous, des automobilistes dans une même situation où aucun n’a accès à des informations de circulation en temps réel).

Trop d’information sur des itinéraires de délestage encombre ces voies secondaires, qui saturent plus rapidement que les itinéraires principaux. Quand quelques personnes utilisent ces outils, cela peut permettre de fluidifier le trafic lors d’incidents, mais ce n’est pas le cas quand ils sont trop nombreux. Tout l’enjeu consiste désormais à savoir à partir de quel moment les conditions de circulation se dégradent.

Les travaux pionniers de chercheurs comme Hani Mahmassani avaient déjà montré que l’information ne conduit pas automatiquement à l’amélioration des conditions de circulation. Visiblement, cette fluidité semble dépendre du nombre de conducteurs qui bénéficient de l’information. Pour Alexandre Bayen, ces applications devraient travailler à mieux répartir leurs utilisateurs? surtout quand il est question de les renvoyer vers des voies secondaires.

  • Hackathons, une culture d?exploitation

Les hackathons sont devenus un des rituels compétitifs préférés de l’industrie. Ces concours où de petites équipes de codeurs construisent des produits technologiques lors de sessions de code marathon, relèvent de la culture de la Silicon Valley, rappelle Erin Griffith pour Wired. Une culture qui s’est largement diffusée puisque toutes (...)

Les hackathons sont devenus un des rituels compétitifs préférés de l’industrie. Ces concours où de petites équipes de codeurs construisent des produits technologiques lors de sessions de code marathon, relèvent de la culture de la Silicon Valley, rappelle Erin Griffith pour Wired. Une culture qui s’est largement diffusée puisque toutes les grandes entreprises et institutions organisent désormais les leurs (de la Fashion Week au Vatican?), afin de se donner un vernis d’innovation. Les organisateurs les considèrent comme des opportunités de recrutement et comme des moyens d’évangéliser aux questions technologiques. Il existe même désormais des entreprises, comme Major League Hacking qui se chargent d’organiser des hackathons pour des entreprises.

La sociologue Sharon Zukin, spécialiste de la gentrification, et son confrère Max Papadantonakis ont passé une année à observer plusieurs hackathons. Dans une étude intitulée « Hackathons comme rituel de cooptation », ils estiment que ces rituels créent des attentes fictives d’innovation et sont surtout utilisé pour faire travailler des gens gratuitement. Pour eux, les hackathons promeuvent une nouvelle norme de travail précaire basée sur l’auto-investissement et l’auto-exploitation de leurs participants. Cela n’empêche pas les participants bénévoles de voir ces événements positivement, notamment parce ces événements très sociaux sont souvent riches émotionnellement et instructifs. Les étudiants qui y participent estiment y acquérir des compétences que les cours ne dispensent pas.

De leur côté, ceux qui les organisent jouent à fond de la « romance de l’innovation numérique », vantant le travail comme un plaisir, l’épuisement comme expérience et la précarité comme opportunité. Les sociologues, qui n’ont observé que des hackathons ouverts au public, rappellent que de nombreuses entreprises de la technologie en organisent également en interne, le week-end, où les employés sont poussés à participer. Pour eux, les hackathons reflètent une asymétrie de pouvoir entre les entreprises commanditaires et leurs participants. L’ironie c’est que peu importe que les participants participent volontairement à leur auto-exploitation, s’amusent ou apprennent : ces événements produisent rarement des innovations utiles au-delà de l’événement. Au-delà de quelques très rares belles histoires, la plupart des participants ne travailleront pas sur leur projet après le hackathon. Ils ne sont pas plus efficaces en terme de recrutement souligne l’étude. Ils ne vendent qu’un rêve d’innovation, d’accomplissement par la technologie… ce rêve moderne auquel toutes les entreprises veulent être associées.

  • Comment l?internet change-t-il notre regard sur la créativité ?

Kenneth Goldsmith (@kg_ubu, Wikipédia) est un personnage assez inclassable. Artiste, poète, professeur, figure de la création contemporaine, il échappe sans cesse aux cases dans lesquelles on tente de le faire entrer. Fondateur d’UbuWeb (@ubuweb), qui depuis 1996 collecte des expériences artistiques d’avant-garde sous forme de sons, de textes, de films? (...)

Kenneth Goldsmith (@kg_ubu, Wikipédia) est un personnage assez inclassable. Artiste, poète, professeur, figure de la création contemporaine, il échappe sans cesse aux cases dans lesquelles on tente de le faire entrer. Fondateur d’UbuWeb (@ubuweb), qui depuis 1996 collecte des expériences artistiques d’avant-garde sous forme de sons, de textes, de films? il est assurément un passeur. Sa grande connaissance de l’art moderne et notamment des expériences à la frontière de l’art et de la littérature le transforme en une inépuisable source de références de là où agit et s’inscrit la création contemporaine. Mais il n’est pas qu’un passeur. Il est également l’un de ceux qui interroge, par ses propres oeuvres, plutôt conceptuelles, la façon dont se croise l’art, la littérature et le numérique.

Les étonnantes éditions Jean Boîte (@jeanboiteedition) avaient déjà publié de lui Théorie, un ensemble de 500 textes sur les enjeux de la création littéraire contemporaine dans un monde bouleversé par le numérique, publié sous la forme d’une ramette de papier. Ils publient ce mois la traduction par François Bon de L’écriture sans écriture, du langage à l’âge numérique, traduction de Uncreative Writing : managing language in the digital age, un livre publié à l’origine en 2011, qui s’appuie notamment sur les cours que Kenneth Goldsmith donne à l’université de Pennsylvanie. Un décalage temporel qui explique que certains exemples qui nourrissent le livre soient parfois un peu datés, notamment face aux possibilités que le numérique a accomplies depuis – rien néanmoins qui ne nuise à la pertinence de ses références, au contraire.

L’écriture sans écriture : le numérique, une écriture non créative

Même s’il puise sa matière dans l’histoire des arts graphiques et de la littérature conceptuelle, le propos principal de Kenneth Goldsmith va pourtant bien au-delà. Il nous explique le nouveau rapport que l’écriture et la lecture entretiennent avec le numérique. Pour Goldsmith le numérique fait basculer la création littéraire dans des formes nouvelles, une écriture « non créative », une écriture sans écriture où le code, lui-même, transforme notre rapport à l’écrit.

« Si la peinture a réagi à la photographie en devenant abstraite, il semble improbable que l’écriture ne fasse pas de même par sa relation à Internet. Il semble que la réponse de l’écriture – se faisant plus l’héritière de la photographie que de la peinture – pourrait être de devenir mimétique, de se contenter de reproduire, y puisant surtout des méthodes de distribution, en proposant de nouveaux moyens de réception et de lectorat. Les mots pourraient très bien n’être pas écrits seulement pour être lus, mais pour être partagés, déplacés parfois par les humains, plus souvent par des machines, nous fournissant une occasion extraordinaire de reconsidérer ce qu’est l’écriture, et définir des rôles nouveaux pour l’écrivain. »

En observant le code qui sous-tend le langage numérique, Goldsmith nous invite à regarder le matériau de base qui sous-tend les médias électroniques, à analyser ce langage, cette nouvelle pâte à modeler. Le code permet d’observer combien le langage est désormais soumis à une grille, à une architecture qui permet d’amplifier les détournements et reconfigurations. Il dresse ainsi un intéressant parallèle entre les expérimentations de Caroline Bergvall et ses 48 variations de Dante (qui recense les 48 traductions existantes de l’incipit de L’enfer de Dante) aux expérimentations de George Perec dans L’infraordinaire (où il faisait la liste de ce qu’il avait mangé en 1974), à celles du catalogue de Claude Closky (qui liste ses possessions sous forme de leur mode d’emploi et du discours promotionnel qui les accompagne). Il tisse des parallèles entre le code sans sens que produit l’ouverture d’une image dans un éditeur de texte et les interjections que l’on trouve dans les Cantos d’Ezra Pound ou les poèmes numéraux de Neil Mills ou les purs poèmes de Shigeru Matsui ou encore le travail du photographe Matt Siber qui extrait le langage de ses images pour les placer en regard de celles-ci et nous permettre de saisir combien ce langage est lié à une grille de la ville, à une architecture. Il s’amuse à nous montrer que ce que nous énonçons comme rouge est traduit par nos machines sous forme de code et que contrairement à ce qu’on pense, celui-ci n’est pas unique, qu’il dépend de votre écran et de ses paramètres, et qu’une même couleur, même codée, demeure engluée dans le langage, dans le contexte de notre réception comme de sa production. Pour Kenneth Goldsmith, l’écriture d’aujourd’hui doit prendre en compte ces états fluides et changeants que le web démultiplie.

Ce qui change pour Goldsmith, c’est que le code en transformant tout en langage, élargit le potentiel du langage lui-même. Le code permet d’amplifier les détournements. Et les langages qu’il produit permettent une reconfiguration permanente, à la fois éphémère, fluide, transportable? indépendante de la forme. Dans le flux infini des contenus, l’écriture sans écriture permet de créer sans fin de nouvelles significations en reconfigurant – sans fin et en boucle – le langage et son code.

Avec le web, le lecteur n’est plus un récepteur passif, il est l’un des moteurs d’une reconfiguration permanente des mots et du code. Dans cette balade psychogéographique du web que Goldsmith propose, nous appréhendons les glissements permanents d’une réalité impossible à attraper. Le web, par nature, permet de déformer et manipuler en continu les mots. Nous sommes entrés dans l’âge du remix permanent, où tout est composition, à l’image de la Une du New York Times, qui est une composition provenant de nombreux serveurs, fournissant des contenus toujours changeants, différents pour chaque lecteur.

A l’heure de la réplication infinie, l’originalité et l’authenticité n’existent plus

Kenneth Goldsmith renvoie ces nouvelles formes de création à nombre de courants artistiques d’avant-garde. Aux situationnistes, à la poésie concrète, comme à l’oeuvre d’Andy Warhol, ce « génie non original », « capable de créer un corpus d’oeuvres d’une profonde originalité, en isolant, recadrant, recyclant, régurgitant et reproduisant sans fin des idées et des images qui n’étaient pas les siennes et qui, à mesure qu’il en avait fini avec elles, étaient devenues complètement warholiennes. En s’appropriant la manipulation de l’information, Andy Warhol a compris qu’il pouvait maîtriser la culture. (…) Ces gestes en « re » – comme rebloguer ou retweeter – sont devenus des rites culturels indépendants (…) ». Pour Goldsmith la création est passée du créateur au médiateur. Comme l’a montré Warhol avec prescience, gérer la masse d’information qui nous traverse a pris une dimension littéraire? et en même temps est devenue parfaitement ordinaire.

Le livre de Kerouac et celui de Morris, sa recopieGoldsmith porte aux pinacles le rôle de la copie et du remix, à l’image du projet de l’écrivain conceptuel Simon Morris de recopier Sur la route de Kerouac, comme si ce simple geste permettait de se le réapproprier plus que la lecture. Derrière le geste de l’artiste, Goldsmith pointe le rôle de chacun d’entre nous, devenu à la fois lecteur et auteur en produisant des sélections et des arbitrages dans l’information que nous parcourons, à l’image du fil Facebook de chacun. Nous sommes dans le read/write web, ce web qui se lit et s’écrit, dans lequel nous lisons et écrivons, travaillant à filtrer et remixer nous-mêmes, à copier, sélectionner, recombiner, manipuler sans cesse l’information. La proposition de Goldsmith consiste justement à s’amuser de cela. Il nous invite à copier pour copier, à transcrire, pour montrer comment chaque transcription nécessite en fait des interprétations permanentes, des choix constants. À l’heure du web social, chacun d’entre nous est devenu un auteur.

« Dans le monde numérique contemporain, le langage est devenu un espace provisoire, passager et déprécié, simple matériau pour être déblayé, reformaté, stocké, et repris dans n’importe quelle forme adaptée, avant qu’on s’en débarrasse aussi vite. Parce que les mots d’aujourd’hui ne coûtent rien et sont produits à l’infini, ils ne sont que déchets, représentant peu, signifiant encore moins. La perte de boussole par la réplication ou le spam est la norme. Les notions d’authentique ou d’original sont de plus en plus intraçables. » Ce que nous ne pouvons télécharger n’existe pas. « La régurgitation est le nouveau mode non créatif, au lieu de créer, nous honorons et chérissons, embrassons la manipulation et la réutilisation ».

Derrière son approche par l’art, Goldsmith nous parle de nos propres pratiques. Nous sommes devenus ceux qui font tourner nos machines. Notre écriture les nourrit et nous nourrit en retour. Ce que souligne très bien la psychologue Susan Blackmore quand elle évoque les trois âges de l’information : après l’âge du gène, premier réplicateur biologique, nous sommes entrés dans l’âge du mème, réplicateur culturel. Nous entrons dans l’âge du « temes » (ce mème technologique), c’est-à-dire l’âge du réplicateur mécanisé. « Pensez seulement à la façon dont vous « lisez » le web : vous l’échantillonnez, l’analysez, le classez en fichiers à transférer, à installer dans le flux, à tweeter ou à retweeter. Soit beaucoup plus que simplement « lire ». Théorisé depuis longtemps, le nivellement des rôles qui fait du lecteur l’écrivain et réciproquement, s’est finalement accompli. »

En s’intéressant aux pratiques artistiques d’avant-garde, Goldsmith observe en fait les pratiques de chacun. En regardant comment nous lisons et écrivons, il souligne que nous sommes devenus à notre tour, chacun, ces écrivains sans génie, ces « génies non originaux », ces récepteurs/remixeurs, les objets de réception et de diffusion. Comme il le signait en introduction à son cours, la question de la créativité, à l’heure du partage du fichier, du sampling et du remix, n’est plus une question. Les pratiques du numérique permettent de construire de nouvelles esthétiques et une nouvelle culture. C’est à elles qu’il nous invite à s’intéresser. Par le détour des pratiques artistiques, il nous invite à regarder les pratiques de chacun, à prendre au sérieux le contexte numérique et la manière dont il reconfigure notre rapport aux textes, aux contenus? qui ont pris avec le numérique des formes qu’ils n’avaient pas jusqu’alors. En observant les pratiques avant-gardistes des premiers recycleurs et remixeurs du langage, il nous invite à considérer la richesse du copier/coller, de ces détournements, de cette interpénétration entre le lire et l’écrire, entre l’écrivain et le lecteur – et inversement. Nous sommes tous devenus des experts clandestins du plagiat, de la recontextualisation, de l’échantillonnage. Pour Goldsmith, ces pratiques n’éradiquent pas l’expression de soi : au contraire ! Même en copiant quelque chose, « c’est nous-mêmes que nous exprimons de façons différentes », comme nous le faisons dans nos fils Facebook qui ne sont souvent que copie de choses vues ou lues ailleurs. Nos réarrangements disent pourtant qui nous sommes. Facebook et d’autres l’ont bien compris, puisqu’ils s’en servent pour nous profiler, pour dire qui nous sommes. Facebook valorise ces choix comme s’ils étaient nous-mêmes, alors que jusqu’à présent, ces plagiats et copies ne semblaient devoir ne rien signifier. Devenir des « non-auteurs » a pris une signification et une valeur. Dans un monde d’écriture sans écriture, nous sommes tous devenus les producteurs de nous-mêmes.

Pas étonnant donc que François Bon (@fbon) se soit fait le traducteur de Goldsmith, qu’il enrichit de nombreuses notes, comme pour entrer en discussion avec lui. On se souvient notamment de Après le livre, qui était déjà une mise en discussion de ces nouvelles pratiques, un regard pour tenter de faire se rejoindre le lire et l’écrire, depuis là où le numérique nous a conduits. Comme il le faisait dans un autre livre publié en 2016 Wasting time on the internet (Perdre son temps sur l’internet), Goldsmith nous invite à nous intéresser à ce qu’internet permet, transforme, plutôt qu’à ce qu’il empêche. Ce n’est pas une proposition sans intérêt.

Hubert Guillaud

  • En route pour la dé-extinction (2/3) : les techniques

Les chercheurs ont envisagé plusieurs méthodes pour effectuer une dé-extinction. La première d’entre elles ne nécessite aucune technique génétique particulière. Elle consiste à entamer un processus de sélection « à l’envers » sur des espèces domestiques qui descendent de l’animal à obtenir. Les chiens descendent des loups, les vaches des aurochs, les (...)

Les chercheurs ont envisagé plusieurs méthodes pour effectuer une dé-extinction.

La première d’entre elles ne nécessite aucune technique génétique particulière. Elle consiste à entamer un processus de sélection « à l’envers » sur des espèces domestiques qui descendent de l’animal à obtenir.

Les chiens descendent des loups, les vaches des aurochs, les chats de plus gros félins… Dans tous ces cas, au cours de milliers d’années de sélection par les éleveurs, ces animaux ont perdu une bonne part de leurs qualités existant à l?état sauvage pour devenir, peu à peu, les créatures domestiques (et souvent de plus petite taille) qu’on connaît. Peut-on, par un processus inverse, sélectionner et faire se reproduire les animaux possédant le plus de restes de ces caractéristiques antiques, pour petit à petit récupérer l’animal original ou originel ? Bref, peut-on obtenir un loup des steppes à partir d’un chihuahua ?

Le retour des aurochs ?


Comme la technologie ultra-moderne n’est pas nécessaire à l’élaboration d’un tel projet, il a pu être tenté dans le passé, et il l’a été… par les nazis. Deux frères, Lutz et Heinz Heck, directeurs des zoos de Berlin et de Munich, se sont lancés dans une tentative de recréation de l’auroch, ce bovidé sauvage qui parcourait les plaines de l?antique Europe. Selon Beth Shapiro, on dit qu’ils auraient agi sur l’ordre de Goering lui-même, grand amoureux de la chasse. Mais d?après un article paru dans Undark sous la plume de M.R. O’Connor (auteure d’un livre sur la dé-extinction, Resurrection Science : Conservation, De-Extinction and the Precarious Future of Wild Things) les objectifs auraient été tout à fait idéologiques :

« Alors que la science naturelle et le national-socialisme commençaient à se rencontrer, ressusciter les aurochs sauvages et indomptés ? considérés comme un « sinnbild der Urkraft », ou «symbole de la force primitive» et un exemple de la faune primordiale qui incarnait les véritables idéaux germaniques – devint une mesure du pouvoir nazi lui-même. »

Succès ? Selon Beth Shapiro, Heinz Heck aurait affirmé avoir réussi lorsqu’il a donné naissance, en 1932, à un veau à l’apparence effectivement plus « primitive ». Cette race bovine continue aujourd’hui à exister, elle supporte effectivement mieux le froid que ses cousines, mais elle reste plus petite et différente par bien des aspects de l’auroch original.

Reste que l?idée de faire revenir l’auroch ne s’est pas arrêtée avec le nazisme, et aujourd’hui des chercheurs bien plus sérieux continuent à travailler sur ce mode de sélection artificielle. Ainsi, nous apprend le site Futurism, le projet Rewilding Europe développe ainsi un programme pour faire revenir les aurochs dans nos contrées.

Clonage et modification génétique


Une autre technique de dé-extinction demande des moyens plus modernes, c’est le clonage classique.

Pour effectuer un clonage, on prend le noyau d’une cellule somatique et on l’introduit à l?intérieur d’un ovule. On introduit ladite cellule dans le corps d’une mère porteuse, qui mènera à terme la constitution du nouvel organisme.

C’est une méthode qu’on a tentée avec le bouquetin des Pyrénées, espèce qui s’est éteinte en 2000. Mais avant la mort de sa dernière représentante nommée Celia, on a pris des cellules de cette dernière pour tenter de faire survivre sa descendance. En 2003 naquit ainsi un clone de Celia, qui ne vécut malheureusement que quelques heures avant de succomber.

Pour les espèces plus anciennes, en revanche, le processus est bien plus difficile. C’est là qu’il faut recourir aux techniques de modification génétique de type CRISPR.

Tout d’abord il faut retrouver les échantillons les plus susceptibles de contenir des parties importantes du génome, mais la plupart du temps, les chromosomes sont réduits en purée. En effet, l’ADN se dégrade dès les premières heures suivant le décès. Alors, imaginez ce qui reste après des centaines d’années, voire des milliers ! Ceci dit, la durée de survie de la molécule varie grandement selon les conditions. Par exemple, le froid a tendance à la conserver plus longtemps. Encore une raison pour s?intéresser au mammouth, dont la plupart des restes sont enterrés en région arctique, dans le permafrost (c’est-à-dire des couches souterraines gelées en permanence).

Il va sans dire qu’un seul échantillon de l?animal ne suffit pas : il en faut souvent des milliers, pour récupérer un maximum de ces toutes petites séquences d’ADN. Naturellement, il y a des tas de complications. Bien souvent, l?ADN récupéré est le produit d’une contamination et appartient à d’autres organismes, tout à fait contemporains. Et le fait que les chercheurs travaillent dans des conditions ultra-stériles n’y change pas grand-chose. Cette contamination s’est généralement opérée bien avant que l’échantillon soit repéré par les chercheurs. Par exemple les moutons sont arrivés en Nouvelle-Zélande bien des siècles après la disparition des Moas. Cela n?empêche pas l’ADN de mouton contenu dans leurs urines d’avoir pénétré profondément dans le sol, jusqu’à un niveau où les fossiles de Moa étaient enterrés.

Une fois qu’on a récupéré suffisamment d’ADN et éliminé les éventuels éléments étrangers, comment procède-t-on pour remettre le puzzle en ordre ? On utilise pour cela un « génome de référence », autrement dit le code génétique d’un animal très proche de celui sur lequel on travaille. L’équipe qui a séquencé le génome du Moa s’est basée sur celui de l?émeu, un autre oiseau de l’hémisphère sud, proche cousin de l?espèce disparue. Pour le mammouth, ce serait l?éléphant d’Asie. Et pour l’homme de Neandertal, évidemment le génome de référence est l’être humain contemporain.

Mais évidemment, ce n’est pas si simple ; si les deux génomes étaient totalement identiques, eh bien ce serait le même animal et il n’y aurait rien à faire ! Beth Shapiro compare la situation avec une boite de puzzle. L’image à reconstituer est représentée sur la boite, mais il peut y avoir quelques différences avec le puzzle réel : les couleurs peuvent être différentes, etc. Évidemment, plus les cousins sont éloignés, plus la représentation « sur la boite » s’éloigne du puzzle à réaliser. Dans le cas du néandertalien, par exemple, cela apparaît comme – relativement – facile. L?homo sapiens n’est éloigné de lui que par un demi-million d’années maximum, le processus d?évolution darwinienne n’a pas eu le temps de séparer franchement les deux espèces (la preuve en est d?ailleurs que les sapiens et les néandertaliens pouvaient se reproduire entre eux).

Reste ensuite à recréer le génome en question. Pour cela, on se servira encore de la « référence ». On réintroduira dans l?ADN de l’organisme contemporain des gènes appartenant à la race de son ancêtre. Autrement dit, par exemple, on insérera chez l’éléphant des caractéristiques propres au mammouth, comme la résistance au froid, ou la capacité d’avoir de longs poils. En fait, on ne « dé-éteindra » pas complètement le mammouth. On créera plutôt un éléphant modifié ayant des caractéristiques du mammouth. Pour faire naitre le spécimen, on recourra à la technique déjà utilisée par le clonage classique, c’est-à-dire le transfert du noyau « modifié » dans un ovule d’une mère porteuse appartenant à l’espèce de référence.

Cette étape possède aussi son lot de difficultés. Par exemple, la femelle éléphant produit très peu d’ovules. Il serait scandaleux, sur le plan éthique, de prélever des centaines d’ovules sur les éléphantes d’Asie (car rappelons, un clonage ne marche pas systématiquement, et il faut souvent répéter l?opération des centaines de fois pour obtenir un embryon viable), alors que cette espèce est elle-même menacée. Par chance, nous dit Shapiro, on a réussi à faire produire des ovules d’éléphantes par des souris !

Enfin, cette technique ne fonctionne que sur les mammifères. La reproduction ovipare des oiseaux est beaucoup plus difficilement manipulable. Pour le pigeon migrateur, il faudra procéder autrement. La technique envisagée par Beth Shapiro consisterait à modifier les cellules germinales de l’oiseau à naître, c’est-à-dire les cellules, masculines ou féminines, qui lui serviront plus tard à sa reproduction. L’animal ainsi modifié appartiendrait complètement à l?espèce de ses parents, mais certains de ses enfants, eux, devraient posséder des caractéristiques appartenant à l’espèce disparue.

Modifier l’ADN ne suffit pas


Reste qu’il ne faut pas se cantonner à la génétique : l’ADN n’est pas tout ! Même si un jour on réalise une telle dé-extinction, rien ne garantit que des éléments appartenant à l’épigenèse, voire à la culture animale, ne vont pas manquer et modifier profondément le nouvel organisme. Comme se le demande Beth Shapiro : « L’épigénétique compliquera-t-elle les efforts de dé-extinction ? Nous ne savons pas. Si nous modifions un gène d’éléphant contenant des séquences d’ADN de mammouth, il commencera à se développer et contiendra l’épigénome d’une l’éléphante. Dans l’utérus, il sera exposé à l’environnement de développement d’un éléphant : une mère qui a une alimentation d’éléphant, vit dans l’habitat de l’éléphant et exprime des gènes d’éléphant. Il survivra grâce au placenta de l’éléphante, qui exprimera des gènes d’éléphant modifiés par l’épigénome de cette éléphante. »

Et la vie prénatale n’est pas le seul problème : « Qu’en est-il de l’environnement après la naissance ? Les changements épigénétiques s’accumulent tout au long de la vie et sont influencés par l’environnement dans lequel vit un organisme. Jusqu’où ressembler à un mammouth et agir comme lui est-il dû à un génome de mammouth, et jusqu’où cela est-il causé par la vie dans la toundra ? C’est quelque chose qu’il nous faudra apprendre avec le temps. »

Rémi Sussan

Le dossier « En route pour la dé-extinction »

  • La transparence, nouvelle arme du capitalisme de l?information ?

Philippe Vasset et Pierre Gastineau travaillent pour Indigo Publication, un groupe média qui publie des lettres d’information sur des sujets difficiles : négoce pétrolier, industrie minière, services de renseignements? Comme Intelligence online ou La lettre A. « Des secteurs qui ne sont pas vraiment transparents », s’amuse le journaliste et écrivain Philippe Vasset (...)

Philippe Vasset et Pierre Gastineau travaillent pour Indigo Publication, un groupe média qui publie des lettres d’information sur des sujets difficiles : négoce pétrolier, industrie minière, services de renseignements? Comme Intelligence online ou La lettre A. « Des secteurs qui ne sont pas vraiment transparents », s’amuse le journaliste et écrivain Philippe Vasset en introduction à la présentation de son livre qu’il faisait au Tank dans le cadre de la 23e édition d’Aux sources du numérique.

Leur livre justement, Armes de déstabilisation massive, est consacré au phénomène des fuites massives de données, les « leaks », c’est-à-dire la diffusion massive de documents qui ne sont pas destinés à être publiques. Les deux enquêteurs en ont dénombré près de 40 depuis 2006, allant de la publication des noms de 276 agents du MI6 en 2005 par le site Cryptome aux publications de la messagerie du cabinet d’avocats portugais PLJM en août 2017 dont le principal client est la fille de l’ex-président angolais Isabel dos Santos, en passant par la publication des télégrammes diplomatiques américains sur Wikileaks en 2010, par les documents internes à la NSA par Edward Snowden, les Panama Papers, les Football Leaks… Avec une accélération considérable des fuites massives depuis 2015 : chaque mois quasiment apportant de nouvelles publications et de nouvelles révélations !

Dans leur ouvrage, ils se sont particulièrement intéressés au paradoxe de la transparence de ces fuites qui d’un côté sont l’emblème actuel de la transparence la plus radicale, mais qui possèdent en même temps un caractère éminemment opaque puisque couverts par l’anonymat, ce qui empêche souvent ceux qui les exploitent de remonter aux intérêts que les sources ont à livrer ces documents. D’où la nécessité d’enquêter, de regarder d’où proviennent les données, pourquoi elles sont « libérées », par qui, dans quel but…

Comme l’explique Pierre Gastineau, ce livre révèle un peu la face cachée des « lanceurs d’alertes » (même si ce qualificatif dépasse largement le phénomène des fuites massives). Les lanceurs d’alertes sont devenus un terme commode pour masquer l’origine de documents qui ne relèvent pas toujours – voire de moins en moins – de cette catégorie. Les fuites massives servent bien plus des intérêts économiques ou politiques qu’elles ne sont le fait d’informateurs vertueux et désintéressés.

Des fuites massives plus crapoteuses que vertueuses ?

Dans leur ouvrage, les deux journalistes livrent les résultats d’un patient travail de terrain, d’enquête à l’ancienne, carnet à main, fait de roboratifs petits déjeuners auprès de gens qui cherchent à rester discrets, qui tiennent plus de barbouzes, de spécialistes du renseignement plus ou moins reconvertis, que de vertueux défenseurs des libertés civiques. Pas à pas, ils nous amènent à un autre niveau de compréhension du phénomène. Là où la belle histoire des Leaks nous évoque la transparence, la démocratie et la vertu des lanceurs d’alertes, les deux détectives soulignent qu’il n’en est rien. « Inventée par d’authentiques lanceurs d’alerte, la technique de la fuite massive s’est ainsi rapidement dévoyée. On recense aujourd’hui plus de fuites liées à des conflits financiers entre entreprises et grandes fortunes que de révélations motivées par des objectifs politiques ». En s’intéressant à l’origine des fuites de données massives, ils nous rappellent que ce mirage de rétro-surveillance des puissants est massivement orchestré par la guerre économique à l’image des e-mails internes du parti démocrate américain à trois mois de l’élection présidentielle qui n’ont pas révélé de scandales majeurs, mais ont jeté un soupçon qui a pollué sur la durée la campagne américaine. « Les fuites massives sont de plus en plus utilisées pour affaiblir un pays ou un homme politique que pour révéler des informations véritablement cruciales », insistent-ils.

Pour les deux journalistes, c’est le signe que ces leaks sont devenus un moyen plus qu’une fin. Elles visent plus à influencer des procès par la production de messages qu’il aurait été difficile d’introduire devant les tribunaux autrement ou à éliminer des concurrents en jetant le discrédit sur eux. Derrière les Panama Papers par exemple, la fuite de données sur les clients du cabinet panaméen Mossack Fonseca, Vasset et Gastineau pointent que celle-ci n’est pas tant le fait d’un lanceur d’alerte interne comme on l’a cru, qu’un moyen de régler un bras de fer violent et ancien entre Mossack Fonseca et un autre cabinet d’affaires concurrent, Elliott Management, spécialisé dans le rachat de dettes d’État, notamment de l’Argentine. Dans les révélations des documents panaméens, on trouve ainsi des sociétés liées à la présidente de l’Argentine, Cristina Kirchner, et ce, alors que Mossack et Elliott sont en plein procès. 10 jours après le lancement des Panama Papers, l’Argentine négociera un compromis avec Elliott et s’acquittera de sa dette. Si rien ne permet d’établir que Elliott est à l’origine des Panama Papers, les journalistes font part de leurs soupçons dans l’ombre de ces dossiers. Les leaks servent de puissants intérêts financiers qui utilisent ce moyen pour faire avancer leurs causes.

Les fuites sont donc bien plus liées à des conflits financiers crapoteux qu’à des objectifs politiques. Bienvenue dans la réalité paranoïaque et bien peu morale du monde où les victimes sont souvent des assaillants, où les vertueux hackers sont tous des mercenaires, où les pros de la sécurité sont tous d’anciens espions, où ceux qui vendent de la sécurité sont les premiers à la compromettre, où ceux qui exploitent les fuites n’en cherchent pas toujours les origines…

Pour eux, le désintéressement d’Edward Snowden semble plutôt un contre-exemple : les fuites sont d’abord le fait de cambrioleurs, de groupes qui orchestrent des déstabilisations politiques ou judiciaires. Ces révélations relèvent plus d’une géopolitique qu’il faut décrypter qu’autre chose. Elles semblent plus instrumentalisées par des Etats et des intérêts financiers, par des groupes qui n’ont rien d’activistes désintéressés. Derrière la dénonciation du capitalisme par la transparence intégrale que semblent montrer les documents qui fuitent, il faut regarder le phénomène sous un autre angle : celui de barbouzes qui agissent dans l’ombre pour faire avancer les intérêts de leurs commanditaires. Dans leur livre, pareil à un roman d’espionnage, on croise surtout des officines obscures de cyberespionnage, d’anciens espions reconvertis dans la sécurité et la pénétration informatique, des avocats et des hommes de paille qui travaillent pour des hommes d’affaires, d’obscures oligarques aux intérêts financiers tentaculaires, des groupes de hackers qui ressemblent plutôt à des vétérans d’opérations clandestines travaillant en étroite collaboration avec les services de renseignement, des startups et des consultants spécialistes des techniques d’intrusion et de sécurisation des réseaux? et de sécurité nationale. Dans l’ombre de la publicité des fuites se cachent des activités de cyber-extorsions qui ont échoué, des conflits d’intérêts et des règlements de comptes.

Reste que si la plupart des fuites ont des origines douteuses, la caractéristique des leaks est que les documents publiés sont authentiques, d’où l’écho que rencontrent leurs révélations. Mais, pour Pierre Gastineau et Philippe Vasset, les médias qui analysent ces documents semblent plus des organisations manipulées, qui blanchissent l’information en l’amplifiant, que des organisations qui observent la manipulation dont elles sont l’objet. Loin de faire la morale à la profession, ils pointent que le « détonateur médiatique » fait pleinement parti de « l’arme de manipulation » mise en place. Ces chevilles ouvrières qui analysent les données et en révèlent l’information cachée, trop souvent, créent, via des plateformes de traitement et de collecte d’information, des murs entre l’origine de l’information et les lecteurs. Pourtant, cette origine est essentielle rappellent-ils : plus d’un an après la divulgation des mails du parti démocrate, on discute encore de l’interférence russe dans l’élection américaine, plus que des échanges contenus dans ces mails. Comme le soulignait l’universitaire Thomas Rid, spécialiste des questions de stratégie lorsqu’il était invité à témoigner devant la commission du renseignement du Sénat américain : « A l’époque de la guerre froide, la désinformation était artisanale : aujourd’hui, elle est en partie sous-traitée à la victime elle-même. Les journalistes américains fouillent dans les masses de documents qui leur sont fournies et, tout en extrayant des informations, ils maximisent l’impact d’une opération ». Pour Gastineau et Vasset, les techniques de manipulation de l’information se sont perfectionnées et ont changé d’échelle pour devenir massives, globales et instantanées.

Leur constat édifiant est que nous sommes désormais dans une désinformation industrielle dont il faut systématiquement douter. « Le leak est l’arme du capitalisme de l’information » concluent-ils. De quoi remettre en doute nombre de nos certitudes sur ces sujets.

Eléments de Cyber Géopolitique

Au Tank, les deux journalistes évoquent leur plongée dans cette enquête. Ils sont partis d’une fuite de données douteuses qu’ils avaient eu à traiter et qui semblait cacher une bataille d’oligarques Kazakhe sur la plateforme KazaWord qui fait fuiter depuis 2014 des boites e-mails de personnalités, comme celle de Bernard Squarcini, ancien patron de la Direction centrale du renseignement intérieur. En essayant de remonter à l’origine des données : qui avait fait le piratage ? Comment la fuite a-t-elle été distillée ?… En s’intéressant aux « prestataires en fuite de données », les journalistes se sont rendu compte que c’était un secteur à part entière. Un secteur qui offre des services de stratégie, de coaching, de hacking, de protection, comme « d’exfiltration » de données. Dans leur livre, les deux journalistes ne s’intéressent pas tant aux Leaks qu’aux acteurs qui circulent derrière ces révélations, que ce soit les États (la Russie, l’Inde et Israël? notamment) comme les intérêts privés (notamment les procès que ces fuites ont arrangés et fait basculer).


Image : Pierre Gastineau, Jennyfer Chrétien, Philippe Vasset et Nicolas Vanbremeersch (de gauche à droite) sur la scène du Tank, via le fil Twitter du Tank.

Contrairement à l’Europe, la Russie, l’Inde ou Israël ont transposé dans le monde numérique les vieilles méthodes de l’espionnage, explique Pierre Gastineau, et ont investi très tôt ce secteur pour rééquilibrer leur balance stratégique. Avec une particularité, celle d’associer le secteur privé, en créant une forte porosité entre les systèmes de renseignements classiques et un écosystème privé du renseignement et de la sécurité, peuplés de hackers et d’anciens espions, développant tour à tour outils d’espionnages, d’interception et outils de protection, sous la forme souvent de sociétés de conseil respectables ou de startups technologiques. En Europe continentale ce monde est bien plus fermé autour des services de renseignements étatiques. Aux États-Unis, il y a des services d’État très forts, avec une très forte sous-traitance contrôlée par les services d’État à l’exemple de Booz Allen Hamilton, la société dans laquelle travaillait Edward Snowden, dont les 100 000 employés travaillent quasiment exclusivement pour les services de renseignements américains.

Pour Nicolas Vanbremeersch, fondateur du Tank, le succès d’Israël dans le cyber-renseignement semble pleinement lié à l’écosystème d’innovation qui s’y est développé. Ce que confirme Pierre Gastineau. Chacun de ces pays a ses particularités. En Israël, le cyber-renseignement est un village, un quartier où tout le monde se connaît, où les relations sont d’abord fondées sur des relations interpersonnelles.

Jennyfer Chrétien, déléguée générale de Renaissance numérique, estime que les fake news sont l’autre pendant des fuites. Dans le livre, un agent soviétique s’amuse en confiant, goguenard, que si l’Occident n’avait pas la liberté de la presse il faudrait l’inventer… pour souligner combien cette liberté permet à la manipulation de s’effectuer.

« La différence entre les fake news et la fuite massive de données, c’est que dans les fuites massives de données tout est vrai. La force des leaks, c’est que les documents sont vrais et c’est pour ça que les journalistes s’interrogent peu sur leur origine. La véracité des données permet de minimiser l’origine des données et donc la manipulation liée à leur fuite? », explique Philippe Vasset. « Un phénomène peut nourrir l’autre », complète Pierre Gastineau. Même si les fuites se révèlent sans intérêt, pour les spectateurs, ceux qui se sont fait hacker ont quelque chose à se reprocher. Le rapport de force s’inverse. C’est en soi suspect d’être victime d’une fuite, comme ce fut le cas pour Sony, En Marche ou le parti démocrate américain.

La méta histoire des leaks nous a semblé plus intéressante que les leaks, souligne Philippe Vasset. Les médias ont progressé dans leur traitement des origines des contenus, constate Pierre Gastineau. Chez Der Spiegel, ils présentent désormais de l’information sur l’origine des informations. La plateforme de collaboration du journalisme d’investigation européen cherche également à mieux faire comprendre l’origine des fuites. Mais les origines des fuites n’ont pas été toujours très bien discutées. Les leaks sont devenus un enjeu marketing pour les titres de presse leur permettant d’être repris au niveau international, d’acquérir de la visibilité et des lecteurs. Reste qu’à l’époque du Watergate, on s’est également peu intéressé à qui était Gorge profonde. Cependant, les deux journalistes du Washington Post qui publièrent ses révélations, eux, connaissaient son nom et ses motivations.

Nicolas Vanbremeersch regrette que le livre ne mette pas en perspective l’idéologie de la transparence. En effet, reconnaît Philippe Vasset, on ne s’est pas intéressée au mouvement idéologique qui essentialise internet pour en faire une philosophie. On a préféré s’intéresser aux faits, aux mécanismes et ce d’autant que cet appareil idéologique est très souvent plastique. Julian Assange par exemple utilise l’internet pour justifier tout et son contraire et s’il parle des vertus des technologies, c’est peut-être plutôt pour cacher ses opinions ou ses comportements qui posent eux des questions. On a plutôt cherché à regarder les contradictions d’Assange et de Wikileaks et pointer l’absence de gouvernance de la plateforme, souligne-t-il encore. On s’est plus intéressé à la construction de la figure d’alerte, notamment via la fiction, qu’à l’idéologie de transparence derrière laquelle s’effaceraient les hackers et disparaîtrait le journalisme. Quand Oliver Stone réalise un film sur Snowden, il est plus intéressant de saisir qu’il le fait depuis un livre écrit par l’avocat russe de Snowden, ancien conseiller des services secrets russe, pour en comprendre les images finales, celles du bonheur domestique que Snowden aurait retrouvé en Russie.

Répondant aux questions de la salle, Pierre Gastineau rappelle que si les médias blanchissent l’information, cela signifie bien que ces informations ne sont pas propres, légitimes ou légales. Ces données par exemple ne seraient pas recevables par un tribunal qui s’interrogerait sur leur origine et pourrait les récuser facilement. Or, la publication via les médias, les rend publics, leur permet de devenir une pièce à conviction. La géopolitique permet d’ailleurs de prédire les fuites. Vous allez voir publier beaucoup d’articles sur la corruption en Angola du fait du changement de pouvoir parce que les sociétés qui travaillaient avec le gouvernement Dos Santos n’apprécient pas le nouveau. « Le blanchiment est à la fois un recyclage et une mise en lumière. En tout cas toujours un changement de statut des informations », complète Philippe Vasset. Reste qu’il manque peut-être dans leur analyse, une prise en compte des conséquences des fuites massives. Les révélations ne sont pas sans effets non plus. Derrière le blanchiment, les révélations ne donnent-elles pas également lieu à des enquêtes, des procès, de nouvelles décisions réglementaires… qui sont là des conséquences certainement plus vertueuses de ces fuites ?

La Chine semble être le grand absent de votre enquête ? interroge un participant. Oui, remarque Pierre Gastineau. En Chine tout passe par l’État. Or, le leak est une arme du faible. La Chine, elle, a un agenda international fort et n’est pas dans une position stratégique faible. En fait, elle a certainement plus peur d’un Leak qu’autre chose. La Chine est plutôt sur un mode d’espionnage traditionnel, rappelle Philippe Vasset. Comme pour la plupart des services d’espionnage, le but reste d’espionner de manière discrète. Or, les leaks reposent sur une autre conception du renseignement qui privilégie plus la manipulation que la discrétion. À l’Académie du renseignement russe, la filière la plus prestigieuse, c’est la manipulation de l’information. Et la tradition du renseignement russe est plus dans l’action : elle consiste plus à compromettre qu’à s’informer.
Comme le remarque Nicolas Vanbremeersch, à la fin de leur livre, les deux journalistes esquissent rapidement la question de la réponse des organisations à ces fuites. Force est de constater qu’elles n’y répondent pas très bien. Au début de 2017, Wikileaks, sous le nom de Vault 7, a publié la gamme des virus et logiciels malveillants utilisés par la NSA et la CIA. 5 ans après avoir été mis à genoux par Snowden, les agences de renseignement américaines ont donc été victime d’une fuite assez similaire ce qui montre que les problèmes de sécurité informatique sont loin d’être résolus. En fait, expliquent les auteurs dans leur livre : les fuites ont tendance à renforcer la classification d’information. Mais plus l’information est classifiée, plus nombreux sont les individus qui ont besoin d’accréditation et donc moins les contrôles sont efficaces, du fait du nombre. Ainsi, la direction chargée du contrôle des accréditations et des enquêtes de sécurité sur le personnel accrédité aux États-Unis est sous-traitée à des opérateurs privés qui privilégient le volume à la précision des contrôles.

Reste bien sûr également à comprendre à quoi correspondent ces trésors de données. Le plus souvent, ce sont des mails, des copies de documents. L’étude de ces documents en eux-mêmes se fait via des méthodes de documentalistes, explique encore Philippe Vasset. Une analyse qui n’est pas sans biais d’ailleurs. Ces données sont souvent analysées depuis une position extérieure : on y cherche des noms célèbres : « Chaque leak est un film dont le casting est toujours mis en avant », qui épargne parfois des acteurs moins connus. « Nous on a cherché plutôt à regarder des gens dont on ne parle pas. À comprendre le contexte. Cela permet d’en montrer une histoire plus large. »

Effectivement. Et surtout, me semble-t-il, Armes de déstabilisation massive permet de montrer la différence entre la manière dont le phénomène des fuites massives est valorisé, voire récupéré, pour coller à une lecture des effets de la technologie sur le monde. Une construction d’une représentation qui, quand on creuse un peu, peine néanmoins à cadrer avec la réalité. La transparence, même celle qui semble la plus radicale, est toujours instrumentée.

Hubert Guillaud

  • En route pour la dé-extinction (1/3) : comment, pourquoi ressusciter des espèces disparues ?

Jour après jour, le concept de « dé-extinction » sort du domaine de la spéculation science-fictionesque pour se rapprocher de la réalité. S’il est encore loin le jour où des dodos, des mammouths ou des pigeons migrateurs parcourront nos campagnes, les recherches se multiplient concernant la première phase du projet : le séquençage (...)

Jour après jour, le concept de « dé-extinction » sort du domaine de la spéculation science-fictionesque pour se rapprocher de la réalité. S’il est encore loin le jour où des dodos, des mammouths ou des pigeons migrateurs parcourront nos campagnes, les recherches se multiplient concernant la première phase du projet : le séquençage de l’ADN d’espèces disparues.

Ces dernières semaines, une équipe a ainsi annoncé la reconstitution du génome du moa, cet oiseau de Nouvelle-Zélande, incapable de voler et d’une taille conséquente (jusqu’à 3 mètres) qui s’est éteint au 13e siècle, sous les effets de la chasse des ancêtres des Maoris.

« Ressusciter et restaurer »


Parmi les têtes de file de ce mouvement de dé-extinction, on trouve Stewart Brand (@stewartbrand), le quasi-créateur de la cyberculture, qui a fondé une organisation non lucrative, Revive and Restore. Cette organisation cherche à utiliser les dernières découvertes des biotechnologies pour sauver différentes espèces de la disparition. Pas mal des initiatives qu’elle incube impliquent plus la sauvegarde que la dé-extinction proprement dite. Mais les deux projets les plus spectaculaires concernent la résurrection du mammouth laineux et du pigeon migrateur. C’est surtout George Church (dont nous avons fréquemment parlé dans InternetActu.net) qui travaille sur les mammouths. Le pigeon migrateur était quant à lui un oiseau extrêmement répandu dans l?Amérique du Nord jusqu’au 19e siècle et qui a disparu à l’aube du 20e.

Mais la dé-extinction pose des tas de questions, techniques bien sûr, mais aussi écologiques, éthiques et sociologiques.


Image : La feuille de route de Revive and Restore.

La chercheuse Beth Shapiro (@bonesandbugs) du laboratoire de Paléo génomique de l’université de Californie a écrit un excellent bouquin en 2015 sur les processus engagés par la dé-extinction : How to clone a mammoth, the Science of De-Extinction. Évidemment, 2015, date de parution du livre, c’est un peu ancien pour un domaine qui avance de jour en jour. Cependant, à part quelques points techniques, l’ouvrage semble à jour sur l’essentiel. Beth Shapiro nous servira donc de guide tout le long de ce dossier.

Tout d’abord, se demande Shapiro, qu’est-ce qu’une véritable « dé-extinction » ? Pour elle, la réponse n’est pas tant d’ordre génétique qu’écologique. Il n’est pas nécessaire d’avoir un « vrai mammouth » possédant exactement le génome de ces anciens animaux, ce qu’il faut, c’est qu’il occupe la niche écologique auparavant remplie par le mammouth : « la naissance d’un animal capable, grâce à l’ADN de mammouth ressuscité, de vivre dans l?environnement où un mammouth vivait et agissait (?) sera une dé-extinction réussie, même si le génome de cet animal est au final plus semblable à celui d’un éléphant qu’à celui d’un mammouth. »

Pour Beth Shapiro, ressusciter une espèce nécessite plusieurs phases. Tout d’abord, il faut bien sûr se demander sur quelle espèce travailler.

Une fois ce choix effectué, il reste plusieurs tâches à accomplir. Il faut obtenir le génome de l?espèce en question, et si celle-ci a disparu depuis longtemps, il sera nécessaire de patiemment le reconstituer ; puis ensuite, il faudra faire naître un spécimen. Enfin, même cela n’est pas suffisant : à quoi servirait un seul et unique mammouth, ou un seul pigeon migrateur ? Il faut non seulement en créer plusieurs, afin d’assurer la reproduction, mais également les réintroduire dans un environnement compatible.

Quelle espèce choisir ?


Dans l’idéal, l’espèce choisie devrait permettre une récupération la plus aisée possible de l?ADN. Ce serait parfait d’avoir à disposition de l?ADN « frais », par exemple sous la forme de tissus conservés correctement dans un labo, ou mieux encore, accès au dernier spécimen vivant. C’est par exemple le cas du bouquetin des Pyrénées qui a disparu au début des années 2000. Mais pour une espèce plus ancienne, il faudra alors reconstituer son génome, une opération bien plus compliquée. 

Une fois qu’on a obtenu le génome de l’animal, et produit une cellule embryonnaire, il faut bien sûr trouver une « mère porteuse » suffisamment compatible pour porter l’enfant. Par exemple, la rhytine de Steller, également appelée « vache de mer », était un mammifère marin arctique pouvant atteindre jusqu’à 9 mètres de long. Son plus proche parent est le dugong. Mais un bébé vache de mer risquerait de faire dès sa naissance trois à six mètres de long. Donc plus grand que sa mère?

Une autre question qui se pose est sa réintroduction dans son milieu naturel. Si l’animal a disparu assez récemment et sous l?effet de la chasse, alors il y a des chances pour que sa réintroduction se fasse sans trop de problèmes. Ce ne sera pas le cas si l?espèce est décédée à cause d’un changement de l’environnement. C’est le cas du dauphin de Chine, disparu à cause de la pollution. Le dodo, lui s’est éteint suite à l’introduction de nouvelles espèces comme les rats et les chats, qui voyaient dans ses ?ufs un mets de choix. S?il devait être réintroduit sur l’île Maurice, il faudrait s’assurer qu’il ne serait pas à nouveau victime de ces prédateurs, ce qui supposerait l’établissement de réserves assez strictes et se révélerait donc compliqué. En ce qui concerne le mammouth, en revanche, la réintroduction dans l’espace arctique ne devrait pas trop poser de problèmes. En fait, un scientifique russe, Sergei Zimov, a créé récemment en Sibérie un parc du pléistocène destiné à reconstituer l’environnement des grandes steppes tel qu’il était il y a plusieurs milliers d’années. Finalement selon Beth Shapiro, le mammouth serait un assez bon candidat pour la dé-extinction. Bien que son génome soit difficile à reconstituer, il bénéficierait non seulement d’un environnement assez compatible et surtout, sa parenté très proche avec l?éléphante d?Asie permettrait aux femelles de ces dernières de donner naissance assez facilement aux premiers bébés « néo-mammouths ».

Des choix guidés aussi par la culture et l’esthétique


Mais le choix de l?espèce dépend aussi de critères bien plus culturels, note Beth Shapiro.

Elle remarque ainsi, après avoir interrogé ses étudiants, que beaucoup souhaitent voir revenir des espèces disparues à la suite du comportement humain. Une façon de se « dédouaner » et de perdre un peu de sa culpabilité, mais qui peut se révéler au final égoïste et malavisée, note-t-elle. Comme on l’a vu, les espèces disparues le sont souvent à cause d’une destruction de leur environnement et pas seulement à la suite d’une extermination systématique. Il ne servirait à rien de recréer des spécimens qui seraient incapables de réintégrer un environnement leur convenant. Il y a d’autres critères, plus symboliques et esthétiques. Par exemple, pourquoi ne pas travailler sur le rat kangourou, un animal en grand danger qui joue un rôle très important dans les écosystèmes désertiques américains ? Mais, comme le dit Beth Shapiro, « la raison pour laquelle George Church et son équipe de l’Institut Wyss de Harvard ont choisi les mammouths plutôt que les rats kangourous afin de développer la technologie génétique nécessaire à la dé-extinction est que les mammouths sont des mammouths alors que les rats kangourous sont, euh, des rats.  »

Stewart Brand, ajoute-t-elle, souhaite lui la résurrection du pigeon migrateur, car il est un symbole de l?Amérique au même titre que l’aigle à tête blanche. Mais sa portée symbolique doit beaucoup aux vols de plusieurs millions d’oiseaux qui obscurcissaient le ciel américain à la fin du 19e siècle. Il ne sera pas facile de ressusciter un aussi grand nombre de spécimens… (mais il existe d’autres raisons, plus scientifiques, pour vouloir la dé-extinction du pigeon migrateur, comme on le verra plus loin)


Image : Peinture murale de John Ruthven célébrant le centième anniversaire du décès de « Martha », le dernier pigeon migrateur connu.

Quelles sont les bonnes raisons pour effectuer une dé-extinction ? On l’a vu, pour Beth shapiro, l’essentiel n’est pas d’avoir à créer un « vrai » mammouth, mais plutôt un animal ayant son comportement. En fait, il ne faut pas, nous dit-elle, avoir une vision du sujet centrée sur la notion d’espèce, mais plutôt sur celle d?environnement :

« Selon moi, c’est cette résurrection écologique, et non la résurrection des espèces, qui donne sa vraie valeur à la dé-extinction. Nous devrions penser à la dé-extinction non pas en fonction de la forme de vie que nous allons ramener, mais des interactions écologiques que nous aimerions voir restaurées ». »

Mais en attendant d’aborder cette question écologique, absolument centrale, il faut déjà passer la première étape : comment recréer le premier spécimen d’une espèce disparue ?

Rémi Sussan

Le dossier « En route pour la dé-extinction »

  • Facebook et la recherche : le « quasi État »

Voilà longtemps que les données de Facebook sont un inestimable matériau de recherche. Mais la politique de l’entreprise de Mark Zuckerberg en la matière est digne de celle d’un État. En proposant un état civil de substitution, en organisant le recensement quasi exhaustif de la population américaine (et du monde, (...)

Voilà longtemps que les données de Facebook sont un inestimable matériau de recherche. Mais la politique de l’entreprise de Mark Zuckerberg en la matière est digne de celle d’un État. En proposant un état civil de substitution, en organisant le recensement quasi exhaustif de la population américaine (et du monde, demain), en adoptant une politique scientifique qui sélectionne les « bons » laboratoires et en promouvant une politique, c’est-à-dire des objectifs de recherche, Facebook déstabilise les sciences sociales, estime le sociologue Dominique Boullier, chercheur au Digital Humanities Institute à l’École polytechnique fédérale de Lausanne (EPFL). La nécessité d’une obligation contraignante de service public pour les données des plates-formes monopolistiques s’impose de plus en plus.

Facebook soutient depuis six mois une recherche de Raj Chetty, économiste à Stanford, en lui fournissant les données de tous les comptes de ses utilisateurs aux États-Unis pour un projet qui vise à comprendre le lien entre les inégalités et les interactions sociales. Quoi de plus normal ? De plus intelligent ? Et de plus noble comme objectif politique ? ,Car Mark Zuckerberg a mis en avant son engagement personnel pour réduire les inégalités et Raj Chetty est un de ces économistes et data scientists qui a fait ses preuves en mobilisant des données massives du fisc américain pour montrer notamment comment les chances de gagner plus que ses parents diminuaient constamment. Ce projet a même donné lieu à une campagne nationale Equality of Opportunity project, qui a inspiré des politiques sociales de plusieurs villes américaines. Cette étude était conduite avec une visée classique des sciences sociales, visant à Prouver et gouverner comme l’expliquait Alain Desrosières : c’est-à-dire à la fois connaitre « la société » grâce aux registres de l?État (le fisc) pour prouver la baisse des chances pour les nouvelles générations et gouverner en choisissant des politiques qui contrecarrent ces effets indésirables dans la lignée d?un État-providence mieux informé et plus ciblé.


Image : La disparition du rêve américain. Un graphique issu d’une étude du Centre de Stanford sur la pauvreté et l’inégalité où travaille Ray Chetty qui montre l’évolution du pourcentage des enfants américains qui gagnent plus que leurs parents.

De la politique sociale du quasi-État Facebook : la politique sans ses inconvénients


Cette fois-ci, avec les données de Facebook, l?opération change de nature et constitue un saut que j?avais annoncé avec d?autres, mais dont on doit mesurer l?importance. Facebook (et plus précisément Mark Zuckerberg) décide de s?attaquer aux inégalités et se donne donc un agenda politique, ce qui est plutôt intéressant alors que toutes les firmes ont de fait un agenda politique qui n?est jamais explicité, mais mis en acte et souvent révélé après coup (du fait de leurs conséquences en matière de discriminations, d’environnement, etc.). Mais Facebook ne se réduit pas cependant à Mark Zuckerberg, c?est l?une des plus grosses capitalisations boursières désormais (528 milliards de dollars en 2017) et l?une des plates-formes devenues monopoles dans leur domaine. Si Facebook choisit d?investir dans une telle politique, ce choix a plus de poids que celui de bon nombre d?États, mais il a « l?avantage » d?être soustrait à toute décision politique publique. Facebook se dote donc comme n?importe quel état d?une politique sociale pourrait-on dire, sans pour autant avoir de compte à rendre comme n?importe quel gouvernement : la politique sans les inconvénients de la politique en quelque sorte.

Pour gouverner dans ce sens, Facebook doit aussi prouver, comme tous les autres gouvernements, et commande donc des études. Parfait, quoi de plus noble que ce soutien à la recherche ! Mais il décide de choisir les chercheurs qu?il soutient, qui sont peu nombreux, et après les retours négatifs sur son étude de manipulation des émotions avec des chercheurs de Stanford en 2014, Facebook s?est doté de procédures pour valider ces projets de recherche. De là à dire qu?il s?agit d?un concours comme pour une agence publique de recherche, il ne faut pas exagérer, tout cela reste secret comme le protocole exact de la recherche conduite par Chetty. Pour résumer, Facebook s’arroge les avantages de la science sans les inconvénients de la science (à savoir le débat académique transparent et la validation par les pairs).

Enfin troisième étage de la fusée, les données sont fournies par Facebook et sont d?une ampleur jamais égalée, car Chetty pourra traiter les 230 millions de comptes ouverts aux États-Unis en janvier 2018 sur un total de 326 millions d?habitants dont 18 % de moins de 14 ans (soit 58 millions), ce qui fait une couverture de près de 80 % de la population de plus de 14 ans. On peut difficilement rêver mieux comme échantillon : on est en fait plus près de l?exhaustivité, ce critère de validation des données de population qui était quasiment réservée aux instituts statistiques nationaux et qui a permis de fonder ce que j?appelle les sciences sociales de première génération, celles qui mettent en avant le pouvoir d?agir de « la société » comme « tout », comme structure, en prouvant ses effets par les grands nombres collectés par les recensements. Voilà donc Facebook en position de faire le recensement de la population américaine comme l?État, voire même mieux que l?État puisqu?il peut le faire toutes les minutes s?il le souhaite et surtout parce qu?il collecte une quantité de traces d?activité sans commune mesure avec n?importe quel recensement, même lorsqu?on additionne les variables traitées dans les quatre univers classiques : personnes, familles, ménages, logements.

Facebook : nouveau gestionnaire de l’état civil

Certes, il est nécessaire de rappeler que Facebook peut collecter des comptes fictifs, en double, avec robots, etc. Mais il faut souligner que la volonté de départ de la plate-forme d?imposer l?identification des nouveaux comptes par l?usage des noms de l?état civil a fini par se diffuser largement. Elle s?est même renforcée depuis octobre 2017 avec une chasse aux faux comptes et une suppression de comptes en très grande augmentation. Facebook constitue en effet avec Google un prétendant à la gestion de l?état civil se substituant aux états puisque désormais un identifiant Facebook peut servir de passeport pour accéder à un grand nombre de services et d?applications, et bientôt pour franchir les frontières puisque les douanes US commencent à demander ces identifiants (de façon facultative pour l?instant). Cette contrainte a totalement remis en cause la tradition d?anonymat qui était présente sur le web à ses débuts et on ne mesure ses conséquences que maintenant, lorsqu?une firme (ou deux) a acquis le monopole de l?identification fiable (c?est-à-dire en rapport avec l?état civil) des comptes présents sur les réseaux. Ce « forçage » institutionnel s?est présenté comme un souci de fiabilité et une source de confiance dans le réseau, mais il a été de fait imposé aux utilisateurs et profite avant tout à la firme pour accomplir ses objectifs commerciaux et désormais politiques. Malgré cette prétention de substitut à l?état civil de plus en plus rigoureuse, il reste sans aucun doute des comptes qui ne sont pas correctement associables à des personnes IRL, in Real Life. Mais ces biais sont connus, sont redressables et il ne fait pas de doute que Chetty et ses équipes pourront contourner cet obstacle.

Plus problématique reste le statut légal de ces données ainsi récupérées et exploitées. La loi fixe les conditions des recensements, l?obligation de réponse, le type d?utilisation des données et en confie la gestion à des entités de statut public qui peuvent les mettre à disposition selon certaines conditions. Pour Facebook, ces contraintes ne tiennent pas : il fixe toutes les règles à sa façon, les exploite de manière totalement confidentielle (du point de vue du business) c?est-à-dire opaque (du point de vue du citoyen). Les CGU (conditions générales d’utilisations) annoncent certaines garanties qu?il est très difficile de vérifier. Désormais, depuis l?action de Max Schrems en 2011 et la plainte collective qui s?en est suivie, il est possible de recevoir ses données personnelles brutes et des services comme ceux de Personaldata.io permettent de contrôler ce qui est détenu par les diverses applications, firmes ou services. Mais rien n?indique quelles sont les traces qui seront exploitées dans l’étude de Raj Chetty particulièrement. Bref, Facebook s’arroge les avantages du recensement sans les inconvénients de l?accountability et de la privacy (de la responsabilité et du respect de la vie privée).

On se doute cependant que les chercheurs sauront anonymiser tout ce qu?il est nécessaire. Mais cela oblige à leur faire confiance et on ne sait pas quelle autorité de contrôle est en charge de la vérification (sans doute plus Stanford que Facebook). Et surtout, cette anonymisation ne permet en rien d?empêcher l?identification des individus via le recoupement de 5 à 6 données dont la géolocalisation qui reste clé dans les travaux de Chetty comme dans les usages des traces sur internet en général. C?est souvent à travers ce point de contact entre le monde des traces numériques et le monde des activités physiques que l?identification peut se faire et c?est pourquoi Google comme Facebook en sont très friands. Il est aussi quasiment certain que Chetty et ses équipes ne s?intéressent pas du tout à cette identification individuelle, ni même à un profiling à vocation de ciblage marketing. Cependant, il faut noter qu?ils vont manipuler une base de données qui rendra possibles tous ces calculs, ce que fait déjà Facebook pour son compte, et sachant le degré extrêmement faible de la sécurité des réseaux contemporains, on peut s?interroger sur la responsabilité ainsi prise, malgré tous les cryptages et hachages que l?on peut imaginer. N?oublions pas cependant que sur ce plan, le vent est en train de tourner et il est probable que ce genre d?études exploitant les données personnelles sans consentement explicite ne sera plus possible (même anonymisées) dans quelque temps : ainsi Facebook a été condamné le 16 janvier 2018 par un tribunal allemand sur huit clauses de ses conditions générales d?utilisation. En réponse (et après avoir fait appel de la décision), la plate-forme a annoncé qu?elle allait se mettre en conformité avec le RGPD européen (Règlement général pour la protection des données personnelles) en déployant un centre de confidentialité mondial. Il se peut donc, comme je l?ai annoncé dès le début des réseaux sociaux, que cette fenêtre de tir où tout le monde peut exploiter toutes les traces qu?il veut, va se refermer pour des raisons très différentes d?ailleurs et pas seulement à cause du RGPD.

Vers des sciences sociales à deux vitesses ?

Mais ce qui intéresse surtout Raj Chetty ce sont avant tout des effets structuraux validés sur une grande masse de données, puisque les méthodes de Machine Learning qu?il utilisera exigent de grands volumes pour apprendre et réviser les modèles testés au fur et à mesure. À tel point qu?on peut dire que les sciences sociales ordinaires n?ont quasiment jamais la chance de pouvoir agir sur ce volume et donc de mettre en ?uvre ces méthodes de calcul si tant est qu?elles en aient l?expertise et l?envie. Ce mouvement de dépossession des accès aux données se renforce donc dans le cas de cette étude, mais il était déjà bien avancé, à tel point que j?ai pu annoncer pour dramatiser que l?enjeu était ni plus ni moins celui de la vie et de la mort des sciences sociales. D?ores et déjà, les computer sciences et spécialement les data scientists occupent le terrain des « sujets de société » dont les sciences sociales se réservaient le monopole de l?expertise. Avec cette étude, on voit bien que des sciences sociales à deux vitesses vont s?installer, celles qui ont accès autorisé à des masses de données qui seules permettent de mobiliser des techniques de Machine Learning dont il faut avoir la maîtrise et celles qui exploreront certaines niches de faible quantification (pour compléter les grands tableaux), qui produiront des hypothèses risquées (à valider par la suite) ou qui se contenteront de commenter et de critiquer (quand les autres proposeront des solutions, comme l?exige le solutionnisme technologique et libéral à la fois, cher à Evgeny Morozov).

Cependant, il s?est passé dans cette opération Chetty, un détournement des spécificités des données des plates-formes de réseaux sociaux qui peut paraître étrange du point de vue des générations de sciences sociales que j?ai proposé. En effet, cette étude prétend réaliser en tous points le programme des sciences sociales de première génération, celles des recensements et de l?exhaustivité, du pouvoir d?agir des structures, en exploitant des données et des traces supposées faire partie du « patrimoine » des sciences sociales de troisième génération. Le mouvement est tout à fait intéressant et montre bien précisément que ce n?est pas seulement une question de statut ontologique des données et des traces numériques qui seraient « par nature » d?un monde ou d?un autre, mais bien plutôt une question de « point de vue » (structures, préférences individuelles, réplications). Précisons que le travail de Chetty vise avant tout – pour ce qu?on en sait – à partir aussi des travaux qu?il a déjà conduits, à mettre en valeur les effets des engagements relationnels, à partir de l?analyse des traces d?activité en réseau, sur les inégalités ou plus exactement sur les opportunités. Cette théorie des ressources disponibles à travers les réseaux est un classique de l?analyse sociologique de réseaux, dont Mark Granovetter avait notamment produit une démonstration devenue célèbre sous le nom de « la force des liens faibles » (1). Mais on se doute bien que ces approches qui portaient sur des réseaux complets de petite taille et avec des volumes de données faibles peuvent être totalement revisitées par des études comme celle en cours (et on peut donc regretter que tous ces chercheurs ne puissent pas eux aussi bénéficier de ces accès aux données de Facebook). Cependant, Facebook comme toutes les autres plates-formes d?internet, génère des quantités de traces à un degré de granularité et à une fréquence jamais atteinte dans toutes les analyses classiques de réseaux. Cette haute fréquence de traces élémentaires est le matériau privilégié pour suivre des propagations, des processus de contagion, d?imitation, de bursts (phénomènes d’impulsions), de cascades, de buzz, qui sont parfois très éphémères, mais pourtant significatifs d?une dimension de la vie sociale. Il est fort probable que ce point de vue n?intéressera pas Chetty. Cependant, il intéresse de fait les marques qui financent via la publicité Facebook et tout l?internet. Les calculs faits à la volée par Criteo par exemple lors des enchères de placement publicitaire sur tous ces supports reposent entièrement sur une capture de traces du type click, temps de passage, de réaction, voire de like, de partage (qui deviennent dans ce cas déjà des traces de haut niveau si l?on veut).

Les trois générations des sciences sociales face à Facebook

On peut donc dire que les sciences sociales de première génération peuvent trouver dans les traces des réseaux sociaux des sources fiables pour tester et valider ce pouvoir d?agir de la société, de la structure sur les individus quand bien même ces données n?ont pas été construites selon les mêmes principes d?exhaustivité des recensements. En fait, les conditions de validité d?une telle affirmation sont extrêmement fortes puisqu?il faut avoir accès à toutes les données, et donc obtenir l?accord du propriétaire, puisque les données se trouvent ainsi considérées comme propriété de Facebook. Or, il existerait beaucoup d?autres façons de traiter le même corpus si une obligation de service public était imposée à Facebook (avant d?envisager son démantèlement pour lutter contre son monopole !).

L?analyse de réseaux qui va être pratiquée peut privilégier diverses approches comme je l?ai indiqué et rien n?empêche par exemple de mettre en évidence les influenceurs, à la mode des sciences sociales de seconde génération, ou dans la même veine, les choix effectués dans l?activation des liens entre amis. Mais il serait aussi possible de suivre à la trace non plus les comptes, mais les contenus, les idées, les mèmes qui circulent pour mieux comprendre les processus de contagion, de propagation et pour alimenter une théorie des réplications. En janvier 2018, Facebook a modifié son algorithme de gestion des fils d?actualité pour répondre aux attaques dont il faisait l?objet pour avoir laissé passer des contenus indésirables notamment de la part de groupes djihadistes. La réaction de Facebook a été tout à fait significative. Devenu média sans réellement l?avoir visé, mais par effet agrégateur de contenus, Facebook s?est trouvé sommé d?assumer des responsabilités équivalentes à celles d?un éditeur. Or, il n?en était pas question. Facebook voulait bien les avantages des médias (et notamment leurs audiences et leurs revenus publicitaires), mais pas les inconvénients légaux de la responsabilité éditoriale. Il a donc fait machine arrière pour revenir à son c?ur de métier, les échanges entre membres d?un réseau d?amis, mais à condition que cela active la conversation. Pourquoi cette restriction ? Pour mieux valoriser son public actif auprès des marques et ne plus laisser proliférer des diffusions simples de contenus qui ne génèrent aucun engagement. Passer de l?audience à l?engagement a toujours constitué un objectif des marques et Facebook adopte les algorithmes qui conviennent pour cela, bien entendu sans expliquer en détail comment cela se passe, dans l?opacité la plus totale, qui produit cet effet étrange pour l?utilisateur qui ne maîtrise rien des règles d?affichage sur son propre fil de son propre compte ! Twitter a subi les mêmes attaques sur sa responsabilité éditoriale et tente de trouver une réponse semble-t-il plus subtile et plus ouverte à la recherche, la mesure de la « sérénité » des conversations, inspirée du MIT, mais ouverte à toutes les contributions.

Dans cette veine, il serait donc tout à fait possible (et même intéressant pour l?entreprise et son marché publicitaire !) de comprendre comment certains contenus peuvent générer de la connectivité, peuvent rapprocher et mobiliser l?attention. Les sciences sociales de troisième génération sont précisément faites pour cela et sont les plus adaptées à ce nouveau régime de publication que sont les réseaux numériques en général. Mais il faut en avoir le projet, l?ambition et construire les méthodes adaptées dont les meme trackers de Leskovec et Kleinberg par exemple sont un des volets. Et dans ce cas, les contraintes d?exhaustivité ou de représentativité ne s?appliquent pas véritablement, elles sont remplacées par des exigences de traçabilité qui concernent les contenus, en l?occurrence ici limités à une plate-forme, car il reste quasiment impossible de suivre correctement des réplications d?une plate-forme à l?autre. C?est pour cela que ces travaux sont possibles dans le cadre de Twitter ou même dans le cadre des publications scientifiques, comme le fait la scientométrie, mais pas encore sur des contenus qui circulent à travers tous les médias. La dépendance aux plates-formes est donc grande.

Mais comme on le voit avec l?étude de Chetty, cette dépendance aux plates-formes sera encore plus importante pour les études qui veulent traiter d?effets de structures ou de préférences. Ce qui devient très inquiétant pour les sciences sociales en général, qui seront donc soumises au bon vouloir des plates-formes et de Facebook en particulier pour accéder à des jeux de données de qualité. Nous aurons donc à terme la « recherche Facebook » face au reste du monde et il n?est pas sûr que le reste du monde y survive !

Promouvoir l’ouverture des données des plateformes

Se focaliser sur Facebook ne veut en aucun cas dire qu?on oublie que toutes les autres plates-formes des « GAFAMT » posent les mêmes problèmes. Elles le font cependant selon des modalités différentes qui recoupent les trois générations de sciences sociales que j?ai proposées.

Facebook et Google sont les prétendants pour reprendre les activités des sciences sociales de première génération et l?étude envisagée qui exploite les données Facebook à la mode d?un recensement ne fait que le confirmer. La diversité de leurs applications, leur position de monopole et leur puissance capitalistique et technologique leur permet de connaître et de suivre toute la population mondiale à terme. Microsoft est entré dans la compétition en rachetant Linkedin et l?activité intense développée depuis montre bien qu?ils veulent capter toutes les informations en lien avec le travail ce qui est à coup sûr plus directement monétisable.

Apple et Amazon ne procèdent pas de la même façon, car ces plates-formes se focalisent sur les consommations, sur les goûts et donc sur les préférences individuelles, ce pouvoir d?agir privilégié par les sciences sociales de seconde génération. La rentabilité d?une telle cible est plus immédiate et ne suppose pas de tout connaître des activités et des réseaux des inscrits en privilégiant la conversion en acte d?achat. Leurs modèles de recommandations sont les leviers essentiels de pilotage des goûts mondiaux et de ce fait de prescription auprès de tous les fournisseurs, qui ne peuvent plus désormais contourner ce point de passage obligé. Toute théorie des choix, toute approche de la consommation et du marketing ne peut plus désormais évacuer la puissance de captation de marché et d?organisation des places de marché de ces plates-formes et cela dans tous les secteurs.
Enfin Twitter constitue la plate-forme idéale pour les sciences sociales de troisième génération, on peut presque dire qu?il en est le prototype, le fondateur ou même la drosophile, puisqu?il permet de tester tous les modèles de propagation, et cela de façon assez ouverte par comparaison avec leurs compères des GAFAMT. Ce sont plutôt les sciences sociales qui peinent encore à élaborer un véritable modèle des réplications, pour enfin tester les hypothèses sur le pouvoir d?agir des non-humains, à savoir des contenus et des messages.

Les tâches sont ainsi divisées entre plates-formes et si les chercheurs comme Chetty vont sur Facebook, ce n?est donc pas un hasard, de la même façon que les pionniers de la troisième génération préfèrent Twitter. Dans tous les cas, cependant, la dépendance déjà mentionnée à l?ouverture de ces données par les plates-formes est totale et la précarité de ces approches mérite d?être soulignée comme problème de politique scientifique pour une ressource fournie par le public et accaparée par quelques firmes.

Les prétentions à la suzeraineté de ces plates-formes, pour reprendre la formule de Alain Supiot (2) dans Gouverner par les nombres, doit être combattue par la souveraineté des États (comme le fait le RGPD) pour contraindre ces plates-formes à remettre dans le domaine public toutes les données et traces qui sont à leur disposition, données produites par le public et qui méritent d?être reprises, traitées et contrôlées par des organismes scientifiques publics avant d?être mises à disposition des chercheurs dans des conditions précises comme c?est le cas pour les recensements (et donc avec des limites). Les principes de la science ouverte risquent fort de rester des v?ux pieux si on ne s?attaque pas dès maintenant à cette prédation des données par l?oligopole de l?attention que constituent les GAFAMT.

Dominique Boullier

_________
Notes
1. J?ai rappelé ailleurs (mon papier sur les études de Twitter à paraitre en 2018 dans Sociologie et Sociétés) que Granovetter lui-même identifiait bien deux accès privilégiés à ces données de réseau, selon l’agency qu?on adoptait : celle de la structure du réseau (les liens) ou celles du réseau personnel et des préférences adoptées par les n?uds (les choix du modèle dit DHL).
2. Alain Supiot souligne ainsi le rapport de vassalisation qu?instituent ces grands groupes, sans réelle teneur juridique, mais par le seul effet de leur force de frappe et par leur statut de point de passage obligé. L?absence de réelle légalité à tout cela permet de gérer les litiges sous forme d?arbitrage ou par défaut en utilisant du court shopping » selon les pays et même les états aux USA. N?ayant pas de contrainte de contrôle d?un territoire comme l?ont les États souverains, ces entreprises gagnent une flexibilité et une réactivité qui attirent les investisseurs qui constituent désormais le rapport social dominant comme le propose Michel Feher dans son livre, Le temps des investis.

  • Du progrès technique pour le progrès technique

J’avais l’impression – un peu paresseuse et facile, je le reconnais volontiers – que la critique technologique s’était un peu éteinte avec l’essor d’internet au tournant des années 2000, jusqu’à ce que le designer Yoan Ollivier me conseille de lire l’essai du sociologue et anthropologue des techniques Alain Gras, Fragilité (...)

Couverture du livre d'Alain Gras, Fragilité de la puissanceJ’avais l’impression – un peu paresseuse et facile, je le reconnais volontiers – que la critique technologique s’était un peu éteinte avec l’essor d’internet au tournant des années 2000, jusqu’à ce que le designer Yoan Ollivier me conseille de lire l’essai du sociologue et anthropologue des techniques Alain Gras, Fragilité de la puissance, publié en 2003. Vu l’appareil de notes et de références, force est de constater qu’il n’en était rien.

Malgré les années, la critique d’Alain Gras demeure pourtant éminemment pertinente. Pour lui, souligne-t-il avec insistance dans ce livre, le machinisme n’était pas inscrit dans la révolution industrielle. L’automate mu par un moteur n’est pas le descendant naturel de la longue lignée des outils humains. Au contraire, le moteur thermique marque même une discontinuité avec la machine ancienne, qui ne cherchait qu’à démultiplier la puissance vivante et naturelle (c’est-à-dire la force de l’homme, des animaux, du vent ou de l’eau?). En posant la question de savoir si la machine est bien le fruit d’une nécessité historique, il rappelle que l’instauration de l’ordre machinique industriel qu’introduit l’engin motorisé – et son corollaire, l’identification du moteur au progrès – n’allait pas de soi. Au contraire, le démarrage de la civilisation thermo-industrielle est assez tardif et ne correspond pas du tout à la première révolution industrielle. Pas plus que la 2CV ne descend du char à b?ufs, les machines à moteur ne descendent des outils que par construction rétrospective. Elles ont été un moyen d’assurer la puissance de certains, de procéder à une « accélération » industrielle fondée sur la rupture du lien social que produit par nature le moteur, puisqu?il vise justement à se séparer du vivant, à disjoindre la production du vivant. Il rappelle également combien le réseau d’information s’articule au développement des transports et donc au moteur et combien le mythe du progrès s’appuie sur le camouflage des conditions de production de la puissance par la délocalisation de ses nuisances (notamment bien sûr la pollution et l’extraction des ressources). Il rappelle que si le monde réel n’a pas d’autre projet que la vie pour la vie, le monde technique, lui, à un futur, un projet. « La mégamachine enferme le progrès dans la croissance », en nous rendant toujours plus dépendants de l’énergie et du pouvoir de la technoscience. Nous sommes dans l’illusion d’une vision déterministe de la technique.


Image : Dans son livre, L’homme et la matière, l’archéologue et ethnologue André Leroi-Gourhan souligne avec cette planche que le passage du silex au couteau serait une évolution quasi naturelle. Comme si le couteau existait déjà dans le silex de l’Homo habilis. Pour Alain Gras, cette présentation est une mise en scène qui vise à nous faire croire à une évolution, bien que celle-ci ne s’explique ni par l’usage (le silex ne servait pas seulement à couper), ni par la logique des formes (rien n’explique le manche par exemple). Pour Alain Gras « La fin supposée pèse sur l’histoire de l’objet depuis l’origine. Nous trouvons là le principe actif de la philosophie continuiste de l’Histoire, principe qui induit un effet pervers systématique dans la considération de l’évolution technologique ».

Pourtant, bien des bifurcations auraient pu nous conduire sur un chemin différent, rappelle le sociologue. Il remonte à Galilée pour montrer que la science a cassé le rapport entre morale et connaissance, en permettant de construire un monde a-moral, une science sans conscience, un monde objectivable qui permet l’optimisation pour l’optimisation par l?invention de la mécanique. Le rationalisme scientifique s’est alors imposé, tout puissant. Le travail sans l’homme est devenu le projet implicite de notre civilisation. Le progrès a été enfermé dans la machine, alors que la machine, par rapport à l’outil, a une durée de vie bien plus faible. En anthropologue des techniques, il rappelle pourtant que bien des innovations techniques ont été inventées sans être utilisées. Que bien des bifurcations auraient pu nous conduire ailleurs que là où nous sommes. Les Amérindiens par exemple connaissaient la roue, mais n’ont pas voulu l’utiliser. « On ne choisit pas une technique parce qu?elle est plus efficace, mais c?est parce qu?on la choisit qu?elle devient plus efficace ».

Le progrès technique s’appuie sur une notion jamais explicitée, mais omniprésente : l’efficacité. Ainsi, la vitesse des transports semble être devenue la seule mesure de leur efficacité, leur seule raison d’être, oubliant que l’efficacité de la vitesse renvoie à des questions d’utilité, qui, elles, s’évaluent toujours à partir d’un système de valeurs. Ainsi, derrière l’extrême vitesse que propose Hyperloop, le projet d’Elon Musk, il est nécessaire de décoder les valeurs auxquelles renvoient le projet.

Au final, Alain Gras nous adresse une question claire sur l’apport de la technique pour la technique : « De quoi l’efficacité est-elle la valeur ? » Répondre à cette question montre très vite que cette société de l’efficacité qui nous est proposée par la technologie ne porte en elle aucune valeur d?humanisme. Cela n’empêche pas la propagande croissantiste du progrès, malgré sa grande simplicité, d’être et de demeurer efficace. Cela explique certainement pourquoi elle fonctionne aussi bien. Le progrès nous offre une « direction », un « sens », « un objectif »… Un sens bien différent de la vie elle-même, dont la momentanéité ne nous propose que de contempler le monde le temps que nous le traversons. Le progrès technique nous a pris au piège de notre imaginaire surpuissant en nous proposant un but à l?existence. Force est de constater que ce but est surpuissant, même s’il n’est pas certain qu’il nous mène quelque part.

Si l?on peut regretter que le sociologue ne nous montre pas mieux comment d’autres parcours auraient été possibles, son essai reste particulièrement pertinent et stimulant pour nous aider à construire et comprendre les limites de la technique. Comme il le disait dans une remarquable synthèse sur Sciences Critiques, nous devons nous évader de la prison imaginaire que la technologie façonne. Un programme qui demeure effectivement stimulant, au moins parce qu’il nous propose de remettre la technologie à sa place et d’en questionner donc les limites et les valeurs.

Hubert Guillaud

  • Le retour de l?intelligence augmentée

Comment devenir un centaure ? se demande Nicky Case (@ncasenmare) dans le Journal of Design and Science du MIT. Non, il ne s’agit pas d’application de la mythologie grecque au biohacking. « Centaure » est une expression pour décrire le futur état d’hybridation entre l’homme et l’intelligence artificielle : il s’agit d’un cyborg métaphorique. Pas (...)

Comment devenir un centaure ? se demande Nicky Case (@ncasenmare) dans le Journal of Design and Science du MIT. Non, il ne s’agit pas d’application de la mythologie grecque au biohacking. « Centaure » est une expression pour décrire le futur état d’hybridation entre l’homme et l’intelligence artificielle : il s’agit d’un cyborg métaphorique. Pas quelqu?un qui possède des implants dans le cerveau, mais une personne dont le mode d’action implique une constante interaction avec la manière de penser des machines. On a déjà parlé de l’auteur de l’essai, Nicky Case, il n’y pas longtemps dans nos colonnes. Mieux vaut le laisser se présenter lui-même : « Salut, je suis Nicky Case ! Je raconte des histoires sur les systèmes : je prends les systèmes existant dans le monde autour de nous – les systèmes sociaux, physiques, politiques, économiques, environnementaux – et je les explique à travers des systèmes de jeux. Je rends le complexe simple, grâce au pouvoir du jeu !

Non ce n’est pas de la gamification. Berk ».

Comment écrire avec une brique ?

Le sujet de son essai concerne donc cette « cousine oubliée de l’IA », comme il la nomme : l’intelligence augmentée. Un domaine qui n’est pas neuf, comme il le rappelle, puisqu’il était au centre des préoccupations de Douglas Engelbart au début des années 60 (rappelons que le texte séminal de Douglas Engelbart écrit en 1962 s?appelait : comment augmenter l?intellect humain)…

Case raconte une anecdote sur la manière dont Douglas Engelbart a montré comment nos outils façonnent notre pensée. Pour ce faire il avait simplement collé un crayon à une brique. Du coup il devenait difficile d?écrire le moindre mot. Et si l?écriture devient difficile, continue Case, c’est tout un ensemble d’activités mentales qui deviennent inaccessibles : « C’était le message de Doug : un outil ne se contente pas de « juste » rendre les choses plus faciles – il permet de nouvelles façons de penser, de vivre, d’être, qui étaient auparavant impossibles. »

Après la fameuse « mère des démos » de 1968 (qui vit la première présentation d’un écran graphique interactif et de la souris), organisée par Stewart Brand et Douglas Engelbart, cette idée d?augmentation de l’intelligence humaine connut son heure de gloire : l?apparition du micro-ordinateur, suivie de celle du web, apporta l’usage du numérique à tout un chacun.
« Les choses « allaient bien » pour le mouvement de l’augmentation de l’intelligence« . « Allaient bien », soulignant par là que ce n’est plus le cas.

Car cette idée de l’intelligence augmentée allait bientôt être oubliée. Fini l’ordinateur comme outil de création, nous dit Case, la technologie allait devenir un outil de consommation.

Et le numérique allait partir dans une direction totalement différente : celle des intelligences artificielles autonomes, en concurrence avec les humains ? qui sont d’emblée déjà donné perdant dans la course. Nous considérons la question de notre rapport aux machines comme un jeu à somme nulle – à l’instar des échecs -, c’est-à-dire un jeu où, s’il existe un gagnant, alors il y a forcément un perdant.

La seule solution serait de faire comme l’envisage Elon Musk avec Neuralink : créer une interface directe entre le cerveau biologique et la machine.

Mais point n’est besoin d’une telle fusion, argue Case. Le rapport entre la machine et l?humain peut s?effectuer de manière beaucoup moins intrusive (et naïve). Et surtout il faut cesser de penser en termes d?opposition, non seulement entre humains et IA, mais également entre intelligence artificielle et intelligence augmentée.

A l’humain les questions, à la machine les réponses

Pour appuyer son argument, Nicky Case revient sur le fameux championnat d?échecs de 2005, où ce fut une association entre des humains moyennement doués et des programmes moyennement efficaces qui vainquirent tant les grands joueurs que les superordinateurs. Cette histoire est bien connue, mais Case relève un aspect plus rarement souligné : ce n’est pas l?association d’un joueur et d’un programme qui a gagné, mais un collectif composé de deux joueurs amateurs et de trois machines assez faibles. Ces trois ordinateurs faisaient tourner trois différents programmes de jeu d?échecs, et en cas de désaccord entre eux, les êtres humains poussaient les machines à continuer leurs calculs. Citant Gary Kapsparov : « L?association humain faible + machine + bon processus s’est avéré supérieure à un ordinateur puissant seul et, plus remarquablement, supérieur à la combinaison d’un humain fort + machine + processus inférieur. »

En fait conclut Case, dans l’équation humain + machine, la partir la plus difficile à gérer n’est pas l’humain, ni la machine, c’est le « + ».

Il est important, explique-t-il, que les humains se spécialisent dans ce pour quoi ils sont les meilleurs, et les que les IA fassent de même : les humains sont bons à la créativité, à l?empathie, aux rapports sociaux. Les machines sont meilleures en calcul. Mais au final, le rapport entre humains et machines peut se résumer ainsi : les premiers sont meilleurs pour poser des questions, et les secondes pour trouver les réponses.

C’est comme cela qu’a procédé l’équipe gagnante au championnat d?échecs. Les humains posaient les questions aux programmes. Lorsque ceux-ci parvenaient à des conclusions divergentes, ils posaient alors des questions plus précises.

Case mentionne plusieurs autres systèmes basés sur ce système de questions humaines/réponses logicielles, par exemple le système de création de vêtements de Sung-Bae Cho, utilisant un algorithme génétique introduisant des variations, à charge pour l’utilisateur humain de choisir les plus intéressantes. A noter d’ailleurs que ce programme n’est pas le seul à fonctionner selon ces principes. A la conférence Artificial Life de Paris en 2011, une technologie analogue a été présentée, permettant de faire évoluer des formes ensuite susceptibles d’être imprimées en 3D. A la même conférence, Jordan Pollack a expliqué comment il utilisait des algorithmes génétiques pour faire évoluer la fabrication des robots.

Autre exemple cité par Case, celui de Maurice Conti qui utilise lui aussi l’IA en collaboration avec un humain pour élaborer un quadricoptère. L’humain définit un certain nombre de contraintes et la machine se débrouille avec pour construire un plan de l’engin.

L?exemple le plus bluffant est peut être celui de l’équipe de Jun-Yan Zhu qui permet à l’utilisateur d’esquisser un schéma très grossier que l’intelligence artificielle transformera en une image réaliste. Par exemple, tracer un triangle deviendra une montagne comme on peut le voir sur cette vidéo?

La technologie reprend souvent des concepts à la Nature, conclut Case : les réseaux neuronaux en sont un exemple. Pour lui la nouvelle idée que nous pouvons emprunter au monde de la biologie est celle de symbiose.

« La symbiose nous montre que vous pouvez réaliser des collaborations fructueuses même si vous avez des compétences différentes, ou des objectifs différents, ou même si vous êtes d’espèces différentes. La symbiose nous montre que le monde n’est pas souvent un jeu à somme nulle – il ne doit pas nécessairement s’agir d’humains contre l’IA, ou d’humains contre des centaures, ou d’humains contre d’autres humains. La symbiose permet à deux individus de réussir ensemble non pas malgré, mais à cause de leurs différences. La symbiose est le « + ». »

Rémi Sussan

  • Les aliens sont-ils de petites IAs vivant dans le noir ?

Le site Centauri Dreams (@centauri_dreams) est toujours bourré d?informations sur des sujets aussi exotiques que le voyage interstellaire, ou les formes de vie extraterrestres. Fort souvent, ces sujets croisent la question de l’intelligence artificielle. Dans un récent post, l’auteur du blog Paul Gilster (qui est aussi l’un des cofondateurs de (...)

Le site Centauri Dreams (@centauri_dreams) est toujours bourré d?informations sur des sujets aussi exotiques que le voyage interstellaire, ou les formes de vie extraterrestres. Fort souvent, ces sujets croisent la question de l’intelligence artificielle.

Dans un récent post, l’auteur du blog Paul Gilster (qui est aussi l’un des cofondateurs de la Fondation Tau Zero qui travaille sur le voyage interstellaire et qui a d’ailleurs écrit un livre sur le sujet), analyse les hypothèses du physicien Frank Wilczek (prix Nobel 2004) sur le développement de l’intelligence dans l’univers, qu’il a notamment présentées dans un article du Wall Street Journal.

Wilczek s’interroge sur le classique paradoxe de Fermi, qui consiste à se demander pourquoi, si réellement des civilisations extraterrestres avancées existent, celles-ci ne se sont jamais manifestées ni n’ont laissé aucune trace repérable.

Pour Wilczek, la vie n’est probablement pas un phénomène rare et le passage des formes biologiques les plus simples comme les bactéries, à des créatures complexes susceptibles de voyager dans l?espace, comme les humains, serait assez fréquent, même si cette évolution peut rencontrer de grandes difficultés.

Mais Wilczek fait partie de ceux – ils sont nombreux – qui pensent que notre substrat biologique n’est qu’une étape vers la création de superintelligences artificielles. Or explique-t-il, celles-ci auront tout intérêt à évoluer dans un milieu froid, celui de l’espace interstellaire, plus favorable au calcul que l’environnement chaud d’une planète. De plus, précise Wilczek, de telles intelligences auraient intérêt à privilégier les petites tailles.

Paul Gilster cite ce à ce sujet un passage de l?article du Wall Street Journal : « Considérons un ordinateur fonctionnant à une vitesse de 10 gigahertz, ce qui n’est pas loin de ce que vous pouvez acheter aujourd’hui. Dans l’intervalle de temps existant entre deux étapes de calcul, la lumière peut voyager d’un peu plus d’un pouce (2,54 cm). En conséquence, de puissantes entités pensantes obéissant aux lois de la physique, et qui ont besoin d’échanger des informations le plus rapidement possible, ne peuvent pas occuper un espace beaucoup plus grand. »

Pour résumer, les superintelligences seraient de petites machines qui vivraient dans le Vide cosmique. Bien difficile à localiser par les méthodes traditionnelles du SETI. L’univers pourrait être peuplé de civilisations très avancées donc… que nous serions incapables de repérer !

Maintenant reste à savoir si un univers peuplé d’iPhones superintelligents échangeant des données personnelles à la vitesse de la lumière est une vision inspirante du Cosmos…

  • Les notifications en question

John Herrman (@jwherrman) pour le New York Times Magazine (@nytmag) revient sur l’essor (épidémique) des pastilles de notification rouges peuplées de chiffres blancs qui ornent désormais les sommets de toutes nos applications. Elles sont censées nous alerter de quelque chose, même si on ne sait pas de quoi exactement : messages (...)

John Herrman (@jwherrman) pour le New York Times Magazine (@nytmag) revient sur l’essor (épidémique) des pastilles de notification rouges peuplées de chiffres blancs qui ornent désormais les sommets de toutes nos applications. Elles sont censées nous alerter de quelque chose, même si on ne sait pas de quoi exactement : messages non lus, nouvelles activités, mises à jour logicielles, annonces?

En quelques années, elles sont en tout cas devenues un des symboles de la « conception addictive ». Nés pourtant il y a plus de 20 ans, les pastilles de notifications ont envahi tout notre espace attentionnel, passant des applications des smartphones, aux interfaces de nos ordinateurs voire même au design des sites web. Ces pastilles rouges d’alerte mettent sur le même plan des choses qui sont pourtant loin d’avoir la même urgence. Les nombres qu’elles affichent, leur valeur, leur couleur uniforme clament pourtant partout le même impératif attentionnel !

Si Google et Apple, dans les spécifications pour les développeurs, invitent ceux-ci à en limiter l’utilisation, conscients que ces alertes attentionnelles posent problème, force est de constater que pour l’instant, les deux géants n’ont pas fait grand-chose pour en limiter réellement l’usage, par exemple uniquement à des mises à jour critiques ou à des messages directs.

Dans les spécifications pour développeur d’Android par exemple (voir ici et ), les icônes d’applications incrémentent un nombre de notifications « par défaut ». Le guide d’Android pour développeur précise seulement que « les notifications ne doivent pas être le canal principal de communication avec vos utilisateurs » en détaillant 6 cas seulement qui ne justifient pas une notification : promotion croisée (un cas qui est interdit), une application qui n’a jamais été ouverte, des messages qui encouragent l’utilisateur à revenir sans valeur direct, une demande d’évaluation de l’application, une opération ne nécessitant pas l’intervention de l’utilisateur (comme la synchronisation d’informations), ou certains états d’erreurs. Le guide de bonnes pratiques estime également que les notifications non transactionnelles devraient être optionnelles.

Les notifications sont aussi classées par niveau d’importance (au nombre de 4, que les utilisateurs peuvent modifier, mais que les développeurs, eux, peuvent réduire, mais jamais augmenter sauf si l’utilisateur le demande explicitement). Bref, à lire le guide d’Android, on se rend compte que les développeurs ont une grande liberté dans la gestion de ces notifications et qu’il y a très peu d’interdiction réelle (dont il faudrait connaître l’effectivité). Peut-être qu’une meilleure spécification des notifications pourrait permettre de les améliorer ? Que plusieurs jeux de couleurs de ces pastilles pourraient permettre d’améliorer les choses ?… Enfin, s’y intéresser nécessite aussi de regarder précisément sur quels paramètres l’utilisateur peut jouer. J’ai l’impression qu’ils ont eux beaucoup moins de possibilités (un simple on/off ?). Mais la question nécessiterait d’être creusée. En tout cas, l’absence de contraintes pesant sur les développeurs explique peut-être une partie du problème.


Tableau : les 4 niveaux d’importance des notifications selon le guide des développeurs Android.

La pastille de notification est finalement un emblème de l’absence de consensus sur la question attentionnelle, estime John Herrman. C’est pourtant dans les non-dits de sa signification que se jouent les amalgames entre ce dont nous avons réellement besoin et ce dont les entreprises disent que nous avons besoin ; entre le but que nos logiciels servent et la façon dont nous nous servons d’eux. « La pastille de notification est l’endroit où l’attention mal acquise est blanchie dans un engagement apparemment légitime ». C’est bien le problème !


  Chaines INFO  
 Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People 

Dernière modification: le   NEToo ™  Tous droits réservés • ©2004/2006 • CNIL n°892206