NEToo - métamoteur francophone pour tout trouver plus rapidement
  Web Actualités Blogs Voyages Images Vidéos Musique Annuaire  

Trouvez toutes les dernières nouvelles et dépêches publiées en interrogeant simultanément des multiples sources sur le web

Recherchez dernières actualités en temps réel 

   Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People   
 Dernières actualités multimédia sur métachercheur francophone NEToo
Le Parisien - High-Tech    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 24/04/2018 13:46:42

  • Quand les robots aident à recruter des humains

Connaissez-vous les chatbots ? Il ne s?agit pas des dernières vidéos de chats postées sur Internet, mais d?agents conversationnels. Le terme vient de la contraction de « chat » ? terme anglais qui signifie...

  • Huit applications mobiles pour prendre soin de soi

Elles se comptent par milliers sur les boutiques en ligne de nos smartphones. Voici une sélection de quelques-unes des meilleures applications de la catégorie « santé » téléchargeables gratuitement sur...

  • Comment bien choisir son application santé ?

Utiles, futiles ou même, pour certaines, à l?efficacité médicale douteuse? Pas facile de s?y retrouver dans la jungle des quelque 200 000 applications de santé disponibles pour smartphones dans le monde.Avant...

  • Innovation : Virtuoz, un boîtier qui aide les malvoyants à se déplacer

«Mon passé de responsable des ressources humaines m'a donné envie de favoriser l'inclusion des personnes en situation de handicap», souligne Céline Favy-Huin, directrice générale et cofondatrice de Feelobject....

  • WeProov, l'application qui simplifie les états des lieux

« Quand j'étais jeune et que je louais une voiture, j'étais toujours stressé au moment de faire le tour du véhicule », explique Gabriel Tissandier, cofondateur de la start-up WeProov. Lancée en juin 2015,...

  • Netflix prépare une série documentaire sur l?affaire Grégory

Une adaptation sous forme de série. La plateforme de vidéo à la demande Netflix a annoncé mercredi qu?elle allait prochainement diffuser une série documentaire qui raconte l?affaire Grégory.L?entreprise...

  • A la recherche d?exoplanètes : la Nasa lance avec succès son télescope TESS

Après avoir reporté le décollage lundi, la Nasa a lancé avec succès mercredi son nouveau télescope, d?un coût de 337 millions de dollars, conçu pour rechercher des planètes d?une taille comparable à celle...

  • «Plus belle la vie» : un jeu en réalité augmentée pour enquêter à Marseille

Depuis samedi, ils arpentent les rues du centre de Marseille (Bouches-du-Rhône) scrutant leur téléphone. Les fans de la série « Plus belle la vie » disposent en effet désormais d?une nouvelle application...

  • Facebook : de nouvelles options de confidentialité offertes aux utilisateurs

Facebook va proposer à ses utilisateurs européens, à partir de « cette semaine », de nouveaux paramètres de confidentialité pour se conformer au règlement européen de protection des données (RGPD).Annoncées...

  • La Russie soupçonnée de s?infiltrer dans des systèmes informatiques sensibles

Le National Cyber Security Center britannique et le FBI n?ont pas mis de gants ou de conditionnel pour désigner le Kremlin comme le maitre d?oeuvre derrière une recrudescence de cyberattaques visant des...


InternetActu.net    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 24/04/2018 13:46:43

  • Demain, des psychologues pour robots ?

Une machine peut-elle souffrir de maladie mentale ? Peut-on parler de « névrose » pour un robot ? C’est la question que pose le psychologue Thomas Hills (@thomhills) dans Aeon.A propos des systèmes de Deep Learning, tels qu’AlphaGo, il affirme ainsi : « leurs problèmes ne sont pas apparents lorsqu’on regarde leur code source. Ils sont inhérents (...)

Une machine peut-elle souffrir de maladie mentale ? Peut-on parler de « névrose » pour un robot ? C’est la question que pose le psychologue Thomas Hills (@thomhills) dans Aeon.A propos des systèmes de Deep Learning, tels qu’AlphaGo, il affirme ainsi : « leurs problèmes ne sont pas apparents lorsqu’on regarde leur code source. Ils sont inhérents à la façon dont ils représentent l’information. Cette représentation est un espace multidimensionnel en constante évolution, c’est un peu comme se promener dans un rêve. La résolution de ces problèmes n’exige rien de moins qu’un psychothérapeute pour algorithmes. »


Les faits mentionnés dans l?article ne sont pas particulièrement inédits : les biais algorithmiques dont il parle, qui poussent les logiciels à avoir des comportements racistes, sexistes ou en tout cas des préjugés liés à la façon dont les « data » ont été entrées par les humains ont déjà été largement dénoncés, notamment dans nos colonnes (par exemple, entre autres, ici ou ici), et ce genre de problématique est au coeur du projet NosSystèmes de la Fing. On sait également que la moindre modification dans une image (même invisible par les humains) ou la plus petite coquille dans un texte, est susceptible d’induire des erreurs monumentales (et incompréhensibles) dans un programme.

Non, ce qui est intéressant, c’est le vocabulaire utilisé par Hills : peut-on dire qu’une machine qui voit sur une image quelque chose qui n’y figure pas qu’elle « hallucine » ? Après tout, pourquoi pas ?


Image : le robot aspirateur Roomba aurait-il peur du vide ? Visiblement, rapportent les auteurs du programme de recherche Sensibilités algorithmiques du médialab de Sciences Po, ses capteurs infrarouges auraient du mal à interpréter correctement les sols très sombres, les prenants pour un trou ou des escaliers qu’il a appris à éviter.

Mais il n’est pas question seulement de bugs, de biais ou de data incorrectes. Selon l’auteur, les IAs sont également susceptibles de rencontrer des problèmes de « santé mentale » à cause de leur structure même, et ces « maladies » se rapprochent de celles rencontrées par les humains. « Ils peuvent oublier les choses plus anciennes lorsqu’ils apprennent de nouvelles informations », explique-t-il… Un tel phénomène se nomme « l’oubli catastrophique » et touche les réseaux de neurones, selon l’auteur, qui cite une étude parue dans Pubmed qui présente le problème (et suggère des solutions). Dans un tel cas, l’algorithme « n’apprend plus rien et ne se souvient plus de rien ». Et Hills de rapprocher cet état d?une théorie sur sur le cerveau humain, selon laquelle le déclin cognitif lié à l’âge serait la conséquence d?une trop grande masse de souvenirs devenue ingérable?

Vers une science du « comportement machinique »


Ce qui pose réellement question dans l?article de Hills, c’est donc l’idée que la question de la valeur des algorithmes n’est pas uniquement un problème d?ingénierie, mais qu’il se rapproche d?études de l’humain. Parallèlement à cet article d’Aeon, la question du comportement des programmes est également abordée par la revue Nautil.us, de manière plus poussée, par deux chercheurs du Scalable Cooperation Group du MediaLab du MIT, Iyad Rahwan (@iyadrahwan) et Manuel Cebrian.

Si, contrairement, à Thomas Hills, les deux auteurs se gardent de tout anthropomorphisme, ils n’en affirment pas moins que l’analyse des algorithmes dépasse de loin l?unique domaine de l?ingénierie. « Et si les physiologistes étaient les seules personnes à étudier le comportement humain à toutes les échelles : du fonctionnement du corps humain, jusqu’à l’émergence des normes sociales, sans oublier le fonctionnement du marché boursier, la création, le partage et la consommation de la culture ? Et si les neuroscientifiques étaient les seules personnes chargées d’étudier le comportement criminel, de concevoir des programmes d’études et d’élaborer des politiques pour lutter contre l’évasion fiscale ?« , demandent-ils dès les premières lignes. C’est pourtant ainsi que nous agissons avec nos systèmes numériques : « Les scientifiques qui créent des agents IA, à savoir les informaticiens et les roboticiens, sont presque toujours les mêmes scientifiques qui étudient le comportement desdits agents IA. »

Aujourd’hui, la plupart des recherches sur les IAs se contentent de vérifier si l’algorithme remplit bien la tâche pour laquelle il a été créé : si la voiture sans chauffeur se déplace correctement sur une route, si le système de reconnaissance d’image repère bien les chats dans les vidéos, et, reconnaissent les auteurs, ce sont bien sûr des travaux très utiles, mais très limités.

« L’étude du comportement d’un agent intelligent (humain ou artificiel) doit être menée à différents niveaux d’abstraction, afin de bien diagnostiquer les problèmes et concevoir des solutions. C’est pourquoi nous avons une variété de disciplines concernées par l’étude du comportement humain à différentes échelles. De la physiologie à la sociologie, de la psychologie à la science politique et de la théorie des jeux à la macroéconomie, nous obtenons des perspectives complémentaires sur la façon dont les humains fonctionnent individuellement et collectivement. »

C’est pourquoi les deux auteurs appellent à la création d’une nouvelle disciple scientifique, « l?étude du comportement machinique ». Cette discipline aurait bien sûr des liens avec l’informatique et la robotique, mais traiterait d’un niveau d’abstraction supérieur. Il ne s’agirait pas d’entrer dans le code source d’un logiciel, ou d’analyser les problèmes intrinsèques au hardware : elle développerait sa propre méthodologie.

Il n’est point question pour eux de tomber dans l’anthropomorphisme ou le zoomorphisme (donc, non, ils ne parleraient certainement pas de maladie mentale des machines !) ; au contraire, les IAs sont un nouveau type d’agent possédant des processus cognitifs radicalement différents de celui des entités biologiques, et affecteraient un comportement que les auteurs n’hésitent pas à qualifier d' »alien« , ce en quoi ils se rapprochent des propos d’un Kevin Kelly, qui, dans un article paru dans Backchannel, effectuait la même comparaison.

Un tel type d’analyse de haut niveau serait nécessaire bien sûr tant à cause du comportement intrinsèquement imprédictible des programmes d’IA, que de l’illisibilité du code source, mais aussi parce que de toute façon, bon nombre des algorithmes sont inaccessibles pour cause de propriété intellectuelle.

Et bien sûr, une telle recherche ne se contenterait pas d?analyser le comportement de telle ou telle machine, mais, à l’instar des sciences humaines, se pencherait sur l?écosystème général, et donc sur le rapport qu’elles entretiennent avec les humains et la société en général. C’est à ce niveau, et pas à celui du code, qu’on pourrait examiner de façon satisfaisante des problèmes comme celui de l’éthique des machines.

Et bien entendu, pour créer ce nouveau champ d?études, de nouvelles compétences seraient nécessaires : des chercheurs venus des sciences sociales et de la psychologie devraient accompagner les roboticiens et informaticiens dans ces travaux.

D’ailleurs, les chercheurs l’avouent eux-mêmes : « Dans notre propre travail ? nous sommes nous-mêmes informaticiens – nous avons souvent été remis en cause par nos collaborateurs en sciences sociales et comportementales. Ils ont souvent souligné à quel point nos questions de recherche initiales étaient mal formées, ou comment notre application de certaines méthodes de sciences sociales était inappropriée ? par exemple manquant de mises en garde importantes ou tirant des conclusions trop hâtives. Nous avons appris – à la dure – à ralentir notre tendance naturelle à simplement analyser de gros volumes de données ou à construire des modèles d’apprentissage automatique. »

Dans un article de recherche, les auteurs poussent plus loin leur réflexion. Ils envisagent la création d’une plate-forme qu’ils nomment la « boite de Turing ». Cette « place de marché » aurait deux types de participants. Il y aurait d’un côté les contributeurs, qui uploaderaient leurs algorithmes, et de l’autre les examinateurs, qui mettraient au point des tâches et des méthodes permettant d’analyser et de mesurer le comportement des IAs, y compris dans des domaines qu’on n’a pas encore l’habitude prendre en compte, comme l’éthique.

De fait l’article de Thomas Hills comme les recherches d’Iyad Rahwan et Manuel Cebrian nous conduisent à imaginer la future profession de psychologue pour robot. Encore un exemple des capacités de prédiction de la science-fiction. Car Isaac Asimov avait déjà mis en scène, dès 1940, une telle professionnelle. La célèbre Susan Calvin, héroïne de sa très fameuse série de nouvelles et de romans sur les robots !

Rémi Sussan

  • Peut-on modéliser la société ?

Vous vous souvenez peut-être de notre article de 2014 sur la Physique sociale, le livre de Sandy Pentland, directeur notamment du Laboratoire de dynamique humaine du MIT. Dans ce livre, Pentland, l’un des pontes du MIT, avançait que l’extraction de la réalité via le Big Data allait rendre possible la (...)

Vous vous souvenez peut-être de notre article de 2014 sur la Physique sociale, le livre de Sandy Pentland, directeur notamment du Laboratoire de dynamique humaine du MIT. Dans ce livre, Pentland, l’un des pontes du MIT, avançait que l’extraction de la réalité via le Big Data allait rendre possible la modélisation mathématique de la société. Force est de constater depuis que cette réduction du social dans le Big data n’a pas vraiment porté les promesses attendues. Au contraire. Les critiques à l’encontre de la réduction du social qu’ont produit ces modélisations n’ont cessé de se démultiplier. Que ce soit celles de Cathy O’Neil (voir « Il est plus que temps que le Big data évalue ses impacts » ou « Ouvrir les modèles ! », pas seulement les données), de la police prédictive (voir « Predpol : la prédiction des banalités » et « Où en est la police prédictive ? »), de la justice prédictive (voir « l’évaluation automatique des risques de récidive » et notre dossier sur « la justice analytique ») à « l’automatisation des inégalités »… (et ce ne sont là qu’une vue bien partielle des nombreux problèmes qu’ont généré les questions d’analyse et de traitement de données depuis 2014) : partout, les biais réductionnistes des outils de modélisation du social ont imposés de nouveaux problèmes plutôt que de permettre de résoudre les défis auxquels est confrontée la société. La physique sociale semble plus avoir montré ses limites que démontrer ses capacités à améliorer la société. Peut-être est-il temps de se demander pourquoi ?

couverture du livre de Pablo JensenC’est peut-être une réponse qu’on peut trouver dans le récent livre de Pablo Jensen (@pablojensenlyon) : Pourquoi la société ne se laisse pas mettre en équations. Physicien, Pablo Jensen se consacre depuis plusieurs années aux sciences sociales, abandonnant l’analyse de la matière pour une autre, moins prévisible et plus complexe, la société, dans le cadre notamment de l’Institut rhônalpin des systèmes complexes. Il est également l’un des initiateurs des cafés des sciences, ce qui explique certainement que son livre soit plutôt clair et pédagogique malgré la complexité de ce qu’il tente d’y expliquer.

Le coeur de la démonstration de Pablo Jensen consiste à expliquer que la société ne relève pas de la physique. Que si la physique est parvenue à trouver des règles universelles, faire la même chose pour la société, en découvrir la mécanique sociale, ne relève pas de la même gageure. La réplicabilité et la prédictibilité du monde physique ne signifient pas que nous allons arriver à faire la même chose avec les phénomènes sociaux, comme le souligne d’ailleurs très bien la crise de réplicabilité et de prédictibilité actuelle.

La statistique, cette science pour l’État, a pu nous faire croire, que les régularités humaines étaient connaissables. La sociologie est venue armer ces connaissances. Et la politique se voudrait l’ingénieur du social capable de manipuler la société comme le font les physiciens avec les objets naturels. Reste que ce n’est pas aussi simple, comme le montre l’échec de la planification. La complexification de l’économie a rendu la planification plus difficile. L’avalanche de données, le Big Data, fait fantasmer les tenants d’une modélisation de la société. Le problème c’est de croire qu’il existerait des lois sociales, des règles qui sous-tendent la société et les comportements humains. Ce qui a marché pour les sciences naturelles et physiques peut-il s’appliquer à la société ?

Pourquoi la physique et les sciences naturelles sont-elles robustes ?

Pablo Jensen explique dans un premier temps pourquoi les sciences naturelles contrairement aux sciences humaines sont relativement fiables et robustes, permettant leur modélisation et leur prédictibilité. En physique par exemple, on peut isoler des éléments pour faire des expériences, alors qu’en sciences sociales on ne peut connaître le monde sans agir dessus, sans le transformer. Le monde physique a également la particularité d’être relativement stable. Parmi les exemples qu’évoque Pablo Jensen, il prend celui du climat. On dispose aujourd’hui de modèles planétaires de l’atmosphère, des simulations nourries quotidiennement de milliers d’observations, de plus en plus précises. La simulation s’est peu à peu imposée permettant d’améliorer les deux modèles de prédiction existants à savoir : le fait que demain il fera le même temps qu’aujourd’hui ou le fait que le temps demain sera le temps moyen de ce lieu en ce jour de l’année. En météorologie et climatologie, nos modèles virtuels sont désormais meilleurs que ces deux types de prédictions simples. En la matière, si la modélisation a permis de réaliser de manière routinière des prédictions fiables sur plusieurs jours, c’est d’abord parce que les relations fondamentales pour la prédiction atmosphérique sont bien connues et restent valables à toutes les échelles, comme dans le temps et l’espace. Les équations qui décrivent l’évolution des masses d’air et leur dynamique où les échanges de chaleur sont bien établis et rendent les calculs robustes. Ces modèles intègrent certes des phénomènes moins connus, comme la formation des nuages qui créent des incertitudes dans les prévisions, mais sans remettre en cause les équations fondamentales. De plus, on cherche à prédire un état moyen et non pas un état précis. Enfin, dernier point qui explique le succès de la modélisation climatique : celle-ci a été un lent et long travail d’organismes mondiaux capable de rassembler les données et de les homogénéiser, permettant de calibrer efficacement les données et les modèles. Autant de caractéristiques qu’on ne retrouve pas dans l’analyse du social par les données.

Le risque du réductionnisme des modèles

Sans compter que simuler la société est bien plus compliqué. Les modèles sociaux ont du mal à être fiables. Ils relèvent le plus souvent d’un séduisant réductionnisme. Souvenez-vous de la parabole des polygones, ce petit jeu qui vise à expliquer la théorie de l’économiste Thomas Schelling qui cherchait à comprendre la ségrégation raciale et qui montrait que même si les gens cherchaient à vivre dans des quartiers mixtes, le résultat conduisait à créer une société plus ségrégée. Ce petit jeu ne doit pas nous faire croire que la ségrégation est une fatalité. Il repose surtout sur un modèle très simplifié de la réalité. S’il permet de comprendre et de simplifier le réel, souligne que le cumul des égoïsmes n’est pas très bon pour la société et que les effets globaux des décisions individuelles ne sont pas toujours intuitifs, la démonstration peine à décrire la réalité. Le problème, rappelle Jensen, c’est que pour être utile, le modèle simplifie énormément la réalité du choix du logement, qui en réalité est bien plus complexe que cela. Le risque est de prendre la démonstration du modèle au pied de la lettre. On voit ici que la modélisation d’un phénomène social repose sur une interprétation arbitraire du comportement des polygones. « La force d’une chaîne logique n’est jamais que celle de son maillon le plus faible ». « Nul principe un tant soit peu général ne sort de ces modèles simples, dont les résultats sont fragiles, très dépendants des détails concrets, des hypothèses précises qui sont faites. S’ils constituent de jolis jeux mathématiques, on ne peut en tirer aucun enseignement certain sur le monde réel, dont les ingrédients sont toujours peu maîtrisés. » Ces petits jeux réductionnistes sont certes séduisants, mais peinent à dépasser leurs propres limites. Ce type de modélisation fonctionne dans des situations expérimentales spécifiques qui seront plus difficiles à démontrer dans d’autres contextes.

Le risque des prédictions simplistes et des « vraisemblances séduisantes »

Or, les modèles construisent des « vraisemblances séduisantes », mais limitées.

Jensen revient par exemple sur l’échec de GoogleFlu, l’outil de Google permettant de prédire la grippe depuis les recherches effectuées par les utilisateurs du moteur de recherche de leurs symptômes. Cet échec s’explique à la fois par une confiance naïve dans la puissance des Big data et par l’absence d’une modélisation valable. Les chercheurs de Google ont commis des erreurs élémentaires en corrélant des données qui étaient systématiquement corrélées en hiver par exemple, leur faisant trouver des correspondances sans rapport avec la grippe. Pourtant, cette recherche n’a pas été complètement inutile. Une équipe de Columbia spécialiste en épidémiologie a depuis utilisé les données fournies en temps réel par Google pour améliorer leur propre modèle. L’équipe a construit des modèles épidémiques nourris de données réelles et les a comparés à des requêtes Google pour affiner les résultats. En fait, souligne Pablo Jensen, l’échec de GoogleFlu a surtout montré que les modèles en chambre, assez facile à imaginer avec le Big Data, fonctionnent assez mal. C’est le savoir-faire des épidémiologues et de leurs données qui ont permis d’améliorer les modèles. L’utilisation des données par elles-mêmes ne suffit pas si elles ne se confrontent pas aux savoirs de spécialistes des sujets analysés. Les modèles prédictifs du Big Data ne se suffisent pas seuls.

Jensen évoque bien d’autres exemples, comme celui des perspectives de croissance du Fonds monétaire international (FMI). Chaque année, ces projections de croissance s’écartent fortement de la réalité, sans que les économistes du FMI ne semblent apprendre de leurs erreurs passées. En 2011, des chercheurs de l’université de Nice ont comparé systématiquement prédictions et valeurs réelles depuis 1998. « Même lorsqu’il s’agit de prédictions à court terme (une année), les modèles sophistiqués font à peine mieux que la « prévision » simpliste selon laquelle la croissance de l’année prochaine sera égale à? celle constatée cette année ! » Les prévisions de croissance sont invariablement optimistes, ce qui montre que les économistes sont victime d’un biais systémique.

Pour comprendre ces échecs, Jensen rappelle à nouveau qu’il y a deux grands types d’approches pour les prévisions : la première consiste à extrapoler les tendances passées, la deuxième à créer une modélisation virtuelle à partir d’éléments (de données) plus ou moins réalistes. La première méthode est assez efficace sur le court terme, même si elle ne fait guère mieux qu’un prolongement de tendance. Mais la difficulté de cette méthode c’est qu’elle ne parvient pas à prédire les crises économiques : or c’est quand des changements importants ont lieu qu’on a le plus besoin de prédiction. En fait, souligne-t-il, la méthode n’est pas vraiment améliorable par l’ajout de données qui rendraient les résultats robustes, car rien ne garantit que les corrélations passées se maintiennent. Par exemple, il existait un lien fort entre croissance et emploi jusqu’en 1999, mais ce lien s’est réduit aujourd’hui. La seconde méthode de prédiction, elle, souligne qu’il est difficile de créer des modèles robustes avec beaucoup de paramètres. Au contraire, la robustesse d’un modèle semble surtout diminuer à mesure qu’on ajoute des paramètres. Cela revient à choisir entre d’un côté des modèles séduisants, avec peu de paramètres, mais qui se révèlent rapidement faux. Et des modèles complexes, trop riches, mais dont les modélisations ne sont pas robustes et peuvent être facilement perturbées par de nouveaux événements. Un grand nombre de paramètres diminue la robustesse et peine malgré tout à voir les changements.

En fait, malgré notre grande régularité, les choix des acteurs individuels ne sont pas stables et ne se laissent pas facilement résumer par des formules simples. Deux raisons qui expliquent pourquoi les prédictions économiques sont loin d’égaler celles des climatologues.

Les Big Data peuvent-elles améliorer la prédiction ?

Est-ce que l’avalanche de données va permettre d’améliorer les modèles et de construire des résultats plus fiables ? Pas vraiment, estime Pablo Jensen.

Jensen fait référence à un article publié par Duncan Watts, directeur de la recherche chez Microsoft, qui en 2016, a tenté de prédire le nombre de retweets d’un tweet pour prédire les conditions de succès. Watts y discute des limites générales de la prédictibilité des phénomènes sociaux complexes. Il y explique que deux visions s’opposent. Une, optimiste, attribue la variabilité à une caractéristique qu’il faudrait identifier. L’autre, pessimiste, estime que les phénomènes sont trop complexes pour être prévisibles. Lui aussi distingue deux types de prédictions : celle qui extrapole le passé et celle qui tente de prédire un phénomène en fonction de caractéristiques propres. À nouveau, la seconde méthode est souvent moins efficace que la première, mais c’est la seule qui tente de trouver des caractéristiques distinctives. Watts a analysé 1,5 milliard de tweets en cherchant à prédire la réussite des messages d’une semaine l’autre via l’apprentissage automatique. Or, même si on analyse toutes les caractéristiques des messages, le succès reste largement imprévisible. Pire, le niveau de prévisibilité d’un succès peut être doublé depuis une seule variable : à savoir, le succès passé de l’utilisateur c’est-à-dire le nombre moyen de retweets qu’il a connu jusque là. On a découvert l’eau tiède ! Le succès appelle le succès !

Pourquoi les simulations de la société sont-elles si difficiles ?

Pour Jensen, ce qu’il faut retenir de cet exemple, c’est que la vie sociale est intrinsèquement imprédictible, du fait des fortes variabilités des interactions entre les personnes. Quand bien même un modèle pourrait fonctionner depuis les données qui l’entraîne, rien ne garantit qu’il pourrait fonctionner ensuite. La transférabilité dépend de trop de facteurs pour être mesurable. Pour Prabhakar Raghavan, vice-président de l’ingénierie de Google, la transférabilité est l’enjeu majeur des sciences sociales. Mais les « risques stables, ces règles de comportement robustes » qui permettront de transférer des modèles d’un exemple l’autre seront-elles un jour accessible ? En fait, explique Jensen, les données ne parviennent pas à réduire la grande variabilité des situations. Pire, quand on utilise beaucoup d’information, on ne parvient souvent à réduire les erreurs que marginalement. Si on prend le chômage par exemple, le taux moyen est de 7 %. Seuls quelques profils relèvent de taux plus élevés (20 à 30 %), ce qui signifie que l’erreur de prédiction reste forte pour les autres. Or, les catégories spécifiques se démultiplient à mesure qu’on en ajoute jusqu’à ne présenter que fort peu de personnes.

« Il existe quatre facteurs essentiels qui rendent les simulations de la société qualitativement plus difficiles que celles de la matière : l’hétérogénéité des humains ; le manque de stabilité de quoi que ce soit ; les nombreuses relations à prendre en compte aussi bien au niveau temporel que spatial ; la réflexivité des humains qui réagissent aux modèles qu’on fait de leur activité. »

La forte hétérogénéité des humains rend la simulation difficile. Alors que la physique peut reposer sur certaines formes de stabilité, dans les sciences sociales « aucun facteur isolé ne produit quoi que ce soit tout seul ». Cela n’a aucun sens par exemple de se demander ce que le salaire minimum provoque en l’absence de tout autre ingrédient. « En sciences sociales, il faut un réseau dense de conditions causales pour produire un résultat, et il est donc difficile d’étudier l’effet séparé de tel facteur, en l’isolant des autres facteurs agissants (et quand bien même on y parviendrait, rien ne garantit que sa conséquence serait la même dans d’autres situations) ». L’instabilité des effets d’une même cause dans des contextes différents semble être la règle dans les systèmes sociaux. Ainsi, l’effet d’un étage élevé sur le loyer d’un appartement dépend de nombreux paramètres. « La complexité des effets produits par la combinaison de plusieurs ingrédients rend la méthode analytique – divisons, analysons les morceaux un à un puis recomposons – nettement moins utile qu’en physique ». À cela s’ajoute donc le troisième facteur : le grand nombre de relations qui doivent être prises en compte qui induit des corrélations multiples dans les comportements des agents sociaux, amplifiant ou réduisant certains phénomènes. Enfin, les humains réagissent aux modèles de leur activité : à la différence d’un électron, assez indifférent à ce qu’on peut dire de lui, les humains réagissent. « Ces quatre facteurs font que les modèles sociaux ont du mal à être robustes ». Leur qualité prédictive, passé nos régularités simples, reste approximative. Certes, ils peuvent aider à écarter des solutions simplistes? en montrant que l’humain est souvent plus compliqué qu’on ne le pense. Le problème est que trop souvent on les utilise pour simplifier la décision plutôt que pour la complexifier. C’est tout le problème !

La constance des moyennes chère au précurseur de la démographie Adolphe Quételet nous a fait croire que la société suivait des constantes. Pour autant, rappelle Jensen, il faut relativiser les régularités du social. Elles sont aussi le produit de nos sociétés et n’existent pas par elles-mêmes. Émile Durkheim, le fondateur de la sociologie, soulignait déjà que la constante du nombre de suicides par exemple relevait de faits de société et n’était pas aussi homogène que constatée.

De la fascination des modèles

Jensen nous montre que les études et les modèles sont souvent fascinants, d’abord par le réductionnisme qu’ils proposent, qui parviennent à expliquer un phénomène en en réduisant sa complexité. « La vie sociale ne s’explique pas par l’addition des effets de quelques variables importantes jouant un rôle uniforme, mais par des conjonctions spécifiques, des événements. Du coup, chaque facteur causal (sexe, âge?) peut-être pertinent pour certains événements, mais par pour d’autres. » Les individus ne sont pas des atomes qui auraient des propriétés prédéfinies avant de s’assembler en société.

« Très souvent, il est impossible de décider entre des hypothèses différentes, car le problème n’est pas « dompté ». La criminalité a pu être « expliquée » par un grand nombre d’ingrédients : pas assez de policiers, trop de délinquants, des lois inadéquates, la pauvreté, l’inadaptation culturelle, des gènes? Chaque possibilité pointe vers une solution différente. Laquelle est correcte ? Il n’y a aucune règle qui permette de répondre à cette question de manière définitive. » Pour Jensen, cela ne veut pas dire qu’il faut renoncer aux explications sociales, mais il faut comprendre que bien des explications sociales ne sont que des opinions défendues par des modèles explicatifs?

Sans compter, rappelle Pablo Jensen, que les masses de données n’ont pour l’instant pas produit d’enseignements majeurs sur nos sociétés qu’on n’aurait pas pu obtenir autrement. Au mieux, elles confirment ce que nous savons déjà. Parfois améliorent la précision de quelques décimales (sans que cela se révèle déterminant). Pour le physicien, le Big data risque de renforcer les pouvoirs calculateurs pour piloter la société, alors qu’ils devraient surtout être utilisés pour permettre de mieux nous coordonner.

Indicateurs, contre-indicateurs, modèles, contre-modèles? : la modélisation du monde est politique !

Pourtant, dans la dernière partie de son ouvrage, Jensen est plus modéré. Ainsi explique-t-il, « les indicateurs chiffrés cherchent à caractériser une situation de manière impartiale, au-delà des perceptions de chacun. Du coup, ils sont souvent utilisés pour légitimer son point de vue, sous couvert d’objectivité. » Malgré les abus, reste que ces indicateurs ne sont pas dépourvus de sens, aussi imparfaits soient-ils. Si les indicateurs sont souvent des constructions complexes et imparfaites, ils permettent d’établir des comparaisons, des classements, des choix et des arbitrages. Les méthodes de calculs utilisées permettent la transparence et la discussion. Tout autant imparfaits que soient les classements par exemple, les indicateurs, ces outils de réduction de réalités sociales complexes, permettent de coordonner des communautés, de standardiser la réalité. Si les indicateurs sont fragiles, leur multiplication est certainement un moyen de les améliorer, de construire des indicateurs alternatifs. « La formule, en découpant l’origine de nos actions en un contexte et des caractéristiques internes, est très utile d’un point de vue pédagogique, pour comparer les approches de la physique, l’économie ou la sociologie. Au niveau qualitatif, elle permet également de résumer la démarche d’une grande partie de la sociologie : comprendre les pratiques des personnes, en étudiant à la fois les contraintes que le contexte fait peser sur l’action et les dispositions socialement constituées à partir desquelles les acteurs perçoivent la situation et agissent. Mais elle n’est pas efficace pour faire des prédictions quantitatives, à cause des nombreuses limites pratiques » existantes. « La vie sociale ne consiste pas en une suite d’interactions ponctuelles comme le supposent la formule ou les simulations ».

Jensen utilise un bel exemple pour rappeler que les relations et le contexte importent et ne se réduisent pas. Jean Piaget, père de la psychologie cognitive avait réalisé une expérience pour savoir à partir de quel âge les enfants acquièrent une notion claire des nombres. Un test avec des tableaux de jetons avait montré que les enfants de moins de 7 ans se trompaient. Un autre chercheur utilisant lui des bonbons avait montré que les jeunes enfants choisissaient systématiquement la bonne file. Pour Jensen, l’identification dynamique du contexte n’est pas réductible par la mise en chiffre de la société. Les régularités sociales ne font pas une société déterministe. « Ce n’est pas parce que la sociologie cherche les déterminismes – et trouve des régularités – que tout est déterminé. » Le déterminisme, comme le soulignait déjà le sociologue Bruno Latour est un « faitiche » utile, c’est-à-dire une croyance importante et efficace, mais elle reste un fétiche. Pour Jensen, le Big Data devrait nous aider à développer de la coordination et de l’action commune plutôt que de chercher à nous modéliser et nous simplifier. Force est de constater que nous n’en prenons pas beaucoup la direction hélas.

Les modèles du social que nous construisons par la modélisation présupposent des individus avec peu de caractéristiques. Si c’est utile pour comprendre certains phénomènes, ces réductions ne sont pas parvenues à éclairer des phénomènes complexes. Ces modèles éclairent même parfois qu’une part du problème, occultant par leur réductionnisme intrinsèque d’autres aspects de ce qu’ils tentent d’analyser. Leur fiabilité repose sur la diversité d’une communauté scientifique pluraliste, permettant de mettre en doute et corriger les suppositions et calculs. Mais surtout, conclut Pablo Jensen, derrière la modélisation, s’impose également une vision politique. La modélisation du monde est elle-même un modèle politique : elle suppose souvent que la dynamique de changement doit venir de l’extérieur de la situation plutôt que de la créativité des acteurs impliqués. Au final, la mise en équation de la société repose sur une conception de la société qui ne peut pas faire société.

Hubert Guillaud

  • Faut-il enseigner le jeu de rôle aux IAs ?

Beth Singler (@BVLSingler) le confesse dès les premières lignes de son article pour Aeon : cette anthropologue sociale est également une fan de Donjons et Dragons… Ce qui l’amène se demander pourquoi on n?entraîne pas les IA à jouer à ce jeu plutôt qu’aux Échecs ou au Go. Ce n’est bien (...)

Beth Singler (@BVLSingler) le confesse dès les premières lignes de son article pour Aeon : cette anthropologue sociale est également une fan de Donjons et Dragons… Ce qui l’amène se demander pourquoi on n?entraîne pas les IA à jouer à ce jeu plutôt qu’aux Échecs ou au Go.

Ce n’est bien sûr qu’une expérience de pensée, continue Singler (et de fait, créer un logiciel capable de jouer à D&D se heurterait immédiatement à une difficulté majeure que Beth Singler ne prend pas la peine de mentionner, probablement parce qu’elle est évidente : il faudrait y intégrer un super chatbot capable de comprendre aisément les propos du meneur de jeu et de ses partenaires, et de soutenir une conversation complexe !), mais elle nous permet de redéfinir la façon dont nous concevons l’intelligence.

Tout d’abord, D&D demande, de la part des joueurs, une grande flexibilité d’esprit : selon les parties, ils peuvent être amenés à jouer divers rôles, celui d’un elfe, d’un paladin ou d’un voleur. Or « les chercheurs en IA savent qu’il est très difficile d’obtenir un algorithme suffisamment bien entrainé pour être capable d’appliquer ses compétences à plusieurs domaines mêmes légèrement différents – quelque chose que nous, les humains, gérons étonnamment bien. »

Ensuite, D&D implique une intelligence incarnée. Les joueurs se retrouvent autour d’une table, à interagir avec une histoire, et leurs réactions physiologiques, leurs signaux non verbaux, jouent un rôle non négligeable dans le déroulement de la narration. Or, précise Beth Singler, « nous accordons peu d’attention à l’incarnation des agents artificiels, et à la façon dont cela pourrait affecter la manière dont ils apprennent et traitent l’information ».

De plus, jouer à un jeu de rôle implique une intelligence sociale, savoir s?intégrer dans un groupe, une « compagnie », être capable de collaborer?. « Une IA qui pourrait s’impliquer dans une narration sociale s’avère sans doute une base de recherche plus sûre et plus multifonctionnelle qu’une autre qui joue aux échecs ; de plus, il n’y a aucune garantie que les échecs puissent même constituer un pas dans la bonne direction pour élaborer une telle intelligence », rappelle l’anthropologue.

Mais le plus curieux, se demande-t-elle, reste la question de savoir pourquoi les chercheurs de ce domaine se sont si peu intéressés aux jeux de rôle. Ce n?est en tout cas pas par ignorance de l’existence de ces jeux, car, rappelle-t-elle, « D&D a été une icône de la culture technologique pendant les années 1980 et une source d’inspiration pour de nombreux jeux informatiques en mode texte, comme le soulignent Katie Hafner et Matthew Lyon dans Where Wizards Stay Up : The Origins of the Internet (1996). Même aujourd’hui, les chercheurs en IA qui jouent à des jeux pendant leur temps libre mentionnent souvent D&D. »


Image : jeu de rôle version XKCD

  • Quand les robots « grandissent »?

Un robot peut-il grandir, se développer comme le ferait une plante ou un animal ? La question peut sembler étrange, et pourtant les tentatives n?ont pas manqué depuis la naissance de ce domaine pour réaliser une telle prouesse. Le premier à s’être intéressé à la question n’est autre que John Von (...)

Un robot peut-il grandir, se développer comme le ferait une plante ou un animal ? La question peut sembler étrange, et pourtant les tentatives n?ont pas manqué depuis la naissance de ce domaine pour réaliser une telle prouesse. Le premier à s’être intéressé à la question n’est autre que John Von Neumann, qui peut être considéré avec Alan Turing comme le fondateur de l’informatique. Il se demandait comment une machine serait capable de s’autorépliquer en capturant des modules flottant dans l’environnement. En fait, les travaux de Von Neumann sur l?évolution des machines ont donné naissance au champ des automates cellulaires, puis à celui de la vie artificielle, un domaine très lié à cette idée de « croissance des robots ».

Dans un long papier pour Frontiers in Robotics and AI, les auteurs, membres du centre de micro-biorobotique à l’Institut italien de technologie nous proposent un historique de ces tentatives et mieux, élaborent une nomenclature des différentes possibilités de « croissance » des robots, ce qui contribue à clarifier les idées sur un domaine plutôt complexe.

Comment un robot peut-il se développer ? De deux manières nous disent les auteurs : il peut changer de taille, devenir littéralement plus grand, mais peut également augmenter la complexité de son organisation.

De fait, les auteurs, différencient deux types de croissance robotique : l’autoassemblage et l’autoreconfiguration. Ces deux facultés sont associées à une forme particulière de robotique, la robotique modulaire. Un robot modulaire est composé de plusieurs parties séparées. Dans le cas de l’autoassemblage, il est capable d’ajouter certaines de ses parties à son système. Dans celui de l’autoreconfiguration, il change l’organisation existant entre ses éléments. A noter qu’alors que l’ autoassemblage suggère nécessairement une « croissance », l?autoreconfiguration peut simplement être une réorganisation sans que réellement on puisse dire que le robot « grandit ». Les auteurs basent leur catégorisation des différents prototypes sur la similarité entre le développement des machines et celui de certaines formes de vies. Ils distinguent ainsi, les robots moléculaires, cellulaires et organiques.

Les robots moléculaires


La notion de « robot moléculaire » se base sur l’idée que les différentes parties se trouvent éparpillées dans l’environnement et sont susceptibles de se rencontrer, en se « cognant » les unes contre les autres.

La première tentative du genre est un système imaginé par Saul Griffith. Il s’agissait d’un ensemble de petits cubes magnétiques qui, correctement configurés, étaient capables de prendre par eux-mêmes n’importe quelle forme bidimensionnelle, par exemple, comme il l’a montré pour sa thèse, le logo du MIT.

Un autre exemple est celui des « lily robots » développés à l’école polytechnique de Lausanne (.pdf), il s’agit de petits cubes flottant dans l’eau, munis de capteurs magnétiques. Pour contrôler l’autoassemblage, on procède de deux manières : on peut paramétrer les capteurs magnétiques de chaque module, ou manipuler le flot de liquide dans lequel ils surnagent, ainsi que l’explique la chercheuse Bahar Haghighat dans la vidéo ci-dessous.

Les robots cellulaires


Les robots cellulaires semblent plus prometteurs et moins limités, selon les auteurs. Par cellulaires, ils n’entendent toutefois pas, comme dans le cas des cellules biologiques, la capacité d’autoréplication. Les robots cellulaires sont en fait les exemples typiques de « robotique modulaire » spécifiquement capables de croissance et d?auto-modification. Ils se définissent par trois caractéristiques. La modularité est bien sûr la première. Mais il faut également que chaque cellule soit dotée de fonctionnalités simples : elle n?héberge pas un programme compliqué. Pas de deep learning ou de big data pour les robots cellulaires ! Enfin, il faut que le système soit décentralisé ; l’intelligence est une fonctionnalité émergente de l’interaction entre les cellules. Une telle description rapproche beaucoup les robots cellulaires des différents collectifs de robots comme il en existe beaucoup, par exemple les « swarmanoids« . Mais dans la plupart de ces essaims, les différents éléments restent physiquement indépendants les uns des autres, même s’ils agissent de concert comme des fourmis dans une fourmilière. Alors qu’un robot cellulaire est bel et bien une entité unique obtenue par la réunion de ses différentes parties.

Contrairement aux robots moléculaires, où l’autoassemblage se fait uniquement grâce à la géométrie des modules et la nature de l?environnement, les robots « cellulaires » se cherchent, les modules sont capables de s?aborder entre eux. Cela implique plus d’intelligence de la part des modules, ainsi que de l?énergie pour assurer leur déplacement. On peut voir dans la vidéo ci-dessous un CKBot s’autoassemblant alors que ses différentes parties sont éparpillées sur le sol. Dans chaque groupe de modules, il en existe un disposant d’une caméra permettant de « chercher » ses congénères à distance.

Les robots « végétaux »


Reste la dernière option, les robots « organiques ».

Il ne s’agit plus ici de robotique modulaire : il n’existe pas plusieurs parties qui s’assemblent pour créer quelque chose de plus grand, mais une seule unité qui est capable d’accroître sa configuration en faisant usage d’un matériau trouvé dans l?environnement, ou, plus généralement, embarqué dans sa structure.

On divise volontiers les organismes vivants multicellulaires en animaux et en plantes et c’est surtout ces dernières qui intéressent les auteurs. Chez les végétaux, la capacité à croître est fondamentale : en effet, alors que les animaux se déplacent, la seule manière pour une plante de changer son comportement est de modifier sa forme. Un exemple de ces plantes robots a été élaboré à l’université Stanford. Il s’agit d’une espèce de tuyau qui est capable de se dérouler jusqu’à 72 mètres à une vitesse de 35 km/h. Le robot, nous explique le New Scientist, est constitué de trois chambres qu’on peut gonfler avec de l’air (vidéo). Lors de son déploiement, il est capable de changer de direction, et même d’effectuer des tâches simples comme tourner un robinet. Ce robot, nous dit encore le New Scientist, pourrait être utilisé à des fins chirurgicales, par exemple pour poser des cathéters.

Le projet européen « plantoïd » s’inspire quant à lui des racines d’un végétal pour s’enfoncer dans une surface meuble (vidéo). Pour croître, il intègre une petite imprimante 3D lui permettant de fabriquer ses extensions. Grâce à des capteurs, il pourrait analyser la nature chimique du sol, et, nous explique Science et Avenir, ce « tronc » pourrait disposer de feuilles analysant, elles, l’environnement atmosphérique.

Les « robots plantes » présentent par rapport aux systèmes modulaires l’avantage de pouvoir mieux régler leur configuration. Ils ne sont pas contraints par la taille des modules : selon la quantité de filaments utilisé par l’impression 3D dans le cas du plantoïd, ou la pression de l’air dans les chambres du « tuyau », il est possible de régler la croissance de manière plus précise.

Cependant, qu’elles soient cellulaires ou organiques, ces machines connaissent une limite : elles sont contraintes dans leur développement par la quantité de matériel disponible. Pour les cellulaires, il s’agit du nombre de modules accessibles dans l?environnement. Pour les « organiques », la quantité de filaments thermoplastiques en réserve ou la taille maximale du « tube ».

Quel est l?intérêt de toute cette recherche ? Comme l’indiquent les auteurs dans leur conclusion, de tels types de machines capables de se modifier et de se reconfigurer seraient particulièrement à l’aise dans des environnements incertains ou dangereux. Pour l’instant, on le voit, on reste dans le domaine de la recherche fondamentale. Comme le notent avec justesse les auteurs, c’est sans doute en conjonction avec d’autres recherches, comme celle sur les nouveaux matériaux ou en biologie synthétique, que ce genre de travaux pourra atteindre la maturité.

Rémi Sussan

  • L?intelligence artificielle embarquée, une solution pour des interfaces vocales respectueuses de la vie privée ?

Dans une tribune pour Les Echos, Rand Hindi (@randhindi), PDG de Snips (@snips), estime que les services numériques doivent prendre la protection des données personnelles au sérieux, défendant la privacy by design, la protection de la vie privée par la conception. Reste qu’à l’heure de l’interconnexion des systèmes via l’informatique (...)

Dans une tribune pour Les Echos, Rand Hindi (@randhindi), PDG de Snips (@snips), estime que les services numériques doivent prendre la protection des données personnelles au sérieux, défendant la privacy by design, la protection de la vie privée par la conception. Reste qu’à l’heure de l’interconnexion des systèmes via l’informatique en nuage (Cloud Computing) qui échangent en permanence les données des utilisateurs pour les rendre productives, cette privacy by design est difficile à mettre en oeuvre.
C’est notamment le cas en ce qui concerne les interfaces vocales, comme les enceintes connectées Google Home ou Amazon Echo, ainsi que la plupart des objets connectés, qui, pour fonctionner, collectent énormément de données personnelles (voir par exemple L’enfer de la maison intelligente). En attendant que des technologies de chiffrement solides soient disponibles pour que les données personnelles que ces objets utilisent ne soient pas accessibles facilement, les utilisateurs sont contraints de faire confiance aux entreprises qui proposent ces technologies, alors même que les fuites de données, leurs reventes et les problèmes de confidentialité peuvent être nombreux. Pourtant, rappelle Rand Hindi, il existe une alternative simple : « traiter les requêtes vocales de l’utilisateur directement sur l’appareil auquel il parle ». C’est ce qu’on appelle le Edge Computing (le traitement des données à la périphérie) ou Fog Computing ou encore l’intelligence artificielle embarquée : « au lieu de centraliser les données et de les traiter dans le cloud, vous les décentralisez complètement en les traitant directement sur l’appareil ». Simple ! Cette technologie permet ainsi d’utiliser l’appareil sans connexion, de réduire les fuites de données et la surveillance. Et ce alors que les technologies de traitement de la voix en local existent déjà, souligne celui qui en développe et qui propose une interface pour permettre à d’autres de les intégrer à leurs appareils.

Cette technologie montre qu’une autre manière d’innover est possible. Elle est par exemple au coeur du récent rapport de l’Arcep sur les terminaux, ainsi que d’un des débats que l’Arcep avait organisés le jour de la présentation de ce rapport. Yann Lechelle, directeur des opérations de Snips, y expliquait très simplement les enjeux de Snips : créer des applications qui reconnaissent des commandes vocales en local, sur des cas d’usages spécifiques. On peut ainsi remplacer les boutons d’une machine à café par une commande vocale qui comprenne et opère une gamme de commande, sans avoir besoin d’envoyer tout ce que vous dites dans le cloud et sur les serveurs distants de l’entreprise qui vous fournit un appareil connecté. Bien sûr, cela signifie que la machine ne pourra pas répondre à toutes les demandes, comme Alexa ou Google Home. Mais est-ce le but de toutes nos machines connectées ? On sait encoder le langage d’usage, créer le modèle, en réduisant les cas d’usages et faire que la machine comprenne plusieurs centaines de commandes liées à son fonctionnement. L’enjeu bien sûr est d’une part de préserver la vie privée des utilisateurs, mais plus encore, de garder de la maîtrise. « Si demain votre machine à café fonctionne avec Alexa ou Google Home, ce sont eux qui domineront le marché », et ce alors que le périmètre fonctionnel des interfaces vocales est bien souvent spécifique, circonscrit à des cas d’usages limités.

A cette table ronde, un autre acteur, Alexandre Zapolsky (@alex_zapolsky), PDG de Linagora, rappelait que la commande vocale s’annonce comme l’interface de demain, la prochaine vague de consommation du numérique. Mais lui aussi soulignait que le risque est que tous les services passent par le prisme de quelques acteurs centralisateurs et qu’ils privilégient certains services au détriment des autres. Le risque est bien à terme le renforcement de monopoles sur les services vocaux. Linagora développe notamment Linto, un produit libre, gratuit et open source pour que ceux qui développent des services puissent les « vocaliser » sans passer par des acteurs tiers. Les banques par exemple ne vont pas avoir envie qu’Amazon ou Google soient au courant des revenus de leurs clients? et ce d’autant qu’elles risquent demain de devenir leurs concurrents directs. Linto est un Alexa pour le monde de l’entreprise que chacun pourra utiliser en marque blanche pour développer ses propres services.

Les avantages de ces technologies sont nombreux, que ce soit en terme de réduction de la circulation de données, d’amélioration de la sécurité, de protection de la vie privée, des temps de réponse voir même d’éco-conception.

A l’heure où les assistants vocaux sont appelés à devenir la fonctionnalité de demain, il faut rappeler, comme le pointe très bien l’interview de Joana Revis, orthophoniste-vocologiste et maître de conférence associée à la faculté de médecine d’Aix Marseille Université pour le Laboratoire d’innovation numérique de la Cnil (@lincnil) combien la voix est spécifique et combien elle exprime nombre de nos caractéristiques : genre, âge, émotion, tempérament, caractéristiques psychiques, intensions? autant de caractéristiques qui peuvent être interprétées ou imitées par les machines. La commodité de la commande vocale ne doit pas se faire sur l’exploitation d’une donnée éminemment biométrique et personnelle comme la voix.

  • Comment la SF inspire les scientifiques

On dit souvent que les chercheurs trouvent une bonne part de leur inspiration dans la science-fiction. Mais jusqu’où est-ce vrai ? Si l’on en croit une récente étude publiée sur Arxiv et relayée par la Technology Review, c’est non seulement exact, mais le phénomène tend à s’amplifier. Pour établir ce fait, (...)

On dit souvent que les chercheurs trouvent une bonne part de leur inspiration dans la science-fiction. Mais jusqu’où est-ce vrai ? Si l’on en croit une récente étude publiée sur Arxiv et relayée par la Technology Review, c’est non seulement exact, mais le phénomène tend à s’amplifier.

Pour établir ce fait, cette équipe de chercheurs, menée par Philipp Jordan de l’université de Hawaï, s’est penchée sur un domaine particulier : l’interaction homme-machine, et a analysé les papiers présentés lors d’une des conférences les plus fameuses du domaine, la « conférence ACM sur les facteurs humains dans les systèmes informatiques« , qui se tient depuis 1982, soit 83 textes différents. Et nombre d’entre eux possédaient des références à la SF.

Les chercheurs ont découvert que lorsque des chercheurs mentionnaient ce genre littéraire ou cinématographique, c?était pour des raisons diverses. Dans certains cas, il s’agissait de « design fiction ». Dans d’autres, la SF était mentionnée comme inspiration pour des techniques d’interaction. Par exemple un papier de 2008 affirme que : « L’inspiration pour la technique présentée dans cet article vient d’un classique de la science-fiction, le roman Dune de Frank Herbert, paru en 1965, où le voyage spatial interstellaire est effectué grâce à un processus connut sous le nom de « pliage de l’espace. »

Un autre type d’usage consiste à utiliser la science-fiction comme outil de prospective, pour imaginer des conséquences sociales de diverses technologies, telles les voitures autonomes, la surveillance ubiquitaire, etc.

Enfin la SF est bien sûr convoquée pour aider à conceptualiser une technologie qui justement n’appartient pas encore tout à fait au présent : la modification ou l' »amélioration » du corps humain.

Le recours à la science-fiction dans les papiers de la conférence, notent les chercheurs, tend à augmenter avec le temps. Et ces mentions dans les papiers ne seraient que le sommet de l’iceberg : « Nous pensons que les références explicites à la science-fiction dans la recherche sur l’interaction homme-machine ne représentent qu’une fraction de l’inspiration et de l’impact exercé par cette dernière ».

Et la Technology Review de conclure que : « Les entreprises de technologie emploient de plus en plus de prospectivistes qui utilisent la science-fiction comme moyen d’explorer les nouvelles technologies potentielles et leur impact social. Ils appellent cela du prototypage de science-fiction.  »

  • Un chiffre pour mesurer la conscience ?

Qu’est-ce que la conscience ? La question est tellement difficile que bon nombre de penseurs ont renoncé à y répondre, préférant se cantonner à réfléchir à une autre notion (pourtant à peine plus aisée à définir) : « l’intelligence ». Pourtant, comprendre la conscience s’avère central pour envisager notre futur, et touche autant à (...)

Qu’est-ce que la conscience ? La question est tellement difficile que bon nombre de penseurs ont renoncé à y répondre, préférant se cantonner à réfléchir à une autre notion (pourtant à peine plus aisée à définir) : « l’intelligence ». Pourtant, comprendre la conscience s’avère central pour envisager notre futur, et touche autant à la psychologie humaine qu’à l’intelligence artificielle.

Dans nos colonnes, nous avons déjà présenté une théorie de la conscience, celle de l?information intégrée, proposée par le neuroscientifique Giulio Tononi. Pour résumer, Tononi postule qu’une conscience est le produit d’une intégration entre les différentes parties d’un système. Cette intégration peut être mesurée et exprimée sous la forme d’un nombre particulier, que Tononi désigne par la lettre grecque Phi.

Comme toutes les théories sur la conscience, celle de Tononi est loin de faire l’unanimité. Mais, nous explique Wired, une récente expérience, pourrait constituer, selon le magazine, « la première vraie preuve de la théorie de l’information intégrée ».

Ce travail a été réalisé par l’équipe de Marcello Massimini, de l’université de Milan. Il a tout d’abord testé un panel de 102 personnes en bonne santé ainsi que 48 personnes ayant subi des lésions cérébrales, mais capables de réagir à leur environnement. Il leur a appliqué une stimulation magnétique transcranienne, ciblant certaines zones du cerveau particulièrement connues pour être liées à la présence de conscience, tout en analysant les résultats par EEG, alors qu’ils étaient conscients et inconscients. Massimini a ainsi pu obtenir un nombre qu’il a nommé l' »index de complexité perturbatrice » ou PCI (pour Pertubational Complexity Index). Sur les 150 cas analysés, lorsque cette valeur était au-dessus de 0,31, le sujet était systématiquement conscient. En dessous, il était inconscient.

Masimini s’est ensuite livré à une autre expérience. Il a testé des patients qui étaient éveillés, mais qui, suite à un accident ou une maladie, avaient cessé de communiquer avec le monde extérieur. Et les résultats sont assez inquiétants : en effet, sur les 43 personnes testées, 34 obtenaient un résultat inférieur à cette valeur de 0,31, ce qui était attendu. Mais 9 autres se trouvaient au-dessus de cette limite. Ce qui pourrait bien signifier, selon Wired qu’« ils possédaient peut-être une expérience du monde, mais qu’ils étaient incapables de communiquer à qui que ce soit qu’ils étaient toujours présents, comme s’ils étaient enfermés dans une cloche de plongée au fond de la mer ».

Quel rapport entre PCI et Phi ? Pour Tononi qui a travaillé sur le design de l’expérience avec Massimini, le PCI serait, une version « simplifiée » de Phi, mais plus facilement testable. « C’est peut-être une version du pauvre, mais elle fonctionne mieux que toute autre chose. Le PCI fonctionne sur le rêve et sur le sommeil sans rêves. (…) Maintenant, nous pouvons dire, juste en regardant cette valeur, si quelqu’un est conscient ou non. Nous pouvons évaluer la conscience chez les patients non réactifs.  »

Bien sûr, la théorie de l?information intégrée possède un véritable retentissement sur les recherches en intelligence artificielle. Car, si la thèse de Tononi reconnait la possibilité d’une conscience à des systèmes dont nous considérons généralement qu’ils en sont dépourvus (comme les insectes qui possèdent un cerveau minuscule), il rejette cette même éventualité pour d’autres entités, comme les machines, en tous cas les machines actuelles.

L?article de Wired nous explique que Tononi est en train d?écrire un papier expliquant pourquoi les actuelles IA, même celles utilisant le deep learning, seraient incapables d’accéder à la conscience : « Le phi d’un ordinateur numérique serait égal à zéro, même s’il pouvait parler comme moi », explique le neuroscientifique italien.

En effet, pour lui, la structure physique sur laquelle repose une conscience est fondamentale. Il rejette ainsi la doctrine « fonctionnaliste » ou « computationaliste », qui suggère que si une entité se comporte comme nous, alors elle éprouvera une expérience consciente analogue à la nôtre. Rappelons que c’est exactement l’hypothèse de base sur laquelle repose le fameux « test de Turing ». Mais pour Tononi, une simulation reste une simulation, tant que le système physique qui la supporte ne dispose pas d’un Phi élevé, ne possède pas une structure suffisamment « intégrée »…

  • Technosciences : de la démocratie des chimères? aux chimères de la démocratie

La question du Gouvernement des technosciences, c’est-à-dire de la participation démocratique au choix du progrès est un des sujets de fonds de l’histoire et de la sociologie des sciences. Loin d’être le seul mode de gouvernement des sciences, la participation des citoyens à définir une innovation responsable et démocratique, leur (...)

La question du Gouvernement des technosciences, c’est-à-dire de la participation démocratique au choix du progrès est un des sujets de fonds de l’histoire et de la sociologie des sciences. Loin d’être le seul mode de gouvernement des sciences, la participation des citoyens à définir une innovation responsable et démocratique, leur permettant d’influer sur l’évolution technologique de la société, a semblé, depuis une vingtaine d’années, une réponse possible à des choix industriels et de recherche qui se font trop souvent par-devers eux – quand ce n’est pas contre eux. L’historien des sciences Dominique Pestre (Wikipédia), en introduction et en conclusion de son ouvrage collectif, pointait déjà pourtant combien l’enjeu de la gouvernance démocratique, qu’a promu au début des années 2000 le concept d’Empowerment (ou capacitation) tout comme la Commission Européenne via son livre blanc sur la Gouvernance européenne (.pdf), n’était pas parvenu, loin s’en faut, à inverser cette tension. Pourtant, ces dernières années, notamment avec l’essor du numérique et la montée des contestations à l’encontre de nombre de projets technologiques, la démocratie technique semblait avoir fait un pas en avant en proposant de nombreuses modalités de débats, de conférences participatives, de forums collaboratifs… Force est de constater qu’ils n’ont pas toujours produit grand-chose – quand ce n’est pas rien du tout. La question du dialogue et de la concertation pour limiter les risques des nouveautés techno-industrielles n’a pas réussi à inverser la logique libérale des marchés.

la démocratie des chimèresLe constat que dresse la sociologue Sara Aguiton dans son livre La démocratie des chimères, gouverner la biologie synthétique va dans le même sens. La démocratie des chimères propose à la fois une mise en perspective historique de la biologie synthétique sous l’angle de la sociologie des sciences et une très intéressante critique des dispositifs de discussion mis en oeuvre autour de cette technologie. Certes, le champ de la démocratie technique qu’elle observe par le prisme de la seule biologie synthétique ne recouvre pas toutes les expériences participatives existantes, mais néanmoins permet de faire le point sur ses échecs. Car force est de constater que, de modèle pour réinventer la gouvernance des technosciences, la biologie synthétique a surtout brillé par ses échecs en la matière. Si les technologies sont plus démocratiques, c’est-à-dire que de plus en plus de gens peuvent s’en emparer, force est de constater qu’elles sont, comme avant, orientées et façonnées, plus que jamais, par la recherche et les entreprises qui les produisent.

Les biologies synthétiques

Dans son livre, la chercheuse rappelle que comme domaine de recherche, la biologie synthétique est née avec le 21e siècle. Son objet, prometteur et inquiétant, visait à modifier le génome de micro-organismes pour les doter de comportements qu’ils n’ont pas naturellement. Si les promesses d’applications semblaient révolutionnaires, les risques l’étaient tout autant, d’où l’enjeu, rapidement identifié de vouloir gouverner en amont les problèmes que la technologie pouvait induire et les contestations qu’elle n’allait pas manquer de faire naître. Rapidement, rappelle la sociologue, « la biologie synthétique est devenue un site d’expérimentation de ce que devrait être le bon gouvernement d’un projet technoscientifique (…) ; un site d’expérimentation où la sécurité, la précaution et même la démocratie pourraient être assurées sans altérer la croissance et l’innovation ». Cela ne s’est pas passé ainsi.

Dans la première partie de son ouvrage, Sara Aguiton souligne que l’horizon de la biologie synthétique n’a pas été unique ou uniforme. Pour certains, comme Drew Endy (Wikipédia), avocat de la démocratisation de l’ingénierie génétique, l’objectif était de faire du vivant un matériel d’ingénierie. L’enjeu était de transformer la biologie en science de l’ingénieur, d’en faire un « programme technicien » : de créer des technologies de contrôle de l’activité cellulaire pour rapprocher le vivant du fonctionnement d’un dispositif mécanique. L’une des applications phare de ce programme a été le dispositif Biobricks (Wikipédia) et la compétition iGem visant à produire simultanément les unités élémentaires d’une bio-ingénierie standardisée et leurs praticiens (voir les explications que nous en livrait Rémi Sussan dès 2008).

Une autre vision a consisté plutôt à construire des applications industrielles, à construire des organismes aux finalités productives, d’en créer un « programme industriel ». Ici, on trouve plutôt des scientifiques entrepreneurs comme George Church, Jay Keasling ou Craig Venter, des institutions, des laboratoires de recherche, des startups et des entreprises? qui travaillent notamment (mais pas seulement) aux recherches et applications biotechnologiques relatives à l’énergie et à la biomédecine. Ici, on vise une effectivité commerciale plus que de révolutionner les pratiques des sciences.

La grande différence entre ces deux tenants de la biologie synthétique explique Sara Aguiton était que l’un portait plutôt un modèle open source, quand l’autre reposait surtout sur des technologies propriétaires. Mais cette différence n’a pas duré, souligne la chercheuse. Les promoteurs de iGem et des biobricks se sont peu à peu éloignés de l’open source, au profit de biobricks industrielles favorisant leur réemploi, notamment via le déploiement, dès 2006 du Synthetic Biology Engineering Research Center (SynBerc), une institution dédiée à la recherche dans ce secteur qui va permettre au programme industriel de s’imposer.

En France, la structuration du secteur sera plus lente et plus compliquée, notamment parce que si le domaine de recherche est vite identifié comme important, il demeure peu financé. Le Centre de recherche interdisciplinaire (CRI) est l’un des espaces où naît la discipline, en lien avec les chercheurs du Génopole. Des conceptions différentes de la biologie synthétique coexistent et se développent à l’initiative de petits réseaux de chercheurs et d’étudiants.

La chercheuse dresse un panorama de la biologie synthétique et de ses acteurs complexe et détaillé.

L’impossible réduction de la contestation

Très tôt, la biologie synthétique a attiré l’attention de groupes contestataires, avant même que ne soient réalisées des applications industrielles. Notamment de la part des activistes d’,ETC (Erosion, Technology, Concentration) au Canada et aux États-Unis. Une contestation qui s’est notamment cristallisée dans la contestation du projet Glowing Plant (plantes lumineuses), un succès de la plateforme de financement participatif Kickstarter lancé en 2013 consistant à insérer des gènes de bioluminescence dans une plante, projet développé au sein du laboratoire communautaire Biocurious. Malgré l’emballement (plus de 8000 bailleurs s’étaient engagés à donner environ 500 000 dollars au projet en l’échange de graines), aucune plante lumineuse n’a vu le jour. Et pour cause : la dissémination de graines génétiquement modifiée contrevenait aux réglementations en matière d’OGM. En mobilisant leur communauté, ETC obtient que Kickstarter interdise la rétribution des contributeurs par des OGM.

En France, le rapport à la biologie de synthèse s’est construit autrement. Le manque de recherche et la faible visibilité du domaine a encouragé la mise en place d’un débat sur la relation science-société, bien différent de la contestation menée par, ETC de l’autre côté de l’Atlantique. C’est notamment autour de l’association VivAgora que va se construire à partir de 2009 le débat. À la différence des États-Unis, la communauté scientifique française est alors embryonnaire, ce qui va donner à ces débats une visibilité importante. Mais les espaces d’échanges deviennent vite des espaces de conflits. Dès 2011, le débat est relayé par des institutions politiques. Plusieurs rapports insistent sur la nécessité « d’organiser des débats publics en amont pour éviter que la biologie synthétique ne souffre les contestations qu’ont rencontrées les OGM, les nanotechnologies ou l’énergie nucléaire ». Mais ces débats écartent de leur organisation VivAgora, accusée de non-neutralité (alors que d’autres acteurs comme le Génopole ou le Commissariat à l’Énergie atomique qui y participent, eux, ne sont pas considérés comme un problème).

Les deux formes de mobilisation donnent à voir des styles de critiques différents. D?un côté, ETC s’oppose au projet néolibéral de mondialisation s’appuyant sur des choix technologiques autoritaires, en montrant ce que la biologie synthétique produit, en interpellant la communauté scientifique et les instances de régulation. De l’autre VivAgora, cherche plutôt à mettre en débat le sujet, oscillant entre une position de neutralité et une position plus critique. Reste que, souligne Sara Aguiton, ni l’une ni l’autre ne parviennent à faire bouger la situation. Si aux États-Unis, les critiques sont marginalisées, en France, elles sont plutôt légitimisées jusqu’à être assimilées par les institutions tant qu’elles s’inscrivent dans une dynamique d’acceptabilité sociale de la biologie synthétique.

L’échec des relations sciences-société

En mars 2011, le ministère de l’Enseignement supérieur et de la Recherche publiait une Stratégie nationale de recherche et d’innovation, une feuille de route prospective pour développer la biologie synthétique en France. Pour les autorités, il faut à la fois développer le domaine et canaliser les préoccupations de la société. Plusieurs rapports soulignent le besoin de créer un dialogue entre science et société pour restaurer un climat de confiance permettant de développer la biologie synthétique. À cette époque, la participation est promue à la fois par des institutions et par des associations qui en font une cause politique, alors même que la recherche s’y intéresse aussi. Pour nombre de chercheurs dans le champ de la participation politique ou des études technologiques, la conviction est alors que les « dispositifs participatifs permettraient d’agir sur la répartition du pouvoir et l’intensité des conflits ». « En faisant du développement technologique un objet de dialogue, il serait possible de réduire les inégalités de pouvoir entre décideurs.se.s et société civile et d’apaiser les conflits qui les opposent. Des conflits irréductibles pourraient être transformés en compromis, grâce auxquels technoscience et paix sociale seraient produites de concert. Cette promesse repose sur une technologie politique principale : la procédure, considérée comme seule garante de l’équité entre acteurs et de leurs bonnes manières. »

Pourtant, comme le souligne la chercheuse, des dispositifs de ce type ont été mis en place depuis la fin des années 90 et ont été utilisés dans nombre de domaines controversés « sans affecter les modalités de la prise de décision ni l’intensité des conflits ». Pire, souligne la sociologue : les dispositifs participatifs ont souvent été employés comme instrument de canalisation de la critique. Un usage stratégique de la participation qui n’a pas échappé aux protestataires qui se sont mis à les considérer avec suspicion, comme des leurres politiques. Pour la chercheuse les dispositifs participatifs relèvent plus de « niches dialogiques déconnectées des pratiques scientifiques qu’elles étaient pourtant censées gouverner ». La biologie synthétique n’échappera pas à ces écueils. Au contraire, elle finira de les discréditer.

À la suite des travaux de Dominique Pestre notamment, Sara Aguiton dresse un rapide historique de la démocratie technique et de l’histoire du rêve participatif. La question de la gouvernance participative a été forgée dès les années 90, notamment par la Commission européenne en réaction contre les régulations étatiques jugées peu performantes. Nées en réaction à de nombreuses mobilisations technocritiques (contre le nucléaire, le développement de nouvelles lignes de TGV, le sang contaminé ou les OGM?), ces contestations soulignaient à la fois les dégâts de ces innovations et les limites de l’expertise scientifique pour prendre en compte leurs risques et de l’autre les limites des États et des institutions européennes à gérer ces risques. C’est pour répondre à ces critiques que les institutions formulent des principes de gouvernance participative. Dans le même temps, les sciences sociales théorisent les questions de démocratisation de l’expertise et d’ouverture participative de la société civile à la décision technopolitique. Avec les années 2000, ces questions d’engagement du public sont mises en pratique, par exemple par le think tank britannique Demos. Mais pas seulement. En France de nombreuses associations et institutions de recherche vont participer à fabriquer et légitimer la question participative et la démocratie technique, théorisée notamment par Michel Callon (Wikipédia) sous forme d’égalité procédurale. Les acteurs de la démocratie technique en ont fait un objet de revendication pour insuffler de la légitimité aux politiques technoscientifiques.

Cependant, depuis les années 2010, ces dispositifs se sont érodés. En fait, les dispositifs font l’expérience de leurs échecs. Leurs promoteurs font rapidement le constat amer et répété de l’absence de conséquence de ces dispositifs sur la décision politique. Tant et si bien que les dispositifs eux-mêmes sont de plus en plus contestés et délégitimisés. En fait, ils se révèlent également inefficaces pour gérer les conflits. Pire, ces dispositifs eux-mêmes deviennent la cible des groupes de contestation radicaux comme Pièces et Main-d’oeuvre (Wikipédia) ou le groupe Oblomoff. Les dispositifs sont pris pour cibles d’action de perturbation. Leurs promoteurs sont qualifiés « d’acceptologues ». Ces critiques ne sont pas dénuées de fondement, reconnaît la sociologue. Pour les institutions qui cherchent à les utiliser, les dispositifs ne sont jugés constructifs que s’ils permettent de maîtriser la critique. De fait, les deux promesses de la démocratie technique n’épuisent ni les inégalités de pouvoir ni les conflits. Les institutions les utilisent comme des moyens pour générer de l’acceptabilité. « La démocratie technique devient un moyen de ne rien changer. »

Cela n’empêche pas les institutions de chercher à continuer à utiliser ces outils. Jusqu’au crash industriel. La première réunion du Forum de la biologie de synthèse organisée par l’Observatoire de la biologie de synthèse le 25 avril 2013 est perturbée par un groupe d’opposant, les chimpanzés du futur. L’intervention met fin aux débats qui étaient censés se prolonger sur plusieurs mois. Et achève toute initiative d’organisation d’un dialogue sciences-société dans le domaine de la biologie synthétique.


Image : les chimpanzés du futur perturbent le débat du 25 avril 2013. Sur la banderole « Non à la vie synthétique ».

La participation pour créer des espaces d’expression sans conséquence

Sara Aguiton n’a pas de mots assez durs pour critiquer les dispositifs démocratiques. Pour elle, ces techniques de gouvernement des contestations ne cherchent pas tant à réduire les critiques au silence « qu’à leur créer un espace d’expression sans conséquence ».

« L’objectif de la participation n’est pas de démocratiser la technoscience, mais de contrôler sa possible contestation ». L’institution en charge du dialogue se focalise sur la gestion procédurale du dialogue au détriment du dialogue lui-même. En fait, souligne Sara Aguiton, la critique radicale, comme celle de PMO, résiste à l’enrôlement institutionnel. « En s’institutionnalisant, la participation s’est figée : les institutions imposant une série de contraintes aux dispositifs, elles empêchent la possibilité qu’une critique substantielle soit portée dans ces espaces. Accepter la forme du débat, c’est empêcher une critique de fond. »

Les débats passeront de mode. Un rapport de décembre 2013 visant à encourager le développement des nanotechnologies et de la biologie synthétique promeut d’autres types de manifestations du type « fête de la science » ou « semaine de l’industrie » et encourage les institutions scientifiques à parler du lien avec l’emploi : la promesse de la création d’emploi devenant le nouveau levier de l’acceptabilité sociale de la biologie synthétique. La culture d’une démocratie participative en matière de biologie synthétique est enterrée. La question de la participation va prendre dès lors un autre tournant orienté vers la vulgarisation et la promotion de la science, s’orientant vers le « faire ensemble » et des expériences plus positives. On entre dans « l’âge du faire ». La question du pouvoir est passée sous silence.

Le problème, souligne encore la chercheuse, c’est que la disparition de process démocratiques n’a pas fait disparaître la contestation et la conflictualité. Au contraire, comme le montre la multiplication des mouvements zadistes contestataires à Notre Dame des Landes ou à Bure. La répression d’État s’est également accrue. Le débat n’a pas disparu : il s’est assurément durci.

Comme elle nous le confie, l’utilisation de dispositifs participatifs a changé d’orientation. Les crises autour des processus de discussion mis en place par la démocratie technique ont réorienté et transformé les démarches pour produire des expériences éloignées des controverses. Reste que même décrédibilisées par la pratique, « la machine participative est toujours convoquée pour rendre acceptable les projets contestés et réduire l’intensité des conflits », comme c’est le cas actuellement à Bure, dans le cadre du projet Cigeo d’enfouissement de déchets nucléaires où le secrétaire d’État a annoncé un débat public pour tenter d’empêcher la zadisation du site et ce alors que les solutions ont été imposées jusqu’à présent d’une manière très peu participative. Pour elle, il y a toujours des formes d’organisation des pouvoirs à réinventer. Les dispositifs participatifs fonctionnent souvent sur des microniches, oubliant bien des questions d’organisation de la prise de décision ou du financement de la recherche? La démocratie des projets n’est pas compatible avec la raréfaction des budgets et la concentration des pouvoirs dans des têtes de réseaux de recherche européens.

Après la gouvernance ?

Aux États-Unis, pour éviter les controverses désastreuses, se met alors en place une collaboration entre sciences sociales et technoscience soumise aux injonctions de l’industrie, que ce soit via le SynBERC ou via, d’une manière plus surprenante, l’implication du FBI dans les questions de biologie synthétique, afin de déjouer les questions possibles de bioterrorisme. L’industrie coopère avec les autorités et voit dans cette collaboration à la fois un moyen de s’autoréguler et le moyen de faire de l’exemplarité un argument éthique. Alors que l’Europe cherchait dans les outils participatifs un moyen de gérer les risques, de l’autre côté de l’Atlantique, on préfère comme souvent les codes de bonne conduite et l’auto-réglementation. Et ce, tant au niveau des acteurs industriels qui développent des codes de bonne conduite, que de la communauté DIYBio qui éclot alors.

L'article de Wired UK de 2014 sur les fondateurs de La PaillasseLe réseau DIYBio est créé en avril 2008 par Jason Bobe et Mackenzie Cowell avec pour but d’initier un mouvement participatif et amateur dans le domaine des biotechnologies. Entre 2008 et 2010, le réseau prend de l’ampleur aux États-Unis, avec des groupes locaux à Boston, puis New York et San Francisco avant de s’étendre rapidement en Europe à Paris, Manchester, Amsterdam, Copenhague, Munich? À partir de 2010, les laboratoires communautaires essaiment : Genspace à New York, le Boston Open Science Laboratory, Biocurious en Californie, La Paillasse à Paris. Plus de 100 groupes locaux sont recensés sur le site diybio.org.

Ce réseau souvent présenté comme « révolutionnaire » repose pourtant sur un ensemble de pratiques simples et emblématiques qui ne relèvent pas toujours de la biologie synthétique d’ailleurs. Production d’instruments de laboratoire bon marché comme le projet Open PCR, d’expérimentations dignes de salles de biologie de collège et d’événements de médiation scientifique (extraction d’ADN ou pratiques de fermentation pour produire le Kombucha, cette boisson fermentée pétillante réalisée à partir de thé, de bactéries et de levures). Si les relations entre la communauté DIYbio et celle de la biologie synthétique sont fortes, leurs objectifs se séparent. Dès sa création, le réseau DIYbio a profité d’une forte visibilité publique, souvent sensationnaliste sur les menaces que ces pratiques pourraient faire courir, tout en ne cessant de rassurer sur leur réelle portée (comme par exemple en adoptant la charte des biohackerspaces).

Le mouvement DIYbio a été animé par des acteurs avec des profils de chercheurs et d’entrepreneurs, comme Thomas Landrain qui a été longtemps le responsable de la Paillasse (voir sa présentation à Lift en 2012). Beaucoup de gens dans ces réseaux venaient de la médiation scientifique et les pratiques iconiques de ces structures, comme le Kambucha, tenaient beaucoup d’activités très grand public. Néanmoins, les choses semblent avoir un peu bougé depuis 2014, nous confie la chercheuse. Aujourd’hui beaucoup de ces espaces sont devenus des incubateurs de projets. Ce n’est pas le cas de tous les collectifs DIYbio, mais néanmoins leurs travaux se partagent beaucoup entre un rôle de médiation scientifique, de l’animation associative auprès du grand public ; un rôle de porteur de projets, souvent open source et participatifs, et un rôle plus entrepreneurial, notamment en incubant des startups dans le domaine des biotechnologies.

Pour Sara Aguiton, avec le temps, la question de la réappropriation comme la question politique semblent avoir disparu de ces collectifs. La capacitation s’est dissoute avec la maturation, souvent via le soutien à des projets collectifs voire d’accompagnement de projets entrepreneuriaux et de connexion avec des investisseurs. Quant à la question politique (qui n’était pas présente partout), elle s’est normalisée. Certains collectifs demeurent des animateurs du débat public, mais souvent en étant plus orienté médiation scientifique auprès de publics déjà intéressés. Les publics critiques voire contestataires ne sont plus là.

Dans sa conclusion, Sara Aguiton souligne que tous les moyens mis en place pour gouverner la biologie synthétique visent à dissimuler ce qui se perpétue. Le constat qu’elle dresse est assez terrible pour les dispositifs citoyens, inopérants face aux forces techno-industrielles et leur domination. « Les risques sont construits comme des questions d’usages ou d’acceptabilité, si bien que les biotechnologies sortent toujours épargnées de l’analyse, de même que les rapports économiques et sociaux qui permettent leur production et ceux qui sont transformés par leur diffusion. Les biotechnologies et leur monde ne sont jamais le problème. »

Pour Sara Aguiton, la question des promesses de la biologie de synthèse s’est également passablement dégonflée en 18 ans. Peu de choses sont advenues au-delà des laboratoires de recherches et des startups. « Il y avait de grandes promesses portées par les acteurs et théoriciens de la biologie synthétique, notamment autour des unités modulables que représentaient les biobricks. Force est de constater que les promesses n’ont pas été au rendez-vous. Mais les promesses industrielles également n’ont pas été au rendez-vous. Le projet emblématique de traitement de la Malaria par la startup Amyris a aussi été plutôt un échec. Il faut dire que le domaine de la biotechnologie synthétique a été transformé par l’avènement de la technologie Crispr/Cas9, qui est née en marge de ces acteurs et qui a transformé l’approche du secteur. Le basculement technique n’est pas celui qui était annoncé. Il s’est fait avec d’autres acteurs autour d’une autre technologie. »

Le livre de Sara Aguiton permet de faire le point sur une de ces nombreuses promesses technologiques et plus encore sur la question de la démocratisation du progrès. Le constat est un peu sans appel. A nouveau, on croise une promesse qui n’est pas tenue. À nouveau, l’agitation démocratique est on ne peut plus limitée : rejet de toute contestation et protection des projets les plus industriels. Dans Le gouvernement des technosciences, Dominique Pestre n’était pas plus optimiste. Il soulignait que dans tous les domaines, les acteurs privés, avec la collaboration active des États ont favorisé l’autonomie de la libéralisation-privatisation des technosciences. Dans une architecture saturée de techniques s’objectivant toujours plus par le nombre et les chiffres, tout mode de jugement alternatif est par principe disqualifié et invalidé. « Ce qui caractérise le temps présent, c’est la mise en oeuvre, à large échelle, de manières de gérer les hommes et les choses qui se donnent comme inéluctables parce que sans recours ou scientifiquement fondées ; qui reposent sur l’expertise et « l’efficience » ; qui s’imposent à travers les acteurs économiques qui les portent et les « acteurs de la société civile » qui les soutiennent ; qui ont conduit à l’impuissance du politique et donc à la dévaluation et à la marginalisation des formes démocratiques – et qui font appel, ironie suprême, à la « participation » des populations, à leur engagement, à leur devoir de s’adapter. »

L’absence de débat sur les choix du progrès risque surtout d’en renforcer la contestation.

Hubert Guillaud

  • Pour une téléologie du numérique

Sur son toujours aussi excellent blog, le chercheur en science de l’information Olivier Ertzscheid (@affordanceinfo) nous invite à construire une « téléologie du numérique », c’est-à-dire à construire « l’étude des causes finales » des outils et des entreprises du numérique, à en comprendre les finalités, les objectifs et les enjeux. Il pointe notamment (...)

Sur son toujours aussi excellent blog, le chercheur en science de l’information Olivier Ertzscheid (@affordanceinfo) nous invite à construire une « téléologie du numérique », c’est-à-dire à construire « l’étude des causes finales » des outils et des entreprises du numérique, à en comprendre les finalités, les objectifs et les enjeux.

Il pointe notamment l’annonce par Gizmodo d’une collaboration entre Google et le département de la défense américain, afin de fournir à ce dernier des technologies d’intelligence artificielle pour faire du guidage de drones de combat sur des terrains d’opération militaire. L’objectif du « projet Maven » consiste à fournir à l’armée des objets identifiés. Or ces objets identifiés sont ceux que chacun d’entre nous identifions en utilisant les outils de Captchas de Google, en étant les travailleurs de l’ombre des plateformes, ses travailleurs du clic du digital labor chers au sociologue Antonio Casilli (@antoniocasilli). « Chaque jour, dans le cadre de ce que l’on nomme le « Digital Labor » nous entraînons donc et nous « améliorons » les technologies embarquées dans des drones militaires qui seront utilisées sur des zones de guerre. »

Le problème de ce projet, c’est que chacun d’entre nous, en renseignant des images pour les robots de Google participons potentiellement aux tirs futurs des drones militaires, tant et si bien qu’un simple clic sur une image peut nous rendre coresponsables d’une frappe, d’un mort? sans que nous ne l’ayons jamais voulu. Comme le pointe très justement le chercheur, la question de l’intentionnalité des régimes de collecte de données est donc une question essentielle.  » Il ne faudrait pas que le numérique nous rende anonymes par excès de données ou que nous l’envisagions comme une excuse possible à chaque fois que nous perdons la capacité de tracer ce qui en sera réellement fait. Car ce qui est fait de nos données aujourd’hui, comme hier ce qui était fait de notre force de travail ou de nos impôts, est ce qui façonne nos sociétés, pour le meilleur de ce qui peut relier et émanciper les êtres humains comme pour le pire de ce qui peut les détruire. » Comme s’énerve légitimement le chercheur, nous devons pouvoir dire non. Nous devons pouvoir savoir clairement et explicitement ce dont il est fait de nos données, avec quelles intentions elles seront utilisées. Derrière l’utilisation qui est faite de nos données, à quoi consentons-nous réellement ?, comme le pointe avec force pertinence le juriste Lionel Maurel.

Ce projet entre Google et le département de la défense américain a – fait assez rare dans une entreprise (comme chez tous les géants de la tech) où la contradiction est toujours très mal vue – fait sortir quelque 3000 employés de Google (sur 72 000) de leur réserve. Une pétition adressée à la direction a demandé le retrait de Google du projet Maven pointe le New York Times.

La nécessité d’éclairer les projets politiques des géants de la techno, comme le pointait également Diana Filippova (@dnafilippova), cofondatrice de l’agence Stroïka, sur AOC, reste néanmoins à construire. Il est plus que jamais nécessaire décoder les valeurs et les méthodes des entreprises. Reste que ce n’est pas si simple. A la fois, comme le montre le projet Maven de Google, parce que les méthodes et projets sont insidieux, opaques et intriqués d’une manière complexe. De l’autre, parce que les objectifs poursuivis par les entreprises ne sont pas clairs, mais multiples. Peut-on dire ainsi comme le pointe Diana Filippova que Google incarne un projet politique transhumaniste ? Ou que Uber vise à la destruction systématique de la relation salariale ?

La difficulté demeure d’identifier l’intention derrière ce qui transparaît des actions. « Les intentions n?y sont jamais saisissables à l??il nu, les liens de causalité par nature cachés et trompeurs, l?intentionnalité des individus étant toujours contrariée par celle, invisible, fourbe, et in fine inconnaissable de forces qui nous dépassent. »

Il n’y a qu’en comprenant les finalités par l’analyse des modalités que nous pourrons mettre à jour le projet politique qui se joue par-devers nous. Tout le problème est que bien souvent, la finalité n’est pas nécessairement inscrite à l’origine du projet mais se construit peu à peu. Assurément, nous sommes là devant une question difficile, quoiqu’essentielle.

  • Retour ? décevant ? sur l?expérience de Milgram

Difficile, lorsqu’on s?intéresse à la psychologie, de passer à côté de la fameuse expérience de Stanley Milgram, un véritable classique. Rappelons brièvement son déroulement : un chercheur expliquait aux participants qu’il s’agissait d’une étude sur l’apprentissage. Une personne assise sur une chaise et bardée d?électrodes devait répondre à une série de (...)

Difficile, lorsqu’on s?intéresse à la psychologie, de passer à côté de la fameuse expérience de Stanley Milgram, un véritable classique. Rappelons brièvement son déroulement : un chercheur expliquait aux participants qu’il s’agissait d’une étude sur l’apprentissage. Une personne assise sur une chaise et bardée d?électrodes devait répondre à une série de questions ; chaque fois qu’elle se trompait, la personne testée (qui ignorait qu’elle était le véritable « sujet » de l?expérience) devait appuyer sur un bouton lui envoyant un choc électrique, qui devenait de plus en plus puissant au fur et à mesure du déroulement de la séance. Il s’agissait bien sûr d’une mise en scène et c?était un acteur qui simulait la douleur due aux électrochocs. En réalité, l?éducation n?était pas le sujet de la recherche, c?était l?obéissance qui était testée.

La conclusion de Milgram est connue et fait maintenant partie de la culture générale en psychologie : les gens sous l’influence d’une autorité – en l?occurrence celle du « chercheur » – ont tendance à obéir aveuglément. Cela explique les phénomènes d?oppression de masse ou les camps de concentration…
Dans le New Scientist, la psychologue et écrivain Gina Perry s’est penchée à nouveau sur cette expérience, a interrogé certain des participants et consulté les archives de Milgram et ce qu’elle a découvert ne l’a guère convaincu : « J’ai été frappé par la fragilité des affirmations que le monde a acceptées comme étant des faits », écrit-elle. Elle a d’ailleurs publié un livre sur ses découvertes, Behind the shock Machine, the untold story of the notorious Milgram psychology experiments.

Selon Perry, Milgram a été plutôt cavalier avec les protocoles expérimentaux, les changeant parfois en cours de route.

Par exemple, au départ, il était entendu qu’un sujet refusant quatre fois d?appliquer des chocs électriques à la victime était considéré comme « résistant » et l?expérience était arrêtée. Cette condition a ensuite été abandonnée, et une fois, une femme a dû subir 26 fois l’insistance du chercheur avant de finalement céder. Une autre femme avait refusé de continuer et éteint la pseudo-machine censée envoyer les chocs. Mais le « chercheur » a rallumé l’appareil, insistant pour qu’elle continue, ce qu’elle a fini par faire. Selon Gina Perry : « en écoutant les bandes enregistrées, on pourrait croire qu’il s’agissait d’une recherche sur l’intimidation et la coercition, pas sur l’obéissance ».

Autre problème, les participants étaient-ils aussi naïfs que Milgram le supposait ? Certains ne se doutaient-ils pas qu’il s’agissait d’une simple mise en scène ?

En fait, Milgram l’a remarqué lui même : il a avoué que 56 % seulement des sujets croyaient à l’authenticité de l’opération. Et dans une étude non publiée, il reconnaît que les participants qui doutaient de la réalité de l?expérience étaient ceux qui avaient tendance à accepter de distribuer le plus facilement les chocs électriques.

Au final, que pensait Milgram lui-même de sa fameuse expérience ? Dans une note non publiée retrouvée dans ses archives, il se demande si celle-ci était : « de la science significative ou simplement du théâtre efficace… Je suis enclin à accepter cette dernière interprétation « .

Depuis quelque temps, les sciences sociales subissent une crise de crédibilité : expériences mal conçues, jamais répliquées… L?expérience de Milgram n’est pas le premier grand classique à être mis en doute. Sera-t-il le dernier ?


  Chaines INFO  
 Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People 

Dernière modification: le   NEToo ™  Tous droits réservés • ©2004/2006 • CNIL n°892206