NEToo - métamoteur francophone pour tout trouver plus rapidement
  Web Actualités Blogs Voyages Images Vidéos Musique Annuaire  

Trouvez toutes les dernières nouvelles et dépêches publiées en interrogeant simultanément des multiples sources sur le web

Recherchez dernières actualités en temps réel 

   Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People   
 Dernières actualités multimédia sur métachercheur francophone NEToo
Le Parisien - High-Tech    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 20/01/2018 06:18:37

  • Facebook : les sources d?information seront hiérarchisées selon leur fiabilité

Facebook va hiérarchiser les sources d?information selon le degré de fiabilité qui leur est accordé par les utilisateurs du réseau social, a annoncé le groupe vendredi, nouvelle illustration de sa lutte...

  • L?application qui change la couleur de vos cheveux

Il y avait déjà eu le maquillage en réalité augmentée de You Cam Make Up, voici la coloration virtuelle imaginée par L?Oréal Professionnel en partenariat avec la start-up Modiface.L?application gratuite...

  • Votre smartphone va avoir du nez

Rubix Wear, c'est le premier nez électronique miniaturisé et intelligent qui s'emboîte sur un smartphone. La start-up de Toulouse (Haute-Garonne) Rubix Senses & Instrumentation, spécialisée depuis...

  • Attention aux fausses «apps» qui piratent les portables

Les téléphones portables regorgent d?informations sur leurs propriétaires. Ce qui est bien pratique pour recueillir des informations sur militants, militaires, avocats, journalistes et autres. De fausses...

  • Pour sa console Switch, Nintendo mise sur des accessoires en carton

Avec sa Switch, Nintendo est revenu au premier plan dans la guerre des consoles. Le constructeur japonais compte capitaliser sur ce succès commercial de façon inattendu en annonçant le lancement de deux...

  • Cybersécurité : pour que PME et ETI ne tombent pas du côté obscur

La menace fantôme Mai 2017, la cyberattaque mondiale WannaCry* affectait plus de 300 000 ordinateurs dans le monde. Organismes d?État, grandes entreprises, bibliothèques de quartier ou encore hôpitaux...

  • Apple laissera le choix de brider ou non ses iPhone

La marque à la pomme croquée contre-attaque après la tempête légale et médiatique provoquée par son aveu, fin décembre, au sujet des iPhone plus anciens volontairement ralentis afin de préserver leurs...

  • Australie : un drone sauve deux nageurs qui se noyaient

Ils livrent des pizzas ou des médicaments, surveillent les réseaux ou cartographient des champs et? larguent un gilet de sauvetage ou repèrent les requins. Un drone de sauvetage aquatique est entré en...

  • Mon Dieu, la quête passe au paiement sans contact !

Au moment de la quête, dimanche, à l?église Saint-François de Molitor à Paris (XVIe), un nouveau bruit va concurrencer le tintement des pièces et le froissement des billets : le bip sonore qui valide tout...

  • Qualité de l'eau : Pesquet a mis l?Aquapad en orbite

Dans l?espace, les astronautes sont contraints de boire l?eau recyclée de leurs urines et de leur sueur... mais comment être sûr de sa qualité ? Lors de sa mission Proxima pour le Cnes (Centre national...


InternetActu.net    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 20/01/2018 08:11:55

  • Une limite à CRISPR ?

Se pourrait-il que CRISPR, la nouvelle technologie d?ingénierie génétique au potentiel révolutionnaire, soit moins efficace qu’on ne le pense ? En tout cas, chez les humains. C’est ce que suggère la Technology Review, qui a repéré un papier sur le sujet dans Biorxiv. En cause, la protéine cas9 qui sert de (...)

Se pourrait-il que CRISPR, la nouvelle technologie d?ingénierie génétique au potentiel révolutionnaire, soit moins efficace qu’on ne le pense ? En tout cas, chez les humains. C’est ce que suggère la Technology Review, qui a repéré un papier sur le sujet dans Biorxiv.

En cause, la protéine cas9 qui sert de « ciseau » dans le processus CRISPR (pour voir comment fonctionne cette technologie, le plus simple est de regarder ces courtes vidéos). En effet, cet enzyme est présent au sein de deux bactéries très répandues, S. aureus et S. pyogenes. En conséquence les personnes infectées possèdent des anticorps contre cette molécule. Les chercheurs ont effectué un test sur des échantillons sanguins de 22 nouveaux nés et douze adultes, et ont découvert la présence de ces anticorps dans 65 % des cas. Cela pourrait rendre la thérapie inefficace, et serait même susceptible, selon les auteurs du papier, de « se révéler d’une toxicité significative pour les patients ».

Faut-il abandonner tout espoir d?application de CRISPR aux humains ? Pas forcément car Cas9 n’est pas le seul candidat pour les possibles « ciseaux ». Il existe, précise la Technology Review, des systèmes CRISPR susceptibles d’être découverts au sein de bactéries bien plus rares et qui ont peu infecté des personnes. Et il serait aussi possible continue la revue, de « sortir » des cellules de l?organisme, de les traiter avec CRISPR loin de tout anticorps, puis de les réinjecter dans le corps du patient.

  • Une géoingénierie sans risque ?

On le sait, la géoingénierie est dangereuse. Alors que les négociations sur la réduction des gaz à effets de serre se révèlent de plus en plus difficiles après la défection des États-Unis des accords sur le climat, cette hypothétique technologie risque de s’imposer pourtant comme la seule solution, au risque (...)

On le sait, la géoingénierie est dangereuse. Alors que les négociations sur la réduction des gaz à effets de serre se révèlent de plus en plus difficiles après la défection des États-Unis des accords sur le climat, cette hypothétique technologie risque de s’imposer pourtant comme la seule solution, au risque que le remède soit pire que le mal.

Mais, nous signale le site Futurism, il existe au moins une méthode qui présente peu de dangers, et qui offre la possibilité d’être à la fois localisée et aisément réversible. L’idée a été émise par un professeur de Stanford, Leslie Field, et concerne exclusivement les glaces de l’arctique.

On sait que les surfaces blanches ont tendance à refléter les rayons du soleil et donc, par conséquence de contribuer au refroidissement de la planète. L’arctique est l’un des principaux fournisseurs de ce genre de surface claire, mais hélas, aujourd’hui, les glaces fondent (c’est le cas de la dire, littéralement) comme neige au soleil… et s’il y a moins de glaces, le réchauffement s’accélère, avec pour conséquence une fonte des glaces encore plus rapide…

L’idée de Field serait de répandre un matériel spécifique, un sable fabriqué à partir du verre, sur ces glaces du pôle nord. Ce matériau, qui se dissous avec le temps, serait placé sur la glace en des points stratégiques, ce qui aurait pour effet d’augmenter l’albedo. Cela n’aurait guère de conséquence sur l’écosystème. Le sable pourrait de surcroît être aisément retiré si le besoin s?en fait sentir.
Un tel système n’agit pas sur toute l’écologie planétaire, n’est pas une solution à l’ensemble du problème, mais il a l’avantage de nous faire gagner un peu temps dans cette course contre la montre.

Leslie Field a fondé une organisation dédiée à la mise en place de cette technique, Ice911.

  • De la souveraineté? fonctionnelle

Sur le blog collectif Law and Political Economy (@LPEblog), le professeur de droit Frank Pasquale (@frankpasquale), l’auteur de Black Box Society, développe le concept de souveraineté fonctionnelle. Les économistes, rappelle-t-il, ont tendance à caractériser la portée de la réglementation comme une simple question d’expansion ou de contraction du pouvoir de (...)

Sur le blog collectif Law and Political Economy (@LPEblog), le professeur de droit Frank Pasquale (@frankpasquale), l’auteur de Black Box Society, développe le concept de souveraineté fonctionnelle.

Les économistes, rappelle-t-il, ont tendance à caractériser la portée de la réglementation comme une simple question d’expansion ou de contraction du pouvoir de l’État. Mais, en économie politique, lorsque l’autorité de l’État se contracte, les intérêts privés comblent le vide, notamment parce que nous avons horreur d’une absence de pouvoir. Ce pouvoir des entreprises, nous le voyons à l’oeuvre dans les relations employeurs/employés ou dans les relations qu’instaurent des entreprises avec leurs fournisseurs voire avec leurs clients. Le problème est que bien des entreprises exercent de plus en plus souvent leur pouvoir, non pas en tant que partie d’un conflit, mais en tant qu’autorité. Pour le professeur de droit, les plateformes ne sont plus de simples participants du marché. Elles les détiennent, c’est-à-dire qu’elles sont capables d’exercer un contrôle réglementaire sur les conditions qui s’imposent à ceux qui veulent vendre des biens ou des services par leur entremise. Peu à peu, elles s’octroient un rôle « gouvernemental », « remplaçant la logique de la souveraineté territoriale par une souveraineté fonctionnelle ». « Dans les domaines fonctionnels, de la location d’appartement au transport en passant par le commerce, les personnes seront de plus en plus soumises au contrôle d’entreprises plutôt qu’à celui de la démocratie ».

Et Pasquale de prendre l’exemple d’Airbnb. Pour lui, Airbnb peut utiliser des méthodes basées sur les données pour réguler efficacement l’offre de location qu’il administre. Ainsi certains promoteurs de la souveraineté fonctionnelle estiment que les systèmes de notation en ligne pourraient demain remplacer les systèmes de licences ou des autorisations (c’est ce qu’expliquait par exemple Nick Grossman, dans l’article que nous lui avons consacré, « Réguler par la donnée ? »).

Ce passage de la souveraineté territoriale à souveraineté fonctionnelle crée une nouvelle économie politique numérique, estime Frank Pasquale. Amazon notamment est passé d’un géant du commerce électronique à une infrastructure essentielle pour nombre d’entreprises qui en dépendent, comme le souligne la chercheuse Lina M. Khan (@linamkhan), directrice des politiques juridique de l’Open Market Institute, une association de chercheurs et de journalistes qui s’oppose aux monopoles, dans un article sur le paradoxe anticoncurrentiel d’Amazon. Pour elle, si Amazon a jusqu’à présent échappé aux lois américaines contre les pratiques anticoncurrentielles, c’est parce que le cadre anticoncurrentiel défini au XXe siècle n’est pas adapté à la réalité d’aujourd’hui. En effet, ce cadre visait surtout à protéger les consommateurs contre des prix trop élevés. Or, la domination d’Amazon ne repose pas du tout sur des ententes pour des prix élevés (voir également notre article « Distorsion des marchés, du risque de collusion entre machines »). En mesurant les pratiques anticoncurrentielles principalement sous l’angle des prix, on sous-estime le risque d’éviction d’acteurs par des formes monopolistiques, tout comme l’intégration de différents secteurs d’activité par une même enseigne.

Comprendre comment les plateformes accumulent du pouvoir est essentiel, estime Pasquale. Ce n’est pas « le meilleur service l’emporte », comme le clament trop facilement les tenants du libre marché. La domination n’est pas fille du mérite, explique Pasquale. Bien d’autres critères que la qualité entrent en ligne de compte pour atteindre une taille critique et mettre en place des services qui se favorisent les uns les autres pour éliminer et absorber la concurrence. La domination d’Amazon a montré comment les effets de réseau s’auto-renforcent jusqu’à rendre la plateforme incontournable. Si une nouvelle plateforme peut potentiellement entrer sur le marché à tout moment, reste que cette possibilité s’éloigne à mesure qu’Amazon grossit. Comme le soulignait Bruce Schneier en évoquant les Gafa comme des seigneurs féodaux de la sécurité, c’est encore plus vrai en matière de commerce, estime Pasquale. Nous ne pouvons plus ne pas prêter serment d’allégeance à au moins l’un des Gafa, en tant que client comme en tant que fournisseurs.

Comme le soulignent les promoteurs du libre marché, à l’image du professeur de droit et spécialiste de la consommation, Rory van Loo (@roryvanloo), dans son article « les entreprises comme palais de justice », les plateformes sont capables de mettre en place des mécanismes très évolués de règlement des différends pour régler les conflits entre acheteurs et vendeurs, ce qui n’est pas sans gains d’efficacité, notamment pour les petites créances (mais ce n’est pas sans risque, notamment du fait de l’opacité et de la dissymétrie des conditions contractuelles et des modalités de décisions). La difficulté à imposer des recours collectifs (voir leur recul aux États-Unis), la montée des procédures d’arbitrages (qui contournent les tribunaux), le développement de Conditions générales d’utilisations unilatérales qui s’appliquent à de plus en plus d’actions contractuelles qui régissent nos existences (location d’appartements, contrats de travail, abonnement à des services en ligne? comme le pointe le livre de Margaret Jane Radin qui souligne que le recours à ces contrats a dégradé les notions de consentement)? sont autant d’indices qui montrent le recul du principe judiciaire, notamment en matière de litiges liés à la consommation. C’est le même constat que dresse le juriste Alain Supiot dans son remarquable livre La gouvernance par les nombres, quand il pointe les limites de la substitution des règles d’ordre public (le droit) au profit de celles des contrats individuels. Pour Pasquale, « les individus se tournent rationnellement vers la puissance des plateformes pour imposer l’ordre que la doctrine juridique libertaire retranche à l’État ». Se faisant, ils renforcent la dynamique qui mène à l’étiolement de l’État.

Pasquale évoque à titre d’exemple les polémiques qui ont fleuri récemment autour de la recherche par Amazon d’un deuxième siège social pour son entreprise, qui a donné lieu à une terrible surenchère de propositions de la part de nombreuses villes américaines, allant d’incitations fiscales nourries aux innombrables passe-droits. Pasquale voit là un signe schizophrénique du transfert de pouvoir de l’Etat aux entreprises : alors que les municipalités sont affaiblies par leur manque de revenus fiscaux pour maintenir des services publics de qualité, elles luttent entre elles pour accueillir une entreprise reine de l’optimisation fiscale. De même, « plus les acheteurs et les vendeurs en ligne comptent sur Amazon pour régler leurs différends et chercher le meilleur prix, moins ils ont de pouvoir sur Amazon ». Demain, le gouvernement fédéral lui-même pourrait confier des fonctions de centrale d’achats à Amazon, comme l’expliquait David Dayen pour The Intercept. Pour le professeur de droit, Jon D. Michaels (@jondmichaels) auteur du Coup d’État constitutionnel, la privatisation menace la République américaine en menaçant la séparation des pouvoirs elle-même. Fonder les achats de l’état sur le seul critère du coût le plus bas est une invitation à poursuivre un approvisionnement peu éthique qui mine nombre d’achats du gouvernement américain.

Reste que, pour Frank Pasquale, les solutions pour limiter le pouvoir d’Amazon semblent difficiles à mettre à l’ordre du jour. La superpuissance qu’a acquis Amazon sur le commerce est sans précédent. Pour lui, esquisse-t-il trop rapidement en conclusion en pointant vers un rapport très critique de l’Institut pour l’auto-dépendance locale (qui souligne qu’Amazon « monopolise » l’économie, détruit les emplois et fragilise les communautés…), seule une organisation politique de l’économie peut empêcher les souverainetés fonctionnelles de saper plus avant les souverainetés territoriales qui sont au coeur de nos démocraties.

Des propos qui ne sont pas sans rappeler ceux des économistes Ariel Zerachi et Maurice Stucke dont nous avions rendu compte. À l’heure où des sénateurs démocrates planchent sur une réforme de la loi antitrust, et où nombre de publications américaines s’interrogent sur ce à quoi devrait ressembler cette nouvelle législation, la question n’est pas sans incidences sur les utilisateurs de ces services au-delà des États-Unis. Sur Wired, Nitasha Tiku constate que les titans de la Silicon Valley ont pu croître sans entrave du fait d’une législation antitrust qui ne considère les comportements anticoncurrentiels que sous le prisme de leurs effets sur les consommateurs. Reste à savoir s’il faut remettre à plat les lois antitrust américaines, comme s’en inquiètent bien des acteurs politiques libéraux américains ?

Pour l’économiste Carl Shapiro, lorsque de grandes entreprises acquièrent des entreprises « hautement performantes » sur un marché adjacent, la concurrence diminue. Notamment dans le domaine technologique explique-t-il en citant le rachat de YouTube ou DoubleClick par Google, d’Instagram ou d’Oculus par Facebook ou de Linked-in par Microsoft. Les responsables de l’application des lois anticoncurrentielles devraient être plus attentifs lors des fusions, estime Shapiro, notamment dans les cas où, les petites entreprises rachetées pourraient venir concurrencer celles qui les avalent. Or, souligne-t-il, ni l’achat de Whole Foods par Amazon ni l’acquisition du média social TBH par Facebook n’ont donné lieu à un examen détaillé. Les évaluateurs ne regardant les fusions que sur la base de normes assez élastiques, comme la part de marché cumulée sectorielle (celle de Whole Foods par Amazon ne représentant que 4 % du marché américain de l’alimentation).

Pour l’analyste Ben Thompson, les autorités antitrusts peinent à apprécier les effets de réseaux. En 2012, la commission fédérale du commerce américaine (FTC) a vu Instagram comme une application de photos sans revenus, alors que pour Thompson, le rachat d’Instagram et de WhatsApp a surtout permis à Facebook de se renforcer dans la publicité numérique. Pour Anant Raut, un ancien avocat de la FTC, la réforme de l’analyse des fusions devrait également impliquer de prêter attention aux signaux d’alarmes qui ne violent pas nécessairement la loi antitrust, mais indiquent néanmoins un comportement anticoncurrentiel, comme lors de la fusion de deux applications de médias sociaux.

Pour les Américains, les dispositifs mis en place par l’Union européenne sont aussi des modèles possibles, comme le suivi de transactions précédemment approuvées, qui a permis à l’UE d’infliger une amende de 122 millions de dollars à Facebook pour avoir induit les régulateurs en erreur sur l’acquisition de WhatsApp : l’entreprise avait affirmé alors ne pas vouloir combiner les données des comptes FB et WA. Fin 2016, deux associations de défense des consommateurs américaines ont ainsi porté plainte devant la FTC contre Google, quand l’entreprise a combiné ses données avec celles de DoubleClick.

En fait, de plus en plus les appels à limiter le pouvoir des entreprises de la Silicon Valley viennent de leurs promoteurs eux-mêmes. Le spécialiste du marketing, Scott Galloway (@profgalloway), l’auteur de Les 4 : l’ADN caché d’Amazon, Apple, Facebook et Google, invite Facebook à se séparer d’Instagram et de Whats App par exemple. « Au lieu de quatre grandes entreprises, il pourrait y en avoir 10, et nous aurions un écosystème plus riche pour stimuler à la fois la croissance de l’emploi et la valeur pour les actionnaires (…) ».

Maurice Stucke et Ariel Ezrachi ont souligné récemment que la loi antitrust n’était pas restée aussi figée qu’on le pense. Reste que si la question est de retour, c’est aussi parce que les arguments sont plus compréhensibles aux consommateurs et que la pression politique sur le sujet traverse un peu tous les camps politiques. La surpuissance des Gafas pose un problème croissant. Reste que trouver les modalités adéquates de leur régulation voire de leur démantèlement n’est pas si simple.

Hubert Guillaud

  • Aux origines de la post-vérité (1/2) : du Mayflower à Donald Trump

Quelle est la racine de cette ère de « post-vérité » dans laquelle nous sommes entrés ? Quelle est l’origine des « fake news » ? S’agit-il d’une conséquence inévitable des médias numériques et des réseaux sociaux, comme on le dit souvent ? Ou les causes sont-elles plus profondes ? Pour Kurt Andersen (Wikipédia, @KBAndersen), romancier et animateur (...)

Quelle est la racine de cette ère de « post-vérité » dans laquelle nous sommes entrés ? Quelle est l’origine des « fake news » ? S’agit-il d’une conséquence inévitable des médias numériques et des réseaux sociaux, comme on le dit souvent ? Ou les causes sont-elles plus profondes ? Pour Kurt Andersen (Wikipédia, @KBAndersen), romancier et animateur de radio, il faut, pour comprendre ce phénomène, remonter plus loin dans l’histoire des États-Unis. On s’en doute, il n’a guère de sympathie pour l’actuel président des Etats-Unis. En fait, il vient de publier, en compagnie de l?acteur Alec Baldwin (connu pour ses imitations hilarantes du « Don ») un faux journal intime relatant la première année de présidence de Trump, « racontée » par l?intéressé lui-même.

Mais c’est son autre livre récent, Fantasyland, How America Went Haywire (« Fantasyland, comment l’Amérique s’est détraquée ») qui nous concerne ici. Andersen avait commencé la rédaction de son livre avant l?élection de 2016, nous apprend Big Think. Au moment de l’accession de Trump au pouvoir, il effectuait les dernières corrections.

Avoir foi dans sa foi


FantasylandFantasyland propose une histoire alternative des Etats-Unis, basée sur l’idée simple que ce pays s’est toujours construit sur des fantasmes, des constructions imaginaires, et que l?Américain moyen est bien plus vulnérable à des théories irrationnelles que ses voisins européens.
Et cela a commencé dès les débuts. Avant même le Mayflower et ses pèlerins, une première vague de colons s’est installée en Virginie, attirée par la soif d’un or introuvable et y créa le petit village de Jamestown. La royauté britannique, jalouse des richesses découvertes au sud par ses concurrents espagnols, s?était convaincue que des trésors l’attendaient au nord.

Mais ce rêve se révéla bien vite sans fondement. Nombreux furent les décès parmi les colons de la première heure, et les autres s’en retournèrent bientôt dans la mère patrie.

Ce n’est pas pour rien, insiste Andersen, si les Américains préfèrent dater la naissance de leur nation d’un peu plus tard, avec l’arrivée des pèlerins. Cette première génération de chercheurs d’or (il y en aura une autre vague bien plus tard, lors de conquête du Far West) était bien trop raisonnable et matérialiste : une fois constaté leur échec, les habitants de cette première colonie de Jamestown y renoncèrent pour revenir à des préoccupations plus quotidiennes.

Avec les pèlerins, tout change : l?imaginaire n’a plus de connexion avec la réalité, il peut se développer sans contrainte.

La nature du protestantisme explique grandement la spécificité américaine, selon Andersen. Avec Luther, chacun s’est vu le droit de développer sa propre interprétation de la Bible, dont la lecture était jusqu’ici réservée aux seuls membres du clergé catholique. La conséquence, surtout visible aux US, en a été la multiplication des sectes et sous-sectes, chacune prétendant avoir un accès exclusif à LA Vérité.

Mais le protestantisme est une invention européenne, et aujourd’hui la plupart des pays protestants du Vieux Continent font plutôt preuve d’une remarquable rationalité et tolérance. Que s’est il donc passé là-bas ?

Pour Andersen, la naissance d’une religiosité typiquement américaine s’incarne avec le cas d’Anne Hutchinson, une prédicatrice dont l?enthousiasme lui valut d’être persécutée par les autorités puritaines en place. Chez Hutchinson, il n’est plus simplement question d’une interprétation hétérodoxe des textes sacrés. Elle sait la vérité parce qu’elle en est certaine : Dieu lui parle directement.

« Hutchinson est totalement américaine parce qu’elle avait totalement confiance en elle-même, en ses intuitions et en sa compréhension idiosyncrasique et subjective de la réalité. Elle est complètement américaine parce que, contrairement aux experts pointilleux qui l’entouraient, elle n’acceptait pas l’ambiguïté et n’admettait pas le doute de soi. Ses perceptions et ses croyances étaient vraies parce qu’elles étaient les siennes et parce qu’elle les ressentait complètement comme vraies. »

Et c’est là le fondement, selon lui, de la névrose américaine : « être Américain, cela veut dire que nous pouvons croire à n’importe quelle foutue chose que nous désirons, que nos croyances sont égales ou supérieures à celles des autres, et que les experts aillent se faire voir ».

En fait, le propre de la spiritualité américaine, ce n’est pas la croyance, même pas la croyance fanatique (elle existe partout ailleurs), c’est la croyance en la croyance, la foi dans la foi.

« Si je pense que c’est vrai, et peu importe pourquoi ou comment je pense que c’est vrai, alors c’est vrai, et personne ne peut me dire le contraire. C’est la reductio ad absurdum de l’individualisme américain. C’est cela le credo de Fantasyland. »

Un gigantesque parc à thème


La petite maison dans la prairie...De fait, la plus grande partie du livre est consacrée à la façon dont l?Amérique s’est peu à peu transformée sous l’influence de ses fantasmes, au point de devenir parfois un « parc à thème » dont Disneyland est l?archétype (Fantasyland est d’ailleurs le nom d’un des « royaumes enchantés » qu’on trouve à Disneyland). Ainsi, le « Wild Wild West » a-t-il été quasiment créé par William Cody, plus connu sous le nom de Buffalo Bill, qui « vendit » le concept lors des tournées de son spectacle. Quant à la croyance au retour à la nature sauvage, exprimée par Henri David Thoreau, qui allait avoir une influence si importante sur la beat generation et les premiers hippies, c’est aussi un fantasme. Thoreau a passé deux ans dans une cabane construite dans une petite région boisée appartenant au poète Emerson, à une demi-heure à pied de la petite ville où vivait sa famille… Mais lorsqu?il se retrouva « into the wild », dans le Maine, en proie à une nature véritablement sauvage, il en fut terrifié. Et après son escapade forestière, il revint tranquillement chez lui travailler dans l’usine de son père.

Mais cette fantasmatique de la nature joua un rôle fondamental dans l?aménagement du territoire américain, explique Andersen. Les Américains ont toujours voulu s?éloigner des villes, qu’ils considéraient comme une création du Vieux Monde corrompu. Mais leur proximité avec la nature, leur goût pour la « petite maison dans la prairie » les amena à créer une simulation de ruralité : la banlieue…

Le capitalisme n?échappe pas à la pensée magique, ainsi, note ironiquement Andersen, quand le mot « entrepreneur » a été utilisé pour la première fois en langue anglaise, au début du 19e siècle, il fut utilisé pour désigner les imprésarios ou les organisateurs de spectacles.

« De Ben Franklin à Mark Zuckerberg, les histoires des entrepreneurs ayant suprêmement réussi obscurcissent les millions de perdants et de gogos tombés dans l’oubli. Leurs fabuleux succès semblent être la preuve du pouvoir de la croyance passionnée en soi, de notre foi américaine en la foi.

Les entrepreneurs se répartissent le long d’un spectre de fumée et de miroirs, allant des fabulistes de petite taille aux visionnaires transformant effectivement le monde. Mais une partie du travail de chaque entrepreneur est de persuader d’autres personnes et de les recruter pour croire en un rêve, et souvent ces rêves sont de purs fantasmes. »

Contre-culture, New Age, alt-right, même combat ?


Mais d’un autre côté, l?Amérique a toujours su être une terre nourrie aux Lumières, à la rationalité. Jusqu’au « big bang » des années 60 où tous les critères de la réalité ont sauté, selon l’auteur.

Si la « contre-culture » des années 60 a certainement apporté des choses positives, comme l?écologie ou le droit des femmes et des minorités, elle a aussi été le porteur d’une idéologie relativiste qui a permis à toutes les idées les plus folles de proliférer. En même temps que les hippies, on assiste à la recrudescence des mouvements évangélistes les plus extrémistes, note-t-il. C’est aussi au début des années 60 que la société d?extrême droite, la John Birch Society, crée par un proche de Joe McCarthy, a ressuscité le vieux mythe de la conspiration des illuminati, après avoir découvert que le thème de la conspiration communiste devenait moins porteur.

Les années 60 voient aussi la naissance du New Age, dont Andersen voit l?incarnation la plus parfaite dans le livre de Rhonda Byrne, Le Secret, qui prétend révéler au public les « lois de l’attraction », qui apporteront bonheur et succès à ceux qui les suivent. Pour Andersen, Le Secret exprime de la façon la plus directe cette vision typiquement américaine : « Le Secret reprend les fondamentaux Américains, l’individualisme, le surnaturalisme et la croyance dans la croyance, et les dépouille des intermédiaires et de la plupart des emballages pieux – Dieu, Jésus, la vertu, le travail dur récompensé, la félicité parfaite seulement dans l’au-delà. Ce qui reste est une «loi d’attraction», et si vous avez juste envie de quelque chose avec suffisamment de force, cette chose deviendra vôtre. La croyance est tout. »

Oprah Winfrey : devenez ce que vous croyezLe Secret a bénéficié d’une publicité importante en gagnant le soutien inconditionnel d’Oprah Winfrey dont le show fait la part belle aux idées magiques et aux théories médicales fumeuses.

Ironiquement, la semaine dernière on a commencé à parler d’une candidature d’Oprah Winfrey à la présidence des Etats-Unis. Il serait assez ironique de constater que la prochaine adversaire de Trump soit, elle aussi, une grande adepte de la post-vérité. Je me demande ce qu’en pense Andersen !

Et bien sûr,tout cela nous amène à Trump. La théorie d?Andersen permet d’expliquer pourquoi un homme aussi peu religieux se voit soutenu par les évangélistes les plus fanatiques. C’est parce qu’en fait, nous dit l’auteur, il partage avec eux les mêmes présupposés de base. Tous les deux partent du principe que la certitude en la valeur de leurs propres croyances, ressenties comme organiquement vraies, est plus importante que la rationalité ou les avis des experts.

Le livre d?Andersen est passionnant et très agréable à lire, mais il reste deux questions qui méritent d’être posées et auxquelles l’auteur ne répond pas, ou peu : la post-vérité est elle vraiment un phénomène purement américano-américain, comme il le proclame ? Et ce alors que ce genre de croyance se répand de plus en plus dans la population mondiale, y compris en France ? Et ensuite, la post-vérité ne révèle-t-elle pas quelque chose de plus profond, que l’accident historique du puritanisme américain ne suffit pas à expliquer ?

Rémi Sussan

  • De l?automatisation des inégalités

Dans une récente  tribune pour le New York Times, l’avocate Elisabeth Mason (@elismason1), directrice du Laboratoire pauvreté et technologie qui dépend du Centre sur la pauvreté et l’inégalité de Stanford (@CenterPovlneq) soulignait que le Big data et l’intelligence artificielle étaient amenés à être des outils puissants pour lutter contre la pauvreté. (...)

Dans une récente  tribune pour le New York Times, l’avocate Elisabeth Mason (@elismason1), directrice du Laboratoire pauvreté et technologie qui dépend du Centre sur la pauvreté et l’inégalité de Stanford (@CenterPovlneq) soulignait que le Big data et l’intelligence artificielle étaient amenés à être des outils puissants pour lutter contre la pauvreté. Les grands ensembles de données peuvent désormais être exploités pour mieux prédire l’efficacité des programmes d’aides et les évaluer. « Le big data promet quelque chose proche d’une évaluation impartiale, sans idéologie, de l’efficacité des programmes sociaux », explique-t-elle en rêvant d’une société parfaitement méritocratique, tout entière fondée sur la « preuve de ce qui marche » (Evidence-based policymaking). Un propos qui pourrait paraître un peu naïf, si on l’éclaire par le livre que vient de publier la spécialiste de science politique, Virginia Eubanks (@poptechworks) :  Automatiser les inégalités : comment les outils high-tech profilent, policent et punissent les pauvres.

Vous avez été signalés !

Automating InequalityLes processus de décision sont de plus en plus confiés à des machines, rappelle la chercheuse. « Des systèmes d’éligibilité automatisés, des algorithmes de classements, des modèles de prédiction des risques contrôlent les quartiers qui doivent être policés, quelles familles peuvent obtenir des aides, qui peut accéder à un emploi, qui doit être contrôlé pour fraude. (…) Notre monde est parcouru de sentinelles informationnelles (…)  : d’agents de sécurité numérique qui collectent de l’information sur nous, qui fabriquent des inférences à partir de nos comportements et contrôlent l’accès aux ressources ». Si certains sont visibles, la plupart sont impénétrables et invisibles. « Ces outils sont si profondément tissés dans la fabrique de la vie sociale, que la plupart du temps, nous ne remarquons même pas que nous avons été surveillés et analysés ».

Reste que bien peu de personnes s’intéressent à ce que signifie d’être signalés par ces programmes et les catastrophes individuelles que cela engendre. Se voir retirer son assurance santé au moment où vous êtes le plus vulnérable laisse ceux qui en sont victimes désespérés et acculés. Le problème, souligne très bien Virginia Eubanks est « qu’il n’y a pas de règles qui vous notifient le fait que vous avez été signalé » (ref-flagged) par un programme. La plupart des gens ne savent pas qu’ils ont été la cible de systèmes de décisions automatisés.

Eubanks souligne que ce contrôle s’exerce sur des membres de groupes sociaux plus que des individus : gens de couleurs, migrants, groupes religieux spécifiques, minorités sexuelles, pauvres et toutes populations oppressées et exploitées. Les groupes les plus marginalisés sont ceux sur lesquels le plus de données sont collectées. Et le problème, souligne Virginia Eubanks, c’est que « cette collecte de données renforce leur marginalité » en créant « une boucle de rétroaction de l’injustice » qui renforce à son tour la surveillance et le soupçon.

Des hospices… aux hospices numériques

Le propos de la chercheuse est éminemment politique : en enquêtant sur une poignée de systèmes automatisés développés pour optimiser les programmes sociaux américains, elle dénonce une politique devenue performative? c’est-à-dire qui réalise ce qu’elle énonce. Selon elle, les programmes sociaux n’ont pas pour objectif de fonctionner, mais ont pour objectif d’accumuler de la stigmatisation sur les programmes sociaux et renforcer le discours montrant que ceux qui bénéficient de l’assistance sociale sont, au choix, des criminels, des paresseux ou des profiteurs. La rationalisation des programmes d’aide publics du fait de la crise et des coupes budgétaires les contraint à toujours plus de performance et d’efficacité. Or cette performance et cette efficacité s’incarnent dans des outils numériques qui n’ont rien de neutre, pointe la chercheuse.

Le problème, c’est que ces outils de surveillance sont partout : dans les marges où nous entraîne la chercheuse, les histoires où les technologies facilitent la communication et ouvrent des opportunités sont rares. Pour les plus démunis, la révolution numérique ressemble surtout à un cauchemar. Comme elle le soulignait déjà, pour comprendre l’avenir de la surveillance, il faut regarder comment elle se développe déjà auprès des populations les plus marginalisées.

Dans la première partie de l’ouvrage, Virginia Eubanks dresse un rapide historique pour rappeler que, à la suite de Michel Foucault, les communautés les plus démunies ont toujours été les plus surveillées. Elle souligne la continuité entre les asiles, les prisons, les hospices de la fin du XVIIIe siècle aux bases de données d’aujourd’hui, rappelant que les premières bases de données ont été créées par les promoteurs de l’eugénisme pour discriminer les criminels et les faibles d’esprit.

Elle souligne aussi combien cette histoire de l’assistance publique est intimement liée, surtout aux Etats-Unis, à des vagues régulières de critiques contre l’aide sociale. Partout, l’enjeu a été de mettre en place des règles pour limiter et contrôler le nombre de bénéficiaires des aides sociales, privées comme publiques. Une histoire qui s’intrique à celle des représentations de la pauvreté, de son coût, de la fraude, de la dénonciation de l’inefficacité des aides… Les « hospices numériques » (digital poorhouse), c’est-à-dire les systèmes automatisés de contrôle des aides que reçoivent les plus pauvres, naissent dès les années 70, avec l’informatique elle-même, rappelle la chercheuse. La recherche d’outils neutres pour évaluer les dépenses publiques pour ces bénéficiaires a surtout consisté dans le développement d’outils de surveillance des récipiendaires de l’aide publique. Des programmes de détection des fraudes, des bases de données de bénéficiaires ont été créées et reliées pour tracer les dépenses et les comportements de leurs bénéficiaires dans de multiples programmes sociaux. « Le conflit entre le développement des droits pour les bénéficiaires de l’aide sociale et le faible soutien aux programmes d’assistance publique a été résolu par le développement d’outils technologiques punitifs ». Alors que le droit développait l’aide publique, la technologie était utilisée pour réduire le nombre de leurs allocataires ! Certains programmes d’aides multipliant les situations de non-conformité et les sanctions pour un retard à un rendez-vous, ou pour ne pas avoir consulté un médecin prescrit? Pour Virginia Eubanks, ces systèmes automatisés sont une continuité et une expansion des systèmes de gestion des pauvres punitifs et moralistes, des hospices de la fin du XVIIIe siècle et du début du XIXe siècle que pointait le travail de Michel Foucault. « Si ces systèmes sont présentés pour rationaliser et gérer les bénéficiaires, leur but premier reste et demeure de profiler, surveiller et punir les pauvres ».

S’intéresser aux effets des calculs sur la société

Dans son livre, Virginia Eubanks se concentre sur l’étude de 3 systèmes : un système mis en place par l’Indiana pour automatiser l’éligibilité de candidats aux programmes d’assistance publique de l’Etat ; un répertoire des SDF de Los Angeles ; et un système d’analyse du risque pour prédire les abus ou négligence sur enfants dans un comté de la Pennsylvanie. Des exemples et des systèmes assez spécifiques, par nature très Américains, qui pourraient nous laisser indifférents, nous Européens, si leur étude ne révélait pas une nature des outils numériques, un fonctionnement qu’on peut potentiellement retrouver dans chacun de ceux qui sont déployés.

La chercheuse prend le temps de les explorer en détail. Elle nous rappelle leur histoire, comment et pourquoi ils ont été mis en place. Comment ils fonctionnent. Elle nous présente quelques personnes qui les font fonctionner, d’autres qui en sont les bénéficiaires ou les victimes. Dans ce travail ethnographique, elle ne présente pas toujours en détail les systèmes, les critères, les questions, le fonctionnement des algorithmes eux-mêmes. La manière dont sont calculés les scores depuis le répertoire des SDF pour leur attribuer une priorité dans la demande de logement n’est pas par exemple ce que cherche à nous montrer Virginia Eubanks. En fait, c’est un peu comme si pour elle ces systèmes étaient par nature incapables d’optimiser le monde qu’on leur demande d’optimiser. L’important n’est pas le calcul qu’ils produisent qui seront toujours imparfait que leurs effets concrets. C’est eux qu’elle nous invite à observer. Et ce qu’elle en voit n’est pas très agréable à regarder.

Chacun des exemples qu’elle prend est édifiant. Le système automatique de gestion de l’assistance de l’Indiana, confié à un opérateur privé, montre toute l’incompétence du délégataire : durant son fonctionnement, l’aide publique a reculé de 54 %. Au moindre oubli, au moindre document manquant, les bénéficiaires étaient tout simplement éjectés du système au prétexte d’un culpabilisant « défaut de coopération » cachant surtout ses défaillances techniques et organisationnelles. Le taux de demande d’aides refusées s’est envolé. Des personnes sourdes, handicapés mentaux, malades, étaient contraintes de joindre un centre d’appel pour bénéficier d’aides? Le contrat entre l’Etat de l’Indiana et IBM a fini par être rompu. Les procès entre le maître d’oeuvre et le délégataire ont duré des années. Son coût n’a jamais été pleinement évalué, hormis pour les gens qu’il a privés des aides auxquelles ils avaient droit. « En retirant l’appréciation humaine des agents en première ligne au profit des métriques d’ingénieurs et de prestataires privés, l’expérience de l’Indiana a suralimenté la discrimination ». Les spécifications sociales pour l’automatisation se sont basées sur l’épuisement et l’usure des bénéficiaires, sur des postulats de classes et de races qui ont été encodées en métriques de performances.

Dans le comté de Los Angeles, Virginia Eubanks évoque longuement la mise en place d’une base de données centralisée des SDF créée pour améliorer l’appariement entre l’offre de logement d’urgence et la demande. L’enjeu était de pouvoir prioriser les demandes, entre sans-abris en crise et sans abris chroniques, en aidant les premiers pour éviter qu’ils ne tombent dans la seconde catégorie. Les partenaires du projet ont donc créé une base de données pour évaluer les demandeurs collectant de vastes quantités d’information personnelle avec un algorithme pour classer les demandeurs selon un score de vulnérabilité et un autre pour les apparier avec les offres de logements : le VI-SPDAT (index de vulnérabilité ou outil d’aide à la décision de priorisation des services). Tout sans-abri accueilli par un organisme doit alors répondre à un long questionnaire, particulièrement intime, posant des questions sur sa santé, sa sexualité, les violences commises à son encontre ou dont il a été l’auteur? La base de données est accessible à quelque 168 organisations différentes : services de la ville, association de secours, organisations religieuses, hôpitaux, centre d’aides et d’hébergements? et même la police de Los Angeles. Chaque sans-abri reçoit un score allant de 1 à 17, du moins au plus vulnérable. Ceux qui ont un score élevé reçoivent alors un accord d’hébergement qu’ils peuvent porter (avec les justificatifs nécessaires) aux autorités du logement de la ville qui peuvent alors leur proposer un logement ou un financement. Virginia Eubanks pointe là encore les multiples difficultés de ces questionnaires qui se présentent comme neutres, sans l’être. Selon la manière dont les SDF répondent aux questions (seuls ou accompagnés, par quelqu’un qui les connait ou pas?), leur score peut varier du tout au tout. Ainsi, un SDF sortant de prison se voit attribuer un score faible au prétexte qu’il a eu un hébergement stable durant son séjour en établissement pénitentiaire.

Elle souligne que le manque de solutions de logements pour sans-abris fait que le système sert plus à gérer les SDF qu’à résoudre le problème. Selon le service des sans-abris de Los Angeles, la ville comptait 57 794 SDF en 2017. 31 000 sont enregistrés dans la base depuis sa création en 2014. 9 627 ont été aidé pour trouver un logement. Si pour Virginia Eubanks le système n’est pas totalement inopérant, reste que sa grande disponibilité pose question. Ces enregistrements consultables par trop d’organisations sur simple requête – et notamment par les forces de l’ordre, sans avoir à justifier d’une cause, d’une suspicion ou autre -, transforment des données administratives et les services sociaux en extension des systèmes de police et de justice. L’absence d’une protection des données de ce registre, nous rappelle combien toute base de données créée pour répondre à un objectif finit toujours par être utilisée pour d’autres objectifs? Les bases de données coordonnées sont des centres de tri qui rendent ceux qui en sont l’objet « plus visibles, plus traçables, plus prévisibles ». « Les personnes ciblées émergent désormais des données » : les personnes jugées à risque sont codées pour la criminalisation. Si ces systèmes produisent certes des chiffres pour mieux orienter les budgets, les données ne construisent pas d’hébergements.

Le dernier exemple que prend Virginia Eubanks est une enquête sur le fonctionnement d’un outil de prédiction du risque de maltraitance et d’agression d’enfants, développé par le bureau de l’enfance, de la jeunesse et des familles du comté d’Allegheny (Pennsylvanie). Elle nous plonge dans le quotidien des travailleurs sociaux d’un centre d’appel à la recherche d’informations sur les dénonciations qu’ils reçoivent, là encore, via une multitude de bases de données : provenant des services du logement, de la santé, de la police, de l’enseignement? Elle explore comment le système prioritise certains critères sur d’autres, comme l’âge des enfants et surtout, le fait que les familles soient déjà sous surveillance des services sociaux. Elle détaille également longuement l’histoire de cet outil prédictif, développé par Rhema Vaithianathan (@rvaithianathan), directrice du Centre pour l’analyse de données sociales de l’université d’Auckland en Nouvelle-Zélande qui s’appuie sur plus de 130 variables pour produire un score de risque allant 1 (le plus faible) à 20? Un programme abandonné par la Nouvelle-Zélande du fait de son manque de fiabilité et de l’opposition qu’il suscita. Dans les pages qu’elle consacre à ce système, Virginia Eubanks prend le temps de nous montrer comment les travailleurs sociaux interprètent les informations dont ils disposent, comment les familles sont sommées de répondre aux enquêtes sociales que ces alertes déclenchent. Elle souligne combien les données censées être neutres cachent une succession d’appréciations personnelles. Elle souligne également combien le système peine à guider celui qui mène enquête suite à un signalement. Combien certains critères ont plus de poids que d’autres : à l’image du fait de recevoir un appel pour un enfant pour lequel le centre a déjà reçu un appel sur les deux années précédentes ou qui a déjà été placé. Elle souligne les limites du modèle prédictif construit qui produit chaque année de trop nombreux faux positifs et négatifs. Comme le soulignait la mathématicienne Cathy O’Neil @mathbabedotorg), les choix qui président aux outils que nous développons reflètent toujours les priorités et les préoccupations de leurs concepteurs. Et la prédictivité est d’autant moins assurée quand nombre de variables sont subjectives. Qu’importe, comme le soulignait une récente enquête du New York Times, l’outil, malgré ses défauts, semble prometteur. Pour ses concepteurs, il nécessite surtout d’être peaufiné et amélioré. Ce n’est pas le constat que dresse Virginia Eubanks.

Eubanks montre combien l’outil mis en place estime que plus les familles recourent à l’aide publique, plus le score de risque progresse. Le système mis en place s’intéresse d’ailleurs bien plus à la négligence dans l’éducation des enfants qu’à la maltraitance ou qu’aux abus physiques ou sexuels des enfants. Or, rappelle la chercheuse, « tous les indicateurs de la négligence sont aussi des indicateurs de pauvreté » : manque de nourriture, de vêtements, de soins de santé, habitation inadaptée? Elle pointe également la grande ambiguïté de ces programmes, à la fois juge et partie, qui ont souvent deux rôles qui devraient être distingués : l’aide aux familles et l’enquête sur les comportements. Trop souvent explique-t-elle, les familles pauvres échangent leur droit à la vie privée contre l’obtention d’aide. Pour Eubanks, on est plus là dans un profilage de la pauvreté que dans un profilage de la maltraitance : le modèle confond la parenté avec la parenté pauvre. Le système voit toujours les parents qui bénéficient d’aides publiques comme un risque pour leurs enfants. Eubanks souligne aussi l’inexistence d’un droit à l’oubli dans ces systèmes : toute information entrée dans le système est définitive, même fausse. Le système enregistre des décisions sans traces d’humanités. Pire, encore, le score de risque se renforce : quand une bénéficiaire d’aides est devenue mère, son enfant s’est vu attribuer un fort taux de risque, car sa mère avait déjà eu des interactions avec les services sociaux quand elle était elle-même enfant. La reproduction de la surveillance est bouclée.

Déconstruire la boucle de rétroaction de l’injustice

De son observation patiente, la chercheuse dresse plusieurs constats. Partout, les plus pauvres sont la cible de nouveaux outils de gestion qui ont des conséquences concrètes sur leurs vies. Les systèmes automatisés ont tendance à les décourager de réclamer les ressources dont ils ont besoin. Ces systèmes collectent des informations très personnelles sans grande garantie pour leur vie privée ou la sécurité des données, sans leur ménager les moindres contreparties (aucun SDF référencé dans le répertoire de Los Angeles par exemple n’a conscience qu’il n’est jamais ôté de cette base, même s’ils retrouvent un logement? et peut nombreux sont ceux qui ont conscience de la constellation d’organismes qui ont accès à ces informations).

Tous les systèmes caractérisent les plus démunis comme personne à risques. Tous ces systèmes rendent chacun de leur mouvement plus visible et renforcent la surveillance dont ils sont l’objet. Ils visent plus à « manager les pauvres qu’à éradiquer la pauvreté ». Enfin, ces systèmes suscitent très peu de discussion sur leurs réels impacts et leur efficacité. Or, ils font naître des « environnements aux droits faibles », où la transparence et la responsabilité politique semblent absentes.

Pourtant, rappelle-t-elle, la pauvreté n’est pas un phénomène marginal. La pauvreté en Amérique n’est pas invisible. 51 % des Américains passent une année de leur vie au moins dans une situation de pauvreté. La pauvreté n’est pas une aberration qui n’arrive qu’à une petite minorité de gens souffrants de pathologies. Si les techniques de surveillance de la pauvreté ont changé, les résultats sont les mêmes. « Les institutions de secours et leurs technologies de contrôle rationalisent un brutal retour à  une forme d’asservissement en sapant les pouvoirs des plus pauvres et en produisant de l’indifférence pour les autres ».

« Quand on parle de technologies, on évoque toujours leurs qualités. Leurs promoteurs parlent de technologies disruptives, arguant combien elles secouent les relations de pouvoirs instituées, produisant une gouvernementalité plus transparente, plus responsable, plus efficace, et intrinsèquement plus démocratique. » Mais c’est oublier combien ces outils sont intégrés dans de vieux systèmes de pouvoirs et de privilèges. Ces systèmes s’inscrivent dans une histoire. Et ni les modèles statistiques ni les algorithmes de classement ne vont renverser comme par magie la culture, la politique et les institutions.
La métaphore de l’hospice numérique qu’elle utilise permet de résister à l’effacement du contexte historique, à la neutralité, que la technologie aimerait produire. L’hospice numérique produit les mêmes conséquences que les institutions de surveillance passées : elle limite le nombre de bénéficiaires des aides, entrave leur mobilité, sépare les familles, diminue les droits politiques, transforme les pauvres en sujets d’expérience, criminalise, construit des suspects et des classifications morales, créé une distance avec les autres classes sociales, reproduit les hiérarchies racistes et ségrégationnistes? Sa seule différence avec les institutions d’antan est de ne plus produire de l’enfermement physique. Certainement parce que l’enfermement dans les institutions de surveillance a pu produire des solidarités qui ont permis de les combattre? Les outils numériques produisent non seulement de la discrimination, mais aussi de l’isolement entre ceux qui partagent pourtant les mêmes souffrances.

Les problèmes sont toujours interprétés comme relevant de la faute du demandeur, jamais de l’Etat ou du prestataire. La présomption d’infaillibilité des systèmes déplace toujours la responsabilité vers l’élément humain. Elle renforce le sentiment que ces systèmes fonctionnent et que ceux qui échouent dans ces systèmes sont ingérables ou criminels. Ces systèmes produisent une « classification morale ». Ils mesurent des comportements non pas individuels, mais relatifs : chacun est impacté par les actions de ceux avec qui ils vivent, de leurs quartiers, de leurs relations? En cela, l’impact de ces modèles est exponentiel : les prédictions et les mesures reposent sur des réseaux relationnels, qui ont un potentiel contagieux pareil à des virus. Ces modèles distinguent les pauvres parmi les pauvres. La classe moyenne ne tolérerait pas qu’on applique des outils de ce type sur elle. Ils sont déployés à l’encontre de ceux qui n’ont pas le choix.

Virginia Eubanks insiste : ces hospices numériques sont difficiles à comprendre. Les logiciels et les modèles qui les font fonctionner sont complexes et souvent secrets. D’où la nécessité d’exiger l’ouverture et le libre accès au code qui les font fonctionner. Ils sont massivement extensibles et évolutifs. Ils peuvent se répandre très rapidement. Ils sont persistants et sont très difficiles à démanteler et ce d’autant qu’ils s’intègrent et s’enchevêtrent les uns avec les autres, tout comme l’infrastructure des innombrables outils de Google, rendant toujours plus difficile pour l’utilisateur de s’en passer. ‘Une fois que vous brisez les fonctions des travailleurs sociaux en activités distinctes et interchangeables, que vous installez un algorithme de classement et un système d’information que vous intégrez dans tous vos systèmes d’information, il est quasiment impossible d’en renverser le cours (…), tout comme produire un chiffre qui prédit le risque devient impossible à ignorer ». A mesure que ces technologies se développent, « elles deviennent de plus en plus difficiles à défier, à réorienter, à déraciner ». Les hospices numériques sont éternels. Alors que les enregistrements papier, du fait de leur physicalité et des contraintes de stockage qu’ils impliquaient, pouvaient permettre à ceux qui étaient enregistrés d’accéder à un droit à l’oubli, les bases de données numériques construisent des enregistrements éternels, et d’autant plus éternels qu’elles sont interreliées. Et cet enregistrement éternel est une punition supplémentaire, qui intensifie les risques de fuites de données et de divulgation.

Le risque bien sûr est que les technologies expérimentées sur les pauvres deviennent notre lot commun, soient demain utilisées sur chacun d’entre nous. Aujourd’hui, seuls les plus pauvres sont placés sous surveillance, mais ces outils sont là pour destituer demain chacun d’entre nous, prévient la chercheuse. Nous vivons dans des sociétés qui n’ont pas l’usage des plus âgés ou des invalides. « Nous mesurons la valeur humaine seulement sur la capacité à gagner sa vie ». « Nous voyons le monde comme une rivière sanglante de compétition ». Et Eubanks de dénoncer, à la suite d’Oscar Gandy, la « discrimination rationnelle », cette façon que nous avons d’ignorer les biais qui existent déjà. « Quand les outils d’aide à la décision automatisés ne sont pas construits pour démanteler explicitement les inégalités structurelles, elles les augmentent, les précipitent, les étendent, les intensifient. »

« Les ingénieurs qui construisent ces outils attirent notre attention sur les biais qui impactent leurs systèmes. Indirectement, ils font retomber leurs responsabilités sur la société, sans voir que le racisme et le comportement de classe des élites sont « mathwashés » (blanchis par les mathématiques, comme les pratiques de Greenwashing, c’est-à-dire qui se donnent une image de responsabilité par les mathématiques – NDT), c’est-à-dire neutralisés par la mystification technologique et la magie des bases de données ». Les nouveaux outils high-tech sont vus comme de simples mises à jour administratives, sans conséquence politiques. Ils ne sont montrés que comme des solutions anodines pour améliorer l’efficacité des systèmes, alors que les transformations qu’ils proposent sont bien plus radicales. Comme le soulignait Rhema Vaithianathan, la conceptrice du système prédictif de maltraitance : « d’ici 2040, le Big data devrait avoir ratatiné le secteur public jusqu’à n’être plus reconnaissable ». Comme le confesse Eubanks : « Je trouve troublant la philosophie qui voit les êtres humains comme des boites noires inconnaissables et les machines comme transparentes. Ce me semble être un point de vue qui renonce à toute tentative d’empathie et qui verrouille toute possibilité de développement éthique. L’hypothèse qui veut que la décision humaine soit opaque et inaccessible est un aveu que nous avons abandonné la responsabilité que nous avons à nous comprendre les uns les autres. »

Le problème, souligne encore la chercheuse, est que ces systèmes se développent. Les systèmes prédictifs se déploient : dans la justice, la police, les services sociaux, scolaires? Les bases de données deviennent la matrice du fonctionnement de nos sociétés.

Eubanks souligne très bien combien les garanties sont trop souvent absentes. Elle pointe les apports des principes dont nous bénéficions, en Europe ou en France, comme l’interdiction d’interconnexion des bases de données, le droit à l’oubli, les droits à la protection de la vie privée et notamment le fait que le stockage et l’exploitation des informations doivent être limités par leur finalité ou leur pertinence. Autant de garanties qui ne sont pas si fortes de l’autre côté de l’Atlantique. Pour Virginia Eubanks, face à ces technologies de l’efficacité, il est plus que nécessaire de protéger les droits humains. D’offrir des garanties, des contreparties et des contre-pouvoirs aussi puissants que le sont ces outils. Comme le souligne son travail : nous en sommes bien loin.

Pour Virginia Eubanks, il nous faut changer le discours et le regard sur la pauvreté. Il faut rendre l’assistance publique moins punitive et plus généreuse. Il est aussi nécessaire de développer des principes de conception techniques qui minimisent les dommages. Elle propose ainsi un intéressant serment d’Hippocrate pour les data-scientists, les ingénieurs et les responsables administratifs. Et esquisse un standard éthique minimum : est-ce que l’outil que je développe augmente l’autodétermination et les capacités des pauvres ? Est-ce que cet outil serait toléré si sa cible n’était pas des personnes pauvres ?

Bien sûr les observations de Virginia Eubanks ont lieu dans un autre contexte que le nôtre. On peut se rassurer en se disant que les lacunes qu’elle pointe ne nous concernent pas, que nous avons d’autres réglementations, que notre système n’est pas aussi libéral. Certainement. A la lecture du livre, je constatais surtout pour ma part, que je ne connaissais pas les équivalents français ou européens des systèmes que décrivait Eubanks. Cela ne signifie pas pour autant qu’ils n’existent pas ou que leur automatisation n’est pas en cours.

Virginia Eubanks signe une analyse radicalement différente de celles que l’on voit d’habitude autour des nouvelles technologies. C’est bien sûr un livre politique. Tant mieux : il n’en est que plus fort. Il me rappelle pour ma part la synthèse que Didier Fassin avait fait de ses travaux autour de la police, de la justice et de la prison, dans son remarquable réquisitoire Punir, une passion contemporaine, où il montrait combien la sévérité de nos systèmes pénitentiaires, policiers et judiciaires renforçait l’injustice et les inégalités, en dénonçant combien la justification morale de la punition ne produit qu’une répression sélective.

La chercheuse américaine pointe en tout cas combien la technologie est trop souvent « un mirage », comme le souligne sa consoeur danah boyd, qui nous masque les coûts réels des systèmes, leurs impacts sur les gens. Le travail ethnographique de Virginia Eubanks rend visible la politique derrière les outils. Elle nous montre que pour comprendre les systèmes, il ne faut pas seulement se plonger dans le code, mais regarder leurs effets concrets. Aller au-delà des bases de données, pour constater ce qu’elles produisent, ce qu’elles réduisent. Comme le souligne le journaliste Brian Bergstein dans une tribune pour la Technology Review, « l’instabilité déjà causée par l’inégalité économique ne fera qu’empirer si l’Intelligence artificielle est utilisée à des fins étroites ». Nous y sommes déjà !

Hubert Guillaud

  • Bonnes Fêtes de fin d?année

Toutes les équipes de la Fing se joignent à celle d’InternetActu.net pour vous souhaiter de très bonnes Fêtes. Nous vous donnons rendez-vous en 2018. En espérant qu’elle ne sera pas aussi désespérante que le prévoit Bloomberg !

Toutes les équipes de la Fing se joignent à celle d’InternetActu.net pour vous souhaiter de très bonnes Fêtes. Nous vous donnons rendez-vous en 2018. En espérant qu’elle ne sera pas aussi désespérante que le prévoit Bloomberg !

  • L?IA destructrice : un reflet du modèle des startups ?

Ted Chiang, le brillant auteur de la nouvelle Histoire de ta vie, qui a inspiré le film Premier Contact, a fait dans un article pour Buzzfeed (et relayé par Boing Boing) d?intéressantes observations sur la crainte de la venue d’une IA superintelligente et destructrice. Une terreur partagée, rappelons-le, par bon (...)

Ted Chiang, le brillant auteur de la nouvelle Histoire de ta vie, qui a inspiré le film Premier Contact, a fait dans un article pour Buzzfeed (et relayé par Boing Boing) d?intéressantes observations sur la crainte de la venue d’une IA superintelligente et destructrice. Une terreur partagée, rappelons-le, par bon nombre des entrepreneurs de la Silicon Valley, Elon Musk en tête.

Pour illustrer ses peurs, Elon Musk donne l?exemple d’une IA dont le but est de cueillir des fraises et qui en vient à détruire la civilisation pour couvrir toute la planète de son fruit favori (variation sur l’exemple des « trombones », utilisé par Nick Bostrom).

Une hypothèse assez bizarroïde, dont la popularité, selon Chiang, tient au fait que les entrepreneurs numériques projettent dans un futur technologique le reflet de leur propre comportement. Ils ont, dit-il, « créé inconsciemment un démon à leur image, un croquemitaine dont les excès sont précisément les leurs. »

« J’avais l’habitude de trouver bizarre que ces IA hypothétiques soient censées être assez intelligentes pour résoudre des problèmes auxquels aucun humain ne pouvait trouver de solutions, mais se révélaient incapables de faire quelque chose que tout adulte est en mesure d’effectuer : prendre du recul et se demander si leur action actuelle est vraiment une bonne idée. Puis j’ai réalisé que nous sommes déjà entourés de machines qui démontrent un tel manque total de perspicacité, nous les appelons simplement des corporations. (…)

Réfléchissez-y : qui poursuit ses objectifs avec une concentration monomaniaque, inconsciente de la possibilité de conséquences négatives ? Qui adopte une politique de la terre brûlée pour augmenter sa part de marché ? Cette IA hypothétique cueilleuse de fraises ne fait que ce que chaque start-up technologique souhaite réaliser – croître à un rythme exponentiel et détruire ses concurrents jusqu’à obtenir un monopole absolu (…).

Des observateurs de cette industrie parlent de la nécessité pour les IA d’avoir un sens de l’éthique, et certains ont proposé que nous veillions à ce que les IA superintelligentes que nous créerons soient «amicales», ce qui signifie que leurs objectifs devront être alignés avec les objectifs humains. Je trouve ces suggestions ironiques étant donné que nous, en tant que société, n’avons pas réussi à enseigner aux entreprises le sens de l’éthique, que nous n’avons rien fait pour nous assurer que les objectifs de Facebook et d’Amazon étaient alignés sur le bien public. Mais je ne devrais pas être surpris. La question de savoir comment créer une IA amicale est simplement plus amusante à considérer que le problème de la réglementation de l’industrie, tout comme imaginer ce que vous feriez pendant une apocalypse zombie est plus amusant que de penser à la bonne manière de lutter contre le réchauffement climatique.

Et, citant le critique marxiste Fredric Jameson, Ted Chiang de noter qu’il « est bien plus facile d’envisager la fin du monde que celle du capitalisme… »

  • Décoder, recoder, programmer, déprogrammer

A l?occasion de ses 10 ans, la Haute école d?art et de design de Genève organisait un étrange colloque convoquant designers, artistes, philosophes, théoriciens, cinéastes? pour tracer des « histoires d?un futur proche ». Une prospective aux frontières de la création et de la science. Parfois ébouriffante, parfois déconcertante. Retour (...)

A l?occasion de ses 10 ans, la Haute école d?art et de design de Genève organisait un étrange colloque convoquant designers, artistes, philosophes, théoriciens, cinéastes? pour tracer des « histoires d?un futur proche ». Une prospective aux frontières de la création et de la science. Parfois ébouriffante, parfois déconcertante. Retour sur une sélection de ces? narrations d?un futur qui est déjà là.

Métagénomique

On ne devrait plus avoir à présenter Kevin Slavin (@slavin_fpo). Slavin est le responsable scientifique de The Shed, un centre d’art new-yorkais. Il est le responsable et le fondateur du programme Playful System du Media Lab du MIT. Il est le cofondateur de Everybody at Once, une entreprise spécialisée dans le développement d’audience et les stratégies média et de l’entreprise Collective Decision Engines. Mais aucun de ces postes ne le définit vraiment. C’est un touche-à-tout iconoclaste qui a étudié la sculpture, paraît-il? Il en est bien loin. Il avait donné à Lift, en 2011, l’une des plus stimulantes conférences d’un événement qui en a produit beaucoup. Et sa présentation à la Head n’était pas sans écho à celle qu’il donna à Lift. L’obsession de Slavin reste visiblement de comprendre le pouls de nos villes, c’est-à-dire la manière dont nous y vivons et dont elles réagissent et nous montrent que nous y vivons.

Pourtant, il présente son obsession différemment. « Ce qui me fascine le plus, c’est la nécessité étrange de comprendre ce qui est, en fait, réel », entame-t-il en citant le journaliste Philip Gourevitch. Et pour comprendre le réel, il faut parfois se déplacer loin de lui pour mieux y revenir.

Slavin attaque sa présentation par des images de Ballast Garden (vidéo), une installation de Maria Thereza Alves, créée à Bristol, qui fut l’un des grands ports britanniques, notamment pour le commerce triangulaire, celui des esclaves. À l’époque, pour équilibrer les bateaux, on chargeait leurs fonds de cales de terre et de cailloux, le ballast… Naviguaient ainsi, avec les marchandises et les hommes, des terres et des graines, que l’on retrouve notamment dans les épaves. Les semences contenues dans les ballasts ont participé à disséminer des plantes allogènes partout sur la planète. À Bristol, Alves a créé un jardin de plantes provenant d’Amérique, d’Afrique et d’Europe continentale qui sont devenues des plantes du paysage anglais. Une manière de souligner l’histoire de la flore, et ses liens intimes avec la colonisation et  l’histoire économique et sociale du port. Une manière d’interroger la colonisation et les migrations en en montrant d’autres aspects. Alors qu’aucun capitaine n’avait conscience de cette vie de fond de cale qu’ils ont disséminés aux quatre coins du monde.


Image : Kevin Slavin sur la scène de la conférence de la Head, photographié par Nicolas Nova.

De la même manière, nous ne sommes pas conscients de la vie que nous portons en nous, à l’image de la vie bactérienne présente dans notre microbiome. Or, 50 % à 90 % de notre matériel bactériologique ne nous appartient pas, n’est pas humain? Or, il influe sur nos comportements, nos sensations. Les recherches scientifiques soupçonnent de plus en plus que cette flore bactérienne jouerait un rôle important dans le développement d’une grande variété de maladies, rapportait le New York Times. Si le séquençage ADN par exemple, nous permet de comprendre de mieux en mieux notre matériel génétique (et ce alors que son coût le rend de plus en plus accessible), nous avons encore des efforts à faire pour analyser « le jardin de notre microbiome ».

Pour Kevin Slavin, il nous faut nous intéresser à une métagénomique, pour comprendre la soupe bactérienne dont nous sommes faits. Nous avons non seulement besoin de créer un catalogue génétique de la planète, mais aussi de le comprendre. S’inspirant du travail des designers Timo Arnall et Jack Schulze cherchant à rendre visible les ondes radio qui nous entourent (voir notamment les vidéos de Timo Arnall), Slavin et ses équipes ont cherché à rendre visible le monde vivant invisible qui nous entoure.

Il évoque ainsi le travail du Laboratoire de Christopher Mason au Collège de Médecine de Weill Cornell (@mason_lab), spécialiste de la génomique fonctionnelle intégrative, et notamment de leur projet PathoMap, un travail de profilage moléculaire sur les 486 stations de métro de New York pour cartographier le microbiome et le métagénome à la surface des villes et créer une carte météorologique de surveillance des agents pathogènes bactériologiques de la ville, ceux avec lesquels chacun des New-Yorkais est en contact. Les chercheurs ont ainsi montré qu’il y avait des différences bactériennes entre l’Est et l’Ouest de Manhattan (voir la cartographie dynamique). Dans un article du New York Times, on apprend notamment que près de la moitié de l’ADN trouvé en surface des métros de New York ne correspondait à aucun organisme connu. Si le Bronx était l’arrondissement où il y avait la plus grande diversité d’espèces microbiennes, les organismes trouvés reflétaient le profil démographique et ethnique des quartiers. Des bactéries résistantes aux antibiotiques ont été trouvées dans 27 % des échantillons prélevés. Ils ont même trouvé des traces de peste et d’anthrax, sans qu’ils présentent de danger pour la santé. Dans une station de métro, innondée il y a plusieurs années, les chercheurs ont trouvé des bactéries provenant des eaux polaires. Signalons que le travail entamé par le laboratoire du professeur Mason a donné naissance à un projet global, MetaSub, visant à développer des recherches du même type dans les métros d’autres grandes métropoles de la planète.

Kevin Slavin évoque un autre projet développé par l’ALM Lab du MIT en coopération avec le Centre pour le microbiome du MIT et Openbiome et le laboratoire Senseable City du MIT  : Underworlds, qui s’est intéressé à l’analyse bactérienne des eaux usées en provenance des égouts de New York, pour en analyser les virus, les bactéries et les produits chimiques présents. L’idée est de proposer une plateforme pour faire de l’épidémiologie urbaine en temps réel par l’analyse des eaux usées via prélèvements et capteurs, afin d’analyser et surveiller la propagation des maladies infectieuses par exemple.

Autre projet encore, celui mené par Jessica Green (@jessicaleegreen), cofondatrice de l’entreprise Phylagen et du Centre de la biologie et des environnements construits de l’université de l’Oregon, qui s’est intéressée à la biologie des environnements fermés dans lesquels nous passons nos vies et notamment aux systèmes de ventilation et d’aération des environnements de travail. Leurs recherches visent à comprendre comment les environnements bâtis (matériaux utilisés, exposition lumineuse, sources d’air?) façonnent la composition de la diversité microbienne, soulignant que plus les environnements sont stériles et mécanisés, plus ils ont tendance à être pathogènes (sur le même sujet, plusieurs autres programmes existent, comme MicroBE.net, ainsi que les programmes complémentaires dédiés à l’étude des microbiomes domestiques et des microbiomes en milieu hospitalier) .

Reste que ces travaux sont difficiles, constate Kevin Slavin, notamment parce que nous sommes loin de disposer d’une cartographie biologique complète de la vie? La difficulté d’implémenter et de disposer de capteurs pertinents était également une autre difficulté. Et puis, Kevin Slavin a eut une idée en lisant dans la presse une histoire incroyable d’abeilles à Brooklyn qui faisaient plusieurs kilomètres pour se nourrir du sucre d’une usine de bonbons colorés, qui masquait en fait une culture… de marijuana.

Le miel produit par les abeilles est effectivement un très bon capteur de leur environnement. D’où l’idée d’utiliser les déchets des ruches comme capteur bactériologique. À l’occasion de la biennale d’architecture de Venise, il a mis au point une ruche métagénomique permettant de récolter les « débris d’abeilles », ces « citoyens scientifiques » de nos villes. Des plateaux stériles disposés en dessous des ruches permettent de récolter les rejets des abeilles qui peuvent être régulièrement analysés. Des ruches de ce type ont été disposées à New York, Sydney, Venise, Tokyo? comme l’expliquait Business Insider ou Wired. Et les données récoltées ont été utilisés pour construire des visualisations de données particulièrement originales.

« Les designers doivent créer la conscience du monde qui nous entoure », conclut Kevin Slavin. Ils doivent permettre de communiquer l’invisible à l’échelle du visible. « Les villes ont besoin de capitaines qui soient moins aveugles que ceux du commerce triangulaire pour mener à bons ports leurs équipages ». Stimulant programme !

Construire, déconstruire, reconstruire

Michael Hansmeyer est architecte et programmeur. Il utilise des algorithmes pour explorer les limites de l’impression 3D et imaginer de nouvelles formes architecturales, qu’il était jusqu’à présent impossible à bâtir. Il a exposé récemment, dans le cadre de l’exposition Imprimer le monde au Centre Pompidou, sa grotte numérique (vidéo). Depuis ses premiers travaux exploratoires, visant à revisiter l’archétype des colonnes par l’algorithmique, il invente des formes mutantes que l’homme ne pourrait dessiner ni construire. Des oeuvres étonnantes, dans lesquelles les spectateurs cherchent un principe ordonné impossible à trouver. Sa caverne imagine un espace habitable inédit, qui cherche à faire écho aux premiers habitats humains. Les oeuvres de l’architecte-programmeur cherchent à mettre en oeuvre une nouvelle complexité, en redéfinissant l’utilisation et la place de l’ordinateur dans le design. Plutôt que de contraindre le créateur, comme le font les programmes de conception assistée par ordinateur (CAO) qu’utilisent les architectes, l’ordinateur doit inspirer et libérer la création. Un travail qui fait écho à la critique qu’explore très bien Nicholas Carr dans Remplacer l’humain, qui consacre plusieurs pages à montrer que si la CAO a accéléré et simplifié la création architecturale, c’est uniquement en privilégiant une approche fonctionnelle au détriment de la créativité elle-même. Michael Hansmeyer en prend justement le contre-pied, en montrant qu’il faut se perdre dans l’ordinateur pour retrouver l’imprévu.


Image : la grotte de Michael Hansmeyer.

Mais le monde est-il si assimilable que cela ? Est-il réductible à ce qu’on peut en comprendre, en coder et en décoder ? L’une des plus émouvantes présentations de ces deux jours, était une vidéo d’un jeune réalisateur américano-thaïlandais, Korakrit Arunanondchai, « Painting with history in a room filled with people with funny names 4 », indisponible en ligne? un voyage énigmatique, onirique et envoûtant autour de sa grand-mère atteinte d’une maladie dégénérative. Inclassable et magique. Un voyage pour nous rappeler que le monde à nouveau, ne se réduit pas à ce qu’on en entend, mais peut-être plus à ce qu’on en ressent.

Décoder, recoder les images

Lauren Huret est une artiste et plasticienne suisse qui interroge les images que notre monde produit.

Ring est un film d’horreur japonais. C’est l’histoire d’une cassette VHS qui, si vous la visionnez, vous jette un sort : qui est de mourir dans les 7 jours. Le seul moyen d’échapper à sa malédiction consiste à faire passer la cassette à quelqu’un autre pour qu’il meure à votre place. Lauren Huret voit dans ce film, dont elle projette une scène au ralenti derrière elle, une métaphore des médias et de la manipulation des images. Le moment clef du film, où une jeune femme fantomatique rampe dans une forêt vers l’écran d’une télévision avant de passer au travers pour tuer le spectateur lui a longtemps été insoutenable, comme un révélateur direct de ce que nous font les médias : tuer les spectateurs. La télévision a toujours été pour elle un objet douteux, qui concentre les intentions cachées de ses créateurs. Ringo lui semblait l’allégorie négative et effrayante de ce que nous font les images, sans que nous spectateurs n’en connaissent le contre-sort. Or, les images nous modifient. Comme le souligne l’iconoclaste Pacôme Thiellement : « Plus nous regardons des images et plus notre âme pourrit ». Reste que pour Lauren Huret, le contre-sort a été de créer d’autres images.

Nous connaissons tous des images qui sont entrées en nous sans qu’on puisse s’en défaire. Des images maudites qui s’impriment dans notre esprit pour modifier notre perception et notre réalité et qu’on ne voudrait ne jamais avoir vues. Longtemps pourtant, la malédiction est restée orale, le sort qu’on jetait aux autres relevait d’un anathème qu’on professait par la seule parole. Désormais, les malédictions sont portées par des images qui restent gravées en nous à jamais. Le plus souvent ce sont des images de violence à l?encontre d?autres corps que les nôtres, comme le célèbre cliché de Nick Ut pris pendant la guerre du Vietnam d’une jeune fille brulée au napalm courant nue sur une route. En septembre 2016, cette célèbre photo a refait l’actualité suite à la polémique de sa censure par Facebook. Mais qui a enlevé cette image ?, interroge Lauren Hulet. Le logiciel de reconnaissance d’image de Facebook n’y a vu qu’une jeune fille nue plutôt qu’une atrocité historique. Pour l’historienne de l’art, Caroline van Eck, la technologie est fascinante, car elle amplifie une efficacité magique. Dans le cadre de la censure algorithmique de Facebook, la magie et la technologie semblent effectivement indissociables, car leur fonctionnement nous demeure incompréhensible, comme si des esprits vivaient derrière nos écrans.

À l’occasion d’une exposition pour le bicentenaire de Frankenstein à Genève, Lauren Hulet a produit un travail sur l’intelligence artificielle, qui semble elle-même un assemblage de multiples techniques, dont la définition varie d’un spécialiste à un autre. Comme Frankenstein est un collage de corps morts qui pose la question de l’identité de la créature produite, sa proposition a consisté à utiliser et détourner les images de Kylie Jenner sur Instagram pour questionner l’identité de la star qui s’y affiche. En quoi l’image toujours modifiée de la star, recouverte de filtres miraculeux, produit-elle une identité ? Pour elle, les logiciels produisent des images discordantes de la réalité. Les filtres de reconnaissance faciale semblent à la recherche de spectres de nous-mêmes en tentant de nous faire croire qu’ils ont un sens de la reconnaissance des visages plus développé que nous. Pour son prochain projet, elle souhaiterait rencontrer des modérateurs d’images, ces yeux qui regardent et nettoient pour nous les tréfonds du net, qui « pourrissent leurs âmes pour nous ». Ces personnes qui en Inde ou aux Philippines ont censuré l’image de Nick Ut qu’ils ne connaissaient pas.

« Chaque ingrédient que nous jetons sur le net est envisagé par quelqu?un, scruté et observé. Il nous faut regarder nos ordinateurs et nos téléphones avec un filtre halluciné, pour en révéler leurs intentions. »

Déconstruire les villes pour mieux les reconstruire

Le designer et urbaniste Dan Hill (@cityofsound), responsable du studio New Urban Narratives chez Arup, ne nous est pas inconnu. Nous avons souvent évoqué ses propos (voir notamment « La rue comme plateforme » ; « L’information ouverte appliquée aux transports » ; « Les futurs des infrastructures » ; « Villes : de la connexion à l’intermodalité »…).

« La technologie est souvent la réponse la question. Mais quelle était la question ? », attaque Dan Hill en reprenant la formule de que l’architecte Cedric Price tint dans une conférence en 1966, invitant son audience à reconsidérer l’impact du progrès technologique sur l’architecture. Pour les enfants par exemple, la technologie est une chose qui n’existe pas. Or, comme le disait très récemment le journaliste John Lanchester, « la technologie c’est avant tout des choses qui ne fonctionnent pas encore ». Il évoquait notamment les limites des interfaces vocales qui ne sont capables de faire que ce pour quoi elles sont programmées? Il faut être habitué aux dysfonctionnements de la technologie pour comprendre pourquoi elles ne fonctionnent pas et connaître les trucs et astuces qui les font fonctionner. Le problème quand on demande à Alexa d’augmenter le volume par exemple, est qu’il faut le demander avec un langage d’ordinateur : et donc lui demander de mettre le volume sur 3 ou 7, sur une échelle qui n’est pas vraiment indiquée par l’interface de l’appareil. Autre problème c’est que si vous demandez à l’appareil de mettre le son à fond (sur 10), vous ne pouvez plus lui demander de le baisser, car l’appareil ne vous entend plus ! L’autre problème souligne encore Dan Hill, c’est que le terme technologie désigne à la fois internet, un toaster ou mes lunettes ! Ce qui montre bien pour lui qu’on n’a pas encore concrètement cerné ce que c’est et ce que ce n’est pas.

Dan Hill photographié par Michael Giesbrecht pour la HeadDans les villes, les technologies optimisent, substituent et engagent. On est capable par exemple de construire des navettes autonomes capables d’éliminer les véhicules privés, qui pourraient nous permettre d’envisager un avenir avec une mobilité plus intelligente et moins polluante? Mais c’est oublier que la technologie aussi distrait, exploite et extrait, comme le font Uber ou Airbnb dans la ville, qui extraient plus de richesses des lieux qu’ils exploitent qu’ils n’en apportent.

Du fait de la démultiplication de la technologie, on n’arrive plus à faire de la planification. Dans la volatilité, l’incertitude, la complexité et l’ambiguïté du monde où nous vivons, nous ne savons plus prédire ce qui va arriver, comme le constatait dès les années 90, l’armée américaine. La planification urbaine, pourtant si indispensable, n’arrive pas à s’adapter à cette nouvelle donne, estime Hill, en montrant comment le gouvernement britannique se trompait en estimant le déploiement des panneaux solaires dans le pays, qui a été bien plus rapide et massif qu’attendu, sous-estimant dramatiquement la capacité et la volonté des Britanniques à vivre d’une manière plus soutenable. L’enjeu, désormais, consiste plus à savoir s’adapter qu’autre chose. Comme le dit l’économiste Michael Spence, « en vérité, il est difficile de dire ce que sera le monde dans 10 ans. Le plus important est de rendre la transition la moins douloureuse et la plus efficace possible plutôt que de chercher à prévoir ce que sera le résultat ». L’enjeu n’est donc plus de faire de la planification, qui peine à s’adapter. Mais d’accompagner les transformations.

La planification urbaine a toujours été aérienne, top-down, peu adaptée à l’évolution? souligne l’urbaniste en évoquant Le Corbusier. La planification urbaine voyait la ville comme manipulable, coordonnable. L’enjeu et la réalité ne sont pourtant pas celle-là. La question est plutôt comment créer des infrastructures agiles qui s’adaptent à l’imprévu, à ce que l’on ne connait pas encore ? Comment créer du codéveloppement, de la co-conception, de la copropriété des infrastructures publiques, du bien public qui constituent les villes ?

Pas si simple, souligne l’architecte, en montrant la navette autonome EasyMile, testée à de nombreux endroits dans le monde. Dans certaines villes, une flotte de ce type de véhicule pourrait remplacer 80 % des déplacements que l’on accomplit aujourd’hui en voiture privée. Si ces réponses semblent pertinentes d’un point de vue écologique et économique, reste que pour l’instant ces navettes sont très lentes et s’adaptent assez peu au contexte complexe de la ville (elles roulent le plus souvent dans des voies ou sur des zones protégées comme des zones aéroportuaires ou des campus). Sans compter que leur adoption massive nécessiterait de trouver les modalités d’un profond changement culturel par rapport à nos usages massivement privés.

L’architecte et urbaniste Nicolas de Monchaux, l’auteur de Local code a montré dans son livre que la mise à jour des canaux inondables de San Francisco qui devrait coûter quelque 1,5 milliard de dollars pourrait être remplacée pour moins de la moitié de ce prix par l’utilisation de quel que 1500 micro-parcelles abandonnées, pour des effets à 90 % similaires, avec d’autres bénéfices comme la participation citoyenne et le développement de la végétation et de l’ombre sur ces parcelles disséminées dans toute la ville dont les habitants pourraient tirer partie et plaisir (voir les explications détaillées de Berkeley News et le travail de Nicolas Monchaux sur le repérage de friches urbaines). « Mais comment les villes peuvent-elles apprendre à faire cela ? 1500 petites choses plutôt qu’une seule grosse chose ? Depuis trop longtemps les villes ont pris l’habitude des solutions centralisées, des « Big Cheque Solution », plutôt que de distribuer des petits bouts de solutions », déplore l’urbaniste.

La même chose se déroule avec l’énergie. Désormais, on peut développer des microgrilles, avec des panneaux solaires sur les toits, des batteries dans les caves, sous forme de minicentrales locales coopératives, communautaires et indépendantes (comme le propose le pionnier Brooklyn Microgrid développé par LO3Energy). La même chose se développe dans l’habitat aujourd’hui, avec le développement de l’habitat coopératif qui représente 15 % des constructions annuelles à Berlin (soit environ 5000 unités par an), 30 % à Zurich? Un modèle d’autant plus intéressant que les constructions sont plus écologiques, les habitants plus divers et les loyers moins chers que les solutions traditionnelles.

Toutes ces nouvelles modalités nécessitent d’adapter les processus de l’urbanistique. Dan Hill en tire quelques règles. Ne pas planifier à l’ancienne, mais garder une boussole en tête et avoir une vision par étapes. « C’est comme d’être sur un petit bateau qui va vers le Pôle Nord, vous n’avez pas besoin de connaître ou de suivre exactement la route. Vous avez besoin d’une boussole qui vous indique le Nord et de vérifier votre boussole régulièrement. »

Avant on dessinait les villes du futur. Mais qui serait capable de dessiner Genève en 2050 ? Choisir une orientation permet de mieux s’y adapter au fur à mesure. Toutes les infrastructures de la ville n’ont pas le même rythme, la même durée de vie ou la même adaptabilité. Tous les quartiers n’évoluent pas de la même manière selon leurs spécificités. Certains peuvent être plus réactifs que d’autres. Sans compter que les rythmes des infrastructures changent également : les infrastructures énergétiques par exemple étaient des structures lentes et lourdes à déployer, à l’heure des microgrilles, ce n’est plus toujours le cas. Il faut donc prévoir que les choses peuvent être produites différemment (localement plutôt que globalement), peuvent rapporter différemment, peuvent s’approprier autrement.

Dan Hill donne un autre exemple de l’adaptabilité nouvelle des villes, en évoquant bien sûr Uber, qui dicte désormais la politique des villes. Mais à nouveau à qui appartiennent les voitures ? Où va la valeur ? Qui décide ? Où se fait la politique ? 25 % du prix de la course qu’on paye à un chauffeur Uber s’en va vers la Californie. Et demain avec les voitures autonomes d’Uber, tout l’argent partira vers la Californie. La multiplication des voitures avec chauffeur plus que de réduire le trafic, le ralentit. Uber optimise le trafic, mais c’est l’exact inverse de ce que cherchent à faire les villes, qui est plutôt de le réduire. Oslo, Barcelone, Paris? la plupart des villes travaillent à chasser les voitures de leurs centres-ville, et Uber les y ramène. La mobilité de demain n’est pas celle-ci, insiste Dan Hill, en citant Jean-Louis Missika, adjoint au maire de Paris qui estime que l’avenir est à la mobilité sous forme de services et souhaite la fin des véhicules privés à Paris d’ici 2020. S’il y a encore un long chemin à parcourir entre les paroles et les régulations effectives, reste que ce sont les politiques qui montrent comment ils souhaitent que la ville fonctionne à l’avenir, pas Uber ni Tesla.

Le problème, souligne Hill, c’est que nous n’avons plus les bonnes personnes aux bons endroits pour développer et mettre en place ces décisions. Aujourd’hui, seulement 0,7 % des architectes sont employés dans le secteur public au Royaume-Uni, alors qu’ils étaient 50 % dans les années 70. La ville de Londres comptait 1577 architectes et urbanistes dans les années 50, alors qu’elle n’en a plus aucun aujourd’hui. Le gouvernement britannique ne dispose d’aucun designer stratégique. Pour Dan Hill, cette absence de personnel gouvernemental rend bien des choses plus difficiles à réaliser. Cependant, le gouvernement britannique dispose en 2017 de quelque 800 designers numériques, alors qu’il n’en employait aucun en 2000. Ils ne font ni planification ni conception urbaine ou stratégique, mais construisent des services numériques sur lesquels s’appuyer, notamment pour faire de la concertation ou rendre les choses plus agiles ou adaptables.

Les concepteurs urbains développent de plus en plus de projets coopératifs, conçus avec ceux qui vont les habiter, explique Dan Hill en montrant plusieurs projets à travers le monde, de Berlin au Japon (des projets qu’il évoquait dans son remarquable essai sur la « ville sociale et démocratique »). Des espaces que les habitants ont dessinés, discutés, aménagés, décidés par eux-mêmes, ce qui était impossible avec les promoteurs privés. Et cela change l’architecture et l’habitat bien plus qu’on ne le pense. À Zurich, le projet « Plus que l’habitat » rassemble 50 coopératives, a construit 13 immeubles, soit 400 appartements et 35 magasins, sans aides publiques, avec des loyers 20 à 30 % moins chers que ceux du marché, quasiment sans voiture, et qui génère 45 % de son énergie sur site?

Ces projets montrent qu’on peut imaginer l’habitat sans promoteurs, la mobilité sans Uber, l’énergie sans fournisseurs? L’important finalement n’est pas la technologie, mais le fait que ces solutions reposent sur la participation, la coopération, le codéveloppement? et l’engagement local. On peut concevoir des choses localement. À Londres, Citymapper a annoncé le lancement d’un bus à la demande. À Sheffield, Dan Hill travaille sur le nouveau centre-ville en impliquant les habitants, en s’intéressant plus aux gens, aux activités, qu’aux immeubles. À Londres quand on projette de faire quelque chose dans la rue, comme de déplacer ou créer un arrêt de bus, il faut faire une annonce localement, qui se concrétise par un bout de papier plastifié qu’on accroche au mur ou à un poteau. Il y en a partout dans Londres, la plupart sont ignorées, abandonnées. C’est une belle métaphore de la planification urbaine qui ne marche plus. Comme si au 21e siècle nous n’étions pas capables de faire mieux que cela, s’énerve avec raison le designer.

À Helsinki, avec Ericsson, Arup a développé un outil de planification augmenté permettant aux habitants de voir sur leurs téléphones ce que va donner ce qui va être réalisé, in situ, voir son impact local, voir même de le modifier. À partir de cela, il est plus facile de s’intéresser, de faire venir les gens à une réunion pour en discuter. La réponse numérique seule n’est jamais suffisante. Elle est un levier. Il faut des discussions, des débats dans les pubs, des arguments et du thé, du papier et des crayons. A Johannesburg, Ericsson a utilisé le même dispositif, mais avec Minecraft (vidéo) pour montrer aux gens ce que les aménagements allaient donner en les aidant pour qu’ils puissent faire eux-mêmes d’autres propositions à la volée?


Image : la ville interminable sur les murs de l’Ecole Bartlett d’architecture de Londres…

Dan Hill termine sa présentation par un dernier projet réalisé en 2016 avec tous les étudiants de l’École Bartlett d’architecture de Londres. L’idée était de produire collaborativement, à 80, une « ville interminable », en assemblant toute une gamme de composants modulaires un à un. Sans ordinateurs, juste avec des modules photocopiés. Chacun contribuait à mesure que l’ensemble évoluait. Cette carte géante d’une ville capable d’accueillir quelque 12 000 habitants a été une énorme machine à discussion, sur les infrastructures, leurs enchevêtrements? Si le dessin comme chez Le Corbusier se fait depuis le haut, ici, le rôle du designer change. Cette création collective repose sur les discussions et les processus de décision qui l’ont façonné. Pour Dan Hill, la vraie infrastructure des villes n’est ni marchande, ni publique, ni politique, ni culturelle? L’infrastructure des villes repose sur la convivialité qu’elles génèrent. Pour cela, il est plus que jamais nécessaire d’avoir des citoyens et une gouvernance active, d’avoir une approche par la participation d’abord. C’est seulement en menant un dialogue sur l’urbanisme que nous construirons des villes diverses et uniques, plutôt que semblables et uniformes. Il faut sortir les villes des outils de la planification du XIXe siècle. On ne fera pas face aux défis qui nous attendent comme le réchauffement climatique et la pollution avec des outils qui ne sont pas adaptés.

Hubert Guillaud

  • De l?impossible habitabilité de l?anthropocène

A l?occasion de ses 10 ans, la Haute école d?art et de design de Genève organisait un étrange colloque convoquant designers, artistes, philosophes, théoriciens, cinéastes? pour tracer des « histoires d?un futur proche ». Une prospective aux frontières de la création et de la science. Parfois ébouriffante, parfois déconcertante. Retour (...)

A l?occasion de ses 10 ans, la Haute école d?art et de design de Genève organisait un étrange colloque convoquant designers, artistes, philosophes, théoriciens, cinéastes? pour tracer des « histoires d?un futur proche ». Une prospective aux frontières de la création et de la science. Parfois ébouriffante, parfois déconcertante. Retour sur une sélection de ces? narrations d?un futur qui est déjà là.

Plongés dans la confusion du temps de la métamorphose…

Le philosophe Baptiste Morizot est notamment l’auteur des Diplomates, cohabiter avec les loups sur une nouvelle carte du vivant, un essai surprenant aux frontières de l’écologie, de la philosophie et de l’anthropologie, qui interroge notre capacité à coexister avec la biodiversité en inventant de nouvelles formes d’échanges.

« Mon travail vise à répondre à un sentiment de confusion, de désorientation, d’égarement à l’égard de la conjoncture qui est à la nôtre. Lorsqu’on s’intéresse à l’écologie, on entend partout, on n’entend que… la crise systémique environnementale dans laquelle nous sommes entrés qui mène au réchauffement climatique, à la pollution globale et à la perte de la biodiversité. » Si nous sommes autant abasourdis par ce phénomène, c’est non seulement par son ampleur, son impact, ses enjeux? mais aussi pour le philosophe, parce qu’on n’a pas de concepts pour rendre compte de cette confusion. D’où l’enjeu de parvenir à mieux qualifier la nature de cette confusion.

La tradition philosophique occidentale n’a jamais été très à l’aise avec l’incertitude et l’instabilité. D’où, pour le philosophe, le besoin de déporter le regard, de chercher ailleurs les moyens de s’interroger autrement. C’est ce qui l’a conduit à s’intéresser à l’anthropologie, notamment via les travaux de Nastassja Martin, spécialiste du monde animiste du Grand Nord, qui a soutenu une thèse sur les Gwich’in, un peuple de chasseurs-cueilleurs du Grand Nord, entre l’Alaska et le Canada (voir son livre, Les âmes sauvages). L’un des objets d’étude de Baptiste Morizot s’est porté sur le Coywolf (ou Coyloup, espèce hybride résultant du croisement de coyotes et de loups). Cet animal nouvellement documenté a la particularité d’être un hybride fécond naturel, au contraire du mulet, au croisement de l’âne et de la jument, qui n’est pas fertile et qui est le résultat de l’action humaine. Cette espèce hybride a autant désorienté les biologistes que les Amérindiens. Pourtant, dans la cosmogonie animiste, la conception du monde naturel, de la forêt du Grand Nord, n’a rien à voir avec la nôtre. Pour les Gwich’in, la forêt est un espace socialisé de part en part. Ils entretiennent des relations avec tous les êtres de la forêt et ces relations (avec les ours, les loups, les rennes?) sont sociales, basées sur des comportements des uns par rapport aux autres. Pourtant, il reste des zones, des lieux, des êtres qui n?ont pas de statuts stabilisés, avec qui les Gwich’in n?ont pas stabilisé de relations sociales. A l’image des hommes de bois, des ombres de la forêt à qui on a attribue par exemple les coups de fusil qui ne sont pas partis… Qu’ils soient vivants, morts ou ombres? ces êtres sans statuts relationnels sont considérés comme des « êtres de la métamorphose ». Or, pour les Gwich’in, les « êtres de la métamorphose » ne sont pas que des créatures magiques ou invisibles. Pour eux, les Coywolf sont également des êtres de la métamorphose. Or, le développement de cette espèce semble directement lié à l’action de l’homme (notamment à la déforestation). Ce n’est pas la seule espèce hybride qui fait mentir la biologie : le Pizzly, hybridation entre l’ours blanc et le grizzli n’a été observée pour l’instant qu’en captivité. En fait, la nouvelle biologie montre que les hybrides sont plus nombreux qu’on le pense.

Nous sommes nous-mêmes des hybrides de Sapiens et de Néandertaliens notamment. En microbiologie, nous sommes des symbiotes, nous cohabitons avec des millions de bactéries. « Si on cesse d’opposer science occidentale et pensée animiste, et qu’on les mets côte à côte, nous sommes pris d’une confusion partagée. Les Gwich’in ne sont-ils pas mieux armés que nous, conceptuellement, pour dire la nature à l’époque dans laquelle nous sommes ? » En entrant en dialogue avec cette anthropologie, on peut se poser la question de savoir si les êtres vivants avec qui on est en commerce dans ce contexte de métamorphose environnemental, sont peut-être aussi en métamorphoses ? « Car dans le monde animiste, il y a un mot pour dire que les être de la métamorphose deviennent la norme, prolifèrent, il y a un terme pour dire que l’on ne sait plus prédire le climat ou le comportement de la rivière? On appelle ça le temps mythique. C?est un temps particulier. Une forme du temps dont la spécificité était d’être à l?origine du monde et qui à la fois continu à exister. C’est un temps des origines qui subsiste et continue à travailler le présent pour nous inviter à stabiliser le futur. »

« Dans le temps du monde, on sait avec qui on entre en relation : on connait le comportement du loup, de la rivière, du caribou…, on sait comment entrer dans une relation soutenable avec eux. Dans le temps du mythe, les êtres et relations sont instables, métamorphiques, en train de se faire. Dans le temps du mythe, humains et animaux ne sont pas toujours distingués, les genres ne sont pas circonscrits. L?histoire des mythes, c?est l?histoire de personnages, de chamans, de héros? qui nouent des pactes avec les êtres de la métamorphose pour stabiliser des relations viables avec eux. Le temps du monde hérite de cette stabilité, permet de cohabiter de manière décente, honorable, soutenable, avec ceux avec qui nous partageons la terre. »

« Est-ce que ça sert à quelque chose de comprendre notre temps comme un retour du temps du mythe ? », interroge le philosophe. Le temps du mythe, c?est le moment où les êtres de la métamorphose prolifèrent. Or, l?état des lieux de l?anthropocène nous présente un monde où ce que l’on doit réviser ce qu’on pensait de la terre. L’environnementaliste James Lovelock nous a montré qu?on n?avait rien compris. Que la terre, Gaïa, a le contrôle de ses propres variables. Qu’elle est aussi un être de la métamorphose. Le syndrome de la disparition des abeilles, souligne qu’on ne sait pas exactement pourquoi les abeilles disparaissent, pourquoi leurs comportements nous échappent. Or, les abeilles sont les principaux pollinisateurs du maraîchage, des plantes à fleurs sauvages?

Et Baptiste Morizot de nous inviter à observer l’histoire de notre futur proche sous l’angle du retour du temps du mythe. Pour lui, cela nous permet de comprendre pourquoi la crise actuelle produit des effets de confusion. Notre confusion n’est pas seulement liée au fait qu’on n’ait pas accompli ce qu’on devait faire, ou le résultat du capitalisme? elle est liée à la prolifération des êtres de la métamorphose. Nous sommes aujourd’hui surpris de découvrir que les animaux ou la nature sont plus riches de compétences qu’on croyait. Les arbres ne sont pas que de la matière, comme l’a souligné Peter Wohlleben dans son bestseller La vie secrète des arbres. D’un coup, les statuts dans lesquels nous avions classé éclatent et exigent que nous inventions de nouvelles relations.

Pour inventer de nouvelles relations, nous allons devoir aller chercher des récits, des mythes, des métaphores? conclut Baptiste Morizot. Nous allons devoir inventer des formes, des figures, des images, des métaphores nouvelles, depuis les articles scientifiques jusqu’aux savoirs des sciences subversives. C’est ce qu’il a tenté de faire avec Les diplomates en pensant nos relations avec les loups en terme diplomatique, alors que les animaux ne sont pas pas capables de diplomatie selon la science moderne. Nous avons aussi besoin de résistance interspécifique comme nous y invite les paysans qui pour lutter contre Monsanto s’allient à l’Amarante, cette plante qui a développé une résistance au glyphosate, pour faire cause commune dans une même résistance collective. Pour le philosophe, ces exemples nous montrent comment réinventer des relations pour stabiliser des relations soutenables, décentes, avec les formes de vies avec lesquelles on partage la terre.

Montrer nos confusions

L’artiste Marie Velardi propose ensuite une belle lecture tout en faisant défiler des images de son dernier projet en cours, « Lettre de Terre-Mer ». Un projet qui s’intéresse au déplacement du trait de côte des littoraux. Des aquarelles qui montrent l’évolution dans le temps de nos relations à la terre et à la mer. S’inquiétant de l’évolution des relations des habitants aux transformations de leurs territoires, à leur mémoire, interrogeant l’évolution de cette zone d’échange à l’heure de la perspective de la montée des eaux, sous forme d’Atlas d’îles perdues et d’îles à retrouver?

L’artiste et cinéaste autrichien Oliver Ressler produit des installations vidéos et s’intéresse surtout à la manière dont la société tente de s’organiser pour se réapproprier notre avenir. Il filme donc des Camps climatiques, des zones à défendre? il filme les résistances et les alternatives sociales. Pour l’activiste, le constat est clair. Le libre-échange est à l’origine du problème climatique, et pour s’opposer au réchauffement climatique, il faut donc d’abord s’opposer au libre-échange. Il montre des extraits de ses films : des actions de désobéissances civiles régulières, autour de la COP21 à Paris, à l’occasion d’une manifestation contre une mine à charbon à ciel ouvert en Allemagne, d’autres sur la Zone à défendre de Notre-Dame des Landes?

Khalil Joreige est cinéaste. Il travaille avec Joana Hadjithomas, tant et si bien qu’ils sont le plus souvent indissociables l’un de l’autre. Ils sont devenus plasticiens et réalisateurs au lendemain des guerres civiles libanaises. C’est d’ailleurs à partir des traces de la guerre qui commençaient à disparaître avec les reconstructions qu’ils ont entamé le travail qu’ils présentent sur la scène de la Head. « Discordances/Unconformities » (exposé à Beaubourg jusqu’au 8 janvier) expose des carottages réalisés à Beyrouth, Athènes et Paris, sous forme de tubes de verre suspendus où s’empilent ces extractions. Cette succession de strate est là pour montrer une histoire complexe, montrer comment l’histoire s’inscrit dans la stratigraphie même des lieux. Une manière de constituer des savoirs sur ce qui est amené à disparaître, pour nous montrer ce qu’on n’arrive plus à voir. A travers ces pierres, l’enjeu est de nous interroger sur les menaces qui nous arrivent, puisqu’elles interrogent ce que nous faisons à notre monde. Nos villes sont à l’image de l’anthropocène, en recyclage permanent. Elles sont des palimpsestes où se lit l’occupation humaine, que nous ne cessons de régénérer, de tenter de régénérer par épuisement.


Image : L’installation de Khalil Joreige et Joana Hadjithomas à Beaubourg.

Nous n’avons pas d’images du futur

Jussi Parikka (@juspar) est un théoricien des médias. Il est l’auteur de nombreux livres notamment Qu’est-ce que l’archéologie des médias ? (dont la traduction française doit paraître en janvier), qui s’intéresse « au fonctionnement matériel des appareils pour en comprendre les qualités occultes », « à l’anomalie et au marginal dans les cultures médiatiques », comme le souligne Yves Citton dans son dernier livre, Médiarchie.

« A quoi ressemble l’avenir ? Comment attraper le temps qui passe ? Une image peut-elle dire quelque chose du futur ? », interroge Jussi Parikka en montrant une image du dernier Blade Runner. « Nous n’avons pas d’images du futur ». Si nous en avons, elles émergent de l’imaginaire des paysages pollués, là où la pollution devient perceptible. Mais ces accumulations d’images de décharges et de déchets, symboles de l’anthropocène et de la destruction de notre économie morale, ne parviennent pas à faire sens, au contraire. Elle ne fait que nous dégouter de nous-mêmes. Ce futur déjà présent nous renvoie d’abord à notre propre passivité face au changement climatique, ce futur proche qui devient chaque jour un peu trop proche…


Image : Jussi Parikka sur la scène du colloque de la Head, photographié par Nicola Nova.

L’apocalypse traverse de manière pervasive notre futur. Les scénarios de la guerre froide nous préparaient déjà au pire, et le pire est effectivement arrivé, même si ce n’est pas le même que celui qu’on attendait. Reste que nous avons besoin de nous défaire de ces images pour développer d’autres approches et d’autres discours. De décoloniser cet imaginaire posthumain, en utilisant par exemple les théories féministes qui appelaient déjà à faire face à l’apocalypse? Pour cela, il est nécessaire de travailler à d’autres formes de narration, comme s’y essaye Jussi Parikka sur la scène du colloque des 10 ans de la Head. Reste que la catastrophe se rapproche à mesure qu’on l’a décrit. Paysages dévastés, fleuves pollués, extraction de masse, pauvreté? « 2100 est devenu l’horizon butoir de notre avenir proche » Nous respirons déjà un nuage toxique qui ne cesse de se renforcer au-dessus de nous, souligne-t-il en montrant le développement de la pollution aux particules fines de nos villes, comme Londres, qui excède chaque jour un peu plus les seuils dits vitaux et supportables. Derrière ces transformations du monde que l’on habite, se joue également la transformation de nos sensorialités, de ce que l’on perçoit et de ce que nous sommes.

L’art s’est intéressé à l’air, comme ce fut le cas du groupe Art & langage avec leur Air Conditioning Show qui consistait en une salle vide climatisée accompagnée de simples textes collés aux murs pour souligner l’expérience que les percepteurs allaient vivre. Pourtant, c’est bien à ce niveau moléculaire, invisible, que la transformation opère. Amy Balkin et son Guide atmosphérique tente de décrire les influences de l’homme sur l’atmosphère, qu’elles soient chimiques, narratives, spatiales ou politiques, pour montrer comment les humains occupent, ont occupé ou envisagent d’occuper les atmosphères. The Gathering Cloud de JR Carpenter, vise, lui, à aborder l’impact environnemental du cloud, l’informatique en nuage, comparée aux nuages dans le ciel, en soulignant que ni l’un ni l’autre ne sont des ressources infinies.

L’air pénètre notre corps. Compose l’environnement dans lequel nous vivons. Nous ne sommes pas armés pour nous en protéger. Or, l’air peut aussi nous faire mal… Et la terreur atmosphérique que fait planer sur nous l’évolution de notre atmosphère nous inquiète. Des particules s’accumulent désormais dans l’oxygène et ses premiers effets montrent que la menace se rapproche. En tant qu’humains, nous réagissons à ces transformations, sous forme d’irritations, de démangeaisons, de difficultés respiratoires. L’analyse chimique de la pollution de l’air et les cartes de pollution ou de radiation (comme l’accident de septembre qui a permis de repérer des traces radioactives sur l’Europe) forment les images techniques de l’anthropocène. Le tableau périodique des éléments de Mendelev montrait déjà ce qui existe et ne se voit pas nécessairement, comme les 4 éléments (l’air, la terre, le feu et l’eau) ont longtemps été l’une des explications du monde. Or, les transformations actuelles les transforment en retour. L’air brûle. La terre, stérile, se transforme en cendres. L’eau du robinet s’enflamme? Comme si des forces post-naturelles s’exprimaient déjà, tel que le soulignait le théoricien de la culture, Gary Genosko, dans sa conférence (vidéo) sur les nouveaux éléments fondamentaux d’une planète contestée.

Quel avenir aurons-nous dans un monde où les éléments qui nous ont permis d’exister ne seront plus ? Telle est la question que semble nous adresser Jussi Parikka.

Nous faut-il apprendre à dés-habiter le monde ?

Vanessa Lorenzo (@vanessalorenzot) est designer, chercheur, biohackeuse. Elle est responsable du biohacking Lab de Lausanne, Hackuarium (@hackuarium) et membre de la plateforme Hackteria (@hackteria) qui promeut l’art biologique open source.

L’anthropocène est un révélateur des dégâts que nous avons causés au monde. « Désormais, nous allons devoir faire face à des écosystèmes toxiques ». Effectivement, souligne-t-elle, à la suite de Baptiste Morizot et de Jussi Parikka, nous allons avoir besoin de nouveaux modes d’abstraction pour réinventer la relation entre les êtres vivants, les plantes et les machines. C’est ce que tente d’évoquer son travail justement, à l’image du Mossphone, un dispositif qui tente d’utiliser la mousse comme outil de mesure du phénomène anthropique. Organismes pionniers, les mousses ont été parmi les premiers colonisateurs de la planète. Dans l’arctique, on les utilise pour mesurer le niveau de métaux lourds. Dans les villes, pour mesurer le niveau de pollution. Le dispositif, lui, vise à nous permettre d’interagir émotionnellement avec une entité qui porte la trace des dégâts qu’on lui cause. En caressant la mousse, en s’imprégnant d’elle, celle-ci répond en émettant des sons (vidéo).

« Les changements environnementaux sont souvent invisibles. Piégés dans des données et des rapports scientifiques. D’où la nécessité d’outils pour les cartographier, de lampes pour les éclairer, pour les rendre visible. » L’open source est un outil pour rendre la pollution invisible visible. C’est avec elle que Vanessa Lorenzo a voulu joué dans un autre dispositif, Camera Obscura (vidéo), consistant à utiliser des bactéries pour mettre en évidence la présence de métaux lourds dans le Rhône. Or, plus les gens se penchent sur la caméra obscura, plus la pollution invisible devient visible, en déversant quelques gouttes d’encre noire dans un réservoir en verre. Le spectateur active la caméra et passe d’un échantillon à un autre, collecté en différents lieux. En présence de métaux lourds, ces échantillons réagissent et affichent différents niveaux de fluorescence à l’intérieur de la caméra. En retour, l’activation du dispositif lui-même pollue d’encre un réservoir en verre visible à l’extérieur de la caméra.

Pour Vanessa Lorenzo, ce dispositif vise justement à rendre visible la pollution et à montrer que nous y jouons un rôle. Pour elle, notre capacité à habiter l’anthropocène nécessite des outils pour nous permettre de mieux évaluer la réalité avec laquelle nous allons devoir cohabiter. C’est ici la bactérie qui devient le témoin la transformation que nous opérons sur le monde. Et c’est bien notre action qui en est le moteur.

Autant d’interventions qui nous invitent à dés-habiter le monde. Peut-être plus parce que nous ne serons plus capables de l’habiter. Notre cohabitation avec un monde qui se transforme, avec un monde qui répond aux agressions que nous lui avons portées par d’autres formes d’agressions, semble effectivement révéler toute sa cruauté : celui de nous être parfaitement inhabitable. Plus qu’une nécessaire adaptation à une nouvelle réalité, comme nous y invitent les collapsologues, la confusion que le design, la philosophie et la critique des médias saisit, semble sans perspective aucune, autre que de nous ouvrir les yeux sur notre propre extinction. Glaçant.

Hubert Guillaud

  • Passé, présent, futur : peut-on encore raconter le futur ?

A l?occasion de ses 10 ans, la Haute école d?art et de design de Genève organisait un étrange colloque convoquant designers, artistes, philosophes, théoriciens, cinéastes? pour tracer des « histoires d?un futur proche ». Une prospective aux frontières de la création et de la science. Parfois ébouriffante, parfois déconcertante. Retour (...)

A l?occasion de ses 10 ans, la Haute école d?art et de design de Genève organisait un étrange colloque convoquant designers, artistes, philosophes, théoriciens, cinéastes? pour tracer des « histoires d?un futur proche ». Une prospective aux frontières de la création et de la science. Parfois ébouriffante, parfois déconcertante. Retour sur une sélection de ces? narrations d?un futur qui est déjà là.

Qu?est-ce que le passé nous apprend sur le futur ? En quoi le futur nous confronte-t-il au passé ? Peut-on se situer quelque part sur la ligne du temps, entre le rewind et le forward, entre rembobiner et l’avance rapide ?

Avant, arrière

C?est la question que posait l?architecte et théoricien Mark Wigley, co-auteur du livre et de l’exposition « Sommes-nous humains ? » (ainsi que d’un autre livre à paraître sur le sujet : Superhumanity). « Le design est une projection. Comme une pierre qu?on lance vers l?avenir. D?où l?importance de discuter, ici notamment, de ce qu?est l?avenir. » Mais, si le futur a une histoire, les humains ne semblent plus avoir d?avenir, constate sans férir le doyen de l?Ecole d?architecture de la Columbia University. « Si nous sommes condamnés, c?est parce que nous avons conçu notre propre autodestruction. Voilà 250 000 ans que l?homme développe sa capacité à s?autodétruire. » Et en terme de design, cette situation est incroyable puisqu?elle pointe toutes les lacunes de ce champ disciplinaire lui-même – même s?il est un champ disciplinaire au croisement de tous les autres. Pour lui, cela montre que le design, la manière même dont nous concevons le monde, pour l?instant, n?est pas adaptée et qu?elle nécessite d?être repensée.


Image : Mark Wigley photographié par Michel Giesbrecht pour la Head.

Il paraît que le téléphone serait la première et la dernière chose que nous touchons dans la journée, explique le professeur en rappelant combien ce constat souligne tout ce à quoi nous renonçons. La technologie nous rend à la fois inhumains et super-humains. Elle modifie nos corps et nos cerveaux, comme le pointait McLuhan. Si nous sommes façonnés par l?extérieur, la technologie désormais fait partie de nous, tant et si bien qu?on ne sait plus si on ajoute toujours plus de la technologie à nous-mêmes ou si nous nous ajoutons à la technologie. La technologie nous transforme si profondément que nous avons de la peine à l?appréhender. C?est à peine si nous remarquons encore qui fait le café chaque matin chez chacun d?entre nous. Ce n?est pas tant un humain qu?une machine. Pour ne pas l?interroger, nous nous anesthésions, d?une technologie l?autre. Chaque nouvelle technologie est interrogée depuis la précédente. La télévision permet de nous interroger sur le cinéma. Le web sur la télévision. Les réseaux sociaux sur le web, etc. « On regarde toujours le monde depuis un rétroviseur. » Et quand on regarde vers le futur, c?est toujours depuis les lunettes du passé.

Pour Mark Wigley, le designer doit changer d?attitude envers le passé pour changer le futur. Suite à un accident, Mark Wigley a dû, il y a plusieurs années, réapprendre à marcher. Ce n?est pas si simple, rappelle-t-il. Pour avancer, il faut en fait se balancer vers l?arrière, il faut « devenir instable », réapprendre à se mettre en déséquilibre. Marcher c?est créer une instabilité pour avancer. Le design est comme la marche. Il doit intégrer ce balancement d?avant en arrière. Le futur ne se comprend que par l?instabilité. Est-ce à dire que dans un monde déjà très chaotique, le design doit rendre les choses plus chaotiques encore ? Comment façonner le chaos ? Peut-on élaborer l?instabilité ?

Pour Mark Wigley, le design est né à la fin du 19e siècle, avec l?archéologue et géologue John Evans. Celui-ci venait de présenter devant ses confrères de la Royal Society de Londres des cailloux trouvés dans de profondes couches géologiques? Et il a démontré à ses confrères que ces cailloux avaient été taillés, façonnés. Il a montré un ensemble de bifaces en soulignant leur uniformité. Pour lui, le trait commun à toutes ces pierres est qu?elles avaient été produites intentionnellement. C?est avec ces premiers outils, ces premières technologies qu?est né l?humanité. Reste que ces études, controversées à l?époque, ont été un peu oubliées jusqu?à la naissance de la photographie qui a permis de montrer l?ancienneté des Silex en exposant les profondeurs où elles avaient été trouvées.

La technologie n?a pas seulement créé l?homme, elle l?a aussi façonné, estime Wigley. Et l?architecte devenu anthropologue montre alors des images de squelettes de nos ancêtres et de singes pour souligner combien nos squelettes se sont adaptés à leur environnement. Les mains pour grimper aux arbres des grands singes ne sont pas les mêmes que les mains des hommes pour lancer et façonner des pierres. Les phalanges de l?homme ont évolué et nous ont permis de faire ce que nos cousins savent moins bien faire, comme attraper des pierres et les lancer. La capacité à faire un outil a modifié la forme du corps humain. Si la main a créé l?outil, notre organisme a été, en retour, créé et façonné par ces outils.

Darwin n?a pas été très convaincu par l?idée que les pierres qu?avaient ramenées les premiers archéologues aient été le fait des hommes, notamment parce qu?on en trouvait énormément, ce qui aurait signifié que l?homme passait beaucoup de temps à les tailler. Or c?était effectivement le cas. Casser ces pierres était peut-être un signe d?habileté.

Or, ce qui distingue l?humain des autres espèces, repose sur notre capacité à élaborer des choses qui ne fonctionnent pas vraiment, estime Wingley. Si un oiseau apprend à utiliser un petit bâton pour tirer un vers d?une écorce, il sera capable d?apprendre ce geste et de le reproduire… indéfiniment. L?homme, lui, change. S?adapte. Varie. Reste que, un peu comme l?oiseau, il nous a fallu du temps. Mark Wigley montre alors deux bifaces en photos, assez semblables, l?un peut-être mieux taillé que l?autre. Or, souligne-t-il, 1 million d’années séparent les deux objets. « On mythifie ce qu?on produit. On en produit plein de variantes. Et parfois certaines variantes sont un succès. On dit alors rétrospectivement que c?était un succès. »

Notre capacité à nous autodétruire découle de notre capacité à produire des choses qui ne fonctionnent pas. Aujourd?hui, nous errons dans une confusion face à une production d?objets qui nous dépassent. On peine à comprendre ce présent quand bien même nous ne cessons de l?absorber. Mais ce n?est pas tant les objets qui nous perturbent que le fait d?être confronté via eux à notre propre confusion. « Le design ne passe pas du cerveau au reste du monde, mais l?inverse. » Ce n?est pas tant l?esprit qui conçoit des objets que les objets qui conçoivent l?esprit. Et face au monde, nous restons bien souvent stupides, confus, hésitants. Ce qui n?est pas pour nous aider à nous confronter aux problèmes actuels, conclut Wigley. Au final, les écoles de design entretiennent cette confusion. Elles nous montrent qu?un bon design ne consiste pas à donner quelque chose d?utile, mais à donner quelque chose d?inutile en disant que c?était du design.

Demain via aujourd?hui et retour

Difficile de rendre compte de la performance de Liam Young (@liam_young). Ce réalisateur, architecte et designer explore notamment les mécaniques de la fiction, via des productions, entre film et documentaire. Sur la scène du colloque, il projetait une longue vidéo créée pour le Sci Arc de Los Angeles, un voyage audiovisuel dans une ville, hésitant entre présent et futur, assemblant plusieurs de ses productions récentes, dont on peut voir des extraits sur son compte Vimeo. Ce voyage sur les mythes post-anthropocènes présente une ville monde, s?étendant partout sur la planète. On commence par la voir à travers les capteurs Lidar d’une voiture autonome (voir le teaser de Where the city can’t see).



Images tirées des films de Liam Young présentant la ville du futur vue à travers les capteurs Lidar puis une jeune femme personnalisant son drone, via Vice.

Depuis des images provenant de sites réels, réagencées, Liam Young nous fait traverser l?espace de la ville pour la regarder par les yeux d?une machine. Il nous emmène dans les différentes couches de cette ville. Des profondeurs des mines qui permettent à cette infrastructure de fonctionner, que ce soit celles à ciel ouvert du Chili ou de Bolivie qui concentrent 70 % du lithium de la planète et qu?Elon Musk arrache pour faire fonctionner un avenir sans carburant fossile, aux mines d?or et métaux rares d?Afrique. Liam Young propose une forme d?archéologie de notre monde moderne, fait de camions géants autonomes, d?extracteurs pilotés par GPS. À Madagascar, ce sont les hommes qui extraient les pierres précieuses, car ils sont moins chers que les machines. Ailleurs, des lacs radio-actifs, des raffineries, montrent le délire extractiviste de la Ville planétaire que nous habitons déjà. Au Bangladesh, il nous montre l?industrie textile, l?industrie la plus mondialisée de tous les temps, où les métiers sont parfois encore mécaniques. Il montre les visages des victimes de la production qui travaillent pour les victimes de la mode. Il nous emmène jusqu’au port de Hong-Kong et ses cargos de containers guidés par GPS pour traverser la planète, avec ces robots qui les chargent et les vides. Il nous plonge dans les entrepôts robotisés d?Amazon, où les employés suivent les instructions de leurs scanners qu?ils portent à la main comme des armes. Il nous montre les drones de la ville de demain, nouveaux pigeons numériques omniprésents de nos villes. Les couches de la ville extractive sont recouvertes par celles de la ville imaginée. Des drones de circulation flottent au-dessus des routes, surveillent la population (voir le teaser de In the robot skies). D?autres promènent des chiens. Une jeune fille lance par la fenêtre de sa chambre son drone personnalisé, décoré de boules et de guirlande comme celles d?aujourd?hui décorent leurs téléphones, pour porter un message à son copain. La voix de Liam Young décrivant son film flotte sur les images. Il évoque ces objets qui ont leur vie à eux et qui nous renvoient, nous humains, à être les visiteurs d?un monde pourtant créé à notre image. Les data centers font échos aux rayonnages silencieux des bibliothèques. On glisse un instant dans un concert d?Hatsune Miku, première pop-star de la génération des machines. La Detroit Economic Zone fait écho à la Jungle de Los Angeles. On y voit des jeunes gens inventer une chorégraphie pour échapper aux algorithmes d?identification, vêtus de capes de camouflages et le visage bardé de maquillages pour piéger les logiciels de reconnaissance faciale. Le voyage se termine sur le programme qui vérifie la conformité des programmes de la ville. Les machines nous rassurent de charmants « Hello World ». L?ensemble de nos technologies à l?échelle planétaire est devenu une seule machine, invisible, élaborée pour qu?on l?ignore derrière les écrans brillants d?où elle se présente à nous. Nous avons besoin d?imaginer une nouvelle mythologie pour ce nouvel univers. « Ma montre me demande comment va la machine à café que je viens de rencontrer? » Un écran annonce la pluie. La voix de Liam Young résonne sur les images. Fondu au noir. « A l?avenir tout sera smart, intelligent, connecté, intégré, mieux. À l?avenir tout sera smart, intelligent, connecté, intégré, mieux. À l?avenir tout sera smart, intelligent, connecté, intégré, mieux? Mieux. Mieux. Mieux. »

Dans un style radicalement différent, l?artiste et chercheuse franco-britannique, Marguerite Humeau (@marguerite_humeau), tentait également de rendre compte de ses plus récents projets, aux frontières du design fiction. FoxP2, les origines de la vie, qui a été présenté au Palais de Tokyo en juillet 2016, s?inspire de recherches scientifiques autour d’une protéine, FoxP2, popularisé comme le gène responsable du développement des cordes vocales qui serait apparu chez l?homme il y a 100 000 ans et qui aurait permis notamment la descente du larynx et donc le développement du langage. S’il n’est certainement pas le seul facteur qui expliquerait le développement du langage, cette mutation qui nous distingue est-elle un hasard total de l’évolution ? « Faut-il croire qu?un microévénement, presque une coïncidence, puisse être à l?origine de ce que nous sommes ? ». Si l’artiste fait quelques raccourcis scientifiques dans son exposé, Marguerite Humeau ne s’est pas moins documentée. Elle a interrogé des zoologues pour savoir ce qu?il se serait passé si ce gène avait évolué chez d?autres animaux.


Image : l’installation FoxP2 au Palais de Tokyo.

Elle s?est intéressée également aux rites funéraires très évolués, des éléphants. À la mort d?une matriarche par exemple, les zoologues ont pu constaté que les animaux procèdent un ensemble de rites, allant de veillées silencieuses, à la protection du corps avec des branches, à des formes de chants et de barrissements de concerts sonnants comme de touchants adieux.

C?est une scène de ce type que Marguerite Humeau a reconstruit d?une manière monumentale au Palais de Tokyo (vidéo), comme un opéra de créatures préhistoriques, faisant entendre un monde où les éléphants auraient été plus humains qu’ils ne le sont, où leurs voix auraient porté un sens.

Un autre de ses projets a consisté à ressusciter la voix de Cléopatre (vidéo), en tentant de la faire parler dans des langues disparues.

Le travail de Marguerite Humeau cherche à comprendre la relation entre la finitude et la permanence. Il interroge à la fois les couches les plus anciennes, les fondements reculés de nos cultures, et leur immatérialité.

Son dernier projet, Reveal Enigmas, s?intéresse aux Sphinx, une créature mythique qui existe dans toutes les civilisations. Cet hybride d?homme et d?animal (le plus souvent un lion, mais ce peut être d?autres animaux comme le soulignent les dictionnaires consacrés à ce phénomène) a partout la même fonction : à la fois protéger l?humanité et à la fois la dévorer. L?un des projets développés depuis la figure du sphinx consiste en des portes de sécurité d?aéroports, des corps industriels, à la fois menaçantes et protectrices. À Versailles, elle a construit un sphinx entouré de plantes toxiques. À Zurich, la même sculpture a été présentée comme un dieu. Il semble doté d?une voix artificielle pour rendre l?origine du langage humain, composé de 108 milliards de voix générées par ordinateurs : soit le nombre d?humains qui auraient peuplé la terre depuis les origines.

Marguerite Humeau construit des oeuvres complexes où les récits s?entremêlent entre fiction et science. Où les détails et les oeuvres s?intriquent et se répondent. Interrogeant toujours ce que nous sommes en tant qu?espèce, ce que nous charrions, de nos gènes à notre culture, comme pour y retrouver notre origine.

Ordonnancer le passé, le présent, le futur…

Aliocha Imhoff et Kantuta Quiros sont artistes, chercheurs, curateurs, philosophes? Ils produisent actuellement un film, Les impatients, une enquête sur « les chronopolitiques contemporaines », c’est-à-dire une enquête sur la façon dont on pense le temps à travers le monde, qui conduira le spectateur de Chicago à Paris, de Dakar à Lagos? Ce film découle d’un livre qu’ils ont publié l’année dernière avec Camille de Toledo, Les potentiels du temps (vidéo) : un livre qui interroge les régimes d’historité à venir, comme l’évoquait l’historien François Hartog dans son livre éponyme, c’est-à-dire, la manière dont une société ordonnance et articule passé, présent et avenir. Hartog distinguait notamment des conceptions différentes selon les régimes historiques, allant de l’eschatologie qui propose un avenir basé sur le salut, au présentisme contemporain caractérisé par son absence d’horizon d’attente, envahit par le présent, saturé par la commémoration mémorielle et qui voit le futur plus comme une menace qu’un espoir, sans proposition d’émancipation collective comme il pouvait l’être encore à la fin de l’époque moderne. L’enjeu des Impatients expliquent ses auteurs est justement d’interroger le régime d’historicité à venir, d’observer comment il se transforme à l’heure de l’algorithmisation du monde, à l’heure où le futur, ou le prédictif prédétermine le présent. Pour Aliocha Imhoff et Kantuta Quiros, ce nouveau régime d’historicité est un régime potentiel, en cela qu’il propose la potentialité comme mode d’existence. Il semble célébrer une puissance pour elle-même, qui ânonne la grammaire de l’émancipation du futur sans être capable de nous extraire du présentisme de la postmodernité. Comme l’affirmait Deleuze, le futur est l’infini du maintenant. Plutôt que de rêver d’utopie, nous fabulons. Nous sommes désormais un peuple lunaire, une collectivité qui ne cesse de « légender ». Dans le possible qui est partout, nulle planification n’est plus possible.

Kantuta Quiros évoque ensuite certains dispositifs chronopolitiques particuliers, à l’image de l’Assemblée générale de Milo Rau, des assemblées organisées par l’artiste Jonas Stall ou encore du théâtre des négociations lancé par Bruno Latour en mai 2015 en préconfiguration de la Cop21, qui invitait à simulation grandeur nature des négociations climatiques pour en proposer une expérience alternative. Autant de dispositifs chronopolitiques réimaginés par le monde de l’art, sous forme de happening politique, de collectifs hybrides pour discuter de l’objet même de la façon de faire du politique. Comme une pantomime pour déjouer les échecs prévisibles des véritables assemblées que ces dispositifs singent, en s’en amusant et en les dépassant. C’est d’ailleurs ce que proposent également Aliocha Imhoff et Kantuta Quiros via leur plateforme Le peuple qui manque (@peuplequimanque), qui organisait par exemple lors de la dernière nuit blanche un imposant procès de la fiction dans la salle du conseil de l’Hôtel de Ville de Paris.

Pour les deux artistes, ces projets fictionnels se tiennent dans un espace particulier, ambivalents et volontairement ambigus. Ce sont des formes de fictions spéculatives où l’événement a tout de même lieu, où la fiction autorise et joue à la fois. Comme autant de dispositifs qui permettent d’étendre le régime de l’art à la politique…, à la vie elle-même.

De la cybernétique à la post-cybernétique

Philosophe et historien de l?informatique, Mathieu Triclot (@mathieutriclot) est l?auteur de nombreux livres, dont notamment philosophie des jeux vidéo où il a souligné combien l?art vidéoludique était indépendant et différent des autres, notamment du cinéma auquel on le ramène souvent.

Sur la scène de la Head, Mathieu Triclot présente une réflexion sur la cybernétique, « L?hypothèse post-cybernétique » (qui fait écho à son livre Le moment cybernétique ainsi qu’à un article de la revue radicale TiqqunWikipédia – qui dans son deuxième et dernier numéro évoquait longuement « L’hypothèse cybernétique » comme hypothèse politique supplantant l’hypothèse libérale…). Les principes théoriques décrits par Norbert Wiener dans son oeuvre entrent désormais en circulation dans la société. Les objets qui relèvent de la technologie cybernétique, comme l?Intelligence artificielle ou la voiture autonome, sont sortis des laboratoires et évoluent désormais parmi nous. Or, les mêmes questions se posent aujourd’hui que celles qui agitaient le début de la cybernétique. Dès 1948, le neurologue Warren McCulloch, initiateurs des conférences Macy, dans son article « Why the Mind is the Head ? », s’inquiétait déjà du remplacement des humains par les machines, de la même manière que le rapport sur l’avenir de l’emploi (.pdf) de 2013 de Carl Frey et Michael Osborne. L?histoire bégaye.

En fait, rappelle Mathieu Triclot, la cybernétique a produit une réflexion critique sur la signification sociale des technologies qui a notamment nourri l?engagement politique de Wiener. Pourtant, la cybernétique n?avait pas tout prévu. Par certains aspects, elle a été rattrapée, dépassée. Mesurer l?écart entre la situation d?aujourd?hui et le moment cybernétique d?origine est un autre moyen pour faire un aller-retour entre passé et futur, un moyen pour mesurer la différence entre la « futurition » passée et notre futur présent.

La cybernétique, rappelle l?historien est un mouvement scientifique de l?après-Seconde Guerre mondiale transdisciplinaire, qui convoque et fait se rejoindre mathématique, physique, ingénierie, sciences du vivant et sciences humaines et sociales. Elle va inventer l?infrastructure technique et matérielle du monde contemporain, ainsi que des concepts nouveaux comme l?information, la rétroaction et le feedback. Si ce mouvement a été un succès extraordinaire par l?infrastructure technique qu?il a bâtie, il a aussi été un échec à la hauteur de son succès : la cybernétique n?a pas réussi à faire science.

Pour comprendre là où la cybernétique a réussi et échoué, il faut revenir à ce qu?elle est et défend. Pour cela, Mathieu Triclot utilise 6 maximes politiques tirées de Wiener permettant de résumer les enjeux originels de la cybernétique pour la confronter à sa réalité d?aujourd?hui.

« En toutes choses, commencer par le mode de production ». Ce constat, cet impératif qu?établit Wiener invite à s?interroger sur le facteur économique de la production de l?infrastructure technique. Un impératif qui fait écho aux engagements politiques mêmes de Wiener, qui, en 1947, dans une lettre ouverte publiée par The Atlantic déclare refuser de transmettre à des responsables de l’aviation ses travaux sur le guidage de missiles, refusant de mettre à la disposition de tous ses travaux les plus sensibles de peur qu’ils soient mal utilisés. Or, le mode de production économique des savoirs, le régime de science, a pourtant considérablement évolué. La science nationalisée pour la guerre contre laquelle s?élevait Wiener n?est plus le mode dominant de la technoscience. Aujourd?hui, nous sommes plutôt dans un régime libéral des connaissances.

« L?information n?est pas faite pour être marchandise », disait Wiener. Pour lui, le changement technologique ne devait pas être piloté par les intérêts privés, car ceux-ci ne savent pas prendre en compte le long terme. Or, aujourd?hui, l?information est plus que jamais une marchandise, rappelle Mathieu Triclot. Et cette appropriation de données est même la source d?une compétition encore plus féroce des technologies, notamment pour l?intelligence artificielle. Aujourd?hui, ce sont des penseurs comme Morozov, qui plaide pour des formes de propriété collective qui serait le plus proche d?un Wiener dans la reconquête d?une puissance sociale commune.

« L?information n?a rien d?immatériel ». Les cybernéticiens ont défendu l’idée d’une quantité physique limitée de l’information. Une matérialité qui se traduit chez Wiener sous la forme d’un humanisme tragique. Or, aujourd’hui, la matérialité de l’information a pris encore plus d’importance, explique Mathieu Triclot qui renvoie par exemple à l’analyse du théoricien des médias Benjamin Bratton et notamment à son livre The Stack, on software and sovereignty où il analyse l’intégration hétérogène d’internet comme un empilement de couches enchevêtrées, allant des ressources matérielles, aux interfaces, en passant par l’informatique des serveurs ou des adresses…, intricant des régimes de spatialités, de temporalités et de souverainetés différents. Pour Triclot, Bratton comme Wiener, nous invitent à résister au vertige de la dématérialisation.


Image : le schéma de l’infrastructure des régimes de matérialité de l’information de Benjamin Bratton.

« Il faut se débarrasser du mythe du robot ». Pour Wiener, dans cette question éminemment critique, les zones de performance de l’homme et de l’intelligence artificielle sont disjointes, comme il le rappelle dans L’usage humain des être humains (traduit sous le titre Cybernétique et société). En fait, lorsqu?on explique que la machine va remplacer l?humain, on dit que la condition de l?humain a déjà été réduite à l?état de machine. Derrière le mythe du robot, il y a l?usage inhumain des êtres humains qui nie l?intelligence adaptative. Pour Mathieu Triclot, cet argument semble aujourd’hui en crise. Face aux progrès du Machine Learning, le dernier bastion de l’humain semble en train de tomber? puisqu’on prête même aux programmes, comme AlphaGo, des capacités d’intuitions surprenantes, comme ce fut le cas de ceux qui commentèrent ses échanges au Go avec le champion humain de la discipline. Pourtant, Wiener nous a mis en garde contre ce réductionnisme. Derrière l’IA, on trouve très vite l’usage inhumain des êtres humains, à l’image des tâcherons du clics qu’évoque le sociologue Antonio Casilli, qui travaillent à faire marcher nos systèmes techniques, à nourrir les robots et les IA, comme à nettoyer les contenus que les intelligences artificielles ne savent pas nettoyer.

« Contre la pensée du gadget, observer les milieux techniques ». Ce qui a changé, estime le philosophe, c’est que la voiture autonome par exemple transporte avec elle son milieu perceptif, alors qu’à l’époque de Wiener, l’outil ne savait pas prendre en compte les contraintes de son environnement. Aujourd’hui, les milieux techniques s’agencent et s’articulent dans le milieu éminemment technique que sont les villes, ces smart cities de l’anthropocène?

Il reste une dernière mise en garde que Mathieu Triclot tire de Norbert Wiener : « Il n?y a pas de machine à gouverner ». Pour Wiener, ce refus des machines à gouverner va être décisive pour le mouvement cybernétique. A l’époque, Wiener argumente son refus sur un argument épistémologique : les séries de données ne sont pas d’assez bonne qualité pour étendre au monde politique et social les techniques de prédiction mises au point en ingéniérie, comme l’a fait Wiener en travaillant sur la prédiction des trajectoires des avions et missiles ennemis. Il y ajoute un argument politique nous confie Mathieu Triclot : « on ne peut pas éliminer le conflit de la politique, prédire est une chose, agir une autre, le savoir ne suffit pas. » Reste que l’argument de Wiener semble aujourd’hui ici aussi en crise. Nous vivons environnés de dispositifs prédictifs. À l’heure du régime libéral des sciences et techniques, tous les domaines semblent désormais à la recherche de leur machine à gouverner, de leur machine prédictive pour discipliner les comportements dans les domaines de la justice, de la police, de la santé, de l’éducation? La machine à gouverner semble devenir un horizon de la société tout entière. L’avertissement de Wiener semble bien loin. Or, il soulignait déjà que ces dispositifs n’avaient pas besoin de marcher réellement pour produire des effets sociaux et des effets de pouvoir, à l’image de la théorie des jeux. Reste que Wiener, lui, était conscient de l’absence de neutralité de l’instrument prédictif. Pour lui, le prédictif sert certains intérêts sociaux plus que d’autres. Quand bien même il dysfonctionne, l’activité politique est d’une autre nature et la complexité ne peut être réduite à un calcul d’optimum.

Hubert Guillaud

  • IA : un état de l?art

Où en est l’Intelligence artificielle ? Quels sont les marqueurs importants grâce auxquels on peut suivre l’évolution du domaine ? C’est à cette tâche que s’est attelée l’université Stanford, qui a décidé de publier un « index de l’IA (.pdf) » chaque année. Au moins, une première chose dont on peut se réjouir, c’est (...)

Où en est l’Intelligence artificielle ? Quels sont les marqueurs importants grâce auxquels on peut suivre l’évolution du domaine ? C’est à cette tâche que s’est attelée l’université Stanford, qui a décidé de publier un « index de l’IA (.pdf) » chaque année.

Au moins, une première chose dont on peut se réjouir, c’est que le rapport n’est pas difficile à lire ! En effet, son coeur est essentiellement composé de graphiques accompagnés de courtes légendes.

Une première partie concerne les progrès de l’IA, non pas d’un point de vue technique, mais de celui de l?intérêt académique ou commercial qu’elle suscite. Et là, pas de doute, l’IA connaît un triomphe. On apprend ainsi que le nombre d’articles universitaires consacrés au sujet se sont multipliés par 9 au cours de la dernière décennie. Il y a d’ailleurs 11 fois plus d?étudiants dans ce domaine. L’analyse des conférences montre que l?intérêt des chercheurs s’est déplacé de l’IA symbolique vers le « machine learning » et le deep learning. On s’y attendait. Mais la rapport souligne néanmoins que l?intérêt pour l’IA symbolique, « à la papa », n’a pas disparu, il reste une petite communauté active qui continue à travailler sur le sujet.

Bien sûr, les startups se consacrant à ce domaine ont largement proliféré : il y en a aujourd’hui 14 fois plus qu’en 2000. Et les investissements se sont multipliés par 6?

Des progrès… mais peut mieux faire


La seconde partie aborde les vrais progrès, et se penche sur les potentialités technologiques de l’intelligence artificielle.
Dans le domaine de la détection d’objet, il apparaît ainsi que le meilleur système informatique est capable de plus grandes performances que les humains. En revanche, toujours dans le domaine de la vision, l’IA reste très inférieure à nous autres primates lorsqu’il s?agit de répondre à une question plus ouverte sur le contenu d’une image.

En analyse textuelle, l’être humain a là aussi, un avantage : l’IA est moins performante lorsqu’il s’agit de répondre à une question sur un document. En ce qui concerne la reconnaissance de la parole, les meilleures IA atteignent tout juste le niveau des performances humaines.

Mais même dans les domaines où les machines restent à la traîne, elles continuent néanmoins de progresser.

En fait, ce n’est pas le rapport en lui même qui est le plus intéressant. Finalement, on n’y apprend pas grand-chose. Il ne fait que refléter la « hype » qui entoure cette discipline et nous montrer des progrès, certes existants, mais moins extraordinaires qu’annoncés. La Technology Review, qui a publié un article sur le rapport, titre d’ailleurs : « le progrès en IA est moins impressionnant que vous ne le pensez« .

C’est en fait la dernière partie du texte qui s’avère la plus intéressante. Il s’agit d’une série d’interviews recueillant les avis de divers experts sur ces différentes métriques.

Barbara Grosz, professeur d’IA à Harvard, revient sur le traitement du langage naturel et les difficultés à mesurer le niveau des machines. En effet, bien que le rapport traite des questions de traduction et d’analyse de documents, il ne s’est pas penché sur celle des « chatbots » et de la capacité qu’ont ces programmes d’entamer un dialogue avec les humains (rappelons tout de même que cette faculté est au coeur du fameux « test de Turing »). Les auteurs de l’index expliquent cette absence par le fait que « le dialogue des chatbots est éloigné du dialogue humain et nous manquons de mesures largement acceptées pour évaluer les progrès dans ce domaine. De même, alors que les systèmes d’IA d’aujourd’hui s?avèrent moins capables d’un raisonnement de bon sens qu’un enfant de cinq ans, on ne sait pas comment quantifier cela sous la forme d’une métrique technique. »

Pour Barbara Grosz, « l’analyse textuelle ne nécessite aucune considération sur l’état mental du producteur du document analysé, et pour de nombreuses situations dans lesquelles la traduction automatique et la capacité de répondre à une question ont été testées, il est également possible d’ignorer cet état mental et en particulier, l’intention derrière l’énoncé, qui est crucial pour comprendre sa signification. Ce n’est plus le cas avec un dialogue. »

Michael Wooldridge de l’université d’Oxford s’interroge lui sur le trop plein d’enthousiasme suscité aujourd’hui par cette technologie :

« A l’heure actuelle, il y a clairement une bulle autour de l’IA. La question que ce rapport soulève pour moi est de savoir si cette bulle va éclater (comme cela se produisit lors du boom dot com de 1996-2001), ou se dégonfler doucement. Et quand cela arrivera, que restera-t-il ? Ma grande peur est que nous voyons arriver un autre hiver de l’IA (l’hiver de l’IA est une expression qui désigne la période dans les années 80-90 qui a suivi la chute de l’IA symbolique, celle des systèmes experts, qui s’étaient avérés incapables de tenir leurs promesses – NDT), suscité par la désillusion suite à la spéculation massive et l’investissement auxquels nous assistons en ce moment (…)

Cependant, même si je pense qu’une certaine déflation de la bulle actuelle est inévitable dans les prochaines années, je pense qu’il y a une raison d’espérer que ce sera une digne et lente déflation, plutôt qu’une explosion spectaculaire. La raison principale en est que, comme l’AI Index le démontre clairement, l’IA est de plus en plus compétente. Sur un large spectre de tâches, les systèmes d’IA se montrent de plus en plus performants (et parfois rapidement), et leurs capacités se déploient avec beaucoup de succès dans différentes zones d’application. En d’autres termes, je pense qu’il y a de la substance derrière l’actuelle bulle, et les grandes entreprises comprennent maintenant comment utiliser les techniques d’IA productivement (…). Je ne crois pas que nous assisterons à un contrecoup comme ce fut le cas avec l’hiver de l’IA et la fin du boom des systèmes experts. »

Au-delà de l’Amérique


Autre limite de l’index, souligné par Alan Mackworth, de l’université de Colombie britannique : son caractère ouvertement américano-centrique. Il espère que dans les prochaines versions de l’index, les données venues d?Europe et du Canada pourront affluer. Et précise-t-il, les informations concernant l?Asie devraient aussi être bientôt disponibles.

Le souhait d’Alan Mackworth est appuyé par un autre intervenant, l’investisseur américano-taiwanais Kai Fu-lee, qui se montre particulièrement enthousiaste sur les perspectives de l’IA en Chine. On le sait, la technologie la plus efficace actuellement, celle du deep learning, repose essentiellement sur les data. Or, l’ancien Empire du Milieu est une mine extraordinaire de data. En effet, on y trouve trois fois plus d’utilisateurs d’internet et de téléphones mobiles qu’aux États-Unis ou en Inde. Les Chinois utilisent 50 fois plus leur mobile pour effecteur des achats que les Américains. Dans le domaine des transports, « il y a plus de 20 millions de déplacements à vélo transmettant leur GPS et les informations d’autres capteurs à un serveur, créant 20 téraoctets de données tous les jours ». Kai-Fu Lee souligne aussi la bonne qualité des applications en Chine, donnant en exemple la startup Face++, qui gagna trois concours de reconnaissance faciale, devant Google, Microsoft, Facebook et la Carnegie Mellon University. Le gouvernement chinois est également très investi et a en juillet 2017 lancé le « plan de développement de la prochaine génération d’intelligence artificielle » destiné à favoriser l?innovation dans ce domaine.

Les auteurs de l’index ne pouvaient pas ne pas évoquer au moins rapidement la question des limites de l’IA et sa capacité à atteindre le niveau d’un être humain. Là encore,la conclusion n’est pas très surprenante, et va dans les sens de bons nombres de chercheurs et analystes : « Les tâches effectuées par les systèmes d’IA sont souvent conçues pour des contextes limités afin de réaliser des progrès pour la résolution d’un problème ou une application précise. Alors que les machines peuvent obtenir des performances spectaculaires sur une tâche spécifique, ces performances peuvent se dégrader considérablement si la tâche en question est modifiée même légèrement » (comme nous le soulignions déjà).

Les auteurs du rapport ont avoué ne pas s’être penchés sur les risques sociétaux posés par la multiplication des IA, mais espèrent pouvoir s’y attaquer dans les prochains numéros de l’index. Ces défis sont en revanche souvent mentionnés par certains des commentateurs du rapport. Mais en tout cas pas question de la venue de la Singularité ! A croire que ce mythe est surtout colporté par des observateurs extérieurs au domaine, et bien plus rarement par ceux qui ont le « nez dans le guidon » !

Rémi Sussan

  • Paramétrer notre bulle de filtre? pour en reprendre le contrôle

Avant l’internet, les grands médias étaient nos filtres sur le monde. Selon le journal que vous achetiez, la chaîne de radio ou de télévision que vous suiviez, votre vision du monde était différente, rappelle sur son blog Ethan Zuckerman (@ethanz), directeur du Centre pour les médias civiques du MIT (@civicMIT). (...)

Avant l’internet, les grands médias étaient nos filtres sur le monde. Selon le journal que vous achetiez, la chaîne de radio ou de télévision que vous suiviez, votre vision du monde était différente, rappelle sur son blog Ethan Zuckerman (@ethanz), directeur du Centre pour les médias civiques du MIT (@civicMIT). Puis, internet et ses puissants moteurs de recherche ont permis de faire naître des filtres selon ses centres d’intérêts. Les médias sociaux ont ensuite proposé une autre forme de filtre, des filtres basés sur nos relations sociales? jusqu’à ce que celles-ci deviennent trop importantes et qu’elles nécessitent une autre approche : une approche algorithmique qui personnalise le filtrage selon un ensemble complexe de facteurs. La bulle du filtre, posée par Eli Pariser, repose sur l’idée que nos tendances naturelles à l’homophilie sont amplifiées par des filtres conçus pour nous donner ce que nous voulons, plus que des idées qui nous challengent, nous conduisant à des formes d’isolement idéologique et à la polarisation. « Les fausses nouvelles conçues pour tromper le public et recueillir des publicités reposent sur le fait que les algorithmes de Facebook ont du mal à déterminer si les informations sont vraies ou non, alors qu’ils peuvent facilement voir si les informations sont nouvelles et populaires. Lorsque le Congrès américain réclame des actions à l’encontre des fake news ou de la propagande russe, il ne réclame rien d’autre qu’une autre forme de filtrage, basée sur qui crée le contenu et sur la véracité des faits. »

« Pourquoi les plateformes de médias sociaux comme Facebook et Twitter ne donnent-elles pas aux utilisateurs des outils puissants pour filtrer leurs propres flux ? À l’heure actuelle, les algorithmes contrôlent ce que nous voyons, mais nous ne pouvons pas les contrôler. (…) Vous pouvez payer et faire de la publicité auprès des femmes de couleur entre 40 et 60 ans qui vivent à Seattle, mais vous ne pouvez pas choisir de lire les points de vue de ces femmes. Bien qu’il existe des projets très innovants comme BlockTogether (@blocktogether, qui permet aux utilisateurs victimes de harcèlement de partager des listes d’utilisateurs bloqués sur Twitter), les plateformes peinent à offrir des outils de contrôle aux utilisateurs eux-mêmes. Et à moins qu’émerge un jour des plateformes sociales sous forme de services publics (comme le proposait Ethan Zuckerman lui-même en mai dernier), il est peu probable que les plateformes donnent aux utilisateurs plus de contrôle sur ce qu’ils voient. »

Comme le rappelle le chercheur, les filtres algorithmiques optimisent les plateformes pour favoriser l’engagement et la rétention des utilisateurs dans le but de vendre l’attention des utilisateurs aux annonceurs.

Tout l’enjeu à venir consiste donc à proposer d’autres modalités pour filtrer les contenus, ou mieux encore, de permettre aux utilisateurs d’accéder et de décider des paramètres des filtres qui les façonnent, comme nous le soulignions nous-mêmes. Si les paramètres relèvent des prérogatives des plateformes, cela n’empêche pas d’imaginer des services qui ouvrent ces paramètres depuis les services web de ces mêmes plateformes.

C’est ce que propose Gobo, un prototype fonctionnel lancé par le Centre des médias civiques, le Media Lab et le laboratoire d’études comparatives des médias du MIT. Gobo est un agrégateur de médias sociaux qui propose aux utilisateurs des filtres dont ils peuvent contrôler les paramètres. L’outil, lié à nos comptes Facebook et Twitter, permet à chaque utilisateur de choisir différents paramètres pour accéder aux contenus que proposent ces réseaux. Plusieurs filtres sont ainsi disponibles : un filtre politique permet de sélectionner des publications proches de ses points de vue ou éloignées de ses opinions politiques ; un filtre de sérieux permet de contrôler le volume de fun dans les billets qui vous sont proposés ; un filtre de politesse permet de contrôler le ton des billets ; un autre permet d’ajuster un curseur pour définir l’équilibre entre les sexes de votre flux d’information, permettant par exemple de mettre tous les hommes que vous suivez en sourdine? Un autre filtre permet d’ajuster la viralité de ce qui vous est proposé selon que les posts sont peu ou très populaires.

Enfin, chaque article que le système vous affiche explique le critère selon lequel il a été filtré.

Gobo pour l’instant n’est bien sûr qu’un démonstrateur. Il est lent. Il est imparfait puisqu’il dépend des modalités d’accès que proposent Facebook ou Twitter à des services tiers. Il utilise des techniques de machine learning assez basiques pour classer les informations selon les filtres, techniques qui devraient s’améliorer avec le temps? Reste que si l’outil est imparfait, il offre enfin une perspective stimulante pour permettre aux utilisateurs de reprendre la main sur les réseaux sociaux. Il permet de jouer avec les critères et donc de comprendre en partie les logiques algorithmiques à l’oeuvre dans la sélection qui nous est délivrée. Il montre en tout cas que d’autres distributions de l’information sont possibles? et que les boites noires sont à leur tour manipulables. Que l’accès aux critères et aux paramètres des systèmes est la modalité de la reconquête de notre liberté et de notre autonomie.

Espérons que Gobo se développe et inspire nombre de nouveaux services pour aider les utilisateurs à reprendre la main sur les réseaux sociaux !

Hubert Guillaud

  • Du pistage de nos emails !

Sur Wired (@wired), Brian Merchant (@bcmerchant), l’auteur de L’appareil unique, l’histoire secrète de l’iPhone, revient en détail sur le développement du pistage de nos e-mails. Pour son enquête, il a utilisé Streak, un outil qui s’interface avec sa messagerie et qui permet à tout utilisateur de savoir si ses correspondants (...)

Sur Wired (@wired), Brian Merchant (@bcmerchant), l’auteur de L’appareil unique, l’histoire secrète de l’iPhone, revient en détail sur le développement du pistage de nos e-mails. Pour son enquête, il a utilisé Streak, un outil qui s’interface avec sa messagerie et qui permet à tout utilisateur de savoir si ses correspondants ont ouvert leurs e-mails. 40 % des e-mails envoyés seraient pistés, selon une étude faite par une entreprise qui propose des outils pour s’en protéger, One More Company, la société qui est derrière Senders et evercontact.

La technologie utilisée est très simple, elle consiste à insérer du code dans chaque e-mail ou une image invisible d’un pixel par un pixel, qui sera téléchargée dès que le destinataire ouvrira l’e-mail qui lui est adressé. Ce qui permet à l’expéditeur en retour de connaître à quel moment le mail a été lu, sur quel appareil, depuis quelle adresse IP et donc depuis quelle localisation. Autant d’informations qui permettent de savoir si une adresse e-mail est bien utilisée par le destinataire par exemple. Les services marketing utilisent cette technique depuis très longtemps pour connaître le taux d’ouverture de leurs courriers promotionnels. Mais, ils ne sont pas les seuls…

De plus en plus, souligne Merchant, le suivi d’email, comme on l’appelle poliment, n’est plus l’apanage des grandes entreprises. Des particuliers l’utilisent pour surveiller leurs collègues, leurs concurrents, leurs proches. Pour Florian Seroussi, le fondateur de One More Company, 19 % de tous les e-mails conversationnels (c’est-à-dire envoyés par nos relations directes) seraient désormais tracés, soit un e-mail sur 5. Comme le soulignent (.pdf) les chercheurs de Princeton, Steven Englehardt, Jeffrey Han et Arvind Narayanan du Centre pour la politique des technologies de l’information qui pilote un observatoire sur la collecte des données, aucun d’entre nous n’a jamais consenti à ce pistage. Ca n’empêche pas le pistage de se développer, non pas seulement pour valider les e-mails des destinataires ou suivre le taux d’ouverture, mais plus encore pour revendre des informations aux principaux exploiteurs de données que sont Acxiom et ses concurrents.

Pour Florian Seroussi, c’est le développement des liens sponsorisés dans Gmail qui a sonné comme un signal pour prendre d’assaut les boites mails des utilisateurs. Pour Andrei Afloarei, chercheur à Bitdefender, c’est plutôt le développement du spam qui a développé ces techniques, notamment pour pouvoir vendre des listes de mails validés. Aujourd’hui, ce sont les géants de l’internet qui utilisent le plus ces techniques, comme Amazon, Facebook ou Mailchimp. « Lorsque Facebook vous envoie un e-mail vous informant d’une nouvelle activité sur votre compte, il s’informe du lieu où vous êtes, de l’appareil que vous utilisez ou de la dernière photo que vous avez prise – il capte tout ».

Quand il travaillait sur son livre sur l’iPhone, Brian Merchant a installé Streak pour voir si les e-mails qu’il envoyait à des gens d’Apple sans obtenir de réponses étaient lus. Il pouvait même constater qu’ils étaient ouverts plusieurs fois, sur des machines différentes, et donc qu’ils étaient diffusés à l’intérieur d’Apple. Il a même envoyé un mail à Tim Cook, le PDG d’Apple qui a été lu immédiatement, sur une machine Windows (ce qui ne signifie pas que Cook ait nécessairement un ordinateur Windows, peut-être qu’il sous-traite sa correspondance privée à une firme dédiée).

Reste que tout un chacun peut apprendre par exemple où se trouve son correspondant via ces méthodes. En envoyant un message aux candidats aux élections américaines de 2016, il était ainsi possible de connaître les appareils qu’ils utilisaient, leur adresse IP et donc là où ils se trouvaient? On peut aussi déduire l’emploi du temps de quelqu’un selon l’heure où il ouvre ses e-mails. D’ailleurs Brian Merchant a aussi utilisé Streak pour suivre des proches… sans en tirer grande fierté.

Les chercheurs de Princeton soulignent enfin que le pistage de nos e-mails évolue. Ils ont étudié plus de 14 000 newsletters et mailing-list des sites et services les plus populaires du web pour montrer que 85 % contenaient des traceurs et que 30 % récupèrent nos adresses e-mails pour la revendre ou la diffuser ailleurs. Cela signifie que si vous souscrivez à une lettre d’information, même connue, il y a une chance sur 3 que le service marketing partage votre adresse avec des services tiers comme les data brokers, notamment si vous l’ouvrez ou si vous cliquez sur un des liens qui vous sont proposés qui disposent d’identifiants uniques pour savoir qui a cliqué.

Les outils de suivi de mails se démocratisent. Les protections aussi. Ugly Mail, PixelBlock, Senders… permettent d’identifier les courriels qui contiennent une image invisible voire d’empêcher de les ouvrir? et également d’identifier vos amis qui utilisent ces services. L’autre solution consiste à bloquer par défaut toute image dans votre messagerie. Radical, mais efficace. Sauf que les méthodes évoluent. Les systèmes peuvent aussi appeler des couleurs ou des polices de caractères spécifiques? ou des liens. Tout est bon pour vous tracer !

Pour John-Henry Scherck, consultant en marketing, il suffirait pourtant que Gmail décide d’informer un peu mieux les utilisateurs en mettant en lumière ces pratiques pour peut-être aider à prendre conscience du problème. Reste que, à moins que les fournisseurs de services décident où soient obligés de bloquer le pistage, le risque le plus probable est que celui se généralise totalement.

  • Réguler par la donnée ?

L’entrepreneur et investisseur Nick Grossman (@nickgrossman), investisseur chez Union Square Venture défend depuis longtemps une régulation informée par la donnée, comme il l’explique dans plusieurs billets de son blog ou dans un plus long article (intitulé « Regulation, the internet way »), publié en 2015, pour Data Smart City Solutions (@datasmartcities), une (...)

L’entrepreneur et investisseur Nick Grossman (@nickgrossman), investisseur chez Union Square Venture défend depuis longtemps une régulation informée par la donnée, comme il l’explique dans plusieurs billets de son blog ou dans un plus long article (intitulé « Regulation, the internet way »), publié en 2015, pour Data Smart City Solutions (@datasmartcities), une initiative de la Harvard Kennedy School pour promouvoir une ville réactive aux données.

D’une régulation par l’autorisation à une régulation par la responsabilité ?

Pour lui, il est nécessaire de passer d’une régulation par la permission (et son corollaire, l’interdiction) à une régulation par la responsabilité informée par la donnée. Les plateformes du web ne sont pas tant des plateformes que des « moteurs pour la régulation », expliquait-il au Personal Democracy Forum de 2016 (vidéo, présentation), et ces moteurs de régulation vont directement impacter la manière dont le secteur public pratique la régulation.

Dans le système de régulation traditionnel, explique-t-il, une entreprise ou un individu doivent demander une autorisation, comme c’est le cas des licences de taxis ou des permis de construire. Pour cela, ils doivent apporter une foule de documents, pour prouver qui ils sont ou expliquer ce qu’ils vont faire. Une fois accordée, une surveillance légère est parfois opérée, mais la plupart du temps aucune donnée ne vient informer le régulateur.


Image : la matrice de la régulation par Nick Grossman, de la régulation par l’autorisation à la régulation par la responsabilité.

Dans le monde des plateformes, la régulation se pratique totalement différemment. Il est très simple de devenir un vendeur sur eBay ou un conducteur pour Uber. Par contre, beaucoup de données sont collectées : la surveillance comme la responsabilité sont assez strictes, encadrées et continues. Pour Grossman, la différence entre ces modèles nous fait passer d’une régulation par l’autorisation à une régulation par la responsabilité. Pour lui, c’est là une innovation qui rejoint le nouveau paradigme que décrit Carlota Perez à savoir le paradigme de l’âge de l’information (qui succède aux paradigmes de l’âge du pétrole, de l’électricité et de la vapeur?). Chaque âge a apporté son lot d’innovations spécifiques, non seulement technologiques, mais plus encore en matière de législation et de régulation. Il en conclut que les données apportent des réponses pour transformer nos pratiques de régulation.

En connaissant mieux le trafic automobile par exemple, grâce aux données des plateformes de véhicules avec chauffeurs, de covoiturage ou de GPS communautaire on peut imaginer de nouvelles formes de régulation. Comme en connaissant mieux la boulangerie on peut adapter l’offre (c’est ce que font les plateformes en s’adaptant sans cesse à leurs utilisateurs) mais également la régulation (puisqu’on connaît l’activité des utilisateurs).

Comment expérimenter la politique conduite par la donnée ?

Grossman défend activement une régulation informée par la donnée – ce qu’il appelle « la politique conduite par la donnée » (data-driven policy) – qui imagine que les règles qui s’imposent à tous soient construites sur de l’information statistique pour rétroagir sur la société elle-même. Reste que pour aboutir à cette forme applicative de l’ingénierie sociale, le problème est bien sûr de pouvoir avoir accès aux données, de les partager, entre citoyens, entreprises et autorités et également de trouver les modalités communes de leurs usages.

Mais c’est loin d’être le cas. « Les plateformes sont comme de petites dictatures qui édictent leurs propres règles », rappelle-t-il. Difficile pour les autorités publiques d’avoir accès à ces données, d’autant que tous les accès aux données ne sont pas nécessairement de confiance (comme nous le pointions dans notre article sur les limites à la loyauté des plateformes). Sans compter également que toutes les autorités ne sont pas équivalentes : quand le FBI veut avoir accès aux données des Gafa, ce n’est pas la même chose que quand une ville veut avoir accès aux données de ceux qui organisent du transport ou du logement sur son territoire. Rendre accessibles les données nécessite donc d’imaginer et de construire des formes de régulation (la carotte et le bâton), en partie parce que la valeur de ce partage est loin d’être toujours claire (et ce d’autant plus que ce partage pose des questions de confidentialité et de concurrence). Plutôt que de trouver une solution magique à cette tension, Grossman demeure pragmatique : pour promouvoir de nouvelles formes de transparence, le mieux est encore d’expérimenter, afin de trouver, pour chaque cas, les bonnes modalités de mise à disposition des données, de partage, de valeurs…

Nick Grossman évoque deux exemples en démonstration de sa thèse : Airmap, un système de gestion du trafic aérien sans pilote qui facilite l’échange de données et le contrôle du trafic aérien pour les drones (signalons d’ailleurs que le Secrétariat d’Etat à la modernisation de l’action publique vient de lancer une plateforme assez similaire, drone.beta.gouv.fr). Une plateforme de régulation qui fait le lien entre les pilotes et les autorités, en développant par exemple de la géo-identification pour interdire certains espaces aux drones ou favoriser leur identification par les autorités. Une plateforme qui a le potentiel de créer une régulation adaptée aux utilisateurs depuis les données que les pilotes et les constructeurs partagent. Grossman espère que nous allons voir se démultiplier ce type de plateformes très spécifiques, « verticales », permettant aux différents acteurs de discuter entre eux, très concrètement, par le partage de données.


Image : la carte des drones, avec ses zones de régulation, via drone.beta.gouv.fr.

D’autres plateformes, plus horizontales, permettant de mieux partager des données et de mieux les protéger par exemple devraient également voir le jour, estime l’investisseur, en évoquant Enigma (né au MIT) et le chiffrement homomorphe qui permettent d’interroger les données et de faire des calculs tout en les laissant chiffrées. Une solution technique qui permettrait par exemple de mieux partager des données sans que les systèmes y accèdent en détail tout en leur permettant de les interroger à leur gré. Un exemple éminemment vertueux à nouveau, même si cette opacité sur les données générée par le chiffrement pose aussi des questions sur la validité des données partagées.

Des limites de la « politique conduite par la donnée »

En fait, contrairement à ce qu’avance Grossman, la régulation amont (la licence, l’autorisation ou leur contraire, l’amende?) ne recoupe pas nécessairement le périmètre sur lequel agit la régulation par les données. En fait, les deux formes ne s’opposent pas tant qu’elles se complètent, avec des objectifs et des modalités distinctes. Surveiller la construction des immeubles n’est pas la même chose que leur donner une autorisation de construction selon le respect des critères auxquels les constructeurs doivent se conformer avant la construction. La régulation par les données ne pourra peut-être pas s’appliquer partout et pour tout. L’instauration de boucle de rétroaction vertueuse nécessite de la transparence et du dialogue pour peaufiner les critères (évaluer et surveiller dans le temps leur pertinence) comme le soulignait très bien Cathy O’Neil.

Autre problème : les plateformes sont très fragmentées, ce qui pose la question de l’agrégation des données multiples, pas forcément compatibles entre elles, de leur coordination et de la gestion de cette coordination, comme nous le soulignions déjà. Enfin, autre écueil et non des moindres : la question de la validité et de la pertinence des données. Les politiques conduites par la donnée posent la question des données utilisées et introduisent le risque d’un facile datasolutionnisme, produisant des indicateurs et des politiques depuis des données peu adaptées à cela. Or, tous les problèmes ne sont ni visibles ni solubles dans les données. L’enjeu n’est pas tant de conduire des politiques depuis les données, de produire une régulation à la demande, que de trouver dans les données des modalités de rétroaction vertueuses. D’où l’appel de Grossman à expérimenter, à jouer du « bac à sable réglementaire » pour trouver les modalités effectives du partage des données et des formes de régulation.

Reste que « la politique conduite par la donnée » pose bien d’autres problèmes encore. Démultiplier les données n’abolit pas les choix politiques comme de savoir quelles données et quels critères sont utilisés pour la régulation. A l’image du débat actuel sur les prérequis attendus des lycéens pour postuler dans les formations universitaires : si l’on demande des notes ou compétences minimum, reste à savoir lesquelles, comment et par qui elles sont déterminées et évaluées. Si vous devez avoir au moins un 13 dans telle matière pour concourir à telle formation, comment est calculée cette note ? Est-ce celle des premiers trimestres de terminale ou celle du du Bac ? Est-ce que ce prérequis est calculé depuis les résultats des précédents candidats (aucun de ceux qui sont allés dans cette formation n’ont réussi avec moins de 13 dans cette matière) ? Avec le risque bien sûr, que les critères choisis s’auto-renforcent. Enfin bien sûr, les systèmes automatisés posent la question des possibilités de recours?

Le problème de l’accès aux données n’est pas non plus un petit problème. Même si cet accès était facilement possible, cela ne signifie pas pour autant qu’il soit loyal, comme le soulignait les activistes Murray Cox et Tom Slee en montrant qu’Airbnb ne donnait pas accès à toutes ses données comme les problèmes de manipulation de données d’Uber. A Bordeaux, l’Observatoire Airbnb monté par un élu local, Matthieu Rouveyre, pointe également toutes les limites de confier des formes régulatoires aux plateformes. En fait, l’une des questions de fond que pose « la politique conduite par la donnée » est que bien souvent elle repose sur la nécessaire fusion de la plateforme et de la politique, avec le risque d’être juge et parti. Une perspective qui pose une question de régulation intrinsèque : comment séparer ces deux perspectives dans des outils, qui par nature, tirent leur force de cette double capacité ? Or, nos modalités démocratiques ont toujours veillé à distinguer les pouvoirs. Les plateformes de données, par essence, proposent à la fois des modalités où la mise en oeuvre, le contrôle et l’autorité sont interdépendants, un peu comme si les pouvoirs législatifs, exécutifs et judiciaires procédaient d’une seule et même entité. L’extension de l’action aux données elles-mêmes que recouvre l’enjeu des politiques conduites par les données pose la question de leur contrôle démocratique. Le risque est que mesures et données deviennent performatives, les plateformes deviennent productrices de leurs propres règles favorisant à terme un mandat impératif et une société sans pouvoir.

Le risque d’une Gouvernance par les nombres, soulignait le juriste Alain Supiot dans son ouvrage éponyme, est que la régulation par la donnée transforme la politique en simple fonctionnement, que les mesures et les critères de performances qu’elle produit devienne le critère de la gouvernance. Le risque que cela induit est que le système produise sa propre optimisation depuis des critères retenus sans grand contrôle démocratique et sans séparation des pouvoirs entre le système et la régulation qu’elle produit. Le calcul devient autoréférentiel, produisant à la fois des indicateurs, la mesure et son but.

Quand les machines servent à la fois à rendre compte, à administrer, juger et légiférer… le risque est de voir fusionner la satisfaction des indicateurs et la réalisation des objectifs au détriment de tout contrôle démocratique par ceux qui sont calculés, administrés, jugés et ainsi légiférés.

Hubert Guillaud

  • Le niveau des discussions politiques a (encore) baissé

Vous pensez que la qualité des discussions politiques (notamment en ligne) ne cesse de se dégrader ? Mais s’agit-il d’une simple impression subjective, ou cela traduit-il une réalité ? Selon une étude dirigée par Rishab Nithyanand (@rishabn_) de l?institut Data & Society (@datasociety), et rapportée par le New Scientist (@newscientist), il semblerait (...)

Vous pensez que la qualité des discussions politiques (notamment en ligne) ne cesse de se dégrader ? Mais s’agit-il d’une simple impression subjective, ou cela traduit-il une réalité ? Selon une étude dirigée par Rishab Nithyanand (@rishabn_) de l?institut Data & Society (@datasociety), et rapportée par le New Scientist (@newscientist), il semblerait bien que le niveau des discussions, déjà pas très élevé, ait atteint de nouveaux abîmes?

Les chercheurs ont pris Reddit comme objet de leur analyse. Pourquoi Reddit ? Parce que, nous explique le New Scientist, les commentaires peuvent être plus longs que les proverbiaux 140 (pardon, 280) caractères de Twitter. Et, contrairement à Facebook, on n’est pas obligé de dévoiler son identité sur Reddit, ce qui garantit une plus grande liberté de ton.

Ont donc été analysés pas moins de 3,5 milliards de commentaires publiés par 25,3 millions de personnes entre 2007 et 2017. Ces données étaient divisées en deux groupes : l’un était composé des commentaires sur des sujets non politiques, et l’autre, on l’aura deviné, regroupait toutes les discussions portant sur ce domaine.

Résultat, les usagers des forums politiques utilisaient 35 % de termes agressifs en plus que les auteurs de commentaires non politiques. Et cette tendance s’est montrée encore plus forte entre mai 2016 et mai 2017 (donc, la période englobant la campagne présidentielle américaine et les premiers mois de Donald Trump à la Maison-Blanche) que pendant toutes les autres années.

Les chercheurs ont également analysé le niveau de complexité des messages en utilisant un test éprouvé, celui de Flesch?Kincaid. Ils ont découvert que le niveau global des commentaires était passé du niveau d’un adolescent de 12 ans (ce qui n?était déjà pas terrible) à celui d’un enfant de 6 ans au cours des dernières années.

Quelle peut être la cause d’une telle dégradation ? Cela peut s’expliquer par plusieurs raisons : ainsi, l’équipe a repéré l’arrivée d’un grand nombre de nouveaux utilisateurs Reddit qui auront peut être contribué à dégrader la qualité du discours. Il est également possible que des extrémistes, qui ne postaient pas jusqu’ici sur des sites « mainstream », se soient mis à y participer, donnant ainsi un tour plus violent aux conversations. Autre possibilité, plus inattendue : qu’un grand nombre des posts aient été effectués par des robots. Comme l’a rappelé Nithyanand au New Scientist, c’est une pratique qui s’est déjà largement développée sur Twitter : « pendant le Brexit, ils ont juste retweeté des propos en faveur du camp de Leave… Lors des élections américaines, il s’est agi d’une campagne de propagande complète, qui a excité les gens et alimenté un feu d’insultes partisanes. »

Et quel est le rôle de Trump dans tout ça ? Pour Nithyanand, on ne peut pas déduire avec certitude un rapport de cause à effet entre son accession au pouvoir et la dégradation du discours (ou l’inverse). Mais tout de même, précise-t-il, « L’étude montre une forte corrélation entre la montée de la popularité de Trump et une augmentation de l’agressivité… Les politiciens de haut niveau ont la responsabilité de rester plus civils, parce que les gens imitent leur comportement. »

  • GPS : de la valeur par défaut

Sur son blog, Michael Verdi (@michaelverdi), designer pour Firefox, pointe un excellent exemple des ambiguïtés des architectures de choix décidées par-devers nous. Michael possède un véhicule hybride, une Chevrolet Volt. Pour surveiller sa consommation électrique, il dispose d’un tableau de bord précis qui lui montre par exemple que sa batterie (...)

Sur son blog, Michael Verdi (@michaelverdi), designer pour Firefox, pointe un excellent exemple des ambiguïtés des architectures de choix décidées par-devers nous.

Michael possède un véhicule hybride, une Chevrolet Volt. Pour surveiller sa consommation électrique, il dispose d’un tableau de bord précis qui lui montre par exemple que sa batterie se vide bien plus rapidement lorsqu’il roule plus vite, à 120 qu’à 100 km/h. Or, il a remarqué que les GPS qu’il utilise ont toujours tendance à lui proposer les itinéraires les plus rapides, c’est-à-dire ceux qui passent par les voies les plus rapides. Pour se rendre à son restaurant préféré, Apple Maps et Google Maps l’envoient tous les deux sur la voie rapide, lui faisant faire des itinéraires entre 14 et 12 kilomètres. Or, s’il prend la route la plus courte, sans passer par les voies rapides, il ne fait que 8 kilomètres, mais met 1 à 2 minutes de plus. Or, a-t-il calculé, s’il utilise la route la plus rapide et qu’il va plus vite, sa voiture va consommer bien plus d’énergie que s’il prend la route la plus courte. Il échafaude ensuite, via un rapide calcul, que baser les GPS par défaut sur l’économie d’énergie plutôt que la vitesse permettrait d’enlever de la circulation l’équivalent annuel de quelque 800 000 voitures aux États-Unis.

Qu’en serait-il si les GPS de voiture, par défaut, nous montraient les itinéraires les plus respectueux de la planète, les plus économes en énergie, ou les plus respectueux de nos portefeuilles ? Chiche ?

MAJ : Sur son excellent blog, Justin O’Beirne, souligne quant à lui, que les voitures autonomes auront besoin d’autres types de systèmes de cartographie que ceux existants.

  • De l?automatisation des relations? à notre propre automatisation

Les systèmes de réponses automatisés, à l’image des chatbots, ne sont rien d’autre que des machines plus ou moins bien entraînées qui tentent de se faire passer pour des humains (ou encore, trop souvent, des humains qui tentent de se faire passer pour des machines), explique le journaliste David Ryan (...)

Les systèmes de réponses automatisés, à l’image des chatbots, ne sont rien d’autre que des machines plus ou moins bien entraînées qui tentent de se faire passer pour des humains (ou encore, trop souvent, des humains qui tentent de se faire passer pour des machines), explique le journaliste David Ryan Polgar (@techethicist) pour Quartz. Mais leur efficacité s’avance sous le masque de la duplicité. Et le risque à venir, à mesure que cette automatisation va investir tous nos outils, est que nous ne sachions bientôt plus à qui nous nous adressons, s’inquiète le journaliste. Avec les e-mails personnalisés, par exemple, le récepteur pense recevoir un message de l’expéditeur, quand il ne communique qu’avec la « marionnette » de l’expéditeur, un programme qui le plus souvent, ne donne pas accès à l’expéditeur (comme le rappellent les messages du type : « Nous vous informons que les messages reçus sur cette adresse e-mail ne sont pas pris en charge » ou « Merci de ne pas répondre à ce message »).

Pour David Polgar, le développement de l’automatisation de portions significatives de nos communications, en les présentant comme réelles, relève indubitablement de la tromperie.

En fait, explique-t-il, ces systèmes automatisés visent à nous aider à élargir le sentiment d’intimité à l’heure où les outils numériques nous permettent d’entretenir de plus en plus de relations. Au lieu de réduire ou limiter nos relations ou d’être transparents sur l’utilisation d’outils automatisés, nous nous dotons de bots, de « marionnettes », censées nous représenter pour démultiplier et entretenir nos relations. Mais cette communication via des bots, qui se présente comme authentique, n’est pas une forme inoffensive d’efficacité communicationnelle : elle méconnaît complètement les qualités fondamentales des relations. Les relations sont construites sur la réciprocité de temps ou d’énergie émotionnelle. Communiquer avec autrui via des systèmes automatisés en faisant croire à un investissement authentique tient donc plus de la duperie qu’autre chose. David Polgar explique ainsi avoir reçu un message automatique personnalisé après s’être abonné à une personne sur Twitter. Un message qu’il a trouvé plus offensant qu’efficace. Le problème estime-t-il, c’est que si nous sommes prêts à utiliser des outils de communication automatisés pour faire passer nos propres relations à l’échelle, nous sommes beaucoup moins enclins à accepter qu’on utilise ces mêmes outils sur nous. Le risque à terme, c’est celui d’une course à des relations complètement automatisées, produisant une communication sans fin et sans frictions? mais entièrement inutiles.

Dans un autre article sur le même sujet écrit pour l’un des blogs d’IBM, David Polgar rappelle d’ailleurs que le test de Turing lui-même, ce Graal de la mesure de l’intelligence artificielle, a pour principe l’imitation : l’intelligence pour Turing consistait à ce que la machine parvienne à se faire passer pour un humain. Pas sûr pourtant que le fait de confier notre communication à des machines représente une grande avancée. Ici, il prend l’exemple de Linked-in qui propose d’envoyer des messages standardisés à ses relations par exemple pour les féliciter de leur anniversaire de travail (un concept qui semble lui aussi provenir des profondeurs de la simplification automatique). Comme dans le cas du rituel des anniversaires sur Facebook, de plus en plus souvent, nous pouvons attacher des messages à nos avatars en ligne, des messages qui se veulent pleins d’humanité, mais qui sont en fait dépouillés de toute humanité, puisqu’ils peuvent être rédigés et adressés sans aucune intervention humaine. Pour la psychologue Liraz Margalit, responsable de la recherche comportementale chez Clicktale, le problème est qu’en prenant l’habitude d’interagir avec des robots, nous réintroduisons dans nos rapports avec des humains des modèles que nous développons dans nos interactions automatisées.

Pour le philosophe Evan Selinger (@evanselinger), responsable des recherches et de l’éthique du Centre pour les médias, les arts, les jeux, l’interaction et la créativité du Rochester Institute of Technology, le développement de nos « liens faibles » qu’entretiennent les réseaux numériques, nous poussent à une communication succincte. « Nous subissons collectivement l’attraction d’adopter des styles de communication marchandisés ». « Quand notre comportement communicatif est conçu pour devenir plus automatique que délibératif, nous pouvons avoir l’impression que c’est notre humanité même qui s’effondre », explique encore Selinger.

Evan Selinger et le juriste Brett Frischmann (@brettfrischmann), qui publieront au printemps 2018 Re-Engineering Humanity, ont récemment produit une réflexion sur une forme de test de Turing inversé, pour tenter d’évaluer nos différents niveaux d’intentionnalité. Pour Selinger et Frischmann, le monde ne se sépare plus seulement entre humains et robots, mais se complexifie d’« humains botifiés » et de « bots humanisés ». Pour les chercheurs, c’est à nous de rester conscients de la manière dont nous communiquons. Tout l’enjeu, expliquent-ils, consiste à mesurer si la technologie augmente ou diminue notre humanité. Sommes-nous en train d’être reprogrammés par les machines ? Selon eux, il nous faut une méthode pour comprendre la valeur des dynamiques relationnelles qui se tissent entre machines et humains. Pour cela, si on mesure l’humanité des machines, il nous faut en regard tenter d’évaluer quand et comment nous nous comportons comme des machines.

Pour eux, la question de savoir ce que signifie être humain face aux machines n’est plus si triviale. Nous ne devrions pas tant avoir peur des robots, que d’avoir peur de devenir nous-mêmes des robots, expliquent-ils. « Il nous faut introduire des valeurs humaines dans la technologie plutôt que la technologie n’introduise ses valeurs dans notre humanité ». Pour cela, il faut être capable de mesurer quand une technologie est déshumanisante ou quand les humains ne pensent pas ou ne se comportement pas en humains.

Comme le soulignait les deux auteurs dans une tribune pour le Guardian, l’enjeu n’est peut-être pas tant de savoir si les robots vont prendre notre travail que de savoir si leur démultiplication ne va pas nous transformer en robots, nous « saper de notre humanité ». Depuis les chaînes de montage de Taylor où les humains se livrent à des tâches répétitives de robots, les hommes sont devenus des rouages de machines programmables. Et la version moderne et numérique du taylorisme est plus puissante et plus déshumanisante que jamais. Avec le Big Data, le taylorisme s’est propagé bien au-delà de l’usine. Des livreurs à vélo aux chauffeurs de voitures qui doivent suivre à la lettre les instructions des machines? partout les humains sont surveillés, monitorés, suivis, tracés, synchronisés, conduits par des capteurs qui mesurent tout, de leurs emplacements permanents à leurs performances. Comme le soulignent certains chercheurs, comme Karen Levy (qui a étudié par exemple la surveillance dans les lieux de travail hypermasculins), les systèmes de gestion intenses réduisent l’autonomie des travailleurs, accroissent les cadences? et donc leurs effets psychosociaux, comme la perte de sommeil.

Pour les auteurs, ce n’est pas seulement que l’intensité de la surveillance s’est accrue, c’est aussi qu’elle s’est dissimulée partout : dans les outils que les employés utilisent, dans les caméras de surveillance, dans les logiciels qu’ils utilisent… Surtout concluent-ils, si sur le papier transformer les humains en machine semble produire de l’efficacité, rien n’est moins sûr (à tout le moins, si c’est le cas, c’est sans mesurer les coûts sociaux et les contreparties qui ne sont pas assumées par ceux qui mettent en place ces techniques).

La déshumanisation n’est pas seulement imputable à l’utilisation croissante de la technologie, expliquent-ils encore dans un autre article pour Quartz. Nous sommes trop confiants et dépendants des développements technologiques et nous supposons donc que chaque nouvelle technologie est bénéfique par nature. L’efficacité également alimente notre engouement : or, être humain est parfois coûteux, notamment en terme d’efficacité. L’optimisation ne peut pas tout.


Vidéo : Sur We Make Money Not Art, Regine Debatty revenait sur le festival DocLab à Amsterdam dont le thème était justement « est-ce que les robots nous imitent ou imitons-nous les robots ? » Elle évoquait notamment le dernier projet de Superflux et Mozilla, mené par Brett Gaylor, le réalisateur du documentaire Do Not Track, Nos amis électroniques (vidéo), une critique des interfaces vocales qui nous rendent fous en nous demandant, comme le feraient des enfants, les raisons à ce qu’on leur demande de faire.

  • Vers une ville numérique ingouvernable (2/2) ? Le modèle de la startup en ses limites

L’innovation n’est pas absente de la ville numérique. Au contraire. Elle est foisonnante. Mais ce foisonnement apparent cache une certaine homogénéité qui se cristallise autour de l’impact d’un modèle ultra-dominant : celui de la startupisation de l’innovation. Or, les enjeux que soulève le programme Audacities de la Fing (éditeur d’InternetActu.net) et (...)

L’innovation n’est pas absente de la ville numérique. Au contraire. Elle est foisonnante. Mais ce foisonnement apparent cache une certaine homogénéité qui se cristallise autour de l’impact d’un modèle ultra-dominant : celui de la startupisation de l’innovation. Or, les enjeux que soulève le programme Audacities de la Fing (éditeur d’InternetActu.net) et de l’Iddri, montrent qu’innovation et gouvernance sont liées, qu’elles sont les deux faces d’une même demande collective. Reste que l’arrivée des startups, ces nouveaux acteurs de l’innovation ne favorisent pas une gouvernance partagée, au contraire. Par essence, chaque startup optimise son propre service, au détriment d’une approche collective. Waze optimise son service pour fournir aux conducteurs le plus court chemin pour aller d’un point A à un point B, au détriment des politiques publiques de mobilité, comme le soulignait très bien le chercheur Antoine Courmont. Airbnb optimise la rentabilité de la location touristique de courte durée professionnalisée au détriment des possibilités de location de logement traditionnelle de longue durée, comme s’en émouvait récemment la fondatrice de Bedy Casa dans une tribune pour Challenges. La récente limitation de location à 120 nuitées à Paris (mais pas pour le reste de la France), à 60 nuitées à San Francisco? semblent autant de tentatives pour limiter une « disruption » sur laquelle l’acteur public est toujours à la peine alors qu’il dispose de moyens d’action limités selon ses compétences.

La startup : solution ou problème ?

On pourrait vouloir voir entre les approches présentées par Etalab et le Numa (voir la première partie de notre dossier) des différences de fond. D?un côté, la Ville de Paris déléguerait son innovation, de l?autre l?État, chercherait lui, à garder le pouvoir. Mais ce n?est pas si simple, remarque Romain Tales d’Etalab. L?outsourcing, le fait de faire développer des services par des tiers, coûte parfois cher. Etre capable de faire en interne, ou de contrôler les projets comme le soulignait un récent article de Libération, d?avoir la main sur les développements peut être parfois important, selon les projets. « L?enjeu n?est pas de chercher à tout faire, ni de faire mieux, mais il est important de laisser aussi sa chance à l?administration de faire aussi bien que leurs délégataires », souligne Romain Tales.

Le programme d?intrapreneuriat de la ville de Paris avec ses startups de Ville, comme les programmes de startups d?État ou d?entrepreneurs d?intérêts général visent à faire monter en compétence les services dans une logique d?innovation interne. L’enjeu n’est pas tant de créer de réelles startups que d’acculturer les services publics à d’autres méthodes d’innovation. Seul Datacity s?inscrit dans une logique externe, qui valorise les compétences des délégataires de services publics et de startups. Mais au-delà de ces programmes spécifiques, la plupart des programmes d’aides à l’innovation sont encore largement dirigés vers les startups technologiques, via de multiples incubateurs, au détriment d’autres formes d’innovation. C’est peut-être là que le bât blesse. Promouvoir la startup comme le seul et unique modèle d’innovation, c’est invisibiliser, pousser dans l’angle mort, tous les autres dispositifs qui existent, toutes les autres formes d’amélioration et de transformation. Comme le soulignait très bien l’entrepreneur Mehdi Medjaoui ou comme le concentraient les critiques que nous formulions à l’encontre de l’État plateforme, la startup n’est pas la seule façon d’innover. A ne promouvoir qu’elle, le risque serait de laisser de côté toute forme d’innovation qui n’entre pas dans cette case ou de forcer tout projet à y entrer. Tous les projets n’ont pourtant pas vocation à se transformer en services commerciaux et tous les projets n’ont pas vocation à devenir des services. Le risque également est de favoriser certaines formes d’innovation technologique? au détriment d’autres, notamment celles qui reposent sur l’innovation sociale, celles proposées par d’autres acteurs comme des associations ou des PME.

La méthode startup en question

La startupisation pose également la question de l’uniformisation des méthodes. Tous les programmes d’incubation, d’accélération et de développement ont tendance à utiliser les mêmes méthodes, comme si l’innovation n’était possible qu’en utilisant celles-ci au détriment de toutes autres, sans voir leur réductionnisme. De partout, on prône l’agilité, le lean management, la rapidité, l’ouverture (avec beaucoup de non-dits sur ces la valorisation d’échanges ouverts qui s’appliquent plus aux données des autres qu’aux méthodes qu’on s’applique à soi-même)…

Dans l’introduction au riche dossier que livre le dernier numéro du magazine Socialter en forme d’appel à faire de la France une terre d’innovation différente (« La France, une sociale Valley »), le journaliste Philippe Vion-Dury rappelle les enjeux du mode d’innovation que constitue la startup, en puisant dans une de ses bibles, le livre De zéro à un, du business angel libertarien Peter Thiel. Une startup a pour objet la perturbation, c’est-à-dire la disruption, des codes, marchés ou règlements. Son second impératif est la croissance et la vitesse. Le troisième c’est de chercher à établir un monopole. D’autant plus que leur dernier enjeu est bien de court-circuiter le législateur, afin que « la loi soit obsolète, le reste le plus longtemps possible, et qu’étant finalement trop puissant pour être sanctionné, on puisse tranquillement faire du lobbying pour aménager la loi selon ses intérêts ». Autant d’objectifs qui ne croisent nulle part ceux des acteurs publics, au contraire. Ça n’empêche pas les acteurs publics de soutenir activement cette forme d’innovation, au prétexte du développement économique, de la compétition économique internationale, de l’innovation?

L’angle des méthodes utilisées pour transformer les projets en startups a tendance à chercher à réduire leurs propositions à l’aune de leur seule efficacité. Le risque est bien, en utilisant partout les mêmes méthodes (valorisation, dumping des prix, optimisation à tout crin, recherche de positions monopolistiques?), de faire advenir les mêmes types de solutions et les mêmes types d’entreprises. C’est d’ailleurs déjà beaucoup le cas, avec des secteurs très embouteillés où de multiples entreprises exploitent les mêmes domaines (la mobilité « flottante », les services de livraisons ou location à la demande, les services de type majordome, les services de « co-« voiturage, de co-location, etc.).

Les mêmes méthodes et les mêmes soutiens aux mêmes formes opératoires d’innovation nous confrontent non seulement à un foisonnement d’innovation, mais plus encore à un foisonnement uniforme d’innovation. La concentration de dispositifs de soutiens à l’innovation similaires (incubateurs, accélérateurs, concours, modes de financement?) bénéficie à ceux qui rentrent dans ces cadres au détriment de ceux qui pourraient proposer des modalités d’action différentes, comme les modèles associatifs, les coopératives, les innovations sociales? Les méthodes utilisées sont dupliquées tant et si bien que tout ce qui ne s’inscrit pas dans ces méthodes, modèles économiques et temporalités ne semblent plus pouvoir exister. Tout projet qui ne devient pas startups semble exclu des modèles de soutien, de financement, d’accompagnement, de développement, de mise en visibilité?

De la célébration des startups à l’heure du triomphe des plateformes

Cette victoire sans conteste de la startupisation est d’autant plus étrange que les beaux jours de cette forme d’innovation semblent derrière elle. La célébration de ce modèle particulier d’innovation est paradoxal : on n’a jamais autant célébré la startup à l’heure du triomphe des plateformes. C’est ce que soulignait Joe Evans (@rezendi) sur Techcrunch en pointant la fin de l’ère des startups. Il expliquait combien toutes les grandes métropoles cherchent à devenir des territoires d’accueils de startups, démultipliant les projets d’incubateurs, les programmes d’accélérateurs (et de « lieux totems » pour les accueillir). Toutes les villes rêvent de devenir la nouvelle Silicon Valley. Or, souligne-t-il, on a changé de décade. Désormais, les entrepreneurs « ont bien plus de chance de finir par travailler pour Mark Zuckerberg que de suivre ses pas ». Du boom du web (1997-2006) à celui des applications (2007-2016), nous sommes entrés dans l’ère des plateformes, où les startups n’ont plus leur place. Les technologies sont devenues plus compliquées, plus chères et les entreprises ont besoin de plus de croissance et de capital pour réussir, sans être toujours assuré d’y parvenir comme l’explique très concrètement le spécialiste de l’économie du partage, Steven Hill (@stevenhill1776), dans une tribune pour le Monde.fr en disséquant le cas Uber, désespérément non rentable. Pour Joe Evans, le ralentissement du financement des startups n’est pas un hasard. Les mégaplateformes que sont Alphabet, Amazon, Apple, Facebook et Microsoft l’ont emporté (tout comme les plateformes chinoises de Tencent, Alibaba et Baidu). La prochaine vague technologique n’est plus accessible aux jeunes pousses : l’intelligence artificielle notamment a plus que jamais besoin de données, et c’est l’affaire des plus grosses entreprises. Le matériel est difficile à prototyper, rapporte peu et est cher à pousser sur les marchés. Les voitures autonomes sont encore bien plus inaccessibles… Pour Joe Evans, les startups rêvent plus que jamais d’être rachetées par les plateformes. Les jeunes pousses prometteuses de Y Combinator, l’un des plus importants fonds d’investissement dans les nouvelles technologies sont les mêmes en 2017 qu’en 2012, à savoir Airbnb, Dropbox et Stripe. Même si Y Combinator a financé bien plus de startups depuis 2012 qu’avant, aucune n’est devenue un géant. À mesure que les titans technologiques accumulent de la puissance, les startups ont de plus en plus de mal à rivaliser.

Il n’y a pas que Techcrunch qui s’en alarme. Le New York Times, Wired, Vox… se sont également fait écho de la disruption de la disruption… En France, on se félicite néanmoins du développement des soutiens aux startups, de la progression de l’investissement et de nos réussites entrepreneuriales, comme le souligne le journaliste Benjamin Ferran pour Le Figaro, même si celles-ci font figure de nains économiques.

En France, le numérique ces dernières années a été un des rares secteurs à connaître une croissance soutenue, dans un contexte général de crise, de chômage de masse? les startups semblent aujourd’hui les structures qui embauchent. Soutenir les startups, c’est donc pour beaucoup soutenir le développement économique et donc l’emploi. Même si les chiffres peinent à réaliser ces espérances. En fait, comme le souligne encore très bien le dossier de Socialter, c’est oublier par exemple que les chiffres de l’innovation sociale et solidaire sont bien plus stimulants que ceux de l’innovation numérique : l’ESS représente 10,5 % du PIB de la France, 220 000 établissements, 2,4 millions de salariés sans compter les 730 000 structures associatives, ses 23 millions d’adhérents, ses 16 millions de bénévoles, ses 21 000 coopératives? L’emploi y a crû de 23 % au cours des 10 dernières années. Comparativement, les startups dont on parle tant ont des résultats plus modestes. On dénombre environ 10 000 startups en France (dont ? en Ile-de-France), soutenus par quelque 284 structures (incubateurs, accélérateurs?). Quant au nombre d’emplois qu’elles génèrent, les sondages parlent de quelques milliers par an. Bien moins que le secteur du numérique dans son entier en tout cas, qui est loin d’être composé uniquement de startups.

Qu’importe. Cela n’empêche pas l’innovation numérique au format startup de s’imposer comme un modèle et d’inspirer bien d’autres secteurs. Tous les grands groupes ont désormais leur portefeuille de startups, leurs élevages. Toutes les villes cherchent à se doter de fermes industrielles d’incubation. Partout les structures de soutiens se multiplient.

Le problème, c’est que la vampirisation de toutes les formes innovantes par la startup (qui colonise jusqu’à certaines formes de l’économie sociale et solidaire) contribue à son déclin et à sa saturation. Certes, dans la grande galerie des méthodes d’innovation, il y a toujours eu des modes, des modèles dominants et des modèles dominés. Aujourd’hui, le modèle dominant de la startup écrase tous les autres modèles, notamment les modèles imparfaits, ceux qui tâtonnent, ceux qui avancent sans méthode préétablie. Le modèle de l’innovation a la gueule de bois, comme l’internet depuis les révélations d’Edward Snowden. Nous sommes passés du rêve d’un internet émancipateur à la réalité du digital labor. Dans le domaine de l’innovation nous sommes passés du rêve d’une innovation libre et sans contrainte, à des méthodes obligées pour produire de l’innovation en série avec ses cohortes de startups qui se ressemblent que ce soit dans le domaine de la rencontre, des petits boulots à la demande, du transport à la demande? Qu’importe si elles ne produisent pas vraiment de valeur ajoutée, ou si elles n’adressent pas vraiment de grands problèmes. L’important est qu’elles produisent vite des résultats. Qu’elles soient agiles. Qu’elles pivotent. Qu’elles utilisent des méthodes dites efficaces? Qu’importe si elles ne produisent pas mieux ni plus d’innovation. Qu’importe si elles ne produisent pas de sens.

Le problème de cette bascule, c’est qu’elle se fait au détriment d’autres modèles et qu’elle réduit la diversité. L’innovation en provenance du tiers secteur, des associations, des PME et PMI, comme le champ de l’innovation sociale, elles, semblent invisibilisées par la célébration des startups. La ville comme plateforme d’innovation ouverte s’est réalisée. Mais la ville n’en a pas été l’opérateur. Les startups utilisent l’infrastructure physique des villes pour opérer, sans plus avoir besoin de délégation. Ce qui laisse les villes assez démunies pour réagir, pour orienter cette innovation, comme le montre l’exemple de l’explosion des systèmes de transports à la demande ou des plateformes de location à la demande que les villes peinent à réguler. Difficile pour elles d’agir, car agir consiste à réglementer voir interdire les startups qu’elles glorifient par ailleurs via les programmes qui les engagent avec elles. Alors que, par nature, les startups cherchent avant tout à « disrupter », c’est-à-dire contourner les infrastructures et règlements nécessaires à la cohésion sociale et urbaine.

Or réguler les flottes de véhicules à la demande, de deux roues flottants, comme l’accès au logement tient, en partie, de la responsabilité des collectivités. De fait, la startupisation, parce qu’elle est le volant politique d’un projet économique, entre en conflit direct avec les politiques sociales pour ne pas dire avec la politique tout court.

A l’heure du foisonnement, où sont les stratégies ?

La startupisation ne regarde l’innovation que sous l’angle du développement de nouveaux services. Or, pour créer du changement, les nouveaux services ne sont que le haut de l’iceberg, résume l’entrepreneur Indy Johar de la Young Foundation dans un intéressant graphique (qu’évoquait longuement le blog de la 27e Région). Produire des changements plus durables nécessite de dépasser la seule innovation servicielle et courtermiste que proposent les startups, pour privilégier d’autres formes d’innovation. En regardant les problèmes que sous l’angle de leurs solutions, l’acteur public se contraint à être confronté à toujours plus de solutions servicielles, sans prioriser entre elles ou sans se doter pour autant d’objectifs ou de stratégies. Sans feuille de route, quels services favoriser ? Quelles orientations prendre ? Face à une innovation devenue foisonnante, bien qu’homogène, comment piloter l’innovation ? Comment soutenir les startups ? Sur quels critères ?… Les nouveaux services ne sont pas toujours raccords avec la stratégie quand elle existe. Comme pour mieux contraindre l’innovation foisonnante, les stratégies réussies ont tendance à devenir plus radicales à l’image de la politique zéro déchet de San Fransisco ou zéro carbone de Copenhague. Sur l’iceberg de l’innovation, on ne célèbre que les nouveaux services, sans regarder ce qui est abandonné sous la ligne de flottaison : la stratégie, la cohérence, l’objectif économique, politique et social.

C’est au final devenu un peu un gros mot dans une innovation startupisée, mais définir des objectifs et des stratégies pour concentrer et orienter les moyens, définir une politique de l’innovation qui ne soit ni courtermiste, ni technosolutionniste, qui donne des objectifs à long terme, qui oriente l’innovation, encourage ses formes sociales et pas seulement la seule valorisation technologique, semble faire défaut.

Dans un monde où les politiques manquent d’objectif, les services des startups semblent occuper tout le terrain. Qu’importe si leurs solutions sont peuplées d’angles morts : le logement social, l’impact écologique, l’emploi? c’est-à-dire les défis environnementaux et sociaux. Pas sûr que la démultiplication des plateformes de covoiturage suffisent à résoudre le problème de l’autosolisme et de la congestion des grandes agglomérations. A nouveau, l’enjeu n’est pas de dire trop simplement que les startups c’est le mal. 40 % des trajets réalisés avec Uber en Ile-de-France sont des trajets banlieue/banlieue. Cela montre que Uber est parvenu à adresser un problème de transport que les politiques publiques du transport en commun n’avaient pas adressé. Uber, en Ile-de-France, a créé 20 000 « emplois » (enfin, plutôt des autoentrepreneurs »). Ce ne sont pas deux petits effets. Et l’enjeu est de trouver les moyens de les améliorer et de les développer tout en limitant leurs effets négatifs. Aujourd?hui on raisonne et on s?affronte dans un périmètre de gouvernance qui n?a pas changé, et qui fonctionne en mode action/réaction, désordre/rappel à l?ordre, les plateformes disruptives comme Uber pratiquant la politique du fait accompli, qui maintient dans une posture réactive et empêcheur de tourner en rond l?acteur public urbain. C?est cette répartition des rôles qu?il convient de changer, et les deux bords nous semblent également prêts à l?accepter. C?est dans cette nouvelle configuration de gouvernance partagée, qui reste à construire, que l?on peut imaginer pouvoir faire le tri entre les externalités positives et négatives d?Uber, et renforcer les unes tout en corrigeant les autres.

Le strapontin des usagers : du rêve de l’émancipation à la réalité du digital labor

Reste enfin à questionner la place de l’usager dans cet écosystème. S’il est toujours valorisé, force est de constater que celui-ci est toujours vu comme un consommateur par les nouveaux services produits par les startups. Si tous les programmes placent l’usager au coeur de leurs dispositifs, le plus souvent, il demeure sur un strapontin, un simple cobaye voire un simple client. L’usager reste bien souvent sur le bord de la route de l’innovation startup, qui travaille pour les collectivités et les gouvernements pour mettre au travail les gouvernés, développent le digital labor au détriment de la capacitation.

L’innovation startup favorise une innovation de consommation. L’émancipation promise se concrétise dans un digital labor qui n’a rien de libérateur. Les usagers et consommateurs ne sont pas des victimes : ils sont demandeurs de services, d’applications, ils livrent leurs données sans états d’âme, ils légitiment les pratiques les plus disruptives qui leurs profitent et donnent de la force aux disrupteurs, qu’importe si cela produit de la précarisation, de la prédation, de la liberté sans pouvoir… Pourtant, l’enjeu est bien là. Si les questions d’innovation et de gouvernance sont liées, alors il est nécessaire de réinterroger la place de la gouvernance dans l’innovation, à l’image des propositions faites par le coopérativisme de plateforme (le livre éponyme de Trebor Scholz vient d’ailleurs d’être traduit chez Fyp éditions).

La startup n’est pas le problème, tant qu’elle reste une forme d’innovation parmi d’autres. Mais la concentration et l’uniformisation de l’innovation, qui consistent à ne valoriser que des entreprises dont le modèle n’est pas compatible avec un modèle de société, est le problème. Le problème est bien le modèle de société qu’impose la révolution numérique dont la startup est l’emblème. Comme le dit l’avocat Jean-Baptiste Soufron, la révolution numérique n’a fait que « renforcer les travers les plus évidents du libéralisme et du capitalisme », accélérant le capitalisme numérique, accroissant le pouvoir des dirigeants et du capital, n?améliorant ni la démocratie, ni le lien social ou l?estime de soi. «Si le numérique était vraiment disruptif, Uber appartiendrait à ses chauffeurs et Facebook à ses usagers.» Nous en sommes loin. L’absence d’usagers dans les modalités de gouvernance des entreprises accentue la dissonance.

Le modèle d’innovation a besoin de diversité. La startup ne peut pas rester le seul modèle valorisé et valorisable. Comme le soulignent bien des acteurs de l’innovation sociale auxquels donne la parole Socialter, beaucoup d’ingrédients sont déjà là. Reste à trouver les moyens d’encourager des formes d’innovation sociale. De construire des formes de soutien à une innovation sociale (cf. Pour une French Tech de l’innovation sociale qu’appelait de ses voeux Romain Dichampt, directeur du développement de Ashoka France). Promouvoir des systèmes de travail à la demande qui ne précarisent pas ceux qu’ils embauchent, des systèmes de transport à la demande respectueux des infrastructures et de notre modèle social, des systèmes de location collaborative limités, plafonnés?

Mettre l’innovation en débat


En fait, l’innovation et les politiques de soutien à l’innovation ne sont jamais mises en débat. Or, si nous avons besoin d’une politique de l’innovation, nous avons également besoin de mettre en débat cette politique (et aussi d’une innovation dans la mise en débat elle-même). Le soutien à l’innovation doit également rendre des comptes. L’accountability, la responsabilité, la loyauté et la transparence des systèmes techniques qu’on demande aux algorithmes et qu’on impose aux individus ne doivent-elles pas aussi concerner le soutien à l’innovation ? Nous avons besoin de débattre des modèles d’innovation que notre société promeut. On ne peut pas d’un côté célébrer des startups et des plateformes qui nous font les poches par l’optimisation fiscale et la disruption réglementaire et de l’autre, oublier les mécanismes politiques et sociaux nécessaires à la redistribution. Avec leurs services, les entrepreneurs du numérique nous disent ce qu’il faut faire, comment gérer la société, alors mêmes qu’ils utilisent des techniques pour s’abstraire de la société, en s’abstenant notamment de tout partage de l’argent, du pouvoir et de la gouvernance qu’ils s’accaparent.

On observe les gains de la productivité, mais on oublie les mécanismes politiques et sociaux nécessaires à la redistribution. Les entrepreneurs du numérique nous disent ce qu’il faut faire, comment il faut gérer la société alors même qu’ils l’instrumentent à leurs propres bénéfices. Si l’innovation est un sujet politique, alors il ne peut pas être confisqué par ceux qui s’en appliquent à eux-mêmes les principes et en retirent les bénéfices. C’est d’ailleurs seulement en faisant des politiques d’innovation un sujet de débat politique qu’on arrivera à remettre l’usager des politiques d’innovation au coeur et pas seulement dans la cible. C’est en faisant de l’innovation un sujet politique qu’on parviendra peut-être à faire se rejoindre l’innovation technologique et l’innovation écologique qui pour l’instant peinent à se croiser? C’est en en faisant un sujet politique qu’on sortira l’innovation du solutionnisme pour en faire une innovation inclusive, responsable, durable et créatrice d’emplois et de valeurs pour tous, plutôt qu’une innovation prédatrice. La politique de l’innovation a besoin d’entamer un dialogue avec la société. Quand on constate la différence entre le foisonnement de politiques de soutien à l’innovation économique et aux startups et la modestie des moyens alloués au soutien à l’innovation sociale par exemple, on voit bien qu’il y a une carence à combler, un espace pour innover avec la société plutôt que contre elle. Les modalités de l’innovation sont un sujet peu débattu. Or, nous devons nous interroger pour savoir comment on la fait, avec qui, et selon quels principes et valeurs ?

Le foisonnement d’une innovation homogène où l’acteur public semble plus client que maître d’ouvrage pose une question stratégique et politique forte. C’est à l’acteur public de donner le sens, de trouver les critères pour séparer le bon grain de l’ivraie de l’innovation. Pas sûr que nous en prenions beaucoup le chemin. Le lancement récent par Mounir Mahjoubi, secrétaire d’État chargé du numérique, de Cahiers de doléances à destination des seules startups, afin que le gouvernement puisse trouver les modalités pour faciliter leur activité (minorant et oubliant les doléances du reste de la société) est un signal de plus (de trop) d’un biais qui se renforce dans les politiques de soutien à une seule forme d’innovation.

Ici encore, ici toujours, c’est de diversité dont on a besoin.

Hubert Guillaud et Thierry Marcou, responsable du programme Audacities pour la Fing.

  • Vers une ville numérique ingouvernable (1/2) ? Un foisonnement d?innovation

L’un des constats que dresse le groupe de travail Audacities, lancé par la Fing (éditeur d’InternetActu.net) et l’Iddri, est que le numérique ne rend pas tant que ça la ville réactive au doigt et à l’oeil. L’imaginaire de la ville « propre », smart, intelligente? n’est pas ce qu’on observe sur le (...)

L’un des constats que dresse le groupe de travail Audacities, lancé par la Fing (éditeur d’InternetActu.net) et l’Iddri, est que le numérique ne rend pas tant que ça la ville réactive au doigt et à l’oeil. L’imaginaire de la ville « propre », smart, intelligente? n’est pas ce qu’on observe sur le terrain, expliquent Tatiana de Feraudy et Mathieu Saujot chercheurs à l’Iddri, Institut du développement durable et des relations internationales, Thierry Marcou et Marine Albarède responsables d?Audacities à la Fing.

En fait « plein d’acteurs sont venus agir sur le territoire de manière autonome ». La ville numérique n’est ni centralisée ni pilotée, comme on nous la vend trop souvent dans le concept de Smart City ou de Ville intelligente, au contraire. Si elle concentre un foisonnement d’innovations, force est de constater que l’acteur public, dans ce foisonnement, est devenu un acteur parmi d’autres. Et nombre de nouveaux acteurs ont des impacts sur les domaines traditionnellement réservés à l’action publique, à l’image d’Uber sur le transport, d’Airbnb sur le logement pour ne citer que les exemples les plus connus. La ville est désormais investie, colonisée, d’innombrables services numériques qui se superposent les uns aux autres et cherchent chacun à la transformer, la « disrupter »… Pour ne prendre que l’exemple des services de mobilité, la ville est perturbée à la fois par Uber et Waze, par les voitures autonomes et les services de covoiturage comme Blablacar, par les services qu’elle met en place elle-même via ses délégataires, comme Velib ou Autolib, mais également par leurs nouveaux concurrents indépendants comme Zipcar ou Drivy, Gobeebike et oBike, Cityscoot sans compter leurs innombrables concurrents qui s’annoncent (voir cet article du Monde.fr qui tente d’être exhaustif ou celui du Parisien qui pose la question de la place dans la ville des vélos « flottants » et de leur régulation)?

Comment gouverner la ville numérique ?

Comment dans ce contexte les collectivités peuvent-elles continuer à poursuivre des objectifs collectifs ? Comment rendre possibles une action publique et une régulation ? Et bien sûr, comment imaginer de nouveaux modèles de gouvernance au coeur d’une complexité croissante ?

Les premiers résultats du groupe de travail montrent que partout pointe une inquiétude face à l’ubérisation des services publics, soulignent Mathieu Saujot et Tatiana de Feraudy. Pourtant, cette disruption de la gouvernance urbaine est très variable selon les secteurs. Si elle est très forte dans le domaine des transports et de la mobilité, elle demeure pour l’instant faible en terme d’impact dans le domaine de la participation citoyenne par exemple.

Le foisonnement et la profusion d’innovation dans tous les secteurs pose néanmoins question : comment orienter l’innovation ? Comment favoriser dans ce schéma la transition et la cohérence du rapport numérique et écologie  ? Comment faire converger cette débauche d’innovation ? Après avoir appelé l’innovation de ses voeux, force est de constater qu’elle est désormais partout. Même si tous les services lancés n’ont pas toujours une forte valeur ajoutée…

Les animateurs d’Audacities constatent que, face à ce foisonnement, les collectivités cherchent des leviers pour agir. Elles cherchent à limiter l’éclatement des services, le développement des inégalités territoriales, que risquent de favoriser une innovation débridée, intéressée par son seul profit, sa croissance, son passage à l’échelle. Reste que la capacité d’action des collectivités n’est pas homogène. Elle dépend bien sûr de leurs forces propres : toutes les collectivités, selon leur échelle et leur taille, n’ont pas la même capacité de négociation. Elle dépend de la force des nouveaux entrants : ce n’est pas la même chose de discuter avec une startup locale que de discuter avec un Gafa implanté à l’international. Elle dépend de ses relations avec les délégataires de services publics, des compétences perturbées, des questions d’accès au marché ou à l’espace public nécessitant ou non l’appui des acteurs publics? Et bien sûr de leur capacité d’action réglementaire. Le mille-feuille de l’innovation est loin d’être homogène ! Et le risque également, est de piloter l’innovation seulement avec ceux qui proposent simplement de nouveaux services, au détriment de tous les autres modes de pilotage de l’action publique ou de tous les autres modes d’action innovants. De favoriser le travail avec les startups plutôt que celui avec les associations, les PME ou les citoyens. De favoriser et soutenir les solutions techniques et services des startups ou des plateformes au détriment d’autres acteurs ou d’autres approches. Pour le dire simplement, il est finalement plus facile pour des services de livraison à domicile comme Foodora ou Ubereats de s’implanter quelque part que de trouver les modalités de soutiens à des initiatives différentes, à l’image de CoopCycle (blog). L’innovation en mode startup semble bien plus accessible, lisible et simple à soutenir, notamment parce qu’elle est soutenue par ailleurs, notamment financièrement par des investisseurs qui vont leur permettre d’atteindre des seuils critiques bien plus rapidement que ne le peuvent d’autres formes d’innovation.

Piloter ou animer l’innovation ?

Quels sont donc les leviers d’actions des collectivités, mais également des nouveaux entrants ? Comment l’acteur public définit-il des critères pour soutenir certains projets plutôt que d’autres ? Doit-il piloter l’innovation ? Laquelle et comment ?

Pour en parler, les responsables d’Audacities avaient convié deux intervenants. Clémence Fischer du Numa et Romain Tales d’Etalab. Clémence Fischer (@clemfis) est en charge des programmes Smart City au Numa, qu’elle présente comme un facilitateur d’innovation pour les startups, les organisations et les communautés. Numa fait de la formation, de l’accélération de startups et de l’accompagnement à la transformation numérique. Outre les nombreux événements qu’accueille le lieu parisien, le Numa propose plusieurs programmes d’innovation ouverte multipartenaires liés à la thématique urbaine comme CityMaker et DataCity. DataCity vise à résoudre les problèmes des villes par les données. Ce data solutionnisme s’intéresse à toutes les thématiques de la ville comme la planification urbaine, la logistique, la mobilité, l’énergie, les déchets? DataCity est un programme d’innovation sur 9 mois initié par les collectivités, en l’occurrence la ville de Paris, qui apporte, via ses différentes administrations, des problèmes à résoudre, que startups et grands groupes viennent relever en échafaudant des solutions qui seront testées par les habitants. « Tout l’enjeu consiste à trouver le moyen d’aligner les intérêts des acteurs selon les problèmes et les solutions », explique Clémence Fischer. Tout l’enjeu semble donc de soutenir un écosystème visant à favoriser le rapprochement et la discussion entre grands groupes et startups, une collaboration qui a encore bien des progrès à faire, comme le pointait une récente étude de La French Tech, mais qui exclue de nombreuses autres formes de collaborations qui ne relèvent pas des formes startups instituées. En septembre 2017, DataCity a lancé sa 3e campagne. Pour bien comprendre comment DataCity agit, Clémence Fischer s’arrête sur l’une des solutions imaginées la saison dernière.


Image : Présentation synthétique du programme DataCity par le Numa, tiré de la présentation de Clémence Fisher.

L’un des défis proposés par la ville de Paris était de réduire le temps de présence des bacs poubelles sur les trottoirs. Aujourd’hui, faute de données précises sur le passage des quelques 500 camions de ramassage d’ordures qui circulent chaque jour à Paris, les bacs poubelles peuvent rester plusieurs heures sur le trottoir entre le moment où ils sont sortis pour attendre le camion et le moment où ils sont rentrés après son passage, pas toujours parfaitement régulier. Le fait que toutes les poubelles parisiennes soient équipées de puces électroniques, qui sont lues par les camions automatiquement quand elles sont vidées, est ce qui a permis à Craft.ai, la startup chargée de relever le défi (en partenariat avec les grands délégataires de services publics) de trouver une solution. Depuis les données de récoltes, Craft.ai a construit un modèle prédictif du ramassage (voir les explications de Sylvien Marchienne sur le blog de Craft.ai et notamment l’explication en vidéo) lui permettant de réduire de moitié (46 %) le temps où les poubelles restent sur le trottoir. Durant un mois, une expérimentation a eu lieu sur le 14e arrondissement de Paris pour tester la solution. Un site web et un système d’alerte par SMS ont été mis en place pour permettre aux personnes chargées de sortir et de rentrer les poubelles d’être tenues informées du passage des camions 30 minutes avant son passage, puis une fois que la poubelle a été collectée et en cas de perturbation.

Cela peut sembler impressionnant, mais personnellement je reste un peu dubitatif. Certes, le cas du ramassage des poubelles sur de grandes agglomérations est parfois victime d’aléas de services et de trafic, et celui-ci est loin d’être homogène sur les quartiers, mais ce que j’en constate tous les jours en y habitant, est plutôt la très grande régularité de la collecte (la ville de Paris publie d’ailleurs les horaires de passage des collectes par arrondissements et par type de collecte). S’il y a certes des poubelles qui restent trop longtemps sur le trottoir, cela semble plus tenir de problèmes liés à la disponibilité de ceux qui sont chargés de les sortir et les rentrer, qu’un problème de régularité de ramassage ou d’injonction par SMS. Bref, pas sûr que la solution par l’analyse prédictive de données soit une piste satisfaisante pour régler le problème, qui n’est pas tant dans l’information ou la prédiction que dans la manière dont sont recrutés et rémunérés les agents chargés de sortir et rentrer les poubelles.

Clémence Fischer évoque un autre exemple, issu du programme DataCity (parmi les 12 projets qui avaient été retenus cette année qu’évoquaient Numerama ou LeMonde). La startup danoise Linc, qui propose une solution d’échange et de facturation énergétique pour des communautés locales – un peu sur le modèle du Brooklyn Microgrid lancé par LO3Energy -, a réalisé des entretiens avec des Parisiens pour connaître leur réaction à la possibilité d’acheter et d’échanger de l’énergie renouvelable entre voisins, comme l’autorise désormais la loi. A ce qu’on en comprend, ce projet semble en être resté à une enquête sur une possibilité de service.

Clémence Fischer explique encore que si les défis de DataCity sont portés par la ville de Paris, ce sont les grands groupes et les startups sélectionnées par le Numa qui sont chargés de répondre aux défis. Chacun reste propriétaire de ses apports respectifs : les startups qui apportent des solutions en demeurent propriétaires, les acteurs n’ayant qu’un droit de préférence sur ces solutions. Si les startups reçoivent un soutien financier des grandes délégataires de services publics qui participent, elles sont plutôt motivées par l’accès aux données et les cas d’usages réels. L’enjeu est à la fois de faire de l’acculturation entre les acteurs, via des méthodes innovantes comme le design thinking ou les méthodes agiles, et de mettre en relation des acteurs les uns avec les autres par le biais de démonstrateurs expérimentaux concrets (on parle de POC pour Proof of concept, ou preuve de concept, comme on dit dans le secteur). Quant à savoir si ceux-ci ont été généralisés ou adoptés, Clémence Fischer explique : « On a tout type d’histoire ». Des entreprises et des startups concourent parfois ensemble à des appels d’offres suite à leur rencontre. Pour d’autres, cela leur permet de réorienter leur marché : une startup proposant du transport de marchandise à la demande a pu mesurer par ce biais que le marché qu’elle visait n’était pas assez développé, elle a réorienté son offre pour aider des entreprises à trouver de meilleurs déplacements. Elle souligne que chaque année, le challenge fait un appel à startups qui doivent signaler leur intérêt pour participer. Numa a reçu plus de 200 candidatures au dernier challenge.

Clémence Fischer détaille rapidement deux autres programmes du Numa. Celui de l’accompagnement, avec la ville de Paris, d’un programme d’intrapreneuriat : les startups de ville (qu’avait évoqué il y a plusieurs mois la Gazette des communes). L’enjeu est de proposer un programme d’accompagnement court, sur 5 semaines, pour valider la pertinence à développer des projets. Ici, le Numa propose un accompagnement permettant de comprendre le monde de l’innovation par de la formation, par de la conception de prototype pour définir le « minimum viable product », de connecter les projets à d’autres startups pour contribuer au projet. L’enjeu, à travers ce programme, est de transmettre un état d’esprit aux porteurs de projets provenant des différents services des collectivités : montrer comment prendre des risques, apprendre à aller vite, à pivoter? en utilisant les méthodes d’accélération de startups.

Enfin, Angers IoT est une plateforme d’accélération de startups de l’internet des objets (Internet of things) en projet à Angers où est installé la Cité de l’objet connecté ainsi que tout un écosystème local.

Pour Clémence Fischer l’innovation ouverte que propose le Numa repose sur une approche multipartenariale, qui permet de faire se croiser les compétences et les savoir-faire. Elle repose aussi sur la confiance et l’ouverture, c’est-à-dire le fait d’accepter d’expérimenter et de changer d’approche si besoin. Elle repose également sur le « time-boxing », c’est-à-dire une méthode de gestion de projet qui utilise des délais très courts et des méthodes d’accélération pour réduire les risques. Enfin, elle privilégie le « design thinking« , c’est-à-dire une approche centrée sur l’usager et le problème à résoudre, plutôt que de commencer par la solution.

L’innovation est au croisement de la désirabilité liée à l’usage, de la faisabilité, liée à la technologie et de la viabilité liée au modèle d’affaires, explique encore Clémence Fischer. Sans intelligence collective, le chemin entre les trois n’est pas si simple à tracer, conclut Clémence Fischer.

Effectivement, l’innovation est compliquée et l’on sait que l’animation, le fait de faire se croiser des acteurs très différents, est la pierre angulaire capable de générer des projets. Les POCs sont vus comme le levier des rencontres pour concrétiser le terreau de l’innovation. Les méthodes sont là pour générer de l’efficacité. Reste que cette startupisation de l’innovation semble procéder d’un réductionnisme à une seule et unique forme d’innovation qui pose question (nous y reviendrons dans la seconde partie de ce dossier).

Le levier de l?innovation

Romain Tales (@romaintales), responsable du recensement des données publiques, s’occupe de la dimension data d’Etalab, la mission interministérielle de l’Etat pilotée par le Secrétariat général pour la modernisation de l’action publique (Sgmap). Son travail sur la donnée consiste à l’intégrer au coeur de la réflexion de l’Etat, au même titre que l’usager et le citoyen, afin de rendre les missions de services publics de l’Etat plus efficaces et plus partagées. Si la mission d’Etalab est née avec l’open data (la réutilisation des données publiques), elle s’est diversifiée à la question des données, c’est-à-dire leur circulation et leur traitement – et notamment par le recours de la science des données pour objectiver les politiques publiques via ces données, ce qu’on appelle la data driven policy, c’est-à-dire la politique conduite par les données – et à la question de l’ouverture, en intégrant des enjeux d’open source et d’open government, c’est-à-dire, pour le dire vite, de création de biens communs numériques.

La stratégie d’Etalab autour des données repose sur 3 piliers, rappelle-t-il :

  • la transparence de l’action publique qui permet à tout citoyen de demander des comptes à l’administration et de renforcer ainsi la démocratie. Une transparence qui a permis également de rendre le sujet intelligible par le politique.
  • Créer des ressources pour l’innovation pour développer des services innovants et de la collaboration, à l’image des concours dataconnexions. Des ressources qui permettent de créer de l’appétence pour les données, de construire des indicateurs et de les faire monter en qualité pour y répondre.
  • Enfin, les données permettent de créer un levier d’efficacité de l’action publique, notamment du fait que les administrations soient les premières à les utiliser, à les croiser pour créer par exemple des cartographies pour objectiver la création de services publics, à l’image de la cartographie de la gravité des accidents en France permettant d’améliorer le positionnement des radars.


Image : la stratégie d’Etalab aux frontières de 3 enjeux, extraits de la présentation de Romain Tales.

Pour mener son action, Etalab s’appuie bien sûr sur le cadre légal, notamment via le renouvellement juridique de la loi pour la République numérique promulguée en 2016 qui a entériné le droit d’accès des administrations aux données des autres administrations (qui ne sont plus facturées pour cela, sauf justification de travail à façon), qui a créé un service public de la donnée (via notamment la publication de bases de données très demandées dites données de référence comme la base de données Siren, les données du cadastre, le répertoire national des associations, le répertoire des métiers de Pôle Emploi?) permettant à un très grand nombre d’acteurs d’interagir entre eux. Elle permet également l’ouverture des codes sources et algorithmes des systèmes utilisés par les services publics, à l’image des simulateurs qui permettent de comprendre les modalités de calculs des administrations comme la calculette de l’impôt sur le revenu, ouvert et réutilisable par des tiers. Elle a permis également la publication de données à intérêt social, sanitaire ou environnemental tout comme l’ouverture de données d’énergie, de jurisprudence, de données immobilières, comme de données portant sur les délégations de services publics ou les subventions? obligeant par exemple les délégataires à reverser les données produites dans le cadre de leurs délégations. Elle a permis d’entériner la création de 2 licences : la licence Etalab et la licence ODBL, cette seconde notamment favorisant des conditions de partage à l’identique pour le réutilisateur de données, permettant de se prémunir contre l’appropriation des données. Elle a permis la généralisation de l’initiative « dites le nous une fois » (voir cependant les critiques émises par NextInpact). Elle a permis enfin la mission open data France qui a produit un kit pédagogique et une aide à la normalisation des données ouvertes des collectivités.

Mais le levier d’innovation n’a pas été seulement juridique. Il est aussi technique, à l’image bien sûr de la plateforme data.gouv.fr, qui est à la fois un catalogue de données, mais également une vitrine d?usages de la réutilisation des données publiques ouverte aux contributions. Le code source de la plateforme par exemple est utilisé par le Portugal, le Montenegro et le Luxembourg pour développer leur propre portail de données. Dans les chiffres qui servent à évaluer le succès de la plateforme, on compte bien sûr le nombre de jeux de données mises à disposition (plus de 24 000), mais plus intéressants sont les 1600 réutilisations de données, les 17 000 utilisateurs, les 1100 organisations qui y ont ouvert un compte et les 1200 discussions initiées.


Image : les succès d’Etalab en chiffre.

Reste que le programme d?Etalab ne pouvait en rester à un enjeu technique. Il fallait que la structure puisse accompagner plus avant la réutilisation et l?usage des données. C?est ce qui conduit à développer le programme des startups d?Etat, lancé en décembre 2013 (voir notre article « Mais comment passe-t-on des startups d’Etat à l’Etat plateforme ? »). L?enjeu a été de développer un moyen d?innover pour les projets eux-mêmes, en proposant des modalités différentes du fonctionnement administratif traditionnel, explique Romain Tales. Les startups d?Etats sont des équipes de 2 à 4 personnes financées par une administration et totalement autonomes qui ont pour objectif de répondre à un problème clairement identifié, lié au besoin des usagers. L?initiative a permis de transformer le développement de projets informatiques dans l?Etat. En utilisant bien des méthodes comparables à celles qu?exposait le Numa, l?enjeu est de fournir un POC en 6 mois, puis à chercher à le pérenniser en recherchant une structure administrative d?accueil.

Parmi les emblèmes de ces startups d?Etat, figure bien sûr MesAides, qui propose un formulaire unique pour que les gens en situation de précarité puissent connaître les aides auxquels ils peuvent avoir accès. Une quinzaine d?aides sont aujourd?hui disponibles sur le site. MPS, Marché public simplifié, permet de faciliter la candidature à certains types de marchés publics, via un simple numéro de Siret. La bonne boîte qui indique les entreprises qui recrutent et la bonne formation qui évalue les formations en terme de retour à l?emploi effectif? sont d?autres exemples. 9 startups ont déjà été reprises par des administrations.

Autre exemple d?innovation, le programme d?entrepreneurs d?intérêt général (EIG) : une promotion annuelle de 11 personnes recrutées sur 10 mois pour résoudre des défis d?intérêt général proposés par des administrations, qui identifient en amont des « irritants métiers » ou des objectifs prospectifs. Au menu des défis de la seconde édition de ce programme, on trouve par exemple une demande de la Direction régionale des entreprises, de la concurrence, de la consommation, du travail et de l’emploi de Bourgogne-Franche Comté pour détecter les entreprises en difficulté pour mieux les accompagner… ou un autre proposé par la direction numérique pour l?éducation du ministère de l?Education nationale pour améliorer la réussite et l?orientation avec les données des élèves en apprentissage.

Reste, à ce qu?on en comprend, que tous les projets de l?Etat ne sont pas en mode startups, même s’ils se réfèrent aux méthodes que les startups utilisent. Comme nous le soulignions déjà, la métaphore de la startup est un moyen d’inscrire de nouvelles méthodes dans le panel des actions de l’Etat.

Etalab offre également des ressources en terme d?analyse de données sous forme de prestation pour les administrations qui portent des projets de data science. Ainsi, pour la Direction des services d?achat de l?Etat, Etalab a réalisé une analyse de données sur la consommation énergétique des bâtiments, à partir de données de facturation réelle. L?enjeu était de mieux comprendre la consommation d?énergie pour négocier les achats et détecter des anomalies (comme de fortes consommations le week-end). L?analyse a permis de renégocier les contrats de plusieurs bâtiments et de réaliser 800 000 euros d?économie.


Image : l’analyse de la consommation énergétique des bâtiments de l’Etat.

La méthode Etalab fait école. Le ministère des Affaires sociales a passé au printemps une convention avec le Sgmap pour que ce dernier l?accompagne dans la mise en place de démarches innovantes jusqu?à la création de leur propre incubateur. A l?image des startups de Ville lancés par la Ville de Paris, les incubateurs et les programmes d?accompagnement et d?accélération de projets sont en passe de devenir une méthode qui s?étend des projets privés aux projets publics. Le modèle de l’incubation de projet fait école dans l’administration, dans les agences de l’Etat, dans les collectivités territoriales et jusqu’au niveau européen. Si elle a des côtés stimulants, ce marketing de l’innovation n’est pas sans poser des questions (voir : Mais comment passe-t-on des startups d’Etat à l’Etat plateforme ? et Non, la France n’est pas une start-up !), notamment en regardant les formes d’innovation qu’il délaisse.

C’est que nous tenterons de regarder dans la suite de ce dossier.

Hubert Guillaud

La 2e partie du dossier : Le modèle de la startup en ses limites

  • Tout ce que vous avez toujours voulu savoir sur CRISPR/Cas9

CRISPR est sans doute LA grande révolution technologique de ces dernières années, mais ce n’est pas toujours facile de comprendre en quoi elle consiste. La petite vidéo suivante, réalisée par la Singularity University, a le mérite de clarifier les choses en moins de deux minutes. Bien sûr, elle est en (...)

CRISPR est sans doute LA grande révolution technologique de ces dernières années, mais ce n’est pas toujours facile de comprendre en quoi elle consiste. La petite vidéo suivante, réalisée par la Singularity University, a le mérite de clarifier les choses en moins de deux minutes. Bien sûr, elle est en anglais, mais il y a des sous-titres (anglais également, mais très aisés à comprendre).

MAJ : Nature a également réalisé une vidéo assez courte pour expliquer CRISPR/Cas9.

  • Peut-on créer son propre univers ?

Certains cherchent à créer l’intelligence, d’autres, comme les biologistes de synthèse, veulent réaliser de nouvelles formes de vie. Mais pourquoi s?arrêter en si bon chemin ? Pourquoi ne pas créer un univers entier ? Une idée saugrenue, mais considérée comme envisageable – en théorie – par certains physiciens. La journaliste et écrivain (...)

Certains cherchent à créer l’intelligence, d’autres, comme les biologistes de synthèse, veulent réaliser de nouvelles formes de vie. Mais pourquoi s?arrêter en si bon chemin ? Pourquoi ne pas créer un univers entier ?

Une idée saugrenue, mais considérée comme envisageable – en théorie – par certains physiciens. La journaliste et écrivain scientifique Zeeya Merali (@littlebangtheor) a enquêté auprès de spécialistes de la mécanique quantique et en a tiré un livre A Big Bang in a Little Room : The Quest to Create New Universes ainsi qu’un article publié récemment dans Big Think (mais qui était auparavant paru dans Aeon).

La théorie a été émise la première fois en 1991 par Andreï Linde, de l’université Stanford, dans un papier intitulé l’art difficile de la création d’univers.

Pour réaliser cet exploit, il faudrait un accélérateur de particules bien plus puissant encore que celui du CERN. Il faudrait ensuite trouver une particule qu’on appelle un monopôle, c’est-à-dire ne possédant qu’une seule charge magnétique.

Si l’on donne suffisamment d?énergie à ce monopôle, explique Merali, ce dernier va grossir, entamer une « inflation » comme celle qui est survenue au début de notre propre cosmos, juste après le Big Bang. Et à partir de cette inflation, comme cela s’est produit chez nous, un nouvel univers pourra voir le jour.

Ce dernier risque-t-il de prendre notre place, de détruire tout sur son passage ? Absolument pas. Il se développera dans son propre espace. De notre côté, nous ne pourrons en percevoir que « l’entrée », un micro trou noir « si petit, nous dit Zeeya Merali, qu’il en sera absolument sans danger ». Et même ce minuscule point de contact finira par s’évaporer et disparaître.

La vidéo ci-dessous illustre la marche à suivre.

Mais du coup, pas la peine d?espérer que notre nouveau créateur d’univers pourra régner sur les créatures qui pourront y voir le jour ! Car une fois créé, l’expérimentateur perdra tout contrôle sur le monde qu’il aura fait naître.

Ce qui pose bien entendu une question éthique. Faut-il jouer à Dieu si on n’a même pas les moyens d’en prendre la responsabilité ?

Zeeya Merali est donc partie poser la question à divers spécialistes. Les avis peuvent être très divergents : pour Eduardo Guendelman, de l’université Ben Gourion en Israël, un chercheur qui travaille sur cette notion de « bébé-univers », c’est comme lorsqu’on décide de faire des enfants, on accepte que leur vie possède son lot de souffrances. Pour Nobuyuki Sakai de l’université Yamaguchi au Japon, l’un des spécialistes des fameux « monopôles », il faudra s’en inquiéter. Mais comme la mise en pratique de ce genre de théorie ne pourra pas se produire avant un avenir lointain, ce n’est pas pour lui le moment de se torturer avec des questions éthiques, cela viendra plus tard. Pour Anders Sandberg de l?Institut pour le futur de l?humanité d’Oxford, la création de formes de vie intelligentes est intrinsèquement positive et s?apparente donc à un impératif moral.

Puis reste l’interrogation théologique. Andreï Linde avait déjà posé la question, en forme de boutade dans son papier de 1991 ; et si notre propre univers avait été créé en laboratoire ? Cela renouvellerait-il l’idée de Dieu ? Pour le physicien chrétien Don Page, de l’université d’Alberta, également interrogé par Merali, il y a une différence fondamentale : Dieu, explique-t-il, aurait créé notre univers ex nihilo, c’est-à-dire à partir de rien du tout, et pas en utilisant un équipement de laboratoire sophistiqué !

  • Quelques nouveautés en « computation biologique »

Fusionner la biologie et l’informatique est une tendance très forte ces dernières années. Après tout, qu’est-ce que le fameux « deep learning » et ses réseaux de neurones dont on nous rebat les oreilles ces temps-ci, sinon une tentative de créer un modèle (très simplifié) des neurones biologiques au sein d’une machine ? (...)

Fusionner la biologie et l’informatique est une tendance très forte ces dernières années. Après tout, qu’est-ce que le fameux « deep learning » et ses réseaux de neurones dont on nous rebat les oreilles ces temps-ci, sinon une tentative de créer un modèle (très simplifié) des neurones biologiques au sein d’une machine ?

En gros, il peut exister plusieurs approches différentes de ce qu’on appelle la biologie computationnelle. La première cherche à utiliser le matériel biologique lui-même comme support d?information et de calcul. La seconde consiste à observer des comportements existant dans la nature pour par exemple créer de nouveaux algorithmes.

Dans le premier domaine, des chercheurs ont réussi à créer des systèmes logiques assez complexes au sein d’une cellule, tandis que d’autres utilisaient l?ADN comme support de stockage de l?information. Côté algorithmique, les fourmis restent une source d’inspiration inépuisable.

Vers la « ribocomputation »


Il y a eu pas mal de tentatives ces dernières années pour intégrer divers systèmes computationnels basés sur notre ADN dans la machinerie de nos cellules. Toute l’entreprise des biobricks par exemple se base sur une possible analogie entre le code génétique et un programme d’ordinateur. Mais jusqu’ici, les techniques utilisées n’ont pas donné de résultats très efficaces, pour (au moins) deux raisons : la première était qu’elles fonctionnaient dans un tube à essai, mais pas à l’intérieur d’une cellule. Ensuite, les « circuits logiques » ainsi implémentés étaient bien trop simples.

L’équipe constituée par Alexander Green de l’Institut de biodesign de l’université de Tempe en Arizona, avec des collègues de Harvard, a réussi à surmonter ces deux obstacles explique Nature en procédant d’une manière inédite : justement, en n’utilisant pas l’ADN.

Comme l’explique très bien Singularity Hub, le gros problème, avec l?ADN, c’est qu’il se situe à deux degrés de distance de la fabrication des protéines, sur laquelle on est censé agir.

En effet, au sein de la cellule, les gènes, basés sur les fameuses 4 bases A, C, G, T produisent tout d’abord une macromolécule intermédiaire, l’ARN, basé elle aussi sur un code très proche de l?ADN, avec une différence : à la place de la Thymine (T), on trouve une autre molécule, l’Uracile, notée U. L?ARN est une « simple hélice », en contraste avec la fameuse « double hélice » de l’ADN.

Cet ARN une fois synthétisé par le gène se rend dans un lieu spécial de la cellule, le ribosome, véritable « usine à protéines ». Les molécules d’ARN attirent alors les acides aminés qui forment une protéine. Les protéines sont les véritables briques de la vie.

L’équipe de recherche a donc eu l’idée de travailler directement sur cet ARN. En bidouillant ce dernier, on est plus aisément en mesure de contrôler les choses qu’en agissant sur la molécule « mère ». Ce qui permet de s?assurer qu’il existe moins de risques que le système artificiel conçu se comporte de manière inattendue, et donc rendre plus aisée la création d' »ordinateurs » biologiques un peu complexes.

L’astuce, c’est de pouvoir créer une séquence particulière d’ARN qui ne s’activera qu’à la suite d’un ordre spécifique. Autrement dit, de créer un interrupteur.

L’équipe a commencé par synthétiser une séquence artificielle d’ADN qu’ils ont inséré au sein d’une bactérie E. coli. Le rôle de cet ADN n’est donc pas de générer une protéine, mais de créer un brin d’ARN qui contiendra le « code » nécessaire aux opérations suivantes.

Ce brin d’ARN, nous précise IEEE Spectrum, possède une caractéristique originale. En effet, nous dit le magazine, il ne contient pas uniquement du code pour générer une protéine, mais également des parties « logiques ». Cela signifie que l’ARN n’entrera en fonction que s’il reçoit des « inputs », qui l?autorisent à le faire. Ceux-ci sont d’autres brins d’ARN, qui peuvent être introduits dans la cellule ainsi modifiée.

Cette technique permet de créer des systèmes assez complexes constitués d’une multitude de ces « interrupteurs ». L’équipe de Green a réussi, à l’aide de cette méthode, à faire produire une protéine fluorescente par l’E. coli.

Pour l’instant, a expliqué Green à IEEE Spectrum, on n’a pas encore d’applications pratiques de ce genre de technologie, qu’il nomme la « ribocomputation » mais on peut imaginer pas mal de choses, par exemple : « Vous pourriez télécharger un circuit biologique dans les cellules de votre corps pour vous protéger contre les virus ou empêcher le développement du cancer ». Ainsi, continue la revue, « si le corps acquiert des substances cancéreuses ou virales, les cellules pourraient être programmées pour les stopper, synthétiser un médicament, ou activer le système immunitaire, au lieu de permettre à la maladie de se propager« .

Dans le même ordre d’idées, et encore d’après IEEE Spectrum, une équipe de Harvard s’est essayée à utiliser l’ADN non comme un système computationnel, mais comme un moyen de stocker des données. Ces chercheurs de Harvard ont ainsi réussi (en utilisant l?inévitable CRISPR) à stocker au sein d’un E. coli un petit film composé d’images Gif de 36×26 pixels. Jusqu’ici, on avait déjà réussi à utiliser l?ADN comme support de stockage, mais c’était dans un tube à essai et c’est la première fois en revanche qu’on réussit à placer des données dans un être vivant complet. Quelle utilité ? Selon Seth Shipman, qui a dirigé ce travail, « Pour l’instant, nous donnons à l’ADN des informations que nous connaissons. Nous voulons enregistrer des informations que nous ne connaissons pas ».

En effet pour l’instant les chercheurs fournissent les données, comme dans ce cas, le petit film ; une telle technique pourrait servir à enregistrer « l?historique » des activités d’une cellule, ce qui constituerait une mine de renseignements précieuse.

les fourmis : pas très rapides, mais efficaces


Certains disent que les fourmis seraient peut-être à l’origine du protocole TCP/IP comme nous le racontions dans nos colonnes dans un article sur l’entomologiste Deborah Gordon, qui a d’ailleurs développé le concept d’anternet (internet des fourmis). Deborah Gordon s’est cette fois intéressée à une espèce particulière de fourmis, nommées les céphalotes, ou fourmis-tortues, et dont Physorg nous précise qu’elles possèdent une tête « à la Darth Vador ».

Le travail portait sur une question particulière sur les pistes des fourmis. On sait que celles-ci vont chercher et ramènent la nourriture en suivant des phéromones laissées par leurs congénères. Il existe pas mal de programmes de simulation du phénomène, par exemple en netlogo. Mais elles n’ont pas encore révélé tous leurs mystères et de plus, il existe un très grand nombre d’espèces de fourmis, chacune vivant dans un environnement particulier, et développant, grâce aux contraintes de leur milieu, des réponses spécifiques.

Les céphalotes vivent exclusivement dans les arbres. Elles créent au sein de la canopée un réseau complexe de pistes reliant les nids entre eux, et s?étendant vers l?extérieur pour la recherche de nourriture.

Mais ce monde arboricole est un environnement beaucoup plus aléatoire que la terre ferme.Il arrive que des branches se cassent ou tombent. Comment donc les fourmis se débrouillent-elles pour « réparer » leur réseau ? Pour ce faire, Gordon et son équipe ont observé le comportement des animaux et ont effectué certaines expériences, comme par exemple couper une branche sur un passage fréquenté.

Il est apparu que la fourmi ne cherchait pas à suivre le chemin le plus court. Au contraire elle lui préférait celui qui possédait le moins de croisements, d’interconnexions possibles, afin de minimiser les moments où elle devait prendre une décision. Lorsqu’elle arrive à une interruption, comme une branche cassée, elle retourne simplement à l’interconnexion précédente et emprunte une autre voie. Le réseau étant très complexe et l’environnement très riche, il est possible d’aller d’un point à un autre de manière différente. Les travaux de Deborah Gordon avaient déjà montré que les fourmis tendent toujours un peu à adopter des comportements peu « optimisés » mais extraordinairement résilients. Comme elle l’avait déclaré dans sa conférence Ted : « Quand vous observez les fourmis, vous finissez par vouloir les aider, parce qu?elles ne font jamais rien comme elles devraient le faire selon vous. Donc ces contacts aléatoires ne donnent rien de parfait. Mais ça marche plutôt bien. Les fourmis sont là depuis plusieurs centaines de millions d?années. »

Un tel procédé pourra-t-il s’avérer utile pour nos technologies, par exemple en fournissant un moyen pour des « agents » virtuels ou réels de contourner les failles d’un réseau ? En tout cas, en matière d’algorithmique, la nature a encore beaucoup à nous apprendre !

Rémi Sussan

  • Résister à la réduction : un manifeste

Joi Ito (@joi), le patron du Media Lab du MIT (voir nos récents articles : « L’avenir est-il à l’antidisciplinarité ? » et « Vers l’intelligence étendue ? ») vient de publier un très intéressant manifeste intitulé « Résister à la réduction ». Pour lui, explique-t-il nous sommes menacés par une réduction de sens et de valeur. S’inspirant de (...)

Joi Ito (@joi), le patron du Media Lab du MIT (voir nos récents articles : « L’avenir est-il à l’antidisciplinarité ? » et « Vers l’intelligence étendue ? ») vient de publier un très intéressant manifeste intitulé « Résister à la réduction ». Pour lui, explique-t-il nous sommes menacés par une réduction de sens et de valeur.

S’inspirant de Norbert Wiener et notamment de Cybernétique et société (dont la traduction littérale du titre originel serait plutôt « L’usage humain des êtres humains »), le paradigme de notre civilisation s’est simplifié tant et si bien qu’il a perdu de vue ses missions d’origines. La valeur et la complexité se sont concentrées de plus en plus sur la priorisation d’une croissance financière exponentielle, menées par des entreprises à but lucratif qui n’ont cessé de gagner autonomie, droits, pouvoir et influences sans aucune régulation. Le comportement de ces entités est devenu un cancer, avance-t-il sans ambages. Alors que les cellules saines régulent leur croissance et répondent à leur environnement, les cellules cancéreuses, elles, optimisent leur croissance sans contrainte et se propagent sans tenir compte de leur fonction ou de leur contexte.

Le monde n’est pas domptable

« L’idée que nous existons pour le bien du progrès et que le progrès exige en retour une croissance sans contrainte et exponentielle est le fouet qui nous fouette. Les entreprises modernes sont le produit naturel du paradigme du marché libre du système capitaliste. Norbert Wiener lui-même d’ailleurs appelle les entreprises des « machines de chair et de sang » et l’automatisation des « machines de métal ». Les nouvelles espèces de méga-entreprises que produit la Silicon Valley – les machines de bits – sont développées et gérées en grande partie par des gens qui croient en une nouvelle religion : la Singularité. Cette nouvelle religion n’est pas un changement fondamental de paradigme, mais plutôt l’évolution naturelle du culte de la croissance exponentielle appliquée au calcul moderne et à la science. Et l’asymptote de la croissance exponentielle du pouvoir du calcul est l’intelligence artificielle.

La notion de Singularité – c’est-à-dire l’idée que l’intelligence artificielle va supplanter les humains par sa croissance exponentielle – est une religion créée par des gens qui ont l’habitude d’utiliser le calcul pour résoudre des problèmes jusqu’à présent considérés comme impossibles à résoudre par des machines complexes. Ils ont trouvé un partenaire idéal avec le calcul numérique – un système de pensée connaissable et contrôlable qui s’améliore sans cesse dans sa capacité à maîtriser et traiter la complexité, conférant richesse et pouvoir à ceux qui la maîtrisent. Dans la Silicon Valley la combinaison de think tank et le succès financier du culte de la technologie ont créé un système de rétroaction positif qui a peu de disposition à la régulation. Alors qu’ils n’aiment pas qu’on compare leurs croyances à une religion et affirment que leurs idées sont basées sur la science et les preuves, ceux qui embrassent la Singularité s’engagent (…) surtout et d’abord à atteindre leur vision.

Les Singularitatiens croient que le monde est connaissable et simulable par ordinateur et que les ordinateurs seront capables de traiter le désordre du monde réel, comme ils résolvent bien d’autres problèmes qu’on ne pensait pas jusqu’à présent pouvoir être résolus par des ordinateurs. Pour eux, ce merveilleux outil, l’ordinateur, a si bien fonctionné qu’il va continuer à fonctionner pour tous les défis que nous lui adresserons, jusqu’à transcender les limites connues et que nous atteignons une sorte de vélocité pour nous extraire de la réalité. L’IA remplace déjà les humains dans la conduite automobile, le diagnostic de cancer ou la recherche de documents judiciaire. Pour eux, l’IA va continuer ses progrès sans fin jusqu’à fusionner avec nos cerveaux et devenir une super-intelligence toute puissante. »

Reste que pour Ito, l’idée qu’une intelligence supérieure sera demain capable de résoudre tous les problèmes est une vision « désespérément naïve ». « Plus de calcul ne nous rend pas plus intelligents, mais seulement plus puissants en terme de capacité de calcul ». Pour que la Singularité ait un résultat positif, il faut croire que, si on lui donne assez de pouvoir, le système saura d’une façon ou d’une autre comment se réguler. Le résultat final serait si complexe que nous humains ne serions pas en mesure de le comprendre, mais qu’il le comprendrait et le résoudrait par lui-même. En fait, cela ressemble un peu à la planification de l’ex-Union soviétique, ironise Ito, mais avec une information totale et un pouvoir illimité, deux conditions qui nous seront difficilement acceptables. Si certains Singularitariens ont une vision plus distribuée de ce futur, reste que tous pensent qu’avec suffisamment de pouvoir et de contrôle le monde est domptable.

Il nous faut refuser le réductionnisme utilitariste

Les Singularitariens croient dans les courbes exponentielles, des courbes de rétroactions positives sans limites. Mais ceux qui ne sont pas dans cette bulle explicative, croient plutôt en des courbes en S, à savoir que le monde s’adapte et s’autorégule. Pour Ito nous sommes là face à un réductionnisme insoutenable. Quand le psychologue BF Skinner a découvert le principe du renforcement, nous avons pu construire de nouvelles formes d’apprentissage depuis ses théories. Mais il a fallu du temps pour comprendre que les approches comportementalistes ne fonctionnent que pour un éventail restreint de formes d’apprentissages. L’eugénisme n’a cessé de simplifier le rôle de la génétique, cherchant toujours à fournir une vision scientifique réductionniste de la génétique, imaginant que nous pourrions « réparer l’humanité » en favorisant la sélection naturelle. Et les échos de l’eugénisme continuent leurs ravages aujourd’hui en tentant sans cesse de lier la génétique avec le tabou de l’intelligence.

Pour Ito, nous devrions apprendre de notre histoire et résister au réductionnisme utilitariste de la science. Einstein disait que « tout devrait être aussi simple que possible, mais pas plus simple ». Et Ito d’en appeler à refuser le réductionnisme du monde. « Nous devons embrasser l’inconnaissable – l’irréductibilité – du monde réel que les artistes, les biologistes et tous ceux qui travaillent dans le monde désordonné des arts et des sciences humaines avec lesquels ils sont familiers, connaissent ».

La cybernétique de Wiener a été écrite à une époque où il était plus facile de croire que les systèmes pourraient être contrôlés et limités. A cette époque, les ingénieurs et les scientifiques pouvaient encore comprendre ce qu’il se passait dans leurs systèmes.

« Il est bien évident aujourd’hui que la plupart de nos problèmes – changement climatique, pauvreté, obésité, maladies chroniques, terrorisme? – ne peuvent être résolus simplement avec plus de ressource ou par un plus grand contrôle. Notamment parce qu’ils sont le résultat de systèmes adaptatifs complexes qui sont eux-mêmes les résultats d’outils utilisés pour résoudre des problèmes du passé, comme la construction d’une productivité sans fin et nos tentatives à contrôler toutes choses »

.

Mais la cybernétique a changé. Aujourd’hui, elle est celle de systèmes complexes auto-adaptatifs, où l’observateur lui-même fait partie du système, comme le dit le chercheur Kevin Slavin (@slavin_fpo), fondateur du programme Playful Systems au Media Lab, en défendant conception comme participation. Nous appartenons à un monde de systèmes interconnectés, complexes, auto-adaptatifs, à différentes échelles et dimensions, intriqués les uns dans les autres et qui rendent inséparable la position de l’observateur et du concepteur. Plus nous introduisons de machines dans le système, plus elles augmenteront les individus, mais aussi – et c’est plus important – augmenteront les systèmes complexes dans leur ensemble. Pour Ito, c’est là que la formulation problématique de l’intelligence artificielle devient évidente, car elle suggère des formes, des buts et des méthodes qui se tiennent en dehors de toute interaction avec d’autres systèmes adaptatifs complexes, plaide -t-il en parlant l’intelligence étendue. « Au lieu d’essayer de contrôler, de concevoir ou même de comprendre les systèmes, il est plus important de concevoir des systèmes qui participent en tant qu’éléments responsables, conscients et robustes de systèmes encore plus complexes. Et nous devons questionner et adapter notre propre but et nos propres sensibilités en tant que concepteurs et composants du système pour une approche beaucoup plus humble : l’humilité plutôt que le contrôle. »

La résilience plutôt que l’optimisation, la diversité plutôt que l’uniformisation

Pour Ito, l’enjeu n’est pas tant l’optimisation des systèmes que de développer leur capacité de résilience. Ito fait référence au livre de l’écologiste Donella Meadow, Thinking in Systems et à un article qu’elle a publié où elle explique comment intervenir dans un système complexe et auto-adaptatif. Elle y pointait les modalités d’interventions dans un système selon leur efficacité.


Image : les modalités d’intervention dans un système dans l’ordre croissant de leur efficacité, par Donella Meadow :
12 : Constantes, paramètres, nombres (comme les subventions, taxes, normes).
11. La taille des tampons et autres stabilisateurs par rapport à leurs débits.
10. La structure des stocks et des flux matériels (tels que les réseaux de transport, les structures d’âge de la population).
9 La longueur des retards par rapport au taux de changement du système.
8. La force des boucles de rétroaction négative par rapport aux impacts qu’elles tentent de corriger.
7. Le gaindes boucles de rétroaction positives.
6. La structure des flux d’informations (qui a ou n’a pas accès à l’information).
5. Les règles du système (comme les incitations, punitions, contraintes).
4. Le pouvoir d’ajouter, de modifier, de faire évoluer ou d’auto-organiser la structure du système.
3. Les objectifs du système.
2. L’état d’esprit ou le paradigme à partir duquel le système (c’est-à-dire ses objectifs, sa structure de pouvoir, ses règles ou sa culture) se pose.
1. Le pouvoir de transcender les paradigmes.

Pour elle, les interventions qui impliquent de modifier les paramètres ou de changer les règles ne sont pas aussi puissantes ou aussi fondamentales que les changements dans les objectifs et les paradigmes d’un système. Pour Ito, cela pointe le fait que la soutenabilité n’est pas tant quelque chose qui doit être résolu dans un monde de progrès spontané où le plus est toujours le mieux et où le plus plus qu’assez n’est jamais le trop. Il nous faut nous intéresser aux valeurs et aux modalités pour examiner si elles sont adaptées et appropriées aux systèmes dont nous participons.

Pour le dire autrement et plus clairement, notre épanouissement dépend moins d’un éventail de mesures capables d’évaluer le succès, dépend moins d’une accumulation de pouvoir et de ressources que d’une diversité et d’une richesse d’expérience. Pour Ito, c’est le changement de paradigme dont nous avons besoin. Nous avons besoin d’une diversité, d’une multitude de modèles technologiques et culturels pour créer une société hautement adaptable. Nous ne pouvons pas penser résoudre notre impact environnemental sans poser des questions sur le sens du bonheur et notre rôle avec la nature. Et de pointer d’ailleurs le cours qu’il dispense au MIT avec le moine bouddhiste Tenzin Priyadarshi, directeur de l’initiative éthique du Media Lab, Principes d’attention, où il enseigne aux étudiants à utiliser une variété de métriques pour mesurer leurs succès et leurs significations, pour les aider à la fois à se débattre de la complexité et à trouver leur place dans un monde complexe. Ainsi que l’initiative de l’IEEE (voir également les publications de ce groupe de travail) pour développer des lignes directrices pour une intelligence artificielle au service du bien-être humain plutôt que de l’optimisation économique. Ou encore les travaux de Peter Seligman, Christopher Filardi et Margarita Mora de l’association Conservation International, qui abordent la préservation en soutenant l’épanouissement des peuples autochtones.

Notre avenir, conclut Ito est de nous épanouir en harmonie avec la nature plutôt que par son contrôle.

  • Vers un design de la médiation (2/2) : jouer avec les interfaces

Dans la première partie de ce dossier, j’ai tenté de montrer, avec l’aide du remarquable article du journaliste et développeur James Somers, que la manière même de produire du code était en train d’évoluer, que nous passions de l’écriture artisanale à des modèles de programmation qui permettent une compréhension plus (...)

Dans la première partie de ce dossier, j’ai tenté de montrer, avec l’aide du remarquable article du journaliste et développeur James Somers, que la manière même de produire du code était en train d’évoluer, que nous passions de l’écriture artisanale à des modèles de programmation qui permettent une compréhension plus globale de ce que le code accomplit. Que la complexité à laquelle le code parvenait nécessitait de nouvelles approches, de nouvelles modalités de conception. De nouveaux outils ouvrent des possibilités pour faciliter cette relation, pour transformer le dialogue entre le code et ce qu’il produit, entre codeurs et codés. De nouvelles formes de médiation entre le code et les développeurs ouvrent la voie à une autre forme de médiation entre les données, les systèmes, les traitements et ceux qu’ils calculent. Une évolution qui, via les interfaces, impacte directement notre rapport aux données et aux traitements qu’ils produisent. Dans la longue histoire des interfaces, une nouvelle étape de la médiation entre systèmes techniques et société semble se dessiner. Des interfaces optimisées et lisibles pour les machines comme le code ou jeux de données, nous glissons vers des interfaces plus accessibles aux humains tout en permettant leur exploitation conjointe par les hommes et les machines. Telle est la promesse du design de la médiation aux données.

Des datavisualisations aux « explications à explorer »

Les datavisualisations (ou visualisations de données) n’ont jamais été uniquement une façon de faire de jolis graphiques depuis des données. Depuis l’origine, elles sont liées à « l’engagement » que le concepteur peut tisser entre le lecteur et les données, même si elles se sont longtemps peu prêtées à manipulation et l’interaction. Reste qu’elles sont devenues peu à peu de moins en moins statiques, permettant de modifier les configurations, d’intervenir sur certains paramètres pour les faire varier, de zoomer ou dézoomer (comme dirait le sociologue Dominique Cardon)… Cette possibilité d’agir sur les données, d’interagir, introduit une forme de jeu qui ouvre à une compréhension nouvelle de ce qu’elles recouvrent.

La mathématicienne Cathy O’Neil ne disait pas autre chose quand elle soulignait, parlant des algorithmes et des systèmes techniques : « vous ne savez pas vraiment ce que fait un modèle tant que vous ne pouvez pas interagir avec lui ». L’interaction a toujours été un moyen de comprendre. La possibilité de manipuler et de changer les modalités par la manipulation est un moyen de saisir concrètement les conséquences de nos actions et donc d’apprendre et de comprendre, comme le suggéraient déjà les psychologues John Dewey et Jean Piaget.

Victor Bret (@worrydream), le développeur qu’évoquait James Somers dans son article a parlé « d’explications à explorer » (Explorable Explanations) pour évoquer de nouveaux modèles d’interactions. Un concept désignant l’engagement dans une lecture active via des documents réactifs, c’est-à-dire des documents permettant de jouer avec des hypothèses et d’en explorer les conséquences, via des procédés interactifs. L’enjeu expliquait-il est de permettre au lecteur de développer « une intuition sur le fonctionnement d’un système ».

« Un lecteur actif pose des questions, considère des alternatives, remet en question des hypothèses et remet même en question la fiabilité de l’auteur. Un lecteur actif tente de généraliser des exemples spécifiques et de concevoir des exemples spécifiques de généralités. Un lecteur actif n’absorbe pas l’information de manière passive, mais utilise l’argument de l’auteur comme un tremplin pour développer sa pensée critique et sa compréhension profonde.

Est-ce que nos environnements de lecture encouragent la lecture active ? Ou s’y opposent-ils totalement ? Un outil de lecture typique, tel qu’un livre ou un site web, affiche l’argument de l’auteur… et rien d’autre. La ligne de pensée du lecteur reste interne et invisible, vague et spéculative. Nous formons des questions, mais nous ne pouvons pas y répondre. Nous considérons des alternatives, mais ne pouvons pas les explorer. Nous remettons en question les hypothèses, mais nous ne pouvons pas les vérifier. Et donc, à la fin, nous faisons confiance aveuglément, ou pas, et nous manquons la compréhension profonde qui vient du dialogue et de l’exploration.

Explorable Explanations est mon projet général d’idées qui permettent et encouragent une lecture vraiment active. Le but est de changer la relation des gens avec le texte. Les gens pensent actuellement que le texte est une information à consommer. Je veux que le texte soit utilisé comme un environnement dans lequel réfléchir. »

Pour lui donc, les contenus ne peuvent pas seulement être les conteneurs d’une information destinée à être consommée, mais doivent être aussi les contenants d’une réflexion pour nous amener à en être acteurs. « Un document réactif permet au lecteur de jouer avec les hypothèses et analyses de l’auteur et d’en voir les conséquences ».

Fort de ce constat, son travail a consisté depuis à produire des documents réactifs et à développer des outils permettant d’interagir avec les concepts depuis les données.

Dans un autre de ses essais interactifs, « En haut et en bas de l’échelle de l’abstraction« , Bret Victor précise par l’exemple son concept d’explications explorables. L’exemple qu’il prend dans cette démonstration est un système de commande d’une simulation automobile permettant à une représentation de voiture de circuler sur une route. Il établit sa démonstration par la programmation de petits jeux interactifs pour aider à comprendre comment créer des règles pour guider la voiture, ajoutant à chaque volet de complexité de son explication toujours un peu plus d’interactivité. Pour lui, explique-t-il, le défi n’est pas tant dans la construction des systèmes que dans leur compréhension : la conception doit permettre d’explorer, de passer d’un niveau d’abstraction à un autre. L’interactivité, les modélisations et les données permettent de comprendre et jouer de concepts et modèles complexes par induction : en déplaçant des curseurs, en modifiant des chiffres, en comprenant la récurrence de schémas? De faire de la pédagogie depuis le jeu et l’interactivité, à l’image de la promesse originelle du multimédia.

Vers des systèmes de visualisation pour manipuler le monde des données

Ses travaux, initiés dès 2011, ont inspiré toute une communauté de développeurs qui ont construit depuis une foule d’outils et de contenus interactifs.

Victor Powell (@vicapow, qui travaille désormais chez Uber) et Lewis Lehe se sont inspirés des travaux de Bret Victor pour créer leur agence Setosa.io, mais surtout « Expliquer visuellement » un site qui agrège des explications visuelles et interactives de concepts mathématiques ou statistiques, via des animations et des graphiques que le lecteur peut manipuler. Jack Schaedler (@jackshaedler) pour sa part a publié tout un site pour expliquer les ondes, les cercles, les sinus et cosinus et les signaux. Mike Bostock (@mbostock) a publié « Visualizing Algorithms », un ensemble d’explications interactives qui permettent de comprendre les règles logiques des algorithmes. Daniel Kunin a développé pour sa part un site pour expliquer les probabilités et les statistiques. Stephanie Yee (@stephaniejyee et Tony Chu (@tonyschu) du studio R2D3 ont créé un cours visuel pour comprendre l’apprentissage automatique.

Les « explications explorables » ne se limitent pas aux mathématiques, rappelle le data journaliste et designer de données Maarten Lambrechts (@maartenzam) dans un remarquable article de synthèse, évoquant le travail de Chaim Gingold (@cgingold) sur Earth Primer (vidéo), une application pour iPad sous forme de manuel interactif pour comprendre des concepts de géologie, d’écologie et de météorologie, en permettant au lecteur de voir les effets de la pluie, des vents ou de la température sur les sols, le relief et la végétation.

Nicky Case (@ncasenmare, blog) s’intéresse plus aux phénomènes sociaux qu’aux questions techniques. Il a réalisé d’incroyables démonstrations « jouables » pour nous permettre de mieux les comprendre, comme Neurones névrotiques qui permet de comprendre le fonctionnement des neurones, la théorie des assemblées de neurones et la thérapie d’exposition, une technique de désensibilisation utilisée en psychothérapie comportementale pour combattre les phobies, le trouble du stress post-traumatique ou d’autres types d’anxiété. La parabole des polygones de Vi Hart et Nicky Case est une histoire interactive qui explique le fonctionnement de la ségrégation dans la société, ou comment un petit biais individuel aboutit-il à une grande ségrégation collective. L’évolution de la confiance est un jeu sur le même principe pour regarder comment la confiance et la coopération se disséminent entre les gens, à partir des théories des jeux.

Les « explications explorables » ont d’ailleurs leur portail (@explorables), maintenu par Maarten Lambrechts et Nicky Case, qui tente de recenser un grand nombre de ces nouveaux objets.

Comme le souligne Bret Victor en conclusion de l’échelle de l’abstraction, pour comprendre un système, il faut pouvoir l’explorer. Et pour l’explorer, il faut pouvoir contrôler et agir sur les paramètres. Pour lui, ce processus dynamique permet de rendre concrète l’expérience d’un système, de « reconstituer progressivement une compréhension pour guider nos décisions ». Pour Maarten Lambrechts, ces dispositifs, qui permettent d’expliquer par l’exploration, sont l’avenir même de l’éducation.

Dans une récente conférence faite pour la Long Now Foundation, Nicky Case explique avec une réelle énergie que face à la complexité, il faut pouvoir voir les systèmes dans leur totalité : il parle d’ailleurs de « systèmes de visualisation », pour évoquer ces nouvelles interfaces ! Pour y parvenir, il est nécessaire de rendre les choses abstraites, concrètes. C’est-à-dire de faire descendre les idées abstraites au niveau de compréhension des gens. Et que pour cela, la visualisation ne suffit pas, il faut pouvoir manipuler le monde des données. Plus que les mots, ces systèmes permettent également de favoriser la communication, notamment parce qu’ils reposent sur de la visualisation qui est plus universellement accessible que le texte. Mais pour lui, c’est l’assemblage des deux – « montrer et dire » – qui prend du sens, car cela nous permet d’être guidé dans notre parcours de compréhension. Comme une carte, qui nous montre un chemin dans un territoire complexe.

Reste que cartographier et rendre accessible un système complexe n’est pas si simple, s’amuse le développeur. Bien souvent, on n’y comprend rien, à l’image de la célèbre cartographie de la stratégie américaine en Afghanistan, qui, comme s’en est amusé un général Américain, permettrait certainement de gagner la guerre pour qui la comprendrait. Trop souvent les cartes, graphiques et visualisations ne donnent aucune ligne directrice, oubliant de permettre de rendre les informations plus simples ou plus accessibles, mais également plus adaptables pour les expérimenter par soi-même. Pour comprendre, il faut aussi que les systèmes favorisent une forme de manipulabilité des paramètres, de jouabilité?

Pour Nicky Case, nos erreurs d’interprétations sont liées au fait qu’on utilise une pensée linéaire pour comprendre des systèmes complexes. Or ceux-ci ne sont pas linéaires, mais reposent sur des boucles de rétroactions qui les renforcent, qui les équilibrent ou créent du chaos. Comprendre la complexité nécessite donc de faire appel à des documents non linéaires. C’est tout l’enjeu de Loopy, un système de cartes mentales (mindmap) dynamiques permettant justement de représenter simplement des interactions entre systèmes, que le développeur a mis au point. Pour Nicky Case, ces systèmes de visualisation jouables doivent avant tout nous permettre de comprendre comment se joue la complexité.

Des systèmes de visualisation aux design de la médiation

Avec ces outils, la visualisation de données est en train d’évoluer. Elle n’est plus seulement un mode de représentation ou de compréhension : elle devient l’interface de gestion des données elles-mêmes. Elle propose de reconcevoir la médiation des systèmes eux-mêmes, en les rendant explorables, manipulables, paramétrables.

Et les perspectives qu’entrouve cette conception peuvent être particulièrement stimulants. Lors d’une conférence de 2014 (vidéo), Bret Victor imaginait que cela pourrait conduire à créer de nouveaux « espaces de création », des espaces qui ne soient pas seulement des moyens d’assembler des pièces entre elles, mais aussi des moyens de comprendre les comportements de systèmes.

Avec le numérique, expliquait-il, nous perdons le lien avec nos outils parce qu’ils ne nous entourent plus, contrairement à ce que nous vivons dans nos cuisines ou dans un atelier où les outils sont à notre disposition tout autour de nous. Pour lui, l’enjeu de nos outils numériques est qu’ils deviennent des espaces de création qui donne de la capacité d’action aux gens. Mais quand on accomplit des projets logiciels ou robotiques, la difficulté n’est pas tant d’assembler les pièces ensembles, mais de comprendre ce qu’elles font et comment leur faire faire ce que nous voulons. Si nous voulons faire se déplacer un petit robot vers une lumière, il faut regarder son code et comprendre ce qu’il voit et comprendre pourquoi il se comporte de la façon dont il se comporte. En fait, les outils de construction à notre disposition n’aident pas beaucoup. Il faudrait plutôt avoir des outils permettant de regarder ce qu’il se passe. Pourtant, certains métiers prennent la visualisation au sérieux, rappelle-t-il en évoquant les salles de contrôle de la Nasa et les tableaux de bord géants des salles de contrôle d’installation critique qui surveillent le trafic routier ou électrique, ou une régie télé. Pour comprendre ce qu’il se passe en temps réel, il faut souvent construire une pièce peuplée d’écrans montrant les résultats en temps réels de multiples capteurs. Pour Bret Victor, c’est ce type de pensée qu’il faut apporter à l’ingénierie numérique. Des outils de ce type, explique-t-il, permettraient de créer des « espaces de visualisation », c’est-à-dire de créer des environnements qui permettent de voir et de comprendre comment se comporte le projet qu’on construit. Et d’imaginer dans sa présentation comment manipuler un robot depuis les données produites et non plus seulement depuis son code. Voir à l’intérieur nécessite de projeter l’information, d’y avoir accès autour de soi, de l’afficher d’une manière accessible dans son environnement et pas seulement à l’intérieur de l’objet. Et bien sûr tout l’enjeu de cet affichage consiste à trouver les moyens de le représenter et de permettre à cette représentation d’être rétroactive, c’est-à-dire de pouvoir la manipuler en retour facilement pour qu’elle agisse sur les objets qu’elle pilote. En déployant les possibilités de l’information jouable, Bret Victor nous permet de comprendre la finalité des interfaces qu’il imagine, comment le jeu sur les paramètres devrait permettre de modifier les comportements des choses avec lesquels on interagit.


Image : un espace de visualisation, tel qu’imaginé par Bret Victor.

Pour lui, si ces perspectives très prospectives qu’il dessine sont importantes, c’est que des systèmes de ce type pourraient permettre de faire le lien entre le bricolage, l’ingénierie et la science. « Si vous ne donnez aux gens que des outils de construction et leurs apprenez à s’en servir, ils en resteront au bricolage. Si vous leur donnez des outils conceptuels et théoriques, ils peuvent atteindre un niveau d’ingénierie. Mais pour aller jusqu’à des outils scientifiques, il faut pouvoir apporter des outils de visualisation, de compréhension », explique-t-il. Pour lui, il nous faut passer des recettes aveugles que nous appliquons à une compréhension pleine et entière. Et c’est tout l’enjeu de ce design de la médiation qu’esquissent les explorations explorables.

De la complexité toujours plus accessible

Ces interfaces ne sont plus le terrain de jeu de quelques développeurs brillants, mais isolés qui produiraient des applications multimédias et interactives réussies. De grands acteurs font des efforts pour rendre leurs outils toujours plus accessibles. C’est notamment le cas de Google, avec Tensor Flow, son outil d’apprentissage automatique en open source, qui a développé des outils pour jouer avec un réseau de neurones et rendu accessible différents projets permettant de tenter de comprendre comment ça fonctionne. L’un des outils les plus accessibles de Google, sa machine à apprendre permet, sans avoir à programmer une ligne de code, d’apprendre à un système à utiliser ce que voit sa caméra pour déclencher des comportements ad hoc. Selon ce que votre caméra regarde et analyse, grâce aux techniques de reconnaissance d’images de Google, vous pouvez très facilement créer une rétroaction quand il détecte que vous riez ou que vous pleurez ou quand il voit passer un chat devant l’écran? par exemple de déclencher un son ou tout autre comportement. Un autre outil, Facets permet d’analyser des données depuis des techniques d’apprentissage automatique en utilisant la visualisation pour faciliter la compréhension et l’analyse (voir les explications de Google). Autant d’exemples et d’outils qui préfigurent un avenir où l’intelligence artificielle serait demain accessible à tous.

Mais Google n’est pas le seul acteur à tenter de rendre accessible l’apprentissage automatique. Uber a construit une plateforme de machine learning comme service, proposant là encore des outils de visualisation ad hoc : Michelangelo. Cet outil développé en interne pour ses équipes d’ingénieurs et de scientifiques de données a permis que tout le monde travaille avec des outils comparables, de stocker et comparer des résultats, et surtout de mettre en production de nouveaux services basés sur l’analyse de données permettant à Uber d’exploiter des systèmes de machine learning à grande échelle. L’un des exemples qu’évoque Uber a été l’utilisation de cette plateforme pour produire des modèles de prédictions pour optimiser Uber Eats, le système de gestion de livraison de repas.

Fast Forward Labs, une société de conseil spécialisée dans le machine learning, a publié cet été un prototype d’algorithme qui favorise l’interprétabilité. Pour l’instant, il y a une tension dans les systèmes d’apprentissage automatique : l?exactitude de la prédiction de certaines techniques est inversement proportionnelle à leur explicabilité. Fast Forward Labs se propose de résoudre cette tension, avec des algorithmes qui améliorent leur exactitude tout en garantissant leur interprétabilité? Tant et si bien que ses promoteurs estiment que demain nous ne parlerons plus de boîtes noires algorithmiques, mais bien plutôt de boîtes blanches capables d’expliquer ce qu’elles font à ceux qu’elles calculent. L’équipe de la plateforme de Deep Learning H2O.ai a publié, elle, cette année, une vidéo qui montre plusieurs approches pour développer l’interprétabilité des systèmes d’apprentissage automatique.

Bon, toutes ces initiatives ne s’adressent pas encore tout à fait à chacun d’entre nous. Retenons néanmoins que les programmes d’intelligence artificielle cherchent à se rendre toujours plus accessibles. De là à dire que demain tout a chacun pourra les utiliser, il y a peut-être un pas qui semble encore difficile à envisager. C’est pourtant bien, semble-t-il, l’objectif qui se dessine. La conception d’interfaces s’insinue toujours plus loin pour nous permettre de jouer avec les données et les traitements, quitte à faire disparaître le code lui-même sans réduire ce qu’il permet de faire.

De la jouabilité des systèmes

Dans une remarquable tribune pour Linkedin, Benoît Vidal, cofondateur de Dataveyes (@dataveyes), un studio de développement de projets spécialisé dans l’interaction hommes-données, invite à créer des « interfaces de médiation avec les algorithmes », comme les informaticiens ont créé des interfaces de médiation avec le code. Benoît Vidal parle de HDI (pour Human Data Interactions ou ?interactions homme-données?) pour parler d’interfaces permettant de favoriser la discussion entre les données, leurs traitements et leurs utilisateurs.

« Les hommes et les machines doivent être chacun en charge de répondre à des besoins de natures et de complexités différentes : aux systèmes d’IA la responsabilité d?apprendre, de calculer, de classer, etc. Et aux humains la responsabilité de comprendre, d?analyser, de ressentir ou encore d?éprouver la réalité. Les deux devraient donc plutôt travailler de pair, en confiance. » Le but des HDI est d’apporter de la compréhension face aux systèmes riches en données par le biais d’interfaces qui misent non seulement sur la visualisation de données, mais aussi sur l’interactivité. La jeune pousse crée, inspirée par le travail sur les systèmes de datavisualisation, des systèmes d’interfaces pour interagir avec des données que ce soit dans le domaine des ressources humaines ou de l’énergie par exemple.

« De telles interfaces ne cherchent pas à nous apprendre à lire les formules mathématiques des algorithmes, mais elles nous montrent comment les algorithmes transforment les données, elles nous aident à appréhender ce que produisent ces algorithmes, à déduire le fonctionnement du système, en nous figurant visuellement les structures, les groupes, les hiérarchies, la distribution, les relations et les corrélations dans un jeu de données.

Souvent ces interfaces possèdent des filtres, des zooms, des curseurs à déplacer, des boutons à actionner, etc. Car un aspect important des interactions hommes-données se situe dans l’interactivité. Lorsqu?une visualisation simule des données qui évoluent au cours du temps, ou bien lorsqu?elle nous permet de faire varier des paramètres, elle nous donne à voir l?influence de variables d?entrée sur des variables de sortie. L?interface nous fait toucher du doigt la sensibilité des données, et nous donne une image mentale de leurs liens de dépendance. »

Tout l’enjeu est de produire non plus seulement des représentations (comme le faisait la datavisualisation), mais des systèmes permettant de moduler les représentations selon les données et les traitements. Une conception de la médiation entre données et humains.

L’enjeu n’est plus de produire seulement des visualisations de données, mais des systèmes qui permettent d’interagir avec les données et les traitements, qui permettent de comprendre les fonctionnements. L’enjeu n’est plus seulement de traiter les données, mais d’apporter des outils plus accessibles pour comprendre leurs fonctionnements, les traitements que les systèmes accomplissent et jouer avec leurs paramètres. Bref, de faire descendre des problématiques de gouvernance des données jusque dans le matériel qui permet de les traiter.

Au carrefour de la médiation, de l’explication et du jeu, ce design de la médiation entre les données, les calculs et les utilisateurs n’est certes pas nouveau, mais ses évolutions récentes dont nous avons tenté de rendre compte ici, montrent le rôle et l’importance de la jouabilité des systèmes techniques que nous évoquions dans les conclusions du groupe de travail Nos Systèmes de la Fing. L’enjeu de la jouabilité n’est pas seulement une façon de comprendre, mais bien une façon d’exploiter, d’utiliser et d’élargir le nombre de ceux qui seront capables d’exploiter les systèmes techniques aussi complexes soient-ils. A l’aune de ses premiers résultats en tout cas, le design de la médiation qui se structure peu à peu paraît être un puissant levier pour organiser le dialogue entre les données et la société. Il faudra assurément en suivre les développements.

Hubert Guillaud

  • Homo Deus : la technologie, cette religion performative !

Sapiens (voir également « D’Homo Sapiens au transhumain : qu’est-ce qu’être humains ? »), le précédent livre de l’historien Yuval Harari (Wikipédia, @harari_yuval), cette grande fresque de l?humanité a permis à des millions de lecteurs de se sentir intelligents, de comprendre notre aventure humaine sur plus de 300 000 ans, de s?ouvrir à une (...)

Sapiens (voir également « D’Homo Sapiens au transhumain : qu’est-ce qu’être humains ? »), le précédent livre de l’historien Yuval Harari (Wikipédia, @harari_yuval), cette grande fresque de l?humanité a permis à des millions de lecteurs de se sentir intelligents, de comprendre notre aventure humaine sur plus de 300 000 ans, de s?ouvrir à une autre échelle de temps pour éprouver notre humanité, comme l?avaient fait avant lui, dans des styles différents, des historiens comme Arnold Toynbee ou Jared Diamond par exemple. En magicien de la vulgarisation, Harari nous avait fait comprendre que ce qui nous a distingué des singes, c?est notre capacité à raconter des histoires (comme les religions, les États, l?argent ou la loi) nous permettant de coopérer à vaste échelle, ce que les groupes de singes sont encore incapables. Chaque lecteur s?est régalé de cette vision holistique, de ses formules saisissantes, des points de vue décalés, des exemples truculents et toujours pertinents qu?use l?historien. Que ses fans se rassurent, ils retrouveront tout cela dans son nouvel ouvrage, Homo Deus. Yuval est toujours un formidable conteur, passionnant de bout en bout !

Pourtant, en utilisant les mêmes ficelles, cette suite est beaucoup moins réussie. D?abord, parce que si Sapiens se terminait sobrement, prophétisant la possible fin de l?humanité, cette suite prend un tout autre chemin : celui d?envisager notre propre dépassement en tant qu?espèce. Reprenant une vulgate commune, Harari estime que la technologie va nous permettre de nous affranchir de toutes nos limites, oubliant peut-être trop rapidement que notre domination du monde ne repose pas sûr le dépassement de nos seules limites, mais aussi sur le dépassement des limites de notre environnement tout entier. En extrapolant des tendances à la manière d?un Hari Seldon, célèbre psychohistorien de science-fiction capable de prédire l?avenir de l?humanité sur des milliers d?années, Harari signe un essai de science-fiction où il pousse ses propres biais jusqu’à leur caricature. En appliquant son stimulant schéma d?explication du monde à l?avenir, Harari en éprouve les limites, celles d?un gênant réductionnisme, souvent très schématique et parfaitement libéral.

L?hubris de la techno, par nature, consiste à dépasser toutes les limites. Surtout les plus fondamentales, celles du temps, de la vie, de l?espace et de la matière. Pourtant, avons-nous vraiment dépassé l?une d?entre elles comme nous le racontent les prophètes des technosciences ? Si nous avons repoussé la mort, nous n?avons pas dépassé la durée de vie naturelle de notre espèce et pour l?instant, malgré des décennies d?annonces, rien ne nous assure que nous y parviendrons vraiment. Nous sommes certes allés dans l?espace, mais nous sommes parfaitement incapables d?envisager les seuls voyages importants, les voyages interstellaires, permettant de nous conduire sur d?autres mondes habitables à des milliers d?années de notre planète. Nous ne savons toujours pas créer de la matière depuis des éléments fondamentaux. Et nous n?avons découvert aucune prise sur le temps.

Ces échecs n?empêchent pas Yuval Harari de faire sien le prophétisme technologique, qui ne cesse d?annoncer ces réalisations à venir, soulignant combien l?imaginaire transhumaniste nous éblouit. Après l?avoir rejeté, nous voulons désormais dépasser notre condition pour réaliser nos rêves. Le récit qui nous projette dans un dépassement de nous-mêmes en tant qu?espèce semble si puissant qu?il permet de croire qu?on sera capable de le réaliser. Ce serait peut-être possible, si nous n?avions pas déclenché un compte à rebours qui éloigne l?objectif à mesure qu?on cherche à s?en rapprocher.

Comme le dit Yuval Harari, nos constructions conceptuelles contemporaines sont encore plus puissantes que les religions et c?est pour cela qu?elles les détrônent. La technologie notamment va plus loin encore. C?est une religion performative, qui tente d?accomplir ce qu?elle annonce. En cela elle est toute puissante. Le risque est d?oublier que malgré sa puissance, la technologie est aussi et avant tout un moteur de notre imaginaire, une représentation, une manière de nous convaincre de notre puissance sans limites. La réalité montre plutôt que nos rêves vont être très difficiles à réaliser. La limite intrinsèque des ressources naturelles de la planète ou le défi climatique viennent réclamer leur dû. Nous allons avoir du mal à abandonner notre condition d?autant plus quand ce que nous avons saccagé se rappelle à nous. Non seulement nous avons été incapables de penser notre environnement jusqu?à le détruire, mais nous avons été aussi incapables de nous penser en tant qu?espèce, de dépasser nos récits coopératifs pour prendre en compte le temps, la matière, l?espace et la vie.

En soulignant combien dieu est un récit dépassé, régénérer cette perspective en faisant de l?homme un dieu, comme nous y invite Homo Deus, n?est-il pas une perspective vouée à l?échec ? Si dieu n?existe pas, comment l?homme pourrait-il en devenir un ?, pourrait-on répondre à Harari.

Comme bien des technoprophètes, Harari fait de la science une fiction. Son défaut si commun est une sur-rationalisation, sans voir combien cette logique de l?efficience parfaite, absolue, produit pourtant des absurdités? Chez Harari, la notion de progrès semble n?avoir connu aucune critique : il est toujours infini. En projetant des régularités passées sur l?avenir, il déduit des progrès linéaires de la science des percées à venir exponentielles. C?est ainsi que de constats justes on dresse des perspectives fausses. À nouveau, la disparition des ressources, la grande extinction, le réchauffement climatique qui pourraient conduire à la disparition même de la vie sur Terre, semblent des perspectives peu importantes pour les dieux que nous sommes appelés à devenir. Reste que ces considérations-là pourraient bien pourtant nous empêcher d?atteindre un quelconque Olympe.

Au final, Harari brode son récit d?un avenir qui ne fait rêver personne, sans poser vraiment la question de la finalité : voulons-nous vraiment vivre 1000 ans ? Voulons-nous vraiment quitter notre condition – ce qui implique notamment de ne plus faire des enfants comme nous les faisons puisque ce n?est pas la manière la plus optimale ? Voulons-nous vraiment la société inégalitaire et de contrôle total que cela implique ? Comment être heureux si nous nous coupons de la seule chose qui finalement nous rend heureux : « les sensations agréables » ?

Comme le dit Harari, la plus grande découverte scientifique a été celle de l?ignorance, car elle nous a permis de partir à la recherche de la connaissance. Il est peut-être temps de se souvenir de ses vertus, plutôt que de chercher à nous faire croire que tout est résolu ou que tout va l?être.

Hubert Guillaud

Cette critique de l’ouvrage de Yuval Harari est extraite d’Idées, une nouvelle revue lancée par Lemieux éditeur dont le premier numéro vient de paraître (Emmanuel Lemieux avait lancé L’annuel des idées puis la revue Le Panorama des idées auxquels InternetActu.net avait également contribué). Cette revue livrera tous les deux mois un aperçu des meilleures publications dans le domaine des essais et des critiques argumentées pour aider chacun à naviguer dans le foisonnant paysage des publications du monde des idées. C’est au format poche et c’est à 8 euros. Et vous pouvez même vous abonner.


  Chaines INFO  
 Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People 

Dernière modification: le   NEToo ™  Tous droits réservés • ©2004/2006 • CNIL n°892206