NEToo - métamoteur francophone pour tout trouver plus rapidement
  Web Actualités Blogs Voyages Images Vidéos Musique Annuaire  

Trouvez toutes les dernières nouvelles et dépêches publiées en interrogeant simultanément des multiples sources sur le web

Recherchez dernières actualités en temps réel 

   Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People   
 Dernières actualités multimédia sur métachercheur francophone NEToo
Le Parisien - High-Tech    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 23/05/2017 07:53:12

  • Violences, menaces ou nudité : les règles de modération de Facebook révélées

Après avoir consulté une centaine de notes internes, le quotidien britannique «The Guardian» donne un éclairage inédit sur les règles de modération du réseau social à propos de la violence, des discours...

  • Vers des Chromebook enfin prêts à être compatibles avec les applications Android

Lors de la conférence pour développeurs Google I/O qui se déroule actuellement à Mountain View (États-Unis), l'arrivée de Chromebook plus ou moins compatibles avec Android est revenu sur le devant de la...

  • Les Français profitent de plus en plus de la 4G tandis que les prix des forfaits continuent de baisser

Les voyants sont quasiment tous au vert dans l'Observatoire 2016 du marché français des télécoms, publié par l'Autorité de régulation des communications électroniques et des postes (Arcep).Pour rappel,...

  • A Bandol, les écoliers n'ont pas l'intention de ranger leur tablette

«Maîtresse, c'est quoi le nom du monsieur qui nous a parlé au musée ?» Noa, 10 ans, promène ses doigts avec une impressionnante dextérité sur sa tablette. En plein montage vidéo, le garçon a réalisé les...

  • Bouygues Télécom ouvre son kiosque numérique

Comment, quand on est opérateur télécom dans un marché très concurrentiel, attirer ou fidéliser les abonnés ? En s'appuyant sur les possibilités offertes par le très haut débit, fixe ou mobile. Depuis...

  • Etats-Unis : Uber se lance à l'assaut du transport de marchandises

Dans la famille Uber, demandez le fret. Après avoir récemment élargi son offre en s'ouvrant à la livraison de nourriture (Uber Eats) ou en misant sur la voiture autonome avec sa filiale Otto, voilà que le...

  • Cyberattaque : trois Français ont créé un logiciel anti WannaCry

Cocorico ! Un groupe de trois Français, experts en sécurité informatique, a annoncé ce vendredi avoir mis au point un logiciel qu?ils ont nommé WannaKiwi permettant de récupérer les documents Windows cryptés...

  • Plus de 23 millions de Français surfent sur Amazon chaque mois

36,6 millions d'internautes ont effectué des achats en ligne entre janvier et mars 2017, soit plus de 8 internautes sur 10 (83%), selon les dernières données de l'Observatoire des usages Internet publié...

  • Google Assistant et Google Home arrivent (enfin) en France et en français

La rumeur disait donc vrai. À l'occasion de la conférence pour développeurs Google I/O, qui se déroule jusqu'au 19 mai à Mountain View (États-Unis), l'arrivée en France, et en version française, de Google...

  • Google I/O 2017 : l'intelligence artificielle et la reconnaissance vocale en vedettes

Outre quelques mises au point concernant Android O, la première journée de la conférence Google I/O a été marquée par l'importance donnée tant à l'intelligence artificielle qu'à la reconnaissance vocale...


InternetActu.net    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 23/05/2017 07:53:12

  • Mauvaises nouvelles pour l?amélioration morale

La technologie peut elle nous rendre moralement meilleurs ? C’est une question de plus en plus importante dans les milieux qui s?intéressent à l?augmentation humaine et au transhumanisme. Mais une telle entreprise pose deux questions : est-ce possible et est-ce souhaitable ? Dans un article publié récemment par la revue Bioethics et résumé (...)

La technologie peut elle nous rendre moralement meilleurs ? C’est une question de plus en plus importante dans les milieux qui s?intéressent à l?augmentation humaine et au transhumanisme. Mais une telle entreprise pose deux questions : est-ce possible et est-ce souhaitable ?

Dans un article publié récemment par la revue Bioethics et résumé par ScienceDaily, les auteurs répondent par la négative à cette double interrogation : ce ne serait ni faisable, ni souhaitable.

Les chercheurs passent d’abord en revue les différentes techniques d’amélioration morale aujourd’hui connues : au premier rang l’ocytocine, qui a été surnommée la molécule morale, les inhibiteurs sélectifs de la recapture de la sérotonine (dont le Prozac est l’exemple le plus connu), susceptibles dit-on, de réduire l’agressivité, mais aussi (plus surprenant) les amphétamines, qui augmenteraient la motivation, et les bêtabloquants, dont on a découvert qu’ils diminuaient les réflexes racistes.

En plus des produits chimiques, les auteurs mentionnent également la stimulation transcranienne directe, qui serait capable de rendre les gens plus « pragmatiques » (le terme anglais est utilitarian, qui est également la dénomination d’une philosophie particulière, celle défendue notamment par John Stuart Mill, qui affirme que le but de la morale est d’assurer le bonheur du plus grand nombre), la stimulation magnétique transcranienne, qui changerait la façon dont les personnes répondent aux dilemmes moraux, et enfin, la stimulation cérébrale profonde, c’est-à-dire impliquant l’usage d?électrodes dans le cerveau, en mesure d?augmenter la motivation.

Mais, selon les chercheurs, aucune de ces technologies ne se révèle finalement satisfaisante.

L’ocytocine est maintenant reconnue pour augmenter l’importance des liens sociaux au sein du groupe de pairs mais également de favoriser des rejets de l’étranger, et aurait même accentué des réflexes racistes. Les produits comme le Prozac ont de sérieux effets secondaires, y compris celui d’encourager les tentatives de suicide chez certains patients ; les bêtabloquants diminuent toutes les réponses émotionnelles et pas seulement les réactions racistes ; les amphétamines sont hautement addictives, dangereuses et augmentent tous les types de motivation, pas forcément les plus morales.

Et les méthodes électroniques ? Le compte-rendu de ScienceDaily est malheureusement plus flou sur le sujet. Les auteurs n’ont trouvé aucune évidence d’un effet de la stimulation cérébrale profonde sur le comportement moral. Quant aux autres techniques de stimulation, il n’existe aucune preuve que se montrer plus pragmatique (ou « utilitarien » au sens philosophique) dans ses prises de décisions serait lié à une amélioration morale.

  • Exercice physique et capacités cognitives

Quel est le meilleur moyen de stimuler son cerveau ? Selon deux recherches rapportées par The Independent cela reste l’exercice physique. Pour augmenter ses capacités cognitives, rien ne vaudrait un exercice aérobique, c’est-à-dire susceptible d’augmenter le rythme cardiaque pendant un temps assez long. Par exemple, une marche rapide, du vélo, du jogging… (...)

Quel est le meilleur moyen de stimuler son cerveau ? Selon deux recherches rapportées par The Independent cela reste l’exercice physique. Pour augmenter ses capacités cognitives, rien ne vaudrait un exercice aérobique, c’est-à-dire susceptible d’augmenter le rythme cardiaque pendant un temps assez long. Par exemple, une marche rapide, du vélo, du jogging…

Les premiers bénéfices se feraient sentir dès la première séance : l’humeur est améliorée. Mais pour obtenir des résultats plus profonds, comme une amélioration de la mémoire, il faudrait pratiquer pendant plusieurs semaines. Ainsi, des dépressifs sévères marchant 30 minutes sur un tapis roulant pendant 10 jours auraient vu leur syndrome se réduire considérablement.

Une autre étude (The Independent ne donne malheureusement aucun lien vers les papiers originaux) effectuée sur des seniors âgés de 60 à 88 ans a montré que 30 minutes de marche effectuées 4 jours par semaine pendant 12 semaines auraient été en mesure d’augmenter la connectivité du cerveau entre des zones associées à la perte de mémoire.

Une autre recherche, concernant cette fois des femmes âgées, aurait établi que l’exercice aérobique aurait augmenté la taille de leur hippocampe, une aire cérébrale liée à la mémoire et l’apprentissage.
Ce n’est pas la première fois qu’on remarque l?influence de l’exercice sur le cerveau, et cela a déjà été souvent mentionné dans nos colonnes. Si la plupart confirment l’importance du caractère aérobique de l?entraînement, certaines font plutôt la promotion de techniques plus dynamiques, comme soulever des poids. D’autres ont mis en évidence l’importance des exercices impliquant l’équilibre, comme grimper sur un arbre ou marcher sur une poutre.

Citons encore une nouvelle recherche, effectuée à l’université de Manchester et relayée par le site Sharpbrains. Il s’agit d’une méta-analyse concernant les « exergames », autrement dit les séances d?entraînement basées sur le numérique, comme ceux existant sur la Wii ou la Kinect. Ce travail repose sur l’analyse des données de 17 expériences impliquant 926 personnes. Ces jeux vidéos présenteraient, selon les auteurs de l’étude, une efficacité encore plus grande sur la cognition que l’exercice physique traditionnel. Suivre les instructions du programme impliquerait en effet une concentration accrue.

  • Qui construit le futur ? Google !

Il ne faut pas se laisser abuser par Juicero (que nous évoquions hier), réplique Farhad Manjoo dans le New York Times. Les grandes entreprises de technologies, comme les Gafam, financent les projets les plus transformateurs et ce alors que les financements publics ne cessent de décliner. Ce sont d’ailleurs les (...)

Il ne faut pas se laisser abuser par Juicero (que nous évoquions hier), réplique Farhad Manjoo dans le New York Times. Les grandes entreprises de technologies, comme les Gafam, financent les projets les plus transformateurs et ce alors que les financements publics ne cessent de décliner. Ce sont d’ailleurs les géants des technologies qui construisent l’intelligence artificielle de demain. « Et combien même le gouvernement augmenterait ses dépenses en recherche dans ces technologies, ce sont les entreprises qui décident comment les déployer », appuie l’éditorialiste du New York Times.

Reste que si on regarde les innovations dévoilées lors de la dernière convention de Google, force est de constater qu’on n’y trouve pas grand-chose de révolutionnaire. Pour Manjoo, c’est dû au fait que nous sommes dans une phase un peu morne de l’évolution technique, marquée par l’innovation incrémentale et progressive. Lors de cette conférence, Sundar Pichai, directeur général de Google, a insisté sur le fait que l’enjeu pour Google est d’intégrer ces techniques d’IA dans ses produits de consommation, comme son application photo ou son traducteur. Les 5 Gafam sont les plus grands investisseurs en R&D de la planète rappelle Manjoo (60 milliards de dollars en 2016, en comparaison, le gouvernement fédéral américain en 2015 a dépensé 67 milliards en la R&D, hors Défense). Sans compter que les Gafam semblent chercher à être plus vertueux qu’ils ne l’étaient jusqu’à présent dans leur approche, souligne encore Manjoo, notamment en publiant des articles scientifiques, des données et des outils, avec une sorte d’éthique académique? En fait, plusieurs acteurs pointent plutôt le retrait de la recherche publique et de son financement, qui font peser le risque que ces technologies finissent par être déployées au profit de ces seules organisations plutôt qu’au bénéfice de toute la société.

Dans le New York Times, un article de Natasha Singer revient sur une autre transformation en profondeur que produisent les Gafam : l’ubérisation des services publics, non pas seulement via la recherche, mais via la mise à disposition massive de leurs plateformes, comme elle l’illustre en observant le rôle de Google dans l’éducation.

Depuis 5 ans, Google est devenu un acteur majeur de l’éducation aux Etats-Unis, en proposant des ordinateurs portables low-cost (les fameux ChromeBooks) et des applications gratuites aux écoles. Aujourd’hui, ce serait plus de la moitié des élèves américains du primaire et du secondaire qui utiliseraient Google et les Chromebooks compteraient pour la moitié des ordinateurs disponibles dans les classes américaines. Mais, remarque Natasha Singer, « les écoles offrent à Google bien plus qu’elles n’obtiennent : elles lui offrent des générations de futurs consommateurs ». Si Google ne gagne qu’une trentaine de dollars en vendant ses appareils aux écoles, en habituant les élèves à ses services, elle obtient quelque chose qui vaut beaucoup plus. Reste que le modèle économique de Google n’est pas celui d’Apple ou de Microsoft qui demeurent des acteurs majeurs de l’éducation : Google se finance par la publicité ciblée en ligne pas par la vente de logiciel ou de matériel. Bram Bout, directeur de l’unité éducation de Google, rappelle que les services éducatifs de Google sont limités comme l’indique la notice de confidentialité, et souligne que ses services éducatifs dédiés ne montrent pas de publicités. Reste que parents et services éducatifs souhaiteraient que Google soit plus disert sur les données qu’il collecte et la façon dont la firme les utilisent.

L’article tente de retracer l’histoire du succès de Google dans les services éducatifs, qui semble plus lié à la réponse technique que Google a su offrir pour permettre à chaque élève d’avoir un e-mail que pour la simplicité collaborative liée à l’intrication entre ses services. C’est le coût de la gestion des services d’e-mail qui semble avoir fait basculer nombre de services éducatifs vers les solutions proposées par Google, renforcé par les possibilités de collaboration simplifiées des outils de Google qui ont, elles, séduit les professeurs. Quant aux Chromebooks, ils sont venus ensuite comme une réponse supplémentaire aux problèmes du numérique à l’école. La complémentarité des ordinateurs avec la suite logicielle de Google, leur prix, leur simplicité d’administration (la possibilité d’utiliser n’importe lequel par exemple) et la possibilité par exemple de les administrer en groupe et à distance (par exemple de bloquer à distance la possibilité de chercher en ligne quand les élèves doivent répondre à un QCM) a visiblement fait la différence. Le fait qu’ils soient inutilisables pour quelque 20 % des élèves ne disposant pas d’une connexion à domicile, semble plus avoir été une difficulté à résoudre, qu’un obstacle. Google a d’ailleurs amélioré les capacités hors connexion de ses applications éducatives. En 2012, les Chromebooks ne représentaient que 1 % des ordinateurs des écoles primaires et secondaires américaines. Aujourd’hui, ils représentent 58 % du parc.

Quant à Google Classroom, plus de 100 000 professeurs à travers le monde ont participé à l’amélioration du produit, oubliant un peu vite l’administration scolaire qui a pointé pourtant quelques limites au produit, notamment dans l’enregistrement et la gestion de commentaires problématiques ou intimidants que pouvaient se faire les élèves entre eux. Aujourd’hui, quelque 15 millions d’élèves du primaire et du secondaire aux Etats-Unis utilisent Google Classroom. « Google a utilisé d’une manière très créative les ressources publiques – notamment le temps et l’expertise des professeurs – pour construire un nouveau marché à moindre coût », constate rétroactivement Patricia Burch, spécialiste en éducation.

La force de Google semble surtout d’avoir été capable d’améliorer très rapidement ses produits en répondant aux demandes et au retour des professeurs et de l’administration scolaire.

  • Juicero : des limites de l?innovation spéculative

L’innovation capitaliste se cannibalise elle-même, affirme le journaliste et essayiste Ben Tarnoff (@bentarnoff), l’un des confondateurs de Logic Mag, dans une tribune assez salée pour le Guardian. L’accablement de Ben Tarnoff s’est cristallisé sur Juicero, une récente startup iconique de la Silicon Valley qui propose une machine à jus de (...)

L’innovation capitaliste se cannibalise elle-même, affirme le journaliste et essayiste Ben Tarnoff (@bentarnoff), l’un des confondateurs de Logic Mag, dans une tribune assez salée pour le Guardian.

L’accablement de Ben Tarnoff s’est cristallisé sur Juicero, une récente startup iconique de la Silicon Valley qui propose une machine à jus de fruit assez chère (400$) avec des recharges (un peu comme les capsules de café)… Or des journalistes de Bloomberg ont montré que la machine ne servait à rien, les recharges pouvant être dégustées sans avoir besoin de la machine !

Ce pourrait être drôle, si ce n’était pas si triste. L’entreprise de San Francisco? a quand même récolté quelque 120 millions de dollars en capital-risque pour automatiser quelque chose qu’on pouvait autrement et gratuitement. Le problème, estime Ben Tarnoff, c’est que l’arnaque de Juicero n’est pas une anomalie. « L’économie qui produit Juicero est la même que celle qui créée des toxicomanes opioïdes dans l’Ohio, qui ébranle les travailleurs de l’automobile en Alabama ou qui évince les familles du centre de Los Angeles ». Cette innovation stimule la croissance, ce qui augmente la productivité, permettant de créer plus de richesses avec moins de travail? Mais lorsque les économies n’innovent pas, elles produisent de la stagnation, de l’inégalité et du désespoir. Pour lui, Juicero n’est ni amusant, ni seulement stupide (comme le soutient Timothy B. Lee sur Vox) c’est la preuve d’une « innovation suicidaire ».

Juicero

Pour Ben Tarnoff, le mythe de l’entrepreneur innovant relève d’une croyance qu’il faudrait enfin dissiper. L’innovation réelle est très coûteuse à produire, rappelle-t-il. « Le secteur privé est plus susceptible d’entraver le progrès que de le faire avancer ». En fait, souligne-t-il, les entreprises ont besoin de percées en terme de recherche pour construire des entreprises, mais elles refusent de prendre le risque de financer ces percées, souvent trop coûteuses. Comme l’a montré l’économiste Mariana Mazzucato, auteure de L’Etat entrepreneurial, les innovations majeures des années 50 et 60 sont le fruit du secteur public qui seul a su prendre des risques qui ont bénéficié ensuite aux entreprises privées (voir notre article « Construire l’Etat innovant »). En fait, ce ne sont pas les forces du marché qui favorisent l’innovation : c’est l’isolement de la R&D publique du marché qui historiquement a permis de bâtir de l’innovation réussie !

Pour Tarnoff, nous n’en sommes, hélas, plus là. Comme on l’a vu lors de la crise financière : « le contribuable absorbe le risque et l’investisseur récolte la récompense ». De l’énergie à la pharmacie, la recherche publique a partout jeté les bases du profit privé. Et l’industrie qui a produit Juicero a été un grand bénéficiaire de la générosité du gouvernement. Le développement des technologies de l’information, de l’internet, de la Silicon Valley? ont été le résultat d’investissements gouvernementaux soutenus et substantiels.

Or, rappelle Ben Tarnoff, l’austérité a profondément ébréché la capacité du gouvernement à innover. La R&D est a son plus bas niveau en pourcentage du PIB en 40 ans. Pour Tarnoff, les capitaux-risqueurs sont anti-innovation par conception. Ils ne cherchent qu’à revendre les entreprises qu’ils financent que ce soit par une introduction en bourse ou via une acquisition par une plus grande entreprise. Un mode de financement qui ne permet pas de réelles percées technologiques? Et qui produit juste des absurdités comme Juicero : « des entreprises surévaluées qui servent de véhicules lucratifs pour la spéculation financière ». Or ni les sociétés de capital-risque ni les grandes entreprises ne remplissent le vide créé par l’effondrement de la recherche publique. Pourtant, ce n’est pas comme si elles n’avaient pas d’argent ! Les bénéfices monopolistiques d’Apple et l’évasion fiscale de la firme lui ont permis d’accumuler une trésorerie d’un quart de trillions de dollars ! La Silicon Valley comme Wall Street s’intéressent plus à l’extraction de richesse qu’à la création. Tant et si bien qu’il serait préférable que les entreprises se cannibalisent elles-mêmes en rachetant leurs actions à leurs actionnaires plutôt que de leur permettre d’investir dans des capacités de croissance.

Alors qu’on a un secteur public de plus en plus famélique et affamé, le secteur privé est lui « boursouflé et prédateur ». L’économie devient un mécanisme pour rendre les riches plus riches et l’argent qui pourrait servir à construire l’avenir sert à être dépensé dans des produits de luxe.

Le problème, souligne encore Tarnoff, est que le résultat ne produit pas seulement moins d’innovation, mais également une croissance plus faible, et une répartition de moins en moins distribuée. « Il est difficile d’imaginer une manière plus irrationnelle d’organiser la société » (…) Un système plus sain reconnaîtrait que l’innovation est trop précieuse pour être laissée au secteur privé et que le capitalisme, comme tout projet utopique, fonctionne mieux en théorie qu’en pratique. »

  • Safety Check : entre individualisation et dépolitisation

Tausif Noor (@tausifnoor), étudiant spécialiste d’art visuel, de politique et d’histoire de l’art, pour Real Life, revient sur le Safety Check de Facebook (Wikipédia), cet outil présenté par FB comme un outil de réassurance? pour aider ses utilisateurs à communiquer avec leurs proches en cas d’événement grave (catastrophe naturelle ou (...)

Tausif Noor (@tausifnoor), étudiant spécialiste d’art visuel, de politique et d’histoire de l’art, pour Real Life, revient sur le Safety Check de Facebook (Wikipédia), cet outil présenté par FB comme un outil de réassurance? pour aider ses utilisateurs à communiquer avec leurs proches en cas d’événement grave (catastrophe naturelle ou catastrophe d’origine humaine). Mais Safety Check, cet outil d’alerte quasiment régalien, qui vient concurrencer les services d’alerte et d’information des populations organisées par les autorités, est-il un objet pour rassurer les siens ou pour les inquiéter, se demande Tausif Noor.

Entre 2014 et 2016, FB a déclenché plus de 30 fois son Safety Check, mais a été vertement critiqué du fait de ses décisions sélectives à le déclencher (voir notamment notre article « Safety Check : par qui souhaitons-nous être protégés ?« ). Depuis juin 2016, il a modifié son système d’alerte en l’automatisant : Safety Check se déclenche désormais automatiquement quand des mots clefs du type « tremblement de terre », « tirs » ou « coups de feux » s’échangent de manière concentrée entre les utilisateurs du réseau social géolocalisés dans un endroit particulier, comme l’explique Alfred Ng pour Cnet. Depuis juin 2016, l’outil a été déclenché quelque 335 fois à travers la planète? Safety Check a changé d’échelle.

Pour Tausif Noor, s’il est nécessaire de comprendre si Facebook prend prétexte de moments de crises – quelque soit leur sévérité, avérée ou non -, pour développer et renforcer son emprise sociale sur les utilisateurs? le vrai problème de cette fonctionnalité d’alerte consiste à recontextualiser un évènement dans sa seule signification individuelle. L’événement, quel qu’il soit, est pris dans son seul contexte individuel, replaçant ceux qui sont pris par l’événement dans leurs réseaux traditionnels plutôt que dans les réseaux de l’événement lui-même. En fait, Tausif Noor se demande si FB n’instrumentalise pas ainsi les événements que vivent les gens, tout en les dépolitisant. Le modèle du contrôle de sécurité, du signalement d’absence de danger que cristallise le Safety Check ne permet-il pas finalement de filtrer les événements, mais aussi les gens dont on s’inquiète et donc ceux dont on ne s’inquiète pas. « Qui se soucie vraiment de savoir si vous êtes en sécurité ou non ? », interroge le chercheur. Facebook présuppose que les gens qui composent votre réseau social s’en inquiètent, mais est-ce vraiment le cas ?

Autre question soulevée par Tausif Noor : quelle vision du monde Facebook impose-t-il avec cet outil ? Sans conteste, la Safety Check regarde le monde d’une façon sécuritaire. Mais alors, la plateforme peut-elle ainsi s’absoudre de la responsabilité d’évaluer la sévérité des crises dont elle rend compte, comme elle s’absout jusqu’à présent de prendre parti dans l’information qu’elle distribue, qu’elle soit réelle ou pas ? Safety Check est présenté invariablement comme un service pratique et commode, sans jamais interroger la vision qu’il porte, individualiste et sécuritaire… Le problème est que le contrôle d’absence de danger recontextualise tout événement comme étant quelque chose de personnel, faisant oublier toute perspective sociopolitique plus large : comment s’est-il produit ? Pourquoi ? Qui a-t-il touché ?… Safety Check nous relie aux crises globales, au monde, selon un prisme uniquement individuel et semble indifférent à tout comportement autre qu’individuel. C’est à croire que Facebook semble toujours chercher à méconnaître « la nature du social qu’il veut imposer à tous » conclut Tausif Noor.

  • Le mythe de l?IA surhumaine

On ne présente plus Kevin Kelly (@kevin2kelly), qui fut le premier rédacteur en chef de Wired et auteur de nombreux ouvrages sur la technologie. Son dernier livre, The Inevitable : Understanding the 12 Technological Forces That Will Shape Our Future cherche à déterminer les technologies qui nous influenceront le plus au (...)

L'inévitable : comprendre les 12 forces technologiques qui vont façonner notre futurOn ne présente plus Kevin Kelly (@kevin2kelly), qui fut le premier rédacteur en chef de Wired et auteur de nombreux ouvrages sur la technologie. Son dernier livre, The Inevitable : Understanding the 12 Technological Forces That Will Shape Our Future cherche à déterminer les technologies qui nous influenceront le plus au cours des 30 prochaines années. Kelly ne pouvait manquer d’intervenir dans le débat actuel sur l’avenir de l’IA et sur les inquiétudes que cette dernière suscite actuellement, notamment autour du thème de la « superintelligence » et la possibilité que nos créations technologiques dépassent leurs parents humains et précipitent dans le meilleur des cas, une Singularité nous entraînant vers un paradis technologique, ou, dans le pire, notre extinction.

Ce que prouve son long texte dans Backchannel, c’est qu’on peut être enthousiaste de la technologie sans pour autant souscrire aux mythes les plus influents dans les milieux du numérique. Car pour Kelly, l’idée de l’IA « surhumaine » n’est rien d’autre que cela, un mythe, qui tient en cinq points dont il cherche à démontrer le caractère largement improuvable.

L’intelligence et l’IA, les bases d’un mythe moderne


Voici, selon lui, ces cinq postulats :

1.L’intelligence artificielle est déjà en train de devenir plus intelligente que nous, à un rythme exponentiel.
2. Nous allons faire des AI dotée d’une intelligence générale, comme la nôtre.
3. Nous pouvons recréer l’intelligence humaine sur un support en silicium.
4. L’intelligence peut être étendue sans limites.
5. Après l’explosion de la superintelligence, celle-ci pourra résoudre la plupart de nos problèmes.

Kevin Kelly commence sa démonstration en affirmant que l’intelligence ne peut être décrite de manière unidimensionnelle et que donc, l’expression « plus intelligents que les humains est un concept dénué de sens ».

« La plupart des gens dotés d’un esprit technicien ont tendance à représenter l’intelligence sous la forme d’un graphe, comme le fait Nick Bostrom dans son livre, Superintelligence ? sous la forme d’un graphique linéaire, de dimension unique, d’amplitude croissante. À une extrémité on trouve la faible intelligence, celle, disons, d’un petit animal ; à l’autre extrémité, l’intelligence élevée, celle d’un génie, presque comme si l’intelligence était un niveau sonore mesurable en décibels. »

Au final continue-t-il, on peut se permettre d’imaginer de nouvelles entités sur cette échelle, plus hautes encore que le Génie. Malheureusement, une telle vision de l?échelle de l?évolution est d’abord fausse d’un strict point de vue darwinien. Toutes les créatures qui vivent aujourd’hui, y compris les cafards, sont au sommet de l’évolution, de leur point de vue. Et ce qui est vrai pour l’évolution biologique le serait aussi pour l’intelligence. Il est impossible de définir une échelle allant des formes d’intelligences inférieures aux êtres humains, et éventuellement au-delà. On ne sait pas, en fait, classer les différentes intelligences animales de manière rigoureuse, nous ne disposons d’aucune métrique pour cela, affirme Kelly. En fait, plutôt qu’imaginer une échelle, il faudrait plutôt considérer un « espace de possibilités » avec une combinaison complexe de différentes formes de cognition. Chaque organisme combine plusieurs de ces formes. Certaines créatures peuvent avoir des combinaisons d’intelligences très complexes, tandis que d’autres peuvent être plus simples, mais plus « extrêmes », plus efficaces dans certains domaines donnés.

« On peut voir ces systèmes complexes que nous appelons les intelligences comme des symphonies comprenant de nombreux types d’instruments. Ils varient non seulement en volume, mais aussi en hauteur, en mélodie, en couleur, en tempo, etc. (…) Ces systèmes de cognition varient entre les individus et entre les espèces. Un écureuil peut se rappeler l’emplacement exact de plusieurs milliers de glands pendant des années, un exploit qui ébahit les esprits humains. Donc, dans ce type de cognition, les écureuils dépassent les humains. »

Le second point critiqué par Kelly concerne l’idée que les futures IAs vont développer une « Intelligence Générale ». Ce terme, volontiers utilisé par les aficionados de l’IA proches des idées singularitariennes (souvent désigné par l’acronyme AGI, « Artificial General Intelligence« ), signifie que, comme nous, les futures intelligences synthétiques seront capables d’appliquer leur raisonnement à une multitude de problèmes et non pas de rester spécialisées dans un champ particulier. Peu importe en effet qu’elles gagnent au Go, au poker ou même qu’elles triomphent sur des marchés financiers. Tant qu’elles restent cantonnées dans des tâches aussi restreintes, il n’y a pas à craindre que celles-ci deviennent surhumaines. C’est l’AGI qui suscite nos espoirs les plus fous et nos craintes les plus cauchemardesques.

Mais Kevin Kelly ne se contente pas de mettre en doute cette possibilité technologique : c’est l’idée même que les êtres humains soient doués d’intelligence générale qu’il conteste !

« En fait, l’intelligence humaine est un type d’intelligence très spécifique qui a évolué pendant plusieurs millions d’années pour permettre à notre espèce de survivre sur cette planète. Mappé dans l’espace de toutes les intelligences possibles, le type d’intelligence humaine sera coincé dans un coin quelque part, tout comme notre monde est coincé aux limites de la vaste galaxie. »

Tous les supports ne sont pas équivalents


Le troisième point abordé par Kevin Kelly est plus technique. Peut-on reproduire l’intelligence humaine sur un nouveau support, en l’occurrence sur des architectures basées sur le silicium ? Ici, les adeptes de la superintelligence ont un argument de poids. C’est le fameux principe de Turing sur la computation universelle (voir « Des limites du calcul… à l’oracle de Turing »). Autrement dit, une « machine de Turing universelle » (si l’on admet que le cerveau humain en est une) est capable d’accomplir tous les types de calculs résolus par une autre machine de Turing universelle. Le matériel importe peu, seules les règles de la computation comptent. Mais si Kelly ne remet pas en cause les idées de Turing il pointe sur les limites de l?implémentation matérielle de ces « machines ». En effet, Turing se livrait à une expérience de pensée, un exercice purement mathématique. Il ne prenait pas en compte les contraintes matérielles existantes, notamment la mémoire disponible et le temps de calcul. Bien qu’en théorie n’importe quelle machine de Turing universelle est capable d’exécuter n’importe quel programme si elle dispose d’un temps ou d’une mémoire infinie, un changement de support implique forcément une multitude de limites qu’il faut prendre en compte.

« La seule façon d’obtenir des modes de pensée équivalents consiste à les exécuter sur des substrats équivalents. Le support physique sur lequel vous exécutez votre calcul, surtout s’il devient très complexe, influe grandement sur le type de cognition qui peut être effectué en temps réel. »

A noter que si Kelly a raison, cela ne met pas seulement en cause la création d’une IA « surhumaine », mais également la notion d’uploading : le téléchargement d’un esprit humain sur support informatique.

La croyance en la possibilité d’une intelligence infinie est la conséquence directe de la conception unidimensionnelle de celle-ci. La « variable atteint l’infini », ce qui est précisément la définition de la Singularité. Là encore, Kelly ne voit aucune preuve d’une telle possibilité. Dans l’univers, explique-t-il, toute chose a une limite. « La température n’est pas infinie : il y a une limite à la chaleur et une limite au froid. L’espace est fini, le temps est fini. La vitesse est finie. »

Mais précise-t-il, une limitation à l’intelligence ne signifie pas qu’il n’existe pas une potentialité illimitée de formes de cognitions possibles. Du coup cela redéfinit d’une manière inédite « l’explosion de l’intelligence » imaginée par les singularitariens. Il ne s’agit pas d’une variable unique confinant à l’infini, mais plutôt une « explosion cambrienne » :

« Les résultats de l’accélération de la technologie ne seront probablement pas surhumains, mais extra-humains. Etrangers à notre expérience, mais pas nécessairement « supérieurs » ».

L’IA, une intelligence extra-terrestre ?


Enfin, dernière cible de Kelly, la croyance que la pensée peut, à elle seule résoudre tous les problèmes. Mais il ne suffit pas de réfléchir pour aboutir à des résultats, remarque-t-il. Pour cela, il faut faire des essais et erreurs, expérimenter, bref, interagir avec l’environnement alentour. Il ne suffit donc pas d?accélérer ses capacités de réflexion : « pour être utiles, les intelligences artificielles doivent être incarnées dans le monde, et ce monde va souvent déterminer le rythme de leurs innovations. »

Finalement, toute la pensée de Kelly peut être résumée par sa formule : « Je pense qu’un modèle utile pour l’IA consiste à la penser comme une intelligence alien (ou des extraterrestres artificiels). Son étrangeté (en anglais : alienness) sera son principal atout. » Une comparaison avec les aliens pas si étonnante de la part de celui, qui, il y a quelques années, préconisait la mise en place d’un programme SETI de l’intelligence artificielle, dont la tâche aurait été de traquer sur la toile les traces de l’apparition d’une possible IA née spontanément au sein du réseau !

Rémi Sussan

  • Comment tromper une IA ?

Pas de doute que l’IA a accompli de grands progrès ces dernières années. Cependant, il reste facile de lui faire commettre des erreurs que n’importe quel humain éviterait. Selon Motherboard, un simple mot mal orthographié suffirait à les faire déraper. Le magazine nous informe en effet d’un papier publié dans (...)

Pas de doute que l’IA a accompli de grands progrès ces dernières années. Cependant, il reste facile de lui faire commettre des erreurs que n’importe quel humain éviterait. Selon Motherboard, un simple mot mal orthographié suffirait à les faire déraper. Le magazine nous informe en effet d’un papier publié dans Arxiv (.pdf) par une équipe chinoise, montrant la facilité avec laquelle il a été possible de tromper un programme conçu pour comprendre le langage naturel.

Les chercheurs ont ainsi fait analyser par la machine un texte décrivant un film de 1939, Maisie. Et l’IA a dans un premier temps reconnu, avec une probabilité de 99,6 %, qu’il s?agissait bien d’un paragraphe sur le cinéma. Tout fonctionnait donc bien jusque là.

Dans un second temps, ils lui ont fourni le même passage, en laissant volontairement une « coquille », remplaçant une des occurrences du mot « film » par « flim » (ailleurs dans le texte, le mot « film » revenait plusieurs fois, bien orthographié). Et le programme a décidé que le texte concernait des entreprises, avec une certitude de 99 %. Comme le note l?article : « comment les entreprises ont pu apparaître demeure un mystère ». Autrement dit, la machine ne s’est pas seulement trompée, elle a donné une conclusion totalement incompréhensible ! Et Motherboard de souligner : « On peut imaginer le risque si, par exemple, les machines doivent un jour examiner des documents juridiques de manière autonome ».

Ce genre de problème n’est pas unique au texte, rappelle le magazine. Il a déjà été démontré que des images de mauvaise qualité, avec des défauts sans importance pour un être humain, et même imperceptibles à l’?il, pouvaient perturber les capacités d’une IA spécialisée dans la reconnaissance des formes. Et, nous dit encore l’article, certains systèmes ont confondu un panneau « stop » avec un « cédez le passage », ce qui évidemment peut poser des problèmes pour les futurs véhicules autonomes.

Toutefois, précise Motherboard, il faut des spécialistes de haut niveau pour trouver les « trucs » susceptibles de déstabiliser une IA de cette manière. Mais de telles méthodes pourraient être utilisées par les hackers de demain pour attaquer des systèmes basés sur l’intelligence artificielle.

  • Comment protéger nos cerveaux du piratage ?

Pour le New Scientist, le futurologue Jamais Cascio (@cascio) rappelle que la face noire des progrès des neurosciences fait planer de nouvelles menaces sur notre intégrité cognitive. Pour les bio-éthiciens Marcello Ienca (@marcelloienca) et Roberto Andorno (Wikipédia), les nouvelles techniques d’observation, de collecte voire d’altération cognitive posent la question de (...)

Pour le New Scientist, le futurologue Jamais Cascio (@cascio) rappelle que la face noire des progrès des neurosciences fait planer de nouvelles menaces sur notre intégrité cognitive. Pour les bio-éthiciens Marcello Ienca (@marcelloienca) et Roberto Andorno (Wikipédia), les nouvelles techniques d’observation, de collecte voire d’altération cognitive posent la question de leur régulation et de l’affirmation de nouvelles protections juridiques (voir leur article). Pourtant, nous ne cessons de manipuler intentionnellement nos cerveaux : des drogues à la méditation en passant par toutes les formes de manipulation de nos comportements? le développement de ces techniques se pose avec plus d’acuité à mesure qu’elles deviennent plus scientifiques et plus technologiques – ainsi que plus massives. Ienca et Andorno proposent d’établir 4 droits fondamentaux :

  • la liberté cognitive (le droit de modifier ses propres états mentaux avec les neurotechnologies) ;
  • la vie privée mentale (le droit d’interdire la lecture involontaire de son état mental, sa structure et son contenu) ;
  • l’intégrité mentale (le droit d’interdire la modification involontaire de son état mental, sa structure et son contenu) ;
  • et la continuité psychologique (le droit d’interdire l’application d’objets qui altèrent votre personnalité).

Bref, après avoir établi le droit à disposer de ses propres choix cognitifs, ces propositions se résument à un droit de dire non au fait de se voir imposer des interventions cognitives, résume le futurologue. Mais à peine posés, ils posent déjà questions. Quand Facebook tente d’agir sur l’humeur de ses utilisateurs, comme l’avait reconnu le réseau social en 2014, avec force polémiques, ne franchit-il pas une de ces limites ? Comment qualifier et mesurer les altérations intentionnelles des motivations des gens pour atteindre des objectifs sociaux, politiques ou économiques, comme le propose l’économie comportementale ?

Pour Cascio, les droits proposés par les deux chercheurs soulèvent de nombreuses questions : les parents ont-ils le droit de modifier les états mentaux de leurs enfants avec des neurotechnologies ? Devrions-nous avoir le droit de savoir si quelqu’un dont nous dépendons utilise des augmentations cognitives ? La société peut-elle dicter l’utilisation d’interventions neurotechniques qui pourraient offrir des avantages sociaux significatifs, à l’image d’une vaccination neurotech contre la pédophilie ? Pour Cascio, il est temps de débattre de ces enjeux avant que ces technologies ne se répandent.

Le Guardian, qui évoque le sujet également, le prolonge d’un article qui revient sur l’annonce faite en avril par Facebook, lors de sa conférence F8, de son fort intérêt pour le sujet. Regina Dugan, responsable du laboratoire d’innovation de Facebook Building8, révélait qu’une équipe de 60 personnes travaille à développer une technologie de lecture des ondes cérébrales pour interagir avec FB sans avoir à utiliser un clavier ! Plus que de discuter avec son smartphone sans l’utiliser, l’enjeu semble surtout de trouver un moyen pour rendre plus fluides les échanges utilisant la réalité virtuelle sur laquelle FB travaille avec acharnement. L’enjeu est de permettre d’avoir une interface de dialogue accessible facilement pour ceux qui ont un casque de réalité virtuelle sur les yeux.

Reste que si nous sommes encore loin du piratage, comme le soulignait il y a peu Rémi Sussan ou plus encore des enjeux qu’esquisse Regina Dugan, la menace de la lecture de nos réactions émotionnelles pour en inférer des opinions ou des croyances semble, elle, effectivement se rapprocher, et ce, sans avoir besoin de capter les ondes cérébrales des utilisateurs…


Image : Regina Dugan, responsable de l’innovation matérielle de Facebook, sur la scène de la conférence F8, évoquant la possibilité des interfaces cognitives, via le Guardian.

  • Les données suffisent-elles pour piloter la ville ?

Les tableaux de bord urbains, souvent présentés comme des outils de pilotage politique de la ville, malgré leurs limites, continuent à délivrer leurs promesses, souligne FastCoDesign. A New York, le bureau du maire a lancé son tableau de bord, pour donner du sens aux innombrables silos de données (quelque 212 (...)

Les tableaux de bord urbains, souvent présentés comme des outils de pilotage politique de la ville, malgré leurs limites, continuent à délivrer leurs promesses, souligne FastCoDesign.

A New York, le bureau du maire a lancé son tableau de bord, pour donner du sens aux innombrables silos de données (quelque 212 jeux de données sont utilisés) provenant de plus de 70 agences de la ville. Un dispositif réactif qui multiplie les indicateurs, allant des données de police aux problèmes de circulation. Le tableau de bord (qui semble accessible seulement aux services de la ville, pas aux citoyens) permet de déterminer des seuils de performances et de personnaliser des alertes par quartiers sur l’augmentation du prix de l’immobilier, le nombre d’appels au 311 relatif au bruit, ou les plaintes sur le niveau de saleté dans les rues par exemple.


Image : capture d’écran du tableau de bord de la ville de New York, réalisé par Carto et designé par HyperAkt qui permet par exemple de faire des comparaisons de données d’un mois à l’autre, via Vizzuality.

Reste que s’ils sont souvent élégants, les tableaux de bord permettant de piloter les indicateurs, ne sont pas magiques, rappelle Joel Shapiro, responsable du programme d’analyse de données de l’école de management Kellogg de la Northwestern University pour la Harvard Business Review. Trop souvent, rappelle-t-il, les tableaux de bord définissent des mesures et des priorités qui reflètent seulement ce qui est mesuré. Pour Rob Kitchin (@robkitchin), l’un des spécialistes du sujet, responsable du programme Ville programmable, la logique du contrôle urbain se déplace explique-t-il dans un récent article de recherche. Comparant le tableau de bord de la ville de Dublin et le système de gestion du trafic de Dublin, il souligne que l’informatique déplace le contrôle urbain de formes disciplinaires à des formes de contrôle social. Reste que les systèmes ont des logiques et des finalités différentes et que c’est le cas de toutes les technologies urbaines déployées dans les villes. Pour le chercheur, la ville intelligente ne propose pas une forme de gouvernementalité unique, mais plutôt des logiques dynamiques, contingentes, traduites de multiples façons selon le contexte où elles sont employées et qui peinent parfois à se croiser.

Comment mesurer l’impact des plateformes ?

Un article du New York Times faisait le point sur la transformation du paysage des transports à New York depuis l’apparition de Uber en 2011.

New York demeure le plus grand marché de Uber. En 6 ans, les services permettant de héler un VTC se sont démultipliés, au détriment des taxis et des transports publics (la fréquentation du métro a baissé pour la première fois depuis 2009, même s’il demeure très encombré). Un voyage en VTC coûte parfois à peine le double d’un ticket de métro et est moins sujet aux pannes et aux temps d’attentes. Reste que le revers du succès des VTC semble contribuer à l’encombrement des rues de New York qui a vu la vitesse moyenne de déplacement chuter depuis leur développement.

Reste que la mesure de l’impact des services de VTC sur la mobilité est encore l’objet d’âpres discussions. Selon une étude de l’Association des transports publics américains, les utilisateurs de VTC auraient plus tendance que d’autres usagers à prendre les transports en commun. A New York, où moins de la moitié des habitants ont une voiture, les habitants ont tendance à utiliser les applications de transports à la demande en remplacement des taxis et des transports publics. Sur le média lancé par Nate Silver, FiveThirtyEight, plusieurs articles datant de 2015 ont tenté de mesurer l’impact d’Uber sur le trafic, notamment savoir si si Uber dégradait le trafic aux heures de pointe ou concurrençait les taxis

Ouvrir les données ?

Pour apaiser les tensions que son développement générait, Uber a décidé de partager un peu les données collectées par ses voitures avec les villes, en lançant en janvier un outil dédié, Movement, rappelait The Atlantic. Movement permet à certaines villes (4 pour l’instant) d’accéder à une sélection de données afin de les aider à mieux gérer leur trafic, par exemple de regarder le temps nécessaire pour aller d’un point à l’autre d’une ville en fonction de l’heure ou de la semaine. Plus de deux milliards de trajets anonymisés sont accessibles via l’application qui promet de faciliter l’étude des comportements routiers et l’analyse de phénomènes externes (tels que l’impact des départs en vacances à Manille sur la circulation ou la fermeture d’une ligne de métro à Washington). Uber propose ainsi de favoriser une politique « informée » ou « guidée » par des données jusqu’à présent inaccessibles aux administrations. Reste qu’apprendre que suite à la fermeture de son métro, le temps de voyage à Washington a augmenté de 10 à 30 % n’est pas vraiment l’information que cherchent à obtenir les acteurs urbains. Comme le souligne la journaliste de The Atlantic ou celui de Bloomberg, les collectivités cherchent surtout à savoir où se concentre les demandes et où se rendent les clients d’Uber.


Image : capture d’écran de Uber Movement sur Washington via Techcrunch.

Uber n’a pas été le seul nouvel acteur de la mobilité à ouvrir – partiellement – ses données. Waze, l’application de navigation communautaire de Google, a ouvert aux villes, aux autorités locales et aux services d’urgence le programme Connected Citizens, rapportait le Journal du Net, pour leur permettre d’accéder aux alertes envoyées en temps réel par les utilisateurs sur leurs territoires, et permettant aux autorités locales d’y signaler également des perturbations.

Malgré leurs limites, ces partages ont ouvert un premier dialogue entre les nouveaux acteurs de la mobilité et les autorités.

Les limites à la loyauté de l’ouverture des données

Reste que l’ouverture de données des entreprises du numérique reste une initiative à leur propre discrétion selon les modalités qu’elles définissent elles-mêmes. Ce qui n’est pas sans poser quelques problèmes.

Le photographe et activiste new-yorkais Murray Cox (@murrayscox) a développé le site Inside Airbnb et a comparé ses données à celles qu’à publié Airbnb en décembre 2015, rapporte BackChannel. Tom Slee, l’auteur d’un livre très critique sur l’économie du partage, Ce qui est à toi est à moi, publie également régulièrement des données sur Airbnb et a également constaté des divergences entre ses données et celles publiées par Airbnb. Les deux activistes faisaient le même constat : Airbnb avait visiblement fait disparaître des données de ses publications, notamment en faisant disparaître les données d’utilisateurs qui proposaient plusieurs appartements sur Airbnb, en violation des lois de l’Etat de New York. Slee comme Cox sont d’ardents opposants à la gentrification. Un groupe de défense de l’accessibilité du logement avait conclu en 2015 qu’Airbnb avait réduit de 10 % la disponibilité de logements à New York. Pour Miranda Katz, de Backchannel, les deux activistes ont mis à jour que l’ouverture des données d’Airbnb n’était pas si vertueuse. En février 2016, Inside Airbnb pointait dans un rapport (.pdf) le fait que l’ouverture des données d’Airbnb était bien moins loyale que l’entreprise ne l’annonçait. Après avoir rejeté leurs allégations, Airbnb a fini par reconnaître sa manipulation. Depuis, l’entreprise retire les hôtes qui proposent plusieurs appartements.


Image : Inside Airbnb à Paris.

Même encore aujourd’hui, les données collectées par Cox montrent pourtant qu’Airbnb peine à faire respecter la législation. Cox travaille avec des activistes d’autres villes que New York pour les aider à monter des outils de surveillance sur le modèle du sien, afin d’aider les citoyens à comprendre l’impact d’Airbnb sur leurs villes, sans se fier aux données de la startup. Pour Cox, l’enjeu est de continuer à aider les villes à lutter contre ce nouveau tourisme à grande échelle dans les quartiers résidentiels.

La question de la contrainte à l’ouverture de données d’entreprises privées pour le bien public demeure une question épineuse. Les manipulations d’Uber ou celles d’Airbnb, montrent combien la question de la gouvernance des données privées d’intérêt public nécessite encore de la coordination, notamment parce que tous les acteurs ne poursuivent pas les mêmes objectifs.

C’est ce qu’explique très bien le chercheur Antoine Courmont (@ancourmont), responsable scientifique de la chaire Villes et numérique de l’Ecole urbaine de Sciences Po, dans sa thèse Politiques des données urbaines : ce que l’open data fait au gouvernement urbain (voir aussi cette synthèse). La question de l’agrégation de données hétérogènes pose surtout celle de savoir qui en possède la maîtrise, comme celles qui concernent la classification des voies (entre voies prioritaires ou secondaires notamment, voies de transit, de dessertes, classées selon leur capacité de transit ou la vitesse autorisée…) prise en compte par les GPS ou les systèmes de navigation communautaire. L’enjeu pour bien des villes consiste dès lors à faire modifier le classement de certaines de leurs voies ou de faire prendre en compte les changements de classification de leur voirie suite à des aménagements qui permettent, physiquement, de les déclasser (changement de limitation de vitesse, modification de la circulation, mise en place de feux ou de stops?) : mais cela relève plus de la complexité de la gestion routière entre les différents services publics qu’autre chose. Il faut également entendre que le but de Waze par exemple est de fluidifier le trafic pour l’utilisateur, en calculant les itinéraires les plus rapides sur des tronçons de trajet d’une trentaine de minutes selon l’état du trafic. Un but qui n’est pas forcément compatible avec celui des agglomérations qui est plutôt de réduire le trafic ou de favoriser le report modal que de fluidifier la circulation des véhicules individuels. Des objectifs donc radicalement différents qui peinent à s’exprimer dans des outils communs. Mais qui pointe le besoin d’une nouvelle forme de dialogue.

Hubert Guillaud

PS : dans un long, mais très intéressant billet, Kevin Webb, entrepreneur en résidence à SideWalk Labs, la plateforme dédiée à la gestion de la mobilité urbaine de Google, revient sur le potentiel transformateur de la coordination des transports en temps réel (voir les promesses du projet Flow de SideWalk Labs qu’expliquait l’Usine digitale). Webb rappelle que l’information n’est pas suffisante pour assurer une utilisation plus coordonnée des infrastructures de transports, notamment lorsque les priorités des utilisateurs (le trajet le plus rapide) sont en contradiction avec ce que cherchent à optimiser d’autres acteurs. Mais une meilleure information permet aussi d’imaginer de nouvelles modalités d’incitation, de régulation ou de tarification, estime-t-il. Sauf que ces modalités n’ont pas le même effet sur chacun d’entre nous. « La question de savoir comment nous finançons et facturons le transport en commun dans le monde émergent de la coordination numérique » est une question complexe. A l’heure où la coordination dynamique permet d’élargir la portée et la diversité de services de mobilité partagée, elle pose la question du modèle de soutien au transport public et à sa reconfiguration.

  • Que produit la diffusion en direct ?

Franceska Rouzard (@frenchthegypsy) pour Real Life revient sur le développement des services de diffusion en direct, à l’image du fameux Facebook Live, lancé en 2016, à peu près à la même période que Youtube Live. Désormais, les services de vidéo en direct sont partout : depuis novembre 2016 sur Instagram ; Twitter (...)

Franceska Rouzard (@frenchthegypsy) pour Real Life revient sur le développement des services de diffusion en direct, à l’image du fameux Facebook Live, lancé en 2016, à peu près à la même période que Youtube Live. Désormais, les services de vidéo en direct sont partout : depuis novembre 2016 sur Instagram ; Twitter a annoncé lancer prochainement un service s’appuyant sur Periscope, lui-même lancé en 2015.

« La diffusion en direct fait s’effondrer la distance entre celui qui regarde et celui qui est regardé, entre celui qui visionne et l’événement lui-même. L’intimité d’une vidéo en direct nous permet de partager un moment en impliquant plus directement ceux qui regardent, et parfois en les rendant intensément impuissants ». Pour Franceska Rouzard, le risque du flux du direct est de continuer à développer la victimisation des sujets, à l’image des formes de violence qui se sont déjà largement développées dans les commentaires ou le partage d’images des plus grandes plateformes sociales. Trois mois après le lancement de FB Live, la vidéo du meurtre de Philando Castile par un officier de police faisait le tour de la planète, comme une illustration de ce que ces nouveaux flux proposent de pire (et en même temps d’important). Dans les excuses que Zuckerberg publia rapidement, il ne fit aucune mention du contexte dans lequel s’était déroulé cet événement ni sur la magnitude des effets de FB live sur la vie de ses utilisateurs.

Or, la diffusion en direct de violence et de cruautés n’est pas seulement un moyen de mettre en lumière l’injustice, estime Franceska Rouzard. En février 2016, la jeune Marina Lonina diffusait sur Periscope le viol d’une amie, plutôt que d’appeler les secours. Selon le Wall Street Journal, il y aurait eu quelques 40 diffusions de contenus sensibles, violents ou criminels sur les derniers 12 mois. Le problème est que la diffusion en direct augmente encore la violence qu’elle montre et en fait un instrument de violence en soi, faisant de ceux qui regardent à la fois des gens impuissants et des complices…

Depuis son lancement, le nombre de directs sur FB Live n’a cessé de se développer, comme le montre la carte des diffusions en direct. Si Facebook est toujours prompt à souligner la portée de ses produits, force est de constater que, pour l’instant, il n’a pas fait beaucoup d’efforts pour protéger ses utilisateurs de l’exposition à la violence ou de la diffusion de la violence, souligne Franceska Rouzard. Une passivité qui rejoint celles que beaucoup dénoncent dans les lenteurs de FB à réguler les Fake news ou le harcèlement. Or, FB est capable de surveiller les flux qui attirent du public et peut signaler des directs qui déraillent. Mais dans son courrier aux utilisateurs, Zuckerberg a, comme souvent, plus eu tendance à culpabiliser la communauté des utilisateurs de Facebook que les défaillances de son entreprise. Pour Zuckerberg, les utilisateurs demeurent individuellement responsables.

Comme le soulignait dans son bilan de l’année 2016 Jia Tolentino dans le New Yorker, les interfaces qui visaient à nous relier joyeusement au monde ont surtout engendré de la peur et de l’aliénation. Pour Franceska Rouzard, le livestream a surtout contribué à l’anxiété et à la terreur collective qu’à l’amélioration de l’expérience humaine. Pour elle, la connectivité en direct a besoin de se poser des questions sur ce qu’elle apporte.


  Chaines INFO  
 Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People 

Dernière modification: le   NEToo ™  Tous droits réservés • ©2004/2006 • CNIL n°892206