NEToo - métamoteur francophone pour tout trouver plus rapidement
  Web Actualités Blogs Voyages Images Vidéos Musique Annuaire  

Trouvez toutes les dernières nouvelles et dépêches publiées en interrogeant simultanément des multiples sources sur le web

Recherchez dernières actualités en temps réel 

   Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People   
 Dernières actualités multimédia sur métachercheur francophone NEToo
Le Parisien - High-Tech    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 15/12/2017 11:20:40

  • Réseaux sociaux : c?est quoi la majorité numérique ?

V?u pieux ou illusion ? Pour utiliser les réseaux sociaux tels que Snapchat, Instagram ou Facebook, les ados devront demander à leurs parents avant d?ouvrir un compte, selon le projet de loi que viennent...

  • Neutralité du Net : pourquoi les Etats-Unis se déchirent sur ce principe

Elle a tranché. La Commission fédérale des communications (FCC) américaine a annoncé ce jeudi la fin de la « neutralité du Net ». Une décision qui divise les internautes des Etats-Unis. Explications.Qu?est-ce...

  • Cannes : chez Thales, le robot s'attaque aux satellites

Dans une salle blanche géante, un petit bras articulé semble très affairé. Un autre plus grand et costaud, façon biceps des temps modernes, se hâte lentement. Le premier donne une tige au second. Il l'insère...

  • Défense : la France se prépare à la guerre des étoiles

Non, ce n'est pas parce que la ministre des Armées s'est rendue en famille, mercredi soir, au cinéma pour découvrir le dernier opus de « la Guerre des étoiles » qu'elle a décidé de s'emparer des questions...

  • D?anciens cadres de Facebook recommandent de quitter le réseau social

Il recommande tout simplement de « rompre » avec les réseaux sociaux. Chamath Palihapitiya, ancien vice-président chargé de la croissance de l?audience de Facebook, a tenu en novembre des propos extrêmement...

  • High-tech : notre lettre 3.0 au Père Noël

La période des fêtes est lancée. Nous avons retenu des cadeaux high-tech au meilleur rapport qualité/prix et d?autres un peu plus synonymes d?excès de fin d?année pour (se) faire plaisir.Découvrez notre...

  • Innovation : l'industrie médicale alerte sur la complexité du système français

L'horizon semblait dégagé. Avec la révolution technologique qui se prépare dans la santé, la France est entrée dans une ère de recherche fructueuse. Entre les objets connectés, les nouvelles molécules...

  • Google dévoile son palmarès des thèmes les plus recherchés en 2017

Comme chaque année, le moteur de recherche le plus utilisé de France (90 % des requêtes) livre sa rétrospective sur les mots les plus « Googlisés » de l?année écoulée. Cette analyse a été largement modifiée...

  • «Star Wars : les Derniers Jedi» : notre sélection pour les fans

Difficile d?y échapper. Le nouvel épisode de Star Wars (Episode VIII) sort sur les écrans français ce mercredi. Et il est accompagné d?une cascade de produits et gadgets sous licence Star Wars, propriété...

  • Facebook va déclarer ses revenus publicitaires dans les pays où il les gagne

Accusé comme les autres géants de l?internet d?abuser de l?optimisation fiscale, Facebook s?apprête à faire un geste. Le groupe américain annonce, dans un souci de « transparence », qu?il va déclarer certains...


InternetActu.net    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 15/12/2017 12:46:57

  • IA : un état de l?art

Où en est l’Intelligence artificielle ? Quels sont les marqueurs importants grâce auxquels on peut suivre l’évolution du domaine ? C’est à cette tâche que s’est attelée l’université Stanford, qui a décidé de publier un « index de l’IA (.pdf) » chaque année. Au moins, une première chose dont on peut se réjouir, c’est (...)

Où en est l’Intelligence artificielle ? Quels sont les marqueurs importants grâce auxquels on peut suivre l’évolution du domaine ? C’est à cette tâche que s’est attelée l’université Stanford, qui a décidé de publier un « index de l’IA (.pdf) » chaque année.

Au moins, une première chose dont on peut se réjouir, c’est que le rapport n’est pas difficile à lire ! En effet, son coeur est essentiellement composé de graphiques accompagnés de courtes légendes.

Une première partie concerne les progrès de l’IA, non pas d’un point de vue technique, mais de celui de l?intérêt académique ou commercial qu’elle suscite. Et là, pas de doute, l’IA connaît un triomphe. On apprend ainsi que le nombre d’articles universitaires consacrés au sujet se sont multipliés par 9 au cours de la dernière décennie. Il y a d’ailleurs 11 fois plus d?étudiants dans ce domaine. L’analyse des conférences montre que l?intérêt des chercheurs s’est déplacé de l’IA symbolique vers le « machine learning » et le deep learning. On s’y attendait. Mais la rapport souligne néanmoins que l?intérêt pour l’IA symbolique, « à la papa », n’a pas disparu, il reste une petite communauté active qui continue à travailler sur le sujet.

Bien sûr, les startups se consacrant à ce domaine ont largement proliféré : il y en a aujourd’hui 14 fois plus qu’en 2000. Et les investissements se sont multipliés par 6?

Des progrès… mais peut mieux faire


La seconde partie aborde les vrais progrès, et se penche sur les potentialités technologiques de l’intelligence artificielle.
Dans le domaine de la détection d’objet, il apparaît ainsi que le meilleur système informatique est capable de plus grandes performances que les humains. En revanche, toujours dans le domaine de la vision, l’IA reste très inférieure à nous autres primates lorsqu’il s?agit de répondre à une question plus ouverte sur le contenu d’une image.

En analyse textuelle, l’être humain a là aussi, un avantage : l’IA est moins performante lorsqu’il s’agit de répondre à une question sur un document. En ce qui concerne la reconnaissance de la parole, les meilleures IA atteignent tout juste le niveau des performances humaines.

Mais même dans les domaines où les machines restent à la traîne, elles continuent néanmoins de progresser.

En fait, ce n’est pas le rapport en lui même qui est le plus intéressant. Finalement, on n’y apprend pas grand-chose. Il ne fait que refléter la « hype » qui entoure cette discipline et nous montrer des progrès, certes existants, mais moins extraordinaires qu’annoncés. La Technology Review, qui a publié un article sur le rapport, titre d’ailleurs : « le progrès en IA est moins impressionnant que vous ne le pensez« .

C’est en fait la dernière partie du texte qui s’avère la plus intéressante. Il s’agit d’une série d’interviews recueillant les avis de divers experts sur ces différentes métriques.

Barbara Grosz, professeur d’IA à Harvard, revient sur le traitement du langage naturel et les difficultés à mesurer le niveau des machines. En effet, bien que le rapport traite des questions de traduction et d’analyse de documents, il ne s’est pas penché sur celle des « chatbots » et de la capacité qu’ont ces programmes d’entamer un dialogue avec les humains (rappelons tout de même que cette faculté est au coeur du fameux « test de Turing »). Les auteurs de l’index expliquent cette absence par le fait que « le dialogue des chatbots est éloigné du dialogue humain et nous manquons de mesures largement acceptées pour évaluer les progrès dans ce domaine. De même, alors que les systèmes d’IA d’aujourd’hui s?avèrent moins capables d’un raisonnement de bon sens qu’un enfant de cinq ans, on ne sait pas comment quantifier cela sous la forme d’une métrique technique. »

Pour Barbara Grosz, « l’analyse textuelle ne nécessite aucune considération sur l’état mental du producteur du document analysé, et pour de nombreuses situations dans lesquelles la traduction automatique et la capacité de répondre à une question ont été testées, il est également possible d’ignorer cet état mental et en particulier, l’intention derrière l’énoncé, qui est crucial pour comprendre sa signification. Ce n’est plus le cas avec un dialogue. »

Michael Wooldridge de l’université d’Oxford s’interroge lui sur le trop plein d’enthousiasme suscité aujourd’hui par cette technologie :

« A l’heure actuelle, il y a clairement une bulle autour de l’IA. La question que ce rapport soulève pour moi est de savoir si cette bulle va éclater (comme cela se produisit lors du boom dot com de 1996-2001), ou se dégonfler doucement. Et quand cela arrivera, que restera-t-il ? Ma grande peur est que nous voyons arriver un autre hiver de l’IA (l’hiver de l’IA est une expression qui désigne la période dans les années 80-90 qui a suivi la chute de l’IA symbolique, celle des systèmes experts, qui s’étaient avérés incapables de tenir leurs promesses – NDT), suscité par la désillusion suite à la spéculation massive et l’investissement auxquels nous assistons en ce moment (…)

Cependant, même si je pense qu’une certaine déflation de la bulle actuelle est inévitable dans les prochaines années, je pense qu’il y a une raison d’espérer que ce sera une digne et lente déflation, plutôt qu’une explosion spectaculaire. La raison principale en est que, comme l’AI Index le démontre clairement, l’IA est de plus en plus compétente. Sur un large spectre de tâches, les systèmes d’IA se montrent de plus en plus performants (et parfois rapidement), et leurs capacités se déploient avec beaucoup de succès dans différentes zones d’application. En d’autres termes, je pense qu’il y a de la substance derrière l’actuelle bulle, et les grandes entreprises comprennent maintenant comment utiliser les techniques d’IA productivement (…). Je ne crois pas que nous assisterons à un contrecoup comme ce fut le cas avec l’hiver de l’IA et la fin du boom des systèmes experts. »

Au-delà de l’Amérique


Autre limite de l’index, souligné par Alan Mackworth, de l’université de Colombie britannique : son caractère ouvertement américano-centrique. Il espère que dans les prochaines versions de l’index, les données venues d?Europe et du Canada pourront affluer. Et précise-t-il, les informations concernant l?Asie devraient aussi être bientôt disponibles.

Le souhait d’Alan Mackworth est appuyé par un autre intervenant, l’investisseur américano-taiwanais Kai Fu-lee, qui se montre particulièrement enthousiaste sur les perspectives de l’IA en Chine. On le sait, la technologie la plus efficace actuellement, celle du deep learning, repose essentiellement sur les data. Or, l’ancien Empire du Milieu est une mine extraordinaire de data. En effet, on y trouve trois fois plus d’utilisateurs d’internet et de téléphones mobiles qu’aux États-Unis ou en Inde. Les Chinois utilisent 50 fois plus leur mobile pour effecteur des achats que les Américains. Dans le domaine des transports, « il y a plus de 20 millions de déplacements à vélo transmettant leur GPS et les informations d’autres capteurs à un serveur, créant 20 téraoctets de données tous les jours ». Kai-Fu Lee souligne aussi la bonne qualité des applications en Chine, donnant en exemple la startup Face++, qui gagna trois concours de reconnaissance faciale, devant Google, Microsoft, Facebook et la Carnegie Mellon University. Le gouvernement chinois est également très investi et a en juillet 2017 lancé le « plan de développement de la prochaine génération d’intelligence artificielle » destiné à favoriser l?innovation dans ce domaine.

Les auteurs de l’index ne pouvaient pas ne pas évoquer au moins rapidement la question des limites de l’IA et sa capacité à atteindre le niveau d’un être humain. Là encore,la conclusion n’est pas très surprenante, et va dans les sens de bons nombres de chercheurs et analystes : « Les tâches effectuées par les systèmes d’IA sont souvent conçues pour des contextes limités afin de réaliser des progrès pour la résolution d’un problème ou une application précise. Alors que les machines peuvent obtenir des performances spectaculaires sur une tâche spécifique, ces performances peuvent se dégrader considérablement si la tâche en question est modifiée même légèrement » (comme nous le soulignions déjà).

Les auteurs du rapport ont avoué ne pas s’être penchés sur les risques sociétaux posés par la multiplication des IA, mais espèrent pouvoir s’y attaquer dans les prochains numéros de l’index. Ces défis sont en revanche souvent mentionnés par certains des commentateurs du rapport. Mais en tout cas pas question de la venue de la Singularité ! A croire que ce mythe est surtout colporté par des observateurs extérieurs au domaine, et bien plus rarement par ceux qui ont le « nez dans le guidon » !

Rémi Sussan

  • Paramétrer notre bulle de filtre? pour en reprendre le contrôle

Avant l’internet, les grands médias étaient nos filtres sur le monde. Selon le journal que vous achetiez, la chaîne de radio ou de télévision que vous suiviez, votre vision du monde était différente, rappelle sur son blog Ethan Zuckerman (@ethanz), directeur du Centre pour les médias civiques du MIT (@civicMIT). (...)

Avant l’internet, les grands médias étaient nos filtres sur le monde. Selon le journal que vous achetiez, la chaîne de radio ou de télévision que vous suiviez, votre vision du monde était différente, rappelle sur son blog Ethan Zuckerman (@ethanz), directeur du Centre pour les médias civiques du MIT (@civicMIT). Puis, internet et ses puissants moteurs de recherche ont permis de faire naître des filtres selon ses centres d’intérêts. Les médias sociaux ont ensuite proposé une autre forme de filtre, des filtres basés sur nos relations sociales? jusqu’à ce que celles-ci deviennent trop importantes et qu’elles nécessitent une autre approche : une approche algorithmique qui personnalise le filtrage selon un ensemble complexe de facteurs. La bulle du filtre, posée par Eli Pariser, repose sur l’idée que nos tendances naturelles à l’homophilie sont amplifiées par des filtres conçus pour nous donner ce que nous voulons, plus que des idées qui nous challengent, nous conduisant à des formes d’isolement idéologique et à la polarisation. « Les fausses nouvelles conçues pour tromper le public et recueillir des publicités reposent sur le fait que les algorithmes de Facebook ont du mal à déterminer si les informations sont vraies ou non, alors qu’ils peuvent facilement voir si les informations sont nouvelles et populaires. Lorsque le Congrès américain réclame des actions à l’encontre des fake news ou de la propagande russe, il ne réclame rien d’autre qu’une autre forme de filtrage, basée sur qui crée le contenu et sur la véracité des faits. »

« Pourquoi les plateformes de médias sociaux comme Facebook et Twitter ne donnent-elles pas aux utilisateurs des outils puissants pour filtrer leurs propres flux ? À l’heure actuelle, les algorithmes contrôlent ce que nous voyons, mais nous ne pouvons pas les contrôler. (…) Vous pouvez payer et faire de la publicité auprès des femmes de couleur entre 40 et 60 ans qui vivent à Seattle, mais vous ne pouvez pas choisir de lire les points de vue de ces femmes. Bien qu’il existe des projets très innovants comme BlockTogether (@blocktogether, qui permet aux utilisateurs victimes de harcèlement de partager des listes d’utilisateurs bloqués sur Twitter), les plateformes peinent à offrir des outils de contrôle aux utilisateurs eux-mêmes. Et à moins qu’émerge un jour des plateformes sociales sous forme de services publics (comme le proposait Ethan Zuckerman lui-même en mai dernier), il est peu probable que les plateformes donnent aux utilisateurs plus de contrôle sur ce qu’ils voient. »

Comme le rappelle le chercheur, les filtres algorithmiques optimisent les plateformes pour favoriser l’engagement et la rétention des utilisateurs dans le but de vendre l’attention des utilisateurs aux annonceurs.

Tout l’enjeu à venir consiste donc à proposer d’autres modalités pour filtrer les contenus, ou mieux encore, de permettre aux utilisateurs d’accéder et de décider des paramètres des filtres qui les façonnent, comme nous le soulignions nous-mêmes. Si les paramètres relèvent des prérogatives des plateformes, cela n’empêche pas d’imaginer des services qui ouvrent ces paramètres depuis les services web de ces mêmes plateformes.

C’est ce que propose Gobo, un prototype fonctionnel lancé par le Centre des médias civiques, le Media Lab et le laboratoire d’études comparatives des médias du MIT. Gobo est un agrégateur de médias sociaux qui propose aux utilisateurs des filtres dont ils peuvent contrôler les paramètres. L’outil, lié à nos comptes Facebook et Twitter, permet à chaque utilisateur de choisir différents paramètres pour accéder aux contenus que proposent ces réseaux. Plusieurs filtres sont ainsi disponibles : un filtre politique permet de sélectionner des publications proches de ses points de vue ou éloignées de ses opinions politiques ; un filtre de sérieux permet de contrôler le volume de fun dans les billets qui vous sont proposés ; un filtre de politesse permet de contrôler le ton des billets ; un autre permet d’ajuster un curseur pour définir l’équilibre entre les sexes de votre flux d’information, permettant par exemple de mettre tous les hommes que vous suivez en sourdine? Un autre filtre permet d’ajuster la viralité de ce qui vous est proposé selon que les posts sont peu ou très populaires.

Enfin, chaque article que le système vous affiche explique le critère selon lequel il a été filtré.

Gobo pour l’instant n’est bien sûr qu’un démonstrateur. Il est lent. Il est imparfait puisqu’il dépend des modalités d’accès que proposent Facebook ou Twitter à des services tiers. Il utilise des techniques de machine learning assez basiques pour classer les informations selon les filtres, techniques qui devraient s’améliorer avec le temps? Reste que si l’outil est imparfait, il offre enfin une perspective stimulante pour permettre aux utilisateurs de reprendre la main sur les réseaux sociaux. Il permet de jouer avec les critères et donc de comprendre en partie les logiques algorithmiques à l’oeuvre dans la sélection qui nous est délivrée. Il montre en tout cas que d’autres distributions de l’information sont possibles? et que les boites noires sont à leur tour manipulables. Que l’accès aux critères et aux paramètres des systèmes est la modalité de la reconquête de notre liberté et de notre autonomie.

Espérons que Gobo se développe et inspire nombre de nouveaux services pour aider les utilisateurs à reprendre la main sur les réseaux sociaux !

Hubert Guillaud

  • Du pistage de nos emails !

Sur Wired (@wired), Brian Merchant (@bcmerchant), l’auteur de L’appareil unique, l’histoire secrète de l’iPhone, revient en détail sur le développement du pistage de nos e-mails. Pour son enquête, il a utilisé Streak, un outil qui s’interface avec sa messagerie et qui permet à tout utilisateur de savoir si ses correspondants (...)

Sur Wired (@wired), Brian Merchant (@bcmerchant), l’auteur de L’appareil unique, l’histoire secrète de l’iPhone, revient en détail sur le développement du pistage de nos e-mails. Pour son enquête, il a utilisé Streak, un outil qui s’interface avec sa messagerie et qui permet à tout utilisateur de savoir si ses correspondants ont ouvert leurs e-mails. 40 % des e-mails envoyés seraient pistés, selon une étude faite par une entreprise qui propose des outils pour s’en protéger, One More Company, la société qui est derrière Senders et evercontact.

La technologie utilisée est très simple, elle consiste à insérer du code dans chaque e-mail ou une image invisible d’un pixel par un pixel, qui sera téléchargée dès que le destinataire ouvrira l’e-mail qui lui est adressé. Ce qui permet à l’expéditeur en retour de connaître à quel moment le mail a été lu, sur quel appareil, depuis quelle adresse IP et donc depuis quelle localisation. Autant d’informations qui permettent de savoir si une adresse e-mail est bien utilisée par le destinataire par exemple. Les services marketing utilisent cette technique depuis très longtemps pour connaître le taux d’ouverture de leurs courriers promotionnels. Mais, ils ne sont pas les seuls…

De plus en plus, souligne Merchant, le suivi d’email, comme on l’appelle poliment, n’est plus l’apanage des grandes entreprises. Des particuliers l’utilisent pour surveiller leurs collègues, leurs concurrents, leurs proches. Pour Florian Seroussi, le fondateur de One More Company, 19 % de tous les e-mails conversationnels (c’est-à-dire envoyés par nos relations directes) seraient désormais tracés, soit un e-mail sur 5. Comme le soulignent (.pdf) les chercheurs de Princeton, Steven Englehardt, Jeffrey Han et Arvind Narayanan du Centre pour la politique des technologies de l’information qui pilote un observatoire sur la collecte des données, aucun d’entre nous n’a jamais consenti à ce pistage. Ca n’empêche pas le pistage de se développer, non pas seulement pour valider les e-mails des destinataires ou suivre le taux d’ouverture, mais plus encore pour revendre des informations aux principaux exploiteurs de données que sont Acxiom et ses concurrents.

Pour Florian Seroussi, c’est le développement des liens sponsorisés dans Gmail qui a sonné comme un signal pour prendre d’assaut les boites mails des utilisateurs. Pour Andrei Afloarei, chercheur à Bitdefender, c’est plutôt le développement du spam qui a développé ces techniques, notamment pour pouvoir vendre des listes de mails validés. Aujourd’hui, ce sont les géants de l’internet qui utilisent le plus ces techniques, comme Amazon, Facebook ou Mailchimp. « Lorsque Facebook vous envoie un e-mail vous informant d’une nouvelle activité sur votre compte, il s’informe du lieu où vous êtes, de l’appareil que vous utilisez ou de la dernière photo que vous avez prise – il capte tout ».

Quand il travaillait sur son livre sur l’iPhone, Brian Merchant a installé Streak pour voir si les e-mails qu’il envoyait à des gens d’Apple sans obtenir de réponses étaient lus. Il pouvait même constater qu’ils étaient ouverts plusieurs fois, sur des machines différentes, et donc qu’ils étaient diffusés à l’intérieur d’Apple. Il a même envoyé un mail à Tim Cook, le PDG d’Apple qui a été lu immédiatement, sur une machine Windows (ce qui ne signifie pas que Cook ait nécessairement un ordinateur Windows, peut-être qu’il sous-traite sa correspondance privée à une firme dédiée).

Reste que tout un chacun peut apprendre par exemple où se trouve son correspondant via ces méthodes. En envoyant un message aux candidats aux élections américaines de 2016, il était ainsi possible de connaître les appareils qu’ils utilisaient, leur adresse IP et donc là où ils se trouvaient? On peut aussi déduire l’emploi du temps de quelqu’un selon l’heure où il ouvre ses e-mails. D’ailleurs Brian Merchant a aussi utilisé Streak pour suivre des proches… sans en tirer grande fierté.

Les chercheurs de Princeton soulignent enfin que le pistage de nos e-mails évolue. Ils ont étudié plus de 14 000 newsletters et mailing-list des sites et services les plus populaires du web pour montrer que 85 % contenaient des traceurs et que 30 % récupèrent nos adresses e-mails pour la revendre ou la diffuser ailleurs. Cela signifie que si vous souscrivez à une lettre d’information, même connue, il y a une chance sur 3 que le service marketing partage votre adresse avec des services tiers comme les data brokers, notamment si vous l’ouvrez ou si vous cliquez sur un des liens qui vous sont proposés qui disposent d’identifiants uniques pour savoir qui a cliqué.

Les outils de suivi de mails se démocratisent. Les protections aussi. Ugly Mail, PixelBlock, Senders… permettent d’identifier les courriels qui contiennent une image invisible voire d’empêcher de les ouvrir? et également d’identifier vos amis qui utilisent ces services. L’autre solution consiste à bloquer par défaut toute image dans votre messagerie. Radical, mais efficace. Sauf que les méthodes évoluent. Les systèmes peuvent aussi appeler des couleurs ou des polices de caractères spécifiques? ou des liens. Tout est bon pour vous tracer !

Pour John-Henry Scherck, consultant en marketing, il suffirait pourtant que Gmail décide d’informer un peu mieux les utilisateurs en mettant en lumière ces pratiques pour peut-être aider à prendre conscience du problème. Reste que, à moins que les fournisseurs de services décident où soient obligés de bloquer le pistage, le risque le plus probable est que celui se généralise totalement.

  • Réguler par la donnée ?

L’entrepreneur et investisseur Nick Grossman (@nickgrossman), investisseur chez Union Square Venture défend depuis longtemps une régulation informée par la donnée, comme il l’explique dans plusieurs billets de son blog ou dans un plus long article (intitulé « Regulation, the internet way »), publié en 2015, pour Data Smart City Solutions (@datasmartcities), une (...)

L’entrepreneur et investisseur Nick Grossman (@nickgrossman), investisseur chez Union Square Venture défend depuis longtemps une régulation informée par la donnée, comme il l’explique dans plusieurs billets de son blog ou dans un plus long article (intitulé « Regulation, the internet way »), publié en 2015, pour Data Smart City Solutions (@datasmartcities), une initiative de la Harvard Kennedy School pour promouvoir une ville réactive aux données.

D’une régulation par l’autorisation à une régulation par la responsabilité ?

Pour lui, il est nécessaire de passer d’une régulation par la permission (et son corollaire, l’interdiction) à une régulation par la responsabilité informée par la donnée. Les plateformes du web ne sont pas tant des plateformes que des « moteurs pour la régulation », expliquait-il au Personal Democracy Forum de 2016 (vidéo, présentation), et ces moteurs de régulation vont directement impacter la manière dont le secteur public pratique la régulation.

Dans le système de régulation traditionnel, explique-t-il, une entreprise ou un individu doivent demander une autorisation, comme c’est le cas des licences de taxis ou des permis de construire. Pour cela, ils doivent apporter une foule de documents, pour prouver qui ils sont ou expliquer ce qu’ils vont faire. Une fois accordée, une surveillance légère est parfois opérée, mais la plupart du temps aucune donnée ne vient informer le régulateur.


Image : la matrice de la régulation par Nick Grossman, de la régulation par l’autorisation à la régulation par la responsabilité.

Dans le monde des plateformes, la régulation se pratique totalement différemment. Il est très simple de devenir un vendeur sur eBay ou un conducteur pour Uber. Par contre, beaucoup de données sont collectées : la surveillance comme la responsabilité sont assez strictes, encadrées et continues. Pour Grossman, la différence entre ces modèles nous fait passer d’une régulation par l’autorisation à une régulation par la responsabilité. Pour lui, c’est là une innovation qui rejoint le nouveau paradigme que décrit Carlota Perez à savoir le paradigme de l’âge de l’information (qui succède aux paradigmes de l’âge du pétrole, de l’électricité et de la vapeur?). Chaque âge a apporté son lot d’innovations spécifiques, non seulement technologiques, mais plus encore en matière de législation et de régulation. Il en conclut que les données apportent des réponses pour transformer nos pratiques de régulation.

En connaissant mieux le trafic automobile par exemple, grâce aux données des plateformes de véhicules avec chauffeurs, de covoiturage ou de GPS communautaire on peut imaginer de nouvelles formes de régulation. Comme en connaissant mieux la boulangerie on peut adapter l’offre (c’est ce que font les plateformes en s’adaptant sans cesse à leurs utilisateurs) mais également la régulation (puisqu’on connaît l’activité des utilisateurs).

Comment expérimenter la politique conduite par la donnée ?

Grossman défend activement une régulation informée par la donnée – ce qu’il appelle « la politique conduite par la donnée » (data-driven policy) – qui imagine que les règles qui s’imposent à tous soient construites sur de l’information statistique pour rétroagir sur la société elle-même. Reste que pour aboutir à cette forme applicative de l’ingénierie sociale, le problème est bien sûr de pouvoir avoir accès aux données, de les partager, entre citoyens, entreprises et autorités et également de trouver les modalités communes de leurs usages.

Mais c’est loin d’être le cas. « Les plateformes sont comme de petites dictatures qui édictent leurs propres règles », rappelle-t-il. Difficile pour les autorités publiques d’avoir accès à ces données, d’autant que tous les accès aux données ne sont pas nécessairement de confiance (comme nous le pointions dans notre article sur les limites à la loyauté des plateformes). Sans compter également que toutes les autorités ne sont pas équivalentes : quand le FBI veut avoir accès aux données des Gafa, ce n’est pas la même chose que quand une ville veut avoir accès aux données de ceux qui organisent du transport ou du logement sur son territoire. Rendre accessibles les données nécessite donc d’imaginer et de construire des formes de régulation (la carotte et le bâton), en partie parce que la valeur de ce partage est loin d’être toujours claire (et ce d’autant plus que ce partage pose des questions de confidentialité et de concurrence). Plutôt que de trouver une solution magique à cette tension, Grossman demeure pragmatique : pour promouvoir de nouvelles formes de transparence, le mieux est encore d’expérimenter, afin de trouver, pour chaque cas, les bonnes modalités de mise à disposition des données, de partage, de valeurs…

Nick Grossman évoque deux exemples en démonstration de sa thèse : Airmap, un système de gestion du trafic aérien sans pilote qui facilite l’échange de données et le contrôle du trafic aérien pour les drones (signalons d’ailleurs que le Secrétariat d’Etat à la modernisation de l’action publique vient de lancer une plateforme assez similaire, drone.beta.gouv.fr). Une plateforme de régulation qui fait le lien entre les pilotes et les autorités, en développant par exemple de la géo-identification pour interdire certains espaces aux drones ou favoriser leur identification par les autorités. Une plateforme qui a le potentiel de créer une régulation adaptée aux utilisateurs depuis les données que les pilotes et les constructeurs partagent. Grossman espère que nous allons voir se démultiplier ce type de plateformes très spécifiques, « verticales », permettant aux différents acteurs de discuter entre eux, très concrètement, par le partage de données.


Image : la carte des drones, avec ses zones de régulation, via drone.beta.gouv.fr.

D’autres plateformes, plus horizontales, permettant de mieux partager des données et de mieux les protéger par exemple devraient également voir le jour, estime l’investisseur, en évoquant Enigma (né au MIT) et le chiffrement homomorphe qui permettent d’interroger les données et de faire des calculs tout en les laissant chiffrées. Une solution technique qui permettrait par exemple de mieux partager des données sans que les systèmes y accèdent en détail tout en leur permettant de les interroger à leur gré. Un exemple éminemment vertueux à nouveau, même si cette opacité sur les données générée par le chiffrement pose aussi des questions sur la validité des données partagées.

Des limites de la « politique conduite par la donnée »

En fait, contrairement à ce qu’avance Grossman, la régulation amont (la licence, l’autorisation ou leur contraire, l’amende?) ne recoupe pas nécessairement le périmètre sur lequel agit la régulation par les données. En fait, les deux formes ne s’opposent pas tant qu’elles se complètent, avec des objectifs et des modalités distinctes. Surveiller la construction des immeubles n’est pas la même chose que leur donner une autorisation de construction selon le respect des critères auxquels les constructeurs doivent se conformer avant la construction. La régulation par les données ne pourra peut-être pas s’appliquer partout et pour tout. L’instauration de boucle de rétroaction vertueuse nécessite de la transparence et du dialogue pour peaufiner les critères (évaluer et surveiller dans le temps leur pertinence) comme le soulignait très bien Cathy O’Neil.

Autre problème : les plateformes sont très fragmentées, ce qui pose la question de l’agrégation des données multiples, pas forcément compatibles entre elles, de leur coordination et de la gestion de cette coordination, comme nous le soulignions déjà. Enfin, autre écueil et non des moindres : la question de la validité et de la pertinence des données. Les politiques conduites par la donnée posent la question des données utilisées et introduisent le risque d’un facile datasolutionnisme, produisant des indicateurs et des politiques depuis des données peu adaptées à cela. Or, tous les problèmes ne sont ni visibles ni solubles dans les données. L’enjeu n’est pas tant de conduire des politiques depuis les données, de produire une régulation à la demande, que de trouver dans les données des modalités de rétroaction vertueuses. D’où l’appel de Grossman à expérimenter, à jouer du « bac à sable réglementaire » pour trouver les modalités effectives du partage des données et des formes de régulation.

Reste que « la politique conduite par la donnée » pose bien d’autres problèmes encore. Démultiplier les données n’abolit pas les choix politiques comme de savoir quelles données et quels critères sont utilisés pour la régulation. A l’image du débat actuel sur les prérequis attendus des lycéens pour postuler dans les formations universitaires : si l’on demande des notes ou compétences minimum, reste à savoir lesquelles, comment et par qui elles sont déterminées et évaluées. Si vous devez avoir au moins un 13 dans telle matière pour concourir à telle formation, comment est calculée cette note ? Est-ce celle des premiers trimestres de terminale ou celle du du Bac ? Est-ce que ce prérequis est calculé depuis les résultats des précédents candidats (aucun de ceux qui sont allés dans cette formation n’ont réussi avec moins de 13 dans cette matière) ? Avec le risque bien sûr, que les critères choisis s’auto-renforcent. Enfin bien sûr, les systèmes automatisés posent la question des possibilités de recours?

Le problème de l’accès aux données n’est pas non plus un petit problème. Même si cet accès était facilement possible, cela ne signifie pas pour autant qu’il soit loyal, comme le soulignait les activistes Murray Cox et Tom Slee en montrant qu’Airbnb ne donnait pas accès à toutes ses données comme les problèmes de manipulation de données d’Uber. A Bordeaux, l’Observatoire Airbnb monté par un élu local, Matthieu Rouveyre, pointe également toutes les limites de confier des formes régulatoires aux plateformes. En fait, l’une des questions de fond que pose « la politique conduite par la donnée » est que bien souvent elle repose sur la nécessaire fusion de la plateforme et de la politique, avec le risque d’être juge et parti. Une perspective qui pose une question de régulation intrinsèque : comment séparer ces deux perspectives dans des outils, qui par nature, tirent leur force de cette double capacité ? Or, nos modalités démocratiques ont toujours veillé à distinguer les pouvoirs. Les plateformes de données, par essence, proposent à la fois des modalités où la mise en oeuvre, le contrôle et l’autorité sont interdépendants, un peu comme si les pouvoirs législatifs, exécutifs et judiciaires procédaient d’une seule et même entité. L’extension de l’action aux données elles-mêmes que recouvre l’enjeu des politiques conduites par les données pose la question de leur contrôle démocratique. Le risque est que mesures et données deviennent performatives, les plateformes deviennent productrices de leurs propres règles favorisant à terme un mandat impératif et une société sans pouvoir.

Le risque d’une Gouvernance par les nombres, soulignait le juriste Alain Supiot dans son ouvrage éponyme, est que la régulation par la donnée transforme la politique en simple fonctionnement, que les mesures et les critères de performances qu’elle produit devienne le critère de la gouvernance. Le risque que cela induit est que le système produise sa propre optimisation depuis des critères retenus sans grand contrôle démocratique et sans séparation des pouvoirs entre le système et la régulation qu’elle produit. Le calcul devient autoréférentiel, produisant à la fois des indicateurs, la mesure et son but.

Quand les machines servent à la fois à rendre compte, à administrer, juger et légiférer… le risque est de voir fusionner la satisfaction des indicateurs et la réalisation des objectifs au détriment de tout contrôle démocratique par ceux qui sont calculés, administrés, jugés et ainsi légiférés.

Hubert Guillaud

  • Le niveau des discussions politiques a (encore) baissé

Vous pensez que la qualité des discussions politiques (notamment en ligne) ne cesse de se dégrader ? Mais s’agit-il d’une simple impression subjective, ou cela traduit-il une réalité ? Selon une étude dirigée par Rishab Nithyanand (@rishabn_) de l?institut Data & Society (@datasociety), et rapportée par le New Scientist (@newscientist), il semblerait (...)

Vous pensez que la qualité des discussions politiques (notamment en ligne) ne cesse de se dégrader ? Mais s’agit-il d’une simple impression subjective, ou cela traduit-il une réalité ? Selon une étude dirigée par Rishab Nithyanand (@rishabn_) de l?institut Data & Society (@datasociety), et rapportée par le New Scientist (@newscientist), il semblerait bien que le niveau des discussions, déjà pas très élevé, ait atteint de nouveaux abîmes?

Les chercheurs ont pris Reddit comme objet de leur analyse. Pourquoi Reddit ? Parce que, nous explique le New Scientist, les commentaires peuvent être plus longs que les proverbiaux 140 (pardon, 280) caractères de Twitter. Et, contrairement à Facebook, on n’est pas obligé de dévoiler son identité sur Reddit, ce qui garantit une plus grande liberté de ton.

Ont donc été analysés pas moins de 3,5 milliards de commentaires publiés par 25,3 millions de personnes entre 2007 et 2017. Ces données étaient divisées en deux groupes : l’un était composé des commentaires sur des sujets non politiques, et l’autre, on l’aura deviné, regroupait toutes les discussions portant sur ce domaine.

Résultat, les usagers des forums politiques utilisaient 35 % de termes agressifs en plus que les auteurs de commentaires non politiques. Et cette tendance s’est montrée encore plus forte entre mai 2016 et mai 2017 (donc, la période englobant la campagne présidentielle américaine et les premiers mois de Donald Trump à la Maison-Blanche) que pendant toutes les autres années.

Les chercheurs ont également analysé le niveau de complexité des messages en utilisant un test éprouvé, celui de Flesch?Kincaid. Ils ont découvert que le niveau global des commentaires était passé du niveau d’un adolescent de 12 ans (ce qui n?était déjà pas terrible) à celui d’un enfant de 6 ans au cours des dernières années.

Quelle peut être la cause d’une telle dégradation ? Cela peut s’expliquer par plusieurs raisons : ainsi, l’équipe a repéré l’arrivée d’un grand nombre de nouveaux utilisateurs Reddit qui auront peut être contribué à dégrader la qualité du discours. Il est également possible que des extrémistes, qui ne postaient pas jusqu’ici sur des sites « mainstream », se soient mis à y participer, donnant ainsi un tour plus violent aux conversations. Autre possibilité, plus inattendue : qu’un grand nombre des posts aient été effectués par des robots. Comme l’a rappelé Nithyanand au New Scientist, c’est une pratique qui s’est déjà largement développée sur Twitter : « pendant le Brexit, ils ont juste retweeté des propos en faveur du camp de Leave… Lors des élections américaines, il s’est agi d’une campagne de propagande complète, qui a excité les gens et alimenté un feu d’insultes partisanes. »

Et quel est le rôle de Trump dans tout ça ? Pour Nithyanand, on ne peut pas déduire avec certitude un rapport de cause à effet entre son accession au pouvoir et la dégradation du discours (ou l’inverse). Mais tout de même, précise-t-il, « L’étude montre une forte corrélation entre la montée de la popularité de Trump et une augmentation de l’agressivité… Les politiciens de haut niveau ont la responsabilité de rester plus civils, parce que les gens imitent leur comportement. »

  • GPS : de la valeur par défaut

Sur son blog, Michael Verdi (@michaelverdi), designer pour Firefox, pointe un excellent exemple des ambiguïtés des architectures de choix décidées par-devers nous. Michael possède un véhicule hybride, une Chevrolet Volt. Pour surveiller sa consommation électrique, il dispose d’un tableau de bord précis qui lui montre par exemple que sa batterie (...)

Sur son blog, Michael Verdi (@michaelverdi), designer pour Firefox, pointe un excellent exemple des ambiguïtés des architectures de choix décidées par-devers nous.

Michael possède un véhicule hybride, une Chevrolet Volt. Pour surveiller sa consommation électrique, il dispose d’un tableau de bord précis qui lui montre par exemple que sa batterie se vide bien plus rapidement lorsqu’il roule plus vite, à 120 qu’à 100 km/h. Or, il a remarqué que les GPS qu’il utilise ont toujours tendance à lui proposer les itinéraires les plus rapides, c’est-à-dire ceux qui passent par les voies les plus rapides. Pour se rendre à son restaurant préféré, Apple Maps et Google Maps l’envoient tous les deux sur la voie rapide, lui faisant faire des itinéraires entre 14 et 12 kilomètres. Or, s’il prend la route la plus courte, sans passer par les voies rapides, il ne fait que 8 kilomètres, mais met 1 à 2 minutes de plus. Or, a-t-il calculé, s’il utilise la route la plus rapide et qu’il va plus vite, sa voiture va consommer bien plus d’énergie que s’il prend la route la plus courte. Il échafaude ensuite, via un rapide calcul, que baser les GPS par défaut sur l’économie d’énergie plutôt que la vitesse permettrait d’enlever de la circulation l’équivalent annuel de quelque 800 000 voitures aux États-Unis.

Qu’en serait-il si les GPS de voiture, par défaut, nous montraient les itinéraires les plus respectueux de la planète, les plus économes en énergie, ou les plus respectueux de nos portefeuilles ? Chiche ?

  • De l?automatisation des relations? à notre propre automatisation

Les systèmes de réponses automatisés, à l’image des chatbots, ne sont rien d’autre que des machines plus ou moins bien entraînées qui tentent de se faire passer pour des humains (ou encore, trop souvent, des humains qui tentent de se faire passer pour des machines), explique le journaliste David Ryan (...)

Les systèmes de réponses automatisés, à l’image des chatbots, ne sont rien d’autre que des machines plus ou moins bien entraînées qui tentent de se faire passer pour des humains (ou encore, trop souvent, des humains qui tentent de se faire passer pour des machines), explique le journaliste David Ryan Polgar (@techethicist) pour Quartz. Mais leur efficacité s’avance sous le masque de la duplicité. Et le risque à venir, à mesure que cette automatisation va investir tous nos outils, est que nous ne sachions bientôt plus à qui nous nous adressons, s’inquiète le journaliste. Avec les e-mails personnalisés, par exemple, le récepteur pense recevoir un message de l’expéditeur, quand il ne communique qu’avec la « marionnette » de l’expéditeur, un programme qui le plus souvent, ne donne pas accès à l’expéditeur (comme le rappellent les messages du type : « Nous vous informons que les messages reçus sur cette adresse e-mail ne sont pas pris en charge » ou « Merci de ne pas répondre à ce message »).

Pour David Polgar, le développement de l’automatisation de portions significatives de nos communications, en les présentant comme réelles, relève indubitablement de la tromperie.

En fait, explique-t-il, ces systèmes automatisés visent à nous aider à élargir le sentiment d’intimité à l’heure où les outils numériques nous permettent d’entretenir de plus en plus de relations. Au lieu de réduire ou limiter nos relations ou d’être transparents sur l’utilisation d’outils automatisés, nous nous dotons de bots, de « marionnettes », censées nous représenter pour démultiplier et entretenir nos relations. Mais cette communication via des bots, qui se présente comme authentique, n’est pas une forme inoffensive d’efficacité communicationnelle : elle méconnaît complètement les qualités fondamentales des relations. Les relations sont construites sur la réciprocité de temps ou d’énergie émotionnelle. Communiquer avec autrui via des systèmes automatisés en faisant croire à un investissement authentique tient donc plus de la duperie qu’autre chose. David Polgar explique ainsi avoir reçu un message automatique personnalisé après s’être abonné à une personne sur Twitter. Un message qu’il a trouvé plus offensant qu’efficace. Le problème estime-t-il, c’est que si nous sommes prêts à utiliser des outils de communication automatisés pour faire passer nos propres relations à l’échelle, nous sommes beaucoup moins enclins à accepter qu’on utilise ces mêmes outils sur nous. Le risque à terme, c’est celui d’une course à des relations complètement automatisées, produisant une communication sans fin et sans frictions? mais entièrement inutiles.

Dans un autre article sur le même sujet écrit pour l’un des blogs d’IBM, David Polgar rappelle d’ailleurs que le test de Turing lui-même, ce Graal de la mesure de l’intelligence artificielle, a pour principe l’imitation : l’intelligence pour Turing consistait à ce que la machine parvienne à se faire passer pour un humain. Pas sûr pourtant que le fait de confier notre communication à des machines représente une grande avancée. Ici, il prend l’exemple de Linked-in qui propose d’envoyer des messages standardisés à ses relations par exemple pour les féliciter de leur anniversaire de travail (un concept qui semble lui aussi provenir des profondeurs de la simplification automatique). Comme dans le cas du rituel des anniversaires sur Facebook, de plus en plus souvent, nous pouvons attacher des messages à nos avatars en ligne, des messages qui se veulent pleins d’humanité, mais qui sont en fait dépouillés de toute humanité, puisqu’ils peuvent être rédigés et adressés sans aucune intervention humaine. Pour la psychologue Liraz Margalit, responsable de la recherche comportementale chez Clicktale, le problème est qu’en prenant l’habitude d’interagir avec des robots, nous réintroduisons dans nos rapports avec des humains des modèles que nous développons dans nos interactions automatisées.

Pour le philosophe Evan Selinger (@evanselinger), responsable des recherches et de l’éthique du Centre pour les médias, les arts, les jeux, l’interaction et la créativité du Rochester Institute of Technology, le développement de nos « liens faibles » qu’entretiennent les réseaux numériques, nous poussent à une communication succincte. « Nous subissons collectivement l’attraction d’adopter des styles de communication marchandisés ». « Quand notre comportement communicatif est conçu pour devenir plus automatique que délibératif, nous pouvons avoir l’impression que c’est notre humanité même qui s’effondre », explique encore Selinger.

Evan Selinger et le juriste Brett Frischmann (@brettfrischmann), qui publieront au printemps 2018 Re-Engineering Humanity, ont récemment produit une réflexion sur une forme de test de Turing inversé, pour tenter d’évaluer nos différents niveaux d’intentionnalité. Pour Selinger et Frischmann, le monde ne se sépare plus seulement entre humains et robots, mais se complexifie d’« humains botifiés » et de « bots humanisés ». Pour les chercheurs, c’est à nous de rester conscients de la manière dont nous communiquons. Tout l’enjeu, expliquent-ils, consiste à mesurer si la technologie augmente ou diminue notre humanité. Sommes-nous en train d’être reprogrammés par les machines ? Selon eux, il nous faut une méthode pour comprendre la valeur des dynamiques relationnelles qui se tissent entre machines et humains. Pour cela, si on mesure l’humanité des machines, il nous faut en regard tenter d’évaluer quand et comment nous nous comportons comme des machines.

Pour eux, la question de savoir ce que signifie être humain face aux machines n’est plus si triviale. Nous ne devrions pas tant avoir peur des robots, que d’avoir peur de devenir nous-mêmes des robots, expliquent-ils. « Il nous faut introduire des valeurs humaines dans la technologie plutôt que la technologie n’introduise ses valeurs dans notre humanité ». Pour cela, il faut être capable de mesurer quand une technologie est déshumanisante ou quand les humains ne pensent pas ou ne se comportement pas en humains.

Comme le soulignait les deux auteurs dans une tribune pour le Guardian, l’enjeu n’est peut-être pas tant de savoir si les robots vont prendre notre travail que de savoir si leur démultiplication ne va pas nous transformer en robots, nous « saper de notre humanité ». Depuis les chaînes de montage de Taylor où les humains se livrent à des tâches répétitives de robots, les hommes sont devenus des rouages de machines programmables. Et la version moderne et numérique du taylorisme est plus puissante et plus déshumanisante que jamais. Avec le Big Data, le taylorisme s’est propagé bien au-delà de l’usine. Des livreurs à vélo aux chauffeurs de voitures qui doivent suivre à la lettre les instructions des machines? partout les humains sont surveillés, monitorés, suivis, tracés, synchronisés, conduits par des capteurs qui mesurent tout, de leurs emplacements permanents à leurs performances. Comme le soulignent certains chercheurs, comme Karen Levy (qui a étudié par exemple la surveillance dans les lieux de travail hypermasculins), les systèmes de gestion intenses réduisent l’autonomie des travailleurs, accroissent les cadences? et donc leurs effets psychosociaux, comme la perte de sommeil.

Pour les auteurs, ce n’est pas seulement que l’intensité de la surveillance s’est accrue, c’est aussi qu’elle s’est dissimulée partout : dans les outils que les employés utilisent, dans les caméras de surveillance, dans les logiciels qu’ils utilisent… Surtout concluent-ils, si sur le papier transformer les humains en machine semble produire de l’efficacité, rien n’est moins sûr (à tout le moins, si c’est le cas, c’est sans mesurer les coûts sociaux et les contreparties qui ne sont pas assumées par ceux qui mettent en place ces techniques).

La déshumanisation n’est pas seulement imputable à l’utilisation croissante de la technologie, expliquent-ils encore dans un autre article pour Quartz. Nous sommes trop confiants et dépendants des développements technologiques et nous supposons donc que chaque nouvelle technologie est bénéfique par nature. L’efficacité également alimente notre engouement : or, être humain est parfois coûteux, notamment en terme d’efficacité. L’optimisation ne peut pas tout.


Vidéo : Sur We Make Money Not Art, Regine Debatty revenait sur le festival DocLab à Amsterdam dont le thème était justement « est-ce que les robots nous imitent ou imitons-nous les robots ? » Elle évoquait notamment le dernier projet de Superflux et Mozilla, mené par Brett Gaylor, le réalisateur du documentaire Do Not Track, Nos amis électroniques (vidéo), une critique des interfaces vocales qui nous rendent fous en nous demandant, comme le feraient des enfants, les raisons à ce qu’on leur demande de faire.

  • Vers une ville numérique ingouvernable (2/2) ? Le modèle de la startup en ses limites

L’innovation n’est pas absente de la ville numérique. Au contraire. Elle est foisonnante. Mais ce foisonnement apparent cache une certaine homogénéité qui se cristallise autour de l’impact d’un modèle ultra-dominant : celui de la startupisation de l’innovation. Or, les enjeux que soulève le programme Audacities de la Fing (éditeur d’InternetActu.net) et (...)

L’innovation n’est pas absente de la ville numérique. Au contraire. Elle est foisonnante. Mais ce foisonnement apparent cache une certaine homogénéité qui se cristallise autour de l’impact d’un modèle ultra-dominant : celui de la startupisation de l’innovation. Or, les enjeux que soulève le programme Audacities de la Fing (éditeur d’InternetActu.net) et de l’Iddri, montrent qu’innovation et gouvernance sont liées, qu’elles sont les deux faces d’une même demande collective. Reste que l’arrivée des startups, ces nouveaux acteurs de l’innovation ne favorisent pas une gouvernance partagée, au contraire. Par essence, chaque startup optimise son propre service, au détriment d’une approche collective. Waze optimise son service pour fournir aux conducteurs le plus court chemin pour aller d’un point A à un point B, au détriment des politiques publiques de mobilité, comme le soulignait très bien le chercheur Antoine Courmont. Airbnb optimise la rentabilité de la location touristique de courte durée professionnalisée au détriment des possibilités de location de logement traditionnelle de longue durée, comme s’en émouvait récemment la fondatrice de Bedy Casa dans une tribune pour Challenges. La récente limitation de location à 120 nuitées à Paris (mais pas pour le reste de la France), à 60 nuitées à San Francisco? semblent autant de tentatives pour limiter une « disruption » sur laquelle l’acteur public est toujours à la peine alors qu’il dispose de moyens d’action limités selon ses compétences.

La startup : solution ou problème ?

On pourrait vouloir voir entre les approches présentées par Etalab et le Numa (voir la première partie de notre dossier) des différences de fond. D?un côté, la Ville de Paris déléguerait son innovation, de l?autre l?État, chercherait lui, à garder le pouvoir. Mais ce n?est pas si simple, remarque Romain Tales d’Etalab. L?outsourcing, le fait de faire développer des services par des tiers, coûte parfois cher. Etre capable de faire en interne, ou de contrôler les projets comme le soulignait un récent article de Libération, d?avoir la main sur les développements peut être parfois important, selon les projets. « L?enjeu n?est pas de chercher à tout faire, ni de faire mieux, mais il est important de laisser aussi sa chance à l?administration de faire aussi bien que leurs délégataires », souligne Romain Tales.

Le programme d?intrapreneuriat de la ville de Paris avec ses startups de Ville, comme les programmes de startups d?État ou d?entrepreneurs d?intérêts général visent à faire monter en compétence les services dans une logique d?innovation interne. L’enjeu n’est pas tant de créer de réelles startups que d’acculturer les services publics à d’autres méthodes d’innovation. Seul Datacity s?inscrit dans une logique externe, qui valorise les compétences des délégataires de services publics et de startups. Mais au-delà de ces programmes spécifiques, la plupart des programmes d’aides à l’innovation sont encore largement dirigés vers les startups technologiques, via de multiples incubateurs, au détriment d’autres formes d’innovation. C’est peut-être là que le bât blesse. Promouvoir la startup comme le seul et unique modèle d’innovation, c’est invisibiliser, pousser dans l’angle mort, tous les autres dispositifs qui existent, toutes les autres formes d’amélioration et de transformation. Comme le soulignait très bien l’entrepreneur Mehdi Medjaoui ou comme le concentraient les critiques que nous formulions à l’encontre de l’État plateforme, la startup n’est pas la seule façon d’innover. A ne promouvoir qu’elle, le risque serait de laisser de côté toute forme d’innovation qui n’entre pas dans cette case ou de forcer tout projet à y entrer. Tous les projets n’ont pourtant pas vocation à se transformer en services commerciaux et tous les projets n’ont pas vocation à devenir des services. Le risque également est de favoriser certaines formes d’innovation technologique? au détriment d’autres, notamment celles qui reposent sur l’innovation sociale, celles proposées par d’autres acteurs comme des associations ou des PME.

La méthode startup en question

La startupisation pose également la question de l’uniformisation des méthodes. Tous les programmes d’incubation, d’accélération et de développement ont tendance à utiliser les mêmes méthodes, comme si l’innovation n’était possible qu’en utilisant celles-ci au détriment de toutes autres, sans voir leur réductionnisme. De partout, on prône l’agilité, le lean management, la rapidité, l’ouverture (avec beaucoup de non-dits sur ces la valorisation d’échanges ouverts qui s’appliquent plus aux données des autres qu’aux méthodes qu’on s’applique à soi-même)…

Dans l’introduction au riche dossier que livre le dernier numéro du magazine Socialter en forme d’appel à faire de la France une terre d’innovation différente (« La France, une sociale Valley »), le journaliste Philippe Vion-Dury rappelle les enjeux du mode d’innovation que constitue la startup, en puisant dans une de ses bibles, le livre De zéro à un, du business angel libertarien Peter Thiel. Une startup a pour objet la perturbation, c’est-à-dire la disruption, des codes, marchés ou règlements. Son second impératif est la croissance et la vitesse. Le troisième c’est de chercher à établir un monopole. D’autant plus que leur dernier enjeu est bien de court-circuiter le législateur, afin que « la loi soit obsolète, le reste le plus longtemps possible, et qu’étant finalement trop puissant pour être sanctionné, on puisse tranquillement faire du lobbying pour aménager la loi selon ses intérêts ». Autant d’objectifs qui ne croisent nulle part ceux des acteurs publics, au contraire. Ça n’empêche pas les acteurs publics de soutenir activement cette forme d’innovation, au prétexte du développement économique, de la compétition économique internationale, de l’innovation?

L’angle des méthodes utilisées pour transformer les projets en startups a tendance à chercher à réduire leurs propositions à l’aune de leur seule efficacité. Le risque est bien, en utilisant partout les mêmes méthodes (valorisation, dumping des prix, optimisation à tout crin, recherche de positions monopolistiques?), de faire advenir les mêmes types de solutions et les mêmes types d’entreprises. C’est d’ailleurs déjà beaucoup le cas, avec des secteurs très embouteillés où de multiples entreprises exploitent les mêmes domaines (la mobilité « flottante », les services de livraisons ou location à la demande, les services de type majordome, les services de « co-« voiturage, de co-location, etc.).

Les mêmes méthodes et les mêmes soutiens aux mêmes formes opératoires d’innovation nous confrontent non seulement à un foisonnement d’innovation, mais plus encore à un foisonnement uniforme d’innovation. La concentration de dispositifs de soutiens à l’innovation similaires (incubateurs, accélérateurs, concours, modes de financement?) bénéficie à ceux qui rentrent dans ces cadres au détriment de ceux qui pourraient proposer des modalités d’action différentes, comme les modèles associatifs, les coopératives, les innovations sociales? Les méthodes utilisées sont dupliquées tant et si bien que tout ce qui ne s’inscrit pas dans ces méthodes, modèles économiques et temporalités ne semblent plus pouvoir exister. Tout projet qui ne devient pas startups semble exclu des modèles de soutien, de financement, d’accompagnement, de développement, de mise en visibilité?

De la célébration des startups à l’heure du triomphe des plateformes

Cette victoire sans conteste de la startupisation est d’autant plus étrange que les beaux jours de cette forme d’innovation semblent derrière elle. La célébration de ce modèle particulier d’innovation est paradoxal : on n’a jamais autant célébré la startup à l’heure du triomphe des plateformes. C’est ce que soulignait Joe Evans (@rezendi) sur Techcrunch en pointant la fin de l’ère des startups. Il expliquait combien toutes les grandes métropoles cherchent à devenir des territoires d’accueils de startups, démultipliant les projets d’incubateurs, les programmes d’accélérateurs (et de « lieux totems » pour les accueillir). Toutes les villes rêvent de devenir la nouvelle Silicon Valley. Or, souligne-t-il, on a changé de décade. Désormais, les entrepreneurs « ont bien plus de chance de finir par travailler pour Mark Zuckerberg que de suivre ses pas ». Du boom du web (1997-2006) à celui des applications (2007-2016), nous sommes entrés dans l’ère des plateformes, où les startups n’ont plus leur place. Les technologies sont devenues plus compliquées, plus chères et les entreprises ont besoin de plus de croissance et de capital pour réussir, sans être toujours assuré d’y parvenir comme l’explique très concrètement le spécialiste de l’économie du partage, Steven Hill (@stevenhill1776), dans une tribune pour le Monde.fr en disséquant le cas Uber, désespérément non rentable. Pour Joe Evans, le ralentissement du financement des startups n’est pas un hasard. Les mégaplateformes que sont Alphabet, Amazon, Apple, Facebook et Microsoft l’ont emporté (tout comme les plateformes chinoises de Tencent, Alibaba et Baidu). La prochaine vague technologique n’est plus accessible aux jeunes pousses : l’intelligence artificielle notamment a plus que jamais besoin de données, et c’est l’affaire des plus grosses entreprises. Le matériel est difficile à prototyper, rapporte peu et est cher à pousser sur les marchés. Les voitures autonomes sont encore bien plus inaccessibles… Pour Joe Evans, les startups rêvent plus que jamais d’être rachetées par les plateformes. Les jeunes pousses prometteuses de Y Combinator, l’un des plus importants fonds d’investissement dans les nouvelles technologies sont les mêmes en 2017 qu’en 2012, à savoir Airbnb, Dropbox et Stripe. Même si Y Combinator a financé bien plus de startups depuis 2012 qu’avant, aucune n’est devenue un géant. À mesure que les titans technologiques accumulent de la puissance, les startups ont de plus en plus de mal à rivaliser.

Il n’y a pas que Techcrunch qui s’en alarme. Le New York Times, Wired, Vox… se sont également fait écho de la disruption de la disruption… En France, on se félicite néanmoins du développement des soutiens aux startups, de la progression de l’investissement et de nos réussites entrepreneuriales, comme le souligne le journaliste Benjamin Ferran pour Le Figaro, même si celles-ci font figure de nains économiques.

En France, le numérique ces dernières années a été un des rares secteurs à connaître une croissance soutenue, dans un contexte général de crise, de chômage de masse? les startups semblent aujourd’hui les structures qui embauchent. Soutenir les startups, c’est donc pour beaucoup soutenir le développement économique et donc l’emploi. Même si les chiffres peinent à réaliser ces espérances. En fait, comme le souligne encore très bien le dossier de Socialter, c’est oublier par exemple que les chiffres de l’innovation sociale et solidaire sont bien plus stimulants que ceux de l’innovation numérique : l’ESS représente 10,5 % du PIB de la France, 220 000 établissements, 2,4 millions de salariés sans compter les 730 000 structures associatives, ses 23 millions d’adhérents, ses 16 millions de bénévoles, ses 21 000 coopératives? L’emploi y a crû de 23 % au cours des 10 dernières années. Comparativement, les startups dont on parle tant ont des résultats plus modestes. On dénombre environ 10 000 startups en France (dont ? en Ile-de-France), soutenus par quelque 284 structures (incubateurs, accélérateurs?). Quant au nombre d’emplois qu’elles génèrent, les sondages parlent de quelques milliers par an. Bien moins que le secteur du numérique dans son entier en tout cas, qui est loin d’être composé uniquement de startups.

Qu’importe. Cela n’empêche pas l’innovation numérique au format startup de s’imposer comme un modèle et d’inspirer bien d’autres secteurs. Tous les grands groupes ont désormais leur portefeuille de startups, leurs élevages. Toutes les villes cherchent à se doter de fermes industrielles d’incubation. Partout les structures de soutiens se multiplient.

Le problème, c’est que la vampirisation de toutes les formes innovantes par la startup (qui colonise jusqu’à certaines formes de l’économie sociale et solidaire) contribue à son déclin et à sa saturation. Certes, dans la grande galerie des méthodes d’innovation, il y a toujours eu des modes, des modèles dominants et des modèles dominés. Aujourd’hui, le modèle dominant de la startup écrase tous les autres modèles, notamment les modèles imparfaits, ceux qui tâtonnent, ceux qui avancent sans méthode préétablie. Le modèle de l’innovation a la gueule de bois, comme l’internet depuis les révélations d’Edward Snowden. Nous sommes passés du rêve d’un internet émancipateur à la réalité du digital labor. Dans le domaine de l’innovation nous sommes passés du rêve d’une innovation libre et sans contrainte, à des méthodes obligées pour produire de l’innovation en série avec ses cohortes de startups qui se ressemblent que ce soit dans le domaine de la rencontre, des petits boulots à la demande, du transport à la demande? Qu’importe si elles ne produisent pas vraiment de valeur ajoutée, ou si elles n’adressent pas vraiment de grands problèmes. L’important est qu’elles produisent vite des résultats. Qu’elles soient agiles. Qu’elles pivotent. Qu’elles utilisent des méthodes dites efficaces? Qu’importe si elles ne produisent pas mieux ni plus d’innovation. Qu’importe si elles ne produisent pas de sens.

Le problème de cette bascule, c’est qu’elle se fait au détriment d’autres modèles et qu’elle réduit la diversité. L’innovation en provenance du tiers secteur, des associations, des PME et PMI, comme le champ de l’innovation sociale, elles, semblent invisibilisées par la célébration des startups. La ville comme plateforme d’innovation ouverte s’est réalisée. Mais la ville n’en a pas été l’opérateur. Les startups utilisent l’infrastructure physique des villes pour opérer, sans plus avoir besoin de délégation. Ce qui laisse les villes assez démunies pour réagir, pour orienter cette innovation, comme le montre l’exemple de l’explosion des systèmes de transports à la demande ou des plateformes de location à la demande que les villes peinent à réguler. Difficile pour elles d’agir, car agir consiste à réglementer voir interdire les startups qu’elles glorifient par ailleurs via les programmes qui les engagent avec elles. Alors que, par nature, les startups cherchent avant tout à « disrupter », c’est-à-dire contourner les infrastructures et règlements nécessaires à la cohésion sociale et urbaine.

Or réguler les flottes de véhicules à la demande, de deux roues flottants, comme l’accès au logement tient, en partie, de la responsabilité des collectivités. De fait, la startupisation, parce qu’elle est le volant politique d’un projet économique, entre en conflit direct avec les politiques sociales pour ne pas dire avec la politique tout court.

A l’heure du foisonnement, où sont les stratégies ?

La startupisation ne regarde l’innovation que sous l’angle du développement de nouveaux services. Or, pour créer du changement, les nouveaux services ne sont que le haut de l’iceberg, résume l’entrepreneur Indy Johar de la Young Foundation dans un intéressant graphique (qu’évoquait longuement le blog de la 27e Région). Produire des changements plus durables nécessite de dépasser la seule innovation servicielle et courtermiste que proposent les startups, pour privilégier d’autres formes d’innovation. En regardant les problèmes que sous l’angle de leurs solutions, l’acteur public se contraint à être confronté à toujours plus de solutions servicielles, sans prioriser entre elles ou sans se doter pour autant d’objectifs ou de stratégies. Sans feuille de route, quels services favoriser ? Quelles orientations prendre ? Face à une innovation devenue foisonnante, bien qu’homogène, comment piloter l’innovation ? Comment soutenir les startups ? Sur quels critères ?… Les nouveaux services ne sont pas toujours raccords avec la stratégie quand elle existe. Comme pour mieux contraindre l’innovation foisonnante, les stratégies réussies ont tendance à devenir plus radicales à l’image de la politique zéro déchet de San Fransisco ou zéro carbone de Copenhague. Sur l’iceberg de l’innovation, on ne célèbre que les nouveaux services, sans regarder ce qui est abandonné sous la ligne de flottaison : la stratégie, la cohérence, l’objectif économique, politique et social.

C’est au final devenu un peu un gros mot dans une innovation startupisée, mais définir des objectifs et des stratégies pour concentrer et orienter les moyens, définir une politique de l’innovation qui ne soit ni courtermiste, ni technosolutionniste, qui donne des objectifs à long terme, qui oriente l’innovation, encourage ses formes sociales et pas seulement la seule valorisation technologique, semble faire défaut.

Dans un monde où les politiques manquent d’objectif, les services des startups semblent occuper tout le terrain. Qu’importe si leurs solutions sont peuplées d’angles morts : le logement social, l’impact écologique, l’emploi? c’est-à-dire les défis environnementaux et sociaux. Pas sûr que la démultiplication des plateformes de covoiturage suffisent à résoudre le problème de l’autosolisme et de la congestion des grandes agglomérations. A nouveau, l’enjeu n’est pas de dire trop simplement que les startups c’est le mal. 40 % des trajets réalisés avec Uber en Ile-de-France sont des trajets banlieue/banlieue. Cela montre que Uber est parvenu à adresser un problème de transport que les politiques publiques du transport en commun n’avaient pas adressé. Uber, en Ile-de-France, a créé 20 000 « emplois » (enfin, plutôt des autoentrepreneurs »). Ce ne sont pas deux petits effets. Et l’enjeu est de trouver les moyens de les améliorer et de les développer tout en limitant leurs effets négatifs. Aujourd?hui on raisonne et on s?affronte dans un périmètre de gouvernance qui n?a pas changé, et qui fonctionne en mode action/réaction, désordre/rappel à l?ordre, les plateformes disruptives comme Uber pratiquant la politique du fait accompli, qui maintient dans une posture réactive et empêcheur de tourner en rond l?acteur public urbain. C?est cette répartition des rôles qu?il convient de changer, et les deux bords nous semblent également prêts à l?accepter. C?est dans cette nouvelle configuration de gouvernance partagée, qui reste à construire, que l?on peut imaginer pouvoir faire le tri entre les externalités positives et négatives d?Uber, et renforcer les unes tout en corrigeant les autres.

Le strapontin des usagers : du rêve de l’émancipation à la réalité du digital labor

Reste enfin à questionner la place de l’usager dans cet écosystème. S’il est toujours valorisé, force est de constater que celui-ci est toujours vu comme un consommateur par les nouveaux services produits par les startups. Si tous les programmes placent l’usager au coeur de leurs dispositifs, le plus souvent, il demeure sur un strapontin, un simple cobaye voire un simple client. L’usager reste bien souvent sur le bord de la route de l’innovation startup, qui travaille pour les collectivités et les gouvernements pour mettre au travail les gouvernés, développent le digital labor au détriment de la capacitation.

L’innovation startup favorise une innovation de consommation. L’émancipation promise se concrétise dans un digital labor qui n’a rien de libérateur. Les usagers et consommateurs ne sont pas des victimes : ils sont demandeurs de services, d’applications, ils livrent leurs données sans états d’âme, ils légitiment les pratiques les plus disruptives qui leurs profitent et donnent de la force aux disrupteurs, qu’importe si cela produit de la précarisation, de la prédation, de la liberté sans pouvoir… Pourtant, l’enjeu est bien là. Si les questions d’innovation et de gouvernance sont liées, alors il est nécessaire de réinterroger la place de la gouvernance dans l’innovation, à l’image des propositions faites par le coopérativisme de plateforme (le livre éponyme de Trebor Scholz vient d’ailleurs d’être traduit chez Fyp éditions).

La startup n’est pas le problème, tant qu’elle reste une forme d’innovation parmi d’autres. Mais la concentration et l’uniformisation de l’innovation, qui consistent à ne valoriser que des entreprises dont le modèle n’est pas compatible avec un modèle de société, est le problème. Le problème est bien le modèle de société qu’impose la révolution numérique dont la startup est l’emblème. Comme le dit l’avocat Jean-Baptiste Soufron, la révolution numérique n’a fait que « renforcer les travers les plus évidents du libéralisme et du capitalisme », accélérant le capitalisme numérique, accroissant le pouvoir des dirigeants et du capital, n?améliorant ni la démocratie, ni le lien social ou l?estime de soi. «Si le numérique était vraiment disruptif, Uber appartiendrait à ses chauffeurs et Facebook à ses usagers.» Nous en sommes loin. L’absence d’usagers dans les modalités de gouvernance des entreprises accentue la dissonance.

Le modèle d’innovation a besoin de diversité. La startup ne peut pas rester le seul modèle valorisé et valorisable. Comme le soulignent bien des acteurs de l’innovation sociale auxquels donne la parole Socialter, beaucoup d’ingrédients sont déjà là. Reste à trouver les moyens d’encourager des formes d’innovation sociale. De construire des formes de soutien à une innovation sociale (cf. Pour une French Tech de l’innovation sociale qu’appelait de ses voeux Romain Dichampt, directeur du développement de Ashoka France). Promouvoir des systèmes de travail à la demande qui ne précarisent pas ceux qu’ils embauchent, des systèmes de transport à la demande respectueux des infrastructures et de notre modèle social, des systèmes de location collaborative limités, plafonnés?

Mettre l’innovation en débat


En fait, l’innovation et les politiques de soutien à l’innovation ne sont jamais mises en débat. Or, si nous avons besoin d’une politique de l’innovation, nous avons également besoin de mettre en débat cette politique (et aussi d’une innovation dans la mise en débat elle-même). Le soutien à l’innovation doit également rendre des comptes. L’accountability, la responsabilité, la loyauté et la transparence des systèmes techniques qu’on demande aux algorithmes et qu’on impose aux individus ne doivent-elles pas aussi concerner le soutien à l’innovation ? Nous avons besoin de débattre des modèles d’innovation que notre société promeut. On ne peut pas d’un côté célébrer des startups et des plateformes qui nous font les poches par l’optimisation fiscale et la disruption réglementaire et de l’autre, oublier les mécanismes politiques et sociaux nécessaires à la redistribution. Avec leurs services, les entrepreneurs du numérique nous disent ce qu’il faut faire, comment gérer la société, alors mêmes qu’ils utilisent des techniques pour s’abstraire de la société, en s’abstenant notamment de tout partage de l’argent, du pouvoir et de la gouvernance qu’ils s’accaparent.

On observe les gains de la productivité, mais on oublie les mécanismes politiques et sociaux nécessaires à la redistribution. Les entrepreneurs du numérique nous disent ce qu’il faut faire, comment il faut gérer la société alors même qu’ils l’instrumentent à leurs propres bénéfices. Si l’innovation est un sujet politique, alors il ne peut pas être confisqué par ceux qui s’en appliquent à eux-mêmes les principes et en retirent les bénéfices. C’est d’ailleurs seulement en faisant des politiques d’innovation un sujet de débat politique qu’on arrivera à remettre l’usager des politiques d’innovation au coeur et pas seulement dans la cible. C’est en faisant de l’innovation un sujet politique qu’on parviendra peut-être à faire se rejoindre l’innovation technologique et l’innovation écologique qui pour l’instant peinent à se croiser? C’est en en faisant un sujet politique qu’on sortira l’innovation du solutionnisme pour en faire une innovation inclusive, responsable, durable et créatrice d’emplois et de valeurs pour tous, plutôt qu’une innovation prédatrice. La politique de l’innovation a besoin d’entamer un dialogue avec la société. Quand on constate la différence entre le foisonnement de politiques de soutien à l’innovation économique et aux startups et la modestie des moyens alloués au soutien à l’innovation sociale par exemple, on voit bien qu’il y a une carence à combler, un espace pour innover avec la société plutôt que contre elle. Les modalités de l’innovation sont un sujet peu débattu. Or, nous devons nous interroger pour savoir comment on la fait, avec qui, et selon quels principes et valeurs ?

Le foisonnement d’une innovation homogène où l’acteur public semble plus client que maître d’ouvrage pose une question stratégique et politique forte. C’est à l’acteur public de donner le sens, de trouver les critères pour séparer le bon grain de l’ivraie de l’innovation. Pas sûr que nous en prenions beaucoup le chemin. Le lancement récent par Mounir Mahjoubi, secrétaire d’État chargé du numérique, de Cahiers de doléances à destination des seules startups, afin que le gouvernement puisse trouver les modalités pour faciliter leur activité (minorant et oubliant les doléances du reste de la société) est un signal de plus (de trop) d’un biais qui se renforce dans les politiques de soutien à une seule forme d’innovation.

Ici encore, ici toujours, c’est de diversité dont on a besoin.

Hubert Guillaud et Thierry Marcou, responsable du programme Audacities pour la Fing.

  • Vers une ville numérique ingouvernable (1/2) ? Un foisonnement d?innovation

L’un des constats que dresse le groupe de travail Audacities, lancé par la Fing (éditeur d’InternetActu.net) et l’Iddri, est que le numérique ne rend pas tant que ça la ville réactive au doigt et à l’oeil. L’imaginaire de la ville « propre », smart, intelligente? n’est pas ce qu’on observe sur le (...)

L’un des constats que dresse le groupe de travail Audacities, lancé par la Fing (éditeur d’InternetActu.net) et l’Iddri, est que le numérique ne rend pas tant que ça la ville réactive au doigt et à l’oeil. L’imaginaire de la ville « propre », smart, intelligente? n’est pas ce qu’on observe sur le terrain, expliquent Tatiana de Feraudy et Mathieu Saujot chercheurs à l’Iddri, Institut du développement durable et des relations internationales, Thierry Marcou et Marine Albarède responsables d?Audacities à la Fing.

En fait « plein d’acteurs sont venus agir sur le territoire de manière autonome ». La ville numérique n’est ni centralisée ni pilotée, comme on nous la vend trop souvent dans le concept de Smart City ou de Ville intelligente, au contraire. Si elle concentre un foisonnement d’innovations, force est de constater que l’acteur public, dans ce foisonnement, est devenu un acteur parmi d’autres. Et nombre de nouveaux acteurs ont des impacts sur les domaines traditionnellement réservés à l’action publique, à l’image d’Uber sur le transport, d’Airbnb sur le logement pour ne citer que les exemples les plus connus. La ville est désormais investie, colonisée, d’innombrables services numériques qui se superposent les uns aux autres et cherchent chacun à la transformer, la « disrupter »… Pour ne prendre que l’exemple des services de mobilité, la ville est perturbée à la fois par Uber et Waze, par les voitures autonomes et les services de covoiturage comme Blablacar, par les services qu’elle met en place elle-même via ses délégataires, comme Velib ou Autolib, mais également par leurs nouveaux concurrents indépendants comme Zipcar ou Drivy, Gobeebike et oBike, Cityscoot sans compter leurs innombrables concurrents qui s’annoncent (voir cet article du Monde.fr qui tente d’être exhaustif ou celui du Parisien qui pose la question de la place dans la ville des vélos « flottants » et de leur régulation)?

Comment gouverner la ville numérique ?

Comment dans ce contexte les collectivités peuvent-elles continuer à poursuivre des objectifs collectifs ? Comment rendre possibles une action publique et une régulation ? Et bien sûr, comment imaginer de nouveaux modèles de gouvernance au coeur d’une complexité croissante ?

Les premiers résultats du groupe de travail montrent que partout pointe une inquiétude face à l’ubérisation des services publics, soulignent Mathieu Saujot et Tatiana de Feraudy. Pourtant, cette disruption de la gouvernance urbaine est très variable selon les secteurs. Si elle est très forte dans le domaine des transports et de la mobilité, elle demeure pour l’instant faible en terme d’impact dans le domaine de la participation citoyenne par exemple.

Le foisonnement et la profusion d’innovation dans tous les secteurs pose néanmoins question : comment orienter l’innovation ? Comment favoriser dans ce schéma la transition et la cohérence du rapport numérique et écologie  ? Comment faire converger cette débauche d’innovation ? Après avoir appelé l’innovation de ses voeux, force est de constater qu’elle est désormais partout. Même si tous les services lancés n’ont pas toujours une forte valeur ajoutée…

Les animateurs d’Audacities constatent que, face à ce foisonnement, les collectivités cherchent des leviers pour agir. Elles cherchent à limiter l’éclatement des services, le développement des inégalités territoriales, que risquent de favoriser une innovation débridée, intéressée par son seul profit, sa croissance, son passage à l’échelle. Reste que la capacité d’action des collectivités n’est pas homogène. Elle dépend bien sûr de leurs forces propres : toutes les collectivités, selon leur échelle et leur taille, n’ont pas la même capacité de négociation. Elle dépend de la force des nouveaux entrants : ce n’est pas la même chose de discuter avec une startup locale que de discuter avec un Gafa implanté à l’international. Elle dépend de ses relations avec les délégataires de services publics, des compétences perturbées, des questions d’accès au marché ou à l’espace public nécessitant ou non l’appui des acteurs publics? Et bien sûr de leur capacité d’action réglementaire. Le mille-feuille de l’innovation est loin d’être homogène ! Et le risque également, est de piloter l’innovation seulement avec ceux qui proposent simplement de nouveaux services, au détriment de tous les autres modes de pilotage de l’action publique ou de tous les autres modes d’action innovants. De favoriser le travail avec les startups plutôt que celui avec les associations, les PME ou les citoyens. De favoriser et soutenir les solutions techniques et services des startups ou des plateformes au détriment d’autres acteurs ou d’autres approches. Pour le dire simplement, il est finalement plus facile pour des services de livraison à domicile comme Foodora ou Ubereats de s’implanter quelque part que de trouver les modalités de soutiens à des initiatives différentes, à l’image de CoopCycle (blog). L’innovation en mode startup semble bien plus accessible, lisible et simple à soutenir, notamment parce qu’elle est soutenue par ailleurs, notamment financièrement par des investisseurs qui vont leur permettre d’atteindre des seuils critiques bien plus rapidement que ne le peuvent d’autres formes d’innovation.

Piloter ou animer l’innovation ?

Quels sont donc les leviers d’actions des collectivités, mais également des nouveaux entrants ? Comment l’acteur public définit-il des critères pour soutenir certains projets plutôt que d’autres ? Doit-il piloter l’innovation ? Laquelle et comment ?

Pour en parler, les responsables d’Audacities avaient convié deux intervenants. Clémence Fischer du Numa et Romain Tales d’Etalab. Clémence Fischer (@clemfis) est en charge des programmes Smart City au Numa, qu’elle présente comme un facilitateur d’innovation pour les startups, les organisations et les communautés. Numa fait de la formation, de l’accélération de startups et de l’accompagnement à la transformation numérique. Outre les nombreux événements qu’accueille le lieu parisien, le Numa propose plusieurs programmes d’innovation ouverte multipartenaires liés à la thématique urbaine comme CityMaker et DataCity. DataCity vise à résoudre les problèmes des villes par les données. Ce data solutionnisme s’intéresse à toutes les thématiques de la ville comme la planification urbaine, la logistique, la mobilité, l’énergie, les déchets? DataCity est un programme d’innovation sur 9 mois initié par les collectivités, en l’occurrence la ville de Paris, qui apporte, via ses différentes administrations, des problèmes à résoudre, que startups et grands groupes viennent relever en échafaudant des solutions qui seront testées par les habitants. « Tout l’enjeu consiste à trouver le moyen d’aligner les intérêts des acteurs selon les problèmes et les solutions », explique Clémence Fischer. Tout l’enjeu semble donc de soutenir un écosystème visant à favoriser le rapprochement et la discussion entre grands groupes et startups, une collaboration qui a encore bien des progrès à faire, comme le pointait une récente étude de La French Tech, mais qui exclue de nombreuses autres formes de collaborations qui ne relèvent pas des formes startups instituées. En septembre 2017, DataCity a lancé sa 3e campagne. Pour bien comprendre comment DataCity agit, Clémence Fischer s’arrête sur l’une des solutions imaginées la saison dernière.


Image : Présentation synthétique du programme DataCity par le Numa, tiré de la présentation de Clémence Fisher.

L’un des défis proposés par la ville de Paris était de réduire le temps de présence des bacs poubelles sur les trottoirs. Aujourd’hui, faute de données précises sur le passage des quelques 500 camions de ramassage d’ordures qui circulent chaque jour à Paris, les bacs poubelles peuvent rester plusieurs heures sur le trottoir entre le moment où ils sont sortis pour attendre le camion et le moment où ils sont rentrés après son passage, pas toujours parfaitement régulier. Le fait que toutes les poubelles parisiennes soient équipées de puces électroniques, qui sont lues par les camions automatiquement quand elles sont vidées, est ce qui a permis à Craft.ai, la startup chargée de relever le défi (en partenariat avec les grands délégataires de services publics) de trouver une solution. Depuis les données de récoltes, Craft.ai a construit un modèle prédictif du ramassage (voir les explications de Sylvien Marchienne sur le blog de Craft.ai et notamment l’explication en vidéo) lui permettant de réduire de moitié (46 %) le temps où les poubelles restent sur le trottoir. Durant un mois, une expérimentation a eu lieu sur le 14e arrondissement de Paris pour tester la solution. Un site web et un système d’alerte par SMS ont été mis en place pour permettre aux personnes chargées de sortir et de rentrer les poubelles d’être tenues informées du passage des camions 30 minutes avant son passage, puis une fois que la poubelle a été collectée et en cas de perturbation.

Cela peut sembler impressionnant, mais personnellement je reste un peu dubitatif. Certes, le cas du ramassage des poubelles sur de grandes agglomérations est parfois victime d’aléas de services et de trafic, et celui-ci est loin d’être homogène sur les quartiers, mais ce que j’en constate tous les jours en y habitant, est plutôt la très grande régularité de la collecte (la ville de Paris publie d’ailleurs les horaires de passage des collectes par arrondissements et par type de collecte). S’il y a certes des poubelles qui restent trop longtemps sur le trottoir, cela semble plus tenir de problèmes liés à la disponibilité de ceux qui sont chargés de les sortir et les rentrer, qu’un problème de régularité de ramassage ou d’injonction par SMS. Bref, pas sûr que la solution par l’analyse prédictive de données soit une piste satisfaisante pour régler le problème, qui n’est pas tant dans l’information ou la prédiction que dans la manière dont sont recrutés et rémunérés les agents chargés de sortir et rentrer les poubelles.

Clémence Fischer évoque un autre exemple, issu du programme DataCity (parmi les 12 projets qui avaient été retenus cette année qu’évoquaient Numerama ou LeMonde). La startup danoise Linc, qui propose une solution d’échange et de facturation énergétique pour des communautés locales – un peu sur le modèle du Brooklyn Microgrid lancé par LO3Energy -, a réalisé des entretiens avec des Parisiens pour connaître leur réaction à la possibilité d’acheter et d’échanger de l’énergie renouvelable entre voisins, comme l’autorise désormais la loi. A ce qu’on en comprend, ce projet semble en être resté à une enquête sur une possibilité de service.

Clémence Fischer explique encore que si les défis de DataCity sont portés par la ville de Paris, ce sont les grands groupes et les startups sélectionnées par le Numa qui sont chargés de répondre aux défis. Chacun reste propriétaire de ses apports respectifs : les startups qui apportent des solutions en demeurent propriétaires, les acteurs n’ayant qu’un droit de préférence sur ces solutions. Si les startups reçoivent un soutien financier des grandes délégataires de services publics qui participent, elles sont plutôt motivées par l’accès aux données et les cas d’usages réels. L’enjeu est à la fois de faire de l’acculturation entre les acteurs, via des méthodes innovantes comme le design thinking ou les méthodes agiles, et de mettre en relation des acteurs les uns avec les autres par le biais de démonstrateurs expérimentaux concrets (on parle de POC pour Proof of concept, ou preuve de concept, comme on dit dans le secteur). Quant à savoir si ceux-ci ont été généralisés ou adoptés, Clémence Fischer explique : « On a tout type d’histoire ». Des entreprises et des startups concourent parfois ensemble à des appels d’offres suite à leur rencontre. Pour d’autres, cela leur permet de réorienter leur marché : une startup proposant du transport de marchandise à la demande a pu mesurer par ce biais que le marché qu’elle visait n’était pas assez développé, elle a réorienté son offre pour aider des entreprises à trouver de meilleurs déplacements. Elle souligne que chaque année, le challenge fait un appel à startups qui doivent signaler leur intérêt pour participer. Numa a reçu plus de 200 candidatures au dernier challenge.

Clémence Fischer détaille rapidement deux autres programmes du Numa. Celui de l’accompagnement, avec la ville de Paris, d’un programme d’intrapreneuriat : les startups de ville (qu’avait évoqué il y a plusieurs mois la Gazette des communes). L’enjeu est de proposer un programme d’accompagnement court, sur 5 semaines, pour valider la pertinence à développer des projets. Ici, le Numa propose un accompagnement permettant de comprendre le monde de l’innovation par de la formation, par de la conception de prototype pour définir le « minimum viable product », de connecter les projets à d’autres startups pour contribuer au projet. L’enjeu, à travers ce programme, est de transmettre un état d’esprit aux porteurs de projets provenant des différents services des collectivités : montrer comment prendre des risques, apprendre à aller vite, à pivoter? en utilisant les méthodes d’accélération de startups.

Enfin, Angers IoT est une plateforme d’accélération de startups de l’internet des objets (Internet of things) en projet à Angers où est installé la Cité de l’objet connecté ainsi que tout un écosystème local.

Pour Clémence Fischer l’innovation ouverte que propose le Numa repose sur une approche multipartenariale, qui permet de faire se croiser les compétences et les savoir-faire. Elle repose aussi sur la confiance et l’ouverture, c’est-à-dire le fait d’accepter d’expérimenter et de changer d’approche si besoin. Elle repose également sur le « time-boxing », c’est-à-dire une méthode de gestion de projet qui utilise des délais très courts et des méthodes d’accélération pour réduire les risques. Enfin, elle privilégie le « design thinking« , c’est-à-dire une approche centrée sur l’usager et le problème à résoudre, plutôt que de commencer par la solution.

L’innovation est au croisement de la désirabilité liée à l’usage, de la faisabilité, liée à la technologie et de la viabilité liée au modèle d’affaires, explique encore Clémence Fischer. Sans intelligence collective, le chemin entre les trois n’est pas si simple à tracer, conclut Clémence Fischer.

Effectivement, l’innovation est compliquée et l’on sait que l’animation, le fait de faire se croiser des acteurs très différents, est la pierre angulaire capable de générer des projets. Les POCs sont vus comme le levier des rencontres pour concrétiser le terreau de l’innovation. Les méthodes sont là pour générer de l’efficacité. Reste que cette startupisation de l’innovation semble procéder d’un réductionnisme à une seule et unique forme d’innovation qui pose question (nous y reviendrons dans la seconde partie de ce dossier).

Le levier de l?innovation

Romain Tales (@romaintales), responsable du recensement des données publiques, s’occupe de la dimension data d’Etalab, la mission interministérielle de l’Etat pilotée par le Secrétariat général pour la modernisation de l’action publique (Sgmap). Son travail sur la donnée consiste à l’intégrer au coeur de la réflexion de l’Etat, au même titre que l’usager et le citoyen, afin de rendre les missions de services publics de l’Etat plus efficaces et plus partagées. Si la mission d’Etalab est née avec l’open data (la réutilisation des données publiques), elle s’est diversifiée à la question des données, c’est-à-dire leur circulation et leur traitement – et notamment par le recours de la science des données pour objectiver les politiques publiques via ces données, ce qu’on appelle la data driven policy, c’est-à-dire la politique conduite par les données – et à la question de l’ouverture, en intégrant des enjeux d’open source et d’open government, c’est-à-dire, pour le dire vite, de création de biens communs numériques.

La stratégie d’Etalab autour des données repose sur 3 piliers, rappelle-t-il :

  • la transparence de l’action publique qui permet à tout citoyen de demander des comptes à l’administration et de renforcer ainsi la démocratie. Une transparence qui a permis également de rendre le sujet intelligible par le politique.
  • Créer des ressources pour l’innovation pour développer des services innovants et de la collaboration, à l’image des concours dataconnexions. Des ressources qui permettent de créer de l’appétence pour les données, de construire des indicateurs et de les faire monter en qualité pour y répondre.
  • Enfin, les données permettent de créer un levier d’efficacité de l’action publique, notamment du fait que les administrations soient les premières à les utiliser, à les croiser pour créer par exemple des cartographies pour objectiver la création de services publics, à l’image de la cartographie de la gravité des accidents en France permettant d’améliorer le positionnement des radars.


Image : la stratégie d’Etalab aux frontières de 3 enjeux, extraits de la présentation de Romain Tales.

Pour mener son action, Etalab s’appuie bien sûr sur le cadre légal, notamment via le renouvellement juridique de la loi pour la République numérique promulguée en 2016 qui a entériné le droit d’accès des administrations aux données des autres administrations (qui ne sont plus facturées pour cela, sauf justification de travail à façon), qui a créé un service public de la donnée (via notamment la publication de bases de données très demandées dites données de référence comme la base de données Siren, les données du cadastre, le répertoire national des associations, le répertoire des métiers de Pôle Emploi?) permettant à un très grand nombre d’acteurs d’interagir entre eux. Elle permet également l’ouverture des codes sources et algorithmes des systèmes utilisés par les services publics, à l’image des simulateurs qui permettent de comprendre les modalités de calculs des administrations comme la calculette de l’impôt sur le revenu, ouvert et réutilisable par des tiers. Elle a permis également la publication de données à intérêt social, sanitaire ou environnemental tout comme l’ouverture de données d’énergie, de jurisprudence, de données immobilières, comme de données portant sur les délégations de services publics ou les subventions? obligeant par exemple les délégataires à reverser les données produites dans le cadre de leurs délégations. Elle a permis d’entériner la création de 2 licences : la licence Etalab et la licence ODBL, cette seconde notamment favorisant des conditions de partage à l’identique pour le réutilisateur de données, permettant de se prémunir contre l’appropriation des données. Elle a permis la généralisation de l’initiative « dites le nous une fois » (voir cependant les critiques émises par NextInpact). Elle a permis enfin la mission open data France qui a produit un kit pédagogique et une aide à la normalisation des données ouvertes des collectivités.

Mais le levier d’innovation n’a pas été seulement juridique. Il est aussi technique, à l’image bien sûr de la plateforme data.gouv.fr, qui est à la fois un catalogue de données, mais également une vitrine d?usages de la réutilisation des données publiques ouverte aux contributions. Le code source de la plateforme par exemple est utilisé par le Portugal, le Montenegro et le Luxembourg pour développer leur propre portail de données. Dans les chiffres qui servent à évaluer le succès de la plateforme, on compte bien sûr le nombre de jeux de données mises à disposition (plus de 24 000), mais plus intéressants sont les 1600 réutilisations de données, les 17 000 utilisateurs, les 1100 organisations qui y ont ouvert un compte et les 1200 discussions initiées.


Image : les succès d’Etalab en chiffre.

Reste que le programme d?Etalab ne pouvait en rester à un enjeu technique. Il fallait que la structure puisse accompagner plus avant la réutilisation et l?usage des données. C?est ce qui conduit à développer le programme des startups d?Etat, lancé en décembre 2013 (voir notre article « Mais comment passe-t-on des startups d’Etat à l’Etat plateforme ? »). L?enjeu a été de développer un moyen d?innover pour les projets eux-mêmes, en proposant des modalités différentes du fonctionnement administratif traditionnel, explique Romain Tales. Les startups d?Etats sont des équipes de 2 à 4 personnes financées par une administration et totalement autonomes qui ont pour objectif de répondre à un problème clairement identifié, lié au besoin des usagers. L?initiative a permis de transformer le développement de projets informatiques dans l?Etat. En utilisant bien des méthodes comparables à celles qu?exposait le Numa, l?enjeu est de fournir un POC en 6 mois, puis à chercher à le pérenniser en recherchant une structure administrative d?accueil.

Parmi les emblèmes de ces startups d?Etat, figure bien sûr MesAides, qui propose un formulaire unique pour que les gens en situation de précarité puissent connaître les aides auxquels ils peuvent avoir accès. Une quinzaine d?aides sont aujourd?hui disponibles sur le site. MPS, Marché public simplifié, permet de faciliter la candidature à certains types de marchés publics, via un simple numéro de Siret. La bonne boîte qui indique les entreprises qui recrutent et la bonne formation qui évalue les formations en terme de retour à l?emploi effectif? sont d?autres exemples. 9 startups ont déjà été reprises par des administrations.

Autre exemple d?innovation, le programme d?entrepreneurs d?intérêt général (EIG) : une promotion annuelle de 11 personnes recrutées sur 10 mois pour résoudre des défis d?intérêt général proposés par des administrations, qui identifient en amont des « irritants métiers » ou des objectifs prospectifs. Au menu des défis de la seconde édition de ce programme, on trouve par exemple une demande de la Direction régionale des entreprises, de la concurrence, de la consommation, du travail et de l’emploi de Bourgogne-Franche Comté pour détecter les entreprises en difficulté pour mieux les accompagner… ou un autre proposé par la direction numérique pour l?éducation du ministère de l?Education nationale pour améliorer la réussite et l?orientation avec les données des élèves en apprentissage.

Reste, à ce qu?on en comprend, que tous les projets de l?Etat ne sont pas en mode startups, même s’ils se réfèrent aux méthodes que les startups utilisent. Comme nous le soulignions déjà, la métaphore de la startup est un moyen d’inscrire de nouvelles méthodes dans le panel des actions de l’Etat.

Etalab offre également des ressources en terme d?analyse de données sous forme de prestation pour les administrations qui portent des projets de data science. Ainsi, pour la Direction des services d?achat de l?Etat, Etalab a réalisé une analyse de données sur la consommation énergétique des bâtiments, à partir de données de facturation réelle. L?enjeu était de mieux comprendre la consommation d?énergie pour négocier les achats et détecter des anomalies (comme de fortes consommations le week-end). L?analyse a permis de renégocier les contrats de plusieurs bâtiments et de réaliser 800 000 euros d?économie.


Image : l’analyse de la consommation énergétique des bâtiments de l’Etat.

La méthode Etalab fait école. Le ministère des Affaires sociales a passé au printemps une convention avec le Sgmap pour que ce dernier l?accompagne dans la mise en place de démarches innovantes jusqu?à la création de leur propre incubateur. A l?image des startups de Ville lancés par la Ville de Paris, les incubateurs et les programmes d?accompagnement et d?accélération de projets sont en passe de devenir une méthode qui s?étend des projets privés aux projets publics. Le modèle de l’incubation de projet fait école dans l’administration, dans les agences de l’Etat, dans les collectivités territoriales et jusqu’au niveau européen. Si elle a des côtés stimulants, ce marketing de l’innovation n’est pas sans poser des questions (voir : Mais comment passe-t-on des startups d’Etat à l’Etat plateforme ? et Non, la France n’est pas une start-up !), notamment en regardant les formes d’innovation qu’il délaisse.

C’est que nous tenterons de regarder dans la suite de ce dossier.

Hubert Guillaud

La 2e partie du dossier : Le modèle de la startup en ses limites

  • Tout ce que vous avez toujours voulu savoir sur CRISPR/Cas9

CRISPR est sans doute LA grande révolution technologique de ces dernières années, mais ce n’est pas toujours facile de comprendre en quoi elle consiste. La petite vidéo suivante, réalisée par la Singularity University, a le mérite de clarifier les choses en moins de deux minutes. Bien sûr, elle est en (...)

CRISPR est sans doute LA grande révolution technologique de ces dernières années, mais ce n’est pas toujours facile de comprendre en quoi elle consiste. La petite vidéo suivante, réalisée par la Singularity University, a le mérite de clarifier les choses en moins de deux minutes. Bien sûr, elle est en anglais, mais il y a des sous-titres (anglais également, mais très aisés à comprendre).

MAJ : Nature a également réalisé une vidéo assez courte pour expliquer CRISPR/Cas9.


  Chaines INFO  
 Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People 

Dernière modification: le   NEToo ™  Tous droits réservés • ©2004/2006 • CNIL n°892206