NEToo - métamoteur francophone pour tout trouver plus rapidement
  Web Actualités Blogs Voyages Images Vidéos Musique Annuaire  

Trouvez toutes les dernières nouvelles et dépêches publiées en interrogeant simultanément des multiples sources sur le web

Recherchez dernières actualités en temps réel 

   Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People   
 Dernières actualités multimédia sur métachercheur francophone NEToo
Le Parisien - High-Tech    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 23/02/2017 15:14:41

  • Le Parisien a testé. La planche à dessin Slate d'iskn encore plus connectée

Elle a le charme désuet des «écrans magiques» des années 70, où les gribouillis pouvaient s'effacer d'un simple tour de bouton. Mais sa technologie, qui fait l'objet d'une vingtaine de brevets, est d'un...

  • Instagram lance les photos et vidéos multiples

Le réseau social de partage de photos permet dorénavant de partager jusqu'à 10 photos ou vidéos dans une seule publication en balayant du doigt le post. Cette nouvelle fonctionnalité permet la publication...

  • Espace : la capsule Dragon apporte des macarons à Thomas Pesquet dans l'ISS

Après un premier rendez-vous manqué, mercredi, en raison d'un problème de GPS, la capsule non-habitée Dragon, lancée par la fusée Falcon 9 dimanche du Centre spatial Kennedy en Floride (Etats-Unis), a...

  • L'immense Apple Park va ouvrir ses portes en avril 2017

Apple annonce que son tout nouveau campus, le très ambitieux Apple Park, accueillera ses premiers employés de la marque à la pomme en avril prochain. L'ensemble s'étendra sur une superficie de 70 hectares...

  • Les smartphones et les objets connectés se vendent maintenant par milliards

En préambule du Mobile World Congress, qui se tiendra à Barcelone (Espagne) du 27 février au 2 mars 2017, l'institut Gartner publie ses tous derniers chiffres concernant les ventes de smartphones et d'objets...

  • Des nouveaux iPad et iPhone dès le printemps 2017

Comme d'habitude absent du prochain Mobile World Congress à Barcelone (Espagne), Apple devrait annoncer quelques nouveaux produits dans une keynote planifiée à la mi-mars 2017.Selon le site japonais Mac...

  • Mobile World Congress : les tendances qui ont marqué les éditions précédentes

Le Mobile World Congress de Barcelone (Espagne) constitue le rendez-vous incontournable de la téléphonie mobile et des objets connectés chaque année, fin février. Les dernières années ont été particulièrement...

  • Viva Technology 2017 sur de bons rails

C'est au palais de l'Élysée et en présence du président de la République François Hollande que Publicis et le Groupe Les Echos ont officiellement lancé la 2e édition de Viva Technology, l'événement international...

  • Apple investit dans la reconnaissance faciale

En faisant l'acquisition de la start-up israélienne RealFace, spécialisée dans la reconnaissance faciale, Apple se dote d'une nouvelle technologie plus aboutie que ce qu'elle propose actuellement pour...

  • Vers une nouvelle génération de casque à réalité augmentée Hololens à l'horizon 2019

Alors que les premiers exemplaires de ses lunettes à réalité augmentée Hololens sont disponibles à la vente depuis l'an dernier, essentiellement à l'attention des développeurs, Microsoft plancherait déjà...


InternetActu.net    tous les flux RSS disponibles  xml  Cacher définitivement ce flux  
dernière mise à jour: 23/02/2017 08:11:34

  • Trump, nouveau visage de la Singularité ?

Et si la Singularité Technologique, cet hypothétique remplacement de l’être humain par une Intelligence Artificielle, prenait le visage de Donald Trump ? C’est ce que se demande Cathy O’Neil (@mathbabedotorg), l’auteure du fameux Weapons of maths destruction (voir nos articles), dans un article pour son nouveau blog sur Bloomberg justement intitulé (...)

Et si la Singularité Technologique, cet hypothétique remplacement de l’être humain par une Intelligence Artificielle, prenait le visage de Donald Trump ? C’est ce que se demande Cathy O’Neil (@mathbabedotorg), l’auteure du fameux Weapons of maths destruction (voir nos articles), dans un article pour son nouveau blog sur Bloomberg justement intitulé « Donald Trump is the Singularity »…

Pour elle, en effet, l’homme orange à la houppette se conduit comme une intelligence artificielle, et pas la plus sophistiquée, en plus :

« Trump, c’est de la pulsion pure, sans programme ni croyance permanente, et en cela il est semblable à un algorithme de machine learning. Ce serait une erreur de croire qu’il possède une stratégie, au-delà de faire ce qui fonctionne, ce qui veut dire, en un sens strictement étroit, ce qui est susceptible d’attirer l’attention sur lui.

En tant que candidat présidentiel, Trump s’est fait largement connaître pour ses meetings animés, polémiques et chaotiques. Ses discours étaient comparables aux marches aléatoires des statistiques : il essayait quelque chose, voyait comment la foule réagissait et si c’était un succès – défini par une réaction forte, pas nécessairement positive – il essayait de nouveau au meeting suivant, avec encore plus de provocation. »

(…) « C’est exactement la manière dont un algorithme est entraîné. Il commence par être neutre, comme une ardoise vide en quelque sorte, puis « apprend » lentement en fonction de la direction qu’il prend en navigant à travers ses données d?entraînement. Les données d?entraînement de Trump avant l’élection étaient ses meetings et Twitter, mais ces jours-ci il obtient sa dose quotidienne à partir de trois sources : ses conseillers proches tels que Steve Bannon, les médias comme Fox News, et, bien sûr, son feed Twitter, où il évalue les réactions aux nouvelles expérimentations. »

Au final, explique-t-elle, « Nous avons l’équivalent d’un réseau neuronal dynamique à la tête de notre gouvernement. Il est dépourvu d?éthique et nourri par une idéologie biaisée de type alt-right. Et, comme la plupart des IA opaques, il est largement irresponsable et crée des boucles de rétroaction et des externalités horribles ».

  • Le paradoxe du bonheur

En psychologie, on parle de plus en plus du flow, ou de la zone, cet état de conscience dans lequel l’esprit est naturellement concentré sur une activité, et qui est peut être la clé de notre bien-être. Mais encore faut-il savoir quelles sont les activités qui peuvent nous conduire à (...)

En psychologie, on parle de plus en plus du flow, ou de la zone, cet état de conscience dans lequel l’esprit est naturellement concentré sur une activité, et qui est peut être la clé de notre bien-être. Mais encore faut-il savoir quelles sont les activités qui peuvent nous conduire à expérimenter cet état de « flow ». Big Think nous présente à ce sujet un papier paru dans le Journal of Positive Psychology, signé Parker Schiffer et Tomy-Ann Roberts, intitulé Le paradoxe du bonheur : pourquoi ne faisons-nous pas ce qui nous rend heureux ?. Dans cet article (malheureusement derrière un paywall) les deux chercheurs, lors de deux études, ont conduit un sondage sur 300 personnes, leur demandant ce qu’il pensaient de différentes activités, et lesquelles ils effectuaient le plus souvent. Le questionnaire mentionnait autant des passe-temps passifs, comme écouter de la musique, que d’autres plus actifs, susceptibles d’engendrer le « flow », comme pratiquer un art. Ces « activités de flow », précisent les chercheurs, « impliquent des règles claires, un défi, et un gros investissement en énergie ».

On a demandé aussi aux participants de noter, parmi ces activités, lesquelles sont susceptibles de produire la sensation la plus durable de plaisir. Et la plupart des participants ont reconnu qu’il s’agissait de celles qui exigeaient le plus d’efforts. Mais dans le même temps, les répondants ont reconnu qu’ils se laissaient bien plus souvent aller à des activités plus passives, car plus faciles à démarrer.

Comment se sortir de ce « paradoxe du bonheur », qui nous pousse à favoriser des activités moins gratifiantes au long terme ? Les chercheurs se hasardent à quelques réponses ; par exemple si on veut faire de la gym dans un centre de fitness, mieux vaut choisir celui-ci près de chez soi, et préparer ses vêtements de sport la veille. Si on veut peindre, il vaut mieux de même avoir son matériel immédiatement disponible avant la séance : bref éviter les efforts dus à la préparation pour entrer le plus vite possible au coeur de l’activité. Les chercheurs conseillent aussi la pratique de la méditation avant de se lancer? Des débuts de réponse, mais dans leur papier, les deux auteurs espèrent que d’autres recherches viendront compléter cet arsenal de « bonnes techniques ».

  • Les salariés peuvent-ils être autonomes ?

L’injonction à l’autonomie, à inviter les employés à travailler en « mode start-up », leur permettant d’organiser eux-mêmes leur travail, de décider librement? ne serait rien d’autre qu’un miroir aux alouettes, rapporte Le Monde. Pour Martin Richer, co-auteur d’un rapport sur la qualité de vie au travail pour la fondation progressiste Terra (...)

L’injonction à l’autonomie, à inviter les employés à travailler en « mode start-up », leur permettant d’organiser eux-mêmes leur travail, de décider librement? ne serait rien d’autre qu’un miroir aux alouettes, rapporte Le Monde.

Pour Martin Richer, co-auteur d’un rapport sur la qualité de vie au travail pour la fondation progressiste Terra Nova, les enquêtes montrent plutôt que l’autonomie au travail régresse. Les études de la Dares sur les conditions de travail confirment cette tendance. La taylorisation, la démultiplication des process visant à encadrer la performance salariale et la progression des normes seraient au coeur de cette évolution. Sans compter que la France a un management traditionnellement très hiérarchique.

Trop souvent, l’autonomie n’est qu’une injonction sans ressources en temps ni en formation, une forme de « dévoiement du lean management et du concept de « l’entreprise libérée » ». Or, l’autonomie nécessite de pouvoir organiser son travail librement, d’influer sur les décisions et bénéficier d’un dialogue social… Comme de pouvoir se tromper.

  • Peut-on améliorer les critères des crédits ?

Les systèmes qui attribuent un score de crédit reposent souvent et avant tout sur l’historique de leurs clients. Or, comme le soulignait Frank Pasquale dans son livre Black Box Society, ceux-ci sont surtout opaques aux utilisateurs. L’analyse de grande quantité de données pourrait permettre peut-être d’améliorer l’évaluation du risque client (...)

Les systèmes qui attribuent un score de crédit reposent souvent et avant tout sur l’historique de leurs clients. Or, comme le soulignait Frank Pasquale dans son livre Black Box Society, ceux-ci sont surtout opaques aux utilisateurs. L’analyse de grande quantité de données pourrait permettre peut-être d’améliorer l’évaluation du risque client (voir A qui les algorithmes prêteront-ils de l’argent ?). Reste que pour l’instant, ces innovateurs n’ont pas vraiment apporté la preuve que leurs approches aient considérablement élargi le crédit, estime un rapport (.pdf) du National Consumer Law Center (NCLC) américain. Au contraire, prendre en compte de nouvelles données induit plutôt de nouveaux risques, comme le fait de prendre en compte l’origine ethnique, le sexe ou la religion dans la décision de consentir un prêt, comme s’en inquiétait déjà Pasquale. Zest Finance estime avoir résolu ce risque avec sa nouvelle plateforme, ZAML. En appliquant un modèle leur permettant de croiser des données de crédit à des choses très différentes comme la façon dont vous naviguez sur le web ou vous faites des recherches sur un moteur de recherche, Zest a modélisé un système apprenant lui permettant d’évaluer un score de crédit depuis des éléments qui n’ont rien à voir avec la capacité à rembourser, mais qui lui seraient corrélé.

Pour Andrew Ng, le célèbre responsable scientifique de Baidu, qui utilise la technologie de Zest pour accélérer le développement de services financiers, Baidu a constaté que les emprunteurs qui se livrent à des comportements à risque en ligne (comme jouer à des jeux de hasard, se rendre sur des sites web qui vendent des produits illicites?) ont une probabilité plus élevée de ne pas rembourser leurs prêts. Selon Zest, leur système apprenant démultiplie les points d’entrée afin qu’aucun ne joue un rôle prédominant? contrairement aux 50 critères existants aujourd’hui pour déterminer un crédit. Selon eux, la démultiplication des points d’entrée serait un bon moyen de minimiser les biais et les critères discriminants. Pour Chi Chi Wu, avocat à la NCLC, il est nécessaire que ces systèmes parviennent à expliquer leurs décisions aux emprunteurs comme aux autorités de régulation, et d’observer si les modèles sont vraiment prédictifs et pas seulement corrélés.

  • La ville intelligente n?aime pas les pauvres !

En préparation du prochain OuiShare Fest sur le thème des villes qui aura lieu du 5 au 7 juillet 2017 à Paris, l’équipe de Ouishare, la communauté « dédiée à l’émergence de la société collaborative », organisait une première table ronde sur un sujet d’autant plus provocateur que posé en forme d’affirmation : (...)

En préparation du prochain OuiShare Fest sur le thème des villes qui aura lieu du 5 au 7 juillet 2017 à Paris, l’équipe de Ouishare, la communauté « dédiée à l’émergence de la société collaborative », organisait une première table ronde sur un sujet d’autant plus provocateur que posé en forme d’affirmation : « la Smart City n’aime pas les pauvres ! » Vérifions !

Les critiques du concept mouvant de ville intelligente sont de plus en plus nourries. Si le numérique et la technologie ont bien investi les villes, force est de constater que ce n’est pas selon le scénario que prévoyait la Smart City, qui était plutôt celui d’un contrôle et d’une optimisation des fonctions de la ville par les grands acteurs de la ville. Comme le souligne le nouveau programme de travail de la Fing sur le sujet, « AudaCities », cette transformation n’a pas tant été le fait des acteurs dont la ville est le métier – comme les pouvoirs publics ?, mais le fait d’initiatives citoyennes ou entrepreneuriales allant d’Open Street Map à Uber ou Airbnb, favorisant à la fois des formes de détournement et de concentration. « Au lieu d?imaginer un numérique qui rendrait la ville plus aisée à gouverner, il faudrait donc partir du principe inverse : que le numérique rend d?abord la ville bien plus ingouvernable demain qu?hier, avec sa multitude de nouveaux acteurs et notamment des disrupteurs au positionnement nouveau, une circulation de l?information et des circuits de décision plus complexes que jamais? »

Comme le soulignait très bien Clément Pairot sur Ouishare Mag, la tension que provoque une forme de technologisation de la ville semble incompatible avec sa diversité sociale. En envisageant le citoyen comme un produit et un consommateur, elle génère à la fois de la dépendance et de l’exclusion. Pour Diana Filippova, responsable de OuiShare Paris, et animatrice de ce débat, la technologisation de la ville n’est-elle qu’un « solutionnisme appliqué au vivre ensemble » ? Si la technologie a toujours modelé la ville, à l’image de la voiture, cette intégration est toujours une sur-intégration, comme si la technologie envahissait toujours tout le réceptacle urbain. La Smart City pousse cette tendance encore plus loin et génère en retour des critiques toujours plus nourries. Tant et si bien que l’enjeu désormais est de savoir si celle-ci ne serait pas un programme contre la démocratie et la diversité, visant à repousser les pauvres toujours plus loin. La technologie renforce-t-elle la dichotomie entre la ville et ses marges, à l’image de la cartographie du vote des dernières élections américaines, opposant villes démocrates et campagnes républicaines, villes intégrées et marges reléguées ?

Est-on déjà dans la ville intelligente ?

« Quand on parle de la ville intelligente, on se demande toujours si l’on parle du futur ou d’aujourd’hui », constate Dominique Alba, architecte et directrice générale de l’Atelier parisien d’urbanisme (Apur), une agence de prospective de Paris et de sa métropole. Or, la ville ne cesse d’évoluer et ses habitants apprécient en fait qu’elle évolue sans cesse. Pour elle, la Smart City semble plutôt un moyen d’avoir prise sur cette évolution, d’avoir un moyen d’action sur quelque chose qui nous échappe beaucoup. Pour Dominique Alba, on a besoin de comprendre notre territoire et de le réinventer sans cesse. Reste que l’action publique demeure souvent limitée. Quand la maire de Paris annonce vouloir produire 10 000 logements par an dont les 3/4 sous forme de logements sociaux, cela représente très peu par rapport aux 1,3 million de logements disponibles à Paris. L’appel à projets Réinventer Paris, fait bouger les lignes, mais ne concerne qu’une poignée de sites, ne touche qu’une infime superficie des 105 km2 de la ville. Le problème de la Smart City est que l’instrumentation des bâtiments ou des flux de circulation n’est qu’une réponse technologique au besoin de donner une capacité de partager les espaces d’une manière humaine.


Image : Programme photographié par Christophe Ducamp.

Aujourd’hui, l’Apur s’interroge elle aussi sur le nouveau « métabolisme urbain », c’est-à-dire sur comment les nouveaux services urbains transforment la ville, à l’image d’Uber qui propose un service dans des territoires qui en étaient quasiment dépourvus. Ces nouveaux outils font passer de nouveaux messages. Ils permettent de faire du service qui n’existait pas avant. Cela pose des questions fortes à l’acteur public. Qui va produire l’équipement public de demain ? Comment mieux le partager ? Comment les politiques publiques peuvent-elles s’en emparer ?

Vers des villes alternatives ?

Paul Citron est le directeur du développement de Plateau urbain, une association qui propose d’utiliser temporairement des immeubles vacants. Cette « agence d’occupation temporaire » est notamment à l’origine des Grands Voisins (vidéo), qui de 2015 à fin 2017 a réinvesti le site de l’ancien hôpital Saint-Vincent-de-Paul dans le 14e arrondissement de Paris, propriété de l’Assistance publique Hôpitaux de Paris (APHP). La ville de Paris et l’APHP ont proposé à l’association Aurore d’utiliser le site désaffecté de l’hôpital pour créer un espace d’occupation temporaire en attendant le lancement d’un projet immobilier d’écoquartier de 600 logements (dont 50 % de logements sociaux) dont les travaux doivent débuter à la fin de l’année. L’association de lutte contre l’exclusion qui a développé un projet d’hébergement d’urgence de 700 places sur le site s’est associé à Plateau urbain pour compléter l’occupation du site par une mise à disposition d’espaces d’activités pour des acteurs économiques et sociaux venant du monde de l’économie sociale et solidaire, qui peinent parfois à trouver leur place dans la ville classique. Cette occupation au prix des charges a également associé l’association Yes We Camp pour animer les espaces publics du site.


Vidéo : les Grands Voisins.

Pour Paul Citron, ce collectif a formé un laboratoire urbain pour tester de nouveaux modèles de mise à disposition de l’immobilier, tester son modèle social, son acceptabilité… Ce projet emblématique a connu un beau succès, mais pour Paul Citron, le fait qu’il s’arrête fin 2017 ne doit pas faire naître de regrets. « L’occupation temporaire est un modèle intéressant pour réfléchir aux projets urbains. Ça permet à la fois de donner une valeur d’usage à des bâtiments qui n’en ont plus et ça permet d’être dans d’autres modèles économiques et d’échanges. Les bâtiments, comme la technologie, sont des outils, qui dépendent de ce qu’on en fait. Dans une ville très « économisée », marchande, dont on ne sortira pas demain, l’occupation temporaire permet d’ouvrir des parenthèses, de regarder ce qui pourrait être réintégré… C’est parce que c’est temporaire qu’on a réussi à faire tout cela aux Grands Voisins. C’est parce que c’était temporaire qu’il y a eu une telle énergie, un tel niveau de participation et de bénévolat. » Si les Grands Voisins avaient dû durer 10 ans, ils n’auraient peut-être pas fait tout ce qu’ils ont fait en un an et demi. Un laboratoire de ce type permet de se déprendre de la dépendance à la propriété pour s’intéresser à l’usage. Pour Paul Citron, cette expérience n’est pas une expérience de gentrification ou de boboisation… Le projet a tout de même apporté bien plus de diversité sociale qu’on en trouve habituellement au sud du 6e arrondissement de Paris.

Tout l’enjeu bien sûr consiste à savoir si cette expérience est reproductible. Plateau urbain a développé une plateforme pour faire se rencontrer porteurs de projets de l’économie sociale et solidaire à la recherche d’espaces et propriétaires et gérants d’espaces inutilisés du Grand Paris. En 3 mois, plus de 1500 porteurs de projets se sont inscrits sur la plateforme à la recherche de 90 000 m2 d’espaces temporaires (alors que les Grands Voisins n’en proposaient que 15 000). L’outil en tout cas a déjà permis de rendre visible le besoin et permet d’entamer la discussion avec des propriétaires… Au final, pour Paul Citron, les technologies adaptées à la ville permettent donc aussi de servir des propos politiques, comme l’occupation des villes elles-mêmes.

Pour l’architecte Constantin Petcou, cofondateur de l’atelier d’architecture autogéré et coordinateur du projet R-Urban (vidéo), la Smart City est déjà là, mais ses effets posent plus de problèmes qu’ils n’en résolvent. La numérisation nous pousse à des usages consuméristes et rend finalement la ville beaucoup moins accessible à certains d’entre nous, comme le montrent les usages différenciés des guichets automatiques, selon les niveaux sociaux ou générationnels… Le modèle consumériste proposé aide à consommer la ville, mais pas à la produire. Elle rend les gens eux-mêmes plus dépendants et moins résilients. C’est ce que tente d’inverser Constantin Petcou en promouvant des réseaux de résilience qui reposent à la fois sur des pratiques de solidarité et des pratiques écologiques, pour proposer un rapport nouveau entre production et consommation. Pour lui, afin d’éviter la création d’une société discriminante, la ville doit être partagée, les gens doivent pouvoir décider de leur futur. C’est seulement dans ce cadre que le numérique est un outil parmi d’autres.

Les actions de Constantin Petcou s’inspirent d’André Gorz selon qui, afin de dépasser les crises actuelles (climatiques, ressources, économiques, financières, démographiques?), nous devons « produire ce que nous consommons et consommer ce que nous produisons ». Or, trop souvent ce n’est plus le cas. « Mc Donald ne produit pas ce qu’il consomme et ne consomme pas ce qu’il produit ». C’est cette industrialisation qui créée une crise de valeur. Pour Petcou, il faut réintroduire de l’intelligence à petite échelle pour créer les conditions d’un équilibre entre ce qu’on produit et ce qu’on consomme.

Interpellé par Diana Filippova, Emmanuel Schneider, responsable de l’accélération de la numérisation territoriale chez Cisco, reconnaît que le thème de ce débat a interpellé chez l’équipementier. Pour Cisco, qui fournit du matériel réseau pour les villes et les territoires depuis des années, la Smart City n’est pourtant pas un nouvel Eldorado. Si les grands de la techno ont eu des approches solutionnistes autour de la Smart City, imaginant des villes du futur plutôt déshumanisées, force est de constater que la technologie ne résout pas les problèmes humains d’organisation. Il est nécessaire de trouver un équilibre. L’outrance de l’automatisation a des impacts positifs (comme la connectivité ou la collaboration) et négatifs (la fin du travail, la ville qui décide automatiquement pour vous?). Pour Diana Filippova, le risque effectivement est celui d’une perte de contrôle, que la décision soit déjà intégrée dans le design? dans le dessein de la Smart City, comme les technologies sont déjà intégrées dans les villes.


Image : de gauche à droite, Paul Citron, Constantin Petcou, Diana Filippova et Dominique Alba dans l’ancien amphithéâtre de médecine des Grands Voisins, via LeLabOSC, le compte twitter du Laboratoire d’exploration urbaine lancé par Ouishare et le groupe Chronos.

Mais où sont les pauvres ?

« Mais si on parle beaucoup de la Smart City, force est de constater qu’on parle assez peu des pauvres », rappelle Paul Citron. A qui sont réservées ces solutions technologiques ? En ville, les réseaux concernent-ils tout le monde, même les plus pauvres? Quels vecteurs de démocratisation proposent ces nouveaux outils ?

Dominique Alba se fait un peu mordante, en soulignant que le réseau de fibre optique se déploie à l’Ouest de Paris, mais pas à l’Est, hormis notamment autour de Plaine Commune. Les opérateurs ne s’intéressent pas aux gens qui n’ont pas les moyens de se raccorder. Le risque, c’est le développement d’inégalités territoriales au regard de l’accès lui-même. La Smart City n’aime pas la pauvreté sociale. Qu’offre-t-on comme services au bout de la fibre aux gens, à part d’être chez eux avec leur bouquet de chaîne télé ? On propose des produits finis à des habitants qui n’ont pas d’espace pour bricoler. Ouvrir une capacité de résistance, de résilience, dans un monde qui semble en proposer de moins en moins, c’est certainement ce qui explique le succès de l’urbanisme transitoire que propose le plateau urbain. Reste que si elle ouvre des possibilités, elle ne résout pas le risque de développement et de renforcement de l’inégalité territoriale.

Mais aucune commune n’installerait de salle de shoot si on laissait la décision au seul acteur local, rappelle Diana Filippova. Oui, mais le nimby, l’opposition locale, a toujours existé, alors que la question de l’inégalité du déploiement du réseau de fibre, elle est nouvelle. Enfin, ces questions de répartition et d’égalité se sont posées avec l’eau ou le chauffage? Cela signifie que les politiques publiques vont s’emparer de ces nouvelles questions, estime Dominique Alba. Les données vont permettre de comprendre et de mettre en place des solutions politiques.

Autre problème que pose le numérique par exemple, c’est le développement de pic de consommation énergétique. Si la consommation d’électricité immobilière à Paris a diminué du fait des efforts faits en matière d’isolation ou de construction, dans les faits, la consommation d’électricité s’est envolée, notamment du fait du développement de nouvelles formes de consommation électrique en partie liée aux nouvelles technologies. Demain, les voitures autonomes et les voitures électriques nous assurent de connaître de nouveaux pics de consommation. Et ce sont des sujets sur lesquels nous devons nous préparer et travailler collectivement, assure la directrice de l’Apur.

Paul Citron, lui, veut rester optimiste. Notamment parce que ce sont les technologies qui permettent à des projets comme les Grands Voisins d’exister. « La Smart City n’aime pas moins les pauvres que la Stupid City ! Elle n’est pas plus pauvrophobe que la ville classique. On avait imaginé, peut-être naïvement que la technologie pourrait démocratiser les choses, améliorer la diversité. Mais elle ne remplace pas le besoin de politique »

Pour Constantin Petcou, il faut néanmoins se poser la question du modèle écologique, économique et social de la Smart City. Les industriels du Bauhaus ont créé des phalanstères, des cantines d’entreprises? Il y avait une dimension sociale dans les entreprises d’hier. Est-ce encore le cas des entreprises d’aujourd’hui ?

« L’intégration et la mobilité n’ont-ils pas deux objectifs différents ? », questionne Diana Filippova, en se demandant si la piétonnisation des villes ne relègue pas ceux qui sont déjà bloqués dans leurs enclaves, loin de la ville?

« Ne caricaturons pas », lui répond Dominque Alba. La fermeture des voies sur berges à Paris ne créé pas d’inégalités. Ceux qui éprouvent des difficultés à traverser Paris sont peu nombreux, cela concerne moins de 30 000 véhicules par jour. Par exemple, les données montrent qu’il y a plus de 400 km de bouchons dans Paris. Or en moyenne, on compte 1,1 personne par voiture. Il suffirait qu’on mette 1,2 personne par voiture pour éliminer ces 400 km de bouchons. Et cela, on peut certainement le réaliser grâce aux outils de la Smart City, si on les met au service de choses intégratives plutôt qu’au service du contrôle.

Pour Paul Citron, l’enjeu est bien de reprendre le contrôle de son smartphone, de sa smartcar comme de sa smartcity. Ce n’est qu’en en prenant le contrôle qu’on en fera des outils plus équitables et plus responsables. Pour Constantin Petcou, une ville intelligente, c’est d’abord une ville où il y a du lien social, où on en prend soin, où on le développe. Pour une personne dans le public, le citoyen est trop encore perçu comme un usager de la ville que comme un créateur de la ville. La technologie peut autant aider au contrôle qu’à la décentralisation. Mais elle nous aide aussi à devenir acteurs et créateurs des lieux que l’on habite. Et ce sont ces usages-là qu’il faut encourager !

Hubert Guillaud

PS : durant l’édition du texte, Usbek & Rica a publié son compte rendu de l’événement, à lire en complément.

  • Vers l?intelligence étendue ?

Intervenant dans un débat en ligne du New York Times autour des enjeux de l’IA, Joi Ito (@joi), le directeur du Media Lab du MIT, expliquait que même très bien intentionné, l’usage des technologies peut mal tourner. « La majeure partie de la recherche en IA se concentre sur l’apprentissage profond : (...)

Whiplash couvertureIntervenant dans un débat en ligne du New York Times autour des enjeux de l’IA, Joi Ito (@joi), le directeur du Media Lab du MIT, expliquait que même très bien intentionné, l’usage des technologies peut mal tourner. « La majeure partie de la recherche en IA se concentre sur l’apprentissage profond : des ingénieurs « entraînent » des machines pour augmenter l’intelligence collective de nos gouvernements, de nos marchés et de nos sociétés ». Pour lui, plus que d’intelligence artificielle (IA), on devrait parler d’intelligence étendue (IE) pour évoquer cette forme appelée à devenir dominante de l’IA. Les algorithmes qui façonnent l’IE sont entraînés par des humains et peuvent de ce fait propager les mêmes biais qui ruinent la société, les perpétuant sous couvert de « machines intelligentes », à l’image des biais qui affectent les systèmes de police prédictive. Joi Ito dresse un constat d’échec. En 2003, il pensait qu’un internet ouvert jouerait un rôle significatif pour démocratiser nos sociétés et promouvoir la paix. Mais force est de constater que cela n’a pas suffi.

Pour le directeur du Media Lab, le risque est qu’il se passe la même chose avec le développement de l’Intelligence étendue. « Il est absolument essentiel pour nous de développer un cadre éthique pour nous permettre d’évoluer à l’ère des machines intelligentes ». Nous avons besoin d’une science informatique capable de créer des technologies qui ne soient pas seulement intelligentes, mais aussi socialement responsables.

Devons-nous nous adapter à l’évolution technologique ?

En compagnie du journaliste de Wired, Jeff Howe, Joi Ito vient de publier Whiplash : How to survive our faster future (qu’on pourrait traduire par « Coup de fouet : comment survivre à l’accélération du futur », le site du livre, @whiplashfuture). Un livre dans lequel, nous explique le Boston Globe, les humains doivent apprendre à s’adapter pour s’adapter eux-mêmes à l’évolution technologique. C’est ce que nous avons fait par exemple avec la grammaire cinématographique. Désormais, chacun d’entre nous en connaît le vocabulaire. Nous savons tous décoder un plan rapproché lors d’une scène cruciale. Mais au tout début du cinéma, il n’y a pas si longtemps, nul ne savait comment utiliser des plans pour raconter une histoire. Ils étaient alors des images qui bougeaient plus que des films. Pour comprendre ce qu’il se passait, il nous a fallu inventer un vocabulaire nouveau et nous l’avons parfaitement intégré. Pour Joi Ito, nous commençons à peine à maîtriser les nouvelles formes d’organisation sociales rendues possibles par une puissance informatique sans limites et la communication instantanée en réseau.

Pour aider les gens à comprendre les enjeux des transformations à venir, les deux auteurs établissent 10 principes pour survivre à l’accélération du futur (qui se veulent pareil à la grammaire des plans du cinéma pour décoder les transformations à venir) :

  • désobéir plutôt que se conformer ;
  • tirer plutôt que pousser (pull over push) ;
  • proposer des boussoles plus que des cartes ;
  • favoriser l’apprentissage plus que l’éducation ;
  • la résilience plutôt que la résistance ;
  • le risque plutôt que la sécurité ;
  • la pratique plutôt que la théorie ;
  • la diversité plus que la capacité ;
  • les systèmes plutôt que les objets ;
  • l’émergence plutôt que l’autorité.

Ces principes, Joi Ito les abordait déjà en 2012. Ils sont d’ailleurs devenus depuis les principes du Media Lab lui-même (voir les explications qu’il en donnait en 2014).

Des principes pour répondre à notre incapacité à comprendre l’évolution à venir ?

Mais comprendre les évolutions à venir n’est pas si simple. Les plus grands inventeurs eux-mêmes ont très souvent fait preuve d’une grande incapacité à comprendre les implications de leurs innovations. Thomas Edison lui-même pensait que son phonographe servirait surtout aux hommes d’affaires pour dicter leur correspondance et il mit du temps à admettre que son usage ne serait pas celui-ci. C’est Eldridge Johnson qui en réalisa le vrai potentiel en inventant en 1901 l’industrie musicale en faisant signer un premier disque au célèbre ténor Enrico Caruso.

Pour Ito et Howe, l’enjeu dans un monde toujours plus complexe est donc de comprendre ce qu’on ne comprend pas de prime abord. Et ce alors que « nos technologies ont devancé notre capacité, en tant que société, à les comprendre ». Nos outils cognitifs nous laissent mal équipés pour comprendre les implications profondes des avancées technologiques, d’où la nécessité d’avancer des principes plus adaptés parce que l’accélération du futur à tendance « à démolir tout ce que l’on pouvait croire aussi rigide que des règles ». Ces principes permettent d’utiliser, disent-ils en prenant une métaphore certainement trop facile, le « nouveau système d’exploitation du monde »… Un nouvel OS qui n’est pas une nouvelle itération de celui que nous utilisions jusqu’à présent : il tourne sur de nouvelles logiques, fondées notamment sur la loi de Moore qui dit que tout ce qui est numérique devient plus rapide, moins cher et plus petit à un niveau exponentiel, et fondées sur l’internet, c’est-à-dire sur une transformation radicale de nos modes de communication. Pour Howe et Ito, ces changements technologiques induisent qu’il faut désormais prendre en compte : l’asymétrie (c’est-à-dire que les coûts et les bénéfices ne sont plus proportionnels à la taille : les changements viennent désormais des plus petits) ; la complexité (qui dépend de l’hétérogénéité, des réseaux, de l’interdépendance et de l’adaptation ) ; et l’incertitude (qui est la conséquence des facteurs précédents). Le réchauffement climatique par exemple ne signifie pas que toutes les régions vont connaître une augmentation de leurs températures, mais surtout que la plupart vont connaître des événements météorologiques extrêmes. C’est surtout dû au fait que la montée des températures introduit plus de variabilité dans les modèles climatiques, les rendant plus volatiles. Le réchauffement est le début d’une plus grande incertitude météorologique,et par interdépendance, d’une plus grande incertitude sur notre avenir lui-même.

En fait, pour Ito et Howe, contrairement à ce que nous annoncent l’IA et les Big data, l’avenir semble de moins en moins prévisible, il faut donc apprendre à devenir plus agile. C’est ce que Joi Ito applique au Media Lab : dans un monde plus ouvert, plus complexe, plus en réseau, le Media Lab doit devenir toujours plus antidisciplinaire.

Mais pouvons-nous vraiment nous adapter ?

Le livre de Ito et Howe navigue d’un exemple à l’autre pour magnifier sa démonstration. Dans cette ode à l’innovation ouverte, multiple, bienveillante et agile, Ito et Howe subliment toujours notre incroyable adaptation à l’innovation et au progrès. Dans leur conclusion par exemple, ils livrent une véritable ode à l’IA. Pour eux, notre avenir repose sur une forme d’intrication entre l’homme et la machine. Si nous sommes une part de l’intelligence collective, nos machines, qui s’intègrent toujours plus avant dans nos réseaux et sociétés, deviennent une extension de cette intelligence et nous conduisent à ce qu’ils appellent l’intelligence étendue (IE). Un avenir de co-évolution entre humains et machines, où les normes sociales viennent développer l’IA, où la société est mise dans une boucle de rétroaction, comme l’évoque Iyad Rahwan, responsable du groupe des coopérations évolutives au MIT.

Reste que malgré ses côtés stimulants – parce qu?iconoclaste – Whiplash n’arrive pas vraiment à devenir le manuel d’utilisation du XXIe siècle que les auteurs ambitionnent. Le pas de côté qu’ils nous invitent à faire n’est pas à la hauteur de l’évolution cognitive que la complexité inextricable du monde annonce. C’est ce que pointe, mieux que moi, l’écrivain de Fantasy, Richard Scott Bakker dans la longue lecture critique de Whiplash qu’il livre sur son blog. Pour lui, notre compréhension du monde dépendant des invariances de notre environnement. « Plus la technologie transforme nos écologies cognitives, plus nous devrions nous attendre à ce que nos intuitions échouent ». Le pas de côté auquel nous invitent Howe et Ito ne signifie pas pour autant que nous allons renoncer à notre mode de pensée et à nos intuitions propres à notre fonctionnement cognitif. Comprendre la complexité du monde ne signifie pas pour autant par exemple que nous n’allons pas embrasser des solutions inefficaces pour résoudre des problèmes difficiles, comme voter pour des gens qui proposent des solutions simples à des problèmes complexes. En d’autres termes, pour Bakker, la question des problèmes politiques et sociaux auxquels nous devons faire face repose sur un plafond de verre cognitif que l’IA ne suffira pas à déplacer ou élargir. Or, Howe et Ito semblent imaginer un monde où la capacité cognitive humaine semble illimitée et sans contrainte, alors que les êtres humains, individuellement comme collectivement, ne sont peut-être pas capables de s’adapter à toutes les circonstances. Pour le dire autrement, tant que la cognition humaine est ce qu’elle est, les humains, même aidés des machines, sont peut-être incapables de transcender le système. Au final, pour Richard Bakker, ce manuel d’utilisation du XXIe siècle ressemble plutôt à un manuel de suicide de la civilisation, car il n’est pas sûr que les pistes qu’il propose soient capables de dépasser nos limites intrinsèques. Favoriser l’émergence plus que l’autorité n’est pas nécessairement suffisant pour mettre à bas l’autorité.

Pour Ito et Howe, la caractéristique du XXIe siècle est que nous serions passés de systèmes simples à des systèmes complexes, mais pour Scott, c’est oublier que nous sommes l’une des choses les plus compliquées que nous connaissions dans l’univers et que celui-ci n’est pas si simple que cela. Pour lui, ce que décrivent Ito et Howe, c’est que nos outils eux-mêmes se complexifient, comme le pointe, à sa manière, Yuval Harari. La simplicité de nos outils physiques a longtemps limité les dommages que nous pouvions causer à notre environnement, comme la simplicité de nos outils cognitifs a limité les dommages que nous pouvions causer à notre capacité cognitive, explique Scott. « A mesure que la puissance et la complexité de nos outils physiques intensifient les dommages causés à notre environnement physique, la puissance et la complexité de nos outils cognitifs » risquent d’intensifier les dommages à notre « écologie cognitive », estime Scott. Les principes que Ito et Howe veulent faire passer en pertes et profits, comme l’autorité, la conformité, le push, la sécurité? sont des principes dont il n’est pas si simple de se débarrasser. L’agilité et la résilience sont peut-être de bons principes dans un monde incertain, mais ils ne se suffiront pas à eux-mêmes. Cette ode à regarder le monde d’une manière décalée peine finalement à dire ce qu’il en reste. L’ode à de nouveaux principes pour commander le futur ne ramènera pas hélas la simplicité de l’ère du contrôle-commande !

Hubert Guillaud

  • L?informatique quantique vers la maturité ?

Il y a du nouveau sur le front du seul ordinateur quantique commercialement disponible, le très controversé D-Wave. Tout d’abord, la société a sorti un nouveau modèle, le 2000Q qui contient pas moins de 2000 qubits… Et annonce déjà la mise au point d’un prochain système possédant 4000 qubits. Autre (...)

Il y a du nouveau sur le front du seul ordinateur quantique commercialement disponible, le très controversé D-Wave. Tout d’abord, la société a sorti un nouveau modèle, le 2000Q qui contient pas moins de 2000 qubits… Et annonce déjà la mise au point d’un prochain système possédant 4000 qubits. Autre nouveauté, D-Wave met en open source un outil pour développer des applications quantiques, Qbsolv. Faut-il croire que l?informatique quantique est en train d’atteindre la maturité ? Les controverses autour de D-Wave, qui durent maintenant depuis des années, sont-elles closes ?

Qu’est ce qu’un ordinateur D-Wave ?



Avant toute chose, rappelons le principe de base d’un ordinateur quantique (on trouvera des explications plus élaborées ici) : alors que les machines classiques reposent sur la notion de bits, qui peuvent être à 0 ou 1, les ordinateurs quantiques utilisent des qubits, des « bits quantiques » susceptibles de prendre à la fois les valeurs de 0 et de 1. Ils sont comme le « chat de Schrödinger« , qui est à la fois mort et vivant. Si les ordinateurs quantiques intéressent tellement les chercheurs, c’est parce qu’ils permettraient des calculs en parallèles extrêmement rapides sur des problèmes où il s’agit de trouver une solution dans un vaste espace de possibilités. En revanche, ils ne seraient pas spécialement plus efficaces quand il s’agit d?exécuter une tâche linéaire.

Pour l’instant (à l’exception de D-Wave, justement) les ordinateurs quantiques appartiennent plutôt au domaine de l’expérimentation.

Les systèmes élaborés par D-Wave reposent sur une technologie particulière nommée le quantum annealing ou, en français, « recuit simulé quantique« . Concrètement, on utilise une série d’aimants arrangés en forme de grille, nous explique Ars Technica. Les champs magnétiques interagissent les uns avec les autres, ce qui oblige les aimants à constamment changer leur orientation. On commence par envoyer beaucoup d?énergie dans le système, entraînant un fort mouvement des aimants, puis, petit à petit, on baisse le niveau d?énergie, jusqu’à ce que la grille atteigne un état stable, qui est censé représenter la solution au problème cherché.

Pendant longtemps, les ordinateurs D-Wave ont suscité l?ironie et la critique. Certains ont même affirmé qu’il ne s’agissait pas d’ordinateurs quantiques du tout. Depuis quelque temps, cependant, les persiflages ont tendance à se montrer plus discrets. Certaines recherches effectuées par Google et la NASA ont en effet montré l?existence de réels effets quantiques au sein des machines et une supériorité réelle des systèmes D-Wave sur les ordinateurs classiques dans certains types de calcul précis. En utilisant un D-Wave hébergé à la NASA et le mettant en compétition avec un ordinateur classique, les chercheurs ont affirmé obtenir un résultat cent millions de fois plus rapide avec le processeur quantique.

Mais même cette expérience a été contestée. En effet certains ont objecté que cette importante différence de temps de traitement était due au fait que la machine traditionnelle n?avait pas utilisé un algorithme optimisé pour sa structure, mais avait au contraire eu recours à un algorithme analogue à celui employé par D-Wave, ce qui bien évidemment privilégiait ce dernier?

Jusqu’ici, comme le souligne Scott Aaronson dans Nature, on a toujours trouvé un algorithme classique capable de traiter plus rapidement un problème donné qu’avec un procédé quantique. Mais aujourd?hui cela a peut-être changé, précise encore Nature : avec le 2000Q, les chercheurs de D-Wave affirment avoir prouvé que leur calcul quantique s’est montré capable d’aller 2600 fois plus vite pour résoudre un problème que n’importe quel algorithme classique actuellement connu. A noter que cette recherche, publiée en janvier dans ArXiv, n’a pas encore été soumise à une évaluation par les pairs.

Pour résumer, il semble bien admis aujourd’hui que D-Wave vend d’authentiques ordinateurs quantiques, sauf que la question de savoir s’ils sont vraiment plus efficaces que leurs équivalents classiques demeure? « Mais cette incertitude, souligne Nature, « n?empêche pas le nombre des utilisateurs d’augmenter. Au mois de septembre plus de 100 scientifiques ont assisté la première conférence D-Wave pour les utilisateurs, qui s’est tenu à Santa Fé, au Nouveau Mexique. »

Et certains commencent à trouver des applications précises. Mark Novotny, physicien à l’université Charles à Prague, travaille par exemple sur les échanges en ligne et la cybersécurité. Selon Nature, son équipe a découvert que les machines D-Wave se montraient plus efficaces pour repérer d?éventuelles attaques. A noter d’ailleurs, souligne la Technology Review, que le nouveau modèle 2000Q a été acquis pour la modique somme de 15 millions de dollars par une société de cybersécurité, Temporal Defense Systems.

Pour autant, la technologie employée par D-Wave possède de véritables limites, même pour les applications de sécurité. Tout d’abord, contrairement à d’autre technologies d’informatique quantique plus expérimentales et non commercialisées, la méthode du « recuit simulé quantique » n’est pas capable d?implémenter tous les types d’algorithmes, notamment les plus connus, ceux de Shor (qui permet de factoriser les grands nombres et donc de « casser » les clés cryptographiques basées sur lesdits grands nombres) et de Grover (qui sert à chercher des informations dans une très large base de données). Autre souci : la limitation de l?interconnexion entre les qubits. Actuellement chaque qubit à l?intérieur de la machine est connecté à 6 voisins. Augmenter le nombre de connexions accélérait grandement la puissance de calcul, et, nous dit Nature, D-Wave est en train de travailler à cela avec son processeur de cinquième génération : ce qui entraînera une refonte complète de l’architecture du système pouvant permettre, à terme, d?atteindre les 10 000 qubits.

Qu’en déduire sur les performances des D-Waves ? Selon Chris Lee d’Ars Technica, l’ordinateur de D-Wave ne sera pas en mesure de résoudre toutes les catégories de problèmes, notamment en raison de la limitation de l’interconnexion. Un constat qui montre que nous sommes donc encore loin d’un calculateur universel. Cependant, poursuit-il « je pense que l’architecture convient à de nombreux problèmes que j’aurais souhaité ne pas voir résolus. En fait, j’aime avoir une connexion sécurisée avec ma banque, et je suis inquiet de voir que le calcul quantique semble être en avance sur les algorithmes de chiffrement. » (Une inquiétude qui m’étonne un peu, puisque, on l’a vu, les D-Wave ne peuvent utiliser l’algorithme de Shor pour casser les clés cryptographiques ; pourquoi donc la connexion sécurisée avec la banque pourrait elle être mise en danger ?)

Le calcul quantique ouvert à tous


La seconde annonce concerne la mise en open source de Qbsolv, un outil permettant aux développeurs de créer leurs programmes pour D-Wave, sans, précise Wired, nécessiter de compétences en physique quantique – ce qui ne signifie pas que QBsolv soit en quelque manière compréhensible pour nous autres non-initiés !

Pourquoi cette mise en open source ? La raison n’en est pas seulement charitable ou idéologique, nous explique SingularityHub. Car si les machines quantiques commencent à exister, reste à savoir les utiliser. Il est nécessaire pour cela de laisser un grand nombre de développeurs jouer avec les programmes pour permettre l?élaboration de nouveaux algorithmes, permettre de nouveaux usages. Bien sûr, pour faire tourner ces nouveaux programmes dans un environnement optimal, il faut louer du temps de calcul sur un D-Wave, mais sinon, il est toujours possible de les exécuter à l’aide d’un simulateur. Ce sera bien sûr bien plus long mais permettra au moins de vérifier que son code fonctionne.

Wired souligne que Qbsolv n’est pas le premier outil du genre, et cite un autre exemple, Qmasm, qui permet également de développer des programmes sur D-Wave sans avoir une connaissance approfondie du hardware (dans InternetActu, nous avons mentionné aussi une série d’outils de développements quantiques ou de simulateurs, tels QCL ou Quipper, mais ces systèmes ne fonctionnent pas avec la technologie D-Wave).

Un autre avantage fourni par l’open source, qui pourrait paraître paradoxal, serait de permettre aussi le perfectionnement des machines, souligne encore SingularityHub. « Ce fait surprenant est dû à la relation symbiotique entre le logiciel et le matériel, une boucle de rétroaction se traduisant par une progression exponentielle des deux. Meilleur est le logiciel, plus grande sera la motivation d’innover sur le matériel. Meilleur est le matériel, plus grande est la motivation d’innover en matière de logiciel « 

La chose est bien sûr vraie pour l’informatique en général, mais peut-être plus encore dans un domaine pionnier comme le calcul quantique : on est en effet un peu au stade des années 50 dans ce domaine, l’époque ou le hard et le soft étaient fortement associés, le temps ou les bugs étaient étaient de véritables cafards qui parasitaient l?intérieur des ordinateurs. Il est encore loin le temps où les progrès du logiciel et ceux du matériel quantiques seront complètement décorrélés. Dans le monde quantique, on est encore comme aux premiers temps de l’informatique traditionnelle !

Rémi Sussan

  • Le temps d?écran n?est pas la bonne clé éducative

Sur son blog, le psychologue et psychanalyste Yann Leroux (@yannleroux) pointe une étude menée par le psychologue Christopher Ferguson sur la gestion du temps d’écran par les parents. Dans son étude (.pdf) publiée par Psychiatric Quarterly, le psychologue montre que la limitation du temps d’écran des enfants n’est pas très (...)

Sur son blog, le psychologue et psychanalyste Yann Leroux (@yannleroux) pointe une étude menée par le psychologue Christopher Ferguson sur la gestion du temps d’écran par les parents. Dans son étude (.pdf) publiée par Psychiatric Quarterly, le psychologue montre que la limitation du temps d’écran des enfants n’est pas très efficace et peut même se révéler contre-productive. Tout d’abord le chercheur montre que la durée du temps d’écran des enfants ne favorise aucun problème psychologique. Si les parents limitent souvent le temps d’écran de leurs enfants parce qu’ils pensent que les écrans favorisent des comportements problématiques, Ferguson estime que ce n’est pas la bonne clé pour agir.

« La restriction du temps d?écran est souvent mise en place par les parents parce qu?elle est facile à mettre en place et à évaluer. Les systèmes de contrôle parental permettent de bloquer l?utilisation d?une tablette ou d?un ordinateur à des plages horaires précises. Mais cela n?est pas une bonne manière de limiter les comportements problématiques des adolescents. Cela crée par ailleurs dans la famille des problèmes et des tensions supplémentaires. Les parents doivent alors passer beaucoup de temps à gérer ces problèmes ce qui les rend moins disponibles pour traiter les difficultés qu?ils visaient initialement. Une méthode plus efficace consiste à accompagner l?adolescent dans la manière dont il utilise les écrans et à l?aider à construire les littératies qui lui permettront d?évaluer les médias qui passent dans ses flux d?information, à gérer les problèmes comme le vol d?identité et les agressions en ligne. »

  • La réidentification toujours plus forte

L’affaire des logs d’AOL, en 2006, nous avait déjà montré que la réidentification des utilisateurs depuis leur historique de navigation était possible. Des chercheurs de Stanford et de Princeton sont allé encore plus loin, rapporte The Atlantic (voir leur article de recherche .pdf). Ils ont demandé à 400 volontaires de (...)

L’affaire des logs d’AOL, en 2006, nous avait déjà montré que la réidentification des utilisateurs depuis leur historique de navigation était possible. Des chercheurs de Stanford et de Princeton sont allé encore plus loin, rapporte The Atlantic (voir leur article de recherche .pdf). Ils ont demandé à 400 volontaires de leur permettre d’accéder à leur historique et ont utilisé celui-ci pour retrouver leurs comptes Twitter. Ils y sont arrivés à 72 %. En fait, les chercheurs sont partis du fait que les internautes ont tendance à cliquer sur des liens que partagent leurs amis et amis d’amis sur les médias sociaux, pour parvenir à les retrouver.

Bon, tout le monde n’a pas accès à votre historique de recherche, fort heureusement? notamment si vous utilisez des bloqueurs de publicité ou des systèmes pour renforcer la confidentialité de votre navigation. Mais, cette prévention risque de se révéler inopérante? Les publicitaires, via les traceurs et les cookies, collectent une partie de votre historique, mais n’ont pas encore trouvé le Graal leur permettant de recouper cette information de navigation à de véritables profils d’utilisateurs. Or, en couplant les historiques de navigation dont ils disposent (même parcellaires) avec des données provenant de médias sociaux, comme Twitter, cela pourrait leur permettre de faire des corrélations leur permettant une réidentification des internautes. Pour les chercheurs, ce que montre leur recherche, si on la pousse à son extrême, c’est que la confidentialité n’est pas possible pour les utilisateurs de Twitter, et ce, même s’ils ne tweetent pas eux-mêmes. La navigation privée ne constitue pas non plus une véritable défense contre cette possibilité de réidentification, car elle n’empêche pas le traçage par les services web. Pour Jessica Su, co-auteur de l’étude : vous pouvez être ré-identifié seulement en parcourant et en suivant des personnes, même si vous ne partagez rien. Le cauchemar de la plus totale transparence avance à grand pas.

  • Pourquoi les projets libres sont-ils si moches et si peu ergonomiques ?

Sur son blog, le graphiste et directeur artistique Julien Dubedout, liste les raisons qui expliquent pourquoi le design et l’open source font rarement bon ménage, c’est-à-dire, pour le faire simple, pourquoi les projets open source sont moches et peu ergonomiques en terme d’interfaces utilisateurs. Pour lui, le principal problème vient (...)

Sur son blog, le graphiste et directeur artistique Julien Dubedout, liste les raisons qui expliquent pourquoi le design et l’open source font rarement bon ménage, c’est-à-dire, pour le faire simple, pourquoi les projets open source sont moches et peu ergonomiques en terme d’interfaces utilisateurs.

Pour lui, le principal problème vient de la façon même dont s’organisent et se conçoivent ce type de projets. Le « mode de fonctionnement des projets open source ne se prête pas à la conception et à la stratégie ». Le monde du libre est le royaume du pull request, c’est-à-dire de la contribution et du commentaire : un mode de contribution itératif. Le problème est que les contributions créatives se retrouvent jugées par des développeurs plutôt que par d’autres designers.

Pour Julien Debedout, les projets libres doivent intégrer très en amont le design, afin de définir un positionnement et une stratégie pour le projet et pas seulement les reléguer à des simples questions ergonomiques ou d’interfaces utilisateurs que l’on traite à la fin d’un projet pour le rendre plus « joli ». Les bonnes volontés ne suffisent pas. Organiser la gouvernance et en construire les modalités demeure là encore primordial.


  Chaines INFO  
 Top News |  Monde |  Europe |  Politique |  Economie |  Bourse |  Société |  Culture |  Sciences |  Sport |  People 

Dernière modification: le   NEToo ™  Tous droits réservés • ©2004/2006 • CNIL n°892206