BlockChain : révolution ou fausse bonne idée ?

Share Button

Oui, au vu de l’engouement qu’a déjà généré cette technologie, du nombre d’articles ou d’ouvrages dithyrambiques sur le sujet, des dizaines de start-up créées autour de cet objet et pour certaines ayant déjà levé des millions, oser poser cette question est une hérésie. Pourtant, en creusant un peu, on est en droit de s’interroger sur la pertinence et la pérennité du procédé.

Commençons par revenir sur la définition du concept. On le résume à un ensemble de mécanismes logiciels permettant la validation et la mémorisation sécurisée de transactions entre pairs. Dans l’esprit, il vise à se passer du « tiers de confiance » auquel on fait habituellement appel dans des relations contractuelles bilatérales, en considérant que l’infrastructure et son fonctionnement sécurisé serviront de garant. Notons déjà que sous cette assertion, le concept n’est pas si nouveau que ça : c’était déjà la vocation des Réseaux à Valeur Ajoutée (RVA) des années 80.

Sur le plan de sa genèse et de son architecture, l’approche « BlockChain » est l’enfant naturel de plusieurs procédés :

  • L’internet d’abord, et son protocole sous-jacent, le TCP/IP. Sans lui, pas de relais public entre les nœuds, pas de neutralité dans les flux transportés, pas d’effacement des distances les séparant, le tout pour un coût quasi-nul ;
  • Les algorithmes en « peer to peer », très en vogue la décennie précédente (réseau eDonkey, Bittorrent…), qui ont banalisé le stockage distribué et dynamique entre nœuds distants ;
  • Les procédés cryptographiques, notamment le SHA de la NSA, qui permettent de garantir l’intégrité des données véhiculées.

En résumé, une blockchain est un réseau d’ordinateurs – les nœuds – agissant selon un protocole défini en vue de certifier et stocker les paquets qui lui sont soumis.

Le cas historique du Bitcoin

On le rappelle souvent, le Bitcoin, est la première manifestation grandeur réelle d’une blockchain. En effet, même si sa motivation première était annoncée financière, comme une réponse anti-système bancaire, cette notion s’appuie d’abord sur une chaine de blocs. En pratique, cette monnaie correspond à la récompense que méritent les nœuds qui prennent en charge les traitements de validation et de stockage des blocs. Ces opérations, surnommées « minage », impliquent de lourds calculs. Car il ne s’agit pas simplement d’enregistrer des données mais de s’assurer de leur consistance et de leur unicité dans la chaine de blocs existante. Et si on parle de récompense, c’est qu’il y a compétition. Cette compétition est d’ailleurs le fondement même du concept : un ensemble de compétiteurs « honnêtes » sera toujours plus fort qu’un hacker isolé malhonnete. C’est la paradigme fondateur tel qu’initié Satoshi Nakamoto[1], le père du Bitcoin. Pour faire simple, l’introduction d’un nouveau bloc est systématiquement mise en concurrence entre les nœuds actifs, le plus rapide à répondre sera le seul à gagner ses Bitcoins. A ce jour, le vainqueur de cette compétition se voit « créditer » de 12,5 Bitcoins, ou une fraction de cette somme quand il est regroupé en pool : à près de 9000 dollars l’unité à l’heure où est écrit cet article, on comprend la multiplication des mineurs.

Ce minage, et plus largement tous ces mécanismes délégués de validation et stockage des données, sont les premiers griefs portés contre ces technologies :

  • Il prend du temps car il fonctionne nativement de manière asynchrone. Parce qu’il est impensable de réaliser une prise en charge « en temps réel » à un niveau planétaire, des transactions, c’est une valse régulière qui est mise en œuvre. Il faut s’imaginer un lancer de dés toutes les 10 minutes (fréquence définie pour le Bitcoin), correspondant au rythme d’introduction des nouveaux blocs. Conséquences : selon un récent rapport, le réseau Bitcoin serait à peine capable d’opérer 80 transactions par minute quand les réseaux de paiement Visa et Mastercard en traiteraient 100000.
  • Il est gourmant en temps de calcul : l’algorithme sous-jacent, devant déterminer l’empreinte numérique (le « hash ») correspondant à la chaine de bloc actuelle ne cesse par nature de se complexifier et doit faire appel, pour rester compétitif, à des machines de plus en plus puissantes ;
  • Il est par extension très dispendieux en énergie. D’abord de manière intrinsèque : le calcul du hash étant de plus en plus complexe, il consomme de plus en plus de temps machine. Mais la mise en concurrence pour faire ce traitement produit aussi un énorme gâchis : des milliers de compétiteurs tentent leur chance mais il n’y a qu’un seul élu… Le site Bitcoin.fr chiffrait en mars 2019 la consommation du réseau Bitcoin à une quarantaine de milliards de kWh par an, soit la production de 5 à 6 centrales nucléaires. Ce n’est pas anodin…

D’aucuns diront que ces limitations techniques sont parfaitement maîtrisées et résolues au fil de l’eau – comme construire des fermes de minages en Sibérie- d’autres défauts sont bien souvent ignorés.

Idéalisation des ressources sous-jacentes

Le premier écueil est de considérer le coût quasi-nul des flux internet. C’est ce qu’on appelle la neutralité du net. Un octet vaut un octet, quelle qu’en soit la nature, et il sera transporté sans ségrégation ni surcoût, de Paris à Lille, comme de Londres à Pekin. On le sait, tout le monde en profite : c’est ce qui a fait le succès du web, premier consommateur de flux. Mais cette neutralité pourrait un jour être remise en cause, au regard du fort déséquilibre qu’elle a pu générer dans la répartition de la valeur ajoutée (en « ROI ») entre propriétaires de réseaux et producteurs de contenu. Quand on sait que 20% des flux IP sur le réseau français étaient en 2018 constitués des streaming de Netflix, sans que cela lui coûte quoi que ce soit en infrastructure, on comprend l’agacement d’opérateurs comme Orange ou SFR en France. On investit en réseau pour que d’autres se gavent [2]…. Il en est de même pour la blockchain. Dans sa conception, on part du principe que le réseau est invisible, comme un substrat naturel et évidant. Qu’en sera-t-il lorsque, voulant récupérer leur part du gâteau, les réseaux supports demanderont une commission ou un droit de passage ? le modèle économique interne et autogéré serait largement mis à mal. On peut imaginer que, faute d’être en incapacité totale d’en percevoir des revenus, ils bloquent ces flux, rendant totalement inopérant le procédé.

Le deuxième écueil qui vient à l’esprit est l’idée qu’il y a mutualisation équitable et honnête entre pairs de la prise en charge des transactions. C’est en grande partie la raison d’être du procédé : nous seulement, on rejette l’idée d’un organisme central de validation mais on suppose que la force de calcul de multiples nœuds « honnêtes » sera toujours supérieure à celle d’un nœud « malhonnête ». Ainsi, on comprend qu’inspirés par les services peer-to-peer historiques, les concepteurs voyaient plein de petits ordinateurs répartis ici ou là se répartir la charge de manière homogène et quasi démocratique, comme si chaque humain sur terre allait stocker chez lui une ou quelques pages de ce grand registre que constituerait la blockchain. C’est idée semble hélas en partie faussée. La surenchère aux calculs pousse à la concentration des moyens et le minage est peu à peu vampirisé par quelques gros opérateurs, investissant massivement dans des « fermes de minage ». Comme, la solidité du concept tient dans la répartition large des prises en charges, quand ils seront une poignée à phagocyter l’infrastructure, on sera loin de l’idéal originel…

D’autres griefs, moins techniques mais tout de même réels, apparaissent.

Le premier est celui de la supposée transparence du paradigme initial. L’intérêt de la blockchain est de pouvoir se passer d’intermédiaire, qu’il soit public, comme une administration ou un notaire, ou privé comme une banque, dans une relation contractuelle. C’est indubitablement utile sur le plan pratique et quotidien pour gagner du temps mais cela s’avère insuffisant dans l’absolu. Tout est fait pour garantir l’intégrité de la transaction mais par forcément celle de ses acteurs. J’en veux pour preuve que je peux payer une rançon en Bitcoin au pirate qui a brouillé mon ordinateur, en utilisant son identifiant de wallet, avec la garantie certaine qu’il la reçoive mais sans savoir qui je paie… On est là au cœur d’une des limites fortes du procédé : on confond ainsi intégrité de la communication entre pairs, garantie par tous les mécanismes sous-jacents du protocole et qualité de l’échange entre interlocuteurs, incluant leur authentification. Or, sans celle-ci, nombre de transactions resterons obscures et donc sujettes à caution.

Le second est sa solidité, évidemment un peu « surjouée ». Le procédé de blockhain est largement vendu comme une technologie sûre et solide. Cette idée peut être rapidement battue en brèche. La principale cause est sa nature même : ça reste un procédé logiciel, avec un algorithme qui peut être challengé comme n’importe quel autre logiciel. Notre monde ne manque pas de petits génies en capacité de relever le pari, l’histoire l’a déjà prouvé. Le récent cas de Ethereum est signifiant : des hackers ont réussi à « braquer » – ne me demandez pas comment – le réseau en s’appropriant une partie des Ether en circulation (15% dit-on). Ce n’est pas tant l’exploit de hacking qui est intéressant ici mais plutôt le débat qui a animé la communauté sur le devenir de cette partie volée de la masse monétaire globale existante, partie bien évidemment pas stockée dans un coffre-fort caché sous une montagne secrète mais bien noyée au milieu de toutes les transactions. L’option de les rendre « sans valeur » a été retenue, sans grande conviction. Il faut dire que ça affecte un caractère intangible de la blockchain : ce qui est inscrit est forcément vrai, le faux ne peut y exister, ou alors ça remet en cause tout l’édifice…


[1] Auteur du livre blanc décrivant le procédé : un mystère demeure sur sa réelle existence (personne ?, groupe ?)

[2] Dans le cas de Netflix, sa position l’a amené à trouver des arrangements « win-win » avec ces opérateurs…

Share Button

Microsoft Windows 1999, Google Android 2019, 20 ans pour rien.

Share Button

L’annonce de Google de ne plus fournir Android à Huawei, suite de la décision récente de Donald Trump, remet en lumière sa position dominante sur le marché des smartphones. Une situation bien semblable à celle de Windows au tournant des années 2000.

Commençons par un petit état des lieux : Androïd occupe près de 86% des smartphone, l’iOS d’Apple, 13% d’après des chiffres d’IDC. Pour ceux qui s’en souviennent, ce sont les mêmes parts de marché qu’occupaient respectivement Windows et MacOS en 1999. A l’époque, cela avait valu à la firme de Bill Gates de multiples procès, pour abus de position dominante et concurrence déloyale, en Europe comme dans son propre pays. Il faut dire que Microsoft avait acquis en à peine deux décennies, grâce à son système d’exploitation Windows, une position hégémonique sur les micro-ordinateurs et l’informatique en général. Maître sur le système d’exploitation, dominant sur les outils bureautiques, et généreux fournisseur d’un navigateur depuis décrié : Internet Explorer. Pour mémoire, c’est Netscape, éditeur historique des premiers navigateurs (aujourd’hui Mozilla), qui avait lancé la bataille : en offrant gratuitement son navigateur, Microsoft lui coupait l’herbe sous le pied en l’empêchant de fait de vendre le sien… Tiens, tiens, encore une similitude avec l’actualité : Qwant, l’éditeur français d’un moteur de recherche concurrent à Google, reproche à ce dernier la fourniture gratuite du navigateur – Chrome – ET du moteur de recherche par défaut – Google – aux fabricants de smartphone Androïd. En fait, à défaut de dire « gratuite », il faudrait dire « non payante », puisque Google explique demander 40$ par licence pour modifier cet état par défaut, ce qui a de quoi dissuader les fabricants de s’ouvrir à d’autres outils…

Une jurisprudence discutable

Si l’on reste dans la référence, on aura retenu que Microsoft après des années de procès, a fini par être blanchi : l’internet, malgré la bulle de 2000, était une révolution en marche qui allait balayer une grande partie de ces sujets. Je me souviens d’une réflexion qui circulait chez les geeks de l’époque et qui disait : « l’avantage avec le web, c’est que personne ne sait que t’es sous Mac ». En pratique, la couche applicative du web, annihilait l’importance du système d’exploitation, Windows, MacOS, Linux, on s’en fichait, le navigateur jouant le rôle de frontal normalisateur.

Pour revenir à l’intention initial du propos – Huawei et Androïd – , ce qui indispose dans cette affaire, c’est que ça démontre l’extrême pouvoir qu’a acquis un seul opérateur privé – Google en l’occurrence – sur le devenir de son écosystème. Exactement ce qui était reproché il y a 20 ans à Microsoft. Pourtant, peu de bruits autour de cette affaire, ses sous-jacents et ses implications : quelques procès ici ou là, quelques millions de dollars réclamés par l’Inde, jusqu’à 4,5 milliards d’euros tout de même pour l’Europe, mais pas de quoi ébranler l’entreprise, comme si une jurisprudence Microsoft était établie. A quoi bon se lancer dans des procès sans fin quand la seule finalité serait un démantèlement pur et simple du fauteur et de son offre. Il faut se rappeler que l’une des solutions envisagées pour Windows en son temps par des élus américains était sa nationalisation pur et simple, devenant un standard fédéral et propriété de la nation américaine…Dans un pays libéral comme les Etats Unis, on imagine rapidement l’incongruité de cette solution. Ajoutez à cela un certain chauvinisme de ces mêmes élus qui finirent par reconnaître qu’il n’était pas bon d’embêter comme ça une entreprise américaine, on comprend l’extinction des poursuites. Quand on voit Donald Trump avoir récemment la même réaction à propos de Google, déplorant les attaques que la firme subit et plus largement les entreprises américaines de la tech, on sait qu’on n’est partis pour suivre le même chemin.

Les consommateurs au pouvoir

Les causes de cette situation ne sont pourtant pas nouvelles et la recette parfaitement connue des acteurs du secteur. On pourrait dire qu’elle fut inventée par Bill Gates en 1980, lorsqu’il refourgue à moindre frais, c’est-à-dire à marge faible, son système d’exploitation MS-DOS à IBM pour faire tourner son PC. Il avait compris qu’en prenant place sur les basses couches d’un ordinateur, il prendrait le pouvoir sur les couches hautes : les logiciels. Google n’a pas appliqué d’autres recettes avec Android. Avec grande générosité, il « donne » son système d’exploitation aux constructeurs de smartphone, qui sont trop contents de procurer à moindre frais de l’intelligence à leur électronique. Ici, c’est un peu comme si un dealer de cocaïne en cédait gratuitement à ses clients pour mieux les enfermer dans l’accoutumance. On le savait, on a laissé faire, on s’est laissé faire…

Si dans la décennie 2000, Microsoft avait finalement courbé le dos le temps que la tempête passe, à tel point qu’il s’est laissé distancer sur plusieurs sujets (échecs sur les réseaux sociaux avec Messenger, les moteurs de recherche avec Bing ou le navigateur avec IE..), on se demande ce qui va supplanter Google aujourd’hui. Sans compter qu’il a atteint un pouvoir jamais atteint par son modèle : celui des contenus, avec son moteur de recherche, et de la publicité associée. Alors, un autre géant ? En tout cas, il sera américain ou chinois car, malgré la tentative de résistance de certains, comme Qwant pour les moteurs de recherche, ou le projet OpenStreetMap pour la cartographie, on va regretter de ne pas avoir d’acteur européen de poids.

Share Button

« Crédit social » en Chine, ou comment faire la loi en mode 2.0.

Share Button

En 2020, l’état chinois généralisera son système de crédit social, instrument de notation de la réputation des citoyens. Sur le plan philosophique, ce projet a déjà fait couler beaucoup d’encre, mais d’un point de vue digital, il a le mérite de nous faire passer du mythe à la réalité: Big Brother existe.

Le mécanisme mis en place par l’état chinois prévoit d’attribuer une note de 350 à 950 points à chaque citoyen. Comme son appellation l’indique, celle-ci représente le crédit ou la confiance qu’on pourra accorder à un individu ; une note élevée supposant qu’on peut lui faire confiance, une faible note, qu’on doit s’en méfier. Pour la produire, l’administration chinoise s’appuie sur tous les moyens dont elle dispose pour évaluer chaque individu, et ils sont nombreux : bases de données publiques et privées, analyse des usages sur internet, surveillance vidéo, remontées individuelles, etc… Une mobilisation de ressources qui ferait voler en éclats notre RGPD.

Sans prendre la défense de l’état chinois, et de son régime reconnu totalitaire, il faut supposer qu’administrer une population de plus d’un milliard d’habitants est loin d’être simple. Surtout quand les niveaux de vie et d’éducation sont si variés. Pour rappel, les millionnaires se comptent en millions, les pauvres en centaines, les citadins sont aussi nombreux que les ruraux, les éduqués cohabitent avec les illettrés. Cela donne une société au corpus extrêmement hétérogène, à l’opposé d’un Danemark par exemple, dont on vante régulièrement l’instinct de communion et de partage. A l’inverse, pour tous ceux qui déjà visité la Chine, le constat est évident : l’individualisme semble de mise dans la population, se traduisant par de multiples comportements remarquables. On ne se s’excuse pas quand on vous bouscule en ville – à quoi bon, ça arrive tout le temps -, on vous passe devant dans une file d’attente si vous n’y faites pas attention, on retient un train en gare « parce que la grand-mère n’est pas encore arrivée », on ouvre la porte de l’avion, parce qu’on trouve qu’il fait trop chaud – heureusement après l’atterrissage…-. En voiture, on roule à gauche à 60 km/h sur l’autoroute parce qu’on l’a décidé, sans inquiétude particulière puisque les autres vont vous dépasser par la droite sans scrupules, voire en empruntant la bande d’arrêt d’urgence si nécessaire. Bref, autant de comportements individuels que l’on ne peut pas considérer délictueux mais qui illustrent la genèse du projet : noter la bonne conduite du citoyen, comme une micro-justice au quotidien.

Inquiétude et fascination

Cette mise en œuvre a tout d’effrayant, de notre point de vue d’européen, dans ce qu’elle porte atteinte à la vie privée de chacun. C’est largement discuté ici ou là, avec force analyse et pertinence. Mais son côté fascinant mérite d’être noté. Si l’on se fie à ce qui est rapporté, la fabrication de ce crédit social s’appuie sur un mix de procédés qui fait vibrer toute la planète du numérique : le big data, car il faut brasser de gros volumes de données issues de différentes sources, la reconnaissance vidéo de masse, car elle inclut la surveillance en temps réel des citoyens et la désormais incontournable Intelligence Artificielle, car il faut bien digérer tout ça. Aussi, ce déploiement est inévitablement observé à la loupe par tous les acteurs du digital : finit le temps du POC – proof of concept – pour toutes ces technologies, voici le temps de la mise en prod.

C’est d’ailleurs cet état qui réveille la grogne de ces mêmes acteurs face à notre RGPD. Même s’il n’a pas été très audible jusqu’à présent, le discours sur les freins aux avancées technologiques qu’induit le respect strict de ce règlement prend corps ici. Ce programme donnera inévitablement aux chinois, libres de contraintes sur ces notions de vie privée, et alors qu’ils les maîtrisent déjà bien, une avance supplémentaire sur ces technologies. C’est autant de retard qu’on paiera probablement demain regrettent déjà ces acteurs.

L’innovation est partout

Ce qui est aussi fascinant que rassurant, c’est la réaction d’autodéfense que peut déployer l’humain dans ces situations. On ne compte déjà plus les parades mises en œuvre pour contourner le système.

Tout le monde a vu récemment ces manifestants de Hong Kong détourner de simples pointeurs lasers, pour perturber leur reconnaissance fasciale par les caméras de vidéo-surveillance. Nul doute que des dispositifs spécifiques se retrouveront demain en vente libre dans le commerce.

Dans le domaine privé, aussi impliqué – de force – dans ce programme, on cite le cas de cette compagnie d’assurance santé qui impose à ses assurés un suivi via leur smartphone de leur activité physique. Votre note prend en compte le nombre de pas que vous faites dans la journée. Résultat : une balancelle pour smartphone, à poser sur son bureau, simulant la marche est en vente libre.

Dernier cas, probablement le plus symptomatique. Comme votre crédit social prend en compte vos amis sur les réseaux sociaux, nombre de personnes ayant des notes moyennes cherchent via des forums à se lier à d’autres, ayant des scores plus élevés, pour consolider leur propre note. Conséquence probable à venir  : voir apparaître un business de l’amitié. Et facile d’imaginer le procédé : une marketplace où chacun met en jeu sa propre réputation, sur le thème « combien es-tu prêt à me donner pour être mon ami ? ». Cela peut nous paraître risible voir irritant, mais quand votre faible note vous interdit de sortir de votre province ou de prendre le train, on se rappelle que la liberté a un prix.

Share Button

Apple et l’obsolescence programmée, une vieille histoire

Share Button

Attaquée en justice à l’automne dernier par plusieurs états pour « pratiques commerciales malhonnêtes » visant à pousser ses clients à renouveler leurs appareils, la firme à la pomme n’en est pourtant pas à son premier coup d’essai, on peut même dire qu’elle en a l’habitude. Analyse.

Je suis le malheureux possesseur d’un iPad de première génération, acquis en 2011, en parfait état de fonctionnement et toujours aussi beau. Je dis malheureux car, malgré ses qualités intrinsèques, je ne peux plus en faire grand-chose, à part surfer sur le web, et encore s’il n’y a pas de vidéo HD car le module QuickTime intégré n’est plus à jour. Si l’on doit chercher la manifestation d’une obsolescence qui, à défaut d’être programmée semble totalement assumée par son constructeur, je l’ai entre les mains. Oh non, il n’est pas écrit à l’ouverture qu’il faut que je m’achète une nouvelle version mais tout est fait pour m’y inciter : propulsé par un iOs version 5, plus aucune mise à jour n’est disponible, cette version d’iPad n’étant plus supportée. Benêt, on pourrait se demander : A quoi bon une mise à jour puisqu’il fonctionne correctement ? Oui, je pourrais m’en contenter si je n’envisageais pas de continuer à l’utiliser. Sans être un écologique pur et dur, je répugne à mettre au rebus un appareil qui fonctionne encore et peut rendre des services. Le problème est que la plupart des éditeurs d’applications, inévitablement poussé par Apple, impose de disposer d’une version récente d’iOs pour s’installer. Conséquence : plus aucune application récente ne peut être implantée ou mise à jour, donc si je veux en profiter, je suis naturellement incité à acheter un nouvel iPad. CQFD.

Des motifs pourtant légitimes

Cela exposé, quand on y regarde de plus près, les mêmes motifs, légitimes, sont avancés par le constructeur depuis les premiers Macintosh. Il en a d’ailleurs fait sa marque de fabrique : toujours tourné vers l’avenir, faisant fi du passé. Ainsi, à l’instar de son concurrent Microsoft, qui a longtemps cherché à maintenir entre ses différentes générations d’OS une certaine compatibilité historique, la firme a toujours privilégié la cohérence et la solidité de ses environnements au dépend de l’écosystème applicatif déjà en place. Tant pis s’il faut changer son parc logiciel – tout au moins le mettre à jour – mais c’est le prix à payer pour disposer d’un meilleur système, performant, stable et sécurisé. Il faut admettre cette posture puisque même Microsoft a fini par s’y résoudre avec ses versions post-98 de Windows, même s’il traine encore des modes « compatibilités » qui grèvent probablement la sécurité et la performance de ses systèmes.

La rupture technologique, une autre arme

Paradoxalement, l’affaire du ralentissement logiciel des iPhone 5 en vue d’en prolonger leur durée de vie, semble être de l’anti-obsolescence : je fais tout pour te permettre de continuer à user de ton iPhone, t’évitant d’en acheter un nouveau. Aussi, fort d’un parc de plus de 900 millions d’iPhone à ce jour, Apple a peut-être pris conscience qu’on ne pouvait pas balayer d’un revers de la main, pour faire place nette, tout cet existant et qu’il valait mieux en ménager leurs propriétaires. Le syndrome Microsoft l’a peut être gagné. Non, l’autre technique qui a (presque) toujours marché pour lui, pour créer de l’obsolescence, c’est la rupture technologique. L’iMac G3, reprenant à sa sortie le principe du tout-en-un des premiers Mac, tout en transparence et de bleu vêtu, ringardisait les autres PC. C’est sur les iMac à écran plats qu’on a vu surgir les premiers écrans 24″, qui donnaient le vertige à l’époque. Sans parler évidemment de la success story iPhone. Chaque génération, par son design et ses nouveautés technologiques rendait, à grand renfort de marketing il est vrai, ringarde la précédente. Bon, ça a marché jusqu’à la version 8. Il semble au regard des derniers résultats que le filon s’épuise aujourd’hui, largement bousculé par ses concurrents chinois et coréens. Dernière réponse du constructeur : s’appuyant sur son autre marque de fabrique, un écosystème propre, largement hermétique aux technologies exogènes, il promeut un certain nombre de postures autour de la sécurité ou la confidentialité de ses technologies, et ce dans un seul but : lutter contre l’obsolescence programmée de sa clientèle…

Share Button

Microsoft : Too big to fail ?

Share Button

Oublié dans l’acronyme GAFA, Microsoft est pourtant un acteur majeur des technos, en compétition permanente avec Apple ou Amazon pour occuper la place de 1ere capitalisation boursière mondiale. Probablement trop vieille pour les jeunes, pas assez fun pour les autres, la société fait montre malgré quelques contreperformances d’une incroyable santé. Analyse.

Si les succès de Microsoft sont patents, ses échecs le sont d’autant. Pour preuve, dans un récent billet, Chris Jackson, un ponte de la société, conseillait à ses clients d’abandonner Internet Explorer au profit d’autres navigateurs. Bien qu’en lisant de plus près ce billet, le propos est plus subtil et pas aussi radical, beaucoup y ont vu le signe que la société reconnaissait avoir perdu une bataille historique : celle du navigateur, pourtant au cœur de sa stratégie il y a 20 ans.

Ce qui ne te tue pas te rend-il vraiment plus fort ?

Le cas Internet Explorer est symptomatique de Microsoft : leader et dominant à une époque (+ 90% de part de marché au début des années 2000), il est écrasé par la concurrence aujourd’hui en tombant à moins de 10%. On peut trouver mille raisons à cela mais C. Jackson dans son post en donne une : la société s’est piégée elle-même dans sa recherche de compatibilité historique. IE était devenu, dans ses versions antérieures à la 9, un bazar au comportement hybride, voulant tout à la fois afficher des pages web conçues en 1999 et celles respectueuses des standards d’aujourd’hui. Ce grand écart a été rendu possible explique-t-il en faisant l’impasse sur les performances et la sécurité. Défauts dans lesquels s’est engouffré un certain Chrome. Depuis la société l’a payé cher car les version suivantes (10 et 11) et même Edge n’ont jamais réussi à reprendre la place de leur ancêtre.

Quand on pense à Microsoft, d’autres échecs viennent à l’esprit : Msn messenger, leader incontesté des messageries instantanées il y a dix ans, est un nom que les jeunes générations ne doivent même plus connaître. Et là on parle de succès devenus échecs. La société a aussi dans son catalogue des produits comme Windows Phone ou Bing qui, malgré d’énormes efforts marketing et budgets engloutis, n’ont jamais réussi à trouver leur public.

Avoir un panier solide mais ne jamais y mettre tous ses œufs

On le sait, l’un des principaux atouts de Microsoft est sa domination sur les plateformes bureautiques Windows et Office. Avec ce binôme, elle dispose d’une base clients solide, plutôt stable et qui continu à être profitable, y compris en mode Saas avec Office 365.  Et si une leçon a été retenue de la fronde que la société a subi de la fin des années 90, c’est bien celle qu’une position dominante ne peut pas être éternelle. Pour résister, plus que chercher à assoir encore un peu plus cette position, la société s’est initiée à d’autres marchés. Ainsi, pendant qu’elle laissait filer sa domination sur le navigateur ou perdait la bataille du moteur de recherche, elle s’investissait dans de nouveaux secteurs : les jeux vidéo avec sa console Xbox ou le cloud avec Azure. Et ça c’est pour la croissance organique. Pour la croissance externe, Il faut ajouter la rachat ces dernières années de Skype, LinkedIn ou plus récemment GitHub, autant d’enseignes qui finiront par lui rapporter de nouveaux clients et réduire le risque sur ses marchés historiques. Il y a d’ailleurs une stratégie assez transparente là-dedans : la société a perdu quelques batailles sur des outils, elle veut gagner celles des communautés d’utilisateurs, cœurs de ses récentes acquisitions.

La leçon à retenir ? rien de bien original au fond, litanie d’adages populaires : ne jamais s’endormir sur ses lauriers, ne met jamais tes œufs dans le même panier et si avec tes œufs, tu peux avoir la crémière avec, c’est encore mieux.

Share Button

La fin de la neutralité du net : une opportunité pour l’Europe ?

Share Button

Comme un serpent de mer, la fin de la « neutralité du net » resurgi régulièrement, avec son lot de pro- et d’anti-. Sur le plan pratique, cela pourrait pourtant donner une opportunité à l’Europe de reprendre la main sur l’internet, qui reste sous la suprématie américaine des GAFA.

Quand le web est arrivé sur la place publique, il était considéré, figure provocante, comme l’enfant naturel du Pentagone et de la Génération hippie. Il représentait en effet la parfaite union entre la rigueur et la solidité d’un procédé militaire (le protocole TCP/IP, essence de l’Internet) et une ambition généreuse et ouverte du partage, paradigme de la génération hippie. De ce mariage est maintenant établie comme une norme que tous les flux qui transitent sur le réseau, soient non seulement amenés à destination avec certitude mais aussi et surtout sans aucune discrimination, qu’elle soit d’ordre éditorial comme financier. Un propos graveleux sur un forum sera acheminé au même titre qu’une poésie originale, une séquence vidéo porno pèse autant qu’un ordre d’exécution d’une commande, un tweet hystérique d’un Trump suit le même chemin qu’une parole philosophique du Dalaï Lama. C’est ce que l’on désigne par neutralité du Net. Vu sous cet angle, il est facile de comprendre qu’il y a un peut-être un hic.

Une guerre d’opérateurs

Les premiers à soulever l’iniquité implicite de cette neutralité ont été évidemment les opérateurs télécoms (« Telco »). Acteurs majeurs de l’accès à l’internet, ils sont sans cesse obligés de faire croitre la puissance de leur infrastructure sur leurs propres deniers pour permettre à leurs clients de consommer toujours plus confortablement, plus de de services. Services sur lesquels ils n’ont en pratique aucune rémunération supplémentaire. Bien qu’on puisse considérer qu’ils se paient sur le prix de l’abonnement d’accès facturés à leurs clients, il est aisé d’apprécier qu’ils n’aient pas un ROI proportionnel à ceux qu’ils voient traverser dans leur réseau.

Le graal du temps réel

La deuxième vague, plus actuelle, provient des acteurs des technologies d’objets connectés et notamment des voitures autonomes. Pour les comprendre, il faut revenir sur le principe de la commutation de paquet, modalité native de la communication IP. Sans entrer dans les explications techniques, retenons qu’elle interdit, par nature, purement et simplement des flux en « temps réel », pourtant nécessaires au déploiement opérationnel de leurs procédés. On imagine mal en effet une voiture autonome attendre un temps incertain la décision finale de freiner fournie par une IA interrogée via le réseau. Rappelons ainsi que le principe qui prévaut sur le protocole IP est un routage au fil de l’eau des paquets selon une loi élémentaire : le premier paquet qui arrive sur un routeur sera le premier à être transféré vers le chemin sensé l’amener à sa destination finale. Ce que souhaitent finalement ces opérateurs, ce sont des billets « coupe-file » qui permettraient à leurs paquets de passer devant les autres dans une file d’attente. Last but not least : cette possibilité était déjà prévue dans les normes IP…

Un potentiel business des flux

On peut le déduire, ces billets coupe-file, comme dans la visite d’un musée, imposerait un surcoût à celui qui veut en bénéficier. Les opposants à la fin de la neutralité voient dans cette possibilité, une antinomie avec l’esprit des géniteurs du web : le riche passerait devant le pauvre, le puissant écraserait le faible, etc. On peut aussi voir le sujet d’un autre point de vue : un opérateur réseau pourrait mettre à l’amende (en dégradant sa bande passante) un service qui surconsommerait. Certains diront que tout ça est peu réaliste au regard des puissances en jeu. C’est vrai. Mais mettre en place cette gestion des flux sur leur réseau, obligeraient les telco à les régenter plus finement. Elle pourrait leur offrir des sources de revenus supplémentaires pour leur business et sur le plan macro une base de taxation localisée – donc européenne. Imaginez simplement qu’un Facebook ou un Netflix (25% des flux internet en France à lui seul sur 2018, d’après l’ARCEP) paient de manière proportionnée aux Orange, SFR ou Free ce qu’ils génèrent comme trafic sur leurs réseaux.

Share Button

La longue marche vers un numérique écologique

Share Button

 

« Pensez écologie : n’imprimez ce mail que si c’est nécessaire ! », cette apostrophe accompagne généralement une riche signature avec logo et couleurs de la boite, complété d’un long disclaimer inséré automatiquement par le serveur d’envoi. Tout ça pour un « OK, ça marche », banale réponse à une confirmation de rendez-vous. Il ne faut pas être particulièrement intelligent pour comprendre que le ratio information utile/consistance du message est très faible. Quand on sait ce que coûte un email en transport, traitement et stockage – l’ADEME l’estime in fine à 15 gr de CO2 –, on se dit qu’un tel message n’est en fait pas très écologique.

sourisfumeeEt à ce compte, les nouveaux usages du numérique font exploser le compteur de watts et de CO2. Car s’il faut admettre que si les emails perdent un peu de leur ampleur, c’est souvent au profit de réseaux sociaux et autres messageries instantanées. Cherchez un instant à estimer le nombre de flux générés sur internet pour un simple Like d’un post sur Facebook (FB). Vous aurez rapidement le tournis. Ce like qui remonte vers les serveurs de FB, il faut le propager vers les autres connectés, mettre à jour leur flux, parfois en y ajoutant quelques animations, générer des notifications donc des messages et emails et stocker le tout pour que vous puissiez le retrouver. Mon email écolo, c’est de la gnognote à côté. Et je ne n’ose même pas aborder les dernières pratiques à la mode : les selfies à gogo et les live vidéo…

Mais le mal semble plus profond

Les grands opérateurs du web avaient implanté dans les années 2000 de gros datacenters à proximité de centrales électriques à charbon, en Virginie ou Caroline du Nord, pour le faible prix de l’énergie qu’elles procuraient. Greenpeace avait ainsi épinglé en 2012 Apple, Microsoft et Amazon pour leur recours abusif à ces énergies sur-polluantes. Depuis, tout le monde est rentré dans le droit chemin. Et chacun y va de l’annonce d’ouvertures de datacenters « propres », appuyés sur du solaire, de l’éolien, plongés sous l’eau, implantés dans le froid arctique, bref que des solutions vertes. Mais qu’on ne s’y trompe pas. Il y a dans ces stratégies une approche plus économique qu’écologique. Tous ces opérateurs savent qu’ils doivent maintenir des datacenters de plus en plus gros, pour servir une consommation galopante, qu’ils génèrent eux-mêmes ! L’équation est alors simple : pour rester rentables, il faut réduire les coûts. Et les énergies renouvelables ont ce principal avantage d’être gratuites !

Plus triste, on découvre au détour d’une lecture – le livre évènement de Guillaume Pitron (La guerre des métaux rares, éditions Les Liens qui Libèrent) – , que l’industrie de la transition énergétique et plus largement du numérique semble tout sauf propre. Tantale, cobalt, indium, et tant d’autres métaux rares, sont indispensables à ces technologies, de l’Iphone au panneau solaire, en passant par les batteries de nos voitures électriques. Or, l’extraction de ces métaux rares coute une fortune, au sens propre comme au figuré. Il faut bien souvent soulever de gros volumes de minerai brut pour extraire quelques kilos de matière utile. On imagine l’état des territoires impactés par ces industries. En RDC, pour le Cobalt, et surtout en Chine, pour la majorité des métaux rares, dont elle s’est fait la spécialité. Avec ce que l’on sait d’elle sur ce qu’elle peut accepter pour gagner la guerre économique : conditions sociales, humaines et sanitaires désastreuses, impacts écologiques totalement ignorés, etc…

L’humain à la rescousse

Comme de coutume, la solution viendra de nos comportements. On sait qu’on ne va pas abandonner notre smartphone au profit d’un téléphone filaire en bakélite et qu’on écoutera plus de musique sur un poste à galène. Donc, on réfléchit à deux fois avant de cliquer sur Like, de partager la n-ème vidéo de chat acrobate ou de prendre des photos inutiles stockées dans le cloud de son smartphone…

Share Button

Réseaux sociaux : Metcalf, Einstein, mais qui dicte les lois ?

Share Button

Robert Metcalf théorisa dans les années 80 sur le fait que plus il y a d’utilisateurs dans un réseau, plus celui-ci prend de la valeur. Il voulait parler de l’intérêt que pouvaient en tirer ses participants mais qu’en est-il aujourd’hui ?

La téléréalité rencontre la bourse

Kylie Jenner – je vais modestement admettre que je ne la connaissais pas avant de lire la nouvelle dans mon fil d’info – vient de faire perdre plus d’un milliard de dollars à Snapchat. Son crime ? un tweet où elle exprime une certaine lassitude dudit réseau. Et sans intelligence aucune de sa part, ni stratégie quelconque, en tout cas avérée… Car forte de 24,5 millions d’abonnés sur Twitter et 104 millions sur Instagram, le moindre des errements philosophiques de cette star de la télé-réalité américaine est observé, commenté et re-tweeté, le démultipliant comme un écho infini. Même notre Kerviel national, avait dû faire preuve d’ingéniosité avancée pour faire perdre à lui tout seul l’équivalent à son employeur de l’époque, la Société Générale.

Bon il faut admettre que, avec ce raccourci trompeur, incontournable figure de buzz snapshatmédiatique, on vous fait passer des vessies pour des lanternes. Snapchat n’a pas perdu un milliard de dollar mais sa valorisation boursière s’est dégonflée de 1 milliard : c’est pas la même chose. Les analystes boursiers ont vu dans ce petit tweet, un signe pouvant déclencher ou accroitre la désaffection de Snapchat auprès de ses 187 millions d’utilisateurs quotidiens. Et donc faire baisser sa valeur… selon la loi quadratique de Metcalf.

On a d’ailleurs nous aussi notre expérience nationale de collusion ubuesque entre téléréalité et bourse. La star française Nabila s’est récemment fait rappeler à l’ordre par l’AMF car elle ventait, un peu à la légère, comme elle le ferait pour un champoing ou une crème de beauté, les mérites d’investir dans le Bitcoin. Mal lui en a pris, le cours de la plus populaire des crypto-monnaies s’est effondré en quelques jours.

Une loi peut en cacher une autre

Ce que ce Metcalf n’avait pas prédit, c’est cet autre phénomène engendré par la mise en réseau d’individus : la vitesse de propagation d’une information y devient exponentielle. Là, on peut s’amuser à faire appel à une autre équation, celle d’Einstein, la fameuse « e=mc2 ». Elle exprime la combinaison d’une masse et d’une vitesse – celle de la lumière dans sa théorie – pour produire une énergie ou un effet. On pourrait attribuer ici m à ce tweet, c2 au buzz engendré et E le milliard envolé en bourse. Bref, petits effets, grandes conséquences, ce que d’autres appellent l’effet papillon…

D’aucuns diront que ce phénomène dynamique est naturel : réunir des personnes en un même lieu fluidifie et accélère leurs interactions ; les grecs appelaient ça l’agora. Mais d’autres forces intensifient le mouvement. La nature du média électronique y concourt d’abord largement. Ensuite, n’est-il pas avéré qu’un Facebook, sous couvert de proposer des contenus intelligemment adaptés à ses usagers, pousse à la réaction et au partage. De véritables vagues de posts naissent et meurent ainsi tous les jours, comparable à celles qui secouent l’océan. Certaines atteignent même le niveau Tsunami (#metoo par exemple).

Cet océan de posts et commentaires semble rester enfermé dans ces réseaux sociaux, et qui plus est, ne sont fréquentés que par une partie de la population mondiale. Tout ça pourrait donc paraître sans effet sur le monde réel. Sauf si on vient à considérer que le tweet de Kylie Jenner n’était ni involontaire ni anodin : Facebook est notoirement fâché de ne pas avoir réussi à mettre la main sur Snap Inc., de là à imaginer qu’ils aient pus téléguider le tweet malheureux. Non, je refuse de lancer le buzz…

Share Button

Les ChatBots pourront-ils être de bons vendeurs ?

Share Button

Que ce soit dans l’e-commerce ou le retail physique les chatbots (ou agents conversationnels) se multiplient. Pensés pour assister la vente voire la déclencher, leur efficacité sera-t-elle à la hauteur des espoirs qui y sont placés ? on peut à cette heure s’interroger.
Commençons d’abord par une entreprise de démystification. Pour les spécialistes, on serait en plein IA-washing, une mode qui consiste à affubler toute nouvelle techno d’une dimension « IA ». Les chatbots, logiciels d’émulation de conversation humaine, en sont les premiers exemples. Or en pratique, de quoi s’agit-il la plupart du temps ? De bons vieux programmes dits déterministes, conçus pour dérouler une conversation dont on a scénarisé à l’avance la progression. S’il y a une forme d’intelligence, c’est dans leur capacité à intégrer, au fil des échanges, des variantes de cheminement, issues de l’analyse statistique des précédentes conversations. C’est ce que l’on désigne aujourd’hui par « machine learning ». Ce n’est pourtant pas neuf : cette capacité d’apprentissage était le fondement de qu’on appelait il y a trente ans, avec un autre paradigme il est vrai, « systèmes experts ».
Quand bien même ces conservations finissent par prendre des tournures intelligentes, cela ne veut pas dire qu’elles auront l’efficacité d’un humain. Spécifiquement dans une posture de vendeur. Car certaines qualités du « bon vendeur », ses softs-skills comme on dit aujourd’hui, ne peuvent pas s’exprimer.
Il manque d’empathie
Comment un chatbot peut-il manifester de l’empathie ? Cette qualité du vendeur qui l’amène à s’imprégner des raisonnements de son client, partager avec lui une part de son existence et mieux investir son besoin. On pourrait toujours essayer de lui inculquer la pyramide de Maslow, en modéliser les valeurs et lui apprendre à en exploiter les ressorts. En attendant, je ne vois pas comment un chatbot pourrait détecter et comprendre que j’ai faim et que son discours sur les qualités de son bidule à moteur écologique ne me passionne pas du tout à cet instant.
Gagner ou perdre, une valeur inaccessible
Même s’il est programmé pour gagner, un chabot ne peut pas percevoir ses réels enjeux. D’aucuns diront que tous les logiciels de jeux l’intègrent pourtant largement, c’est même souvent leur raison d’être : faire mieux, améliorer son score, vous battre, bref : « gagner ». Mais au fond gagner ou perdre se résume pour ces logiciels à deux statuts, binaires et sans réelle matérialité. Un éternel postulat philosophique est requis pour l’expliquer : il faudrait qu’ils comprennent qu’ils existent ET que cette existence puisse être impactée par ce statut : gagner ou perdre c’est vivre ou mourir. On en est loin.
Il n’a pas l’étoffe d’un prédateur
La dernière capacité, celle de la prédation, plus animale, correspond à cette démarche du vendeur à agir en chasseur. Le client est une proie qu’il faut capturer. Avec un certain gout pour le tableau de chasse (et surtout les commissions sur ventes bien évidemment !). Cela le met dans une posture de supériorité sur l’autre, appuyée sur une nécessaire combativité voire agressivité. C’est cette dernière attitude que les concepteurs d’intelligence artificielle ont bien du mal à modéliser, car elle chatouille aussi notre éthique. Elle s’oppose à la loi de la robotique d’Asimov : un robot ne peut porter atteinte à un être humain. Dans le genre, les fabricants de voitures autonomes sont d’ailleurs bien embêtés : il parait qu’il faut une petite dose d’agressivité pour pénétrer sur le périphérique parisien et une plus grande encore pour se frayer un chemin sur la Place de l’Etoile, alors de là à y voir débouler des chatbots vendeurs ambulants…

Share Button

A quoi sert encore la CNIL ?

Share Button

La question est un peu provocante mais elle mérite d’être posée. Nombre de situations actuelles nous démontrent que les buts poursuivis par cette commission et la loi qui la motive sont largement égratignés, voire carrément bafoués.
Rappelez-vous : nous sommes dans les années 70, l’informatique s’appelait IBM, Burroughs, Digital ou Bull, des grosses machines enfermées dans des salles climatisées et vénérées par des aficionados appelés informaticiens. Pas d’internet – au sens du web -, pas de pc, ni mobile 4G, ni cloud, ni objet connecté, rien de ce qui fait notre décor d’aujourd’hui… Le motif initial de la loi ? une simple idée de croiser des données de sources diverses (Insee, Sécu, CNAV…), née dans l’esprit tordu de troubles informaticiens. Levée de boucliers au nom de la liberté.
On est alors dans une décennie où le mot liberté est érigé comme un totem, un leitmotiv extatique d’un mai 68 s’épuisant. Une époque où l’adulte qui s’installe aux commandes de notre société s’est nourri des essais romanesques d’Aldous Huxley et de George Orwell, pourtant pas si jeunes. Ces ouvrages, dont l’emblématique « 1984 », dressent des futurs de notre société pas très réjouissants. En fait, la population regarde ces technologies avec une certaine crainte. Comme principe de précaution, on va donc tenter d’en encadrer le fonctionnement. On rédige une loi « …pour l’informatique et les libertés, 6/01/1978 ». Loi qui s’est rapidement et pernicieusement vu bafouée par les évolutions technologiques. Pour les plus jeunes lecteurs, c’est un peu comme la loi Hadopi sur téléchargement illégal : le temps d’en discuter, elle était déjà hors sujet.
Une loi presque inoffensive
Premier défaut, l’instance de régulation créée pour l’appliquer, la CNIL, n’a pas vraiment de pouvoir de justice. Elle se contente de prononcer des sanctions. Quand elles sont pécuniaires, elles s’avèrent soit inoffensives – 100 000 € à Google -, soit difficile à recouvrir.
Une loi technologiquement archaïque
Exactement comme pour le droit d’auteur, construit autour de la protection du support physique de l’œuvre – et donc inadapté au tout numérique -, la protection des données s’appui sur des modalités devenues caduques. Pour faire court, elle pensait fichiers sur disques. Comme son périmètre de compétence était national, un fichier stocké hors territoire national sort du giron de la loi. C’est la base de l’impuissance de la CNIL sur les données gérées par Facebook, puisque celles-ci sont réputées être stockées hors de France.
Une loi dans les faits contredite
Ce n’est d’ailleurs pas tellement sur cet aspect de stockage qu’il y a interpellation mais bien sur l’exploitation des dites données personnelles. La loi avait été motivée pour limiter voire interdire la référence à des attributs humains (le sexe, les choix de vie, les croyances…) dans les traitements informatiques. A l’air du Big Data, ça fait sourire. Je viens de commander une campagne publicitaire sur Facebook : j’ai pu cibler les mères d’adolescents, célibataires, avec des revenus compris entre 4000 et 6000 euros, aimant l’équitation et la Zumba. Si ce n’est pas un piétinement de la loi ça…

Share Button