Les nouvelles offres #nocode, mort ou salut des développeurs ?

Share Button

C’est une évidence, le marché du « #nocode » semble atteindre l’âge de la maturité. Fédérant les outils promettant le développement d’applications « sans écrire une seule ligne de code », et donc en se passant de spécialistes de la programmation, cette tendance signe-t-elle la fin des développeurs ? pas si sûr…

Derrière le mot valise #nocode, les WebFlow, Bubble ou AirTable, pour ne citer qu’un petit échantillon, génèrent un véritable engouement sur le web et les réseaux sociaux. En pratique, ce hashtag désigne une kyrielle d’outils, en mode SaaS pour la plupart, qui ont des périmètres fonctionnels et des ambitions très variés. Du simple connecteur de données, comme Sheety, à l’atelier logiciel complet comme Bubble ou le français Panda Suite, on peut trouver aujourd’hui tous les composants permettant de fabriquer, comme un jeu de Lego (ou de Mécano, pour ma génération) n’importe quelle application. Sur le fond, le besoin à satisfaire n’est pas nouveau, ces réponses, bien que nouvelles en apparence, ne le sont pas vraiment.

Une vielle quête du Graal

Dès l’apparition des ordinateurs civils, à l’après-guerre, leurs utilisateurs, qui étaient par essence aussi les développeurs, n’ont eu de cesse de mettre au point des interfaces ou langages, leur permettant de parler à leurs machines autrement qu’en stimulis binaires, les fameux 0 et 1, seules expressions reconnues par celles-ci. Toutes les générations d’informaticien ont suivi ce long développement des langages, des Fortran ou Cobol de l’époque, aux Java, C#, Javascript, Go ou Python d’aujourd’hui. Langages qui, bien que dits « évolués », restent pour le novice un charabia abscons. Pour contourner ce défaut, dès les années 70, IBM propose le GAP, premier outil de l’histoire qu’on pourrait qualifier de #nocode. La méthode s’appuyait sur formulaire standardisé, où le concepteur cochait des cases dans un agencement précis, pour exprimer son souhait de traitement. Bon, ça restait fastidieux et très éloignés de nos outils d’aujourd’hui mais c’était un début.

Dans les années 80, avec l’avènement des interfaces graphiques (Mac OS puis Windows), on voit apparaître des outils de développement adaptés à ces nouveaux univers. C’est la période de gloire des Visual Basic de Microsoft ou plus tard de WinDev en France, premiers IDE (interface de développement) à vocation #nocode. Le développeur pouvait s’appuyer largement sur des blocs graphiques préconçus et des interactivités pré-gérées et le tout, à grand renfort de conception visuelle et de drag’n drop. Au niveau utilisateur bureautique, Microsoft Access, est déjà un tout-en-un #nocode. Avec un peu de temps, on peut en effet construire une application complète autour d’une base de données, avec des menus, des formulaires, des états, et toujours sans écrire une seule ligne de code, largement guidé par des assistants et des modèles préétablis.

L’avènement du web, au milieu des années 90, voit émerger d’autres outils #nocode : les éditeurs HTML (GoLive, FrontPage ou Dreamweaver). Ils permettent alors de fabriquer nos premières pages web, sans écrire une seule ligne de code…HTML, seul langage reconnu par nos navigateurs.

A un niveau supérieur, les années 2000 voient se développer les CMS (Content Management System) : les WordPress, Drupal ou Joomla. Ils permettent alors de concevoir un site web et de maintenir son contenu, là encore, sans écrire quoi que ce soit, juste en choisissant dans des catalogues d’options, de plugins ou de modèle d’interfaces (les fameux « templates »). On est déjà encore et toujours dans du #nocode. Ce marché a d’ailleurs donné naissance à nombre de webmasters et d’agences web, travaillant exclusivement sous WordPress par exemple et premiers développeurs #nocode, un début de réponse à la question initiale.

L’avènement des AirTable, Bubble ou Power Apps, vrais outils qualifiés de #nocode est donc une suite logique et naturelle. Comme attendus, et même si certains d’entre eux arrivent avec de nouveaux paradigmes – comme AirTable – ils poussent simplement plus loin les pratiques de leurs prédécesseurs : interfaces totalement graphiques, catalogues de modèles, multiples assistants et toujours la souris comme bras armé.  Le Graal d’expliquer à la machine ce qu’elle doit faire sans le dire dans sa langue est-il atteint ? on en est encore loin mais on s’en rapproche.

Des avantages évidents

Tout comme leurs prédécesseurs, les outils #nocode offrent la facilité, la rapidité et la souplesse dans la composition des applications. Ce qu’elles ont de plus aujourd’hui, c’est qu’elles s’inscrivent toutes dans une architecture « cloud » avec ses paradigmes techniques et commerciaux : un hébergement externalisé et sécurisé, un déploiement de fait aisé, une montée en charge fluide et maîtrisée pour les aspects techniques et un modèle tarifaire simple puisque basé sur l’abonnement pour l’aspect commercial. Le multiple plateforme (desktop, tablette, mobile) est aussi un atout certain.

Mais des défauts endogènes occultés

Le premier défaut est inhérent à l’environnement cloud de ces outils : le mode SaaS offert pour la plupart soulève les questions récurrentes de sécurité, confidentialité et réversibilité des données qui y sont gérées. On a du mal à imaginer une entreprise développer une application critique pour son activité sur une plateforme dont elle ne maîtrise pas la solidité et la pérennité. Phénomène accentué par la nécessité fréquente d’agréger de multiples outils et services pour couvrir l’ensemble des besoins fonctionnels.

Le deuxième défaut est propre à toutes les solutions standards promettant de répondre à des besoins individualisés, à partir d’une mécanique unique. Constat vécu par tous ceux qui s’y sont déjà frottés au travers des CMS par exemple, c’est le piège du 80/20 ou 90/10 : L’outil va permettre de résoudre aisément et rapidement 90% de votre problème, et les 10% restant – que vous avez souvent négligé en vous engageant avec enthousiasme dans le projet – vont vous compliquer la vie, vous faire perdre temps et argent, voire vous amener à abandonner le projet s’ils s’avèrent critiques.

Le troisième écueil, et non des moindres, est celui de la confusion entretenue dans le potentiel réel de ces outils avec les compétences et la disponibilité d’un usager non spécialiste. Leur présentation, toujours plus séduisantes, amènent à faire croire qu’on pourra tout faire avec. Ce qui est une erreur. Car si un bon ouvrier a toujours de bons outils, ce n’est pourtant pas l’outil qui fait l’ouvrier. Ce n’est pas parce que vous maîtriserez Word que vous deviendrez auteur de roman à succès. Tous ceux qui travaillent – les développeurs, chefs de projet et autres PO – dans la conception d’applications le savent bien. Outre du temps dédié, leurs activités imposent des dispositions mentales particulières, d’abstraction pour la conception, de raisonnement algorithmique pour le codage organique des process, qui ne s’improvisent pas et/ou ne peuvent émerger simplement par ces outils. Combien d’utilisateurs bureautiques, forcément un peu curieux et volontaires, ont cédé aux sirènes du #nocode version Access par exemple, et qui ont souffert – en temps et énergie – pour arriver à un résultat potable, quand ils l’on atteint ?

Alors, mort ou salut ?

Evidemment, ni l’un ni l’autre. L’offre actuelle a tout pour séduire un large éventail de nouveaux praticiens et développer encore de nouveaux profils de développeurs. C’est donc un marché qui s’élargit. Et puis, si les premiers chantiers ne révèlent pas de carrières de développeurs, comme on a pu le voir avec les logiciels antérieurs, ça fait toujours du travail de maintenance et d’évolution pour des spécialistes.

Et n’oublions pas, ceux qui ont réussi et fait fortune à l’époque de la ruée vers l’or, ce n’est pas les chercheurs mais les vendeurs de pelles et de pioches. En d’autres termes, n’achetez pas de machine à pain, laissez-faire votre boulanger, vous aurez du mal à l’égaler, en qualité et dans la durée.

Share Button

Faut-il être illégal pour être novateur ?

Share Button

Uber, Deliveroo, Frichti, etc… On ne compte plus maintenant les entreprises de la nouvelle économie qui font l’objet de procès intentés ici ou là, pour des motifs variés et à des degrés divers. A croire que ces nouveaux business, souvent qualifiés de disruptifs, le sont d’abord sur la légalité de leurs pratiques. Point de vue.

Vente à perte et concurrence déloyale

C’est quasiment le premier délit que l’on peut reprocher à une startup : proposer un service ou un produit à un prix qui s’avèrera in fine en deçà de son coût de revient, si on y intègre les incontournables dépenses markéting. C’est d’ailleurs endogène à la nature même d’une startup : mettre le paquet pour préempter un marché, quitte à assécher les acteurs déjà présents.

Le cas emblématique de cette approche est bien sûr Amazon. Pour ceux qui s’en souviennent, Jeff Bezos a fièrement enchainer les déficits, pendant les 2 premières décennies de son existence. D’aucun dirons qu’en la matière, il s’agissait de bénéfices réinvestis, donc ce n’était pas des pertes. Mais finalement, si vous vendez un livre 10 $, que vous avez acheté 6$ mais que pour le vendre ça vous coûte 5$, il ne faut pas avoir fait HEC pour calculer le résultat. On le sait, en France, cette pratique de la vente à perte est illégale, – on ne peut pas vendre un produit moins cher qu’on ne l’a acheté – car on considère que cela fausse le marché et constitue une forme de concurrence déloyale. Malheureusement, elle est quasiment inapplicable en la matière. Et pour Bezos, l’objectif aura été atteint : après avoir ainsi cassé le marché de la distribution, il en récolte aujourd’hui les énormes bénéfices.

L’autre exemple de marché faussé est le cas de UBER. On peut lui reconnaitre d’avoir déployé un service original (pas les VTC mais leur pilotage par application mobile [1]) et d’avoir initié un concept qui porte maintenant son nom. Mais cela s’est fait sur un subtil et douteux mix de souplesse contractuelle – les chauffeurs sont des travailleurs indépendants – et de contraintes qui leurs sont imposées – tarifs, véhicules, horaires -. Ce sont ces dernières qui valent à la société le plus de procès : requalification des chauffeurs en salariés pour la Californie, procès pour concurrence déloyale par les taxis parisiens. Et c’est toujours sur la même musique : les relations commerciales entre les acteurs ne sont pas si libres que ça…

D’autres acteurs ont bien compris le modèle et l’ont poussé plus loin. Les opérateurs Déliveroo, Uber Eats ou Frichti, sous prétexte de garantir les revenus de leurs livreurs en limitant leur nombre dans un secteur donné et une plage horaire définie – le carcan des licences de taxis parisiens n’avait pas d’autre objet soit dit en passant – , leurs conseillent l’inscription à des « shifts planifiés », sortes de CDD pendant lesquels les livreurs s’engagent à être à leur disposition et les plateformes à leur fournir en priorité des courses. En pratique, cela permet surtout à ces dites plateformes de disposer de ressources stables sans en payer les frais fixes. « Juste mordre la ligne jaune…, sans la franchir » : c’est le conseil qu’avait prodigué le Juge Van Ruymbeke à Xavier Niel, lors d’un procès en 2005. Il semble qu’on soit bien dans cet esprit ici.

Naïveté ou cynisme ?

Toutes les startups ne démarrent pas évidemment sur un paradigme d’illégalité, loin de là. Bien souvent, elles le font à l’insu de leur plein gré, victimes de leur naïveté ou leur angélisme, ce qui matche souvent bien avec la jeunesse de leurs créateurs. Haranguer haut et fort dans un pitch devant des business angels qu’ « on va disrupter le marché des machins trucs… » ne suffit pas à réussir. Les réglementations en place, parfois complexes et obscures, mais bien maîtrisées par les acteurs historiques du marché visé, ramènent souvent les doux rêveurs à la réalité.

Le cas Ornikar en est un bon exemple. Créée en 2013, c’est une marketplace de préparation au permis de conduire, mettant en relation des candidats avec des moniteurs indépendants. Le concept, inspiré d’Uber, est génial et prometteur, vus les prix pratiqués et la mauvaise image des auto-écoles en place. Malheureusement, la belle exposition médiatique et la solide promesse n’ont pas suffi : il a fallu attendre 2016, et quelques complications judiciaires, pour que la plateforme obtienne enfin l’agréement préfectoral, lui permettant de rendre valides les préparations au permis commercialisées via son service.

Certaines startups meurent avant d’avoir dépassé ce mur du légal ou plus généralement avoir obtenu une réglementation adaptée à leur business model. En ce moment, l’écologie et le développement durable sont des domaines fertiles en la matière. Plusieurs startups autour de la collecte, le recyclage des déchets ou les emballages écologiques, pourtant dans l’air du temps, ont dû jeter l’éponge ou peinent à se lancer, devenir rentables et durables… faute d’une réglementation incitative.

On le sait mais on fait avec

A l’inverse, nombre d’enseignes vivent très bien avec certaines pratiques que l’on pourrait qualifier d’éligibles à l’illégalité, mais qui ne sont jamais suffisamment formelles pour être attaquables.

Les sites d’annonces en ligne en sont de bons exemples. Que ce soit dans l’immobilier, l’emploi ou les offres de particuliers, une simple visite de ces sites vous amène rapidement à repérer des situations pas très claires : fausses annonces ou reprises sur des sites concurrents – au début, il faut bien commencer avec quelque chose -, annonces obsolètes mais maintenues en ligne pour remplir les rayons, escroqueries ou offres de produits douteux (contrefaçon, recel de vols, etc…), voire publicité mensongère type perdre 10kgs sans efforts. Et on ne parle pas des faux avis. En tant que simple support, ces services peuvent toujours arguer qu’il est difficile de tout surveiller. eBay en son temps – à une époque supermarché de la contrefaçon – et LeBonCoin plus récemment ont dû multiplier les modérateurs humains pour en contrôler la publication, mettant à mal un modèle économique basé sur le tout automatique. Sans compter qu’éradiquer tous ces travers n’est pas compatible avec leur rentabilité : même discutables, ces contenus sont sources de trafic visiteurs, nerf de la guerre ici.

Last but not least, le trophée du cynisme d’un opérateur sur le comportement légal de son business revient bien sûr à Facebook. Passe encore qu’il n’escroque plus personne aujourd’hui en faisant croire qu’il est gratuit. Tout le monde sait qu’il use de nos données et comportements sociaux pour les vendre à des annonceurs. C’est le deal, et seuls les naïfs doivent s’en offusquer, ou quitter le réseau. Là où la ligne jaune n’est pas loin d’être franchie, c’est l’intention affichée de vigiler toutes publications non conformes aux lois alors qu’il est avéré qu’elles sont le carburant de son activité. Facebook le sait, une infox, une rumeur, une attaque contre une personne, un groupe ou une idée, même et surtout pas étayée, bref, un mauvais post a plus de chance de faire réagir et agiter le réseau qu’une information sûre et sérieuse. Or, les réactions des visiteurs, c’est le cœur de son business : pas de réactions, même de simples likes, ça veut dire pas d’annonceurs, donc pas de revenus… Le jour où Facebook sera aseptisé, en plein respect des lois, et à chaque instant, n’est donc pas pour demain.

Arrêtons-nous tout de même sur un constat positif : le progrès ne s’est jamais fait sans chatouiller voire chambouler un monde existant. Les startups d’aujourd’hui ne font finalement pas autrement.


[1] Le concept du VTC est préexistant à UBER : en France, on appelait « Voiture de Place », de belles limousines avec chauffeur, qu’on commandait à l’avance… par téléphone ! Leur faible nombre ne gênait pas les taxis : un parking leur était même réservé à Gare de Lyon.

Share Button

La 5 G, de belles promesses à tenir

Share Button

Ça y est, l’année 2020 sera, proclame-t-on un peu partout, l’année de la 5G. On a déjà pu lire beaucoup de chose dessus sans forcément y voir très clair. Tentative personnelle d’éclairage.

La « 5G » est donc la cinquième génération du procédé de téléphonie mobile GSM, né au milieu des années 90. Par rapport à la génération précédente, les avantages qu’elle apporte ont été largement promus : plus de débit, moins de latence, plus de densité.

Le débit d’abord, qui passerait de 100 Mbits/s pour la 4G standard, à 1 Gbits/s à minima pour la 5G, soit un rapport de 1 à 10. Cette évolution a déjà largement été vendue : un film se téléchargerait en une poignée de secondes. Il en fallait quelques dizaines pour la 4G.

La latence ensuite, qui passerait de 10 à 1ms. Moins perceptible, cette qualité, qui mesure le temps de reconnexion entre cellules relais, est pourtant essentielle pour les applications qui nécessite des flux continus, comme le streaming vidéo ou le pilotage des voitures autonomes notamment.

La densité de connexion enfin, qui elle aussi serait multipliée par dix, passant de 100 000 objets connectables par km2 en théorie à 1 million. C’est probablement le paramètre crucial pour le développement des objets connectés.

Des applications nouvelles attendues

Ces améliorations significatives vont ouvrir de nouveaux champs applicatifs. Le premier d’entre eux est tout bonnement l’accès internet haut débit non filaire. Les opérateurs télécom pourront proposer un accès digne de la fibre optique sur des zones où elle est couteuse à déployer comme les zones péri-urbaines [1]. La seconde et probablement la plus attendue, est la connectivité d’objets intelligents itinérants. On pense bien sûr aux véhicules autonomes, qui pourraient recourir à une infrastructure d’appui à distance pour les piloter plutôt que d’embarquer un supercalculateur. Viennent ensuite tous les objets connectés liés à la santé, qui pourraient bénéficier d’un réseau support réellement en temps réel : surveillance du cœur pour les cardiaques, de la glycémie pour les diabétiques, des contractions pour les femmes enceintes ou la vigilance pour les personnes âgées. Autant de fonctions portées par des objets connectés déjà disponibles mais dépendant d’un smartphone et de son réseau pour exister. Là ils pourraient devenir réellement autonomes. Sur le plan industriel, on parle d’usine intelligente, où tous les composants seraient pilotés à distance en temps réel et de manière fiable ; la densité du réseau et la faible latence, apportant des garanties que les technologies existantes n’avaient pas su offrir jusqu’à présent.

La logistique et le commerce ne seront pas en reste. Les colis pourront devenir réellement intelligents. On peut les imaginer équipés de puces connectées, à même d’informer en continu la chaine logistique – du fournisseur au client – sur leur acheminement. Dans la même veine, le commerce de détail verra s’ouvrir de nouveaux horizons avec ces puces connectées : un vrai inventaire physique en temps réel et pas celui calculé par les caisses en sortie, car exprimé par chaque article unitaire, devenu un objet connecté et communicant. Imaginez un ordinateur qui fait l’appel tous les matins pour contrôler qui est présent. Et pourquoi pas un nouveau paradigme commercial, inspiré de la LLD (Location longue durée) largement déployée par les constructeurs automobile ces dernières années. Pour les articles « solides » (hors alimentation notamment) et traçables, pourquoi ne pas imaginer un prix basé sur leur usage et non leur possession, ou à défaut un paiement décalé au démarrage de son utilisation. Prenons le cas d’un pantalon : je le choisi en magasin mais « je ne le paie pas » en sortant de ce dernier. Arrivé à la maison, je l’essai tranquillement, je le soumets à ma femme (autorité de validation en la matière 😊), je l’assemble avec le reste de ma garde-robe pour vérifier que tout s’accordera. Si je suis satisfait, une action simple via une appli, un code à saisir, un QR code à scanner… réalise l’acte d’achat. Dans le cas contraire, je le ramène au magasin dès que possible. On peut même pousser le raisonnement à des usages inattendus que certains vont considérer loufoques à cette heure comme le paiement à l’usage pour n’importe quel appareil. Exemple : je n’achèterai plus pas mon batteur électrique mais me verrai prélevé chaque fois que je monte des blancs en neige. Pas possible ? en reparle dans 20 ans ?

Mais les territoires fonctionnels les plus attendus à proches échéances sont les applications sur smartphone. Non pas, contrairement à ce qui est promu en ce moment autour de la rapidité de téléchargement – qui pour un citadin d’une grande agglomération déjà largement couvert par la 4G n’aura pas de forte incidence –  mais autour des applications mobiles in-situ : la réalité virtuelle et/ou augmentée, mise en œuvre notamment sur les jeux, comme l’a initié Pokemon Go il y a quelques temps. Le flux continu en haut débit garanti devra apporter la fluidité nécessaire à ces nouvelles applications tant attendues… mais encore inconnues !

Un déploiement progressif

Pour offrir ces nouvelles performances et ces nouveaux usages, les opérateurs télécom devront revoir leurs infrastructures. Pour faire face à ce défi, nos 4 opérateurs nationaux semblent s’être déjà mis en ordre de marche : duo SFR/Bouygues d’un côté, Orange/Free de l’autre. Car les investissements prévus seront lourds : il faudra remplacer une partie du parc d’antennes existantes et en installer de nouvelles. Car il n’y aura pas de magie en la matière : selon un principe physique bien établi, pour atteindre des hauts débits, il faut des hautes fréquences, et plus une fréquence est élevée, moins la distance parcourable est grande. Il faut donc un maillage plus dense et rapprocher les points entre eux. D’où la multiplication nécessaire des antennes. La bande de fréquence « cœur » de la 5G, entre 3,4 et 3,8 Ghz, nécessitera en effet des antennes spécifiques plus proches de nos appareils : on parle d’antennes installées sur des abribus par exemple. Conscient de l’ampleur du chantier, et pour répondre au pari d’une 5G en 2020, l’état a autorisé les opérateurs télécom à utiliser la bande des 700 Mhz, déjà employée pour la 4G, pour supporter les premiers signaux 5G. Mais comme les ratios différentiant sont impactés à la baisse, on peut s’attendre à une 5G light. Il faudra patienter jusqu’à 2021 voire 2022 pour profiter pleinement de la promesse initiale.

D’autres éléments pourraient d’ailleurs freiner l’explosion de la 5G. Outre le mur du coût pour les opérateurs, ils devront affronter celui de l’acceptabilité de ces nouvelles installations pour les citoyens que nous sommes, déjà inquiets de la pollution électromagnétique de nos environnements. Il y aura aussi celui du renouvellement imposé de nos smartphones, qui en cette époque jugée critique de sur-consommation électronique, peut en ralentir plus d’un. A leur décharge, les constructeurs de smartphone devront eux aussi faire face à de nouveau défis technologiques : songez que la bande de fréquence de 26 Ghz – fréquence reine pour le très haut débit – va imposer de placer jusqu’à 3 antennes dans le smartphone car la main de son utilisateur sera le premier obstacle à franchir. Et c’est sans compter la révision profonde de l’électronique embarquée, car il ne suffit pas de proclamer qu’on va recevoir des Gigabits par seconde, encore faut-il des mémoires capables d’aller aussi vite pour les stocker, ce qui ne semble pas totalement le cas…

En tout état de cause, la révolution 5G est en marche. Elle ambitionne d’apporter de bien belles évolutions. On peut juste supposer qu’elle ne donnera tous ses fruits qu’à un rythme plus modeste que son débit semble le promouvoir ou que son écosystème industriel ne soit capable de suivre.


[1] En évitant les zones rurales,  car – lire la suite de l’article – les technologie employées ne permettent pas de couvrir de larges distances imposées en la matière.

Share Button

BlockChain : révolution ou fausse bonne idée ?

Share Button

Oui, au vu de l’engouement qu’a déjà généré cette technologie, du nombre d’articles ou d’ouvrages dithyrambiques sur le sujet, des dizaines de start-up créées autour de cet objet et pour certaines ayant déjà levé des millions, oser poser cette question est une hérésie. Pourtant, en creusant un peu, on est en droit de s’interroger sur la pertinence et la pérennité du procédé.

Commençons par revenir sur la définition du concept. On le résume à un ensemble de mécanismes logiciels permettant la validation et la mémorisation sécurisée de transactions entre pairs. Dans l’esprit, il vise à se passer du « tiers de confiance » auquel on fait habituellement appel dans des relations contractuelles bilatérales, en considérant que l’infrastructure et son fonctionnement sécurisé serviront de garant. Notons déjà que sous cette assertion, le concept n’est pas si nouveau que ça : c’était déjà la vocation des Réseaux à Valeur Ajoutée (RVA) des années 80.

Sur le plan de sa genèse et de son architecture, l’approche « BlockChain » est l’enfant naturel de plusieurs procédés :

  • L’internet d’abord, et son protocole sous-jacent, le TCP/IP. Sans lui, pas de relais public entre les nœuds, pas de neutralité dans les flux transportés, pas d’effacement des distances les séparant, le tout pour un coût quasi-nul ;
  • Les algorithmes en « peer to peer », très en vogue la décennie précédente (réseau eDonkey, Bittorrent…), qui ont banalisé le stockage distribué et dynamique entre nœuds distants ;
  • Les procédés cryptographiques, notamment le SHA de la NSA, qui permettent de garantir l’intégrité des données véhiculées.

En résumé, une blockchain est un réseau d’ordinateurs – les nœuds – agissant selon un protocole défini en vue de certifier et stocker les paquets qui lui sont soumis.

Le cas historique du Bitcoin

On le rappelle souvent, le Bitcoin, est la première manifestation grandeur réelle d’une blockchain. En effet, même si sa motivation première était annoncée financière, comme une réponse anti-système bancaire, cette notion s’appuie d’abord sur une chaine de blocs. En pratique, cette monnaie correspond à la récompense que méritent les nœuds qui prennent en charge les traitements de validation et de stockage des blocs. Ces opérations, surnommées « minage », impliquent de lourds calculs. Car il ne s’agit pas simplement d’enregistrer des données mais de s’assurer de leur consistance et de leur unicité dans la chaine de blocs existante. Et si on parle de récompense, c’est qu’il y a compétition. Cette compétition est d’ailleurs le fondement même du concept : un ensemble de compétiteurs « honnêtes » sera toujours plus fort qu’un hacker isolé malhonnete. C’est la paradigme fondateur tel qu’initié Satoshi Nakamoto[1], le père du Bitcoin. Pour faire simple, l’introduction d’un nouveau bloc est systématiquement mise en concurrence entre les nœuds actifs, le plus rapide à répondre sera le seul à gagner ses Bitcoins. A ce jour, le vainqueur de cette compétition se voit « créditer » de 12,5 Bitcoins, ou une fraction de cette somme quand il est regroupé en pool : à près de 9000 dollars l’unité à l’heure où est écrit cet article, on comprend la multiplication des mineurs.

Ce minage, et plus largement tous ces mécanismes délégués de validation et stockage des données, sont les premiers griefs portés contre ces technologies :

  • Il prend du temps car il fonctionne nativement de manière asynchrone. Parce qu’il est impensable de réaliser une prise en charge « en temps réel » à un niveau planétaire, des transactions, c’est une valse régulière qui est mise en œuvre. Il faut s’imaginer un lancer de dés toutes les 10 minutes (fréquence définie pour le Bitcoin), correspondant au rythme d’introduction des nouveaux blocs. Conséquences : selon un récent rapport, le réseau Bitcoin serait à peine capable d’opérer 80 transactions par minute quand les réseaux de paiement Visa et Mastercard en traiteraient 100000.
  • Il est gourmant en temps de calcul : l’algorithme sous-jacent, devant déterminer l’empreinte numérique (le « hash ») correspondant à la chaine de bloc actuelle ne cesse par nature de se complexifier et doit faire appel, pour rester compétitif, à des machines de plus en plus puissantes ;
  • Il est par extension très dispendieux en énergie. D’abord de manière intrinsèque : le calcul du hash étant de plus en plus complexe, il consomme de plus en plus de temps machine. Mais la mise en concurrence pour faire ce traitement produit aussi un énorme gâchis : des milliers de compétiteurs tentent leur chance mais il n’y a qu’un seul élu… Le site Bitcoin.fr chiffrait en mars 2019 la consommation du réseau Bitcoin à une quarantaine de milliards de kWh par an, soit la production de 5 à 6 centrales nucléaires. Ce n’est pas anodin…

D’aucuns diront que ces limitations techniques sont parfaitement maîtrisées et résolues au fil de l’eau – comme construire des fermes de minages en Sibérie- d’autres défauts sont bien souvent ignorés.

Idéalisation des ressources sous-jacentes

Le premier écueil est de considérer le coût quasi-nul des flux internet. C’est ce qu’on appelle la neutralité du net. Un octet vaut un octet, quelle qu’en soit la nature, et il sera transporté sans ségrégation ni surcoût, de Paris à Lille, comme de Londres à Pekin. On le sait, tout le monde en profite : c’est ce qui a fait le succès du web, premier consommateur de flux. Mais cette neutralité pourrait un jour être remise en cause, au regard du fort déséquilibre qu’elle a pu générer dans la répartition de la valeur ajoutée (en « ROI ») entre propriétaires de réseaux et producteurs de contenu. Quand on sait que 20% des flux IP sur le réseau français étaient en 2018 constitués des streaming de Netflix, sans que cela lui coûte quoi que ce soit en infrastructure, on comprend l’agacement d’opérateurs comme Orange ou SFR en France. On investit en réseau pour que d’autres se gavent [2]…. Il en est de même pour la blockchain. Dans sa conception, on part du principe que le réseau est invisible, comme un substrat naturel et évidant. Qu’en sera-t-il lorsque, voulant récupérer leur part du gâteau, les réseaux supports demanderont une commission ou un droit de passage ? le modèle économique interne et autogéré serait largement mis à mal. On peut imaginer que, faute d’être en incapacité totale d’en percevoir des revenus, ils bloquent ces flux, rendant totalement inopérant le procédé.

Le deuxième écueil qui vient à l’esprit est l’idée qu’il y a mutualisation équitable et honnête entre pairs de la prise en charge des transactions. C’est en grande partie la raison d’être du procédé : nous seulement, on rejette l’idée d’un organisme central de validation mais on suppose que la force de calcul de multiples nœuds « honnêtes » sera toujours supérieure à celle d’un nœud « malhonnête ». Ainsi, on comprend qu’inspirés par les services peer-to-peer historiques, les concepteurs voyaient plein de petits ordinateurs répartis ici ou là se répartir la charge de manière homogène et quasi démocratique, comme si chaque humain sur terre allait stocker chez lui une ou quelques pages de ce grand registre que constituerait la blockchain. C’est idée semble hélas en partie faussée. La surenchère aux calculs pousse à la concentration des moyens et le minage est peu à peu vampirisé par quelques gros opérateurs, investissant massivement dans des « fermes de minage ». Comme, la solidité du concept tient dans la répartition large des prises en charges, quand ils seront une poignée à phagocyter l’infrastructure, on sera loin de l’idéal originel…

D’autres griefs, moins techniques mais tout de même réels, apparaissent.

Le premier est celui de la supposée transparence du paradigme initial. L’intérêt de la blockchain est de pouvoir se passer d’intermédiaire, qu’il soit public, comme une administration ou un notaire, ou privé comme une banque, dans une relation contractuelle. C’est indubitablement utile sur le plan pratique et quotidien pour gagner du temps mais cela s’avère insuffisant dans l’absolu. Tout est fait pour garantir l’intégrité de la transaction mais par forcément celle de ses acteurs. J’en veux pour preuve que je peux payer une rançon en Bitcoin au pirate qui a brouillé mon ordinateur, en utilisant son identifiant de wallet, avec la garantie certaine qu’il la reçoive mais sans savoir qui je paie… On est là au cœur d’une des limites fortes du procédé : on confond ainsi intégrité de la communication entre pairs, garantie par tous les mécanismes sous-jacents du protocole et qualité de l’échange entre interlocuteurs, incluant leur authentification. Or, sans celle-ci, nombre de transactions resterons obscures et donc sujettes à caution.

Le second est sa solidité, évidemment un peu « surjouée ». Le procédé de blockhain est largement vendu comme une technologie sûre et solide. Cette idée peut être rapidement battue en brèche. La principale cause est sa nature même : ça reste un procédé logiciel, avec un algorithme qui peut être challengé comme n’importe quel autre logiciel. Notre monde ne manque pas de petits génies en capacité de relever le pari, l’histoire l’a déjà prouvé. Le récent cas de Ethereum est signifiant : des hackers ont réussi à « braquer » – ne me demandez pas comment – le réseau en s’appropriant une partie des Ether en circulation (15% dit-on). Ce n’est pas tant l’exploit de hacking qui est intéressant ici mais plutôt le débat qui a animé la communauté sur le devenir de cette partie volée de la masse monétaire globale existante, partie bien évidemment pas stockée dans un coffre-fort caché sous une montagne secrète mais bien noyée au milieu de toutes les transactions. L’option de les rendre « sans valeur » a été retenue, sans grande conviction. Il faut dire que ça affecte un caractère intangible de la blockchain : ce qui est inscrit est forcément vrai, le faux ne peut y exister, ou alors ça remet en cause tout l’édifice…


[1] Auteur du livre blanc décrivant le procédé : un mystère demeure sur sa réelle existence (personne ?, groupe ?)

[2] Dans le cas de Netflix, sa position l’a amené à trouver des arrangements « win-win » avec ces opérateurs…

Share Button

Microsoft Windows 1999, Google Android 2019, 20 ans pour rien.

Share Button

L’annonce de Google de ne plus fournir Android à Huawei, suite de la décision récente de Donald Trump, remet en lumière sa position dominante sur le marché des smartphones. Une situation bien semblable à celle de Windows au tournant des années 2000.

Commençons par un petit état des lieux : Androïd occupe près de 86% des smartphone, l’iOS d’Apple, 13% d’après des chiffres d’IDC. Pour ceux qui s’en souviennent, ce sont les mêmes parts de marché qu’occupaient respectivement Windows et MacOS en 1999. A l’époque, cela avait valu à la firme de Bill Gates de multiples procès, pour abus de position dominante et concurrence déloyale, en Europe comme dans son propre pays. Il faut dire que Microsoft avait acquis en à peine deux décennies, grâce à son système d’exploitation Windows, une position hégémonique sur les micro-ordinateurs et l’informatique en général. Maître sur le système d’exploitation, dominant sur les outils bureautiques, et généreux fournisseur d’un navigateur depuis décrié : Internet Explorer. Pour mémoire, c’est Netscape, éditeur historique des premiers navigateurs (aujourd’hui Mozilla), qui avait lancé la bataille : en offrant gratuitement son navigateur, Microsoft lui coupait l’herbe sous le pied en l’empêchant de fait de vendre le sien… Tiens, tiens, encore une similitude avec l’actualité : Qwant, l’éditeur français d’un moteur de recherche concurrent à Google, reproche à ce dernier la fourniture gratuite du navigateur – Chrome – ET du moteur de recherche par défaut – Google – aux fabricants de smartphone Androïd. En fait, à défaut de dire « gratuite », il faudrait dire « non payante », puisque Google explique demander 40$ par licence pour modifier cet état par défaut, ce qui a de quoi dissuader les fabricants de s’ouvrir à d’autres outils…

Une jurisprudence discutable

Si l’on reste dans la référence, on aura retenu que Microsoft après des années de procès, a fini par être blanchi : l’internet, malgré la bulle de 2000, était une révolution en marche qui allait balayer une grande partie de ces sujets. Je me souviens d’une réflexion qui circulait chez les geeks de l’époque et qui disait : « l’avantage avec le web, c’est que personne ne sait que t’es sous Mac ». En pratique, la couche applicative du web, annihilait l’importance du système d’exploitation, Windows, MacOS, Linux, on s’en fichait, le navigateur jouant le rôle de frontal normalisateur.

Pour revenir à l’intention initial du propos – Huawei et Androïd – , ce qui indispose dans cette affaire, c’est que ça démontre l’extrême pouvoir qu’a acquis un seul opérateur privé – Google en l’occurrence – sur le devenir de son écosystème. Exactement ce qui était reproché il y a 20 ans à Microsoft. Pourtant, peu de bruits autour de cette affaire, ses sous-jacents et ses implications : quelques procès ici ou là, quelques millions de dollars réclamés par l’Inde, jusqu’à 4,5 milliards d’euros tout de même pour l’Europe, mais pas de quoi ébranler l’entreprise, comme si une jurisprudence Microsoft était établie. A quoi bon se lancer dans des procès sans fin quand la seule finalité serait un démantèlement pur et simple du fauteur et de son offre. Il faut se rappeler que l’une des solutions envisagées pour Windows en son temps par des élus américains était sa nationalisation pur et simple, devenant un standard fédéral et propriété de la nation américaine…Dans un pays libéral comme les Etats Unis, on imagine rapidement l’incongruité de cette solution. Ajoutez à cela un certain chauvinisme de ces mêmes élus qui finirent par reconnaître qu’il n’était pas bon d’embêter comme ça une entreprise américaine, on comprend l’extinction des poursuites. Quand on voit Donald Trump avoir récemment la même réaction à propos de Google, déplorant les attaques que la firme subit et plus largement les entreprises américaines de la tech, on sait qu’on n’est partis pour suivre le même chemin.

Les consommateurs au pouvoir

Les causes de cette situation ne sont pourtant pas nouvelles et la recette parfaitement connue des acteurs du secteur. On pourrait dire qu’elle fut inventée par Bill Gates en 1980, lorsqu’il refourgue à moindre frais, c’est-à-dire à marge faible, son système d’exploitation MS-DOS à IBM pour faire tourner son PC. Il avait compris qu’en prenant place sur les basses couches d’un ordinateur, il prendrait le pouvoir sur les couches hautes : les logiciels. Google n’a pas appliqué d’autres recettes avec Android. Avec grande générosité, il « donne » son système d’exploitation aux constructeurs de smartphone, qui sont trop contents de procurer à moindre frais de l’intelligence à leur électronique. Ici, c’est un peu comme si un dealer de cocaïne en cédait gratuitement à ses clients pour mieux les enfermer dans l’accoutumance. On le savait, on a laissé faire, on s’est laissé faire…

Si dans la décennie 2000, Microsoft avait finalement courbé le dos le temps que la tempête passe, à tel point qu’il s’est laissé distancer sur plusieurs sujets (échecs sur les réseaux sociaux avec Messenger, les moteurs de recherche avec Bing ou le navigateur avec IE..), on se demande ce qui va supplanter Google aujourd’hui. Sans compter qu’il a atteint un pouvoir jamais atteint par son modèle : celui des contenus, avec son moteur de recherche, et de la publicité associée. Alors, un autre géant ? En tout cas, il sera américain ou chinois car, malgré la tentative de résistance de certains, comme Qwant pour les moteurs de recherche, ou le projet OpenStreetMap pour la cartographie, on va regretter de ne pas avoir d’acteur européen de poids.

Share Button

« Crédit social » en Chine, ou comment faire la loi en mode 2.0.

Share Button

En 2020, l’état chinois généralisera son système de crédit social, instrument de notation de la réputation des citoyens. Sur le plan philosophique, ce projet a déjà fait couler beaucoup d’encre, mais d’un point de vue digital, il a le mérite de nous faire passer du mythe à la réalité: Big Brother existe.

Le mécanisme mis en place par l’état chinois prévoit d’attribuer une note de 350 à 950 points à chaque citoyen. Comme son appellation l’indique, celle-ci représente le crédit ou la confiance qu’on pourra accorder à un individu ; une note élevée supposant qu’on peut lui faire confiance, une faible note, qu’on doit s’en méfier. Pour la produire, l’administration chinoise s’appuie sur tous les moyens dont elle dispose pour évaluer chaque individu, et ils sont nombreux : bases de données publiques et privées, analyse des usages sur internet, surveillance vidéo, remontées individuelles, etc… Une mobilisation de ressources qui ferait voler en éclats notre RGPD.

Sans prendre la défense de l’état chinois, et de son régime reconnu totalitaire, il faut supposer qu’administrer une population de plus d’un milliard d’habitants est loin d’être simple. Surtout quand les niveaux de vie et d’éducation sont si variés. Pour rappel, les millionnaires se comptent en millions, les pauvres en centaines, les citadins sont aussi nombreux que les ruraux, les éduqués cohabitent avec les illettrés. Cela donne une société au corpus extrêmement hétérogène, à l’opposé d’un Danemark par exemple, dont on vante régulièrement l’instinct de communion et de partage. A l’inverse, pour tous ceux qui déjà visité la Chine, le constat est évident : l’individualisme semble de mise dans la population, se traduisant par de multiples comportements remarquables. On ne se s’excuse pas quand on vous bouscule en ville – à quoi bon, ça arrive tout le temps -, on vous passe devant dans une file d’attente si vous n’y faites pas attention, on retient un train en gare « parce que la grand-mère n’est pas encore arrivée », on ouvre la porte de l’avion, parce qu’on trouve qu’il fait trop chaud – heureusement après l’atterrissage…-. En voiture, on roule à gauche à 60 km/h sur l’autoroute parce qu’on l’a décidé, sans inquiétude particulière puisque les autres vont vous dépasser par la droite sans scrupules, voire en empruntant la bande d’arrêt d’urgence si nécessaire. Bref, autant de comportements individuels que l’on ne peut pas considérer délictueux mais qui illustrent la genèse du projet : noter la bonne conduite du citoyen, comme une micro-justice au quotidien.

Inquiétude et fascination

Cette mise en œuvre a tout d’effrayant, de notre point de vue d’européen, dans ce qu’elle porte atteinte à la vie privée de chacun. C’est largement discuté ici ou là, avec force analyse et pertinence. Mais son côté fascinant mérite d’être noté. Si l’on se fie à ce qui est rapporté, la fabrication de ce crédit social s’appuie sur un mix de procédés qui fait vibrer toute la planète du numérique : le big data, car il faut brasser de gros volumes de données issues de différentes sources, la reconnaissance vidéo de masse, car elle inclut la surveillance en temps réel des citoyens et la désormais incontournable Intelligence Artificielle, car il faut bien digérer tout ça. Aussi, ce déploiement est inévitablement observé à la loupe par tous les acteurs du digital : finit le temps du POC – proof of concept – pour toutes ces technologies, voici le temps de la mise en prod.

C’est d’ailleurs cet état qui réveille la grogne de ces mêmes acteurs face à notre RGPD. Même s’il n’a pas été très audible jusqu’à présent, le discours sur les freins aux avancées technologiques qu’induit le respect strict de ce règlement prend corps ici. Ce programme donnera inévitablement aux chinois, libres de contraintes sur ces notions de vie privée, et alors qu’ils les maîtrisent déjà bien, une avance supplémentaire sur ces technologies. C’est autant de retard qu’on paiera probablement demain regrettent déjà ces acteurs.

L’innovation est partout

Ce qui est aussi fascinant que rassurant, c’est la réaction d’autodéfense que peut déployer l’humain dans ces situations. On ne compte déjà plus les parades mises en œuvre pour contourner le système.

Tout le monde a vu récemment ces manifestants de Hong Kong détourner de simples pointeurs lasers, pour perturber leur reconnaissance fasciale par les caméras de vidéo-surveillance. Nul doute que des dispositifs spécifiques se retrouveront demain en vente libre dans le commerce.

Dans le domaine privé, aussi impliqué – de force – dans ce programme, on cite le cas de cette compagnie d’assurance santé qui impose à ses assurés un suivi via leur smartphone de leur activité physique. Votre note prend en compte le nombre de pas que vous faites dans la journée. Résultat : une balancelle pour smartphone, à poser sur son bureau, simulant la marche est en vente libre.

Dernier cas, probablement le plus symptomatique. Comme votre crédit social prend en compte vos amis sur les réseaux sociaux, nombre de personnes ayant des notes moyennes cherchent via des forums à se lier à d’autres, ayant des scores plus élevés, pour consolider leur propre note. Conséquence probable à venir  : voir apparaître un business de l’amitié. Et facile d’imaginer le procédé : une marketplace où chacun met en jeu sa propre réputation, sur le thème « combien es-tu prêt à me donner pour être mon ami ? ». Cela peut nous paraître risible voir irritant, mais quand votre faible note vous interdit de sortir de votre province ou de prendre le train, on se rappelle que la liberté a un prix.

Share Button

Apple et l’obsolescence programmée, une vieille histoire

Share Button

Attaquée en justice à l’automne dernier par plusieurs états pour « pratiques commerciales malhonnêtes » visant à pousser ses clients à renouveler leurs appareils, la firme à la pomme n’en est pourtant pas à son premier coup d’essai, on peut même dire qu’elle en a l’habitude. Analyse.

Je suis le malheureux possesseur d’un iPad de première génération, acquis en 2011, en parfait état de fonctionnement et toujours aussi beau. Je dis malheureux car, malgré ses qualités intrinsèques, je ne peux plus en faire grand-chose, à part surfer sur le web, et encore s’il n’y a pas de vidéo HD car le module QuickTime intégré n’est plus à jour. Si l’on doit chercher la manifestation d’une obsolescence qui, à défaut d’être programmée semble totalement assumée par son constructeur, je l’ai entre les mains. Oh non, il n’est pas écrit à l’ouverture qu’il faut que je m’achète une nouvelle version mais tout est fait pour m’y inciter : propulsé par un iOs version 5, plus aucune mise à jour n’est disponible, cette version d’iPad n’étant plus supportée. Benêt, on pourrait se demander : A quoi bon une mise à jour puisqu’il fonctionne correctement ? Oui, je pourrais m’en contenter si je n’envisageais pas de continuer à l’utiliser. Sans être un écologique pur et dur, je répugne à mettre au rebus un appareil qui fonctionne encore et peut rendre des services. Le problème est que la plupart des éditeurs d’applications, inévitablement poussé par Apple, impose de disposer d’une version récente d’iOs pour s’installer. Conséquence : plus aucune application récente ne peut être implantée ou mise à jour, donc si je veux en profiter, je suis naturellement incité à acheter un nouvel iPad. CQFD.

Des motifs pourtant légitimes

Cela exposé, quand on y regarde de plus près, les mêmes motifs, légitimes, sont avancés par le constructeur depuis les premiers Macintosh. Il en a d’ailleurs fait sa marque de fabrique : toujours tourné vers l’avenir, faisant fi du passé. Ainsi, à l’instar de son concurrent Microsoft, qui a longtemps cherché à maintenir entre ses différentes générations d’OS une certaine compatibilité historique, la firme a toujours privilégié la cohérence et la solidité de ses environnements au dépend de l’écosystème applicatif déjà en place. Tant pis s’il faut changer son parc logiciel – tout au moins le mettre à jour – mais c’est le prix à payer pour disposer d’un meilleur système, performant, stable et sécurisé. Il faut admettre cette posture puisque même Microsoft a fini par s’y résoudre avec ses versions post-98 de Windows, même s’il traine encore des modes « compatibilités » qui grèvent probablement la sécurité et la performance de ses systèmes.

La rupture technologique, une autre arme

Paradoxalement, l’affaire du ralentissement logiciel des iPhone 5 en vue d’en prolonger leur durée de vie, semble être de l’anti-obsolescence : je fais tout pour te permettre de continuer à user de ton iPhone, t’évitant d’en acheter un nouveau. Aussi, fort d’un parc de plus de 900 millions d’iPhone à ce jour, Apple a peut-être pris conscience qu’on ne pouvait pas balayer d’un revers de la main, pour faire place nette, tout cet existant et qu’il valait mieux en ménager leurs propriétaires. Le syndrome Microsoft l’a peut être gagné. Non, l’autre technique qui a (presque) toujours marché pour lui, pour créer de l’obsolescence, c’est la rupture technologique. L’iMac G3, reprenant à sa sortie le principe du tout-en-un des premiers Mac, tout en transparence et de bleu vêtu, ringardisait les autres PC. C’est sur les iMac à écran plats qu’on a vu surgir les premiers écrans 24″, qui donnaient le vertige à l’époque. Sans parler évidemment de la success story iPhone. Chaque génération, par son design et ses nouveautés technologiques rendait, à grand renfort de marketing il est vrai, ringarde la précédente. Bon, ça a marché jusqu’à la version 8. Il semble au regard des derniers résultats que le filon s’épuise aujourd’hui, largement bousculé par ses concurrents chinois et coréens. Dernière réponse du constructeur : s’appuyant sur son autre marque de fabrique, un écosystème propre, largement hermétique aux technologies exogènes, il promeut un certain nombre de postures autour de la sécurité ou la confidentialité de ses technologies, et ce dans un seul but : lutter contre l’obsolescence programmée de sa clientèle…

Share Button

Microsoft : Too big to fail ?

Share Button

Oublié dans l’acronyme GAFA, Microsoft est pourtant un acteur majeur des technos, en compétition permanente avec Apple ou Amazon pour occuper la place de 1ere capitalisation boursière mondiale. Probablement trop vieille pour les jeunes, pas assez fun pour les autres, la société fait montre malgré quelques contreperformances d’une incroyable santé. Analyse.

Si les succès de Microsoft sont patents, ses échecs le sont d’autant. Pour preuve, dans un récent billet, Chris Jackson, un ponte de la société, conseillait à ses clients d’abandonner Internet Explorer au profit d’autres navigateurs. Bien qu’en lisant de plus près ce billet, le propos est plus subtil et pas aussi radical, beaucoup y ont vu le signe que la société reconnaissait avoir perdu une bataille historique : celle du navigateur, pourtant au cœur de sa stratégie il y a 20 ans.

Ce qui ne te tue pas te rend-il vraiment plus fort ?

Le cas Internet Explorer est symptomatique de Microsoft : leader et dominant à une époque (+ 90% de part de marché au début des années 2000), il est écrasé par la concurrence aujourd’hui en tombant à moins de 10%. On peut trouver mille raisons à cela mais C. Jackson dans son post en donne une : la société s’est piégée elle-même dans sa recherche de compatibilité historique. IE était devenu, dans ses versions antérieures à la 9, un bazar au comportement hybride, voulant tout à la fois afficher des pages web conçues en 1999 et celles respectueuses des standards d’aujourd’hui. Ce grand écart a été rendu possible explique-t-il en faisant l’impasse sur les performances et la sécurité. Défauts dans lesquels s’est engouffré un certain Chrome. Depuis la société l’a payé cher car les version suivantes (10 et 11) et même Edge n’ont jamais réussi à reprendre la place de leur ancêtre.

Quand on pense à Microsoft, d’autres échecs viennent à l’esprit : Msn messenger, leader incontesté des messageries instantanées il y a dix ans, est un nom que les jeunes générations ne doivent même plus connaître. Et là on parle de succès devenus échecs. La société a aussi dans son catalogue des produits comme Windows Phone ou Bing qui, malgré d’énormes efforts marketing et budgets engloutis, n’ont jamais réussi à trouver leur public.

Avoir un panier solide mais ne jamais y mettre tous ses œufs

On le sait, l’un des principaux atouts de Microsoft est sa domination sur les plateformes bureautiques Windows et Office. Avec ce binôme, elle dispose d’une base clients solide, plutôt stable et qui continu à être profitable, y compris en mode Saas avec Office 365.  Et si une leçon a été retenue de la fronde que la société a subi de la fin des années 90, c’est bien celle qu’une position dominante ne peut pas être éternelle. Pour résister, plus que chercher à assoir encore un peu plus cette position, la société s’est initiée à d’autres marchés. Ainsi, pendant qu’elle laissait filer sa domination sur le navigateur ou perdait la bataille du moteur de recherche, elle s’investissait dans de nouveaux secteurs : les jeux vidéo avec sa console Xbox ou le cloud avec Azure. Et ça c’est pour la croissance organique. Pour la croissance externe, Il faut ajouter la rachat ces dernières années de Skype, LinkedIn ou plus récemment GitHub, autant d’enseignes qui finiront par lui rapporter de nouveaux clients et réduire le risque sur ses marchés historiques. Il y a d’ailleurs une stratégie assez transparente là-dedans : la société a perdu quelques batailles sur des outils, elle veut gagner celles des communautés d’utilisateurs, cœurs de ses récentes acquisitions.

La leçon à retenir ? rien de bien original au fond, litanie d’adages populaires : ne jamais s’endormir sur ses lauriers, ne met jamais tes œufs dans le même panier et si avec tes œufs, tu peux avoir la crémière avec, c’est encore mieux.

Share Button

La fin de la neutralité du net : une opportunité pour l’Europe ?

Share Button

Comme un serpent de mer, la fin de la « neutralité du net » resurgi régulièrement, avec son lot de pro- et d’anti-. Sur le plan pratique, cela pourrait pourtant donner une opportunité à l’Europe de reprendre la main sur l’internet, qui reste sous la suprématie américaine des GAFA.

Quand le web est arrivé sur la place publique, il était considéré, figure provocante, comme l’enfant naturel du Pentagone et de la Génération hippie. Il représentait en effet la parfaite union entre la rigueur et la solidité d’un procédé militaire (le protocole TCP/IP, essence de l’Internet) et une ambition généreuse et ouverte du partage, paradigme de la génération hippie. De ce mariage est maintenant établie comme une norme que tous les flux qui transitent sur le réseau, soient non seulement amenés à destination avec certitude mais aussi et surtout sans aucune discrimination, qu’elle soit d’ordre éditorial comme financier. Un propos graveleux sur un forum sera acheminé au même titre qu’une poésie originale, une séquence vidéo porno pèse autant qu’un ordre d’exécution d’une commande, un tweet hystérique d’un Trump suit le même chemin qu’une parole philosophique du Dalaï Lama. C’est ce que l’on désigne par neutralité du Net. Vu sous cet angle, il est facile de comprendre qu’il y a un peut-être un hic.

Une guerre d’opérateurs

Les premiers à soulever l’iniquité implicite de cette neutralité ont été évidemment les opérateurs télécoms (« Telco »). Acteurs majeurs de l’accès à l’internet, ils sont sans cesse obligés de faire croitre la puissance de leur infrastructure sur leurs propres deniers pour permettre à leurs clients de consommer toujours plus confortablement, plus de de services. Services sur lesquels ils n’ont en pratique aucune rémunération supplémentaire. Bien qu’on puisse considérer qu’ils se paient sur le prix de l’abonnement d’accès facturés à leurs clients, il est aisé d’apprécier qu’ils n’aient pas un ROI proportionnel à ceux qu’ils voient traverser dans leur réseau.

Le graal du temps réel

La deuxième vague, plus actuelle, provient des acteurs des technologies d’objets connectés et notamment des voitures autonomes. Pour les comprendre, il faut revenir sur le principe de la commutation de paquet, modalité native de la communication IP. Sans entrer dans les explications techniques, retenons qu’elle interdit, par nature, purement et simplement des flux en « temps réel », pourtant nécessaires au déploiement opérationnel de leurs procédés. On imagine mal en effet une voiture autonome attendre un temps incertain la décision finale de freiner fournie par une IA interrogée via le réseau. Rappelons ainsi que le principe qui prévaut sur le protocole IP est un routage au fil de l’eau des paquets selon une loi élémentaire : le premier paquet qui arrive sur un routeur sera le premier à être transféré vers le chemin sensé l’amener à sa destination finale. Ce que souhaitent finalement ces opérateurs, ce sont des billets « coupe-file » qui permettraient à leurs paquets de passer devant les autres dans une file d’attente. Last but not least : cette possibilité était déjà prévue dans les normes IP…

Un potentiel business des flux

On peut le déduire, ces billets coupe-file, comme dans la visite d’un musée, imposerait un surcoût à celui qui veut en bénéficier. Les opposants à la fin de la neutralité voient dans cette possibilité, une antinomie avec l’esprit des géniteurs du web : le riche passerait devant le pauvre, le puissant écraserait le faible, etc. On peut aussi voir le sujet d’un autre point de vue : un opérateur réseau pourrait mettre à l’amende (en dégradant sa bande passante) un service qui surconsommerait. Certains diront que tout ça est peu réaliste au regard des puissances en jeu. C’est vrai. Mais mettre en place cette gestion des flux sur leur réseau, obligeraient les telco à les régenter plus finement. Elle pourrait leur offrir des sources de revenus supplémentaires pour leur business et sur le plan macro une base de taxation localisée – donc européenne. Imaginez simplement qu’un Facebook ou un Netflix (25% des flux internet en France à lui seul sur 2018, d’après l’ARCEP) paient de manière proportionnée aux Orange, SFR ou Free ce qu’ils génèrent comme trafic sur leurs réseaux.

Share Button

La longue marche vers un numérique écologique

Share Button

 

« Pensez écologie : n’imprimez ce mail que si c’est nécessaire ! », cette apostrophe accompagne généralement une riche signature avec logo et couleurs de la boite, complété d’un long disclaimer inséré automatiquement par le serveur d’envoi. Tout ça pour un « OK, ça marche », banale réponse à une confirmation de rendez-vous. Il ne faut pas être particulièrement intelligent pour comprendre que le ratio information utile/consistance du message est très faible. Quand on sait ce que coûte un email en transport, traitement et stockage – l’ADEME l’estime in fine à 15 gr de CO2 –, on se dit qu’un tel message n’est en fait pas très écologique.

sourisfumeeEt à ce compte, les nouveaux usages du numérique font exploser le compteur de watts et de CO2. Car s’il faut admettre que si les emails perdent un peu de leur ampleur, c’est souvent au profit de réseaux sociaux et autres messageries instantanées. Cherchez un instant à estimer le nombre de flux générés sur internet pour un simple Like d’un post sur Facebook (FB). Vous aurez rapidement le tournis. Ce like qui remonte vers les serveurs de FB, il faut le propager vers les autres connectés, mettre à jour leur flux, parfois en y ajoutant quelques animations, générer des notifications donc des messages et emails et stocker le tout pour que vous puissiez le retrouver. Mon email écolo, c’est de la gnognote à côté. Et je ne n’ose même pas aborder les dernières pratiques à la mode : les selfies à gogo et les live vidéo…

Mais le mal semble plus profond

Les grands opérateurs du web avaient implanté dans les années 2000 de gros datacenters à proximité de centrales électriques à charbon, en Virginie ou Caroline du Nord, pour le faible prix de l’énergie qu’elles procuraient. Greenpeace avait ainsi épinglé en 2012 Apple, Microsoft et Amazon pour leur recours abusif à ces énergies sur-polluantes. Depuis, tout le monde est rentré dans le droit chemin. Et chacun y va de l’annonce d’ouvertures de datacenters « propres », appuyés sur du solaire, de l’éolien, plongés sous l’eau, implantés dans le froid arctique, bref que des solutions vertes. Mais qu’on ne s’y trompe pas. Il y a dans ces stratégies une approche plus économique qu’écologique. Tous ces opérateurs savent qu’ils doivent maintenir des datacenters de plus en plus gros, pour servir une consommation galopante, qu’ils génèrent eux-mêmes ! L’équation est alors simple : pour rester rentables, il faut réduire les coûts. Et les énergies renouvelables ont ce principal avantage d’être gratuites !

Plus triste, on découvre au détour d’une lecture – le livre évènement de Guillaume Pitron (La guerre des métaux rares, éditions Les Liens qui Libèrent) – , que l’industrie de la transition énergétique et plus largement du numérique semble tout sauf propre. Tantale, cobalt, indium, et tant d’autres métaux rares, sont indispensables à ces technologies, de l’Iphone au panneau solaire, en passant par les batteries de nos voitures électriques. Or, l’extraction de ces métaux rares coute une fortune, au sens propre comme au figuré. Il faut bien souvent soulever de gros volumes de minerai brut pour extraire quelques kilos de matière utile. On imagine l’état des territoires impactés par ces industries. En RDC, pour le Cobalt, et surtout en Chine, pour la majorité des métaux rares, dont elle s’est fait la spécialité. Avec ce que l’on sait d’elle sur ce qu’elle peut accepter pour gagner la guerre économique : conditions sociales, humaines et sanitaires désastreuses, impacts écologiques totalement ignorés, etc…

L’humain à la rescousse

Comme de coutume, la solution viendra de nos comportements. On sait qu’on ne va pas abandonner notre smartphone au profit d’un téléphone filaire en bakélite et qu’on écoutera plus de musique sur un poste à galène. Donc, on réfléchit à deux fois avant de cliquer sur Like, de partager la n-ème vidéo de chat acrobate ou de prendre des photos inutiles stockées dans le cloud de son smartphone…

Share Button