Les métavers, des futurs probables à l’e-commerce

Share Button

Bien connus des joueurs en ligne ou des anciens résidents de Second Life, ces univers virtuels, après un passage à vide, reviennent sur le devant de la scène. Nouvelles technologies et nouveaux services se multiplient et tentent de sortir ces métavers de leur dimension de divertissement : et pourquoi pas de nouvelle façon de faire des affaires ?

La dernière annonce de Facebook sur sa solution de réalité virtuelle Horizon, à vocation sociale et professionnelle, a remis en selle, dans la bouche de son patron Mark Zuckerberg, le concept de Métavers. Pour les novices – dont je faisais partie -, ce néologisme désigne un espace virtuel en 3D, reproduisant plus ou moins fidèlement notre réalité, dans lequel chaque individu se voit représenté sous la forme d’un avatar, un personnage au profil physique voire psychologique totalement paramétrable, et qui peut se mouvoir et agir librement dans des environnements plus ou moins préconçus. Issu de leur univers, les amateurs de jeux vidéo reconnaîtrons ici des fonctionnalités bien banales. Même sur le concept, les fans de Second Life dans la décennie 2000 ou des Sims encore avant, ou plus récemment d’Animal Crossing ou Fornite, n’y verront rien de novateur. Pire, si on s’arrête sur le cas de Second Life, le principe, malgré un petit regain d’activité pendant la pandémie, s’est épuisé et beaucoup ont déserté ces mondes virtuels. Sur les aspects purement frontaux, ces métavers peuvent donc sembler être du réchauffé. Il faut cependant admettre que sur le fond, quelques révolutions sont en marche.

Une convergence de nouvelles offres

Devenant de plus en plus abordables, fiables et précises, les lunettes 3D ou casques de réalité virtuel sont au cœur du mouvement. Elles permettent d’être immergé sans interférences visuelles dans ce monde 3D. L’annonce récente de Facebook Horizon visait surtout à promouvoir son produit Oculus Quest2, un kit complet de réalité virtuel, comprenant le casque, deux manettes et une série de services et d’applications dédiés. La vidéo de démonstration propose des scénettes de téléréunion assez démonstratives voire bluffantes (https://www.youtube.com/watch?v=lgj50IxRrKQ).

Sur les plans équipements et infrastructures, les cartes graphiques boostées à l’IA, les technologies cloud arrivées à maturité et les débits réseaux toujours en augmentation, notamment avec le déploiement de la 5G, améliorent grandement la fluidité des animations et la définition graphique des images et offrent un rendu de plus en plus réaliste et crédible.

L’autre grande nouveauté est l’entrée en lice des cryptomonnaies comme moyens de transaction. La notion de monnaie dans un univers virtuel a toujours été présente : Second Life avait son Linden dollar ou Fornite ses V-Bucks. Mais jusqu’alors, on jouait surtout autour de crédits d’utilisation qu’on pouvait acquérir, gagner, consommer ou parfois céder, dans une logique parfaitement orchestrée par la plateforme elle-même, comme le ferait une banque centrale sur les marchés. Les nouveaux métavers s’appuient eux sur les cryptomonnaies, l’Ethereum ou ses variantes, qui ont nativement des fonctionnements bien plus autonomes.

Par extension, la décentralisation est aussi au cœur de ces nouveaux métavers. D’une architecture centralisée d’un Second Life où tous les serveurs étaient hébergés en Californie, on passe à un Decentraland au nom évocateur, s’appuyant sur les architectures peer-to-peer de la BlockChain Ethereum, pour répartir charge et sécurité de fonctionnement.

De nouveaux biens commercialisables

Mais probablement l’élément qui marquera ces métavers est le déploiement des NFT. Si le commerce d’éléments immatériels, comme l’accès à des services en ligne tels que le streaming vidéo ou musical, les jeux ou les formations à distance n’a pas attendu les mondes virtuels pour exister, le procédé NFT (Non Fungible Token, ou Jeton non interchangeable) ouvre indubitablement de nouvelles perspectives de business. Un NFT est un certificat numérique qui identifie, grâce à la blockchain, de manière fiable et sécurisée, un actif numérique (une image, un texte, un son ou une vidéo) mais aussi son propriétaire. Appuyé généralement sur l’Ethereum comme monnaie de valorisation, cet actif peut donc se négocier sur un marché comme n’importe quel bien cessible. Des exemples ont déjà été largement médiatisés : l’œuvre virtuelle de l’artiste américain Beeple, « Everydays : The First 5000 Days », a été vendue en mars dernier 69,3 millions de dollars ; Jack Dorsey, le fondateur de Twitter, vend son tout premier tweet pour 2,9 millions. Ça c’est pour les pièces uniques remarquables. Mais le vrai marché en devenir ressemblera probablement celui initié par la NBA, la fédération américaine de basket. Elle a ouvert il y a quelques mois un service dénommé NBA Top Shot, qui n’a de produits que des séquences vidéo courtes, des extraits de match, estampillées NBA. Les fans de basket peuvent acheter ces séquences par pack, pour quelques dollars (de 9 à 230 selon la valeur estimée) et bien sûr les échanger ensuite sur un second marché. Si vous avez joué aux cartes Panini de foot ou autre dans la cour de récrée quand vous étiez gamin, vous pourrez comprendre pourquoi cela marche : la plateforme annonce avoir dégagé 240 millions de dollars de chiffre d’affaires dans cette première phase. Le plus étonnant dans l’affaire c’est que la plupart des matchs dont sont extraites ces vidéos sont accessibles de manière ouverte sur YouTube…: on comprend donc que c’est l’instinct de propriété qui joue à plein dans contexte.

Voir un exemple : https://nbatopshot.com/listings/p2p/208ae30a-a4fe-42d4-9e51-e6fd1ad2a7a9+ba2c1c1f-9a4b-430e-b54c-13a695733c74

Instinct de propriété qui est aussi sollicité dans le metavers Decentraland : Un lot de terrains s’est récemment vendu pour plus de 900 000 dollars. Composé de 259 parcelles de terrain, est un des plus gros investissements en terrain dans Decentraland en termes de taille. Pourquoi faire ? il faut simplement se souvenir que dans ce metavers, l’ensemble des actions sont calquées sur la vraie vie : il faut gagner de quoi vivre, s’habiller, se loger, travailler… Republic Realm, la société à l’origine de cette acquisition, se comporte simplement en promoteur immobilier virtuel, prévoyant immeubles d’habitation et surtout centres commerciaux dont il percevra plus tard les redevances.

Les frontières du réel

Mais un univers virtuel, aussi consistant et réaliste qu’il soit possible de fabriquer, ne pourra cependant atteindre la consommation physique de masse, hors de la sphère des geeks et autres digital native. Il faut envisager des passerelles. C’est la base du concept du Boson Protocol, une logique de commerce totalement décentralisé, où données, monnaies et transactions pourront s’opérer et s’échanger sans aucun intermédiaire tout en restant connectable aux échanges physiques. L’ambition est énorme car elle vise à virtualiser les interactions entre tous les acteurs de la chaine de commerce : du comparateur de prix, à la gestion des identités, en passant par les assureurs, les plateformes de paiement, de livraison ou d’e-réputation. C’est en tout cas la promesse de Portal, la plateforme implémentant ce protocole.

Dans un premier temps, il s’agit de porter virtuellement un vêtement et de s’exposer ainsi puisque, comme le montre les images de démonstration, on peut acheter la photo sur laquelle est porté le vètement. Un produit ciblé influenceurs mode indéniablement. Plus tard, on pourra se mouvoir en portant le vêtement, en adapter la taille et ainsi l’apprécier sous toutes ses coutures. Si cela convient, on passe commande via l’acquisition de NFT pour recevoir le produit.

https://medium.com/bosonprotocol/introducing-dressx-bef254843126

Incontestablement, tout se mets en place pour ouvrir la nouvelle ère du commerce électronique, au sens propre du terme. Bon, à cette heure, pour un boomer comme moi, j’ai encore un peu de mal à m’y projeter mais il va falloir s’y faire.

Share Button

Livraison ultra-rapide, vers le tout, tout de suite ?

Share Button

Flink, Gorillas, Cajoo… les services de livraison à domicile ultra-rapide se sont multipliés cette année, promettant vos courses en 15 voire 10 min. Les levées de fond accompagnant ces lancements ont de quoi interpeller : cela a tout d’un nouveau marché très prometteur. Est-ce réellement le cas ? ça se discute.

Imaginez-vous en train de préparer votre recette favorite et découvrir en plein action qu’il vous manque un ingrédient. Pas de panique, à porter de mobile, vous pouvez maintenant le commander et le recevoir en moins d’un quart d’heure, de quoi poursuivre tranquillement votre préparation. C’est sur ce scénario que se sont basées ces nouvelles startups spécialisées dans la livraison ultra-rapide de courses à domicile, ou sur des situations comparables : un apéro improvisé, un diner en panne de dessert ou une soirée en souffrance d’alcool, bref ces situations où on n’a pas le temps d’attendre et/ou la paresse de sortir faire ses courses. Considérés comme anecdotiques par certains, ces uses cases ont été jugés suffisamment consistants pour initier des investissements qui eux n’ont rien d’anecdotiques : 52 millions de dollars pour Flink, 240 pour son compatriote allemand Gorillas, 6 millions d’euros pour le petit français de la bande Cajoo. Alors est-ce la marque d’un nouveau marché pérenne ? comme une réponse évidente à l’accoutumance à l’instantané et aux délais cours dans laquelle a grandi toute une génération de millenials et autres digital natives avec l’internet ? rien n’est moins sûr car à y regarder de plus près, le concept n’a pas encore prouvé sa solidité, et ce pour de multiples raisons.

Une réponse conjoncturelle

On le sait, la naissance de ces startups s’est faite dans un contexte bien particulier : la pandémie COVID 19. Confinement et couvre-feu ont été ses deux ferments principaux. Ainsi, au même titre que les livraisons de repas à domicile ont explosé dans cette même période, faute de restaurants ouverts, la possibilité de faire ses courses en dehors des heures limites des couvre-feux déclarés ici ou là, devait être satisfaite. Et pour les magasins restés ouverts, masques obligatoires et jauges limitées, pouvaient refroidir certains et leur faire préférer l’achat en ligne, sans contact et donc safe. Mais lorsque toutes ces contraintes seront tombées – ce qui est en cours à l’heure où sont écrites ces lignes -, l’intérêt pourrait s’étioler naturellement. A contrario, à l’image du télétravail qui est passé de l’exception à un usage répandu, il est probable que ces pratiques se soient déjà installées chez certains consommateurs, en minorité pour le moment.

Le défi que doivent donc relever ces startups est de pérenniser ce nouveau mode de consommation. Pour ce faire, les levées de fonds auront largement leur utilité. Pour communiquer d’abord, as usual. La guerre publicitaire fait déjà rage entre les acteurs pour tenter de s’inscrire le premier dans l’esprit du consommateur. Pour se déployer ensuite, et vite mailler le territoire visé pour répondre à la promesse de rapidité. Car il n’y a pas de magie, pour faire vite, il faut des distances courtes, et pour faire court, il faut être partout. Aussi, comme on a vu naître des dark kitchen, cuisines de restaurant sans salles ni clients, destinées uniquement à livrer des repas via les plateformes, on parle maintenant de dark store, magasins sans vitrines ni client, de simples mini-entrepôts logistiques en fait. Le principe au cœur de ces startup est donc de déployer ces darkstore en nombre et au plus proche des clients potentiels. C’est une autre difficulté qui se présente alors. Il faut cibler des zones densément peuplées et au pouvoir d’achat suffisant pour surpayer des produits de première nécessité. Il est à ce titre très intéressant d’analyser les premières cartes de couverture de ces acteurs sur une ville comme Paris.

Pour ceux qui connaissent la ville, ces cartes recouvrent bien la cible : on voit qu’en creux, des zones entières ne sont pas couvertes soit car trop populaires (le nord Paris ou le 13ème arrondissement, foyers modestes et grands ensembles) soit parce que désertiques comme le 7ème arrondissement. Le paradoxe est que, le plus souvent, ces zones couvertes sont déjà bien achalandées en commerces locaux. A titre d’exemple, peut-être privilégié, dans mon quartier du sud 20ème, on ne compte pas moins de 5 supermarchés accessibles à pied, dont certains ouverts tard (23 heures pour le Carrefour Market). Et c’est sans compter, ces petites échoppes qui se sont multipliées, souvent tenues par des Pakistanais et qui offrent gamme de produits et horaires tardifs à même de satisfaire les attentes des consommateurs pressés et désynchronisés, cœur de cible de ces nouvelles plateformes. Il est vrai cependant qu’il faut descendre de chez soi, marcher jusqu’au commerce, parcourir les rayons et revenir les bras chargés, soit autant d’actions qu’on peut éliminer en quelques touches sur son mobile : c’est sur cette paresse que jouent ces nouveaux services.

Schizophrénie écologique

Nées dans une époque où l’écologie est devenue cardinale, il était inévitable que ces startups basent leurs pratiques et les accompagnent des discours à même de séduire la clientèle visée, le trentenaire urbain pour faire court. C’est une mise en avant des « produit frais et locaux » pour Frichti ou des livraisons à vélo électrique pour Cajoo et Flink. Mais à y regarder de plus près, cela occulte pas mal de caractères du modèle d’affaire, qui eux n’ont rien d’écologiques. La dispersion native des lieux de stockage, pour un même volume de produits conservés, est dispendieuse en énergie vs un grand entrepôt commun. La gestion de stock en flux tendu ensuite, indispensable aux petites surfaces déployées et bien évidemment aux produits frais, est à l’origine – on le sait depuis 40 ans – de la multiplication de transports polluants. Les emballages de livraisons sont souvent à usage unique, donc générateur de déchets. Et surtout, comme une question qui ne se pose plus dans ces business, on occulte très rapidement les impacts du sous-jacent numérique dans l’affaire. Intuitivement, Il apparaît plus écologique de descendre les escaliers pour aller acheter un kilo de tomates que de les commander via son smartphone.

Un avenir probable mais incertain

Si l’on se réfère aux performances de ces startups sur des territoires comme l’Allemagne, on ne peut nier qu’il y a un réel marché. Même si sur le plan de la distribution alimentaire la France n’est pas l’Allemagne et Paris n’est pas Berlin, il est fort probable que ce marché se développe donc dans notre pays. On connait déjà les prochaines étapes : demain, on ira chatouiller les 5minutes, supprimant circulation routière et montée en étages, avec les livraisons en drones chères à M. Besos. Et peut-être un jour, on ira encore plus vite, avec un truc qui nous faisait rêver gamin dans la série Star Trek : la téléportation, restera à choisir si je me téléporte au magasin ou si je fais téléporter mes tomates…

Share Button

Les nouvelles offres #nocode, mort ou salut des développeurs ?

Share Button

C’est une évidence, le marché du « #nocode » semble atteindre l’âge de la maturité. Fédérant les outils promettant le développement d’applications « sans écrire une seule ligne de code », et donc en se passant de spécialistes de la programmation, cette tendance signe-t-elle la fin des développeurs ? pas si sûr…

Derrière le mot valise #nocode, les WebFlow, Bubble ou AirTable, pour ne citer qu’un petit échantillon, génèrent un véritable engouement sur le web et les réseaux sociaux. En pratique, ce hashtag désigne une kyrielle d’outils, en mode SaaS pour la plupart, qui ont des périmètres fonctionnels et des ambitions très variés. Du simple connecteur de données, comme Sheety, à l’atelier logiciel complet comme Bubble ou le français Panda Suite, on peut trouver aujourd’hui tous les composants permettant de fabriquer, comme un jeu de Lego (ou de Mécano, pour ma génération) n’importe quelle application. Sur le fond, le besoin à satisfaire n’est pas nouveau, ces réponses, bien que nouvelles en apparence, ne le sont pas vraiment.

Une vielle quête du Graal

Dès l’apparition des ordinateurs civils, à l’après-guerre, leurs utilisateurs, qui étaient par essence aussi les développeurs, n’ont eu de cesse de mettre au point des interfaces ou langages, leur permettant de parler à leurs machines autrement qu’en stimulis binaires, les fameux 0 et 1, seules expressions reconnues par celles-ci. Toutes les générations d’informaticien ont suivi ce long développement des langages, des Fortran ou Cobol de l’époque, aux Java, C#, Javascript, Go ou Python d’aujourd’hui. Langages qui, bien que dits « évolués », restent pour le novice un charabia abscons. Pour contourner ce défaut, dès les années 70, IBM propose le GAP, premier outil de l’histoire qu’on pourrait qualifier de #nocode. La méthode s’appuyait sur formulaire standardisé, où le concepteur cochait des cases dans un agencement précis, pour exprimer son souhait de traitement. Bon, ça restait fastidieux et très éloignés de nos outils d’aujourd’hui mais c’était un début.

Dans les années 80, avec l’avènement des interfaces graphiques (Mac OS puis Windows), on voit apparaître des outils de développement adaptés à ces nouveaux univers. C’est la période de gloire des Visual Basic de Microsoft ou plus tard de WinDev en France, premiers IDE (interface de développement) à vocation #nocode. Le développeur pouvait s’appuyer largement sur des blocs graphiques préconçus et des interactivités pré-gérées et le tout, à grand renfort de conception visuelle et de drag’n drop. Au niveau utilisateur bureautique, Microsoft Access, est déjà un tout-en-un #nocode. Avec un peu de temps, on peut en effet construire une application complète autour d’une base de données, avec des menus, des formulaires, des états, et toujours sans écrire une seule ligne de code, largement guidé par des assistants et des modèles préétablis.

L’avènement du web, au milieu des années 90, voit émerger d’autres outils #nocode : les éditeurs HTML (GoLive, FrontPage ou Dreamweaver). Ils permettent alors de fabriquer nos premières pages web, sans écrire une seule ligne de code…HTML, seul langage reconnu par nos navigateurs.

A un niveau supérieur, les années 2000 voient se développer les CMS (Content Management System) : les WordPress, Drupal ou Joomla. Ils permettent alors de concevoir un site web et de maintenir son contenu, là encore, sans écrire quoi que ce soit, juste en choisissant dans des catalogues d’options, de plugins ou de modèle d’interfaces (les fameux « templates »). On est déjà encore et toujours dans du #nocode. Ce marché a d’ailleurs donné naissance à nombre de webmasters et d’agences web, travaillant exclusivement sous WordPress par exemple et premiers développeurs #nocode, un début de réponse à la question initiale.

L’avènement des AirTable, Bubble ou Power Apps, vrais outils qualifiés de #nocode est donc une suite logique et naturelle. Comme attendus, et même si certains d’entre eux arrivent avec de nouveaux paradigmes – comme AirTable – ils poussent simplement plus loin les pratiques de leurs prédécesseurs : interfaces totalement graphiques, catalogues de modèles, multiples assistants et toujours la souris comme bras armé.  Le Graal d’expliquer à la machine ce qu’elle doit faire sans le dire dans sa langue est-il atteint ? on en est encore loin mais on s’en rapproche.

Des avantages évidents

Tout comme leurs prédécesseurs, les outils #nocode offrent la facilité, la rapidité et la souplesse dans la composition des applications. Ce qu’elles ont de plus aujourd’hui, c’est qu’elles s’inscrivent toutes dans une architecture « cloud » avec ses paradigmes techniques et commerciaux : un hébergement externalisé et sécurisé, un déploiement de fait aisé, une montée en charge fluide et maîtrisée pour les aspects techniques et un modèle tarifaire simple puisque basé sur l’abonnement pour l’aspect commercial. Le multiple plateforme (desktop, tablette, mobile) est aussi un atout certain.

Mais des défauts endogènes occultés

Le premier défaut est inhérent à l’environnement cloud de ces outils : le mode SaaS offert pour la plupart soulève les questions récurrentes de sécurité, confidentialité et réversibilité des données qui y sont gérées. On a du mal à imaginer une entreprise développer une application critique pour son activité sur une plateforme dont elle ne maîtrise pas la solidité et la pérennité. Phénomène accentué par la nécessité fréquente d’agréger de multiples outils et services pour couvrir l’ensemble des besoins fonctionnels.

Le deuxième défaut est propre à toutes les solutions standards promettant de répondre à des besoins individualisés, à partir d’une mécanique unique. Constat vécu par tous ceux qui s’y sont déjà frottés au travers des CMS par exemple, c’est le piège du 80/20 ou 90/10 : L’outil va permettre de résoudre aisément et rapidement 90% de votre problème, et les 10% restant – que vous avez souvent négligé en vous engageant avec enthousiasme dans le projet – vont vous compliquer la vie, vous faire perdre temps et argent, voire vous amener à abandonner le projet s’ils s’avèrent critiques.

Le troisième écueil, et non des moindres, est celui de la confusion entretenue dans le potentiel réel de ces outils avec les compétences et la disponibilité d’un usager non spécialiste. Leur présentation, toujours plus séduisantes, amènent à faire croire qu’on pourra tout faire avec. Ce qui est une erreur. Car si un bon ouvrier a toujours de bons outils, ce n’est pourtant pas l’outil qui fait l’ouvrier. Ce n’est pas parce que vous maîtriserez Word que vous deviendrez auteur de roman à succès. Tous ceux qui travaillent – les développeurs, chefs de projet et autres PO – dans la conception d’applications le savent bien. Outre du temps dédié, leurs activités imposent des dispositions mentales particulières, d’abstraction pour la conception, de raisonnement algorithmique pour le codage organique des process, qui ne s’improvisent pas et/ou ne peuvent émerger simplement par ces outils. Combien d’utilisateurs bureautiques, forcément un peu curieux et volontaires, ont cédé aux sirènes du #nocode version Access par exemple, et qui ont souffert – en temps et énergie – pour arriver à un résultat potable, quand ils l’on atteint ?

Alors, mort ou salut ?

Evidemment, ni l’un ni l’autre. L’offre actuelle a tout pour séduire un large éventail de nouveaux praticiens et développer encore de nouveaux profils de développeurs. C’est donc un marché qui s’élargit. Et puis, si les premiers chantiers ne révèlent pas de carrières de développeurs, comme on a pu le voir avec les logiciels antérieurs, ça fait toujours du travail de maintenance et d’évolution pour des spécialistes.

Et n’oublions pas, ceux qui ont réussi et fait fortune à l’époque de la ruée vers l’or, ce n’est pas les chercheurs mais les vendeurs de pelles et de pioches. En d’autres termes, n’achetez pas de machine à pain, laissez-faire votre boulanger, vous aurez du mal à l’égaler, en qualité et dans la durée.

Share Button

Faut-il être illégal pour être novateur ?

Share Button

Uber, Deliveroo, Frichti, etc… On ne compte plus maintenant les entreprises de la nouvelle économie qui font l’objet de procès intentés ici ou là, pour des motifs variés et à des degrés divers. A croire que ces nouveaux business, souvent qualifiés de disruptifs, le sont d’abord sur la légalité de leurs pratiques. Point de vue.

Vente à perte et concurrence déloyale

C’est quasiment le premier délit que l’on peut reprocher à une startup : proposer un service ou un produit à un prix qui s’avèrera in fine en deçà de son coût de revient, si on y intègre les incontournables dépenses markéting. C’est d’ailleurs endogène à la nature même d’une startup : mettre le paquet pour préempter un marché, quitte à assécher les acteurs déjà présents.

Le cas emblématique de cette approche est bien sûr Amazon. Pour ceux qui s’en souviennent, Jeff Bezos a fièrement enchainer les déficits, pendant les 2 premières décennies de son existence. D’aucun dirons qu’en la matière, il s’agissait de bénéfices réinvestis, donc ce n’était pas des pertes. Mais finalement, si vous vendez un livre 10 $, que vous avez acheté 6$ mais que pour le vendre ça vous coûte 5$, il ne faut pas avoir fait HEC pour calculer le résultat. On le sait, en France, cette pratique de la vente à perte est illégale, – on ne peut pas vendre un produit moins cher qu’on ne l’a acheté – car on considère que cela fausse le marché et constitue une forme de concurrence déloyale. Malheureusement, elle est quasiment inapplicable en la matière. Et pour Bezos, l’objectif aura été atteint : après avoir ainsi cassé le marché de la distribution, il en récolte aujourd’hui les énormes bénéfices.

L’autre exemple de marché faussé est le cas de UBER. On peut lui reconnaitre d’avoir déployé un service original (pas les VTC mais leur pilotage par application mobile [1]) et d’avoir initié un concept qui porte maintenant son nom. Mais cela s’est fait sur un subtil et douteux mix de souplesse contractuelle – les chauffeurs sont des travailleurs indépendants – et de contraintes qui leurs sont imposées – tarifs, véhicules, horaires -. Ce sont ces dernières qui valent à la société le plus de procès : requalification des chauffeurs en salariés pour la Californie, procès pour concurrence déloyale par les taxis parisiens. Et c’est toujours sur la même musique : les relations commerciales entre les acteurs ne sont pas si libres que ça…

D’autres acteurs ont bien compris le modèle et l’ont poussé plus loin. Les opérateurs Déliveroo, Uber Eats ou Frichti, sous prétexte de garantir les revenus de leurs livreurs en limitant leur nombre dans un secteur donné et une plage horaire définie – le carcan des licences de taxis parisiens n’avait pas d’autre objet soit dit en passant – , leurs conseillent l’inscription à des « shifts planifiés », sortes de CDD pendant lesquels les livreurs s’engagent à être à leur disposition et les plateformes à leur fournir en priorité des courses. En pratique, cela permet surtout à ces dites plateformes de disposer de ressources stables sans en payer les frais fixes. « Juste mordre la ligne jaune…, sans la franchir » : c’est le conseil qu’avait prodigué le Juge Van Ruymbeke à Xavier Niel, lors d’un procès en 2005. Il semble qu’on soit bien dans cet esprit ici.

Naïveté ou cynisme ?

Toutes les startups ne démarrent pas évidemment sur un paradigme d’illégalité, loin de là. Bien souvent, elles le font à l’insu de leur plein gré, victimes de leur naïveté ou leur angélisme, ce qui matche souvent bien avec la jeunesse de leurs créateurs. Haranguer haut et fort dans un pitch devant des business angels qu’ « on va disrupter le marché des machins trucs… » ne suffit pas à réussir. Les réglementations en place, parfois complexes et obscures, mais bien maîtrisées par les acteurs historiques du marché visé, ramènent souvent les doux rêveurs à la réalité.

Le cas Ornikar en est un bon exemple. Créée en 2013, c’est une marketplace de préparation au permis de conduire, mettant en relation des candidats avec des moniteurs indépendants. Le concept, inspiré d’Uber, est génial et prometteur, vus les prix pratiqués et la mauvaise image des auto-écoles en place. Malheureusement, la belle exposition médiatique et la solide promesse n’ont pas suffi : il a fallu attendre 2016, et quelques complications judiciaires, pour que la plateforme obtienne enfin l’agréement préfectoral, lui permettant de rendre valides les préparations au permis commercialisées via son service.

Certaines startups meurent avant d’avoir dépassé ce mur du légal ou plus généralement avoir obtenu une réglementation adaptée à leur business model. En ce moment, l’écologie et le développement durable sont des domaines fertiles en la matière. Plusieurs startups autour de la collecte, le recyclage des déchets ou les emballages écologiques, pourtant dans l’air du temps, ont dû jeter l’éponge ou peinent à se lancer, devenir rentables et durables… faute d’une réglementation incitative.

On le sait mais on fait avec

A l’inverse, nombre d’enseignes vivent très bien avec certaines pratiques que l’on pourrait qualifier d’éligibles à l’illégalité, mais qui ne sont jamais suffisamment formelles pour être attaquables.

Les sites d’annonces en ligne en sont de bons exemples. Que ce soit dans l’immobilier, l’emploi ou les offres de particuliers, une simple visite de ces sites vous amène rapidement à repérer des situations pas très claires : fausses annonces ou reprises sur des sites concurrents – au début, il faut bien commencer avec quelque chose -, annonces obsolètes mais maintenues en ligne pour remplir les rayons, escroqueries ou offres de produits douteux (contrefaçon, recel de vols, etc…), voire publicité mensongère type perdre 10kgs sans efforts. Et on ne parle pas des faux avis. En tant que simple support, ces services peuvent toujours arguer qu’il est difficile de tout surveiller. eBay en son temps – à une époque supermarché de la contrefaçon – et LeBonCoin plus récemment ont dû multiplier les modérateurs humains pour en contrôler la publication, mettant à mal un modèle économique basé sur le tout automatique. Sans compter qu’éradiquer tous ces travers n’est pas compatible avec leur rentabilité : même discutables, ces contenus sont sources de trafic visiteurs, nerf de la guerre ici.

Last but not least, le trophée du cynisme d’un opérateur sur le comportement légal de son business revient bien sûr à Facebook. Passe encore qu’il n’escroque plus personne aujourd’hui en faisant croire qu’il est gratuit. Tout le monde sait qu’il use de nos données et comportements sociaux pour les vendre à des annonceurs. C’est le deal, et seuls les naïfs doivent s’en offusquer, ou quitter le réseau. Là où la ligne jaune n’est pas loin d’être franchie, c’est l’intention affichée de vigiler toutes publications non conformes aux lois alors qu’il est avéré qu’elles sont le carburant de son activité. Facebook le sait, une infox, une rumeur, une attaque contre une personne, un groupe ou une idée, même et surtout pas étayée, bref, un mauvais post a plus de chance de faire réagir et agiter le réseau qu’une information sûre et sérieuse. Or, les réactions des visiteurs, c’est le cœur de son business : pas de réactions, même de simples likes, ça veut dire pas d’annonceurs, donc pas de revenus… Le jour où Facebook sera aseptisé, en plein respect des lois, et à chaque instant, n’est donc pas pour demain.

Arrêtons-nous tout de même sur un constat positif : le progrès ne s’est jamais fait sans chatouiller voire chambouler un monde existant. Les startups d’aujourd’hui ne font finalement pas autrement.


[1] Le concept du VTC est préexistant à UBER : en France, on appelait « Voiture de Place », de belles limousines avec chauffeur, qu’on commandait à l’avance… par téléphone ! Leur faible nombre ne gênait pas les taxis : un parking leur était même réservé à Gare de Lyon.

Share Button

La 5 G, de belles promesses à tenir

Share Button

Ça y est, l’année 2020 sera, proclame-t-on un peu partout, l’année de la 5G. On a déjà pu lire beaucoup de chose dessus sans forcément y voir très clair. Tentative personnelle d’éclairage.

La « 5G » est donc la cinquième génération du procédé de téléphonie mobile GSM, né au milieu des années 90. Par rapport à la génération précédente, les avantages qu’elle apporte ont été largement promus : plus de débit, moins de latence, plus de densité.

Le débit d’abord, qui passerait de 100 Mbits/s pour la 4G standard, à 1 Gbits/s à minima pour la 5G, soit un rapport de 1 à 10. Cette évolution a déjà largement été vendue : un film se téléchargerait en une poignée de secondes. Il en fallait quelques dizaines pour la 4G.

La latence ensuite, qui passerait de 10 à 1ms. Moins perceptible, cette qualité, qui mesure le temps de reconnexion entre cellules relais, est pourtant essentielle pour les applications qui nécessite des flux continus, comme le streaming vidéo ou le pilotage des voitures autonomes notamment.

La densité de connexion enfin, qui elle aussi serait multipliée par dix, passant de 100 000 objets connectables par km2 en théorie à 1 million. C’est probablement le paramètre crucial pour le développement des objets connectés.

Des applications nouvelles attendues

Ces améliorations significatives vont ouvrir de nouveaux champs applicatifs. Le premier d’entre eux est tout bonnement l’accès internet haut débit non filaire. Les opérateurs télécom pourront proposer un accès digne de la fibre optique sur des zones où elle est couteuse à déployer comme les zones péri-urbaines [1]. La seconde et probablement la plus attendue, est la connectivité d’objets intelligents itinérants. On pense bien sûr aux véhicules autonomes, qui pourraient recourir à une infrastructure d’appui à distance pour les piloter plutôt que d’embarquer un supercalculateur. Viennent ensuite tous les objets connectés liés à la santé, qui pourraient bénéficier d’un réseau support réellement en temps réel : surveillance du cœur pour les cardiaques, de la glycémie pour les diabétiques, des contractions pour les femmes enceintes ou la vigilance pour les personnes âgées. Autant de fonctions portées par des objets connectés déjà disponibles mais dépendant d’un smartphone et de son réseau pour exister. Là ils pourraient devenir réellement autonomes. Sur le plan industriel, on parle d’usine intelligente, où tous les composants seraient pilotés à distance en temps réel et de manière fiable ; la densité du réseau et la faible latence, apportant des garanties que les technologies existantes n’avaient pas su offrir jusqu’à présent.

La logistique et le commerce ne seront pas en reste. Les colis pourront devenir réellement intelligents. On peut les imaginer équipés de puces connectées, à même d’informer en continu la chaine logistique – du fournisseur au client – sur leur acheminement. Dans la même veine, le commerce de détail verra s’ouvrir de nouveaux horizons avec ces puces connectées : un vrai inventaire physique en temps réel et pas celui calculé par les caisses en sortie, car exprimé par chaque article unitaire, devenu un objet connecté et communicant. Imaginez un ordinateur qui fait l’appel tous les matins pour contrôler qui est présent. Et pourquoi pas un nouveau paradigme commercial, inspiré de la LLD (Location longue durée) largement déployée par les constructeurs automobile ces dernières années. Pour les articles « solides » (hors alimentation notamment) et traçables, pourquoi ne pas imaginer un prix basé sur leur usage et non leur possession, ou à défaut un paiement décalé au démarrage de son utilisation. Prenons le cas d’un pantalon : je le choisi en magasin mais « je ne le paie pas » en sortant de ce dernier. Arrivé à la maison, je l’essai tranquillement, je le soumets à ma femme (autorité de validation en la matière 😊), je l’assemble avec le reste de ma garde-robe pour vérifier que tout s’accordera. Si je suis satisfait, une action simple via une appli, un code à saisir, un QR code à scanner… réalise l’acte d’achat. Dans le cas contraire, je le ramène au magasin dès que possible. On peut même pousser le raisonnement à des usages inattendus que certains vont considérer loufoques à cette heure comme le paiement à l’usage pour n’importe quel appareil. Exemple : je n’achèterai plus pas mon batteur électrique mais me verrai prélevé chaque fois que je monte des blancs en neige. Pas possible ? en reparle dans 20 ans ?

Mais les territoires fonctionnels les plus attendus à proches échéances sont les applications sur smartphone. Non pas, contrairement à ce qui est promu en ce moment autour de la rapidité de téléchargement – qui pour un citadin d’une grande agglomération déjà largement couvert par la 4G n’aura pas de forte incidence –  mais autour des applications mobiles in-situ : la réalité virtuelle et/ou augmentée, mise en œuvre notamment sur les jeux, comme l’a initié Pokemon Go il y a quelques temps. Le flux continu en haut débit garanti devra apporter la fluidité nécessaire à ces nouvelles applications tant attendues… mais encore inconnues !

Un déploiement progressif

Pour offrir ces nouvelles performances et ces nouveaux usages, les opérateurs télécom devront revoir leurs infrastructures. Pour faire face à ce défi, nos 4 opérateurs nationaux semblent s’être déjà mis en ordre de marche : duo SFR/Bouygues d’un côté, Orange/Free de l’autre. Car les investissements prévus seront lourds : il faudra remplacer une partie du parc d’antennes existantes et en installer de nouvelles. Car il n’y aura pas de magie en la matière : selon un principe physique bien établi, pour atteindre des hauts débits, il faut des hautes fréquences, et plus une fréquence est élevée, moins la distance parcourable est grande. Il faut donc un maillage plus dense et rapprocher les points entre eux. D’où la multiplication nécessaire des antennes. La bande de fréquence « cœur » de la 5G, entre 3,4 et 3,8 Ghz, nécessitera en effet des antennes spécifiques plus proches de nos appareils : on parle d’antennes installées sur des abribus par exemple. Conscient de l’ampleur du chantier, et pour répondre au pari d’une 5G en 2020, l’état a autorisé les opérateurs télécom à utiliser la bande des 700 Mhz, déjà employée pour la 4G, pour supporter les premiers signaux 5G. Mais comme les ratios différentiant sont impactés à la baisse, on peut s’attendre à une 5G light. Il faudra patienter jusqu’à 2021 voire 2022 pour profiter pleinement de la promesse initiale.

D’autres éléments pourraient d’ailleurs freiner l’explosion de la 5G. Outre le mur du coût pour les opérateurs, ils devront affronter celui de l’acceptabilité de ces nouvelles installations pour les citoyens que nous sommes, déjà inquiets de la pollution électromagnétique de nos environnements. Il y aura aussi celui du renouvellement imposé de nos smartphones, qui en cette époque jugée critique de sur-consommation électronique, peut en ralentir plus d’un. A leur décharge, les constructeurs de smartphone devront eux aussi faire face à de nouveau défis technologiques : songez que la bande de fréquence de 26 Ghz – fréquence reine pour le très haut débit – va imposer de placer jusqu’à 3 antennes dans le smartphone car la main de son utilisateur sera le premier obstacle à franchir. Et c’est sans compter la révision profonde de l’électronique embarquée, car il ne suffit pas de proclamer qu’on va recevoir des Gigabits par seconde, encore faut-il des mémoires capables d’aller aussi vite pour les stocker, ce qui ne semble pas totalement le cas…

En tout état de cause, la révolution 5G est en marche. Elle ambitionne d’apporter de bien belles évolutions. On peut juste supposer qu’elle ne donnera tous ses fruits qu’à un rythme plus modeste que son débit semble le promouvoir ou que son écosystème industriel ne soit capable de suivre.


[1] En évitant les zones rurales,  car – lire la suite de l’article – les technologie employées ne permettent pas de couvrir de larges distances imposées en la matière.

Share Button

BlockChain : révolution ou fausse bonne idée ?

Share Button

Oui, au vu de l’engouement qu’a déjà généré cette technologie, du nombre d’articles ou d’ouvrages dithyrambiques sur le sujet, des dizaines de start-up créées autour de cet objet et pour certaines ayant déjà levé des millions, oser poser cette question est une hérésie. Pourtant, en creusant un peu, on est en droit de s’interroger sur la pertinence et la pérennité du procédé.

Commençons par revenir sur la définition du concept. On le résume à un ensemble de mécanismes logiciels permettant la validation et la mémorisation sécurisée de transactions entre pairs. Dans l’esprit, il vise à se passer du « tiers de confiance » auquel on fait habituellement appel dans des relations contractuelles bilatérales, en considérant que l’infrastructure et son fonctionnement sécurisé serviront de garant. Notons déjà que sous cette assertion, le concept n’est pas si nouveau que ça : c’était déjà la vocation des Réseaux à Valeur Ajoutée (RVA) des années 80.

Sur le plan de sa genèse et de son architecture, l’approche « BlockChain » est l’enfant naturel de plusieurs procédés :

  • L’internet d’abord, et son protocole sous-jacent, le TCP/IP. Sans lui, pas de relais public entre les nœuds, pas de neutralité dans les flux transportés, pas d’effacement des distances les séparant, le tout pour un coût quasi-nul ;
  • Les algorithmes en « peer to peer », très en vogue la décennie précédente (réseau eDonkey, Bittorrent…), qui ont banalisé le stockage distribué et dynamique entre nœuds distants ;
  • Les procédés cryptographiques, notamment le SHA de la NSA, qui permettent de garantir l’intégrité des données véhiculées.

En résumé, une blockchain est un réseau d’ordinateurs – les nœuds – agissant selon un protocole défini en vue de certifier et stocker les paquets qui lui sont soumis.

Le cas historique du Bitcoin

On le rappelle souvent, le Bitcoin, est la première manifestation grandeur réelle d’une blockchain. En effet, même si sa motivation première était annoncée financière, comme une réponse anti-système bancaire, cette notion s’appuie d’abord sur une chaine de blocs. En pratique, cette monnaie correspond à la récompense que méritent les nœuds qui prennent en charge les traitements de validation et de stockage des blocs. Ces opérations, surnommées « minage », impliquent de lourds calculs. Car il ne s’agit pas simplement d’enregistrer des données mais de s’assurer de leur consistance et de leur unicité dans la chaine de blocs existante. Et si on parle de récompense, c’est qu’il y a compétition. Cette compétition est d’ailleurs le fondement même du concept : un ensemble de compétiteurs « honnêtes » sera toujours plus fort qu’un hacker isolé malhonnete. C’est la paradigme fondateur tel qu’initié Satoshi Nakamoto[1], le père du Bitcoin. Pour faire simple, l’introduction d’un nouveau bloc est systématiquement mise en concurrence entre les nœuds actifs, le plus rapide à répondre sera le seul à gagner ses Bitcoins. A ce jour, le vainqueur de cette compétition se voit « créditer » de 12,5 Bitcoins, ou une fraction de cette somme quand il est regroupé en pool : à près de 9000 dollars l’unité à l’heure où est écrit cet article, on comprend la multiplication des mineurs.

Ce minage, et plus largement tous ces mécanismes délégués de validation et stockage des données, sont les premiers griefs portés contre ces technologies :

  • Il prend du temps car il fonctionne nativement de manière asynchrone. Parce qu’il est impensable de réaliser une prise en charge « en temps réel » à un niveau planétaire, des transactions, c’est une valse régulière qui est mise en œuvre. Il faut s’imaginer un lancer de dés toutes les 10 minutes (fréquence définie pour le Bitcoin), correspondant au rythme d’introduction des nouveaux blocs. Conséquences : selon un récent rapport, le réseau Bitcoin serait à peine capable d’opérer 80 transactions par minute quand les réseaux de paiement Visa et Mastercard en traiteraient 100000.
  • Il est gourmant en temps de calcul : l’algorithme sous-jacent, devant déterminer l’empreinte numérique (le « hash ») correspondant à la chaine de bloc actuelle ne cesse par nature de se complexifier et doit faire appel, pour rester compétitif, à des machines de plus en plus puissantes ;
  • Il est par extension très dispendieux en énergie. D’abord de manière intrinsèque : le calcul du hash étant de plus en plus complexe, il consomme de plus en plus de temps machine. Mais la mise en concurrence pour faire ce traitement produit aussi un énorme gâchis : des milliers de compétiteurs tentent leur chance mais il n’y a qu’un seul élu… Le site Bitcoin.fr chiffrait en mars 2019 la consommation du réseau Bitcoin à une quarantaine de milliards de kWh par an, soit la production de 5 à 6 centrales nucléaires. Ce n’est pas anodin…

D’aucuns diront que ces limitations techniques sont parfaitement maîtrisées et résolues au fil de l’eau – comme construire des fermes de minages en Sibérie- d’autres défauts sont bien souvent ignorés.

Idéalisation des ressources sous-jacentes

Le premier écueil est de considérer le coût quasi-nul des flux internet. C’est ce qu’on appelle la neutralité du net. Un octet vaut un octet, quelle qu’en soit la nature, et il sera transporté sans ségrégation ni surcoût, de Paris à Lille, comme de Londres à Pekin. On le sait, tout le monde en profite : c’est ce qui a fait le succès du web, premier consommateur de flux. Mais cette neutralité pourrait un jour être remise en cause, au regard du fort déséquilibre qu’elle a pu générer dans la répartition de la valeur ajoutée (en « ROI ») entre propriétaires de réseaux et producteurs de contenu. Quand on sait que 20% des flux IP sur le réseau français étaient en 2018 constitués des streaming de Netflix, sans que cela lui coûte quoi que ce soit en infrastructure, on comprend l’agacement d’opérateurs comme Orange ou SFR en France. On investit en réseau pour que d’autres se gavent [2]…. Il en est de même pour la blockchain. Dans sa conception, on part du principe que le réseau est invisible, comme un substrat naturel et évidant. Qu’en sera-t-il lorsque, voulant récupérer leur part du gâteau, les réseaux supports demanderont une commission ou un droit de passage ? le modèle économique interne et autogéré serait largement mis à mal. On peut imaginer que, faute d’être en incapacité totale d’en percevoir des revenus, ils bloquent ces flux, rendant totalement inopérant le procédé.

Le deuxième écueil qui vient à l’esprit est l’idée qu’il y a mutualisation équitable et honnête entre pairs de la prise en charge des transactions. C’est en grande partie la raison d’être du procédé : nous seulement, on rejette l’idée d’un organisme central de validation mais on suppose que la force de calcul de multiples nœuds « honnêtes » sera toujours supérieure à celle d’un nœud « malhonnête ». Ainsi, on comprend qu’inspirés par les services peer-to-peer historiques, les concepteurs voyaient plein de petits ordinateurs répartis ici ou là se répartir la charge de manière homogène et quasi démocratique, comme si chaque humain sur terre allait stocker chez lui une ou quelques pages de ce grand registre que constituerait la blockchain. C’est idée semble hélas en partie faussée. La surenchère aux calculs pousse à la concentration des moyens et le minage est peu à peu vampirisé par quelques gros opérateurs, investissant massivement dans des « fermes de minage ». Comme, la solidité du concept tient dans la répartition large des prises en charges, quand ils seront une poignée à phagocyter l’infrastructure, on sera loin de l’idéal originel…

D’autres griefs, moins techniques mais tout de même réels, apparaissent.

Le premier est celui de la supposée transparence du paradigme initial. L’intérêt de la blockchain est de pouvoir se passer d’intermédiaire, qu’il soit public, comme une administration ou un notaire, ou privé comme une banque, dans une relation contractuelle. C’est indubitablement utile sur le plan pratique et quotidien pour gagner du temps mais cela s’avère insuffisant dans l’absolu. Tout est fait pour garantir l’intégrité de la transaction mais par forcément celle de ses acteurs. J’en veux pour preuve que je peux payer une rançon en Bitcoin au pirate qui a brouillé mon ordinateur, en utilisant son identifiant de wallet, avec la garantie certaine qu’il la reçoive mais sans savoir qui je paie… On est là au cœur d’une des limites fortes du procédé : on confond ainsi intégrité de la communication entre pairs, garantie par tous les mécanismes sous-jacents du protocole et qualité de l’échange entre interlocuteurs, incluant leur authentification. Or, sans celle-ci, nombre de transactions resterons obscures et donc sujettes à caution.

Le second est sa solidité, évidemment un peu « surjouée ». Le procédé de blockhain est largement vendu comme une technologie sûre et solide. Cette idée peut être rapidement battue en brèche. La principale cause est sa nature même : ça reste un procédé logiciel, avec un algorithme qui peut être challengé comme n’importe quel autre logiciel. Notre monde ne manque pas de petits génies en capacité de relever le pari, l’histoire l’a déjà prouvé. Le récent cas de Ethereum est signifiant : des hackers ont réussi à « braquer » – ne me demandez pas comment – le réseau en s’appropriant une partie des Ether en circulation (15% dit-on). Ce n’est pas tant l’exploit de hacking qui est intéressant ici mais plutôt le débat qui a animé la communauté sur le devenir de cette partie volée de la masse monétaire globale existante, partie bien évidemment pas stockée dans un coffre-fort caché sous une montagne secrète mais bien noyée au milieu de toutes les transactions. L’option de les rendre « sans valeur » a été retenue, sans grande conviction. Il faut dire que ça affecte un caractère intangible de la blockchain : ce qui est inscrit est forcément vrai, le faux ne peut y exister, ou alors ça remet en cause tout l’édifice…


[1] Auteur du livre blanc décrivant le procédé : un mystère demeure sur sa réelle existence (personne ?, groupe ?)

[2] Dans le cas de Netflix, sa position l’a amené à trouver des arrangements « win-win » avec ces opérateurs…

Share Button

Microsoft Windows 1999, Google Android 2019, 20 ans pour rien.

Share Button

L’annonce de Google de ne plus fournir Android à Huawei, suite de la décision récente de Donald Trump, remet en lumière sa position dominante sur le marché des smartphones. Une situation bien semblable à celle de Windows au tournant des années 2000.

Commençons par un petit état des lieux : Androïd occupe près de 86% des smartphone, l’iOS d’Apple, 13% d’après des chiffres d’IDC. Pour ceux qui s’en souviennent, ce sont les mêmes parts de marché qu’occupaient respectivement Windows et MacOS en 1999. A l’époque, cela avait valu à la firme de Bill Gates de multiples procès, pour abus de position dominante et concurrence déloyale, en Europe comme dans son propre pays. Il faut dire que Microsoft avait acquis en à peine deux décennies, grâce à son système d’exploitation Windows, une position hégémonique sur les micro-ordinateurs et l’informatique en général. Maître sur le système d’exploitation, dominant sur les outils bureautiques, et généreux fournisseur d’un navigateur depuis décrié : Internet Explorer. Pour mémoire, c’est Netscape, éditeur historique des premiers navigateurs (aujourd’hui Mozilla), qui avait lancé la bataille : en offrant gratuitement son navigateur, Microsoft lui coupait l’herbe sous le pied en l’empêchant de fait de vendre le sien… Tiens, tiens, encore une similitude avec l’actualité : Qwant, l’éditeur français d’un moteur de recherche concurrent à Google, reproche à ce dernier la fourniture gratuite du navigateur – Chrome – ET du moteur de recherche par défaut – Google – aux fabricants de smartphone Androïd. En fait, à défaut de dire « gratuite », il faudrait dire « non payante », puisque Google explique demander 40$ par licence pour modifier cet état par défaut, ce qui a de quoi dissuader les fabricants de s’ouvrir à d’autres outils…

Une jurisprudence discutable

Si l’on reste dans la référence, on aura retenu que Microsoft après des années de procès, a fini par être blanchi : l’internet, malgré la bulle de 2000, était une révolution en marche qui allait balayer une grande partie de ces sujets. Je me souviens d’une réflexion qui circulait chez les geeks de l’époque et qui disait : « l’avantage avec le web, c’est que personne ne sait que t’es sous Mac ». En pratique, la couche applicative du web, annihilait l’importance du système d’exploitation, Windows, MacOS, Linux, on s’en fichait, le navigateur jouant le rôle de frontal normalisateur.

Pour revenir à l’intention initial du propos – Huawei et Androïd – , ce qui indispose dans cette affaire, c’est que ça démontre l’extrême pouvoir qu’a acquis un seul opérateur privé – Google en l’occurrence – sur le devenir de son écosystème. Exactement ce qui était reproché il y a 20 ans à Microsoft. Pourtant, peu de bruits autour de cette affaire, ses sous-jacents et ses implications : quelques procès ici ou là, quelques millions de dollars réclamés par l’Inde, jusqu’à 4,5 milliards d’euros tout de même pour l’Europe, mais pas de quoi ébranler l’entreprise, comme si une jurisprudence Microsoft était établie. A quoi bon se lancer dans des procès sans fin quand la seule finalité serait un démantèlement pur et simple du fauteur et de son offre. Il faut se rappeler que l’une des solutions envisagées pour Windows en son temps par des élus américains était sa nationalisation pur et simple, devenant un standard fédéral et propriété de la nation américaine…Dans un pays libéral comme les Etats Unis, on imagine rapidement l’incongruité de cette solution. Ajoutez à cela un certain chauvinisme de ces mêmes élus qui finirent par reconnaître qu’il n’était pas bon d’embêter comme ça une entreprise américaine, on comprend l’extinction des poursuites. Quand on voit Donald Trump avoir récemment la même réaction à propos de Google, déplorant les attaques que la firme subit et plus largement les entreprises américaines de la tech, on sait qu’on n’est partis pour suivre le même chemin.

Les consommateurs au pouvoir

Les causes de cette situation ne sont pourtant pas nouvelles et la recette parfaitement connue des acteurs du secteur. On pourrait dire qu’elle fut inventée par Bill Gates en 1980, lorsqu’il refourgue à moindre frais, c’est-à-dire à marge faible, son système d’exploitation MS-DOS à IBM pour faire tourner son PC. Il avait compris qu’en prenant place sur les basses couches d’un ordinateur, il prendrait le pouvoir sur les couches hautes : les logiciels. Google n’a pas appliqué d’autres recettes avec Android. Avec grande générosité, il « donne » son système d’exploitation aux constructeurs de smartphone, qui sont trop contents de procurer à moindre frais de l’intelligence à leur électronique. Ici, c’est un peu comme si un dealer de cocaïne en cédait gratuitement à ses clients pour mieux les enfermer dans l’accoutumance. On le savait, on a laissé faire, on s’est laissé faire…

Si dans la décennie 2000, Microsoft avait finalement courbé le dos le temps que la tempête passe, à tel point qu’il s’est laissé distancer sur plusieurs sujets (échecs sur les réseaux sociaux avec Messenger, les moteurs de recherche avec Bing ou le navigateur avec IE..), on se demande ce qui va supplanter Google aujourd’hui. Sans compter qu’il a atteint un pouvoir jamais atteint par son modèle : celui des contenus, avec son moteur de recherche, et de la publicité associée. Alors, un autre géant ? En tout cas, il sera américain ou chinois car, malgré la tentative de résistance de certains, comme Qwant pour les moteurs de recherche, ou le projet OpenStreetMap pour la cartographie, on va regretter de ne pas avoir d’acteur européen de poids.

Share Button

« Crédit social » en Chine, ou comment faire la loi en mode 2.0.

Share Button

En 2020, l’état chinois généralisera son système de crédit social, instrument de notation de la réputation des citoyens. Sur le plan philosophique, ce projet a déjà fait couler beaucoup d’encre, mais d’un point de vue digital, il a le mérite de nous faire passer du mythe à la réalité: Big Brother existe.

Le mécanisme mis en place par l’état chinois prévoit d’attribuer une note de 350 à 950 points à chaque citoyen. Comme son appellation l’indique, celle-ci représente le crédit ou la confiance qu’on pourra accorder à un individu ; une note élevée supposant qu’on peut lui faire confiance, une faible note, qu’on doit s’en méfier. Pour la produire, l’administration chinoise s’appuie sur tous les moyens dont elle dispose pour évaluer chaque individu, et ils sont nombreux : bases de données publiques et privées, analyse des usages sur internet, surveillance vidéo, remontées individuelles, etc… Une mobilisation de ressources qui ferait voler en éclats notre RGPD.

Sans prendre la défense de l’état chinois, et de son régime reconnu totalitaire, il faut supposer qu’administrer une population de plus d’un milliard d’habitants est loin d’être simple. Surtout quand les niveaux de vie et d’éducation sont si variés. Pour rappel, les millionnaires se comptent en millions, les pauvres en centaines, les citadins sont aussi nombreux que les ruraux, les éduqués cohabitent avec les illettrés. Cela donne une société au corpus extrêmement hétérogène, à l’opposé d’un Danemark par exemple, dont on vante régulièrement l’instinct de communion et de partage. A l’inverse, pour tous ceux qui déjà visité la Chine, le constat est évident : l’individualisme semble de mise dans la population, se traduisant par de multiples comportements remarquables. On ne se s’excuse pas quand on vous bouscule en ville – à quoi bon, ça arrive tout le temps -, on vous passe devant dans une file d’attente si vous n’y faites pas attention, on retient un train en gare « parce que la grand-mère n’est pas encore arrivée », on ouvre la porte de l’avion, parce qu’on trouve qu’il fait trop chaud – heureusement après l’atterrissage…-. En voiture, on roule à gauche à 60 km/h sur l’autoroute parce qu’on l’a décidé, sans inquiétude particulière puisque les autres vont vous dépasser par la droite sans scrupules, voire en empruntant la bande d’arrêt d’urgence si nécessaire. Bref, autant de comportements individuels que l’on ne peut pas considérer délictueux mais qui illustrent la genèse du projet : noter la bonne conduite du citoyen, comme une micro-justice au quotidien.

Inquiétude et fascination

Cette mise en œuvre a tout d’effrayant, de notre point de vue d’européen, dans ce qu’elle porte atteinte à la vie privée de chacun. C’est largement discuté ici ou là, avec force analyse et pertinence. Mais son côté fascinant mérite d’être noté. Si l’on se fie à ce qui est rapporté, la fabrication de ce crédit social s’appuie sur un mix de procédés qui fait vibrer toute la planète du numérique : le big data, car il faut brasser de gros volumes de données issues de différentes sources, la reconnaissance vidéo de masse, car elle inclut la surveillance en temps réel des citoyens et la désormais incontournable Intelligence Artificielle, car il faut bien digérer tout ça. Aussi, ce déploiement est inévitablement observé à la loupe par tous les acteurs du digital : finit le temps du POC – proof of concept – pour toutes ces technologies, voici le temps de la mise en prod.

C’est d’ailleurs cet état qui réveille la grogne de ces mêmes acteurs face à notre RGPD. Même s’il n’a pas été très audible jusqu’à présent, le discours sur les freins aux avancées technologiques qu’induit le respect strict de ce règlement prend corps ici. Ce programme donnera inévitablement aux chinois, libres de contraintes sur ces notions de vie privée, et alors qu’ils les maîtrisent déjà bien, une avance supplémentaire sur ces technologies. C’est autant de retard qu’on paiera probablement demain regrettent déjà ces acteurs.

L’innovation est partout

Ce qui est aussi fascinant que rassurant, c’est la réaction d’autodéfense que peut déployer l’humain dans ces situations. On ne compte déjà plus les parades mises en œuvre pour contourner le système.

Tout le monde a vu récemment ces manifestants de Hong Kong détourner de simples pointeurs lasers, pour perturber leur reconnaissance fasciale par les caméras de vidéo-surveillance. Nul doute que des dispositifs spécifiques se retrouveront demain en vente libre dans le commerce.

Dans le domaine privé, aussi impliqué – de force – dans ce programme, on cite le cas de cette compagnie d’assurance santé qui impose à ses assurés un suivi via leur smartphone de leur activité physique. Votre note prend en compte le nombre de pas que vous faites dans la journée. Résultat : une balancelle pour smartphone, à poser sur son bureau, simulant la marche est en vente libre.

Dernier cas, probablement le plus symptomatique. Comme votre crédit social prend en compte vos amis sur les réseaux sociaux, nombre de personnes ayant des notes moyennes cherchent via des forums à se lier à d’autres, ayant des scores plus élevés, pour consolider leur propre note. Conséquence probable à venir  : voir apparaître un business de l’amitié. Et facile d’imaginer le procédé : une marketplace où chacun met en jeu sa propre réputation, sur le thème « combien es-tu prêt à me donner pour être mon ami ? ». Cela peut nous paraître risible voir irritant, mais quand votre faible note vous interdit de sortir de votre province ou de prendre le train, on se rappelle que la liberté a un prix.

Share Button

Apple et l’obsolescence programmée, une vieille histoire

Share Button

Attaquée en justice à l’automne dernier par plusieurs états pour « pratiques commerciales malhonnêtes » visant à pousser ses clients à renouveler leurs appareils, la firme à la pomme n’en est pourtant pas à son premier coup d’essai, on peut même dire qu’elle en a l’habitude. Analyse.

Je suis le malheureux possesseur d’un iPad de première génération, acquis en 2011, en parfait état de fonctionnement et toujours aussi beau. Je dis malheureux car, malgré ses qualités intrinsèques, je ne peux plus en faire grand-chose, à part surfer sur le web, et encore s’il n’y a pas de vidéo HD car le module QuickTime intégré n’est plus à jour. Si l’on doit chercher la manifestation d’une obsolescence qui, à défaut d’être programmée semble totalement assumée par son constructeur, je l’ai entre les mains. Oh non, il n’est pas écrit à l’ouverture qu’il faut que je m’achète une nouvelle version mais tout est fait pour m’y inciter : propulsé par un iOs version 5, plus aucune mise à jour n’est disponible, cette version d’iPad n’étant plus supportée. Benêt, on pourrait se demander : A quoi bon une mise à jour puisqu’il fonctionne correctement ? Oui, je pourrais m’en contenter si je n’envisageais pas de continuer à l’utiliser. Sans être un écologique pur et dur, je répugne à mettre au rebus un appareil qui fonctionne encore et peut rendre des services. Le problème est que la plupart des éditeurs d’applications, inévitablement poussé par Apple, impose de disposer d’une version récente d’iOs pour s’installer. Conséquence : plus aucune application récente ne peut être implantée ou mise à jour, donc si je veux en profiter, je suis naturellement incité à acheter un nouvel iPad. CQFD.

Des motifs pourtant légitimes

Cela exposé, quand on y regarde de plus près, les mêmes motifs, légitimes, sont avancés par le constructeur depuis les premiers Macintosh. Il en a d’ailleurs fait sa marque de fabrique : toujours tourné vers l’avenir, faisant fi du passé. Ainsi, à l’instar de son concurrent Microsoft, qui a longtemps cherché à maintenir entre ses différentes générations d’OS une certaine compatibilité historique, la firme a toujours privilégié la cohérence et la solidité de ses environnements au dépend de l’écosystème applicatif déjà en place. Tant pis s’il faut changer son parc logiciel – tout au moins le mettre à jour – mais c’est le prix à payer pour disposer d’un meilleur système, performant, stable et sécurisé. Il faut admettre cette posture puisque même Microsoft a fini par s’y résoudre avec ses versions post-98 de Windows, même s’il traine encore des modes « compatibilités » qui grèvent probablement la sécurité et la performance de ses systèmes.

La rupture technologique, une autre arme

Paradoxalement, l’affaire du ralentissement logiciel des iPhone 5 en vue d’en prolonger leur durée de vie, semble être de l’anti-obsolescence : je fais tout pour te permettre de continuer à user de ton iPhone, t’évitant d’en acheter un nouveau. Aussi, fort d’un parc de plus de 900 millions d’iPhone à ce jour, Apple a peut-être pris conscience qu’on ne pouvait pas balayer d’un revers de la main, pour faire place nette, tout cet existant et qu’il valait mieux en ménager leurs propriétaires. Le syndrome Microsoft l’a peut être gagné. Non, l’autre technique qui a (presque) toujours marché pour lui, pour créer de l’obsolescence, c’est la rupture technologique. L’iMac G3, reprenant à sa sortie le principe du tout-en-un des premiers Mac, tout en transparence et de bleu vêtu, ringardisait les autres PC. C’est sur les iMac à écran plats qu’on a vu surgir les premiers écrans 24″, qui donnaient le vertige à l’époque. Sans parler évidemment de la success story iPhone. Chaque génération, par son design et ses nouveautés technologiques rendait, à grand renfort de marketing il est vrai, ringarde la précédente. Bon, ça a marché jusqu’à la version 8. Il semble au regard des derniers résultats que le filon s’épuise aujourd’hui, largement bousculé par ses concurrents chinois et coréens. Dernière réponse du constructeur : s’appuyant sur son autre marque de fabrique, un écosystème propre, largement hermétique aux technologies exogènes, il promeut un certain nombre de postures autour de la sécurité ou la confidentialité de ses technologies, et ce dans un seul but : lutter contre l’obsolescence programmée de sa clientèle…

Share Button

Microsoft : Too big to fail ?

Share Button

Oublié dans l’acronyme GAFA, Microsoft est pourtant un acteur majeur des technos, en compétition permanente avec Apple ou Amazon pour occuper la place de 1ere capitalisation boursière mondiale. Probablement trop vieille pour les jeunes, pas assez fun pour les autres, la société fait montre malgré quelques contreperformances d’une incroyable santé. Analyse.

Si les succès de Microsoft sont patents, ses échecs le sont d’autant. Pour preuve, dans un récent billet, Chris Jackson, un ponte de la société, conseillait à ses clients d’abandonner Internet Explorer au profit d’autres navigateurs. Bien qu’en lisant de plus près ce billet, le propos est plus subtil et pas aussi radical, beaucoup y ont vu le signe que la société reconnaissait avoir perdu une bataille historique : celle du navigateur, pourtant au cœur de sa stratégie il y a 20 ans.

Ce qui ne te tue pas te rend-il vraiment plus fort ?

Le cas Internet Explorer est symptomatique de Microsoft : leader et dominant à une époque (+ 90% de part de marché au début des années 2000), il est écrasé par la concurrence aujourd’hui en tombant à moins de 10%. On peut trouver mille raisons à cela mais C. Jackson dans son post en donne une : la société s’est piégée elle-même dans sa recherche de compatibilité historique. IE était devenu, dans ses versions antérieures à la 9, un bazar au comportement hybride, voulant tout à la fois afficher des pages web conçues en 1999 et celles respectueuses des standards d’aujourd’hui. Ce grand écart a été rendu possible explique-t-il en faisant l’impasse sur les performances et la sécurité. Défauts dans lesquels s’est engouffré un certain Chrome. Depuis la société l’a payé cher car les version suivantes (10 et 11) et même Edge n’ont jamais réussi à reprendre la place de leur ancêtre.

Quand on pense à Microsoft, d’autres échecs viennent à l’esprit : Msn messenger, leader incontesté des messageries instantanées il y a dix ans, est un nom que les jeunes générations ne doivent même plus connaître. Et là on parle de succès devenus échecs. La société a aussi dans son catalogue des produits comme Windows Phone ou Bing qui, malgré d’énormes efforts marketing et budgets engloutis, n’ont jamais réussi à trouver leur public.

Avoir un panier solide mais ne jamais y mettre tous ses œufs

On le sait, l’un des principaux atouts de Microsoft est sa domination sur les plateformes bureautiques Windows et Office. Avec ce binôme, elle dispose d’une base clients solide, plutôt stable et qui continu à être profitable, y compris en mode Saas avec Office 365.  Et si une leçon a été retenue de la fronde que la société a subi de la fin des années 90, c’est bien celle qu’une position dominante ne peut pas être éternelle. Pour résister, plus que chercher à assoir encore un peu plus cette position, la société s’est initiée à d’autres marchés. Ainsi, pendant qu’elle laissait filer sa domination sur le navigateur ou perdait la bataille du moteur de recherche, elle s’investissait dans de nouveaux secteurs : les jeux vidéo avec sa console Xbox ou le cloud avec Azure. Et ça c’est pour la croissance organique. Pour la croissance externe, Il faut ajouter la rachat ces dernières années de Skype, LinkedIn ou plus récemment GitHub, autant d’enseignes qui finiront par lui rapporter de nouveaux clients et réduire le risque sur ses marchés historiques. Il y a d’ailleurs une stratégie assez transparente là-dedans : la société a perdu quelques batailles sur des outils, elle veut gagner celles des communautés d’utilisateurs, cœurs de ses récentes acquisitions.

La leçon à retenir ? rien de bien original au fond, litanie d’adages populaires : ne jamais s’endormir sur ses lauriers, ne met jamais tes œufs dans le même panier et si avec tes œufs, tu peux avoir la crémière avec, c’est encore mieux.

Share Button