Les flops technologiques de 2014: Google Glass, Exosquelette, Bitcoin, STAP, Ecran saphir et Aereo

Que nous disent les derniers flops technologiques à propos de l’innovation ?

Toutes les technologies qui réussissent sont semblables, mais tous les flops échouent à leurs manières.
Le succès d’une technologie signifie qu’elle résout un problème; qu’elle soit installée sur un milliard de smartphones ou utilisée par quelques scientifiques qui effectuent des travaux spécialisés.
Mais de nombreuses technologies ne réussissent pas, généralement parce qu’elles ne parviennent pas à l’échelle de l’adoption. Les raisons de l’échec ne sont pas prévisibles.
Ci-dessous notre liste des défaillances technologiques les plus intéressantes de 2014 :

Google Glass
Lunette google
En 2012, Google a présenté au monde entier ses lunettes informatisées qui peuvent montrer des cartes, afficher des e-mails, et de prendre des photos et des vidéos.
Mais à la fin de cette année, les attentes d’un succès des lunettes de 1,500$ furent brisées.
La moitié des développeurs d’applications interrogés par Reuters ont cessé de travailler sur les applications pour les lunettes.
Même le visionnaire Sergey Brin co-fondateur de Google, se mit à ne plus porter les lunettes en publique.
Les lunettes se sont avérées beaucoup moins utiles que prévu.
Les lunettes peuvent encore trouver le succès dans des applications de niches pour peut-être être un succès commercial.

Exosquelette commandé par Électro-encéphalographie(EEG)
Exosquelette commandé par Électro-encéphalographie(EEG)
Permettre à une personne paralysée de se lever d’un fauteuil roulant, de marcher sur un terrain de football, et de donner le coup d’envoi de la Coupe du Monde 2014.
Ce plan ambitieux a été conçu par Miguel Nicolelis, professeur à l’Université Duke, expert en interface homme machine. Après avoir obtenu environ 15 millions de dollars par le gouvernement du Brésil, son équipe s’est empressée de construire – et de déployer un exosquelette robotique – propulsé par les pensées de son porteur.

Le plan était trop audacieux. Les signaux du cerveau collectés par EEG sont tout simplement pas assez bons pour contrôler un exosquelette.
Quand les caméras de la Coupe du Monde montraient la démonstration lors de la cérémonie d’ouverture, ce fut pour trois brèves secondes. On eut juste le temps de voir un ballon de football roulant sur une rampe et un homme paralysé tenu par deux assistants lever les poings en signe de triomphe.
Nicolelis déclara que « 17 mois de travail fou » avait réussi mais pour les téléspectateurs il fut difficile de savoir ce qui s’était réellement passé.
Plutôt que de voir un homme se lever d’une chaise roulante et de marcher, l’exosquelette semblait avoir réalisé une tâche plutôt simple de déplacer un pied en avant.

Bitcoin
Bitcoin
C’était censé être l’année du Bitcoin. Au lieu de cela, la monnaie électronique semble être en perte de vitesse. La valeur d’un bitcoin a chuté de 62% ( à environ $ 310 ) depuis Janvier 2014. Plus inquiétant encore, est que le volume de transactions en bitcoin n’a pas augmenté (environ 60 millions de dollars par jour).
L’idée du Bitcoin reste intrigante – monnaie pair à pair, sans contrôleur central, instantanément transmise ne importe où, et sécurisée par un moteur cryptographique intelligent.

Mais dans la pratique, ça ressemble plus à un système de Ponzi qui attire les spéculateurs. Il est devenu la forme de paiement de choix des cybercriminels professionnels.
Même si Bitcoin a d’ardents défenseurs, force est de constater qu’une monnaie que peu de gens utilisent ne peut pas être qualifiée de succès.

Cellule pour acquisition de pluripotence déclenchée par stimulus (APDS ou en anglais STAP)
Cellule pour acquisition de pluripotence déclenchée par stimulus  (APDS ou en anglais STAP)
Janvier dernier, une équipe au Japon et à l’Université de Harvard ont publié deux articles de grande envergure dans la revue Nature affirmant qu’ils pouvaient transformer n’importe quelle cellule en cellule souche juste en le baignant dans l’acide (connu sous le nom de STAP pour stimulus-triggered acquisition of pluripotency cell: ceux sont des cellules pluripotentes générées à partir de cellules somatiques, grâce à un certain type de stress, en les plongeant dans une solution acide). Le procédé est rapide et facile mais semble trop beau pour être vrai. Lorsque d’autres laboratoires n’ont pas réussi à répéter le processus, il était devenu évident que les résultats avaient été fabriqués par un jeune chercheur ambitieux. En Août, son patron, Yoshiki Sasai, un scientifique de renom à Riken au Japon sur les cellules souches s’est suicidé à 52 ans après avoir dit qu’il avait été humilié. Ce n’est pas la première fois qu’une découverte sur les cellules souches s’est avérée être faux. L’effondrement de cette technologie prometteuse est dû à la pression croissante de publier de grands résultats. Toute la biologie est affectée par cette pression.

Ecran saphir pour iPhone
Ecran saphir pour iPhone
L’iPhone 6 qu’Apple a dévoilé en Septembre était plus grand, plus lisse et plus puissant que les modèles précédents. Mais le téléphone dévoilé n’avait pas d’écran en saphir, un cristal transparent super-dur. Apple espérait que cet écran donnerait un coup de pouce à la vente des téléphones dont le prix avoisine 700$.
Le plan d’Apple à 1 milliard de dollars visant à introduire des écrans plus dures a mal tourné quand il construisit une nouvelle usine de saphir avant que la technologie sous-jacente ait été entièrement maîtrisée.
Tout a commencé, quand Apple a fait appel à GT Advanced Technologies, un développeur de fours innovants, pour faire cuire des cristaux de saphir. Mais la société n’avait aucune expérience de production de cristaux en quantité industrielle, donc de produire suffisamment pour tenir les échéanciers du célèbre marque Apple.

Durant l’été, les problèmes remontèrent. Les grands blocs de saphir nécessaires pour les écrans de téléphone (le saphir est déjà utilisé dans certains montres de luxe, et pour couvrir le caméra de l’ iPhone) devaient cuire un mois dans un four étanche, et malheureusement beaucoup sont sortis cassés.
La fin ne fut pas jolie. GT a déposé son bilan, et est en procès avec Apple.

Antennes minuscules d’Aereo
Antennes minuscules d’Aereo
Voici un problème avec un challenge: les signaux hertziens (gratuits et non cryptés) sont émis par les chaînes locales mais vous ne pouvez pas le regarder sur votre téléphone ou PC. Une start-up, Aereo profitant du vide juridique, propose à ses abonnés, moyennant 8 à 12 dollars par mois, de voir en direct la télévision depuis un ordinateur, une tablette ou un smartphone, et de l’enregistrer.

Aereo loue à chaque utilisateur une antenne râteau miniature, de la taille d’une pièce de monnaie, qui permet de capter le signal hertzien émis par les chaînes locales.

Mais les géants de la TV américaine : Disney, Fox, CBS et NBCUniversal demandèrent à la Cour Suprême la fermeture de la start-up de Barry Diller. Les chaînes font valoir qu’Aereo enfreint leurs droits d’auteur et menacent leur modèle économique, en risquant de les priver des recettes du câble et du satellite. Les chaînes craignent le phénomène encore limité du « cord-cutting », la tendance au désabonnement au câble. Environ 90% des foyers américains sont abonnés au câble ou au satellite, payant en moyenne autour de 50 à 70 dollars par mois.

Le 25 Juin 2014, la Cour a statué que les services d’Aereo enfrenaient la législation du droit d’auteur. Aereo n’avait pas de plan B et a depuis fait faillite. Son site web affiche désormais un message d’adieu : « Nous sommes restés fidèles à notre mission et nous croyons que nous avons joué un rôle important dans les changements positifs du secteur ».

Presse robotisée: l’ère des robots-journalistes et de l’intelligence artificielle

journaliste-robotKris Hammond veut changer toute la presse. Cet homme est le fondateur de Narrative Science, une start-up américaine spécialisée dans la rédaction automatique de contenu à partir de données. Kris Hammond a une vision, selon lui dans 15 ans, 90% des contenus publiés par les organes de presse en ligne seront générés automatiquement et d’ici 5 ans, le prix Pulitzer sera décerné à un ordinateur.

La technologie de la rédaction automatique est déjà au point depuis plusieurs années: les robots sont aujourd’hui capables d’écrire des comptes rendus de match de baseball. Pour cela, ils analysent des données comme l’évolution des scores et des statistiques des joueurs puis ils y associent des mots et les structurent de manière quasi instantanée, bien plus vite en tout cas que n’importe quel journaliste pourrait le faire. Les professions intellectuelles ne sont pas à l’abri de la robotisation de leur métier.

Une robotisation qui est déjà une réalité.

Le 1er février 2013, à 5h28 du matin, un tremblement de terre de faible magnitude secoue Los Angeles. 8 minutes plus tard, le site de Los Angeles Time publiait l’information avec une carte précisant l’épicentre du séisme. Pourtant l’auteur de l’article était en train de dormir. En fait pour décrocher le scoop, il avait écrit un code permettant la rédaction et la publication de l’information à partir des données enregistrées en temps réel par le très officiel USGS (Institut d’études géologiques des États-Unis).

De même, l’actualité économique, en particulier boursière et financière qui s’appuie sur des flux de données est directement concernée. On trouve ainsi sur le site du prestigieux Forbes des articles signées « Narrative Science » (la startup de Kris Hammond).

Le robot journaliste pourrait même être capable dans un futur proche de faire du reportage terrain. L’université de Tokyo a ainsi mis au point une machine capable d’explorer un environnement, d’y évoluer de manière autonome, de reconnaitre les humains pour leur poser des questions, de prendre des photos et de restituer le tout sous forme de reportage publié automatiquement sur le web. Cet outil peut s’avérer être particulièrement précieux en zone de guerre par exemple.

Si on industrialise la production d’information, on industrialise aussi son corolaire : la production de désinformation. Il suffit d’une erreur dans une série de données pour que tous les articles liés soient faux. Sans le filtre de la vérification, la tentation d’intoxication n’a jamais été aussi grande.

A l’heure où les robots envahissent les salles de rédaction, paradoxalement, jamais les capacités humaines d’analyse et de synthèse ne prennent autant d’importance.

Sources: Thibault LIEURADE (XERFI)

Iconomie : « économie de l’innovation et du numérique portée par une grande vague entrepreneuriale »

iconomieNous entrons dans une révolution hyper industrielle qui est déjà en marche. Dans une phase de transition, nous sommes en train de passer de l’économie à l’Iconomie (I pour intelligence partagée en réseau, I pour internet, I pour innovation permanente).

Une révolution possible grâce à la combinaison croisée de l’informatique, de l’internet et des nanotechnologies. Cette évolution crée un potentiel de nouveaux produits : produits intelligents et connectés, de nouveaux assemblages entre produits et service, impression de la matière, …

Les facteurs clés de succès dans cette révolution se situent dans l’intelligence partagée, dans l’ouverture des structures, et dans l’interaction permanente de l’entreprise avec son environnement. Dans l’Iconomie les économies d’échelle ne sont plus les seuls avantages concurrentiels décisifs, les PME sont capables d’entrer en compétition avec les grands groupes.

La France doit pouvoir aborder le défi de cette vague technologique. La prise de conscience est déjà réelle aux US, la mobilisation est en marche, c’est une affaire d’état. Voici un extrait de l’appel vidéo de Barack Obama aux jeunes américains les appelants à apprendre à programmer. « (…) Nous avons besoin que de jeunes Américains comme vous, maitrisent les outils et la technologie qui vont changer à peu près tout ce que nous faisons ».

L’innovation peut détruire très rapidement des secteurs entiers. Le ministre du redressement productif Arnaud Montebourg en voulant ralentir l’innovation pour protéger les vieux business, essaie de ménager un temps d’adaptation aux acteurs en place.

Les tensions liées à la destruction créatrice n’impactent plus seulement l’industrie mais débordent sur le secteur des services. L’Iconomie, c’est des bouleversements liés aux technologies de l’information qui concerne toutes les activités, les amenant à réinventer leur produit et leur business model.

Le discours traditionnel qui met l’accent sur le R&D, l’éducation, le rapprochement de la recherche et des entreprises doit évoluer vers un discourt axé sur l’entrepreneuriat.

Fonctionnement des offres de SMS (marché de détail et marché de gros)


sms

Un « SMS » (Short Message Service) ou service de message court est un message écrit, composé de 160 caractères maximum, chacun codé sur 7 bits. Ce service est disponible sur la totalité du parc de terminaux en circulation sur le marché mobile.

Deux catégories de SMS peuvent être distinguées :

  • les SMS « interpersonnels » qui sont le vecteur d’une conversation, le plus souvent entre deux personnes physiques, plus rarement entre une personne et une machine (voire entre deux machines). Ces SMS représentent plus de 90 % des terminaisons de SMS en volume ;
  • les SMS « de contenu » qui mettent en relation un utilisateur final et une entreprise. Ces SMS de contenu sont le vecteur de transmission d’un service de notification ou d’accès à un contenu, gratuit ou payant (de type météo, publicité, réponse annuaire, horoscope, alerte bancaire…).

D’un point de vue technique, la terminaison d’appel SMS désigne la partie terminale du réseau de l’opérateur mobile de l’appelé permettant de joindre le client final. D’un point de vue économique, la terminaison d’appel SMS constitue le prix de gros que se facturent les opérateurs mobiles entre eux pour joindre le client final selon le modèle dit du calling party pays. Elle constitue, pour l’opérateur de l’appelé, un revenu qui est payé par les opérateurs mobiles tiers qui tentent de joindre une personne hébergée sur son réseau. Pour l’opérateur mobile de l’appelant, elle représente une charge qu’il paye aux opérateurs mobiles tiers lorsque son client tente de joindre une personne hébergée sur le réseau d’un autre opérateur mobile.

Pour acheminer un SMS à destination du client final, il existe plusieurs modalités d’interconnexion :

  • les offres d’interconnexion à destination des autres opérateurs mobiles et des full MVNO. Ce mode d’acheminement impliquant une interrogation directe du HLR (Home Location Register) de l’opérateur de l’appelé par l’opérateur de l’appelant, il nécessite la mise en place de moyens techniques spécifiques, ainsi qu’une sécurisation particulière. Le HLR est en effet un élément sensible sur un plan technique et commercial, dans la mesure notamment où il regroupe toutes les informations sur les abonnés autorisés à utiliser un réseau GSM.
  • les offres de « SMS Push » qui s’adressent notamment aux opérateurs fixes, aux FAI et aux agrégateurs de SMS;
    Aussi appelés « facilitateurs », les agrégateurs de SMS sont un intermédiaire entre les éditeurs de services et les opérateurs mobiles pour ce qui concerne l’envoi de SMS de contenu. Sur les marchés de gros, les SMS Push constituent des offres plus complètes que la seule prestation de terminaison d’appel SMS utilisée par les opérateurs mobiles, dans la mesure où c’est l’opérateur mobile de l’appelé qui gère lui-même l’interrogation du HLR et les problèmes de sécurisation
  • l’achat de SMS de bout en bout destiné aux light MVNO dans le cadre de leur contrat MVNO existant.

Calling party pays:
Sur les marchés de détail, le coût de l’appel est intégralement supporté par l’émetteur, tandis que la réception de l’appel est gratuite pour le destinataire final. Il n’en va pas de même sur les marchés de gros sur lesquels la terminaison d’appel – vocal fixe, vocal mobile ou SMS – est fixée par l’opérateur de l’appelé et payée par l’opérateur de l’appelant.

Extrait de l’Avis n° 13-A-17 du 14 octobre 2013 relatif à une demande d’avis de l’Autorité de régulation des communications électroniques et des postes portant sur l’analyse des marchés de gros de la terminaison d’appel SMS sur les réseaux mobiles en métropole et outre-mer pour la période 2014-2016.(Source Autorité de la concurrence).

 

Moyens de paiement « wallet » et le « sans contact »

Moyens de paiement ewalletPour faciliter et étendre les moyens de paiement par carte, les sociétés comme Visa et MasterCard ont développé des « wallets », outils permettant de simplifier le paiement, en particulier par Internet, via les PC, les tablettes ou les téléphones portables. Le « wallet » contient les données de plusieurs cartes de paiement du consommateur. Il peut contenir plusieurs cartes (toutes les cartes de paiement seront acceptées, ex : MasterCard, Visa ou Amex), éventuellement émises par des banques différentes. A chaque transaction, le consommateur pourra choisir son moyen/sa carte de paiement, aucune carte n’étant privilégiée.

Les sociétés de paiement par carte tendent également à développer le paiement sans contact en point de vente afin « d’aider le développement de la carte pour les paiements de petits montants, qui sont aujourd’hui principalement effectués par cash, et d’apporter une contribution à la lutte contre l’économie ‘grise’ ». Le « sans contact » est utilisable sans saisie de code et donc sans authentification du porteur pour un montant de transaction généralement de moins de 20€

Secteur des cartes de paiement (CB, Visa, MasterCard,..)

Extrait des Décisions n°13-D-17 et 13-D-18 du 20 septembre 2013 relative à des pratiques de Visa et MasterCard relevées dans le secteur des cartes de paiement – L’Autorité de la concurrence

La carte de paiement, apparue à la fin des années 1960 en France, est un moyen de paiement très utilisé en France. En 2011, 8,2 milliards de transactions ont été effectuées par carte, ce qui représente près de 46 % des paiements scripturaux réalisés en France. En valeur, les transactions par carte représentaient quasiment 400 milliards d’euros en 2011. L’usage de la carte continue à se développer aujourd’hui, bien que les taux de croissance soient inférieurs à ceux des années 1980 ou même 1990. Ce développement se fait principalement au détriment du chèque, dont la part en volume est passée de 50 % en 1996 à 37 % en 2000, et à peine 17 % en 2011.

Le système « CB »

Historiquement en France, la plus grande partie des cartes de paiement portent le logo du GIE CB. Le système CB a longtemps été considéré comme le système « national » par son caractère interbancaire, ouvert à toutes les banques en France. Selon le GIE CB, environ 60 millions de cartes portent un logo « CB ». La très grande majorité de ces cartes sont cobadgées avec un autre système de paiement (Visa ou MasterCard). En termes d’utilisation des cartes par système, plus de 80% des transactions par carte sont réalisées dans le système CB.

Si la plupart des cartes émises en France par les banques portent le double logo CB-Visa ou CB-MasterCard, certaines cartes de systèmes quadripartites émises en France ne portent que le logo MasterCard ou que le logo Visa. On parle alors de cartes MasterCard ou Visa « only ». Elles ne représentent encore toutefois qu’une proportion modeste des cartes en circulation. Ainsi, [2-5] millions de cartes MasterCard only sont en circulation en France. Moins d’un million de cartes Visa only sont en circulation en France, majoritairement des cartes prépayées selon Visa

Visa et MasterCard se sont développés en France grâce aux accords dits de « cobadging » datant des années 1980. L’accord de « cobadging » comporte deux règles principales. D’une part, toutes les cartes émises par les membres des systèmes Visa et MasterCard sont acceptées dans les points d’acceptation « CB ». D’autre part, le GIE « CB » autorise ses membres à émettre des cartes « CB » portant les logos Visa ou MasterCard, qui pourront être utilisées pour régler des transactions hors du système « CB », en particulier à l’étranger »

En France, 38 millions de cartes portent la marque Visa et 24 millions de cartes portent la marque MasterCard. Avec leur parc de cartes cobadgées, Visa et MasterCard représentent les acteurs essentiels des paiements en France.

Le paradigme SOA (Service-Oriented Architecture)

Conséquence de la crise économique actuelle et d’un environnement concurrentiel plus dure, les entreprises recherchent des moyens pour minimiser les coûts de leurs systèmes d’information et en même temps proposer des produits et services plus sophistiqués. Pour de nombreuses entreprises, ces efforts sont entravés par la structure et la complexité de leur infrastructure informatique. Typiquement, les ressources informatiques sont organisées selon les fonctions métier spécifiques. Cette situation conduit à une duplication des fonctionnalités de l’application, la capacité limitée à partager l’information, les coûts d’intégration élevés et la sous-utilisation importante des ressources de calcul. La majorité des grandes entreprises aujourd’hui ont des environnements informatiques complexes et hétérogènes caractérisés par la coexistence de plusieurs générations d’architectures et de technologies. Conséquence, l’informatique d’entreprise est souvent associée à un TCO élevé et un ROI faible.

La Service-Oriented Architecture (SOA) a été largement promue par les analystes et les fournisseurs informatiques comme l’architecture capable de répondre aux besoins des entreprises dans le respect des coûts et des plannings. L’adoption de SOA a été initialement tirée par l’émergence des Web services et de la nécessité de fournir une architecture informatique plus efficace. En Septembre 2008, il a été estimé par Gartner Research que la plupart des entreprises européens et nord-américaines ont soit déjà adopté la SOA ou prévoient d’adopter la SOA au cours des 12 prochaines mois.

Cependant, sur la courbe de Hype, l’architecture SOA se positionne entre « Trough of Disillusionment’ et « Slope of Enlightenment ». Cela signifie que les attentes d’une architecture SOA ont été surdimensionnés et surréalistes. De nombreux échecs ont suivi l’application d’une SOA. La désillusion a été forte.

Quelle est la pertinence d’une architecture SOA pour l’informatique d’entreprise aujourd’hui? Bien qu’il n’existe pas une définition largement acceptée, la plupart des experts s’accordent sur les principes fondamentaux du paradigme SOA :

  • Les services sont l’abstraction de base d’une architecture SOA – les fonctions de l’entreprise sont externalisées comme des services via des interfaces stables définis avec un contrat
  • Les services sont faiblement couplés- les services sont connectés aux clients et autres services via des standards
  • Les services sont autonomes – ne dépend d’aucun contexte ou service externe
  • Les opérations des services sont stateless
  • La qualité de service (QoS) qui inclue la sécurité, les transactions, la performance, etc sont explicitement définis pour chaque service

En résumé, la SOA est un ensemble de concepts et principes architecturaux qui permettent la mise en œuvre d’applications d’entreprise distribuées orientés service.

Bien que le concept de SOA a évolué au cours temps, il reste concentré sur l’informatique intra-entreprise et ne répond pas pleinement aux défis associés à la consommation des services de l’extérieur. D’autres modèles de services ont évolué en parallèle avec la SOA et ont maintenant atteint un stade de maturité et d’adoption : le cloud computing (SaaS, IaaS, PaaS) et le Web 2.0.