Du Cloud et de l’intelligence

lezaun2Jean-Louis Lezaun
Responsable marché Cloud Computing
Intel

La notion même de cloud public est intimement liée à l’externalisation des ressources informatiques (serveurs et logiciels HAD OC) vers un fournisseur de Datacenter moyennant le paiement d’une souscription mensuelle. Et si l’entreprise dépasse sa peur, légitime ou non, de voir ses données extériorisées sur un plan géographique, les bénéfices économiques sont nombreux : il n’est plus nécessaire d’acquérir du matériel ou des logiciels, nul besoin de gérer comptablement ces actifs, etc…

Le modèle économique est assez simple : le prestataire prend en charge l’exploitation de l’infrastructure logicielle et matérielle et le client paie pour cette prestation. Il s’agit d’une opération de rationalisation qui consiste pour l’entreprise à économiser de l’argent sur une activité qui n’est pas son cœur de métier.

En poussant un peu plus loin le constat sur le Cloud et sur les technologies numériques en général, de nombreux spécialistes soutiennent que ces mêmes technologies permettraient à l’entreprise, pas seulement d’économiser de l’argent mais aussi d’en gagner. Le numérique créerait de nouveaux emplois et à l’échelle du Pays, permettrait l’avènement d’une véritable stratégie de croissance. Comment ?

Sur un plan purement philosophique, cette proposition n’est pas dénuée de fondements. Le « syllogisme Aristotélicien » nous dit que si, selon le concept anglo-saxon, « L’information, c’est le pouvoir », dans un contexte économique globalisé « La richesse crée le pouvoir » et de fait, « la maitrise de l’information génère de la richesse ». Voilà qui est dit. Mais qu’en est-il sur un plan pratique ? On peut avoir beaucoup d’information et ne pas savoir qu’en faire. Se pose alors la question : comment « monétiser l’information » ?

Il y a encore peu de temps, l’informatique était presque exclusivement un outil d’automatisation de tâches répétitives. Ce status quo a beaucoup évolué au cours de la dernière décennie, et ce qui change, c’est le déluge des données disponibles, facilement accessibles et « bon marché ». Vous le savez déjà, c’est la révolution du Big Data. Couplée à une augmentation sans cesse croissante des performances de calcul des processeurs, des capacités de stockage et de la bande passante des réseaux physiques, ces fameuses Datas forment une pâte dont on va se charger d’extraire la substantifique moelle.

Il semblerait en effet qu’il y a des gisements de connaissances non-exploitées qu’une entreprise, une organisation ou un laboratoire peut utiliser pour mieux connaitre clients, concurrence, technologies, ce qui cause les maladies, etc… De quoi faut-il parler alors ? De Big Data ou, pour continuer dans la veine des anglicismes, de Data Analytics ? Ingénieurs, professionnels du marketing, chercheurs, tous sont désormais concernés par la révolution du Data Analytics.

Reste qu’un problème subsiste. Mettre à jour tout ce petit monde en mathématique et en programmation logicielle. Qu’à cela ne tienne : la solution s’appelle le Data Scientist. Vous croyez ? Et pourquoi pas des interfaces utilisateurs plus simples qui permettraient des interrogations « intelligentes », couplée à des technologies de calculs en mémoire, plus rapide, renforcée en particulier avec les deux dernières générations de processeur Intel Xeon E7 ? Car, voyez-vous, je crois (c’est mon avis d’expert) que la révolution du Big Data est moins une affaire de Données que d’Accès aux Données.

Haut