Le Cloud il faut y aller, parce que l’information est disponible partout, et tout le temps, et sera sauvegardée, et ça coûtera moins cher…. Bref, 1001 bonnes raisons de transformer son infrastructure, ses applications et ses usages pour passer à l’informatique dans les nuages.
Notre société est hyper connectée, la liaison avec les centres de données est pratiquement permanente, et la moindre information manquante est immédiatement cherchée dans les moteurs de recherche, publics, hybrides ou privés. Comme le cloud, hybride, public ou privé. Mais que ce passe-t-il quand on perd la connexion, que nous reste-t-il à faire sur nos téléphones intelligents ? Plus de facebook, de What’s App et de Google : reste un répertoire de numéro et quelques jeux solitaires. Idem sur nos ordinateurs, quand Chrome ne peut pas se connecter, il nous propose de sauter des cactus avec un dinosaure. Il suffit d’appuyer sur espace pour le lancer…. Vous n’avez jamais essayé ? Ça détend en attendant le retour d’internet 🙂
Oui, mais dans l’entreprise, il n’est pas possible d’être privé de ses données, de ses applications, ou même de sa connexion, même pendant un temps très court. Les Administrateurs Systèmes (mettons leur des majuscules, ils le méritent) ne peuvent pas changer les configurations ou appliquer des patchs provoquant des arrêts de service comme bon leur semble, surout en pleine journée. Alors, en cas de défaillance de la liaison, c’est l’entreprise qui s’arrête et qui se met à sauter des cactus… Comment faire pour éviter cela ?
Doubler les accès
Avant tout, il faut sécuriser l’accès au réseau, aussi bien en sortie de son bâtiment, qu’en accès interne. Avoir un réseau filaire et un réseau Wifi, est une solution à portée de tous. Avoir 2 lignes de 2 opérateurs différents en sortie est une solution à moindre coûts, pourvu que l’on ait une gestion automatique (load balancer) pour basculer d’un fil à l’autre. La seconde ligne peut-être « bas débit ». Le problème, c’est que tout le monde n’a pas cette possibilité… Les bâtiments sont souvent loués, donc tous les câbles sortent par un tuyau unique, puis ils sont dispatchés par un même boitier dans la rue. Pour contourner cet état de fait, il y a le WiMax, le WiFi proposé par les opérateurs, ou encore mieux : la 4G. Si on est dans un endroit qui reçoit bien, une simple puce dans un PC qui fait relai, et le tour est joué… ou presque. Chaque utilisateur peut gérer son accès, ça se complique si on veut le faire au niveau de l’informatique interne.
Copier les données
Une autre solution, qui consiste à créer un cache des données en local afin de ne pas aller en permanence chercher l’information dans le Datacenter, commence à faire son chemin (adaptation des configurations ROBO « Remote Office Branch Office »). Avec une gestion des locks et des merges intelligents pour s’assurer de la cohérence des données. Cela implique d’avoir dans chaque point d’accès, ou les principaux en tout cas, une ou plusieurs machines qui vont faire ce travail de cache. Il existe aujourd’hui des outils pour faire cela, au niveau des fichiers, mais aussi de la messagerie par exemple.
Une solution prête à l’emploi existe déjà : les Drives proposés par les opérateurs de box et de dépôt de fichier. Le problème c’est qu’on partage, mais on ne collabore pas. Des solutions logicielles comme SharePoint et la synchronisation avec OneDrive permettent d’avoir le cache de certain site ou de certaines bibliothèques. Mais là, la quantité de donnée à gérer explose, chacun ayant une copie d’une partie du datacenter dans son poste. Et tant que le lien n’est pas revenu, les données ne sont pas sauvegardées.
Sécuriser la messagerie
Aujourd’hui, chaque utilisateur a une partie de ces e-mails sur son poste ou dans son smartphone, mais une partie seulement. La plupart des réglages synchronisent 1 mois d’e-mails de la boite de réception, et pas les sous-dossiers. Pas pratique pour faire des recherches… Alors quelques éditeurs de logiciels proposent des solutions de relais, ou de copie, pour avoir en permanence les e-mails sur une machine, synchronisation exacte de ce qui est dans le cloud (Veeam pour Office 365 par exemple).
Diviser pour mieux régner, mais en local
Elle n’existe pas encore, mais cette solution serait sûrement la meilleure : cacher les données du cloud en local avec répartition sur plusieurs terminaux. Un logiciel simple aurait pour tâche de dédier une partie du stockage de chaque terminale locale et d’y copier les données à mettre à disposition.
Plus besoin de dédier des serveurs ou des machines, chaque utilisateur irait piocher ce dont il a besoin dans son poste ou dans les poste des autres. Cela peut fonctionner pour l’ensemble des machines fixes de l’entreprise ou du bâtiment. Et on devrait pouvoir gérer deux groupes de machines : les fixes et les nomades. Les nomades auront des données, mais elles seront dupliquées en plus grand nombre. Des algorithmes du type Erasure Code seront sûrement les plus adaptés.
Se passer de la liaison vers les données ?
Et si finalement le problème c’était les données et cette dépendance à leur accès en tout lieu et en tout temps ?
Tout comme le pétrole, il semble que nous ne pouvons pas nous en passer, d’ailleurs il est souvent écrit que les données sont l’or noir du 21ème siècle (Data is the new oil of the digital economy). Alors il est peut-être temps de se passer de nos données, de réfléchir à de nouveaux modes de consolidation, de rationalisation et de classification.
Nous savons depuis longtemps que la plupart des données ne sont jamais consultées, ou que très peu. Nous pourrions imaginer des systèmes de compression et de déduplication qui permettraient d’avoir dans sa poche, ou sur son poste, 99% des données dont nous avons besoin sans être connecté (ou presque), juste le temps de faire une synchronisation vers le Cloud ou le Datacenter, et de télécharger la mise à jour de l’index.
Aucune société ne peut travailler sans partage de donnée
Nous sommes bien d’accord, se passer des données est complètement illusoire et la nouvelle économie en a besoin pour fonctionner. Aujourd’hui, aucune société ne peut travailler sans partage de données, sans accès permanent, sans logiciels scrutant et structurant les contenus. Les nouvelles normes imposent aux entreprises d’avoir connaissance des données, afin de garantir leur provenance, leur cheminement, leur stockage et leur disponibilité. En Europe, le Règlement général sur la protection des données (RGPD) (en anglais : General Data Protection Regulation, GDPR) obligent les détenteurs de données d’en connaitre l’origine, le contenu et de procéder à leur classification.
Dans ce cas, il est donc obligatoire de concentrer les données dans des espaces définis avec des synchronisations régulières et des accès sécurisés en continus.
A propos de l'auteur
Loïc BOUQUET
Au service de la Force et des datacenters. Mon héro c’est DCX Man. J’écris aussi des articles sur les infrastructures, le cloud, les systèmes et sur les lois qui régissent l’informatique, mais pas seulement.
Voir tous les articles