L'ordinateur en ligne

Introduction

Ce chapitre illustre la réflexion initiée au milieu des années 2000 sur le bureau virtuel. Il s'inspire d'un article "L'ordinateur en ligne - Article de "L'Informaticien le 01/03/2009"

Mobilité, complexité de l’informatique, crise… Autant d’éléments qui poussent à revisiter la place des technologies régissant les équipements informatiques des utilisateurs dans les entreprises. Le bureau virtuel pourrait apporter des solutions, notamment face à l'alternative «client léger» qui a montré ses limites. De plus, l’ouverture de l’offre et l’entrée en lice de grands acteurs de l'industrie devraient accélérer son adoption.

Virtualiser le bureau? Pour qui?

Le débat autour du poste de travail dure depuis des années. Si aucun choix de fond ne s’est encore dégagé, les technologies de virtualisation du poste de travail pourraient changer la donne.

Mais il reste encore à en cerner les limites pour bien calibrer les usages et les applications de ces nouveaux outils. La virtualisation est désormais bien ancrée dans les entreprises. Après les opérations de consolidation dans les centres de données et la rationalisation du stockage, elle s’attaque désormais à l’infrastructure vers le poste client.

Le poste de travail virtualisé consiste à faire fonctionner soit un OS, soit des applications dans un environnement système ou applicatif autre que celui présent sur le poste de travail de l’utilisateur en entreprise. Plusieurs facteurs expliquent le regain d’intérêt d’une réforme des postes clients dans l’entreprise vers des postes de travail virtualisés ou bureaux virtuels.

Réduire les coûts

La stratégie des fournisseurs du client léger évolue et s’adapte aux arguments des fournisseurs de virtualisation pour les PC. Si ces derniers ont vu leurs prix baisser, ils restent toujours onéreux à cause du prix des logiciels, d’une administration parfois complexe, d’une maintenance et d’un support obérant la productivité des utilisateurs. Or, le contexte économique des dernières années demande aux entreprises de rogner sur les coûts.

La crise actuelle ne fait que renforcer cette priorité et réorienter les ressources disponibles vers des projets plus importants pour le bilan de l’entreprise.

Cette priorité s’accompagne aussi d’une rationalisation des outils proposés aux utilisateurs qui n’utilisent, en réalité, qu’une faible partie des ressources proposées sur un PC. Selon une étude réalisée par IDC pour NEC, les utilisateurs ne se servent que d’à peine plus de 5 % des capacités de leur PC. Ce surdimensionnement a un coût. Et si on y ajoute toutes les charges (maintenance, support, administration, etc.), le coût total de possession d’un parc de PC distribués dans l’entreprise est largement démesuré par rapport aux utilisations, même spécifiques, de certains postes.

Dernier point à noter, l’encombrement des solutions clients lourds et les différents câblages vers les périphériques impactent la productivité, comme le démontre une étude réalisée pour le compte d’Avocent auprès de directeurs informatiques. Ainsi, 10 à 25 % des appels vers les centres de support concernent la connectivité.

Toujours selon IDC, les deux-tiers des budgets IT sont dépensés pour l’administration des postes de travail, soit 6.800 dollars par an et par utilisateur ! Une dépense que beaucoup d’entreprises souhaitent largement réduire, en particulier les grandes entreprises, détentrices de parcs machines importants. Selon des chiffres provenant d’IBM, lors d’une de ses journées technologiques dont le sujet était la virtualisation des environnements clients, il est possible de réduire les coûts d’utilisation de 65 % par rapport à l’administration classique d’un parc de PC, et de 30 % les coûts d’opération.

Ainsi, le bureau virtuel permet de diviser par deux le temps de mise en œuvre et de déploiement d’un poste de travail. Ce point est suffisamment important pour que des éditeurs comme VMware mettent en ligne des calculateurs de TCO (Total Cost of Ownership) afin d’évaluer les économies possibles en utilisant le bureau virtuel. En outre, elle autorise une utilisation au plus juste du nombre de licences nécessaires d’une application au lieu de la fournir à tous les postes. Ce qui peut représenter un gain non négligeable pour l’entreprise.

Pour les grands comptes seulement ?

Le premier segment d’entreprises pouvant profiter des réductions est évidemment les grands comptes qui sont à la tête de parcs machines PC importants. Les économies sont d’autant plus grandes que le parc est large. Jérôme Dorgheuil, consultant virtualisation chez Sogeti, constate que « les grands comptes s’y intéressent vivement et commencent même à déployer.

A partir de 200 postes, les entreprises qui ont virtualisé leurs serveurs se posent la question sur les poste de travail personnels "desktop" ». Philippe Charpentier, responsable avant-vente Europe du Sud chez Symantec pour les produits de virtualisation, tempère cet avis : « Ce sont avant tout les très grands comptes, plus de 5 000 postes, qui sont intéressés. Les autres segments d’entreprises ont d’autres "chats à fouetter", et les retours sur investissements sont moins significatifs. » Emmanuel Delaitre, responsable du pôle expertise virtualisation chez GFI, ajoute que « la démarche reste tactique sur certains postes ou sur des niches d’utilisateurs ».

Arnaud Deslandes, consultant senior chez SQLI, confirme : « La démarche est opportuniste et reste tactique. Nous avons vu des tests sur la migration vers Windows 7, en utilisant la technologie sous Vista. Le client attendra la sortie de Windows 7 pour changer son matériel, mais il peut tester l’utilisation des applications dès maintenant sur ce type de matériel et d’architecture. »

Thomas Guillemot, responsable de l’offre poste de travail chez Neurones IT, résume la tendance d’une phrase : « Est-ce que la virtualisation sera la réponse de 2009 aux besoins ? Les clients regardent beaucoup mais implémentent peu ! » Pourtant de grandes entreprises sont en phase de déploiement massif.

On peut citer Total, EDF, Picard Surgelés. La CNAM est en phase d’observation. L’intérêt dépasse les interrogations de pionniers fanas de technologies et laisse présager une véritable tendance. D’autres comptes publics, comme l’université de Rennes ou le CH de Poissy-Saint-Germain-en-Laye, sont déjà en déploiements. Carole Manuali, porte-parole et chef de produit sur le marché poste de travail chez VMware, constate d’ailleurs un intérêt soutenu en Europe et en France pour les technologies du bureau virtuell.

Des PME dans l’expectative

Dans les PME, la vague est encore loin d’arriver. Christophe Maranzana de Systancia explique : « En dessous de 50 postes, le marché est immense mais le ratio coût investissement/ressources humaines est trop important au sein d’infrastructures de cette taille. L’intérêt est donc limité mais des solutions sous forme de SaaS ou de cloud pourraient avoir leur intérêt. »

Chez Neurones IT, Thomas Guillemot confirme qu’une telle offre est dans les tuyaux. « C’est un peu neuf, mais on aimerait faire du VDI (Virtual Desktop Infrastructure) en mode service, proposer des postes de travail dédiés et personnalisés à l’image du client et les offrir à la demande. »

Emmanuel Delaitre (GFI) ajoute que « l’orientation dans les PME-PMI est de répondre à des besoins spécifiques pour résoudre certains problèmes, comme ceux de la sécurisation des échanges avec des centres offshore ».

Virtualiser pour quelles applications ?

Emmanuel Delaitre poursuit : « Techniquement, on peut presque virtualiser 100 % des applications. Mais il existe des limites et des contraintes incontournables comme la virtualisation de fonctions de sécurité telles que les dongles, et sur les applications de plus de dix ans... ça tient du coup de poker ! »

Si le bureau virtuel permet de découpler les applications du hardware et leur cycle de remise à niveau, il n’en reste pas moins que, comme les clients légers, il faut veiller à de nombreux paramètres si l’on souhaite utiliser, sous cette forme, des applications comme de la CAO ou des applicatifs métiers spécifiques.

La plupart du temps il faut faire jouer d’autres techniques de virtualisation, comme la virtualisation de session ou d’OS, pour permettre l’utilisation de tels applicatifs. Emmanuel Delaitre précise : « D’ailleurs, la virtualisation n’est pas là pour 100 % des postes mais pour mutualiser les types de postes les plus utilisés. »

Il n’en reste pas moins que certains secteurs verticaux sont déjà bien engagés dans la démarche tels que les centres d’appels avec des postes banalisés, ou l’informatique pour gérer les relations avec des centres offshore. Pour les offreurs, le secteur médical est une priorité avec des besoins correspondant bien à la technologie.

Un marché en devenir

Au-delà du phénomène de mode, le bureau virtuel commence à trouver son public. Si de nombreux acteurs de l’industrie s’y intéressent, le marché en reste pour le moment à ses prémices. Pour de nombreux cabinets d’analystes, dont le Gartner, la virtualisation sera le mot informatique de l’année.

La virtualisation du poste de travail en est une partie intégrante. Pour Euriware, le marché « est prometteur ». L’état réel est cependant celui du verre encore à moitié vide. Si l’intérêt est là, et largement relayé (mea culpa), il n’en reste pas moins que « l’on part de très bas », comme le fait remarquer Christophe Maranzana de Systancia. Thomas Guillemot confirme : « Les entreprises regardent beaucoup mais implémentent peu. » Ainsi, 1 % des postes installés l’étaient en VDI (Virtual Desktop Infrastucture) en 2008. Il y avait 22 % de postes en client léger. Au total, le marché représentait 1, 5 milliard de dollars en 2006, selon le cabinet IDC. Ce chiffre est à comparer avec la prévision de 286 milliards de chiffre d’affaires global des PC dans le monde en 2008.

En revanche, l’évolution du marché indique que la tendance est à une forte hausse. Le nombre de postes en client léger ou virtuels est multiplié par deux chaque année. Le marché des logiciels de bureau virtuel devrait approcher les 4 milliards de dollars en 2011.

Des acteurs d’origine diverses

Si le marché ne tourne pas à plein régime, de nombreux acteurs de l’industrie, et non des moindres, proposent des offres. Ils sont d’origines diverses.

La première catégorie regroupe les acteurs habituels du marché de l’infrastructure : IBM, Microsoft, SUN, VMware, Red Hat, Citrix…

A côté de ces spécialistes de l’architecture, on constate l’apparition de nouveaux acteurs tels que Symantec et NEC qui s’installent comme des acteurs importants.

Dernière origine, les jeunes entreprises qui ont immédiatement construit leurs offres sur l’architecture virtuelle : NeocoreTech, Ceedo Enterprise, MokaFive, Pano… Dans cette catégorie, on peut ajouter les offreurs d’OS en ligne comme ExoPlatform ou Ulteo, mais aussi Stoneware et son produit WebOS.

Cette liste n’est pas exhaustive du fait de nombreuses start-up dans le secteur. D’ailleurs, un grand nombre d’acteurs présents ont constitué leur offre à partir de rachats de technologie ou d’entreprise de ce type.

Des secteurs métiers privilégiés

Cette masse d’offreurs visent prioritairement des secteurs métiers susceptibles d’être rapidement intéressés par cette technologie. Outre les grands comptes qui cherchent à faire des économies, le bureau virtuel intéresse beaucoup dans le secteur des centres d’appels ou les entreprises fortement distribuées telles que les SSII avec des centres offshores.

La bataille va cependant se passer autour du secteur médical et hospitalier. Celui-ci doit rapidement muter et renouveler son parc informatique pour se conformer aux différents plans d’évolution prévus, comme le DMP (dossier médical personnalisé) ou Hôpital 2012.

Les offreurs du secteur y voient une forte opportunité. Les mises en œuvre dans ce secteur devraient permettre de répondre aux interrogations du marché, encore frileux en termes de chiffres et métriques, et apporter des premiers retours sur l’utilisation réelle de la technologie dans un contexte spécifique.

Virtualisation ou virtualisations ?

Il existe plusieurs méthodes pour mettre en oeuvre des bureaux virtuels. Elles sont principalement au nombre de trois :

  1. virtualisation d’OS,
  2. virtualisation d’applications
  3. et virtualisation de session.

Présentation de ces trois technologies et de leur contexte. Il ne faut pas mettre la charrue avant les bœufs.

Qu’est ce que la virtualisation des postes de travail ?

Selon IDC, c'est une solution architecturale centralisée permettant de remplacer les postes de travail traditionnels par des postes de travail virtuels qui s’exécutent sur des serveurs regroupés dans un centre de données.

En conséquence, l’utilisateur ne détient pas l’ensemble des ressources qu’il manipule sur son poste de travail. Derrière cette définition simple se cachent différentes possibilités architecturales. Chacune correspond à un besoin et connaît ses propres contraintes.

Le bureau virtuel correespond à la virtualisation du poste de travail

Le bureau virtuel ou virtualisation du poste de travail est la plus connue et se rapproche beaucoup du fonctionnement de la technologie de virtualisation sur les serveurs. Un système hôte accueille un hyperviseur qui permet de faire tourner un système d’exploitation invité sur lequel fonctionnent des applications. Il connaît plusieurs variantes.

Ainsi, il est possible de pousser cette configuration à chaque démarrage d’un PC à partir d’un serveur ; on parle alors de streaming d’OS.

Une autre solution est de déporter directement la configuration sur un serveur et d’y accéder par un terminal. On voit ici la similitude avec le client léger d’autrefois qui, en fait, se limitait à un déport de l’affichage d’un serveur sur un terminal.

Dans ces deux cas, on centralise dans des centres de données.

Par ce biais, l’administration d’un nombre important de postes clients est simplifiée. Le principal intérêt est de pouvoir utiliser au maximum les capacités offertes ou de les fournir au plus juste à l’utilisateur pour couvrir ses besoins. Il en est de même sur la partie serveur avec, au besoin, la possibilité de migrer vers un serveur plus puissant ou disponible en cas de problème de charge.

Dans le cas du streaming d’OS, la configuration est poussée vers le terminal ou le PC au démarrage, le système se réinitialisant à chaque fois.

Grosso modo, les téléchargements, et tout ce qui n’est pas dans l’image poussée, disparaissent du PC s’il n’y a pas eu de sauvegarde en local. Le moyen est imparable pour avoir des postes très « corporates » chaque matin !

Pour l’administrateur, la solution a aussi l’avantage de n’avoir qu’une seule source à mettre à jour afin d’uniformiser les postes à administrer. Avec la présence d’une puissance de mémoire et de calcul en local sur le PC, il est possible de travailler aussi dans un mode déconnecté puis de recentraliser ensuite à la connexion avec le serveur. Une synchronisation est alors réalisée entre le serveur et les éléments applicatifs sur le PC.

Ces solutions permettent de faire cohabiter des applications fonctionnant sur plusieurs OS ou sur des OS de différentes générations.

Chez Microsoft, cette possibilité sera normalement disponible dans le premier semestre de cette année et proviendra du rachat de la solution de Kidaro. La présence de mémoire et de puissance de calcul en local autorise l’utilisation pour des applications gourmandes en ligne, comme la 3D, la business intelligence… Neocoretech propose ces deux environnements avec des PC persistants ou non. Il est aussi possible de réaliser cette virtualisation entièrement en ligne.

ExoPlatform, une start-up française, propose ainsi un OS en ligne sur lequel il est possible de faire fonctionner des applications à travers un simple navigateur Web (IE ou Firefox).

Un autre acteur, Ulteo, permet l’utilisation d’un environnement Linux complet sur Windows par un simple téléchargement et sans redémarrage.

La virtualisation d’application

Une autre possibilité revient à dissocier une application de son environnement système et des autres applications présentes sur le terminal par encapsulation. On appelle cela la virtualisation d’application.

  1. Ces dernières sont déployées sur le poste client lorsqu’elles sont demandées au serveur.
  2. Une autre méthode consiste à faire s’exécuter l’application dans son environnement virtuel et de la proposer sur le terminal sous la forme d’un exécutable.
  3. Il reste enfin la méthode classique de l’exécution de l’application sur un serveur distant, le client léger.

Dans une forme plus élaborée, il est possible de réaliser ces opérations avec des packages applicatifs entiers et de proposer des environnements de travail complets. Packages, templates, golden images sont ainsi les possibilités offertes par la technologie. Elle s’adresse cependant à des environnements et des postes largement banalisés et peu différenciés.

La virtualisation de session

Emmanuel Delaitre précise qu’« il est possible de virtualiser le bureau comme une application ». Cette méthode se rapproche le plus du client léger tel que nous le connaissons. Les applications s’exécutent sur le serveur, et seules les images du bureau ou des applications sont déportées sur un terminal, léger ou lourd.

Il ajoute : « La virtualisation de session s’exécute à 90 % sur des applications classiques. Encore faut-il que les applications n’aient pas besoin de redémarrage ou d’installation spécifique. »

Concrètement, l’utilisateur se connecte au serveur et demande le package applicatif nécessaire pour effectuer son travail. Celui-ci est « streamé » via le réseau sans aucune installation, en fonction de son profil utilisateur et des droits afférents à ce profil.

Il est à noter qu’il ne peut y avoir d’interaction avec des applicatifs qui ne seraient pas présents dans la session. Les programmes fonctionnent comme des vidéos en streaming. Vous commencez l’utilisation alors que l’application continue à se charger en arrière-plan. La pièce importante de cette architecture est le broker de connexion qui permet de gérer les différents types de connectivité selon l’usage par le LAN, une interface Web sur le poste, complet ou pas... Cette méthode est principalement adaptée pour les applications ne supportant pas le multi-utilisateur.

Des difficultés à surmonter dans les projets

Après avoir défini les différentes architectures possibles de bureaux virtuels, il reste à ne pas tomber dans certains errements pour réussir le projet. Il est ainsi nécessaire d’établir une typologie des applicatifs dans l’entreprise et de savoir qui utilise quoi, et pour quoi faire. Euriware, la SSII filiale d’Areva, a d’ailleurs mis en place une méthode de déploiement de bureaux virtuels.

Elle préconise cette démarche de cartographie des applications et des postes éligibles à la virtualisation. Elle indique ainsi que la démarche est différente de la virtualisation de serveurs et qu’il ne faut pas se lancer tête baissée. De l’avis général des personnes que nous avons interrogées dans cette enquête, il est nécessaire de réaliser un prototype sur des postes bien identifiés, en nombre limité, avant de passer à un déploiement de masse.

Le passage au bureau virtuel sous-entend un important programme de gestion du changement. Christophe Maranzana de chez Systancia explique qu’« un frein important est la sensation pour l’utilisateur d’être dépossédé de son poste physique et de voir ses droits restreints sur certains applicatifs.

Il existe des moyens de contourner cela en laissant l’utilisateur personnaliser un peu son poste pour le laisser retrouver ce qu’il connaissait en client/serveur. Cela peut sembler futile mais c’est psychologiquement important ».

Les contraintes de débit/latence sont toujours présentes et demandent un tuning fin, de même que les serveurs dans les centres de données dont la criticité augmente. Il faut aussi prendre en compte, dès le début du projet, les problématiques de stockage qui découlent du changement d’utilisation et de l’impact sur les volumes à sauvegarder dans les centres de données.

Une virtualisation hybride

La tendance actuelle dans les entreprises est de combiner les différentes technologies de virtualisation pour arriver à répondre aux besoins des multiples utilisateurs dans l’entreprise. Chaque technologie répond à certains scénarios d’utilisation. En les combinant, il est techniquement possible de répondre à la plupart des questions posées par les utilisateurs.

Cette approche est privilégiée par Microsoft qui offre plusieurs outils afin de répondre à ces différents cas de figure. VMware étend son offre pour permettre aussi cette possibilité. A terme, les acteurs du secteur vont s’entendre sur ces processus de virtualisation. Des efforts de standardisation sont d’ailleurs en œuvre. Ils ne sont pas encore pour tout de suite, mais la démarche avance sans trop d’anicroches.

Elle permettra une meilleure intégration entre les différents outils de virtualisation au niveau des outils d’administration. Les discussions tournent autour de VMan, un standard en discussion à la DMTF (Distributed Management Task Force) et l’Open Virtualization Format. Mais ici, la réalité est au-delà du virtuel. En tout cas bien plus que sur les postes de travail !

Retrospective - Avènement du PC, qui l'eu cru ?

Améliorations nécéssaires

Sécurité, mobilité, réduction des coûts de maintenance reposent sur le bureau virtuel, une évolution des logiciels sur le PC.

Administrer des dizaines de PC, c’est fastidieux. Chaque utilisateur ne peut s’empêcher d’ajouter sur sa machine un utilitaire, un programme ou, involontairement, des cookies en surfant.

Le service informatique doit sans arrêt remettre à jour les OS et les applications et verrouiller tous les postes qui pourraient ralentir les applications principales. Administrer des centaines de postes, sans une discipline de fer, devient souvent impossible et, si l’on doit encore ajouter des tablettes ou des mobiles, l’affaire peut devenir quasiment ingérable. A moins de recruter…

 

Ken-OlsenEn 1985, Ken Olsen, l’ex-PDG de Digital Equipment,

Ken-OlsenEn 1985, Ken Olsen, l’ex-PDG de Digital Equipment, fabricant d’ordinateur n°2 mondial à l’époque derrière IBM (avant d’être racheté par Compaq puis HP), avait osé dire : « Les PC en entreprise, je suis contre. Cela n’a aucun avenir. Qui va vouloir ou pouvoir gérer des milliers d’ordinateurs différents ? » citation de 1985.

Seuls les systèmes centralisés ont un avenir

Pendant des années, on a mis cette phrase dans tous les bêtisiers de l’informatique. Désormais, cette déclaration paraît frappée au coin du bon sens.

Comment se fait-il que, d’un seul coup, on revienne à des situations qui prévalaient il y a 30 ans ?

Ce sont toujours les coûts qui justifient cette évolution. A la fin des années 80, les applications de PC en réseau coutaient dix fois moins cher que celles développées pour des systèmes centralisées. Et les personnes censées maîtriser les PC, plus nombreuses, coûtaient deux fois moins cher en salaire qu’un vrai spécialiste de systèmes centralisés.

Inversement, à partir des années 2010, les applications web ont démontré que l’on pouvait partager facilement une application sans avoir besoin d’autre chose qu’un navigateur. La centralisation redevenait attrayante avec des PC minimalistes.

Des postes légers intelligents

La navigation, par ailleurs, amenait plein de virus sur le poste que seule une application centralisée pouvait réussir rapidement et automatiquement à nettoyer. Alors pourquoi ne pas passer à un bureau virtuel doté dans un environnement de virtualisation, situé en fait sur le serveur au repos, plus facile à protéger.

Avec des postes «légers» intelligents ou mini PC, la consommation électrique peut aussi se réduire, ce qui n’est pas négligeable quand dans les grandes entreprises des milliers de PC restent allumés souvent 24/24. Trois ans d’utilisation d’un PC correspondraient, en termes de consommation électrique, à la moitié de son prix d’achat.

Avec le bureau virtuel, on dispose d’un système toujours au point n’importe où, sur presque n’importe quel ordinateur. C’est ainsi que le bureau virtuel va progresser de manière fantastique. Une situation qui a enrichi, entre autres, l’éditeur Citrix qui a vu son CA passé de 300 millions de dollars à la fin des années 90 à 2,92 milliards de dollars en 2013.

La sécurité au-delà de l‘’accès Internet

Le pionnier du bureau virtuel, Citrix, est désormais concurrencé de toutes parts (Vmware, Oracle, et même Microsoft son partenaire historique). Il se relance pour mieux intégrer les fonctions Cloud et réduire les coûts d’exploitation de ses solutions. Eric Debray de Cisco, partenaire de Citrix, résume bien l’enjeu actuel du bureau virtuel qui n’a cessé d’évoluer avec l’apparition du Byod et des risques liés à la sécurité : «L’enjeu n’est plus la seulement le bureau virtuel lui-même mais la possibilité de retrouver un environnement de travail adapté à l’endroit où l’on se trouve et à l’équipement utilisé pour travailler (PC, smartphone, tablette…).

Nous sommes passés d‘'une logique de réduction de coûts à une logique d’efficacité de l’utilisateur.» C’est ainsi que bon nombre de vendeurs de systèmes de bureaux virtuels ont ajouté à leurs panoplies des outils pour gérer ces environnements à l’instar de Vmware qui a racheté AirWatch pour distribuer les applications sur PC, smartphone et tablette.