Cloud Computing Entreprise 2.0 Identité numérique NTIC Sécurité des données

Les TI et le «nuage Web» : l’immobilisme au nom de la symphonie en mouvement !

5 septembre 2008

Cela fait au moins un an que je tente de faire venir les gens de Google à Montréal afin qu’ils puissent venir parler à la conférence webcom-Montréal. Parler d’entrepôts de données mais aussi parler de SaaS (software as a service) et surtout de «Cloud Computing». Après les avoir rencontrés en juin dernier à Boston, ils ont finalement accepté d’être des nôtres le 12 novembre prochain… Le sujet risque d’être encore plus brûlant d’actualité que je ne croyais. Pourquoi ?

Parce que tous les gros joueurs de l’industrie s’y mettent : Google bien sûr mais aussi Microsoft, Amazon, SalesForce.com et maintenant IBM, oui, oui vous avez bien entendu IBM… En juin dernier, ils annonçaient à Boston la sortie d’une nouvelle ligne de serveurs 2.0, les iDataPlex Servers, destinés aux entrepôts de données des joueurs pré-cités mais on a appris, fin août dans un communiqué de presse repris par le Journal du Net , qu’ils allaient investir plusieurs centaines de millions dans leurs propres entrepôts… Pas seulement dans les serveurs et les entrepôts mais aussi dans le marché du SaaS et du Cloud Computing.

Le iDataPlex présenté en primeur à Boston en juin dernier

En juin dernier, les gens de Google sont débarqués en force à la conférence Entreprise 2.0, qui avait lieu à Boston, avec comme but inavoué mais certain de convaincre les entreprises que leur salut réside maintenant dans l’externalisation de leurs données, applications et centres de traitement informatiques vers le «nuage Internet».On parle ici de services Web, de SaaS mais aussi de Web 2.0, d’Entreprise 2.0, de KM 2., etc.

En fait, comme l’a mentionné Rishi Chandra, de Google, le même qui sera à Montréal, la question n’est plus de savoir s’il y aura une profonde mutation de l’informatique vers le Web mais quand et surtout à quelle vitesse…Après la bataille pour nos données personnelles, ces GROS joueurs vont tout d’abord «écrémer» le marché des grandes entreprises, leurs clients traditionnels. Une stratégie qui devrait se déployer au cours des cinq prochaines années. Par la suite, elles devraient porter leur attention sur un autre segment, la longue traîne des entreprises, soit les PME-PMI, segment qui surprenamment, se montre très «frileux», du moins ici au Québec, à ces grandes mutations.

Rishi Chandra en conférence…

Ce qui me ramène à un de mes thèmes favoris, soit le manque de vision des entreprises québécoises et notre immobilisme technologique qui met sérieusement en danger notre compétitivité internationale. C’est patent au Québec mais pas unique. Lors de sa conférence à Boston, Rishi Chandra et Dion Hinchcliffe ont aussi abordé ce thème : L’innovation ne vient plus de l’entreprise elle-même mais de l’externe et surtout de particuliers comme vous et moi qui créons applications et contenus sur le Web mais aussi qui travaillons avec des outils plus performants que ceux utilisés en entreprise.

Donc, l’informatique traditionnelle est dépassée et ne génère plus que 20 % d’innovation contre 80 % de statu quo, ce qui était l’inverse avant : Et ce sont les vieux qui contrôlent les services TI et ces «vieux» emploient 80% de leur budget pour le maintien des infrastructures traditionnelles et leur sécurisation.

Ces derniers en sont toujours à parler d’architecture technologique d’entreprise visant à gérer l’intégration des solutions technologiques ou encore de gestion du patrimoine technologique et de sécurité des données et applications stratégiques. Ils ne peuvent cependant plus cacher que ces «architectures patrimoniales sécuritaires» entrainent des coûts de plus en plus élevés en termes de planification, d’évolution, de maintenance, d’immobilisation et aussi de gestion de la main d’oeuvre. Ce sera d’ailleurs le sujet d’une conférence à la FIQ le 18 septembre prochain, conférence prononcée par Jean-Pierre Fortin, chef de la planification stratégique des TI à la ville de Montréal : «L’architecture d’entreprise : une symphonie en mouvement».

Une symphonie qui sonne de plus en plus faux car maintenir un service TI qui peut comprendre un ou plusieurs centres de traitement informatique où ronronnent des milliers de serveurs d’applications et de données, des milliers d’applications-maison en plus des solutions des fournisseurs et un parc informatique de plus en plus complexe ouvre la porte aux fausses notes (pannes de toutes nature) et demande parfois un orchestre de plusieurs centaines de personnes (gestionnaires, architectes, analystes, conseillers, programmeurs, dépanneurs, etc). Payer l’orchestre et payer les instruments, payer pour leur entretien et leur réparation en cas de panne revient de plus en plus cher pour une entreprise dont la mission de base n’est pas l’informatique.

De là l’externalisation des installations et la dématérialisation des données dans le «nuage» Web et pas seulement pour les grandes entreprises. De là aussi l’apparition d’entreprises qui travaillent à offrir aux PME les mêmes services que Google et autres mais sous leur radar. Des firmes comme la québécoise Oriso. À court terme, elles pourront tirer leur épingle du jeu. À long terme, il leur faudra une offre différente pour demeurer compétitifs.

Mais les données et la sécurité ?

Question qui revient en effet sur toutes les lèvres des CEO ou CTO des entreprises ainsi que d’autres telles que : Google ou Amazon ou IBM ne deviendront-elles pas des Big Brother, propriétaires de nos données et les utilisant à des fins autres ? Et ne serons-nous pas prisonniers de ces entreprises qui auront nos données ET nos applications ? Et seront-elles en sécurité sur le Web avec tous ces hackers ?  En réponse à cela, laissez-moi reprendre le compte-rendu que j’ai fait à Boston de la soirée intitulée «An Evening in the Cloud ».

Le panel de «Evening in the Cloud»

«Hier, en fin de journée, Google, Amazon et Salesforce.com commanditaient l’événement «An evening in the Cloud», petite soirée où les trois entreprises participaient à un panel inusité. Voici les règles du jeu : Les trois représentants de ces entreprises, soit Jeff Keltner pour Google, Adam Selipsky pour Amazon et Ross Piper pour Salesforce ont à convaincre quatre CIO que leurs données et applications ont avantage à résider dans un nuage plutôt que dans un centre de traitement sécurisé avec une distribution client-serveur. Le tout modéré par David Berlind d’InformationWeek.

Débat intéressant où les quatre CIO ont déballé devant une salle comble ou presque, les peurs traditionnelles des gens de Ti devant tout ce qui est Internet 2.0 et plus… Tout y est passé, portabilité des données, propriété des données, confidentialité et surtout SÉCURITÉ. À ce titre, Richard Mickool, CTO de l’université Northeastern, a sorti l’artillerie lourde en posant une question fort pertinente sur la dépendance des entreprises face à leurs «fournisseurs» dans l’éventualité de la délocalisation de son infrastructure informatique. Le fait d’être pris avec un seul fournisseur. Qu’arriverait-il si ce dernier disparaissait ou était vendu ? «I don’t want to be locked in» a-t-il lancé comme un cri du coeur.

À cette inquiétude, les trois compères ont opposé le fait que tous trois tenaient à ce que les entreprises demeurent en contrôle de leurs données et applications et qu’elle puissent avoir le choix de les retirer quand bon leur semble. Le principe de la portabilité, quoi. Les mêmes préoccupations que pour les individus avec leurs données sur le Web social…

Ensuite ce fut le tour de Mary Sobiechowski de poser une autre question que j’attendais depuis le début. Les entreprises pourront-elles compter sur une bande passante suffisante pour leurs besoins croissants, surtout en matière de multimédia ? Je m’attendais à une réponse rapide de Google mais cette dernière n’est jamais venue. En faut, j’ai dû aller poser la question par la suite à Keltner. Ce dernier a confirmé que Google était bien un client d’Internet2 et du PC1 Cable System , qui offre actuellement une possibilité de transit de 240 gigabits/seconde (Gbps) en plus d’avoir été conçu pour atteindre UN Tétrabit/seconde !!! (Tbps). Pas besoin de dire que les entreprises ont là, largement de quoi se rassasier et ce pour bien des années quand on sait que la plupart d’entre elles utilisent rarement plus que 100 mégabits/seconde.

Autre question que j’attendais et qui est finalement venue en fin de débat et de la part d’un participant dans la salle : Les coûts ! Un avantage net pour Google et compagnie. En fait c’est Amazon qui a répondu de la même façon qu’à la conférence Web 2.0 Expo à San Francisco : Un accès à un serveur d’applications pour aussi peu que 10 cents de l’heure. Besoin d’espace de stockage pour vos données (textes, photos, vidéos, etc.) ? Amazon vous offre le principe du «all you can eat» pour 15 cents du Gigabit par mois !».

Bref, beaucoup de mythes et de fausses croyances véhiculés par ceux et celles qui ne tiennent pas à ce que leurs petits royaumes soient démantelés quitte à faire payer une fortune à leur entreprise pour leur maintien. De là, le conservatisme au nom de la sécurité et l’immobilisme au nom de la symphonie en mouvement !

Vous pourriez également aimer

Aucun commentaire

Laissez un commentaire