Parcourir la catégorie

Entrepôts de données

Cloud Computing Communication interactive Entrepôts de données Études Internet Internet of Things Internet2 Web sémantique

MAJ1 et 2: Google+, un avertissement en coup de tonnerre : Le Web 2.0 aurait-il vécu ses plus belles années ?

19 juillet 2011

Google+ sera-t-il le dernier grand site de réseautage social du Web 2.0 ? Tout en moi voudrait qu’il n’en soit pas ainsi mais en même temps tout en moi crie le contraire… Oh… ce n’est pas le dernier site, la dernière communauté à apparaître mais je crois que tous ceux qui viendront APRÈS ne seront que copies ou tentatives de trouver une autre façon d’entrer en relation, de réinventer une formule déjà arrivée à maturité avec Facebook, LinkedIn et G+…

plus

Alors, suis-je en train d’écrire sur le chant du cygne des réseaux sociaux ? Pas encore… Mais je crois que Google + est un avertissement en coup de tonnerre ! Le Web 2.0 a vécu ses plus belles années (2004-2010) et dans un cycle de vie normal, les adultes vieillissent et finissent par disparaitre et laisser la place à la jeunesse 3.0 ou 4.0 ou n’importe quelle autre appellation qui serai détermnée par les prochains gourous du Web ou de l’Internet à la Tim O’Reilly. À ce titre, laissez-moi vous entretenir des derniers travaux d’un de nos maîtres à penser québécois (pas un gourou) et selon moi, un homme qui a, ici comme en Europe, l’impact d’un Marshall McLuhan. J’ai nommé Michel Cartier.

Pas surprenant qu’à webcom, nous ayions donné son nom aux Prix Cartier remis aux personnes qui ont profondément marqué le milieu québécois des nouvelles technologies de l’information et de la communication. Dans une récente rencontre, Michel m’a fait part des résultats de ses dernières recherches sur les changements à apprivoiser au cours des 10 prochaines années avec comme danger de vivre de la pensée magique, c’est-à-dire de la technoscience… En fait, ce qui détermine notre avenir est plus complexe et implique aussi bien le technologique que l’économique et aussi le sociétal..

Trois vagues (rappelez-vous Alvin Toffler) qui ont simultanément atteint leur point de rupture entre 2000 et 2010 et qui, comme un Tsunami, balaient l’ancien ordre social pour le remplacer par de nouveaux modèles basés sur trois axes majeurs:1- La technologie, poussée par la convergence en mode intégré, 2- Un nouveau modèle économique de proximité et surtout 3- Un nouveau rapport au pouvoir basé sur la prise de parole.

Trois axes et autant de schémas…

Ces trois axes, Michel en a fait des schémas car il faut connaître l’homme pour comprendre que tout passe par les schémas. Donc, lors de notre rencontre, il m’a montré le fruit de ses dernières réflexions maintenant schématisées. C’est donc avec son accord, que je les diffuse ci-dessous. Comme vous le verrez, ils sont encore sous une forme brute, dessinés au crayon mais aussi sous forme évolutive car encore incomplets mais chacun venant expliquer ce qui se passe dans notre société et ce qui l’influencera dans les prochaines années. Et comme j’ai débuté ce billet par les réseaux sociaux, je reproduis donc le schéma sur l’axe sociétal.

IMG_0592

On y voit nettement la convergence des usages sociaux entre les médias de masse et l’informatique avec les divers outils inventés au fil de la ligne du temps tracée en haut. La question est de savoir qui cannibalise qui en bout de ligne pour capter l’audience de milliards d’internautes (2 milliards à date…) et de consommateurs de contenus sur trois types d’écrans, soit téléviseurs, ordinateurs et écrans mobiles. Pas inclue dans son schéma est la question des contenus ainsi générés et consommés.

Contenus et données auront besoin d’être entreposés, ce que l’on verra dans le schéma sur le système, et surtout organisés et présentés de façon cohérente, ce que l’on nomme actuellement la curation de contenus. Bref, la schéma de Michel me rappelle drôlement un autre schéma que j’utilise assez rarement dans mes conférences pour parler de la naissance du Web social, où les technologies sont vues comme un accélérateur de changement social et les forces sociales comme un transformateur du développement technologique. Cette interdépendance et interinfluence arrive juste à la jonction du schéma de Michel Cartier en 2004, l’année où justement le social et le technologique ont fusionné pour créer le Web social.:

websocial

Parler de technologies m’amène à présenter le schéma sur l’évolution de ces dernières et justement de prendre en compte la gestion de la conversation sociale et l’entreposage des données ainsi générées. J’ai souvent parlé les entrepôts de données et de la guerre que se livrent les grands comme Google et Amazon pour leur contrôle. Justement, cela touche d’une part la technologie mais aussi l’économie, soit les deux prochains schémas de Michel. Celui ci-dessous montre l’évolution des technologies informatiques depuis les années 70 en termes de traitement, de stockage et de réseaux.

IMG_0594

Bien évidemment, nous sommes passés du «mainframe» au client-serveur avec les minis puis les micros mais vous remarquerez que l’arrivée sur le marché des appareils mobiles change la donne. Encore une fois, on assiste à un changement de paradigme entre les années 2000 à 2010. Chris Andreson du magazine Wired a parlé de la mort du Web et de la prédominance de l’Internet avec maintenant 70% des contenus consommés par des applications accédant directement à Internet et non plus au Web via un navigateur. Mais la multiplication de ces appareils et applications a aussi multiplié la quantité de données disponibles et surtout à entreposer d’où le petit dessin en bas pour le Cloud Computimg ou en français «infonuagique» et son alter ego : les entrepôts de données.

Le guerre pour nos données et l’ordinateur planétaire…

Ce que le schéma ne montre pas cependant et que j’ai fait remarquer à Michel c’est que tous nos bidules mobiles, téléphones intelligents, iPads, iPods, lecteurs de livres numériques et netbooks n’ont pas de disques durs pour le stockage des données, d’où l’infonuagique et les entrepôts, d’où le RETOUR au mainframe !  Un seul ordinateur planétaire avec des milliards de terminaux qui sont actuellement des objets qui deviendront intelligents mais si on se projette juste un peu plus loin, des terminaux qui seront implantés chez les utilisateurs, directement… Bienvenue Cyborgs !

Et cette perspective fait saliver les grands de l’écomonie numérique… De là, le dernier schéma de Michel où l’économie a évolué des pionniers aux consortiums, des consortiums aux conglomérats et de ces derniers aux géants de service qui comme le mentionne Michel pourraient devenir les «maîtres du monde» remplaçant au passage les grandes banques qui jouent actuellement ce rôle. Et qui sont ces géants ? Si vous avez répondu Google, Microsoft, Facebook, Amazon, Salesforce, vous avez vu juste. Et c’est justement ces grands de l’économie numérique qui actuellement se livrent la «data war» pour le contrôle non seulement de vos données mais aussi de l’ordinateur central et planétaire.

IMG_0591

Oh, en passant, j’ai oublié de mentionner, concernant le schéma sur la technologie, que Michel distingue Internet 1 et Internet 2 car en effet, il y a actuellement deux Internets. Celui sur lequel nous évoluons actuellement et qui a permis le W3. Au départ, on le nommait ARPANET et il était réservé aux militaires et aux chercheurs universitaires.

Comme Internet 1 est devenu hyper commercial et social et surtout encombré, devinez où ont migré les militaires et chercheurs ? Sur Internet 2 et ce nouvel Internet possède des caractéristiques de connectivité impressionnantes, comme le démontre la capture d’écran d’une de mes «slides». Imaginez… Le CERN a établi en 2005 le record encore inégalé : 5,44 Gigabits/seconde… Et dire que l’infrastructure de transport du PC1 Cable peut permettre à Internet 2 d’atteindre 640 Gigabits/seconde…. Bienvenue à Internet 2 et à quand Internet 3, 4 ou 5?

connectivité

En fait, il n’y a pas de limites au nombre d’Internets ou comme les appelle Michel, espaces de connectivité… Bref où est le Web 2.0 dans tout cela ? Catalyseur de changement entre 2005 et 2010, il risque de passer bientôt à l’Histoire. O’Reilly parle de Web Squared, Berners-Lee de Web sémantique, Anderson d’Internet des choses. Et Michel Cartier lui, parle d’une immense fracture mondiale, de bouleversements que nous vivons à tous les jours. Pas seulement dans notre utilisation des technologies mais aussi dans notre vie sociale, économique, politique et même environnementale !

Bienvenue dans un monde post Web 2.0 mais pas pour les entreprises, surtout à l’interne car ces dernières sont presque deux à trois ans en retard sur les usages  personnels sur le Web et sur Internet. Et loin de s’amenuiser, cet écart grandit !!!

MAJ1

J’ai eu beaucoup de commentaires et de retweets à la suite de ce billet mais malheureusement, les commentaires ne se sont pas inscrits ci-dessous, dans l’espace prévu à cette fin. Donc, je reproduis ici le courriel que j’ai reçu d’André Mondoux :

Bonjour Claude.

Tel que promis, deux articles. Ils seront publiés – si ce n’est déjà fait – dans les semaines qui suivent. Je n’ai pas les références exactes (ce sont deux revues françaises : Les cahiers du numérique et TERMINAL), mais si tu en as besoin, je te les ferai parvenir. L’idée de fond est que ce n’est pas tant le retour du mainframe dans la mesure où avec ce dernier les rapports de force/politiques étaient clairs : le centre et le « dumb terminal »… Maintenant, la structure ressemble effectivement au mainframe, mais ce dernier apparait non plus comme un rapport politique, mais bien l’horizon du monde lui-même (le dumb est devenu « client »  supposément émancipé/ la technique semble « autonome » – ce que Cartier nomme technoscience….). Les conséquences et implications sont décrites dans les articles que je te fais parvenir bien humblement.

Cordialement,

André

J’aime bien cette précision sur le mainframe: du rapport de forces politico-technologique entre un centre intelligent et une périphérie bête et stupide alors que le SYSTÈME aurait évolué pour devenir autonome et inclusif, l’ordinateur planétaire ou le système-monde comme le nomme André Mondoux, étant connecté à l’intelligence et aux émotions consommatrices de deux milliards d’humains/clients. Et oui, je vois déjà d’autres commentaires affluer aux sujet de la Matrice et de Big Brother… Ce faisant, je joins le Pdf du texte d’André intitulé Mon Big Brother à moi.

MAJ2:

Et comme une mise à jour ne vient jamais seule et surtout comme le hasard fait bien les choses, Chris Anderson et son magazine Wired viennent remettre de l’eau à mon moulin en cette fin de journée. Sur Twitter, j’ai donc intercepté un lien qui m’a amené sur un  article tout frais paru (45 mins.) et qui porte sur quoi ? Je vous le donne en mille: « The Coming Cloud Wars: Google+ vs Microsoft (plus Facebook)». Bonne lecture !

 

Entrepôts de données Études Internet

The State of the Internet. Une accumulation de chiffres mais aussi de données

27 février 2010

J’ai vu passer cette vidéo dans un commentaire de Guy Kawasaki sur Twitter plus tôt dans la journée. Il me rappelle toutes ces vidéos d’accumulation massive afin d’expliquer le phénomène du Web 2.0 aux néophytes. Ce dernier a l’avantage des chiffres… Le titre est un peu pompeux: «The State of the Internet»

L’accumulation de tous ces chiffres nous ramène à l’Intenet des données: comment ferons-nous pour gérer l’afflux incessant et toujours croissant de données publiées et stockées dans les entrepôts de données, les serveurs et les ordinateurs indépendants qui formeront bientôt notre mémoire collective et dont l’encyclopédie Wikipedia n’est qu’une infime partie de ce que Google tente de cartographier et de ce que Tim Berners-Lee essaie de structurer…

Cloud Computing Communication interactive Entrepôts de données Entreprise 2.0 Études Internet Ideagoras Mémoire d'entreprise Real-Time Web Web sémantique

Le Web en 2010: le vertige des listes et trois tendances lourdes!

30 décembre 2009

Je dois vous avouer que j’ai régulièrement le vertige, surtout en hauteur mais aussi à l’approche du Nouvel An… En cette période de l’année, je ressens un sentiment bizarre qui a été identifié hier par l’amie Suzanne Lortie. Elle en a même fait le sujet de son dernier billet sur son blogue: Le vertige des listes

Un vertige face à un véritable fléau qui afflige régulièrement les médias aussi bien traditionnels que Web mais aussi les blogues, les statuts Facebook et Twitter, surtout en cette période de fin d’année où les bilans sont chose courante. D’ici au début de 2010, on ne verra que ça : top ten IPO candidates for 2010 chez TechCrunch, 10 ways social media will change 2009 ou encore Top 10 YouTube Videos of All Time chez ReadWriteWeb et ainsi de suite.

Je dois avouer qu’il serait aisé de tomber dans cette facilité et de faire mon propre décompte de mes dix meilleurs billets de 2009 ou encore de faire mon appréciation des dix moments marquants du Web 2.0 en 2009 ou encore mieux faire de la prospective et de parler des 10 technologies qui marqueront la prochaine décennie!

Facile et payant. En effet, ces classements, listes et décomptes vous valent habituellement une excellente couverture sur Twitter comme le démontrent les 2 626 tweets faits à date sur ces prédictions de RWW. Et que dire du trafic encore plus important généré sur l’article certes, mais aussi sur l’ensemble du blogue par le biais des liens fournis sur les articles similaires.

Bref, vous le comprendrez, je n’aime pas cette sensation de vertige des listes, de catégorisation, de tout vouloir mettre dans des cases, même si les listes peuvent parfois être utiles comme elles l’ont été au tout début de leur apparition sur Twitter.

Tendances 2010

Mais j’aime bien, à chaque fin d’année, faire un tour de tous les blogues que je suis régulièrement (eh oui, «listés» dans mon Netvibes) question de faire un peu de veille sur ce que seront les grands courants ou tendances lourdes qui vont influencer le Web au cours de la prochaine année mais aussi au cours des suivantes car les grands courants de fond sont souvent mouvants, changent de forme ou de direction.

Ainsi, plusieurs blogues maintiennent que 2010 sera l’année des gestionnaires de communauté. Certes, plus il y aura de communautés 2.0 sur le Web mais aussi dans l’entreprise, plus il y aura besoin de personnes pour les gérer et les animer. Donc, oui, on en verra de plus en plus, regroupés dans des listes ou communautés comme celle de Luc Legay.

1) L’Internet des données

Mais ce ne sera pas le grand courant de fond. Pour le trouver, il ne faut pas aller très loin. J’en parle régulièrement sur ce blogue : Les données. Et en cela, ReadWriteWeb confirme dans son analyse de la première de cinq grandes tendances pour 2010.

ReadWriteWeb’s Top 5 Web Trends of 2009:

1. Structured Data
2. The Real-Time Web
3. Personalization
4. Mobile Web & Augmented Reality
5. Internet of Things

Eh oui, encore une liste… Les «Structured data» ou encore «linked data», le crédo de Tim Berners-Lee, seront à l’avant-scène tout comme le Web Squared ou Web². En effet, avant de parler de Web 3.0, de Web sémantique ou de Web 3D, certains dont Tim O’Reilly, ont vu 2010 et les prochaines années comme des années de transition et ont théorisé sur cette dernière. Pour en savoir plus, je vous reporte à CE BILLET que j’ai commis plus tôt cette année.

Mais il est tout aussi important pour l’évolution du Web d’être capables de mettre en place une infrastructure matérielle et logicielle robuste et sécuritaire. Où iront toutes les données que nous générons, individus comme entreprises? Ces données gérées et entreposées sont-elles sûres, protégées ? Le Cloud Computing est-il à l’abri des «hackers»? Qu’arrriverait-il aux données en cas de sinistre, de faillite ou de vente de l’hébergeur?  Le «nuage» sera-t-il à l’origine d’une cyber-guerre?

Voilà une foule de questions qui seront à l’avant-scène et je vous conseille de lire l’excellente analyse faite par la MIT Technology Review et intitulée «Security in the Ether». Vous y trouverez plusieurs réponses. C’est et de loin, le meilleur article sur le sujet depuis des lunes…

2) Real-Time Web et Web mobile

Et je souscris à l’analyse faite par RWW sur le Real-Time Web et le Web mobile et ce n’est pas pour rien que nous étions plus de 2 300 réunis à LeWeb09 en décembre pour entendre les ténors du Web, dont Evan Williams, nous parler de Skype, Twitter ou UStream mais aussi de Square, de géolocalisation et de la popularité croissante de Foursquare ou Gowalla. Ce qui devrait logiquement déboucher sur l’Internet of Things mais la réalité augmentée elle, devra attendre, n’en déplaise à certain(e)s…

3) L’expertise des retraités

Et n’en déplaise à d’autres, 2010 sera aussi l’année où l’on verra coexister en entreprise quatre  générations différentes d’employés et  en 2015 l’arrivée d’une cinquième et cela est aussi une tendance lourde… Eh oui, fallait bien que je traite aussi de l’entreprise 2.0. Donc, finie l’utopie de la retraite à 55 ans! Fini aussi l’illusion que les générations Y et NetGen allaient balayer les BabyBoomers et leurs prédécesseurs.

Le Harvard Business Review a ainsi relevé les cinq générations qui devraient se côtoyer dans les entreprises:

  • Traditionalistes, nés avant 1946
  • Baby Boomers, nés entre 1946 et 1964
  • Gen X, nés entre 1965 et 1976
  • Millennials (Gen Y), nés entre 1977 et 1997
  • Gen 2020 (Gen C ou encore NetGen), nés après 1997

Un peu tiré par les cheveux pour la première et la dernière, vous dites? Regardez bien ce diagramme publié avec le HBR:

Les projections ici voient une décroissance constante des BabyBoomers. Rien de moins certain. Beaucoup d’entre eux reviennent au travail, leur revenu de retraite se révélant insuffisant alors que dans bien d’autres cas, c’est la caisse de retraite de l’entreprise qui est épuisée ou réutilisée à d’autres fins.

Bien des gouvernements sont en train de revoir leur politique de gestion des fonds publics de retraite et songent à mettre en place, comme en France, des incitatifs pour les entreprises à récupérer les savoirs de leurs retraités, comme je mentionnais dans ce billet.

D’ailleurs, le HBR note:

«In 1986, when the youngest Baby Boomers entered the workforce, the percentage of knowledge necessary to retain in your mind to perform well on the job was about 75 percent (according to research by Robert Kelley). For the other 25 percent, you accessed documentation, usually by looking something up in a manual. In 2009, only about 10 percent of knowledge necessary to perform well on the job is retained — meaning a myriad of other sources must be relied upon.»

Pour 90% des savoirs et des expertises nécessaires pour bien accomplir son travail, il faut avoir recours à d’autre chose que sa propre mémoire. De là l’importance de créer la mémoire d’entreprise™ et les retraités ont un rôle important à jouer dans cette construction.

Plusieurs entreprises comme IBM (ci-dessus) et sites publics comme YourEncore proposent déjà aux retraités de troquer leurs expertise contre des $$$ sonnants et trébuchants et favorisent aussi le transfert d’expertise entre les jeunes travailleurs et leurs aînés à la retraite. Ce phénomène  de création de communautés «idéagoriennes», soyez-en certains, va s’accélérer à partir de 2010!

Cloud Computing Entrepôts de données Entreprise 2.0 Études Internet Événements Ideagoras Intranet

Ruée vers l’or ou grand dégel 2.0 au Québec?

28 septembre 2009

Mais que se passe-t-il dans les entreprises québécoises  ??? Au cours des deux dernières semaines surtout mais en général depuis un mois, le vent a semble-t-il tourné et c’est maintenant une ruée non pas vers l’or,  mais vers l’entreprise 2.0!

En effet, les demandes de renseignement, de conseil et les soumissions se multiplient à une allure vertigineuse: implantation de blogues, de réseaux sociaux professionnels, wikis, idéagoras, intranets 2.0, tout y passe.

Et ce ne sont pas que des filiales américaines ou françaises établies ici au Québec qui nous sollicitent mais aussi la grande entreprise québécoise avec les fleurons de son économie ainsi que quelques grandes sociétés para-publiques. Les gouvernements, eux? Pas encore de la partie…

Mais faut dire que cela aussi risque de changer dans les prochains mois. Dans quelques semaines, il y aura à Québec, la Conférence sur les Logiciels Libres et les Administrations Publiques,(CLLAP) ce qui devrait réjouir, entre autres, l’ami Cyrille Béraud, lui qui poursuit le gouvernement pour des contrats accordés à Microsoft.

Rencontré d’ailleurs dans les studios de CIBL dans le cadre de la dernière émission de Michel Dumais, Le Citoyen numérique, Cyrille a avoué, en ondes, que les choses bougeaient, lentement certes mais qu’il y avait là aussi du mouvement. Nous avons d’ailleurs amorcé une intéressante conversation sur la pénétration du libre dans les organisations. À écouter ICI. J’y parle aussi de la prochaine édition de webcom-Montréal.

Un sondage sur le Web 2.0 au Québec

Bref, depuis l’automne 2006, je n’arrête pas d’écrire dans mes billets et de dire sur toutes les tribunes que le Québec prend un dangereux retard sur les USA et sur l’Europe en matière de Web 2.0 et des technologies numériques, dont les télécommunications, la bande passante et les entrepôts de données et de par le fait même, en ce qui a trait aux nouvelles formes d’informatique, que ce soit pour le Cloud ou l’Elastic computing.

Par contre et comme je viens de l’écrire, il y a lumière au bout du tunnel. Cette lumière, à mon avis, coïncide avec la fin annoncée de la crise économique et cela nous serons, je l’espère, en mesure de le confirmer au prochain webcom-Montréal le 22 octobre avec la sortie en primeur d’un sondage SOM-webcom sur l’état du Web 2.0 au Québec.

Oui,oui, vous avez bien lu… SOM, webcom et Rézopointzéro (je vous reparle de cette nouvelle coopérative sous peu, promis)  ont uni leurs talents pour bâtir un questionnaire et l’administrer aux entreprises québécoises afin de sonder aussi bien leur perception que leurs usages et leurs projets en termes de Web 2.0 et bonne nouvelle, c’est que le sondage reviendra à plusieurs reprises sonder diverses particularités du Web québécois. Enfin nous aurons en primeur, le 22 octobre, des chiffres en mesure de soutenir ou d’infirmer les tendances québécoises.

Réseaux et idéaagoras

Et une de ces tendances qui semble se confirmer, c’est l’intérêt grandissant chez les entreprises québécoises pour l’intégration et surtout l’utilisation de ce que l’on nomme à tort en voulant généraliser, les médias sociaux. L’intérêt le plus marqué va aux réseaux sociaux à usage professionnel. Des LinkdeIn internes mais aussi des Innocentive internes et externes, les fameuses ideagoras de Don Tapscott.

Et cela vient confirmer la tendance observée par Forrester en début d’année (graphique ci-haut).  Ce ne sont plus les wikis qui sont les champions des usages Web 2.0 en entreprise. Et cela, je le vérifie auprès de tous nos clients dont le nombre, en passant, croît à une allure phénoménale.

Comme je l’écrivais d’entrée de jeu, je ne sais pas ce qui s’est passé dans les dernières semaines mais on dirait que nous efforts «d’évangélisation » et d’information des dernières années, entre autres avec webcom-Montréal, semblent maintenant porter fruit.

Sommes-nous en train d’assister au grand dégel 2.0 au Québec? Si c’est le cas, vous comprendrez que j’en suis le premier ravi !

Cloud Computing Entrepôts de données

MAJ : Comme Microsoft, Google met fin au secret : les futurs entrepôts seront « verts » !

11 avril 2009

C’est samedi de Pâques et pour cet évènement peu banal, je m’offre une petite gâterie… Je vais écrire un billet sur les entrepôts de données, ou comme les appellent nos Voisins du Sud, les «Information Factories». J’en ai déjà parlé à profusion mais c’est un billet de Tristan Péloquin qui m’a un peu forcé la main. La semaine dernière, il a publié un billet sur la voracité de ces méga-infrastructures de serveurs. En particulier celles de Google.

Je vous cite un passage : «Chacun de ces conteneurs contient jusqu’à 1160 serveurs, et pompe jusqu’à 250 kilowatts d’électricité. Chaque fois que vous faites une requête sur le moteur de recherche, votre demande passe inévitablement par un de ces monstres».

Quand il parle de monstres, il se réfère à une classe bien particulière d’entrepôts, ceux faits de conteneurs. Et l’ami Tristan de noter que Google jouait pour une première fois la transparence en ce domaine, n’ayant jamais parlé de ses installations depuis 2005. La firme de Mountain View, chacun le sait, ne fait jamais rien à moitié. Alors elle a tout mis l’information concernant ses serveurs, leur composition, ainsi que tous les détails des entrepôts disponibles sur le Web. C’est CNet et YouTube qui ont hérité du trésor d’informations.

Pour y avoir accès, facile… Un premier billet de CNet sur la composition des serveurs intitulé : «Google unlocks once-secret server». et un autre billet de CNet avec une foule de vidéos provenant de YouTube et dont s’est inspiré Tristan. Le billet est intitulé : «YouTube tour reveals Google data center designs».

Une des vidéos disponibles

En cela, Google ne faisait qu’imiter Microsoft, qui a joué cette transparence l’an dernier en permettant un reportage intéressant réalisé  par J. Nicholas Hoover, d’InformationWeek sur la construction du dernier méga-bébé de 550 millions $ de Microsoft. Plus d’un demi-milliard investi dans les montagnes à l’ouest de San Antonio au Texas, donnant ainsi de l’emploi à près de 1 000 personnes sur presque deux ans. (Et vlan dans les dents au gouvernement du Québec qui a refusé à Google de venir en construire un au Québec).

Des classes comme pour les porte-avions

Dans le reportage, on apprend aussi deux autres informations intéressantes sinon fascinantes. D’une part que Microsoft veut être le plus «vert» possible et a demandé à son contracteur de sauver tous les arbres du site mais qu’il va dévorer des quantités énormes d’énergie et d’eau (pour le refroidissement). L’énergie proviendra des filières nucléaire et éolienne. D’autre part, on y apprend également que Microsoft a en chantier entre 40 et 50 de ces méga-centres et que comme pour les porte-avions américains, ils sont identifiés selon des «classes» .

Source : InformationWeek

Celui de San Antonio est de la classe «Quincy», la plus vieille et la plus traditionnelle dans son design. La classe «Chicago» sera la prochaine et la plus gigantesque avec des centres faits d’immenses containers remplis de serveurs, (comme dans la vidéo de Google) prêts à être démantelés et déplacés au besoin. des entrepôts mobiles, quoi… J’avais d’ailleurs entendu parler de ce concept à la conférence Web 2.0 à San Francisco et par des gens de Google à Boston lan dernier.

À San Francisco, le CEO de Sun, Jonahtan Schwartz avait aussi parlé de l’importance que prendrait l’économie d’énergie, donc la virage vert mais pas seulement pour les arbres épargnés. Surtout en consommation d’énergie. Microsoft y pense déjà et prévoit ainsi une nouvelle classe d’entrepôts, soit la classe «Dublin» dont le focus sera entièrement sur les économies d’énergie. Et comme pour les porte-avions, Microsoft entend bien annoncer prochainement d’autres constructions, d’autres classes de centres et le démantèlement des plus vieux et plus énergivores…

Des entrepôts au Québec ?

Dans mes lectures hebdomadaires je tombe aussi sur deux articles similaires et écrits dans Le Monde.fr et Libération.fr, faisant état de la gourmandise énergétique des entrepôts de données de Google.

Dans l’article du Monde.fr, voici ce qu’on dit :«Selon Alex Wissner-Gross, physicien à l’Université de Harvard, deux requêtes sur Google consommeraient autant de carbone qu’une tasse de thé bien chaud. Selon les travaux de ce scientifique, deux requêtes sur Google généreraient 14 grammes d’émission de carbone, soit quasiment l’empreinte d’une bouilloire électrique (15 g).» et encore :«Les centres de calcul( entendre entrepôts de données) sont parmi les infrastructures les plus coûteuses en énergie qu’on puisse imaginer». Libération.fr reprend les propos du même physicien, M. Winnser-Gross.

Ce cher physicien a raison dans un sens. Les entrepôts actuels et les serveurs qui y travaillent à votre service 24/7, ont besoin d’une énorme quantité d’électricité pour fonctionner mais l’entrepôt lui-même a aussi besoin de grandes quantités d’énergie pour les refroidir, surtout que plusieurs de ces entrepôts sont situés dans des endroits secs et chauds.

L’entrepôt de données de Google à the Dalles en Orégon et ses immenses refroidisseurs

Mais la tendance est en train de s’inverser. Comme pour Microsoft et Google, Amazon, IBM, SUN et autres en sont à mettre la dernière touche à leur propre future génération d’entrepôts «portables» qui peuvent être installés facilement dans des endroits froids comme la Sibérie car il en coûte moins cher de chauffer que de refroidir et les coûts de l’électricité y sont habituellement moins chers, disons dans un pays comme le Canada et en particulier au Québec.

Ce n’est pas pour rien que Google s’est intéressé à nous l’an dernier tout en essuyant une fin de non-recevoir du gouvernement du Québec en manque de vision… En passant, quel avenir réserve-t-on aux alumineries qui ferment une à une à Shawinigan, bientôt à Jonquière, etc ? Regardez la photo ci-haut. Cet entrepôt de Google est installé dans.. Oui, oui, une ancienne aluminerie avec une centrale hydro-électrique tout près. Moi ça me fait penser beaucoup à Shawinigan…

Mise à jour sur Microsoft

Je savais que j’avais déjà vu les conteneurs de Microsoft quelque part. Alors pour le pas être en reste avec la vidéo de Google, ci-haut, voici la vidéo d’une présentation faite par le «Director of Data Center Research» de Microsoft, Daniel Costel lors de la conférence GigaOm Structure 08 à San Francisco le 25 juin 2008.

Des entrepôts pour le Cloud

Dans un autre ordre d’idées, il y a aussi les serveurs et comptez sur IBM et Sun pour produire des serveurs plus verts, plus éco-énergétiques. Et l’industrie en est pleinement consciente du phénomène «vert» et a organisé le 26 décembre dernier à Londres, sous l’égide de Sun, une conférence intitulée Data Center Efficiency and Cost Management Seminar, où le thème a été : «Reducing Energy and Management costs, increasing Flexibility and delivering the data centre of the future.»

En terminant, regardez la vidéo ci-haut. Tous les principaux acteurs de l’industrie sont réunis autour de cette table ronde. L’introduction est un peu longue mais j’aime bien les propos de Werner Vogels, le CTO d’Amazon, dont je vous avais parlé à la suite de son apparition sur le podium à LeWeb08 en décembre dernier ainsi que les propos de Vic Gundotra de Google dont j’ai reproduit la récente entrevue avec Tim O’Reilly cette semaine. Tous parlent de la finalité des entrepôts de données : soutenir leur offre de Cloud Computing. J’ai aussi un faible pour Gina Bianchini, la co-fondatrice et CEO de Ning mais cela, c’est une autre histoire…


Cloud Computing Communication interactive Entrepôts de données

Cloud computing, guerre de données et un faible pour Gina…

3 mars 2009

Depuis quelques jours, je ne fais que lire des articles ou billets relatifs au «Cloud Computing». Je ne sais pas pourquoi mais il semble que blogueurs et journalistes technos se soient donné le mot. Et tout ce beau monde n’est pas unanime, loin de là, sur les bénéfices de cette nouvelle offre, faite aussi bien aux individus qu’aux entreprises. Il y a les pour et les contre et ces derniers y vont de charges assez bien senties comme cette série d’articles parus dans le E-Commerce Times et intitulés «The Dark Side of the Cloud».

Cette image accompagnant le texte vaut ses mille mots…

ll y a eu aussi ce billet, paru récemment sur cnet news, intitulé «Can you Trust your Enterprise to Google Cloud?» et qui fait suite aux problèmes vécus chez Google, avec la perte de gMail pendant quelques heures, semant un vent de panique sur le Web ainsi que «l’erreur humaine» qui a provoqué l’apparition de «This site may harm your computer» dans tous les résultats de recherche de Google et qui a nécessité une sérieuse mise-au-point de Marissa Mayer.

Ceux qui me lisent régulièrement savent que j’ai beaucoup écrit sur ce sujet et aussi sur son corolaire que constituent les entrepôts de données, nécessaires à toute compagnie voulant offrir le stockage de données et le SaaS, créant ainsi le phénomène du «cloud».

Je vous fais donc grâce d’un autre long et fastidieux billet sur le sujets er surtout sur ses avantages car je crois sincèrement qu’il s’agit là d’une option sérieuse pour les entreprises afin d’économiser des millions de $$$, ce qui n’est pas négligeable en temps de crise.

Il en est à mon avis de même pour les individus, permettant  ainsi la miniaturisation de nos ordinateurs et l’émergence (J’aime bien ce mot) du Web comme utilité publique, un Web rapide, sûr et accessible à tous, moyennant un abonnement mensuel à divers forfaits, ce que Nicholas Carr a appelé «The Big Switch».

Non, pas de long billet. Je tiens simplement à vous faire part, d’un côté de cette vague de scepticisme mais aussi de l’autre de trois autres articles/billets parus aussi au cours des derniers jours et d’une table ronde fort intéressante, organisée par TechCrunch, il y a peu de temps et mettant en vedette tout le gratin du Cloud. Juste pour vous dire qu’il y avait autour de la table, Rackspace, Google, Microsoft, Amazon, SalesForce, Sun Microsystems, Yahoo, Facebook, Ning et Friendfeed. Bizarrement, pas de IBM...

Pourtant, Big Blue a fait la manchette à la suite d’une autre table ronde relevée par Dana Gardner de ZDNet qui a enregistré le tout en audio et retranscrit une partie de la conversation dans un billet intitulé :«Cloud computing aligns with enterprise architecture to make each more useful, says experts». et surtout un autre billet, celui-là dans LeMondeInformatique.fr où on annonce qu’IBM se donne officiellement une division pour le cloud, division qui porte le nom de… Blue Cloud.

Et finalement, un dernier billet, à mon avis le plus significatif, paru sur TechCrunch, où on relate que : «Salesforce is now officially the first enterprise cloud computing company to hit $1 billion in annual revenues.». Imaginez, un milliard $ de profits en pleine récession… Et ce n’est que la pointe d’un immense iceberg. Amazon, Google, Microsoft, IBM et tous les autres veulent ce gros morceau de données glacées dans LEUR cour arrière, d’où la «Data War»…

Free live streaming by Ustream

Je vous suggère donc de vous installer confortablement et d’écouter ce qu’avaient à dire tous les gros canons réunis autour de cette table ronde, entre autres les propos de Werner Vogels, le CTO d’Amazon, dont je vous avais parlé à la suite de son apparition sur le podium à LeWeb08 en décembre dernier.

p.s. J’ai aussi un faible pour Gina Bianchini, la co-fondatrice et CEO de Ning mais cela, c’est une autre histoire…

Cloud Computing Communication interactive Entrepôts de données

Vous voulez un Plan numérique ?

11 février 2009

Intéressante rencontre que j’ai faite en début de semaine avec Marc-Alexandre Forget, ci-devant «Senior Sales Exec) chez PEER1, une entreprise de réseaux (télécom) en premier mais qui a muté au fil des ans en entreprise multi-services mais gravitant toujours autour du «core» réseaux. Parmi les électrons qui gravitent dans cette compagnie établie un peu partout dans le monde mais aussi ici au Québec, figurent les entrepôts de données.

Vous savez comment je me passionne pour les méga-entrepôts de données de Google et des autres, mais il est intéressant de voir que dans la guerre des données, existent aussi d’autres joueurs, dont Peer1. Voici la carte de leur réseau qui relie chaque entrepôt de serveurs de données.

Marc-Alexandre parle d’un réseau privé mais il est fascinant de voir que la configuration de ce réseau ressemble en plus petit à celle du réseau Abilene aux USA.

Une différence notoire, la présence de Montréal dans leur réseau. Souvenez-vous d’un paragraphe que j’ai écrit dans un billet de juin dernier et intitulé « L’avenir du Quéec passe-t-il par le numérique ? Réponse oui !» ? J’avais écrit ce billet à la suite d’une autre intéressante conversation, cette fois-là avec René Barsalo de la société des Arts Technologiques (SAT). Voici ce passage :

«Géographiquement le Québec occupe, d’une part, une place stratégique pour la transmission de données par fibre optique, Il est sur le chemin le plus court pour relier l’Europe et la Chine, donc en mesure de profiter des retombées potentielles de l’installation d’une autoroute à méga-débit, un peu comme le PC1-Cable (PC pour Pacific Crossing et à 640 Gigabits/seconde) qui relie actuellement le réseau WIDE Internet (Widely Integrated Distributed Environment) au Japon au réseau américain Abilene (Advanced Networking for Learning-edge Research and Education) du projet nommé ambitieusement Internet2.».

Donc, Peer1 pourrait participer au développement stratégique du numérique au Québec, j’y reviendrai.  Autre facteur dont nous discutions : La crise économique frappe aussi l’industrie des télécoms et des entrepôts de données. Il y a d’ailleurs ce reportage dans InfoWorld mais aussi dans quelques jours, dans la Silicon Valley, la Technology Convergence Conference, qui va poser les questions de l’heure. Réduit-on nos investissements ? Comment rendre nos installations plus performantes et moins énergivores. En bref, comment prendre le tournant vert…

Vous voulez un Plan numérique ?

Réponse : S’installer au Québec… Vous rigolez que vous me dites en choeur ? Pas de quoi… On a beaucoup parlé ces derniers temps d’un plan numérique pour le Québec. Ce Plan, si jamais il se réalise, ne doit pas ignorer ce grand pan de stratégie : Les entrepôts de données fonctionnent et sont climatisés à l’électricité et au Québec nous avons une source verte et renouvelable : l’eau ! De plus, nos alumineries ferment l’une après l’autre et sont des installations idéales pour de tels méga-centres. De plus, ici au Nord du Nord, comme l’a chanté un de nos poètes célèbre, il en coûte moins cher de chauffer que de climatiser. Nous sommes en récession, qu’attendons-nous pour inclure ce secteur stratégique dans un Plan numérique certes mais aussi dans le programme d’infrastructure (une « autoroute » méga-débit) et générer encore plus d’emplois ?

Bref, une discussion intéressante qui a aussi débordé sur les SaaS (Software as a Service) le Cloud Computing et le Web 2.0. Ce qui m’amène à la conférence que j’ai faite hier devant des membres du Réseau Action Ti, anciennement la FIQ. Et justement je leur ai présenté l’image suivante :

Il s’agit UNIQUEMENT de la consommation de Google… Imaginez la consommation de 1, 5 milliard d’internautes dont près de 30% génèrent régulièrement du contenu sur le Web quotidiennement. Aux USA, c’est 64 % des 12-17 ans qui le font quotidiennement. Et que dire de toutes les entreprises qui, face à la crise économique, vont se tourner de plus en plus vers Google et Amazon pour impartir leur centres de traitement de données et applications ? Une manne je vous dis…

La récession n’est pas dans la production de contenus sur le Web. Au contraire, cette production devrait être un facteur de relance. Mais en est-on vraiment conscients dans des gouvernements 1.0 qui misent sur les baisses d’impôts et les programmes habituels d’infrastructure ( ponts, routes, égoûts, ect.) ? J’en doute fortement…

Bref, pour en revenir à ma rencontre de départ, Peer1 n’a pas un site Web très 2.0 à mon avis mais ils ont au moins un blogue corporatif et une «Community Evangelist» du nom de Charnell Pugsley. Et au moins, ils sont sur Facebook et ont leurs campagnes de pub sur YouTube…

Cloud Computing Entrepôts de données

Journée Google : Mesures d’urgence, transparence et entrepôts verts

14 janvier 2009

Ça arrive comme cela, de temps à autres : Une journée toute faite de Googleries…Et c’est un peu la faute de Chris Crum, blogueur à WebProNews. Ce dernier a ainsi publié plusieurs billets intéressants sur le firme de Mountain View dont celui concernant Google Earth et sa nouvelle version pour les entreprises. Écoutez cette intéressante vidéo sur les usages déjà existants.

Cela ne vient que confirmer ce que je dis dans la plus récente conférence sur les usages des «Smart Phones», de Twitter, YouTube et Google Earth comme outils de base d’une stratégie de mesures d’urgence pour les entreprises et aussi en gestion de crise médiatique. Voici d’ailleurs l’image que j’emploie à cet effet :

Dans un autre billet, Crum cite Matt Cutts du département de recherche en qualité chez Google sur sa déclaration à l’effet qu’il se devrait d’être plus transparent en 2009. En effet, faut dire que le personnel de chez Google a ses petits secrets et ne commente guère les nouvelles et rumeurs à leur sujet et sont avares de documents et présentations, même quand ils sont invités en tant que conférenciers. En cela je vous cite le cas de Rishi Chandra, qui est venu à webcom-Montréal en novembre dernier et dont nous attendons toujours la présentation.

Dans le cas de Cutts, c’est un engagement personnel, une résolution du Nouvel An, si vous voulez. Et il passe directement aux actes en rendant disponible cette vidéo:

C’est bien mais cela aurait eu besoin des supports graphiques qui devaient appuyer son propos. Qu’à cela ne tienne, Cutts y va de la transparence radicale et les rend aussi disponibles :

Dans un autre ordre d’idées mais concernant toujours Google, je tombe inopinément sur deux articles similaires et écrits dans Le Monde.fr et Libération.fr, faisant état de la gourmandise énergétique des entrepôts de données de Google, un sujet, vous le savez qui m’intéresse au plus haut pont. En 2008, j’avais commis un billet sur le sujet des entrepôts plus verts, la nouvelle tendance adoptée par Microsoft et que pouvez lire ICI.

Dans l’article du Monde.fr, voici ce qu’on dit :«Selon Alex Wissner-Gross, physicien à l’Université de Harvard, deux requêtes sur Google consommeraient autant de carbone qu’une tasse de thé bien chaud. Selon les travaux de ce scientifique, deux requêtes sur Google généreraient 14 grammes d’émission de carbone, soit quasiment l’empreinte d’une bouilloire électrique (15 g).» et encore :«Les centres de calcul( entendre entrepôts de données) sont parmi les infrastructures les plus coûteuses en énergie qu’on puisse imaginer». Libération.fr reprend les propos du même physicien, M. Winnser-Gross.

Ce cher physicien a raison dans un sens. Les entrepôts actuels et les serveurs qui y travaillent à votre service 24/7, ont besoin d’une énorme quantité d’électricité pour fonctionner mais l’entrepôt lui-même a aussi besoin de grandes quantités d’énergie pour les refroidir, surtout que plusieurs de ces entrepôts sont situés dans des endroits secs et chauds.




L’entrepôt de données de Google à the Dalles en Orégon et ses immenses refroidisseurs

Mais la tendance est en train de s’inverser. Google, Microsoft, Amazon, IBM, SUN et autres sont à mettre la dernière touche à une future génération d’entrepôts «portables» qui peuvent être installés facilement dans des endroits froids car il en coûte moins cher de chauffer que de refroidir et les coûts de l’électricité y sont habituellement moins chers, disons dans un pays comme le Canada et en particulier au Québec. Ce n’est pas pour rien que Google s’est intéressé à nous l’an dernier tout en essuyant une fin de non-recevoir d’un gouvernement en manque de vision.

Et il y a aussi les serveurs et comptez sur IBM et Sun pour produire des serveurs plus verts, plus éco-énergétiques. Et l’industrie en est pleinement consciente du phénomène «vert» et a organisé le 26 décembre dernier à Londres, sour l’égide de Sun, une conférence intitulée Data Center Efficiency and Cost Management Seminar, où le thème a été : «Reducing Energy and Management costs, increasing Flexibility and delivering the data centre of the future.»