Parcourir la catégorie

Cloud Computing

Cloud Computing Communication interactive Entreprise 2.0

L’Entreprise 2.0 en 2009 : Je me méfie des prédictions…

18 décembre 2008

Habituellement, je me méfie de tous les gourous et spécialistes qui prétendent lire l’avenir technologique et ainsi prévoir ce que seront les grands axes d’innovation ou de développement pour les entreprises dans la prochaine année. Cela me fait penser aux astrologues-médiums et qui avec leur boule de cristal, cartes ou astres prétendent prédire l’avenir… Mon oeil…

En fait, qui aurait pu prédire que la crise financière éclaterait à ce moment précis et surtout qu’elle entraînerait la planète dans une profonde récession, certains parlent même de dépression ? Personne en fait. Mais les oracles et les gourous ont la couenne dure et on les voit maintenant s’agiter afin de prédire, pour certains, une quasi fin du monde, pour d’autres, des jours meilleurs d’ici une poignée de mois…

À mon avis, et dans le contexte actuel, personne ne peut prédire avec exactitude quels seront les grands axes de développement de l’Entreprise, dite 2.0 en 2009. Pour ma part et en réponse aux prédictions faites par l’ami Bertrand Duperrin, je me limite à parler de (et non prédire) trois tendances lourdes qui vont certainement influencer leurs stratégies. Et deux de ces tendances rejoignent les propos de l’ami Bertrand.

Ces trois tendances sont la dématérialisation, la mobilité et l’innovation…

Pour ce qui est de la première, je reprends et enrichis le contenu de mon billet du 10 octobre dernier et qui a trouvé écho dans le quotidien français Le Monde, le 22 octobre. À mon avis, donc, la prochaine année sur le Web mais aussi pour les entreprises, sera profondément marquée, à part la crise financière et économique, par la course aux données, NOS données et celles des entreprises…

Et qui sont déjà engagés dans cette course folle ? Des géants comme Google, Microsoft (qui vient d’annoncer sa stratégie hybride nommée Azure et appuyée par une autre de synchronisation des applications et données appelée Live Mesh), Amazon, IBM, Sun Microsystems et quelques autres joueurs. Une course, que dis-je, plutôt une guerre commerciale et technologique sur plusieurs fronts, dont ceux de la vitesse de transmission, la capacité d’entreposage, la sécurité et la portabilité des données et qui a pour enjeu rien de moins que toutes vos données, aussi bien personnelles que les données et applications des entreprises, la «Data War », comme l’a nommée le magazine Wired.

Microsoft organise un tirage, un jeu. Mais l’objectif est sérieux la sécurité de vos données !

Dans son billet prédictif, Bertrand parle de la résistance des services informatiques traditionnels face à cette nouvelle offre dématérialisée et je suis d’accord avec lui comme le prouve la pub de Microsoft ci-haut destinéer à une clientèle frileuse…. Mais pour avoir assisté au panel sur le sujet à Boston en mai dernier, intitulé «An Evening in the Cloud» et à l’entrevue à LeWeb08 à Paris la semaine dernière avec le Dr Werner Vogels, VP et CTO chez Amazon que je reproduis ci-dessous, les barrières semblent tomber plus vite que prévu.

Free TV : Ustream

Et j’en veux aussi pour preuve deux exemples significatifs soit Cap Gemini qui signe une entente avec Amazon et Veolia qui signe une entente avec SalesForce. Toutes deux ont donc annoncé leur intention de virtualiser leurs données et applications. Et compte tenu de la crise économique, force est d’admettre que de plus en plus d’entreprises vont se laisser séduire par des solutions Web qui permettent de réduire ÉNORMÉMENT les coûts d’opération, de stockage et d’entretien des applications et serveurs de données.

Car il ne faut pas se le cacher, bien peu d’entreprises seront en mesure de traiter la quantité sans cesse croissante de données, surtout générées par l’introduction des technologies du Web collaboratif. Et  surtout, de maintenir indéfiniment des centres de traitement informatiques pour leurs données et applications et ce, à coup de centaines de millions de dollars ou d’euros par année…

Dans cette guerre sans merci, une des armes d’accumulation massive est donc, sans contredit, les méga-entrepôts de données comme celui de Google à The Dalles en Orégon. À l’origine, une ancienne aluminerie avec, à la clé, une centrale électrique et reconvertie en entrepôt de serveurs. Des milliers d’entre eux, installés en rangées du plancher au plafond et refroidis par un monstrueux système de climatisation. Ces serveurs sont des ordinateurs qui n’ont comme but que d’accumuler des données et de les rendre ensuite accessibles aux demandeurs.

Le complexe de Google à The Dalles

Et celui de Microsoft à San Antonio au Texas


Qui seront remplacés par des containers ???

Google a commencé à en installer pour répondre aux besoins sans cesse croissants de son omnipotent moteur de recherche (100 millions de requêtes/jour, 200 Petabits de disque dur, 1 Petabit = 1 million de milliards) mais s’est vite rendu compte qu’ils «serviraient» aussi à soutenir son offre de «services Web» aux particuliers comme aux entreprises. Des services comme gMail ou GoogleDocs, par exemple.

Et comme de plus en plus d’entreprises et de personnes vont utiliser le Web de Google et des autres et y générer des «téra et petabits» de données, plus le Web aura besoin de gérer ces données, de les entreposer mais aussi de proposer aux individus et surtout aux entreprises, des suites logicielles et d’applications pour accéder à ces données. Ces suites, comme celle d’Office et les données qu’elles génèrent sont présentement installées et/ou stockées sur nos disques durs, sur des DVD ou clés USB.

S’il n’en tient qu’à Google, Microsoft et autres compagnies, ces données et applications quitteront donc l’ordinateur traditionnel. Georges Gilder, du magazine américain Wired, décrit ainsi ce que Google, Microsoft et les autres sont en train de réaliser:

«The desktop is dead. Welcome to the «Internet cloud», where massive facilities across the globe will store all the data you’ll ever use. »

Le «desktop» deviendra un terminal branché sur un «nuage Web» ou ordinateur central planétaire, ce que de plus en plus de personnes nomment le «Cloud Computing». Littéralement, l’informatique traditionnelle, faite d’ordinateurs à disques durs, de centres de traitement, d’applications et de logiciels, tous entretenus par une armée de spécialistes, sera vaporisée en un nuage Web et les données qu’ils contenaient, stockées dans les entrailles des centaines de milliers de serveurs réunis dans des entrepôts et reliés entre eux par un Internet ou Web de plus en plus rapide.

L’ordinateur planétaire aura besoin d’une autre composante essentielle qui se met d’ailleurs en place. De la vitesse de traitement pour servir les données. Sur ce front de la bataille on peut voir qu’entre l’Asie et les USA a été mis en place le PC1 Cable System et que ce dernier offre actuellement une possibilité de transit d’information (de données) de 180 gigabits/seconde (Un gigabit = un milliard de bits), et qu’en plus il a été conçu pour atteindre UN Tétrabit/seconde !!! (Un terabit = 1 000 milliards de bits).

Pour remettre ces chiffres en perspectives, je n’ai qu’à comparer avec ce que nous offre actuellement un fournisseur Internet tel que Vidéotron avec un forfait maximal, appelé TGV 50, de 50 mégabits/seconde !!! Malgré tout on est aujourd’hui bien loin des kilobits par seconde du début de l’Internet, que l’on nomme toujours Internet1. À 180 gigabits/seconde nous entrons dans un autre monde, celui d’Internet 2. Autant les USA, que l’Europe, le Japon et la Chine ont de grandes ambitions pour ce nouvel Internet et comme pour les débuts de son ancêtre les centres de recherche, les universités et les militaires l’utilisent déjà.

Mais ce sont les Google et Microsoft qui en seront les utilisateurs commerciaux privilégiés. C’est ce que certains ont relevé récemment. Je réfère ici à une nouvelle parue dans l’Expansion.fr sur la neutralité su Net et de possibles «utilisations privilégiées». Come on… Google s’intéresse à Internet 2 et veut y avoir accès, point !

Le Web mobile

Au sujet du Web mobile, je rejoins les propos de Bertrand et vais même plus loin… L’ordinateur, ainsi libéré et accéléré, rapetissera et deviendra entièrement mobile ou intégré aux objets usuels tels que les frigos et même les vêtements. Déjà certains d’entre nous en avons en mains : Microsoft Zune, Amazon Kindle, Apple iPhone, Samsung Instinct et bientôt le gPhone (pour Google Phone). Vous voyez ? Nos principaux acteurs sont sur tous les fronts…

Il y a présentement 3,3 milliards d’utilisateurs de la téléphonie mobile sur la planète, selon GSM World. Et ce nombre croîtra d’un milliard en 2009.

Voici d’ailleurs ce que j’en disais déjà en 2006, soit avant les «Smart Phones» :

«Pagettes, cellulaires, agendas personnels, lignes ADSL, ordinateurs portables, Internet/intranet sans fil, terminaux portables, clés U3, Blackberry et iPods. Gadgets et applications « cool » donnent à l’employé d’aujourd’hui une formidable liberté de mouvement et lui permet d’être en contact avec ses collègues, amis, familles n’importe où et virtuellement sur-le-champ. D’un autre côté, connectivité implique accessibilité et disponibilité à toute heure du jour, des éléments qui manquaient cruellement aux Telcos jusqu’à tout récemment. Leur offre large bande ouvre tous les horizons…»

En fait la mobilité déstabilise aussi le pouvoir hiérarchique traditionnel car elle peut « théoriquement » libérer les employés-usagers de leur lieu de travail traditionnel et favoriser le télé-travail, permettant ainsi aux collaborateurs d’exploiter leur expertise où bon leur semble et parfois AVEC QUI BON LEUR SEMBLE et souvent gratuitement ou presque (Crowdsourcing).  Facteur hautement déstabilisant pour les entreprises où la hiérarchie et le contrôle en sont les piliers…

Les nouveaux mobiles comme le iPhone ne sont plus des téléphones mais bien les nouveaux ordinateurs du futur : faciles à utiliser, moins chers et sans disque dur, ils offrent la téléphonie mais aussi le courriel, l’internet et donc, l’accès aux applications que ce soit pour s’amuser, s’informer, colaborer, créer ou même… travailler. Imaginez bientôt ces milliards d’ordinateurs en train de générer des contenus et données personnelles ou d’entreprise !!!

Pas surprenant que tous les grands se positionnent pour profiter de cette manne. Une manne de dollars, bien entendu car le «Cloud Computing» et l’accès à nos données, nous coûtera de l’argent, probablement sous forme de facture mensuelle comme c’est présentement le cas pour le câble et l’électricité. De compagnies Web ou technologiques, Google, Microsoft, Amazon et les autres risquent ainsi de muter sous nos yeux et devenir les prochaines «Utilités publiques», comme le disent nos voisins américains et spécialement Nicholas Carr dans son bouquin «The Big Switch. Rewiring the World, from Edison to Google».

Entreprise 2.0 ou pas ainsi que simples citoyens auront ainsi accès à un nouveau «service Web». Les entreprises à des SaaS ou «Software as a service». Comme je l’écrivais plus tôt, déjà certaines grandes compagnies s’y mettent. Et contrairement à ce que croit Bertrand, les autres devraient suivre rapidement mais pas seulement en 2009… Mais celles qui le font en 2009 profiteront de ma troisième tendance :

L’innovation

Chris Anderson, du Magazine Wired parle d’une nouvelle ère, celle baptisée «The Age of Peer Production». Le travail devient « lieu-neutre » et la collaboration devient virtuelle plutôt que physique. Toutefois, ce paradigme est nouveau pour les entreprises ce qui leur impose encore là, des défis importants de reconversion (R&D), un nouveau style de gestion et des solutions technologiques novatrices. Encore et toujours les mêmes mots qui reviennent : Reconversion, nouvelle gestion, innovation…

Les entreprises qui sauront se servir des nouvelles technologies mises à leur disposition, bien les intégrer, bien les adopter, gérer le changement, et surtout adapter leurs processus de travail et surtout leur modes de gestion seront les entreprises innovantes qui devraient dominer la nouvelle économie.

Pour ce faire, je table sur deux changements profonds à opérer dans l’entreprise qui se veut 2.0. En fait, je n’aime pas cette dénomination. Parlons donc d’entreprise technologiquement et humainement innovante. Pour se sortir de cette crise mondiale, les entreprises se doivent de mettre l’accent sur l’innovation et pour ce faire, doivent impliquer leur principale force : la créativité de leurs employés. Mais pour que ces derniers participent, les entreprises doivent changer leurs processus traditionnels mais aussi leur hiérarchie traditionnelle.

Harnacher l’expertise collective nécessite une hiérarchie horizontale basée sur la collaboration et le participation ouverte. En cela, je prends à témoin Jon Husband et sa Wirearchy et Don Tapscott et ses Ideagoras. Les agoras d’idées de l’auteur du célèbre bouquin Wikinomics, vont permettre de libérer la créativité, dans la mesure où l’entreprise accepte de participer au processus, de l’encourager au lieu de le réprimer au nom du respect des normes, processus établis et hiérarchie bétonnée.

C’est du mélange d’une nouvelle hiérarchie plus horizantale, plus impliquée dans la collaboration et l’appui aux idées nouvelles et de l’ouverture d’espaces de création et de travail collectif qu’originera l’innovation, moteur de la sortie de crise et d’une croissance renouvelée. Et ce n’est pas pour rien que sur plusieurs des sites étiquetés Ideagoras, on parle d’innovation partout, même dans le nom. Innocentive, ça vous dit quelque chose ?  Et YourEncore, site consacré aux retraités et exemple parfait de ce qu’une entreprise pourrait faire pour récupérer l’expertise de ses retraités et leur permettre de participer au grand travail d’innovation, Des exemples de ce genre, ils sont légion : Ideastorm, chez Dell, MyStabuckidea, Mechanical Turk, etc.

Et sur ce, je ne puis qu’être d’accord avec l’ami Bertrand quand il conclue :

«Vous l’aurez compris, le vrai enjeu de l’entreprise 2.0 est la nature même de l’organisation, ce qui justifie qu’on oublie rapidement l’aspect trop connoté du 2.0.»

Cloud Computing Communication interactive

Travailler dans le «nuage» Web : faut bien donner l’exemple !

17 novembre 2008

Je sors de la conférence webcom-Montréal avec la conviction encore plus profonde que je me dois de donner l’exemple et finalement vaporiser mes données et applications dans le nuage Web, ce que l’on nomme pour l’instant le Cloud Computing. J’ai commencé, il y a longtemps à parler du phénomène des entrepôts de données ou encore «Information Factories».

J’ai aussi assisté et blogué sur un panel sur le «Cloud Computing» en juin dernier à la conférence Enterprise 2.0 Boston.

J’ai ensuite invité un des principaux acteurs de cette nouvelle informatique, Rishi Chandra de Google, à prendre à parole webcom-Montréal. J’ai aussi discuté de la question  avec un des rares québécois à travailler concrètement dans le nuage et à y inviter ses clients, soit l’ami Pascal Veilleux.

Fallait donc que je passe de la parole aux actes… Me dématérialiser dans l’Internet  et devenir encore plus un travailleur nomade et numérique, thème que nous avons abordé entre blogueurs montréalais il y a quelques semaines.

Ce WE, j’ai donc travaillé à me dématérialiser dans Google et autres-plates-formes Web. Je prévois également faire l’acquisition d’un Aspire One de Acer, comme celui de l’amie Patricia Tessier pour me «connecter» au nuage sans avoir ni données ni applications sur ce petit ordinateur-terminal, très léger, portable et facile à utiliser en mode conférence.

Voici donc comment je me suis dématérialisé :

Un compte Google pour le courriel (gMail), la suite bureautique (gDocs), la recherche (gSearch), le calendrier (gCalendar), la messagerie instantanée (gTalk) et l’analyse de mes stats. de site et de blogue (gAnalytics). Parlant de blogue, j’ai un compte WordPress, fait partie de la communauté MyBlogLog et suis classé par Technorati et Wikio.

Côté communautés sociales et professionnelles, je peux compter sur Facebook, LinkedIn, Viadeo et Plaxo. Pour les photos, c’est Picassa et Flickr, la vidéo DailyMotion, les présentations SlideShare alors que pour le téléphone c’est Skype, le carnet d’adresses et de téléphone Unyk et pour le micro-partage, c’est Twitter, TweetDeck et Seesmic.

Oh, il ne faut pas oublier le partage de fichiers. Cela peut se faire avec nombre de ces outils mais je pense m’installer un wiki personnel mais aussi conserver mon compte WhaleMail pour les fichiers trop importants. Et pour faire un tout cohérent ? Bien… J’hésite encore entre Netvibes iGoogle et Twine

J’ai oublié quelque chose, dites ???

Cloud Computing Communication interactive Entreprise 2.0 LifeLogs Web 3.0

Avis aux mauvais augures : Le Web 2.0 n’est pas mort. Il évolue !

27 octobre 2008

Le tout a commencé le 14 octobre par un billet de l’ami Philippe Martin sur la mort du Web 2.0, intitulé :«Le Web 2.0 est mort, vive le Web 2.0 !». Je ne sais pas si c’est la morosité ambiante, la crise financière, la récession annoncée et les coupures de postes dans les startups du Web 2.0 mais on dirait que bien des gens sont rapides sur la gâchette à prédire la fin de Web 2.0 et en particulier de son phénomène le plus connu : les blogues.

L’ami Laurent Maisonnave a été le premier à relever les propos de Paul Boutin dans le magazine Wired d’octobre où ce dernier écrit :« @WiredReader: Kill yr blog. 2004 over. Google won’t find you. Too much cruft from HuffPo, NYT. Commenters are tards. C u on Facebook?», un clin d’oeil à l’utilisation de plus en plus grande de Facebook et Twitter pour communiquer et s’exprimer sur le Web. Pour Boutin, les blogues sont un phénomène de 2004, récupéré par les médias et les entreprises. Les blogues seraient devenus «affaires», impersonnels…

Oui, il y a plus de blogues d’affaires et donc Yulbiz.org mais impersonnels ? Alors là, pas d’accord ! Boutin n’a pas lu «Pourquoi bloguer dans un contexte d’affaires» et n’a pas suivi nos conversations sur la puissance des blogues de niche ou encore les billets de l’amie Michelle Blanc sur la passion et les affaires… Les blogues ont certes évolué depuis 2004 mais ne sont pas un phénomène à la veille de disparaître.

Selon le plus récent recensement de Technorati, il y en a 133 millions. Difficile de sortir du lot selon Boutin mais est-ce le but premier du blogueur que d’être dans les 100 premiers au monde ? Pas du tout…. Ce n’est pas pour cette raison qu’on commence à bloguer et pas pour cette raison qu’on continue. On commence et on continue parce qu’on a envie d’écrire et pas seulement que 140 caractères… On continue parce qu’on se sent un peu coupables de ne pas publier une journée, on continue pour s’exprimer sur les sujets qui nous passionnent, sur les sujets sont les moteurs de notre vie professionnelle. On blogue parce qu’on veut demeurer «à la fine pointe», parce qu’on tient à ce que notre expertise soit visible, reconnue. Qu’elle soit dans les 100 premiers, tant mieux mais ce n’est pas le but !

Et les blogues vont continuer à évoluer. Le micro-blogging à la Twitter fait partie de cette évolution et oui, on peut y retrouver les «pionniers» tels que Calacanis, O’Reilly et Scoble mais cette tendance à la communication instantanée ne fera pas disparaître pour autant le blogue, comme le blogue n’a pas fait disparaître le journal traditionnel. Les blogues, comme les autres médias sociaux ont changé le rapport de pouvoir face à la liberté d’expression. Twitter n’amène rien de neuf de ce côté. Toutes ces formes d’expression écrites sont complémentaires, s’influencent et évoluent dans le fond comme dans la forme…

Et cette évolution passe par la vidéo, les podcasts et les vlogues. «Join the video conversation» dit Seesmic Il s’agit bien de l’appropriation de l’image par tous, comme ce fut le cas de l’écrit. Mais l’image, ce n’est pas que la vidéo : il y a la photo, donc Flickr et autres clones du genre… Et quand on parle ensuite de partager vidéos, photos et texte, on pense alors aux réseaux sociaux, à Facebook, Ning, Flickr lui-même et bien d’autres dont Twine

Twine, c’est le Web sémantique, donc le Web 3.0. À tous les mauvais augures qui annoncent le mort du Web 2.0 : Il n’est pas mort, il évolue ! C’est d’ailleurs ce que notent plusieurs observateurs du Web, dont les rédacteurs de ReadWriteWeb. Ces derniers ont identifié récemment dix tendances lourdes en termes d’évolution :

1. Le Web sémantique
2. L’intelligence artificielle
3. Les mondes virtuels
4. Le mobile
5. «L’Attention Economy»
6. Les sites Web comme services Web
7. La video en ligne / Internet TV
8. Les «Rich Internet Apps»
9. Le Web international
10. La personalisation

À mon avis, ils ne se trompent guère sur les deux premiers et sur le mobile mais oublient la suite logique soit les carnets de vie, ou si vous préférez «LifeLogs», et le «Cloud Computing»  avec ses entrepôts de données.

En terminant, je vous réfère aussi à ce billet, paru sur le blogue de Chris Brogan. Il est de Dennis Howlett et est intitulé «Web 2.0 – Was it ever alive?». Un autre mauvais augure qui dénigre le phénomène et son extension en entreprise, soit l’entreprise 2.0. Lisez ce billet mais surtout, lisez les commentaires de Tim O’Reilly en réponse. Non, le Web 2.0 n’est pas mort. Il évolue !

.

Cloud Computing Communication interactive Identité numérique Internet2 OpenSocialWeb Sécurité des données

L’Internet des données : Une guerre sans merci avec des armes d’accumulation massive !

10 octobre 2008

Nous ne sommes pas encore en décembre mais je me risque tout de même à faire une prédiction : la prochaine année sur le Web, sera profondément marquée par la course aux données, VOS données… Et qui est déjà engagé dans cette course folle ? Des géants comme Google, Microsoft, Amazon, IBM et quelques autres joueurs. Une course, que dis-je, plutôt une guerre commerciale et technologique sur plusieurs fronts, dont ceux de la vitesse de transmission, la capacité d’entreposage, la sécurité et la portabilité des données et qui a pour enjeu rien de moins que toutes vos données, aussi bien personnelles que les données et applications des entreprises, la «Data War », comme l’a nommée le magazine Wired.

Microsoft organise un tirage, un jeu. Mais l’objectif est sérieux la sécurité de vos données !

Dans cette guerre sans merci, une des armes d’accumulation massive est sans contredit les méga-entrepôts de données comme celui de Google à The Dalles en Orégon . À l’origine, une ancienne aluminerie avec, à la clé, une centrale électrique et reconvertie en entrepôt de serveurs. Des milliers d’entre eux, installés en rangées du plancher au plafond et refroidis par un monstrueux système de climatisation. Ces serveurs sont des ordinateurs qui n’ont comme but que d’accumuler des données et de les rendre ensuite accessibles aux demandeurs.

Le complexe de Google à The Dalles

Et celui de Microsoft à San Antonio au Texas

[youtube WWYmNayS0Kk&hl=fr&fs=1]

Qui seront remplacés par des containers ???

Google a commencé à en installer pour répondre aux besoins sans cesse croissants de son omnipotent moteur de recherche (100 millions de requêtes/jour, 200 Petabits de disque dur, 1 Petabit = 1 million de milliards) mais s’est vite rendu compte qu’ils «serviraient» aussi à soutenir son offre de «services Web» aux particuliers comme aux entreprises. Des services comme gMail ou GoogleDocs, par exemple.

Et comme de plus en plus d’entreprises et de personnes vont utiliser le Web de Google et des autres et y générer des «téra et petabits» de données, plus le Web aura besoin de gérer ces données, de les entreposer mais aussi de proposer aux individus et entreprises, des suites logicielles et d’applications pour accéder à ces données. Ces suites, comme celle d’Office et les données qu’elles génèrent sont présentement installées et/ou stockées sur nos disques durs, sur des DVD ou clés USB.

S’il n’en tient qu’à Google et compagnie, ces données et applications quitteront donc l’ordinateur traditionnel. Georges Gilder, du magazine américain Wired, décrit ainsi ce que Google, Microsoft et les autres sont en train de réaliser:

«The desktop is dead. Welcome to the «Internet cloud», where massive facilities across the globe will store all the data you’ll ever use. »

Le «desktop» deviendra un terminal branché sur un «nuage Web» ou ordinateur central planétaire, ce que de plus en plus de personnes nomment le «Cloud Computing». Littéralement, l’informatique traditionnelle, faite d’ordinateurs à disques durs, de centres de traitement, d’applications et de logiciels, tous entretenus par une armée de spécialistes, sera vaporisée en un nuage Web et les données qu’ils contenaient, stockées dans les entrailles des centaines de milliers de serveurs réunis dans des entrepôts et reliés entre eux par un Internet ou Web de plus en plus rapide.

Cet ordinateur planétaire aura besoin d’une autre composante essentielle qui se met d’ailleurs en place. De la vitesse de traitement pour servir les données. Sur ce front de la bataille on peut voir qu’entre l’Asie et les USA a été mis en place le PC1 Cable System et que ce dernier offre actuellement une possibilité de transit d’information (de données) de 180 gigabits/seconde (Un gigabit = un milliard de bits), et qu’en plus il a été conçu pour atteindre UN Tétrabit/seconde !!! (Un terabit = 1 000 milliards de bits).

Pour remettre ces chiffres en perspectives, je n’ai qu’à comparer avec ce que nous offre actuellement un fournisseur Internet tel que Vidéotron avec un forfait maximal, appelé TGV 50, de 50 mégabits/seconde !!! Malgré tout on est aujourd’hui bien loin des kilobits par seconde du début de l’Internet, que l’on nomme toujours Internet1. À 180 gigabits/seconde nous entrons dans un autre monde, celui d’Internet 2. Autant les USA, que l’Europe, le Japon et la Chine ont de grandes ambitions pour ce nouvel Internet et comme pour les débuts de son ancêtre les centres de recherche, les universités et les militaires l’utilisent déjà. Mais ce les Google et Microsoft qui en seront les utilisateurs commerciaux privilégiés.

L’ordinateur, ainsi libéré et accéléré, rapetissera et deviendra entièrement mobile ou intégré aux objets usuels tels que les frigos et même les vêtements. Déjà certains d’entre nous en avons en mains : Microsoft Zune, Amazon Kindle, Apple iPhone, Samsung Instinct et bientôt le gPhone (pour Google Phone). Vous voyez ? Nos principaux acteurs sont sur tous les fronts…

Il y a présentement 3,3 milliards d’utilisateurs de la téléphonie mobile sur la planète, selon GSM World. Et ce nombre croîtra d’un milliard en 2009. Les nouveaux modèles comme le iPhone ne sont plus des téléphones mais bien les nouveaux ordinateurs du futur : faciles à utiliser, moins chers et sans disque dur, ils offrent la téléphonie mais aussi le courriel, l’internet et donc, l’accès aux applications que ce soit pour s’amuser, s’informer ou travailler. Imaginez bientôt ces milliards d’ordinateurs en train de générer des contenus et données.

Pas surprenant que tous les grands se positionnent pour profiter de cette manne. Une manne de dollars, bien entendu car le «Cloud Computing» et l’accès à nos données, nous coûtera de l’argent, probablement sous forme de facture mensuelle comme c’est présentement le cas pour le câble et l’électricité. De compagnies Web ou technologiques, Google, Microsoft, Amazon et les autres risquent ainsi de muter sous nos yeux et devenir les prochaines «Utilités publiques», comme le disent nos voisins américains et spécialement Nicholas Carr dans son bouquin «The Big Switch. Rewiring the World, from Edison to Google».

Et nos données personnelles dans tout cela ? Et leur sécurité ? Google risque-t-il de devenir le si craint Big Brother ? Des interrogations et surtout un débat qui risque de faire rage et pas seulement qu’à Silicon Valley. Je vous garantis qu’on va en parler à webcom-Montréal en novembre ainsi qu’au Web08 à Paris en décembre et compter sur des personnages comme Marc Canter et son «Open Social Bill of Rights», qui vise à protéger les «social graphs» des utilisateurs des réseaux sociaux entre autres, donc leurs données personnelles, pour sonner la charge dans ce débat qui risque d’être passionnant. Et vous, vous en pensez quoi de Big Brohter ???

Cloud Computing Communication interactive Entreprise 2.0 Événements Identité numérique Internet2

Bon anniversaire Google ! (en retard…)

30 septembre 2008

Eh oui, c’était il y a quelques jours, le dixième anniversaire de ma compagnie préférée. Alors bon anniversaire Google ! Pour l’occasion, l’entreprise de Mountain View a eu l’idée sympa de faire un peu comme nous avions fait avec «Pourquoi bloguer dans un contexte d’affaires» afin de souligner les dix ans des blogues : réunir dix auteurs et leur demander de se commettre dans un texte. La commande de Google était fort simple : demander à ces auteurs d’extrapoler sur ce que sera le futur du Web en dix tendances.

L’exercice est intéressant mais contrairement au nôtre, ils ont limité les auteurs à des billets de blogue, somme toute assez courts. Le choix des auteurs est aussi intéressant mais surtout, j’aime bien les sujets choisis et le résultat final, publié sur le blogue officiel de Google le 25 septembre dernier. Tout d’abord, la brochette d’auteurs et leurs sujets :

1- Vint Cerf  – Introduction portant sur l’intégration du Web à la vie de tous les jours
2- Larry Brilliant – Le web et la santé
3- Bill Weihl – Le Web et l’environnement
4- Hal Varian – Le Web des données
5- Andy Rubin – Le Web mobile
6- Alfred Spector – Le «nuage» intelligent
7- Chad Hurley (tiens, YouTube) – Le Web vidéo
8- Joe Kraus – Le Web social
9- Susan Wojcicki – Le Web publicitaire
10- Marissa Mayer – La recherche Web

Point n’est besoin de vous mentionner quels sujets ont particulièrement attiré mon attention… Oui ? Je dois le mentionner ? OK alors…   J’ai particulièrement apprécié les billets de Hal Varian sur le Web des données et celui d’Alfred Spector sur le «nuage intelligent». Pas de surprises donc car deux de mes sujets favoris.

Du billet de Varian, retenez ceci et c’est capital pour tous ceux qui sont intéressés par l’Entreprise 2.0 :

«A decade ago, only the big multinational corporations could afford systems to allow for international calling, videoconferencing, and document sharing. Now startups with a handful of people can use voice over IP, video, wikis and Google Docs to share information. These technological advances have led to the rise of « micro multinationals » which can leverage creativity and talent across the globe. Even tiny companies can now have a worldwide reach.»

C’est donc dire que finalement, les PME vont prendre le train du Web 2.0. Encore une fois, je tiens à tempérer ses ardeurs. Ces lignes ont été écrites avant la crise financière actuelle. La tendance risque donc de nous frapper ici à plus long terme. Toutefois, je suis d’accord avec ceux et celles qui disent que cette crise est source d’opportunités. Du moins pour des PME audacieuses comme DessinsDrummond, gagnante de prix internationaux pour son travail avec l’amie Michelle Blanc. D’ailleurs ne manquez pas leur présentation au prochain webcom-Montréal le 12 novembre.

Donc, Google voit dans les PME une nouvelle part de marché intéressante et avec raison selon Hal Varian :

«These changes will have a profound effect on the global economy. According to the U.S. Small Business Administration, « small businesses represent 99.7 percent of all firms, they create more than half of the private nonfarm gross domestic product, and they create 60 to 80 percent of the net new jobs. » Information technology has already had a huge effect on the productivity of large businesses, but the benefits from « trickle down productivity » may be even more significant.»

Même chose ici au Québec. La PME est LE véritable moteur de l’économie et doit pour rester compétitive et créer des emplois, faire passer ses technologies au Web 2.0 mais aussi sa gestion, ses communications et l’approche de ses ressources humaines. Et bonne nouvelle pour tous les experts et consultants sur le Web selon Varian  :

  • Today, only the largest companies can afford to hire consultants and experts. In the future, even small companies will be able to purchase on-demand expertise and other services via the Internet.
  • Today, marketing intelligence are costly reports describing data many months or years old. In the future, small businesses will have access to real-time data on market conditions.

Et vive les blogues d’expertise !

Et comme de plus en plus  d’entreprises et de personnes vont utiliser le Web et y générer des «térabits» de données, plus le Web aura besoin de gérer ces données, de les entreposer mais aussi de proposer aux individus et entreprises, des suites logicielles et d’applications qui quitteront ainsi l’ordinateur traditionnel. Ce dernier deviendra un terminal branché sur un «nuage Web» ou ordinateur central planétaire : le Cloud Computing». Et l’ordinateur ainsi libéré rapetissera et sera entièrement mobile ou intégré aux objets usuels.

Je pourrais ainsi continuer pour des paragraphes mais je vous laisse sur deux citations, l’une de Alfred Spector :

«In coming years, computer processing, storage, and networking capabilities will continue up the steeply exponential curve they have followed for the past few decades. By 2019, parallel-processing computer clusters will be 50 to 100 times more powerful in most respects. Computer programs, more of them web-based, will evolve to take advantage of this newfound power, and Internet usage will also grow: more people online, doing more things, using more advanced and responsive applications. By any metric, the « cloud » of computational resources and online data and content will grow very rapidly for a long time.»

Et celle-ci d’Andy Rubin :

«There are currently about 3.2 billion mobile subscribers in the world, and that number is expected to grow by at least a billion in the next few years. Today, mobile phones are more prevalent than cars (about 800 million registered vehicles in the world) and credit cards (only 1.4 billion of those). While it took 100 years for landline phones to spread to more than 80% of the countries in the world, their wireless descendants did it in 16. And fewer teens are wearing watches now because they use their phones to tell time instead (somewhere Chester Gould is wondering how he got it backwards). So it’s safe to say that the mobile phone may be the most prolific consumer product ever invented.

However, have you ever considered just exactly how powerful these ubiquitous devices are? The phone that you have in your pocket, pack, or handbag is probably ten times more powerful than the PC you had on your desk only 8 or 9 years ago (assuming you even had a PC; most mobile users never have). It has a range of sensors that would do a martian lander proud: a clock, power sensor (how low is that battery?), thermometer (because batteries charge poorly at low temperatures), and light meter (to determine screen backlighting) on the more basic phones; a location sensor, accelerometer (detects vector and velocity of motion), and maybe even a compass on more advanced ones. And most importantly, it is by its very nature always connected.»

Et vous, qu’en pensez-vous ? Pour moi, je ne tiens plus en place, vite mon gPhone !!!

Cloud Computing Communication interactive Entreprise 2.0 Événements LifeLogs

Entreprise 2.0 : IBM veut conserver les données pour des siècles !

26 septembre 2008

Vous connaissez mon intérêt marqué pour le phénomène des LifeLogs ou carnets de vie (voir un de mes premiers billets sur le sujet et la définition de Wikipedia ICI), que je considère être l’avenir des blogues et du micro-blogging. Ces carnets semblent intéresser de plus en plus les grandes entreprises technologiques… Ainsi, après Microsoft, c’est au tour d’IBM de se positionner…

Comment ? En perfectionnant les technologies de conservation et ainsi conserver vos données et celles de l’entreprise 2.0 pour des siècles !…  Ainsi, il y a quelques semaines, plus exactement le 8 septembre dernier, IBM a fait une annonce qui est presque passée inaperçue en Amérique du Nord car faite à Haïfa en Israël. Voici comment débute le communiqué de presse :

«IBM Research today announced an entirely new way to preserve digital information, so it can be read decades after it was created despite future changes in digital formats. Researchers at the lab in Haifa, Israel, are ensuring that digital files — such as photos, movies, music, videos, financial records, health records, manuscripts, and more — will be accessible and readable for decades and possibly even centuries—no matter how the content was created.»

Et si vous avez lu la définition des LifeLogs et mon billet précédent, pas besoin de faire de dessins pour comprendre qu’IBM vient de mettre une pierre importante dans l’édification du concept de carnets de vie mais aussi dans la création de la mémoire de l’entreprise, un autre de mes thèmes favoris.

La Mémoire d’entreprise en dix étapes :

Pourquoi le mémoire, vous direz ? Lisez plutôt ces deux passages du communiqué :

«As the world becomes increasingly digital, we may find ourselves in the “digital Dark Ages » in which business, cultural, and personal assets are in ever greater danger of being lost or rendered unreadable due to changing technologies and standards.»

«A recent study by the Academy of Motion Picture Arts and Sciences revealed that fewer than half of all feature films made before 1950 have survived. And because the annual cost of digital film archiving is more than 10 times greater than that of storing celluloid film, we could be facing classic movie extinction. Today, no media, hardware or software exits that can reasonably assure long-term accessibility of digital assets.»

En annonçant ces nouveaux développements, la multinationale américaine sait très bien que la possibilité de créer des LifeLogs et de les conserver sur une longue période aussi bien pour les individus que pour les entreprises devenues 2.0, va nécessiter de formidables capacités de stockage de données, d’où, bien sûr, les méga-entrepôts de données. Voici un autre passage révélateur du communiqué :

«As the volume of digital information continues to grow and digital formats change from year to year, consumers and companies will be faced with archiving and data retention problems. According to analyst firm IDC, more than 160 exabytes of digital information was created – that’s three million times the information in all the books ever written – in 2006 alone.»

En juin dernier, IBM annonçait à Boston la sortie d’une nouvelle ligne de serveurs 2.0, les iDataPlex Servers, destinés aux entrepôts de données des entreprises 2.0 mais on a appris, fin août dans un autre communiqué de presse repris par le Journal du Net, qu’ils allaient investir plusieurs centaines de millions dans leurs propres entrepôts… Pas seulement dans les serveurs et les entrepôts mais aussi dans le marché du SaaS et du Cloud Computing.

LifeLogs, entrepôts de données, Cloud Computing et mémoire d’entreprise tout se tient et vise à soutenir le marché de l’entreprise 2.0 dont j’ai parlé dans mon billet d’hier… Reste à voir ce que les entreprises feront avec ces données, ce qui soulève les questions de propriété, de sécurité, de portabilité et d’identité numérique, questions de l’heure et qui sont soulevées de plus en plus dans les grandes conférences internationales comme webcom-Montréal ou encore Digital ID World 2008 !

Et vous, ces questions de données et d’identité numérique, ça vous inquiète ou vous stimule ???

Cloud Computing Entreprise 2.0

Cet homme est dangereux…

10 septembre 2008

Le billet d’aujourd’hui sera assez succint. Je pourrais en remettre sur le personnage mais suffit de dire que le CEO d’AdventNet, Sridhar Vembu, est annoncé par certains analystes comme étant celui qui, avec sa suite logicielle Zoho, sera le «Google Killer»…

(Source Economist.com)

Mais avant d’en arriver là, il fait trembler le monde de l’informatique traditionnelle, ce que les amécains appellent les «Corporate IT». J’en ai parlé dans un récent billet : Google, Amazon, SalesForce.com et IBM se battent actuellement pour l’énorme marché de vos données mais aussi pour celui encore plus énorme des données et applications des entreprises. Pour ce faire, ces grands joueurs se doivent d’offrir des suites de produits à leurs clients, petits et gros, même si les gros ont habituellement leur propre parc applicatif. Les mieux placés à ce titre sont Google et IBM

Dans mon récent billet sur le monde du «Cloud Computing» et l’immobilisme des «Corporate TI», j’ai oublié de parler de Zoho, honte sur moi, surtout que l’ami Pascal Veilleux en est un ardent promoteur, ici au Québec ! Je fais donc amende honorable et vous laisse avec cet article paru dans The Economist.com

Parlant de Google, vous avez remarqué le changement de logo sur le moteur de recherche ? Qu’en pensez-vous ?

Cloud Computing Entreprise 2.0 Identité numérique NTIC Sécurité des données

Les TI et le «nuage Web» : l’immobilisme au nom de la symphonie en mouvement !

5 septembre 2008

Cela fait au moins un an que je tente de faire venir les gens de Google à Montréal afin qu’ils puissent venir parler à la conférence webcom-Montréal. Parler d’entrepôts de données mais aussi parler de SaaS (software as a service) et surtout de «Cloud Computing». Après les avoir rencontrés en juin dernier à Boston, ils ont finalement accepté d’être des nôtres le 12 novembre prochain… Le sujet risque d’être encore plus brûlant d’actualité que je ne croyais. Pourquoi ?

Parce que tous les gros joueurs de l’industrie s’y mettent : Google bien sûr mais aussi Microsoft, Amazon, SalesForce.com et maintenant IBM, oui, oui vous avez bien entendu IBM… En juin dernier, ils annonçaient à Boston la sortie d’une nouvelle ligne de serveurs 2.0, les iDataPlex Servers, destinés aux entrepôts de données des joueurs pré-cités mais on a appris, fin août dans un communiqué de presse repris par le Journal du Net , qu’ils allaient investir plusieurs centaines de millions dans leurs propres entrepôts… Pas seulement dans les serveurs et les entrepôts mais aussi dans le marché du SaaS et du Cloud Computing.

Le iDataPlex présenté en primeur à Boston en juin dernier

En juin dernier, les gens de Google sont débarqués en force à la conférence Entreprise 2.0, qui avait lieu à Boston, avec comme but inavoué mais certain de convaincre les entreprises que leur salut réside maintenant dans l’externalisation de leurs données, applications et centres de traitement informatiques vers le «nuage Internet».On parle ici de services Web, de SaaS mais aussi de Web 2.0, d’Entreprise 2.0, de KM 2., etc.

En fait, comme l’a mentionné Rishi Chandra, de Google, le même qui sera à Montréal, la question n’est plus de savoir s’il y aura une profonde mutation de l’informatique vers le Web mais quand et surtout à quelle vitesse…Après la bataille pour nos données personnelles, ces GROS joueurs vont tout d’abord «écrémer» le marché des grandes entreprises, leurs clients traditionnels. Une stratégie qui devrait se déployer au cours des cinq prochaines années. Par la suite, elles devraient porter leur attention sur un autre segment, la longue traîne des entreprises, soit les PME-PMI, segment qui surprenamment, se montre très «frileux», du moins ici au Québec, à ces grandes mutations.

Rishi Chandra en conférence…

Ce qui me ramène à un de mes thèmes favoris, soit le manque de vision des entreprises québécoises et notre immobilisme technologique qui met sérieusement en danger notre compétitivité internationale. C’est patent au Québec mais pas unique. Lors de sa conférence à Boston, Rishi Chandra et Dion Hinchcliffe ont aussi abordé ce thème : L’innovation ne vient plus de l’entreprise elle-même mais de l’externe et surtout de particuliers comme vous et moi qui créons applications et contenus sur le Web mais aussi qui travaillons avec des outils plus performants que ceux utilisés en entreprise.

Donc, l’informatique traditionnelle est dépassée et ne génère plus que 20 % d’innovation contre 80 % de statu quo, ce qui était l’inverse avant : Et ce sont les vieux qui contrôlent les services TI et ces «vieux» emploient 80% de leur budget pour le maintien des infrastructures traditionnelles et leur sécurisation.

Ces derniers en sont toujours à parler d’architecture technologique d’entreprise visant à gérer l’intégration des solutions technologiques ou encore de gestion du patrimoine technologique et de sécurité des données et applications stratégiques. Ils ne peuvent cependant plus cacher que ces «architectures patrimoniales sécuritaires» entrainent des coûts de plus en plus élevés en termes de planification, d’évolution, de maintenance, d’immobilisation et aussi de gestion de la main d’oeuvre. Ce sera d’ailleurs le sujet d’une conférence à la FIQ le 18 septembre prochain, conférence prononcée par Jean-Pierre Fortin, chef de la planification stratégique des TI à la ville de Montréal : «L’architecture d’entreprise : une symphonie en mouvement».

Une symphonie qui sonne de plus en plus faux car maintenir un service TI qui peut comprendre un ou plusieurs centres de traitement informatique où ronronnent des milliers de serveurs d’applications et de données, des milliers d’applications-maison en plus des solutions des fournisseurs et un parc informatique de plus en plus complexe ouvre la porte aux fausses notes (pannes de toutes nature) et demande parfois un orchestre de plusieurs centaines de personnes (gestionnaires, architectes, analystes, conseillers, programmeurs, dépanneurs, etc). Payer l’orchestre et payer les instruments, payer pour leur entretien et leur réparation en cas de panne revient de plus en plus cher pour une entreprise dont la mission de base n’est pas l’informatique.

De là l’externalisation des installations et la dématérialisation des données dans le «nuage» Web et pas seulement pour les grandes entreprises. De là aussi l’apparition d’entreprises qui travaillent à offrir aux PME les mêmes services que Google et autres mais sous leur radar. Des firmes comme la québécoise Oriso. À court terme, elles pourront tirer leur épingle du jeu. À long terme, il leur faudra une offre différente pour demeurer compétitifs.

Mais les données et la sécurité ?

Question qui revient en effet sur toutes les lèvres des CEO ou CTO des entreprises ainsi que d’autres telles que : Google ou Amazon ou IBM ne deviendront-elles pas des Big Brother, propriétaires de nos données et les utilisant à des fins autres ? Et ne serons-nous pas prisonniers de ces entreprises qui auront nos données ET nos applications ? Et seront-elles en sécurité sur le Web avec tous ces hackers ?  En réponse à cela, laissez-moi reprendre le compte-rendu que j’ai fait à Boston de la soirée intitulée «An Evening in the Cloud ».

Le panel de «Evening in the Cloud»

«Hier, en fin de journée, Google, Amazon et Salesforce.com commanditaient l’événement «An evening in the Cloud», petite soirée où les trois entreprises participaient à un panel inusité. Voici les règles du jeu : Les trois représentants de ces entreprises, soit Jeff Keltner pour Google, Adam Selipsky pour Amazon et Ross Piper pour Salesforce ont à convaincre quatre CIO que leurs données et applications ont avantage à résider dans un nuage plutôt que dans un centre de traitement sécurisé avec une distribution client-serveur. Le tout modéré par David Berlind d’InformationWeek.

Débat intéressant où les quatre CIO ont déballé devant une salle comble ou presque, les peurs traditionnelles des gens de Ti devant tout ce qui est Internet 2.0 et plus… Tout y est passé, portabilité des données, propriété des données, confidentialité et surtout SÉCURITÉ. À ce titre, Richard Mickool, CTO de l’université Northeastern, a sorti l’artillerie lourde en posant une question fort pertinente sur la dépendance des entreprises face à leurs «fournisseurs» dans l’éventualité de la délocalisation de son infrastructure informatique. Le fait d’être pris avec un seul fournisseur. Qu’arriverait-il si ce dernier disparaissait ou était vendu ? «I don’t want to be locked in» a-t-il lancé comme un cri du coeur.

À cette inquiétude, les trois compères ont opposé le fait que tous trois tenaient à ce que les entreprises demeurent en contrôle de leurs données et applications et qu’elle puissent avoir le choix de les retirer quand bon leur semble. Le principe de la portabilité, quoi. Les mêmes préoccupations que pour les individus avec leurs données sur le Web social…

Ensuite ce fut le tour de Mary Sobiechowski de poser une autre question que j’attendais depuis le début. Les entreprises pourront-elles compter sur une bande passante suffisante pour leurs besoins croissants, surtout en matière de multimédia ? Je m’attendais à une réponse rapide de Google mais cette dernière n’est jamais venue. En faut, j’ai dû aller poser la question par la suite à Keltner. Ce dernier a confirmé que Google était bien un client d’Internet2 et du PC1 Cable System , qui offre actuellement une possibilité de transit de 240 gigabits/seconde (Gbps) en plus d’avoir été conçu pour atteindre UN Tétrabit/seconde !!! (Tbps). Pas besoin de dire que les entreprises ont là, largement de quoi se rassasier et ce pour bien des années quand on sait que la plupart d’entre elles utilisent rarement plus que 100 mégabits/seconde.

Autre question que j’attendais et qui est finalement venue en fin de débat et de la part d’un participant dans la salle : Les coûts ! Un avantage net pour Google et compagnie. En fait c’est Amazon qui a répondu de la même façon qu’à la conférence Web 2.0 Expo à San Francisco : Un accès à un serveur d’applications pour aussi peu que 10 cents de l’heure. Besoin d’espace de stockage pour vos données (textes, photos, vidéos, etc.) ? Amazon vous offre le principe du «all you can eat» pour 15 cents du Gigabit par mois !».

Bref, beaucoup de mythes et de fausses croyances véhiculés par ceux et celles qui ne tiennent pas à ce que leurs petits royaumes soient démantelés quitte à faire payer une fortune à leur entreprise pour leur maintien. De là, le conservatisme au nom de la sécurité et l’immobilisme au nom de la symphonie en mouvement !

Cloud Computing Communication interactive NTIC

Après les iPhones et les gPhones, des eCars ?

26 août 2008

Mais qu’est-ce que Shai Agassi, l’ex-CEO de SAP fait dans l’industrie automobile et surtout dans l’industrie de l’énergie ? Y vendre des logiciels d’affaires ? Pas du tout…Agassi a une nouvelle mission : Éliminer les automobiles à moteur à combustion de nos routes, de TOUTES les routes et pour ce faire, vient de fonder une nouvelle entreprise appelée Project Better Place, qui a bien sûr son blogue et est localisée dans Silicon Valley.

J’ai rencontré Shai Agassi en 2004 lors d’une conférence SAP à Orlando où il était le «keynote» vedette et traité comme tel. Je me souviens que les représentants de SAP en parlaient comme s’il était une «rock star». Faut comprendre qu’alors, Agassi voulait révolutionner la conservatrice SAP et l’amener vers l’Entreprise 2.0. En 2004 vous vous rendez compte !!!

Il avait au moins convaincu les membres de son CA de prendre le virage Web : Toute la suite d’applications SAP serait dorénavant conçue en vue d’une intégration avec un portail Web, ce que le gourou des portails Gene Phifer appelait les Smart Enterprise Suites. Révolution à la conférence pour les clients et développeurs. Mais Agassi voulait aller plus loin changer le modèle d’affaires : donner les applications et faire de l’argent sur le service de support ou encore devenir «open source» pour couper l’herbe sous les pieds d’Oracle… Il a quitté SAP en 2007.

Pourquoi alors s’attaquer aux autos, au pétrole et aux gaz à effets de serre ? Parce qu’il a toujours été visionnaire et qu’il y voit maintenant une formidable opportunité. Une opportunité électrique… L’électricité est le prochain Eldorado pour toutes les compagnies du Web, que ce soit Google, Microsoft, IBM, SAP et autres. Pour faire rouler les ordinateurs, alimenter les entrepôts de serveurs de données et applications, pour entretenir le «nuage» ou «Cloud Computing» mais aussi pour faire rouler les prochaines voitures…

Agassi a un plan audacieux : Faire comme les Telcos (compagnies de télécom) ! Avoir des points d’alimentation partout pour que les voitures ne dépendent plus des fameuses batteries à vie si courte et si longues à recharger et ensuite offrir au conducteur des plans d’utilisation comme pour nos téléphones portables ou iPhones. De la folie ? Je dirais plutôt du génie…

À lire le reportage de Daniel Roth dans la dernière édition de Wired, du bonbon mais écoutez aussi cette intervention d’Agassi faite à Washington sur le sujet :

[youtube N03O53M09-Y&color1]

P.S. Si j’étais Hydro-Québec, je mettrais les unités Clientèle et Distribution à l’affût de cette nouvelle compagnie et penserais à prendre une participation. Mais que disais-je récemment sur les entreprises québécoises ?

Cloud Computing Communication interactive Internet2 Web politique

De l’immobilisme des entreprises québécoises (suite et fin)

25 août 2008

En ce lundi nuageux et frisquet qui me fait penser à l’automne, je voulais parler de choses et d’autres. Juste quelques mots en premier sur mon dernier billet qui a suscité bien des commentaires, la majorité d’appui. En plus des commentaires, je voulais partager avec vous le billet de l’ami Francis Bilodeau sur son blogue Kranf.com, qui va dans le même sens. À lire aussi le commentaire du PDG de Dessins Dummond, Yves Carignan sur la «frilosité» des entreprises québécoises. Je ne suis pas le seul donc à déplorer le manque de vision des entreprises québécoises et notre immobilisme technologique qui met sérieusement en danger notre compétitivité internationale.

Je vous ai parlé en juin de Dion Hinchcliffe qui à Boston avait parlé de l’informatique traditionnelle, dépassée et qui ne génère plus que 20 % d’innovation contre 80 % de statu quo, ce qui était l’inverse avant : Et ce sont les vieux entre 45 et 55 ans qui contrôlent les services Ti et ces «vieux» emploient 80% de leur budget pour le maintien des infrastructures traditionnelles et leur sécurisation. Je vous ai aussi parlé du cas de Google dont on a refusé l’implantation d’un entrepôt de serveurs au Québec.

Pourtant l’aluminerie de Shawinnigan va être démantelée… Les élections fédérales s’en viennent et seront ensuite suivies de celles au Québec et je gage avec vous que cette question n’apparaîtra même pas sur le radar des politiciens à moins que… À moins qu’il n’y ait des centaines de sorties de blogueurs, de leaders de l’économie technologique québécoise et de journalistes techno comme celle de Michel Dumais.

Ce dernier a commis une lettre ouverte-billet, le semaine dernière, sur le manque de vision de l’administration municipale du maire de Montréal. Malgré que je ne partage pas tout ce qui y est écrit, il relève un fait criant : Un manque de vision qui a amené le maire Tremblay à faire tout un show médiatique sur la présence de Montréal sur la nouvelle plaque de jeu du Monopoly international (sur le terrain le plus cher Promenade) au lieu de faire avancer un dossier beaucoup plus important pour la compétitivité et la visibilité internationale de sa ville soit le financement de Ile Sans fil. Cette OSBL est au bord du gouffre et pourtant vise à offrir l’Internet «wireless» au plus grand nombre en utilisant les espaces publics, les restos, bars et cafés.

Quand les entreprises et les administrations vont-elles finir par comprendre que l’avenir passe par l’Internet, le sans fil, le Web 2.0, les espaces branchés et virtuels ainsi que par tous ceux et celles qui y oeuvrent et qui ont fait de Montréal un pôle technologique autrefois mondialement reconnu ? Quand finiront-ils par écouter les experts internationaux qui se succèdent à des conférences comme webcom, ici à Montréal ? Triste de constater que nous creusons l’écart qui nous sépare de l’Europe et de nos voisins du Sud et de l’Ouest…

En terminant, je voulais aussi souligner un billet sur lequel je suis tombé au cours du WE entre mon vélo et et mes «drives» de golf . Un billet lu sur Kelblog, le blogue de Catherine Nivez et Pierre Chappaz. Ces derniers notaient que pour la première fois, Apple vaut plus que Google ! Un petit milliard de $ de plus soit 154 contre 153… Intéressant phénomène dû en grande partie à la popularité des iPhone, iPods et autres «i». Encore plus intéressant de lire les commentaires à ce billet. On y note une méfiance latente, non pas contre Google mais bien envers Apple. Certains parlent de mode éphémère, d’autres de confiance, d’autres de philosophie technologique.

Et finalement une invitation à tous et à toutes pour le Yulbiz-Montréal de la rentrée qui aura lieu demain à 18h00 au Café Méliès à Montréal ! On y fêtera le troisième anniversaire du blogue de l’amie MichelleBlanc.

Cloud Computing Communication interactive Entreprise 2.0 Intranet

Intranets 2.0 et entrepôts de données…

20 août 2008

Je republie aujourd’hui deux billets que j’ai commis durant la période de vacances de plusieurs d’entre vous. Ces deux billets sont particulièrement importants car ils vont constituer le fondement d’un prochain livre et de deux futures conférences.

Le premier porte sur les entrepôts de données et le second sur les intranets 2.0. Alors, vous me voyez venir ?

Entrepôts de données : Microsoft joue la transparence…
Dessine-moi un intranet 2.0 : Il en va de la compétitivité de nos entreprises !

Cloud Computing

Entrepôts de données : Microsoft joue la transparence…

23 juillet 2008

Un de mes sujets favoris est la guerre que se livrent actuellement Google, Microsoft, Amazon, Salesforce et autres joueurs pour les données personnelles sur le Web mais aussi pour les données et applications des entreprises, la «Data War», comme l’a nommée le magazine Wired. Dans cette guerre sans merci, une des armes d’accumulation massive est sans contredit les méga-entrepôts de données comme celui de Google à The Dalles en Orégon.

Le complexe de Google à The Dalles

Grâce à l’ami Christian Joyal d’inpowr, je suis tombé sur un reportage intéressant réalisé il y a un mois par J. Nicholas Hoover, d’InformationWeek sur la construction du dernier méga-bébé de 550 millions $ de Microsoft. Plus d’un demi-milliard investi dans les montagnes à l’ouest de San Antonio au Texas, donnant ainsi de l’emploi à près de 1 000 personnes sur presque deux ans. (Et vlan dans les dents au gouvernement du Québec qui a refusé à Google de venir en construire un au Québec)

Source : InformationWeek

Pour vous donner une idée de la taille du bâtiment qui sera en opération dès septembre : Il est construit sur un terrain de 11 acres et fait 475 000 pieds carrés ou environ 158 000 mètres carrés !!! Ce qui est fascinant dans ce reportage c ‘est que pour la première fois, on a des images intérieures mais aussi une entrevue avec le gestionnaire de tous les centres de données chez Microsoft, Mike Manos. Cela fait semble-t-il partie de la stratégie marketing/communication de Microsoft car en plus des journalistes, on y invite les entreprises clientes ainsi que les partenaires.

Source : InformationWeek

D’expliquer Manos : «Historically, we’ve taken the approach that data centers are our competitive advantage, but 12 to 18 months after putting cool new stuff into place, it comes onto the market anyway» Microsoft croit donc tirer avantage de sa transparence sur son plus grand rival Google qui, pour sa part, demeure très secret sur ses propres installations à preuve ce qu’en dit Diane Sherwood, directrice exécutive du port de Klickitat, juste en face de The Dalles : «No one says the ‘G’ word. It’s a little bit like He-Who-Must-Not-Be-Named in Harry Potter.»

Dans le reportage, on apprend aussi deux autres informations intéressantes sinon fascinantes. D’une part que Microsoft veut être le plus «vert» possible et a demandé à son contracteur de sauver tous les arbres du site mais qu’il va dévorer des quantités énormes d’énergie et d’eau (pour le refroidissement). L’énergie proviendra des filières nucléaire et éolienne. D’autre part, on y apprend également que Microsoft a en chantier entre 40 et 50 de ces méga-centres et que comme pour les porte-avions américains, ils sont identifiés selon des «classes» .

Celui de San Antonio est de la classe «Quincy», la plus vieille et la plus traditionnelle dans son design. La classe «Chicago» sera la prochaine et la plus gigantesque avec des centres faits d’immenses containers remplis de serveurs, prêts à être démantelés et déplacés. des entrepôts mobiles, quoi… J’avais d’ailleurs entendu parler de ce concept à la conférence Web 2.0 à San Francisco et par des gens de Google à Boston le mois dernier. À San Francisco, le CEO de Sun, Jonahtan Schwartz avait aussi parlé de l’importance que prendrait l’économie d’énergie, donc la virage vert mais pas seulement pour les arbres épargnés. Surtout en consomation d’énergie. Microsoft y pense déjà et prévoit ainsi une nouvelle classe d’entrepôts, soit la classe «Dublin» dont le focus sera entièrement sur les économies d’énergie.

Et comme pour les porte-avions, Microsoft entend bien annoncer prochainement d’autres constructions, d’autres classes de centres et le démantèlement des plus vieux et plus énergivores…