Parcourir la catégorie

Sécurité des données

Cloud Computing Communication interactive Identité numérique Internet2 OpenSocialWeb Sécurité des données

L’Internet des données : Une guerre sans merci avec des armes d’accumulation massive !

10 octobre 2008

Nous ne sommes pas encore en décembre mais je me risque tout de même à faire une prédiction : la prochaine année sur le Web, sera profondément marquée par la course aux données, VOS données… Et qui est déjà engagé dans cette course folle ? Des géants comme Google, Microsoft, Amazon, IBM et quelques autres joueurs. Une course, que dis-je, plutôt une guerre commerciale et technologique sur plusieurs fronts, dont ceux de la vitesse de transmission, la capacité d’entreposage, la sécurité et la portabilité des données et qui a pour enjeu rien de moins que toutes vos données, aussi bien personnelles que les données et applications des entreprises, la «Data War », comme l’a nommée le magazine Wired.

Microsoft organise un tirage, un jeu. Mais l’objectif est sérieux la sécurité de vos données !

Dans cette guerre sans merci, une des armes d’accumulation massive est sans contredit les méga-entrepôts de données comme celui de Google à The Dalles en Orégon . À l’origine, une ancienne aluminerie avec, à la clé, une centrale électrique et reconvertie en entrepôt de serveurs. Des milliers d’entre eux, installés en rangées du plancher au plafond et refroidis par un monstrueux système de climatisation. Ces serveurs sont des ordinateurs qui n’ont comme but que d’accumuler des données et de les rendre ensuite accessibles aux demandeurs.

Le complexe de Google à The Dalles

Et celui de Microsoft à San Antonio au Texas

[youtube WWYmNayS0Kk&hl=fr&fs=1]

Qui seront remplacés par des containers ???

Google a commencé à en installer pour répondre aux besoins sans cesse croissants de son omnipotent moteur de recherche (100 millions de requêtes/jour, 200 Petabits de disque dur, 1 Petabit = 1 million de milliards) mais s’est vite rendu compte qu’ils «serviraient» aussi à soutenir son offre de «services Web» aux particuliers comme aux entreprises. Des services comme gMail ou GoogleDocs, par exemple.

Et comme de plus en plus d’entreprises et de personnes vont utiliser le Web de Google et des autres et y générer des «téra et petabits» de données, plus le Web aura besoin de gérer ces données, de les entreposer mais aussi de proposer aux individus et entreprises, des suites logicielles et d’applications pour accéder à ces données. Ces suites, comme celle d’Office et les données qu’elles génèrent sont présentement installées et/ou stockées sur nos disques durs, sur des DVD ou clés USB.

S’il n’en tient qu’à Google et compagnie, ces données et applications quitteront donc l’ordinateur traditionnel. Georges Gilder, du magazine américain Wired, décrit ainsi ce que Google, Microsoft et les autres sont en train de réaliser:

«The desktop is dead. Welcome to the «Internet cloud», where massive facilities across the globe will store all the data you’ll ever use. »

Le «desktop» deviendra un terminal branché sur un «nuage Web» ou ordinateur central planétaire, ce que de plus en plus de personnes nomment le «Cloud Computing». Littéralement, l’informatique traditionnelle, faite d’ordinateurs à disques durs, de centres de traitement, d’applications et de logiciels, tous entretenus par une armée de spécialistes, sera vaporisée en un nuage Web et les données qu’ils contenaient, stockées dans les entrailles des centaines de milliers de serveurs réunis dans des entrepôts et reliés entre eux par un Internet ou Web de plus en plus rapide.

Cet ordinateur planétaire aura besoin d’une autre composante essentielle qui se met d’ailleurs en place. De la vitesse de traitement pour servir les données. Sur ce front de la bataille on peut voir qu’entre l’Asie et les USA a été mis en place le PC1 Cable System et que ce dernier offre actuellement une possibilité de transit d’information (de données) de 180 gigabits/seconde (Un gigabit = un milliard de bits), et qu’en plus il a été conçu pour atteindre UN Tétrabit/seconde !!! (Un terabit = 1 000 milliards de bits).

Pour remettre ces chiffres en perspectives, je n’ai qu’à comparer avec ce que nous offre actuellement un fournisseur Internet tel que Vidéotron avec un forfait maximal, appelé TGV 50, de 50 mégabits/seconde !!! Malgré tout on est aujourd’hui bien loin des kilobits par seconde du début de l’Internet, que l’on nomme toujours Internet1. À 180 gigabits/seconde nous entrons dans un autre monde, celui d’Internet 2. Autant les USA, que l’Europe, le Japon et la Chine ont de grandes ambitions pour ce nouvel Internet et comme pour les débuts de son ancêtre les centres de recherche, les universités et les militaires l’utilisent déjà. Mais ce les Google et Microsoft qui en seront les utilisateurs commerciaux privilégiés.

L’ordinateur, ainsi libéré et accéléré, rapetissera et deviendra entièrement mobile ou intégré aux objets usuels tels que les frigos et même les vêtements. Déjà certains d’entre nous en avons en mains : Microsoft Zune, Amazon Kindle, Apple iPhone, Samsung Instinct et bientôt le gPhone (pour Google Phone). Vous voyez ? Nos principaux acteurs sont sur tous les fronts…

Il y a présentement 3,3 milliards d’utilisateurs de la téléphonie mobile sur la planète, selon GSM World. Et ce nombre croîtra d’un milliard en 2009. Les nouveaux modèles comme le iPhone ne sont plus des téléphones mais bien les nouveaux ordinateurs du futur : faciles à utiliser, moins chers et sans disque dur, ils offrent la téléphonie mais aussi le courriel, l’internet et donc, l’accès aux applications que ce soit pour s’amuser, s’informer ou travailler. Imaginez bientôt ces milliards d’ordinateurs en train de générer des contenus et données.

Pas surprenant que tous les grands se positionnent pour profiter de cette manne. Une manne de dollars, bien entendu car le «Cloud Computing» et l’accès à nos données, nous coûtera de l’argent, probablement sous forme de facture mensuelle comme c’est présentement le cas pour le câble et l’électricité. De compagnies Web ou technologiques, Google, Microsoft, Amazon et les autres risquent ainsi de muter sous nos yeux et devenir les prochaines «Utilités publiques», comme le disent nos voisins américains et spécialement Nicholas Carr dans son bouquin «The Big Switch. Rewiring the World, from Edison to Google».

Et nos données personnelles dans tout cela ? Et leur sécurité ? Google risque-t-il de devenir le si craint Big Brother ? Des interrogations et surtout un débat qui risque de faire rage et pas seulement qu’à Silicon Valley. Je vous garantis qu’on va en parler à webcom-Montréal en novembre ainsi qu’au Web08 à Paris en décembre et compter sur des personnages comme Marc Canter et son «Open Social Bill of Rights», qui vise à protéger les «social graphs» des utilisateurs des réseaux sociaux entre autres, donc leurs données personnelles, pour sonner la charge dans ce débat qui risque d’être passionnant. Et vous, vous en pensez quoi de Big Brohter ???

Cloud Computing Entreprise 2.0 Identité numérique NTIC Sécurité des données

Les TI et le «nuage Web» : l’immobilisme au nom de la symphonie en mouvement !

5 septembre 2008

Cela fait au moins un an que je tente de faire venir les gens de Google à Montréal afin qu’ils puissent venir parler à la conférence webcom-Montréal. Parler d’entrepôts de données mais aussi parler de SaaS (software as a service) et surtout de «Cloud Computing». Après les avoir rencontrés en juin dernier à Boston, ils ont finalement accepté d’être des nôtres le 12 novembre prochain… Le sujet risque d’être encore plus brûlant d’actualité que je ne croyais. Pourquoi ?

Parce que tous les gros joueurs de l’industrie s’y mettent : Google bien sûr mais aussi Microsoft, Amazon, SalesForce.com et maintenant IBM, oui, oui vous avez bien entendu IBM… En juin dernier, ils annonçaient à Boston la sortie d’une nouvelle ligne de serveurs 2.0, les iDataPlex Servers, destinés aux entrepôts de données des joueurs pré-cités mais on a appris, fin août dans un communiqué de presse repris par le Journal du Net , qu’ils allaient investir plusieurs centaines de millions dans leurs propres entrepôts… Pas seulement dans les serveurs et les entrepôts mais aussi dans le marché du SaaS et du Cloud Computing.

Le iDataPlex présenté en primeur à Boston en juin dernier

En juin dernier, les gens de Google sont débarqués en force à la conférence Entreprise 2.0, qui avait lieu à Boston, avec comme but inavoué mais certain de convaincre les entreprises que leur salut réside maintenant dans l’externalisation de leurs données, applications et centres de traitement informatiques vers le «nuage Internet».On parle ici de services Web, de SaaS mais aussi de Web 2.0, d’Entreprise 2.0, de KM 2., etc.

En fait, comme l’a mentionné Rishi Chandra, de Google, le même qui sera à Montréal, la question n’est plus de savoir s’il y aura une profonde mutation de l’informatique vers le Web mais quand et surtout à quelle vitesse…Après la bataille pour nos données personnelles, ces GROS joueurs vont tout d’abord «écrémer» le marché des grandes entreprises, leurs clients traditionnels. Une stratégie qui devrait se déployer au cours des cinq prochaines années. Par la suite, elles devraient porter leur attention sur un autre segment, la longue traîne des entreprises, soit les PME-PMI, segment qui surprenamment, se montre très «frileux», du moins ici au Québec, à ces grandes mutations.

Rishi Chandra en conférence…

Ce qui me ramène à un de mes thèmes favoris, soit le manque de vision des entreprises québécoises et notre immobilisme technologique qui met sérieusement en danger notre compétitivité internationale. C’est patent au Québec mais pas unique. Lors de sa conférence à Boston, Rishi Chandra et Dion Hinchcliffe ont aussi abordé ce thème : L’innovation ne vient plus de l’entreprise elle-même mais de l’externe et surtout de particuliers comme vous et moi qui créons applications et contenus sur le Web mais aussi qui travaillons avec des outils plus performants que ceux utilisés en entreprise.

Donc, l’informatique traditionnelle est dépassée et ne génère plus que 20 % d’innovation contre 80 % de statu quo, ce qui était l’inverse avant : Et ce sont les vieux qui contrôlent les services TI et ces «vieux» emploient 80% de leur budget pour le maintien des infrastructures traditionnelles et leur sécurisation.

Ces derniers en sont toujours à parler d’architecture technologique d’entreprise visant à gérer l’intégration des solutions technologiques ou encore de gestion du patrimoine technologique et de sécurité des données et applications stratégiques. Ils ne peuvent cependant plus cacher que ces «architectures patrimoniales sécuritaires» entrainent des coûts de plus en plus élevés en termes de planification, d’évolution, de maintenance, d’immobilisation et aussi de gestion de la main d’oeuvre. Ce sera d’ailleurs le sujet d’une conférence à la FIQ le 18 septembre prochain, conférence prononcée par Jean-Pierre Fortin, chef de la planification stratégique des TI à la ville de Montréal : «L’architecture d’entreprise : une symphonie en mouvement».

Une symphonie qui sonne de plus en plus faux car maintenir un service TI qui peut comprendre un ou plusieurs centres de traitement informatique où ronronnent des milliers de serveurs d’applications et de données, des milliers d’applications-maison en plus des solutions des fournisseurs et un parc informatique de plus en plus complexe ouvre la porte aux fausses notes (pannes de toutes nature) et demande parfois un orchestre de plusieurs centaines de personnes (gestionnaires, architectes, analystes, conseillers, programmeurs, dépanneurs, etc). Payer l’orchestre et payer les instruments, payer pour leur entretien et leur réparation en cas de panne revient de plus en plus cher pour une entreprise dont la mission de base n’est pas l’informatique.

De là l’externalisation des installations et la dématérialisation des données dans le «nuage» Web et pas seulement pour les grandes entreprises. De là aussi l’apparition d’entreprises qui travaillent à offrir aux PME les mêmes services que Google et autres mais sous leur radar. Des firmes comme la québécoise Oriso. À court terme, elles pourront tirer leur épingle du jeu. À long terme, il leur faudra une offre différente pour demeurer compétitifs.

Mais les données et la sécurité ?

Question qui revient en effet sur toutes les lèvres des CEO ou CTO des entreprises ainsi que d’autres telles que : Google ou Amazon ou IBM ne deviendront-elles pas des Big Brother, propriétaires de nos données et les utilisant à des fins autres ? Et ne serons-nous pas prisonniers de ces entreprises qui auront nos données ET nos applications ? Et seront-elles en sécurité sur le Web avec tous ces hackers ?  En réponse à cela, laissez-moi reprendre le compte-rendu que j’ai fait à Boston de la soirée intitulée «An Evening in the Cloud ».

Le panel de «Evening in the Cloud»

«Hier, en fin de journée, Google, Amazon et Salesforce.com commanditaient l’événement «An evening in the Cloud», petite soirée où les trois entreprises participaient à un panel inusité. Voici les règles du jeu : Les trois représentants de ces entreprises, soit Jeff Keltner pour Google, Adam Selipsky pour Amazon et Ross Piper pour Salesforce ont à convaincre quatre CIO que leurs données et applications ont avantage à résider dans un nuage plutôt que dans un centre de traitement sécurisé avec une distribution client-serveur. Le tout modéré par David Berlind d’InformationWeek.

Débat intéressant où les quatre CIO ont déballé devant une salle comble ou presque, les peurs traditionnelles des gens de Ti devant tout ce qui est Internet 2.0 et plus… Tout y est passé, portabilité des données, propriété des données, confidentialité et surtout SÉCURITÉ. À ce titre, Richard Mickool, CTO de l’université Northeastern, a sorti l’artillerie lourde en posant une question fort pertinente sur la dépendance des entreprises face à leurs «fournisseurs» dans l’éventualité de la délocalisation de son infrastructure informatique. Le fait d’être pris avec un seul fournisseur. Qu’arriverait-il si ce dernier disparaissait ou était vendu ? «I don’t want to be locked in» a-t-il lancé comme un cri du coeur.

À cette inquiétude, les trois compères ont opposé le fait que tous trois tenaient à ce que les entreprises demeurent en contrôle de leurs données et applications et qu’elle puissent avoir le choix de les retirer quand bon leur semble. Le principe de la portabilité, quoi. Les mêmes préoccupations que pour les individus avec leurs données sur le Web social…

Ensuite ce fut le tour de Mary Sobiechowski de poser une autre question que j’attendais depuis le début. Les entreprises pourront-elles compter sur une bande passante suffisante pour leurs besoins croissants, surtout en matière de multimédia ? Je m’attendais à une réponse rapide de Google mais cette dernière n’est jamais venue. En faut, j’ai dû aller poser la question par la suite à Keltner. Ce dernier a confirmé que Google était bien un client d’Internet2 et du PC1 Cable System , qui offre actuellement une possibilité de transit de 240 gigabits/seconde (Gbps) en plus d’avoir été conçu pour atteindre UN Tétrabit/seconde !!! (Tbps). Pas besoin de dire que les entreprises ont là, largement de quoi se rassasier et ce pour bien des années quand on sait que la plupart d’entre elles utilisent rarement plus que 100 mégabits/seconde.

Autre question que j’attendais et qui est finalement venue en fin de débat et de la part d’un participant dans la salle : Les coûts ! Un avantage net pour Google et compagnie. En fait c’est Amazon qui a répondu de la même façon qu’à la conférence Web 2.0 Expo à San Francisco : Un accès à un serveur d’applications pour aussi peu que 10 cents de l’heure. Besoin d’espace de stockage pour vos données (textes, photos, vidéos, etc.) ? Amazon vous offre le principe du «all you can eat» pour 15 cents du Gigabit par mois !».

Bref, beaucoup de mythes et de fausses croyances véhiculés par ceux et celles qui ne tiennent pas à ce que leurs petits royaumes soient démantelés quitte à faire payer une fortune à leur entreprise pour leur maintien. De là, le conservatisme au nom de la sécurité et l’immobilisme au nom de la symphonie en mouvement !

Cloud Computing Entreprise 2.0 Identité numérique OpenSocialWeb Sécurité des données

Mini-crise existentielle Web 2.0 à l’ère du «petaoctet»…

23 juin 2008

Depuis mon retour de Boston et la série de billets que j’ai consacrés à la conférence Enterprise 2.0, je vis ce que l’on pourrait appeler une mini-crise existentielle Web 2.0. Le malaise a suinté tout au long de mes billets et je viens de lire le copain Vincent Berthelot qui, sans le savoir, résume bien le malaise. Son billet est intitulé :« Le Web 2.0 farce à dindon. réseau intelligent ou valorisation du moi ?» Je ne reproduirai pas intégralement ses éléments de réflexion mais vous invite à le lire.

Dans son introduction, Vincent parle d’Andrew Keen, l’auteur de «The Cult of the Amateur», principal détracteur du Web 20 et de son navire amiral Wikipedia. Je vous invite à lire ce que j’ai écrit sur la petite histoire de ce journaliste et ancien propriétaire d’une «start-up» Web 1.0. Plus loin, Vincent traite avec justesse de l’enjeu crucial qui obscurcit actuellement le bleu azur du Web 2.0 : NOS données personnelles. Leur portabilité, leur propriété, leur sécurité. Signe des temps, une bonne part des conférences LeWeb3 à Paris en décembre dernier, celle du Web 2.0 Expo en avril à San Francisco en avril et celle de Boston à la mi-juin ont toutes été le terrain de débats animés et de présentations toujours plus audacieuses sur le sujet.

Parlant d’audace, je vous recommande la plus récente édition du magazine Wired, pas encore disponible sur le site Web !!! Son rédacteur en chef et auteur de la Longue traîne, Chris Anderson y présente son tout dernier essai sur ce qu’il nomme le «Petabyte Age» et l’ordinateur planétaire. Que dire de plus que ce que j’ai rapporté sur l’évènement «An Evening in the Cloud» ? Tout est maintenant question de capacité d’emmagasiner et de transmettre les données, NOS données. Pour ceux qui ne seraient pas familiers avec le terme, un «petabyte» équivaut à 1 125 899 906 842 624 bytes ou octets… Ouf !!! Et se positionnent tous les grands de l’industrie avec des entrepôts de données capables d’emmagasiner plusieurs centaines de petabytes de données : Google, Microsoft. Amazon, Salesforce. Cela fait partie de leur stratégie de «Cloud Computing», justement à l’honneur à Boston.

Ne voulant pas être en reste, IBM, SAP, Sun, Oracle, Open Text et autres investissent le champ du Web 2.0 avec des solutions de plus en plus onéreuses. On s’éloigne du libre et de la gratuité qui avait fait titrer, justement à Wired :«Why $0.00 is the Future of Business». De là les flashes à Boston sur le Web revisité mais une certaine ambivalence puisqu’à San Francisco, on sentait encore le vent du large, du renouveau. De là aussi les interrogations et le souhait contraire de Vincent. Pour lui, vaut-il justement mieux cette commercialisation du Web 2.0 pour casser l’image d’amateurisme qui lui est associé en entreprise et surtout en Ti ?

Bref, pour lire l’ami Vincent :

http://b-r-ent.com/news/le-web-2-0-farce-a-dindon-reseau-intelligent-ou-valorisation-du-moi


Communication interactive Événements Identité numérique OpenSocialWeb Sécurité des données

Rencontres du jeudi : Du ePortfolio à l’Entrenet…

9 mai 2008

Juste un court billet en cette fin de la semaine pour vous relater birèvement mes rencontres d’hier. Tout d’abord Serge Ravet, vice-président à l’ EFQUEL et CEO à l’EIFE. Je rencontrais Serge à la suite de conversations que nous avions eues sur le Web, surtout à la suite de son passage à la Boule de cristal du CRIM. Serge est un fervent «évangélisateur» du ePortfolio.

Pas seulement dans le domaine académique et du eLearning mais en général, ce qui le rapproche de mes réflexions sur les LifeLogs mais aussi sur l’identité numérique et la portabilité des données. Justement, Serge organise, comme moi, de nombreuses conférences internationales sur le ePortfolio et sur l’identité numérique, la plus récente s’étant tenue cette semaine à Montréal.

Cette conférence s’est tenue à l’université Concordia et comme pour l’ACFAS, a regroupé de nombreux universitaires préoccupés par les applications académiques des Lifelogs ou ePortfolios. Tout ce qui concerne les dossiers académiques, la reconnaissance des acquis et la documentation nécessaire à l’emploi (CV etc.). Mais selon Serge, reste de vieux démons à exorciser… Ceux de la peur de la protection des données personnelles. Une peur cultivée par les TI traditionnelles qui érigent une forteresse autour des données et qui encouragent une mentalité d’assiégés.

Bref, Serge sera avec nous à Montréal le 12 novembre lors de la prochaine édition de webcom-Montréal, qui justement consacrera une piste à l’identité numérique, ses avantages et ses dangers… Participera également à cette conférence, un autre spécialiste français des données, nul autre que Daniel Kaplan de la Fondation Internet Nouvelle Génération.

Daniel Kaplan, le deuxième du côté droit de la table de la Yulbouffe

Ce dernier a pris part en début de semaine au congrès annuel de l’ACFAS noù il est intervenu sur «L’EntreNet, ou l’Internet relationnel». À ce sujet, qui d’autre que la copine Isabelle Lopez pour résumer son intervention :

Je vous partage une partie de mes notes. C’est en points de forme, par souci de rapidité. Si vous souhaitez que je développe, faites-m’en part en commentaire et j’en ferai un billet.

  1. La clé de la dynamique du web 2.0, c’est la relation. C’est un outillage de démarche volontariste.
  2. La masse participative semble basculer blogs vers les réseaux sociaux… Peut à peu, on cesse un partage basé sur l’écrit vers un partage multiforme structurant les relations.
  3. Le partage sur Internet devient un univers de pratiques individuelles. L’exposition personnelle n’est pas privée; c’est public, certes, mais sans trop y penser.
  4. L’internaute a le sentiment et l’autorisation de devenir auteur de sa propre vie et d’avoir prise sur des choses plusgrandes que lui, sur des systèmes.
  5. Son exposition personnelle se passe devant un public dont il choisit la taille [et les caractéristiques, puisqu’il choisit aussi le lieu (interprétation libre)].
  6. Cela entraîne une importance du public et de la relation que j’entretiens avec lui. On revendique ses traces.

Bref, je suis mes relations avec les autres.

Isabelle en remet un peu plus loin avec la référence au fait que le Web 2.0 peut mener à une hyper normalisation, une hyperévaluation :

Dans sa présentation, Daniel Kaplan a terminé sa conférence en partageant trois problèmes qui pourraient potentiellement être engendrés par l’émergence du Web participatif.

  1. Normativité participative : l’obligation de s’impliquer.
  2. La possibilité de pouvoir prendre sa place facilement pourrait entraîner une obligation de participer. Mais ce n’est pas tout le monde qui souhaite prendre part dans les conversations ou de remettre en question les leaders d’opinion. Ceux qui ne le font pas vivront une nouvelle forme d’exclusion.

  3. Oubli des spécialistes :
  4. À force de donner la parole aux masses, on risque de ne s’appuyer que sur l’intelligence des foules. Danger : oublier les spécialistes, qui eux aussi ont des éléments à apporter, et cela parce que «ce que disent les foules est nécessairement vrai».

  5. Manque de dispositifs de création :

    La foi dans le Web 2.0 entraîne une augmentation fulgurante de dispositifs, d’évaluation, d’échange, de partage… On assiste donc à un déplacement de la perception de la valeur. Il y a le risque qu’ensuite il y ait un manque dans l’offre de dispositifs pour créer tous ces éléments qu’on échange avec les autres.

Daniel étais donc de passage le lendemain de sa prestation à Québec, invité par l’ami Martin Lessard. Nous en avons profité pour le recevoir dans la cadre d’une Yulbouffe informelle. J’ai promis à Serge et Daniel de les revoir à Paris lors de mon prochain séjour.

Cloud Computing LifeLogs NTIC Sécurité des données Web 3.0

HP ajoute sa pierre à la construction du Web 3.0 : Le memristor

5 mai 2008

Après la résistance, le condensateur et le solénoïde (resistor, capacitor et inductor en anglais), HP vient d’identifier l’identifiable, soit un quatrième composant passif fondamental de l’électronique : le Memristor, une appellation qui est la contraction de Memory Resistor. Ces recherches ont été réalisées par une équipe du laboratoire Information and Quantum Systems Lab d’HP placée sous la direction de Stanley Williams alors, qu’elle travaillait sur l’électronique moléculaire. Elles ont fait l’objet d’une publication dans le magazine scientifique Nature du 30 avril.

Cette découverte intervient 37 ans après que Léon Chua, un ingénieur à l’université de Berkeley en Californie ait postulé, en sa basant sur des raisons de symétrie, l’existence d’un tel composant. Il partait de l’idée qu’un tel composant jouerait un rôle similaire par rapport au flux magnétique et à la charge qu’une résistance par rapport à l’intensité électrique et la tension. En pratique, cela signifie que ce nouveau composant aurait une «mémoire» lui permettant de se rappeler des valeurs du courant après que celui-ci soit passé.

Cette «mémoire» électrique a des répercussions énormes en informatique, comme le note l’auteur de Science Blog : «This scientific advancement could make it possible to develop computer systems that have memories that do not forget, do not need to be booted up, consume far less power and associate information in a manner similar to that of the human brain».

 

Source : ITNews

Comme le mentionne Stanley Williams, la découverte des chercheurs de HP risque de donner un sérieux coup de pouce à Google, Microsoft, Amazon et autres joueurs qui se lancent actuellement dans le Cloud Computing et leurs essentiels méga-centres de serveurs de données.«By providing a mathematical model for the physics of a memristor, HP Labs has made it possible for engineers to develop integrated circuit designs that could dramatically improve the performance and energy efficiency of PCs and data centers».

Vous imaginez les économies réalisées, juste en temps de traitement et de récupération des données après une panne de serveurs ? Actuellement les ordinateurs se servent de leur DRAM pour ce faire (Dynamic Random Access Memory). La DRAM n’est pas capable de se «souvenir» de l’information en cas de panne. Une fois le courant rétabli à l’ordinateur équipé d’une DRAM, un lent et énergivore processus de récupération des données s’accomplit à partir de disques magnétiques. Le «re-boot» traditionnel.

Imaginez alors un ordinateur/serveur qui n’a pas besoin de «re-booter» et qui se souvient de toutes ses données instantanément. Des économies énormes en temps et en énergie qui pourraient bien servir des projets tels que Amazon et ses AWS… Et il y a d’autres applications possibles à cette découverte. Comme l’ordinateur est à même de se souvenir, cela ouvre encore plus grande la porte au Web sémantique avec des systèmes qui se souviennent et associent des séries d’événements ou de faits d’une façon semblable à celle du cerveau humain et ensuite proposent des choix.

On arrive, là encore aux LifeLogs et au système qui pourra gérer et interpréter ces montagnes de données mais aussi offrir les protections nécessaires quant à la sécurité de ces données, comme le mentionne Stanley Williams : «This could substantially improve today’s facial recognition technology, enable security and privacy features that recognize a complex set of biometric features of an authorized person to access personal information, or enable an appliance to learn from experience.»

Bienvenue au Web3.0 !

Cloud Computing Identité numérique Internet2 Sécurité des données

Vous rêvez d’un Internet méga-ultra-rapide ? Internet2 est là ! Mais pas pour vous…

18 avril 2008

Dans un de mes dernier billets, j’ai écrit sur un article paru dans le Times of India et intitulé : «Spinning a new world». Dans cet article non-signé, on parle de l’arrivée d’un nouveau réseau Internet en mesure d’accommoder le nouvel accélérateur de particules de Genève qui entrera en service cette année. La raisonnement est correct. Pour transmettre l’équivalent de 56 millions de CD annuellement, soit une pile de 64km de haut, il faut plus de bande passante que le réseau internet peut en offrir. Pour ce faire, ils notent la création du «Data-Grid» par le CERN. En fait, ce projet réfère à un autre, soit le projet EGEE (voir ci-dessous).

Les rédacteurs du Times on India font référence à la pointe de l’iceberg, L’iceberg au complet, c’est Internet2. Déjà l’armée américaine, les universités et grands centres de recherche mondiaux tels que Cal-Tech et le CERN ainsi que certaines entreprises privées comme Google et Microsoft travaillent avidement et ce, depuis 2003, à mettre sur pied un réseau Internet parallèle hyer-rapide, l’équivalent de ce qu’ils disposaient avant l’arrivée d’Internet , soit ARPANET. Ainsi en 2003, une initiative conjointe CERN et Cal-Tech avait donné un record de vitesse de 5,44 gigabit par seconde (Gbps). C’est à des années-lumière du 100 mégabits par seconde (Mbps) promis pour bientôt par Vidéotron sur l’Internet traditionnel.


Annonce faite en 2003 par le CERN

Depuis, les choses sont allées très vite, c’est le cas de la dire.. Quand on regarde un peu plus loin, on peut voir qu’entre l’Asie et les USA existe le PC1 Cable System et que ce dernier offre actuellement une possibilité de 240 gigabits/seconde (Gbps) et qu’en plus il a été conçu pour atteindre UN Tétrabit/seconde !!! (Tbps). Cette méga-autoroute n’a pas été mise là par hasard. Autant les USA, que le Japon et la Chine ont de grandes ambitions. Ainsi Google et Microsoft sont en train d’installer des méga-usines de serveurs et d’entreposage de données en Oregon

Le complexe de Google à The Dalles

et dans l’état de Washington (sur le chemin du PC1). On vise rien de moins que de révolutionner l’ordinateur ! Le LapTop deviendrait un vulgaire terminal pour accéder à une foule de Services Web. Sceptiques ? Regardez l’offre de Services Web actuelle de Google et demandez-vous pourquoi Bill Gates a laissé sa place à Ray Ozzie… Si vous voulez en savoir plus sur ce facsinant sujet, je vous invite à lire les fantastiques reportages réalisés pour Wired par Georges Gilder et Fred Vogelstein, où ils décrivent ainsi ce que Google et Microsoft sont en train de réaliser et qui est à mon avis très proche du «Operating System» :

«The desktop is dead. Welcome to the «Internet cloud», where massive facilities across the globe
will store all the data you’ll ever use.
»

C’est le nouvel Internet qui sert déjà les grandes institutions. Aux USA, le projet s’appelle clairement Internet2 et propose aux universités et centres de recherche une connexion au réseau Abilene, lui-même connecté à PC1Cable System. En Europe, en avril 2006, le projet EGEE du CERN (Union Européenne) a, pour sa part, été utilisé dans la lutte contre le virus mortel H5N1 de la grippe aviaire. Grâce à l’infrastructure de grille (grid computing) du projet EGEE, six laboratoires en Europe et en Asie ont analysé 300 000 composants de médicaments potentiels pour le traitement de la maladie.

Cette recherche, menée sur 2 000 ordinateurs dans le monde entier avec l’aide d’un logiciel développé au CERN, a permis d’identifier et de classer les composés chimiques les mieux à même d’inhiber l’enzyme N1 du virus. En un mois, la collaboration est parvenue à traiter autant de données qu’un seul ordinateur en 100 ans !!

Toutes choses rendues possibles par DANTE et le réseau Géant2, réseau jumeau d’Abilene aux USA. Et comme pour Internet 1, un des principaux utilisateurs de ce nouvel Internet2 sera l’armée… En fait tous les militaires utilisent déjà les possibilités offertes. Pour vous en convaincre, jetez un coup d’oeil sur le site Horizontal Fusion et sur le billet précédent… Édifiant !

Cloud Computing Identité numérique LifeLogs OpenSocialWeb Sécurité des données Web 3.0

Nicholas Carr à Québec : Google et l’ordinateur planétaire…

10 avril 2008

Intéressante conférence que celle à laquelle j’ai assisté ce matin, au Centre des congrès de Québec, lors du colloque international «Villes, régions et territoires innovants» organisé par le Cefrio et animé par Réal Jacob des HEC. Sur le podium, Nicholas Carr, l’auteur de livre «The Big Switch», un livre qui parle des intentions de Google de créer l’ordinateur planétaire, ce dernier s’alimentant de «l’Info Cloud» généré par des mégacentres de serveurs de données, les «Information Factories» décrites par Georges Gilder dans la revue Wired.

Dans sa présentation de ce matin, Carr a présenté une nouvelle photo du mégacentre de The Dalles en Orégon. La qualité de ma photo de la photo sur l’écran est moyenne mais je la remplace dès que j’accède à la présentation .ppt de la conférence. Les deux compères (Carr et Gilder) se connaissent bien car ils écrivent tous deux pour Wired à propos des nouvelles technologies et ont comme sujet de prédilection : Google.

J’avoue que je partage entièrement leurs propos, surtout après avoir entendu Nicholas, parler ce matin de l’origine de sa fascination pour les velléités hégémonistes de Google. Le principe de base de son bouquin est le suivant. Il fait une analogie entre l’électricité et l’informatique. Aux débuts de l’électrification, la propriété de cette source d’énergie était privée. Elle a graduellement glissé vers des grandes entreprises privées ou sociétés publiques, que les américains nomment les «Utilities». Ici, c’est Hydro-Québec.

Ce sont ces grandes entités qui fournissent maintenant à tous, la source d’énergie essentielle à notre confort et notre développement. Vous le voyez venir ? Même chose pour l’informatique. Elle résidait sur nos postes de travail (client-serveur). Le «Big Switch» c’est la glissade graduelle vers les services Web qui nous sont distribués et pour lesquels nous payons mensuellement. Les ordinateurs personnels sont en train de devenir des terminaux branchés sur des mégas-centres de serveurs de données et/ou applications. De là, la possibilité du «One Laptop Per Child» ou encore du Air mais on va bientôt faire encore plus petit et portable…

Pour l’instant, plusieurs joueurs se font la lutte pour le contrôle de l’information mondiale et donc, de vos données. Un thème que j’ai souvent abordé dont ICI et qui devient de plus en plus sensible : l’identité numérique, le «Digital Divide», la portabilité des données, la sécurité des données, la neutralité du Net, la Charte des droits des utilisateurs, les ePortfolios et les «LifeLogs». Tous des sujets d’actualité et qui découlent de cette lutte que se livrent actuellement Google, Microsoft et aussi Amazon et qui font la manchette.

Ce qui fait moins la manchette, c’est comment ces géants pourront trouver la bande passante nécessaire pour être capables d’alimenter leurs clients. J’ai déjà écrit sur Internet2 , son existence et ses capacités. On sait que Google s’est positionné pour être en mesure de l’intégrer le plus rapidement possible. Pour l’instant, comme du temps d’ARPANET, il est réservé aux militaires, aux universitaires et scientifiques. Le Times of India vient lui aussi d’y faire écho. Et que dire des récents évènements entourant la lutte entre Google et Microsoft pour le contrôle de Yahoo. Encore là, ce n’est pas joué pour Microsoft.

[youtube IfbOyw3CT6A]

Nous vivons des moments déterminants que certains, comme Ray Kurzweil, nomment «The Singularity», un temps dans l’histoire où tout va basculer et faire prendre à l’humanité et la planète une nouvelle direction. Et il y a, comme toujours, les optimistes comme Kurzweil qui s’y préparent comme pour la venue d’extra-terrestres et les autres qui croient que «la Matrice» nous attend derrière cette singularité de l’histoire. Une belle journée à Québec non ?