Parcourir la catégorie

Cloud Computing

Cloud Computing Communication interactive Identité numérique Internet2 LifeLogs Web 3.0

L’avenir du Québec passe-t-il par le numérique ? Réponse : OUI !

8 juillet 2008

J’ai eu la semaine dernière, une conversation passionnante avec René Barsalo, directeur, Stratégie et partenariats de la SAT, Société des Arts technologiques. La conversation a porté sur notre civilisation de plus en plus numérique ou «digitale», sur les données que nous générons quotidiennement et sur l’identité numérique que nous nous bâtissons. Une identité faite de documents Word, PowerPoint, Excel mais aussi d’informations personnelles incluses dans nos profils sur Facebook, LinkedIn et autre sites de «networking social», de photos, de vidéos et de micro-conversations à la SMS, Twitter, Skype ou encore Seesmic. Le tout j’expliquais à René, doit former nos «LifeLogs» ou carnets de vie, la génération évoluée et 4.0 des blogues…

Le projet de LifeLog, MyLifeBits

Pour sa part, René travaille beaucoup à la SAT sur l’arrivée prochaine de la vague audiovisuelle (téléprésence, télémanipulation, espaces branchés, etc.), qui nous fera passer de plus en plus en mode « temps réel » plutôt qu’en mode asynchrone. Il se penche aussi sur les impacts à surveiller : sur nos partenariats, nos carrières, nos traces, notre société. Bref, il pousse notre conception actuelle du Web (2.0) vers une nouvelle, déjà identifiée comme celle du Web 3D mais pose aussi une autre question essentielle, soit celle de la place que nous occupons dans la société réelle et celle que nous occuperons dans la société numérique et de plus en plus virtuelle que se met rapidement en place.

Une place individuelle qu’on nomme «identité numérique» (pensez au ePortfolio de Serge Ravet) mais aussi collective et que nous nommerons comment : Culturello-numérique ? La bataille sur la diversité culturelle revue et corrigée et ayant une portée beaucoup plus vaste car touchant pas seulement le production culturelle traditionnelle mais TOUTE la production culturelle, professionnelle, sociale et personnelle de tous les membres de la société. Et quel poids aura le Québec face à des géants comme les USA, l’Europe et la Chine ? René prétend, avec raison, que le Québec occupe une position stratégique, un créneau que nous pourrions occuper si nous ne dormions pas collectivement au gaz comme c’est la cas présentement.

Géographiquement le Québec occupe, d’une part, une place stratégique pour la transmission de données par fibre optique, Il est sur le chemin le plus court pour relier l’Europe et la Chine, donc en mesure de profiter des retombées potentielles de l’installation d’une autoroute à méga-débit, un peu comme le PC1-Cable (PC pour Pacific Crossing et à 640 Gigabits/seconde) qui relie actuellement le réseau WIDE Internet (Widely Integrated Distributed Environment) au Japon au réseau américain Abilene (Advanced Networking for Learning-edge Research and Education) du projet nommé ambitieusement Internet2.

Le Québec pourrait profiter de ce nouvel Internet qui se met en place aux USA et au Japon, certes mais aussi en Europe avec le Projet DANTE (Delivery of Advanced Network Technology to Europe) et son réseau GÉANT2 mais aussi en Chine avec CERNET2 (China Education and Research Network). À la croisée des chemins numériques et virtuels, le Québec pourrait se tailler une place de choix, tant au point de vue économique, technologique que politique et socio-culturel.

L’urgence pour nos gouvernements locaux est d’investir au plus vite dans les infrastructures du futur et non seulement dans celles du présent. Imaginez seulement ce que le réseau GÉANT2 a pu réaliser pour le CERN (Organisation européenne pour la recherche nucléaire) et le projet EGEE (Réalisation de grilles pour la science en ligne) :

«Au cours du mois d’avril 2006, la Grille a en effet été utilisée dans la lutte contre le virus mortel H5N1 de la grippe aviaire. Grâce à l’infrastructure de grille du projet EGEE, six laboratoires en Europe et en Asie ont analysé 300 000 composants de médicaments potentiels pour le traitement de la maladie. Cette recherche, menée sur 2 000 ordinateurs dans le monde entier avec l’aide d’un logiciel développé au CERN, a permis d’identifier et de classer les composés chimiques les mieux à même d’inhiber l’enzyme N1 du virus. En un mois, la collaboration est parvenue à traiter autant de données qu’un seul ordinateur en 100 ans».

C’est donc l’utilisation en réseau ultra-rapide du potentiel des ordinateurs de la planète, ce que l’on nomme le «Grid Computing» mais ces «grilles« seront bientôt remplacées par un nuage… Le «Cloud Computing», soit la possibilité de transférer dans le nuage Internet, l’ensemble des données et applications de la planète, le sujet de l’heure et dont j’ai traité en détails ICI.

Lors de mon récent passage à San Francisco, pour le conférence Web 2.0 Expo, j’avais relaté l’entrevue entre Tim O’Reilly et Jonathan Schwartz, président et CEO de Sun Microsystems, dont voici un extrait :

«Arrivé avec quelques minutes de retard, je comprends que la conversation va dans les deux sens, que le CEO a parlé avec beaucoup de ferveur de MySQL et que O’Reilly prend beaucoup de place. Il tente d’amener Schwartz sur ses terrains de prédilection soit le «Cloud Computing», et «The Internet as the OS», part dans de longues réflexions alors que Schwartz attend patiemment qu’il lui redonne la parole par une question…

La conversation prend une tournure très intéressante quand Schwartz finit par aborder innocemment le sujet des données et surtout les méga-entrepôts de données. Il lance une des meilleures citations de la conférence :« If the network is the computer, data is the currency»…Et fait surprenant, il ouvre la porte verte… En effet, selon lui, Sun Microsystems se doit d’être «power efficient» dans son offre de serveurs et que la nouvelle gamme ira en ce sens avec comme objectif de couper leur consommation d’électricité du cinquième.

Comme Sun est un des grands fournisseurs de serveurs, ses clients sont les propriétaires des entrepôts de données, les Google, Microsoft et maintenant Amazon et SalesForce. Selon le CEO, ces derniers ne devront pas seulement avoir des serveurs moins gourmands en électricité mais aussi avoir des entrepôts-containers… Et dans cette partie, Sun ne veut pas être uniquement un fournisseur d’infrastructure. Elle veut jouer à armes égales et aussi avoir ses propres entrepôts, lui donnant ainsi un avantage concurrentiel…

Ce qu’il veut dire par entrepôts-containers, c’est que Sun, Google et les autres doivent penser à des entrepôts mobiles, qui peuvent suivre les sources d’énergie. Encore plus intéressant, il en est arrivé à parler des entrepôts situés dans des endroits où on réchauffe les équipements au lieu de les climatiser. De l’antigel au lieu de l’air climatisé… Et aussi en arriver à les automatiser complètement. Un peu comme les postes et les centrales hydroélectriques qui sont opérés à distance… En ce sens, certains joueurs comme Microsoft planifient l’installation d’entrepôts en Sibérie

Vous voyez les opportunités ici, entre autres, pour l’économie québécoise. En effet, le Québec est un pays nordique et théoriquement assez froid. Il a une source inépuisable d’énergie : l’eau. Et il a des infrastructures industrielles à recycler dont des alumineries, idéales pour installer des méga-entrepôts de données puisque déjà équipées de l’infrastructure de transformation électrique. Vous imaginez pour l’économie de Shawinnigan ? Ou de Jonquière, ou de Baie-Comeau ? Le gouvernement et l’entreprise privée devraient comprendre et exploiter ce nouvel atout…

Cela me fait penser à ce qu’écrit Nicholas Carr dans son bouquin «The Big Switch», sur le fait que les compagnies comme Google sont en train de devenir des nouvelles «Utilities». Les précédentes fournissent de l’énergie. Les prochaines fourniront un nouveau service essentiel : l’Internet et nos données. Schwartz et Sun ont bien compris… «Free software and free ideas are the best way to reach the consumers». Une fois atteints et fidélisés, Sun peut se concentrer à faire son $$$ ailleurs soit en devenant un des joueurs majeurs de la «Data War» et aussi en vendant ses serveurs à Google, Amazon, et autres nouvelles «Utilities».

Ce que je ne savais pas alors, c’est que le gouvernement du Québec a justement refusé la permission à Google de venir s’installer au Québec… Il y a des sous-ministres qui pensent plus à ne pas faire de vagues jusqu’à leur retraite plutôt qu’à prendre des risques pour assurer le développement économique et technologique du Québec et ainsi assurer notre compétitivité sur la scène mondiale où se joue actuellement le grand positionnement technologique, la «Data War» dont je parlais…

Et pourtant, le Québec pourrait encore une fois tabler sur ses atouts traditionnels : sa situation géographique et son climat, ses ressources naturelles, plus particulièrement l’eau et l’hydroélectricité mais aussi la créativité de l’ensemble de sa population qui l’a longtemps placé au-devant de l’industrie du numérique, tant dans les entreprises du Web 1.0 avant l’éclatement de la Bulle, que maintenant avec l’industrie du jeu, celle du eCommerce et du Web 2.0 mais aussi du Web 3D avec des initiatives comme le Panoscope 360 de la SAT et de l’UdM, l’unité Métalab ou encore le programme TOT.

Car il faut comprendre, comme se tue à l’expliquer René Barsalo, que le futur du Québec n’est pas dans les technologies du Web 2.0 mais bien dans celles du Web 3.0 ou 3D et de ce que nous ferons des opportunités que nous offrent nouvel Internet et ses réseaux. Avoir sur son territoire, à la fois les meilleurs réseaux et les entrepôts qui feront partie du «Nuage Internet» est essentiel à notre développement en tant que société et il est urgent d’agir !!!

Cloud Computing Entreprise 2.0 Identité numérique OpenSocialWeb Sécurité des données

Mini-crise existentielle Web 2.0 à l’ère du «petaoctet»…

23 juin 2008

Depuis mon retour de Boston et la série de billets que j’ai consacrés à la conférence Enterprise 2.0, je vis ce que l’on pourrait appeler une mini-crise existentielle Web 2.0. Le malaise a suinté tout au long de mes billets et je viens de lire le copain Vincent Berthelot qui, sans le savoir, résume bien le malaise. Son billet est intitulé :« Le Web 2.0 farce à dindon. réseau intelligent ou valorisation du moi ?» Je ne reproduirai pas intégralement ses éléments de réflexion mais vous invite à le lire.

Dans son introduction, Vincent parle d’Andrew Keen, l’auteur de «The Cult of the Amateur», principal détracteur du Web 20 et de son navire amiral Wikipedia. Je vous invite à lire ce que j’ai écrit sur la petite histoire de ce journaliste et ancien propriétaire d’une «start-up» Web 1.0. Plus loin, Vincent traite avec justesse de l’enjeu crucial qui obscurcit actuellement le bleu azur du Web 2.0 : NOS données personnelles. Leur portabilité, leur propriété, leur sécurité. Signe des temps, une bonne part des conférences LeWeb3 à Paris en décembre dernier, celle du Web 2.0 Expo en avril à San Francisco en avril et celle de Boston à la mi-juin ont toutes été le terrain de débats animés et de présentations toujours plus audacieuses sur le sujet.

Parlant d’audace, je vous recommande la plus récente édition du magazine Wired, pas encore disponible sur le site Web !!! Son rédacteur en chef et auteur de la Longue traîne, Chris Anderson y présente son tout dernier essai sur ce qu’il nomme le «Petabyte Age» et l’ordinateur planétaire. Que dire de plus que ce que j’ai rapporté sur l’évènement «An Evening in the Cloud» ? Tout est maintenant question de capacité d’emmagasiner et de transmettre les données, NOS données. Pour ceux qui ne seraient pas familiers avec le terme, un «petabyte» équivaut à 1 125 899 906 842 624 bytes ou octets… Ouf !!! Et se positionnent tous les grands de l’industrie avec des entrepôts de données capables d’emmagasiner plusieurs centaines de petabytes de données : Google, Microsoft. Amazon, Salesforce. Cela fait partie de leur stratégie de «Cloud Computing», justement à l’honneur à Boston.

Ne voulant pas être en reste, IBM, SAP, Sun, Oracle, Open Text et autres investissent le champ du Web 2.0 avec des solutions de plus en plus onéreuses. On s’éloigne du libre et de la gratuité qui avait fait titrer, justement à Wired :«Why $0.00 is the Future of Business». De là les flashes à Boston sur le Web revisité mais une certaine ambivalence puisqu’à San Francisco, on sentait encore le vent du large, du renouveau. De là aussi les interrogations et le souhait contraire de Vincent. Pour lui, vaut-il justement mieux cette commercialisation du Web 2.0 pour casser l’image d’amateurisme qui lui est associé en entreprise et surtout en Ti ?

Bref, pour lire l’ami Vincent :

http://b-r-ent.com/news/le-web-2-0-farce-a-dindon-reseau-intelligent-ou-valorisation-du-moi


Cloud Computing Communication interactive Événements Réalité virtuelle

Rencontres de femmes digitales et soirée au Château Giscours…

5 juin 2008

Je reviens aujourd’hui sur deux rencontres faites lors de mon récent marathon bordelais. Il s’agit de rencontres, comme le dit l’une d’entre elles de «femmes digitales», la première étant, bien entendu, Isabelle Juppé. Au-delà des et de nos blogues et de l’intégration du Web 2.0 en entreprise, notre discussion a porté sur deux sujets qui me passionnent : L’intégration des jeux vidéo dans le cursus scolaire et les entrepôts de données…

Lors de notre rencontre-débat à la librairie Mollat, à Bordeaux, j’avais à peine effleuré le sujet du «Digital Game Base Learning» beaucoup plus important, à mon avis, que la simple utilisation des jeux vidéos par les jeunes et de ce que peuvent faire les parents face à ce phénomène en constante croissance… Au restaurant chez Jean, par la suite, j’ai eu l’occasion d’élaborer sur le sujet et celui des entrepôts de données avec Isabelle mais aussi plusieurs autres femmes digitales-blogueuses.

Depuis ma rencontre avec Marc Prensky à New York, je suis profondément convaincu que les jeux tels que World of Warcraft et tous les «Serious games» à venir sont une partie de la solution au décrochage scolaire chez les garçons et aussi une possible réponse au Québec au fort taux de suicide chez ces derniers.

En fait, l’école, comme les entreprises sont en fracture face à la société numérique qui ne cesse de croître et qui, comme une lame de fond, est en train de tout balayer sur son passage. Surtout la relation de hiérarchie et de pouvoir verticaux qui sont à la base même de notre société occidentale et le ciment de ses institutions.

Cette fracture numérique nous mène tout droit à ce que Ray Kurzweil et d’autres, même chez Microsoft, appellent la singularité technologique, la théorie où l’homme et la machine finissent par se rejoindre… Le cerveau humain, selon Kurzweil, sera entièrement «cartographié» d’ici 2020, ce qui permettra, selon lui, l’apparition des cyborgs et des robots humanoïdes mais aussi d’intégrer au cerveau des connexions synaptiques lui permettant de passer de l’univers réel au virtuel et inversément… D’où l’importance, entre autres, du «Digital Game Base Learning». De la science-fiction, tout cela ? Écoutez plutôt la conférence qu’il a donnée à TED l’an dernier.

[youtube IfbOyw3CT6A&hl]

D’un autre côté, Google travaille sans relâche sur son projet d’ordinateur planétaire. Le but non-avoué : Créer une mémoire unique de l’Humanité, une sorte d’Encyclopedia Galactica, imaginée par Isaac Asimov dans sa série Fondation. Pour que cette mémoire prenne forme, Google, Amazon et Microsoft sont en train de parsemer la planète de méga-centres de serveurs, pour l’entreposage de données.

Et c’est là mon second sujet favori : Les usines d’information ou «Information Factories» telles que définies par Wired. Et justement, ce fut mon second sujet d’entretien avec Isabelle Juppé car dans son livre «La Femme digitale», elle consacre plusieurs paragraphes à la nouvelle bibliothèque d’Alexandrie et à son système de stockage des données basé sur la «petabox», une invention de Brewster Khale d’Internet Archive de San Francisco et capable d’engranger 1,5 petabyte de données, ce qui a permis à la bibliothèque égyptienne de numériser et d’archiver 50 milliards de pages Web.

Impressionnant mais bien peu de choses, désolé, quand comparé aux usines de Google, comme celle de The Dalles en Orégon, qui emmagasinent déjà plusieurs centaines de petabytes de données et qui grossissent quotidiennement de plusieurs térabytes de Gmails, de pages MySpace ou Orkut, de cartes et données Gmaps, de vidéos YouTube, de blogues personnels et autres services Web maintenant offerts aux entreprises.

Imaginez la somme de données qui sera bientôt entreposée dans ces usines de serveurs construites souvent dans d’anciennes alumineries alimentées en énergie par des barrages ou centrales capables de produire plusieurs gigawatts d’électricité. Et toute cette capacité maintenant accessible à tous, vous et moi et pas seulement qu’une bibliothèque (le principe de la Longue Traîne et du Web 2.0) pour un milliardième de cent par byte d’entreposage et quelques 10 sous seulement par gigabit/seconde de bande passante !

C’est donc sur ce sujet que s’est terminée notre rencontre qui risque d’être renouvelée en juillet car Isabelle et son mari, Alain Juppé, maire de Bordeaux, seront au Québec pour les célébrations du 400e anniversaire de la ville de Québec.

Lors de cette soirée fin de marathon, au restaurant Chez Jean, j’ai aussi rencontré deux autres femmes formidables. Décidément, les femmes digitales sont de plus en plus présentes dans mon cercle réel et virtuel d’ami(e)s… Il s’agit d’Isabelle Brezzo (tiens une autre…) et de Florence Gauté. Toutes deux sont à les têtes dirigeantes de l’Association PRIMA, une OBSL qui a pour mission de «faire oublier les souffrances de la maladie et de l’hospitalisation chez les enfants en rompant l’isolement, le temps d’une connexion» et travaille au développement de projets plurimédias pour ces enfants.

Dans l’ordre habituel : Isabelle Brezzo, Didier Honno et Florence Gauté, tous trois de PRIMA

Le temps d’une première rencontre et une autre est fixée pour la veille de mon départ. Je vous reparle donc de leur Soirée de Gala qui aura lieu le 4 juillet prochain. J’aurais bien voulu y assister, surtout que le gala aura lieu au Château Giscours, un des grands crus du Médoc…

Cloud Computing Communication interactive Événements Internet2

Twitter investira-t-il dans de nouveax serveurs et la vague qui vient de l’ouest…

22 mai 2008

C’est la question que je me pose, surtout après avoir lu, merci à Phil Jeudy, les billets sur bub.blicio.us (Brian Solis) et TechCrunch (Michael Arrington) concernant le nouveau financement levé par Om Malik de Twitter, soit 15 millions US $, probablement en provenance de SparkCapital. Les deux parlent des frustrations des utilisateurs ces derniers jours quant à la lenteur et aux ratées de Twitter, parlant même d’exode des utilisateurs… Ils y vont un peu fort.

Mais chose intéressante, c’est que le premier spécule sur l’utilisation que fera Twitter de ces nouveaux fonds, parlant d’achat de nouveaux serveurs pour faire face à ces lenteurs et à la croissance de la demande. Je ne peux pas croire qu’on puisse être aussi naïfs…

Vous vous souvenez de mon récent billet sur Amazon Web Services, où je disais, entre autres : «Ainsi, Amazon vous offre accès à un serveur d’applications pour aussi peu que 10 cents de l’heure. Besoin d’espace de stockage pour vos données (textes, photos, vidéos, etc.) ? Amazon vous offre le principe du «all you can eat» pour 15 cents du Gigabit par mois ! Toutes les «startups» accourent aux portes, n’ayant plus à se soucier de trouver des millions en financement pour les serveurs nécessaires à leur développement. Une révolution profonde est à nos portes… »

Et pas seulement pour l’entreposage de données mais aussi pour l’hébergement applicatif… Ce qui m’amène à ma soirée d’hier, à l’évènement TechnoMontréal, organisé par Pierre Root. Faut savoir, que TechnoMontréal vise à réseauter les gens des TI traditionnels à Montréal. Donc bien des complets-cravates pour l’occasion… À cette occasion, Pierre donnait la parole à Hugo Boutet, président et CEO de Oriso, une entreprise de TI qui vise à offrir aux PME des services virtualisés se voulant comparables à ceux d’Amazon, Google et Microsoft.

J’ai déjà parlé du fossé qui existe dans les entreprises de RP, de Comm. et même de marketing quand vient le temps de saisir le phénomène du Web 2.0 et des «Digital Natives» de Marc Prensky. Eh bien, le fossé est tout aussi grand chez les entreprises de Ti traditionnelles. Avec Jon Husband, j’écoutais Hugo parler du problème de la relève, du nombre décroissant d’inscription en TI au Cégep, du besoin d’intéresser et de fidéliser les employés TI, et de la population vieillissante qui part à la retraite. À chaque point de forme, Jon hochait de tête en entendant Hugo formuler les traditionnels diagnostics et solutions. (Je n’ai pas encore mis la main sur ses «slides» pour vous en décrire le contenu en détail) Cela n’augurait rien de bon quant à la fin de sa présentation…

Hugo venait donc présenter sa proposition aux PME d’utiliser ses services d’hébergement et de maintenance virtuels. Ce dernier espère que les PME qui ne veulent pas investir dans une infrastructure informatique (entreposage de données, hébergement d’applications, connectivité et service de maintenance et de soutien à distance), choisiront son entreprise plutôt que Google ou Amazon, question de proximité de service !!! Depuis quand la proximité entre-elle dans l’équation ?

Quand Amazon offre ses services Web et son entreposage de données, aux prix mentionnés plus tôt, c’est aussi service inclus et avez-vous vu l’Internet planter récemment ? Et Google, et Amazon ? Bonne chance Hugo ! Le marché de la virtualisation, du Cloud Computing et de l’ordinateur planétaire est déjà hors de portée des joueurs locaux, même si Hugo soutient que Oriso est soutenue par Microsoft… À sa place, je me préparerais à me faire acheter par Microsoft et ainsi me faire engloutir par la vague qui vient de l’ouest…

Cloud Computing Communication interactive Internet2 NTIC

Silicon Valley, le Web 2,0, Apple et «All you can eat»…

12 mai 2008

Les médias technos semblent se passer le mot…Il y a quelques mois, Wired et Fast Company faisaient leur Une avec sensiblement la même image et des reportages extensifs sur le phénomène Apple : Comment une société comme Silicon Valley, qui carbure essentiellement aux valeurs de collaboration du Web 2.0, peut-elle engendrer une compagnie (Apple) qui puisse être aussi brillante sur le marché des nouvelles technologies et pourtant, fonctionner organisationnellement comme une compagnie traditionnelle de Wall Street ou de Dallas, basée sur le secret et manipulant ses employés de façon quasi-dictatoriale ? C’est reconnu : Steve Jobs n’est pas un modèle d’ouverture et de bienveillance envers ses employés.

Grâce à l’ami Philippe Martin, j’ai mis la main sur un billet du blogue Peer-to-Peer qui montre très bien le phénomène Apple, une contradiction qui n’est pas la première en ce monde des nouvelles technologies. Combien de geeks, de spécialistes du Web 2.0, de communicateurs interactifs utilisent des MacBooks Pro ou Air, des iPods de toutes les moutures et bien sûr, le iPhone ? Réponse, ils sont légion à ne pas se poser la question sur le processus Apple. C’est bon et ça marche… Même l’ami Loïc LeMeur, le chantre du Web 2.0 ne jure que par Mac…

Une fois de plus, après le cas de Jobs, les médias ont trouvé un caractère hors du commun et hors de Silicon Valley pour faire leur une. Le cas est un peu différent car il met en lumière un être atypique dans le monde californien des nouvelles technologies. Je parle de Jeff Bezos, le fondateur d’Amazon. Son entreprise, comme Microsoft n’est pas en Californie mais à Seattle. Et c’est de cet endroit qu’il se lance actuellement un défi énorme qui le met sous les feux de la rampe.

Le magazine Wired et aussi Condé Nast Portfolio lui consacrent ce mois-ci un titre en une et des reportages de fond et même un poscast sur sa nouvelle stratégie nommée AWS, pour Amazon Web Services. Le but : compétitionner Google et Microsoft dans le domaine du «Software as s Service» ou encore Cloud Computing. Bref comme Sun Microsystems également, tout ce beau monde court après vos données, et vise à Créer un ordinateur planétaire nourri par des méga-centres de stockage de données. Votre «laptop» devient un Webtop… Un terminal branché à un ordinateur planétaire et ces centres d’entreposage de données, tous reliés pas des câbles de fibre noire capables de transiter les données à la vitesse effarante de plus de 14 «Térabits/seconde».

Ce faisant, ces compagnies s’assurent d’être les prochaines utilités publiques du XXI et XXIIe siècle. Pour cela, vous devriez lire le livre Nicholas Carr, intitulé «The Big Switch : Rewiring the Worlf from Edison to Google». Nous sommes tous clients et dépendants de l’électricité. Nous payons tant par mois pour ce service qui est devenu essentiel. Ce que font actuellement Amazon, Google et les autres n’est pas différent. Ainsi, Amazon vous offre accès à un serveur d’applications pour aussi peu que 10 cents de l’heure. Besoin d’espace de stockage pour vos données (textes, photos, vidéos, etc.) ? Amazon vous offre le principe du «all you can eat» pour 15 cents du Gigabit par mois !

Toutes les «startups» accourent aux portes, n’ayant plus à se soucier de trouver des millions en financement pour les serveurs nécessaires à leur développement. Une révolution profonde est à nos portes… Imaginez pour les grosses entreprises, aux «prises» avec une infrastructure Ti qu’ils paient des fortunes en achat, entretient et évolution. Et je ne parle pas du personnel requis pour la faire tourner… Bienvenue dans le monde d‘Internet 2 et du Web 3.0 !!!

Cloud Computing LifeLogs NTIC Sécurité des données Web 3.0

HP ajoute sa pierre à la construction du Web 3.0 : Le memristor

5 mai 2008

Après la résistance, le condensateur et le solénoïde (resistor, capacitor et inductor en anglais), HP vient d’identifier l’identifiable, soit un quatrième composant passif fondamental de l’électronique : le Memristor, une appellation qui est la contraction de Memory Resistor. Ces recherches ont été réalisées par une équipe du laboratoire Information and Quantum Systems Lab d’HP placée sous la direction de Stanley Williams alors, qu’elle travaillait sur l’électronique moléculaire. Elles ont fait l’objet d’une publication dans le magazine scientifique Nature du 30 avril.

Cette découverte intervient 37 ans après que Léon Chua, un ingénieur à l’université de Berkeley en Californie ait postulé, en sa basant sur des raisons de symétrie, l’existence d’un tel composant. Il partait de l’idée qu’un tel composant jouerait un rôle similaire par rapport au flux magnétique et à la charge qu’une résistance par rapport à l’intensité électrique et la tension. En pratique, cela signifie que ce nouveau composant aurait une «mémoire» lui permettant de se rappeler des valeurs du courant après que celui-ci soit passé.

Cette «mémoire» électrique a des répercussions énormes en informatique, comme le note l’auteur de Science Blog : «This scientific advancement could make it possible to develop computer systems that have memories that do not forget, do not need to be booted up, consume far less power and associate information in a manner similar to that of the human brain».

 

Source : ITNews

Comme le mentionne Stanley Williams, la découverte des chercheurs de HP risque de donner un sérieux coup de pouce à Google, Microsoft, Amazon et autres joueurs qui se lancent actuellement dans le Cloud Computing et leurs essentiels méga-centres de serveurs de données.«By providing a mathematical model for the physics of a memristor, HP Labs has made it possible for engineers to develop integrated circuit designs that could dramatically improve the performance and energy efficiency of PCs and data centers».

Vous imaginez les économies réalisées, juste en temps de traitement et de récupération des données après une panne de serveurs ? Actuellement les ordinateurs se servent de leur DRAM pour ce faire (Dynamic Random Access Memory). La DRAM n’est pas capable de se «souvenir» de l’information en cas de panne. Une fois le courant rétabli à l’ordinateur équipé d’une DRAM, un lent et énergivore processus de récupération des données s’accomplit à partir de disques magnétiques. Le «re-boot» traditionnel.

Imaginez alors un ordinateur/serveur qui n’a pas besoin de «re-booter» et qui se souvient de toutes ses données instantanément. Des économies énormes en temps et en énergie qui pourraient bien servir des projets tels que Amazon et ses AWS… Et il y a d’autres applications possibles à cette découverte. Comme l’ordinateur est à même de se souvenir, cela ouvre encore plus grande la porte au Web sémantique avec des systèmes qui se souviennent et associent des séries d’événements ou de faits d’une façon semblable à celle du cerveau humain et ensuite proposent des choix.

On arrive, là encore aux LifeLogs et au système qui pourra gérer et interpréter ces montagnes de données mais aussi offrir les protections nécessaires quant à la sécurité de ces données, comme le mentionne Stanley Williams : «This could substantially improve today’s facial recognition technology, enable security and privacy features that recognize a complex set of biometric features of an authorized person to access personal information, or enable an appliance to learn from experience.»

Bienvenue au Web3.0 !

Cloud Computing Communication interactive Événements

Web 2.0 Expo, jour 3 : Sun Microsystems, le Québec et les entrepôts de données…

26 avril 2008

La dernière journée à la conférence Web 2.0 Expo aura été remplie de surprises… La première, c’est la conversation entre Tim O’Reilly et Jonathan Schwartz, président et CEO de Sun Microsystems. Arrivé avec quelques minutes de retard, je comprends que la conversation va dans les deux sens, que le CEO a parlé avec beaucoup de ferveur de MySQL et que O’Reilly prend beaucoup de place. Il tente d’amener Schwartz sur ses terrains de prédilection soit le «Cloud Supercomputing», et «The Internet as the OS», part dans de longues réflexions alors que Schwartz attend patiemment qu’il lui redonne la parole par une question…

La conversation prend une tournure très intéressante quand Schwartz finit par aborder innocemment le sujet des données et surtout les méga-entrepôts de données. Il lance une des meilleures citations de la conférence :« If the network is the computer, data is the currency»…Et fait surprenant, il ouvre la porte verte… En effet, selon lui, Sun Microsystems se doit d’être «power efficient» dans son offre de serveurs et que la nouvelle gamme ira en ce sens avec comme objectif de couper leur consommation d’électricité du cinquième.

Comme Sun est un des grands fournisseurs de serveurs, ses clients sont les propriétaires des entrepôts de données, les Google, Microsoft et maintenant Amazon. Selon le CEO, ces derniers ne devront pas seulement avoir des serveurs moins gourmands en électricité mais aussi avoir des entrepôts-containers… Et dans cette partie, Sun ne veut pas être uniquement un fournisseur d’infrastructure. Elle veut jouer à armes égales et aussi avoir ses propres entrepôts, lui donnant ainsi un avantage concurrentiel…

Ce qu’il veut dire par entrepôts-containers, c’est que Sun, Google et les autres doivent penser à des entrepôts mobiles, qui peuvent suivre les sources d’énergie. Encore plus intéressant, il en est arrivé à parler des entrepôts situés dans des endroits où on réchauffe les équipements au lieu de les climatiser. De l’antigel au lieu de l’air climatisé… Et aussi en arriver à les automatiser complètement. Un peu comme les postes et les centrales hydroélectriques qui sont opérés à distance… En ce sens, certains joueurs comme Microsoft  planifient l’installation d’entrepôts en Sibérie

Vous voyez les opportunités ici, entre autres, pour l’économie québécoise. En effet, le Québec est un pays nordique et théoriquement assez froid. Il a une source inépuisable d’énergie : l’eau. Et il a des infrastructures industrielles à recycler dont des alumineries, idéales pour installer des méga-entrepôts de données puisque déjà équipées de l’infrastructure de transformation électrique. Vous imaginez pour l’économie de Shawinnigan ? Ou de Jonquière, ou de Baie-Comeau ? Le gouvernement et l’entreprise privée devraient comprendre et exploiter ce nouvel atout…

Cela me fait penser à ce qu’écrit Nicholas Carr dans son bouquin «The Big Switch», sur le fait que les compagnies comme Google sont en train de devenir des nouvelles «Utilities». Les précédentes fournissent de l’énergie. Les prochaines fourniront un nouveau service essentiel : l’Internet et nos données. Schwartz et Sun ont bien compris… «Free software and free ideas are the best way to reach the consumers». Une fois atteints et fidéliser, Sun peut se concentrer à faire son $$$ ailleurs soit en devenant un des joueurs majeurs de la «Data War» et aussi en vendant ses serveurs à Google, Amazon, et autres nouvelles «Utilities».

Cloud Computing Identité numérique Internet2 Sécurité des données

Vous rêvez d’un Internet méga-ultra-rapide ? Internet2 est là ! Mais pas pour vous…

18 avril 2008

Dans un de mes dernier billets, j’ai écrit sur un article paru dans le Times of India et intitulé : «Spinning a new world». Dans cet article non-signé, on parle de l’arrivée d’un nouveau réseau Internet en mesure d’accommoder le nouvel accélérateur de particules de Genève qui entrera en service cette année. La raisonnement est correct. Pour transmettre l’équivalent de 56 millions de CD annuellement, soit une pile de 64km de haut, il faut plus de bande passante que le réseau internet peut en offrir. Pour ce faire, ils notent la création du «Data-Grid» par le CERN. En fait, ce projet réfère à un autre, soit le projet EGEE (voir ci-dessous).

Les rédacteurs du Times on India font référence à la pointe de l’iceberg, L’iceberg au complet, c’est Internet2. Déjà l’armée américaine, les universités et grands centres de recherche mondiaux tels que Cal-Tech et le CERN ainsi que certaines entreprises privées comme Google et Microsoft travaillent avidement et ce, depuis 2003, à mettre sur pied un réseau Internet parallèle hyer-rapide, l’équivalent de ce qu’ils disposaient avant l’arrivée d’Internet , soit ARPANET. Ainsi en 2003, une initiative conjointe CERN et Cal-Tech avait donné un record de vitesse de 5,44 gigabit par seconde (Gbps). C’est à des années-lumière du 100 mégabits par seconde (Mbps) promis pour bientôt par Vidéotron sur l’Internet traditionnel.


Annonce faite en 2003 par le CERN

Depuis, les choses sont allées très vite, c’est le cas de la dire.. Quand on regarde un peu plus loin, on peut voir qu’entre l’Asie et les USA existe le PC1 Cable System et que ce dernier offre actuellement une possibilité de 240 gigabits/seconde (Gbps) et qu’en plus il a été conçu pour atteindre UN Tétrabit/seconde !!! (Tbps). Cette méga-autoroute n’a pas été mise là par hasard. Autant les USA, que le Japon et la Chine ont de grandes ambitions. Ainsi Google et Microsoft sont en train d’installer des méga-usines de serveurs et d’entreposage de données en Oregon

Le complexe de Google à The Dalles

et dans l’état de Washington (sur le chemin du PC1). On vise rien de moins que de révolutionner l’ordinateur ! Le LapTop deviendrait un vulgaire terminal pour accéder à une foule de Services Web. Sceptiques ? Regardez l’offre de Services Web actuelle de Google et demandez-vous pourquoi Bill Gates a laissé sa place à Ray Ozzie… Si vous voulez en savoir plus sur ce facsinant sujet, je vous invite à lire les fantastiques reportages réalisés pour Wired par Georges Gilder et Fred Vogelstein, où ils décrivent ainsi ce que Google et Microsoft sont en train de réaliser et qui est à mon avis très proche du «Operating System» :

«The desktop is dead. Welcome to the «Internet cloud», where massive facilities across the globe
will store all the data you’ll ever use.
»

C’est le nouvel Internet qui sert déjà les grandes institutions. Aux USA, le projet s’appelle clairement Internet2 et propose aux universités et centres de recherche une connexion au réseau Abilene, lui-même connecté à PC1Cable System. En Europe, en avril 2006, le projet EGEE du CERN (Union Européenne) a, pour sa part, été utilisé dans la lutte contre le virus mortel H5N1 de la grippe aviaire. Grâce à l’infrastructure de grille (grid computing) du projet EGEE, six laboratoires en Europe et en Asie ont analysé 300 000 composants de médicaments potentiels pour le traitement de la maladie.

Cette recherche, menée sur 2 000 ordinateurs dans le monde entier avec l’aide d’un logiciel développé au CERN, a permis d’identifier et de classer les composés chimiques les mieux à même d’inhiber l’enzyme N1 du virus. En un mois, la collaboration est parvenue à traiter autant de données qu’un seul ordinateur en 100 ans !!

Toutes choses rendues possibles par DANTE et le réseau Géant2, réseau jumeau d’Abilene aux USA. Et comme pour Internet 1, un des principaux utilisateurs de ce nouvel Internet2 sera l’armée… En fait tous les militaires utilisent déjà les possibilités offertes. Pour vous en convaincre, jetez un coup d’oeil sur le site Horizontal Fusion et sur le billet précédent… Édifiant !

Cloud Computing Identité numérique LifeLogs OpenSocialWeb Sécurité des données Web 3.0

Nicholas Carr à Québec : Google et l’ordinateur planétaire…

10 avril 2008

Intéressante conférence que celle à laquelle j’ai assisté ce matin, au Centre des congrès de Québec, lors du colloque international «Villes, régions et territoires innovants» organisé par le Cefrio et animé par Réal Jacob des HEC. Sur le podium, Nicholas Carr, l’auteur de livre «The Big Switch», un livre qui parle des intentions de Google de créer l’ordinateur planétaire, ce dernier s’alimentant de «l’Info Cloud» généré par des mégacentres de serveurs de données, les «Information Factories» décrites par Georges Gilder dans la revue Wired.

Dans sa présentation de ce matin, Carr a présenté une nouvelle photo du mégacentre de The Dalles en Orégon. La qualité de ma photo de la photo sur l’écran est moyenne mais je la remplace dès que j’accède à la présentation .ppt de la conférence. Les deux compères (Carr et Gilder) se connaissent bien car ils écrivent tous deux pour Wired à propos des nouvelles technologies et ont comme sujet de prédilection : Google.

J’avoue que je partage entièrement leurs propos, surtout après avoir entendu Nicholas, parler ce matin de l’origine de sa fascination pour les velléités hégémonistes de Google. Le principe de base de son bouquin est le suivant. Il fait une analogie entre l’électricité et l’informatique. Aux débuts de l’électrification, la propriété de cette source d’énergie était privée. Elle a graduellement glissé vers des grandes entreprises privées ou sociétés publiques, que les américains nomment les «Utilities». Ici, c’est Hydro-Québec.

Ce sont ces grandes entités qui fournissent maintenant à tous, la source d’énergie essentielle à notre confort et notre développement. Vous le voyez venir ? Même chose pour l’informatique. Elle résidait sur nos postes de travail (client-serveur). Le «Big Switch» c’est la glissade graduelle vers les services Web qui nous sont distribués et pour lesquels nous payons mensuellement. Les ordinateurs personnels sont en train de devenir des terminaux branchés sur des mégas-centres de serveurs de données et/ou applications. De là, la possibilité du «One Laptop Per Child» ou encore du Air mais on va bientôt faire encore plus petit et portable…

Pour l’instant, plusieurs joueurs se font la lutte pour le contrôle de l’information mondiale et donc, de vos données. Un thème que j’ai souvent abordé dont ICI et qui devient de plus en plus sensible : l’identité numérique, le «Digital Divide», la portabilité des données, la sécurité des données, la neutralité du Net, la Charte des droits des utilisateurs, les ePortfolios et les «LifeLogs». Tous des sujets d’actualité et qui découlent de cette lutte que se livrent actuellement Google, Microsoft et aussi Amazon et qui font la manchette.

Ce qui fait moins la manchette, c’est comment ces géants pourront trouver la bande passante nécessaire pour être capables d’alimenter leurs clients. J’ai déjà écrit sur Internet2 , son existence et ses capacités. On sait que Google s’est positionné pour être en mesure de l’intégrer le plus rapidement possible. Pour l’instant, comme du temps d’ARPANET, il est réservé aux militaires, aux universitaires et scientifiques. Le Times of India vient lui aussi d’y faire écho. Et que dire des récents évènements entourant la lutte entre Google et Microsoft pour le contrôle de Yahoo. Encore là, ce n’est pas joué pour Microsoft.

[youtube IfbOyw3CT6A]

Nous vivons des moments déterminants que certains, comme Ray Kurzweil, nomment «The Singularity», un temps dans l’histoire où tout va basculer et faire prendre à l’humanité et la planète une nouvelle direction. Et il y a, comme toujours, les optimistes comme Kurzweil qui s’y préparent comme pour la venue d’extra-terrestres et les autres qui croient que «la Matrice» nous attend derrière cette singularité de l’histoire. Une belle journée à Québec non ?

Cloud Computing Événements LifeLogs OpenSocialWeb

Les déboires d’un blogueur WordPress…et le débat sur les données !

30 mars 2008

La cas m’a été signalé par ma bonne amie et blogueuse Isabelle Lopez. Comme ma plate-forme de blogue est WordPress, que j’aime bien d’ailleurs, elle m’a demandé si j’avais eu vent des déboires de Coolz, un blogueur marketing qui est disparu de la Blogosphère. La raison ? Une mise à jour de version soit-disant forcée de la part de WordPress. ( voir son message d’adieu ci-dessous)

Je ne sais pas si c’est un canular ou une vraie histoire… J’ai fait des recherches dans le blogue et les forums techniques et d’aide aux utilisateurs de WP mais sans rien trouver sur Coolz et ses problèmes.

Sur Google, j’ai bien trouvé des références à son blogue marketing mais en cliquant on obtient Error5000. Donc, il aurait bel et bien existé et disparu…

Alors est-ce bien une perte de données de quatre ans de billets. Vous imaginez ???? Perdre 300 billets par année sur quatre ans ? Et cela pour une erreur technique causée par une mise à jour de version ? Difficile à croire… La chose se saurait et aurait eu plus d’impact dans la Blogosphère

Cet exemple a au moins pour avantage de démontrer la fragilité des données personnelles entreposées sur les plates-formes Web. Qui est à l’abri d’une perte de données ou de fuite de ces dernières. La question de l’intégrité des données personnelles est ainsi posée de nouveau. Que font les plates-formes du Web 2.0 pour assurer leurs membres de l’intégrité de leurs données. Pour Facebook, on le sait, c’est un problème. Mais les autres de LinkedIn à SecondLife en passant par son propre blogue…? Question qui amène à la Charte des droits des utilisateurs et à pertinence du Open Social Initiative, faisant suite à mon billet en fin de conférence à LeWeb3 en décembre dernier.

Cela pose aussi la question de la conception et de l’utilisation des ePortfolios, des LifeLogs et des entrepôts de données de Google. Et si je pousse un peu plus loin, qu’arrive-t-il à la Mémoire d’une entreprise, créée à grands frais et archivée dans un de ces entrepôts de données si jamais, une erreur technologique venait à tout effacer ? Combien de systèmes redondants seront alors disponibles ?

J’ai bien hâte de rencontrer Nicholas Carr à Québec, le 10 avril prochain dans le cadre du colloque international du Cefrio afin d’en discuter avec lui, qui a publié le livre «The Big Switch, Rewiring the World».

Cloud Computing Communication interactive OpenSocialWeb

Yahoo-Microsoft vs Google, une question de survie ???

18 mars 2008

Je republie ici le texte de TechCrunch.fr sur les manoeuvres de Microsoft dans sa guerre de données qui l’oppose à Google. La manoeuvre d’achat est évidente. Microsoft ne va nulle part avec son propre engin de recherche LiveSearch et cherche à prendre le contrôle de Yahoo en vue de compétitionner Google.

Non seulement dans le domaine de la recherche Web mais aussi dans la messagerie (Yahoo-MSN), dans l’entreposage et le traitement de données ( le Cloud Computing et l’alliance Google-IBM vs Microsoft-Yahoo avec Amazon comme Joker )  et finalement pour le contrôle de l’Internet, ce que relève assez justement le blogue Silicon Alley Insider avec un billet incendiaire à l’endroit se Steve Ballmer et Microsoft, billet intitulé :«Why the Yahoo-Microsoft Deal Will Be a Disaster». (La vidéo insérée dans ce billet est cruelle pour SB)

Voici le texte intégral de TechCrunch :

«Google a publié un billet sur la tentative de reprise de Yahoo par Microsoft; qu’il critique ouvertement. David Drummond, Senior Vice Président, Corporate Development chez Google écrit:

...l’attaque de Microsoft sur Yahoo suscite de troublantes questions. Il s’agit plus d’une simple transaction où une société en reprend une autre. Il est question des principes d’Internet: ouverture et innovation.

Est-ce que Microsoft va dorénavant exercer le même type d’influence illégale et inappropriée sur Internet comme elle l’a fait avec les PC ? Internet récompense l’innovation, Microsoft cherche souvent à établir un monopole puis se sert de son emprise sur des nouveaux marchés.

Cette acquisition permettra -t-elle à Microsoft, en plus de ses irrégularités légales, d’étendre ce type de pratiques vers Internet ? De plus, Microsoft+Yahoo équivaut à un nombre incroyable de messages instantanés de comptes emails. A elles deux ces sociétés opèrent les plus gros portails Internet. L’association des deux avec le monopole sur les logiciels PC limitera-t-il la liberté d’accès des consommateurs a d’autres services email, IM ou autres services en ligne ?

Google possède une part de marché démesurée dans le domaine des publicités et des recherches et utilise cette domination pour limiter la possibilité des consommateurs à être répertoriés de façon juste. Google craint-il que Yahoo et Microsoft fassent la même chose avec l’émail et les messageries. Amusant, non ?

Pour être honnête, le deal Microsoft-Yahoo peut soulever quelques questions au sujet de la libre concurrence, mais ces remarques de Google nous rappelle que quelle que soit la force d’une alliance Microsoft/Yahoo, Google reste le poids lourd indiscutable d’Internet.

Mise a jour: La réponse rapide de Microsoft via Brad Smith, conseiller général de Microsoft:

L’alliance Microsoft-Yahoo créera une place de marché plus compétitive en établissant un “numéro deux ‘ de poids dans le domaine des recherches et de la publicité sur Internet.

Aujourd’hui Google domine ce secteur avec prés de 75% de part de marché avec les revenus des recherches dans le monde. Selon différents rapports ,65% aux Etats-unis et 85% en Europe. Microsoft et Yahoo à eux deux ne totalisent que 30% aux Etats-unis et à peine 10% en Europe.

Microsoft souhaite ouverture, innovation et protection de la confidentialité sur Internet. Nous pensons qu’une alliance Microsoft/Yahoo va dans ce sens.

Les chiffres de Smith sont exacts et quoiqu’en dise Google, les régulateurs seront plus préoccupés par la libre concurrence dans le domaine des revenus publicitaires que dans celui des emails.

Le désir d’ouverture de Microsoft fera sourire certains, mais mis à part le domaine des applications de bureau, Microsoft fait preuve d’ouverture pour ce qui est des services en ligne et d’innovation avec notamment Silverlight.

mise à jour:
pas étonnant de voir Google déclarer cela alors qu’en parallèle ils essaient de neutraliser Microsoft et passer un accord avec Yahoo. Google ne peut pas se permettre de racheter Yahoo en revanche ils peuvent aisément lui proposer un accord où ils deviendraient le moteur de recherche Yahoo en garantissant des revenus importants comme ils savent le faire et promettre ainsi à Yahoo de conserver son indépendance.»

Édifiant, non ???? Mais le mot de la fin va à SAI :

«Google has built its entire business around cloud computing. Microsoft is trying to transform its entire business to avoid being killed by cloud computing.  Yahoo or no Yahoo, the history of business (including Microsoft’s) makes it crystal clear who’s the favorite to win this war. »

Cloud Computing Communication interactive Événements LifeLogs NTIC Réalité virtuelle Web 3.0

De Nicholas Carr à Ray Kurzweil : «The Machine is Us» !

15 mars 2008

Le 9 janvier dernier, j’écrivais un billet sur ce blogue où je référais à un article, The Data Wars, paru dans le magazine Wired du mois de janvier 2008. En fait, je relatais le prénomène du «Scraping des données».

Une bonne façon d’introduire le prochain sujet, soit une courte entrevue avec Nicholas Carr, auteur du livre «The Big Switch- Rewiring the world, from Edison to Google».Ce titre dit tout… Sur les intentions de la firme de Mountain View. L’article de Wired est intitulé, lui, «Do you trust Google?» Et la réponse de Carr est sans appel : Non !

Il y parle des méga-entrepôts de données, des ordinateurs personnels qui vont devenir des terminaux, que Eric Schmidt et Google vont finalement réaliser le rêve de Sun Microsystems : «The network IS the computer». Un seul ordinateur mondial relié aux méga-centres de données et qui créent un «data cloud». Et je rajoute VOUS et vos données, «scrapées» et regroupées dans des carnets de vie, les fameux LifeLogs. Ces derniers, accessibles de cet ordinateur unique par des terminaux tout d’abord bien réels mais ensuite…

Le méga-entrepôt de serveurs de Google à The Dalles en Orégon

Et Carr y va de deux phrases terrifiantes :«Welcome to Google Earth. A bunch of bright computer scientists and AI experts in Silicon Valley are not only rewiring our computers, they’re dictating the future terms of our culture» et «We’re transferring our intelligence into the machine and the machine is transferring it’s way of thinking into us».Vous trouvez qu’il va loin ?
[youtube IfbOyw3CT6A&hl]

Voyez plutôt ce qu’en dit Ray Kurzweil dans un exposé donné à la conférence TED… Il se rend jusqu’en 2029 et là, attachez vos tuques!!! Il parle de fusion entre l’humain et les les nano-machines de la disparition de l’ordinateur traditionnel, d’intelligence artificielle, de cerveau aidé par des nano-robots et pouvant passer de l’univers réel aux univers virtuels !!!

Qui est ce monsieur ? Voyez ce qu’en dit Wikipedia… Tout cela pour dire que notre ami Carr, sera parmi nous les 9 et 10 avril prochains. En fait, il sera conférencier à un colloque international du CEFRIO à Québec sur le thème : «Comment favoriser le développement des villes et des régions du Québec ?». Il y parlera de «La révolution Web et le développement de nos sociétés : une histoire qui débute à peine !». Je ne sais pas pour vous mais moi je m’inscris…