Résultats de Recherche :

LifeLogs

Entreprise 2.0 LifeLogs Mémoire d'entreprise Web 3.0 Web sémantique

Le Web en temps réel: nouvel Eldorado ou étape transitoire?

10 août 2009

Plus d’une semaine sans avoir écrit une seule ligne sur mon blogue… Syndrome de la page blanche??? Non, c’est juste une panne d’inspiration… Ce matin, c’est l’ami Christian Joyal, qui m’a «dépanné» sur Twitter. Christian venait de publier ce Tweet: @iamkiai: Betting on the Real-Time Web http://tinyurl.com/kk9a2g

Référence est faite à un article paru dans l’édition Web de BusinessWeek sur un nouveau phénomène qui est en train de monter en puissance, qui est la nouvelle «lubie» de l’ami Laurent Maisonnave et qui se nomme le «Real-Time Web». Laurent en parle comme du nouvel Eldorado du Web alors que John Borthwick, un des investisseurs de Twitter et CEO de betaworks en parle comme du «Next Big Thing». Pas d’accord. Je suis toujours d’avis que le Web 3.0 sera sémantique. Donc, le Real-Time Web est, à mon avis, une étape transitoire, ce que Tim O’Reilly et Dion Hinchcliffe ont identifié comme étant le Web Squared ou Web² . Mais cette étape, à n’en pas douter, est très importante.

Pour les investisseurs Internet tels que Borthwick ou Ron Conway, c’est un marché de plusieurs milliards de dollars au cours des cinq prochaines années. D’ailleurs l’article de BW propose un « slide show » de 59 diapos présentant toutes les compagnies ou « startups » présentant des produits à même de générer le Web en temps réel. Bien sûr, Twitter, TweetDeck, SeesmicDesktop ou FriedFeed, mais aussi Kyte et UStream ou ChartBeat, etc. Pas surprenant que Twitter ait levé récemment un 35 millions $.

It’s all about Data…

Vous connaissez ma lubie pour les données sur le Web…C’est là l’enjeu crucial… Le futur du Web va se jouer sur ces données. Les nôtres et celles des entreprises. Le Web 3.0 ou 4.0 ou sémantique ou autre sera celui qui réussira à faire un tout cohérent de ce que le Web 2.0 et le Web en temps réel ou Web² vont produire dans les prochaines années, soit une masse gigantesque de données. Sir Tim Berners-Lee parle du défi de lier toutes ces données et met de l’avant le W3C SWEO Linking Open Data community project.

De son côté, Google, qui d’autre, a lancé plus tôt cette année, sa nouvelle option Google Squared. Tiens donc… Et c’est la VP Marissa Mayer qui en avait fait l’annonce dans cette vidéo:

Cette même Marissa Mayer que j’avais rencontrée à Paris à la conférence LeWeb08. J’avais ensuite écrit dans mes billets post-conférence :

« Mais voilà qu’en début d’année, madame Mayer en remet une couche et signant sur le blogue de Google un long billet sur le futur de la recherche Web : «The Future of Search», un remarquable travail d’analyse de l’avenir de Google Search. Ce que je retiens, c’est le dernier paragraphe de la conclusion où elle parle de l’engin de recherche idéal et le reproduis ici :

«So what’s our straightforward definition of the ideal search engine? Your best friend with instant access to all the world’s facts and a photographic memory of everything you’ve seen and know. That search engine could tailor answers to you based on your preferences, your existing knowledge and the best available information; it could ask for clarification and present the answers in whatever setting or media worked best. That ideal search engine could have easily and elegantly quenched my withdrawal and fueled my addiction on Saturday. I’m very proud that Google in its first 10 years has changed expectations around information and how quickly and easily it should be able to be retrieved. But I’m even more excited about what Google search can achieve in the future.»

Un engin intuitif et qui peut chercher de lui-même dans des carnets de vie personnels (ou LifeLogs) ou dans des banques de mémoire d’entreprise. Après Microsoft et Twine, Google entrera de plein pied dans le Web sémantique.»

Cet engin intuitif, c’est justement ce que Mme Mayer a présenté avec Google Squared, du moins à son premier stade de développement. Et comme je le disais, il y a d’autres joueurs, ne comptez pas Microsoft pour battu et regardez aussi des illustres inconnus pour le moment comme Twine et Darwin. Et en particulier cette dernière soit Darwin Development Corporation, une startup de Boston avec des ramifications montréalaises, fondée par Thierry Hubert. Les deux premiers paragraphes de leur présentation sur leur site en dit beaucoup :

« We believe that our Emergence Ranking™ of Web events produces a more meaningful result to users over the existing popularity ranking techniques. Our Awareness Engine™ is named DARWIN because it classifies and correlates Web events according to attractors of the chaotic nature of the Web 2.0.

DARWIN embraces the growing and unstructured Web events into a scaleable ecosystem transforming this “chaos” of information into a meaningful and targeted expression for its users and clients.»

Et le Web 3.0 basé en partie sur ces outils de recherche et d’analyse intuitive des données viendra finalement concrétiser en entreprise la dixième et dernière étape de ce que je nomme la Mémoire d’entreprise™. C’est Jon Husband qui m’avait mis sur cette piste il y a quelque temps en disant qu’il est buien beau de vouloir créer une mémoire en entreprise, de bâtir, communiquer, partager, identifier, agréger, récupérer, transmettre, documenter et gérer les savoirs mais il faut, pour faire tout cela, être capable de rechercher et trouver ces savoirs dans des montagnes de données ainsi générées en entreprise.

Pour cela, il faut certes lier les données, mais aussi un cortex virtuel pour faire les corrélations et extraire l’information du chaos de données…

Cloud Computing LifeLogs Web 3.0

Web sémantique, WebOS, SaaS, singularité : le choc du futur ?

17 mars 2009

Je vous ai parlé dans le dernier billet de la montée en puissance de Twitter. Puis-je maintenant vous parler d’un autre TWI, soit de Twine ? Oh, sa croissance n’est pas encore aussi fulgurante mais attendez de voir… Justement, le fondateur  Nova Spivack est un mes nouveaux contacts sur Twiter et c’est lui qui a écrit cette brillante analyse sur ce qui attend Twitter dans les prochains mois. Spivack est un autre p’tit vite et brillant qui a fondé Radar Networks et qui a levé 10 millions $US en capital de risque avant la crise économique.

Selon Michael Copeland auteur d’un reportage dans la défunte revue Business 2.0, cette «start-up» américaine est la plus près de réaliser la vision de Sir Tim Berners-Lee, (qui vient de célébrer le 20e anniversaire de son bébé Web) vision exprimée pour la première fois dans un entretien accordé au Courrier de L’UNESCO en 2000. Le créateur du Web y expliquait simplement :

«J’ai un double rêve pour le Web. D’une part, je le vois devenir un moyen très puissant de coopération entre les êtres humains.(Web 2.0) Et dans un second temps, j’aimerais que ce soit les ordinateurs qui coopèrent. […] Quand mon rêve sera réalisé, le Web sera un univers où la fantaisie de l’être humain et la logique de la machine pourront coexister pour former un mélange idéal et puissant..».

Puis, un an plus tard, dans un article de Scientific American en 200, il parlait d’agents intelligents parcourant le Web et faisant pour nous des réservations de billets d’avion, d’hôtels et de restaurants à partir d’une simple demande ou bien faisant baisser le volume de la télé quand le téléphone sonne… Bienvenue au Web 3.0 !!

Du Web 2.0 au Web 3.0

Bref, Spivack et sa compagnie Radar Networks ont mis en place la technologie nécessaire pour créer, dans un premier temps, un «organisateur personnel de données»… Vous pourrez ainsi accumuler courriels, contacts, photos, vidéos, musique, etc. Tout ce qui est digital, en fait, les transformer en format RDF (Resource Description Framework) et y accéder d’un seul endroit… Vous me voyez venir ??? Non ?

Les LifeLogs… J’ai déjà écrit que Google et surtout Microsoft travaillaient sur la question mais que Radar Networks avait une longueur d’avance, même si Microsoft a commencé à s’y intéresser bien avant avec son projet MyLifeBits, sorti tout droit de l’imagination de Gordon Bell.

Imaginez… Pouvoir emmagasiner toute une vie d’articles, de livres, de cartes, de CD, de lettres, de courriels, de mémos, de rapports, de photos, d’images, de présentations, de films, de bandes vidéos, de DVD, d’émissions télé, de revues de presse, de conférences Power Point, de podcasts, d’enregistrements audio, de conversations téléphoniques, etc. et tout cela emmagasiné et digitalisé dans une base de données unique avec recherche intégrée. Des vrais carnets de vie, qu’elle soit personnelle ou en entreprise. Toute l’expertise capturée au jour le jour, classée et surtout récupérable, les anglais disent «retrievable».

La longueur d’avance de Radar Networks s’est confirmée avec le lancement  de la plate-forme Twine. Cette dernière était d’ailleurs une des finalistes aux Crunchies 2007, dans la catégorie Meilleure innovation technologique. Voici comment Spîvak présente son bébé sur la page d’accueil :

«Twine is a new service that intelligently helps you share, organize and find information with people you trust. Share more productively. In Twine you can safely share information and knowledge, and collaborate around common interests, activities and goals. Twine helps you better leverage and contribute to the collective intelligence of your network. Use Twine to share more productively with friends, colleagues, groups and teams. Get more organized. Twine provides one place to tie everything together: emails, bookmarks, documents, contacts, photos, videos, product info, data records, and more. And, because Twine actually understands the meaning of any information you add in, it helps you organize all your stuff automatically. Finally, you can search and browse everything and everyone you know, about anything, in one convenient place.»

Du Web 3.0 au Web 4.0

Le fondateur positionne clairement sa plate-forme dans le Web sémantique, ce que l’on nomme le Web 3.0 mais, pas fou, il lorgne aussi vers le Web 4.0… Eh oui ! On en parle déjà depuis des années. Du passage aux LifeLogs mais aussi à ce que Spivack nomme le WebOS. Voici d’ailleurs le graphique qu’il a élaboré en 2007 afin de montrer l’évolution de Web d’ici 2030.

Mais son WebOS est déjà à nos portes… Ce que font Zoho, Google et les autres présentement avec les SaaS et le Cloud computing mène directement à cela…Mais donnons-lui le bénéfice du doute car rares étaient ceux à voir ces récentes évolutions dans leur soupe au début de 2007. Le choc du futur, quoi…

Parlant de 2030, c’est autour de cette date que Ray Kurzweil place l’avènement de la «singularité». Pour ma part, j’avais fait un graphique un peu semblable en 2006 mais critiqué par notre mentor et maître des schémas, Michel Cartier. Je l’ai retravaillé depuis et le représente donc sous la forme suivante:

Identité numérique LifeLogs Web 3.0 Web sémantique

Marissa Mayer parle et écrit sur où en sera GoogleSearch dans dix ans

19 janvier 2009

Récemment, je faisais le décompte des cinq meilleures conférences ou entrevues de l’évènement LeWeb08 à Paris. Parmi les cinq, je notais l’entrevue réalisée par Michael Arrington et Loïc LeMeur avec Marissa Mayer, VP Search Products & User Experience chez Google et ce qu’elle avait à dire sur les futurs développements de l’engin de recherche le plus populaire de la planète. Voici cette entrevue :

Live Broadcasting by Ustream

Mais voilà qu’en début d’année, madame Mayer en remet une couche et signant sur le blogue de Google un long billet sur le futur de la recherche Web : «The Future of Search», un remarquable travail d’analyse de l’avenir de Google Search. Ce que je retiens, c’est le dernier paragraphe de la conclusion où elle parle de l’engin de recherche idéal et le reproduis ici :

«So what’s our straightforward definition of the ideal search engine? Your best friend with instant access to all the world’s facts and a photographic memory of everything you’ve seen and know. That search engine could tailor answers to you based on your preferences, your existing knowledge and the best available information; it could ask for clarification and present the answers in whatever setting or media worked best. That ideal search engine could have easily and elegantly quenched my withdrawal and fueled my addiction on Saturday. I’m very proud that Google in its first 10 years has changed expectations around information and how quickly and easily it should be able to be retrieved. But I’m even more excited about what Google search can achieve in the future.»

Un engin intuitif et qui peut chercher de lui-même dans des carnets de vie personnels (ou LifeLogs) ou dans des banques de mémoire d’entreprise. Après Microsoft et Twine, Google entrera de plein pied dans le Web sémantique.

Voici le résultat d’une recherche sur mon nom.

Entre-temps, le géant de Mountain View s’amuse à explorer diverses avenues dont la recherche subjective avec Mechanical Zoo. J’aime bien aussi SearchCube, qui nous fournit les résultats de recherche en cubes 3D d’images.Vpous cliquez sur l’image et avec à droite, tous les détails. Et comme on le remarque sur cette image, le cube peut être retourné dans tous les sens. Une interface de recherche qui promet en photo, vidéo, sites Web… Voici ce qu’on en dit sur le site :

«search-cube is a visual search engine that presents web search results in a unique, three-dimensional cube interface. It shows previews of up to ninety-six websites, videos and images.»

Communication interactive Événements

Ma participation à la conférence LeWeb08

17 novembre 2008

Dans moins d’un mois, je m’envole pour Paris, où je retrouverai, entre autres Patricia Tessier et Bertrand Duperrin afin de bloguer avec d’autres «blogueurs officiels» la conférence LeWeb08, organisée par Loïc et Géraldine LeMeur.

La responsable du groupe de blogueurs et elle-même blogueuse émérite Stephanie Booth, nous a demandé de répondre à un petit questionnaire (en anglais) afin que les membres du groupe en apprennent sur ceux et celles qu’ils ne connaissent pas déjà. Alors, voici ma présentation :

Stephanie sent us an email demanding that we introduce ourselves. First, thanks for inviting us and helping Loic and the rest of the organization make a success of this event, that will be my third. I blogged the event in 2006 and 2007 and remember, in particular the appearance of Nicolas Sarkozy, in 2006 that stirred up controversy and the appearance in 2007 of Hans Rosling and Philippe Starck and that, for very different reasons.

I’m not new to this conference but I’m very excited to meet our little community and live this new experience with you. It will be also the first time that I blog AND micro-blog a conference entirely. So SYS.

**Who I am**

Claude Malaison, quebecois blogger (French speaking Canadian because I live in Montreal that is and because Québec province is still speaking French in a North American sea of English & Spanish speaking communities). I blog on WordPress about the integration of new Web technologies in the enterprise (so called Enterprise 2.0) but also about Semantic Web, Cloud computing , Gaming and LifeLogs.

Here in Montreal I have the nickname «Son Émergence», referring to the name of my blog, EmergenceWeb, name that says it all. I also teach Interactive Communications at the University of Montreal, give conferences around the world on Enterprise 2.0 and organize the international conference called webcom-Montreal. www.webcom-montreal.com. I have my own company since December 2005 after being an Intranet Coordinator for more than 10 years. In my spare time, I work to promote our non-benefit organization Yulbiz.org (www.yulbiz.org) that regroups business bloggers around the world and eat thousands of kilometres on my bike every year.

**Where I blog**

https://www.emergenceweb.com/blog is my main blog.
I regularly also blog on :
http://www.webcom-montreal.com/blog/
http://www.inpowr.com/blogue/

I also micro-blog every day on Twitter
http://twitter.com/Emergent007

**Most exciting this year at LeWeb’08**

The Netvibes Party !…. Seriously, I look forward to many panels, especially on December 10 with : David Glazer, Director of Engineering, Google, Dave Morin, Senior Platform Manager, Facebook, David Recordon, Open Platforms Tech Lead , SixApart and Moderator: Marc Canter – CEO, Broadband Mechanics.

I also look forward on hearing Dr. Brian Cox – The School of Physics and Astronomy, University of Manchester, Marissa Mayer – Google, Vice President, Search Products and User Experience, Joi Ito – CEO, Creative Commons, Robin Good – New Media Innovator, Explorer, Independent Publisher,Master New Media, and Chris Anderson – Curator, TED. I’m also intrigued by the theme of the conference: LOVE and how Loïc and Geraldine will pull this one out.

**Looking forward to meeting**

Like Stephanie says, all of you, and seeing my old friends again. I’m not worried as she is. I arrive in Paris on the 8th and heads back to Montreal on the 14th. So, I have plenty of time to meet YOU and many friends like Fred Cavazza, Bertrand Duperrin, Vincent Berthelot, Éric Blot, Natacha Quester-Séméon & others. I may even have time to organize a Yulbiz-Paris with friend Fred Cavazza, so stay tuned. I also look forward meeting our host and friend Loïc.

**My role**

To blog and micro-blog this conference for our readers here in Quebec and generate hundreds of comments, the proof that what I write about the panels & conferences stirs up interest and passion. This will be the first time that I do both. Micro-blogging will be my way of taking notes for a following in-depth analysis on my blog. So I’m looking forward to this new experience that I’ll share with you all.

**Usual suspects**

http://www.emergenceweb.com
http://twitter.com/Emergent007
http://www.facebook.com/profile.php?id=506649955
http://www.linkedin.com/in/emergence
http://www.viadeo.com/fr/profile/claude.malaison
http://www.flickr.com/photos/emergent007/
http://www.netvibes.com/emergent007#General
http://www.unyk.com/fr/id/10593741
Pseudo Skype : emergenceweb1

Cloud Computing Communication interactive Entreprise 2.0 LifeLogs Web 3.0

Avis aux mauvais augures : Le Web 2.0 n’est pas mort. Il évolue !

27 octobre 2008

Le tout a commencé le 14 octobre par un billet de l’ami Philippe Martin sur la mort du Web 2.0, intitulé :«Le Web 2.0 est mort, vive le Web 2.0 !». Je ne sais pas si c’est la morosité ambiante, la crise financière, la récession annoncée et les coupures de postes dans les startups du Web 2.0 mais on dirait que bien des gens sont rapides sur la gâchette à prédire la fin de Web 2.0 et en particulier de son phénomène le plus connu : les blogues.

L’ami Laurent Maisonnave a été le premier à relever les propos de Paul Boutin dans le magazine Wired d’octobre où ce dernier écrit :« @WiredReader: Kill yr blog. 2004 over. Google won’t find you. Too much cruft from HuffPo, NYT. Commenters are tards. C u on Facebook?», un clin d’oeil à l’utilisation de plus en plus grande de Facebook et Twitter pour communiquer et s’exprimer sur le Web. Pour Boutin, les blogues sont un phénomène de 2004, récupéré par les médias et les entreprises. Les blogues seraient devenus «affaires», impersonnels…

Oui, il y a plus de blogues d’affaires et donc Yulbiz.org mais impersonnels ? Alors là, pas d’accord ! Boutin n’a pas lu «Pourquoi bloguer dans un contexte d’affaires» et n’a pas suivi nos conversations sur la puissance des blogues de niche ou encore les billets de l’amie Michelle Blanc sur la passion et les affaires… Les blogues ont certes évolué depuis 2004 mais ne sont pas un phénomène à la veille de disparaître.

Selon le plus récent recensement de Technorati, il y en a 133 millions. Difficile de sortir du lot selon Boutin mais est-ce le but premier du blogueur que d’être dans les 100 premiers au monde ? Pas du tout…. Ce n’est pas pour cette raison qu’on commence à bloguer et pas pour cette raison qu’on continue. On commence et on continue parce qu’on a envie d’écrire et pas seulement que 140 caractères… On continue parce qu’on se sent un peu coupables de ne pas publier une journée, on continue pour s’exprimer sur les sujets qui nous passionnent, sur les sujets sont les moteurs de notre vie professionnelle. On blogue parce qu’on veut demeurer «à la fine pointe», parce qu’on tient à ce que notre expertise soit visible, reconnue. Qu’elle soit dans les 100 premiers, tant mieux mais ce n’est pas le but !

Et les blogues vont continuer à évoluer. Le micro-blogging à la Twitter fait partie de cette évolution et oui, on peut y retrouver les «pionniers» tels que Calacanis, O’Reilly et Scoble mais cette tendance à la communication instantanée ne fera pas disparaître pour autant le blogue, comme le blogue n’a pas fait disparaître le journal traditionnel. Les blogues, comme les autres médias sociaux ont changé le rapport de pouvoir face à la liberté d’expression. Twitter n’amène rien de neuf de ce côté. Toutes ces formes d’expression écrites sont complémentaires, s’influencent et évoluent dans le fond comme dans la forme…

Et cette évolution passe par la vidéo, les podcasts et les vlogues. «Join the video conversation» dit Seesmic Il s’agit bien de l’appropriation de l’image par tous, comme ce fut le cas de l’écrit. Mais l’image, ce n’est pas que la vidéo : il y a la photo, donc Flickr et autres clones du genre… Et quand on parle ensuite de partager vidéos, photos et texte, on pense alors aux réseaux sociaux, à Facebook, Ning, Flickr lui-même et bien d’autres dont Twine

Twine, c’est le Web sémantique, donc le Web 3.0. À tous les mauvais augures qui annoncent le mort du Web 2.0 : Il n’est pas mort, il évolue ! C’est d’ailleurs ce que notent plusieurs observateurs du Web, dont les rédacteurs de ReadWriteWeb. Ces derniers ont identifié récemment dix tendances lourdes en termes d’évolution :

1. Le Web sémantique
2. L’intelligence artificielle
3. Les mondes virtuels
4. Le mobile
5. «L’Attention Economy»
6. Les sites Web comme services Web
7. La video en ligne / Internet TV
8. Les «Rich Internet Apps»
9. Le Web international
10. La personalisation

À mon avis, ils ne se trompent guère sur les deux premiers et sur le mobile mais oublient la suite logique soit les carnets de vie, ou si vous préférez «LifeLogs», et le «Cloud Computing»  avec ses entrepôts de données.

En terminant, je vous réfère aussi à ce billet, paru sur le blogue de Chris Brogan. Il est de Dennis Howlett et est intitulé «Web 2.0 – Was it ever alive?». Un autre mauvais augure qui dénigre le phénomène et son extension en entreprise, soit l’entreprise 2.0. Lisez ce billet mais surtout, lisez les commentaires de Tim O’Reilly en réponse. Non, le Web 2.0 n’est pas mort. Il évolue !

.

Cloud Computing Communication interactive Entreprise 2.0 Événements LifeLogs

Entreprise 2.0 : IBM veut conserver les données pour des siècles !

26 septembre 2008

Vous connaissez mon intérêt marqué pour le phénomène des LifeLogs ou carnets de vie (voir un de mes premiers billets sur le sujet et la définition de Wikipedia ICI), que je considère être l’avenir des blogues et du micro-blogging. Ces carnets semblent intéresser de plus en plus les grandes entreprises technologiques… Ainsi, après Microsoft, c’est au tour d’IBM de se positionner…

Comment ? En perfectionnant les technologies de conservation et ainsi conserver vos données et celles de l’entreprise 2.0 pour des siècles !…  Ainsi, il y a quelques semaines, plus exactement le 8 septembre dernier, IBM a fait une annonce qui est presque passée inaperçue en Amérique du Nord car faite à Haïfa en Israël. Voici comment débute le communiqué de presse :

«IBM Research today announced an entirely new way to preserve digital information, so it can be read decades after it was created despite future changes in digital formats. Researchers at the lab in Haifa, Israel, are ensuring that digital files — such as photos, movies, music, videos, financial records, health records, manuscripts, and more — will be accessible and readable for decades and possibly even centuries—no matter how the content was created.»

Et si vous avez lu la définition des LifeLogs et mon billet précédent, pas besoin de faire de dessins pour comprendre qu’IBM vient de mettre une pierre importante dans l’édification du concept de carnets de vie mais aussi dans la création de la mémoire de l’entreprise, un autre de mes thèmes favoris.

La Mémoire d’entreprise en dix étapes :

Pourquoi le mémoire, vous direz ? Lisez plutôt ces deux passages du communiqué :

«As the world becomes increasingly digital, we may find ourselves in the “digital Dark Ages » in which business, cultural, and personal assets are in ever greater danger of being lost or rendered unreadable due to changing technologies and standards.»

«A recent study by the Academy of Motion Picture Arts and Sciences revealed that fewer than half of all feature films made before 1950 have survived. And because the annual cost of digital film archiving is more than 10 times greater than that of storing celluloid film, we could be facing classic movie extinction. Today, no media, hardware or software exits that can reasonably assure long-term accessibility of digital assets.»

En annonçant ces nouveaux développements, la multinationale américaine sait très bien que la possibilité de créer des LifeLogs et de les conserver sur une longue période aussi bien pour les individus que pour les entreprises devenues 2.0, va nécessiter de formidables capacités de stockage de données, d’où, bien sûr, les méga-entrepôts de données. Voici un autre passage révélateur du communiqué :

«As the volume of digital information continues to grow and digital formats change from year to year, consumers and companies will be faced with archiving and data retention problems. According to analyst firm IDC, more than 160 exabytes of digital information was created – that’s three million times the information in all the books ever written – in 2006 alone.»

En juin dernier, IBM annonçait à Boston la sortie d’une nouvelle ligne de serveurs 2.0, les iDataPlex Servers, destinés aux entrepôts de données des entreprises 2.0 mais on a appris, fin août dans un autre communiqué de presse repris par le Journal du Net, qu’ils allaient investir plusieurs centaines de millions dans leurs propres entrepôts… Pas seulement dans les serveurs et les entrepôts mais aussi dans le marché du SaaS et du Cloud Computing.

LifeLogs, entrepôts de données, Cloud Computing et mémoire d’entreprise tout se tient et vise à soutenir le marché de l’entreprise 2.0 dont j’ai parlé dans mon billet d’hier… Reste à voir ce que les entreprises feront avec ces données, ce qui soulève les questions de propriété, de sécurité, de portabilité et d’identité numérique, questions de l’heure et qui sont soulevées de plus en plus dans les grandes conférences internationales comme webcom-Montréal ou encore Digital ID World 2008 !

Et vous, ces questions de données et d’identité numérique, ça vous inquiète ou vous stimule ???

Cloud Computing Communication interactive Identité numérique Internet2 LifeLogs Web 3.0

L’avenir du Québec passe-t-il par le numérique ? Réponse : OUI !

8 juillet 2008

J’ai eu la semaine dernière, une conversation passionnante avec René Barsalo, directeur, Stratégie et partenariats de la SAT, Société des Arts technologiques. La conversation a porté sur notre civilisation de plus en plus numérique ou «digitale», sur les données que nous générons quotidiennement et sur l’identité numérique que nous nous bâtissons. Une identité faite de documents Word, PowerPoint, Excel mais aussi d’informations personnelles incluses dans nos profils sur Facebook, LinkedIn et autre sites de «networking social», de photos, de vidéos et de micro-conversations à la SMS, Twitter, Skype ou encore Seesmic. Le tout j’expliquais à René, doit former nos «LifeLogs» ou carnets de vie, la génération évoluée et 4.0 des blogues…

Le projet de LifeLog, MyLifeBits

Pour sa part, René travaille beaucoup à la SAT sur l’arrivée prochaine de la vague audiovisuelle (téléprésence, télémanipulation, espaces branchés, etc.), qui nous fera passer de plus en plus en mode « temps réel » plutôt qu’en mode asynchrone. Il se penche aussi sur les impacts à surveiller : sur nos partenariats, nos carrières, nos traces, notre société. Bref, il pousse notre conception actuelle du Web (2.0) vers une nouvelle, déjà identifiée comme celle du Web 3D mais pose aussi une autre question essentielle, soit celle de la place que nous occupons dans la société réelle et celle que nous occuperons dans la société numérique et de plus en plus virtuelle que se met rapidement en place.

Une place individuelle qu’on nomme «identité numérique» (pensez au ePortfolio de Serge Ravet) mais aussi collective et que nous nommerons comment : Culturello-numérique ? La bataille sur la diversité culturelle revue et corrigée et ayant une portée beaucoup plus vaste car touchant pas seulement le production culturelle traditionnelle mais TOUTE la production culturelle, professionnelle, sociale et personnelle de tous les membres de la société. Et quel poids aura le Québec face à des géants comme les USA, l’Europe et la Chine ? René prétend, avec raison, que le Québec occupe une position stratégique, un créneau que nous pourrions occuper si nous ne dormions pas collectivement au gaz comme c’est la cas présentement.

Géographiquement le Québec occupe, d’une part, une place stratégique pour la transmission de données par fibre optique, Il est sur le chemin le plus court pour relier l’Europe et la Chine, donc en mesure de profiter des retombées potentielles de l’installation d’une autoroute à méga-débit, un peu comme le PC1-Cable (PC pour Pacific Crossing et à 640 Gigabits/seconde) qui relie actuellement le réseau WIDE Internet (Widely Integrated Distributed Environment) au Japon au réseau américain Abilene (Advanced Networking for Learning-edge Research and Education) du projet nommé ambitieusement Internet2.

Le Québec pourrait profiter de ce nouvel Internet qui se met en place aux USA et au Japon, certes mais aussi en Europe avec le Projet DANTE (Delivery of Advanced Network Technology to Europe) et son réseau GÉANT2 mais aussi en Chine avec CERNET2 (China Education and Research Network). À la croisée des chemins numériques et virtuels, le Québec pourrait se tailler une place de choix, tant au point de vue économique, technologique que politique et socio-culturel.

L’urgence pour nos gouvernements locaux est d’investir au plus vite dans les infrastructures du futur et non seulement dans celles du présent. Imaginez seulement ce que le réseau GÉANT2 a pu réaliser pour le CERN (Organisation européenne pour la recherche nucléaire) et le projet EGEE (Réalisation de grilles pour la science en ligne) :

«Au cours du mois d’avril 2006, la Grille a en effet été utilisée dans la lutte contre le virus mortel H5N1 de la grippe aviaire. Grâce à l’infrastructure de grille du projet EGEE, six laboratoires en Europe et en Asie ont analysé 300 000 composants de médicaments potentiels pour le traitement de la maladie. Cette recherche, menée sur 2 000 ordinateurs dans le monde entier avec l’aide d’un logiciel développé au CERN, a permis d’identifier et de classer les composés chimiques les mieux à même d’inhiber l’enzyme N1 du virus. En un mois, la collaboration est parvenue à traiter autant de données qu’un seul ordinateur en 100 ans».

C’est donc l’utilisation en réseau ultra-rapide du potentiel des ordinateurs de la planète, ce que l’on nomme le «Grid Computing» mais ces «grilles« seront bientôt remplacées par un nuage… Le «Cloud Computing», soit la possibilité de transférer dans le nuage Internet, l’ensemble des données et applications de la planète, le sujet de l’heure et dont j’ai traité en détails ICI.

Lors de mon récent passage à San Francisco, pour le conférence Web 2.0 Expo, j’avais relaté l’entrevue entre Tim O’Reilly et Jonathan Schwartz, président et CEO de Sun Microsystems, dont voici un extrait :

«Arrivé avec quelques minutes de retard, je comprends que la conversation va dans les deux sens, que le CEO a parlé avec beaucoup de ferveur de MySQL et que O’Reilly prend beaucoup de place. Il tente d’amener Schwartz sur ses terrains de prédilection soit le «Cloud Computing», et «The Internet as the OS», part dans de longues réflexions alors que Schwartz attend patiemment qu’il lui redonne la parole par une question…

La conversation prend une tournure très intéressante quand Schwartz finit par aborder innocemment le sujet des données et surtout les méga-entrepôts de données. Il lance une des meilleures citations de la conférence :« If the network is the computer, data is the currency»…Et fait surprenant, il ouvre la porte verte… En effet, selon lui, Sun Microsystems se doit d’être «power efficient» dans son offre de serveurs et que la nouvelle gamme ira en ce sens avec comme objectif de couper leur consommation d’électricité du cinquième.

Comme Sun est un des grands fournisseurs de serveurs, ses clients sont les propriétaires des entrepôts de données, les Google, Microsoft et maintenant Amazon et SalesForce. Selon le CEO, ces derniers ne devront pas seulement avoir des serveurs moins gourmands en électricité mais aussi avoir des entrepôts-containers… Et dans cette partie, Sun ne veut pas être uniquement un fournisseur d’infrastructure. Elle veut jouer à armes égales et aussi avoir ses propres entrepôts, lui donnant ainsi un avantage concurrentiel…

Ce qu’il veut dire par entrepôts-containers, c’est que Sun, Google et les autres doivent penser à des entrepôts mobiles, qui peuvent suivre les sources d’énergie. Encore plus intéressant, il en est arrivé à parler des entrepôts situés dans des endroits où on réchauffe les équipements au lieu de les climatiser. De l’antigel au lieu de l’air climatisé… Et aussi en arriver à les automatiser complètement. Un peu comme les postes et les centrales hydroélectriques qui sont opérés à distance… En ce sens, certains joueurs comme Microsoft planifient l’installation d’entrepôts en Sibérie

Vous voyez les opportunités ici, entre autres, pour l’économie québécoise. En effet, le Québec est un pays nordique et théoriquement assez froid. Il a une source inépuisable d’énergie : l’eau. Et il a des infrastructures industrielles à recycler dont des alumineries, idéales pour installer des méga-entrepôts de données puisque déjà équipées de l’infrastructure de transformation électrique. Vous imaginez pour l’économie de Shawinnigan ? Ou de Jonquière, ou de Baie-Comeau ? Le gouvernement et l’entreprise privée devraient comprendre et exploiter ce nouvel atout…

Cela me fait penser à ce qu’écrit Nicholas Carr dans son bouquin «The Big Switch», sur le fait que les compagnies comme Google sont en train de devenir des nouvelles «Utilities». Les précédentes fournissent de l’énergie. Les prochaines fourniront un nouveau service essentiel : l’Internet et nos données. Schwartz et Sun ont bien compris… «Free software and free ideas are the best way to reach the consumers». Une fois atteints et fidélisés, Sun peut se concentrer à faire son $$$ ailleurs soit en devenant un des joueurs majeurs de la «Data War» et aussi en vendant ses serveurs à Google, Amazon, et autres nouvelles «Utilities».

Ce que je ne savais pas alors, c’est que le gouvernement du Québec a justement refusé la permission à Google de venir s’installer au Québec… Il y a des sous-ministres qui pensent plus à ne pas faire de vagues jusqu’à leur retraite plutôt qu’à prendre des risques pour assurer le développement économique et technologique du Québec et ainsi assurer notre compétitivité sur la scène mondiale où se joue actuellement le grand positionnement technologique, la «Data War» dont je parlais…

Et pourtant, le Québec pourrait encore une fois tabler sur ses atouts traditionnels : sa situation géographique et son climat, ses ressources naturelles, plus particulièrement l’eau et l’hydroélectricité mais aussi la créativité de l’ensemble de sa population qui l’a longtemps placé au-devant de l’industrie du numérique, tant dans les entreprises du Web 1.0 avant l’éclatement de la Bulle, que maintenant avec l’industrie du jeu, celle du eCommerce et du Web 2.0 mais aussi du Web 3D avec des initiatives comme le Panoscope 360 de la SAT et de l’UdM, l’unité Métalab ou encore le programme TOT.

Car il faut comprendre, comme se tue à l’expliquer René Barsalo, que le futur du Québec n’est pas dans les technologies du Web 2.0 mais bien dans celles du Web 3.0 ou 3D et de ce que nous ferons des opportunités que nous offrent nouvel Internet et ses réseaux. Avoir sur son territoire, à la fois les meilleurs réseaux et les entrepôts qui feront partie du «Nuage Internet» est essentiel à notre développement en tant que société et il est urgent d’agir !!!

Communication interactive Événements Identité numérique OpenSocialWeb Sécurité des données

Rencontres du jeudi : Du ePortfolio à l’Entrenet…

9 mai 2008

Juste un court billet en cette fin de la semaine pour vous relater birèvement mes rencontres d’hier. Tout d’abord Serge Ravet, vice-président à l’ EFQUEL et CEO à l’EIFE. Je rencontrais Serge à la suite de conversations que nous avions eues sur le Web, surtout à la suite de son passage à la Boule de cristal du CRIM. Serge est un fervent «évangélisateur» du ePortfolio.

Pas seulement dans le domaine académique et du eLearning mais en général, ce qui le rapproche de mes réflexions sur les LifeLogs mais aussi sur l’identité numérique et la portabilité des données. Justement, Serge organise, comme moi, de nombreuses conférences internationales sur le ePortfolio et sur l’identité numérique, la plus récente s’étant tenue cette semaine à Montréal.

Cette conférence s’est tenue à l’université Concordia et comme pour l’ACFAS, a regroupé de nombreux universitaires préoccupés par les applications académiques des Lifelogs ou ePortfolios. Tout ce qui concerne les dossiers académiques, la reconnaissance des acquis et la documentation nécessaire à l’emploi (CV etc.). Mais selon Serge, reste de vieux démons à exorciser… Ceux de la peur de la protection des données personnelles. Une peur cultivée par les TI traditionnelles qui érigent une forteresse autour des données et qui encouragent une mentalité d’assiégés.

Bref, Serge sera avec nous à Montréal le 12 novembre lors de la prochaine édition de webcom-Montréal, qui justement consacrera une piste à l’identité numérique, ses avantages et ses dangers… Participera également à cette conférence, un autre spécialiste français des données, nul autre que Daniel Kaplan de la Fondation Internet Nouvelle Génération.

Daniel Kaplan, le deuxième du côté droit de la table de la Yulbouffe

Ce dernier a pris part en début de semaine au congrès annuel de l’ACFAS noù il est intervenu sur «L’EntreNet, ou l’Internet relationnel». À ce sujet, qui d’autre que la copine Isabelle Lopez pour résumer son intervention :

Je vous partage une partie de mes notes. C’est en points de forme, par souci de rapidité. Si vous souhaitez que je développe, faites-m’en part en commentaire et j’en ferai un billet.

  1. La clé de la dynamique du web 2.0, c’est la relation. C’est un outillage de démarche volontariste.
  2. La masse participative semble basculer blogs vers les réseaux sociaux… Peut à peu, on cesse un partage basé sur l’écrit vers un partage multiforme structurant les relations.
  3. Le partage sur Internet devient un univers de pratiques individuelles. L’exposition personnelle n’est pas privée; c’est public, certes, mais sans trop y penser.
  4. L’internaute a le sentiment et l’autorisation de devenir auteur de sa propre vie et d’avoir prise sur des choses plusgrandes que lui, sur des systèmes.
  5. Son exposition personnelle se passe devant un public dont il choisit la taille [et les caractéristiques, puisqu’il choisit aussi le lieu (interprétation libre)].
  6. Cela entraîne une importance du public et de la relation que j’entretiens avec lui. On revendique ses traces.

Bref, je suis mes relations avec les autres.

Isabelle en remet un peu plus loin avec la référence au fait que le Web 2.0 peut mener à une hyper normalisation, une hyperévaluation :

Dans sa présentation, Daniel Kaplan a terminé sa conférence en partageant trois problèmes qui pourraient potentiellement être engendrés par l’émergence du Web participatif.

  1. Normativité participative : l’obligation de s’impliquer.
  2. La possibilité de pouvoir prendre sa place facilement pourrait entraîner une obligation de participer. Mais ce n’est pas tout le monde qui souhaite prendre part dans les conversations ou de remettre en question les leaders d’opinion. Ceux qui ne le font pas vivront une nouvelle forme d’exclusion.

  3. Oubli des spécialistes :
  4. À force de donner la parole aux masses, on risque de ne s’appuyer que sur l’intelligence des foules. Danger : oublier les spécialistes, qui eux aussi ont des éléments à apporter, et cela parce que «ce que disent les foules est nécessairement vrai».

  5. Manque de dispositifs de création :

    La foi dans le Web 2.0 entraîne une augmentation fulgurante de dispositifs, d’évaluation, d’échange, de partage… On assiste donc à un déplacement de la perception de la valeur. Il y a le risque qu’ensuite il y ait un manque dans l’offre de dispositifs pour créer tous ces éléments qu’on échange avec les autres.

Daniel étais donc de passage le lendemain de sa prestation à Québec, invité par l’ami Martin Lessard. Nous en avons profité pour le recevoir dans la cadre d’une Yulbouffe informelle. J’ai promis à Serge et Daniel de les revoir à Paris lors de mon prochain séjour.

Cloud Computing LifeLogs NTIC Sécurité des données Web 3.0

HP ajoute sa pierre à la construction du Web 3.0 : Le memristor

5 mai 2008

Après la résistance, le condensateur et le solénoïde (resistor, capacitor et inductor en anglais), HP vient d’identifier l’identifiable, soit un quatrième composant passif fondamental de l’électronique : le Memristor, une appellation qui est la contraction de Memory Resistor. Ces recherches ont été réalisées par une équipe du laboratoire Information and Quantum Systems Lab d’HP placée sous la direction de Stanley Williams alors, qu’elle travaillait sur l’électronique moléculaire. Elles ont fait l’objet d’une publication dans le magazine scientifique Nature du 30 avril.

Cette découverte intervient 37 ans après que Léon Chua, un ingénieur à l’université de Berkeley en Californie ait postulé, en sa basant sur des raisons de symétrie, l’existence d’un tel composant. Il partait de l’idée qu’un tel composant jouerait un rôle similaire par rapport au flux magnétique et à la charge qu’une résistance par rapport à l’intensité électrique et la tension. En pratique, cela signifie que ce nouveau composant aurait une «mémoire» lui permettant de se rappeler des valeurs du courant après que celui-ci soit passé.

Cette «mémoire» électrique a des répercussions énormes en informatique, comme le note l’auteur de Science Blog : «This scientific advancement could make it possible to develop computer systems that have memories that do not forget, do not need to be booted up, consume far less power and associate information in a manner similar to that of the human brain».

 

Source : ITNews

Comme le mentionne Stanley Williams, la découverte des chercheurs de HP risque de donner un sérieux coup de pouce à Google, Microsoft, Amazon et autres joueurs qui se lancent actuellement dans le Cloud Computing et leurs essentiels méga-centres de serveurs de données.«By providing a mathematical model for the physics of a memristor, HP Labs has made it possible for engineers to develop integrated circuit designs that could dramatically improve the performance and energy efficiency of PCs and data centers».

Vous imaginez les économies réalisées, juste en temps de traitement et de récupération des données après une panne de serveurs ? Actuellement les ordinateurs se servent de leur DRAM pour ce faire (Dynamic Random Access Memory). La DRAM n’est pas capable de se «souvenir» de l’information en cas de panne. Une fois le courant rétabli à l’ordinateur équipé d’une DRAM, un lent et énergivore processus de récupération des données s’accomplit à partir de disques magnétiques. Le «re-boot» traditionnel.

Imaginez alors un ordinateur/serveur qui n’a pas besoin de «re-booter» et qui se souvient de toutes ses données instantanément. Des économies énormes en temps et en énergie qui pourraient bien servir des projets tels que Amazon et ses AWS… Et il y a d’autres applications possibles à cette découverte. Comme l’ordinateur est à même de se souvenir, cela ouvre encore plus grande la porte au Web sémantique avec des systèmes qui se souviennent et associent des séries d’événements ou de faits d’une façon semblable à celle du cerveau humain et ensuite proposent des choix.

On arrive, là encore aux LifeLogs et au système qui pourra gérer et interpréter ces montagnes de données mais aussi offrir les protections nécessaires quant à la sécurité de ces données, comme le mentionne Stanley Williams : «This could substantially improve today’s facial recognition technology, enable security and privacy features that recognize a complex set of biometric features of an authorized person to access personal information, or enable an appliance to learn from experience.»

Bienvenue au Web3.0 !

Communication interactive Événements LifeLogs OpenSocialWeb

Dieu le Père, les VC et le party…(2)

24 avril 2008

Après Dieu le père, est venu son fils… En la personne de Max Levchin, la nouvelle star de Silicon Valley dont je vous ai parlé hier. Interrogé par Charlene Li, VP chez Forrester, le créateur de Slide était un peu décalé. dans ses propos mais s’en est excusé en disant qu’il était effectivement en décalage horaire arrivant tout juste du Japon bref, voici ce que j’ai trouvé d’intéressant.

Levchin en est à sa sixième application développée en faisant office de «Startup». Les quatre premières ont été des flops, la cinquième fut PayPal et la sixième Slide. Cette application est distribuée chez des plates-formes «hôtesses», telles que MySpace, Orkut, Friendster et Facebook et compte à ce jour, 170 millions d’utilisateurs. Avec de pareils chiffres, il vient de conclure un financement de 50 millions$, ce qui porte sa capitalisation à un demi-milliard$.

Il a aussi touché mais clairement se positionner des sujets chauds comme la vie privée, le modèle de revenus et le social spam, a évité de répondre à la question sur ce qu’il aimait le plus et le moins de son application et a été très embarrassé quand Charlene Li lui a demandé comment il se sentait de faire les premières pages des revues, dont celle de Condé Nast Portfolio.

Un vrai développeur geek, toujours nerveux avec des tics, qui ne regarde jamais dans les yeux. Il a fini par dire que la photo sur portfolio était bien réelle et pas retouchée par Photoshop… En terminant, et pour répondre à la question s’il avait un conseil à donner, il a été très américain mais citant un anglais, soit Winston Churchill : «Never surrender».

Se sont ensuite succédés sur la scène plusieurs autres conférenciers, dont Amit Mital , le monsieur «Live» de chez Microsoft, qui est venu faire son pitch de vente sur leur nouvelle solution Live Mesh, une plate-forme qui a l’ambition de vouloir synchroniser tous nos «devices» technologiques, de l’appareil photo, à la caméra, à l’ordinateur, au téléphone portable, à la télé, au iPod, etc. Le tout relié à un fichier central qui cumule les données. Ensuite, une «Mesh Bar» qui vous permet de partager et collaborer avec votre communauté. Et pour lui, ce n’est que la pointe de l’iceberg car Mesh data-personnes-applications n’est pas qu’une simple plate-forme Microsoft. S’adressant à des développeurs il jubile et lance :«Elle est en accès ouvert aux API». Pour en savoir plus, il faudra aller à la présentation au kiosque de Microsoft aujourd’hui mais à première vue, cela ressemble beaucoup à la première offensive du géant de Redmond sur le front des LifeLogs.

Cloud Computing Identité numérique LifeLogs OpenSocialWeb Sécurité des données Web 3.0

Nicholas Carr à Québec : Google et l’ordinateur planétaire…

10 avril 2008

Intéressante conférence que celle à laquelle j’ai assisté ce matin, au Centre des congrès de Québec, lors du colloque international «Villes, régions et territoires innovants» organisé par le Cefrio et animé par Réal Jacob des HEC. Sur le podium, Nicholas Carr, l’auteur de livre «The Big Switch», un livre qui parle des intentions de Google de créer l’ordinateur planétaire, ce dernier s’alimentant de «l’Info Cloud» généré par des mégacentres de serveurs de données, les «Information Factories» décrites par Georges Gilder dans la revue Wired.

Dans sa présentation de ce matin, Carr a présenté une nouvelle photo du mégacentre de The Dalles en Orégon. La qualité de ma photo de la photo sur l’écran est moyenne mais je la remplace dès que j’accède à la présentation .ppt de la conférence. Les deux compères (Carr et Gilder) se connaissent bien car ils écrivent tous deux pour Wired à propos des nouvelles technologies et ont comme sujet de prédilection : Google.

J’avoue que je partage entièrement leurs propos, surtout après avoir entendu Nicholas, parler ce matin de l’origine de sa fascination pour les velléités hégémonistes de Google. Le principe de base de son bouquin est le suivant. Il fait une analogie entre l’électricité et l’informatique. Aux débuts de l’électrification, la propriété de cette source d’énergie était privée. Elle a graduellement glissé vers des grandes entreprises privées ou sociétés publiques, que les américains nomment les «Utilities». Ici, c’est Hydro-Québec.

Ce sont ces grandes entités qui fournissent maintenant à tous, la source d’énergie essentielle à notre confort et notre développement. Vous le voyez venir ? Même chose pour l’informatique. Elle résidait sur nos postes de travail (client-serveur). Le «Big Switch» c’est la glissade graduelle vers les services Web qui nous sont distribués et pour lesquels nous payons mensuellement. Les ordinateurs personnels sont en train de devenir des terminaux branchés sur des mégas-centres de serveurs de données et/ou applications. De là, la possibilité du «One Laptop Per Child» ou encore du Air mais on va bientôt faire encore plus petit et portable…

Pour l’instant, plusieurs joueurs se font la lutte pour le contrôle de l’information mondiale et donc, de vos données. Un thème que j’ai souvent abordé dont ICI et qui devient de plus en plus sensible : l’identité numérique, le «Digital Divide», la portabilité des données, la sécurité des données, la neutralité du Net, la Charte des droits des utilisateurs, les ePortfolios et les «LifeLogs». Tous des sujets d’actualité et qui découlent de cette lutte que se livrent actuellement Google, Microsoft et aussi Amazon et qui font la manchette.

Ce qui fait moins la manchette, c’est comment ces géants pourront trouver la bande passante nécessaire pour être capables d’alimenter leurs clients. J’ai déjà écrit sur Internet2 , son existence et ses capacités. On sait que Google s’est positionné pour être en mesure de l’intégrer le plus rapidement possible. Pour l’instant, comme du temps d’ARPANET, il est réservé aux militaires, aux universitaires et scientifiques. Le Times of India vient lui aussi d’y faire écho. Et que dire des récents évènements entourant la lutte entre Google et Microsoft pour le contrôle de Yahoo. Encore là, ce n’est pas joué pour Microsoft.

[youtube IfbOyw3CT6A]

Nous vivons des moments déterminants que certains, comme Ray Kurzweil, nomment «The Singularity», un temps dans l’histoire où tout va basculer et faire prendre à l’humanité et la planète une nouvelle direction. Et il y a, comme toujours, les optimistes comme Kurzweil qui s’y préparent comme pour la venue d’extra-terrestres et les autres qui croient que «la Matrice» nous attend derrière cette singularité de l’histoire. Une belle journée à Québec non ?

Cloud Computing Événements LifeLogs OpenSocialWeb

Les déboires d’un blogueur WordPress…et le débat sur les données !

30 mars 2008

La cas m’a été signalé par ma bonne amie et blogueuse Isabelle Lopez. Comme ma plate-forme de blogue est WordPress, que j’aime bien d’ailleurs, elle m’a demandé si j’avais eu vent des déboires de Coolz, un blogueur marketing qui est disparu de la Blogosphère. La raison ? Une mise à jour de version soit-disant forcée de la part de WordPress. ( voir son message d’adieu ci-dessous)

Je ne sais pas si c’est un canular ou une vraie histoire… J’ai fait des recherches dans le blogue et les forums techniques et d’aide aux utilisateurs de WP mais sans rien trouver sur Coolz et ses problèmes.

Sur Google, j’ai bien trouvé des références à son blogue marketing mais en cliquant on obtient Error5000. Donc, il aurait bel et bien existé et disparu…

Alors est-ce bien une perte de données de quatre ans de billets. Vous imaginez ???? Perdre 300 billets par année sur quatre ans ? Et cela pour une erreur technique causée par une mise à jour de version ? Difficile à croire… La chose se saurait et aurait eu plus d’impact dans la Blogosphère

Cet exemple a au moins pour avantage de démontrer la fragilité des données personnelles entreposées sur les plates-formes Web. Qui est à l’abri d’une perte de données ou de fuite de ces dernières. La question de l’intégrité des données personnelles est ainsi posée de nouveau. Que font les plates-formes du Web 2.0 pour assurer leurs membres de l’intégrité de leurs données. Pour Facebook, on le sait, c’est un problème. Mais les autres de LinkedIn à SecondLife en passant par son propre blogue…? Question qui amène à la Charte des droits des utilisateurs et à pertinence du Open Social Initiative, faisant suite à mon billet en fin de conférence à LeWeb3 en décembre dernier.

Cela pose aussi la question de la conception et de l’utilisation des ePortfolios, des LifeLogs et des entrepôts de données de Google. Et si je pousse un peu plus loin, qu’arrive-t-il à la Mémoire d’une entreprise, créée à grands frais et archivée dans un de ces entrepôts de données si jamais, une erreur technologique venait à tout effacer ? Combien de systèmes redondants seront alors disponibles ?

J’ai bien hâte de rencontrer Nicholas Carr à Québec, le 10 avril prochain dans le cadre du colloque international du Cefrio afin d’en discuter avec lui, qui a publié le livre «The Big Switch, Rewiring the World».