10 Futures Tendances Web : Les Mondes Virtuels

Les 10 futures tendances Web, Scène 3

Traduction libre en cours de l’article « 10 Future Web Trends » paru début septembre sur Read/WriteWeb.

Second Life a attiré et attire encore beaucoup l’attention des médias traditionnels comme une sorte de futur du Web. Mais une proposition de tableau récent de Sean Ammirati s’est tourné vers de nombreuses autres initiatives de mondes virtuels. Le graphique suivant les résume bien :

Matrice des Mondes virtuels

En regardant ce qui se passe actuellement en Corée, alors que que la « jeune génération » grandit avec ces premières infrastructures virtuelles, on promet déjà un grand avenir au marchés des mondes virtuels dans les dix prochaines années.

Il n’est pas seulement question de vie numérique mais aussi rendre notre « vraie vie » plus « digitale ». En effet, comme l’a expliqué Alex Iskold, si d’une part nous assistons à l’émergence rapide de Second Life et d’autres mondes virtuels, d’une autre nous commençons déjà à marquer, à annoter le monde avec des données numériques à travers des technologies telle que Google Earth par exemple.

Racheumeuneu

Racheumeuneu sur Wikipedia

Résultats Racheumeuneu attendus pour le 31 octobre à 20h. [03/11] Edit : bravo à Aurélien d’Outil-Référencement

Petit chat innocent, pauvre illustration victime d'un billet sur le RacheumeuneuLe test Racheumeuneu devenu concours Racheumeuneu se termine à la fin du mois d’octobre et élira un blog vainqueur honorifique pour sa première position sur Google.fr. J’y joue sur le tard et sans prétentions.

Initialement j’avais prévu d’y faire participer la version francophone de Wikipedia pour réaliser un petit test dans le test. Tout comme les centaines de blogs mobilisés, Wikipedia allait-il s’imposer sur le simple fait d’une page dans son gigantesque index ? Mais voilà, Wikipedia est un objet sérieux qui dédaigne les référenceurs turbulants.

Voici donc la page Wikipedia sur Racheumeuneu exhumée à temps du cache de Google.

Sommaire

Wikipedia

Historique du RACHEUMEUNEU

RACHEUMEUNEU n’est pas un terme français, pas plus que RACHEMEUNEU ni RA-CHEU-MEU-NEU. Les dictionnaires ne mentionnent à aucun moment le RACHEUMEUNEU.

 

RACHEUMEUNEU, le test devenu concours

Le racheumeuneu test est un test lancé par un blogueur le 24 septembre 2007. Rencontrant un certain succès dans la blogosphère francophone, le RACHEUMEUNEU est devenu dès le 25/09/2007 un concours SEO.

Ainsi le but du concours racheumeuneu est-il devenu d’essayer par tous les moyens de Search Engine Optimization de positionner le mieux possible le terme « RACHEUMEUNEU » dans le moteur de recherche Google.fr.

Le concours RACHEUMEUNEU se terminera le 31 octobre 2007 à 20 heures. A cette date le gagnant du RACHEUMEUNEU test sera la personne (physique) qui sera placée en 1ère position sur le moteur de recherche google sera déclaré vainqueur. Il est à noter que les aggrégateurs automatiques de type Digg, Scoopeo, Fuzz et j’en passe ne sont pas inclus dans les compétiteurs au concours racheumeuneu.

 

Génèse du Racheumeuneu

Tout commence le 24 septembre 2007 par un « petit exercice de SEO »

Luc Muller propose sur son blog lucmuller.free.fr de jouer à savoir qui est le plus fort à Racheumeuneu.

Partant du principe que le 24 septembre 2007 une recherche de « Racheumeuneu » sur Google renvoie 0 résultats, il suggère de mettre à profit l’immense index du moteur pour classer de manière empirique les blogs sur un mot-étalon : Racheumeuneu. En recopiant bêtement le billet du Racheumeuneu Test sans autre intervention, les blogs seraient alors classés fonction de leur potentiel brut.

Une sorte de course au contenu dupliqué, où Google jouerait l’arbitre du Racheumeuneu, le juge de touche de la compétition Racheumeuneu-esque.

 

La suite du Racheumeuneu

Jusqu’au 31 otobre 2007 vous êtes donc invités à rechercher le terme « Racheumeuneu » sur Google.fr pour suivre le classement.

A propos de la création de la page Racheumeuneu dans Wikipedia

Je précise que l’existence éphémère de cette page ne doit pas annuler son intérêt. En effet, la permanence de résultats de Wikipedia sur la première page des résultats de Google, (parfois même sur des pages inexistantes !) justifie je pense que je fasse participer la célèbre encyclopédie au concours.

Note : La page Racheumeuneu a été supprimée de Wikipedia

Liens :

10 Futures Tendances Web : L’intelligence Artificielle

Les 10 futures tendances Web, Scène 2

Suite de ma traduction libre en cours de l’article « 10 Future Web Trends » paru début septembre sur Read/WriteWeb.

Artificial Intelligence« The Next Big Thing » dans l’Histoire de l’informatique, l’intelligence artificielle est le but et le rêve de nombreux informaticiens et autres scientifiques depuis les années 1950, moment où Alan Turing développe ce qu’on a appelé par la suite le Test de Turing, mesurant la capacité d’une machine à participer à une conversation avec un humain sans être confondue. Rapporté au contexte du Web, l’IA signifie fabriquer des machines intelligentes, ce qui nous ramène au Web sémantique en quelque sorte.

Intelligence ArtificielleNous avons seulement commencé à effleurer la surface de l’Intelligence Artificielle sur le Web. Amazon.com a tenté d’en introduire certains aspects avec Mechanical Turk, leur service de gestion de taches, mettant en oeuvre des programmes coordonnant l’utilisation de l’intelligence humaine pour accomplir des taches que des machines ne peuvent mener. Après son lancement le 2 novembre 2005, Mechanical Turk semble aujourd’hui ne pas décoller de la période d’annonce…

Cela dit, l’IA n’en demeure pas moins prometteur sur le Web. Des techniques d’intelligence artificielle sont utilisées pour le « Search 2.0 » par des sociétés comme Hakia and Powerset. Numenta est à ce titre très intéressante, avec les travaux d’un Jeff Hawkins légendaire sur son projet de construction du nouveau paradigme de calculateur basé sur le modèle du cerveau – réseau neuronal et automates cellulaires…

H.A.L.Ce qui signifie, en français, que Numenta cherche à concevoir des ordinateurs capables d’aborder des problèmes qui demeurent inaccessibles à la machine tout en étant simples pour le cerveau humain, comme l’identification des visages ou des constructions musicales.

10 Futures Tendances Web : Le Web Sémantique

 semantic web     Tim Berners-Lee   

Résultats complets | Archives Google News relatives

Les 10 futures tendances Web, traduction libre en cours.

Le fait mise à part que ça me permet de parler de choses intelligentes sur mon blog sans vraiment réfléchir, l’article « 10 Future Web Trends » paru début septembre sur Read/WriteWeb a la bonté de ne pas prétendre révolutionner les choses et néanmoins de les poser.

Mashup and widgetsNous sommes actuellement dans une ère du Web généralement désignée sous le terme de « Web 2.0 ». Les caractéristiques de cette période sont la recherche, les réseaux sociaux, les médias en ligne (musique, vidéo, etc…), l’agrégation et la syndication de de contenus via le RSS, les mashups permettant d’assembler différents services pour en créer de nouveaux grâce à leurs API, et bien d’autres d’autres choses encore.

Aujourd’hui, fin 2007, nous accédons encore majoritairement au Web au moyen d’un PC mais nous commençons à remarquer un certain intérêt pour les interfaces et terminaux mobiles (ex : l’iPhone) et la télévision (Wii et autres Xbox…).

Alors à quoi devons-nous nous préparer pour les 10 prochaines années ?

Il semblerait que ce ne soit pas au travers de votre PC que les prochaines grandes mutations du Web se préparent. Read/WriteWeb a listé les 10 tendances majeures qui jalonneront votre activité, votre interactivité avec les technologies Web à venir.

Le Web sémantique

Tim Berners-Lee

Depuis longtemps Tim Berners-Lee a eu la vision d’un Web sémantique, a tel point que son expression est probablement plus mythique qu’autre chose aujourd’hui, tel la baleine blanche de H. Melville dans Moby Dick.

En un mot, le Web sémantique pourrait être rapproché du M2M, un langage de machines parlant aux machines… L’horizon d’un Web plus intelligent composé d’ordinateurs analysant l’information du Web – contenus, liens, interactions entre les hommes et les machines (Ndt : très CyberPunk).

New, improved, semantic WebTim Berners-Lee a aussi décrit sa vision comme une application de création et de gestion des données qui rejoint par endroits les thèses d’un Web vu comme plate-forme de développement d’application et de gestion de l’information. Les API, mashups, plateformes (Facebook) prennent ce chemin.

L’idée centrale du Web sémantique est de concevoir l’information décrivant l’information (meta information) permettant aux machines de traiter non plus seulement les données mais aussi leur sens. Si un certain nombre d’entreprises se sont lancées sur ce créneau, il faudra probablement attendre encore quelques années avant de voir les promesses du Web sémantique se réaliser.

Google Better Than Sex

Edit 2014 : 7 ans après on va dire que c’est plié, le plugin est mort mais pas la tendance.

Billet léger

Racoleur et distrayant ce samedi. J’ai installé un sympathique petit plugin customisé à ma sauce pour créer des liens Google Trends facilement. Pour en parler, qu’allais-je chercher à comparer ?

Is Google better than Sex ?

Que s’est-il passé ? Y a t-il un bug passager, comment expliquer ce phénomène ?

  • Fin 2005, Google prend 5% des parts d’AOL pour 1 milliard de dollars.
  • Le 10 octobre 2006 est annoncé le rachat de Youtube par Google pour 1,65 milliards de dollars.
  • Yahoo! est déjà better than sex depuis belle lurette et Google a beaucoup travaillé de ce côté, après de gros efforts au premier trimestre 2005 et un travail continu, les résultats sont là.
  • Il n’y a plus de gâteau au chocolat.

Ces bons résultats ne doivent pas focaliser notre attention sur ces seuls élèves. Youtube est encore plus recherché que Google ou Yahoo! tandis que d’autres petits nouveaux du Web 2.0 font leur entrée dans la cour.

Pense-bête : ne pas mettre Google dans mon prochain titre.

E-commerce : It’s All About Google

Toujours pas de stand pour Google et une forte présence des référenceurs.

Ecommerce Paris 2007Du 11 au 13 septembre derniers avait lieu au Palais des Congrès de Paris la Convention E-Commerce Paris 2007.

L’évènement organisé depuis 2004 a attiré 300 exposants et 14 000 visiteurs cette année, beau succès après un redémarrage des affaires en 2004 à la sortie de la crise.

Comme je n’ai bien évidemment pas assisté à tout et que je voulais savoir ce qui se disait ou plutôt se vendait sur le référencement, voici une galerie complète d’interviews vidéo ayant couvert le salon.

Je vais donc un peu parler de référencement et de Google.

S’il y en a que sa rebute, si je suis trop technique, n’hésitez pas à contacter les professionnels que je cite ou à consulter une agence de communication web que je.. [stop pas de pub] ;).

Référencement, le secret est dans le contenu !

J’avais déjà eu l’occasion de faire l’éloge du livre blanc publié par l’agence Dixxit à propos des univers sémantiques. Outre le déclin des pages satellites et du cloacking en parallèle de l’avènement du TrustRank, des liens qualitatifs et de la Long Tail, avec sa conférence, « Référencement : la revanche du contenu », Dixxit nous propose de varier les angles, faire intervenir les témoignages clients pour se rapprocher de leur langage et de leurs requêtes, etc…

Dans le même esprit, UCatchIt aussi a bien compris l’intérêt d’aller fouiller sous l’iceberg des requêtes qui mènent à votre site Web et de partir à la chasse aux énormes quantités d’expressions mineures, sources d’un trafic large et le plus souvent qualifié. Plus encore que de vérifier ce qu’on s’attend à y trouver, c’est la découverte d’un ensemble d’interrogations et de recherches infructueuses ou auxquelles le site répond mal qui va vous permettre de mieux connaitre vos visiteurs et d’améliorer les pans défectueux de votre communication.

Réflexion : se positionner, à tout prix…

Les rédacteurs Web ont donc de l’avenir sur les secteurs concurrentiels où la tendance exacerbée va conduire peu à peu à la mise en ligne de véritables encyclopédies de mini articles correspondant aux millions de questions auxquelles il faut répondre. Bien qu’elle suive les commandements de Google en terme de publication, à mesure que les coûts d’annonce et le nombre de pages augmente, cette surenchère ne mènera t-elle pas, si ce n’est à une nouvelle sorte de spam, du moins un Web uniquement commercial occupant non plus la recherche de produits mais toutes les requêtes embryonnaires d’un service ou d’un produit qui sera à l’avenir créé et commercialisé à force d’être demandé ? On peut en discuter et anticiper sur le rôle des moteurs dans cette perspective.

In Google we trust
J’ai tellement vu ce type de slide qu’il n’y a pas de raison que je vous épargne.

1ère Position, David Degrelle

Je parle de David Degrelle comme de Luc Jovart de UCatchit car en échange de l’exposition du public à la promotion de leur société, ces deux dirigeants n’ont pas envoyé un mauvais commercial ou un directeur marketing mais ont parlé avec passion de leur métier dont ils sont experts.

Avec l’arrivée du Quality Score (1), D. Degrelle se propose de faire converger et se synchroniser le SEO (Search Engine Optimization) et le SEA (Search Engine Advertising), avec pour conséquence commerciale de confier le référencement naturel et les liens sponsorisés au même prestataire (!). Diriger les visiteurs issus de liens sponsorisés vers des pages d’arrivée (Landing pages) qui seront en définitive optimisées pour l’utilisateur et… le référencement naturel semble une idée appétissante.

Salon Ecommerce Paris 2007

Amener à la page d’accueil monolithique ne suffit plus. L’importance d’un trafic sponsorisé directement dirigé vers les pages internes du site comme s’il était naturel est un clic de moins entre le moteur et le produit. Publication et publicité se rapprochent. De fait, la concurrence sur la pertinence, ou du moins l’impression de pertinence, a le rôle principal dans la nouvelle réalité de la recherche sur Internet, où le moteur – Google à 90% en France, 55% aux USA – joue la musique : à quand un lien « Commander » dans les résultats ?

Pour finir, l’information invitée surprise (on ne pouvait pas non plus dire scoop) a été l’arrivée du Référencement en temps réel pour une partie des sites, phénomène détecté dès le 17 juillet dernier. La prise en compte quasi instantanée des nouvelles pages et des mises à jour sur Google si elle est bien généralisée introduit un bouleversement dans le monde du référencement : la fin de la notion de délais. Alors, est-ce sur tous les sites ? De quels types, les blogs, les sites d’actualités ? Est-ce réservé à certaines familles de mots clés ?

Sergei Brin and Larry PageChers éditeurs de sites ne vous réjouissez pas trop vite, la prise en compte de la qualité des liens tissés, de la pertinence des contenus et leur fréquence de mise à jour ne va pas vous conduire à arrêter le référencement naturel. Au contraire. Pérennité devra de plus en plus rimer avec fraîcheur, nouveauté, et position acquise avec entretien et renforcement, prises de positions de secours et plans B. En un mot les agences Web et les référenceurs (2) n’ont jamais eu autant de travail.

Réflexions

Les termes rabâchés : SEO, SEM, SEA, Search, CPM, CPC, CPA, Long Tail, triangle d’or

Nous n’en avons pas parlé (et c’est normal) : La Recherche Universelle (apparition de Google News, images, etc dans la page des résultats Web), les suggestions de liens apparentés en bas de page, la recherche locale avec Google Maps et notamment Google Local Business, la tendance au rubriquage et à la désambigüisation vers une certaine forme de moteur-annuaire intelligent.

Sur la pertinence :

  • On pense que Google est pertinent.
  • Google tend surtout à donner à l’internaute ce qu’il cherche.
  • Google tend surtout à donner à l’internaute ce qu’on lui vend.
  • L’internaute recherche une réponse pertinente
  • L’internaute recherche une réponse rapidement
  • Point de salut hors de la 1ère page (voire hors du triangle d’or des 5 premiers liens).
  • Lorsque les réponses ne sont pas satisfaisantes, l’internaute tend à reformuler sa requête plutôt que d’avoir recours aux « pages de résultats suivants » qui sont supposées perdre en pertinence à mesure qu’on s’enfonce dans leur classement.
  • Google répond à cela par des proposition de recherches connexes en bas de page,
  • par un recours omniprésent à une encyclopédie gratuite en ligne connue,
  • par l’insert de réponses Google News, Images, blogs, maps, local, etc…
  • .. et qui sait bientôt vidéo et ses propres contenus et chaînes TV
  • Google devient chaque jour plus intelligent, c’est à dire malin.
  • Le but est de toujours raccourcir le temps de recherche de l’internaute et il y a plus d’un million de serveurs pour cela…
  • … le temps de recherche pour le temps de cerveau disponible.
  • Google n’est pas seulement pertinent. Il est aussi rapide.
  • Google est-il plutôt pertinent ou plutôt rapide ?
  • C’est une vraie question.
  • La réponse globale est probablement d’associer un visiteur qualifié à un lien pertinent. Vite.

(1) D’après Google, le QS est déterminé en fonction du CTR, du texte de l’annonce Adwords, de l’historique de la performance du mot clef, de la qualité de la page de destination ainsi que d’autres facteurs. (Source Outils-Référencement)

(2) Note : je ne suis pas un référenceur et s’il en est un qui passe par là les commentaires et mon mail sont ouverts à toute discussion ou invitation au dialogue intéressants.

Google Sponsorise La Lune

Moon 2.0… Tout un programme qui peut faire sourire, mais surtout le symbole très fort d’un égo qu’on savait débordant.

Google sponsorise le concours Lunar X PRIZE afin de lancer une course vers la Lune. Une bourse de 30 millions de dollars sera attribuée aux vainqueurs.

Google Lunar X PRIZE

Autant je pense qu’il est scientifiquement assez inutile d’aller construire des bases habitées sur la Lune, et pourtant plus j’ai hâte de voir ça se réaliser ! C’est plutôt simple, nous avons besoin d’espoir, ou du moins, d’enthousiasme, et si possible de rêves réalisables de notre vivant.

C’est pourquoi la nouvelle selon laquelle Google finance un concours très marketing dont les dotations sont finalement assez minces face aux enjeux doit néanmoins brouiller mon scepticisme habituel. La Raison est glacée comme l’Espace. Serait-ce juste cool ?

RoverGoogle fête ses 9 (ou 10) ans et ouvrait hier la cartographie routière sur Google Maps à la bagatelle de 54 nouveaux pays. Dans de nombreux pays où l’Internet et Google ont pris une importance prépondérante dans le commerce et l’économie numérique, le réseau des réseaux et le moteur des moteurs sont des quasi-synonymes de dépendance vitale.

SANTA MONICA, Californie, 13 septembre 2007 – La fondation X PRIZE et Google Inc ont annoncé aujourd’hui le lancement du concours Google Lunar X PRIZE, une course d’engins robotisés vers la Lune dont les gagnants remporteront le prix extraordinaire de 30 millions de dollars américains.

Des entreprises privées du monde entier participeront à cette compétition dont l’objectif est de faire atterrir sur la Lune, avec pour seuls moyens des fonds privés, un rover robotisé capable de mener à bien plusieurs missions, notamment effectuer un parcours d’au moins 500 mètres à la surface de la Lune, et envoyer des vidéos, des images et des données vers la Terre.

Je fais court, un communiqué complet et en français est en ligne :
http://www.googlelunarxprize.org/lunar/intl/fra

Ils savent faire ça les Américains, le mélange des aspirations humaines aux bons sentiments. Alors vous avez au pupitre Larry Page, et ensuite pas moins que Buzz Aldrin – pour ceux qui ne suivent pas, Apollo 11, le 2ème homme à marcher sur la Lune. On compte les jours sans parler de Google, mais attendrons-nous sagement Prometeus encore 25 ans sans que rien ne vienne changer les plans ?

Source : Google Lunar X Prize