Google, Yahoo! et Microsoft font l'union sacrée autour de Sitemaps

Discussion dans 'High tec' créé par boulba, 21 Novembre 2006.

  1. boulba

    boulba Visiteur

    J'aime reçus:
    0
    Points:
    0
    Google, Yahoo! et Microsoft font l'union sacrée autour de Sitemaps


    Pour une surprise, c'en est une ! Les trois poids lourds du Web, Yahoo!, Google et Microsoft viennent d'annoncer de concert qu'ils allaient s'allier afin de proposer aux webmasters et autres possesseurs de sites Web un outil unique et commun de soumission de contenus à leurs moteurs de recherche respectifs. C'est le protocole Sitemaps, basé sur XML, qui a été choisi. Celui-là même que Google a créé, lancé en juin 2005, poussé avant de le faire migrer récemment sous licence Creative Commons (libre).

    « Google, Yahoo et Microsoft annoncent aujourd'hui, dans le cadre de la première initiative conjointe et ouverte pour améliorer l'indexation du Web par les moteurs de recherche, l'adoption de Sitemaps 0.90, un moyen aisé et gratuit pour les webmasters d'alerter les moteurs de recherche au sujet de leurs sites, leur permettant d'être indexé plus largement et plus efficacement, dans le but d'améliorer leur présence dans les résultats de recherche », ont expliqué dans un communiqué de presse commun les trois groupes américains.

    Yahoo! qui dispose de ses propres outils d'indexation et de soumission de contenus qui ont fait leurs preuves, a décidé d'adopter très rapidement Sitemaps, tout en continuant en parallèle de maintenir ses propres outils. S'agissant de Microsoft, la mutation devrait être un peu plus lente puisque la firme venait de lancer Windows Live Search. Elle devrait démarrer au début de l'année prochaine. En revanche, contrairement à Yahoo!, Microsoft devrait abandonner purement et simplement sa solution actuelle d'indexation au profit de Sitemaps.

    Pour info, le protocole Sitemaps qui a à ce jour 18 mois d'existence, est accessible et documenté à l'adresse Sitemaps.org. Ayant la forme d'un fichier XML (le standard auquel on doit le succès des fils RSS et autres Podcasts), on peut le placer à la racine d'un site (root) et il oriente alors automatiquement les robots d'indexation des moteurs de recherche au c½ur des pages dudit site en indexant tout contenu rencontré au passage. L'outil offre aussi une intéressante fonction de surveillance des robots. Une fonction capable d'afficher vite et bien la fréquence de leurs passages et le nombre de pages indexées à chaque visite.

    Pour les créateurs de sites Web, cet accord inattendu entre les trois géants du Net et l'ouverture du protocole revêtent tous deux une importance considérable, dans le sens où leur travail va s'en trouver grandement simplifié. Plus de perte de temps à formater de deux, trois manières ou plus un site pour qu'il apparaisse en haut des résultats fournis aux requêtes des internautes. Et plus de jonglage entre différentes visions incompatibles de la chose … De quoi aimer les crawlers, car ils vont enfin tous nager dans le même sens !

    Source:http://www.itrnews.com/print.php?oid=58891

     

Partager cette page