La guerre des moteurs
par François
vendredi 8 juin 2007
Si le contenu d’Internet peut être assimilé à un océan, son économie est une jungle et les moteurs de recherche qui ont pour rôle de faciliter la pêche aux informations font l’objet d’une sévère sélection. Certains meurent, d’autres naissent et doivent lutter pour leur survie. Peut-être trop...
Internet a près de quinze ans et au moins autant de milliards de pages. C’est une structure dont la complexité s’accroît. D’intéressants projets de cartographie ici et là là ont tenté de la saisir de manière visuelle, sous forme d’arborescences colorées et de réseaux de fils entrecroisés, sans qu’elle devienne accessible pour autant à l’esprit humain.
Pour notre recherche d’informations, nous disposons heureusement de ces précieux outils que sont les moteurs de recherche. Ils sont a priori dotés d’une interface simple, ils font preuve de rapidité et ils affichent régulièrement plus de résultats que nous n’en pourrions explorer. Mais il faut toutefois rester conscient de leurs limites, qui se situent à deux niveaux :
Exhaustivité. Les moteurs ne référencent qu’une partie de l’information disponible sur le Web : elle provient plus souvent de ce que l’on appelle le “Web visible” par opposition au “Web profond” qui serait cent fois plus étendu. Les méthodes d’indexation automatique (sous la forme des “crawlers”, ces logiciels qui parcourent la toile pour dénicher les nouveaux sites) ou la prise en compte de fichiers de types divers (pdf, doc, audio, vidéo...) ont contribué à étendre le champ de recherche, mais de manière encore insuffisante. Les huit milliards de pages indexées qu’affiche actuellement un moteur comme Exalead sont donc loin d’englober tout le contenu du Web. Déjà, en août 2005, Yahoo annonçait en avoir recensé dix-neuf milliards. Quand à Google, son principal concurrent, il avait décidé la même année d’arrêter la course au recensement pour, disait-il, se consacrer à la pertinence des résultats affichés.
Pertinence. Peu de gens se donnent la peine d’aller bien loin dans l’exploration des résultats fournis : autant donc que les premiers se révèlent satisfaisants. Or, c’est trop peu souvent le cas : encadrés de liens “sponsorisés”, ils sont eux-mêmes de plus en plus truffés de références commerciales, font apparaître des rapprochements surréalistes ou sont tout bonnement de mauvaise qualité. Certes, l’utilisateur a aussi sa responsabilité dans le succès de la recherche : à lui, en premier lieu, de savoir ce qu’il veut et de se prémunir contre l’illusion que le moteur lui apportera nécessairement, à partir d’un simple mot-clé, la meilleure des réponses sur un plateau. Et à lui, aussi, d’utiliser pleinement les outils qui lui sont proposés, en se servant par exemple des opérateurs de recherche ou des outils de recherche avancée. Pour améliorer leurs résultats, les moteurs de recherche peuvent améliorer l’algorithme de recherche. Rappelons que c’est sur celui-ci et le concept du PageRank classant les sites en fonction des liens pointés vers eux, que Google a bâti une bonne part de sa réputation d’efficacité. Mais ils peuvent aussi, et c’est une piste qui semble tout aussi prometteuse, prendre une dimension vivante, en misant sur l’évaluation humaine des pages indexées et en se rapprochant de l’utilisateur. N’oublions pas que les fondateurs de Yahoo ont débuté leur entreprise avec cette idée toute simple qui consistait à mettre en ligne leurs sites favoris, puis ceux des utilisateurs.
Ces deux sociétés sont devenues les deux leaders de la recherche en ligne, avec un net avantage pour Google qui totalise près de 70% des requêtes aux Etats-Unis (et 83% en Europe)(1) et canalise près de 87% du trafic (2). Mais d’autres moteurs revendiquent aujourd’hui une pertinence égale, voire supérieure, en prenant mieux en compte la syntaxe de la requête, en présentant des requêtes associées, ou en proposant plus d’interactivité dans leur interface. L’essor de ces derniers ne serait peut-être pas une si mauvaise chose pour le développement d’Internet. Tout l’effort des grands moteurs vise en effet à cristalliser les habitudes des utilisateurs (via des services annexes, la souscription à un compte, l’intégration au navigateur...), et l’on peut estimer que dans le cas de Google, celui-ci y est assez bien parvenu. Or, une concurrence atténuée peut inciter ces entreprises à se reposer sur leurs lauriers, uniformiser les comportements des utilisateurs et restreindre l’accès à l’information. On peut l’observer actuellement pour Google, dont le PageRank a été instrumentalisé par les webmasters, voire des sociétés spécialisées dans le référencement, afin de figurer dans les premiers résultats.
Parce qu’il est peu probable qu’un seul moteur satisfasse à tous nos besoins, mais aussi parce que leur diversité est la garantie de la bonne santé du réseau, il peut s’avérer utile de jeter un coup d’oeil aux autres outils.
Des solutions telles que Altavista, Excite, Lycos ou Voilà continuent de faire leurs preuves et d’évoluer. Mais parmi les nouveaux moteurs, le plus connu est peut être Exalead, dont la version grand public date de 2006 et qui se présente maintenant comme un concurrent sérieux à Google. Ses spécificités sont la suggestion de termes associés, la prévisualisation des sites et un fonctionnement collaboratif qui invite les utilisateurs à apporter leurs suggestions pour le développement du moteur. Microsoft tente de son côté de gagner des parts de marché via son outil Live search, qui propose notamment la création de macros à partir des opérateurs de recherche. Sans prétendre à l’exhaustivité, certains outils de moins grande taille mais originaux misent sur l’intelligence artificielle (ePrécis, en anglais), les communautés d’intérêt (Fooxx), la spécialisation dans un domaine de recherche (Omydir pour les ressources francophones, Scitopia pour les publications scientifiques) ou au contraire l’étendue du champ (Gigablast), la cartographie des résultats (Kartoo), la consultation d’experts (Allexperts) ou même la présence en ligne d’assistants à la recherche (Chacha). Les grands moteurs eux-même semblent avoir compris la nécessité d’innover et ont lancé des moteurs dits expérimentaux (Searchmash, Yahoo alpha...). Qui sortira gagnant de la guerre des moteurs ? L’internaute, espérons-le.
(1) selon une étude de Comscore & Nielsen de février 2006
(2) selon le baromètre Xiti de décembre 2006
Un petit panorama des moteurs de recherche alternatifs : http://www.webguild.org/ratings/category.php?cat_id=3