10 réalités du web 2.0
par David Fayon
jeudi 29 janvier 2009
Consécutivement aux « 10 mythes du Web 2.0 » présentés par François Guillot sur Agoravox, je réponds en prolongement par les « 10 réalités du Web 2.0 ». Depuis l’introduction du terme Web 2.0 par Tim O’Reilly lors d’une conférence en octobre 2004, nous avons suffisamment de recul pour dégager quelques constantes même si certains acteurs politiques de premier plan n’ont pas encore perçu les enjeux que le Web 2.0 emporte quant à l’évolution de notre société et des comportements des citoyens internautes.
1. La googelisation des esprits est en marche
Avant de rencontrer quelqu’un (entretien professionnel par exemple), on a le réflexe de consulter plus avant qui il est via Google (ou un autre moteur de recherche). Ceci permet de connaître davantage la personne (par exemple ses hobbys) et être plus à l’aise dans la discussion. La tâche est plus délicate avec l’existence d’homonymes qu’il convient de dédoublonner avec des recoupements. Le site 123people peut venir en complément de Google en ayant une approche globalisatrice. Par la pratique, l’internaute adopte une intelligence dans la recherche d’information.
2. Sur Wikipédia le dernier qui a parlé a raison
Ceci est explicable par le caractère même du wiki et des modifications que tout internaute peut apporter. Toutefois, les erreurs décelées par la communauté sont vite corrigées. Néanmoins, pendant l’intervalle de temps où l’erreur n’a pas été décelée et rectifiée, les internautes qui consultent la page considérée ne bénéficient pas d’une qualité irréprochable et peuvent à leur tour répercuter l’erreur (par exemple travaux réalisés par un étudiant qui ne recouperait pas les fiches Wikipédia avec d’autres sources). C’est aussi ce qu’estime l’écrivain, journaliste et blogueur Pierre Assouline.
3. Le vrai classement de la notoriété d’un blog est délicat
Le raisonnement peut s’effectuer à plusieurs niveaux : nombre de pages vues par les internautes, nombre de liens entrants, positionnement dans les moteurs de recherche pour des mots clés précis, quantité de commentaires déposés (globale et moyenne par article), nombre d’abonnés aux nouvelles (via Feedburner par exemple – mais tous les blogs n’utilisent pas cet outil).
Wikio donne un classement des blogs. Technorati en propose un autre. Alexa donne des informations relatives au trafic d’un site/blog. Le classement idéal devrait mixer de façon équitable l’ensemble de ces aspects. Et aucun outil ne constitue une véritable panacée.
4. La loi du 1 % des médias participatifs se vérifie globalement
Dans tout média participatif, 1 % des utilisateurs créent du contenu, 10 % interagissent, 89 % ne font qu’observer et 100 % en bénéficient.
Avec les internautes qui sont à la fois consommauteur et consommacteur, cette loi empirique est vérifiée sur YouTube, Wikipédia ou Yahoo ! Groups avec des nuances toutefois selon la nature de l’application Web 2.0 considérée. À noter que sur les skyblogs, le pourcentage de commentaires déposés est élevé. Les adolescents principalement écrivent des commentaires courts qui sont plus des discussions ou des interpellations de l’auteur du billet.
5. N’est pas blogueur influent qui veut !
Le processus d’accès à la notoriété est étalé dans le temps après la création d’un blog qu’il convient d’alimenter et de faire vivre. Par ailleurs le marketing viral demande du temps, la connaissance de certaines techniques et de la chance.
Derrière certains blogs ou certains auteurs (y compris sur Agoravox) se cachent de véritables journalistes et acteurs qui possèdent au départ un capital réseau et une faculté de communiquer en fédérant autour d’eux une partie de la blogosphère.
On constate toutefois un phénomène qui m’a été confirmé par Eric Dupin (blogueur, responsable de Presse Citron). Des blogueurs de plus en plus jeunes se positionnent bien dans la blogosphère avec des articles intéressants. Ils ont du temps et peuvent dénicher des informations, les disséquer, les commenter. Par exemple le blog WhyTech est réalisé par des adolescents d’une quinzaine d’années à peine.
Enfin selon Olivier Le Deuff, doctorant à l’Université de Rennes 2, avec le Web les principes d’autorité et de pertinence laissent place à ceux de popularité et d’influence. Le plus malin, qui maîtrisera les principes des moteurs de recherche, qui saura faire du buzz intelligent sera plus facilement populaire et influent. Mais ceci demande du temps et un certain apprentissage des outils.
6. Les internautes possèdent un pouvoir de prescription fort et le buzz est parfois imprévisible
Les études sont formelles : dans son acte d’achat, un internaute sur deux est influencé par les recommandations faites sur Internet. Par exemple les recommandations postées sur les sites TripAdvisor ou Amazon.
Le projet EDVIGE a du être retiré tellement le buzz négatif à son sujet était important. Frédéric Lefebvre (UMP) et Benoît Hamon (PS) ont séché face au journaliste Jean-Jacques Bourdin à la question « Qu’est-ce que le Web 2.0 ? »* et Frédéric Lefebvre a été écarté de la course au secrétariat à la prospective et à l’économie numérique.
7. La théorie de la longue traîne a de multiples domaines d’application
Cette loi empirique émise par Chris Anderson, rédacteur en chef de la revue des geeks Wired, se vérifie et pas seulement pour les achats en ligne. L’exemple phare est celui d’Amazon. Sans contrainte de stockage, l’offre peut devenir infinie et les volumes des ventes représentées par les produits de niches et rares sont au moins équivalents à ceux des best sellers. Cette loi s’applique à la vidéo où YouTube et Dailymotion n’ont pas de contrainte de grilles de programme et l’offre peut elle aussi devenir quasi infinie sur Internet.
Nous avons application de cette loi à divers niveaux :
- Amazon vs librairies traditionnelles,
- YouTube vs France Télévisions, TF1 et M6,
- Fnac vs musique en ligne (iTunes Music Store), etc.
La théorie de la longue traîne se constate aussi pour les requêtes faites via les moteurs de recherche : le nombre de groupes de mots clés isolés draine un nombre de visiteurs au moins égal aux premiers mots recherchés.
8. Les réseaux sociaux ont une utilité professionnelle
Ils permettent aux cadres d’être chassés, d’avoir leur CV visible alors que c’était jadis l’apanage du top management. Ce processus s’inscrit néanmoins dans la durée. Avec le partenariat conclu entre l’APEC et LinkedIn, sur le site de l’APEC il est possible de connaître quelles sont les personnes d’une société donnée, recueillir des informations facilement sur la société pour des opérations de recherche d’emploi ou de partenariat client/fournisseur, etc.
Le phénomène du petit monde (6 degrés de séparation entre 2 personnes prises au hasard) se vérifie. Parfois sur LinkedIn, Viadeo ou Facebook, on peut constater qu’un de nos contacts entre en relation avec une personne que nous connaissons.
9. La loi de Metcalfe selon laquelle la valeur d’un réseau croît selon le carré du nombre de ses membres serait à relativiser
Dans un réseau de N personnes se connaissant toutes, lorsque N est grand, le nombre de relations est de N(N-1)/2, soit une variation selon le carré du nombre de personnes. Selon plusieurs recherches, la capacité sociale d’un individu n’évoluerait pas comme le carré du nombre de personnes N mais de façon plus lente, plutôt en N log (N). Et dans les réseaux sociaux qui constituent une des applications de cette loi, la qualité est à privilégier et l’affichage du nombre n’est pas le paramètre capital.
10. Derrière la gratuité sur Internet se cachent des gisements de services payants
Ceci se constate pour certains réseaux sociaux* où, à côté d’un service gratuit, est proposé un service à fonctionnalités enrichies dit Premium (par exemple LinkedIn et Viadeo) et pour de nombreux logiciels à télécharger. Le produit gratuit génère un marché énorme et souvent il suffit d’1 % d’utilisateurs qui payent une version enrichie pour permettre la gratuité pour les 99 % autres du fait d’un coût marginal dans l’économie de l’information qui tend vers zéro.
* Facebook qui est gratuit est un cas spécifique. Le modèle économique de cet acteur phare n’est pas stable et sa pérennité pourrait être mise en cause.
Pour aller plus loin, voir le livre « Web 2.0 et au-delà » et un blog autour du Web 2.0.
Pour aller plus loin, voir le livre « Web 2.0 et au-delà » et un blog autour du Web 2.0.