La danse des algorithmes : l’évolution du métier de rédacteur web.

Aujourd’hui, le rédacteur web doit maîtriser de nombreuses techniques pour exercer son art. Il est à l’aise avec le format spécifique d’Internet (interactif et très technique), son écriture est synthétique et captivante. Acteur de la communication digitale, le rédacteur web travaille au sein d’une stratégie marketing. Mais de toutes ces compétences, celle qui est mise en avant par tous les acteurs du e-commerce est la maîtrise des outils et des stratégies de référencement naturel, le SEO, dont le chorégraphe est Google. Histoire et perspectives du métier de rédacteur web.

Google : “Il est né le divin enfant !”

En 1998, le moteur de recherche Google est apparu, dévoilant au commun des mortels les entrailles de l’Internet. Avant cette date, personne ne croyait au développement du web. On allait sur internet comme au pôle-emploi et on tapotait à deux doigts les “http://www.” précis des sites dont on avait l’adresse. Il n’était pas vraiment question de surfer. On pouvait tout au plus sauter d’un lien à un autre. Google a initié de nombreux internautes à une expérience plus intuitive. Ce n’était que le début.

Je parle d’une époque que les moins de 20 ans ne peuvent pas connaître : les internautes précurseurs consultaient Internet dans ce qui ne s’appelait pas encore des cybercafés à 35 francs la demi-heure (7€) ou dans les salles informatiques des universités. Chez les particuliers, le Minitel était encore le roi de l’information.

Le e-commerce a explosé dans les années 2000, avec le déploiement des connexions Internet et l’essor des ordinateurs particuliers.

Le métier de rédacteur web tel que beaucoup le pratiquent aujourd’hui est né en 2003, date de la mise à jour de l’algorithme de Google, identifiée sous le nom de Florida. Cette nouvelle version du moteur de recherche a déclaré la guerre au bourrage de mots-clés, pénalisant les sites internet commerciaux qui s’étaient élevés dans le référencement grâce à cette pratique.

C’est à cette époque que Google s’est imposé comme le meilleur moteur de recherche en proposant une meilleure expérience à l’utilisateur : trouver des résultats de recherches pertinents. Les pionniers du marketing digital, qui venaient d’inventer le SEO (ou référencement naturel) pour mettre en avant leurs sites dans les moteurs de recherche durent caler leurs pas au rythme de Google. Le métier de rédacteur web en est la suite logique : si Google veut du contenu intéressant il faut lui en donner.

Le référencement naturel est un sport de combat

Il est peut-être nécessaire de reprendre la définition du SEO : Search Engine Optimization. Traduit par référencement naturel en français, le SEO consiste à optimiser un site web afin qu’il obtienne la meilleure visibilité dans les résultats des moteurs de recherche tels que Google ou Bing, sans utiliser le référencement payant.

La rédaction web SEO épouse les objectifs et les méthodes du référencement naturel. Le web rédacteur doit se plier aux aspects techniques imposés par le support web (code html, balises h1-h6, Title, meta “description”, URL, CMS), vérifier la qualité de ses liens hypertexte (origine et pertinence des backlinks) et proposer des volumes de texte adaptés, organisés de façon à être analysés par Google et comportant une richesse sémantique qui donne l’impression que c’est bien au lecteur qu’est destiné l’article.

La rédaction web est donc une discipline entre l’art et la technique, entre le sport de combat et le tango. Et c’est Google et ses algorithmes qui mènent la danse.

A la recherche de l’intelligence artificielle ?

Les algorithmes du moteur de recherche mis à jour depuis 15 ans ne font qu’affiner une certaine image de ce que doit être un contenu de qualité. Les experts du SEO, en corsaires du web, luttent en permanence pour en maîtriser les lois et les dépasser à l’avantage de leurs clients.

L’objectif de Google est « d’organiser l’information à l’échelle mondiale et de la rendre universellement accessible et utile ». Mais on est en droit de se questionner sur la légitimité du pouvoir que la multinationale obtient sur ses utilisateurs. Les données collectée en permanence par la firme et la place que prend Google dans la société civile fait craindre des dérives : elle pourrait devenir une redoutable société de contrôle. Récemment, en juillet 2018, la commission européenne condamne Google à une amende de 4,3 milliards d’euros pour abus de position dominante. Ce n’est qu’une condamnation parmi d’autres.

En dressant le cahier des charges de la rédaction web, Google formate le contenu selon ses propres critères. C’est un jeu de miroirs entre les utilisateurs et les robots référenceurs. En 2014, Google a racheté DeepMind dont l’objectif est de créer des machines intelligentes capable d’apprendre et d’acquérir de nouvelles connaissance de façon autonome, comme les humains le font. Les robots cherchent à devenir humains. Ils nourrissent leur intelligence artificielle en référençant la nôtre.

Mais ne soyons pas pessimistes. Les robots rédacteurs existent déjà  : Heliograph, rédacteur au Washington post, a déjà publié plus de 850 articles depuis 2016, essentiellement des articles sur le sport et les élections qui, dit on, étaient tellement pénible à rédiger qu’aucun rédacteur humain n’aurait voulu le faire (mais alors, pourquoi les lire?). Mais au delà de réunir les sources et de les mettre en forme, ce robot publie sur les réseaux sociaux, tweete et diffuse sur Alexa à une vitesse inhumaine. Les analystes sont unanimes : il manque (encore) à l’intelligence artificielle toute la complexité d’analyse contextuelle, l’émotion, l’empathie dont peut faire preuve un humain.

Penser que les ingénieurs de l’Intelligence artificielle s’arrêteront à cet argument peu convaincant (“ah non quand même, les humains sont inimitables, trop complexes, on laisse tomber les gars !”) est tout à fait naïf : ils essaieront. L’argument de la complexité de la pensée humaine est justement celui qui se mord la queue : la complexité, c’est juste un algorithme plus difficile à mettre en place et des chercheurs travaillent sans relâche sur l’intelligence émotionnelle artificielle. Dire que les robots ne ressentiront pas réellement les émotions, je veux bien le croire, mais dire qu’ils ne sauront jamais les simuler n’est pas réaliste. L’étude des pervers narcissiques nous le prouve : un humain est capable d’imiter des émotions sans les ressentir. Pourquoi pas des machines ?

Alors, avant d’atteindre nos derniers retranchement, nous, rédacteurs, journaliste humains : n’écrivons pas comme de robots, arrêtons le remplissage commercial de pages qui n’ont aucun sens et le clonage d’articles tendance. Si Google cherche à rendre ses robots humains, résistons à la tentation de devenir des robots.

Ou rajoutons une clause cybernétique dans le mariage pour tous.

Marie Leloup Écrit par :

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.