Chicago, Union Station (1943) Au commencement, à la création d'Internet, la circulation d'information s'effectuait sur un mode "proche en proche", de pair à pair, au travers d'un réseau social ou -- pour donner une image -- d'une "toile" sociale. D'une page gopher, d'un message usenet puis d'une page sur le World Wide Web vers un/une autre.
Altavista et CompuServe ont introduit assez rapidement des outils permettant d'indexer[1] le contenu. Comme sa définition l'indique, l'indexation s'effectue à partir de mots jugés significatifs dans un texte. Les robots -- algorithmes informatiques capables de récupérer et analyser une page -- sont dotés d'une intelligence variable, construite sur des algorithmes imaginés par des humains.

Yahoo (le chien), puis surtout Google (les lunettes), ont fait exploser cette technique de recherche au point que le "réseau social" est aujourd'hui devenu marginal, au profit d'une recherche globale, sur la totalité du contenu disponible. Internet n'est plus qu'une gigantesque base de données disponible pour qui sait construire des requêtes judicieuses.

1) Les index, base de données de mots judicieux, sont construits selon des algorithmes. Des processus initiés par l'homme, figés, au comportement prédicitf. Une même requête produira toujours des résultats similaires.
L'existence d'individus capables d'obtenir l'information recherchée, par le choix de mots clefs judicieux, par rapport aux bases de données d'index, appuie cette affirmation.

Le comportement des moteurs de recherche est prédictif. Connaissant ce comportement, il est dès lors tout à fait possible de fournir de l'information qui sera interprétée et analysée d'une certaine manière par les spider, robots d'indexation. Un spécialiste de la rhétorique fera passer une information pour qu'elle soit comprise d'une certaine façon, un spécialiste du web écrira ses pages pour qu'elles répondent à certaines requêtes, pour qu'elles soient lues dans un certain contexte. De la même manière, un spécialiste pourra influencer la visite d'un site web vers une page "but" sur laquelle il doit arriver en toute confiance. Ce que l'on appelle la "conversion". Tout le site web n'a pour objectif que l'affichage de la page "but" ou objectif marketing du webmestre[2].

2) Une société humaine est, étymologiquement -- si je ne m'abuse, corrigez moi s'il vous plait -- une organisation d'individus oeuvrant ensemble vers un même but. La force d'une société est son organisation, et donc les relations tissées entre ses individus. Internet -- aux temps des dinosaures -- aurait pu en être un magnifique outil. La destruction des réseaux sociaux au profit d'un accès direct aux informations, sans se préoccuper des individus qui ont rendu disponible cette information, rend l'outil caduc en tant que progrès social -- au sens ethnologique --, pour le transformer en média parmi d'autres. Les informations sont déshumanisées, pour n'être que des définitions derrière des mots clef.
Une armée de singes derrière des machines à écrire. Est-ce l'avenir de l'Homme ?

Est-il raisonnable de troquer un réseau de liens chargés de confiance mutuelle, par une base de données subjective alimentée par des professionnels de la manipulation ?
En substance : de faire confiance à des marionnettistes ?

"Ce n'est pas le chemin qui est difficile, c'est le difficile qui est le chemin." -- Sören Kierkegaard

Références :
[1] Indexation : construction de table de liens, à partir de mots significatifs recensés dans un document écrit.
[2] Google-analytics nomme cela un entonnoir de conversion.

Pour aller plus loin :
Faut-il brûler Wikipedia ?