Démocratie émergente
Ce texte est la traduction de Emergent Democraty, de Joichi Ito, initialement publié en anglais. La version traduite est celle numérotée 1.3, datée du 12 mars 2003.
Ce travail est sous une license de Creative Commons (en conséquence de ce que l’original l’est).
Un internet plus intelligent où de nouvelles méthodes démocratiques pourrait être mises en oeuvre pour rectifier les inéquités et les inégalités du monde : tel est l’Internet pour lequel s'engagent ses partisans, tel est l’Internet qu'ils cherchent à mettre en place. Au lieu de cet Internet démocratique rêvé par nombre de gens, Internet est aujourd’hui un environnement de bruit, qui tend à renforcer les pouvoirs en place.
En 1993, Howard Rheingold écrivait [1],
Nous avons accès pour le moment à un outils qui pourrait amener la convivialité et la compréhension dans nos vies, et pourrait aider à revitaliser la sphère publique. Ce même outil, contrôllé de manière impropre et partisane, pourrait devenir un instrument de tyrannie. La vision d’un réseau de communications défini autour des citoyens, contrôllé par les citoyens, est une version d’un utopisme technologique de l’agora électronique. Dans la démocratie originelle, Athènes, l’agora était la place du marché, et, bien plus, la lieu de rencontres, de discussions, de rumeurs, de démonstrations, de confontrations, de débats d’idées politiques - dévoilant ainsi les points faibles de certaines d’entre elles - pour les citoyens de la ville. Mais un autre type de vision pour être appliquée à l’utilisation du Net dans de mauvaises intentions, une vision sombre d’un lieu moins utopique - le Panopticon.
Depuis, ces vues ont été critiquées pour leur naïveté [2]. Ce, parce que les outils et les protocols d’Internet ne sont pas encore assez évolués pour permettre l’émergence d’une démocratie d’Internet et la mise en place d’une ordre supérieur. Puisque ces outils évoluent, nous sommes à l’approche d’un sursaut d’Internet. Ce sursaut facilitera un modèle politique rendu possible par la technologie pour soutenir les caractéristiques élémentaires de la démocratie, érodées par les concentrations de pouvoir au sein des grandes entreprises et des gouvernements. Il est possible que ces nouvelles technologies permettent la création d’un ordre supérieur, qui à son tour permettra une forme de démocratie émergente, capable de gérer des questions complexes et de soutenir, modifier ou remplacer notre démocratie représentative actuelle. Il est aussi possible que ces nouvelles technologies favorisent les terroristes et les régimes totalitaires. Ces outils auront donc la capacité soit d’améliorer soit d’affaiblir la démocratie, et nous devons faire tout ce qui est possible pour influer sur le développement de ces outils en direction d’une meilleure démocratie.
La démocratie
La démocratie telle que définie par le dictionnaire est le gouvernement par le peuple, dans lequel le pouvoir suprême est détenu par le peuple, et exercé directement par lui ou par des agents élus par lui, dans un système électoral libre
. Ce qu'Abraham Lincoln affirmait comme étant le gouvernement du peuple, par le peuple, pour le peuple
[3].
Rome et les nations les plus démocratiques à sa suite, ont choisi une forme républicaine de la démocratie représentative. La démocratie directe @@@doesn’t scale@@@, et comme les masses non-éduquées n’étaient pas considérées comme capable de régner directement, ceux qui l’étaient furent choisis pour représenter les masses. La démocratie représentative permet aussi aux dirigeants de se spécialiser pour formuler des opinions sur la variété de questions complexes à résoudre, alors qu'on ne pourrait attendre d’une population inéduquée et inintéressée qu'elle puisse comprendre l’ensemble de ce questions.
L’échec de la démocratie à @@@to scale@@@ n’est pas non plus compliqué à comprendre. Les pères fondateurs de ce pays, les partisans du trioliberté, égalité, fraternitéfrançais et la plupart des libéraux qui ont orienté la société vers la libertés dans les années 1700, ne pouvaient pas envisager la croissance des populations, les évolutions radicales de la science, les immenses améliorations des technologies, et l’incroyable augmentation de la mobilité des informations, de l’argent, des biens et des personnes. Ils ne pouvaient pas non plus savoir ou visualiser la topographie de pays tels que les Etats-Unis, le Canada ou la Chine, ou de continents tels que l’Afrique, l’Europe du Nord, la Russie ou l’Amérique Latine. Ils ont ainsi fait tenir ces immenses topographies le mieux qu'ils ont pu, dans des grilles qui n’avaient aucune similitude avec la réalité de l’environnement, ou des changements d’échelle radicaux en terme de population, de commerce et de gouvernement. En somme, ils n’ont pas prévu la nécessité pour le droit de s'organiser de lui-même - d’ajuster les systèmes d’évaluation et les degrés de séparation à mesure que ces changements se déroulent. (Dee Hock [4]
À mesure que les questions auxquelles les gouvernements doivent faire face deviennent plus larges et plus complexes, de nouveaux outils permettent aux citoyens de s'organiser par eux-mêmes plus facilement. Il est possible que ce type d’outils permettent aux démocraties de mieux s'adapter à ces changements d’échelle.
Une démocratie, idéalement, est gouvernée par la majorité et protège les droits de la minorité. Pour cela, elle doit favoriser la compétition des idées, ce qui nécessite la possibilité de débat critiqe, la liberté d’expression et la possibilité de critiquer le pouvoir sans crainte de repression. Dans une vraie démocration représentative, le pouvoir doit être distribué à plusieurs points d’autorité, autorisant ainsi les contre-pouvoirs et les contrôles d’exécution.
La compétition des idées
La compétition d’idées est essentielle pour qu'une démocratie prenne en compte la diversité de ses citoyens et pour qu'elle protège les droits de la minorité, tout en permettant au consensus de la majorité de gouverner. Le processus de cette compétition d’idées a évolué avec les progrès de la technologie.
Par exemple, la presse écrite a rendu possible une plus large diffusion de l’information auprès des masses, et en fin de compte, a donné au peuple une voix au travers du journalisme et de la presse. On peut cependant arguer que celle-ci a été remplacer par la voix des mass media dirigés par certaines grandes entreprises. De ce fait, la compétition d’idées est moins diverse, plus repliée sur elle-même.
Débat critique et liberté d’expression
La compétition d’idées repose sur un débat critique largement diffusé. Bien que nous ayons de nombreux outils pour gérer un tel débat, de plus en plus d’obstacles se dressent pour notre engagement das ce débat.
Les biens communs [5]
Si la nature a fait une chose moins susceptible que toutes les autres d’être l’objet d’une propriété exclusive, c'est sans nul doute l’action de la puissance de pensée que l’on appelle une idée, et qu'un individu ne peut détenir exclusivement qu'aussi longtemps qu'il la garde pour lui, mais qui, au moment où elle est divulgéue, entre en la possesion de tous de force, et dont le receveur ne peut se déposséder. Une autre de ses caractéristiques particulières est que personne n’en possède moins, puisque tout un chacun en possède la totalité. Celui qui reçoit une idée de ma part, reçoit de l’instruction sans diminuer la mienne ; tout comme celui qui allume sa chandelle à la mienne, reçoit de la lumière sans diminuer la mienne.
Ces idées doivent se répandre librement d’une personne à l’autre, tout autour du monde, pour l’instruction morale et mutuelle de l’homme, l’amélioration de sa condition ; voilà un fait que la nature semble avoir designé@@@ tout particulièrement et bénévolement en créant les idées de manière similaire au feu, s'étendant au travers de l’espace sans perdre en densité en aucun point, et de manière similaire à l’air dans lequel nous respirons, nous nous déplaçons, et nous existons, qu'on ne peut confiner ou réduire à une propriété exclusive.
(Thomas Jefferson)
À mesure que la notion de propriété intellectuelle continue d’étendre sa portée, une part de plus en plus importante de ce qui était de l’ordre de la connaissance commune, devient la propriété de grandes entreprises. À mesure que les infrastructure de communication sont déviées pour favoriser la protection de la propriété plutôt que la diffusion libre des idées, les possibilités de débat critique sont fortement restreintes.
Même si les idées ne sont pas l’objet de copyright, des législations de protection du copyright draconiennes limitent la portée et le sens du libre usage, et même le cours des innovations, ayant ainsi le même effet que si les idées étaient sous la propriété et le contrôle de ces grandes entreprises. Ceci inclut le code utilisé à l’intérieur des ordinateurs et des réseaux pour le contrôle de la transmission ou de la reproduction de l’information. Ceci comprend ainsi la détermination de ce qui est partagé par les particuliers ou alloué aux grandes entreprises, diffusant de la sorte la propriété intellectuelle protégée [6].
Privauté
Qu'elle soit démocratique ou non, toute concentration de pouvoir ou de richesse désire rarement, très rarement, que les individus soient bien informés, réellement éduqués, que leurs vies privées soient respectées et non-limitées. Ce sont exactement ces choses que la richesse et la puissance craignent le plus. Les anciennes formes de gouvernements ont toutes les raisons d’opérer en secret, tout en refusant ce privilège aux individus. Le peuple doit être minutieusement scruté, tout en conservant le pouvoir hors d’atteinte. (Dee Hock) [7]
Outre la capacité légale et technique de s'exprimer et de participer au débat critique, les citoyens doivent être autorisés à parler sans crainder la répression. Dans notre monde de plus en plus sophistiqué de base de données et de profilage systématique des individus, la protection de ces citoyens et des agitateurs publics, prêts à remettre en question le pouvoir, doit être assurée. Les puissants sont de plus en plus en position de menacer les faibles, et ce pouvoir doit être contré par une possibilité accrue offerte aux individus de gérer leurs identités, définies de plus en plus souvent par les profiles créés en utilisant les informations collectées électroniquement.
Ceci est essentiel pour comprendre la différence entre privauté et transparence. Lorsque les puissants collectent des informations pour controler les faibles, et se cachent derrière le voile de la confidentialité, il s'agit d’une invasion de la sphère privée, d’une base à un méthode de sécurité fondée sur la surveillance.
Dans l’une des critiques les plus précoces du projet de carte d’idendité (janvier 1986), le professeur Geoffrey de Q Walker, désormais doyen de la faculté de droit à l’Université de Queensland, observait [8] (Simon Davies):
L’un des contrastes fondamentaux entre les sociétés libres démocratiques et les sytèmes totalitaires réside dans ce qu'un gouvernement totalitaire (or une organisation totalitaire) repose sur la confidentialité pour le régime, tout en réclamant une haute surveillance et une importante ouverture de tous les autres groupes, tandis que dans la culture civique d’une démocratie libérale, cette position est approximativement renversée.
Steve Mann présente la notion de sousveillance [9] comme une méthode permettant au public de contrôler l’establishment@@@ et d’obtenir ainsi un nouveau niveau de transparence. La presse a tenu ce rôle, mais du fait de leur forte orientation vers un feedback@@@ positif, les média ont eu tendance à se concentrer sur des questions moins importantes, leur donnant un niveau d’attention démesuré. Un exemple de cette fascination des médias fut celle qu'ils portèrent à Gennifer Flowers et ses déclarations sur la relation qu'elle aurait eue avec le Président Clinton.
Les weblogs et d’autres formes de filtrage associées avec les nombreuses technologies de capture@@@ et de transmission présentées par Mann pourraient fournir une meilleure méthode de capturer et de filtrer les informations les plus pertinentes tout en supprimant les informations non pertinentes dans lesquelles les dommages à la sphère privée dépassent la valeur offerte au public.
Un exemple au cours duquel les weblogs ont surpassé la capacité des média à identifier les informations pertinentes est celui donné par l’affaire Trent Lott. Les média nationaux rapportèrent brièvement ses commentaires racistes durant la célébration du 100ème annivaire de Strom Thurmond. Alors que les médias avaient fini d’accorder leur attention à cette affaire, les weblongs ont continué à trouver des preuves du passé raciste de Lott, jusqu'à ce que les mass média le remarquèrent à nouveau, et en firent la couverture plus en profondeur [10].
L’équilibre entre ce qui est pertinent et ce qui ne l’est pas est excessivement difficile à déterminer, important, et soumis à des biais culturels. Il est donc nécessaire de trouver des mécanismes pour vérifier l’équilibre et la non-corruption du filtre. Il s'agira d’un ensemble de contrôes et de contre-pouvoirs variés, et d’une combinaison de diverses méthodes qui pourrait nous fournir une vision équilibrée.
Sondages et démocratie directe
La démocratie directe - le gouvernement du peuple par lui-même - a toujours été qualifié d’impossible à grande échelle, du fait de la difficulté technique d’une telle gouvernance directe, et de ce que les complexités impliquées dans la gestion d’un vaste état nécessitent une compréhension bien plus profonde des problèmes posés, une spécialisation et une répartition des tâches. La démocratie représentative, dans laquelle les représentants du peuple élus sont choisis via un mécanisme de vote, est considérée par la majorité comme la seule voie possible pour gérer une démocratie de grande dimension.
À mesure que le mécanisme de vote devient plus organisé et que la difficulté de prendre part au débat critique augmente, nous constatons que les représentants élus représente ceux qui ont le pouvoir d’influer sur le mécanisme de vote et le débat public. Ces groupes sont souvent des minorités qui ont plus d’influence financières ou une capacité à mobilier un nombre important de gens motivés, par des moyens religieux ou idéologiques. Les extrémistes et les intérêts privés dominent nombre de démocraties, et la majorité silenciuse a une influence très limitée sur la sélection des représentants ou sur le débat politique [11].
Un ensemble varié de groups ont réussi à sonder la majorité silencieuse et à amplifier ses opinions pour soutenir des politiciens modérés sur des questions politiques. L’un de ces groupes, Peaceworks, opère en Israel et Palestine au travers de sondages, par téléphone ou sur Internet, de citoyens moyens qui sont en faveur de la paix, et de l’amplification de leurs opinions en publiant leurs résultats dans des rapports et dans les mass média. Cette méthode de contournement des méthodes traditionnelles d’influence sur les représentants est une forme de démocratie directe, qui devient de plus en plus populaire et importante à mesure que la technologie rend ces sondages plus faciles.
En général, le sondage, en tant que forme de démocratie directe, est très efficaces pour les questions relativement simples, et sur lesquelles la majorité silencieuse a une opinion sous-représentée. Pour les problèmes plus complexes, une telle démocratie directe est critiquée comme populiste et irresponsable.
Pour adresser ce problème, le professeur James S. Fiskin a développé une méthode de sondate appelée sondage délibératoire. Un sondage délibératoire combine une délibération des petits groupes de discussion avec un échantillonnage scientifique et aléatoire, pour augmenter la qualité et la profondeur de la compréhension des participants, tout en conservant un échantillonage qui reflète la distribution réelle de la population, plutôt que la distribution du pouvoir politique. Le sondage délibératoire a été utilisé avec succès pour sonder des personnes sur des questions relativement complexes telle que les politiques d’imposition [12].
Il est possible qu'il existe une méthode pour que les citoyens s'organisent d’eux-même pour discuter et résoudre des problèmes complexes, améliorer notre démocratie, sans qu'aucun des citoyens ne soient requis de connaître ou de comprendre la totalité. Ceci est l’essence même d’une émergence, et c'est ainsi que les colonies de fourmies sont capables de "penser", et que notre A.D.N. est capable de construire nos corps dans leur complexité. Si les technologies de l’information pouvaient fournir une mécanisme pour que les citoyens d’une démocratie puissent prendre part à la vie publique suivant un modèle qui permet l’auto-organisation et la compréhension émergente, il est possible qu'une forme de démocratie émergente pourrait résoudre nombre des questions de complexité et d’échelle posées aux gouvernement représentatifs actuels.
Dans les systèmes complexes, le rôle du chef n’est pas de déterminer la direction et de controler ceux qui le suivent, mais il est de maintenir l’intégrité, de représenter la volonté de ceux qui le suivent, d’influer et de communiquer avec ses pairs et les chefs supérieurs [13]. Le chef devient alors plus un facilitateur et un gardien du processus qu'une figure de pouvoir, et il est ainsi souvent le catalyseur ou l’animateur du débat critique, ou le représentant d’une groupe engagé dans un tel débat [14]. Le chef est souvent le messager portant le consensus d’une communauté à un autre niveau ou un autre groupe. Et de fait, certains chefs dans une démocratie représentative agissent de la sorte. Et à mesure que les dirigents deviennent nécessaires pour gérer le développement d’une opinion ou d’une idée autour d’une question complexe, les technologies de l’informations peuvent rendre possible la sélection rapide et ad-hoc d’un dirigeant et de la représentation de cette opinion ou idée dans un débat plus large.
Emergence
Dans l’étude des systèmes complexes, l’idée d’émergence est utilisée pour indiquer l’aparition de motifs, de structures ou de propriétés qui ne semblent pas s'expliquer de manière adéqute par référence uniquement aux composantes pré-existantes du système et à leurs interactions. L’émergence prend un rôle de plus en plus important lorsque le système est caractérisé comme suit:
(emergence.org) [15]
- l’organisation du système, i.e. son ordre global, aparaît plus essentiel et d’un autre genre que celui des composantes isolées ;
- les composantes peuvent être remplacées sans que le système dans son ensemble ne se décompose ;
- les motifs ou propriétés nouveaux du système global sont radicalement différentes de celles des composantes pré-existantes ; de ce fait, les motifs émergents semblent imprévisibles et non-déductibles des composantes, ainsi qu'ils sont irréductibles à celles-ci.
Dans son livre Emergence, Steven Johnson décrit les colonies de fourmis moissonneuses, qui affichent une capacité étonnante à résoudre des problèmes très compliqués, entre autre des problèmes de géométrie. L’échange suivant est extrait d’une interview avec Deborah Gordon, qui étudie les fourmis :
Elle dit:Regardez ce qui s'est passé ici : elles ont construit le cimetière au point exact le plus éloigné de la colonie. Et le dépotoire est encore plus intéressant : elles l’ont située précisément au point qui maximise la distance à la fois de la colonie et du cimetière. C'est comme s'il y avait une règle qu'elles suivaient : mettez les fourmis mortes aussi loin que possible, et mettez les déchets aussi loin que possible sans les mettre à proximité des fourmis mortes.
Johnson explique qu'aucune des fourmis n’est responsable de cela. La résolution de ce genre de problèmes par les fourmis tient du comportement émergent qui découle de ce qu'elles suivent des règles très simples, et ont de multiples moyens d’interagir avec leurs voisins immédiats.
Le foetus humain se développe en un ordre de niveau supérieur à travers ce même principe d’application d’un ensemble de règles et d’interaction avec ses voisins immédiats. Lorsque la première cellule se divise en deux, une moitié devient la tête, l’autre la queue. À la division suivante, les quarts déterminent s'ils sont destinés à être la tête ou la queue, et ils deviennent la tête de la tête, ou la queue de la tête, et ainsi de sutie. Cette alternance division-spécialisation continue jusqu'à ce que les cellules aient créé, en suivant un ordre simple, un corps humain complexe. Les cellules du foie savent qu'elles doivent se transformer en cellules de foie, parce qu'elles sentent que leurs voisines sont aussi des cellules du foie et en lisant le code A.D.N. pour comprendre exactement ce qu'il est supposé faire. Il n’y a pas de contrôle omniscient, mais seulement un nombre énorme de cellules indépendantes qui appliquent des règles, communiquent avec leurs voisines et sont sensibles à leur état. [16]
In The Death and Life of Great American Cities (Mort et Vie des Grandes Villes Américaines), Jane Jacobs s'essaye à montrer que l’urbanisme planifié en Amérique a tendance à échouer lorsque des plans qui changent la nature d’un quartier, imposés par le sommet, sont mis en oeuvre. La plupart des larges projets envisagés pour améliorer la qualité des zones de ghettos en construisant de grands appartements n’ont pas réalisé leur but. À l’inverse, les quartiers qui ont prospéré l’ont fait de façon bien plus émergente. Elle montre que l’interaction entre les gens sur les trottoirs et dans les rues crée une culture et une compréhension de la rue qui est bien plus adaptée à la gestion des quartiers des villes qu'un controle centralisé, et qu'au lieu de raser les problèmes de la ville avec des bulldozers, les urbanistes devraient étudier les quartiers qui marchent et essayer d’imiter les conditions qui produisent le comportement émergent positif. [17]
Weblogs et émergence
Dans son livre Emergence, Johnson explique :
Les technologies en coulisse d’Internet -- depuis les micro-processeurs dans chaque serveur Web, jusqu'aux protocoles ouverts qui gouvernent les données elles-mêmes -- ont été designé de façon brillante pour gérer des augmentations d’échelles drastiques, mais elles sont indifférentes, sinon tout-à-fait hostiles, à la tâche de créer un ordre de niveau supérieur. Un équivalent neurologique au taux de croissance du Web, mais que personne ne veut vraiment émuler, s'appelle la tumeur cérébrale.
Emergence a été écrit en 2001. Un changement a eu lieu sur Internet depuis l’an 2000. Les weblogs, des genres de journaux personnels en-ligne, qui ont existé à peu près depuis aussi longtemps que le Web lui-même, ont commencé à croître en nombre et en influence. Ces weblogs commencent à afficher une capacité à gérer une ensemble de tâches variées, qui semble être une forme de comportement émergent dû aux changements dans la façon dont ces weblogs sont gérés.
L’explication de Johnson pour l’incapacité des pages Web à s'organiser d’elles-même est que :
Les systèmes qui s'organisent d’eux-mêmes utilisent la rétroaction pour conserver par eux-mêmes une structure plus ordonnée. Et puisque les liens à sens unique du Web ne permettent pas la rétroaction, il n’y a aucun moyen que le réseau apprenne à mesure qu'il croît, ce qui explique pourquoui il est aujourd’hui aussi dépendant des moteurs de recherche pour régner sur ce chaos naturel.
Il décrit aussi comment, dans le cas des fourmis, la multitude d’interactions simples, locales et aléatoires les aident à faire apparaître un comportement émergent.
Les weblogs sont différents des pages Web trandtionnelles écrites à la main pour plusieurs raisons. Ils impliquent l’utilisation d’outils de gestion du contenu, ce qui rend bien plus aisé l’ajout d’entrées, augmentant ainsi la fréquence de publication. Ces entrées sont en général courtes et prennent différentes formes, telles que des textes, des photographies, des sons ou de la vidéo, que l’on qualifie de micro-contenu [18]. La culture des weblogs encourage les bloggueurs (les personnes qui ont un weblog) à commenter sur des entrées publiées sur d’autres weblogs, en pointant vers la source. Plusieurs de ces systèmes de publications ont des protocoles qui ajoutent automatiquement un lien de la source vers cette nouvelle entrée. Les weblogs génèrent des fichiers XML [19] en supplément du HTML, qui utilisent un protocol standard appelé RSS [20], et qui permet aux ordinateurs de recevoir les mises à jours faites sur ces weblogs au travers de logiciels spécifiques, tels que Feedreader [21] pour Windows ou NetNewsWire [22] pour les Macintosh ; ces logiciels recherchent en permanence les nouvelles entrées sur les weblogs favoris de l’utilisateur.
Lorsque de nouvelles entrées sont publiées sur un weblog, elles envoient une notification à des services tels que weblogs.com [23] créé par David Whiner, et qui gardent la trace des mises à jour de weblogs en temps réel. Cette information est aussi utilisé par une variété de nouveaux services pour générer des méta-informations au sujet des weblogs. Parmi ces nouveaux sites d’information on compte Blogdex [24], qui parcourent les weblogs à la recherche de citations d’articles, et les classent en fonction du nombre de références qui pointent vers eux ; de même, Technocrati classent les weblogs en comptabilisant les liens entrants et sortants de weblogs donnés, et d’entrées données sur un weblog.
Outre les échanges de liens entre articles de Weblogs, les bloggueurs pointent entre eux via les blogrolls. Les Blogrolls sont les listes de weblogs favoris d’un bloggueur donné. Des services tels que blogrolling.com [26] assistent les bloggueurs dans la gestion de leurs blogrolls et leurs permettent de découvrir ceux dont les blogrolls référencent leur weblog. Des services tels que blogstreet [27] permettent de visualiser le "voisinnage" d’un bloggueur en suivant et en analysant ces liens.
De la sorte, la structure des weblogs résout le problème que Johnson soulève concernant l’incapacité du Web à s'auto-organiser. Les réactions d’un Weblog à l’autre, et les liens à double-sens rendent les weblogs capables d’afficher une auto-organisation émergente.
La loi exponentielle
@@@Dans un document largement diffusé et vers lequel de nombres liens ont pointé, Clay Shirky s'efforce de montrer que les weblogs affichent une forme d’ordre à l’heure actuelle, car la communauté est toujours réduite, mais qu'à mesure que la communauté s'élargit, cet ordre affiché va se fragmenter, de façon similaire as ce qui est arrivé dans le passé pour les communautés en-ligne des groupes de news Usenet, des listes de diffusions et des bulletins électroniques. Dans ce document, Les Lois Exponentielles, les Weblogs et l’Inégalité [29], il montre que l’analyse des liens entrants pour les weblogs dévoile une distribution selon la classique loi exponentielle. Cette distribution est une distribution de valeurs dans laquelle la valeur d’une unité donnée est l’inverse de son classement (pour un classement n, une valeur de 1/n). Le weblog en seconde place reçoit la moitié des liens entrants du weblog en tête, le weblog en troisième position reçoit 1/3 de liens entrants, et ainsi de suite.
Cette distribution en loi exponentielle peut aller contre l’intuition. Au début du Web, les gens espéraient que la facilité de mise en place d’une page web augmenterait de façon drastique le nombre de personnes publiant leurs opinions, et que ceci amènerait à un système décentralisé et diversifié. Dans les faits, ce sont les portails et les moteurs de recherche qui ont recueilli la majeure part du traffic, et une économie de l’attention [30] s'est mise en place, c'est-à-dire une économie dans laquelle la ressource rare était l’attention de l’internaute. Cette attention se traduisait en terme de traffic sur un site web : les gens vont tout d’abord sur un portail pour les aider à trouver ce qu'ils cherchent ; ensuite, il vont sur les grands sites de commerce et de nouvelles, qui fournissent des informations et des produits de grande qualité. Très peu de personnes aboutissent sur les sites de plus petites dimensiosn. Cette économie de l’attention a donc assigné une valeur au traffic, qui, sur les sites les plus populaires, est acheté sous forme de bannières de publicités et de liens. Ce marché est le principal type de revenus pour la plupart des moteurs de recherche et des portails de nos jours.
Shirky proclame que les weblogs les mieux classés se transformeront au final en mass média, et les weblogs à l’extrémité de la courbe auront des difficultés à être lus. De ce fait, ces weblogs n’apparaîtront plus que comme des conversations locales entre amis. Il explique que'il sera toujours plus difficile de mettre de côté les sites haut placés, et ses données en distribution exponentielle renforcent cette affirmation.
De nombreux bloggueurs ont réagi négativement à l’analyse de Shirky. Malgré la loi exponentielle qui apparaî dans le domaine des portails, nombre des sites bien classés étaient peu connus. J’ai défendu la thèse selon laquelle il y avait de nombreux maximums locals, et que l’analyse de la loi exponentielle en deux dimensions ne reflétaient pas les aspects les plus intéressants des weblogs [31].
L’ecosystème de Mayfield
@@@Ross Mayfield a proposé une vue alternative de l’économie politique des weblogs. Il souligne que tous les liens ne sont pas égaux en valeur. Ainsi explique-t-il que il y a trois types de réseaux qui se développent parmis les weblogs.
Le premier, le réseau politique, obéit à la loi exponentielle et est similaire à une démocratie représentative dans laquelle certains weblogs reçoivent les liens de milliers d’autres, et ces liens représentent quelque chose de similaire à un vote. Les weblogs au sommets de la courbe exponentielle ont une grande influence.
Le second réseau est le réseau social. Les réseaux sociaux sont ce qui constitue la forme traditionnelle du weblog. La loi des 150 est une théorie selon laquelle un individu peut maintenir en moyenne 150 relations personnelles. Cette loi correspond à une distribution en cloche dans laquelle certains weblogs reçoivent plus d’attention que les autres, et cette distribution représente fidèlement la qualité des weblogs.
Le troisième réseau est le réseau créatif. Le réseau créatif est une distribution plate d’un réseau d’associés proches, orienté vers la production, fondé sur une confiance profonde et des échanges de liens importants. On s'accorde à dire que le nombre optimal pour organiser une conversation de dîner ou une équipe resserrée est de 12.
La force des jonctions faibles
Dans La force des jonctions faibles, Mark Granovettter [33] décrit la valeur des jonctions faibles dans les réseaux. Les jonctions fortes sont les liens de proximité qui existent au sein de petits groupes tels que les familles ou les unités de recherche. Les jonctions faibles sont les liens entre les personnes qui servent de point de contact entre ces petites communautés. Granovetter fait une étude de la recherche d’emploi et montre que les individus trouvent des emplois de façon plus probable à travers leurs jonctions faibles qu'au travers des fortes.
La force des jonctions faibles est illustrée dans l’expérience célèbre de Milgram des six degrés de séparation.
En 1967, Milgram, psychologue social d’Harvard, envoya environ 300 lettres à des personnes sélectionnées au hasard à Omaha dans le Nebraska, avec pour instruction de faire suivre cette lettre à une cible
unique, une personne vivant à Boston, en utilisant uniquement des intermédiaires connus personnellement.
Milgram donnait à chaque expéditeur
le nom, l’adresse et l’activité de la cible. Si l’expéditeur ne connaissait pas la cible - comme cela était probable - il pouvait envoyer la lettre à quelqu'un dont il pensait qu'il serait plus proche
de la cible. Ceci lança une chaîne d’expéditeurs envoyant les lettres à leurs amis et associés dont ils pensaient qu'ils pourraient rapprocher la lettre de la cible.
60 lettres atteignirent leurs cibles, et en moyenne, le nombre d’intermédiaires pour l’atteindre fut de 6.
Six degrés de séparation montre à quel point les jonctions faibles sont puissantes et combien les communautés fortement liées sont connectées ensemble avec une nombre relativement petit de jonctions faibles.
C'est la capacité des weblogs d’opérer aux trois niveaux de Mayfield qui les rend si puissants. Un weblog donné, voire une entrée donnée dans un weblog peuvent avoir un but opérationnel, un but social et un impact sur le réseau politique.
La plupart des bloggueurs commencent leurs weblogs pour communiquer avec leurs pairs proches. Ils vont essentiellement pointer leurs liens vers leur petit groupe, et communiquer à l’intérieur de celui-ci. À un moment donné, ils vont découvrir une information ou un point de vue qui va résonner avec le niveau suivant, le niveau social. Leurs relations sociales vont relever les dites entrées qu'ils trouvent potentiellement intéressantes pour d’autres participants à leurs réseaux sociaux. De la sorte, un petit groupe concentré sur une zone très locale peut à l’occasion fournir un contenu qui déclenche une connection via une jonction faible, connection porteuse de la dite information vers le niveau suivant. Si cette information résonne dans un nombre croissant de weblogs, l’attention portée à la source va augmenteur rapidement, puisque l’information voyage avec un lien retournant à la source. La source pourra donc continuer à participer à la conversation, puisqu'elle sera tenue au courant de tous les liens pointant vers la dite information.
De la sorte, le système de rétroaction positive des weblogs est capable d’identifier les informations importantes au niveau politique en transmettant ces informations via les jonctions faibles.
Du bruit est ainsi supprimé du système, et le signal est amplifié. Initialement, les 12 pairs lisent le bavardage opérationnel au niveau du réseau créatif de Mayfield. La couche du réseau social parcours les weblogs de leurs 150 amis et transmet les informations significatives aux réseaux politiques. Les réseaux politiques ont une série de maximums locaux qui représentent encore une nouvelle couche. Du fait de phénomène des six degrés, très peu de liens sont nécessaires pour faire s'élever un sujet significatif globalement vers le haut de la courbe exponentielle. Ceci permet l’existence d’une bonne dose de spécialisation et de diversité au niveau créatif sans création de bruit au niveau politique.
Un exemple intéressant de maximums locaux réside dans le réseaux des weblogs pro-guerre conduisant un débat inter-weblogs avec les weblogs anti-guerre. Chaque maximum local représente l’aggrégation d’un réseau de weblogs de chaque opinion finissant par pointer leur liens entre elles, culminant dans un débat inter-weblogs surchauffé, avec un niveau de bruit relativement bas et un débat critique de bonne qualité [34].
Le cerveau et les réseaux stimulateurs
Peter Kaminiski fait la remarque suivante :
Depuis quelques années maintenant, j’ai travaillé sur l’hypothèse que le processus qui gouverne la façon dont nos cerveaux pensent, ce que William Calvin décrit comme lespropriétés émergentes de réseaux stimulateurs récursifs dans les couches superficielles du cortex cérébral, s'étend de façon similaire à la manière dont les gens travaillent en groupe, en groupe de groupes - escaladant ainsi jusqu'à la démocratie directe [35].
La théorie de Calvin est que le cortex cérébral est constitué de colonnes de neurones, qui sont fortement liés entre eux. Ces colonnes résonnent à certains type de stimulus. Lorsqu'elles sont stiumlées, elles stimulent leurs colonnes voisines. Si les colonnes voisines entrent en résonance pour ce même motif, elles excitent aussi leurs voisines. De la sorte, la surface du cortex cérébral se comporte comme un espace de vote, chaque colonne de neurones étant stimulées par une variété de motifs différents (les idées), décidant de résonner avec certaines et stimulant alors leurs voisines. Lorsqu'un nombre suffisamment élevé de colonnes commence à résonner pour le même motif, la pensée s'établit en compréhension. Les organes des sens fournissent des stimuli à différentes colonnes, et d’autres organes reçoivent en sortie des ordres d’action fondée sur la compréhension.
Le modèle de Calvin qui décrit comment nous pensons montre que le cerveau utilise l’émergence, la force des jonctions faibles et le modèle de stimulation des voisins pour résoudre les pensées. La structure du cerveau est très similaire à l’écosystème de Mayfield. L’une des clefs et que les colonnes ne stimulent que leurs voisines. Ce facteur d’auto-limitation est l’un des facteurs que Jonhon décrit dans la formation du comportement émergent des fourmis. Les weblogs sont aussi limités par la capacité des individus à lire un nombre limité d’entrées de weblogs par jour, et la tendance à lire non pas les weblogs avec un classement politique élevé, mais plutô les weblogs d’intérêt créatif et social. Cette rétroaction limitative est essentielle dans le maintien du volume d’interaction dans la zone importante d’émergence maximum, située entre le bruit complètement aléatoire et l’odre complètement vain.
La confiance
Un autre des aspects très importants dans la compréhension des relations entre les composantes du réseau et la nature des comportements émergents dans les réseaux humains est la question de la confiance.
Francis Fukuyama, dans son livre Trust, affirme que ce sont les nations qui ont été capables d’établir une couche de confiance plus large que la cellule familiale et plus petite que la nation qui ont réussi à mettre en place des organisations larges et flexibles. En Allemagne, ce furent les guildes, au Japon, les iyemoto (les familles féodales qui admettaient de nouveaux membres), et aux US, une variété de groupes religieux.
Toshio Yamagishio [36] distingue l’assurance et la confiance [37]. Yamagishi affirme que dans une société fermée, les individus ne font pas confiance en la fiabilité des autres, mais sont plutôt assurés que les autres vont se comporter correctement du fait de l’incapacité de l’individu à échapper à la communauté et à cause de la peur de la punition. Dans les communautés ouvertes, dans lesquelles les individus sont libres d’entrer et qu'ils sont libres de quitter, la confiance et la fiabilité sont essentielles à la mise en place d’organisations collaboratives. Yamagishi fournit des données montrant que les sociétés fermées telles que le Japon ont un pourcentage plus faible de personnes qui font confiance aux autres que dans les sociétés ouvertes telles que les États-Unis où la confiance entre individus est nécessaire.
Yamagushi a conduit une expérience mettant en oevure un marché électronique dans lequel les participants s'achètent et se vendent des articles, et où les participants peuvent mentir sur la qualité des articles qu'ils vendent. Dans un scénario de marché fermé où la réputation des participants était connue et où il ne leur était pas possible de changer d’identité, la qualité des transactions ést naturellement haute. Dans un système complètement anonyme, la qualité était basse. Lorsque les participants étaient autorisé à changer leurs idendités et que seule la réputation négative était connue, la qualité commençait à un haut niveau, mais diminuait avec le temps. Lorsque les participants étaient autorisés à changer leurs identités et que seule la réputation positive était connue, la qualité commençait à un niveau bas, mais augmentait avec le temps et approchait la qualité des transactions dans un réseau fermé [38].
A mesure que les réseaux deviennent plus ouverts et complexes, les réseaux fermés qui reposent sur la possibilité de punir ses membres et d’exclure les participants inconnus deviennent extrêmement limitatifs. Les réseaux dynamiques ouverts, qui reposent sur la capacité de leurs membres à se faire confiance mutuellement et à identfier la fiabilité à travers la gestion des réputations positives, sont flexibles et expansibles@@@. Les liens entre weblogs, la possibilité de voir les histoire des individus à traveurs leurs weblogs, et la persistance des entrées augmentent significativement la possibilité de circulation de la réputation positive. La confiance et la réputation s'établissent à mesure que les réseaux créatifs, sociaux et politiques recueillent un respect mutuel reconnu et illustré à travers liens réciproques, en premier lieu via les comportements de blogrolls, et en second lieu par les liens simples et les citations. Un autre facteur qui aide à maintenir un haut niveau de confiance est la création d’éthiques de fiabilité. La fiabilité vient de l’amour propore, qui implique une motivation due à la confiance en soi plutôt qu'une motivation due à la peur et à la honte [39].
Les fabricants d’outils
Après la bulle Internet, un grand nombre de programmeurs et d’architectes talentueux n’étaient plus concerntrés dans la fabrications de composants pour de larges projets, qui était souvent voués à l’échec par le design élémentaire par le haut de business plans établis à la hâte, plus intéressés par l’appel des investisseurs que toute autre chose. Les programmeurs et architectes talentueux sont maintenant plus concentrés sur de petits projects pour construire des outils et designer une architecture pour eux-mêmes plutôt que pour des clients imaginaires dans des marchés imaginaires pour des investisseurs imaginant des bénéfices avant de disparaître. Ces fabricants d’outils les utilisent pour communiquer, discuter et designer l’infrastructure. Ils partagent les informations, établissent des standards et collaborent sur la compatibilité. La communauté des fabricants d’outils pour les weblogs et des technologies associées est une communauté vivante, similaire à l’Internet Engineering Task Force (le groupe de travail d’ingénierie pour Internet, l’IETF) à l’époque des débuts d’Internet, lorsque des programmeurs indépendants pour la première fois pouvait écrire des logiciels de réseau et entrer le domaine controllé jusque là par les grandes companies de télécommunications et de matériel électronique. La communauté des developpeurs de weblog a commencé par developper des outils pour elle-même, mais est maintenant en situation d’avoir un impact et une influence significatifs sur les mass média, la politique et les réseaux d’affaire de la vieille école. C'est là que réside l’espoire que nous pouvons découvrir comment étendre le réseau de weblogs de façon à ce que les bloggueurs puissent jouer un rôle croissant dans la société.
Où en sommes-nous ?
Il y a plusieurs millions de weblogs sur Internet. Cependant, les outils resent difficiles d’utilisation pour beaucoup de gens, et la plupart des gens n’ont aucune idée de ce que sont les weblogs. Ceux-ci sont encore avant tout un phénomène américain, bien que la tendance se développe rapidement dans d’autres pays.
Chaque jour, de nouveaux outils, de nouvelles fonctionnalités et de nouveaux styles de weblog sont inventés, annoncés et discutés. Une variété de nouveaux développement apparaissent à l’horizon.
L’un des aspects des weblogs qui les rend plus intéressant que les pages web traditionnelles est la fréquence et la rapidité des discussions. Récemment, un groupe de bloggueurs, dont moi-même, ont commencé à organisé des rencontres (Happenings
), comprenant une présentation aurale par téléphone, un canal de discussion en tchat pour les conversations parallèles et permettant d’assurer la modération de la présentation par téléphone, et un Wiki [41] (Wiki est un outil qui permet à un certain nombre der personnes de créer et d’éditer des pages web facilement) pour fournir un espace de collaboration. Les weblogs sont par leur nature à peu près aussi rapide que l’email, mais les messageries instantanéees (écrites et aurales) permettent un niveau de communication plus rapide et plus personnel, de sorte que la vitesse du problème à résoudre augment jusqu'à la "vitesse d’échappement".
Compte tenu de l’augmentation du nombre d’appareils mobiles sans fil, les weblogs mobiles appelés moblogs
[42] gagnent en popularité. Les mobloggueurs publient leurs photos et leurs textes depuis leurs téléphones mobiles et autres appareils mobiles. À mesure que les informations de localisation deviennent disponibles dans ces apparaeils, les moblogs vont devenir un moyen d’annoter le monde réel, permettant ainsi de laisser ou de chercher des informations sur des lieux donnés. Les moblogs présentent des problèmes de privauté, mais néanmois, leur capacité à contribuer à la vision de Steve Mann’s de sousveillance est intéressante.
Tous ces nouveaux dé