2006 – Dispositifs wikis dans les systèmes de publication collective : contours d’une malléabilité éditoriale

L’article montre comment les wikis sont emblématiques de pratiques éditoriales collaboratives dans la mesure où ceux-ci facilitent une écriture en mouvement passant par le postulat d’une validation a posteriori. Il montre aussi comment les wikis sont à la recherche d’une simplification des modalités de publications mais dès que l’on introduit des modalités de régulation, on perd la souplesse éditoriale et on recrée de la complexité d’usage. Cet article est la reprise écrite de ma communication lors de DOC SOC 2006

Références:

Paru dans l’ouvrage, sous la direction de Gislaine Chartron et d’Evelyne Broudoux dans Document numérique et société actes de la conférence [DocSoc] organisée dans le cadre de la semaine du document numérique à Fribourg, Suisse, les 20 et 21 septembre 2006, éditions ADBS, ISBN 9782843650895 ), rassemblant les communication ayant eu lieu pendant le colloque.

L’article est disponible en téléchargement sur http://archivesic.ccsd.cnrs.fr/sic_00378744/fr/  (ref oai:archivesic.ccsd.cnrs.fr:sic_00378744)

Commentaires de relecture :

Le titre est un peu ronflant et indigeste, mais on trouvera une description et une analyse du passage du web statique au web dynamique.
Quelques réactualisations seraient les bienvenues et en particulier autour des questions de gouvernance de wikipédia.

Texte intégral (ou presque)

Attention l’intégralité de l’article reproduit ici est “quasi brute de copié-coller”. Les notes de bas de page et la mise en forme du document ont pu subir quelques outrages. La version officielle est celle se trouvant sur archivesic et dans l’ouvrage cité.

Introduction :  Contextes d’évolution : d’un web statique à un web dynamique

L’objet de cette contribution est le développement des wikis comme parties d’espaces web ayant plusieurs rédacteurs1. L’émergence de ces dispositifs nous est apparue pertinente dans la mesure où un wiki modifie les règles « traditionnelles » de la publication en ligne.

Si l’on schématise les modèles sociotechniques de publications en ligne, nous pouvons les réduire à deux grandes familles originelles :

  • les sites statiques où les contenus sont traités localement par un ou plusieurs rédacteurs authentifiés qui transfèrent ensuite les fichiers vers le serveur ;
  • les sites dynamiques potentiellement collaboratifs dont les éditeurs sont des utilisateurs qui ont des privilèges pour intervenir sur les contenus.

Les sites statiques fonctionnent sur un modèle de publication asynchrone tandis que les contenus des sites dynamiques sont publiés en fonction de règles définies au niveau de leur administration technique. Les contenus peuvent donc être gérés de façon synchrone ou asynchrone selon des choix indépendants du système technique. Mais on ne peut réduire cette distinction à des installations technologiques : on peut gérer un site statique avec une technologie de site dynamique comme on peut gérer dynamiquement un site avec des outils de sites statiques2.

Les sites statiques se caractérisent par l’édition individualisée de chaque contenant (les pages html) qui conserve ainsi chacun son indépendance de traitement éditorial3. Le rédacteur intervient aussi bien sur le contenu que sur l’organisation de celui-ci dans la page, et surtout sur les relations que celui-ci entretient avec les autres contenus d’un site donné.

Dans le cas des publications dynamiques, la gestion des contenus est séparée de leur contenant. Ce dernier est produit à la volée à partir de scripts exécutés sur le serveur. Ces scripts vont mettre en forme des contenus hiérarchisés ou préalablement structurés et stockés dans un système de base de données4. Il y a alors une séparation théorique formelle entre un webmestre technique qui gèrerait le « moteur » et des webmestres rédacteurs qui interviendraient sur les contenus directement au niveau du site devenu logiciel de publication. Cette intervention rédactionnelle se fait à partir de formulaires dont l’accès peut être régulé par un système d’authentification de l’internaute. À l’intérieur de ces formulaires, le rédacteur gère des contenus compatibles avec le traitement qu’en autorise le système. Selon un ensemble de règles propres au système d’édition, le contenu sera directement accessible par les visiteurs du site ou sera soumis à une validation par une autre instance(5).

Les années 2000 ont vu exploser le nombre de sites dynamiques pour les raisons suivantes :

  • mutualisation de la production de contenu par l’intervention de plusieurs rédacteurs. Dans le cas des sites statiques, il fallait partager des données de connexion, ce qui fragilisait la sécurité du système6 (sites collaboratifs) ;
  • accélération de la réactivité (voire de l’interactivité) en permettant, selon la gestion des droits, une plus grande synchronicité entre rédaction et publication (sites communautaires) ;
  • uniformisation identitaire de la publication : la mise en forme des contenus est régulée par des scripts qui organisent la présentation de l’information à partir d’éléments statiques intouchables par les rédacteurs et en plaçant les contenus singuliers dans des espaces « normalisés » ;
  • délocalisation de l’édition. À partir du moment où la rédaction se fait sur un site, au travers du navigateur du rédacteur, celui-ci peut intervenir depuis n’importe quel ordinateur accédant à ce site sans nécessiter l’utilisation de logiciels d’édition fonctionnant localement. Les rédacteurs ne sont donc plus dépendants de la matérialité de leur connectivité(7).

Plusieurs facteurs ont contribué à la multiplication du nombre de sites dynamiques :

  • techniques : la multiplication du nombre de fichiers pour un site statique rendent son évolution et le maintien de sa cohérence très lourds ;
  • éditoriaux : la gestion de sites volumineux par plusieurs rédacteurs sur un mode statique impose un modèle de centralisation rédactionnelle qui nuit à la souplesse de publication ;
  • socioculturels : nécessité de donner la « parole » aux visiteurs ;
  • cognitifs : séparer la production de contenu de la compétence informatique à les publier et faciliter ainsi la possibilité de publier sans avoir à connaître les technologies de publications8 ;
  • économiques : réduction des coûts induits par les outils éditoriaux9 et possibilité d’utiliser des technologies dynamiques de « panier » avec sécurisation des transactions en ligne ;
  • techno-culturels : pour un public technophile, un site dynamique est bien plus à la mode qu’un site statique ;
  • esthétiques : il est possible de stabiliser l’apparence des sites dynamiques, de confier celle-ci à des spécialistes, de s’inscrire dans un « mode de représentation topographique » de l’information10.

En dehors de ces facteurs, voire de ces raisons, les sites dynamiques ont proliféré avec le déploiement d’une offre technologique beaucoup plus accessible au niveau des hébergements (multiplication des solutions serveurs) et des dispositifs ou logiciels de publications dynamiques11. Cependant les sites statiques continuent d’être présents sur la toile. Ils ont parfois emprunté un moteur dynamique, mais de nombreuses pages sont encore publiées sur ce modèle car elles répondent à des exigences que les systèmes dynamiques prennent en compte plus difficilement : unicité de mises en pages, économies de moyens techniques superflus.

Depuis 1995, un nouveau mode de publication apparaît : le wiki. Le principe de base du wiki apparaît comme une innovation dans la mesure où il va à l’encontre des modèles de publication que nous avons présentés.

Le concept de publication wiki

Le wiki permet à tout visiteur de devenir éditeur des pages qu’il consulte. Il peut à loisir créer de nouveaux documents et les lier. Il peut même anticiper la création d’un document en créant un lien qui s’ouvrira sur un éditeur de contenu si celui-ci n’existe pas encore. La validation des contenus est basée sur des principes d’autorégulation. Ceci implique une vision anti-sécuritaire considérant que tout visiteur peut potentiellement enrichir la publication. Nous appellerons donc wiki un hyperdocument (contenant de pages liées) pouvant être modifié par des utilisateurs du site.

Le système wiki peut être le moteur central d’un site dynamique, mais celui qui nous intéressera est celui qui apparaît comme étant une partie d’un autre site utilisant d’autres modalités de publication. Cette technologie a été retenue par l’encyclopédie Wikipédia, devenue en quatre ans l’un des vingt-cinq sites les plus visités et l’une des références les plus citées. Ce site est globalement livré à ses utilisateurs qui en modifient continuellement les contenus au cours de leurs visites.

Wikipédia ne sera pas au centre de notre réflexion, mais en sera une référence incontournable. L’ouverture à la malléabilité des contenus à un tel niveau de popularité a vulgarisé le concept et incité à mettre en place de nouveaux systèmes d’écriture collective. Il a servi d’exemple légitimant une approche non hiérarchisée de la validation de l’information dans un contexte interactif. Le modèle wiki ouvre sur une forme d’écriture hypertextuelle « à la volée » dont la souplesse permettrait de sortir d’une écriture trop pré-structurée par les dispositifs de publication dynamique. Beaucoup de sites collectifs utilisant des CMS12 incluent des wikis dans leur dispositif. Dans les plates-formes pédagogiques (comme Moodle13), les wikis font une entrée fracassante dans la mise en place d’activités de productions pédagogiques. S’y ajoutent des utilisations dans le cadre de publication individuelle qui apparaissent comme une alternative au blogisme en vogue. Face à un modèle de hiérarchisation temporelle, les wikis nous rapprochent d’une écriture topographique proche des modèles d’organisation de la pensée élaborés dans la rhétorique aristotélicienne.

Les sites dynamiques gèrent finement les droits d’intervention des utilisateurs et les procédures de publication. L’intégration des wikis à l’intérieur de ces sites interroge les logiques qui font que l’on passe d’un modèle éditorial reposant sur une validation institutionnalisée des contenus a priori à un modèle où la validation initiale est individuelle (l’auteur) et temporaire (soumise au consensus des autres visiteurs-rédacteurs).

La présente contribution introduit une réflexion en cours sur les wikis qui s’appuie sur des entretiens avec des webmestres, des observations de sites collaboratifs et l’observation d’usagers dans un cadre pédagogique. Elle prend aussi en compte notre propre expérience d’utilisation et de participation à des wikis, y compris dans un cadre universitaire. Ces différents niveaux d’usages nous ont confronté, lors d’échanges entre chercheurs, tantôt à l’enthousiasme, tantôt au scepticisme, parfois le plus radical.

Les champs sociaux institutionnalisés (monde de l’entreprise et milieux universitaires, notamment) font preuve d’une critique souvent violente à l’égard d’un système dont ils stigmatisent les procédures de validation des contenus au travers d’une vision réductrice et réduite à Wikipedia dont la complexité reste méconnue. Cette critique est relayée individuellement dans des discours qui, en définitive, interrogent nos critères de validation de l’information. Ils limitent souvent la relation aux contenus à une relation projectile sans feed-back où il y a séparation formelle entre producteur et consommateur. Ce modèle idéologique réduit impose un postulat considérant que la validité de l’information est préalable à sa diffusion et que son destinataire est passif, y compris dans le crédit qu’il lui accordera.

Il va s’en dire que nous ne faisons pas cette remarque en contrepoint d’une proposition où nous ferions l’apologie de ce système. Nous essayons de comprendre comment celui-ci trouve sa place et sa singularité parmi la multitude de modèles de publication qui cohabitent sur le web, en essayant de ne pas être ébloui par les effets d’appropriation individuels et sociaux de cette technologie.

Notre question initiale est alors : pourquoi les wikis, qui sont considérés comme des dispositifs de publication « sous-contrôlés », trouvent leur place dans des contextes collectifs et des pratiques de structuration de contenu ?

Après avoir resitué les considérations critiques a priori de la qualité des wikis (en particulier en revenant sur le fonctionnement de ce type de publication), nous interrogerons plusieurs hypothèses sur leur insertion dans l’univers des sites web collaboratifs.

Wikipédia: la success story légitimante et formative

L’émergence des wikis dans les publications collectives est indissociable du succès de Wikipédia (14). Tous les webmestres que nous avons interrogés considèrent cette encyclopédie comme le premier wiki ayant fait référence.

La place singulière de Wikipédia est à restituer dans le contexte de son démarrage. Au départ, Nupédia, un projet d’encyclopédie libre en ligne de la société Bomis, est menacé par la lourdeur éditoriale et économique d’un modèle de publication traditionnelle15. Nupédia est repris en 2003 au sein d’une expérimentation d’utilisation d’un wiki encyclopédique démarré en 2001 avec des collaborateurs du projet initial. Jimmy Wales (fondateur de Bomis) ouvre la rédaction aux visiteurs sur le principe du wiki qui a commencé à être théorisé et développé depuis 1995 : chaque visiteur peut amender ou ajouter des contenus et créer des liens vers d’autres entrées16 de l’encyclopédie. La régulation se fait avant tout par la veille des différents visiteurs. Par ailleurs le projet s’engage résolument dans l’esprit des licences libres puisque aussi bien les contenus que le système sont sous licence GNU17.

Très rapidement, Wikipédia s’enrichit de contenu multilingue. Les initiateurs du projet revendiquent que ce succès tient notamment à la politique éditoriale de neutralité qui faciliterait le travail collaboratif. Ils mettent aussi en avant la conjonction de l’arrivée de Google comme moteur de recherche dominant et le fait que ce dernier valorise les entrées encyclopédiques de Wikipédia.

Il nous paraît cependant essentiel d’ajouter que, en 2003, les principales encyclopédies en ligne sur Internet disparaissent ou deviennent payantes. C’est le cas de l’encyclopédie Hachette qui existait en tant que telle ou comme produit encyclopédique offert par des partenaires comme Yahoo! ou Voilà. La version mère devient accessible par abonnement et les partenariats sont arrêtés. Quid, l’Encyclopédie Universalis ou Encarta mettent aussi fin à leurs démonstrations gratuites. Seules les éditions Atlas proposent une webencyclopédie qui soumet le visiteur à un enregistrement « gratuit ».

Même si les professionnels de la documentation et les spécialistes de l’utilisation de ressources documentaires continuent à faire preuve d’un certain scepticisme à l’égard de Wikipédia, le modèle semble fonctionner pour la plus grande partie des visiteurs qui sollicitent de plus en plus cette ressource et prennent part à son développement.

Ce modèle éditorial, où il n’y a apparemment pas de contrôle préalable à la publication des modifications apportées à une notice, révèle tout d’abord l’efficacité productive d’un système collaboratif. Ensuite il montre que ce système génère des processus auto-régulateurs globalement efficaces puisque le vandalisme est limité.

Pour les webmestres, l’expérience et le succès de Wikipédia a servi de modèle. Des variantes de wikis ont été intégrées à de multiples projets de publications dynamiques et collaboratives à partir des concepts suivants, réadaptés localement :

  • permettre au lecteur d’être auteur et de participer directement à l’évolution des contenus ;
  • rendre accessible l’historique du document pour produire un effet d’autorégulation en rendant lisibles les étapes de sa constitution ;
  • informatiser et faciliter l’édition pour limiter la nécessité et les contraintes d’une connaissance du code informatique pour rendre l’écriture plus accessible aux novices, permettre d’anticiper les ajouts de contenus et automatiser la génération des hyperliens.

Wikipédia a joué, par rapport à ces trois dynamiques, un rôle d’exemple. L’écriture collective a montré qu’elle s’avérait être un système de mobilisation des visiteurs. L’autorégulation a servi à légitimer, par l’exemple, une logique de libéralisation des procédures de validation de l’information. L’ouverture à un système de codage simplifié, tout en conservant un pouvoir d’écriture hypermédia dynamique, a facilité une écriture informelle libérant une expression que formataient les formulaires d’édition des systèmes de publication partagée18.

L’écriture collective : une réanimation de l’édition collaborative et consensuelle

La multiplication des architectures d’hébergements dynamiques a contribué à intensifier l’expérimentation et l’usage de systèmes de publication dynamique et collaborative. Ces dispositifs ont été développés sur les postulats de simplification du passage à l’acte rédactionnel comme amplificateur de la production de contenu et de multiplication des interactions avec le visiteur comme favorisant un ancrage qualitatif des visites de celui-ci sur un site.

L’évolution des sites dynamiques collaboratifs peut être résumée en trois phases19.

Autour des années quatre-vingt-dix, il y a une première multiplication de développements individuels de projets de publication collaborative liée à la découverte du potentiel des technologies dynamiques.

À cette époque des « pionniers » succède une période de mutualisation des projets (avec notamment l’explosion de sites d’hébergement de projets collaboratifs dont le plus célèbre est « sourceforge »). Les créateurs de scripts dynamiques réunissent leurs compétences sur des projets collectifs afin de profiter des compétences de chacun et de mutualiser leurs expériences et leurs disponibilités.

Toutefois les projets, notamment dans le domaine des systèmes de gestion de contenu (CMS) rencontrent des divergences de développement liées en partie à des dynamiques interpersonnelles conflictuelles, mais aussi à des logiques d’usages qui se complexifient. Les équipes de développement (d’autant plus que, sur des initiatives de développement libre, les développeurs ne sont pas liés par des contrats de développement autres que ceux de leur bonne volonté) éclatent en de nouveaux projets privilégiant certaines options d’évolution des noyaux de base.

Cette profusion de forks20, qui caractérise la troisième phase, témoigne d’une recherche empirique des modalités d’usages des dispositifs et est symptomatique d’insatisfactions des dispositifs existants. Il y a d’une part des optimisations purement techniques visant à renforcer la stabilité des systèmes, mais aussi une remise en cause des usages éditoriaux et de leurs conséquences supposées sur le succès des sites utilisant ces architectures. Les CMS se développent comme des systèmes devant faciliter la participation des visiteurs. Le manque de participation est vécu comme un échec. De nombreux webmestres attribuent ce déficit d’investissements à la persistance des freins techniques structurels. Les procédures de contrôle de la publication, nécessitant des procédures d’identification et des compétences éditoriales21, limitent la participation informelle des visiteurs occasionnellement mobilisés.

Derrière cette complexification du cahier des charges techniques, on devine en fait la difficulté d’animer une communauté d’auteurs. Si les contributeurs sont peu nombreux, les initiateurs du projet redeviennent les auteurs principaux, renonçant au projet collectif initial, avec le risque que plus les auteurs sont récurrents plus ils sont qualifiés comme experts et plus les nouveaux auteurs potentiels hésitent à produire des contenus de peur de ne pas être à la hauteur22. En revanche, lorsque le site est hyperactif, le nombre de contributeurs pose alors un problème de gestion de l’abondance qui positionne les administrateurs de sites en modérateurs, au risque de perdre leur expertise thématique.

Le système wiki apparaît comme une réponse à chacune des deux problématiques de contributions : trop riches ou trop pauvres.

Parmi les cas de surabondance, nous pouvons prendre pour exemple les sites de Ratiatum23 et de Framasoft24. Le premier est consacré initialement à l’actualité et à l’utilisation des logiciels de peer to peer. Le second a pour thématique originelle les logiciels gratuits et se recentre en 2003 sur l’actualité, le référencement et l’utilisation des logiciels libres.

Dans les deux cas, on constate le même cheminement. Le nombre de contributions augmentant fortement, les initiateurs de ces sites doivent consacrer leur investissement à relire et valider l’information produite, afin d’assurer la qualité des contenus diffusés. Ils ne sont plus en mesure d’avoir eux-mêmes la connaissance initiale sur des contenus qui étaient leur cœur de compétences et de reconnaissances25. Les experts de ces sites passent donc à un statut d’animateurs de communauté. Dès lors que ces sites jouissent d’une notoriété considérable (l’un comme l’autre sont devenus des références incontournables dans leur domaine), ils sont soumis à une pression, à une exigence d’investissements économiques et humains qui posent des limites à la vocation gratuite de ces systèmes et à leur organisation globalement bénévole. Ne pouvant tout valider, une partie des activités est déplacée vers des espaces de publication plus informels, et identifiés comme tels.

Ainsi les contenus sur les utilisations sont déplacés vers des forums. Mais si les forums permettent des discussions et des échanges autour de points singuliers, ils compilent une connaissance disparate et parfois redondante, polémique et parfois concurrente, aboutissant à des scissions entre utilisateurs. Le wiki apparaît alors comme un nouveau système de capitalisation consensuelle. Pour Ratiatum, ceci se traduit par la mise en place d’un wiki pour présenter les différents logiciels de peer to peer et leur fonctionnement. Pour Framasoft, le wiki sert à l’élaboration des notices descriptives avant leur publication sur le site.

Les wikis viennent aussi à la rescousse de pratiques collaboratives dans des contextes de micro-audiences. Ainsi la plate-forme de formation en ligne Moodle permet de créer des activités pédagogiques basées sur l’utilisation de wikis. Plusieurs niveaux d’utilisation sont prévus à partir de la définition des droits en lecture et en écriture. Dans le cadre des activités pédagogiques collectives en ligne, il était essentiellement fait recours à des systèmes de forums qui permettent de créer des discussions ayant notamment pour objectif de favoriser des pratiques de mentorat, comme le remarque Séraphin Alava (ALAVA, 2000). Si ces pratiques d’écriture en forum favorisent des échanges sociaux qui réchauffent les processus d’apprentissage et incitent à discuter les contributions, elles produisent une écriture éclatée.

Notre lecture des différents logs26 de connexions des étudiants à une plate-forme Moodle laisse apparaître que les apprenants vont utiliser les forums en lisant les contributions auxquels ils participent. En revanche, ils consultent assez peu les autres messages. Cette lecture est d’autant moins effective que les groupes constitués dans des forums dédiés vont être assez peu sollicités du fait de la faible activité des forums. En revanche, l’utilisation de wikis collectifs permet de produire des synthèses consensuelles qui vont servir au groupe de documents de référence.

Cet usage du wiki comme espace de synthèse pour un collectif rejoint l’usage qui en est fait sur les sites qui utilisent cette technologie pour produire par enrichissement un contenu de référence. Différents webmestres nous ont ainsi expliqué qu’ils avaient mis en place des wikis comme outils de capitalisation pour des groupes de projet travaillant à la production de textes collectifs.

Cette technique permet ainsi de limiter le nombre de versions d’un texte circulant entre les différents participants du projet. Le wiki joue à la fois un rôle de centralisation et de mémorisation de l’évolution du texte.

 Auto-régulation par versioning : les traces d’une culture open source

Si le wiki permet d’unifier l’évolution collective d’un document à travers la publication instantanée de sa dernière version modifiée, le système propose une interface adaptée à ce traitement collectif, afin que chaque participant puisse en suivre le développement. Tous les logiciels wiki ou sites utilisant cette technologie que nous avons visités et testés proposent pour chaque page wiki une interface pour accéder à une page de modification de la page courante, une page permettant de lister l’historique des modifications et une page de discussions (27).

Les pages connexes Historique et Discussion jouent un rôle essentiel dans le développement d’un wiki collaboratif. Elles témoignent des différentes contributions qui ont construit le document affiché. Ces pages sont des espaces de traçabilité. Celle-ci a une fonction informative, mais qu’elle soit publique va lui conférer un rôle de régulateur. Cette régulation fonctionne sur le mode de la transparence si chère au courant de pensée cybernétique.

L’historique va ainsi donner accès aux différentes versions du document. Il est une sorte de coupe archéologique de la page. Les versions sont enregistrées à chaque validation d’une page éditée. Elles sont repérées par ordre chronologique décroissant. L’auteur de la modification est associé à la version, que ce soit au travers d’un identifiant, de l’adresse IP de l’intervenant ou seulement par un pseudonyme de type « anonyme » lorsque le wiki n’exige pas d’authentification. Les wikis les plus élémentaires permettent une comparaison entre une version et celle qui précède. Les wikis plus évolués vont permettre de faire des choix comparatifs entre les différentes versions et produire un affichage parallèle colorisant et codant les différences.

Cette technique comparative est directement issue des pratiques de développement (BROUDOUX, 2002) des logiciels libres utilisant notamment la technologie CVS (Concurrent Version System). Cette technologie sert à diriger les révisions des fichiers sources d’un logiciel en gérant une arborescence des fichiers permettant à chaque développeur d’intervenir sur une partie de ce logiciel. Un système de marquage va autoriser la gestion des différentes modifications afin de maintenir la cohérence du logiciel en développement28.

L’historique des wikis n’a pas seulement une fonction informative, il a aussi des fonctions opérationnelles. Il va servir à la maintenance de la page en autorisant un retour à ses états antérieurs. Cette fonctionnalité n’est pas toujours ouverte à tous les utilisateurs. Si elle permet un travail éditorial des auteurs dans la stabilisation du document, elle est utilisée généralement comme outil de lutte contre le vandalisme. Le wiki fonctionne sur le modèle d’une validation a posteriori ; il est possible que, intentionnellement ou non, des rédacteurs modifient des contenus en dehors des objectifs consensuels qui prévalaient à son organisation. Une part du vandalisme est liée à la volonté de certains de subvertir l’espace ouvert vers des objectifs qui leur sont propres29. Le retour à des versions antérieures va accélérer la censure des informations parasites en jouant sur un principe d’épuisement du vandale : rendre coûteux son investissement à subvertir, pour le décourager30.

Du point de vue de l’authentification des documents, ce marquage et cette mémorisation des versions devraient servir l’internaute à référencer un contenu avec plus de précision. Mais cet usage de l’historique est encore assez rare.

Plus de 80 % de nos étudiants avec lesquels nous avons fait un travail d’analyse des usages de Wikipédia n’ont pas remarqué cette fonctionnalité ni ses potentialités. Ils se contentent généralement de référencer l’article affiché alors que celui-ci est soumis à des variations. La page historique leur permettrait pourtant d’avoir une référence plus précise en même temps qu’une lecture critique.

Cette lecture de l’historique se développe en fait lorsque les personnes deviennent éditrices récurrentes d’une page où elles sont en concurrence éditoriale. Ainsi, lorsqu’un éditeur vient consulter une page qu’il avait préalablement modifiée et qu’il constate que celle-ci a évolué, il consultera l’historique pour voir qui a apporté cette modification.

Les pages de discussions sont moins fréquentées que les pages d’historique. On constate, par exemple sur Wikipédia, que les pages de discussions ne sont animées qu’à partir du moment où de nombreuses modifications sont faites par des éditeurs concurrents. Lorsqu’il commence à y avoir des allers et retours entre les versions, les pages de discussions deviennent des espaces de négociation pour aller vers un accord éditorial ou une explication de modération.

Si nous revenons à notre utilisation des wikis dans des groupes de formation, nous avons pu observer quatre groupes d’étudiants devant compléter en présentiel le contenu d’un wiki. Les étudiants disposaient aussi d’outils de communication en ligne (espace de discussions, forums, chat, messagerie instantanée, courriel, etc.). Réunis par petits groupes de quatre à six personnes, ils devaient compléter un wiki sur une thématique variant d’un groupe à l’autre. Chaque étudiant disposait d’un poste mais aucune consigne ne les empêchait de communiquer en présence. Nous avons pu observer plusieurs modèles de travail sur le wiki du groupe. Un groupe a travaillé avec un seul éditeur qui rédigeait une synthèse discutée en présence autour de lui. Un autre groupe avait procédé à une répartition des tâches créant plusieurs pages à partir d’un sommaire, chaque membre du groupe complétant dans un premier temps sa page. Un autre groupe fonctionnait selon un modèle anarchique, chacun intervenant où il avait des informations. Un autre groupe travaillait sur un modèle multicanal, utilisant les différents dispositifs d’échange à leur disposition. C’est ce dernier groupe qui s’est avéré le plus efficace.

Le groupe centralisé a eu énormément de mal à produire un contenu qui rendait compte des connaissances de ses membres31. Le groupe « taylorisé » a, pour sa part, produit un contenu de qualité pour chaque page, mais il n’y avait pas de cohérence d’ensemble et il y avait des redondances. Le groupe « anarchique » a fonctionné en fait sur une répartition des tâches liée aux compétences de chacun. Les uns récoltaient le matériel informatif tandis que d’autres opéraient une réécriture de l’ensemble, et certains intervenaient au niveau de la mise en page, de la présentation. Toutefois, cette approche a été perturbée par le fonctionnement technique du système. Celui-ci bloquait les modifications en cours lorsqu’une personne travaillait déjà aux modifications d’une page. Ils ont donc été freinés par l’absence d’une régulation communicationnelle de l’usage du système de publication. Le quatrième groupe, en utilisant des outils de communication variés, a réparti et réorganisé les tâches et les différentes actions de chacun en fonction des besoins avec une médiation interne sur les conditions d’utilisation du système32.

Cette expérience montre que la gestion des versions d’un wiki est un des moyens de régulation de ce mode de publication, mais qu’il nécessite une appropriation de son utilisation par les lecteurs et les visiteurs.

Son opérationnalité comme modèle de régulation des contenus fonctionne, presque paradoxalement, à partir d’un taux d’activité relativement élevé. Le webmestre du site de Ratiatum nous faisait remarquer qu’il fallait atteindre une audience élevée pour que l’auto-régulation fonctionne et soit en mesure de contrecarrer les différentes formes de vandalisme. Ceci expliquerait que les « petits wikis » fonctionnent sur une forte authentification des contributeurs alors que l’effet de nombre, qui pourrait rendre le système plus vulnérable, permet en fait d’assurer une permanence de la veille dans la mesure où le nombre de participants coopérants est supérieur au nombre de participants « détournants ».

Philippe Breton, dans L’utopie de la communication, interroge les risques de la transparence cybernétique (BRETON, 1997) Le wikisme est en plein dans cette problématique où la transparence produit avant tout du consensus. Mais ce consensus n’est pas forcément mou. Tout d’abord les mécanismes du wiki incitent à des formes de négociation, d’autre part le système est avant tout un dispositif accumulatif, plus que sélectif. Dès lors il permet, à défaut de « concilier », de créer de nouvelles branches qui mettent les contenus en concurrence.

Malléabilité: sortir du formulaire

Les wikis ne se limitent généralement pas un système de publication brute. Ils intègrent des parsers qui sont des technologies analysant les contenus ajoutés pour les traiter comme des codes à mettre en forme et pas seulement des contenus sémantiques. En d’autres termes, les wikis autorisent les éditeurs à ajouter des descriptions de mise en forme et de traitement de l’apparence des contenus et à y ajouter des fonctionnalités hypertextuelles.

Inspirés des codes des BBS33, les wikis intègrent la possibilité de structurer la forme du document et de ses composants (styles de caractères, alignement, listes à puces, émoticônes, etc.). Il est aussi possible d’inclure du code html, notamment pour créer des hyperliens. La principale innovation est le traitement des liens CamelCase34. Le parser va traiter les mots concaténés comme étant des liens à l’intérieur du wiki vers une autre page identifiée par ce fameux lien CamelCase. Chaque fois que le parser rencontre un mot commençant par une majuscule et à l’intérieur duquel il trouve une autre majuscule35, il va prévoir un lien vers une page unique qui portera le nom de ce mot « chameau ». Si la page n’existe pas encore, le lien enverra directement sur la page de modification afin que les lecteurs ayant suivi le lien soient en situation de compléter la publication. Si la page a déjà un contenu, le lien pointera sur l’affichage de la page.

Cette innovation joue un rôle crucial dans l’écriture wiki dans la mesure où elle ouvre sur une écriture en devenir. Les liens créés à l’intérieur du wiki ne nécessitent plus que l’architecture du site soit préalable à leur création. On retrouve ici une partie du projet Xanadu36 de Ted Nelson, le père des hyperliens. Celui-ci regrettait la perte d’interactivité des hyperliens liés à leur déterminisme (NELSON, 2000)37. Le lien CamelCase inaugure la mise en pratique d’un texte indéterminé.

Cette innovation confère aussi au système wiki une grande malléabilité de la structure globale de l’hyperdocument ainsi créé. Le document acquiert un pouvoir d’incise permettant d’enrichir une page initiale de dépendances, mais il ne se limite pas à une architecture arborescente hiérarchique, il organise une navigation circulaire. Dans le cadre de développement de sites web collaboratifs, cette stratégie d’hyper-écriture permet ainsi d’utiliser des conventions38 relativement simples pour permettre la capitalisation liée de contenus épars. Elle structure, elle pré-organise des grains de contenus.

Les webmestres que nous avons interrogés nous ont expliqué que le wiki permettait de sortir du cadre contraignant des systèmes de gestion dynamique de contenu (CMS). Traditionnellement, un CMS utilise des formulaires d’édition qui « formatent » l’organisation du contenu. Ces structures fonctionnent très bien lorsque la nature de l’information à publier entre dans une grille éditoriale stabilisée et satisfaisante. Mais il existe des informations qui n’« entrent pas dans les cases » ou qui nécessiteraient l’utilisation de formulaires ou de procédures tellement complexes qu’ils en deviendraient un frein à leur publication.

Ainsi, sur les sites de Ratatium ou de Framasoft, la création de notices relatives à des logiciels serait pratiquement impossible dans la mesure où on ne peut pas dégager une structure simple et unifiée de description. L’utilisation d’un wiki permet une liberté d’organisation des descriptions et en même temps facilite l’enrichissement ponctuel par des éditeurs qui ne sont pas suffisamment impliqués pour s’approprier des procédures éditoriales complexes39. À ce titre, les wikis sont parfois utilisés comme des outils d’organisation des connaissances en constituant une « carte » à partir d’un point d’entrée et en organisant au fil de l’édition les proximités entre les différentes réflexions et développements des concepts du projet.

À l’intérieur de Moodle, le wiki est aussi utilisé comme organisateur progressif de contenu. Au niveau de la conception de ressources pédagogiques, le wiki peut être limité en édition au niveau de l’enseignant. Celui-ci peut alors enrichir progressivement son support pédagogique à partir des retours d’expérience qu’il en a. Les apprenants peuvent aussi disposer de wikis « personnels » leur offrant la possibilité d’accumuler des notes sans les structurer initialement. Pour chaque wiki (quel que soit le mode de gestion des éditeurs), il est aussi possible d’en extraire une version statique. Cette dernière fonction sert alors à finaliser le contenu du wiki comme étant un document abouti.

Toutefois cette malléabilité semble avoir ses limites :

  • elle produit des documents labyrinthiques avec parfois des parties qui sont déliées du reste au fil des modifications (les pages orphelines qui ont perdu leurs liens de dépendance) ;
  • la multiplication des rédacteurs conduit souvent à une mise en forme chaotique produisant une perte d’unité et d’identité de la publication ;
  • la multiplication des pages en devenir produit un effet de frustration pour le lecteur non-éditeur en quête de contenu ;
  • la proximité de contenus très élaborés et de contenus en cours d’élaboration produit entre les pages du wiki des inégalités qualitatives qui éparpillent la charge éditoriale et remettent en question les anticipations des lecteurs (40) ;
  • les parsers ne gèrent pas toujours correctement les contraintes d’accessibilité, rendant les pages wiki non conformes aux standards du W3C(41).

Le site Wikipédia propose des outils pour traiter cette malléabilité : une charte de l’éditeur donnant des conseils d’écriture, des « robots » pour pré-formater une page42.

Plus classiquement, des webmestres nous ont indiqué faire usage des wikis comme de zones de publications temporaires43. Dans ces cas-là, le wiki apparaît alors comme une partie secondaire d’un site, ayant parfois même une adresse autonome afin de différencier le wiki de la publication « officielle »44.

 Conclusion : le wiki collaboratif, un outil de publication exploratoire

Dans les systèmes de publications partagées, l’utilisation des wikis nous paraît plus relever de l’outillage réflexif et constructif que d’un véritable dispositif de publication. Il est une forme intermédiaire de l’organisation de contenu. Néanmoins, on ne peut se résoudre à cette seule conclusion. Il est indéniablement un outil « social », un système d’animation de communauté ou de collectif ouvrant vers la mutualisation de compétences et autorisant plus que d’autres systèmes l’audace de publier.

Cependant, nous constatons que ce dispositif, qui initialement vise à une re-simplification de la publication, se complexifie lorsqu’il devient « permanent ». Lorsque Wikipédia s’ouvre à l’utilisation de robots, lorsque la syntaxe nécessite la connaissance d’un code, lorsque l’authentification devient complexe, le wiki redevient un dispositif de publication pré-structuré et formalisant. On retrouve alors les étapes d’une appropriation technologique classique tel que nous l’avions abordée dans l’évolution du design des pages web (MABILLOT, 2002).

Les usages wikis ne sont pas tout à fait stabilisés, nous sommes encore dans une période où gestionnaires de sites et utilisateurs explorent les potentialités. L’emblématique Wikipédia ne nous semble pas représentatif du devenir de cette technologie. Son usage encyclopédique semble ici faire ses preuves. Mais si celui-ci sert de modèle initial et de moteur à une acquisition de la culture « wiki » (aussi bien comme lecteur que comme éditeur), il s’inscrit dans une logique de permanence qui nous semble contraire aux dynamiques constructives des usages wikis dans les sites collectifs. Le wiki y apparaît comme un outil de construction et d’appropriation collective de contenu et non de contenant.

Références Bibliographiques

ALAVA, S., (2000). Cyberespace et formation, Bruxelles : De Boeck

BEY, H., (1997). TAZ, Zone Autonome Temporaire, Paris : L’éclat. Document en ligne sur <www.lyber-eclat.net/lyber/taz.html>

BRETON, P., (1997). L’utopie de la communication, Paris : La Découverte

BROUDOUX, E., (2002). Outils informatiques d’écriture et de lecture : nouvelles conditions au « devenir auteur ». Communication donnée le 26 septembre 2002 au Colloque « Écritures en ligne : pratiques et communautés » Rennes2. Document en ligne sur <http://archivesic.ccsd.cnrs.fr/docs/00/06/23/20/PDF/sic_00000796.pdf>

ENDRIZZI, L., (2006). L’édition de référence libre et collaborative : le cas de Wikipédia, Les dossiers de la VST, INRP <www.inrp.fr/vst/Dossiers/Wikipedia/Wiki/encyclopedie1.htm>

MABILLOT, V., (2002). Du regard à la caresse : évolution du design interactif des hyperliens sur le web, allant d’une symbolisation visuelle à une actualisation gestuelle, in Actes du Colloque Compréhension et Hypermédia coordonnés par Tricot A. et Molinier, P., Albi

NELSON, T., (2000). Xanalogical Structure, Needed Now More than Ever… ». Communication au Congrès de l’ACM. 23/05/00. Document en ligne sur <http://xanadu.com/XUarchive/ACMpiece/XuDation-D18.html>

PEDAUQUE, R. T., (2006), Document et modernités, (working paper). Document en ligne sur <http://archivesic.ccsd.cnrs.fr/docs/00/06/28/26/PDF/Pedauque3-V4.pdf>

 Discussions

»crosslinked«

Flattr this!

1 réponse à 2006 – Dispositifs wikis dans les systèmes de publication collective : contours d’une malléabilité éditoriale

  1. Ping : MAJ Biblio : Dispositifs wikis dans les systèmes de publication collective : contours d’une malléabilité éditoriale (docsoc 2006) | Vincent Mabillot, expressions libres

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *