De l’objet au point de vue : les bibliothèques entre sciences de l’information et sociologie Claude POISSENOT

De l’objet au point de vue :
les bibliothèques entre sciences de l’information et sociologie

Claude POISSENOT
CERLIS/Paris5
poisseno@univ-nancy2.fr

Paru dans HERMES : REVUE CRITIQUE, no. 10

Résumé : A la différence de ce que l’on observe dans les pays anglo-saxons, les travaux sur les bibliothèques sont peu nombreux en France. Cette situation explique pour une part la rareté des travaux sur les publics des bibliothèques. La sociologie a fourni des travaux variés principalement sur les bibliothèques publiques. Les sciences de l’information cherchent à intégrer les usagers dans leur domaine de recherche. Nous présentons une analyse de cette situation ainsi qu’une proposition pour rapprocher les points de vue afin d’améliorer notre connaissance des publics des bibliothèques. Mots clés : Bibliothèques, sciences de l’information, sociologie, usagers, épistémologie

L’idée de la communication que je vous propose repose sur un constat. Les travaux sur les publics des bibliothèques sont peu nombreux en France. Ils émanent principalement de sociologues (J.-C. Passeron, F. de Singly, P. Parmentier, C. Evans) ou de bibliothécaires devenues sociologues (M. Poulain, A.-M. Bertrand). Cette situation conduit à s’interroger sur les relations entre la sociologie, les sciences de l’information et les bibliothèques. La situation française est-elle différente de celle des pays anglo-saxons ? Qu’est-ce qui distingue les deux ? Comment chacune de ces deux disciplines aborde le sujet des bibliothèques ? Notre réflexion s’appuie à la fois sur un objet, un thème (les bibliothèques) et sur le point de vue porté dessus (sociologique, science de l’information). Elle ouvre ainsi la voie à des développements sur le bien fondé et les limites d’une activité scientifique appuyée sur un régime épistémologique mettant l’accent sur l’objet. Nous verrons se dégager une convergence entre le souci de l’objet et celui du point de vue. Ce sera l’occasion de jeter les bases d’une série de travaux sur les bibliothèques.

Après avoir dressé un état des lieux de la place occupée par les bibliothèques dans les sciences de l’information en France et dans les pays anglo-saxons, nous étudierons comment sociologie et sciences de l’information abordent la question des usagers des bibliothèques et nous terminerons par une tentative pour rapprocher les points de vue respectifs.

1- BIBLIOTHÈQUES ET SCIENCES DE L’INFORMATION

Lieux de diffusion d’informations plus ou moins spécialisées, les bibliothèques apparaissent comme des institutions susceptibles d’intéresser les sciences de l’information. Cette hypothèse demande une vérification afin de s’assurer qu’elles font l’objet de travaux de cette discipline. La situation observable en France ne permet pas de cerner la totalité des relations possibles entre bibliothèques et science de l’information. En effet, les bibliothèques et la manière dont s’est construite la discipline des sciences de l’information résultent d’un contexte historique et culturel particuliers(1). Pour cette raison, nous examinerons certains aspects des relations entre les bibliothèques et les sciences de l’information aux États-unis et en Grande-Bretagne. A ce stade, il ne nous semble pas nécessaire de différencier les bibliothèques selon leur taille ou leur mission. Nous cherchons en effet à cerner quelle est la place que le type d’institution regroupé sous ce terme, occupe dans la production de connaissances.

1-1 En France

Comment prendre la mesure de la place occupée par les travaux sur les bibliothèques dans les sciences de l’information ? La tâche suppose une définition des contours des deux réalités que l’on cherche à cerner. Visant moins une analyse ontologique de ces réalités qu’une mesure approximative de leur rencontre, on peut se satisfaire de définitions « indigènes » i.e. en vigueur dans l’univers tel qu’il est désigné par le sens commun et les institutions en charge de l’organiser. Ainsi, nous entendrons par bibliothèque ce qui est couramment désigné sous ce terme. De même, par « Sciences de l’information » nous entendrons le domaine du champ scientifique qui s’est construit comme relativement autonome dans le cadre des sections officiellement reconnu par le ministère de l’enseignement supérieur et de la recherche et qui correspond à la 71ème section du Conseil National des Universités.

Y. Polity a établi la faiblesse du nombre de thèses en sciences de l’information portant sur les bibliothèques. Elle a montré (Polity, 2001 : 65) qu’un tiers des thèses sur ce thème ont été soutenus dans cette discipline. C’est dans celle-ci que les travaux sur les bibliothèques sont les plus nombreux mais elle est loin de jouer le rôle de référent incontournable tant d’un point de vue institutionnel que théorique. Cette situation découle de la structuration de l’enseignement supérieur et de la recherche.

La formation des bibliothécaires a longtemps été séparée de la recherche sur les bibliothèques. Que ce soit par le biais des IUT ou de l’ENSB (devenue ENSSIB), la formation a été privilégiée au détriment de la recherche. Celle-ci était perçue comme accessoire tant du point de vue des institutions d’enseignement (la mission de recherche n’est pas prioritaire dans les IUT comme elle ne l’était pas à l’ENSB) que des bibliothécaires eux-mêmes (l’identité professionnelle des bibliothécaires s’est davantage construite sur la maîtrise de savoirs techniques et d’une culture humaniste). Dans ces conditions, on ne peut s’étonner de l’état des lieux des formations de 3ème cycle sur les bibliothèques. D’après une liste des diplômes de DESS et DEA proposés par les universités françaises(2) en sciences de l’information et de la communication, aucun sur les 28 ne porte dans son titre le terme de « bibliothèque ». Un tel constat n’est pas sans relation avec le fait qu’aucune Unité de Recherche (sur 23) déclarée en sciences de l’information et de la communication n’intègre la notion de « bibliothèque » dans son titre (3).

La situation des formations doctorales consacrées aux bibliothèques structure fortement le paysage de la recherche. L’examen des listes de postes de maîtres de conférences en 71ème section mis au concours de 1998 à 2001 permet de le vérifier. Les profils des postes laissent très peu de place à des candidats spécialisés dans les bibliothèques puisque 7 sur 220 font mention des notions de « documentation » ou de « bibliothèque ». De même, les bibliothécaires sont très peu nombreux à entrer dans le corps des enseignants-chercheurs à la fois parce qu’ils ne souhaitent pas toujours se soumettre à l’exercice du doctorat et que ceux en position de juger de la qualité de leur candidature ne sont pas prêts à déroger à la règle de la détention de ce diplôme.

In fine c’est la production de travaux sur les bibliothèques qui pâtit de la faiblesse institutionnelle de la recherche sur ce thème. Les revues françaises sur les bibliothèques sont très peu nombreuses (Bulletin des Bibliothèques de France, Bulletin d’informations de l’Association des Bibliothécaires Français). Elles ne représentent qu’une petite part des revues reconnues de sciences de l’information et de la communication(4). Le dépouillement d’une liste de revues établie (5) pour évaluer la recherche dans le domaine offre la possibilité d’approcher, pour le sous-ensemble des revues françaises, le poids de celles consacrées aux bibliothèques. Les deux titres cités sont à rapporter aux 42 titres identifiés soit à peine 5%. A ce poids quantitativement faible s’ajoute une perception parfois dévalorisante de ces revues (un président de commission de spécialiste de 71ème section ne parle-t-il pas de ces revues  comme de « revues de bibliothèques » ?). La liste a été soumise à des chercheurs de sciences de l’information et de la communication afin que, pour chacune d’entre elles, ils déclarent s’ils la connaissent et s’ils la jugent scientifique ou non. Les 97 réponses ont donné lieu à 1216 « votes » positifs pour les revues françaises dont 42 pour les revues de bibliothèques soit un peu moins de 4%. Ces dernières sont légèrement moins représentées dans le sous ensemble des revues jugées scientifiques que leur poids déjà faible dans l’ensemble des revues.

1-2 Aux États-Unis et en Grande-Bretagne

Sous réserve de pouvoir comparer les situations, pour des raisons multiples qui mériteraient une analyse à part entière, les bibliothèques occupent une place beaucoup plus importante dans les sciences de l’information chez les pays anglo-saxons. Un champ scientifique s’est construit autour de la notion de Library and Information Science i.e. qu’il a placé les bibliothèques dans le coeur même de son objet. La bibliothéconomie est intégrée au domaine des sciences de l’information.

La profession des bibliothécaires est directement impliquée dans la formation des professionnels et prévaut sur la communauté universitaire. Aux États-Unis, l’ALA (American Library Association) donne son agrément aux formations de bibliothécaires dispensées par des universités.

Du point de vue de la recherche, les bibliothèques suscitent ou prennent en charge des travaux sur leur institution. Aux États-Unis, l’ARL (Association of Research Libraries) vit de subsides versés par un très grand nombre de bibliothèques de toute nature. Elle mène des travaux de recherche et contribue à la formation continue du personnel. En partenariat avec l’université A&M du Texas, et avec des subventions du ministère fédéral de l’Education, elle a mis en place un programme (LibQUAL+(6)) visant à « définir et mesurer la qualité de service des bibliothèques et à créer des outils d’évaluation utiles pour la gestion prévisionnelle locale ». Au Canada, l’EBSI offre une formation spécialisée dans le champ des sciences de l’information et des bibliothèques. Toutefois, peu de doctorats portent spécifiquement sur les bibliothèques. En Grande-Bretagne, le souci de la recherche s’observe au sein même des équipements : « beaucoup de bibliothèques s’occupent sérieusement de conduire des études susceptibles d’intéresser l’ensemble de la profession, et dont elles communiquent largement les résultats » (Brophy, 2001 : 79). La formation des professionnels intègre l’apprentissage des méthodes et techniques d’enquête ce qui favorise la mise en place d’enquêtes dans les structures au sein desquels ils travaillent par la suite. Si la situation actuelle semble moins favorable depuis ces dernières années (Collier, 2001 : 50-56), il demeure des acquis importants tant en termes d’habitude que d’intérêt pour la recherche sur la bibliothèque.

La place occupée par le domaine de réalité des bibliothèques dans la recherche se mesure également au nombre de revues consacrées à ce sujet. Le nombre de revues qui incluent dans leur titre le terme « library » s’élève à 42 parmi les revues anglaises et américaines. Ce nombre est nettement supérieur à celui de 2 repéré en France. Si le terme « library » recouvre une réalité plus large que celui de « bibliothèque » puisqu’il inclut une partie de ce qui relèverait en France de la « documentation », l’écart reste très important. Si on réduit la comparaison de la France à la Grande-Bretagne afin d’avoir des pays comparables tant en richesse qu’en population, on remarque que la deuxième « héberge » 12 titres contre 2 pour la première.

Dans les pays anglo-saxons, les bibliothèques font davantage l’objet de travaux qu’en France. Cette différence de situation retentit sur la place occupée par ce domaine de recherche dans l’univers plus vaste des sciences de l’information et de la communication. Du fait de la production plus importante de travaux sur les bibliothèques, celles-ci occupent également une place moins marginale. Les 42 revues sur les bibliothèques sont à rapporter aux 153 titres britanniques et américains qui sont reconnues par les chercheurs français comme revue de science de l’information et de la communication. La part occupée par le domaine des bibliothèques dans l’ensemble plus vaste apparaît plus large en Grande-Bretagne et aux États-unis qu’en France : 27% (42/153*100) contre 5% (2/42*100). Indépendamment de considérations épistémologiques (nécessaires), la place occupée dans le champ disciplinaire des sciences de l’information et de la communication dépend de la production de travaux sur un domaine particulier. S’agissant des bibliothèques, la production de recherches dépend de l’engagement du milieu professionnel dans la formation et la recherche sur les bibliothèques (y.c. la diffusion des résultats : en France, il existe un nombre élevé d’études réalisées pour des collectivités sur la fréquentation de leurs bibliothèques sans que les résultats ne donnent lieu à production d’articles).

Quel que soit l’indicateur retenu, les situations françaises et anglo-saxonnes sont très contrastées. En France, les travaux sur les bibliothèques sont rares et les sciences de l’information et de la communication délaissent ce domaine de réalité. En Grande-Bretagne et aux États-unis, les bibliothèques entrent dans la définition même du champ disciplinaire qui les étudie. Cela a pour conséquence de générer un nombre plus élevé de travaux qu’en France. Du point de vue de la connaissance de cette réalité, la situation anglo-saxonne semble préférable. Le « retard » français s’explique par la jeunesse du champ des sciences de l’information mais aussi par la moindre ancienneté de la lecture publique en France. Si le modèle de la lecture publique américain a été importé dès le début du XX ème siècle (Léveillé, 1992), il est appliqué de façon généralisée depuis moins de 50 ans.

2-QUEL POINT DE VUE SUR LES USAGERS DES BIBLIOTHÈQUES ?

Le « déficit » de travaux français sur les bibliothèques semble généralisé. On l’observe également à propos de l’étude des usagers. Cette explication globale fournie, il reste à savoir comment mieux connaître ceux à qui sont destinés les services d’information.

Les réflexions épistémologiques opposent souvent deux modalités de production de connaissance. La première désignée sous les catégories d’ « empirisme » ou d’ « induction » pose que la connaissance résulte « d’une expérience sensible » (Dick, 1999 : 307)  ou d’un flux entre la réalité et le sujet connaissant. La seconde (on parle de « rationalisme » ou de « modèle hypothético-déductif ») soutient au contraire que la connaissance découle des questions « que le sujet connaissant adresse à la réalité » (Boudon, 1987 : 129). Le mouvement de spécialisation de l’activité scientifique peut être perçu comme la conséquence de la concentration de l’expérience sensible sur des sujets de plus en plus précis ou comme celle de questions de plus en plus précises renvoyant à des points de vue différents.

Nous souhaitons étudier quel est le point de vue i.e. le type de questions que la sociologie et les sciences de l’information appliquent sur la réalité des usagers des bibliothèques. Plutôt que de définir a priori ce que nous entendons par « bibliothèques », nous préférons montrer comment chaque point de vue découpe les contours d’un certain type de bibliothèque plutôt que d’un autre.

2.1 Le point de vue sociologique

Si le point de vue sociologique peut se définir comme l’étude des comportements des hommes en tant qu’ils vivent en société, il n’est pas surprenant de constater que l’étude des bibliothèques offre une large place à celle des usagers. Pour autant, il existe plusieurs façons d’aborder ce sujet. Dans les travaux français sur ce thème on repère trois principales manières de construire l’objet « usagers des bibliothèques ».

– Un nombre important de recherches analyse la bibliothèque comme une institution sociale. Il s’agit de chercher à cerner qui sont les usagers qui fréquentent cette institution. La bibliothèque, dans ce cas, est définie comme un lieu porteur de valeurs restant à mettre à jour. Cette approche vise surtout les bibliothèques publiques comme le remarque Y. Polity (Polity, 2001 : 67). En effet, le point de vue sociologique vise à mettre en relation les discours sur la réalité et la réalité elle-même. Les bibliothèques publiques ont été construites et sont entretenues dans l’idée de desservir la totalité de la population. On affecte à cet équipement le rôle de permettre une égalité d’accès à la lecture. Ces missions qui justifient les financements publics et sous-tendent les discours professionnels sont susceptibles d’être éprouvés par des enquêtes de fréquentation des bibliothèques (ARCmc, 1980 : 265-299 ; Poulain, 1988 : 195-213 ; Poissenot, 2001 : 4-12). Le point de vue sociologique met à jour les distorsions entre les discours et la réalité en cherchant à en déterminer les raisons. Comment les bibliothèques publiques sélectionnent-elles leurs publics ? Qu’apportent-elles aux publics de classes moyennes qu’elles desservent plus que les autres catégories de population ? Quelles sont les relations entre l’institution scolaire et les bibliothèques quand on constate qu’une part très importante des publics se compose des élèves et étudiants ?

– Dans la lignée de ceux qui précèdent, d’autres travaux se concentrent sur la relation entre la bibliothèque et ses usagers du point de vue de sa structuration. L’accent est mis sur les techniques documentaires et leur utilisation à destination des publics. Qu’il s’agisse de catalogues informatiques (Le Marec, 1989) ou de classement des collections (Dujol, 1985), ces recherches montrent que les manières de faire des usagers ne sont pas celles observées chez les bibliothécaires. Cette sociologie des usages en bibliothèques se nourrit des réflexions de M. de Certeau qui insiste sur la capacité des acteurs sociaux à composer avec un ordre symbolique. Chartier et Hébrard (Chartier & Hébrard, 1988 : 98) résument ainsi cette idée : « comment `on’ pratique ordinairement, c’est-à-dire au jour le jour, de façon indéfiniment récurrente et jamais identique, les espaces ordonnés que l’`on’ n’a ni construits ni voulus, mais dont `on’ est simplement usager. C’est cela l’invention du quotidien. ». Elle a surtout été conduite dans des bibliothèques publiques mais pourrait se mener dans des centres de documentation.

– Prenant appui (explicitement ou implicitement) sur le cadre théorique qu’E. Goffman a largement contribué à construire, quelques travaux s’intéressent à la bibliothèque comme lieu d’interactions sociales. Les comportements des usagers dans l’espace public que constitue la bibliothèque suivent des règles ou des formes que l’on peut mettre à jour. Qu’il s’agisse des lecteurs de la BN (Baudelot, Detrez, Léveillé, Zalc, 1995), de la BPI (Evans, Camus, Cretin, 2000) ou de bibliothèques publiques (Hedjerassi, 2000 : 12-18) de centre ville ou de quartiers périphériques, on peut décrire la manière dont les usagers interagissent avec les autres usagers, le personnel (Bertrand, 1995) ou l’espace du lieu. Ces travaux ont le mérite de montrer que le rapport à la bibliothèque ne se réduit pas au rapport à une institution ou à un ordre organisé par d’autres mais que les bibliothèques rassemblent des acteurs qui agissent les uns par rapport aux autres.

Les comportements et caractéristiques du public ne sont pas uniformes. Au contraire, on constate une large diversité dans la manière d’utiliser ou non la bibliothèque selon l’âge, le sexe, la proximité des valeurs scolaires, la profession mais également selon la familiarité avec l’institution (Passeron, 1982 : 69-83) et le type de comportement de lecteur (Bertrand, 2001). Le point de vue sociologique aborde la question des bibliothèques de plusieurs façons mais avec un point commun. Que ce soit la sociologie du public, des usages ou des interactions, dans tous les cas l’attention centrale est portée sur le public (y compris le non public) plutôt que sur ce qui lui est proposé (collections, espace, services, etc.).

2.2 Le point de vue des sciences de l’information

A la différence de la sociologie, les sciences de l’information ne font pas des utilisateurs de l’information le coeur de leur objet. Elles s’intéressent à l’usager depuis peu et comme une composante de la réalité qu’elles se donnent pour objet. Quelle place accordent-elles à l’usager ? Quels sont les obstacles à la prise en compte par elles des usagers ?

2.2.1 L’objet des sciences de l’information

En France, on observe de multiples tentatives pour définir les sciences de l’information. Il s’agit à la fois de définir leur objet et leurs relations avec les autres disciplines. Ces dernières années, on assiste à une remise en cause d’une définition de cette discipline mettant l’accent sur le contenu de l’information et les conditions de sa transmission. H. Fondin (Fondin, 2001, 116) définit ainsi l’objet de la science de l’information comme « le système d’échange entre différents acteurs autour d’une recherche d’information (pour nous : le système secondaire) dont on veut comprendre le fonctionnement et surtout le rôle qu’y joue chaque acteur (d’où l’assimilation à un jeu de rôle), pour éventuellement intervenir dessus ». Quant à lui, Y. Le Coadic (1997a : 516) estime que la science de l’information se donne « pour objectif l’étude des propriétés générales de l’information et l’analyse des processus de sa construction, de sa communication et de son usage ». Ces deux auteurs manifestent une certaine rupture avec l’analyse de l’information qui ne tiendrait aucun compte de l’environnement social qui l’entoure. Alors que certains ont centré leurs travaux sur des questions autour du codage et décodage de l’information, eux reconnaissent la présence et la nécessaire prise en compte des acteurs sociaux qui la produisent, diffusent ou reçoivent. Cette réorientation paraît légitime quand on constate par exemple que les termes « usager » ou « publics » ne sont évoqués dans aucun des deux récents dictionnaires spécialisés et rédigés par des spécialistes de sciences de l’information et de la communication (Dictionnaire encyclopédique de l’information et de la documentation, Dictionnaire encyclopédique des sciences de l’information et de la communication).

Mais comment intégrer les « facteurs humains » dans l’étude des processus d’échange d’informations ? Cette question renvoie partiellement à celle des relations entre la science de l’information et les autres disciplines. Y. Le Coadic présente l’interdisciplinarité comme une possibilité pour intégrer la dimension humaine dans l’étude de l’information : « se préoccupant d’éclairer une dimension sociale concrète, celle de l’information, se penchant sur l’être social en quête d’information, cette discipline se range dans le secteur des sciences qui sont le principal moyen d’accès à une compréhension du social et du culturel » (Le Coadic, 1997a : 518). De son côté, H. Fondin ancre la science de l’information dans celle de la communication : « Nous revendiquons notre appartenance aux SIC et, à l’intérieur des Sciences de l’information et de la communication, nous voulons afficher la spécificité et l’intérêt de la science de l’information » (Fondin, 2001 : 120). En cela, il rejoint une définition qu’Y. le Coadic donnait de la science de l’information comme « science qui étudie la communication de l’information » (Le Coadic, 1984 : 168). Ces deux s’accordent sur la nécessaire prise en compte des usagers dans les sciences de l’information mais divergent sur la manière d’y parvenir : soit par l’insertion dans la science de la communication (ce qui permet de rester dans le même champ disciplinaire), soit par le recours à une autre discipline dans le cadre de l’interdiscipline.

2.2.2 Les obstacles à la prise en compte des usagers des bibliothèques dans les sciences de l’information

Le souhait de faire une place à l’usager dans les sciences de l’information ne suffit pas à lever les obstacles à cette prise en compte. Nous proposons de lister quelques uns des points qui la rendent difficile.

2.2.2.1 Les réserves face à l’épistémologie de point de vue

Étudier les usagers revient à interroger les bibliothèques à partir de cet angle. L’idée même d’un savoir fondé sur un point de vue ne s’est pas toujours imposée comme évidente. M. H Harris a montré comment les conditions de la naissance de la Library and Information Science aux États-Unis ont généré une épistémologie positiviste (Harris, 1986 : 516-518). Celle-ci se caractérise notamment par l’application de méthodes quantitatives afin de mettre à jour des lois générales. Cette conception de la science s’appuie sur la vision du progrès scientifique née des Lumières et qui fonde l’unité de la science. S. E. Trosow résume bien cette conception de la manière suivante : « il existe un monde susceptible d’être connu à travers une vérité ». Dans ces conditions, les sciences de l’information ne pouvaient pas se définir comme un discours empiriquement validé sur le réel puisqu’elles cherchaient la vérité unique et absolue du réel.

En outre, le souhait de découvrir les lois du réel a justifié l’imposition de la règle de la neutralité dans le rapport au sujet d’étude. L’épistémologie du point de vue a souffert de cette confusion entre objectivité et neutralité (Trosow, 2001 : 375). Tout point de vue était perçu comme dérogeant à la règle de la neutralité et ainsi soupçonné de manquer d’objectivité. L’émergence d’une épistémologie de point de vue a pour condition la dissociation de la neutralité et de l’objectivité : il est possible d’interroger le réel avec un point de vue sans pour autant renoncer à l’objectivité ou au moins à l’objectivation i.e. l’effort d’expliciter la saisie du réel à travers des catégories construites par le chercheur ou déjà existantes (de Singly, 1992 : 19-22).

2.2.2.2 Science de l’information : science ou technique ?

Les sciences de l’information sont soumises à une « demande sociale » liée à l’évolution rapide des technologies de l’information. Il s’agit alors d’aider à la conception et à la réalisation d’outils de stockage, analyse, recherche et manipulation d’information. La place accordée aux usagers de ces systèmes est restée marginale au contraire de ce que l’on a observé dans les pays anglo-saxons. Ainsi, R. Siatri écrit : « les années 80 furent la décennie pendant laquelle la technologie de l’information `envahit’ le domaine des études d’usager et établit une place permanente à l’intérieur des centres d’intérêt de ce champ » (Siatri, 1999 : 137). La technologie n’est pas séparée de ceux qui seront amenés à l’utiliser.

La situation française prend également sa source dans le cloisonnement des domaines scientifiques et technologiques, dans la distinction entre recherche « appliquée » et recherche « théorique ». La distinction nous semble reposer sur un fondement épistémologique fragile. Si la recherche « appliquée » vise à améliorer alors que la recherche « théorique » cherche à comprendre (Fondin, 2001 : 121), l’amélioration d’un outil d’information suppose la compréhension de son fonctionnement et des usages dont il peut faire l’objet. L’information n’est accessible qu’à travers un cadre socio-technique (Flichy, 1995) dont on peut rendre compte de la conception et des manières dont il est utilisé. A partir de l’histoire de la physique, A. Testart conforte cette idée : il affirme ainsi : « l’activité technique et l’activité scientifique sont consubstantielles » (Testart, 1991 : 67). L’opposition nous semble moins devoir se constituer entre la recherche fondamentale et la recherche appliquée qu’entre la recherche qui intègre l’utilisateur (fut-elle appliquée !) et celle qui ne le fait pas (fut-elle fondamentale !).

2.2.2.3 La rémanence de l’approche émetteur

L’ « approche émetteur » qui a longtemps prévalu dans la science de l’information (Le Coadic, 1997b : 10) continue à rendre difficile la réflexion sur ce sujet. La notion de « besoin » part toujours du service de diffusion de l’information. Malgré le soin mis à explorer cette notion, Y. Le Coadic illustre la persistance de cette orientation-système : « Dès lors qu’ils s’ouvrent au public, une bibliothèque, un centre de documentation, un musée, un serveur devraient mettre explicitement l’accent sur les besoins d’informations de leurs usagers » (Le Coadic, 1998 : 8). La démarche de ces institutions consiste à chercher chez les usagers (réels ou potentiels ?) ce qui les pousserait à utiliser leurs services. Le recours à une des institutions citées serait le résultat d’un besoin. Faut-il que cette notion soit large pour permettre de saisir la variabilité des rationalités à l’oeuvre dans ce comportement : bonne volonté culturelle, prise de distance du cadre familial, participation à un groupe de pairs, quête de reconnaissance, etc. ? Les usagers coproduisent les institutions en s’appropriant (ou non) et, le cas échéant, en détournant l’analyse que les membres de l’institution ont pu faire des « besoins » de ceux-ci. Il existe une grande difficulté à cerner les besoins des populations et H. S. White montre bien comment nous avons tendance « à confondre les besoins des usagers, les désirs des usagers et les demandes des usagers (ou leurs requêtes) comme si tout cela était la même chose » (White, 1985 : 70). Face à cette difficulté à connaître ce qu’il faut pourtant savoir, il semble judicieux de porter une attention aux conséquences des expériences menées en vue de satisfaire certains besoins présumés. Elles offrent la possibilité de mesurer le besoin lui-même plutôt que son expression.

Par ailleurs, si on prolonge la définition que Belkin donne du besoin d’information (« information need ») comme l’état d’une personne qui « reconnaît une anomalie dans son état de connaissance et convertit ce défaillant état de connaissance dans une structure communicable (par exemple une requête) » (Belkin, 1978 : 81), il reste à étudier quelles sont les conditions de la prise de conscience par l’individu de son besoin d’information. Celui-ci n’existe pas tout seul mais bien relativement à la position que l’individu occupe dans son environnement social. L’anomalie émerge quand quelqu’un dont le point de vue compte du fait de sa position sociale, l’a mise en évidence ou suggérée. Autrement dit, le besoin d’information est souvent latent ce qui est vrai dans le monde de la recherche (les bibliographies participent à la définition du besoin d’information) mais aussi dans la vie courante (les clients fidèles de la restauration rapide éprouvent-ils le besoin d’information sur la nutrition ?). Le besoin n’existe qu’à partir du moment où l’individu adopte (de gré ou de force) le point de vue de celui qui le met à jour. Dès lors, ce sont les relations sociales qu’il convient d’étudier pour comprendre les demandes ou l’absence de demande d’information.

2.2.2.4 L’accent mis sur la documentation

Étant donné ce qui précède, plus les usagers (réels ou potentiels) sont homogènes du point de vue de leur formation, de leur position sociale ou de leur mission, plus il est aisé de cerner quels sont leurs « besoins ». Pour cette raison, les études sur les usagers et leurs besoins en France comme dans les pays anglo-saxons portent plus souvent sur des centres de documentation spécialisés à destination de publics ciblés (médecins, chercheurs, banquiers, etc.) que sur des bibliothèques publiques fréquentées par des population plus diverses.

La demande d’outils, de systèmes d’information à destination de publics ciblés mais dont l’activité est valorisée a favorisé un certain type de recherche en sciences de l’information. Les informaticiens ont contribué à répondre à cette demande et aussi  à définir un certain type de travaux réduisant les usagers à des modélisations discutables. Ceux-ci savent ce qu’ils veulent (ou sont pensés comme devant le savoir) et dépendent de leur centre de documentation qui détient les sources d’information ou la compétence nécessaire à son accès. La spécialisation des publics suppose une spécialisation des collections et la mise à l’écart de la production éditoriale fictionnelle. Tous ces éléments convergent pour rendre l’analyse des besoins et des usages plus faciles que dans une bibliothèque publique dans laquelle la variété caractérise à la fois les usagers et les collections. Cette « simplification » a permis de mettre en place des outils techniques et de compréhension dont la validité a été assurée par l’homogénéité des publics et des collections. L’étude des bibliothèques publiques offre la possibilité de repenser la place des usagers à partir d’une plus grande diversité.

3- POUR UNE SCIENCE DES BIBLIOTHÈQUES

Comment penser la fréquentation et les usages des bibliothèques ? Cette question suppose une attention à ceux que l’établissement est sensé desservir. Pour cette raison, le point de vue sociologique apparaît particulièrement familier de cette approche. Une approche bibliothéconomique étroite semble plus étrangère à cette question.

Nous pensons que le croisement de ces deux points de vue serait source d’une meilleure compréhension du rapport entre les publics (réels ou potentiels) et les bibliothèques. La dissociation des modalités de l’offre des bibliothèques avec les caractéristiques des usagers empêche l’intelligibilité de la multiplicité de ces relations. Affirmer qu’il faut moins chercher à se « préoccuper principalement de la question des diplômes possédés mais à améliorer les conditions d’accueil, à créer davantage de familiarité, à diversifier la collection pour inciter à revenir ceux qui, avec effort, se sont enfin décidés à franchir le seuil de la bibliothèque » (Bertrand, 2002 : 11) c’est détacher le point de vue sociologique de son ancrage dans la réalité des comportements et représentations des acteurs. La proximité avec l’univers scolaire n’aurait-il aucun effet sur la perception et l’usage des bibliothèques ? C’est aussi séparer l’approche sociologique et le point de vue bibliothéconomique. En cela, c’est ne pas tenir compte du fait que la position occupée dans la hiérarchie culturelle façonne inévitablement le rapport à toutes les dimensions de l’offre de la bibliothèque : accueil, collection, décor, etc.

L’approche sociologique peut mettre en évidence l’adéquation ou l’inadéquation entre les comportements de certains groupes sociaux et les services offerts par les bibliothèques. De cette manière, elle explique la fréquentation ou non de ces lieux. La « décision de franchir enfin le seuil de la bibliothèque » résulte de la relation multiple entre les modalités de l’offre, les appartenances sociales des individus et leurs manières de percevoir cette institution et sa fréquentation.

Notre proposition de joindre l’étude des modalités de l’offre avec celle des caractéristiques sociales de ceux qui l’utilisent ou non rejoint partiellement la manière dont R. Chartier envisage l’histoire de la lecture. Il refuse d’appliquer un découpage en catégories sociales a priori sur les comportements de lecture et suggère d’être sensible à d’autres principes de différenciation que la seule position dans l’espace socio-professionnel. Il suggère de prêter attention à la manière dont le texte est mis en forme considérant que « les formes produisent du sens ». Nous transposons son hypothèse en estimant que de même que « les objets typographiques trouvent inscrits dans leurs structures la représentation spontanée que leur éditeur se fait des compétences de lecture du public auquel il les destine » (Chartier, 1985 : 80), de même, la manière dont les bibliothèques conçoivent leurs services visent à agir sur les comportements des usagers au nom de valeurs à identifier. Les usagers (à l’image des lecteurs avec les textes) conservent une liberté dans le fait de s’approprier ou non ces services mais également dans la manière de le faire. Ils le font à partir de ce qui les constitue en termes d’histoire, d’appartenances sociales mais également à partir de leur familiarité avec les bibliothèques et les outils qu’elles utilisent (7).

Notre proposition s’inscrit dans la lignée d’une remise en cause de la manière d’aborder le champ de la recherche en science de l’information et des bibliothèques telle qu’on l’observe dans une partie de la production anglo-saxonne. Certains regrettent l’accent mis sur les questions techniques de traitement de l’information. A. L. Dick, par exemple, estime que la focalisation sur l’information « réduit la portée des inquiétudes professionnelles à des sujets techniques d’efficience, de rapidité et de contrôle et néglige souvent les questions d’accès libre et de justice sociale » (Dick, 1999 : 314). Devant cette situation, ils prônent l’adoption d’une épistémologie de point de vue qui repose sur une interrogation autour des relations entre l’information et la distribution du pouvoir. « La relation entre connaissance et politique est centrale dans l’épistémologie de point de vue parce qu’elle a à voir avec comment les relations politiques amènent une production de savoir » (Trosow, 2001 : 377). Le point de vue des dominants n’apparaît pas comme un point de vue mais comme la réalité. Rien d’étonnant dès lors à ce que les travaux de ce type s’inscrivent dans une perspective féministe ou de classe. Il s’agit alors de montrer que la « neutralité » des bibliothèques connaît des failles. C. Pawley explique par exemple que « Les autorités culturelles dessinent des distinctions comme celle qui constitue la « bonne lecture » condamnant la fiction populaire comme `trash’ ou `sensationnelle’. (…) Les bibliothécaires jouent un rôle important dans la transmission des valeurs de la haute culture bien que peut-être, comme l’affirme W. Wiegand, ils ne les définissent pas » (Pawley, 1998 : 137). Ce type d’analyse rejoint celle proposée par le sociologue français J.-C. Passeron dès 1981 : « En la forme actuelle de ses techniques d’offre comme des contenus offerts, la bibliothèque correspond surtout aux attentes et aux pratiques culturelles des classes moyennes » (Passeron, 1981 : 286). On voit poindre le retour d’une proximité entre sociologie et sciences des bibliothèques qui avait disparu du fait de la domination du positivisme entre les années 30 et 80 et qui faisait de la sociologie « la plus enrichissante des disciplines » (Harris, 1986 : 517). Il s’agit de chercher à savoir comment les différents publics visés perçoivent et utilisent les services que leur proposent les bibliothèques en étant à la fois sensible à la diversité des populations et des services. Cette orientation remet en cause le modèle de l’usager vu comme « instruit et qui apprécie le rôle de la bibliothèque et qui comprend les façons d’obtenir une réponse satisfaisante à son besoin d’information » (Chatman, 1990 : 368). Il s’agit de mieux connaître les populations qui n’ont pas le réflexe de venir dans les bibliothèques afin de mieux comprendre ce qui les maintient à l’extérieur. Il faut également chercher de quelle manière « chaque bibliothèque décide de quels milieux vont venir ses clients souhaités et de quels milieux vont venir ses clients difficiles » (Motzko, 2000 : 12). Plus généralement, on cherche quelles sont les incidences des services offerts sur la fréquentation des bibliothèques et l’usage qui en est fait. C’est le travail que nous avons engagé et que nous souhaitons poursuivre (Poissenot, 2001a).  La complémentarité des points de vue entre sciences de l’information et sociologie réside notamment ici dans le fait de prêter une attention soutenue à la diversité des systèmes d’offre. Le point vue sociologique seul n’invite pas à prendre en compte ce qui peut être perçu comme des détails et qui façonnent pourtant puissamment la relation usagers-bibliothèque.

Notre projet consiste donc en un double système de variations dans lequel l’offre et sa mise en forme sont pensées dans leurs relations avec la multiplicité des publics et des usages. La mise en oeuvre d’un tel programme débouchera sur une meilleure connaissance des principes qui organisent ces relations et qui rendent compte de la fréquentation et des usages.


Bibliographie

ARCmc, 1980, L’expérience et l’image des bibliothèques municipales, Bulletin des bibliothèques de France, t. 25, n°6, p. 265-299.

Baudelot Christian, Detrez Christine, Léveillé Laure, Zalc Claire, 1995, Lire à la BN, lire au plus haut niveau, in Martine Seibel, dir., Lire, faire lire, Le Monde-Editions, p. 159-187.

Belkin Nicholas J., 1978, Progress in documentation : information concepts for information science, Journal of Documentation, vol. 34, n°1, p. 55-85.

Bertrand Anne-Marie, 1995, Bibliothécaires face au public, Centre G. Pompidou-BPI, 247 p.

Bertrand Anne-Marie, 2001, Portrait de groupe avec (ou sans) bibliothèque, in Anne-Marie Bertrand, Martine Burgos et alii, Les bibliothèques municipales et leurs publics, BPI/Centre G. Pompidou, p. 25-79.

Bertrand Anne-Marie, 2002, A bonne question mauvaises réponses ?, Bulletin des bibliothèques de France, t. 47, n°1, p. 9-11.

Boudon Raymond, 1987, L’idéologie ou l’origine des idées reçues, Fayard, p. 330.

Brophy Peter, 2001, Organisation de la recherche en bibliothèque au Royaume-Uni, Bulletin des bibliothèques de France, t. 46, n°4, p. 78-80.

Cavallo Guglielmo, Chartier Roger, 1997, Histoire de la lecture dans le monde occidental, Le Seuil, p. 526.

Chartier Anne-Marie, Hébrard Jean, 1988, L’invention du quotidien, une lecture des usages, Le Débat, t. 49, mars-avril 1988, p. 97-108.

Chartier Roger, 1985, Du lire au livre in Roger Chartier, dir., Pratiques de la lecture, Marseille, Rivages, p. 62-88.

Chartier Roger, 1992, L’ordre des livres, Aix-en-Provence, Alinea, p. 119.

Chatman Elfreda A., 1990, Alienation theory : application of a conceptual framework to a study of information among janitors, RQ, vol. 29, spring 1990, p. 355-368.

Collier Mel, 2001, Etat de la recherche en bibliothéconomie et sciences de l’information au Royaume-Uni : le grand bon en arrière, Bulletin des bibliothèques de France, t. 46, n°4, p. 50-56.

Couzinet Viviane, 2000, Médiations hybrides : le documentaliste et le chercheur de sciences de l’information, Ed. ADBS, 340 p.

Dick Archie L., 1999, Epistemological positions and library and information science, Library Quarterly, vol. 69, n°3, p. 305-323.

Dujol Anne, 1985, Le clair et l’obscur : usage de la classification à la BPI, BPI, 48 p.

Evans Christophe, Camus Agnès, Cretin Jean-Michel, 2000, Les habitués, Centre G. Pompidou-BPI, 325 p.

Fondin Hubert, 2001, La science de l’information : posture épistémologique et spécificité disciplinaire, Documentaliste – Sciences de l’information, vol. 38, n°2, 2001, p. 112-122.

Flichy Patrice, 1995, L’innovation technique, récents développements en sciences sociales, La Découverte, 250 p.

Harris Michael H., 1986, The dialectic of defeat : antinomies in research in library and information science, Library Trends, vol. 34, winter 1986, p. 515-531.

Hedjerassi Nassera, 2000, Usages collectifs et tensions : les jeunes publics dans les bibliothèques, Lecture Jeune, n°95, novembre 2000, p. 12-18.

Lahire Bernard, 1995, Tableaux de famille, Gallimard/Le Seuil, p. 301.

Lamizet Bernard, Silem Ahmed, dir., 1997, Dictionnaire encyclopédique des sciences de l’information et de la communication, Ellipses, 590 p.

Le Coadic Yves, 1984, La science de l’information : aspects structurels et institutionnels d’une nouvelle discipline, Bulletin des bibliothèques de France, t. 29, n°2, p. 168-172.

Le Coadic Yves, 1997, Science de l’information in Serge Cacaly, dir., Dictionnaire encyclopédique de l’information et de la documentation, Nathan,  p.518-523.

Le Coadic Yves, 1997, Usages et usagers de l’information, ADBS-Nathan, 126 p.

Le Coadic Yves, 1998, Le besoin d’information, ADBS Editions, 191 p.

Le Marec Joëlle, 1989, Dialogue ou labyrinthe ?, Centre G. Pompidou-BPI, 91 p.

Léveillé Laure, 1992, Fascinations étrangères et naissance de la lecture publique, in Martine Poulain, dir., Histoire des bibliothèques françaises, t. IV, Promodis-Cercle de la Librairie, p. 154-177.

Meyriat Jean, 1994, La naissance des SIC en France, Entretien avec J. Devèze, http://www.cetec-info.org/jlmichel/Textes.Meyriat.html, dernier accès le 14/12/2001.

Motzko Meinhard, 2000, Seien wir ihnen dankbar !, Buch und bibliothek, vol. 52, décembre 2000, p. 727-730.

Passeron Jean-Claude, 1981, in Lecture et bibliothèques publiques, Colloque d’Hénin-Beaumont, ORCEP, 20-21 novembre 1981, p. 285-291.

Passeron Jean-Claude, 1982, Images en bibliothèque, images de bibliothèques, Bulletin des bibliothèques de France, t. 27, n°2, p. 69-83.

Pawley Christine, 1998, Hegemony’s hamdmaid ? The library and information studies curriculum from a class perspective, Library Quarterly, vol. 68, n°2, p. 125-144.

Polity Yolla, 2001, Les bibliothèques, objets de recherche universitaire,  Bulletin des bibliothèques de France, t. 46, n°4, p. 64-70.

Poissenot Claude, 2002, Programme pour l’étude des déterminants interne de la fréquentation des bibliothèques, in Réjean Savard, dir., La formation et la recherche sur le marketing et la gestion de la qualité des bibliothèques, Colloque satellite IFLA, Québec, 14-16 août 2001, München, K. G. Saur, p. 69-86.

Poissenot Claude, 2001, Penser le public des bibliothèques sans la lecture ?, Bulletin des bibliothèques de France, t. 46, n°5, p. 4-12.

Poulain Martine, 1988, Usages en bibliothèques publiques in Martine Poulain, dir., Pour une sociologie de la lecture, Ed. du Cercle de la Librairie, p. 195-213.

Siatri Rania, 1999, The evolution of user studies, Libri, vol. 49, 1999, p. 132-141.

Singly de François, 1992, L’enquête et ses méthodes : le questionnaire, Nathan, p. 127.

Testart Alain, 1991, Essai d’épistémologie, Christian Bourgois Editeur, 174 p.

Trosow Samuel E., 2001, Standpoint epistemology as an alternative methodology for library and information science, Library Quarterly, vol. 71, n°3, p. 360-382.

Wiegand, Wayne A., 1989, The developpment of libraries in the United States, Libraries and Culture, vol. 24, winter 1989, p. 99-109.

White Herbert S., 1985, The use and misuse of library user studies, Library Journal, Vol. 110, Déc. 1985, p.70-71.

[1] Pour la France, le témoignage de J. Meyriat (Meyriat, 1994) sur la naissance des sciences de l’information et de la communication apporte des éléments intéressants sur les conditions historiques de l’émergence de cette discipline. (Retour au texte)

[2] Cette liste a été dressée par l’université de Lille1. Elle est accessible à l’adresse suivante : http://lisidip.univ-lille1.fr/Lisidip/Consultation/
Liste_parcont_MIS.asp , dernier accès le 19/11/2001. (Retour au texte)

[3] Cf. liste proposée par le ministère de l’Education Nationale à l’adresse suivante : http://dr.education.fr.8080/annuaire/
servlet/annuaire.Ur?disc=22, dernier accès le 19/11/2001. (Retour au texte)

[4] Pour une analyse qualitative et nuancée des revues françaises de la spécialité, Cf. V. Couzinet (Couzinet, 2000). (Retour au texte)

[5] Je fais ici référence à l’enquête menée fin 2000 par P. Jeannin. Sa liste a été établie à partir de plusieurs sources dont la base FRANCIS de l’INIST mais aussi la SFSIC. Elle compte 261 titres édités dans un nombre important de pays. La liste et les résultats sont disponibles à l’adresse suivante : http://www.iut-tarbes.fr/enquete/info_comm/
Enquete.htm, dernier accès le 20/11/2001. (Retour au texte)

[6] Pour plus de détails, voir http://www.libqual.org/, dernier accès le 14/12/2001. (Retour au texte)

[7] De ce point de vue, un travail comme celui de B. Lahire (Lahire, 1995) est intéressant car il montre qu’à milieu social comparable, il existe des rapports à l’écrit très variables et qui rendent compte notamment des « performances » des enfants dans le cadre scolaire. Cela n’est pas sans effet sur la fréquentation et l’usage des bibliothèques. (Retour au texte)

CERLIS/Paris5
IUT Nancy-Charlemagne
2ter, bd Charlemagne
54000 Nancy
tél : 03.83.91.31.67
mél : poisseno@univ-nancy2.fr

©HERMÈS : revue critique et Roger Charland
ISSN- 1481-0301
Créée le vendredi 18 août 2000
À jour le samedi 22 mai 2004

Publié dans Bibliothéconomie, Sociologie | 1 commentaire

« LES DÉRACINES » précédée de « Introduction critique et méthodologique » (CONTRIBUTION A UNE RECONNAISSANCE DE LA LITTÉRATURE DANS LE DOMAINE SCIENTIFIQUE) Emmanuel Sabatie

« LES DÉRACINES »

précédée de

INTRODUCTION CRITIQUE ET MÉTHODOLOGIQUE

(CONTRIBUTION A UNE RECONNAISSANCE DE LA

LITTÉRATURE DANS LE DOMAINE SCIENTIFIQUE)

Emmanuel Sabatie

Paru dans HERMES : REVUE CRITIQUE, no. 10


CV PERSONNEL

Actuellement doctorant en sociologie, je suis né à Perpignan en 1974. A côté de mes activités scientifiques, je consacre une grande partie de mon temps à l’écriture et à la poésie. Le 19 Octobre 2003, j’ai reçu le Prix Gaston Baissette de la Nouvelle à l’occasion des 61ième Jeux Littéraires Méditerranéens pour mon texte Sursis au Soleil – premier extrait de mon recueil Histoires de Cercle.

1 – L’art n’est pas la science

Car la science ne considère que ce qui est de l’ordre de l’homogène, de la logique, ou du répétable. Le savant remarque un fait naturel ou contre-nature, un événement physiologique ou pathologique, une normalité ou une anomalie sociale, et exerce ainsi son regard sur le vivant, décelant là où il est ignorance, une vérité en cours de déterminisme.

Fontenais de Florence constate, par exemple, que l’eau dans les puits monte toujours à la même hauteur. Ceci est une observation scientifique, car repérant ce qui est dans le réel, source momentanée d’ignorance. L’hypothèse  vient après les faits, constituant l’idée de départ d’une théorie.

Galilée fait à son tour la supposition que l’eau pèse et il le démontre en le formulant dans un langage mathématique, soit, la densité de l’eau que multiplie la hauteur de l’eau est égale à la densité du liquide que multiplie la hauteur du liquide contenu dans le tube. L’expérience vérifie donc la théorie pour rendre compte d’une efficacité possible du langage mathématique sur le réel.

Si la science est en effet théorique, elle ressent aussi un besoin d’agir pragmatiquement sur une donnée vivante. L’expérience de Pascal à la Tour St Jacques à Paris et aux puits de Dôme, confirme la théorie de Galilée, et contient déjà en germe, les expériences et les découvertes futures sur l’adaptabilité de l’homme et des machines dans les airs et dans l’espace.

La conquête rationnelle de l’espace et des airs est une conquête qui commence avant tout sur et sous  terre, dans le vivant des choses cachées. Le savant, à partir d’une positon épistémologique «désintéressée», œuvre à l’édification d’une liaison du réel au rationnel par l’expérience et la théorie, et vise donc nécessairement de façon intéressée, à la gestion dominante de l’esprit rationnel sur une nature rendue non moins rationnelle, de façon à ne retenir que ce qui est commun et prévisible, et donc nécessairement déterminé par une loi et une efficacité scientifique à la fois pratique et conquérante. Considérant par exemple pour Durkheim, qu’il convient d’étudier les faits sociaux comme des choses (la statistique aidant à démontrer ce principe), il est ainsi aisé de comprendre pourquoi la sociologie a d’abord été une physique du social, et le chercheur en sociologie, un savant à la recherche de lois déterminantes du vivant.

Sciences et techniques peuvent marcher de concert. L’homme est tenu pour être un sujet obéissant à des lois mathématiques. La sociologie a participé à l’avènement de la science moderne, fondée par Galilée, codifiée par Descartes, et dans laquelle la Nature se voit réduite à une simple fonction mathématique, à une abstraction géométrique, ou à une expérience de l’esprit logique sur les lois du vivant. L’homme étant perçu égal à un élément chimico-moléculaire tels que peuvent l’être les pierres, les plantes, l’air ou l’eau, la technique, en cherchant à cerner seulement par le logos la connaissance du vivant et de l’humain, se manifeste en réalité comme un phénomène de barbarie qui menace l’Occident en particulier, et plus généralement le monde.

2 – Cependant la science a évolué

Mendeleïev disait qu’il ne pouvait pas exister de pensée sans pensée classificatoire. Je peux dire aujourd’hui en raison de la prise de conscience de travaux sociologiques ou\et anthropologiques récents, qu’il ne peut pas y avoir de pensée classificatoire si l’émotion et la sensibilité du chercheur sont astreintes à un rôle d’esclave. A une analyse superficielle, par le biais de la raison mécanique ou de la statistique de type quantitative, est donc substituée une connaissance plus approfondie du Fait Social, construite à partir des aléas liés à l’observation, à l’échange ou à l’authenticité d’une relation vécue comme vraie.

Le chercheur est par conséquent de plus en plus amené au choix des récits, par lesquels, il s’engage à mettre en ordre par l’écrit la parole d’un acteur, en échangeant et en «questionnant» sur son parcours social, les voies empruntées pour structurer progressivement une histoire personnelle. Le chercheur raconte cette histoire en essayant d’être le plus proche possible de son interlocuteur et ce travail autobiographique révèle ce qui constitue la trame d’un récit : soit, le vécu de l’expérience fait de passions, de désirs, de petits riens, ou de banalités, et à partir duquel une analyse se pose, afin d’expliquer ce qui fait que les singularités irréductibles sont également attachées à des référents culturels et institutionnels, ou bien encore, à des attaches de groupes ou à des appartenances de « famille », dont les projets et les aspirations marquent toujours les destins individuels.

La méthodologie du récit précisé, il est alors possible de penser le lien avec la littérature, car les récits sont à l’image d’un roman social rendant compte d’une trajectoire sociale.

Faire émerger la parole des acteurs du social est une tâche de terrain. La retranscription de cette parole n’est possible méthodologiquement que dans l’utilisation d’un vocabulaire, d’une structure, et d’un temps grammatical adaptés. La transformation du vécu en langage implique en effet la nécessité d’un exercice d’écriture lié à la littérature elle-même.

3 – D’où la science peut-elle être un art ?

Si les techniques liées au langage du récit sont les mêmes que celles que l’auteur de fiction utilise pour raconter une histoire, le réel pourrait-il se raconter comme une histoire ? Il est un contenu à transmettre par le langage écrit, et cet art du dire peut-il amener à la nécessité de comprendre le Fait Social ? Car si le récit porte sur un langage retranscrit, ou interprète une histoire singulière, en quoi les processus techniques du langage romancé peuvent-ils enrichir notre approche des récits, et nous amener ainsi à interpréter les histoires de vies comme des reconstructions artistiques, imaginaires, subjectives, et où se joue quelque chose de la production de soi ? Cette approche littéraire n’est pas présente en sociologie sans soulever un certain nombre de réflexions critiques et un débat fondamentalement lié au rapport entre réalité et fiction.

Je continue pourtant à posséder l’intuition que ce texte court – « Les déracinés » – est peut-être plus significatif historiquement, et surtout sociologiquement, qu’un long travail d’enquête et d’analyse scientifique, que celui-ci soit inscrit dans une perspective explicative ou compréhensive d’action et de réflexion.

J’avais déjà travaillé à Perpignan sur « les harkis » à partir de l’étude ethnographique d’une famille de cinquante cinq personnes, obtenant le diplôme (maîtrise) avec mention Très Bien. Puis je suis parti sur Montpellier pour m’inscrire en DEA. J’ai à ce moment changé de sujet moins pour des raisons scientifiques que politiques. Cependant, je n’ai jamais vraiment abandonné ce thème de recherche. J’ai alors composé « Les Déracinés » et j’ai été naturellement amener à réfléchir sur le sens de la poésie et de ses liens avec la Science. Le texte, le sujet abordé, le style, le ton, l’atmosphère ; tout cela est très dur… authentique… pas de « sentimentalisme », rien que du brut…

Beaucoup pourront me rétorquer en retour que ceci n’est qu’une fiction, avec le mépris habituel qui peut être rattaché à ce mot. Il n’est pas de problématique bien définie, de citations d’auteurs de référence, mots-clés etc… En d’autres termes, il n’est aucune attache selon toutes méthodes raisonnables qu’exige l’épistémologie classique en sciences sociales. Or, si le savant peut repérer des constantes dans le divers des sensations données, la réalité se manifeste toujours de manière diverse (différente, singulière) et changeante, de sorte que je persiste malgré tout à poser l’hypothèse qu’il y a de l’art dans la science, comme il y a de la science dans l’art, et que le langage de l’art peut parfois éclairer le discours de la science (et la sociologie en particulier). Je ne suis pas guidé par la présomptueuse conception de « vouloir changer le monde », mais seulement par le désir d’exposer une hypothèse de recherche, parmi d’autres, m’engageant à recréer un lien entre la littérature et la science, de poursuivre en quelques sortes, à mon humble échelle, les travaux de Zola, de Kafka, de Camus, et de tous les grands explorateurs du Social qui m’ont inspiré la création de ce texte.

En espérant être à la hauteur de vos exigences scientifiques, critiques, mais également littéraires

Cordialement

L’auteur « Les Déracinés », Emmanuel Sabatie


LES DéracinésI

Le camp s’est asséché. Il n’est plus traces de vie. Seuls des pierres, vieilles pour la plupart et aussi des bouts de ferrailles, parsèment le sol de cette végétation urbaine. Le vent souffle fort dans ce petit bled du Sud de la France. Il dépasse souvent les quatre vingt kilomètres-heure. Le mal de tête est la conséquence logique de ce vent violent ; un mal qui prend chaque neurone et les broie comme si vous aviez un mixeur à la place du cerveau. Le chibani accuse ce souffle de lui donner des maux. Comme les gens accusent eux aussi la tramontane de déferler sauvagement dans leur tête. Pourtant ce mal est bien présent. Il n’a pas de raison d’être. Il est !… tout simplement ; et vous fait prisonnier de ses tourments. Vous devenez alors à l’image d’un arbre à demi courbé sur les bords de routes ; un de ces arbres qui ressemblent à tant d’autres et qui souffrent de la brutalité du vent. Le chibani se touche le front, les mains en cône, et plie ses yeux. Par lancement, le mal lui revient. Le soleil est à peine levé et comme tous les matin, le vieux harki va faire un tour au camp – ou tout du moins ce qu’il en reste. Il marche au milieu d’un tas d’ordure et paradoxalement son cœur bat plus fort. Il a derechef vingt ans. Ses bambins jouent près de sa femme. Une femme si belle. Cheveux noirs fins et corps en chair, elle s’habillait toujours de cette robe blanche et noire ; une robe qu’elle enlevait le soir, nettoyait, repassait puis remettait le lendemain. C’était toujours le même haillon. Mais ça lui allait comme le diamant posé au doigt d’une princesse. Quelque chose qui brille au milieu de la fange. Car la merde était partout. On pouvait la renifler, la sentir tout autour. A la fin de l’hiver 62, tout le monde pensait se casser d’ici. Ils allaient trouver du travail et s’en aller loin du camp. Mais la plupart sont restés – pas de travail – ils sont restés au camp en attendant un geste de l’Etat. L’Etat ? Quel Etat ? Le chibani ne l’a jamais vu en face. Ombre menaçante, visage inconnu, l’Etat est ce diable que tous redoutaient certains soir de pleine lune. Il venait de la mer. Des bruits de vagues cassées, mêlées à des chaînes, faisaient écho dans le crâne de tous. Chacun fermait ses volets et attendait que le monstre passe. On le voyait jamais. Il passait puis il repartait. L’Etat ressemble tellement à ce diable des mers. Il déambule et ne t’affronte jamais. Le chibani tire sur sa clope. C’est le mégot. Mais il tire quand même dessus jusqu’à n’apercevoir presque plus rien de la roulée. Des pierres roulent le long d’un coteau cerclé de maisons en ruine. A l’intérieur de l’une d’elles, des jeunes au teint blafard. Leurs yeux sont vides, cerclés de noir et de désuétude. Alors le chibani s’avance vers ce groupe. Il en connaît un parmi eux. C’est son neveu et il lui ressemble étrangement ; à part qu’il est trop maigre pour son âge et que sa peau éructe en des points divers. Sa peau crache le pue. Maladie de seringue !… il s’en fout plein les bras et comme diraient les voisins : « il n’était bon qu’à ça ».

« Hep » leur lance-t-il comme on lance une pierre d’une fronde.

Eux se retournent et demandent au chibani ce qu’il veut.

– Vous avez pas le droit de faire ça ici, leur acquiesce-t-il. Vous avez pas le droit de mourir ici !

– Comment ça on a pas le droit ? Pas le droit de mourir ici ?

Le vieux accélère ses phrases. Les mots s’enchaînent et il postillonne presque, comme par colère.

« Vous n’avez pas le droit bande de bâtard ! Vous m’entendez ! Vous n’avez pas le droit de mourir ici ! »

Sur ce, les jeunes se rapprochent du chibani. L’un d’entre eux tient entre ses mains cette fille de pute de seringue. Il la pointe comme un couteau et menace le vieux de fermer sa gueule. Lui hurle d’une voix aussi forte que le bruit d’un moteur diesel :

« vous n’avez pas le droit de mourir ici ! »

Puis plus rien. Seulement le silence. Les jeunes zappent et le vieux se barre. Il laisse derrière lui, sous un soleil terne, le camp des harkis – enfin l’ancien camp, puisqu’il n’est plus rien aujourd’hui à part ces amas de pierres le rappelant à son souvenir étrange. Nostalgie à la fois tendre et orageuse. Un peu comme ce temps qui flotte au dessus de son épaule. Des rayons de soleil percent à travers les nuages. On dirait des trous de gruyère. Et le vieux pense que ses souvenirs sont faits aussi de gris et de lumière.

II

Sa femme l’attend juste devant la porte en bois remplie d’échardes. Elle est assise sur les marches en béton. Ses jambes sont repliées et elle porte un voile transparent. Le vieux passe à côté d’elle, la bouscule légèrement, puis ouvre son chez-lui. Une fois à l’intérieur, il pose sa veste et songe un instant à elle. Sa femme passe ses journées sur le palier de la maison. Au début, son mari avait voulu la corriger. Elle semblait comme une pute tapinant dans la rue. Mais il a eu beau la redresser, rien n’y a fait. Elle a échoué. Plus bas que sous terre, elle languit sans fin après les vers qui viennent la ronger. Devenue cinglée !… depuis qu’elle a perdu ses deux enfants dans le camp – et depuis plus d’envie, rien ! Le vieux ne voit qu’une femme aussi ridée qu’elle est folle. Puis il va dans la cuisine se servir un caoua bien noir. Des nerfs, il en est plein les veines qui se gonflent comme par instinct. Mais le café relaxe. Ce truc nerveux relaxe les gens nerveux. Et il en boit trois tasses d’affilée.

« Pourquoi vont-il mourir là-bas ? » Il se répète cette phrase plusieurs fois. « Ces jeunes vont mourir parce qu’ils touchent à ces saloperies … y’a mon neveu… il ne m’a pas reconnu… Il est trop défoncé pour me reconnaître »

Le chibani repense à son frère. Il n’est plus là pour l’élever. Il s’est foutu une balle dans la tête – de ce fusil de guerre ramené du bled. Il ne restait plus rien de sa face et c’est le chibani, l’aîné de la famille, qui a organisé le décès. Depuis il se sent responsable de ses neveux ; et surtout du dernier.

« Il me ressemble tellement. Pourquoi lui ? Pourquoi va-t-il mourir au camp ? Est-ce donc notre sort que de mourir comme des chiens ? Est-ce qu’Allah a voulu qu’on crève de malheur ? »

Et il se fait une roulée, puis se ressert un café. Sa femme est toujours devant le palier. Elle s’excite sur place. Remue toujours ses doigts en forme de prières. Même geste toute la journée – elle remue ses doigts en forme de prières.

III

Il est cinq heures du soir, le chibani essaye son rocking-chair.

Le vieux l’a acheté aux puces à un de ces marchands sales et à demi-gitan. Le rocking lui a été laissé pour 7 euros. Lorsqu’il a ramené cet objet chez lui, personne ne l’attendait avec un sourire. Un sourire qui lui aurait dit : ce que c’est beau… tu as fait une affaire… on le mettra ici où il servira pour cela etc…Non, rien de tout ça. Seulement le vide et le silence. Et aussi cette folle. Assise comme d’habitude. Sans un mot sortant de sa bouche. Personne pour partager sa joie. Alors la joie devient minime, presque inexistante.

Le vieux est maintenant assis depuis plus de deux heures sur ce bout de bois. Il se balance à une vitesse lente, quasi saccadée. Puis il se balance encore jusqu’à entendre le couinement des articulations du rocking-chair. Il aime écouter cette mélodie fausse. Elle déchire ses oreilles ; elle stride comme une fourchette caressant une assiette en porcelaine. Ce son est sa vie, semblable à ce rocking-chair, usé et strident. Sa tête repose presque en arrière et son regard s’absente vers le plafond. Il remarque des fissures. Plus qu’il en est en fin de compte. Il en imagine des milliers et dans ses fissures, il voit ce jeune soldat au teint mat. Deux larges falaises l’encerclent et il marche en leur creux, à l’affût du moindre signe. Derrière lui, un groupe de combattants le suit à pas lents. En haut, le chibani ne distingue rien ; en haut des falaises, il ne voit que des fusils mais personne qui tient les fusils. Puis d’un coup tout explose. Des grenades sont lancées et tous se jettent à terre. Les éclats de bombes achèvent ces hommes en des milliers de bouts de chair. Et dans chaque fissure, il est une embuscade et un soldat au teint mat marchant entre deux larges falaises. Le chibani inspire l’air comme pour reprendre son souffle. Il est fatigué. Trop vieux pour penser, mais ses souvenirs le harcèlent comme un feu ardent. Ils lui brûlent le thorax – pire que l’alcool. Une bouteille de wisky est livrée tous les matins par l’épicier du village. Il en boit un litre par jour, plus la vinasse qu’il va chercher à la cave du coin. Mais le pire est qu’il n’est jamais saoul. Il a beau boire, le passé revient à la charge. Traître ? Harkis ? Héros ? Qui se souviendra de lui ? Musulman ? Vie ratée ? Alcool ? Et tant d’idées mêlées comme les enfants d’aujourd’hui – au sang mêlé. Ses deux mains traversent ses cheveux. Puis d’un coup brusque, il se lève du rocking-chair. Il va vers cette photo. Elle est dans le couloir prés du téléphone. Et à chaque fois, avant de se coucher, il faut qu’il la voit, la caressant des doigts, effleurant le visage pris en photo – c’est celui de sa femme et elle tient entre ses bras ses deux fils. A ce moment, il n’aurait jamais imaginé que leur vie s’arrêterait aux camps. Parfois la maladie frappe juste là où ça fait mal. Comme une sorte de crampe au bide. Est-ce le diable ? La gorge aussi est resserrée par des doigts invisibles. La mort frappe là où ça fait le plus mal « et mes enfants en ont été les proies »

IV

1964 fut le pire hiver, impitoyable pour tous. Les médicaments ne sont pas arrivés. Et il est tombé plus de douze enfants ; douze enfants morts le temps d’un hiver, pendant que d’autres se dorlotaient dans un lit, sous un toit chaud. Les femmes se griffaient le visage. Leurs fils mourraient le plus souvent dans leur bras. Le toubib était là. Mais ce n’était pas un toubib. Juste un infirmier. Il voyait bien que les basanés étaient en train de crever. Mais que pouvait-il faire d’autre ? Speed, cris et larmes, toute la scène était dressée à l’instar d’une tragédie grecque. La mort devait conclure le final et les acteurs n’étaient que des basanés. Des blancs à demi-nègre. Des bougnoules en quelque sorte. Et la scène se terminait toujours par la mort ; la mort de l’enfant. Combien de mères sont devenues folles dans ces moments ? Même des hommes ont pété les plombs et se sont faits sauter la cervelle. Les enfants mourraient. L’hiver persistait dans son froid meurtrier. Personne ne devait sortir du camp. Et de toute façon pour aller où ? La France est si grande. Cet espace si étrange et les gens qui l’habitent si distant. « Pour aller où donc !? » chantaient d’une voix fausse les jeunes du camp. Et le chibani a fait parti de ses jeunes. Lui aussi se demandait « où aller ? Quel avenir ? Devions-nous faire toute notre vie dans ce camp ? » Le chibani songe à ces questions du passé. Il en est bien sorti du camp. Dehors, ce fut pire qu’à l’intérieur. Il savait que dehors c’était l’enfer, mais pas à ce point là. Pas au point de baisser sa tête. Pas au point de ne plus être un homme et de marcher la queue baissée comme ces chiens soumis à un environnement menaçant. Fantôme surgit de nulle part, vert, bleu, rouge et la mort qui déferle comme un tourbillon. Le rêve s’incarne dans la réalité. L’enfer était pour lui dehors, et le dehors devenait ce tourbillon. En 1966, il est donc sorti du camp et a obtenu son premier job. A cette époque la bétonneuse était manuelle. Il faisait du ciment. Alors les avant-bras enflaient un peu comme ceux de Popeye. Jusqu’à ressembler à un monstre, un monstre de force, tout simplement un homme bon à ne faire que du ciment ; tremper ses mains dans cette merde à l’aide d’outil de fer, puis la malaxer pour en faire quelque chose de mou. Ensuite, les autres s’occupaient du reste. Le reste n’était pas gratifiant pour un sou. « Mais conduire les machines… je conduirai des machines » se disait le harki devenu maçon. « Je conduirai des machines ! » Espoir, le mur s’est-il brisé ? Espoir, pourtant le chibani sait qu’il n’existe pas. L’espoir est déchu mais l’illusion est là. Il croit encore. Il croit à il ne sait quoi. Un jour, on saura ce que j’ai fait. Mais pour le moment, tout le monde se contrefout d’un bougnoule qui trempe ses mains dans le ciment. Comme un kelb – du matin au soir – bougnoule bon à faire du ciment.

V

Ça fait une semaine qu’il pleut à Rivesaltes. Le vieux harki en revient. Le camp est plein de boue. Les vers ont repris leur territoire. Ils jonchent le camp comme eux l’ont jonché dans un autre temps. Il n’a pas traîné et sa femme semble dans un bon jour. Elle veut exceptionnellement faire un couscous et a besoin de viande. Il renfile sa veste et sort en acheter au marché. Sur la route, il ne croise personne. Car il ne voit personne depuis longtemps. Il suit sa route ainsi : avec les yeux baissés, jusqu’au marché, là, un marchand l’interpelle.

Hep, tu veux du mouton papi ?

Le chibani tend deux à trois sous et le marchand lui vend colliers, côtelettes et abats de moutons. « C’est pas cher » se dit-il. Et en plus la viande vient d’un animal égorgé. Ce qui rend le couscous meilleur ; non plus seulement au goût, mais à l’esprit, à l’âme, ou meilleur à ces choses invisibles qui ne se nourrissent que de choses invisibles.

Sur le chemin du retour, trois jeunes lui demandent une clope. Le vieux ne lève pas les yeux et trace sa route. Les jeunes le suivent et l’insultent en même temps. Le chibani n’accélère pas le pas pour autant. La peur de mourir lui est partie depuis si longtemps. S’il mourrait maintenant, ce serait même un soulagement à sa vie de chien. La peur de mourir, c’est bon pour ceux qui croient encore à la vie ! Soudain, un de ses poursuivants l’agrippe par la nuque et le fait chuter sur le bord du trottoir. Le vieux a l’impression d’avoir le bras cassé. Il hurle en arabe d’aller se faire foutre. Ça enrogne ses agresseurs qui s’acharnent à coup de pieds sur ses os maigres. C’est alors que le plus âgé sort un couteau et lui taillade le visage en croix. Les autres s’emparent des quelques centimes qui traînent dans sa poche.

Pourquoi ne m’ont-ils pas tué ? Pourquoi me laissent-ils en vie ?

Les jeunes prennent la fuite. Ils sont du village. Le vieux ne cherchera pas à se venger. Ça fait belle lurette qu’il est mort – et qu’une autre mort ne fera qu’accélérer sa marche vers l’enfer.

VI

Les poules, les barbelés et les moutons réapparaissent dans sa tête tels de vagues souvenirs. Son corps est absent, couvert de sang, mais il sent encore le vent lui caresser le front. Couché sur le dos, contre le sol froid de la rue, il repart ainsi dans le passé. Il remonte très loin jusqu’au calendrier musulman qui s’impose progressivement aux contraintes administratives du camp. Les fêtes religieuses sont célébrées. La fête de l’Aïd, qui marque la fin du jeûne et du Ramadan, est certainement la plus importante d’entre toutes. Dans un hangar spécialement aménagé par l’armée, les hommes égorgent les moutons sous le regard admiratif des enfants. Les transistors émettent toujours dans chaque foyer Radio Alger. Les femmes reprennent leurs habitudes domestiques et coutumières. Elles ont les mains orangées par le henné. Elles vont chercher l’eau à la fontaine du village. Elles lavent le linge ensemble au lavoir municipal. Elles prient en aparté et éduquent les filles et les garçons « à la musulmane ». Les hommes les plus vieux, vont quotidiennement prier dans un coin du camp. Accompagnés d’un sceau rempli d’eau, ils lavent méticuleusement les extrémités de leurs corps : les mains, les pieds et le contour du visage. Accroupis et orientés vers l’Est, ils prient jusqu’à cinq fois par jour. Jouant aux dominos, fumant leur cigarette et buvant leur café, les anciens accompagnent également les hommes plus jeunes par de longues discussions. Ils parlent alors de l’Islam, de la famille, de leur femme, de leurs enfants, de la chance d’être en vie dans cette terre nouvelle. Les bagarres fréquentes, entre kabyles et arabes, ou entre arabes provenant de régions différentes, ou bien encore, entre des familles ennemies et provenant d’un même village, assurent quant à elles leur rôle de divertissement et de spectacle à l’intérieur du camp. Les enfants jouent pieds nus. Des jeux qui rappellent ceux des enfants pauvres des ghettos latins. Leur ballon de foot est fait à partir de vieux chiffons récupérés, puis mouillés et enlacés les uns sur les autres jusqu’à obtenir une forme ronde. Des objets ou des détritus divers, hérités du passé de cette « terre d’accueil », errent un peu partout entre les dunes artificielles situées juste derrière le camp. Ils se transforment dans l’imagination des enfants, en des jouets qui excitent chez eux la curiosité ou l’envie. Les moutons qui sont laissés en liberté dans le camp quelques jours avant la fête du grand Aïd, deviennent en plus leurs compagnons de jeux occasionnels. Les enfants n’hésitent pas à monter sur leur dos et à organiser des courses. Même l’école devient un espace de jeu et de rire. Ils y vont ensemble et se connaissent tous. Située au centre du camp, elle est dirigée par des françaises aux cheveux courts. Puis le temps se couvre. Le ciel se voile. Le tonnerre gronde. Bruit de balles et de fusils dans tout le camp, les enfants ne jouent plus. Les mères pleurent et se griffent la peau jusqu’au sang. Les hommes se battent entre eux… le soldat au teint mat est revenu… et il vient s’asseoir au milieu des bébés morts.

VII

Des voitures passent. La rue est éclairée. Personne n’y fait cas. « Un clodo» se disent quelques badauds et c’est tout. Le vieux harki pisse encore plus le sang, laissé pour mort au fond du caniveau. Dernières pensées … les souvenirs fusent comme des balles tirées par les fellagas ; de ces balles qui vous transpercent l’épaule, la tête ou le reste du corps. Après l’Indochine, il y a eu l’Algérie. Et après l’Algérie, il n’y a plus rien. Plus d’espoir. Plus de croyance. Même pas en Allah. Tout n’est qu’hypocrisie. Il n’est plus rien à part le vide dans lequel se noyer. Car le vide est plein d’eau. Une grande piscine dans laquelle vos pieds ne touchent pas le sol. Et si vous ne savez pas nager, vous sombrez en silence. « Aurais-je dû me foutre une balle dans la tête ? Comme mon frère, en finir avant l’heure ? Après l’Algérie, il n’y a donc plus rien ? » De toute façon, ce monde est déjà noyé – trempé dans les illusions de toutes sortes. Vide de tout – ce monde est déjà noyé ! Le chibani n’est pas le seul à ne pas savoir nager. Qui sait donc nager ? Il repense à la guerre. Et aussi un peu à vous. Il va bientôt clapser sur le bord d’un trottoir – seul comme d’habitude. Et vous l’avez déjà oublié. Utile à vos œuvres, il n’était plus utile à rien. Moins qu’une cloche. Mais son âme vole encore. Dans vos quartiers, au milieu de vos poubelles, entre les pisses de rats et les fientes d’oiseaux gavés, le soldat sera toujours là. Les esprits tourmentés restent avec nous. Le vieux est peut-être déjà mort à l’heure où je raconte son histoire, et il me dit d’arrêter ici … d’arrêter de quoi ? … de croire, d’espérer, de vivre me répond-il… car c’est la fin… ne le voyez donc vous pas ?…que c’est la fin…


©HERMÈS : revue critique et Emmanuel Sabatie
ISSN- 1481-0301
Créée le vendredi 18 août 2000
À jour le samedi 22 mai 2004

Publié dans Litérature | 1 commentaire

Introduction à l’esthétique d’Adorno. Approche de l’esthétique d’Adorno par l’analyse du rapport à Marx dans la Théorie esthétique (suite et fin) Raphaël Clerget

INTRODUCTION A L’ESTHETIQUE D’ADORNO
(suite)

Raphaël CLERGET

Paru dans HERMES : REVUE CRITIQUE, no. 10

Table de la section 4

4 Les catégories de la transformation du monde

4.1 Praxis

4.2 Utopie

4.3 Critique politique

4.4 Lutte des classes

4.5 Forces et rapports de production

4.5.1 Forces/rapports de production artistiques et forces/rapports de production sociaux

4.5.2 Les forces de production artistiques et les rapports de production

4.5.3 Progrès artistique

4.5.4 Le sujet collectif résistant non encore réalisé


[k1]

4 Les catégories de la transformation du monde

En 1968, comme si cela venait après une lecture de la 11ème thèse sur Feuerbach de Marx[541][542], D.Buren fustige l’art avec la volonté de le renverser, le faire s’effondrer de son piédestal, avec une conjonction de deux pensées dont les formules « l’art détourne des choses. Il ne fait pas prendre conscience des choses » et « La machine psycho-sociale n’éclatera pas contre une neutralité, mais contre une agression révélée grâce à cette neutralité, agression qui, entre autres, est celle de l’art » sont centrales. « S’il y a une contestation possible, elle ne peut être formelle, elle ne peut qu’être fondamentale, au niveau de l’art et non au niveau de la forme que l’on donnera à l’art » « Il en sera toujours de même si l’art restera approche du réel et non propre réalité ». « L’art est le plus beau fleuron de la société telle qu’elle est et non le signe prémonitoire de la société telle qu’elle devrait être, cela jamais »[543].

Au même moment Adorno est en cours de rédaction de la Théorie esthétique. Cette question du rapport entre cette exigence de transformation du monde et l’art n’y est pas occultée mais trouve une réponse inverse à celle de Buren. C’est cette réponse que l’on tentera de suivra à travers les thèmes marxistes de la praxis, de l’utopie, de la critique politique, de la lutte des classes, et enfin du rapport entre forces et rapports de production.

Dans cette constellation de thèmes, l’élément central du double caractère de l’art pour Adorno, comme élément social et élément autonome encore déterminé socialement dans cette autonomie semble répondre aux éléments centraux de Marx que sont le double caractère du travail, comme travail abstrait et travail concret, le double caractère de la marchandise, comme valeur d’échange et valeur d’usage, le doublet forces et rapports de production. Plus généralement ce double caractère va se trouver relié par des médiations avec l’ensemble des couples de notions philosophiques , en premier lieu les couples réel et conceptuel, théorie et praxis, politique et économie. La clef de la médiation sera elle-même le couple individuel/universel.

4.1 Praxis

Le terme de praxis codifie la question d’une pratique, d’une activité politique, artistique, ou autres qui soit ou non porteuse d’émancipation. Le texte qui l’aborde directement est Théorie et pratique dans Modèles Critiques. Ce texte est obnubilé, certainement de par sa situation, car il a été écrit alors que des reproches avaient été faits à Adorno de rester dans une tour d’ivoire et de ne pas s’engager franchement politiquement, par la question de l’activisme qui, dans l’urgence et l’attente pressante du changement, ne s’embarrasse pas de trop longues réflexions théoriques et des résistances individuelles qui les portent, suspectées rapidement de servir le statu quo. Dans la Théorie esthétique, le cas de l’art est considéré. La praxis serait dans son idée pour Adorno « l’ensemble des moyens permettant de réduire la pénurie; elle serait indistincte de la jouissance, du bonheur et de l’autonomie qui sont la forme sublimée de ces moyens »[544]. Le stade du bonheur sur terre est donc au-delà de la praxis actuelle, de l’emprise du travail. Le lieu de l’art montre doublement le schéma d’une meilleure praxis en ce qu’en premier lieu l’œuvre d’art cherche en soi à réussir une synthèse non-violente dans un but d’expression et non d’exploitation, et par là d’échapper à la répétition sans fin du geste dominateur qui fait taire ce sur quoi il s’exerce, qui est la praxis d’une conservation brutale de soi dans le statu quo, qui certes conserve et reproduit tant bien que mal la vie jusqu’ici mais dans des conditions de plus en plus difficiles et précaires – emplois précaires, écosystème fragilisé, menace de guerre permanente. En second lieu, c’est la contemplation des œuvres d’art par le spectateur, qui donne un modèle d’attitude qui en tant qu’arrachement à la praxis immédiate est une forme de praxis comme refus d’entrer dans le jeu. L’art présente ainsi le schéma d’une praxis différente, en s’abstenant de la praxis réelle[545], ce qui dénonce le mensonge de la production comme bonheur, et fait penser au stade suprême du bonheur chez Aristote qui est la contemplation, bien que dans les conditions actuelles, ce refus de la praxis sociale dominante sous forme d’expression ou de contemplation a une valeur de praxis d’une manière négative et ne pourrait être la pure contemplation que dans un état réconcilié. La promesse de bonheur sensible que l’art veut tenir montre par différence que la praxis actuellement dominante qui est un practicisme est un obstacle à sa finalité comme bonheur. L’écart entre la situation réelle et l’utopie peut être mesuré par la négativité de l’œuvre d’art, comme chez Kafka[546]. Cependant cette praxis n’est qu’une anticipation, une promesse donnée par son apparence sur une praxis qui n’est pas garantie, une promesse de bonheur et non le bonheur [547]. La rupture de l’art avec la praxis actuelle, quand elle est destinée à réaliser une praxis permettant à ce qui est diffus de s’exprimer est donc une rupture avec la raison pragmatiste obnubilée par ses moyens[548]. Cette raison qui infuse la praxis sociale, essentiellement recherche de moyens tend à devenir irrationnelle car elle tend à se prendre elle-même pour sa propre finalité alors qu’elle n’est qu’un moyen[549]. Alors que le but de la praxis est un état réellement transformé par une praxis consciente d’elle-même, la raison qui l’innerve n’est pas consciente de son geste[550].

Ce caractère de praxis de l’art prend souvent le nom de comportement chez Adorno, une position vis à vis de l’objectivité. Elle n’est donc pas l’effet social des œuvres mais elle s’insère dans leur contenu de vérité[551]. Les œuvres d’art ont transformé leur praxis originellement magique dont le but était d’influencer la nature – les peintures rupestres d’animaux sont interprétées comme des moyens de prendre le dessus sur l’animal – en moyen de faire prendre conscience de la praxis sociale[552]. Leur pratique de structuration formelle des contradictions réelles témoigne pour le fait qu’elles ne sont pas réductibles à une fuite devant la praxis politique immédiate. Comme prise de position implicite, son effet politique ne peut qu’être qu’essentiellement médiat[553]. Sa négation de l’essence pratique, l’art agissant moins réellement dans le monde pratique qu’il ne s’en abstient, ouvrant la possibilité d’un regard critique sur le mensonge du practicisme [554], au-delà d’être une forme de comportement et de contestation, permet à la praxis sociale de revenir mais neutralisée dans l’art. Car la formation de l’œuvre nécessite une technique dont l’histoire tient pour une part à des emprunts par mimésis du monde social dont la force imprègne le sujet. C’est ainsi que chez Beethoven, son procédé de décomposition en éléments insignifiants et de recomposition est un analogon du processus manufacturier où le processus de production est divisé en petites tâches se coordonnant.

Cette forme critique de praxis pose la question de l’effet social de l’art. Cette dialectique de l’art et de la praxis est alors celle de son effet social indirect, à partir du souvenir, comme participation à l’esprit qui souterrainement contribue à la transformation de la société et que capte l’œuvre d’art. C’est une prise de conscience manifeste ou souterraine modifiant le comportement du sujet par rapport à l’objectivité. Cependant une condition pour la fixation de ce souvenir est de ne pas reproduire telle quelle la réalité mais de démonter et remonter les éléments de l’uniformité, du toujours-semblable du monde, mécanisme qui seul permet une prise de conscience[555]. Sa reproduction du monde est donc déformante et c’est cette déformation qui donne chiffrée le vrai visage du monde. L’art est donc praxis comme formation de la conscience mais persuade d’autant mieux qu’il ne cherche pas à le faire[556], le primat de la volonté de convaincre ne desservant pas la vérité qu’elle prétend servir, en ce que les moyens calculés pour convaincre, convainquant plus de la manipulation dont on a fait l’objet et de l’apparence de fausseté qui entache en conséquence le résultat. C’est le risque encouru par l’art engagé dont la praxis objective devient intention comme conséquence de la contradiction devenue irréconciliable entre l’art et la société, et dont la mise en œuvre menace en outre en collant à la réalité de ne pas provoquer de prise de conscience[557].

Outre cette forme de praxis critique ‘extérieure’ de l’art, son intervention technique peut constituer au sein même cette fois-ci de l’art une praxis transformatrice, donnant l’image d’une transformation du monde social à travers la transformation des formes artistiques héritées. C’est ainsi que l’intervention artistique de la conscience la plus avancée n’est pas une reproduction des procédures techniques existantes mais en s’en emparant devient critique en les transformant, transformation où un élément individuel spontané joue, renvoyant à des forces collectives historiques en tant que réaction historique à la société, comme solution aux problèmes artistiques de l’époque, en développant une « résistance déterminée contre » « le réel extra-esthétique » en tant qu’adaptation à ce qui est, les procédures existantes[558].

Malgré cette description de la praxis de l’art, la société le récupère d’abord comme moyen de reproduction de la force de travail, comme divertissement. Le mécanisme employé est le suivant :  pour neutraliser la force critique de l’art qui nécessite un investissement du sujet, intellectuel-sensible pour être perçue, la société et son discours dominant qui cherche à en faire un divertissement sépare l’intuition du concept, après la séparation épistémologique de la sensibilité et de la rationalité, et ce pour réduire le conceptuel au message immédiatement discursif, la ‘morale’ de l’histoire, qui devient inefficace dans sa séparation, et l’intuitif au plaisir[559]. Ensuite, l’intégration sociale de l’art se fait par le caractère de nouveauté mis en avant pour vendre ses marchandises. La nouveauté est la marque esthétique de la reproduction élargie capitaliste, modèle économique exprimant l’augmentation du capital et de la production globale, car elle donne la promesse d’une abondance illimitée de biens esthétiques[560].

4.2 Utopie

L’art qui par sa constitution d’une forme prend une distance avec la réalité empirique répond dans son domaine à la pensée de l’utopie comme « pensée de la différence par rapport à ce qui existe »[561]. L’horizon de cette différence étant un monde meilleur, l’art a le désir de le construire dans ses œuvres, monde qui serait délivré de ses contradictions, de sa dialectique totale[562]. Cependant les images d’harmonie se révèlent fausses par le soupçon de cynisme qu’elles charrient tant que le monde est traversé par la misère. L’image alors donnée par l’art moderne est celle de la catastrophe, de la ruine, mais par la mise en image, c’est une mise à distance, une sortie symbolique hors de celle-ci, comme un pas en arrière impossible, qui révèle par cette mise en image la possibilité de former quelque chose et donc l’espoir. Même dans la négation de son effigie, c’est la nature qui est sauvée en image par l’art, comme réalité qu serait soi-même, formée par soi-même; c’est cette image qui représente un au-delà de la société bourgeoise, quelque chose qui la transcende, et ce au sein de l’immanence sociale, comme une allégorie[563]. L’art est ainsi promesse de bonheur[564], image de l’utopie de par la forme de l’œuvre par laquelle elle se dégage de la réalité qui impose les identités pour mieux gérer ses équivalences et substitutions[565]. Il suffirait que les éléments de la réalité soient dans une nouvelle constellation, à leur propre place, pour que la réconciliation advienne. L’art montre en cela un chemin en suivant les courbes de ses éléments, et témoigne de la « possibilité du possible »[566]. Les œuvres d’art, en se séparant de la réalité empirique, sont « les schèmes non-conscient de sa transformation » qui s’actualisent par la distance[567].

Cependant l’art qui veut être utopie tombe dans son caractère d’apparence, son illusionnisme, en construisant l’utopie comme si elle était réalisée, comme si l’idée absolue était réalisée. Son désir de consolation trahit cette utopie en devenant mensonge. La réalisation de l’utopie serait la mort de l’art. La théorie connaît le même sort. Cette utopie est l’inexprimable, en tant que non représentable positivement, mais peut l’être négativement, par l’absolue négativité de l’image de la ruine, la ruine dont les fragments dessinent en négatif ce qui pourrait être. Cependant quand Adorno parle du Nouveau qui en serait le cryptogramme, la question suivante se pose : si le Nouveau est la ruine de ce qu’il y avait alors, et qui devient l’Ancien, et cet Ancien ne devenant visible qu’alors, mais en tant que ruine, cela signifie-t-il que l’œuvre  – et pourquoi pas généraliser à l’action politique – n’est pas en mesure de déterminer ce qu’il y a à faire ? Comment concilier le mouvement de l’Angelus Novus [568] ange de l’histoire, donc sujet de l’histoire qui avance sur la ligne du temps de dos, ne voyant que les ruines s’amonceler, mouvement auquel semble faire référence Adorno quand il parle du Nouveau, et sa détermination théorique de ce qu’il y a concrètement à faire musicalement dans son texte de 1961 Vers une musique informelle dans Quasi una fantasia ? Il semble que la réponse soit le hiatus – l’abysse – insurmontable entre la théorie et la praxis qui ne permet pas de passer d’une manière continue de l’un à l’autre mais nécessite un saut sans garantie de réussite, la praxis demeurant un « point aveugle » au sein de la théorie[569]. Malgré toute la détermination de ce qu’il faut faire et qui permet de ne pas sombrer dans l’arbitraire, rien ne permet que la mise en pratique sera une réussite. La réussite n’est connu qu’a posteriori. C’est d’ailleurs sur un schéma approchant qu’Adorno juge les considérations théoriques sur la conduite morale dans la Dialectique négative[570] en ce que rien ne permet de prévoir avec garantie de certitude quel sera le comportement d’une personne dans une situation donnée. Ce qu’il y nomme le « supplément » fait alors référence à la spontanéité, au caractère pulsionnel, à la réaction motrice, à un élément somatique dont il n’est pas dit qu’une forme de sa maîtrise ne soit pas possible, mais qui ne peut être réduit à de la pensée.

Cet art donc qui refuse l’apparence de réconciliation et maintient l’utopie en donnant l’image de la catastrophe fait écho aux conjurations magiques archaïques[571]. Cependant en tant que formant, que confectionnant cette image, la visée réconciliatrice de l’art se situe dans la contradiction qu’il affronte entre son caractère mimétique issu de la magie et son caractère rationnel chosifiant[572]. La réconciliation dans l’œuvre d’art est son comportement qui perçoit le non-identique en se faisant identique à lui, mimétisme, pour être identique à soi[573] et ce comportement nécessite la construction pour s’objectiver, dépasser le caractère contingent du sujet, et tendre à l’objectivité[574]. C’est dans cette objectivation spirituelle d’impulsions mimétiques chargées d’étant, dans cette constellation d’étant et de non-étant, que réside l’utopie de l’art comme promesse[575].

4.3 Critique politique

L’enjeu est de savoir si l’art suppose une politique latente progressiste. Cela mène Adorno à des polémiques avec Brecht et Benjamin, avec le réalisme socialiste et l’art dit engagé afin de défendre l’art moderne autonome et en particulier la seconde Ecole de Vienne en musique (Schönberg, Berg, Webern) qui semblent réservés à une élite bourgeoise. De prime abord, l’ « instrumentalisation de l’art sabote sa protestation contre l’instrumentalisation »[576], sa défense de la liberté, et de son autonomie. Cette instrumentalisation répète la contrainte de « la vie marquée et standardisée par les structures de la domination » et dans sa résistance, l’art incarne l’intérêt pour la liberté[577]. L’art est par cet intérêt en soi en contradiction avec la domination sociale, et les contrôles sociaux[578]. Sa politique ne peut ainsi logiquement pas se rattacher à un parti sinon de manière extérieure. Un indice en est que le rapport de l’art à la praxis sociale est variable, dans le sens où est variable la conjonction ou disjonction des opinions politiquement et esthétiquement avancées. Alors que le début de XXème siècle voyait en Russie la conjugaison du futurisme et du marxisme, le réalisme socialiste est ensuite revenu à une pratique artistique du XIXème[579]. Ce sont par ses caractéristiques formelles que les œuvres d’art se relient de manière médiate à la politique, par le contenu qu’elles forment. Ainsi la libération de la forme comme cohérence esthétique qui relie les éléments singuliers est un chiffre de la libération sociale, là où la cohérence de l’œuvre représente le rapport social. On peut s’interroger si ce rapport ne serait pas valable pour toute activité organisant des rapports entre éléments : science, décoration d’intérieur, jardinage, etc.[580]. Les œuvres d’art participent alors à l’esprit de parti par l’intégration critique des conditions sociales dans la dialectique des formes, en les amenant au langage,[581] au travers de leur objectivation formelle, qui aboutit à une forme individuée dans une parcelle de réalité[582]. La contradiction posée entre tendance et manière, la première insistant sur la contingence de la seconde qui elle proteste contre la contrainte de la première, entraîne le fait que mettre en avant la tendance est un mélange de conscience sociale juste et fausse[583], juste en ce que ce qui parle dans l’œuvre sont des forces collectives latentes, un sujet global non réalisé, et fausse en ce qu’elle ne peut devenir une directive d’un parti propre à orienter la fabrication de l’œuvre. La critique de celle-ci se déroule ainsi selon un mouvement immanent contre la société[584], et non en appliquant une doctrine politique de l’extérieur. C’est ainsi que la dynamisation, soit en musique et en littérature le développement et l’intrigue, étant l’image de ce qu’ils sont dans la réalité, en constitue alors une critique comme devenir pour soi, superflu par rapport à l’essentiel du travail social, la reproduction de la vie, car ce moyen finit par se prendre pour la fin[585].

Cependant l’art n’a pas un « effet politique réel » à cause de son irréductible caractère d’apparence, malgré des tentatives comme celles de Dada[586]. Dans la simple indication du doigt qui dit « là, là » est contenu comme l’avait déjà vu Hegel dans la Phénoménologie de l’esprit un caractère universel, là où est visé une réalité concrète pour se défaire de la fiction. On peut de la même manière se poser la question face à Buren qui affirmait en 1966 que la seule chose à faire après avoir vu sa toile bicolore était de sortir pour aller faire la révolution[587].

La perspective critique de l’œuvre n’est pas garantie. Déjà, le Nouveau se compromet sur le plan politique car il apparaît comme une fin en soi, alors que politiquement ce devrait être pour autre chose, bien que cela se légitime par le tabou qui pèse sur la finalité de l’histoire – tabou en ce que l’état des forces productives devraient faire cesser la pénurie, et que celle-ci continue – en montrant la finalité d’être soi[588]. D’autre part, ce qui est formé, sublimé, dans l’œuvre d’art doit être conservé sous peine d’aboutir à une forme pure non critique, décorative. Cette mort de l’art serait alors le triomphe des activités prenant et acceptant le monde tel qu’il est, et c’est en ce sens que « le salut de l’art est éminemment politique »[589]. C’est ici la question critique de l’art de savoir si par sa prise de distance avec la réalité empirique, elle concrétise sa relation avec la réalité suspendue ou si elle dégénère en jeu vide[590]. L’autre danger est de rester trop proche de la réalité empirique, l’engagement qui prend ce risque peut se muer en démagogie[591]. De la même manière, poser brutalement le primat du particulier contre l’universel des genres et des conventions peut signifier pactiser avec l’ordre établi et donc trahir l’intention critique, en ce que l’utilisation des formes universels sont un moyen de concrétiser la distance esthétique[592]. Enfin, l’œuvre d’art dite dialectique comme celle de Brecht qui finit par sa volonté politique par réduire la différence de l’art et de la réalité empirique, en se mettant au niveau du spectateur, risque dans sa fraternisation avec le monde de contredire son intention[593].

Après le formalisme, l’art engagé et Brecht, Adorno s’oppose résolument à la doctrine du réalisme socialiste et  s’appuie d’abord sur le fait que la forme rétrograde – fin XIXème – est en contradiction avec le contenu supposé progressiste. Le réalisme socialiste affirme la positivité de la culture bourgeoise en conservant les formes traditionnelles – style XIXème pour représenter les héros de la révolution par exemple – là où l’art moderne devient radical et critique dans ses formes[594]. Adorno en vient à préférer la disparition de l’art au réalisme socialiste puisque cela signifierait une conscience véridique au nom de l’art et du beau qui se trouve avilit en du poli et du lisse[595]. Le réalisme socialiste qui se nourrit du classicisme hégélien[596] a enchaîné et brisé les forces productives artistiques, par une fixation petite-bourgeoise[597]. Cela porte le soupçon sur la réalité sociale qui lui a donné naissance, comme blocage des forces productives. L’insistance sur la tendance – l’œuvre représentant implicitement une position politique – donne des œuvres tendancieuses car elles prennent le risque de l’importation de raison venues de l’extérieur de l’œuvre et non développé dans l’immanence de leur mise en forme qui peut l’amener à ne pas se plier à la ratio de la praxis[598]. Le réalisme socialiste a manqué d’autre part le moment spirituel de l’art dont la reconnaissance n’est pas synonyme d’idéalisme. Si par le réalisme esthétique, l’on souhaite se débarrasser de toute trace d’idéalisme, alors cette doctrine manque l’essence de l’art en ce qu’il est un phénomène spirituel, en ce que l’esprit est un moment inévitable de la réflexion sur l’art et de son expérience qui ne peut sans reste être réduit à un reflet du monde tel qu’il est[599].

4.4 Lutte des classes

L’art qui doit sublimer les impulsions mimétiques, les réfléchissant en soi, et se dégager du kitsch présuppose l’accès à la culture de quelques-uns, et donc les rapports de classe[600]. C’est le kitsch, mauvais goût, qui introduit le facteur de classe, en ce qu’il se trouve consommé par les classes les plus basses alors que les plus hautes s’en détourne suite à une éducation artistique. On pense ici à l’intégration en musique classique de tels éléments populaires par Mahler, comme la fanfare, et de l’anecdote de Debussy sortant furieux de la salle de concert où la 2nde symphonie de Mahler était jouée, car elle intégrait de tels éléments à connotation populaire, comme l’utilisation du trombone solo. Adorno, dans son Mahler, défend une telle intégration en ce qu’elle est distanciée et répond à un contenu d’expérience. Adorno note ici que le vulgaire qui est mis au compte des masses est le propre résultat de la société, comme ce qui leur a été infligé, et qui se perpétue par l’ ‘offre’ culturel indigente sans réel choix dont le geste est plus réellement vulgaire que ceux qui le subisse, et qui contribue à former l’esprit sur le ligne de moindre résistance dans l’horizon de la plus grande consommation possible [601].

Outre ce rapport direct à la classe – l’art est bourgeois selon Adorno à la fin des années 60, mais ne défend pas pour autant ses intérêts de classe – la question esthétique sur laquelle se penche Adorno est le problème de l’affirmation marxienne de l’histoire toute entière comme celle de la lutte des classes dans le Manifeste du Parti communiste. Prise au pied de la lettre, les œuvres d’art devraient y être réductibles et c’est ce que tenta Brecht pour Shakespeare. Selon Adorno, son élaboration porte la trace de son modèle que serait le capitalisme libéral d’entreprise, en ce que sa formulation suppose un haut degré d’intégration et de différenciation sociale et une conscience mûre comme elle apparaît avec la bourgeoisie. C’est pourquoi Adorno utilise une formulation plus générique : les antagonismes sociaux qui ne deviennent lutte de classes que lorsque la société a une structure marchande de type bourgeoise [602]. Cela n’explique cependant pas pourquoi, alors que la structure de la société dans laquelle vit Adorno est bien de type bourgeoise marchande, il continue à utiliser la formulation des ‘antagonismes sociaux’ et non celle de ‘lutte de classes’. Une hypothèse serait sa difficulté à trouver une (non)-classe du prolétariat en véritable lutte avec le bourgeoisie, et ce particulièrement après son expérience américaine.

Les deux exemples ci-après donnés par Adorno d’une telle analyse des antagonismes sociaux fait d’ailleurs intervenir l’individu face à la société. On retrouve les propos de l’introduction où l’instance réelle collective passe par l’individu, ce qu’expliquerait certainement Adorno par la situation individualiste à laquelle la société a mené.

La réduction brechienne de Shakespeare à la lutte des classes, la mise en valeur des conflits tirés de l’histoire romaine entre plébéiens et patriciens, sont ainsi inadéquates sauf quand il s’agit du thème de la pièce. Sinon, c’est dans la forme des drames qu’est véhiculé son élément social. Ainsi sont sociales les catégories d’individu et de passion, les caractères concrétiste de Caliban et des marchands véreux de Venise, et la conception d’un monde matriarcal dans Macbeth et Le Roi Lear, et le dégoût du pouvoir dans Antoine et Cléopâtre et dans l’abdication de Prospero [603]. Chez Shakespeare, les antagonismes apparaissent essentiellement au niveau des individus, car c’est du point de vue de la victime du « progrès » qu’il se place [604].

Chez Euripide, le problème social se lit dans son orientation de la forme tragique vis à vis des sujets mythiques. Sa forme qui a pour éléments la dissolution du poids du destin, la naissance de la subjectivité et sa collision avec la loi mythique, témoigne de l’émancipation sociale des rapports familiaux féodaux et de l’antagonisme entre la domination liée au destin et l’humanité s’éveillant [605].

L’art parle au nom de la société toute entière, non pour une classe mais pour la société toute entière dans la mesure du stade déterminé du rapport entre forces et rapports de production. Le « Nous », sujet collectif possible et non existant, qui parle dans les œuvres d’art, et médiatisé par le sujet individuel, n’est donc pas celui d’une classe ou d’une position sociale déterminée car jusqu’à présent il n’y eu d’art que bourgeois. Il est celui de la société toute entière [606]. Cette transformation adornienne du prolétariat marxiste en sujet résistant n’est donc pas radicale mais elle est le fait de l’art bourgeois. Il n’exclut donc pas la possibilité d’un art de classes non-bourgeoises, et cite, sans prendre partie, Trotski et son affirmation qu’il pourrait y avoir un art socialiste mais non prolétarien.

C’est la référence déterminée au cas par cas à la souffrance comme consécutif d’une oppression qui localise en quel nom parle l’art. L’art se charge ainsi pour Adorno de faire parler ce qu’oppresse le capitalisme comme l’animal, le paysage, et la femme [607]. Plus généralement, dans ce capitalisme de monopole où l’échange est l’universel, le particulier se trouve déterminé comme exemplaire de l’universel, comme son masque. Le concret devient le masque de l’abstrait et l’art réalise cette fausse concrétion, le déclin de la concrétion comme dans l’œuvre de Beckett [608]. C’est ainsi par la référence générale à l’oppression de la nature par le monde bourgeois, qu’Adorno identifie le contenu que l’art se doit de mettre en forme, en prêtant sa force mimétique et constructive à ce que ce monde condamne, stigmatise, bannit ou interdit, ce qu’il n’a pas encore intégré, « approuvé et pré-formé ». C’est sa participation aux forces critiques du statu quo par le moyen d’une négation déterminée. Cette part de prise de conscience non discursive a pour but la réalisation de « ce qui est propre aux figures historiques du naturel et de sa subordination » par un aspect chaotique s’il le faut et non un « ordre sensible et concret » comme le souhaiterait une doctrine idéaliste qui étoufferait la nature sous sa volonté impérieuse [609].

4.5 Forces et rapports de production

Le sujet de l’art, sujet collectif non existant, à réaliser et médiatisé par l’individu se détermine par le stade concret du rapport des forces de production artistiques et des rapports de production artistiques. La Postface de 1967 Sociologie de la musique du recueil Introduction à la sociologie de la musique aborde sous la forme d’un programme de recherche la question de leur rapport. La différence de traitement de ces catégories entre ce programme sociologique et la Théorie esthétique à vocation philosophique se voit au seul niveau des définitions nominales – à dépasser – , la conjonction des textes de 1967 et de la Théorie esthétique permettant de définir les forces productives de manière apparemment univoque comme incluant, se différenciant dans le domaine musical entre le compositeur et l’interprète, l’individu -conscience et corps-, le niveau technique actuel ou métier ou ensemble des procédures techniques disponibles ce qui permet d’inclure les procédés de reproduction mécanique. Par contre, pour les rapports de production, le texte de 1967 parle des  » conditions économiques et idéologiques dans lesquels s’inscrit chaque son », des réactions à son écoute, de la mentalité musicale et du goût des auditeurs, ces deux derniers points dans la mesure où Adorno semble supposer qu’ils sont réifiés pour une part et possède ainsi une stabilité telle qu’ils sont identifiables. La Théorie esthétique parle elle de « tout ce en quoi la force productive se trouve incluse et sur quoi elle s’exerce » qui regroupe le contexte économique de production – contrats d’artiste, forme marchandise – et le matériau – genre par exemple [610]. Outre les éléments économiques et de réception, le troisième élément du matériau qui semble être « ce sur quoi [la force] s’exerce » est un rapport de production là où dans le texte de 1967 il n’apparaît pas sinon caché derrière la technique. Le matériau est en effet un nœud dialectique en ce que la technique artistique n’a de sens que dans la matériau où elle peut s’exercer, et en même temps, ce même matériau qui est réglé – comme l’illustre la tonalité en musique ou la perspective en peinture – constitue aussi une entrave.

Avant d’aborder les différents rapports qu’entretiennent les forces et rapports de production, sociaux ou artistiques, et la question du progrès qui en est le centre et que le modèle marxien en forces et rapports de production permet d’articuler, il faut rappeler que le point essentiel pour Adorno dans la question du rapport entre l’art et la société est que son aspect social de l’art ne vient ni de son mode de production où se joue la dialectique des forces et rapports de production artistiques, ni de l’origine sociale de son contenu thématique, mais de sa position antagoniste adoptée vis à vis de la négativité de la société d’échange totale où tout existence est pour autre chose de par le principe de l’échange. Cette position est tenue par sa seule existence, négation déterminée de la société qui se cristallise dans la sublimation opérée par la loi de sa forme. C’est la position d’un art autonome, comme chose spécifiée en soi ne se conformant pas mécaniquement  aux normes sociales en répondant à l’étiquette de ‘travail socialement utile » [611]. Pour autant l’œuvre d’art a le double caractère d’en-soi et social et il s’y déroule leur dialectique en ce que la vérité sociale de l’œuvre et sa vérité esthétique renvoient l’une à l’autre. L’œuvre « devient un élément social par son en-soi, et devient en-soi par la force productive sociale qui agit en elle » [612].

4.5.1 Forces/rapports de production artistiques et forces/rapports de production sociaux

D’une part, la force productive esthétique possède une autonomie relative vis à vis de la force sociale de production . La relativité tient à ce que la force de production artistique rejoint celle du « travail utile », la force de production sociale, en ce qu’elle profite des avancées technologiques, et « poursuit en soi les mêmes fins », à savoir le bonheur, la fin de la pénurie, la satisfaction instinctuelle. Quant aux rapports de production artistiques, ils sont « des sédiments ou des empreintes des rapports sociaux de production » [613]. Plus largement, l’époque se caractérisant par les rapports sociaux de production, et le stade des forces de production [614], le complexe force/rapport de production artistique – ‘la base artistique’ – a son modèle dans le complexe social équivalent, base sociale. Les forces et rapports de production reviennent toujours dans les œuvres d’art en tant que ceux-ci sont des produits du travail social, mais ils reviennent libérées de leur factualité au sein de la forme de l’œuvre [615].

Quant au caractère autonome de l’autonomie relative de la force productive esthétique vis à vis de la base sociale tient en ce que la substance de la frayeur constitutive de l’expérience de la réalité empirique est conservée neutralisée dans la constitution de la forme, alors qu’à la période archaïque, la trace de la frayeur des hommes face à la nature mystérieuse, indomptée, sauvage, et violente fut petit à petit balayée par la pensée identificatrice rationaliste pour aboutir au désenchantement weberien du monde. Cette conservation que réalise l’art est sans mensonge, en ce que l’expression bien que mise en forme n’est pas simulée comme littéralement réelle, et en cela fait participer les œuvres à l’Aufklärung [616].

Cette autonomie relative se prolonge du fait que l’état des forces productives de la production matérielle, maintenus sous la pression des rapports de production, n’est pas la cause immédiate de la technique artistique dont la tendance subjective d’emprunter ses procédés au domaine social afin de se démarquer de son origine magique est contrebalancée par la tendance objective de disposer librement des procédures les plus adaptée pour structurer l’œuvre [617]. Quand bien même les innovations techniques passent dans l’art, ce dernier n’en devient pas science pour autant, en ce que la reprise n’est pas littérale. On peut émettre l’hypothèse que l’exemple avancé par Adorno des rapports naturels des sons harmoniques fait référence à la création d’un tempérament égal pour le clavier qui permettait une modulation à la quinte tout en faussant l’exactitude de ces rapports mathématiques [618] [619]. Ce n’est donc pas en soi que la force productive artistique est différente de la force productive sociale mais par « son éloignement constitutif vis à vis de la société réelle » [620].

« Est moderne l’art, qui d’après son mode d’expérience et en tant qu’expression de la crise de l’expérience, absorbe ce que l’industrialisation a produit sous les rapports de production dominants » [621]. L’art moderne n’est pas le vague esprit du temps comme le montre le déchaînement des forces productives et un indice de preuve est le rejet comme démodé de l’art nouveau. « Il est déterminé aussi bien socialement, par le conflit avec les rapports de production, qu’intra-esthétiquement comme exclusion d’éléments usagés et de procédés techniques dépassés ». C’est ainsi un concept matériel d’art moderne. Les œuvres veulent être au niveau de la production matérielle et suppriment tout ce qui n’ est pas à ce niveau, les productions matérielles et artistiques convergeant dans l’exigence de cohérence rationnelle des moyens [622]. D’autre part, le lien entre forces et rapports de la base artistique est beaucoup plus lâche que celui de la base sociale et ce qui sauve la force esthétique du danger de se réduire à n’être qu’une activité pour elle-même, moteur tournant à vide, de par cette faible contrainte des rapports de production esthétique, affaiblissement de la contrainte gagné à l’avènement de la bourgeoisie, est son investissement comme force de résistance à la société [623]. C’est cette plus grande liberté de l’art par rapport aux autres activités sociales qui lui permet d’être un modèle de planification que ne toléreraient pas les rapports de production dominants, et qui permet à l’œuvre de développer une organisation pacifique et raisonnée de ses parties [624].

4.5.2 Les forces de production artistiques et les rapports de production

Le rapport de production dominant pour la force de production artistique est social, c’est celui de la forme-marchandise, de l’adaptation au marché. Bien que l’œuvre d’art, produit social, soit dépouillée de l’apparence d’un être pour la société, par son caractère de sphère d’immanence, intègre ce rapport de production dominant, ainsi que le stade des forces de production et leur rapport [625]. Les marques de cette servitude sociale, la pression pour l’adaptation au marché se retrouve dans les œuvres d’art [626]. Aujourd’hui, dans le domaine pictural, il y a une exigence sourde que ne sont valables que les grands formats par exemple. Au XVIIIème siècle, c’était les grands sujets d’histoire qu’il fallait traiter, un des soucis de Chardin qui s’épanouissait plus volontiers dans la scène de mœurs, la nature morte ou le portrait [627]. Une autre de ces pression du domaine pictural est l’unité du travail, l’absence de dispersion. C’est ainsi qu’une exposition se fera sur un thème bien circonscrit et que l’encadrement, la facture etc. les sujets seront intégrés autour de ce thème comme des variations sur le thème, suffisamment restreinte pour ne pas sentir de dispersion [628]. Cette pression peut se concrétiser plus fortement encore par les contrats [629] que l’artiste peut être amené à signer avec des ‘diffuseurs’. C’est le cas dans la peinture où le peintre peut être lié à une galerie, même de façon exclusive, avec la pression directe sous-jacente de persévérer dans la production ‘qui se vend’, forme de collectivisation forcée de l’individu par le primat de la réception, et ce au détriment de la force productive sociale qui peut se tarir par la répétition [630]. Dans la musique, les contrats légalisant les commandes passées aux musiciens intègrent souvent la durée de la pièce.

Cependant Adorno considère à l’époque des grands monopoles que cette pression du marché n’est pas celle des besoins et que le prototype des rapports de production dominants est la manipulation qui se loge pour une part dans le phénomène de la mode [631], à savoir que la demande ne se développe pas librement mais est pour une part pré-formée chez les individus amenés à des options choisies préalablement, ce qui est tout à fait logique par rapport au primat du profit, en ce que mieux le comportement du consommateur est identifié, plus la garantie de la vente sera assurée.

Dans le domaine enfin directement fonctionnel de l’architecture ou de l’urbanisme, où la manipulation n’est pas absente [632], où les forces économiques, fonctionnelles et esthétiques mènent peut-être la lutte la plus rude, les productions portent difficilement le nom d’œuvres d’art – le mot art indiquant la technique et l’esthétique -, car les forces techniques de production se règlent plus sur les impératifs d’augmentation quantitative de production, que sur la nature formée. Cela se voit dans les sites industriels à l’opposé des paysages culturels comme modèles d’une rationalité réconciliée avec la nature. C’est dans la fin de ce rapport de domination et de répression, dans une « technique pacifiée » que la laideur des produits de cette violence cesseront, et non dans des « enclaves planifiés ». Le geste dont la nature ‘pacifique’ en fait la valeur [633] par la prise en considération de la situation dans laquelle il se déploie, prend d’autant plus cette valeur et s’avère difficile dans un environnement défiguré où une imagination débridée ne pourrait avoir cours sans tomber dans le kitsch. Là se retrouve la question de la praxis de l’art et au sein de son domaine de la question de la révolution. Face à une situation étouffante, comme concilier le geste émancipateur de l’art sans qu’il implique la violence ? Le cas du fauvisme est symptomatique de la dialectique qui s’instaure : libérant la couleur pure, toutes les nuances de la peinture précédente sont perdues.

Ces problèmes intra-esthétiques, qui apparaissent bornés face à la situation sociale extérieure, mais qui sont la condition de son autonomie et donc de sa capacité critique, implique qu’il est impossible de décider d’ ‘en-haut’, depuis les rapports de production, de la possibilité de l’art, la décision dépendant du stade des forces productives artistiques qui implique ou non en lui-même le possible non encore réalisé; dans cette exigence, c’est un art qui s’oppose à l’idéologie positiviste qui a besoin du ‘donné’ présent dans ses mains, du ‘palpable’ comme garantie d’efficacité et donc de vérité selon son principe pragmatique [634]. Ce hiatus entre la culture établie, représentant l’instance des rapports de production, et les forces productives s’actualise concrètement dans le problème de l’expérimentation sans garantie de réussite qui est devenu nécessaire au sein de l’art comme moyen de connaissance de son matériau mais qui du point de vue social apparaît comme une activité pour soi [635].

4.5.3 Progrès artistique

Sous-jacent à ce rapport des forces et rapports de production, c’est la question du progrès artistique qui se pose et son rapport au progrès social. Le centre de la réflexion d’Adorno semble alors être l’articulation de la finalité de l’art et de ses moyens. Cette finalité se lit dans l’une des définitions de l’art comme prétention à être « conscience des malheurs » [636]. La question de son contenu de vérité, « la part d’esprit objectif que recèle objectivement une œuvre dans sa forme spécifique est-elle vraie ? » [637] est donc celle de l’accomplissement ou non de cette prétention, et comme le malheur présent est généré essentiellement par l’oppression sociale sur l’individu et la nature, c’est la question de la réussite ou non par l’articulation de sa forme à libérer l’expression de la nature opprimée, à la manifester [638]. Pourrait-on alors dire que l’art est la vraie mauvaise conscience de la fausse totalité sociale ? Mais comme la finalité sociale qui est l’instauration d’une communauté libre et heureuse où l’individu qui n’est pas un pur esprit verra ses prétentions à la satisfaction sensible remplies, se pose le problème de savoir comment une œuvre où toute trace sensible aurait disparu pourrait encore parler pour ce qui aspire à ce lieu sensible, et comment une œuvre qui fournit une satisfaction sensible peut exprimer le malheur. La réponse semble être dans le caractère expressif de l’œuvre, mais d’une expressivité où l’exprimé est libéré par une recomposition dans une forme des éléments de l’étant, ou, en jouant sur les mots, par une re-formation comme ré-forme [639] ou dé-formation illuminante de l’image apprêtée du monde, et non d’une expressivité dont peut se parer tout objet dès que le récepteur prend une posture de réception contemplative du monde, où tout objet devient une image expressive de lui-même, l’image charriant tout le flot du vécu autour de cet objet. Comme le contenu de vérité historique d’une œuvre est le lieu de « la conscience la plus avancée des contradictions dans l’horizon de leur réconciliation possible » [640] et que le caractère de pratique de l’art ne garantie pas au geste de porter cette conscience, la le stade des forces productives artistiques représenté par cette conscience n’assure pas ce contenu de vérité.

La comparaison entre Bach et Beethoven donne le terme conclusif de la question du progrès en art en ce que celui-ci se différenciant suivant un progrès dans la maîtrise du matériau, et un progrès dans la conscience de la liberté. C’est ce dernier qui permet de comparer des artistes, car pour ce qui concerne la maîtrise du matériau, chacun des deux le maîtrise parfaitement. C’est ainsi que qu’Adorno constate « que la voix du sujet arrivé à maturité, émancipation du mythe et réconciliation avec celui-ci , c’est à dire le contenu de vérité, a plus évolué chez Beethoven que Bach ». C’est pourquoi il n’y a dans l’histoire de l’art, en suivant ce critère autant qu’aussi peu de progrès que dans la société. En particulier, Adorno ne croit pas que le mouvement des besoins, avec l’essor des forces productives équivaut à terme à un progrès, à l’avènement d’une totalité harmonieuse, en ce sens qu’il observe dans la société une intégration et manipulation de ces besoins, qui ne sont plus les besoins authentiques des hommes mais leur figure aliénée. La satisfaction de même se trouve être faussée, réifiée qu’elle est, comme dans la musique de masse imposée sans respect comme une ‘bonne tape sur l’épaule’ [641]. Par contre, les moyens de l’art peuvent s’enrichir au cours de son histoire, ses matériaux et ses techniques. Cet enrichissement correspond à un gain de puissance, de potentialité pour répondre au problème posé par l’œuvre et pour prêter sa voix à la douleur du monde. La courbe de cet enrichissement au cours de l’histoire n’est pas linéaire, mais est caractérisée comme un ensemble de « séries continues brisés par la contrainte sociale » [642], en ce sens qu’un changement de structure sociale provoque des ruptures dans les progrès au sein d’un genre donné (ex:opéra). D’autre part, les progrès dans une dimension accompagne une perte dans une autre, comme on le voit avec les Fauves qui ont perdu en différenciation subjective mais gagné en expressivité de la couleur, ou entre la musique occidentale et exotique, la première ayant développé par des rapports lâches de production, permettant de se constituer en autonomie, une polyphonie élaborée, mais en perdant par là une capacité de différenciation par rapport à d’infimes variations dans la monodie, au contraire de la musique exotique où la pression rituelle comme rapport de production, entraînant une domaine de tolérance de variation étroit, a permis le renforcement de faculté de différenciation.

La difficulté de la question du progrès et de mettre à jour une structure unitaire permettant la présentation d’une continuité dans son histoire tient au double caractère de l’art, son ambiguïté comme élément social et élément encore socialement déterminé dans son autonomie. Les ruptures de la continuité historique d’un progrès sur une dimension sont souvent le sacrifice de l’autonomie où se situe la force productive devant l’élément social, les rapports de production. L’art est médiatisé par la structure sociale dominante du moment. L’histoire de l’art ne s’organise suivant une certaine nécessité qu’eu égard à la tendance sociale globale [643]. Pour analyser si l’œuvre est idéologique, il s’agit alors de comparer sa structure immanente et les rapport sociaux du moment.

4.5.4 Le sujet collectif résistant non encore réalisé

Le problème de la théorie et de la pratique, à savoir pour Adorno du caractère non-continu du passage de l’un à l’autre déjà évoqué au sujet de l’utopie, qui empêche de garantir a priori que l’analyse théorique et la prise de conscience concomitante se retrouve dans la pratique à laquelle elle donne lieu, investit la question du sujet des œuvres – ‘qui parle dans l’œuvre ?’ – qu’Adorno va analyser comme un sujet collectif. En effet, la conscience sociale qui est devenu un des facteurs de la production artistique, n’est qu’une prétention qui ne se validera que dans une pratique, fût-elle théorique. Dans ce dernier cas, l’analyse effectuée sur les œuvres rejaillit sur les théories dont la réalisation matérielle comme geste se trouve analysée par leur prétention, et qui se trouve résumée par la question de la cohérence entre ce qui se dit et ce qui se fait – qui est un dire latent que l’analyse peut articuler, donc par la question entre le manifeste et le latent, ce qui renvoie à la question de l’apparence et de l’essence, et qui scinde en apparence la conscience en deux selon le doublet du théorique et du pratique. Cette problématique renvoie au matérialisme de la pratique au sens de Marx dans la 2nde thèse sur Feuerbach [644] [645]. Et ‘ce qui importe’ le plus, pour Adorno c’est le caractère effectif de la ‘seconde conscience’ qui s’exprime dans l’œuvre et qui est mis à jour par la théorie, et qui ne coïncide pas avec son effet social à cause du mécanisme de réification des consciences et de l’idéologie.

La « conscience adéquate » pour Adorno est, depuis « la naissance d’un potentiel de liberté », « la conscience la plus avancée des contradictions dans l’horizon de leur réconciliation possible. Le critère de la conscience la plus avancée correspond au stade des forces productives dans l’œuvre auquel, à l’époque de sa réflexivité constitutive, appartient également la position qu’elle adopte à l’intérieur de la société. En tant que matérialisation de la conscience la plus avancée qui englobe la critique productive de la situation donnée – esthétique et extra-esthétique – le contenu de vérité des œuvres d’art est une historiographie qui s’ignore, liée à ce qui, jusqu’à aujourd’hui, a toujours été dans le camp des vaincus » [646]. Les « vaincus » sont substitués au prolétariat. Et c’est le « stade socialement le plus avancé des forces productives – parmi lesquelles figurent la conscience – [qui] détermine le problème posé à l’intérieur des monades esthétiques » dans leur structure [647].

L’œuvre présente donc en elle à la fois un problème déterminé historiquement et sa réponse historique. L’élément déterminant de celle-ci est l’ « impulsion subjective qui enregistre ce qu’il convient de faire » et qui est « l’apparition d’un élément objectif qui s’accomplit de façon sous-jacente, apparition du déploiement des forces de production que l’art, au plus profond de lui-même, possède en commun avec la société à laquelle il s’oppose en même temps par son propre développement ». Cela éclaire la thèse d’Adorno selon laquelle c’est parce qu’il n’y a pas de progrès social, qu’il y en a un dans l’art. En effet d’un côté le noyau des forces de production artistiques comme sociales est l’impulsion du sujet – dont la conscience est un mode avancé – qui tend logiquement à supprimer sa souffrance, dont l’expression est un mode, une forme de distance et donc une sorte de prise de conscience. De l’autre, la contrainte des rapports sociaux de production étant plus fort dans la société que dans l’art, cette expression est bridée dans le monde social, ‘tenue en laisse’ [648], et le développement observé dans l’art s’explique alors par cette expressivité libérée qui dans ce développement critique le monde social où elle est emprisonnée. La thèse d’Adorno conduit donc logiquement à la suivante : le progrès de l’art témoigne de l’absence de progrès social.

Ce progrès de l’art, lié à ses forces productives qui « achèvent leur cristallisation dans son autarcie », et qui modifient leur stade historique, le niveau des techniques, de la conscience et de sa faculté de différenciation subjective [649], n’est cependant pas réductible à l’individu et son expressivité. La force investie dans l’œuvre, d’apparence subjective est « la présence potentielle de l’élément collectif dans l’œuvre, proportionnellement aux forces productives disponibles ». L’apparence nécessaire d’intériorité de la subjectivité a été imposée par le mode de production capitaliste et son processus du travail, où le salarié, étant supposé libre sur le marché du travail, doit pour perpétuer le système, accomplir par devoir, quasi-volontairement son travail salarié [650]. Le modèle de lieu où le mensonge de cette apparence par l’apparition collective peut être localisé est celui des corrections que les artistes effectuent, et au cours desquelles ils travaillent alors comme agents sociaux, incarnant « les forces sociales de production sans être lié en même temps, nécessairement, aux censures dictées par les rapports de production qu’il ne cesse également de critiquer par la rigueur du métier », métier qui limite la palette de solutions possibles face au problème singulier de l’œuvre [651]. Dans ces corrections joue aussi et se modifie par leur critique le canon historique des interdits esthétiques [652]. Cet élément collectif explique que les forces productives artistiques ‘individuelles’ peuvent être renforcées par un travail collectif réel comme dans les mouvements en « ismes » – impressionnisme, expressionisme, cubisme, etc. – , où une volonté consciente de ce qu’il y a avait à faire s’affirmait [653], réalisation sous la forme de mouvement de cette une force collective potentielle. Ce « Nous », sujet collectif de l’art qui représente « la société dans son ensemble dans l’horizon d’une certaine indétermination » n’est pas arbitraire, son degré de détermination étant lié à celui des forces productives et des rapports de production dominants d’une époque [654].

Cependant aucune garantie n’est fournie par rapport à la question du progrès. D’abord en ce que l’objectivité immanente de l’œuvre que l’artiste doit suivre peut s’avérer trop exigeante pour les forces productives qui doivent la former, l’esprit de l’artiste et ses procédés techniques; c’est le risque supposé par la possibilité du Nouveau en art. L’individu part nécessairement d’une insuffisance historique face à la souffrance qui doit nouvellement s’exprimer par lui [655]. Participe à cette souffrance et cette nécessité du Nouveau, la socialisation des innovations de l’art dont la force est récupérée à fin de conservation du système [656]. Cette résistance à son instrumentalisation sociale [657] la pousse à l’innovation. Le second risque auquel est confronté l’art se formule comme le fait que, pour se différencier d’une production industrielle dépouillée de toute trace de la part sensible de l’humanité, il garde un rapport à l’artisanat qui comporte dans son caractère opérationnel le caractère d’un « faire aveugle ». En tant que tel, le façonnage de l’œuvre peut contribuer à inverser sa critique, rien ne permettant d’assurer que sa pratique obéira à sa théorie. C’est « là que la confiance en soi des forces techniques de production dans l’identité avec la conscience la plus avancée trouve sa limite » [658].


5 Conclusion

Cette étude s’est proposé de lire la Théorie esthétique à la lumière de son usage des catégories marxistes et de la signification d’une esthétique dialectique et matérialiste, et ce dans l’ambition de s’y appuyer pour développer une interprétation générale de l’esthétique d’Adorno.

La cartographie transversale des usages des catégories marxistes, s’appuyant sur coupe classificatrice effectuée dans le corps du texte adornien, a permis, outre d’avoir présenté thématiquement ces usages, de faire émerger le fait que la théorisation de l’œuvre d’art dans la Théorie esthétique est le pendant exacte de la théorisation de la pensée dans la Dialectique négative.

En effet l’œuvre d’art est définit par son double caractère, comme un être duel, possédant deux faces, une face immédiatement sociale, hétéronome, de part le fait que l’objet d’art est le produit d’une pratique artistique qui obéit à la division sociale de travail, et qui s’intègre ainsi dans l’ensemble des activités sociales. Sa seconde face, est sa face autonome mais d’une autonomie relative, le fait que l’émancipation bourgeoise de l’époque moderne l’ait libérée de ses fonctions sociales précédentes, fonctions cultuelles ou de divertissement, comme elle l’a fait avec l’individu en l’émancipant de son intégration dans un système d’ordres, de corporations et de jurandes etc. par exemple, et ait permis que se développe librement la sphère de la mise en forme de l’expérience du sujet, à partir de la réaction du sujet à l’objectivité du monde, réaction sublimée en loi de la forme selon une recomposition des fragments de l’étant issus de cette expérience au moyen d’une technique déterminée par son stade historique. Les sédiments historiques et sociaux entrant dans le sujet, et la technique et l’expérience du moment étant de caractères social et historique, cette sphère autonome reste déterminée par la société mais indirectement, suivant ces trois prismes dont la coordination des spectres produit l’image que l’œuvre met en scène, et qui décidera si le lien avec la réalité empirique, le monde social du moment a été rompu – dans le double sens de la constitution d’une abstraction ou dans la retombée comme simple élément de la réalité empirique – ou si dans son maintient, la vérité de l’instant historique est atteinte ou non.

C’est la face autonome qui répond à l’immanence de la pensée. Dans celle-ci l’élément qui n’est pas de la pensée et qui la marque est l’élément somatique, pulsionnel, qui se remarque dans des notions comme celle de sensation qui ne peut se réduire à un pur fait de conscience mais est lestée d’une composante ‘matérielle’. Quant à l’œuvre d’art, son immanence est lestée des mêmes impulsions corporelles mimétiques que la technique a permis d’objectiver dans une forme, à l’instar de la pensée qui objective le besoin, qui leste son immanence, par la correction conceptuelle dialectique.

Pour poursuivre ce projet d’interprétation générale, il s’agira, de confronter le rapport d’Adorno à Kant et à Hegel, ce rapport se justifiant par l’affirmation de la Théorie esthétique[659] selon laquelle Kant et Hegel auraient développé « les conceptions esthétiques les plus puissantes » et par le fait .que le texte ne cesse de s’y confronter. Par la comparaison entre des interprétations récentes des deux philosophes et de ce rapport, il pourra être distingué par contraste le geste proprement adornien d’interprétation et posé la question du caractère déterminant ou non de sa lecture marxienne. Pour cela, un certain nombre de concepts d’Adorno seront à approfondir, comme celui d’esprit par exemple, et la question de savoir si selon Adorno, c’est le caractère marchand qui est responsable des différents phénomènes de réification, de fétichisme, ou le caractère capitaliste, à savoir dès que la force de travail devient une marchandise.

6 Bibliographie sommaire

Cette bibliographie est réduite aux éditions en français d’Adorno et directement sur Adorno. Ne sont donc pas citées les différentes éditions de magazines par exemple où des textes d’Adorno ont été traduits (ex : L’Arc n°40 sur Beethoven, Cahiers de l’Ircam, etc.). Les édition indiquées sont les dernières en date.

Les œuvres complètes en allemand d’Adorno – Gesammelte Schriften- sont éditées par Suhrkamp, Frankfurt am Main par Rolf Tiedemann.

Une très importante bibliographie allemande d’ouvrages allemands surtout et américains est fournie à la date 1983 dans l’ouvrage Adorno Konferenz (Frankfurt am Main, Suhrkamp Verlag, 1983)

Une bibliographie internationale est fournie à l’année 1986 par l’ouvrage de M.Jimenez, Adorno et la modernité (Paris, Klincksieck, 1986).

Les textes sont présentés dans l’ordre décroissant de la dernière date d’édition et par auteur.

6.1 Textes d’Adorno traduits en Français

T.W.Adorno;L’art et les arts;Paris, Desclée de Brouwer, 2002, trad. J.Lauxerois;Interventions ayant valeur de modèle dans le domaine artistique (musique, architecture, genres artistiques)

T.W.Adorno et W.Benjamin;Correspondance Adorno-Benjamin 1928-1940;Paris, La Fabrique éditions, 2002, trad. P.Ivernel;

T.W.Adorno;Minima Moralia Réflexions sur la vie mutilée;Paris, Payot, 2001, trad. J.R.Ladmiral, E.Kaufholz;Interventions dialectiques dans la vie quotidienne

T.W.Adorno;Dialectique négative;Paris, Payot et Rivages, 2001, trad. G.Coffin, Joëlle Masson, Olivier Masson, Alain Renaut, D.Trousson;La dialectique selon Adorno et son rapport au matérialisme (édition de 1978 utilisée)

T.W.Adorno;Sur Walter Benjamin;Paris, Gallimard, 2001, trad. C.David;

T.W.Adorno;Contribution à : Nietzsche l’antipode, le drame de Zarathoustra de H.G.Gadamer ;Paris, Allia, 2000, trad. C.David;

T.W.Adorno;Notes sur la littérature;Paris, Flammarion, 1999, trad. S. Muller;Interventions dialectiques en critique littéraire

T.W.Adorno;Théorie Esthétique, Paralipomena, Introduction première;Paris, Klincksieck, 1995, trad. M.Jimenez;Œuvre étudiée et compléments

T.W.Adorno;Sur quelques relations entre musique et peinture;Paris, La Caserne, 1995, trad. P.Szendy avec collaboration de J.Lauxerois;

T.W.Adorno;Texte Parataxe intégré dans : Hymnes, élégies et autres poèmes de F.Hölderlin;Paris, Flammarion, 1995, trad. S.Muller (pour Parataxe);voir Notes sur la littérature

T.W.Adorno;Introduction à la sociologie de la musique;Paris, Contrechamps Editions, 1994, trad. V.Barras, C.Russi;forces et rapports de production artistiques dans la Postface

T.W.Adorno;Essai sur Wagner;Paris, Gallimard, 1993, trad. H.Hildenbrand, A.Lindenberg;

T.W.Adorno;Philosophie de la nouvelle musique;Paris, Gallimard, 1990, trad. H.Hildenbrand, A.Lindenberg;méthodologie, application de la dialectique

T.W.Adorno;Jargon de l’authenticité;Paris, Payot, 1989, trad. E.Escoubas;

T.W.Adorno;Alban Berg : le maître de la transition infime;Paris, Gallimard, 1989, trad. R.Rochlitz;

T.W.Adorno;Préface à Etudes sur la philosophie de Walter Benjamin de Rolf Tiedemann;Arles, Actes Sud, 1987, trad. R.Rochlitz;

T.W.Adorno;Prismes : critique de la culture et société;Paris, Payot, 1986, trad. G. et R. Rochlitz;

T.W.Adorno;Modèles critiques : interventions répliques ;Paris, Payot, 1984, trad. M.Jimenez et E.Kaufholz;Théorie et Praxis.Texte consulté dans l’édition américaine : Critical Models Interventions and catchwords, New-York, Columbia University Press 1998, trad. H.W.Pickford

T.W.Adorno;Quasi una fantasia;Paris, Gallimard, 1982, trad. J.L.Leleu avec collaboration de O.Hansen-Love, P.Joubert;Interventions dialectiques en critique musicale

T.W.Adorno;Ecrits Musicaux;Paris, Gallimard, 1982 ;

T.W.Adorno;Trois études sur Hegel;Paris, Payot, 1979, trad. du séminaire de traduction du Collège de philosophie;Rapport à Hegel. Texte consulté dans l’édition américaine: Hegel : Three Studies, Cambridge (Massachusetts), The MIT Press, 1993, trad. S.Weber Nicholson

T.W.Adorno avec K.Popper;Contribution à : De Vienne à Francfort : la querelle allemande des sciences sociales;Bruxelles, Editions Complexe, 1979,;

T.W.Adorno;Préface de : Allemands : une série de lettres de W.Benjamin;Paris, Hachette, 1979, trad. G.Goldschmidt;

T.W.Adorno;Mahler, une physionomie musicale;Paris, Les Editions de Minuit, 1976, trad. J.L.Leleu et T.Leydenbach;Exemple de réalisation d’une étude esthétique

T.W.Adorno avec Max Horkheimer;La dialectique de la Raison;Paris, Gallimard, 1974, trad. E.Kaufholz;l’industrie culturelle, la dialectique de la raison

T.W.Adorno avec Hanns Eisler;Musique de Cinéma;Paris, L’Arche, 1972, trad. J.P.Hammer;

6.2 Textes en français sur Adorno

Y.Cusset, S.Haber;Le Vocabulaire de l’Ecole de Francfort;Paris, Ellipses, 2002;

P.L.Assoun;L’Ecole de Francfort;Paris, PUF, 2001 ;

B.Ouattara;Adorno et Heidegger, une controverse philosophique;Paris, Montréal (Québec),l’Harmattan, 1999

B.Ouattara;Adorno : philosophie et éthique;Paris, Montréal (Québec), l’Harmattan, 1999

A.Boissière;Adorno, la vérité de la musique moderne;Villeneuve d’Ascq, Presses Universitaires du Septentrion, 1999

F.Vandenberghe;Une histoire critique de la sociologie allemande. Tome 2, Horkheimer, Adorno, Marcuse, Habermas : aliénation et réification;Paris, Editions. la Découverte, , 1998

M.Jimenez;Qu’est-ce que l’esthétique ?;Paris, Gallimard,  1997

M.Jimenez;Les enjeux de la critique esthétique; Lire Adorno aujourd’hui;Villeurbanne, Nouveau musée-Institut d’art contemporain, 1996

M.Jimenez;Adorno et la modernité : vers une esthétique négative;Paris, Klincksieck, 1986

M.Jimenez;Theodor W. Adorno : art, idéologie et théorie de l’art;Paris, Union générale d’éditions, 1973

J.M.Paul (Dir. de pub.) Actes du colloque de Nancy, novembre 1995,;Max Horkheimer, Theodor W. Adorno et la « Dialektik der Aufklärung »;Nancy,Centre de recherches germaniques et scandinaves de l’Université de Nancy 2, 1996

M.Leter;Observations sur le conflit heuristique du laïque et de l’herméneutique chez les penseurs juifs : des « Thèses sur Feuerbach » de Marx à la « Dialectique négative » d’Adorno;Le Perreux, Presses du Centre de recherches heuristiques, 1996

Joan Nordquist (Bibliographie);Theodor Adorno, II : a bibliography;Santa Cruz (Calif.), Reference and research services, 1994

C.Menke;La souveraineté de l’art : l’expérience esthétique après Adorno et Derrida;Paris, A.Colin, 1993,  trad. P.Rusch

R.Wiggershaus;L’Ecole de Francfort : histoire, développement, signification;Paris, PUF, 1993, trad. L.Deroche-Gurcel

P.Lacoue-Labarthe;Musica ficta : figures de Wagner;Paris, C.Bourgeois, 1991

Collectif;Théories esthétiques après Adorno / Hans Robert Jauss, Rüdiger Bubner, Karl Heinz Bohrer, Peter Bürger, … ;Paris, Actes Sud, 1990, trad. R.Rochlitz et C.Bouchindhomme

Garcia Düttman;La Parole donnée : mémoire et promesse;Paris, Galilée, 1989

M.Jimenez, T.W.Adorno, R.Tiedemann, etc.;Adorno;Toulouse, Privat, 1985 puis Paris, Revue d’esthétique n°8, 1985

R.Court;Adorno et la nouvelle musique : art et modernité;Paris, Klincksieck, 1981

J.M.Vincent;La théorie critique de l’école de Francfort;Paris, Galilée 1976;Rapport théorie-pratique

Numéro spécial de la Revue d’esthétique 1975;Présences d’Adorno;Paris, Union générale d’éditions, 1975

A.Tosel;Le métamarxisme de la Théorie critique de l’école de Francfort in Histoire de la philosophie tome III;Paris, , Gallimard, Bibiothèque de la Pléiade,  1974;L’Ecole de Francfort

6.3 Autres textes utilisés

J.Bidet;Que faire du Capital ?;Paris, PUF, 2000;Idéologie

G.Raulet;Walter Benjamin;Paris, Ellipses, 2000;

J.M.Lachaud (dir.);Art, culture et politique;Paris, PUF, 1999;Article sur Adorno par V.Gomez

G.Deleuze;La philosophie critique de Kant;Paris, PUF,  1997;L’esthétique de Kant

E.Kant;Critique de la Raison Pure;Paris, Aubier,  1997, trad. A.Renaut;Intérieur, extérieur d’un objet de connaissance

E.Kant;Critique de la Faculté de Juger;Paris, Gallimard 1985, trad. A.J.L.Delamarre, J.R.Ladmiral, M.B.de Launay, J.M.Vaysse;Concept de finalité, subjective et objective, le beau, le sublime

L.Althusser;Pour Marx;Paris, Editions La Découverte, 1996;Le « Piccolo » Bertolazzi et Brech (Notes sur un théâtre matérialiste)

B.Chavance;Marx et le capitalisme;Paris, Nathan, 1996;Introduction à l’économie de Marx

M.Horheimer;Théorie traditionnelle et théorie critique;Paris, Gallimard, 1996, trad. C.Maillard et S.Muller;Le concept de théorie critique

E.Balibar;La philosophie de Marx;Paris, La Découverte, 1993;Idéologie, fétichisme chez Marx et présentation générale des catégories introduites par Marx

Collectif;Anthologie de la poésie allemande;Paris, Gallimard, 1993;Lecture de Nietzsche, Borchardt, Georg, Wedekind, Celan, etc.

W.Benjamin;Origine du drame baroque allemand;Paris, Champs Flammarion 1985, trad. S.Muller, A.Hirt;Concepts communs à Adorno : fragment, micrologie, etc.

K.Marx;Œuvres I et III (philosophie et Economie 1);Paris, Gallimard, Bibliothèque de La Pléiade, 1982, trad. M.Rubel;Thèses sur Feuerbach, Critique du programme de Gotha et autres textes référencés par Adorno

F.Hegel;Introduction à l’esthétique – Le Beau;Paris, Champs Flammarion, 1979, trad. S.Jankélévich;Conception hégélienne du Beau, rapport avec l’esthétique de Kant

F.Hegel;Phénoménologie de l’Esprit;Paris, Aubier, 1941, trad. J.Hyppolite;La dialectique

A.Tosel;Le métamarxisme de la Théorie critique de L’Ecole de Francfort in Histoire de la philosophie tome III ;Paris, Gallimard, Bibliothèque de la Pléiade, 1974;Critique d’Adorno

E.Balibar, P.Macherey;Dialectique;Article de l’Encyclopédie Universalis 1970;Dialectique

B.Bourgeois;Idéalisme;Article de l’Encyclopédie Universalis 1970;Idéalisme

L.Guillermit;Kant;Article de l’Encyclopédie Universalis 1970;L’esthétique et le rapport à la finalité

G. Lukacs;Histoire et conscience de classe;Paris, Les Editions de Minuit, 1960, trad. K.Axelos;Dialectique, réification

6.4 Dictionnaires utilisés

J.Bidet, E.Kouvelakis (dir.);Dictionnaire Marx Contemporain;Paris, PUF, 2001;Articles de G.Raulet sur l’Ecole de Francfort, et de J.M.Vincent sur Adorno

G.Labica, G.Bensussan (dir.);Dictionnaire critique du marxisme;Paris, PUF, 1999;Dialectique, Ecole de Francfort, etc.

A.Lalande;Vocabulaire de la philosophie;Paris, PUF, 1997;

D.Kambouchner (dir.);Notions de philosophie;Paris, Gallimard,  1995;

D.Julia;Dictionnaire de la philosophie;Paris, Larousse, 1992;

A.Cuvillier;Nouveau vocabulaire philosophique;Paris, Armand Colin, 1956;

6.5 Histoires de la philosophie utilisées

B.Parain, Y.Belaval (dir.);Histoire de la philosophie;Paris, NRF, Encyclopédie de la Pléiade, 1969 (tome 1),1973 (tome 2),1974(tome 3)

F.Châtelet (dir.);Histoire de la philosophie;Paris, Hachette, 1999

J.Hersh;L’étonnement philosophique, une histoire de la philosophie;Paris, Gallimard, 1993

E.Bréhier;Histoire de la philosophie;Paris, PUF, 1991

7 Notes

Sous le titre Théorie esthétique publié par Klincksieck, nous entendons aussi bien le corps de la Théorie esthétique, son premier projet d’introduction destiné à être réécrit Introduction première, ainsi que les fragments regroupés sous le nom de Paralipomena

NOTES

[541] « Les philosophes n’ont fait qu’interpréter le monde de diverses manières; ce qui importe, c’est de la transformer » (Retour au texte)

[542] K.Marx, Thèses sur Feuerbach in Œuvres III (Gallimard, Bibliothèque de la Pléiade, Paris, 1982, trad. M.Rubel), p.1033 (Retour au texte)

[543] D.Buren, Les écrits (op. cit.), p.49-56 et 77 (Retour au texte)

[544] T.W.Adorno, T.E. (op. cit.), p.442 (Retour au texte)

[545] T.W.Adorno, T.E. (op. cit.), p.316 (Retour au texte)

[546] T.W.Adorno, T.E. (op. cit.), p.30 (Retour au texte)

[547] T.W.Adorno, T.E. (op. cit.), p.125 (Retour au texte)

[548] T.W.Adorno, T.E. (op. cit.), p.87 (Retour au texte)

[549] T.W.Adorno, T.E. (op. cit.), p.170 (Retour au texte)

[550] T.W.Adorno, T.E. (op. cit.), p.341 (Retour au texte)

[551] T.W.Adorno, T.E. (op. cit.), p.341 (Retour au texte)

[552] T.W.Adorno, T.E. (op. cit.), p.198 (Retour au texte)

[553] T.W.Adorno, T.E. (op. cit.), p.321 (Retour au texte)

[554] T.W.Adorno, T.E. (op. cit.), p.333 (Retour au texte)

[555] T.W.Adorno, T.E. (op. cit.), p.432 (Retour au texte)

[556] T.W.Adorno, T.E. (op. cit.), p.336 (Retour au texte)

[557] T.W.Adorno, T.E. (op. cit.), p.339 (Retour au texte)

[558] T.W.Adorno, T.E. (op. cit.), p.269 (Retour au texte)

[559] T.W.Adorno, T.E. (op. cit.), p.144 (Retour au texte)

[560] T.W.Adorno, T.E. (op. cit.), p.42 (Retour au texte)

[561] T.W.Adorno, Dialectique négative (op. cit.), p.245 (Retour au texte)

[562] T.W.Adorno, T.E. (op. cit.), p.27 (Retour au texte)

[563] T.W.Adorno, T.E. (op. cit.), p.105 (Retour au texte)

[564] T.W.Adorno, T.E. (op. cit.), p.124 (Retour au texte)

[565] T.W.Adorno, T.E. (op. cit.), p.154 (Retour au texte)

[566] T.W.Adorno, T.E. (op. cit.), p.188 (Retour au texte)

[567] T.W.Adorno, T.E. (op. cit.), p.247 (Retour au texte)

[568] Benjamin avait en sa possession un dessin de Klee, Angelus Novus représentant un ange dessiné d’un seul coup de crayon par les entrelacs de son unique ligne, et symbolisant pour lui l’ange de l’histoire (Retour au texte)

[569] T.W.Adorno, Critical Models (op. cit.), Marginalia on theory and praxis, p.278 (Retour au texte)

[570] T.W.Adorno, Dialectique négative (op. cit.), p.176-178 (Retour au texte)

[571] T.W.Adorno, T.E. (op. cit.), p.57-58 (Retour au texte)

[572] T.W.Adorno, T.E. (op. cit.), p.86 (Retour au texte)

[573] T.W.Adorno, T.E. (op. cit.), p.191 (Retour au texte)

[574] T.W.Adorno, T.E. (op. cit.), p.90 (Retour au texte)

[575] T.W.Adorno, T.E. (op. cit.), p.323 (Retour au texte)

[576] T.W.Adorno, T.E. (op. cit.), p.444 (Retour au texte)

[577] T.W.Adorno, T.E. (op. cit.), p.376 (Retour au texte)

[578] T.W.Adorno, T.E. (op. cit.), p.311 (Retour au texte)

[579] T.W.Adorno, T.E. (op. cit.), p.350 (Retour au texte)

[580] T.W.Adorno, T.E. (op. cit.), p.352 (Retour au texte)

[581] T.W.Adorno, T.E. (op. cit.), p.321 (Retour au texte)

[582] T.W.Adorno, T.E. (op. cit.), p.385 (Retour au texte)

[583] T.W.Adorno, T.E. (op. cit.), p.418 (Retour au texte)

[584] T.W.Adorno, T.E. (op. cit.), p.314 (Retour au texte)

[585] T.W.Adorno, T.E. (op. cit.), p.309 (Retour au texte)

[586] T.W.Adorno, T.E. (op. cit.), p.151 (Retour au texte)

[587] D.Buren, Les écrits 1965-1990 (op. cit.), tome 1, p.38 (Retour au texte)

[588] T.W.Adorno, T.E. (op. cit.), p.58 (Retour au texte)

[589] T.W.Adorno, T.E. (op. cit.), p.139 (Retour au texte)

[590] T.W.Adorno, T.E. (op. cit.), p.352 (Retour au texte)

[591] T.W.Adorno, T.E. (op. cit.), p.430 (Retour au texte)

[592] T.W.Adorno, T.E. (op. cit.), p.283 (Retour au texte)

[593] T.W.Adorno, T.E. (op. cit.), p.129 et Notes sur la littérature (op.cit), Engagement p.285-306 (Retour au texte)

[594] T.W.Adorno, T.E. (op. cit.), p.79 (Retour au texte)

[595] T.W.Adorno, T.E. (op. cit.), p.84-85 (Retour au texte)

[596] T.W.Adorno, T.E. (op. cit.), p.289 (Retour au texte)

[597] T.W.Adorno, T.E. (op. cit.), p.350 (Retour au texte)

[598] T.W.Adorno, T.E. (op. cit.), p.87 (Retour au texte)

[599] T.W.Adorno, T.E. (op. cit.), p.136 (Retour au texte)

[600] T.W.Adorno, T.E. (op. cit.), p.171 (Retour au texte)

[601] T.W.Adorno, T.E. (op. cit.), p.331 (Retour au texte)

[602] T.W.Adorno, T.E. (op. cit.), p.351 (Retour au texte)

[603] T.W.Adorno, T.E. (op. cit.), p.351 (Retour au texte)

[604] T.W.Adorno, T.E. (op. cit.), p.351 (Retour au texte)

[605] T.W.Adorno, T.E. (op. cit.), p.321 (Retour au texte)

[606] T.W.Adorno, T.E. (op. cit.), p.235 (Retour au texte)

[607] T.W.Adorno, T.E. (op. cit.), p.97 (Retour au texte)

[608] T.W.Adorno, T.E. (op. cit.), p.56 (Retour au texte)

[609] T.W.Adorno, T.E. (op. cit.), p.138 (Retour au texte)

[610] T.W.Adorno, Introduction à la sociologie de la musique (Contrechamps Editions, Genève, 1994, trad.V.Barras, C.Russi.), Postface p.223 et T.E. (op. cit.), p.21,58,61,65,72,290,317,327,438 (Retour au texte)

[611] T.W.Adorno, T.E. (op. cit.), p.312-313 (Retour au texte)

[612] T.W.Adorno, T.E. (op. cit.), p.342 (Retour au texte)

[613] T.W.Adorno, T.E. (op. cit.), p.21 (Retour au texte)

[614] T.W.Adorno, T.E. (op. cit.), p.303 (Retour au texte)

[615] T.W.Adorno, T.E. (op. cit.), p.326 (Retour au texte)

[616] T.W.Adorno, T.E. (op. cit.), p.21 (Retour au texte)

[617] T.W.Adorno, T.E. (op. cit.), p.92 (Retour au texte)

[618] L’intervalle sonore exacte d’une quinte est celui entre le son obtenu par vibration d’une corde de longueur L donnée et le son obtenu par la vibration de 2/3 de la longueur L. En terme de fréquence, le rapport entre les deux fréquences est de 3/2=1,5. Or le piano au tempérament égal a été conçu de telle façon que les douze notes de l’octave juste (rapport de fréquence 2/1) soit espacé par des rapport égaux de fréquence. Le rapport de fréquence entre deux sons espacés d’une ‘quinte’ devient 25/12 environ égal à 1,33. La ‘quinte’ au clavier est donc fausse (Retour au texte)

[619] T.W.Adorno, T.E. (op. cit.), p.320 (Retour au texte)

[620] T.W.Adorno, T.E. (op. cit.), p.326 (Retour au texte)

[621] T.W.Adorno, T.E. (op. cit.), p.59 (Retour au texte)

[622] T.W.Adorno, T.E. (op. cit.), p.60 (Retour au texte)

[623] T.W.Adorno, T.E. (op. cit.), p.313 (Retour au texte)

[624] T.W.Adorno, T.E. (op. cit.), p.423 (Retour au texte)

[625] T.W.Adorno, T.E. (op. cit.), p.327 (Retour au texte)

[626] T.W.Adorno, T.E. (op. cit.), p.285-286 (Retour au texte)

[627] Dans son contenu, cette question de la grandeur est délicate. Quand Godard par boutade affirme que le cinéma avec son grand écran ne sera pas détrôné par le petit écran, la télévision, rien que par ce geste de regarder au-dessus de soi quelque chose de plus grand que soi, il renvoie à la question kantienne du sublime dont Adorno corrigeait une interprétation erroné de n’y voir que la valorisation de l’immense qui y est malgré tout présente, de la puissance alors que c’est le sentiment mêlé de sa finitude et de sa liberté qui s’y déploie. Cependant, en terme de ‘profondeur’ de l’expérience – mais aussi donc de puissance intérieure, de force – cette expérience du sublime peut être décrite ainsi que les autres, et c’est bien ainsi qu’Adorno parle de la chaise de Van Gogh dont à travers sa facture « peut être quelque chose de très important », « se sédimenter des expériences plus profondes » que des tableaux d’une facture traditionnelle avec un grand thème. C’est donc l’aspect a priori, formel de la grandeur qui est critiqué, non pas en soi, et cette grandeur ne devient évidente qu’a posteriori, au cours de l’expérience, comme richesse ou puissance de signification de cette expérience. (Retour au texte)

[628] Cette question nécessiterait aussi un développement pour déterminer en quoi elle se justifie en soi, et en quoi elle est déterminée par la capacité réceptive de la sphère de réception, et son rapport à la division du travail. Il peut d’ors et déjà être dit rapidement en premier lieu qu’en soi la recherche étant une insistance, il est justifié que la production y retrouve son unité. Ensuite, que l’effort de réflexion est moindre quand une unité synthétique autour d’un thème est déjà produite pour le spectateur qui se repaît des variations dans un sentiment de maîtrise de ce dont il s’agit. Enfin que cette unité d’exposition permet d’identifier sans reste l’artiste : ‘peintre animalier’ par exemple, que sa fonction bien circonscrite par la division du travail permet une manipulation plus aisée de la personne, celle-ci étant classifiée. (Retour au texte)

[629] T.W.Adorno, T.E. (op. cit.), p.317 (Retour au texte)

[630] T.W.Adorno, T.E. (op. cit.), p.316 (Retour au texte)

[631] T.W.Adorno, T.E. (op. cit.), p.438 (Retour au texte)

[632] En particulier dans la question du ‘neuf’ qui est mis en avant dans la construction face à la transformation de l’ ‘ancien’. (Retour au texte)

[633] T.W.Adorno, T.E. (op. cit.), p.76 (Retour au texte)

[634] T.W.Adorno, T.E. (op. cit.), p.347 (Retour au texte)

[635] T.W.Adorno, T.E. (op. cit.), p.64 (Retour au texte)

[636] T.W.Adorno, T.E. (op. cit.), p.289 (Retour au texte)

[637] T.W.Adorno, T.E. (op. cit.), p.465 (Retour au texte)

[638] T.W.Adorno, T.E. (op. cit.), p.289 (Retour au texte)

[639] Pour Buren en 1968, l’histoire de l’art n’a jamais présenté de révolution dans son propre domaine mais que des réformes, et ce justement parce qu’elle se réduisait à des changements de formes, à un jeu de formes. Voir Les écrits 1965-1990 (op.cit.) tome I, p.53-57 (Retour au texte)

[640] T.W.Adorno, T.E. (op. cit.), p.267 (Retour au texte)

[641] T.W.Adorno, T.E. (op. cit.), p.38 (Retour au texte)

[642] T.W.Adorno, T.E. (op. cit.), p.290 (Retour au texte)

[643] T.W.Adorno, T.E. (op. cit.), p.292 (Retour au texte)

[644] « La question de savoir si le penser humain peut prétendre à la vérité objective n’est pas une question de théorie, mais une question pratique. C’est dans la pratique que l’homme doit prouver la vérité, c’est à dire la réalité et la puissance, l’ici-bas de sa pensée. La querelle de la réalité ou de l’irréalité du penser – qui est isolé de la pratique – est un problème purement scolastique » (Retour au texte)

[645] K.Marx, Thèses sur Feuerbach in Œuvres III (op.cit.), p.1030 (Retour au texte)

[646] T.W.Adorno, T.E. (op. cit.), p.267 (Retour au texte)

[647] T.W.Adorno, T.E. (op. cit.), p.61 (Retour au texte)

[648] La thématique nietzschéenne de l’élevage et du dressage des pulsions est présente de façon plus ou moins cachée chez Adorno (Retour au texte)

[649] T.W.Adorno, T.E. (op. cit.), p.268 (Retour au texte)

[650] T.W.Adorno, T.E. (op. cit.), p.167 (Retour au texte)

[651] T.W.Adorno, T.E. (op. cit.), p.72 (Retour au texte)

[652] T.W.Adorno, T.E. (op. cit.), p.63 (Retour au texte)

[653] T.W.Adorno, T.E. (op. cit.), p.48 (Retour au texte)

[654] T.W.Adorno, T.E. (op. cit.), p.235 (Retour au texte)

[655] T.W.Adorno, T.E. (op. cit.), p.65 (Retour au texte)

[656] T.W.Adorno, T.E. (op. cit.), p.167 (Retour au texte)

[657] T.W.Adorno, T.E. (op. cit.), p.345 (Retour au texte)

[658] T.W.Adorno, T.E. (op. cit.), p.267 (Retour au texte)

©HERMÈS : revue critique et Raphaël CLERGET
ISSN- 1481-0301
Créée le vendredi 18 août 2000
À jour le samedi 22 mai 2004


[659] T.W.Adorno, T.E. (op. cit.), p.489 (Retour au texte)

Publié dans Adorno, Esthétique, Marx, Uncategorized | 1 commentaire

La durée du rêve : Cinéma africain et public occidental Lisa McNee

La durée du rêve :
Cinéma africain et public occidental

Lisa McNee

Professeure adjointe d’Études Francophones à l’Université Queen’s
(Kingston, Ontario)

Paru dans HERMES : REVUE CRITIQUE, no. 10

Le rêve que partagent enseignants et étudiants, c’est d’accéder à une porte virtuelle qui nous permettrait de traverser espace et temps pour visiter tous les lieux de l’imaginaire et de l’histoire et d’apprendre tout ce que l’on veut. Dans une certaine mesure, on peut estimer que le cinéma joue ce rôle dans la salle de classe, car un film offre la possibilité de voir les couleurs et les images d’un ailleurs inconnu et d’écouter les échos de cet ailleurs, même si l’expérience sensorielle n’est pas totale.

Cependant on se trompe si on croit que nous pouvons ainsi détenir la clef de la vérité, car ce rêve cinématographique n’est pas projeté sur un écran vierge. Le spectateur pré-existe l’expérience cinématographique, donc son rêve cinématographique est le produit d’un processus personnel et « l’emprise de certaines contraintes (et en particulier de certains modèles de réalité collectifs) » ( Odin 54) selon Roger Odin (2000). Tout comme le lecteur, le spectateur doit décoder les signes du film pour « faire » du sens (Lefebvre 484). Cette perspective n’implique pas une forclusion de l’attitude préconisée par des théoriciens du passé, tels Eisenstein ou Althusser, qui voyaient dans le cinéma le moyen de faire croire et de faire rêver plus qu’une opportunité donnée au spectateur de créer un monde imaginaire à partir des images sur l’écran. Il s’agit plutôt de constater que l’interpellation du spectateur n’est pas hégémonique et la réaction du spectateur ne l’est pas non plus.

As the movie interpellates the spectator, so, too, does the spectator interpellate the movie. This counterinterpellation is accomplished by not following the proper etiquette of passive moviegoing. By engaging with the movie, the audience is no longer a consumer of the movie; rather, it becomes the producer of the meaning of the movie. In the process, writing (making films) and reading (watching them) are joined together in a « single signifying practice » (Barthes 1977, 162). (Naficy 10)

La célèbre analogie qui compare la relation entre le spectateur et le film à la situation du policier qui hèle un passant (Althusser, cité dans Naficy 8) est certes valable ; seulement, nous ne pouvons pas croire que tout spectateur réagisse de la même façon à cet appel. Par ailleurs, tous les policiers ne sont pas les mêmes : si le film de propagande interpelle le spectateur de manière autoritaire, d’autres genres cinématographiques véhiculent une ou des idéologies de façon plus nuancée, voire ambivalente. Il y a donc un écart entre le film qui interpelle et le spectateur qui réagit à l’interpellation.

Cet écart est l’objet d’étude de cet article, qui voudrait examiner le cinéma africain et son public universitaire en Amérique du Nord eu égard à quelques instances neurologiques et mémorielles pertinentes, des techniques de création cinématographique, ainsi que des pratiques culturelles. Nous espérons aboutir avec une courte discussion sur la nécessité de faire la critique des médias du monde dans les salles de classe nord-américaines, trop souvent subjuguées par les images des médias américaines et incultes lorsqu’il s’agit des pays en voie de développement. Nous allons nous appuyer sur des données tirées de nos expériences en tant qu’enseignante aux Etats-Unis, au Canada et en France. L’approche sémio-pragmatique d’Odin servira de cadre. Ainsi, nous allons nous intéresser « en priorité aux grandes modalités de la production de sens et d’affects » (Odin 56), non aux données strictement sociologiques ou statistiques.

Le spectateur rêveur et le cinéma

D’emblée la forme du récit filmique et la durée du film attirent notre attention, car l’opposition « ‘temps du film/temps de l’action,’ sans être parfaite en termes de durée…est sans doute une des conventions les plus fortement ancrées du cinéma » (Amiel 23). Très souvent on oublie l’importance de la première question, soulignant l’intérêt du récit. Cependant les réactions des étudiants occidentaux démontrent que la durée du film, ou mieux, la perception subjective de cette durée, est un aspect primordial de l’expérience cinématographique. Tous mes étudiants occidentaux signalent que les films africains qu’ils visionnent dans la salle de classe sont d’une longueur et d’un rythme inhabituels. Selon ces spectateurs, il est difficile de s’adapter à ces différences temporelles, donc de maintenir le regard et l’attention nécessaires pour capter les éléments essentiels de ces récits ancrés dans des cultures inconnues et d’autant plus difficiles à interpréter.

Aujourd’hui, la durée standard d’un long-métrage est de 90 minutes à Hollywood. Ceci n’est pas un accident, mais un choix bien pesé, car les spécialistes du rêve ont affirmé qu’il consiste en une réaction aux stimulus internes. Robert T. Eberwein explique le rêve dans son Film and the Dream Screen (1984) comme suit :

At various times during the night, the dreamer’s system undergoes a completely involuntary series of reactions involving chemical and neuronal activity…In effect, the periodic firings through the system provide a jolt that causes eye movements [REM]. These, in turn, issue ‘commands’ to the entire brain and lead to the calling up of various sensations and perceptions which the brain offers as correlates to the neuronal impulses.

Thus the images we ‘see’ during dreams are our brain’s response to the endogenous stimulations that occur ever ninety minutes during sleep. Rather than offering an index of how we follow the action of what we watch as dreamers, the rapid eye movements precede the hallucinated images in our brain, and, in effect, call up visual elements that match them (Eberwein 17).

Les intervalles de 90 minutes dont parle Eberwein correspondent à la durée approximative de presque tous les films commerciaux de nos jours. On dirait que les recherches faites en la matière ont influencé les cinéastes. Tout comme le « product placement » entre autres techniques utilisées pour favoriser la consommation, la durée du « rêve cinématographique » est bien calibrée et calculée en Occident. Mieux le film correspond à ces biorythmes, mieux il amassera de l’argent pour ses réalisateurs.

Ceci est d’autant plus intéressant lorsqu’on envisage les multiples vecteurs d’où viennent les informations et le modèle multidimensionnel du processus par lequel on décode les informations accepté par la plupart des psychologues aujourd’hui (Hettema et. al. 40). Si le spectateur est dans un état proche de la somnolence au cinéma, sans pour autant perdre la possibilité de rendre compte des informations qui lui viennent de l’écran et du système sonore, il les perçoit d’une manière loin de la lucidité analytique et critique qu’on exige d’ordinaire dans une salle de classe. Comme Martin Lefebvre le dit, « from the point of view of the act of spectating, not everything in a film is a sign, although everything may become one. It is through the act of spectating that a film is translated or interpreted–a process I call mise en signe. » (Lefebvre 490)

Certains signes pénètrent avec plus de force que d’autres, mais tout dépend du spectateur et de son passé personnel. Comme la biochimie et la neurologie ont déjà démontré, chaque individu présente différentes attitudes devant les mêmes phénomènes, car chacun représente un phénotype différent—une actualisation différente du code génétique dont chaque être vivant dispose. Joop Hettema et ses collègues théorisent néanmoins que le processus passe par trois moments chez tous les individus. D’abord, les informations qui nous parviennent sont comparées à un « neuronal model, a residual…of past experience » (41). Puis, si les signes ne peuvent être décodés à l’aide d’un modèle mnémonique déjà en place, une réaction « phasique » se déclenche. Enfin, il y a un processus de « familiarisation » qui clôt le processus. Bien sûr, les critiques littéraires qui étudient la réception et la sémiotique ont déjà décrit ce processus sous un autre angle, mais c’est intéressant d’ajouter que les signes physiques des spectateurs correspondent à ce processus.

Les aspects biologiques et physiologiques du problème sémiotique sont intéressants en eux-mêmes, mais il faut les interpréter aussi. Chacun va réagir différemment aux mêmes stimuli. Par exemple, un spectateur qui a l’habitude de voir des scènes violentes à l’écran n’aura pas la même réaction physiologique—cœur palpitant, sueur froide—qu’un spectateur plus naïf. Le déterminisme biologique de certains critiques du passé, qui voyaient dans les astuces des publicistes une manière savante et incontournable de contrôler les cerveaux à travers des « messages subliminaux » représente une réaction du passé. Bien sûr, les images et les sons nous influencent, parfois plus vite que nous ne pouvons le savoir ; toujours est-il qu’il est possible de retracer les pistes prises dans le processus d’interprétation des signes si on est prêt à faire le nécessaire et devenir un lecteur critique, capable de faire la lecture de soi-même. Par ailleurs, tout indique que les cinéastes et les producteurs prennent en compte ces facteurs tout en les liant à la donne culturelle.

Montages du réel

La donne culturelle. Formule banale, formule qui implique tacitement que nous comprenons ce que c’est que la culture. Mais la question n’est pas simple, comme n’importe quel tour d’horizon des tentatives d’expliquer les différentes cultures humaines prouvera. Tout en essayant de mettre le lecteur en garde contre ces formules faciles, nous allons les utiliser (espérons que ce sera avec assez de finesse) pour analyser des pratiques culturelles spécifiques, au lieu de désigner des aires « culturelles » et géographiques. L’Afrique y a la place d’une simple désignation géographique, non celle d’une unité culturelle. Nous suivons les traces de Alison Murray, qui aborde, elle, l’enseignement des films de l’époque coloniale.

I wanted to analyze film as a form of cultural practice. Such an approach involves treating film neither as a window on the past (as students often assume it is) nor as a vehicle for false history (as historians often assume it is) but rather as a historical product that both shapes and reflects the world around it. When a film is analyzed both as a vehicle of representations and in the context of its production, distribution, and reception, it can be a valuable source for both history and historiography. In the classroom, such an approach serves the dual aim of approaching history through film and of understanding film as history. (Murray 41-42)

La pratique culturelle que nous tentons de cerner par le mot « cinéma » a au moins trois versants : celui du producteur, celui du distributeur et celui du spectateur. La culture cinématographique est évidemment le produit des facteurs économiques et matériels aussi.

La réalité est que l’expérience du cinéma est très hétéroclite en Afrique. Nous allons nous pencher sur le cas du Sénégal, pays assez riche en cinéastes et en salles de cinéma. Au Sénégal, les grandes villes peuvent se vanter de nombreuses salles. Certaines correspondent exactement aux salles occidentales, et l’on s’y sent presque comme en Occident. Les cinémas de quartier, par contre, sont souvent délabrés et attirent les jeunes désœuvrés, car le tarif est réduit. Le public se comporte autrement, et le plus souvent, les films à l’affiche viennent de Bombay ou Hong Kong. Dans les villes provinciales telles que Louga, ce genre de film est favorisé aussi.

Ma première expérience de spectatrice dans une salle de cinéma sénégalaise (à Louga) m’a fait comprendre pour la première fois que le cinéma prend souvent des dimensions oniriques. Je l’ai compris uniquement parce qu’on avait découpé et recollé les bandes de deux films différents, mais de manière si experte qu’on n’était pas sûr de comprendre ce qui se passait. Je me demandais si le film avait commencé dix minutes après son début. Ce montage expert a permis au projectionniste de gagner de l’argent malgré le fait que la pellicule des deux films était incomplète. Le public sénégalais, enchanté par les images de combats karaté et de belles femmes, n’était pas du tout déçu. La durée du film dépendait du gré du monteur improvisateur, non d’un réalisateur professionnel. Contrairement aux autres spectateurs, j’attendais avec frustration un récit déchiffrable, en bonne spectatrice occidentale. L’anecdote montre plus qu’un décalage entre différentes cultures spectatoriales : le public sénégalais était prêt à créer un récit personnel, malgré le chaos sur l’écran. En gros, l’expérience prouve que le récit filmique est une construction, mais elle démontre aussi que le travail de montage est essentiel à notre compréhension du film.

L’expérience nous mène à travailler sur l’esthétique du montage pour mieux comprendre l’expression du temps sur l’écran. C’est le montage qui permet la grande élasticité du cadre temporel dans le récit filmique (Amiel 23), et les spectateurs ainsi que les projectionnistes au Sénégal l’ont bien compris. Deux facettes du montage arrêtent notre regard tout de suite : le découpage des plans, qui précède le tournage, et le cutting/collage. Le cinéaste et l’auteur du scripte choisissent les plans en fonction du récit avant le tournage.

En effet, le découpage présuppose que l’auteur et le spectateur ont à l’esprit la même représentation du monde, le même ‘décor de fond’ sur lequel des fragments d’action deviennent compréhensibles, et qu’ils contribuent à situer. Pour que chacun comprenne l’action, les réactions des personnages, le contexte en quelques indications, en quelques allusions, il faut que ces représentations soient partagées par tous, qu’elles appartiennent à une vision commune (Amiel 7-8).

Certains grands cinéastes de l’époque classique du film hollywoodien savaient avec une telle précision combien de pellicule il fallait utiliser et quels plans il fallait employer qu’ils n’ont pas « monté » leurs films à proprement dire. Pour la plupart des cinéastes, par contre, le montage implique le cutting et la collage, activités qui ont lieu après le tournage.

Ne disposant pas de scénarios de films africains, mes observations s’arrêtent au niveau du texte filmique. Dans beaucoup de films, on a l’impression que le cinéaste a essayé de tourner sans interruption, peut-être faute de pellicule. N’oublions pas que la pellicule est une denrée chère et que la production cinématographique reste l’affaire des chanceux cinéastes ayant pour la plupart reçu des fonds et de l’aide des associations étrangères. Ce tournage constant paraît clair dans des films des années 1970, tels « Emitaï » de Sembène. Parfois les images sont floues, signes d’une mauvaise pellicule ou des problèmes techniques que le monteur aurait dû effacer. A première vue, le film n’a pas bénéficié de cette technique de cutting et collage. Les étudiants canadiens, souvent très sophistiqués en matière de production filmique, ont souvent l’impression que les techniciens manquaient de compétence.

Il est certes possible que de jeunes cinéastes voulant former des techniciens africains aient pu accepter un standard inférieur de travail, mais le film suscite d’autres réactions aussi. Est-ce possible que Sembène ait voulu créer certains effets chez le spectateur, effets qui ne cadrent pas avec les attentes usuelles de la culture du cinéma au Canada ? Selon Odin, lorsqu’un réalisateur de télévision a acheté des fragments de film pour les inclure dans un film de montage sur la guerre, les séquences qui auraient été dénoncées « comme des fautes » par les membres de son club de cinéma amateur, seront lues « comme des indices d’authenticité » (Odin 62). Le cinéma engagé de Sembène peut être lu à travers le filtre de certains films montés tels « La guerre d’Alger, » où des scènes fictives alternent avec des scènes tirées de téléreportages pour construire le récit de cette guerre terrifiante. Évidemment, si on ne connaît pas cette tradition du film engagé, on ne pourrait pas interpréter les « erreurs » techniques de Sembène de cette manière, et on comprendrait ses films à travers des grilles d’interprétation connues.

Dans des films engagés, le sens du rythme du récit ne fonctionne pas selon les normes de la société de consommation, mais selon d’autres conventions. La culture de la communauté de spectateurs visée joue un rôle dans la production du film aussi. Au niveau du temps du récit filmique, l’espace et le temps sont souvent unis de manière remarquable dans les films classiques du cinéma africain. Cette unité varie selon la culture, et n’est compréhensible que dans le contexte culturel précis du film. Selon Jean-Pierre Esquenazi,

il est impossible d’étudier un film sans de très grandes connaissances collatérales, comme dirait Peirce. Pour comprendre un film noir, il ne suffit pas de spécifier le statut des regards à travers les raccords ; il faut encore savoir ce qu’est un gangster, connaître la mythologie du héros solitaire aux Etats-Unis, etc (Esquenazi 22).

Or, les connaissances nécessaires manquent souvent dans la salle de classe, tout comme dans les manuels généraux traitant du cinéma africain. D’ailleurs, la grande diversité culturelle est la principale raison pour les faiblesses que Martin Mhando note dans les approches pédagogiques utilisées le plus souvent dans les salles de classe ; il est plus simple d’étudier la thématique ou les oppositions idéologiques dans les films africains que de les placer dans des contextes culturels aussi riches et divers. L’enseignant doit devenir anthropologue parfois, et donner des informations purement sociologiques.

Ces informations ont de l’importance lorsqu’il s’agit du temps et de la durée du film, question qui nous préoccupe. La politesse et le cérémonial de la vie sociale jouent un rôle aussi dans des cultures où c’est une maladresse de bousculer l’hôte, qui doit pouvoir agir selon son rythme à lui. La séquence dans le film « Saaraba » où le protagoniste rentre au Sénégal après de longues années en France et salue son père formellement en répétant plusieurs fois son nom de famille montre ce cérémonial parfaitement. Le père, les mains dans les mains de son enfant, dit solennellement, « Fall, » plusieurs fois pour entendre son fils répéter avec autant de sérieux leur nom de famille. La séquence démontre la solidarité d’un clan uni par un nom et un ancêtre éponyme, ainsi que la reconnaissance de cette tradition par un fils égaré, mais retourné au bercail. Lorsque mes étudiants occidentaux ont vu cette séquence, ils ont éclaté de rire spontanément, car la répétition du nom leur semblait mécanique. Selon Henri Bergson, c’est l’incongruité qui produit ce genre de rire (Le rire 1925). Lorsqu’on voit l’homme agir comme une mécanique, on ne saurait réagir autrement. Mais cette explication correspond au cadre d’une société industrialisée, celle de mes étudiants. Le village sénégalais du film est très éloignée de ce monde, et la répétition indique une politesse et une hiérarchie dont les étudiants ne soupçonnent pas l’existence.

Le temps pose un autre problème pour le cinéaste africain. Comment montrer un acte cérémonial ? Faut-il montrer tous les actes en temps réel, ou utiliser l’ellipse pour montrer les gestes les plus importants ? Comment peut-on montrer la différence entre un temps mythique et un temps « réel, » ou prétendu tel ? Dans ses commentaires sur son film « Mama Tumaini, » Mhando explique l’importance du problème ainsi :

The ritual, (including the modern ‘roots’ ritual) which has traditionally been used as a transformational tool, is here used to express the transformational role of cinema. In narrating the story of the two sisters, we use the ritual, which subsides under oral culture, to compare cinema with the aspirational concepts of traditional narrative. This could be also compared to the device of the griot often used by Sembene to denote the cinema’s capacity to record, embody and explain history (Mhando paragraphe 27).

Cette description s’applique non seulement à ce film, mais à tant d’autres. Le montage semble la technique qui rend possible l’alternance entre ces différents temps et l’effet sur le spectateur du rite filmé. Par exemple, dans « Saaraba, » nous comprenons le désarroi de la jeune femme, enceinte de par les faits de son ami mais obligée à marier un vieillard, lorsque nous voyons des images d’un coq égorgé, son sang aspergeant un drap propre. Cette scène se répète à plusieurs reprises à une vitesse hors normes pour le reste du film. Évidemment, il était nécessaire de faire du cutting et du collage pour que les raccords soient parfaits. Dans « Guimba, le tyran, » les raccords nous permettent de voir d’abord le camp des chasseurs, ensuite la case du féticheur dictatorial.

Les deux virtuoses du montage en Afrique francophone sont sans conteste feu Djibril Diop Mambéty et Jean-Pierre Békolo. Faux raccords, jump-cuts et autres techniques rendent leurs films extrêmement intéressants sur le plan visuel. Ainsi leurs techniques correspondent aux récits filmiques qu’ils tentent de partager avec les spectateurs. C’est le rêve qui motive leurs personnages le plus souvent, et ce rêve n’est pas vécu de manière linéaire, mais selon les processus erratiques de la mémoire et des sensations. Dans Touki Bouki, son premier long-métrage, Mambéty met en scène un jeune couple qui rêve d’aller à l’étranger pour faire fortune. Békolo joue avec les rêves romantiques et aussi avec les croyances spirituelles dans Quartier Mozart, l’histoire d’une jeune fille devenue garçon pour découvrir l’autre versant de l’amour grâce à l’aide d’une amie sorcière. Ces deux films à eux seuls démontrent la grande importance du montage sur le plan technique mais aussi sur le plan narratif dans les films africains, surtout lorsque le cinéaste essaie de rendre visible des croyances, des pratiques ou des sensations qui semblent contraires aux dogmes de la société technocrate qui a produit les technologies du cinéma.

Le montage, c’est l’art de créer un rêve lisible. Pour Djibril Diop Mambéty, le cinéma

creates dreams. It has energy and direction. I hope that all my stories finish by presenting a lesson for society, but there is also great freedom in my way of seeing and treating things. I do the audience justice: they have the freedom to enter or not to enter into my stories. They are free to take their own path, to enter or to leave. In one word, ‘liberty’ is what characterizes what I am doing (Ukadike 1999).

En d’autres termes, il laisse au spectateur la liberté de faire avec ses images ce qu’il veut. Il montra de ce fait beaucoup de respect pour son public, tout en utilisant des tactiques connues des spectateurs dans les salles de cinéma de Dakar ou de Louga.

Idéologies, Histoire coloniale et Postcolonialisme

Ceci ne veut pas dire que le cinéma africain ne peut aider l’enseignant à mieux faire comprendre les réalités sociales africaines, mais que cet écran n’est pas une fenêtre transparente ouverte à une autre réalité comme on voudrait le croire. Pour profiter des réels trésors pédagogiques de ce cinéma, nous devons prendre conscience des contraintes qui pèsent sur la production et sur la réception du septième art en Afrique et aussi les buts idéologiques des créateurs.

L’idéologie derrière le film étant la « fenêtre » ouverte sur la réalité par le créateur, il est nécessaire de regarder le film d’un œil critique. Lorsqu’on envisage le cinéma engagé d’Afrique, on doit prendre en compte l’idéologie, d’autant plus parce que la colonisation a laissé un héritage pesant. Si Althusser voyait en le cinéma un instrument de propagande, et le produit culturel comme véhicule d’une idéologie, nous devons reconnaître que l’image renvoyée par ces véhicules idéologiques est toujours une distorsion. Ceci est le pôle négatif de la fonction idéologique du cinéma. Un pôle plus positif existe aussi. Par exemple, l’idéologie occupe une place importante dans le cinéma africain voué à la lutte anti-coloniale et à la promotion des droits humains. Comme nous avons déjà vu, le cinéma de Sembene est incompréhensible si on ne prend pas en compte les visées idéologiques du cinéaste. Sembene et bon nombre de ses congénères proposent une version postcoloniale de la donne culturelle, ce qui signifie « a critical real time of colonial power and knowledge » (Prakash 188).

Qui dit pouvoir, dit idéologie et représentation du pouvoir et des enjeux en place, mais l’histoire et la mémoire collective rentrent en jeu aussi. Or, la mémoire collective est connue pour son manque de respect pour le modèle informatique. Selon Lefebvre, l’attrait du modèle informatique ne doit pas nous rendre aveugles à ce point.

In contrast [to computer memory] human memory can represent, that is it can translate data into a semiotic system and, by the same token, transform it and render it more complex (even if this implies some forgetting). It is able, in other words, to produce a memoria. Seen in this light, memory is no longer duplication but amplification, enrichment, complexification. (Lefebvre 479)

Évidemment, ce facteur enrichit l’expérience du spectateur et fonde les arguments pour la relecture du texte littéraire et le re-visionnement du film. A chaque fois qu’on voit le film, on voit de nouveaux détails qui échappaient à la première vue. De la même façon, ces « attractions, » pour utiliser le terme de Lefebvre, peuvent nous faire oublier ce qu’on a déjà vu. Ainsi peut on dire que l’expérience cinématographique est entortillée autour des processus de perception et de mémoire.

Cet aperçu en appelle un autre sur le plan pédagogique. Il est parfois risqué d’enseigner nos étudiants occidentaux à prendre toutes les libertés avec les films qu’ils voient dans la mesure où ils peuvent croire que n’importe quelle lecture du texte filmique vaut une autre. Ceci pose problème lorsqu’on considère l’interprétation du texte écrit aussi, donc il est possible de passer en revue quelques principes de base du commentaire de texte pour éviter tout qui pro quo. Par exemple, le lecteur de Lector in fabula de Eco gardera en tête la distinction entre l’interprétation textuelle et l’usage du texte. N’importe quel jeu interprétatif est possible ; seulement, l’usage critique ne permet pas certains écarts.

Pour qui voudrait utiliser les films africains pour que les étudiants comprennent mieux les réalités en Afrique avant d’y aller, l’approche documentaire sera nécessaire, mais problématique. Le film documentaire est tout aussi construit qu’un film de fiction, mais le film de fiction présente un problème spécifique lorsqu’il est vu sous cet angle. Comme Odin argue,

Si le récit se met à fonctionner pour son propre compte, si la diégétisation est trop forte (si le monde est trop présent), si, à cause de la mise en phase, la relation affective du lecteur à l’histoire racontée devient trop prenante (si la croyance l’emporte sur le discours), l’effet fable sera détruit et la fable se transformera en fiction (Odin 59).

Pour Odin, la fable représente l’aspect discursif du texte, celui qui intéresse avant tout les spectateurs attirés par la possibilité de lier le film au monde. Sans entrer dans une discussion métaphysique sur l’ontologie, il est possible de montrer aux étudiants que la vie elle-même tient au fil d’un récit—le récit à la base de notre mémoire personnelle, par exemple. Ainsi les outils que nous leur donnons pour interpréter n’importe quel texte littéraire, ou n’importe quel rêve, peuvent leur servir dans leur quête du réel, qu’il se trouve en Afrique ou ailleurs.

Le cinéma africain entre la technologie analogue et la révolution digitale

Le processus sémiotique gagne en importance aujourd’hui avec la digitalisation du cinéma. Alors que le film classique peut être compris comme une série de prises recollés au gré du monteur, les nouvelles technologies digitales nous obligent à regarder les films d’une autre manière. Puisque les cinéastes africains manquent souvent de moyens, la vidéo digitale gagne en importance au dépens du film.

En Afrique de l’Ouest aujourd’hui, la plupart des films sont produits au Ghana et au Nigéria à cause de l’adoption de la vidéo à la place du film, plus cher et plus délicat. Cette révolution digitale n’a pas encore eu lieu dans les pays francophones, mais elle est au seuil des lieux de production parce que la plupart des « classiques » du cinéma francophone africain sont inaccessibles en Afrique francophone. Les Burkinabè qui vont au FESPACO les voient avec une certain régularité, et ils sont assez nombreux, car le gouvernement burkinabè fait des efforts louables pour rendre les séances de cinéma accessibles en offrant des billets à prix modéré (communication personnelle, Adolphe Sanon). En dehors du FESPACO, rares sont les cinémas africains qui montrent les films francophones. Lorsque Hyènes, le long-métrage de Mambéty, est sorti dans l’une des grandes salles de cinéma à Dakar, on lisait des comptes-rendus positifs dans la presse dakaroise, mais la plupart des Dakarois trouvaient le film inintéressant (communications personnelles, Dakar 1993). D’autres films sont carrément inconnus ou mis au ban. Le cas célèbre de la censure du film Ceddo de Ousmane Sembene est connu de tous ceux qui étudient l’histoire du cinéma en Afrique. Depuis lors, les autres films de Sembene ont été montrés en gala, où le prix élevé des billets les rendent inaccessibles au grand public.

La révolution digitale comporte un grand changement non seulement dans l’accessibilité des moyens de produire des films, mais aussi de voir les films africains. Par la suite, cette accessibilité change les mœurs et les sensibilités populaires, comme Brian Larkin argue dans son article sur l’influence des films sur les attentes sentimentales et maritales au Nigéria (Larkin 1997). La nouvelle technologie exige une nouvelle esthétique aussi d’après Kaboré (175), qui souligne l’importance de la mise en scène et des lumières.

David Tafler a bien capté la différence entre les deux formes de production cinématographique. En effet, le temps et le montage sont très importants. La technologie analogue crée l’effet d’une série d’événements qui se suivent à l’aide du collage des différentes prises.

Analog causality creates seminal moments within a play of events. It shapes or choreographs particular gestures and actions within an overall sequence. Seamless, ephemeral, and manipulable, key events rise and fall with causal regularity, changing gradually, occasionally more dramatically, but always progressively in response to numbers of stimulating factor(s). Within this fabricated encounter, the individual’s experience, feeling, and thought flows with each dramatic wave. Interruptive junctures disrupt the continuity and restore the boundaries between the spectator and the screen. (Tafler 183)

Le montage classique essaie de donner au spectateur l’impression qu’il est pris dans le courant temporel naturel, et les « événements clé » sont ceux qui l’impressionnent le plus, pénétrant la relative torpeur créée par la salle obscure et les éléments oniriques de l’expérience.

Par contre, la vidéo digitale interrompt le rêve : on peut avancer le film ou aller en arrière, choisir une image précise, sans devoir passer en revue les autres images enregistrées sur une bande dans un ordre précis. Bien qu’il y ait eu montage, la vidéo elle-même détruit le mirage du montage en ajoutant à la fin en appendice des prises qui n’ont pas été incorporées dans la version finale, ainsi que des « bloopers » ou d’autres moments « live » de la production pour informer ou pour faire rire le spectateur.

Digital media anticipates the complete devolution of the screen by building a cinematic experience that « is made to happen in your head »…the spectator sits back and cognitively dives into the screen. The images on the screen cohere within the spectator. (Tafler 184)

Si le spectateur se noie dans les images, ceci ne veut pas dire qu’il est captif du cinéma. Le charme est en effet brisé, car le spectateur peut changer le montage de façon plus ou moins professionnelle, grâce aux moyens digitaux. Le film n’est plus l’icône sacré d’un art mis sur piédestal, mais une affaire bricolée. C’est peut-être la preuve que même le cinéma, l’exemple type de la mécanisation de l’art pour Walter Benjamin, peut figurer dans l’imaginaire nostalgique de ceux qui le voit remplacé par la vidéo digitale. En même temps, il nous faut rappeler que la nostalgie est une forme de mélancolie, et donc suspecte.

Plaidoyer pour une pédagogie critique

La nostalgie est un concept inconnu chez la plupart de mes étudiants nord-américains, et il faut de gros efforts pour qu’ils comprennent vraiment de quoi il s’agit. Conséquence de la rapidité du rythme de vie en Occident ou effet de leur jeunesse, ceci indique aussi une grande ouverture aux nouvelles technologies. La révolution digitale est en train de changer le cinéma en Amérique du Nord de telle manière que les étudiants sont rompus à ces techniques avant de venir en classe pour étudier le cinéma francophone et/ou africain. La révolution digitale révèle l’autre face du danger d’une approche pédagogique purement thématique et idéologique : il nous faut des outils sémiotiques pour pouvoir devenir lecteurs critiques des films, mais aussi lecteurs critiques de nos propres réactions. Selon Jim Wehmeyer, « the idea and the practice of some form of media literacy as the necessary response to, if not the inoculation against, the lived experience of media-saturated lives. (Wehmeyer 94)

Le spectateur est un rêveur. C’est en captant des impressions qu’il refaçonne à sa manière dans sa mémoire qu’il fait de l’expérience un acte artistique. L’état impressionnable du rêveur n’est pas un état dangereux s’il est conscient à la sortie du cinéma du fait qu’il a fait un songe. Il est libre de l’interpréter, ou de l’utiliser comme bon lui semble, comme Eco proposent dans Lector in fabula. Dans la salle de classe, ce rêve devient autre chose, et le professeur doit lui offrir les possibilités de lire son expérience de manière critique pour qu’il puisse faire une mise en signe qui permettra l’acte de parole qui communiquera son acte de réception aux autres. Ainsi le rêve devient une réalité sémiotique que d’autres peuvent comprendre.

Une autre version de cet article a été présentée au colloque du Conseil International des Études Francophones à Abidjan, 2002.

Notes

[1]Selon Tafler : On the simplest level, over 127 million receptor cells respond to light stimulation in each eye. Only one million fibers, however, transmit that information along the optic nerve. The wiring in the eye reduces the registered signals, compresses the information to shifts in contours and contrasts, colors, and patterns. A complex reconstruction, a figuration of associations, recollections, and recognitions creates the illusion of a retinal image, a condition that an individual with « normal » vision takes for granted. In short, new cinema experiences bypass the illusions, the perspectival renderings that reinforce those illusion. They penetrate « the codes of classic Western representation, pictorial and theatrical. » In essence, deep focus yields to deeper stimulation. (Tafler 185)

[2]See Lefebvre, qui présente le stimulus comme une “attraction“ faisant partie d’un spectacle :  Thus, the primary characteristic of the attraction in the theatre, and later in the cinema, is to be a sort of relatively autonomous act (atraktsia), a high point in the show which must attract the attention of the spectator and somehow make an impression on him. Moving from attraction to attraction, the spectator, according to Eisenstein, links together mental associations which end up constituting the conceptual and affective thematic-ideological network of the film… Eisenstein underlines how the generalized image reunites and reconfigures apparently scattered elements which already belong to memory, the latter playing the role of framing the work of the imagination. (481)

[3]Pour une discussion de l’expérience d’un spectateur non-occidental devant les scènes hollywoodiennes, voir Naficy. D’après lui, le spectateur se met en scène en interprétant le film.

It is clear to me now that writing and making films have been part of my strategy for self-understanding, self-narrativization, and self-fashioning both at home and in exile. This and all counterinterpellations and resistances discussed here are, in the final analysis, forms of sublation vis-à-vis my relation with the West. It has involved identifying with the West (in this case, through movies), idealizing it, fetishizing it, consuming it, becoming subject to and consumed by it, resisting and subverting it, and finally making films and writing about it. It is a heterological process by which he could both preserve and negate himself and his others and be both here and there. (Naficy 23)

[4]Murray argue,  One of the questions about the culture of colonialism that has received scholarly attention is the way in which knowledge about the empire, and particularly colonized peoples, was organized and transmitted for the purpose of control. Film was implicated in this project from the beginning, and a comparison of ethnographic documentaries from different periods can highlight the changing relationship between « scientific » representation and political control. (45)

[5]La science cognitive souligne l’importance de la mémoire dans le processus de familiarisation des nouveaux messages et informations aussi. Selon Lefebvre,

It is undeniable that memory, in the larger sense of the term, plays an important role in the act of spectating (the act of watching a film). For example, in order to construct a narrative form and comprehend the characters’ actions, the spectator must be able to recall faces, places, and situations from one segment of a film to another. Further, cognitive science has shown us how greatly the understanding of discursive forms depends on prior knowledge… (Lefebvre 479)

[6]it is becoming more and more difficult for semioticians to conceive of memory outside the artificial intelligence paradigm. But one must be careful not to reduce memory in its totality to this model, which accounts only partially for the work done by human memory  and for its semiotic or representational function. In fact, computer memory does not represent, it re-presents or reproduces data. Information stored in computer memory is stable and not subject to transformation. (Lefebvre 479)

[7]Selon le cineaste burkinabè Gaston Kaboré,

Digital video is especially relevant today to African cinema because we don’t have the money to finance film production in our countries. Every filmmaker would like to shoot in celluloid, but the costs are too high. Through digital video we can lower production costs. (Martin 176-177)

[8]Pour Kaboré, par exemple, la vidéo est un pis-aller, et tout bon cinéaste préfère travailler avec des bandes de film. Le choix des cinéastes comme Éric Rohmer (L’Anglaise et le duc, 2001) de faire l’expérience du digital sans contrainte financière prouve que le digital est ici pour le long terme.

Bibliographie

African Images: Recent Studies and Text in Cinema. Eds. Maureen Eke, Kenneth Harrow, Emmanuel Yewah. Trenton, NJ: Africa World Press, 2000.

Amiel, Vincent. Esthétique du montage. Paris: Nathan, 2001.

Cinéma et reception. Eds. Jean-Pierre Esquenazi, Roger Odin. Numéro special de Réseaux 18/99 (2000).

Eberwein, Robert T. Film and the Dream Screen: A Sleep and a Forgetting. Princeton: Princeton UP, 1984.

Eco, Umberto. Lector in fabula. Trad. Myriem Bouzaher. Paris: Grasset, 1985.

Givanni, June, ed. Symbolic Narratives/African Cinema: Audiences, Theory, and the Moving Image. London: British Film Institute, 2000.

Harrow, Ken, ed. African Cinema: Postcolonial and Feminist Readings. Trenton, NJ: Africa World Press, 1998.

Hettema, Joop, Kees Zeidelmeijr and Rini Geene. « Dimensions of Information Processing: Physiological Reactions to Motion Pictures. » European Journal of Personality 14 (2000) 39-63.

Koné, Amadou, ed. Lumières africaines : Nouveaux propos sur la littérature et le cinéma africains. New Orleans : UP of the South, 1997.

Larkin, Brian. « Indian Films and Nigerian Lovers: Media and the Creation of Parallel Modernities. » Africa 67.3 (1997) 406-440.

Lefebvre, Martin. « On Memory and Imagination in the Cinema. » New Literary History 30.2 (1999) 479-498.

Magliani, Joseph, Jason Miller and Rolf Zwaan. « Indexing Space and Time in Film Understanding. » Applied Cognitive Psychology 15 (2001) 533-545.

Martin, Michael. « ’I Am a Storyteller, Drawing Water from the Well of My Culture:’ Interview with Gaston Kaboré, Griot of African Cinema. » Research in African Literatures 33.4 (2002) 161-179.

Mhando, Martin. « Approaches to African Cinema Study. » Senses of Cinema 8 (2000). En ligne.

Murray, Alison. « Teaching Colonial History through Film. » French Historical Studies 25.1 (2002) 41-52.

Naficy, Hamid. « Theorizing ‘Third-World’ Film Spectatorship. » Wide Angle 18.4 (1996) 3-26.

Prakash, Gyan. « Who’s Afraid of Postcoloniality? » Social Text 14.4 (1996) 187-203.

Tafler, David. « When Analog Cinema Becomes Digital Memory… » Wide Angle 21.1 (1999) 181-204.

Ukadike, Nwachukwu Frank. « The Hyena’s Last Laugh. Interview with Djibril Diop Mambety. » Transition 78 (vol. 8, no. 2 1999) 136-153. En ligne: http://www.newsreel.org/articles/
mambety.htm

–. Questioning African Cinema : Conversations with Filmmakers. Minneapolis : U of Minnesota P, 2002.

Wehmeyer, Jim. « Critical Media Studies and the North American Media Literacy Movement. » Cinema Journal 39.4 (2000) 94-101.

©HERMÈS : revue critique et Lisa McNee
ISSN- 1481-0301
Créée le vendredi 18 août 2000
À jour le samedi 22 mai 2004

Publié dans Cinéma, Cinéma africain, Uncategorized | Laisser un commentaire

Panorama de l’offre éditoriale en matière de revues électroniques en Sciences Humaines et Sociales disponibles via Internet Aurélie Wellenstein

Panorama de l’offre éditoriale en matière

de revues électroniques en Sciences Humaines et Sociales

disponibles via Internet

Par Aurélie Wellenstein

CONSERVATOIRE NATIONAL DES ARTS ET METIERS

INSTITUT NATIONAL DES TECHNIQUES DE LA DOCUMENTATION

MÉMOIRE PRÉSENTE EN VUE D’OBTENIR

LE DIPLÔME SUPÉRIEUR EN SCIENCES DE L’INFORMATION

ET DE LA DOCUMENTATION SPECIALISÉES

Mémoire soutenu devant un jury, composé de

Adriana Lopez

Joachim Schöpfel

Octobre 2003

CYCLE SUPÉRIEUR PROMOTION XXXIII

Paru dans HERMES : REVUE CRITIQUE, no. 10


Remerciements

Je tiens à exprimer mes plus vifs remerciements à Joachim Schöpfel, pour son accueil, son attention et ses conseils ; à toute l’équipe du DRD et en particulier à tous les membres du service Monographies et Littérature Grise pour leur soutien et leur amitié ; ainsi qu’aux membres du département SHS et tout ceux qui m’ont épaulé lors du développement de mon projet de base de données : Laurence Rageot, Etienne Fleuret, Jean-François Nomine et Dolorès ; à tout ceux de l’INIST que j’ai pu rencontré et qui ont contribué à faire de mon stage une expérience enrichissante et gaie.

Mes remerciements également à Adriana Lopez pour ses conseils pour la structuration du présent mémoire.


SOMMAIRE

INTRODUCTION  LE PRINTEMPS DES REVUES ELECTRONIQUES

CHAPITRE 1 : LES SCIENCES HUMAINES ET SOCIALES A L’ERE DE L’ELECTRONIQUE

1.1. Les Sciences Humaines et Sociales : tentative de définition

1. 2. La revue électronique en ligne via Internet : définition

1.3. La recherche en SHS et en STM : un Janus

1.4. La crise de l’édition en SHS

1.5. Le support électronique comme solution à la crise ?

CHAPITRE 2 : LA REVUE ELECTRONIQUE EN SCIENCES HUMAINES ET SOCIALES ET SES ACTEURS

2.1. Le journal électronique en SHS et les chercheurs : enquête

2.1.1 – Retours et silences

2.1.2 – Les chercheurs et Internet

2.1.3 – Le contenu des revues électroniques

2.1.4 – Publier dans une revue électronique

2.1.5 – L’avenir des revues électroniques en sciences humaines et sociales

2.2. L’édition traditionnelle

2.3. Les réponses non commerciales : l’open access

CHAPITRE 3 : L’OFFRE EDITORIALE EN MATIERE DE REVUES ELECTRONIQUES EN SCIENCES HUMAINES ET SOCIALES DISPONIBLES VIA INTERNET : ETAT DES LIEUX

3.1. Quelles sont aujourd’hui les revues électroniques publiées en SHS ?

3.2. Un article dans un océan d’informations

CONCLUSION

BIBLIOGRAPHIE

ANNEXES


INTRODUCTION

Le printemps des revues électroniques

Pour communiquer les résultats de leurs recherches, plusieurs possibilités s’offrent aux chercheurs ; parmi elles, la revue savante. Elle représente un maillon important du système de communication scientifique. Ayant connu au fil des années un essor toujours plus important, elle est aujourd’hui un moyen d’expression et de diffusion des connaissances indispensable.

Cependant, avec l’explosion d’Internet, les modes de production, d’organisation et de diffusion de l’information scientifique ont évolué vers de nouvelles formes. Peu à peu, on a vu certaines revues traditionnelles imprimées se dématérialiser. Est alors apparu un nouveau type de support et de diffusion de l’information scientifique : la revue électronique.

Internet constitue un vecteur d’expression facile, moins contraignant que le support papier. Et la publication numérique permet d’introduire des innovations. Se dessine alors un rêve : on imagine que grâce à la diffusion en ligne sur Internet des articles scientifiques, les idées des chercheurs vont pouvoir être diffusées plus largement et de façon plus immédiate. Répondant à un soucis de partage et de communication, et épousant l’esprit d’Internet, la revue électronique en ligne donnerait enfin corps au rêve humaniste de l’accès libre et gratuit à une culture de haut niveau.

Ce rêve : une belle utopie ? Dans la réalité, les choses ne se passent pas de façon aussi idéale.

Certes dans le domaine des Sciences Techniques et Médicales (STM), les sciences « dures » pourrait-on dire, la revue électronique a belle et bien connu un essor formidable, mais cela ne doit pas masquer les réticences profondes que ce nouveau support de diffusion provoque. Des réticences qui ne sont pas prioritairement d’ordre technique ou économique, mais plutôt psychologique. La culture des chercheurs – les principaux auteurs et lecteurs de ces articles – s’enracine dans l’histoire du livre. Et celle-ci a ses propres références épistémologiques.

Or on doit garder à l’esprit que les revues électroniques sont encore jeunes. C’est un concept qui n’est pas encore bien défini. Sur Internet tout est possible. Toutes les formes peuvent se côtoyer et chaque jour, se métamorphoser. La technologie est si mouvante, qu’en terme de typologie, il est bien difficile de cerner les revues électroniques.

Produits d’information non homogène, elles peuvent être la numérisation fidèle de la revue papier, ou une version améliorée, enrichie par les liens hypertextes par exemple, et exploitant les possibilités offertes par le HTML. Certaines ont des comités de lecture, d’autres non. Certaines se réduisent à leur plus simple expression : une table des matière ou des résumés des articles. Il s’agit alors d’une simple vitrine de la revue papier. Mais surtout : certaines sont gratuites, d’autres pas.

Néanmoins ce caractère mouvant dont la plastique échappe aux tentatives de classification n’a pas empêché la revue électronique d’être adoptée par les chercheurs des disciplines STM. Ceux-ci ont rapidement saisi les nombreux avantages que le support électronique offrait en comparaison de son grand frère, le support imprimé traditionnel. La réduction des délais et la diffusion immédiate n’est qu’une des nombreuses explications de son succès.

Or, après cet essor fulgurant dans le domaine des sciences exactes, la diffusion des périodiques sous forme électronique concerne de plus en plus les disciplines des Sciences Humaines et Sociales (SHS.) Le nombre de titres ne cesse de croître. D’après l’étude sur les Revues numériques francophones en SHS réalisée par Claire Lepeutrec pour l’URFIST-Paris au printemps 2000 [44]1 le nombre de revues numériques déposées au titre du dépôt légal en France a doublé entre 1998 et 1999, passant de 100 à 200.

Pourtant la situation en Sciences Humaines et Sociales est bien différente de celle qu’on évoquait ci-dessus en STM. En SHS, le développement des revues électroniques se heurte à des réticences plus nombreuses et plus profondes. Leur accroissement sera sans doute plus lent. C’est un parcours semé d’embûche.

Considérant cette situation, nous avons voulu nous interroger sur l’état actuel du marché des revues électroniques en ligne sur Internet, dans les domaines des SHS.

  • Qu’est-ce précisément qu’une revue électronique issue des disciplines SHS ?
  • L’offre des revues numériques en SHS se développe-t-elle ?
  • Quelle est la situation de la France au niveau du marché international ?
  • Qui sont les acteurs de la révolution numérique en SHS ?

A travers les réponses que nous tenterons de donner à ces questions, nous espérons dessiner peu à peu un panorama précis de l’offre éditoriale en matière de revues électroniques SHS disponibles via Internet.

Au cours de notre réflexion nous considérerons l’entrée des Sciences Humaines et Sociales dans l’ère du numérique ; cette partie fera la part belle aux définitions des concepts qui nous intéressent afin de mieux cerner cet univers si particulier et nous nous demanderons si le support numérique est une solution à la crise qui secoue l’édition SHS. Puis nous nous pencherons sur les acteurs marquants du développement de l’édition de revues électroniques en ligne en Sciences Humaines et Sociales : c’est-à-dire les chercheurs, les éditeurs traditionnels et autres, presses universitaires et sociétés savantes, qui proposent parfois – souvent – des solutions non commerciales. Enfin nous ferons le portrait le plus précis possible de la revue électronique en Sciences Humaines et Sociales à travers l’étude statistique du marché et l’étude des portails et bases de données qui tentent d’agréger cette offre bondissante.

Dans cette analyse, nous nous appuierons sur l’observation et l’étude de l’offre et des pratiques dans ce domaine. Ce travail est basé sur l’exploration de sites Internet : les sites des revues mais aussi les portails tels que JSTOR, Muse, Erudit, ScienceDirect d’Elsevier… Nous nous sommes aussi servis des données rassemblées par les bibliothèques virtuelles telles que l’Elektronische Zeitschriftenbibliothek2 et Ulrichsweb3. Enfin notre travail repose grandement sur E-revuesSHS. Il s’agit de la base de données créée pour l’INIST-CNRS dans le cadre de mon stage et destinée à figurer dans le futur portail BiblioSHS. Grâce à elle, nous avons pu dégager les grandes tendances du marché.

Bien sûr il existe une littérature « non électronique » sur le sujet, elle se compose essentiellement d’articles de périodiques spécialisés, les monographies étant rares et presque immédiatement « dépassées », cependant elle ne permet pas de proposer une information aussi « fraîche » que celle rencontrée sur le réseau. C’est là la difficulté d’une problématique en constante évolution. En bibliographie on trouvera les références des documents utilisés pour ce travail.

Pour donner une idée graphique de ces produits éditoriaux, des copies d’écrans de publications, portails ainsi que de notre base de données E-revuesSHS sont proposées en annexes.

CHAPITRE 1. Les Sciences Humaines et Sociales à l’ère de l’électronique

1.1. Les Sciences Humaines et Sociales : tentative de définition

1 1 1 SHS et STM

Il n’est pas aisé de réduire la vaste réalité des sciences humaines et sociales à quelques lignes de définition. Les SHS englobent de nombreuses disciplines. Par opposition à ses sœurs, communément appelées « sciences dures », et qui regroupent la physique, la chimie, la médecine, les sciences de la vie et de la terre, les sciences humaines et sociales ont une teinture plus littéraire.

Pourquoi les sciences humaines et sociales ? Une réponse est esquissée sur le site du département SHS du CNRS :

« Les sciences de l’homme et de la société ont pour finalité d’observer, de décrire, d’interpréter et, le cas échéant, d’expliquer les dispositions et les comportements de l’homme ainsi que les mécanismes de fonctionnement et d’évolution des sociétés humaines » 4

1.1.2 -Opposition et interdisciplinarité

Les sciences humaines et sociales regroupent une vingtaine de disciplines. Toutes sont très différentes. Les démarches de recherche, la structure des concepts et des théories, les modes d’argumentation, leur passé même varient de l’une à l’autre. Et pourtant, il existe de nombreuses zones de contact entres elles, ainsi qu’avec les sciences de la nature et les sciences de l’ingénieur5. Les sciences humaines et sociales, plus que les sciences dures, sont poreuses et l’interdisciplinarité qui les caractérise est une notion fondamentale.

C’est justement cette situation qui rend difficile l’établissement d’une définition univoque. Pour la création des champs de la base E-revuesSHS, nous nous sommes servis des sections établies par le comité national du CNRS. Nous avons retenu les disciplines suivantes :

– anthropologie,

– préhistoire,

– archéologie,

– histoire ancienne,

– histoire médiévale,

– histoire moderne,

– arts,

– linguistique,

– épistémologie,

– littérature,

– philosophie,

– droit,

– sociologie,

– économie,

– gestion,

– sciences des religions,

– ethnologie,

– géographie,

– sciences politiques,

– sciences de l’information,

– sciences de l’éducation,

– psychologie.

Notre étude sera principalement basée sur l’étude de marché de ces disciplines.

1. 2. La revue électronique en ligne via Internet : définition

Pas plus qu’il n’est simple de retenir une seule définition pour les Sciences Humaines et Sociales, nous ne pouvons imposer une seule définition de la revue électronique en ligne via Internet.

1.2.1 Qu’est-ce qu’une revue électronique ?

La question est la réponse pourrait-on dire ! Tout d’abord, nous effectuons une différence entre revue et journal. Le terme « journal » correspond par trop à une périodicité quotidienne, et à un type de publication non scientifique. Voici la définition qu’en donne le Larousse :

« Publication quotidienne donnant des informations ou des opinions sur les nouvelles politiques, économiques, sociales, etc. »

Bien entendu, de nombreux journaux entrent aujourd’hui dans l’ère de l’électronique et propose en ligne les articles en texte intégral de leur production imprimée, cependant, ce n’est pas la question qui nous intéresse ici. Dans cette analyse, on se penche sur la revue scientifique, celles des chercheurs. Au terme « revue », dans le Larousse, on trouve :

« Publication périodique spécialisée dans un domaine scientifique, littéraire, juridique, etc. »

C’est dans ce sens qu’en entendra le terme « revue » tout au long de cette étude.

Or, si on accède à une revue électronique par le biais d’Internet, d’un logiciel ou d’un CD-ROM, cette définition est aussi vraie pour une newsletter, une liste de diffusion, un forum. Et il n’est pas toujours aisé de délimiter des frontières entre ces différents formats. Tous tendent à se fondre les uns dans les autres.

1.2.2 – Typologie de revues

Quinn définit le journal électronique « comme un journal papier, excepté le format. »6; c’est un peu simpliste ! La revue électronique peut revêtir des formes très diverses7 :

  • Certaines sont le portage fidèle d’un journal papier traditionnel sur support électronique.
  • Dans de nombreux cas, la version numérique ne reproduit qu’une petite partie de l’exemplaire papier : la table des matières, des résumés ou des extraits ; il s’agit surtout d’une vitrine commerciale de la version papier.
  • Enfin il existe des revues électroniques qui n’ont pas d’équivalent papier. Dans cette catégorie, on trouvera beaucoup de nouvelles revues créées à l’initiative de chercheurs, de départements et de presses universitaires. Ou certaines, à l’origine des revues papier, qui ont interrompu leur diffusion papier au profit d’une diffusion intégralement numérique.

Sur Internet tout bouge très vite et se modifie sans cesse. L’enrichissement est permanent. Difficile dès lors d’imaginer des produits d’informations normalisés et stables. Chacun exploite à sa façon les possibilités techniques et éditoriales offertes. Les revues électroniques peuvent donc revêtir n’importe quelle forme. Parfois, une revue thématique sera considérée à tort comme une monographie. Dès lors les banques de données recensant les revues électroniques en SHS risquent de ne pas la retenir.

1.3. La recherche en SHS et en STM : un Janus.

Comme on l’a déjà évoqué, en SHS et en STM, les démarches de recherche sont différentes. Et cela se répercute bien entendu sur les revues électroniques. Celles-ci ne répondent pas aux mêmes attentes et sont créées dans un autre esprit.

1.3.1 -La place de la hiérarchie

Première distinction, en STM les réseaux de communication scientifique sont institutionnalisés. De très sérieux comités de décision confèrent aux articles validité, légitimité, rayonnement et impact. En SHS, la hiérarchie est plus poreuse. De nombreuses revues (qu’elles soient imprimées ou électroniques) n’ont pas de comité de sélection. La structuration en réseaux n’est pas homogène.

1.3.2 – La réduction des délais de publication : un moteur pour les revues électroniques en STM

Les SHS se distinguent également des STM par leur méthodologie, leurs interactions sociales, et leurs modes de communication. Dans la publication des articles SHS, la pression du délai avant publication diminue. On comprend que dans le secteur médical par exemple, la transmission d’une nouvelle découverte soit urgente. Si la publication d’un article de revue en SHS prend un an, cela sera un problème moins vital que lorsque les articles de STM sont retardés par le parcours semé d’embûches de la publication. Autrement dit, il y a là un besoin plus pressant en STM qui pousse les chercheurs à utiliser les voies de l’électronique.

1.3.3 – Le rôle des articles moins valorisé en SHS qu’en ST

Dans le monde des SHS, le rôle des articles n’est pas le même qu’en sciences exactes où il est basé sur la découverte et l’innovation et sont des références en la matière. En SHS, la publication d’une monographie est davantage reconnue comme participant à la recherche qu’un simple article dans une revue. Ceci implique que la crédibilité du papier ne sera pas remise en cause avant longtemps et c’est un nouvel obstacle pour les revues électroniques.

1.3.4 – Périodicité: des parutions plus sporadiques en SHS

Les revues électroniques en SHS font preuve de périodicités très inégales. Leur publication peut être mensuelle ou annuelle. La plupart du temps, celles qui ont une périodicité mensuelle sont des revues de type professionnel, publiées par des éditeurs. La majorité des revues publiées par des universités, des sociétés savantes ou des chercheurs isolés ont adopté une périodicité semestrielle. De nombreuses revues ont une périodicité irrégulière. Ceci est du à la variation du flux d’articles.

1.3.5 – Les vertus patrimoniales :un enjeu commun

Cependant, en SHS comme en STM, l’utilisation des revues savantes n’est pas basée sur le court terme. D’où l’importance capitale de l’archivage des numéros ainsi que les démarches de numérisation patrimoniale.

Toutefois, le rôle des archives est plus grand en SHS qu’en STM. En effet, si dans les disciplines scientifiques médicales par exemple, le rôle des archives peut s’avérer capital (les disciplines de la physique et des mathématiques y accordent également la plus grande attention), le besoin d’information, plus qu’en SHS, vise des résultats de recherche très récents. La demande pour l’information actuelle est très forte. En Sciences Humaines et Sociales, c’est plus rarement le cas. Au contraire, une grande valeur est accordée aux textes de recherches du passé. Elles peuvent faire mûrir la réflexion des chercheurs d’aujourd’hui et l’enrichir. En aucun cas une recherche sur un auteur littéraire ne peut devenir totalement obsolète, bien que les méthodes d’investigation évoluent bien entendu et qu’on étudie plus aujourd’hui un texte comme on l’analysait autrefois.

1.3.6 – Parts de marché : un autre visage en SHS

Dans les secteurs scientifiques, les presses universitaires sont pratiquement absentes. C’est loin d’être le cas en SHS où nombre de revues dominantes sont éditées par des universités.

Par ailleurs, les revues publiées par des éditeurs commerciaux, à qualité égale, coûtent plus cher que celles éditées par les sociétés savantes et par les presses universitaires. Les publications des éditeurs commerciaux ne se positionnent pas plus avantageusement que leurs concurrentes sans buts lucratifs. Comme on le verra, il faut accorder une grande importance à ces productions alternatives.

1.3.7 – Un public plus diversifié

Le public qui utilise les travaux des chercheurs en Sciences Humaines et Sociales est plus diversifié que les lecteurs de productions scientifiques en STM. En effet, bien souvent, un article dédié aux STM est extrêmement technique et s’adresse à un public de savants. En SHS, bien entendu on trouve des lecteurs qui sont aussi des savants et des chercheurs, mais on touche aussi des professionnels, comme des juristes ou des économistes qui exercent leurs métiers sans forcément être initiés au monde de la recherche et des laboratoires. Par ailleurs comme on l’a déjà vu, les articles dédiés au Sciences Humaines et Sociales ont tendance à s’ouvrir aux autres disciplines attenantes et à ne pas se limiter à leur spécialité. Autrement dit, ils sont en mesure de toucher un public plus large.

1.3.8 – Lecteurs assidus et lecteurs occasionnels

Enfin, on mettra l’accent sur une caractéristique du lecteur en SHS quelque peu différente de son homologue en STM : les revues en Sciences Humaines et Sociales se consacrent souvent à un thème donné, par numéro. Autrement dit, à la différence du chercheur en STM qui va rester très fidèle à la revue à laquelle il est abonné, le chercheur en SHS aura plus tendance à butiner et à acheter un seul numéro de la revue, celui qui consacre un dossier thématique à son domaine de réflexion.

Les points ici développés sont souvent des obstacles en SHS alors qu’en STM, on y trouve des tremplins. La dématérialisation accélérée sur Internet en STM n’a pas eu son équivalent en SHS. Les pratiques informatives sont moins internationalisées. On trouvera plutôt des écoles de pensées nationales. Plutôt que des périodiques, ce sont des monographies individuelles qui paraissent. Le rôle des revues n’est pas le même qu’en STM où prime une circulation rapide et internationale des résultats de la recherche. Néanmoins il n’est pas improbable qu’elles subissent un effet d’entraînement des STM. Et ces différences nous font aussi comprendre que les revues électroniques en SHS ont leur caractère propre et doivent être développées selon leur propre modèle. Cependant, il est difficile d’ignorer que l’essor plus embryonnaire des revues électroniques en SHS par rapport à leurs sœurs issues des domaines des STM est dû à une crise générale dans les secteurs SHS.

1.4. La crise de l’édition en SHS

Depuis le début des années 1980, le secteur des livres de recherches en SHS est en crise. On peut l’expliquer par la tendance à l’hyperspécialisation des chercheurs, le déclin des pratiques de lecture à l’université ou encore le photocopillage, de plus en plus en vogue.

Dans la monographie de Ghislaine Chartron Les chercheurs et la documentation numérique [48], reprenant les informations données à la conférence de François Gèze, on apprend que le tirage moyen d’un livre SHS était de 2200 exemplaires dans les années 1960-70. Il est passé à 1200 en 1988 et à 700 en 2000 !

Par ailleurs, en ce qui concerne la numérisation des revues SHS en France, les politiques de subvention de l’Etat, au lieu de s’agréger pour plus d’efficacité ont tendance à se disperser. Les Ministères de la Culture, de l’Education Nationale et de la Recherche subventionnant chacun séparément des projets différents, ils se font finalement concurrence et les projets, au lieu de s’enrichir mutuellement, s’affrontent.

1.4.1 Une faible rentabilité des titres

L’éclatement actuel de l’édition en SHS s’explique en partie par le désintérêt des grands éditeurs commerciaux pour ce secteur. En effet, la marchandisation des publications scientifiques n’est pas vraiment développée. De faible périodicité (le plus souvent trimestrielle), et de tarifs bas ou moyennement élevés, elles sont souvent les produits de petits éditeurs avec des investissements limités.

Forcément, des reconfigurations ont vu le jour. Pour des questions de rentabilité, certaines maisons d’édition ont éliminé de leurs catalogues les titres de ces domaines pour ne plus se consacrer qu’aux sciences dures, techniques ou à la médecine, plus lucratives. Si d’autres ont maintenu leur production, c’est uniquement parce qu’elles ont baissé leurs interventions et leurs charges au plus bas.

Parallèlement le prix des abonnements aux revues survivantes est pris dans une spirale inflationniste. Les institutions universitaires et de recherche sont dans une situation intenable. Les ressources stagnent et elles doivent faire face à une croissance vertigineuse des prix, alors que leurs budgets sont en régression. Dans de nombreuses bibliothèques de recherche, on doit se livrer à une sélection de plus en plus draconienne des titres.

1.4.2 – Le caractère éclaté du marché de l’édition : Une myriade de petits éditeurs et une absence de leadership

Les petits éditeurs sont très nombreux dans le domaine des SHS ; et à l’inverse, les éditeurs proposant plus de dix titres se font rares. Les deux plus importants – la documentation française et les Presses Universitaires de France – n’ont pas la capacité financière ni l’ambition de mener une politique de mise en ligne. On déplore l’incapacité d’un acteur (privé ou public) à prendre le leadership pour imposer aux autres un rythme coopératif. En France, les éditeurs cultivent le culte du secret. Il n’existe pas de modèle de réussite qui pourrait faire école. Au niveau de la francophonie, au Québec se développe le projet Erudit sur lequel on reviendra ; mais la Belgique et la Suisse n’ont pas de politiques très offensives dans le domaine des SHS.

1.4.3 – Le flou juridique

A un modèle économique incertain s’ajoute le très gros problème de l’identité juridique. En France, les conditions de diffusion numérique sont plongées dans un flou juridique qui constitue un frein majeur pour les maisons d’éditions. Il n’existe pas de contrat juridique entre l’auteur et la revue pour régler la cession des droits de reproduction et de représentation. Gallica, le projet de numérisation de la Bibliothèque de France qui remporte par ailleurs un succès de grande envergure (près de 300 000 visites par jour) s’est volontairement limitée aux exemplaires relevant du domaine public.

1.4.4 – Essor international…

A l’international, les acteurs européens, notamment britanniques et hollandais, ont pris des positions importantes. Ils proposent des produits en ligne nombreux et aboutis.

Outre la mise en ligne par les grands éditeurs de plusieurs centaines de titres, on assiste à une évolution des bases de données et des services traditionnels, dans une tendance nette à l’agrégation de contenu et de services : bases de références d’articles, plate-forme de revues électroniques, accès au texte intégral sur abonnement, fournitures d’articles…

Ces mêmes éditeurs renforcent leurs positions en nouant des partenariats institutionnels ou commerciaux : normalisation, échanges de données… Les grands éditeurs SHS anglophones (Blackwell Publishers, Taylor et francis, Sage Publications) misent sur la vente couplée de la version papier et numérique pour développer le marché du numérique. Springer et Acamedic Press s’inscrivent dans un mouvement d’intégration dans des collections de revues des sciences de la nature. Mais le marché de l’édition des journaux électroniques en SHS est largement dominé par les Etats-Unis. Les universités américaines représentent 1/3 du marché potentiel.

1.4.5 – …et frilosité nationale

Le monde universitaire français, lui, n’est que faiblement engagé dans la production numérique. L’enseignement à distance est peu développé dans les universités. Les enseignants publient très peu sur le Web. Ils ne s’intéressent pas au débat sur le numérique. L’avance des pays anglo-saxons pour l’instant inspire davantage d’appréhension que de véritable adhésion qui pourrait entraîner une imitation de ces modèles.

1.5. le support électronique comme solution à la crise ?

Dans ce contexte de crise, quelles sont les possibilités offertes à et par l’électronique ? Les revues électroniques sont-elles victimes de la crise ? Ou surmontent-elles la crise ? Même : sont-elles une solution à la crise ? Un moyen de relancer la production littéraire en SHS ?

1.5.1 – Les avantages du support électronique

1.5.1.1 – Un lectorat mondial

L’apparition de la revue électronique en ligne représente un progrès considérable pour le monde de la recherche… qui n’est pas toujours reconnu à sa juste valeur ! Internet est un gigantesque réservoir d’informations. Les revues mises en ligne se voient soudain dotées d’un potentiel énorme et mondial : elles ont la possibilité de toucher des millions de lecteurs. Via le Web, des chercheurs peuvent relier leurs travaux, alors qu’ils n’auraient pas eu l’occasion de se connaître par un autre moyen. La revue électronique leur a laissé l’opportunité de faire connaître leur travail et de découvrir celui d’autrui dans une optique internationale.

1.5.1.2 – Un gain de temps

Le gain de temps lui aussi est un avantage considérable. On peut accéder à des titres non disponibles en local, ne serait-ce que pour la consultation des tables des matières afin d’identifier les articles pertinents. La consultation est indépendante du lieu et du temps.

1.5.1.3 – La baisse des coûts

Le coût de revient est inférieur à celui de l’édition traditionnelle. Désormais, tout chercheur peut librement faire connaître les fruits de son travail. Il y a quelques années, Internet posait un problème d’accès démocratique. Très peu de laboratoires étaient connectés au réseau. Mais l’explosion du Web au niveau mondial tend à effacer ce souci. Désormais, Internet est un outil qui se banalise, facile d’exploitation et peu onéreux.

1.5.1.4 – Une chaîne éditoriale plus rapide

La rapidité de diffusion tranche avec la lenteur de la diffusion des articles imprimés. Observons la chaîne de publication traditionnelle :

  • L’auteur envoie son article en plusieurs exemplaires à l’éditeur de la revue.
  • Celui-ci transmet ces exemplaires aux membres du comité de sélection qui vont l’étudier avant de prononcer un avis favorable ou défavorable.
  • Si le document est accepté, il est envoyé à l’imprimeur qui le met en forme.
  • Le texte doit encore subir la relecture et les corrections éventuelles des services d’édition ou de l’auteur.
  • La version finale est retournée à l’imprimerie qui en fait la publication définitive.

Avec le support électronique, la chaîne éditoriale peut être contractée à sa plus simple expression : l’auteur met en forme son texte et le met en ligne ; le lecteur y accède directement.

1.5.1.5 – Des techniques éditoriales avancées.

Bien entendu, le support électronique permet également l’exploitation des possibilités du multimédia. Les revues électroniques mises en ligne exploitent en majorité les possibilités de l’hypertexte. Mais l’utilisation des ressources multimédias (vidéos, son…), ainsi que l’interactivité (formulaire, forum…) et l’intégration de moteur de recherche (basique mais également – et surtout – permettant des recherches par mot clé dans un corpus intégral) sont sous-utilisés. Force est de constater qu’il y a encore des efforts à faire de ce côté.

1.5.1.6 – La lecture à l’écran

La lecture à l’écran fait partie de ces points délicats que l’on peut considérer à la fois comme un avantage et un inconvénient du support électronique.

Dans les disciplines SHS, le plus souvent, la lecture doit être attentive et soutenue. C’est un mode de lecture qu’on ne saurait cantonner à l’absorption d’informations. Par exemple en littérature, les textes ne sont bien sûr pas faits pour être parcourus dans une pratique de lecture extensive, mais au contraire, pour être lus avec attention (et respect.) Ensuite, le lecteur doit digérer l’information. Et quand la lenteur est privilégiée à la rapidité, il est évident que le support imprimé jouit d’une supériorité écrasante par rapport à son homologue électronique.

Par ailleurs, ce type de lecture exhaustive est plus agréable sur une copie papier – que l’on peut facilement annoter par ailleurs – que sur un écran d’ordinateur.

Cependant, ce point est de moins en moins problématique, car peu à peu les chercheurs se servent de l’écran pour balayer un corpus et sélectionner les documents pertinents. La lecture de la table des matières, du résumé et la consultation en « diagonale » de l’article renseignent vite et efficacement le chercheur. Ensuite il pourra effectuer une impression papier si l’article présente un intérêt de lecture plus approfondi.

1.5.2 – Les inconvénients du support électronique

1.5.2.1 – Des réticences psychologiques

Cependant, malgré ces nombreux avantages, la demande du lectorat pour le numérique est relativement faible. Lecteurs et rédacteurs des articles sont souvent des littéraires pour qui le papier est une valeur importante. Ils se sentent moins concernés par les apports des nouvelles technologies que les chercheurs en sciences dures.

1.5.2.2 – Des difficultés d’ordre technique

Selon que le chercheur est un familier de l’informatique ou non, les inconvénients du support électronique se font plus ou moins sévères. Les novices sont très sensibles au problème d’archivage, aux difficultés techniques et redoutent de se faire envahir par la technologie.

Mais au-delà de ces aspects il est légitime de s’interroger sur la stabilité de ces nouveaux supports. Si nous pouvons encore lire des papyrus datant de l’Egypte antique, est-ce que ce sera le cas du cd-rom, de la page web ou du document pdf dans les siècles à venir ? La technologie, toujours en évolution, devient rapidement obsolète. Les disquettes 8 pouces, introduites en 1979, ou même les disquettes 5 pouces en 1980, sont illisibles sur les ordinateurs d’aujourd’hui. Il faut aussi lutter contre l’obsolescence des logiciels qui nous permettent de lire les divers formats. De multiples versions d’un même logiciel paraissent à intervalle régulier. Certains anciens pdf ne sont désormais plus lisibles avec Acrobat 5.

1.5.2.3 – La question de l’archivage

Ces problèmes d’obsolescence technique nous amènent à réfléchir à la question de l’archivage. En effet, si les méthodes de conservation des documents papiers sont connues et respectées afin de préserver les documents pour les siècles à venir, il n’en va pas de même pour les documents électroniques. Les procédures sont en train de se définir. Et cette réflexion porte autant sur les supports physiques que sur les formats d’encodage.

Une solution actuellement préconisée est celle du portage des documents en XML. Le XML est un format de représentation de l’information simple et universel. Le fichier produit est un pur fichier ASCII. Et on sait que le fichier ASCII est le fichier le plus universel à ce jour dans le monde informatique. Il y a de forte probabilité pour qu’il soit lisible pendant encore une longue période.

Pour la conservation des archives, les revues commerciales sont souvent regroupées sur les serveurs des éditeurs et donc bénéficient d’un espace de stockage. Mais pour les autres, les numéros anciens risquent d’être définitivement supprimés pour libérer de la place sur les serveurs.

1.5.2.4 – Un manque de reconnaissance

A cela s’ajoutent des problèmes de reconnaissance, qui sont un frein pour les chercheurs. Non seulement le flou juridique autour des droits d’auteur est un point de souffrance, mais également, sans « grands noms » associés à la revue ou le soutien d’un organisme reconnu, les chercheurs préféreront toujours publier dans une revue imprimée traditionnelle, plus prestigieuse.

1.5.2.5 – Des revues électroniques utilisées à la façon des revues papiers

Enfin, il faut bien reconnaître que l’accès électronique aux articles SHS s’apparente pour le moment plus à une alternative du papier qu’à sa substitution. Les revues électroniques sont utilisées de manière « traditionnelle », comme on consulterait une revue imprimée. On feuillette les titres et les tables des matières, on imprime les articles. Le format PDF est apprécié car il reproduit le format classique de l’article. Les fonctionnalités plus avancées (liens hypertextes, interaction) sont utilisées de façon plus marginale.

Comme toutes nouveautés introduites dans un domaine, la revue électronique emporte l’enthousiasme des uns et le réprobation des autres. On met en avant de nombreux avantages pour la promotion du support numérique, mais on isole parallèlement quelques épineux inconvénients. Mais qu’en est-il sur le terrain ? Qu’en pensent vraiment les chercheurs ? Et qui sont les acteurs du développement de la revue électronique ?


CHAPITRE 2 : la revue électronique en Sciences Humaines et Sociales et ses acteurs

2.1. Le journal électronique en SHS et les chercheurs : enquête

2.1.1 – Retours et silences

Il est intéressant de s’interroger sur les rapports que les chercheurs entretiennent vraiment au jour le jour avec les périodiques électroniques. Nous avons recueilli l’avis de plusieurs chercheurs en Sciences Humaines et Sociales afin de connaître leur point de vue et leurs pratiques vis-à-vis de cet outil. Nous avons envoyé par mail un questionnaire à 102 chercheurs travaillant dans deux universités de la région parisienne, à savoir Paris I et Paris X [questionnaire visible en annexe 5] Parmi eux se trouvaient essentiellement des géographes (questionnaire adressé à 50 enseignants-chercheurs en géographie) et des sociologues (questionnaire adressé à 31 enseignants-chercheurs en sociologie) mais aussi quelques chercheurs en droit, anthropologie, anglais, philosophie, sciences de l’éducation, sciences politiques, histoire et psychologie (à raison d’un à cinq chercheurs sollicités par discipline.) De fait, les géographes se sont montrés particulièrement coopératifs. Dans l’ensemble, comme le laisse augurer Sophie Ranjard, dans son cours Connaître les publics d’un Service d’Info-Doc, de Veille, de KM… méthodologie d’enquête quantitative et analyse des résultats, donné à l’INTD le 3 avril 2003, on a eu environ 20 % de retour. Faut-il par-là en déduire que 80 % des chercheurs ne se sentent pas concernés par le sujet des revues électroniques ? Nous n’irons pas jusque là. Cependant, il faut bien garder à l’esprit que les chercheurs ayant pris le temps de répondre sont, dans l’ensemble, favorables et ouverts au développement des revues électroniques dans leur discipline. Les résultats de cette enquête révèlent par conséquent des points de vue souvent bienveillants mais qui ne reflètent certainement pas l’opinion de tout le monde !

2.1.2 – Les chercheurs et Internet

Pour commencer, nous avons voulu cerner les relations qu’entretiennent les chercheurs en Sciences Humaines et Sociales avec l’Internet.

A l’unanimité, les chercheurs interrogés disent utiliser le courrier électronique pour communiquer avec des collègues en interne et à l’international. Une seule personne modère son point de vue en indiquant qu’elle l’utilise, mais peu. La grande majorité de nos chercheurs sont abonnés à une liste de diffusion. Les deux tiers connaissent des sites de diffusion d’articles sur Internet . Ebsco en fait partie, mais surtout Cybergéo, cité très souvent par la population des chercheurs en géographie.

A l’exception d’une personne franchement hostile à l’informatique, toutes les personnes interrogées disent apprécier la présentation de l’information offerte par le Web et le format HTML. L’une d’elle précise tout de même que pour elle, le pdf est un meilleur format pour mettre en ligne des illustrations. C’est une remarque judicieuse dans la mesure où l’on sait que celles-ci ne subissent pas les grosses compressions du portage en HTML.

2.1.3 – Le contenu des revues électroniques

Cette première approche effectuée, nous avons voulu connaître leur point de vue sur le contenu des revues électroniques dans leurs disciplines.

A la question de savoir si le contenu des revues électroniques leur paraissait fiable, les avis sont partagés. Mais près de 80 % des chercheurs font confiance à ce type de production. L’un d’eux précise que cela dépend néanmoins de la crédibilité associée au nom de la revue. Un autre nous confie n’accorder du crédit qu’aux revues électroniques produites par ses pairs. Enfin, on nous précise l’importance de la présence d’un comité de lecture (même si celui-ci est loin d’être présent également dans toutes les revues papier !)

Deux tiers des chercheurs disent utiliser ce genre de sources d’information et se félicite de leur existence… dans la mesure où cela ne supprime pas le papier, tempère une personne.

Pour 1/3 des personnes interrogées seulement, l’utilisation de l’anglais pour la rédaction des revues électroniques paraît être un frein.

Vous désabonneriez vous des revues papier s’il existait un accès électronique ? Une question assez extrême où les avis sont partagés. Le « oui » l’emporte d’une courte tête, mais les hésitations sont sensibles. Il est évident que sur la population totale des chercheurs, c’est le non qui l’emporterait. L’un des chercheurs, favorable au désabonnement précise toutefois qu’il achèterait éventuellement au numéro la version papier selon ses besoins.

2.1.4 – Publier dans une revue électronique

Nous les avons ensuite interrogés sur leur pratique des revues électroniques. 2/3 des personnes interrogées ont déjà eu l’occasion de publier dans une revue électronique. Cependant, 2/3 encore pense qu’il est plus prestigieux de publier dans une revue traditionnelle que dans une revue électronique.

2.1.4.1 – Craintes…

Dans notre tentative d’identifier les craintes qu’éveillent en eux les revues électroniques, le non contrôle du contenu a été le plus cité. A égalité : la crainte du pillage. Suivent les doutes sur l’existence d’un réel lectorat et le non contrôle des droits d’auteurs. La crainte d’articles écrits par des auteurs marginaux arrivent en avant dernière position. L’éventualité d’un manque de notoriété des revues ne semble pas préoccuper en priorité les chercheurs. Pour compléter cette liste, certains d’entre eux ajoutent la dévalorisation du livre et du savoir académique, valeurs, on le sait, profondément ancrées dans les domaines des Sciences Humaines et Sociales et à plus forte raison dans les disciplines très littéraires. Enfin l’un des chercheurs les plus hostiles à l’informatique nous précisera tout simplement : l’ennui de la lecture.

2.1.4.2…Et satisfactions

Ensuite, nous avons voulu mettre en relief les principaux avantages de la revue électronique. Arrive en tête avec une écrasante majorité (l’unanimité des chercheurs) : la diffusion et consultation indépendante du lieu et du temps. Très cité également la maniabilité (facilité de stockage, de correction, de diffusion…). Puis la chaîne éditoriale plus rapide. L’interactivité est assez peu représentée. Et les fonctionnalités éditoriales avancées presque pas : en effet, les chercheurs attendent davantage dans l’avenir des revues électroniques sur ce point, estimant qu’aujourd’hui les services proposés peuvent être encore améliorés. Les chercheurs nous confient ensuite d’autres points propres aux revues électroniques qu’ils apprécient, comme par exemple la plus grande réactivité des lecteurs, la possibilité par ce biais de faire connaître ses travaux à l’étranger et inversement que les pays « du tiers-monde » puissent avoir accès aux productions des chercheurs de tout pays. Parmi les géographes, on nous signalera la qualité de reproduction des illustrations, ainsi que la non limitation des illustrations en couleurs et tableaux annexes. Enfin, on citera la rapidité de la lecture et du choix possible. Bien que ce dernier choix ne fasse pas l’unanimité des chercheurs.

2.1.5 – L’avenir des revues électroniques en sciences humaines et sociales.

Pour clore ce questionnaire, nous avons voulu connaître l’avis des chercheurs à propos de l’avenir des revues électroniques en Sciences Humaines et Sociales.

2.1.5.1 – Le développement des revues électroniques en SHS dans l’avenir : l’optimisme…

2/3 des personnes interrogées croit en un développement massif de ce type de diffusion des Sciences Humaines et Sociales face à l’édition traditionnelle en France dans l’avenir. Les raisons : d’abord financière. Les abonnements aux revues papier sont de plus en plus chers. Le coût de production des revues électroniques est moindre. Ensuite la facilité d’accès et de circulation n’est pas négligeable. Les diffusions peuvent prendre une envergure internationale. La recherche documentaire, grâce à l’indexation par mot clé est facilitée. Ensuite les délais de production et de diffusion sont raccourcis alors que la qualité de reproduction de l’appareil scientifique de démonstration (cartes, tableaux, annexes) s’améliore. Comme nous le fait remarquer une chercheuse en géographie, les nouvelles pratiques utilisant l’Internet se diffusent très vite parmi les étudiants notamment. Peut-être qu’il s’agit encore actuellement d’un effet de mode, mais celui-ci deviendra structurel, assure un autre.

2.1.5.2 – … Et le scepticisme

Mais 1/3 des personnes ne croit pas en un tel développement de la presse électronique en Sciences Humaines et Sociales, et étayent leur avis d’arguments solides. Il est vrai qu’une telle diffusion suppose une publication en anglais, pour toucher le plus large public possible, et le public est-il prêt à faire l’effort de lire dans une langue étrangère ? Malgré ce qu’assure la majorité des personnes ici interrogées, on sait que la langue peut être une barrière pour bien des chercheurs français. Ensuite, et ce n’est pas le moindre des problèmes, l’électronique se heurte et se heurtera aux habitudes et à la réticence de bien des chercheurs. L’imprimé lui aussi a pris des années pour acquérir une légitimité, nous rappelle une des chercheuses interrogées, et la production électronique est si jeune…

2.1.5.3 – L’engagement personnel

¾ des chercheurs interrogés garantisse qu’ils encourageront le développement des revues électroniques dans leur discipline et qu’ils y participeront eux-mêmes.

2.1.5.4 – Les attentes des chercheurs

En dernier lieu, nous leur avons demandé ce qu’ils attendraient des possibilités de l’électronique dans leur domaine. Parmi les nombreuses réponses : une amélioration de l’information brute et bibliographique, une diffusion et une accessibilité plus large, et par la même la possibilité de développer leur discipline, des facilités d’échange accrus avec les pays étrangers, le raccourcissement des délais, la qualité de reproduction des documents autres que textuels, la facilité de diffusion et d’indexation donc de repérage ; pour les géographes : la possibilité de publier aisément des cartographies en couleur, de mettre en ligne des extraits de système d’information géographique ou de faire fonctionner en ligne (via le JAVA) les exemples de modélisation et simulation évoqués par un article. Également pour l’un d’eux, chercheur en droit, des facilités d’archivages. « Je n’ai plus à conserver des tonnes de papiers, nous confie-t-il, l’accès aux bases jurisprudentielles ou mêmes des documents officiels me simplifie énormément le travail (et la place). Je communique plus facilement avec mes doctorants et les chercheurs de ma discipline. »

Nous nous sommes intéressés à l’un des acteurs principaux de la vie de la revue électronique en SHS : le chercheur, qui est à la fois lecteur et auteur des articles publiés. Nous allons maintenant nous pencher sur le cas de l’autre maillon important de la chaîne, les diffuseurs de cette production, c’est-à-dire les éditeurs.

2.2. L’édition traditionnelle

2.2.1 La disparition de l’éditeur ?

Le développement des revues électroniques sur Internet implique-t-il la disparition des intermédiaires entre producteurs d’informations et utilisateurs ?

Certes, l’élimination du papier détruit l’ancienne relation qui faisait de l’éditeur un imprimeur et un diffuseur des documents sélectionnés. Internet laisse entrevoir la possibilité de créer un système de communication conçu par des chercheurs pour des chercheurs. La médiation des éditeurs est contournée et les chercheurs se réapproprient la responsabilité de la chaîne de production, diffusion et conservation.

2.2.2 – Contraction de la chaîne éditoriale

Entre l’auteur de la revue SHS imprimée et le lecteur, il y a actuellement au moins deux intermédiaires

  • Auteur de l’article -> éditeur -> agence d’abonnement -> (bibliothèque) -> lecteur

Maintenant, imaginons que cet article soit mis en ligne sur Internet directement par l’auteur ; la chaîne se réduit à sa plus simple expression :

  • Auteur -> lecteur

Il faut reconnaître que la réalité est un peu plus complexe. Car dans l’océan d’informations qu’est Internet, il est difficile d’isoler la revue pertinente. On obtient donc la chaîne suivante :

  • Auteur -> base de données / bibliothèques virtuelles / portails -> lecteur

L’éditeur serait donc mis hors jeu par le développement de ce type de pratiques éditoriales ?

2.2.3 – La valeur ajoutée de l’éditeur

La méconnaissance du rôle de l’éditeur tend souvent à en sous-estimer l’importance : il ne faut pas s’arrêter en surface mais voir quels services un éditeur peut proposer aux producteurs et aux lecteurs des revues électroniques en ligne sur Internet. En effet, l’approbation d’un article par un éditeur est un gage de sérieux et la garantie de profiter des qualités de prestations offertes. L’éditeur collecte, authentifie, structure et formate les informations. Alors que les coûts de production sont inférieurs à l’édition « traditionnelle », le prix des abonnements électroniques est sensiblement le même qu’un abonnement à la version papier. C’est pourquoi l’éditeur propose une valeur ajoutée via la qualité du contenu et du contenant.

2.2.4 – Les rôles conventionnels de l’éditeur

Essayons tout d’abord de cerner les rôles conventionnels de l’éditeur :

  • L’éditeur évalue et sélectionne les manuscrits. Son comité de rédaction se tient garant de la qualité du contenu de la revue. C’est un gage de qualité.
  • L’éditeur traite le texte et le met en forme. Les informations sont structurées et formatées. La lecture, grâce à une mise en page élaborée, est plus confortable. La consultation plus aisée.
  • L’éditeur diffuse le document. Il en fait la promotion et la mise en marché. Il s’agit de toucher le plus grand nombre de lecteurs possible.
  • L’éditeur archive les articles électroniques. Il les stocke sur son serveur et cela lui permet de répondre plus tard à la demande du public pour des numéros anciens.
  • Certaines revues enfin sont certifiées. C’est-à-dire qu’en fonction du nombre d’exemplaires tirés et de leur qualité, et également au regard du facteur d’impact évalué par l’ISI, la revues peut jouir de la certification ou non.

S’il est évident que cette dernière étape n’est pas toujours respectées par les éditeurs SHS, on comprend dors et déjà, au vu de ces phases successives, que le rôle de l’éditeur ne se borne pas à la simple diffusion.

Or comme on va le voir maintenant, avec le support électronique naissent aussi de nouvelles possibilités éditoriales.

2.2.5 – Les rôles de l’éditeur enrichis par l’édition électroniqu

Quand il publie une revue électronique, l’éditeur se voit soudain impliqué dans l’exploitation des NTIC. Cela se traduit par le choix du format, l’indexation par mots clé, l’ajout de liens hypertextes, et éventuellement l’aménagement d’un espace de communication (forum, liste de diffusion…) et l’utilisation du multimédia (images, son, vidéo.) Le rôle de l’éditeur est d’offrir une stabilité et une qualité d’accès à la documentation. Il peut mettre en place un moteur de recherche, proposer à ses clients la diffusion sélective d’information. Mais il est également responsable de l’archivage. Il doit assurer la pérennité de l’information éditée. Les pages et les liens doivent être correctement mis à jour. Le client doit pouvoir rechercher parmi les archives de la revue. Le service doit pouvoir être accessible sur une longue période. Le format choisi doit alors être très stable.

On le comprend, la diffusion électronique est complexe. C’est un savoir-faire professionnel, qui demande rigueur et expertise, au même titre que l’édition traditionnelle imprimée.

2.2.6 – Un défi à relever

L’éditeur va au final participer à la création de nouveaux modèles de transmission de la connaissance. Ceux-ci sont basés entre autres sur une interaction accrue entre lecteur et auteur. Ceci est très stimulant pour l’éditeur. Comme on a pu le voir, les chercheurs regrettent la sous-utilisation actuelle des possibilités offertes par l’électronique. C’est là que va pouvoir se développer le futur rôle de l’éditeur. Au-delà du simple ajout de liens hypertextes, il pourra enrichir la revue en permettant l’indexation en texte intégral, l’inclusion de données actives, une plus grande interactivité via des forums de discussion, et bien entendu : l’utilisation du multimédia.

En effet, si tous ces atouts sont des moyens de promotion de la revue électronique que l’on met régulièrement en avant pour souligner les avantages de l’électronique par rapport à l’édition imprimée, il est frappant de voir que bien peu de revues électroniques proposent cette valeur ajoutée. Il y a là un paradoxe qu’il faudrait défaire. Les gros éditeurs, avec leurs moyens financiers plus importants que les sociétés savantes ou universitaires, ont là un rôle important à jouer : creuser le futur sillon de l’organisation et de la transmission de l’information électronique avec ses nombreuses et intéressantes possibilités. Pour que tout ce que l’on a cité ne reste pas du domaine de la virtualité.

Le travail d’édition, loin de disparaître avec l’arrivée des revues électroniques, se métamorphose et s’enrichit. Si elle relève le défi qui lui est proposé, elle pourra penser une revue électronique autre, qui exploitera réellement les moyens technologiques mis à sa disposition, et alors, la revue électronique connaîtra un développement massif dans le monde de la recherche en SHS. Bien entendu, même dans l’avenir, nous ne supposons pas que tout soit fait par l’éditeur. Mais même via la sous-traitance indispensable (appel à des sous-traitants comme Jouve, à des agrégateurs du type Ingenta ou à des organismes public comme Revues.org), l’éditeur a là un rôle capital à jouer, car il sera très certainement à la base de cette impulsion : l’appel au renouveau.

Des éditeurs commerciaux de revues ont pris le contrôle des publications dominantes et se sont installés dans une position oligopolistique. Imposant leurs revues, ils peuvent pratiquer des prix extravagants. Toutefois, cette force commerciale ne doit pas occulter la présence plus que significative des acteurs sans buts lucratifs : en particuliers les groupes universitaires et les sociétés savantes.

2.3. Les réponses non commerciales : l’open access

En réaction à l’augmentation des tarifs d’abonnement, des bibliothèques, des universités et des sociétés savantes ont décidé d’offrir à tous des accès à leurs revues moins coûteux voire gratuit [cf. annexe 1 : mail adressé à la liste de diffusion de l’ADBS : La lutte pour l’Open Access ]. Lorsque cet accès est gratuit, on parle d’open access, ou « d’archives ouvertes. » Sur Internet, les initiatives individuelles fleurissent. Des chercheurs passionnés, des spécialistes montent leur site Web et mettent leurs articles en ligne. Ces initiatives sont très nombreuses en SHS, mais également très peu reconnues. Par ailleurs, non soutenues par une institution, il arrive souvent qu’elles s’épuisent et disparaissent. Cependant, l’outil numérique est une véritable opportunité permettant de contourner les circuits de l’édition traditionnelle8.

2.3.1 – Les communautés savantes

Les éditeurs français de revues en Sciences Humaines et Sociales sont très souvent des sociétés savantes. Créées parfois depuis plus d’un siècle, elles se consacrent à un domaine d’érudition vaste ou extrêmement spécialisé. Bien souvent ces sociétés savantes ne publient qu’un seul titre, mais si on regroupe l’ensemble de leur production, on obtiendra un nombre considérable de revues éditées.

Les communautés savantes s’auto-organisent. Les sites des centres de recherche connaissent un essor fulgurant. Ils constituent sans nul doute la colonne vertébrale de la production numérique savante de demain. Ce type de développement des revues électroniques marque peut-être le retour des chercheurs comme acteurs dans l’organisation de la publication scientifique.

Cependant, ces structures s’étant fortement investies dans l’édition par tradition, la production est certes vivante mais très éclatée. Sa fragilité structurelle est préoccupante. En effet, ses principaux acteurs sont souvent des bénévoles et lorsque s’ajoutent des tâches supplémentaires d’enseignement, de direction de thèses, d’administration, l’investissement de chacun est diminué par manque de disponibilité.

Pour que leur production numérique puisse survivre au cœur de l’océan d’informations d’Internet, les chercheurs se regroupent parfois sur des sites d’archives ouvertes pour proposer au téléchargement leurs articles. On citera comme exemple, en matière de recherche en science de l’information, le groupement d’archives ouvertes Archivesic9

2.3.2 – Bibliothécaires et Presses universitaires

Il ne faut pas négliger l’importance des presses universitaires ou des services communs d’université (Grenoble, Toulouse le Mirail, la Sorbonne, etc.) des établissements publics d’éditeurs (l’EHESS) ou des filiales de ces établissements (les presses de sciences Po.) Mais si en France, ce type de presses est encore frileux dans ce qui touche au domaine de l’édition numérique, aux États-unis en particulier, les presses universitaires ont une importance considérable.

Toutefois, des efforts commencent à être faits sur le territoire français. Le projet Manum [51], dans le cadre du Programme « Campus numériques » a réuni pendant 19 mois plusieurs établissements d’enseignement supérieur (les Instituts d’Études Politiques de Grenoble et de Lyon, et l’Université de Marne-la-Vallée), différentes maisons d’éditions (les Éditions La Découverte, Armand Colin, Dalloz, Dunod, Klei-Larousse, les Presses de Sciences Po, la Documentation française et De Boeck Université) ainsi que deux laboratoires de recherches (le GRESI de l’Ecole Nationale Supérieur des Sciences de l’Information et des Bibliothèques, et le Lentic de l’Université de Liège.) L’objectif de ce projet : créer une bibliothèque virtuelle de ressources numériques en Sciences Humaines et Sociales à destination des étudiants. Une démarche importante dans la « croisade » du numérique et peut-être une avancée dans le développement des revues électroniques en Sciences Humaines et Sociales.

Les bibliothécaires participent également au développement des revues électroniques. L’initiative de numérisation des revues leur revient souvent. On citera pour les États-unis le cas JSTOR ; ce gros portail s’inscrit dans une politique de conservation patrimoniale. Son homologue français pourrait être Gallica. Gallica a été développé par la Bibliothèque Nationale de France. Cependant, à l’inverse de JSTOR, ses services sont gratuits, mais elle ne numérise que les ouvrages et revues tombés dans le domaine public. D’autres portails sont le produit du travail de bibliothécaires : les francophones Erudit et Revues.org.

2.3.3 – La difficile conciliation de la gratuité et des garanties de qualité

Les éditeurs doivent arriver à concilier une approche économique avec un système qui repose sur l’échange gratuit, en accord avec la logique Internet. A côté d’eux, en effet, se développe une logique d’auto-édition sur Internet. Phénomène accentué par les pratiques de mutualisation des connaissances qui conduisent des groupes d’enseignants à mettre en commun leurs savoir-faire en vue d’une utilisation adaptée à l’usage en classe. Les éditeurs traditionnels se verraient-ils exclus de cette logique au profit d’une production élaborée par des centres de recherche ou par voie associative via l’auto-publication ? Un article publié par un éditeur traditionnel bénéficie de son rayonnement et est en général un gage de qualité. Mais les incertitudes sur la viabilité de l’Internet marchand ont pour effet de paralyser la prise de risques. De part et d’autres règnent des incertitudes.

Les initiatives de publications électroniques à but non lucratif sont très nombreuses en SHS. Et pour cause, c’est un domaine qui ne représente pas de véritable enjeu commercial et ne relève pas de communautés scientifiques très structurées. Mais il faudrait maintenant tenter d’avoir une vue plus précise sur le marché, en dresser l’état des lieux, comprendre comment s’organise l’offre, pour pouvoir enfin cerner la réalité de la revue électronique en SHS.


CHAPITRE 3 : L’offre éditoriale en matière de revues électroniques en SHS : état des lieux.

3.1. Quelles sont aujourd’hui les revues électroniques publiées en SHS ?

Pour cette partie, je me suis appuyée sur les données extraites de la base de données E-revuesSHS que j’ai pu développer lors de mon stage à l’INIST-CNRS. Cet outil permet d’avoir une vue globale sur la réalité de l’offre éditoriale en matière de revues électroniques SHS disponibles via Internet. Bien sûr la base que j’ai pu construire est datée. Il faut garder à l’esprit que les résultats présentés ici datent d’août 2003 et que cette réalité va très vite évoluer dans les mois à venir. Toutefois, à l’heure actuelle, E-revuesSHS nous fournit des moyens pour connaître la réalité des revues électroniques SHS disponibles via Internet. Elle ne prétend pas offrir une vision exhaustive. En effet, faute de temps, nous avons limités nos recherches aux domaines suivants :

– anthropologie,

– préhistoire,

– archéologie,

– histoire ancienne,

– histoire médiévale,

– histoire moderne,

– arts,

– linguistique,

– littérature,

– philosophie,

– droit,

– sociologie,

– sciences des religions,

– ethnologie,

– géographie.

Et n’avons pu traiter les disciplines :

– sciences politiques,

– sciences de l’information

– sciences de l’éducation,

– psychologie,

– économie,

– gestion,

– épistémologie.

Cet outil devait nous permettre de recenser mais aussi d’analyser les revues électroniques afin de les comprendre, ou du moins de tenter d’approcher le plus possible leur essence et de les cerner. Pour cela, nous avons structurés notre base de données en de nombreux champs :

– Titre

– Editeur

– ISSN papier (si disponible)

– ISSN électronique (si disponible)

– Accès (gratuit, payant ou gratuit si abonnement à la version papier)

– URL

– Domaine / discipline (ex : géographie)

– Equivalent en section CNRS (ex : 33)

– Présence éventuelle sur un portail (ex : Project Muse, JSTOR, INGENTA…)

– Langue des articles

Si l’on s’étonne de l’aspect peu conventionnel de certaines données (entre autres, le champs « type d’accès), il faut savoir que ces champs ont été choisi en commun accord avec les membres de l’équipe de l’INIST pour lesquels je développais ce prototype de base de données. Nous avons retenu les critères qui correspondaient à leurs attentes respectives. La base n’obéit donc à aucune norme établie mais répond aux besoins internes de l’INIST ainsi qu’à l’usage futur qui en sera fait dans BiblioSHS, la base de données étant destinée à être intégrée à ce portail, disponible en ligne via le site Web de l’INIST (http://www.inist.fr).

Concrètement la base se présente sous la forme d’un site Internet en HTML.

L’étude de ces données extraites de E-revuesSHS (plus de 1600 revues recensées) nous a donc permis de dresser le panorama statistique suivant :

3.1.1- Éditeurs commerciaux, sociétés savantes et presses universitaires se disputent le marché

Les presses universitaires rassemblent surtout les productions des universités américaines, très actives dans le domaine de la publication d’articles électroniques en SHS. C’est une part de marché importante de 34 %.

Les sociétés savantes englobent une très large population : les associations, les chercheurs isolés ainsi que les sociétés spécialisées dans l’étude d’un domaine. Quelques exemples de ces différentes catégories : l’association des ruralistes français qui publie leur revue « Ruralia », le Centre d’études et de recherches comparatives en ethnologie qui publie « Ethnologies comparées », ou encore Michelle Ziegler et sa revue « Heroic age: A Journal of early medieval Northwestern Europe. » Ce groupe rassemblant des populations nombreuses et variées explique peut-être le très gros 60 % de parts de marché. Cependant, les éditeurs commerciaux sont très loin d’arriver en tête : pourquoi ?

En fait, les sociétés savantes la plupart du temps ne publient qu’une seule revue. Elles sont très nombreuses mais n’ont pas un catalogue de revues important. Il en va de même – dans une moindre mesure toutefois – pour les revues publiées aux presses universitaires. Il s’agit souvent de revues gratuites, à périodicité variable. Par contre, les éditeurs commerciaux traditionnels sont peu nombreux mais possèdent un catalogue très important. C’est ce qu’illustre le prochain schéma.

3.1.2 – Répartition par nombre de revues publiées : l’écrasante domination des « poids lourds » de l’édition

La publication d’une revue isolée est le fait des chercheurs à titre individuel, et des sociétés savantes. Ce foisonnement de petits éditeurs publiant peu est caractéristique du secteur des SHS.

Comme on peut le constater également, Les éditeurs petits à moyens (2 à 5 revues publiées) sont quand même assez nombreux. Ici se cumulent les productions des sociétés savantes et des universités.

La plupart du temps, les éditeurs publiant entre 10 et 20 revues sont de grandes universités américaines.

Quand on arrive à plus de 20 revues publiés, il s’agit généralement d’éditeurs commerciaux ou de presses universitaires très actives dont la production est payante.

Pour la catégorie publiant entre 20 et 50 revues, nous avons recensé Duke University Press (24 revues recensées dans E-revuesSHS), Routledge (31 revues), John Hopkins University Press (34 revues), Oxford University Press (39 revues), Cambridge University Press (42 revues) et Taylor and Francis (49 revues.) On notera ici la présence de très gros éditeurs universitaires. Cependant, leurs publications ne sont jamais gratuites et elles s’inscrivent clairement dans une visée commerciale, comme le sont Les Presses Universitaires de France par exemple.

Enfin les leaders du secteur sont Elsevier (61 revues), Carfax Publishing (64 revues), Sage Publications (76 revues) Kluwer Academic Publishers (81 revues) et Blackwell Publishing (88 revues.)

3.1.3- Répartition par domaines

Il est intéressant de connaître les disciplines SHS qui s’ouvrent à la publication électronique ainsi que celles qui restent plus réticentes. Si la sociologie arrive largement en tête, c’est parce que, dans le cadre de l’interdisciplinarité des revues SHS, de nombreuses revues abordent des thèmes sociologiques. Par ailleurs de nombreuses revues touchant aux sciences politiques sont souvent classées en sociologie, ce qui gonfle son potentiel.

On notera toutefois les belles performances de l’histoire moderne, des sciences des religions, de la géographie et de l’ethnologie. Les arts auraient à tirer plus partie des possibilités que peut lui offrir l’édition électronique notamment en terme de multimédia.

Les matières très littéraires comme la linguistique, la littérature et la philosophie obtiennent des scores moyens. Cela s’explique peut-être par le fait que dans ces domaines plus que dans les autres – et surtout en littérature – , les chercheurs sont attachés à la signification et à la valeur historique du papier. Peut-être la dynamique sera-t-elle plus longue à se mettre en route dans ces domaines aux réticences encore sensibles.

Pour les maigres résultats de l’anthropologie, de la paléontologie, de l’archéologie, de l’histoire ancienne et médiévale, cela s’explique peut-être par le nombre moins important de revues publiées – que ce soit imprimées ou électroniques – par rapport aux secteurs plus importants en terme de taille et de nombre de chercheurs que sont l’histoire moderne, la sociologie, la philosophie, la littérature, la géographie, l’ethnologie…

3.1.4 – L’accès aux revues électroniques :accès libre ou restreint

Ce qui est à remarquer dans ce graphique c’est l’équilibre global des trois solutions. Encore une fois, cela nous prouve que les éditeurs commerciaux ne sont pas dans une situation d’écrasant monopole. Les sociétés savantes et les universités proposent en nombre des solutions non lucratives. L’open access dans les disciplines SHS est un succès. Enfin on notera également l’essor du couplage version papier / version électronique. Cela ressemble furieusement à de la vente forcée, mais c’est la solution qu’ont trouvé les éditeurs et producteurs pour familiariser le lecteur avec le support électronique. Petit à petit devrait s’opérer un glissement vers l’électronique « pur. »

3.1.5 – Les langues des revues électroniques en SHS

De fait, l’anglais domine. Etant une langue internationale, même les revues publiées en France ou en Allemagne par exemple émettent également des articles en anglais. Les 83 % ne sont pas forcément des revues conçues sur le territoire anglais ou américain. Elles peuvent être russes, hollandaises ou espagnoles par exemple. Bien entendu, il ne faut pas nier que cela reflète également la domination anglaise et américaine dans le secteur de la publication de revues électroniques en SHS. Les universités américaines à elles seules représentent 1/3 du marché potentiel. La France est en retard et ceci explique le score impressionnant des revues aux articles anglophones existant sur le marché et la mince proportion d’articles francophones.

3.2. Un article dans un océan d’informations

3.2.1 – Internet : un réservoir intéressant, mais difficile à exploiter

Dans l’idéal, tout le monde peut accéder à l’information qu’il souhaite en se connectant simplement au réseau. Mais dans une masse d’informations qui ne cesse de croître, le bruit devient de plus en plus handicapant : les informations pertinentes se trouvent noyées voire perdues dans un océan de données plus ou moins intéressantes. Internet est sans nul doute un réservoir d’information énorme. Mais les articles des revues électroniques qui y paraissent sont à la fois dévoilées et cachées par la mise en ligne. Eclatées et foisonnantes, les ressources seraient à réorganiser de façon globale. De la difficulté d’embrasser le paysage actuel est née une idée, et par la suite un moyen : la création de bases de données recensant les périodiques électroniques éparpillés sur Internet.

3.2.2 – Dompter le flux anarchique : la base de données E-revuesSHS

Pourquoi avons-nous été amené à créer la base de données E-revuesSHS ?

E-revuesSHS a entre autres pour vocation de remédier à l’éparpillement des revues électroniques en SHS sur Internet. Fédérateur, ce projet doit aussi valoriser ce type de production et permettre au chercheur un meilleur repérage. La base de données livre toute sorte d’informations électroniques à l’usager. Dans le cas E-revuesSHS, on a choisi de fournir le titre de la revue, son éditeur, son ISSN électronique s’il est connu, son ISSN papier s’il existe, son support (la revue est-elle exclusivement électronique ou mixte ?) son accès (payant ? gratuit ? gratuit si on est abonné à la version papier ?), sa présence éventuelle sur un portail, sa langue. On s’est servi pour constituer cette base des répertoires et catalogues virtuels existants et en particulier de l’EZB10. Ulrichsweb11 qui propose des services de recherche des revues électroniques en texte intégral via Internet nous a déçu, renvoyant à des résultats erronés. Pour E-revuesSHS, toutes les ressources ont été triées, sélectionnées et contrôlées. Pour chaque titre, on propose des contacts et des liens vers d’autres sites : le site de la revue ou le portail où elle est disponible. [cf. annexe 2 : Cahier des charges pour la création d’une base de données : E-revues SHS]

En plus des répertoires virtuels, il existe de nombreux serveurs de revues dispersés sur Internet. En particulier ceux des grandes universités américaines qui intègrent les articles de leurs publications scientifiques.

3.2.3 – Agréger une offre dispersée

Dans cette logique d’agrégation des titres, mais aussi pour permettre de vendre leurs revues plus facilement, des portails, des bases de données et des catalogues regroupant de nombreux titres de périodiques en SHS ont été mis en place. Nous allons dresser un panorama de l’offre actuelle.

3.2.3.1 – Elsevier

Par le biais de ScienceDirect, Elsevier se place comme un acteur majeur du domaine au niveau international. Surtout connu pour ses titres en STM (c’est la plus grande base d’articles en texte intégral dans ce domaine) Elsevier propose aussi des articles de revues en SHS. C’est par une croissance massive et une politique de fusion-acquisition qu’Elsevier a acquis cette puissance sur le marché. Elle propose des services spécialisés afin de fidéliser sa clientèle. Elsevier cherche à atteindre une position de monopole et c’est pour cela qu’elle ne cesse d’enrichir sa collection afin de proposer l’offre la plus complète possible et devenir ainsi un acteur incontournable du marché. Avec son catalogue d’une taille conséquente, sa position à l’international, la qualité de ses services, Elsevier retient l’attention. Seulement, la part des SHS dans l’offre, si elle tend à se développer reste faible. Elsevier a des concurrents.

3.2.3.2 – Ingenta

Ingenta est sans nul doute l’un des concurrents principaux d’Elsevier. Lors de l’élaboration de E-revuesSHS, on a pu constater que de nombreuses revues étaient disponibles via son portail. Avec près de 15 millions d’articles, dont 5400 en texte intégral, il s’agit d’abord d’une base de données de tables de matières. Elle compte plus de 327 000 périodiques en langue anglaise dans tous les domaines. Elle fait de la fourniture de documents. Les périodiques électroniques en SHS y sont nombreux.

3.2.3.3 – Swets/Blackwell

Swets/Blackwell pourrait concurrencer Elsevier, mais il s’agit là d’une logique différente. Blackwell Publishing a édité de nombreuses revues électroniques en SHS. Il n’existe pas de banque de données, mais plutôt un catalogue commercial destiné aux futurs clients désirant passer par l’intermédiaire de ce colossal gestionnaire d’abonnement. Ce catalogue, Swetswise, propose près de 7500 revues, éditées par 260 éditeurs. Puissant financièrement, il s’agit de l’agence d’abonnement la plus importante à l’heure actuelle.

3.2.3.4 – Erudit

Erudit est un portail francophone qui se distingue. Il permet aux revues savantes de s’aventurer sur le terrain de l’électronique. Via une interface claire et bien pensée, Erudit accueille les revues universitaires sans distinction d’éditeur ou de pays d’origine. Le nombre de titres est encore relativement faible, une quarantaine seulement. Elle rassemble un large éventail de disciplines parmi les Sciences Humaines et Sociales. Soutenu par le Fonds québécois de recherche sur la société et la culture, des articles récents paraissent régulièrement et les articles des numéros antérieurs font l’objet d’une numérisation rétrospective. Il faut se féliciter de l’existence de ce portail francophone pour les revues électroniques en SHS, sans doute le plus important à l’heure actuelle, et entièrement gratuit.

3.2.3.5 – Revues.org

C’est un autre portail et hébergeur de revues francophones en SHS. Cette association à but non lucratif souhaite remédier à l’éparpillement des ressources en revues SHS sur Internet. Faute de moyens pour soutenir ce projet français, le catalogue est de petite taille : seulement 18 revues mises en ligne. Elle regroupe des partenaires dans les universités de Lyon, Grenoble, Saint-Etienne, Chambéry, Clermont Ferrand et Avignon.

3.2.3.6 – JSTOR

JSTOR est lancé en 1997 et financé par la fondation américaine Andrew W. Mellon. La mission fixée : construire une archive électronique exhaustive des collections anciennes de revues savantes fondamentales, dans les domaines SHS, économie et statistiques. Les numéros les plus anciens datent de 1838, les plus récents de 2000 environ. Très plébiscité par les chercheurs qui apprécient cette volonté de sauvegarde et de mise à disposition des fonds patrimoniaux, ce portail a été mis en place par les plus grandes bibliothèques de recherche des Etats-Unis. Le moving wall, c’est à dire la date de passage d’une revue dans le fond rétrospectif, oscille entre 2 et 7 ans.

3.2.3.7 – Muse

Muse est parfois le pendant de JSTOR. En effet, les revues que ne propose pas JSTOR du fait du moving wall sont parfois disponibles chez MUSE. Muse est un projet de la John Hopkins University initié en 1995. A sa création Muse regroupait 46 revues propres à John Hopkins. Aujourd’hui, il s’agit de l’un des plus gros éditeur numérique en SHS avec environ 225 titres. Ce sont essentiellement les revues d’autres presses universitaires américaines : Duke University Press, Indiana University Press, University of Hawaii Press, Pennsylvannia State University Press. Muse touche tous les domaines de la littérature et de la critique, les arts visuels et les spectacles, les études culturelles, les sciences politiques, etc. Il s’agit d’un projet majeur dans le domaine des SHS. Lors d’une recherche d’articles, on aura de grandes chances d’avoir à passer par Muse.

Comme on peut donc le constater un duopole domine le marché : il s’agit d’Elsevier et d’Ingenta. Disposant d’un impressionnant portefeuille de titres et d’une expérience certaine dans le domaine de l’édition numérique, font-ils de l’ombre aux « petits éditeurs » ?

On a vu que ces « petits » éditeurs étaient fort nombreux et occupaient une place importante sur le marché des revues électroniques en SHS. Cependant, il est plus avantageux pour eux d’intégrer un portail plus large, tel que Muse ou Erudit par exemple pour toucher un plus grand public. Elsevier et Ingenta ne se consacrant pas prioritairement aux SHS, il est loin d’être évident que le marché autonome se fera happer au niveau international par l’attraction de l’un ou l’autre pôle.


CONCLUSION

A travers cette étude, nous avons tenté de présenter un panorama aussi précis que possible de l’offre éditoriale en matière de revues électroniques appliqué à un secteur : les Sciences Humaines et Sociales. Nous avons pu observer la métamorphose progressive de la production de ce mode de diffusion émergent, de sa conservation et de son utilisation pratique. Considérant ces données, nous pensons pouvoir parler de bouleversement du secteur de l’information scientifique. C’est une lente révolution certes, et qui mettra du temps à s’ancrer dans les mœurs, mais déjà bien mise en place et qui évolue peu à peu, se déplaçant sur des terrains toujours plus vastes et variés, touchant à des disciplines jusqu’alors réticentes.

Pourquoi des termes aussi fort que « bouleversement », « révolution » ?

Premièrement, parce que les bibliothécaires, les chercheurs et les universitaires, en contestant le système d’édition traditionnel par la mise en ligne de leurs revues et le recours à l’auto-édition, ont remis en cause un schéma vieux de plusieurs siècles.

Deuxièmement parce que les revues électroniques, si elles peuvent aussi être le miroir de leur homologue papier quand elles se limitent à la simple numérisation de la version originale, tendent à réinventer la revue grâce aux nouvelles technologies. Si les possibilités du multimédia sont aujourd’hui encore sous-exploitées, on peut espérer que dans les années à venir, les revues électroniques deviendront un accès enrichis à l’information, regorgeant de moyens technologiques pour la rendre plus attrayante, plus vivante et pertinente, plus simple à trouver également via le développement de moteur de recherche full-text.

On le comprend, avec la revue électronique, il ne s’agit bien sûr pas de reproduire les modèles classiques de la revue imprimée mais d’inventer quelque chose de nouveau. C’est là que les éditeurs ont un rôle à jouer, s’ils ne veulent pas souffrir de la concurrence des revues alternatives sur l’Internet, publiées par les universités et les sociétés savantes. Grâce à leurs moyens et leur renom, ils sont en mesure de se lancer dans une grande aventure. S’ils proposent au public des expériences innovantes et enrichissantes, alors, en très peu de temps, le monde de la recherche en Sciences Humaines et Sociales jouira d’une avancée considérable, comme c’est déjà le cas dans le secteur des Sciences Techniques et Médicales.

De même, outre les éditeurs, bibliothécaires et documentalistes ont un rôle à jouer dans cette aventure. Pour que les chercheurs ne s’égarent pas dans le labyrinthe de l’information en ligne, il est nécessaire que quelqu’un accepte le rôle d’intermédiaire. Et c’est là une fonction capitale dans la chaîne de la production et de diffusion de l’information numérique. Bibliothécaires et documentalistes seront sans doute amenés à devenir les indispensables passerelles entre les auteurs et les lecteurs, ceux qui recenseront, indexeront les revues pour constituer les bases de données et les sites portails, autant de balises très utiles dans l’océan d’informations d’Internet.

Par ailleurs, il sera aussi de leur rôle de promouvoir le support électronique dans les milieux de la recherche en Sciences Humaines et Sociales. Car les réticences sont encore nombreuses et c’est leur tâche d’ouvrir des perspectives aux chercheurs via ce support, qui leur était encore inconnu jusqu’alors.

Les revues électroniques sont encore jeunes et d’autant plus en Sciences Humaines et Sociales : c’est un phénomène très récent. Il y a encore beaucoup de travail pour que ce type de publication soit reconnu à sa juste valeur. Il reste de nombreuses zones d’ombre à éclaircir, comme la question du flou juridique ou les problèmes d’archivage. Ce sera une lutte de tous les instants pour leur garantir reconnaissance et prestige. Elles auront encore à vivre pour bien des années dans l’ombre vaste et intimidante de leurs aînées, les revues dites traditionnelles.

Cependant, il faut tempérer le pessimisme ambiant quant au difficile développement de ce nouveau mode de diffusion en SHS. Des points qui posaient de grands problèmes il y a encore quelques années sont aujourd’hui en passe d’être réglés, comme l’accès démocratique au réseau. Internet s’est beaucoup banalisé. Le Haut débit se répand dans les familles. Dès lors, les chercheurs se tournent aujourd’hui d’autant plus volontiers vers la technologie qu’elle devient chaque jour plus accessible. Le réseau a vu naître de nouvelles formes de collaboration ; les façons de travailler évoluent avec ces nouveaux types d’échange. Capable désormais de rendre accessible au monde entier sa production, le chercheur en Sciences Humaines et Sociales se réapproprie en quelque sorte sa discipline.

Quelle sera l’avenir de la diffusion des connaissances en Sciences Humaines et Sociales ? On peut imaginer des bibliothèques virtuelles toujours plus vastes et performantes, centralisant un accès aux articles scientifiques de la production SHS : un réservoir gigantesque d’informations, à la portée de tous, rapidement et simplement, disponible en quelques clics. Peut-être les productions indépendantes continueront-elles à se diversifier ou alors un des poids lourd de l’édition actuelle prendra-t-il le dessus, instaurant une situation de monopole ?

Quoiqu’il en soit les professionnels de l’information devront rester attentifs à ce type de production car ils auront un rôle à jouer dans leur diffusion. Créant et administrant les espaces de recherche et de travail, organisant et mettant en forme l’information, l’indexant et la mettant à disposition, ils sont quoi qu’il arrive des médiateurs incontournables dans le développement des revues électroniques en ligne.


GLOSSAIRE

Ce glossaire a pour objectif de préciser le sens de quelques concepts très proches, dont la mauvaise compréhension pourrait prêter à confusion.

Bibliothèque virtuelle : souvent utilisé à tort, (l’EZB entre autres se revendique « bibliothèque virtuelle » alors qu’elle est davantage base de données), ce terme désigne en réalité une base de données informatique donnant accès au texte intégral des revues (ou des monographies par exemple) qu’elle recense.

Base de données : produit informatique cataloguant, organisant et hiérarchisant l’information (ici à propos des revues) mais sans donner accès dans le cadre strict de la base au texte intégral des revues (ou des monographies, etc.)

Portail : le portail, vaste site mis en ligne sur Internet, rassemble en son sein, via un accès unique, une myriade d’informations. Dans notre cas, notre base de données, E-revuesSHS, sera intégrée dans le portail BiblioSHS, qui propose à côté de cela, d’autres services aux chercheurs.


Bibliographie

Sommaire de la

BIBLIOGRAPHIE ANALYTIQUE

  • Définition des Sciences Humaines et Sociales
  • De l’imprimé vers l’électronique
  • Projets Internet pour revues savantes en Sciences Humaines et Sociales : Portails, bases de données …
  • Les revues savantes et le support électronique
  • Les revues en Sciences Humaines et Sociales et le support électronique
  • Étude d’un secteur : les revues électroniques en littérature

*Classement thématique, puis par ordre alphabétique de titre.*

*Bibliographie arrêtée le 30/09/2003*

Définition des SHS

Décrit les catégories retenues par l’INIST/CNRS pour constituer les champs de la base FRANCIS.

La définition des SHS par le département SHS du CNRS. Définition plus poussée mais également plus complexe que celle fournie par la base FRANCIS.

Les différents domaines de recherche divisés en sections par le Comité national de la recherche scientifique. Valables jusqu’en 2004. Les sous-thèmes englobés par les sections y sont détaillés.

De l’imprimé vers l’électronique :

  • (4) De l’imprimé vers l’électronique. Réflexions et solutions techniques pour une édition savante en transition / Vezina (Marie-Hélène), Sevigny (Martin). – In : Documentaliste – Sciences de l’information, Vol. 36, n°6, décembre 1999, p. 306 – 320.

Acteurs intermédiaires de la chaîne documentaire, éditeurs et bibliothécaires sont de plus en plus impliqués dans des projets de diffusion électronique de l’information : en même temps, ils doivent continuer à répondre à une forte demande de supports imprimés. Une manière d’assurer la coexistence de ces deux tendances consiste à produire les deux formes d’édition à partir d’un document source unique. Cet article étudie les avantages de cette approche et en présente une application dans le cadre d’un projet pilote d’édition électronique de revues savantes aux Presses Universitaires de Montréal.

• (5) Du codex à l’écran : les trajectoires de l’écrit / Roger Chartier. – in : Textualités et nouvelles technologies, Ec/arts, 2000

URL : http://www.ecarts.org/order/_doc.asp?id=78 [consulté juin 2003]

Article parcourant l’histoire du livre, du rouleaux jusqu’au livre électronique.

  • (6) Du papyrus à l’hypertexte : essai sur les mutations du texte et de la lecture / Christian Vanderdorpe. – Paris : La découverte, 1999

Mêmes objectifs que précédemment.

  • (7) De la page à l’écran. Réflexions et stratégies devant l’évolution de l’écrit sur les nouveaux supports de l’information / Dominique Autié. – Montreal : Editions Elaeis, 2000

Mêmes objectifs, visée historique remplacée par une analyse critique et stratégique de cette métamorphose.

  • (8) Print versus electronic journals : a preliminary investigation into the effect of journal format on research processes. / Sathe, Nila A.; Grady, Jenifer L.; Guise, Nunzia B.. – in : Journal Of The Medical Library Association. Vol. 90 N°2. April 2002 (p 235-243)

Afin de commencer à examiner l’impact de journaux électroniques sur les processus de recherche d’information, les auteurs ont réalisé une étude pilote pour évaluer comment les utilisateurs emploient les journaux imprimés et les journaux électroniques. Quinze titres imprimés très utilisés et également disponibles en format électronique ont été placés derrière le bureau de circulation. Puis on a demandé aux utilisateurs de compléter un questionnaire lorsqu’ils demandaient un journal. Une enquête auprès d’utilisateurs employant des ordinateurs de la bibliothèque a été conduite parallèlement. Dans les deux cas on demandait aux utilisateurs de s’identifier par catégorie d’utilisateur et leur mode d’utilisation du journal. Pendant le mois d’étude, 69 questionnaires sur l’usage de journaux électroniques et 90 sur l’usage de journaux imprimés ont été recueillis. Les résultats sont analysés. Cette étude est un premier pas pour comprendre comment les journaux électroniques affectent le processus de recherche. En plus des implications pour la gestion de collections en bibliothèques, ces données ont aussi une implication pour les éditeurs et les enseignants. En effet, les formats électroniques actuels ne facilitent pas tous les types d’utilisations et peuvent ainsi changer les modes d’apprentissage.

  • (9) Vers de nouveaux contrats de lecture / Claire Bélisle. – in : Communication présentée au colloque Espaces virtuels de lecture et d’écriture, 11-12 octobre 2001, Université d’Ottawa.

URL : http://www.ish-lyon.cnrs.fr/labo/LIRE/TrContratsLect.ppt

Document PowerPoint issu d’une présentation lors du colloque Espaces virtuels de lecture et d’écriture, les 11-12 octobre 2001, à l’Université d’Ottawa. Des concepts assez généraux présentant les dificultés que peut générer un document électronique, porteur de changements et destabilisant lors de l’établissement du pacte de lecture.

Projets Internet pour revues savantes en sciences humaines et sociales : Portails, bases de données …

  • (10) Archivesic [site Internet]

URL : http://archivesic.ccsd.cnrs.fr/ [consulté le 24/09/03]

Site d’archives ouvertes (open access) dans les sciences de l’information.

  • (11) A user-oriented evaluation of digital libraries : case study the « electronic journals » service of the library and information service of the University of Patras, Greece. / Monopoli, Maria; Nicholas, David; Georgiou, Panagiotis; Korfiati, Marina. – in : Aslib Proceedings. Vol. 54 N°2. 2002 (p 103-117)

Cet article fournit une évaluation de l’utilisation du journal électronique de la bibliothèque et du service d’information de l’Université de Patras, en Grèce. Cette évaluation recherche qui sont les utilisateurs de journaux électroniques, leur fréquence d’utilisation du service, leurs motifs, où sont leurs points d’accès et quels services et méthodes de recherche ils emploient. Les utilisateurs sont aussi invités à choisir entre un article de journal électronique et article de journal papier. Enfin l’article indique quelques facteurs qui découragent d’avoir accès à un service de journal électronique.

Site présentant les différents moteurs de recherches et portails spécialisés dans les revues électroniques. Décris en particulier JSTOR et INGENTA.

Base de données / répertoire allemande extrêmement intéressante et fournie. Traite entre autres les périodiques électroniques en SHS.

  • (14) Electronic shoes for the cobbler’s children : Treatment of digital journals in library and information science databases. / JACSÔ, Péter. – in : ONLINE. Vol.25 N°4. July/August 2001 (p.46-52)

Alors que des milliers de références dans les bases de données renvoient au thème des journaux électroniques, ce n’est que depuis peu, et seulement pour une faible partie d’entre elles, que ces bases contiennent le journal lui-même. Cet article propose une étude des bases donnant accès à des journaux paraissant uniquement sous forme électronique et accessibles gratuitement dans le domaine des sciences de l’information et des bibliothèques. Sur le 25 journaux électroniques répondant à ces critères, dix d’entre eux ayant la plus large couverture ont fait l’objet d’une étude dans six bases de données en LIS, à savoir : ERIC, INSPEC, ISA, LISA, Library Literature and Information Science, PAIS. Le contenu des références et les services en ligne sont ensuite évalués. En dehors du contenu même des articles, deux éléments annexes, mais sources d’information, sont très différemment traités suivants les bases ou les serveurs : les URL et les références et cela pour des raisons qui restent difficiles à préciser.

Le site officiel d’Erudit, portail vers quelques revues savantes en SHS.

  • (16)Exploring behavior of E-journal users in science and technology: Transation log analysis of Elsevier’s ScienceDirect OnSite in Taiwan / Ke, Hao-Ren; Kwakkelaar, Rolf; Tai, Yu-Min; Chen, Li-Chun. – in : Library Information Science Research. Vol 24 N° 3. 2002 (p.265-291)

Depuis l’entrée dans l’ère des bibliothèques numériques, les bases de données électroniques fonctionnant sur le Web sont devenues d’importantes ressources pour l’éducation et la recherche, apportant de nouvelles fonctionnalités et des facilités par rapport aux produits imprimés. L’analyse des usages d’un tel système est susceptible de produire des informations pertinentes sur le comportement des usagers et sur le système en général. Cet article analyse l’usage du ScienceDirect OnSite E-journal System situé à Taiwan, un des plus largement et intensivement utilisé pour l’accès en texte intégral aux bases de données mondiales de sciences et technologies médicales.

Le site officiel d’Ingenta, portail pour revues électroniques savantes.

Le site officiel de JSTOR, base de données donnant accès aux collections rétrospectives de titres de périodiques numérisés (plus de 300 titres) dans les domaines des arts et lettres, des sciences et des sciences humaines et sociales.

  • (19) La bibliothèque électronique : bibliothèque de demain ou d’aujourd’hui ? / Belbenoit-Avich, Pierre-Marie. – in : Bulletin des Bibliothèques de France. VOL38 N°6. 1993 (p.60-65)

Les temps viennent où la nature, la fonction, voire la raison d’être des bibliothèques vont être radicalement modifiées. Nos établissements deviendront, deviennent déjà des bibliothèques « virtuelles » ou électroniques. L’ensemble de l’information et de ses accès se dématérialise : ce qui aura d’énormes conséquences sur l’usager, sur notre travail et nos mentalités.

  • (20) La bibliothèque numérique patrimoniale : paradoxes, missions, typologie et évaluation / Dominique Arot. – Paris : Edition de l’ADBS, 2000.

Analyse les projets de bibliothèques virtuelles à volonté patrimoniale comme Gallica de la BNF.

  • (21) La bibliothèque virtuelle (dossier)/ Roumieux, O.. – in : Archimag. N° 111. Février 1998 – (p. 22-32)

La bibliothèque universelle est un fantasme très ancien. L’ordinateur, dès ses débuts, complété par les réseaux de télécommunication, ont fait revivre cette utopie. Les sites offrant des textes comme ceux de l’ABU (association de bibliophiles universels), ou encore Gallica de la BNF constituent un départ de ce que pourrait être la bibliothèque virtuelle. Mais beaucoup de problèmes se posent, et en premier lieu les formats très différents nécessitant des logiciels de lecture/écriture spécifiques. La création de documents électroniques utilisant les potentialités du multimédia et de l’interactivité constituent une innovation où le lecteur interagit. Comme dans toute bibliothèque, la recherche d’un document et les outils mis à la disposition des usagers constituent un problème : les annuaires proposés sur l’Internet représentent des «points d’accueil dans le cyberespace». Le troisième problème se pose avec le catalogage des ressources électroniques. Basé sur le concept de métadonnées, de nouveaux formats actuellement à l’étude devraient rapprocher les initiatives venant des acteurs de la documentation et de l’informatique. Mais comment va se développer la bibliothèque virtuelle ?

La Bibliothèque virtuelle de périodiques est un projet franco-québécois développé et mis à jour par une quinzaine de bibliothécaires et documentalistes. À ce jour, elle répertorie environ 500 revues et magazines électroniques offrant leur contenu sur Internet.

  • (23) Libre accès à l’information scientifique et technique : actualités, problématiques et perspectives [site Internet]

URL : http://www.inist.fr/oa/spip/ [consulté septembre 2003]

Réflexions sur le phénomène d’open access, observations des évolutions et mise en valeur des nouveautés.

Site officiel du Projet universitaire Muse. Accès à 167 périodiques électroniques en sciences humaines et sociales. Cette base de données de revues en ligne, gérée par les presses de l’Université Johns Hopkins en collaboration avec leurs éditeurs partenaires et la bibliothèque Millton S. Eisenhower, propose des revues savantes en texte intégral, interrogeables à l’aide d’une interface de recherche Web conviviale conçue pour faciliter la recherche et la lecture à l’écran.

  • (25) Navigating the Nexs Net: How News Consumers Read the Electronic Version of a Daily Newspaper / Williams, Peter; Nicholas, David. – in : Libri. Vol 51 N° 1. March 2001 (p. 08-16)

La littérature comporte beaucoup de discussions sur les particularités des journaux en ligne qui les distinguent de leur équivalent imprimé dont ils sont issus. En revanche, peu d’intérêt a été accordé au point de vue des lecteurs sur cette migration de l’imprimé sur un support électronique. Cet article décrit une expérience à petite échelle qui, à partir de l’observation d’utilisateurs interrogeant librement le site de The Times sur le web pour des objectifs précis, a analysé les problèmes de navigation, d’accès ou de recherche qu’ils ont rencontré. Les résultats montrent que la majorité des éléments hautement vantés de la «valeur ajoutée», tels que les services d’archives et de référence, n’étaient pas attendus ou particulièrement admirés par les lecteurs, qui exigeaient simplement un système de nouvelles totalement exhaustif. Les difficultés de navigation causées par une signalétique déficiente, des barres de menus multiples, des listes de contenus non structurés, une organisation et une mise en page compliquée constituent l’opinion première émise sur ce site, avant celle concernant le contenu proposé actuellement.

Site officiel du PNER. Le PNER a mis en place un Programme d’Actions Concertées de Recherche dans les domaines de la numérisation et de la production numérique.

Site proposant quelques titres de périodiques SHS en texte intégral électronique.

Base de données pour les périodiques. Permet entre autres une recherche sur les périodiques électroniques en SHS. Cependant décevante, car renvoie à des résultats erronés.

Les revues savantes et le support électronique :

  • (29) Bilan sur un mode de diffusion de l’information scientifique et technique : les journaux électroniques alternatifs via l’Internet / Gippet, Philippe. – Mémoire DESS INTD. 26-30. 1996 (50 p.)

Enquête, au travers d’entretiens et d’une étude de l’existant, sur les journaux scientifiques électroniques non-commerciaux via l’Internet. Est aussi analysée l’influence de ce type de média sur la diffusion de l’information scientifique et technique.

  • (30) Collection development in an electronic environment. 2- Are we there yet? Online E Resources ten years after/ / Okerson, Ann. – in : Library Trends. Vol. 48N°4. spring 2000 (p. 671-693)(30 ref.)

Cet article propose une analyse, année par année, des nouveaux journaux électroniques, des tendances de l’édition électronique et des développement technologiques pour les années 90. L’archivage, l’usage, l’utilité, l’accès et le copyright sont identifiés comme étant les problèmes majeurs. Pour l’auteur, entre 2000 et 2005 tous les périodiques scientifiques importants seront sur le Web, des services d’indexation et de résumé serviront de passerelles vers le contenu des journaux, et les consortium grandiront en puissance. Ce futur, cependant, ne devrait être ni catastrophique ni utopique mais simplement un peu plus embrouillé et un peu moins simple.

  • (31) Des documents numériques en ligne pour l’enseignement et la recherche: Le programme Numérisation pour l’enseignement et a recherche / Comberousse (Martine). – in : Documentaliste – Sciences de l’information, Vol. 36, n°6, décembre 1999, p. 345 – 349.

Article abordant le projet PNER en présentant le programme, les études d’usages, la position des différents acteurs, notamment les éditeurs, et les contextes juridique et économique du dispositif à mettre en place

  • (32) E-serials : publishers, libraries, users, and standards / Wayne Jones, ed. – New York ; London : The Haworth press, 1998. – XVI-363 p. ; 21 cm ISBN 0-7890-0514-X

Deux articles viennent développer le thème principal de ce numéro. Le premier étudie les différents critères à prendre en compte dans le choix de la base donnant accès aux journaux électroniques : notamment le mode d’accès, le coût, les liens possibles et la fourniture du document. Les principaux moyens d’accès aux journaux électroniques sont : les bases de données ; les agrégations de service (comme SwetsNet); les services en ligne et le Web. Les prix d’abonnement à la version électronique d’un journal sont extrêmement variables. Le second article présente le UK serials group, fondé en 1978. Il regroupe les éditeurs, les agences d’abonnement et les bibliothécaires responsables des abonnements. L’arrivée du journal électronique a quelque peu modifié le fonctionnement du groupe. Actuellement ce sont les communautés universitaires et le groupes pharmaceutiques qui sont les plus actifs sur ce front. La majorité des périodiques électroniques sont simplement une réplique de la version imprimée, mais de nouveaux produits apparaissent et les possibilités qui s’ouvrent excitent beaucoup de gens : publication plus rapide, interactivité, lien des citations avec le texte intégral, etc… L’E-journal éliminera sans doute la version imprimée : à court terme dans le domaine de pointe, à long terme dans d’autres domaines.

  • (33) La documentation en ligne. Pré-séminaire de Nancy. 26 mai 2000. in : Bulletin D’informations De L’ABF. N° 188. 3ème trimestre 2000 ( p. 81-106)

Dans le cadre de son congrès annuel de Metz, l’ABF avait organisé deux pré-séminaire : celui qui s’est tenu à Nancy avait pour thème : la documentation scientifique électronique en ligne. La première partie a été consacré à l’état du droit en la matière, avec trois interventions : Droit d’auteur et documentation électronique (A MARTER); l’état du droit : la perspective des bibliothèques (F J FRIEND). ; les périodiques électroniques en ligne : l’offre éditoriale (S JEROME). La seconde partie s’est intéressée aux pratiques des usagers, à travers : un exemple de consortium pour la fourniture électronique des documents : Couperin, à Strasbourg (I REIBEL); l’offre électronique du CNRS (F ANDRE); les technologies de l’information : quels changements dans les services de l’université (B VAN DOOREN). Une table ronde a de plus débattu de l’édition électronique.

  • (34) La gestion quotidienne des périodiques électroniques. / Bawin, Marc-Henri; Mottet, Philippe. – in : Cahiers De La Documentation. Vol 53 N° 1. 1999 (26-39)

L’apparition d’Internet et sa facilité à diffuser l’information de façon électronique ont sensiblement modifié le monde de l’édition et particulièrement le domaine des journaux scientifiques. Cet article analyse tout d’abord les divers aspects de l’accès aux revues électroniques : avantages et inconvénients des journaux électroniques ; informations disponibles sur le Web : types d’informations, accès aux sites ; modalités d’accès : restrictions par adresses IP ou par mot de passe. Il étudie ensuite les formats de lecture en distinguant les documents prêts pour une publication en format électronique quelconque versus les documents déjà publiés sous forme papier (formats GIF, JPEG, PGN)et les documents textes : fichiers textes ASCI simple, fichiers dans un langage de balisage (SGML, HTML, XML), fichiers traitement de texte, fichiers PostScript et parents, fichiers PDF et RealPage.

  • (35) Le nouveau monde numérique : le cas des revues universitaires / Guylaine Beaudry et Gérard Boismenu. – Paris : la Découverte, 2002. – 178 p. : graph. ; 24 cm ISBN 2-7071-3893-2

Sur le développement foudroyant des revues électroniques issues des presses universitaires.

  • (36) Le numérique au secours du papier. L’avenir de l’information scientifique des historiens à l’heure des réseaux [en ligne] / Dacos (Marin). – in : Cahiers d’histoire, n° 1, 1er trimestre 1999 URL : http://www.revues.org/cahiers-histoire/1-1999/02-1-1999.html [consulté juin 2003]

Pour répondre aux nouvelles conditions économiques et scientifiques de l’édition, la communauté des historiens ne peut plus ignorer la publication électronique. Internet n’est pas seulement capable de soulager l’édition classique des secteurs les moins rentables de la recherche historique : le  » réseau des réseaux  » peut fonder une République mondiale des Lettres qui n’est, pour l’instant, qu’une utopie. Disposant d’atouts inédits, épaulée par le courrier électronique comme nouvel outil de débat scientifique international, l’édition électronique ne doit plus être considérée comme un gadget pour médias en mal de sensationnel. Elle tend au contraire à s’affirmer comme un outil majeur dont la maîtrise dictera une nouvelle géographie scientifique au sein de laquelle l’histoire francophone n’occupe pas une position centrale au début de l’année 1999. Après avoir tenté de démontrer les atouts scientifiques d’Internet et de répondre à ses nombreux détracteurs, cet article dresse le bilan de la présence des historiens sur le Web et propose une rapide initiation aux trois principales utilisations du réseau (navigation, listes, publication).

  • (37) Les journaux électroniques sur l’Internet / Pineau, Laetitia. – Mémoire INTD. N°24-45. 1994

L’Internet représente une révolution dans l’édition des périodiques. Les avantages et les inconvénients des journaux électroniques sur l’Internet sont illustrés par les exemples concrets de PACS REVIEW, AJCCT et le projet TULIP.

  • (38) Les journaux scientifiques sont menacés par la concurrence d’Internet / Butler (Declan), Fleaux (Rachel). – in : Le Monde, vendredi 22 janvier 1999. p. 21.

Mince article sur la mise en parallèle des revues traditionnelles et de leurs concurrentes : les revues émergentes, électroniques, disponibles via Internet.

Portail assez intéressant renvoyant à la fois sur les sites des éditeurs et sur les différents portails, bases de données et bibliothèque virtuelles.

Page Web présentant globalement les périodiques électroniques. Renvoie entre autres sur les études de l’URFIST.

  • (41) Publications électroniques et revues savantes : acteurs, rôles et réseaux. / Boismenu (Gérard), Beaudry (Guylaine). – in : Documentaliste-Sciences de l’Information. Vol. 36 , n° 6, nov.-déc. 1999, p. 292-305.

Article extrêmement intéressant présentant entre autres la structure économique du secteur des périodiques électroniques à travers l’étude des éditeurs de revues dominantes, le coût des abonnements, la fréquence d’utilisation et d’impact. Aborde aussi la valeur ajoutée de l’électronique pour l’imprimé et la problématique des réseaux.

  • (42) The new age of the book [en ligne] / Darton (Robert). – in : New York Review of books, 18 mars 1999.

URL : http://www.nybooks.com/nyrev/WWWarchdisplay.cgi?19990318005F [consulté juin 2003]

Davantage sur le livre électronique.

Les Sciences Humaines et Sociales et le support électronique :

  • (43) Etude économique et juridique d’un portail pour les revues françaises en sciences humaines et sociales / Jean-Michel Salaün, Alain Marter, Benoît Epron, Stéphane Béllina. – Institut des Sciences du Document Numérique, Novembre 2001.

Un des documents de référence. Décrit les différents projets pour la diffusion de revues électroniques en SHS : Muse, JSTOR, Ingenta… Egalement la dimension politique et juridique d’un tel projet.

  • (44) Etude prospective : Les revues numériques francophones en sciences humaines et sociales. Dossier Urfist-Paris, réalisé par Claire Lepeutrec sous la direction de G. Chartron Juin 2000 [site Internet]

URL : http://www.ccr.jussieu.fr/urfist/revueshs/som.htm [consulté juin 2003]

L’état des lieux de la situation des revues électroniques en SHS. L’étude des différents portails et bases de données. L’étude d’un secteur : la géographie.

  • (45) Evolution, révolution et contre-révolution : les publications numériques en SHS / JC Guédon. – in : Conférence à l’Ecole Nationale des Chartres, juin 2000
  • (46) La toile fait-elle autorité ? / Sylvain Rheault. – in : Surface, dossier « Humanités et informatique, qui a les commandes ? », vol.8, 1999.
  • (47) L’édition scientifique face à Internet « bibliothèque numérique » / Chartron. – in : cours INRIA, 9-13 octobre 2000, « L’édition de recherche en Sciences humaines et Sociales face à Internet. »

Quelques points abordés :

Les éléments majeurs de la crise éditoriale en SHS

La complémentarité du papier et de l’électronique

Les éditeurs face à l’Internet.

  • (48) Les chercheurs et la documentation numérique / Chartron. – Paris : éd. Du Cercle de la Librairie, 2003. – p. 35 à 37 : « développement en sciences humaines et sociales » et p.221 – 227, chapitre 7 : « l’émergence des études littéraires françaises sur Internet : une dynamique sans retour. »

Des informations très intéressantes sur l’attitude des chercheurs en sciences humaines et sociales face à l’édition numérique et une étude appliquée à un secteur particulier : les lettres.

  • (49) Les sciences humaines tuées Net ? / Garcia (Daniel). – In : Livres hebdo, n° 331, 02 avril 1999. p.6-9.

Court article ayant l’intérêt d’aborder le secteur des Sciences Humaines et de l’Internet.

  • (50) « L’open source dans les sciences humaines : modèles ouverts de recherche et de publication sur Internet », 21 et 22 janvier 2002 et autres études [site Internet]

URL : http://www1.mshparis.fr:8099/html/activduprog/ZeEtudes/index_Tri.asp?ID=Usage [consulté juin 2003]

Nombreuses études sur ce site.

  • (51) Projet expérimental de bibliothèque numérique pour les étudiants en sciences humaines et sociales / Marc MINON. Rapport d’activité – mai 2003

Ce rapport d’activité présente un projet concret de développement de bibliothèque virtuelle à destination d’un public étudiant, dans les domaines SHS.

• (52) Textes, corpus littéraires et nouveaux médias électroniques : quelques notes pour une histoire élargie de la littérature / Christian Allègre. – in : Etudes françaises, 36/2/200, p.59-85

Les revues électroniques littéraires

Lancé début 1999, le site Fabula se veut un lieu de ressources et de rencontre destiné aux chercheurs visant à la diffusion de l’information scientifique et de la connaissances en matière de théorie et de poétique littéraires.

Groupes diffusant des articles en texte intégral sur les lettres (54) :

http://groupugo.div.jussieu.fr

http://www.c18.org

http://www.cavi.univ-paris3.fr/phalese/hubert1.htm

http://www.lettres.net

http://www.u-grenoble3.fr/montesquieu

http://www.univ-rouen.fr/flaubert/

http://www.voltaire.ox.ac.uk


Annexes

SOMMAIRE DES ANNEXES

Annexe 1 : La lutte pour l’Open Access : Mail adressé à la liste de diffusion de l’ADBS le 01 septembre 2003

Annexe 2 : Cahier des charges pour la création d’une base de données : E-revues SHS, base de données des périodiques électroniques en Sciences humaines et sociales (Proposition faite par Aurélie Wellenstein, INTD)

Annexe 3 : Panorama de l’offre éditoriale en matière de revues électroniques en SHS (Tiré de E-RevuesSHS)

Annexe 4 : Une idée graphique des acteurs du marché des revues électroniques en ligne en SHS : Capture d’écrans

Annexe 5 : Questionnaire distribué par mail à 102 chercheurs SHS des universités Paris I et Paris X.

Annexe 6 : Statistiques extraites de la base de données E-revuesSHS


Annexe 1 : La lutte pour l’Open Access : Mail adressé à la liste de diffusion de l’ADBS le 01 septembre 2003

SOURCE DE L’INFORMATION : CORDIS-RAPIDUS

CORDIS Database: NOUVELLES

Nouveaux magazines scientifiques pour promouvoir la diffusion gratuite des connaissances

Numéro de contrôle d’enregistrement : 20697

Date: 2003-08-11

Catégorie : Divers

Information générale : Une association de chercheurs mécontents des coûts d’abonnement aux magazines scientifiques a décidé de fonder une « bibliothèque publique des sciences », qui consiste en une nouvelle série de publications en ligne accessibles gratuitement à tous.

Lorsque les scientifiques soumettent les résultats de leurs recherches à l’examen de leurs confrères, les principaux critères que la plupart prennent en considération pour le choix d’une publication sont sa réputation et son tirage. Récemment, un groupe de chercheurs dirigé par Harold Varmus, l’ancien Directeur de l’institut national de la santé des Etats-Unis, s’est toutefois inquiété de l’effet d’un prix d’abonnement élevé pour la diffusion des connaissances.

Il y a plusieurs années, M. Varmus avait adressé aux éditeurs des principaux magazines scientifiques une lettre signée par quelque 30.000chercheurs afin de les appeler à mettre en ligne gratuitement leurs articles de recherche archivés. Le groupe souhaitait remettre en question les abonnements onéreux, qui se chiffrent parfois à plusieurs milliers d’euros par an, en attirant spécialement l’attention sur le potentiel de diffusion économique offert par le web.

M. Varmus affirme que la majorité des éditeurs ont rejeté cette demande afin de protéger les bénéfices qu’ils récoltent grâce à la ventd’abonnements aux bibliothèques. Avec ses collègues, il a dès lors décidé de prendre les choses en main.

La bibliothèque publique des sciences publiera en octobre les premières éditions de « PLoS Biology » et « PLoS Medecine », qui seront mises gratuitement à la disposition des utilisateurs sur le web, dans le but d’engendrer une circulation libre des données et des résultats. Les coûts de production des magazines seront couverts par une participation modique des organisations et des institutions qui ont financé les recherches.

M. Varmus pense que la diffusion gratuite des connaissances, en particulier lorsqu’elles résultent de recherches financées par les deniers publics, constitue un principe important et devrait garantir la réussite de la bibliothèque publique des sciences. L’on ignore toutefois encore le nombre de scientifiques qui privilégieront ce principe à une publication dans les magazines considérés comme les plus prestigieux dans leur discipline.

Fournisseur des données: Press sources (New York Times)

Référence : D’après des informations recueillies dans la presse (New York

Times)

Codes Index de sujet : Aspects économiques, Recherche scientifique

Personne à contacter : Pour tout renseignement complémentaire, consulter le

site web suivant: http://www.publiclibraryofscience.org/

Electroniquement votre.


Annexe 2 : Cahier des charges pour la création d’une base de données :
E-revues SHS :

Base de données des périodiques électroniques
en Sciences humaines et sociales :

Proposition faite par Aurélie Wellenstein, INTD

Sommaire :

1. positionnement du projet

  • Analyse de l’existant
  • Les besoins

2. Objectifs

  • Objectif 1
  • Objectif 2
  • Perspectives

3. solution

  • Données bibliographiques
  • Démarche de recherche
  • Domaines envisagés
  • Pays pris en compte
  • Arborescence

4. spécifications techniques

  • Langue de la base de données
  • Spécifications techniques générales
  • Charte graphique – Maintenance

5. Délais

1. Positionnement du projet

Analyse de l’existant : bibliothèques virtuelles et bases de données recensant les périodiques électroniques en SHS

Ulrichsweb : renvoie à des résultats erronés : les revues dont les facteurs d’impacts sont comptabilisés par l’ISI sont considérées à tort comme des revues électroniques en texte intégral disponibles sur le Web.

EZB : excellente bibliothèque virtuelle (langue : anglais / allemand), fournie et régulièrement actualisée mais au contenu encore trop général pour un public de chercheurs (exemple en littérature : présence de revues diffusant des fictions d’auteurs contemporains, peu pertinente pour des chercheurs en littérature.) Indexe également des newsletter, des forums et le fonds de Gallica.

Les autres : contenus restrictifs : limités aux collections présentes dans la bibliothèque physique du site ou contenus très spécialisés (exemple : en psychologie) et ne permettant pas une vue d’ensemble des différentes disciplines en SHS.

Constat : Les informations sont fragmentées dans plusieurs catalogues collectifs qu’il faut consulter successivement. Les étudiants, les enseignants-chercheurs, le grand public sont confrontés à une complexité de démarche et à une opacité des collections préjudiciables à l’enseignement et à la recherche. Le moyen premier est de mettre à disposition des étudiants et des enseignants-chercheurs un catalogue unique, qui permette le signalement, l’identification et la localisation sur la toile des revues, et facilite l’accès à leur contenus.

Conclusion : Il faudrait réussir à croiser tous ces projets pour obtenir une base de données suffisamment spécialisées pour proposer aux chercheurs à la fois une vue d’ensemble de l’offre éditoriale en périodiques électroniques SHS et des contenus pertinents.

Les besoins

Après une enquête sur le point de vue et la pratique des chercheurs vis-à-vis des revues électroniques en SHS, on peut cerner principalement les attentes suivantes :

– avoir une meilleure visibilité des productions,

– faire connaître le savoir et le savoir faire donc permettre de développer la discipline,

– une plus grande ouverture sur l’international, avoir une meilleure connaissance des revues et publications étrangères,

– un raccourcissement des délais,

– une qualité de reproduction des documents autres que textuels,

– une facilité de diffusion et d’indexation donc de repérage.

Panorama de l’offre éditoriale en matière de revues électroniques en Sciences Humaines et Sociales disponibles via Internet, Aurélie Wellenstein

Pour les premiers points, la création d’une bibliothèque virtuelle dédiées aux revues électroniques SHS pourrait être utile.

2. Objectifs

Objectif 1 : La politique d’abonnement en SHS : aider aux décisions.

Public visé : les décideurs de l’INIST

Dresser un panorama de l’offre éditoriale en matière de périodiques électroniques en Sciences Humaines et Sociales, afin que les décideurs de l’INIST aient une vue globale du marché lors du choix des commandes de périodiques.

Objectif 2 : Mise en ligne : Un répertoire valorisant l’accès aux périodiques électroniques en SHS

Public visé : étudiants, enseignants, chercheurs, tout public.

La base de données des périodiques électroniques en SHS occuperait une place d’intermédiaire entre la prolifération d’informations spécialisées en SHS et le public de l’INIST (étudiants, chercheurs, enseignants…) tout en valorisant le média qu’est la revue électronique en SHS.

Cette organisation, spécifiquement documentaire, peut s’organiser autour d’actions prioritaires :

la découverte du marché, faire connaître les multiples revues qui existent, ouvrir une porte d’accès via des liens à ces revues : gratuites (accès direct) ou payantes (lien vers le site de la revue.)

3. Solution

Pour remplir ces objectifs, on pourrait constituer une base de données en HTML. Ce site serait la vitrine de l’offre éditoriale actuelle en matière de périodiques électroniques en SHS et proposerait pour chaque revue, une description bibliographique.

Données bibliographiques

Pour chaque revue, on préciserait :

– Titre

– Editeur

– ISSN électronique (si disponible)

– Accès (gratuit, payant ou gratuit si abonnement à la version papier)

– URL

– Domaine / discipline

– Portails (ex : Project Muse, JSTOR, INGENTA…)

– Langue des articles

+ : Il serait intéressant de pouvoir accéder à une rapide description du contenu de la collection.

Démarche de recherche

Pour effectuer une recherche dans la base, 3 à 4 entrées sont envisageables :

recherche par Titre

recherche par Editeur

recherche par Domaine (discipline)

Les domaines envisagés

Compte tenu des délais, on ne pourra pas être exhaustif.

On s’appuiera sur les sections du Comité National de la Recherche Scientifique 2000-2004.

On essaiera de traiter l’intégralité des domaines suivants :

Section 31 : Hommes et milieux

Anthropologie

– Préhistoire et protohistoire

– Ecologie

Section 32 : Mondes anciens et médiévaux

Archéologie

Section 33 : formation du monde moderne

Histoire des arts

Section 34 : représentations, langage, communication

– Linguistique

– Traitement automatique des langues, communication homme-machine

Section 35 : pensée philosophique, sciences des textes, création artistique, scientifique et technique

– Philosophies antiques, médiévales, modernes et contemporaines

– Théorie des arts et esthétique

– Littératures françaises et étrangères

Section 36 : sociologie, normes et règles

Interaction individus-sociétés

– Démographie

Section 38 : Unité de l’homme et diversité des cultures

Les domaines du religieux

– Ethnologie

Les pays pris en compte

Principalement :

– France

– Canada

– Angleterre

– USA

– Allemagne

– Espagne

Arborescence

Page 1 : Accueil

Présentation rapide de la base de données.

Page 2 : Les revues par titre

Contenu de la base de données par ordre alphabétique de titres. Liste de liens renvoyant aux détails bibliographiques du périodique choisi.

Page 3 : Les revues par éditeurs

Liste alphabétique des différents éditeurs cités dans la base de données, avec liens vers une page leur étant consacrée et recensant toutes les revues qu’ils ont publié. De la même façon qu’en 2, des liens pourront renvoyer, pour chaque titre, aux détails bibliographiques du périodique choisi.

Page 4 : Les revues par disciplines

Liste des disciplines SHS traitées par la base, détaillées, et renvoyant sur les pages correspondantes, ex: Section 34 : représentations, langage, communication

Linguistique

Lien de « linguistique » vers la page recensant les revues électroniques existant en linguistique.

Dans la mesure où le volume de données est très important, pour garder des pages ergonomiques et facilement manipulables, le contenu sera fractionné. Par exemple : des lettres A à C, puis de C à F, etc.

4. Spécifications techniques

Langue de la base de données

Français

Spécifications techniques générales

Langage de programmation : HTML

– Mise en page par des tableaux

– Structure arborescente

– Intégration éventuel d’un petit moteur de recherche

– Précision de la date de création et des mises à jour sur la page d’accueil

– Possibilité de revenir sur l’accueil en cliquant sur le logo « home » de n’importe quelle page du site

– Application de styles CSS pour les mises en page et présentations

– Test du site sur plusieurs configurations

– Mise en page en 800×600 s’adaptant aux autres résolutions ; optimisation pour le 1024

– Construction des pages par rapport au débit des modems 56 k

– Interactivité : Email (lien contact)

Chartre graphique

Présentation :

– Homogène

– Claire

– Concise

– Simple

– Intuitive

Graphisme :

– Doux

– Arrondis (icônes)

– Formes carrées et/ou rectangles (tableaux pour les données)

– Couleurs : blanc et crème, bandeau bleu foncé.

– Typologie : arial

Maintenance

Deux possibilités :

– la base est une photographie de l’état du marché à un instant donné, mais cette réalité va perdre de sa pertinence au fil des mois (changements non répercutés)

– mises à jour relativement fréquentes (mensuelles par exemple) seraient à effectuer. En cas de mise en ligne, le contact e-mail doit rester en veille pour répondre aux questions du public.

5. Délais

3 mois

Les 3 mois nécessaires à la réalisation de la base ne permettent pas de couvrir tous les domaines SHS. Un choix sera donc effectué pour que la quantité ne prenne pas le pas sur la qualité des données.

Annexe 3 : Panorama de l’offre éditoriale en matière de revues électroniques en SHS

(Tiré de E-RevuesSHS)

*Classement par ordre alphabétique de titres*

Sont ici recensés les éditeurs publiant plus d’une revue en SHS.

Entre parenthèses est indiqués le nombre de revues publiées par l’éditeur et indexées dans E-RevuesSHS

A –

American Anthropological Association (4)

Academic Press (12)

Armand Colin (2)

Adams Business Media (1)

Agence pour le développement des relations interculturelle (2)

Alan Guttmacher Institute; JSTOR (5)

American Geographical Society; JSTOR (4)

American Geophysical Union (AGU) (2)

American Historical Association (2)

American Meteorological Society Allen Press (9)

American Sociological Association; JSTOR (3)

Africa Resource Center (1)

Arnold (9)

African Studies Association (3)

American Water Resources Association (2)

B –

Beech Tree Publishing (2)

Benjamins (23)

Blackwell Publishers (88)

Boston University (2)

Brill Academic Publishers (18)

Bryn Mawr College (2)

C –

Cambridge University Press (42)

Canadian Association of African Studies (2)

Carfax Publishing (64)

Centro de Estudos Educacao e Sociedade (2)

Clark Atlanta University (5)

CLEAR (1)

D –

de Gruyter (17)

de Sitter Publications (3)

Deutscher Wetterdienst (2)

Duehrkohp & Radicke (1)

Duke University Press (MUSE ) (24)

E –

Elsevier (61)

E. Schweizerbart Science Publishers (2)

European Geophysical Society (2)

F –

Firenze University Press (2)

Frank Cass Publishers (7)

G –

Guilford Publications (2)

H –

Haworth Press (7)

I –

Imprint Academic (2)

Indiana University Press (Muse) (6)

Inter-Research Science Publisher (2)

IOS Press (2)

Istituti Editoriali e Poligrafici Internazionali (5)

J –

Johns Hopkins University Press (MUSE ) (34)

JSTOR (8)

K –

Kingston Press Ltd (2)

Kluwer Academic Publishers (81)

L –

Lawrence Erlbaum Associates, Inc. (11)

M –

Manchester University Press (3)

MIT Press (8)

Modern Language Association (4)

Multilingual Matters (8)

N –

National Council on Family Relations ; JSTOR (7)

National Science Foundation (2)

O –

Office of Population Research; JSTOR (2)

Ohio State University (3)

Organization of American Historians (3)

Oxford University Press (39)

P –

Palaeontological Society (2)

Pennsylvania State University Press (MUSE) (4)

Population Council (2)

Presses de l’ Université de Montreal (3)

Presses de l’Université de Québec (4)

Princeton University Press (2)

R –

Renaissance Society of America; JSTOR (3)

Rodopi (8)

Routledge (31)

Royal Anthropological Institute of Great Britain and Ireland (7)

Royal Geographical Society (1)

Royal Meteorological Society (2)

S –

Sage Publications (76)

SEDES (2)

Society for American Archaeology (3)

Society for the Promotion of Hellenic Studies (2)

Society for the Promotion of Roman Studies (4)

Springer (12)

Stanford University (2)

Swets & Zeitlinger Publishers (2)

T –

Taylor & Francis (49)

Transaction Publishers (4)

The American Society for Ethnohistory (2)

U –

United States Information Agency (2)

University of Western Australia (2)

Universidad Nacional Aut6noma de México (4)

Universitdt Essen (2)

Universitdt München (4)

Université de Laval (2)

Université Paris (2)

University of California Press (9)

University of Chicago Press (19)

University of Hawaii Press (MUSE) (7)

University of London (2)

University of Minnesota Press (MUSE) (1)

University of Nebraska Press (MUSE) (3)

University of North Carolina Press (2)

University of South Africa (2)

W –

Wayne (3)

Wiley (12)

Wissenschaftszentrum Berlin für Sozialforschung (3)


Annexe 4 : Une idée graphique des acteurs du marché des revues électroniques en ligne en SHS : Capture d’écrans

  • E-RevuesSHS : Recherche par titre, lettre O
  • E-RevuesSHS : Recherche par éditeurs, haut de page
  • E-RevuesSHS : exemple de résultat, recherche par éditeurs : Franck Cass Publichers
  • E-RevuesSHS : recherche par domaines : les domaines traités
  • E-revuesSHS : exemple de résultat, recherche par domaine : …
  • Un grand éditeur : Elsevier, screen d’un résultat de recherche
  • Un grand portail : Ingenta, screen d’un résultat de recherche
  • Le portail à vocation patrimonial : JSTOR, screen d’un résultat de recherche
  • Le portail de la John Hopkins University Press : Muse, screen d’un résultat de recherche
  • Exemple de revue gratuite, issue du portail Erudit 1 et 2
  • E-RevuesSHS : Recherche par titre, lettre O

• E-RevuesSHS : Recherche par éditeurs, haut de page

• E-RevuesSHS : exemple de résultat, recherche par éditeurs : Franck Cass Publichers

• E-RevuesSHS : recherche par domaines : les domaines traités

Panorama de l’offre éditoriale en matière de revues électroniques en Sciences Humaines et Sociales disponibles via Internet, Aurélie Wellenstein

• Un grand éditeur : Elsevier, screen d’un résultat de recherche

• Un grand portail : Ingenta, screen d’un résultat de recherche

• Le portail à vocation patrimonial : JSTOR, screen d’un résultat de recherche

• Le portail de la John Hopkins University Press : Muse, screen d’un résultat de recherche

• Exemple de revue gratuite, issue du portail Erudit 1 et 2


Annexe 5 : Questionnaire adressé par mail à 102 chercheurs SHS des universités Paris I et Paris X.

Questionnaire :

Les revues électroniques en Sciences Humaines et Sociales :

Le point de vue et la pratique des chercheurs

Dans quelle discipline êtes-vous spécialisé ?

  • Questions générales

Utilisez-vous le courrier électronique pour communiquer avec des collègues en interne et à l’international ? Oui Non

Etes-vous abonné à une liste de diffusion ? Oui Non

Connaissez-vous des sites de diffusion d’articles sur Internet ? Oui Non

Si oui : Lesquels ?

Appréciez-vous la présentation de l’information offerte par le Web et le format HTML ? Oui Non

  • Le contenu des revues électroniques

Pensez vous que le contenu des revues électroniques soit fiable ? Oui Non

Utilisez-vous ce genre de sources d’information ? Oui Non

Vous félicitez-vous de leur existence ? Oui Non

L’utilisation de l’anglais (majorité des revues) vous paraît-elle être un frein ? Oui Non

Vous désabonneriez-vous de la version papier s’il existait un accès électronique ? Oui Non

  • Publier dans une revue électronique

Avez-vous eu l’occasion de publier électroniquement les résultats de vos travaux ? Oui Non

Pensez-vous qu’il soit plus prestigieux de publier dans une revue traditionnelle que dans une revue électronique ? Oui Non

Confierez-vous cotre production à ce type de diffusion ? Oui Non

Quelles craintes éveillent en vous les revues électroniques ?

Le non contrôle des droits d’autres

Le manque de notoriété des revues

La non existence d’un réel lectorat

Le non contrôle du contenu

Des articles écris par les auteurs marginaux (question du « qui parle ? »)

Autres, précisez :

Selon vous quels principaux avantages présentent une revue électronique ?

Maniabilité (facilité de stockage, de correction, de diffusion)

Interactivité (grâce notamment à l’hypertexte)

Chaîne éditoriale plus rapide

Diffusion et consultation indépendante du lieu et du temps

Fonctionnalités éditoriales avancées

Autres, précisez

• L’avenir des revues électroniques en sciences humaines et sociales

Croyez vous en un développement massif de ce type de diffusion des sciences humaines et sociales dace à l’édition traditionnelle en France dans l’avenir ? Oui Non

Pourquoi ?

Encourageriez vous le développement des revues électroniques dans votre discipline ? Oui Non

Y participeriez-vous vous même ? Oui Non

Qu’attendriez-vous des possibilités de l’électronique dans votre domaine ?


Annexe 6 :  Statistiques extraites de la base de données E-revuesSHS

Panorama de l’offre éditoriale en matière de revues électroniques en Sciences Humaines et Sociales disponibles via Internet / Aurélie Wellenstein. – mémoire DESS-INTD. Promo33. 2003 (102 p.)

Mots clés :

Revue électronique

Internet

Sciences Humaines et Sociales

Edition

Open Access

Base de données

Résumé indicatif : L’élaboration d’une base de données recensant les périodiques électroniques en Sciences Humaines et Sociales disponibles via Internet est le point de départ de cette analyse qui tente de faire le point sur l’offre éditoriale dans ce domaine. Après avoir esquissé une définition de la revue électronique, l’auteur insiste sur les spécificités de ces revues dans le domaine des Sciences Humaines et Sociales, en les différenciant nettement des revues électroniques du secteur des Sciences Techniques et Médicales. Suit un développement sur les acteurs de cette révolution numérique. Une enquête sur la sociologie des usages est menée auprès d’un public de chercheurs. Les deux grandes tendances du marché sont ensuite analysées : d’un côté, l’édition traditionnelle, de l’autre, les réponses non commerciales, soit le phénomène de l’open access. L’analyse s’achève sur le détail statistique de l’offre éditoriale en matière de revues électroniques SHS afin de saisir l’essence même de ces revues et de leurs éditeurs.

NOTES

1 Les numéros indiqués entre crochets renvoient à la bibliographie en fin de volume.

2 Elektronische Zeitschriftenbibliothek: excellente bibliothèque virtuelle allemande, créée et développée par la bibliothèque de l’université de Regensburg avec la participation de l’université de Munich. En septembre 2003, elle recensait 16712 revues électroniques en ligne sur Internet, en texte intégral, et ce dans les domaines des sciences dures ou sciences humaines et sociales.

3 Ulrichsweb recense entre autres les revues électroniques disponibles sur Internet. Cependant, on a pu y trouver des erreurs de classification gênantes et par exemple, des revues papiers comptées comme électroniques.

4 http://www.cnrs.fr/SHS/
departement/
politique_scientifique.php

(consulté en août 2003)

5 En particulier pour les réflexions portant sur l’utilisation des nouvelles techniques de l’information, et leurs conséquences sociales et économiques.

6 Cf . A role for librairies in eletronic publishing/Franck Quinn, 1994

7 Pour un complément d’informations sur les typologies de revues, on consultera le site http://www.public.iastate.
edu/~CYBERSTACKS/EJI.htm
[consulté le 04/11/2003]

8 En 2003, de nombreuses conférences se sont tenues dans le monde sur le thème de l’Open Access. Parmi elles, on citera Open Access to Scientific and Technical Information: state of the art and Future Trends, qui s’est tenue le 23 et 24 janvier 2003 au Carré des Sciences, à l’initiative du Ministère de la Recherche. On retiendra également la conférence sur le libre accès qui s’est tenue à Berlin les 20, 21 et 22 octobre 2003. Enfin on signalera sur ce thème « DOAJ », le premier annuaire en ligne des revues gratuites et disponibles en texte intégral sur la Toile. Lancé le 12 mai 2003, ce répertoire référence, en fonction de leur catégorie (14 grands domaines actuellement), toutes les revues scientifiques (350 à ce jour) acceptant de laisser leur contenu en accès libre. DOAJ est une base multidisciplinaire créée par l’Open Society Institute de l’université de Lund (Suède). Le but du DOAJ est d’accroître la visibilité et l’accessibilité des revues savantes en accès libre et ainsi de promouvoir leur impact dans la communauté scientifique.

9http://archivesic.ccsd.cnrs.fr/ [consulté le 24/09/03]

10 http://rzblx1.uni-regensburg.de/ezeit/ [consulté le 24/09/03]

11 http://ulrichsweb.com [consulté le 24/09/03]

©HERMÈS : revue critique et Aurélie Wellenstein
ISSN- 1481-0301
Créée le vendredi 18 août 2000
À jour le lundi 24 mai 2004


Publié dans Bibliothéconomie, Revue électronique | Laisser un commentaire

Présentation du numéro 10 d’Hermès : revue critique Roger Charland

PRÉSENTATION

Paru dans HRC (HERMES : REVUE CRITIQUE), no 10

Je suis fier de vous présenter un dixième numéro. Les dernières années ont été très occupées. Nous avons, Pierre Blouin et moi, réalisé un numéro après l’autre, ceci à un rythme infernal à l’occasion. Maintenant je fais route seule, mais avec des collaborateurs, un comité de rédaction fantôme. Mais ils deviendront avec le temps des collaborateurs réels.

J’ai présenté la semaine dernière, au Congrès de la Corporation des bibliothécaires professionnels du Québec à Montréal, HERMÈS : revue critique.  J’avoue que faire le bilan de ces 10 numéros n’est pas facile. Un manque de recul ? Revenir sur les questions initiales, penser pour comprendre et pour expliquer. Mais au juste, pourquoi cet entêtement ?

Une chose est certaine l’objectif de la revue est et il restera le même.

Dans le présent numéro, l’ensemble des textes mérite d’être lu et médité. Un premier texte porte sur les revues électroniques, il s’agit d’un mémoire de fin d’études français. Nous terminons dans le présent numéro la reproduction d’un long texte à propos de la théorie esthétique Theodor W. Adorno. Un texte sur le cinéma africain nous rappelle que le monde ce n’est pas seulement nous. Il est écrit par une professeure de l’Université Queen’s. Finalement un texte sur la bibliothéconomie et la sociologie, dont l’approche se rapproche de la nôtre. Et dans un autre ordre d’idées, une fiction et l’analyse de cette fiction. Je vous laisse lire le tout.

Disons pour conclure que le prochain numéro verra le jour d’ici quelques mois. Octobre semble être le moment propice pour ce onzième numéro qui portera en grande partie sur la question de la mondialisation. Nous espérons utiliser les données les plus récentes possible. Ainsi, nous pourrons analyser les premières études sur les retombées de la mondialisation et dresser un inventaire de la situation et les effets de celle-ci sur la société civile.

Merci à ceux qui de près ou de loin nous aident à penser le monde et l’impensable.

Je vous souhaite bien de la satisfaction à lire ces quelques textes.

Roger Charland

Publié dans Bibliothéconomie, Littérature, Présentation | Laisser un commentaire

Le retour au chevalier ? « Une vision critique de l’évolution bionique du combattant » ? Joseph Henrotin

Le retour au chevalier ?
Une vision critique de l’évolution bionique du
combattant ?

Joseph Henrotin [1]

Université Libre de Bruxelles


Paru dans le no 9 de HRC (HERMÈS : revue critique)


Sommaire

1) La victime et le bourreau : le modelage cognitif du soldat à la technologie.

2) Premières esquisses de l’intégration homme-machine.

3) Brouillage des référents et adaptation à la technique.

4) Guerre postmoderne, nouvelles conditions du combat ?

5) Vers le combattant du XXIème siècle.

a) Le modèle néo-conventionnel.

b) Le modèle Cyborg : l’ultime limite ?

6) Un cadre stratégique pour les fantassins de demain.

7) La boucle est bouclée : l’éternelle recherche du soldat idéal.


La technologie ne nous est pas extérieure et c’est particulièrement vrai dans le cas des questions militaires, qui concentrent par essence les technologies les plus pointues dans la plupart des domaines. Et si quelques auteurs pouvaient prétendre que les aspects matériels du combat s’opposait à sa conception en tant qu’idée, coulée en doctrine et en stratégies[2], H. Coutau-Bégarie pouvait finalement conclure que « c’est une erreur de croire que le matériel est l’antithèse de l’idée. Au contraire, plus l’investissement matériel est grand, plus l’investissement intellectuel doit suivre »[3]. Il existe toutefois une problématique de la connexion homme-machine, carrefour du pouvoir de décision et de celui d’exécution. La technologie élargit en effet la liberté de manœuvre de la stratégie[4] et il existe outre-atlantique une tension en direction d’un « hyper-technologisme » stratégiquement omnipotent, politiquement fascinant et qui serait directement enraciné dans les cultures technologique, politique et stratégique américaine[5].

C’est que la primauté de l’idée sur le matériel est remise en question par des visions futuristes visant l’automatisation du recueil de l’information et au-delà, par une Revolution in Military Affairs (RMA) voulant assurer au politique une réponse à chaque problème stratégique, une tendance elle aussi récurrente[6]. A ce stade, la question – qui devient un classique des études stratégiques – de l’apport de la technologie à la stratégie se raffine et commence à être évalué en ce qui concerne le combattant. Artisan devenu gestionnaire du feu, ses missions ont autant évolué que ses équipements. Le domaine est fantasmatique par essence. Il fait appel a des instincts refoulés en matière de vision du futur et de caractérisation des menaces supposées ou réelles et multiplie les figures de l’interprétation comme de l’imaginaire. Mais qu’en est-il des projets actuels ? S’il existe une tendance marquée à la robotisation de plusieurs fonctions  du combat, plusieurs auteurs Américains voient dans le développement du soldat-robot – du Cyborg (Cyber Organism) – une conception vers laquelle l’histoire militaire et technologique de ces 100 dernières années tendrait inévitablement.

Au-delà, il s’agit d’une clôture d’un espace devenu informatiquement défini[7] et qui assure au combattant une maîtrise parfaite de sa zone d’opération et d’une recherche de la performance au travers d’une technoscience omnipotente. Cette progression n’est toutefois pas linéaire et a connu des accélérations au fil de guerres qui ont permis de développer et de raffiner des concepts. Mais ce qui semble nouveau, c’est que la régularité (voire l’augmentation) des budgets de défense permet de mener aujourd’hui, en temps de paix, des conceptualisations qui l’étaient généralement en temps de guerre. Logiquement donc, le rythme des percées dans les domaines intéressant le combattant pourrait s’accélérer.  Mais si elle n’est pas linéaire, l’évolution vers le modèle du cyborg est cumulative en ce qu’elle se base sur les expériences antérieures pour progresser, à commencer par celle, totale et disruptive, de la Première Guerre mondiale et de ses batailles ultra-létales aux enjeux complètement disproportionnés.

1) La victime et le bourreau : le modelage cognitif du soldat à la technologie.

Le soldat a d’abord subit la technique, lorsqu’elle est puissance de feu et les boucheries de la Première Guerre mondiale constituent la prolongation dans le domaine militaire du dyptique mécanisation/industrialisation. Elles constituent la figure ultime de la révolution industrielle, du machinisme et du fordisme émergent. Le positivisme comtien est dévoyé, l’idée de progrès est mise au service de la mort et toutes les sphères de la technique sont mises au service de la recherche militaire. La figure thématique et rassurante des « hommes de progrès », est détournée et marque le passage à une étrange schizophrénie du scientifique tour à tour pacifiste et appliqué à une tâche destructrice qu’il ne voulait pas comme telle[8]. Cette responsabilité se teintera d’un mysticisme auquel l’observateur de la technique ne peut manquer d’échapper. Oppenheimer observant l’explosion de la première arme nucléaire, déclarera que « ce fut un spectacle d’une émotion solennelle qui nous força à nous avouer que la vie ne sera plus jamais la même. (…) Un texte (…) me revint brusquement en mémoire : « Maintenant, je suis devenu un compagnon de la mort, un destructeur de mondes ». Oui, ces mots me remontèrent à la mémoire instinctivement et je me rappelle le sentiment de piété profonde que j’éprouvai »[9].

La guerre scientifique est née, produisant non seulement des matériels mais aussi des comportements, affectant les cultures et créant de nouveaux rapports entre les hommes et la technique et entre la guerre et l’homme.  Et si la technique impacte le combat, ce n’est pas seulement parce qu’elle permet une augmentation généralisée de la létalité, voire du tempo des combats. C’est aussi parce qu’elle agit directement sur le moral des combattants. Ardant du Picq a noté que l’effondrement des armées était d’abord moral, et précédait la défaite physique[10] et que par conséquent, la puissance de feu visait d’abord l’effondrement moral. La guerre de Sécession, les guerres coloniales puis la Première Guerre Mondiale sont autant de démonstrations de l’impact tactique d’armes dont la puissance de feu augmente en permanence. A un point tel que Lord Kitchener déclarera durant la Première Guerre mondiale que « je ne sais pas ce qui doit être fait, ce n’est pas la guerre »[11]. Très vite, la technique affecte le soldat comme le général ou le décideur politique. Que l’on se repose trop sur le facteur technologique dans la conduite du combat (les Etats-Unis en Somalie)[12] ou qu’elle amplifie la détermination des combattants à vaincre (Israël), la question technologique restera récurrente. Le feu abasourdi et paralyse[13] et la technologie devient une composante de la manœuvre psychologique[14]. Le soldat acquiert une valeur dissuasive et chaque élément pouvant l’améliorer est généralement considéré comme devant être intégré. Mais cette valeur dissuasive découle directement d’un pouvoir de destruction qui interroge le combattant : est-il simple exécutant ? Technicien en kaki ? Ou partie d’un organisme technicien ?

Le soldat a d’abord muté physiquement. Là où les grands classiques de la stratégie (Jomini, Clausewitz, Puységur) n’accordaient qu’une attention limitée aux moyens du combattant, la fin du XIXème siècle voit une transformation qui s’exprimera pleinement dès 1914. Les couleurs flamboyantes des uniformes du début du siècle sont abandonnées au profit du battle-dress kaki  et le casque fait ses premières apparitions. En somme, le combattant est uniformisé, seuls les grades et le numéro de l’unité permettant de faire la distinction entre les hommes. Surtout, c’est la première étape vers une clôture de l’espace du combattant : ayant perdu son armure avec la Renaissance, le soldat est offert aux coups. Toute l’histoire de son équipement jusqu’à nos jours est celle de la récupération de cette armure psychologiquement rassurante mais techniquement imparfaite. Il peut alors être vu comme un acteur déshumanisé, modelé cognitivement  à la technique, intégré à une armée elle-même vue comme une machine, soumis à des ordres brutaux et corrélativement dégagé de toute responsabilité éthique.

Mais il passe aisément de victime à bourreau. La technique a très vite déshumanisé un combattant mécanisé par la répétition permanente d’actes destructeurs, la mitrailleuse étant souvent pris comme l’exemple-type d’une mort elle-même mécanisée. Dans ce contexte, Theweleit autant que plusieurs poètes de la Grande Guerre font le constat de mécanisations réelles (le char ou l’utilisation massive de l’artillerie) et perçues, comme la routine « mécanisante » des offensives. Elles produiraient une anomie du combattant placé en situation de stress et de rupture avec son environnement affectif, Theweleit en arrivant à la conclusion que le sens de la technique s’oriente vers le dépassement des limitations d’un être humain[15] beaucoup trop exposé sur le champs de bataille.

La mécanisation est telle que « l’unité et la simplicité de la machine fabricante d’objets se dissout ; la machine devient l’expression d’une multiplicité de formes esthétiques semi humaines. Donc, l’humain devient une machine imparfaite, (qui n’est) plus capable de produire, seulement d’exprimer et de propager les horreurs qu’il a subit (…) La machine expressive « avion » largue des bombes sur les machines de production, comme les corps mécanisés de soldats-mâles anéantissent les corps de chair et de sang. La libido de ces hommes est mécanisée et leur chair est déshumanisée à travers la mécanisation »[16].   Exécutant dont les ressorts éthiques sont brisés au nom de la discipline et de la loyauté, le combattant devient pour Holmes « la pure violence technologiquement administrée (qui) semblait forcer la régression des combattants à des formes de pensées et d’actions qui étaient magiques, irrationnelles et mystiques (…) »[17]. Réduit à une somme de réflexes encouragés par des entraînements répétitifs et tout aussi mécanisant que le combat, le soldat ressent aussi la « mécanisation psychique » des états-majors. Dès 1914, l’Operationnal Analysis devait déterminer mathématiquement les principaux modèles de conduite du combat, donnant naissance à des « Lois de Lanchester » (1916), jamais véritablement démontrées[18]. La guerre passe des très humains domaines de la friction, du génie et du coup d’œil clausewitzien à une recherche systématique des certitudes qu’offrirait artificiellement un combat rationalisé, une caractéristique notable de la Seconde Guerre mondiale.

2) Premières esquisses de l’intégration homme-machine.

A la suite de l’Operationnal Analysis (OA), l’Operationnal Research[19] (OR) et le System Analysis[20] (SA) ont été systématiquement appliquées, aussi bien dans la préparation des bombardements que dans la conduite de cette logistique si essentielle à l’obtention de la puissance de feu massive que le style américain de guerre imposerait. C’est l’ère de la production de masse –  symbolisée par les millions de camions, blindés et avions du Victory Program – et la rationalisation entraîne l’optimisation des comportements et des organisations militaires autant que des équipements. La connexion entre l’homme et la machine devient une réalité dans le domaine aéronautique. La diversification des équipements, l’électronique embarquée, des radios, la complexité et la durée des missions impose de mieux intégrer l’équipage à sa machine. L’ergonomie est ainsi née de la volonté d’optimiser les missions de bombardement stratégique. De la sorte, « les militaires font se rencontrer les hommes aux machines (aussi bien que la rencontre sous certains aspects des machines aux hommes). L’homme est l’extension de telles machines comme les pièces d’artillerie, ou les systèmes d’armes généralement ; il complète certaines limitions que la machine a du fait de son développement incomplet »[21]. Le combattant devient partie intégrante des systèmes d’armes après en avoir été son extension cognitive et naturelle et qui in fine reproduira la figure de l’homme de progrès au niveau militaire : c’est l’émergence d’une connectique qui sera déclinée dans tous les secteurs de l’armement. En Allemagne, Guderian tire ainsi pleinement parti de l’utilisation des radios dans des chars plus sûrs, puissants et surtout produits en masse : la notion de réseau atteint pleinement le domaine tactique de la guerre. Ce même char modèlera le comportement d’un soldat devenu technicien d’autant plus facilement que la recherche produit des armes techniquement complexes mais simples d’utilisation.

Mais l’homme a ses propres limites, et la figure du robot, si elle ne s’impose pas encore, sort de la science-fiction : dès la fin de la Seconde Guerre mondiale, la force aérienne américaine avait reconverti avec un succès mitigé des bombardiers en missiles de croisière en les dotant d’une caméra et en les télépilotant. Une dizaine d’années plus tard, le Strategic Air Command (SAC) déployait des missiles de croisière stratégiques Snark et Navaho, capables de couvrir plus de 10.000 km et disposant d’un guidage terminal basé sur un radar intégré. Techniquement parlant, l’arme-phare de la guerre froide, le missile balistique, est lui aussi un robot balbutiant les prémices de la très actuelle Intelligence Artificielle. Préprogrammé, il atteint seul sa cible sans aucune intervention après son lancement, laissant la place à l’inquiétude d’une guerre nucléaire accidentelle et complètement incontrôlable. La crainte de la faille technologique restera récurrente. Surtout, l’époque est propice au dépassement des limites humaines et Eisenhower lui-même demandera le remplacement des hommes par les machines.

Mais l’OR ou la SA n’ont pas seulement visé l’application d’une rationalité mathématique à la conduite de phénomènes sociaux complexes. Elles ont aussi 1) poursuivis le modelage cognitif du combattant (C. Hables-Gray fait ainsi remarquer que les approches logistiques du Goulag, de la Shoah ou du bombardement stratégique sont virtuellement identiques[22]) et surtout 2) fait émerger la théorie de l’information. En travaillant sur les conduites de tir, le mathématicien Norbert Wiener en était arrivé à une théorie de l’information centrée sur la notion de feedback et qui serait applicable aussi bien aux machines qu’aux humains[23]. Ce « plus petit dénominateur commun » est une révolution conceptuelle permettant le cyborg. Dès lors, l’analyse mathématique des systèmes s’attaque à l’Intelligence Artificielle. En résulte une cybernétique répondant à 6 critères : 1) les « interactions des machines ou des organismes avec l’environnement » ; 2) « un propos, ou un objectif » ; 3) « l’utilisation de principes de contrôle » ; 4) « des interactions impliquant un feedback » ; 5) « le feedback peu prendre la forme d’une information » ; 6) « l’énergie est utilisée pour répondre à des changements et pour maintenir la stabilité »[24].

Une révolution informatique se prépare et pour un critique de P. Edwards, « le discours du cyborg, qui sera aussi de la guerre froide, (…) est aussi un ensemble de positions subjectives, non fictives, mais bien réelles. Edwards veut démontrer comment la stratégie américaine de la guerre froide a été élaborée en grande partie par celle de l’ordinateur, et comment, en contrepartie, les questions stratégiques ont été formées par la technologie de l’informatique »[25]. Mais les grandes percées sont encore éloignées : le manque de capacité de calcul des ordinateurs est patent, comme la miniaturisation des composants et la connaissance biologique de l’homme est insuffisante. A ce stade, nous sommes au début des années soixante et la guerre du Vietnam interrogera bientôt une éthique qui deviendra quasi-inséparable de toute avancée technique.

3) Brouillage des référents et adaptation à la technique.

Expression parfaite du System Analysis, elle est vue par Gibson comme une « guerre parfaite »[26] ayant fait régner une technoscience envisagée comme une rationalité déconnectée de l’éthique et du contrôle politique. Elle instrumentalise la science et applique cette dernière dans les domaines les plus divers, à commencer par un combattant qui reste l’ultime limite, la plus complexe, mais aussi la plus porteuse militairement. Dans les années soixante, on n’envisage pas encore l’automatisation du champ de bataille et le soldat reste le principal atout des forces sur le terrain. D’autant plus qu’une guérilla telle qu’elle existe au Vietnam est humainement très intensive, même pour les Américains. Certes, ils testent et mettent en service bon nombre de senseurs, mais il ne restent que des auxiliaires : le premier senseur reste l’homme, un point de vue qui restera d’actualité.

Depuis la Seconde Guerre mondiale, la ration de café du soldat américain comporte en moyenne trois fois plus de caféine que les cafés commerciaux et assez rapidement, l’alcool avait été un moyen d’évasion de la réalité du champ de bataille. Mais il était aussi devenu récompense et avait été utilisé pour désinhiber le combattant tout en faisant tomber les barrières psychiques de sa peur. Durant le Vietnam, une étape supplémentaire est franchie : plusieurs types de psychotropes et d’anabolisants sont testés et utilisés opérationnellement dans certaines unités. Mais si certaines de ces techniques ont échoué et que d’autres ont été étudiées[27], elles renouvellement surtout la problématique de la déshumanisation. Mais derrière elles se cache la névrose de guerre – rebaptisée Post Traumatic Stress Disorder (PTSD) – et une schizophrénie semblable à celle qui animait les stratèges nucléaires durant la guerre froide et qui les faisait osciller entre un usage de l’arme nucléaire en tant qu’arme de dissuasion et en tant qu’arme de combat, entre la guerre et la paix. En réalité, la force est ambivalente dans ses formes comme ses impacts et le technicien à la recherche de certitudes absolues s’en accommode mal.

Aussi, les référents du combattant se brouillent, comme les notions de bien ou de mal ou encore la distinction entre ami et ennemi, très actuelle mais que les Américains apprendront durement au Vietnam. Les frontières conceptuelles deviennent moins claires : nous en sommes à la racine des « zones grises » évoquées par Saïda Bédar lorsqu’elle cherche les ressorts de l’actuelle action stratégique américaine[28]. Pour contrer ce brouillage des référents, l’éthique est remise en question – elle qui nous semble si perpétuellement en chantier – et la conception même de la société est ébranlée dans les discours de Mai 68. Et si des résistances à la technique et à la pensée technicienne se produiront au sein même des institutions militaires, c’est le monde académique qui sera le plus médiatisé. Les travaux de l’Ecole de Francfort puis ceux d’Ellul ou de Mumford montraient les risques d’enlisement de la science mais aussi l’instrumentalisation de l’homme qu’elle permettait.

La peur des failles et des accidents technologiques devient récurrente et constituera toujours un contre-argument de choix dans les vélléités de (semi-)automatisation des fonctions combattantes qui comptera des échecs retentissants. Lors d’une démonstration de l’automoteur antiaérien DIVAD, les systèmes pointeront les canons de l’engin sur la tribune officielle. Plus gravement, en 1988, le croiseur américain Vincennes abattra un Airbus iranien, faussement interprété comme un appareil militaire ayant des intentions hostiles. Entre poussées technique et remises en questions philo-politiques, il existe donc des mouvements de fond contradictoires qui sont politiquement et stratégiquement contenus : on en reste à une vision soumise à l’homme de la technique, et les valeurs traditionnelles sont réinterprétées pour être réinjectées dans les discours politiques et stratégiques de telle sorte que la modernité n’est pas encore interprétée comme disruptive.

Mais les réticences à la technoscience n’empêcheront pas d’envisager le modelage du comportement humain et de chercher les facteurs pouvant l’influencer et le forcer à faire une action. La CIA aurait ainsi travaillé dès les années cinquante sur des stimuli électriques sur le cerveau de rats, de chats, de singes et de chiens, de façon à pouvoir diriger leur course, ce à quoi elle semble être parvenue[29]. A ce stade, la capacité d’influence est dépassée par la possibilité d’une bionique connectant véritablement le vivant au matériel. Les recherches sur le cerveau ont notamment permis de développer des techniques prédictives du comportement et plus spécifiquement, de permettre le pilotage d’avions par la pensée, testée en simulateur avec un certain succès semble-t-il[30]. Dans la foulée de la cybernétique, les dauphins comme les chauve-souris sont étudiés pour améliorer les revêtements des sous-marins ou les radars et les neurones sont disséqués. En l’occurrence, l’étude de leur structure permettra de créer les architectures d’ordinateurs « massivement parallèles »[31], hyper-puissants et qui seront fondamentaux pour des applications aussi complexes que les défenses antimissiles. Si les premiers résultats opérationnels des plus futuristes de ces recherches se feront encore attendre, il est remarquable de constater la rapidité d’émergence de ces idées.

Elles font mieux ressortir la conscience des limites du combattant et elles rapprochent les sciences médicales et biologiques de la stratégie tout en s’articulant à la recherche de la performance de la technoscience. Il en est ainsi de l’usage des drogues et du développement de médicaments, mais aussi d’une approche parfois à la limite de l’ésotérisme et du modèle du « moine-guerrier » qui intègre le charroi techno-fantasmatique. Car si la connexion homme-machine met souvent la technologie et sa philosophie à l’honneur, elle met aussi en évidence une approche biaisée d’un combattant dont le modelage cognitif se poursuit au-delà des conflits mondiaux. Et un colonel américain des forces spéciales d’ajouter que « vous découvrirez deux ressources qui jouent clairement en notre faveur : Dieu et la microélectronique. La beauté là-dedans est que vous pouvez utiliser la microélectronique pour projeter l’esprit… le cerveau travaille comme çà. Faites avancer le champs des armements microélectronique »[32]. Mais il restait à appliquer un certain nombre de résultats à l’homme. Une institution comme l’Human Ressources Research Office (HUMRRO) de l’US Army dépassera conceptuellement les travaux de la CIA et renouvellera la thématique de l’engineering humain. Il faut ainsi un « (…) entraînement à un système dont l’homme doit être partie, qu’il s’agisse d’un « système-fusil », d’un hélicoptère ou d’une batterie de missiles. L’approche de l’HUMRRO – et subséquemment celle de l’armée – est de voir l’homme comme une partie intégrante des systèmes d’armes »[33].

4) Guerre postmoderne, nouvelles conditions du combat ?

Durant la guerre froide, la conceptualisation du combat nucléaire tactique est un bon exemple de l’approche humain-système, qui avait fait de Darwin un stratège global et de la sélection naturelle un paradigme stratégique. L’homme devait encaisser les contraintes psychologiques propres au combat, l’affaiblissement de son organisme du fait des radiations, tous les traumas possibles et imaginables et au surplus la crainte que sa combinaison ne le protège plus efficacement. Dans un tel contexte, le combat nucléaire doit prendre en compte le comportement de combattants qui est modélisé, coulé en variables et maîtrisé au maximum – l’information reste centrale. Avec les combinaisons de protection, nous entrons ainsi directement dans le domaine du Cyborg : les tenues protègent intégralement le combattant, lui permettent de respirer, disposent d’une capacité de ravitaillement en eau et en nourriture et pourront intégrer des radios individuelles. En clôturant l’horizon du soldat, les combinaisons le coupent de la réalité.  Mais cette rupture avec la réalité est aussi méthodologique : Un think tank tel que la RAND Corporation participera directement à ces recherches au travers d’une démarche entre SA, prospective et futurologie et cherchant à déterminer un combat sur pour lequel aucune expérience historique n’est disponible[34].

Dans le même contexte, l’aéronautique reste en pointe dans l’intégration homme-machine. Dès le début des années soixante-dix, les entreprises du secteurs travaillent toutes sur des projets de cockpits rentabilisant au maximum le travail du pilote. Certaines fonctions sont prises en charge de façon complètement automatique, comme les contre-mesures électroniques. Dans un deuxième temps, dès les années quatre-vingt, l’intégration est poussée encore plus loin : les pilotes d’hélicoptères AH-64 Apache disposent de capteurs traçant le mouvement de leurs yeux et dirigeant automatiquement le canon de la machine sur l’objectif. Le dispositif, connu comme « Helmet Mounted Cueing System » est en cours d’intégration sur plusieurs types d’appareils de combat et servira au tir de missiles. A ce stade, ce que le pilote voit n’est déjà plus la réalité : les prises des caméras infra-rouge lui parviennent à travers un petit écran intégré au casque et placé devant leurs yeux. On évalue sur le AFTI F-16 des commandes vocales[35] et au-delà, on tentera d’arriver par le truchement de la réalité virtuelle à ce qu’un avion de combat soit piloté à distance par un pilote installé en sûreté.

Un observateur commentait en 1989 : « Les chasseurs dernier cri ont tout (…). Mais l’exploitation de leurs performances dépend d’un si grand nombre d’automatismes que le pilote avec ses limites physiques, devient le maillon faible (et peut-être superflu) de la chaîne »[36] Aussi, selon plusieurs estimations, les dernières versions du F-35 seront pilotées à distance, alors que les Etats-Unis testent d’ores et déjà un Unmanned Combat Air Vehicle, le X-45. Furtif, il sera capable de mener des opérations dans des environnements hautement hostiles et de supporter des facteurs de charge (les « G ») bien plus importants que ce que les pilotes seraient en mesure de supporter. Dans le même temps, les militaires robotisent largement leur renseignement en introduisant des drones, avions légers télépilotés, qui avaient permis aux Israéliens de repérer les batteries anti-aériennes syriennes dans la plaine de la Bekaa en 1982. Mais le succès des drones ne sera complet qu’après la guerre du Golfe et dans le courant des années quatre-vingt-dix, chaque Arme américaine voulant les siens, avec leurs performances et leurs endurances spécifiques. Les forces spéciales devraient aussi tirer parti de la combinaison des drones et des nanotechnologies pour disposer d’hélicoptères dotés de caméras qui les précéderont pour les éclairer dans les zones dangereuses, des machines de l’ordre… de quelques centimètres. Bien entendu, l’intégration au groupe de combat restera optimale par l’intermédiaire d’ordinateurs portables militarisés. Les objectifs poursuivis restent donc identiques : la performance, l’intégration du combattant à son environnement et à sa machine et cette fois, la compression des temps de réaction.

De tous ces éléments, il en sera question dans le concept AirLand Battle 2000. Laissant planer son ombre sur tous les documents doctrinaux qui suivront, il mysticise la technique à la limite de la science-fiction. Les stratégistes poussent les hommes comme les matériels à la limite du supportable : vue des années quatre-vingt et de ce qui est encore la guerre froide, les années quatre-vingt-dix montrent une troisième guerre mondiale plutôt conventionnelle que nucléaire. Mais ultra-létale, ayant un très haut tempo des opérations, voyant l’usage d’armes nucléaires tactiques, recourrant à la guerre biologique, centrée sur l’informatique, les réseaux de senseurs automatiques et impliquant l’automatisation de nombreuses fonctions. Et prenant finalement en compte comme référent stratégique le modèle expérimenté durant la guerre du Golfe et conçu plus de dix ans auparavant. On en est au sacre de la pensée technicienne.

Janowitz met en avant l’évolution du combattant d’un ethos du manager vers un modèle post-héroïque[37] Les forces armées sont marquées par la professionnalisation, la féminisation, les évolutions de la spécificité du métier militaire[38], celles de leur recrutement et la redéfinition de leurs missions[39]. La diffusion des modèles de combat occidentaux aboutit à une minimisation de l’usage de la violence et à l’émergence des conceptions de type « zéro mort »[40]. La proportion de non-combattants en regard des combattants explose. Les unités de combat deviennent précieuses. Et même si de nouvelles formes de blindage sont mises au point et que l’on engage l’adversaire à distance, l’aversion des sociétés occidentales pour les pertes pousse à trouver de nouvelles solutions. Les conditions du combat ne changent toutefois pas fondamentalement après 1989.

Dans le spectre des conflits qui pourraient éclater, la plupart seraient des conflits de basse intensité où les objectifs politiques seraient limités et se déroulant de plus en plus fréquemment dans des centres urbains, là où la traditionnelle distinction entre civils et militaires semble s’effondrer. Ce « contexte somalo-vietnamien » est le siège d’un des enjeux majeurs de la stratégie militaire : assurer sa survie dans des zones où les objectifs sont peu identifiables et où toute supériorité technologique est automatiquement et systématiquement remise en question par les menaces asymétriques. Historiquement, on constate que les guérillas n’ont jamais été matées autrement que par le génocide et n’offrent généralement que des possibilités de repli diplomatique. Or, l’éthique aussi bien que l’honneur nous interdisent de ne pas prendre parti comme de ne pas pratiquer le génocide. Lorsque les interventions s’imposeront, quelle seront donc nos réponses ?

Pour le Pentagone, elles seront pour la plupart de nature technologique. La préclusion, entendue comme le traitement des menaces asymétriques par la domination informationnelle[41] l’action préemptive (l’attaque de l’adversaire avant même qu’il n’ait entamé le combat), l’aéromobilité et une domination technologique systématique sont ainsi variablement entendues dans la plupart des études sur la RMA. Surtout, l’information n’est plus un paramètre du combat, c’est un paradigme. Corrélativement, les unités doivent être numérisées, intégrées dans des réseaux C4I2 (Command, Control, Communications, Computer, Intelligence, Interoperability). Et lorsque l’on parle d’unité, il s’agit aussi bien des corps d’armée que chaque véhicule ou de chaque homme, qui doit être identifié, géographiquement localisé et intégré dans une toile panoptique éliminant toute forme d’incertitude quand à la configuration de la zone de bataille. Qu’il s’agisse ou non d’une révolution dans les affaires militaires est une question pertinente. Car les réponses qu’entend donner Washington aux conflits de basse intensité ne sont pas foncièrement différentes que celles qu’il a appliqué au Vietnam où existait déjà une obsession informationnelle : l’encadrement des combattants locaux par les forces spéciales en Afghanistan n’est que la réédition revue et légèrement corrigée de la vietnamisation. Mais ce néo-désengagement des conflits n’est pas une solution en soi : il ne donne toujours pas les assurances et les certitudes que la technoscience entend donner et que les dirigeants cherchent instinctivement.

5) Vers le combattant du XXIème siècle.

Les forces aériennes peuvent certes effectuer un grand nombre de missions, d’autant plus si elles sont robotisées, mais elles ne sauraient en aucune manière occuper le terrain, ce qui reste indispensable dans les missions de maintien ou de rétablissement de la paix et a fortiori de contre-terrorisme. La place de l’homme reste d’autant plus centrale qu’il est aussi le senseur le plus perfectionné à la disposition des forces, la base même du système d’information. Aussi est-il d’abord protégé en fonction de ses missions : les soldats occidentaux bénéficient systématiquement de gilets pare-balles mais aussi de tenues plus seyantes, laissant respirer la peaux et ayant de bonnes propriétés thermiques. Depuis les années quatre-vingt, le casque « Fritz » fait sa réapparition, protégeant la nuque et les oreilles des ondes de choc sonores, mais cette fois, il est en Kevlar. Les brêlages, porte-chargeurs et autres petits équipements sont conçus de façon ergonomiques, comme son arme, qui tend à devenir ambidextre et qui, pour certaines, laissent voir ce qu’il reste de munitions au travers d’un chargeur transparent. Les lunettes de protection font leur apparition, avant qu’elles ne soient dotées d’une protection contre les lasers (de télémétrie et de combat) : les yeux sont le premier senseur du combattant.

Devant la menace biologique, les cocktails de vaccins se raffinent, non sans qu’ils soient remis en cause. Devant le chimique, le soldat emporte des seringues d’atropine et des comprimés de pyritostigmine devant protéger un tiers de ses centres nerveux en cas d’absorption de gaz neurotoxiques. Les Meals Ready to Eat (MRE), ses rations de combat, ont fait l’objet d’études les optimisant diététiquement. Chaque secteur de son environnement au combat aura été optimisé. Mais en contre-partie, il s’alourdit dangereusement : le soldat américain moyen prend 63 kilos avec lui pour partir au combat[42]. Mais comme la condition physique moyenne aux Etats-Unis comme en Europe est inférieure a ce qu’elle a pû être, la résistance à l’effort est moindre, de sorte que les standards de formation ne peuvent pas être augmentés aussi rapidement que n’augmente le poids des équipements. Qui devra tout aussi logiquement augmenter : la domination informationnelle implique de dépasser l’interconnexion des véhicules pour atteindre les hommes. Global Positionning System (GPS), radios individuelles, lunettes de vision nocturne, ordinateurs portables voire caméras et leurs batteries s’ajouteront vraisemblablement au paquetage des unités combattantes. La limite du physiquement supportable sur des durées respectables sera donc assez rapidement atteinte et deux catégories de modèles – non-exclusifs – pourraient se dessiner :

a) Le modèle néo-conventionnel.

Il vise l’utilisation de techniques éprouvées ou en cours de développement et son intégration à l’équipement d’un soldat qui reste fondamentalement intégré aux systèmes d’armes dont il se sert, reproduisant conceptuellement l’approche de l’HUMRRO. L’utilisation des nanotechnologies permettra assez rapidement de minimiser le poids des équipements emportés, un objectif poursuivi par l’institut des nanotechnologies pour le soldat, créé en mars 2002 au MIT. Recevant 50 millions de Dollars sur cinq ans, il va aussi travailler sur certains polymères qui, une fois électriquement excité, réfractent la lumière différemment, rendant le soldat presque invisible. Dans le même temps, le travail se poursuivra sur les tenues « caméléon » : utilisant les mêmes principes, leurs couleurs s’adaptent automatiquement au milieu ambiant. A plus long terme, le MIT développera aussi des muscles artificiels engrangeant l’énergie lorsque le soldat marche ou court et la restituant lors d’un saut, par exemple[43]. Au-delà, les Army Science and Technology Master Plan de 1998 et de 1997 proposaient la notion d’Human System Integration (HSI), incluant plusieurs champs de développement techniques :

L’information display and performance enhancement qui vise l’acquisition de la domination informationnelle au niveau du combattant et qui, pour ce faire, multiplie les senseurs à sa disposition ;

Le Design integration and supportability qui permettra d’améliorer l’efficacité au combat des équipements, son coût de revient et surtout qui permettra d’intégrer de façon optimale l’ensemble des systèmes.

L’ensemble comporte des « a-côtés », comme l’intégration au réseau de simulation SIMNET et l’intégration des personnels dans les réseaux C4I2 qui sont déjà partiellement des réalités au travers du Land Warrior. Soldat aux aspects relativement futuristes, le Land Warrior vise d’abord la létalité, ensuite la survivabilité et enfin l’intégration aux réseaux C4I2. Il est intégré à son arme dans la mesure où le viseur thermique et la caméra vidéo de cette dernière est relié au calculateur que le combattant porte dans le dos, les images recueillies étant projetées sur à l’intérieur de ses lunettes (lui permettant de tirer sans être exposé). Au travers de son équipement de communication, des graphiques et des données peuvent aussi apparaître sur son Integrated Helmet Assembly Subsystem (IHAS). Dans le même temps, le combattant dispose d’une protection balistique renforcée et les inconvénients de poids ont été pris en compte dans la conception de l’équipement.

Lancé en 1991, le programme a impliqué un investissement de deux milliards de dollars et opérationnalisera 45000 exemplaires jusqu’en 2014[44]. Dans le même temps, la France mettait en service le Félin, suivant une approche comparable. Et tout comme son équivalent américain, il devrait bénéficier régulièrement d’améliorations, de sorte que vers 2020, de nouvelles options pourraient se dessiner, clôturant totalement l’espace sans pour autant robotiser complètement le combattant. Les essais menés à partir des années quatre-vingt-dix sur « le fantassin du futur » montrent ainsi des hommes dotés de combinaisons intégrales et capables de livrer combat dans des environnements de très haute létalité. Le démonstrateur technologique français ECAD ne voit le monde extérieur qu’à travers la caméra montée au sommet de son casque et dont les images sont projetées sur sa visière[45]. Par ailleurs, ces mêmes images peuvent être transmises sur l’ordinateur portable du chef de groupe Les bruits lui proviennent au travers d’un micro ostéophone et sa combinaison ventilée est parfaitement adaptée aux environnements Nucléaire, Biologique et Chimique. Bien entendu, son arme est équipée de senseurs équivalents à ceux du Land Warrior. Et si l’adoption des chaussures anti-mines a été un échec, il semble bien que le reste des sous-systèmes aient eu le comportement attendu et que l’ECAD restera sans doute le modèle du démonstrateur technologique d’infanterie.

b) Le modèle Cyborg : l’ultime limite ?

Les progrès en matière de biotechnologie, de médecine et de génie génétique ont produit dans le civil ce que les militaires n’ont pas encore fait. Les prothèses remplaçant des membres ou le cœur se généralisent, on travaille sur le sang et l’œil artificiel. Les connaissances en virologie progressent, le code génétique est percé et la possibilité de « reprogrammer » un humain est discutée dans les parlements. L’éthique comme l’information sont centrales et tous les espoirs sont autorisés. A ce stade, nous n’en sommes plus à la connectique techno-humaine, nous en sommes à l’intégration bionique, ou, selon J. de Rosnay, à une biotique hybridant l’homme et la machine[46].

Certains modèles conceptuels ont déjà embrayé et montrent un humain-système, conceptuellement découpé en wetware (sous-systèmes hormonaux, cardiaques, cognitifs) ; software (entraînement, réflexes acquis et innés) et hardware (sous-systèmes musculaires, osseux et intégration corporelle)[47]. Continuité logique de la vision de l’HUMRRO, elle est militairement intéressante en fondant le combattant dans un magma de disciplines devant optimiser chacune de ses fonctions. Ainsi, suivant une vision dépassant l’ECAD, les Américains travaillent à rendre les combinaisons d’infanterie non plus intelligentes (la régulation de la ventilation ou de sons extérieurs), mais « brillantes ». Connecté à sa combinaison, le soldat se verra injecter des oligo-éléments ou des composés servant à son alimentation. Son rythme cardiaque sera évalué en permanence et il sera localisable du fait d’un GPS intégré.

La technologie civile, plus que la militaire, a fait dans ce domaine des progrès étonnants. Les actuateurs utilisés en aviation – des petits moteurs électriques commandant les surfaces de contrôle – pourraient être facilement utilisés pour mouvoir des membres artificiels. A ce stade, la technologie clef sera invisible : le « nano », en permettant la miniaturisation, autorisera des combinaisons légères, peu encombrantes et renforçant la mobilité comme la maniabilité. Selon de Rosnay, les nanotechnologies biocompatibles permettront de mettre l’homme en réseau : avec l’extérieur, mais aussi avec lui-même. Des biopuces, une fois fondues dans les protéines corporelles, permettraient de communiquer avec elles et d’améliorer physiquement l’homme au niveau atomique, impliquant un réseau de transmetteurs, y compris hormonaux afin de modifier des fonctions métaboliques. Ces mêmes biopuces pourraient produire des médicaments dont la dosimétrie serait pratiquée en temps réel. Il ne s’agit plus ici d’HSI, mais bien d’Human Performance Enhancement (HPE). Le programme PITMAN, mené à la fin des années quatre-vingt-dix visait ainsi à mettre au point un exosquelette de 100 kilos capable de résister à des balles de 12,7mm et qui serait dirigé par les influx nerveux du soldat, par l’intermédiaire d’implants[48]. Si des expériences impliquant de tels implants ont été menées à partir des années soixante-dix sur des chiens et des rats à Stanford, il semble que ce soit l’US Army qui ait été la plus intéressée[49].

Dans un contexte où la recherche est systématiquement planifiée et orientée pour atteindre ses objectifs, les nanotechnologies sont considérées comme étant aussi essentielles que les armes lasers, de sorte que le combattant bionique pourrait, bien plus que le char, devenir la clef des opérations de demain. Mais il ne constitue pas encore l’étape ultime de la technologisation de l’homme. Les percées en génie génétique laissent entrevoir leur militarisation, car « On compte sur le génie génétique pour développer l’aptitude à l’apprentissage, et à l’acquisition de compétences, et améliorer les performances de l’appareil sensoriel, grâce au développement de stimulants »[50]. Effectivement, une généralisation des tests ADN laisse entrevoir la possibilité de sélectionner les meilleurs candidats à une fonction militaire précise, voir la manipulation d’embryons afin de leur faire acquérir ces capacités.

Mais s’il constitue le sommet de la technoscience appliquée au fantassin, un « eugénisme militarisant » ou même un militaro-cyborgologisme ne semblent toutefois pas assurés. Même les plus fervents partisans d’une technicisation à outrance des forces américaines tendent à le rejeter, autant pour des facteurs éthiques que par le manque d’emphase sur des concepts plus traditionnels comme le moral ou l’entraînement[51]. Mais c’est justement parce que l’homme manipulé génétiquement n’est pas un fatras technologique sommant la nanotechnologie et l’humain que cette position pourrait changer.

6) Un cadre stratégique pour les fantassins de demain.

Si le combattant robotisé pourrait raisonnablement devenir « la pointe de la lance » des armées post-modernes, il accentuera sans doute la différenciation des rôles au sein des armées, contribuant à la complexification et à l’émergence de cultures et de sous-cultures dans les organisations militaires. Au-delà, il sera sans doute l’expression quasi-triomphante et toujours remise en question de la notion de supériorité technologique avec ce qu’elle peut drainer politiquement. C’est ainsi que plusieurs auteurs avaient vu dans le différentiel technologique existant au 19ème siècle la principale raison de la colonisation[52] : le cyborg pérénisera-t-il cette vision ? Des Territoires occupés au Sierra Léone, c’est la guérilla plutôt que la guerre classique qui triomphe. Et un combattant info-connecté, info-dominant y semble mieux adapté que le soldat américain de la guerre du Vietnam. En termes filmographiques, nous nous rapprocherions donc de l’Universal Soldier humain plutôt que d’un Terminator robotisé.

Quelque que soit l’intensité techno-biochimique du combattant, il se heurte à une série de problèmes récurrents dans l’histoire militaire. L’info-dépendance des organisations militaires occidentales nécessite, peut-être plus que des systèmes de recueil de l’information, des systèmes permettant de les trier, de les fusionner et de donner au combattant les plus relevantes. L’automatisation constitue elle aussi une forme de réponse. Mais rien ne remplacera jamais le raisonnement humain dans ces évaluations. Les conflits ne se technologisent pas nécessairement. Ils s’humanisent. Dans cette optique, le soldat de demain devra sans doute avoir une connaissance plus profonde que jamais de son environnement. La connaissance des langues et des cultures locales, un sens aigu de la diplomatie et de la psychologie deviennent des atouts dans la conduite des opérations. C’est tout le sens donné aux bataillons de reconnaissance des nouvelles brigades américaines. Comptant les classiques éléments de reconnaissance offensive, ils disposeront aussi d’une capacité de retransmettre en temps réel des interviews, d’ordinateurs à synthèse vocale pouvant effectuer une traduction en temps réel et pourront être relié par vidéo à des traducteurs[53]. La domination informationnelle s’immisce ainsi dans des secteurs non-quantifiables du combat.

Au-delà, c’est à une réforme en profondeur du combattant que l’on arrive : mi-robotisé, il est connecté en permanence à toutes les sources d’informations qui peuvent lui être utiles sur le terrain. Les opérations israéliennes dans les villes palestiniennes nous en offrent un bon exemple : à l’optimisation des matériels pour ces opérations s’est ajoutée une systématisation de l’acquisition du renseignement par des moyens électroniques, vidéo et humains. Les opérations dans les Territoires constituent sans doute une alternative aux visions traditionnelles du combat urbain (l’anéantissement soviéto-russe de Berlin et de Grozny et la progression linéaire allemande de Stalingrad). L’affinement des stratégies montre qu’il existe une réelle problématique du combattant dans un environnement aussi hostile : il est balistiquement aussi vulnérable que ses approvisionnements. Le cyborg y serait aussi à son aise que dans des zones plus classiques du combat comme le désert ou l’open field.

Au surplus, les forces armées actuelles, particulièrement les israéliennes et les américaines sont structurellement toutes disposées à l’accueil de tels combattants. Le peloton de combat tendra à devenir l’unité référentielle de base, non plus dans les seules forces spéciales – qui sont aussi les plus demanderesses d’un combattant cyborgisé – mais aussi dans l’ensemble des autres unités de combat, comme le montre l’ampleur du programme Land Warrior. Du point de vue des tactiques et des stratégies, rien ne tend à prouver que le cyborg serait antinomique des conceptions classiques ou actuelles : bien au contraire. L’accélération des rythmes de combat autant que sa létalité y pousserait plutôt. En somme, le cadre d’accueil du cyborg est prêt.

7) La boucle est bouclée : l’éternelle recherche du soldat idéal.

En regard des technologies militaires utilisées, le combattant a formidablement évolué au travers des âges, contrairement toutefois à la fonction que devait remplir ses équipements. Et si les historiens comme les amateurs trouvaient dans les uniformes et les cuirasses des champs d’intérêt démontrant la variété esthétique des équipements, assez peu se sont intéressés au devenir du combattant en tant que tel. Tout combattant, quelque soit son époque, doit en effet faire face aux trois mêmes impératifs qui se retrouvent dans la conception des chars :

le feu et/ou le choc. La capacité de létalité permise à chaque homme, puis à chaque groupe de combat augmente assez régulièrement et atteint aujourd’hui des sommets. Le découplage entre létalité et capacité de feu à distance permet ainsi une netwar et fait émerger le concept de swarming, une guérilla très ponctuelle mais ultra-active[54]. Mais pour que la létalité puisse être pleinement effective, elle doit tenir compte de deux autres éléments :

la protection du combattant. Le blindé est caractérisé non par sa mission (elles vont de l’artillerie à la guerre électronique) mais bien par son mode de protection. Il en est de même du combattant, jusqu’à une certaine époque : le cuirassier représente le fer de lance des armées modernes comme le chevalier – en armure ou en cote de maille – représentait le défenseur ultime de la féodalité. Mais ce combattant ne sera pas protégé que physiquement. Dans des environnements aussi non-conventionnels que ceux que nous connaissons, sa psychologie sera un élément-clef de son efficacité. Mais pour qu’il constitue autre chose qu’une pièce de musée dont l’efficience opérationnelle serait douteuse, il doit être mobile.

La mobilité du combattant autant que celle du char est souvent présentée comme une des clefs de sa survie. Et si le débat entre chenille et roue continue d’agiter le monde industriel, il ne fait finalement que déplacer la problématique du remplacement du cheval. Permettant au cavalier de disposer d’un blindage, lui assurant une maniabilité que peu de véhicules peuvent lui prodiguer, le cheval avait l’inconvénient de ne pas être inépuisable et d’avoir une vitesse limitée. Organisme vivant, le cheval ne pouvait subir ce que le blindé subit. Or, si le second a pris le pas sur le premier, la tendance pourrait s’inverser et le principe même d’une mobilité absolue associée au blindage et à la puissance de feu pourrait réémerger. Sacré roi du second conflit mondial, étalon de mesure de la puissance conventionnelle durant la guerre froide, le char ne semble plus adapté aux défis contemporains. Lourd, il ne peut être facilement aéroporté ou participer massivement à des opérations amphibies. Relativement peu maniable, gourmand en carburant, il semble mal adapté aux conditions de combat urbain vers lesquelles nous nous dirigeons.

Irait-on donc vers une sorte de retour au chevalier, par l’intermédiaire du Cyborg et de son extension génétiquement modifiée ? Quels que puissent être les futurs, il apparaît donc assez clairement que la connectique et la bionique ne représentent plus des avatars de la science fiction mais bien des options de recherche scientifiquement explorées et politiquement encouragées au travers des différents documents de planification américains.

Mais si le combattant robotisé ne contrevient pas en soi à ces conflits, il pourrait le faire d’un point de vue conceptuel. D’une part, il dépend encore largement de percées techniques qui restent si pas à accomplir, du moins à militariser. D’autre part, sa dépendance technologique est une faiblesse en soi. Pour mener des opérations audacieuses, il a besoin d’informations qui peuvent êtres faussées, brouillées ou… absentes. Il a aussi besoin de ressources énergétiques qui ne seront pas systématiquement disponibles sur un terrain qu’il devra pourtant continuer à occuper. Surtout, son intensité technologique ne le dispensera pas d’apprendre les bases millénaires d’un art de la survie et du combat qui pourrait bien lui sauver la vie en cas de faille de son équipement. De ce point de vue, la technologie, quelle que puisse être ses avancées, ne saurait être que la prolongation de l’esprit humain.

Mais surtout, les mutations en cours en matière de connectique comme de bionique ne cesseront sans doute jamais de nous interroger sur les véritables finalités, philosophiques et politiques, d’une intégration si poussée du vivant à la machine. La clôture du monde, son paramétrage absolu, systématique, et la recherche de la performance ne semblent pas être antagonistes d’une efflorescence de la conceptualisation philosophique. Jusqu’ici. Mais l’histoire nous apprend que les extrêmes conceptuels conduisent aux catastrophes parce qu’ils nous empêchent de réellement optimiser les réponses aux situations pour ne nous faire voir que les solutions extrêmes. Comme le Cyborg et ses avatars.

Joseph Henrotin

Bruxelles, le 26 novembre 2002

NOTES

[1] Doctorant en sciences politiques, prépare une thèse sur « Génétique stratégique et effectivité de la Révolution dans les Affaires Militaires ». (Retour au texte)

[2] C’est notamment le cas de J.F.C. Fuller qui considérait que « citation ». (Retour au texte)

[3] Coutau-Bégarie, H., Traité de stratégie, Coll. « Bibliothèque stratégique », Economica/ISC, Paris, 1999, p. 249. (Retour au texte)

[4] Henrotin, J ., « La stratégie des moyens. Vers la guerre technologique ? », L’Art de la Guerre, n°4, octobre-novembre 2002. (Retour au texte)

[5] Gray C.S., « Comparative strategic Culture », Parameters, Winter 1984 ; Colson, B., « la culture stratégique américaine et la guerre du Golfe », Stratégique, n°51/52, 1991-3/4. (Retour au texte)

[6] Et dont la stratégie nucléaire constituerait l’expression ultime. Schelling ou Kahn cherchent ainsi un contrôle de l’escalade nucléaire minimisant les dommages mais maximisant les avantages politiques au terme de la guerre. (Retour au texte)

[7] Edwards, P.N., The closed world. Computers and the politics of discourse in cold war America, The MIT Press, Cambridge (Ma.), 1996. (Retour au texte)

[8] Lelong, B. et Soubiran, S., « Langevin, Brillouin et la marine de guerre. Une pratique en contradiction avec un discours pacifiste ? », La Recherche, Numéro hors-série « La science et la guerre – 400 ans d’histoire partagée », n°7, avril-juin 2002 et Paskins, B, « Prohibitions, restraints and scientists » in Sims, N. (Editeur), Explorations in Ethics and International Politics, Croom Helm, London, 1981. (Retour au texte)

[9] Delmas, C., 1945 La bombe atomique, Coll. « La mémoire du siècle », Editions Complexe, Bruxelles, 1985, p. 71. (Retour au texte)

[10] Liardet, J-P., « Charles Ardant du Picq. La prépondérance du facteur moral », L’Art de la Guerre, n°1, Avril-mai 2002. (Retour au texte)

[11] Ekstein, M., Rites of Spring : the Great War and the birth of the Modern Age, Houghton Mifflin, Boston, 1989, p. 165. (Retour au texte)

[12] Bowden, M., La chute du faucon noir, Plon, Paris, 2002. (Retour au texte)

[13] Elstob, D., « L’artillerie moderne au combat – l’effrayante efficacité des MLRS dans Desert Storm », Armées et Défense, n°31, Paris, août 1992. (Retour au texte)

[14] Francart, L., La guerre du sens. Pourquoi et comment agir dans les champs psychologiques, Coll. « Stratèges et stratégie », Economica, Paris, 2000 et Géré, F., La guerre psychologique, Coll. « Bibliothèque stratégique », Economica/ISC, Paris, 1994. (Retour au texte)

[15] Theweleit, K., Male fantasies. Vol. 2 : psychoanalysing the white terror, University of Minnesota Press, Minneapolis, 1989. (Retour au texte)

[16] Theweleit, K., op cit., p. 199. (Retour au texte)

[[17] Holmes, R., Acts of war  – The behavior of men in battle, Free Press, New-York, 1986, P. 238 (Retour au texte)

[18] Lepingwell critiquera ces lois en démontrant notamment les erreurs mathématiques qu’elles recèlent. Möller, B., s.v. « Lanchester’s law » in Dictionnary of alternative defense, Lynne Rienner Publishers/Adamantine Press, Boulder (CO)/London, 1995 et Lepingwell, J., « The laws of combat ? », International Security, Vol. 12, n°1, Summer 1987. (Retour au texte)

[19] Visant le dépassement de l’étude mathématique pure et simple des opérations, l’OR cherche des éléments de prédictibilité dans les organisations sociales, en considérant toujours les mathématiques comme son instrument central. Elle a été mise au point vers 1937, lors des recherches sur les radars. Allen, T., War games : the secret world of the creators, players, and policy makers rehearsing World War III today, McGraw-Hill, New-York, 1987. (Retour au texte)

[20] La SA croise les données statistiques de l’OR avec celle des sciences humaines et cherche à déterminer l’efficacité des armements futurs. (Retour au texte)

[21] Radine, L., The taming of the troops : social control in the United States army, Greenwood Press, Westport (CN.), 1977,  p. 89. (Retour au texte)

[22] Hables Gray, C., Postmodern war. The new politics of conflict,  Routledge, London, 1997 (Retour au texte)

[23] Jami, I.,  « Le parfum militaire du code génétique », La Recherche, Numéro hors-série « La science et la guerre – 400 ans d’histoire partagée », n°7, avril-juin 2002. (Retour au texte)

[24] Parsegian, V.L.  This cybernetic world of men, machines, and earth systems, Doubleday, New-York, 1973, pp. ix, 2. (Retour au texte)

[25] Blouin, P., « La bulle technologique », Hermès Revue Critique, n°3, hiver 1999, p. 2. (Retour au texte)

[26] Gibson, J., The perfect war : technowar in Vietnam, Atlantic Monthly Press, Boston, 1986. (Retour au texte)

[27] On peut citer les drogues améliorant l’état de conscience, celles atténuant les effets de phobie et d’autres avec lesquelles « vous vous sentiez réellement invulnérable ». Manzione, E., « The search for the bionic commando », The National Reporter, Fall/Winter 1986, cité par Hables-Gray, C., op cit., p. 209. (Retour au texte)

[28] Bédar, S., « La réforme stratégique américaine : vers une révolution militaire ? » in Bédar, S. et Ronai, M., Le débat stratégique américain 1998-1999 : défis asymétriques et projection de puissance, Cahiers d’Etudes Stratégiques, n°25, CIRPES, Paris, 1999. (Retour au texte)

[29] Marks, J., The search for the manchurian Candidate – The CIA and mind control, New-York Times Books, 1979, cité par Hables-Gray, op cit., p. 198. (Retour au texte)

[30] Il s’agissait alors de faire virer un appareil. (Retour au texte)

[31] Ils fonctionnent sur base du raisonnement humain, lequel est la somme d’un processus chaotique d’interactions neuronales assez simple mais se répétant extrêmement rapidement dans le même temps. (Retour au texte)

[32] McRae, R., Mind wars. The true story of secret government research into the military potential of psychic weapons, St Martin’s Press, New-York, 1984, p. 124. (Retour au texte)

[33] Dickson, P., The electronic battlefield, Atheneum, 1976 cité Hables-Gray, op cit., p. 165. (Retour au texte)

[34] Meyer, J.P., RAND, Harvard, Brookings et les autres. Les prophètes de la stratégie aux Etats-Unis, Coll. « Esprit de défense », ADDIM, Paris, 1993. (Retour au texte)

[35] Sans grand succès, semble-t-il. Balaës, J., « L’AFTI/F-16 », Carnets de Vol, n°59, août 1989. (Retour au texte)

[36] Chabbert, B.,  « Au-delà des limites humaines », Science et Vie Hors-Série, n°167, Aviation 1989, juin 1989, p. 142. (Retour au texte)

[37] Janowitz, M., The professional soldier, op cit. (Retour au texte)

[38] Caplow, T. et Vennesson, P., Sociologie militaire, Coll. « U – Sociologie », Armand Colin, Paris, 1999. (Retour au texte)

[39] Burk., J., The military in new times : adapting armed forces to a turbulent new world, Westview Press, Bouler (CO.), 1994, cité par Manigart, P., « Force restructuring : the postmodern military organization » in Jelusic, L. And Selby, J., Defense restructuring and conversion  : sociocultural aspects, COST Action A10, European Commission, Directorate-general research, Brussels, 1999. (Retour au texte)

[40] Hyde, C.K., « Casualty aversion : implications for policy makers and senior military officers », Air Power Journal, Summer 2000. (Retour au texte)

[41] Bédar, S., « La réforme stratégique américaine : vers une révolution militaire ? », op cit. (Retour au texte)

[42] Samuel, E., « US Army seeks nanotech suits », The New Scientist, http://www.newscientist.com/news/ news.jsp?id=ns99992043, 14 March 2002. (Retour au texte)

[43] Samuel, E., « US Army seeks nanotech suits », op cit. (Retour au texte)

[44] http://fas.org/man/dod-101/sys/land/land-warrior.htm (Retour au texte)

[45] Promé, Jean-Louis, « Des super-fantassins pour l’armée française », Raids, n°126, novembre 1996. (Retour au texte)

[46] de Rosnay,  J.,  « Biologie et informatique. Promesses et menaces pour le XXIème siècle » in Ferenczi, T. (Dir.), Les défis de la technoscience, Editions Complexe, Bruxelles, 2001. (Retour au texte)

[47] Hables Gray, C., op cit. (Retour au texte)

[48] Davies, O., « Robotic warriors clash in cyberwars”, Orbis, January 1987. (Retour au texte)

[49] Hables-Gray, C., op cit. (Retour au texte)

[50] Murawiec, L., La guerre au XXIème siècle, Odile Jacob, Paris, 1999, p. 187. (Retour au texte)

[51] Peters, R., « After the revolution », Parameters, Summer 1995. (Retour au texte)

[52] Hedrick, M., The tools of Empire : technology and european imperialism in the nineteenth century, Oxford University Press, Oxford, 1981 ; Mendelsshon, K., The secret of european domination. How science became the key to global power and what it signifies for the rest of the world, Praeger, New-York, 1976. (Retour au texte)

[53] Alcaraz, A., « L’unité de reconnaissance des nouvelles brigades d’intervention de l’US Army », Raids, n°172, septembre 2000. (Retour au texte)

[54] Pisani, F., « Guerre en réseaux contre un ennemi diffus. Une nouvelle doctrine militaire américaine », Le Monde Diplomatique, Juin 2002. (Retour au texte)

©HERMÈS : revue critique et Joseph Henrotin
ISSN- 1481-0301
À jour le vendredi 16 mai 2003


Le retour au chevalier ?
Une vision critique de l’évolution bionique du
combattant ?

Joseph Henrotin [1]

Université Libre de Bruxelles


Sommaire

1) La victime et le bourreau : le modelage cognitif du soldat à la technologie.

2) Premières esquisses de l’intégration homme-machine.

3) Brouillage des référents et adaptation à la technique.

4) Guerre postmoderne, nouvelles conditions du combat ?

5) Vers le combattant du XXIème siècle.

a) Le modèle néo-conventionnel.

b) Le modèle Cyborg : l’ultime limite ?

6) Un cadre stratégique pour les fantassins de demain.

7) La boucle est bouclée : l’éternelle recherche du soldat idéal.


La technologie ne nous est pas extérieure et c’est particulièrement vrai dans le cas des questions militaires, qui concentrent par essence les technologies les plus pointues dans la plupart des domaines. Et si quelques auteurs pouvaient prétendre que les aspects matériels du combat s’opposait à sa conception en tant qu’idée, coulée en doctrine et en stratégies[2], H. Coutau-Bégarie pouvait finalement conclure que « c’est une erreur de croire que le matériel est l’antithèse de l’idée. Au contraire, plus l’investissement matériel est grand, plus l’investissement intellectuel doit suivre »[3]. Il existe toutefois une problématique de la connexion homme-machine, carrefour du pouvoir de décision et de celui d’exécution. La technologie élargit en effet la liberté de manœuvre de la stratégie[4] et il existe outre-atlantique une tension en direction d’un « hyper-technologisme » stratégiquement omnipotent, politiquement fascinant et qui serait directement enraciné dans les cultures technologique, politique et stratégique américaine[5].

C’est que la primauté de l’idée sur le matériel est remise en question par des visions futuristes visant l’automatisation du recueil de l’information et au-delà, par une Revolution in Military Affairs (RMA) voulant assurer au politique une réponse à chaque problème stratégique, une tendance elle aussi récurrente[6]. A ce stade, la question – qui devient un classique des études stratégiques – de l’apport de la technologie à la stratégie se raffine et commence à être évalué en ce qui concerne le combattant. Artisan devenu gestionnaire du feu, ses missions ont autant évolué que ses équipements. Le domaine est fantasmatique par essence. Il fait appel a des instincts refoulés en matière de vision du futur et de caractérisation des menaces supposées ou réelles et multiplie les figures de l’interprétation comme de l’imaginaire. Mais qu’en est-il des projets actuels ? S’il existe une tendance marquée à la robotisation de plusieurs fonctions  du combat, plusieurs auteurs Américains voient dans le développement du soldat-robot – du Cyborg (Cyber Organism) – une conception vers laquelle l’histoire militaire et technologique de ces 100 dernières années tendrait inévitablement.

Au-delà, il s’agit d’une clôture d’un espace devenu informatiquement défini[7] et qui assure au combattant une maîtrise parfaite de sa zone d’opération et d’une recherche de la performance au travers d’une technoscience omnipotente. Cette progression n’est toutefois pas linéaire et a connu des accélérations au fil de guerres qui ont permis de développer et de raffiner des concepts. Mais ce qui semble nouveau, c’est que la régularité (voire l’augmentation) des budgets de défense permet de mener aujourd’hui, en temps de paix, des conceptualisations qui l’étaient généralement en temps de guerre. Logiquement donc, le rythme des percées dans les domaines intéressant le combattant pourrait s’accélérer.  Mais si elle n’est pas linéaire, l’évolution vers le modèle du cyborg est cumulative en ce qu’elle se base sur les expériences antérieures pour progresser, à commencer par celle, totale et disruptive, de la Première Guerre mondiale et de ses batailles ultra-létales aux enjeux complètement disproportionnés.

1) La victime et le bourreau : le modelage cognitif du soldat à la technologie.

Le soldat a d’abord subit la technique, lorsqu’elle est puissance de feu et les boucheries de la Première Guerre mondiale constituent la prolongation dans le domaine militaire du dyptique mécanisation/industrialisation. Elles constituent la figure ultime de la révolution industrielle, du machinisme et du fordisme émergent. Le positivisme comtien est dévoyé, l’idée de progrès est mise au service de la mort et toutes les sphères de la technique sont mises au service de la recherche militaire. La figure thématique et rassurante des « hommes de progrès », est détournée et marque le passage à une étrange schizophrénie du scientifique tour à tour pacifiste et appliqué à une tâche destructrice qu’il ne voulait pas comme telle[8]. Cette responsabilité se teintera d’un mysticisme auquel l’observateur de la technique ne peut manquer d’échapper. Oppenheimer observant l’explosion de la première arme nucléaire, déclarera que « ce fut un spectacle d’une émotion solennelle qui nous força à nous avouer que la vie ne sera plus jamais la même. (…) Un texte (…) me revint brusquement en mémoire : « Maintenant, je suis devenu un compagnon de la mort, un destructeur de mondes ». Oui, ces mots me remontèrent à la mémoire instinctivement et je me rappelle le sentiment de piété profonde que j’éprouvai »[9].

La guerre scientifique est née, produisant non seulement des matériels mais aussi des comportements, affectant les cultures et créant de nouveaux rapports entre les hommes et la technique et entre la guerre et l’homme.  Et si la technique impacte le combat, ce n’est pas seulement parce qu’elle permet une augmentation généralisée de la létalité, voire du tempo des combats. C’est aussi parce qu’elle agit directement sur le moral des combattants. Ardant du Picq a noté que l’effondrement des armées était d’abord moral, et précédait la défaite physique[10] et que par conséquent, la puissance de feu visait d’abord l’effondrement moral. La guerre de Sécession, les guerres coloniales puis la Première Guerre Mondiale sont autant de démonstrations de l’impact tactique d’armes dont la puissance de feu augmente en permanence. A un point tel que Lord Kitchener déclarera durant la Première Guerre mondiale que « je ne sais pas ce qui doit être fait, ce n’est pas la guerre »[11]. Très vite, la technique affecte le soldat comme le général ou le décideur politique. Que l’on se repose trop sur le facteur technologique dans la conduite du combat (les Etats-Unis en Somalie)[12] ou qu’elle amplifie la détermination des combattants à vaincre (Israël), la question technologique restera récurrente. Le feu abasourdi et paralyse[13] et la technologie devient une composante de la manœuvre psychologique[14]. Le soldat acquiert une valeur dissuasive et chaque élément pouvant l’améliorer est généralement considéré comme devant être intégré. Mais cette valeur dissuasive découle directement d’un pouvoir de destruction qui interroge le combattant : est-il simple exécutant ? Technicien en kaki ? Ou partie d’un organisme technicien ?

Le soldat a d’abord muté physiquement. Là où les grands classiques de la stratégie (Jomini, Clausewitz, Puységur) n’accordaient qu’une attention limitée aux moyens du combattant, la fin du XIXème siècle voit une transformation qui s’exprimera pleinement dès 1914. Les couleurs flamboyantes des uniformes du début du siècle sont abandonnées au profit du battle-dress kaki  et le casque fait ses premières apparitions. En somme, le combattant est uniformisé, seuls les grades et le numéro de l’unité permettant de faire la distinction entre les hommes. Surtout, c’est la première étape vers une clôture de l’espace du combattant : ayant perdu son armure avec la Renaissance, le soldat est offert aux coups. Toute l’histoire de son équipement jusqu’à nos jours est celle de la récupération de cette armure psychologiquement rassurante mais techniquement imparfaite. Il peut alors être vu comme un acteur déshumanisé, modelé cognitivement  à la technique, intégré à une armée elle-même vue comme une machine, soumis à des ordres brutaux et corrélativement dégagé de toute responsabilité éthique.

Mais il passe aisément de victime à bourreau. La technique a très vite déshumanisé un combattant mécanisé par la répétition permanente d’actes destructeurs, la mitrailleuse étant souvent pris comme l’exemple-type d’une mort elle-même mécanisée. Dans ce contexte, Theweleit autant que plusieurs poètes de la Grande Guerre font le constat de mécanisations réelles (le char ou l’utilisation massive de l’artillerie) et perçues, comme la routine « mécanisante » des offensives. Elles produiraient une anomie du combattant placé en situation de stress et de rupture avec son environnement affectif, Theweleit en arrivant à la conclusion que le sens de la technique s’oriente vers le dépassement des limitations d’un être humain[15] beaucoup trop exposé sur le champs de bataille.

La mécanisation est telle que « l’unité et la simplicité de la machine fabricante d’objets se dissout ; la machine devient l’expression d’une multiplicité de formes esthétiques semi humaines. Donc, l’humain devient une machine imparfaite, (qui n’est) plus capable de produire, seulement d’exprimer et de propager les horreurs qu’il a subit (…) La machine expressive « avion » largue des bombes sur les machines de production, comme les corps mécanisés de soldats-mâles anéantissent les corps de chair et de sang. La libido de ces hommes est mécanisée et leur chair est déshumanisée à travers la mécanisation »[16].   Exécutant dont les ressorts éthiques sont brisés au nom de la discipline et de la loyauté, le combattant devient pour Holmes « la pure violence technologiquement administrée (qui) semblait forcer la régression des combattants à des formes de pensées et d’actions qui étaient magiques, irrationnelles et mystiques (…) »[17]. Réduit à une somme de réflexes encouragés par des entraînements répétitifs et tout aussi mécanisant que le combat, le soldat ressent aussi la « mécanisation psychique » des états-majors. Dès 1914, l’Operationnal Analysis devait déterminer mathématiquement les principaux modèles de conduite du combat, donnant naissance à des « Lois de Lanchester » (1916), jamais véritablement démontrées[18]. La guerre passe des très humains domaines de la friction, du génie et du coup d’œil clausewitzien à une recherche systématique des certitudes qu’offrirait artificiellement un combat rationalisé, une caractéristique notable de la Seconde Guerre mondiale.

2) Premières esquisses de l’intégration homme-machine.

A la suite de l’Operationnal Analysis (OA), l’Operationnal Research[19] (OR) et le System Analysis[20] (SA) ont été systématiquement appliquées, aussi bien dans la préparation des bombardements que dans la conduite de cette logistique si essentielle à l’obtention de la puissance de feu massive que le style américain de guerre imposerait. C’est l’ère de la production de masse –  symbolisée par les millions de camions, blindés et avions du Victory Program – et la rationalisation entraîne l’optimisation des comportements et des organisations militaires autant que des équipements. La connexion entre l’homme et la machine devient une réalité dans le domaine aéronautique. La diversification des équipements, l’électronique embarquée, des radios, la complexité et la durée des missions impose de mieux intégrer l’équipage à sa machine. L’ergonomie est ainsi née de la volonté d’optimiser les missions de bombardement stratégique. De la sorte, « les militaires font se rencontrer les hommes aux machines (aussi bien que la rencontre sous certains aspects des machines aux hommes). L’homme est l’extension de telles machines comme les pièces d’artillerie, ou les systèmes d’armes généralement ; il complète certaines limitions que la machine a du fait de son développement incomplet »[21]. Le combattant devient partie intégrante des systèmes d’armes après en avoir été son extension cognitive et naturelle et qui in fine reproduira la figure de l’homme de progrès au niveau militaire : c’est l’émergence d’une connectique qui sera déclinée dans tous les secteurs de l’armement. En Allemagne, Guderian tire ainsi pleinement parti de l’utilisation des radios dans des chars plus sûrs, puissants et surtout produits en masse : la notion de réseau atteint pleinement le domaine tactique de la guerre. Ce même char modèlera le comportement d’un soldat devenu technicien d’autant plus facilement que la recherche produit des armes techniquement complexes mais simples d’utilisation.

Mais l’homme a ses propres limites, et la figure du robot, si elle ne s’impose pas encore, sort de la science-fiction : dès la fin de la Seconde Guerre mondiale, la force aérienne américaine avait reconverti avec un succès mitigé des bombardiers en missiles de croisière en les dotant d’une caméra et en les télépilotant. Une dizaine d’années plus tard, le Strategic Air Command (SAC) déployait des missiles de croisière stratégiques Snark et Navaho, capables de couvrir plus de 10.000 km et disposant d’un guidage terminal basé sur un radar intégré. Techniquement parlant, l’arme-phare de la guerre froide, le missile balistique, est lui aussi un robot balbutiant les prémices de la très actuelle Intelligence Artificielle. Préprogrammé, il atteint seul sa cible sans aucune intervention après son lancement, laissant la place à l’inquiétude d’une guerre nucléaire accidentelle et complètement incontrôlable. La crainte de la faille technologique restera récurrente. Surtout, l’époque est propice au dépassement des limites humaines et Eisenhower lui-même demandera le remplacement des hommes par les machines.

Mais l’OR ou la SA n’ont pas seulement visé l’application d’une rationalité mathématique à la conduite de phénomènes sociaux complexes. Elles ont aussi 1) poursuivis le modelage cognitif du combattant (C. Hables-Gray fait ainsi remarquer que les approches logistiques du Goulag, de la Shoah ou du bombardement stratégique sont virtuellement identiques[22]) et surtout 2) fait émerger la théorie de l’information. En travaillant sur les conduites de tir, le mathématicien Norbert Wiener en était arrivé à une théorie de l’information centrée sur la notion de feedback et qui serait applicable aussi bien aux machines qu’aux humains[23]. Ce « plus petit dénominateur commun » est une révolution conceptuelle permettant le cyborg. Dès lors, l’analyse mathématique des systèmes s’attaque à l’Intelligence Artificielle. En résulte une cybernétique répondant à 6 critères : 1) les « interactions des machines ou des organismes avec l’environnement » ; 2) « un propos, ou un objectif » ; 3) « l’utilisation de principes de contrôle » ; 4) « des interactions impliquant un feedback » ; 5) « le feedback peu prendre la forme d’une information » ; 6) « l’énergie est utilisée pour répondre à des changements et pour maintenir la stabilité »[24].

Une révolution informatique se prépare et pour un critique de P. Edwards, « le discours du cyborg, qui sera aussi de la guerre froide, (…) est aussi un ensemble de positions subjectives, non fictives, mais bien réelles. Edwards veut démontrer comment la stratégie américaine de la guerre froide a été élaborée en grande partie par celle de l’ordinateur, et comment, en contrepartie, les questions stratégiques ont été formées par la technologie de l’informatique »[25]. Mais les grandes percées sont encore éloignées : le manque de capacité de calcul des ordinateurs est patent, comme la miniaturisation des composants et la connaissance biologique de l’homme est insuffisante. A ce stade, nous sommes au début des années soixante et la guerre du Vietnam interrogera bientôt une éthique qui deviendra quasi-inséparable de toute avancée technique.

3) Brouillage des référents et adaptation à la technique.

Expression parfaite du System Analysis, elle est vue par Gibson comme une « guerre parfaite »[26] ayant fait régner une technoscience envisagée comme une rationalité déconnectée de l’éthique et du contrôle politique. Elle instrumentalise la science et applique cette dernière dans les domaines les plus divers, à commencer par un combattant qui reste l’ultime limite, la plus complexe, mais aussi la plus porteuse militairement. Dans les années soixante, on n’envisage pas encore l’automatisation du champ de bataille et le soldat reste le principal atout des forces sur le terrain. D’autant plus qu’une guérilla telle qu’elle existe au Vietnam est humainement très intensive, même pour les Américains. Certes, ils testent et mettent en service bon nombre de senseurs, mais il ne restent que des auxiliaires : le premier senseur reste l’homme, un point de vue qui restera d’actualité.

Depuis la Seconde Guerre mondiale, la ration de café du soldat américain comporte en moyenne trois fois plus de caféine que les cafés commerciaux et assez rapidement, l’alcool avait été un moyen d’évasion de la réalité du champ de bataille. Mais il était aussi devenu récompense et avait été utilisé pour désinhiber le combattant tout en faisant tomber les barrières psychiques de sa peur. Durant le Vietnam, une étape supplémentaire est franchie : plusieurs types de psychotropes et d’anabolisants sont testés et utilisés opérationnellement dans certaines unités. Mais si certaines de ces techniques ont échoué et que d’autres ont été étudiées[27], elles renouvellement surtout la problématique de la déshumanisation. Mais derrière elles se cache la névrose de guerre – rebaptisée Post Traumatic Stress Disorder (PTSD) – et une schizophrénie semblable à celle qui animait les stratèges nucléaires durant la guerre froide et qui les faisait osciller entre un usage de l’arme nucléaire en tant qu’arme de dissuasion et en tant qu’arme de combat, entre la guerre et la paix. En réalité, la force est ambivalente dans ses formes comme ses impacts et le technicien à la recherche de certitudes absolues s’en accommode mal.

Aussi, les référents du combattant se brouillent, comme les notions de bien ou de mal ou encore la distinction entre ami et ennemi, très actuelle mais que les Américains apprendront durement au Vietnam. Les frontières conceptuelles deviennent moins claires : nous en sommes à la racine des « zones grises » évoquées par Saïda Bédar lorsqu’elle cherche les ressorts de l’actuelle action stratégique américaine[28]. Pour contrer ce brouillage des référents, l’éthique est remise en question – elle qui nous semble si perpétuellement en chantier – et la conception même de la société est ébranlée dans les discours de Mai 68. Et si des résistances à la technique et à la pensée technicienne se produiront au sein même des institutions militaires, c’est le monde académique qui sera le plus médiatisé. Les travaux de l’Ecole de Francfort puis ceux d’Ellul ou de Mumford montraient les risques d’enlisement de la science mais aussi l’instrumentalisation de l’homme qu’elle permettait.

La peur des failles et des accidents technologiques devient récurrente et constituera toujours un contre-argument de choix dans les vélléités de (semi-)automatisation des fonctions combattantes qui comptera des échecs retentissants. Lors d’une démonstration de l’automoteur antiaérien DIVAD, les systèmes pointeront les canons de l’engin sur la tribune officielle. Plus gravement, en 1988, le croiseur américain Vincennes abattra un Airbus iranien, faussement interprété comme un appareil militaire ayant des intentions hostiles. Entre poussées technique et remises en questions philo-politiques, il existe donc des mouvements de fond contradictoires qui sont politiquement et stratégiquement contenus : on en reste à une vision soumise à l’homme de la technique, et les valeurs traditionnelles sont réinterprétées pour être réinjectées dans les discours politiques et stratégiques de telle sorte que la modernité n’est pas encore interprétée comme disruptive.

Mais les réticences à la technoscience n’empêcheront pas d’envisager le modelage du comportement humain et de chercher les facteurs pouvant l’influencer et le forcer à faire une action. La CIA aurait ainsi travaillé dès les années cinquante sur des stimuli électriques sur le cerveau de rats, de chats, de singes et de chiens, de façon à pouvoir diriger leur course, ce à quoi elle semble être parvenue[29]. A ce stade, la capacité d’influence est dépassée par la possibilité d’une bionique connectant véritablement le vivant au matériel. Les recherches sur le cerveau ont notamment permis de développer des techniques prédictives du comportement et plus spécifiquement, de permettre le pilotage d’avions par la pensée, testée en simulateur avec un certain succès semble-t-il[30]. Dans la foulée de la cybernétique, les dauphins comme les chauve-souris sont étudiés pour améliorer les revêtements des sous-marins ou les radars et les neurones sont disséqués. En l’occurrence, l’étude de leur structure permettra de créer les architectures d’ordinateurs « massivement parallèles »[31], hyper-puissants et qui seront fondamentaux pour des applications aussi complexes que les défenses antimissiles. Si les premiers résultats opérationnels des plus futuristes de ces recherches se feront encore attendre, il est remarquable de constater la rapidité d’émergence de ces idées.

Elles font mieux ressortir la conscience des limites du combattant et elles rapprochent les sciences médicales et biologiques de la stratégie tout en s’articulant à la recherche de la performance de la technoscience. Il en est ainsi de l’usage des drogues et du développement de médicaments, mais aussi d’une approche parfois à la limite de l’ésotérisme et du modèle du « moine-guerrier » qui intègre le charroi techno-fantasmatique. Car si la connexion homme-machine met souvent la technologie et sa philosophie à l’honneur, elle met aussi en évidence une approche biaisée d’un combattant dont le modelage cognitif se poursuit au-delà des conflits mondiaux. Et un colonel américain des forces spéciales d’ajouter que « vous découvrirez deux ressources qui jouent clairement en notre faveur : Dieu et la microélectronique. La beauté là-dedans est que vous pouvez utiliser la microélectronique pour projeter l’esprit… le cerveau travaille comme çà. Faites avancer le champs des armements microélectronique »[32]. Mais il restait à appliquer un certain nombre de résultats à l’homme. Une institution comme l’Human Ressources Research Office (HUMRRO) de l’US Army dépassera conceptuellement les travaux de la CIA et renouvellera la thématique de l’engineering humain. Il faut ainsi un « (…) entraînement à un système dont l’homme doit être partie, qu’il s’agisse d’un « système-fusil », d’un hélicoptère ou d’une batterie de missiles. L’approche de l’HUMRRO – et subséquemment celle de l’armée – est de voir l’homme comme une partie intégrante des systèmes d’armes »[33].

4) Guerre postmoderne, nouvelles conditions du combat ?

Durant la guerre froide, la conceptualisation du combat nucléaire tactique est un bon exemple de l’approche humain-système, qui avait fait de Darwin un stratège global et de la sélection naturelle un paradigme stratégique. L’homme devait encaisser les contraintes psychologiques propres au combat, l’affaiblissement de son organisme du fait des radiations, tous les traumas possibles et imaginables et au surplus la crainte que sa combinaison ne le protège plus efficacement. Dans un tel contexte, le combat nucléaire doit prendre en compte le comportement de combattants qui est modélisé, coulé en variables et maîtrisé au maximum – l’information reste centrale. Avec les combinaisons de protection, nous entrons ainsi directement dans le domaine du Cyborg : les tenues protègent intégralement le combattant, lui permettent de respirer, disposent d’une capacité de ravitaillement en eau et en nourriture et pourront intégrer des radios individuelles. En clôturant l’horizon du soldat, les combinaisons le coupent de la réalité.  Mais cette rupture avec la réalité est aussi méthodologique : Un think tank tel que la RAND Corporation participera directement à ces recherches au travers d’une démarche entre SA, prospective et futurologie et cherchant à déterminer un combat sur pour lequel aucune expérience historique n’est disponible[34].

Dans le même contexte, l’aéronautique reste en pointe dans l’intégration homme-machine. Dès le début des années soixante-dix, les entreprises du secteurs travaillent toutes sur des projets de cockpits rentabilisant au maximum le travail du pilote. Certaines fonctions sont prises en charge de façon complètement automatique, comme les contre-mesures électroniques. Dans un deuxième temps, dès les années quatre-vingt, l’intégration est poussée encore plus loin : les pilotes d’hélicoptères AH-64 Apache disposent de capteurs traçant le mouvement de leurs yeux et dirigeant automatiquement le canon de la machine sur l’objectif. Le dispositif, connu comme « Helmet Mounted Cueing System » est en cours d’intégration sur plusieurs types d’appareils de combat et servira au tir de missiles. A ce stade, ce que le pilote voit n’est déjà plus la réalité : les prises des caméras infra-rouge lui parviennent à travers un petit écran intégré au casque et placé devant leurs yeux. On évalue sur le AFTI F-16 des commandes vocales[35] et au-delà, on tentera d’arriver par le truchement de la réalité virtuelle à ce qu’un avion de combat soit piloté à distance par un pilote installé en sûreté.

Un observateur commentait en 1989 : « Les chasseurs dernier cri ont tout (…). Mais l’exploitation de leurs performances dépend d’un si grand nombre d’automatismes que le pilote avec ses limites physiques, devient le maillon faible (et peut-être superflu) de la chaîne »[36] Aussi, selon plusieurs estimations, les dernières versions du F-35 seront pilotées à distance, alors que les Etats-Unis testent d’ores et déjà un Unmanned Combat Air Vehicle, le X-45. Furtif, il sera capable de mener des opérations dans des environnements hautement hostiles et de supporter des facteurs de charge (les « G ») bien plus importants que ce que les pilotes seraient en mesure de supporter. Dans le même temps, les militaires robotisent largement leur renseignement en introduisant des drones, avions légers télépilotés, qui avaient permis aux Israéliens de repérer les batteries anti-aériennes syriennes dans la plaine de la Bekaa en 1982. Mais le succès des drones ne sera complet qu’après la guerre du Golfe et dans le courant des années quatre-vingt-dix, chaque Arme américaine voulant les siens, avec leurs performances et leurs endurances spécifiques. Les forces spéciales devraient aussi tirer parti de la combinaison des drones et des nanotechnologies pour disposer d’hélicoptères dotés de caméras qui les précéderont pour les éclairer dans les zones dangereuses, des machines de l’ordre… de quelques centimètres. Bien entendu, l’intégration au groupe de combat restera optimale par l’intermédiaire d’ordinateurs portables militarisés. Les objectifs poursuivis restent donc identiques : la performance, l’intégration du combattant à son environnement et à sa machine et cette fois, la compression des temps de réaction.

De tous ces éléments, il en sera question dans le concept AirLand Battle 2000. Laissant planer son ombre sur tous les documents doctrinaux qui suivront, il mysticise la technique à la limite de la science-fiction. Les stratégistes poussent les hommes comme les matériels à la limite du supportable : vue des années quatre-vingt et de ce qui est encore la guerre froide, les années quatre-vingt-dix montrent une troisième guerre mondiale plutôt conventionnelle que nucléaire. Mais ultra-létale, ayant un très haut tempo des opérations, voyant l’usage d’armes nucléaires tactiques, recourrant à la guerre biologique, centrée sur l’informatique, les réseaux de senseurs automatiques et impliquant l’automatisation de nombreuses fonctions. Et prenant finalement en compte comme référent stratégique le modèle expérimenté durant la guerre du Golfe et conçu plus de dix ans auparavant. On en est au sacre de la pensée technicienne.

Janowitz met en avant l’évolution du combattant d’un ethos du manager vers un modèle post-héroïque[37] Les forces armées sont marquées par la professionnalisation, la féminisation, les évolutions de la spécificité du métier militaire[38], celles de leur recrutement et la redéfinition de leurs missions[39]. La diffusion des modèles de combat occidentaux aboutit à une minimisation de l’usage de la violence et à l’émergence des conceptions de type « zéro mort »[40]. La proportion de non-combattants en regard des combattants explose. Les unités de combat deviennent précieuses. Et même si de nouvelles formes de blindage sont mises au point et que l’on engage l’adversaire à distance, l’aversion des sociétés occidentales pour les pertes pousse à trouver de nouvelles solutions. Les conditions du combat ne changent toutefois pas fondamentalement après 1989.

Dans le spectre des conflits qui pourraient éclater, la plupart seraient des conflits de basse intensité où les objectifs politiques seraient limités et se déroulant de plus en plus fréquemment dans des centres urbains, là où la traditionnelle distinction entre civils et militaires semble s’effondrer. Ce « contexte somalo-vietnamien » est le siège d’un des enjeux majeurs de la stratégie militaire : assurer sa survie dans des zones où les objectifs sont peu identifiables et où toute supériorité technologique est automatiquement et systématiquement remise en question par les menaces asymétriques. Historiquement, on constate que les guérillas n’ont jamais été matées autrement que par le génocide et n’offrent généralement que des possibilités de repli diplomatique. Or, l’éthique aussi bien que l’honneur nous interdisent de ne pas prendre parti comme de ne pas pratiquer le génocide. Lorsque les interventions s’imposeront, quelle seront donc nos réponses ?

Pour le Pentagone, elles seront pour la plupart de nature technologique. La préclusion, entendue comme le traitement des menaces asymétriques par la domination informationnelle[41] l’action préemptive (l’attaque de l’adversaire avant même qu’il n’ait entamé le combat), l’aéromobilité et une domination technologique systématique sont ainsi variablement entendues dans la plupart des études sur la RMA. Surtout, l’information n’est plus un paramètre du combat, c’est un paradigme. Corrélativement, les unités doivent être numérisées, intégrées dans des réseaux C4I2 (Command, Control, Communications, Computer, Intelligence, Interoperability). Et lorsque l’on parle d’unité, il s’agit aussi bien des corps d’armée que chaque véhicule ou de chaque homme, qui doit être identifié, géographiquement localisé et intégré dans une toile panoptique éliminant toute forme d’incertitude quand à la configuration de la zone de bataille. Qu’il s’agisse ou non d’une révolution dans les affaires militaires est une question pertinente. Car les réponses qu’entend donner Washington aux conflits de basse intensité ne sont pas foncièrement différentes que celles qu’il a appliqué au Vietnam où existait déjà une obsession informationnelle : l’encadrement des combattants locaux par les forces spéciales en Afghanistan n’est que la réédition revue et légèrement corrigée de la vietnamisation. Mais ce néo-désengagement des conflits n’est pas une solution en soi : il ne donne toujours pas les assurances et les certitudes que la technoscience entend donner et que les dirigeants cherchent instinctivement.

5) Vers le combattant du XXIème siècle.

Les forces aériennes peuvent certes effectuer un grand nombre de missions, d’autant plus si elles sont robotisées, mais elles ne sauraient en aucune manière occuper le terrain, ce qui reste indispensable dans les missions de maintien ou de rétablissement de la paix et a fortiori de contre-terrorisme. La place de l’homme reste d’autant plus centrale qu’il est aussi le senseur le plus perfectionné à la disposition des forces, la base même du système d’information. Aussi est-il d’abord protégé en fonction de ses missions : les soldats occidentaux bénéficient systématiquement de gilets pare-balles mais aussi de tenues plus seyantes, laissant respirer la peaux et ayant de bonnes propriétés thermiques. Depuis les années quatre-vingt, le casque « Fritz » fait sa réapparition, protégeant la nuque et les oreilles des ondes de choc sonores, mais cette fois, il est en Kevlar. Les brêlages, porte-chargeurs et autres petits équipements sont conçus de façon ergonomiques, comme son arme, qui tend à devenir ambidextre et qui, pour certaines, laissent voir ce qu’il reste de munitions au travers d’un chargeur transparent. Les lunettes de protection font leur apparition, avant qu’elles ne soient dotées d’une protection contre les lasers (de télémétrie et de combat) : les yeux sont le premier senseur du combattant.

Devant la menace biologique, les cocktails de vaccins se raffinent, non sans qu’ils soient remis en cause. Devant le chimique, le soldat emporte des seringues d’atropine et des comprimés de pyritostigmine devant protéger un tiers de ses centres nerveux en cas d’absorption de gaz neurotoxiques. Les Meals Ready to Eat (MRE), ses rations de combat, ont fait l’objet d’études les optimisant diététiquement. Chaque secteur de son environnement au combat aura été optimisé. Mais en contre-partie, il s’alourdit dangereusement : le soldat américain moyen prend 63 kilos avec lui pour partir au combat[42]. Mais comme la condition physique moyenne aux Etats-Unis comme en Europe est inférieure a ce qu’elle a pû être, la résistance à l’effort est moindre, de sorte que les standards de formation ne peuvent pas être augmentés aussi rapidement que n’augmente le poids des équipements. Qui devra tout aussi logiquement augmenter : la domination informationnelle implique de dépasser l’interconnexion des véhicules pour atteindre les hommes. Global Positionning System (GPS), radios individuelles, lunettes de vision nocturne, ordinateurs portables voire caméras et leurs batteries s’ajouteront vraisemblablement au paquetage des unités combattantes. La limite du physiquement supportable sur des durées respectables sera donc assez rapidement atteinte et deux catégories de modèles – non-exclusifs – pourraient se dessiner :

a) Le modèle néo-conventionnel.

Il vise l’utilisation de techniques éprouvées ou en cours de développement et son intégration à l’équipement d’un soldat qui reste fondamentalement intégré aux systèmes d’armes dont il se sert, reproduisant conceptuellement l’approche de l’HUMRRO. L’utilisation des nanotechnologies permettra assez rapidement de minimiser le poids des équipements emportés, un objectif poursuivi par l’institut des nanotechnologies pour le soldat, créé en mars 2002 au MIT. Recevant 50 millions de Dollars sur cinq ans, il va aussi travailler sur certains polymères qui, une fois électriquement excité, réfractent la lumière différemment, rendant le soldat presque invisible. Dans le même temps, le travail se poursuivra sur les tenues « caméléon » : utilisant les mêmes principes, leurs couleurs s’adaptent automatiquement au milieu ambiant. A plus long terme, le MIT développera aussi des muscles artificiels engrangeant l’énergie lorsque le soldat marche ou court et la restituant lors d’un saut, par exemple[43]. Au-delà, les Army Science and Technology Master Plan de 1998 et de 1997 proposaient la notion d’Human System Integration (HSI), incluant plusieurs champs de développement techniques :

L’information display and performance enhancement qui vise l’acquisition de la domination informationnelle au niveau du combattant et qui, pour ce faire, multiplie les senseurs à sa disposition ;

Le Design integration and supportability qui permettra d’améliorer l’efficacité au combat des équipements, son coût de revient et surtout qui permettra d’intégrer de façon optimale l’ensemble des systèmes.

L’ensemble comporte des « a-côtés », comme l’intégration au réseau de simulation SIMNET et l’intégration des personnels dans les réseaux C4I2 qui sont déjà partiellement des réalités au travers du Land Warrior. Soldat aux aspects relativement futuristes, le Land Warrior vise d’abord la létalité, ensuite la survivabilité et enfin l’intégration aux réseaux C4I2. Il est intégré à son arme dans la mesure où le viseur thermique et la caméra vidéo de cette dernière est relié au calculateur que le combattant porte dans le dos, les images recueillies étant projetées sur à l’intérieur de ses lunettes (lui permettant de tirer sans être exposé). Au travers de son équipement de communication, des graphiques et des données peuvent aussi apparaître sur son Integrated Helmet Assembly Subsystem (IHAS). Dans le même temps, le combattant dispose d’une protection balistique renforcée et les inconvénients de poids ont été pris en compte dans la conception de l’équipement.

Lancé en 1991, le programme a impliqué un investissement de deux milliards de dollars et opérationnalisera 45000 exemplaires jusqu’en 2014[44]. Dans le même temps, la France mettait en service le Félin, suivant une approche comparable. Et tout comme son équivalent américain, il devrait bénéficier régulièrement d’améliorations, de sorte que vers 2020, de nouvelles options pourraient se dessiner, clôturant totalement l’espace sans pour autant robotiser complètement le combattant. Les essais menés à partir des années quatre-vingt-dix sur « le fantassin du futur » montrent ainsi des hommes dotés de combinaisons intégrales et capables de livrer combat dans des environnements de très haute létalité. Le démonstrateur technologique français ECAD ne voit le monde extérieur qu’à travers la caméra montée au sommet de son casque et dont les images sont projetées sur sa visière[45]. Par ailleurs, ces mêmes images peuvent être transmises sur l’ordinateur portable du chef de groupe Les bruits lui proviennent au travers d’un micro ostéophone et sa combinaison ventilée est parfaitement adaptée aux environnements Nucléaire, Biologique et Chimique. Bien entendu, son arme est équipée de senseurs équivalents à ceux du Land Warrior. Et si l’adoption des chaussures anti-mines a été un échec, il semble bien que le reste des sous-systèmes aient eu le comportement attendu et que l’ECAD restera sans doute le modèle du démonstrateur technologique d’infanterie.

b) Le modèle Cyborg : l’ultime limite ?

Les progrès en matière de biotechnologie, de médecine et de génie génétique ont produit dans le civil ce que les militaires n’ont pas encore fait. Les prothèses remplaçant des membres ou le cœur se généralisent, on travaille sur le sang et l’œil artificiel. Les connaissances en virologie progressent, le code génétique est percé et la possibilité de « reprogrammer » un humain est discutée dans les parlements. L’éthique comme l’information sont centrales et tous les espoirs sont autorisés. A ce stade, nous n’en sommes plus à la connectique techno-humaine, nous en sommes à l’intégration bionique, ou, selon J. de Rosnay, à une biotique hybridant l’homme et la machine[46].

Certains modèles conceptuels ont déjà embrayé et montrent un humain-système, conceptuellement découpé en wetware (sous-systèmes hormonaux, cardiaques, cognitifs) ; software (entraînement, réflexes acquis et innés) et hardware (sous-systèmes musculaires, osseux et intégration corporelle)[47]. Continuité logique de la vision de l’HUMRRO, elle est militairement intéressante en fondant le combattant dans un magma de disciplines devant optimiser chacune de ses fonctions. Ainsi, suivant une vision dépassant l’ECAD, les Américains travaillent à rendre les combinaisons d’infanterie non plus intelligentes (la régulation de la ventilation ou de sons extérieurs), mais « brillantes ». Connecté à sa combinaison, le soldat se verra injecter des oligo-éléments ou des composés servant à son alimentation. Son rythme cardiaque sera évalué en permanence et il sera localisable du fait d’un GPS intégré.

La technologie civile, plus que la militaire, a fait dans ce domaine des progrès étonnants. Les actuateurs utilisés en aviation – des petits moteurs électriques commandant les surfaces de contrôle – pourraient être facilement utilisés pour mouvoir des membres artificiels. A ce stade, la technologie clef sera invisible : le « nano », en permettant la miniaturisation, autorisera des combinaisons légères, peu encombrantes et renforçant la mobilité comme la maniabilité. Selon de Rosnay, les nanotechnologies biocompatibles permettront de mettre l’homme en réseau : avec l’extérieur, mais aussi avec lui-même. Des biopuces, une fois fondues dans les protéines corporelles, permettraient de communiquer avec elles et d’améliorer physiquement l’homme au niveau atomique, impliquant un réseau de transmetteurs, y compris hormonaux afin de modifier des fonctions métaboliques. Ces mêmes biopuces pourraient produire des médicaments dont la dosimétrie serait pratiquée en temps réel. Il ne s’agit plus ici d’HSI, mais bien d’Human Performance Enhancement (HPE). Le programme PITMAN, mené à la fin des années quatre-vingt-dix visait ainsi à mettre au point un exosquelette de 100 kilos capable de résister à des balles de 12,7mm et qui serait dirigé par les influx nerveux du soldat, par l’intermédiaire d’implants[48]. Si des expériences impliquant de tels implants ont été menées à partir des années soixante-dix sur des chiens et des rats à Stanford, il semble que ce soit l’US Army qui ait été la plus intéressée[49].

Dans un contexte où la recherche est systématiquement planifiée et orientée pour atteindre ses objectifs, les nanotechnologies sont considérées comme étant aussi essentielles que les armes lasers, de sorte que le combattant bionique pourrait, bien plus que le char, devenir la clef des opérations de demain. Mais il ne constitue pas encore l’étape ultime de la technologisation de l’homme. Les percées en génie génétique laissent entrevoir leur militarisation, car « On compte sur le génie génétique pour développer l’aptitude à l’apprentissage, et à l’acquisition de compétences, et améliorer les performances de l’appareil sensoriel, grâce au développement de stimulants »[50]. Effectivement, une généralisation des tests ADN laisse entrevoir la possibilité de sélectionner les meilleurs candidats à une fonction militaire précise, voir la manipulation d’embryons afin de leur faire acquérir ces capacités.

Mais s’il constitue le sommet de la technoscience appliquée au fantassin, un « eugénisme militarisant » ou même un militaro-cyborgologisme ne semblent toutefois pas assurés. Même les plus fervents partisans d’une technicisation à outrance des forces américaines tendent à le rejeter, autant pour des facteurs éthiques que par le manque d’emphase sur des concepts plus traditionnels comme le moral ou l’entraînement[51]. Mais c’est justement parce que l’homme manipulé génétiquement n’est pas un fatras technologique sommant la nanotechnologie et l’humain que cette position pourrait changer.

6) Un cadre stratégique pour les fantassins de demain.

Si le combattant robotisé pourrait raisonnablement devenir « la pointe de la lance » des armées post-modernes, il accentuera sans doute la différenciation des rôles au sein des armées, contribuant à la complexification et à l’émergence de cultures et de sous-cultures dans les organisations militaires. Au-delà, il sera sans doute l’expression quasi-triomphante et toujours remise en question de la notion de supériorité technologique avec ce qu’elle peut drainer politiquement. C’est ainsi que plusieurs auteurs avaient vu dans le différentiel technologique existant au 19ème siècle la principale raison de la colonisation[52] : le cyborg pérénisera-t-il cette vision ? Des Territoires occupés au Sierra Léone, c’est la guérilla plutôt que la guerre classique qui triomphe. Et un combattant info-connecté, info-dominant y semble mieux adapté que le soldat américain de la guerre du Vietnam. En termes filmographiques, nous nous rapprocherions donc de l’Universal Soldier humain plutôt que d’un Terminator robotisé.

Quelque que soit l’intensité techno-biochimique du combattant, il se heurte à une série de problèmes récurrents dans l’histoire militaire. L’info-dépendance des organisations militaires occidentales nécessite, peut-être plus que des systèmes de recueil de l’information, des systèmes permettant de les trier, de les fusionner et de donner au combattant les plus relevantes. L’automatisation constitue elle aussi une forme de réponse. Mais rien ne remplacera jamais le raisonnement humain dans ces évaluations. Les conflits ne se technologisent pas nécessairement. Ils s’humanisent. Dans cette optique, le soldat de demain devra sans doute avoir une connaissance plus profonde que jamais de son environnement. La connaissance des langues et des cultures locales, un sens aigu de la diplomatie et de la psychologie deviennent des atouts dans la conduite des opérations. C’est tout le sens donné aux bataillons de reconnaissance des nouvelles brigades américaines. Comptant les classiques éléments de reconnaissance offensive, ils disposeront aussi d’une capacité de retransmettre en temps réel des interviews, d’ordinateurs à synthèse vocale pouvant effectuer une traduction en temps réel et pourront être relié par vidéo à des traducteurs[53]. La domination informationnelle s’immisce ainsi dans des secteurs non-quantifiables du combat.

Au-delà, c’est à une réforme en profondeur du combattant que l’on arrive : mi-robotisé, il est connecté en permanence à toutes les sources d’informations qui peuvent lui être utiles sur le terrain. Les opérations israéliennes dans les villes palestiniennes nous en offrent un bon exemple : à l’optimisation des matériels pour ces opérations s’est ajoutée une systématisation de l’acquisition du renseignement par des moyens électroniques, vidéo et humains. Les opérations dans les Territoires constituent sans doute une alternative aux visions traditionnelles du combat urbain (l’anéantissement soviéto-russe de Berlin et de Grozny et la progression linéaire allemande de Stalingrad). L’affinement des stratégies montre qu’il existe une réelle problématique du combattant dans un environnement aussi hostile : il est balistiquement aussi vulnérable que ses approvisionnements. Le cyborg y serait aussi à son aise que dans des zones plus classiques du combat comme le désert ou l’open field.

Au surplus, les forces armées actuelles, particulièrement les israéliennes et les américaines sont structurellement toutes disposées à l’accueil de tels combattants. Le peloton de combat tendra à devenir l’unité référentielle de base, non plus dans les seules forces spéciales – qui sont aussi les plus demanderesses d’un combattant cyborgisé – mais aussi dans l’ensemble des autres unités de combat, comme le montre l’ampleur du programme Land Warrior. Du point de vue des tactiques et des stratégies, rien ne tend à prouver que le cyborg serait antinomique des conceptions classiques ou actuelles : bien au contraire. L’accélération des rythmes de combat autant que sa létalité y pousserait plutôt. En somme, le cadre d’accueil du cyborg est prêt.

7) La boucle est bouclée : l’éternelle recherche du soldat idéal.

En regard des technologies militaires utilisées, le combattant a formidablement évolué au travers des âges, contrairement toutefois à la fonction que devait remplir ses équipements. Et si les historiens comme les amateurs trouvaient dans les uniformes et les cuirasses des champs d’intérêt démontrant la variété esthétique des équipements, assez peu se sont intéressés au devenir du combattant en tant que tel. Tout combattant, quelque soit son époque, doit en effet faire face aux trois mêmes impératifs qui se retrouvent dans la conception des chars :

le feu et/ou le choc. La capacité de létalité permise à chaque homme, puis à chaque groupe de combat augmente assez régulièrement et atteint aujourd’hui des sommets. Le découplage entre létalité et capacité de feu à distance permet ainsi une netwar et fait émerger le concept de swarming, une guérilla très ponctuelle mais ultra-active[54]. Mais pour que la létalité puisse être pleinement effective, elle doit tenir compte de deux autres éléments :

la protection du combattant. Le blindé est caractérisé non par sa mission (elles vont de l’artillerie à la guerre électronique) mais bien par son mode de protection. Il en est de même du combattant, jusqu’à une certaine époque : le cuirassier représente le fer de lance des armées modernes comme le chevalier – en armure ou en cote de maille – représentait le défenseur ultime de la féodalité. Mais ce combattant ne sera pas protégé que physiquement. Dans des environnements aussi non-conventionnels que ceux que nous connaissons, sa psychologie sera un élément-clef de son efficacité. Mais pour qu’il constitue autre chose qu’une pièce de musée dont l’efficience opérationnelle serait douteuse, il doit être mobile.

La mobilité du combattant autant que celle du char est souvent présentée comme une des clefs de sa survie. Et si le débat entre chenille et roue continue d’agiter le monde industriel, il ne fait finalement que déplacer la problématique du remplacement du cheval. Permettant au cavalier de disposer d’un blindage, lui assurant une maniabilité que peu de véhicules peuvent lui prodiguer, le cheval avait l’inconvénient de ne pas être inépuisable et d’avoir une vitesse limitée. Organisme vivant, le cheval ne pouvait subir ce que le blindé subit. Or, si le second a pris le pas sur le premier, la tendance pourrait s’inverser et le principe même d’une mobilité absolue associée au blindage et à la puissance de feu pourrait réémerger. Sacré roi du second conflit mondial, étalon de mesure de la puissance conventionnelle durant la guerre froide, le char ne semble plus adapté aux défis contemporains. Lourd, il ne peut être facilement aéroporté ou participer massivement à des opérations amphibies. Relativement peu maniable, gourmand en carburant, il semble mal adapté aux conditions de combat urbain vers lesquelles nous nous dirigeons.

Irait-on donc vers une sorte de retour au chevalier, par l’intermédiaire du Cyborg et de son extension génétiquement modifiée ? Quels que puissent être les futurs, il apparaît donc assez clairement que la connectique et la bionique ne représentent plus des avatars de la science fiction mais bien des options de recherche scientifiquement explorées et politiquement encouragées au travers des différents documents de planification américains.

Mais si le combattant robotisé ne contrevient pas en soi à ces conflits, il pourrait le faire d’un point de vue conceptuel. D’une part, il dépend encore largement de percées techniques qui restent si pas à accomplir, du moins à militariser. D’autre part, sa dépendance technologique est une faiblesse en soi. Pour mener des opérations audacieuses, il a besoin d’informations qui peuvent êtres faussées, brouillées ou… absentes. Il a aussi besoin de ressources énergétiques qui ne seront pas systématiquement disponibles sur un terrain qu’il devra pourtant continuer à occuper. Surtout, son intensité technologique ne le dispensera pas d’apprendre les bases millénaires d’un art de la survie et du combat qui pourrait bien lui sauver la vie en cas de faille de son équipement. De ce point de vue, la technologie, quelle que puisse être ses avancées, ne saurait être que la prolongation de l’esprit humain.

Mais surtout, les mutations en cours en matière de connectique comme de bionique ne cesseront sans doute jamais de nous interroger sur les véritables finalités, philosophiques et politiques, d’une intégration si poussée du vivant à la machine. La clôture du monde, son paramétrage absolu, systématique, et la recherche de la performance ne semblent pas être antagonistes d’une efflorescence de la conceptualisation philosophique. Jusqu’ici. Mais l’histoire nous apprend que les extrêmes conceptuels conduisent aux catastrophes parce qu’ils nous empêchent de réellement optimiser les réponses aux situations pour ne nous faire voir que les solutions extrêmes. Comme le Cyborg et ses avatars.

Joseph Henrotin

Bruxelles, le 26 novembre 2002

Publié dans Cybernétique, Guerre | Laisser un commentaire

Knowledge management: another management fad? Leonard J. Ponzi et Michael Koenig

Knowledge management: another management fad?

Leonard J. Ponzi
Doctoral Candidate, College of
Information and Computer Science, Long Island University, New York, USA

Michael Koenig
Professor & Dean, Palmer School of
Library and Information Science, Long Island University, New York, USA


Paru dans le no 9 de HRC  (HERMÈS : revue critique)

Introduction

Analytical framework for examining management fads

Quality Circles

Total Quality Management & Business Process Reengineering

The case of knowledge management

Summary


Introduction

Starting in 1995 there has been an explosion in the literature surrounding the developing concept of knowledge management. Today, hardly anyone can attend a conference or read a journal without seeing literature referring to the concept. Despite its popularity, the jury is still out as to whether knowledge management will become a significant and permanent component of management, or just another management fad.

The concept has been defined broadly with a number of definitions being touted. For example, Ponelis and Fair-Wessels (1998) assert that knowledge management is a new dimension of strategic information management. Davenport and Prusak (1998) claim that knowledge management is the process of capturing, distributing, and effectively using knowledge. Skyrme (1997) suggests that knowledge management is the explicit and systematic management of vital knowledge along with its associated processes of creating, gathering, organizing, diffusing, using, and exploiting that knowledge.

This paper’s objective is not to provide another knowledge management definition but to illuminate its current state of development. It uses annual frequency counts of articles on three well-known fads to demonstrate that management fads generally peak in approximately five years. Applying this technique to the concept of knowledge management allows the paper to shed light on the field as a whole.

Analytical framework for examining management fads

In this section, we present empirical evidence that management fads generally peak in approximately five years. We provide support by applying the simple bibliometric technique of article counting to three well-known management fads.

A management fad can be considered an innovative concept or technique that is promoted as the forefront of management progress and then diffuses very rapidly among early adopters eager to gain a competitive advantage. After organizational leaders come to the realization that the concept has fallen short of its expected benefits, the concept is quickly discontinued or drops back to very modest usage.

The graphing of article-counts annually is a bibliometric technique that determines how many articles have been devoted to a given concept over time. The rationale for this method is that bibliographic records are a relativety objective indicator for measuring discourse popularity. In other words, the higher the article counts, the larger the volume of discussion.

The initial result of the article-counting technique is time-series data that can be charted into a lifecycle (Abrahamson & Fairchild, 1999). The most well-known lifecycle shape is an S-curve. It depicts an ideal representation for the emergence, growth, maturity, and decline of an idea or product. In reality, however, not all ideas and products exhibit an S-shaped lifecycle (Rogers, 1995). Our concern is the lifecycles of fads and fashions. As illustrated in Figure 1, fads emerge quickly and are adopted with great zeal, then peak and decline just as fast. Fashions, on the other hand, are fads that briefly show signs of maturity before declining (Wasson, 1978).

Figure 1: Fad & fashion lifecycles
(Source: Wasson 1978)

The theory of management fashion primarily draws from the work of Eric Abrahamson. Abrahamson’s (1991, 1996) theory describes the process by which « fashion setters, » or fashion evangelists, which are generally consulting firms, management gurus, mass-media publications, and business schools, disseminate beliefs that certain management techniques are at the forefront of management progress.

Once information is published in the form of articles, annual counts can be captured to provide time-series data that can be charted and analyzed. Based on the work of Abrahamson (1991, 1996) and Abrahamson & Fairchild (1999), the bibliometric technique of article counting is a reliable analytical approach to begin an analysis of the published literature in order to illuminate and trace the development of a concept.

In recent years, the academic and industry communities have observed numerous management fads – for example, Quality Circles, Total Quality Management, and Business Process Reengineering (Hilmer & Donaldson, 1996). The Quality Circles movement is graphed below for illustration.

Quality Circles

In the early 1980s, Quality Circles became of interest to American manufacturers as a competitive tool in response to the quality gap with Japan. This management technique theorized the importance of organizational goals to achieve greater quality and labour productivity.

A literature review shows that between 1980 and 1982, 90% of the Fortune 500 companies had adopted the Quality Circles management approach (Lawler & Mohrman, 1985). Afterwards, a survey conducted by Castorina and Wood (1988) revealed that more than 80% of the Fortune 500 companies that originally adopted Quality Circle programs in the early 1980s had abandoned them by 1987.

In 1996, Abrahamson created a Quality Circles lifecycle that independently confirms the literature’s claims that the Quality Circle movement was indeed a management fad. Retrieving article counts from ABI Inform, Abrahamson graphed a ten-year trend line representing articles that include the phrase ‘Quality Circles’ in either the title or abstract.

Abrahamson’s results revealed that the Quality Circles movement to have a bell-shape pattern. The pattern depicts a rapid growth starting in 1978 and then reversing in 1982 (see Figure 2). By 1986, this measure returned to its pre-popularity levels, which indicates a management fad.

Figure 2: The lifecycle of quality circles, 1977-1986
(Source: Abrahamson, 1996)

Furthermore, we also observed that Quality Circles’ momentum peaked in five years and we wanted to know if this time period was consistent in other management fashions. To test this proposition, we developed lifecycles with an accepted management fad and a management fashion, namely, Total Quality Management and Business Process Reengineering.

Total Quality Management & Business Process Reengineering

Total Quality Management and Business Process Reengineering were quality movements that became popular in the 1980s and 1990s. To date, neither lifecycle has been charted from a bibliometric perspective.

To capture a broader lifecycle image than Abrahamson’s work, article counts were retrieved on March 16, 2002 from three DIALOG files: Science Citation Index (File 34), Social Science Citation Index (File 7), and ABI Inform (File 15). (See Appendix for Dialog search strings and commands) These files were selected because of their comprehensive and broad coverage of the academic and industry literature.

After counts were captured annually by querying for each key phrase located in the title, abstract or descriptor fields and duplicates removed, the results were graphed using Microsoft Excel. The assumption made is that retrieved records that included each key search phrase in the mentioned bibliographic fields are representative writings focused on the subject.

The resulting Total Quality Management and Business Process Reengineering lifecycle graphs clearly resemble the bell-shape fashion pattern noted earlier in the Quality Circles movement (see Figure 3 and Figure 4). The graphs strikingly illustrate the way in which these movements grew and fell in popularity as represented in the academic and industry literature.

Figure 3: Total Quality Management, 1990-2001


Figure 4: Business Process Reengineering, 1990-2001

When comparing Figures 2, 3, and 4, each management fashion peaked from four to six years after some momentum had started. More specifically, in 1979 Quality Circles appeared to have momentum only to peak in five years. The same holds true for Total Quality Management (starting in the late 1980s and peaking in 1993) as well as Business Process Reengineering (starting in 1991 and peaking in 1995). To this end, it is reasonable to assume that management fads begin to lose popularity in about five years.

The limitations to this assumption are, of course, that this phenomenon has been tested in only three cases and that the article counts were limited to just three databases. The following section discusses the above approach in the context of knowledge management.

The case of knowledge management

To a large extent, knowledge management is being considered by many as an emerging multidisciplinary field associated with the likes of system engineering, organizational learning, and decision support, to mention a few. Skeptics, on the other hand, are claiming that knowledge management is just another fad like Total Quality Management or Business Process Reengineering. In this section, the article-counting technique is applied to the concept of knowledge management in order to illuminate its current state of development.

Using the same approach employed in the earlier cases, article counts were retrieved from the three DIALOG files i.e., Science Citation Index (File 34), Social Science Citation Index (File 7), and ABI Inform (File 15). The retrieved counts were articles that included the phrase ‘knowledge management’ in its title, abstract, or descriptor fields. The assumption made is that retrieved records that included ‘knowledge management’ in these fields represent writings focused on knowledge management.

Figure 5: Knowledge management, 1991-2001

The results, which are graphed above in Figure 5, suggest that knowledge management has weathered the five-year mark and perhaps is becoming an addition to the management practice. The diagram illustrates that the popularity of Knowledge Management expanded rapidly from 1997 through 1999, contracted in 2000, and then rebounded in 2001. To explore the growth period of the knowledge management lifecycle further, an additional bibliometric technique was used to reveal of Interdisciplinary Activity.

Interdisciplinary activity indicates the exportation and integration of theories or methods to other disciplines (Pierce, 1999; Klein, 1996), in our case, to the development of the emerging field of knowledge management. The method ranks journal names of knowledge management source articles from above and then assigns an ISI’s Subject Category Code. ISI’s codes have been operationalized by ISI and have been assumed as indicators of disciplines (White, 1996). This study assumed a threshold count of three or greater. In other words, three or more sources articles in ISI-assigned journals needed to occur in order to be included in the analysis. This threshold reduces the number of random occurrences in journals and indicates the concentration of publication activity.

Table 1: Interdisciplinary activity by column percentage, 1996-2001
Discipline 1996 1997 1998 1999 2000 2001
Computer Science 35.7% 43.1% 42.0% 38.8% 28.7% 36.2%
Business 21.4% 16.9% 32.4% 25.6% 18.0% 20.7%
Management 42.9% 7.7% 5.3% 12.8% 13.2% 17.2%
Information Science & Library Science 15.4% 10.6% 7.9% 16.9% 14.2%
Engineering 10.8% 4.3% 8.6% 13.6% 7.7%
Psychology 6.2% 5.3% 1.7% 1.8% 1.5%
Multidisciplinary Sciences 2.0% 4.0%
Energy & Fuels 0.7% 3.7% 0.7%
Social Sciences 1.7%
Operations Research & Mgt. Science 1.0%
Planning & Development 1.0%
Total: 14 65 207 407 272 401
Interdisciplinary Breadth: 3 6 6 10 8 8

Table 1 is the proportion of disciplinary affiliation of journals over time. In the 1996, interdisciplinary activity appeared mainly in three areas of study, namely, Computer Science, Business, and Management. Through 1999, the number of disciplines, or Interdisciplinary Breadth expanded to 10. According to Koenig (2000), this expansion was in response to new developments in technology and to organizations seeking an advantage in an increasingly competitive market.

In 2000, a pullback in popularity occurred that is, the total number of articles dropped by about 30%. Proportionally, Computer Science and Business experienced a decrease while the remaining six disciplines increased. According to Abrahamson (1991, 1996), swings downward in popularity might be the direct result of shortfalls in realized benefits being experienced by organizations. One such study that indicated knowledge management was coming up short was in 1999, when Bain & Company conducted their well-known survey on management tools and techniques. Bain & Company reported that knowledge management « not only had relatively low utilization but also very low satisfaction scores relative to the average » (Rigby 2001: 145). Finally, while in 2001 the top two disciplines return approximately to 1996 proportions, the breadth of disciplines participating has more than doubled since 1996.

Summary

This paper provides empirical evidence that management movements generally reveal themselves as fads or fashions within approximately five years after having gained some type of momentum. When applying this general rule of thumb to the popular concept of knowledge management, it appears that knowledge management has initially survived.

It is certainly plausible to hypothesize that if knowledge management does indeed mature into a permanent new component of managerial attention, it will continue to grow and in the process undergo a tweaking phenomenon — that is, morphing or transforming into clearer, easier understood concept. The 2000 dip in popularity does suggest such a phenomenon.

To examine whether knowledge management indeed has survived and is on its way to becoming a significant and permanent part of management’s tool box, will require not only the passage of time, but will also require a somewhat more sophisticated analysis. It is quite plausible that this phenomenon could obscure the continued growth of a movement. In other words, focusing on the appearance of a new title term can distinguish between typical fads and more long-lasting phenomena, but a more detailed analysis, which the authors look forward to conducting, needs to be undertaken to determine whether knowledge management is more than an unusually broad shouldered-fad.


To discuss this paper, join the IR-DISCUSS discussion list by subscribing at http://www.jiscmail.ac.uk/lists/IR-DISCUSS.html


Appendix

B 7,15,34
? S ((Total Quality Management) or TQM)/de,ti,ab and py=Year
S1
? rd
Record count

B 7,15,34
S (Business Process Reengineering) or BPR)/de,ti,ab and py=Year
S1 ?
rd
Record count

How to cite this paper:Ponzi, L and Koenig, M (2002) « Knowledge management: another management fad? »   Information Research, 8(1) [Available at http://InformationR.net/ir/8-1/paper145.html%5D© the authors 2002.
Last updated: 24th September 2002
Publié dans Bibliothéconomie, Société de l'information | Laisser un commentaire

The nonsense of ‘knowledge management’ T.D. Wilson

The nonsense of ‘knowledge management’

T.D. Wilson
Professor Emeritus
University of Sheffield, UK
Visiting Professor, Högskolan i Borås
Borås, Sweden

Paru dans le no 9 de HRC (HERMÈS : revue critique)

Wilson, T.D. (2002) « The nonsense of ‘knowledge management' » Information Research, 8(1)
[Available at http://InformationR.net/ir/8-1/paper144.html ]

Abstract

Examines critically the origins and basis of ‘knowledge management’, its components and its development as a field of consultancy practice. Problems in the distinction between ‘knowledge’ and ‘information’ are explored, as well as Polanyi’s concept of ‘tacit knowing’. The concept is examined in the journal literature, the Web sites of consultancy companies, and in the presentation of business schools. The conclusion is reached that ‘knowledge management’ is an umbrella term for a variety of organizational activities, none of which are concerned with the management of knowledge. Those activities that are not concerned with the management of information are concerned with the management of work practices, in the expectation that changes in such areas as communication practice will enable information sharing.


Summary

Introduction

‘Knowledge’ and ‘information’

What is ‘knowledge management’?

Decision Support Systems

Journal of Management Information Systems

Wirtschaftsinformatik

European Journal of Information Systems

Expert Systems with Applications

Nfd Information Wissenschaft und Praxis

IBM Systems Journal

Journal of Strategic Information Systems

Journal of Management Studies

Journal of the American Medical Informatics Association

The consultancy view

Accenture

Cap Gemini Ernst and Young

Deloitte and Touche

Ernst and Young

KPMG Consulting

McKinsey and Company

Price waterhouse Coopers

Conclusion on the consultancies

The view from the business schools

‘Search and replace marketing’

Tacit knowledge

The people perspective

Conclusion

References


Introduction

The growth of ‘knowledge management’ as a strategy of consultancy companies is one of a series of such strategies dating from Taylor’s (1911) ‘scientific management’ of the early part of the last century. ‘Time and motion study’ developed directly out of scientific management and continued into the 1970s as a widespread industrial engineering technique. In the late 1930s, the ‘human relations school’ emerged out of research between 1927 and 1932 at the Western Electric Hawthorne Works in Chicago (Mayo, 1933) and had a considerable influence in the emerging consultancy companies after the Second World War.

In the second half of the last century, the pace of new techniques quickened considerably: we have seen (not in chronological order and not a complete list):

‘the repertory grid’ ‘management by objectives’
‘theory X and theory Y’ ‘T-groups’
‘the matrix organization’ ‘Planning Programming Budgeting System’
‘zero-based budgeting’ ‘organization development’
‘total quality management’ ‘downsizing’
‘organizational learning’ ‘systems thinking’
‘team-building’ ‘cultural change’
‘strategic information systems’ ‘benchmarking’
‘ISO9000 certification’ ‘the balanced scorecard’
‘core competencies’ ‘business process re-engineering’
‘enterprise resource planning’ ‘customer relationship management’
and now
‘knowledge management’.

These have sometimes been called management fads and fashions, but it would be wrong to assume that, for that reason, they all lacked effectiveness when applied in organizations. Some, however, have been disastrous: Stephen Roach, Chief Economist at Morgan Stanley, was a strong protagonist for downsizing, arguing that it was the cure for any company’s problems, but in 1997 he reversed that opinion, arguing that, on the contrary, it could be a recipe for industrial disaster. Jenkins (1997) reports Cameron, a researcher in organizational behaviour, as saying that, « downsizing [is] the most pervasive yet unsuccessful change effort in the business world ». Some techniques fail, or at least are dropped from the repertoire, because they are Utopian in character: organizations are told that the technique must be applied throughout the organization for the full benefits to be achieved. This was the case with business process re-engineering, but businesses quickly realised that the costs of carrying out BPR throughout the organization would be crippling and, because they attempted to apply the technique to only part of the company, the results were less than satisfactory – in fact, two thirds of BPR efforts are said to have failed (Hall, et al., 1994). Knowledge management (whatever it is) also shows signs of being offered as a Utopian ideal and the results are likely to be similar.

‘Knowledge’ and ‘information’

In management consultancy it is, perhaps, not too serious to fail to distinguish between related concepts (although I suspect that management researchers would not be happy with this proposition), but for the fields of information science and information systems, it is clearly necessary for us to distinguish between ‘information’ and ‘knowledge’. Failure to do so results in one or other of these terms standing as a synonym for the other, thereby confusing anyone who wishes to understand what each term signifies.

Happily, it is quite easy to distinguish between ‘knowledge’ and ‘information’ in such a way as to remove ambiguity and, at the same time, demonstrate the fundamental nonsense of ‘knowledge management’.

‘Knowledge’ is defined as what we know: knowledge involves the mental processes of comprehension, understanding and learning that go on in the mind and only in the mind, however much they involve interaction with the world outside the mind, and interaction with others. Whenever we wish to express what we know, we can only do so by uttering messages of one kind or another – oral, written, graphic, gestural or even through ‘body language’. Such messages do not carry ‘knowledge’, they constitute ‘information’, which a knowing mind may assimilate, understand, comprehend and incorporate into its own knowledge structures. These structures are not identical for the person uttering the message and the receiver, because each person’s knowledge structures are, as Schutz (1967) puts it, ‘biographically determined’. Therefore, the knowledge built from the messages can never be exactly the same as the knowledge base from which the messages were uttered.

In common usage, these two terms are frequently used as synonyms, but the task of the academic researcher is to clarify the use of terms so that the field of investigation has a clearly defined vocabulary. The present confusion over ‘knowledge management’ illustrates this need perfectly.

The consequence of this analysis is that everything outside the mind that can be manipulated in any way, can be defined as ‘data’, if it consists of simple facts, or as ‘information’, if the data are embedded in a context of relevance to the recipient. Collections of messages, composed in various ways, may be considered as ‘information resources’ of various kinds – collections of papers in a journal, e-mail messages in an electronic ‘folder’, manuscript letters in an archive, or whatever. Generally, these are regarded as ‘information resources’. Thus, data and information may be managed, and information resources may be managed, but knowledge (i.e., what we know) can never be managed, except by the individual knower and, even then, only imperfectly. The fact is that we often do not know what we know: that we know something may only emerge when we need to employ the knowledge to accomplish something. Much of what we have learnt is apparently forgotten, but can emerge unexpectedly when needed, or even when not needed. In other words we seem to have very little control over ‘what we know’.

What is ‘knowledge management’?

If the definitions above are adequate to distinguish between ‘knowledge’ and ‘information’ (and genuine debate on this would be useful), the question of what ‘knowledge management’ might be becomes interesting. The Web of Science (all three citation indexes) was searched, from 1981 to 2002 for papers with the term ‘knowledge management’ in the title. The search was restricted to the title mainly to produce a manageable data file, but also on the proposition that if the term appeared in the title, the papers were likely to focus clearly on the topic.. The result is shown in Figure 1:

It can be seen that the term did not occur until 1986 and from 1986 to 1996, there were only a few occurrences in each year. From 1997 to date, however, the growth has been exponential (note: the data for 2002 are projected from the data available on 1st November 2002 and, if the projection is accurate, it suggests that the rate of growth has slowed considerably). There is, of course, a problem with a quantitative analysis of this kind – we do not know whether all of the items in the file actually deal with the same subject. Given the fuzziness of the term, authors may be using it to cover a very diverse range of topics. This problem is addressed, partly, in what follows.

When we look in more detail at the items in the first eleven years (1986-1996) we find a very wide range of subjects represented under the heading ‘knowledge management’. Two items were simply editorials in journals – when these are removed we are left with thirty-three papers, the largest single category of which deal with artificial intelligence and expert systems (seven papers), followed by general aspects of computing (four papers), decision support systems (three papers) information technology in general (two papers) and miscellaneous subjects (i.e., databases, digitisation, geographical information systems, and human-computer interaction – four papers) Taking these together as dealing with computing and its applications, we have 61% of the papers. Apart from these computing topics we have education, the human genome project, information policy, information management, organizational structure, product development, terminology, and a variety of other subjects. Clearly, however, before the surge in publication in 1997, ‘knowledge management’ meant some application or other of computers, with the influence stemming from the notion of ‘knowledge bases’ in the expert systems field. The analysis also suggests that, from the beginning, there has been confusion over what the term meant, since few of these papers bother to define the term.

This focus on technology appears to persist: I downloaded 158 references from the Web of Science for 1999 to 2001 into EndNote and then searched the abstracts for specific terms: without taking account of double counting, ‘information technology’, ‘technology’ and ‘software’ occurred a total of 66 times, while ‘information sharing’, ‘communities of practice’ and ‘knowledge sharing’ occurred a total of only 10 times.

To determine the current nature of ‘knowledge management’ in more detail, I searched the Web of Science again (all three citation indexes) for papers published in 2001 with the phrase ‘knowledge management’ in the record. Excluding abstracts of papers, this produced 242 items, distributed over 106 journals. On a relatively crude classification, the 106 journals were distributed across 26 subject fields, with six fields having more than three journal titles. This suggests that the concept (although interpreted in different ways in different fields) is widely distributed across fields of practice.

Table 1: Subject range of journals
Subject area No. of titles
Computing & Information systems 26
Information Science, Information Management & Librarianship 18
Management 13
Artificial Intelligence 10
Engineering 8
Medicine 4

Only 41 journals carried more than one paper with the relevant phrase in the title in the year, and only 10 journals carried more than four. These were:

Table 2: Journal titles with more than four papers on
‘knowledge management’ in 2000
Journal Title No.
Decision Support Systems (SI) 12
Journal of Management Information Systems (SI) 10
Wirtschaftsinformatik (SI) 10
European Journal of Information Systems (SI) 9
Expert Systems with Applications (SI) 9
Nfd Information Wissenschaft Und Praxis 8
IBM Systems Journal (SI) 7
Journal of Strategic Information Systems (SI) 7
Journal of Management Studies (SI) 6
Journal of the American Medical Informatics Association 5

Assuming that these journals constitute the ‘core’ journals of the field (at least for the year 2001), it is interesting to note the strong orientation towards the field of information systems. At least six of the journals are in this area, seven if we include medical informatics within information systems. The exceptions are Expert systems with applications and Nfd Information Wissenschaft und Praxis (interestingly, the only information science journal in the set – although others appear with lower paper counts). This raises the suspicion that, while the range of subject fields in which the concept appears may be wide, the subject within any field is likely to have an information systems orientation.

Further examination of the journals revealed that eight of the papers retrieved were simply Editorials to thematic issues and that the IBM Systems Journal special issue had twelve papers rather than the seven revealed by the search. This gives a grand total of eighty papers to examine to discover what they have in common that can define ‘knowledge management’.

Decision Support Systems

Ten of these papers were in one special issue devoted to ‘knowledge management’. In seven of the eleven papers, the authors are using ‘knowledge’ simply as a synonym for ‘information’. Use of the word ‘knowledge’ adds nothing to the argument and often simply confuses. Sometimes the terms are juxtaposed in curious ways, for example:

« Knowledge management has inspired a shift from a transaction to a distributed knowledge management (DKM) perspective on inter-organizational information processing… Each player in the network acquires specific knowledge from other players for decision support. » (Pederson & Larson, 2001)

This appears to mean no more than, ‘We have decided to call inter-organizational information systems that involve information sharing « distributed knowledge management systems »‘.

One of the eleven papers deals with data-mining, and one deals with business process re-engineering. One offers a systems framework for knowledge management, which is little different from a systems framework for information management, and one explores how managers need to understand things before they make decisions (!).

Journal of Management Information Systems

All of the papers in this journal were in one special issue devoted to ‘knowledge management’ and one was simply the Editorial, without an abstract. The papers are rather less information systems focused than in Decision Support Systems and cover a wide range of topics. At least three or four are simply using ‘knowledge’ as a synonym for ‘information’ and at times the jargon that attempts to hide this fact can be impenetrable One deals with ways to make e-mail more effective, one with other aspects of communication in organization, one with intellectual property rights, one with the fact that firms need an information infrastructure, and one deals with how difficult it is to transfer ‘tacit knowledge’ – quoting Polanyi, but assuming, wrongly, that tacit knowledge can be made explicit.

Wirtschaftsinformatik

Another case of the number of papers being inflated by a special issue – eight of the ten papers are from this issue and one appears to be the Editorial. Half of the papers are simply using ‘knowledge’ as a synonym; for example, describing documents as ‘documented knowledge’, two deal with the barriers in human communication in organizations, one with expert systems, one with hiring people to acquire ‘external information’, and one with the evaluation of ‘knowledge management systems’, i.e., information systems under another name.

European Journal of Information Systems

Six of the nine papers were in one issue of the journal and one was the Editorial. The remaining five deal with various organizational issues, usually without defining what is meant be knowledge, so that one is forced to the conclusion that the authors are writing about ‘information’. How is it possible, for example, to speak of transferring ‘knowledge’ into a ‘database’? It is possible to transfer data about what we know into a database, but it is never possible to transfer the knowledge. Only one paper (Sutton, 2001) asks what knowledge is and whether it can be managed, but then confuses things by referring to information as ‘codified knowledge’. In fact, in most papers, one has the impression that the authors are trying desperately to avoid talking about information and information systems – presumably in order to satisfy the requirements for having their papers accepted in a special issue!

Expert Systems with Applications

Another special issue in which all of the papers are attempts to present expert systems as part of the ‘knowledge management’ fashion. Various techniques are described as ‘knowledge management tools’, but in all cases it turns out that these involve not knowledge but, for example, information about the intellectual resources of a firm, or software ‘agents’ that function on the use of information. It all appears to be part of the attempt to re-sell expert systems under a new label.

Nfd Information Wissenschaft und Praxis

Occasionally authors get tangled up in the lack of a clear distinction between knowledge and information: thus an ‘Enterprise Information Portal’ becomes a ‘knowledge management system’. (Koenemann, et al., 2000) . This journal is predominantly concerned with information science (as the title indicates) and, not surprisingly two of the papers are concerned with information retrieval and information extraction, one with journals and patents as repositories of ‘organizational knowledge’, one with information software of various kinds, one with the role of the information worker in a ‘knowledge economy’, and two with the use of the ‘balanced scorecard’ technique – thereby nicely linking two managerial fads!

IBM Systems Journal

All of the papers are in one special issue of the journal, which, in fact, contains thirteen papers on the subject, not simply the seven retrieved by the search strategy. The papers are rather more diverse that those in the journals examined previously and, overall, are less oriented towards information systems. Nevertheless, five papers have a technology orientation. The first of these, by Marwick (2001) is flawed simply because it accepts, uncritically, Nonaka’s mistaken understanding of Polanyi’s concept of tacit and explicit knowledge. However, this analysis is soon abandoned because Marwick comes to the unsurprising conclusion that, ‘there are still significant shortfalls in the ability of technology to support the use of tacit knowledge – for which face-to-face meetings are still the touchstone of effectiveness.’ and ‘…the strongest contribution to current solutions is made by technologies that deal largely with explicit knowledge, such as search and classification.’ [‘Explicit knowledge’, of course, is simply a synonym for ‘information’.] The first of the remaining ‘technology’ papers deals with ‘knowledge portals’, which turn out to be, ‘…single-point-access software systems intended to provide easy and timely access to information and to support communities of knowledge workers who share common goals.’ In other words, a Web-based information system. The rationale for adopting the term ‘knowledge portal’ becomes very convoluted at times: ‘We refer to information portals used by knowledge workers as knowledge portals (or K Portals for short) to differentiate this KM role and usage from other portal roles, such as consumer shopping or business-to-business commerce.’ (Mack, et al., 2001). The ‘Lotus Knowledge Discovery System’ (Pohs, et al., 2001) consists of a ‘K-station portal’, which is a system to manage ‘…mail, calendar, discussions, to-do items, team rooms, custom applications, and Web sites…’ [Lotus Domino perhaps?], the ‘Discovery Server’, which is ‘…an index to the written information and expertise that exist within an organization’ and which includes ‘spiders’ to gather information from Notes databases, file system files, and external Web sites, and the ‘K-map’, which is, essentially, an information mapping and retrieval system. Of the remaining two technology oriented papers one is on the application of data-mining techniques to textual data bases, but instead of referring to this as ‘text-mining’, it is described as ‘knowledge-mining’. The other paper is a review of the state of the art of speech recognition.

Four papers have more of a social or human orientation: two deal with ‘communities of practice’, defined as ‘…a group whose members regularly engage in sharing and learning, based on their common interests’ (Lesser & Storck, 2001). Somewhat obviously, the authors conclude that such groups benefit the organizations of which they form part, and ought to be fostered by management. The second paper (Gongla & Rizzuto, 2001) describes how such communities have been fostered in IBM. The remaining two papers in this category deal with « human and social factors in knowledge management » and with possibility that one’s view of knowledge management is likely to be determined by one’s personality type – while this argument might have some force, however, the paper is devoid of data and simply offers speculation. Even the first of these two is, in part, a thinly disguised discussion of technology, so perhaps it ought to go into the first category of technology related papers. The authors describe an experimental system at IBM called ‘Babble’, which ‘…resembles a multichannel, text-based chat system to which many users can connect, and either select from a list of conversations to participate in, or create their own.’ (Thomas, et al., 2001) The authors claim that the system differs from a conventional chat system in two ways: first, by the text of the chat persisting over time so that anyone joining a chat can review the whole of what has gone before, and secondly, by representing the participants graphically so that who is present can be seen in one of the windows on the screen. Quite how this constitutes ‘knowledge management’ is not explained.

Two of the remaining three papers deal with what we might term business processes: Fahey, et al. (2001) examine the role of knowledge management in linking e-business and operating processes, which boils down to saying that businesses need to know about their customers in order to develop the right products and the appropriate means of reaching those customers. Here, ‘knowledge’ is, in general, a synonym for information and, where it is not, the authors are describing ways of organizing people so that information can be shared. The second paper, on exchanging ‘knowledge resources’ in strategic alliances suffers from the same problem – generally, the knowledge resources turn out to be information resources, ‘contracts, manuals, databases, licenses, or embedded in products’ or people (Parise & Henderson, 2001).

The final paper in the collection is, ‘Where did knowledge management come from?’ (Prusak, 2001) This is an interesting paper, which cleverly tries to defuse the proposition that knowledge management is nothing but a management consultancy fad, claiming that, ‘knowledge management is not just a consultants’ invention but a practitioner-based, substantive response to real social and economic trends’. However, no evidence is produced to support this contention, so we must assume that it is little more than management consultancy rhetoric.

I have given this issue of IBM Systems Journal more attention than the others partly because some of the papers are genuinely interesting and partly because they are freely available on the Web. However, they reveal much of the same tendencies as in the other journals: a concern with information technology, a tendency to elide the distinction between ‘knowledge’ (what I know) and ‘information’ (what I am able to convey about what I know), and confusion of the management of work practices in the organization with the management of knowledge.

Journal of Strategic Information Systems

Again, we have a special issue devoted to knowledge management (and, interesting to note, no other issue in 2000 had any papers on the subject). We have here a disparate mix of papers (one is the Editorial), half of them concerned with technology. For example, one explores how artificial intelligence might help knowledge management – the general conclusion appears to be ‘not a lot at present’; another, more interestingly, shows the lack of congruence between what a group of competitive intelligence analysts did and the technology being developed to help them (Schultze & Boland, 2000). Two or three papers, however, deal with the ‘people problems’: why people do or do not help one another in communities of practice (Wasko & Faraj, 2000) and how people need to share some underlying cognitive framework if they are to benefit from attempts to share information (Merali, 2000).

Journal of Management Studies

Another special issue and, again, one of the items is the Editorial. As with the other journals, one of the things that jumps out of the page is the lack of any consensus about what ‘knowledge management’ might be. A thoughtful paper argues that, ‘… knowledge is an ambiguous, unspecific and dynamic phenomenon, intrinsically related to meaning, understanding and process, and therefore difficult to manage.’ and ‘…knowledge management is as likely, if not more so, to operate as a practice of managing people or information than as a practice attuned towards facilitating knowledge creation.’ (Alvesson & Karreman, 2001). Another paper, on ‘dispersed knowledge’ in organizations (Becker, 2001) is a case of ‘knowledge’ being used as a synonym for information. The remaining papers are, in effect, cases on how information is created in organizations, and how information is used to guide practice – needless to say, information in these cases is called ‘knowledge’ without the distinction being elucidated.

Journal of the American Medical Informatics Association

The final case is a little complicated, since the search for items in this journal published in 2001 revealed papers actually published in 1999 and 2000 – an instance, presumably, of the Association being well behind in its publication programme. Three of the papers deal with the application of expert systems to clinical decision making and call it ‘knowledge management’; one (Swoboda, et al., 1999) reveals its confusion in the title: ‘Knowledge management: easy access to clinical information’; and the last (Vimarlund, et al., 1999) uses ‘knowledge’ as a synonym for information.

A number of points arise out of this analysis: first, it is curious that the vast majority of papers are in special issues of journals and that, in some cases, no other paper has been published on this topic in the same journal since 2001. This suggests that the topic has not entered the normal stream of papers in these journals using the same terminology – although papers on the same subjects – expert systems, decision making, decision support systems, etc., – have continued to be published. The second point reflects the first: there is absolutely no agreement on what constitutes ‘knowledge management’ and, in the case of the special issues there is a suspicion that the papers have adopted this terminology simply to be published in that issue. Thirdly, those papers that seriously address the question of whether knowledge can be managed generally conclude that it cannot and that the topic breaks down into the management of information and the management of work practices.

On the basis of this evidence, we appear to be with Alice in the land through the looking-glass, listening to Humpty Dumpty’s theory of language.

Of course, the citation indexes of ISI do not index all journals and it takes a considerable length of time before they accept that a journal is worthy of inclusion. This explains the absence of, for example, the Journal of Knowledge Management, now in its sixth volume and the freely available Journal of Knowledge Management Practice, now in its third volume. An examination of the contents of these journals reveals the same problems with the concept of ‘knowledge management’ as those set out above, and the quality of some of the papers is sometimes below that of the journals surveyed here. In the case of the Journal of Knowledge Management, we are informed that it is, ‘…not a refereed journal in its true academic sense.’ (Emerald, n.d.) and this may be a contributory factor.

The consultancy view

If, as proposed, ‘knowledge management’ is, at its centre, a movement driven by management consultancies, it can be useful to look at some of these consultancies to discover what ‘knowledge management’ means to them. We can begin with one of the ‘founding fathers’ of the idea – perhaps the founding father – Karl Erik Sveiby, who wrote the first book on the subject in 1990 under the Swedish title, ‘Kunskapledning‘ (Sveiby, 1990). Sveiby is now a consultant, based in Australia but working globally, and his Web site contains a great deal of information on the subject, although his main concern is now with the measurement of ‘intangible assets’ and other aspects of ‘intellectual capital’. A paper originally written in 1996 notes that ‘knowledge management’ consists of two ‘tracks’: the ‘IT- track’, which is information management, and the ‘people track’, which is the management of people (Sveiby, 2001a). Elsewhere on the site, in the Frequently Asked Questions file, Sveiby answers the question, ‘Why should knowledge be managed?’, to which the response is:

I don’t believe knowledge can be managed. Knowledge Management is a poor term, but we are stuck with it, I suppose. « Knowledge Focus » or « Knowledge Creation » (Nonaka) are better terms, because they describe a mindset, which sees knowledge as activity not an object. A is a human vision, not a technological one. (Sveiby, 2001b)

Of course, academic researchers and teachers do not need to be ‘stuck with’ anything that fails to stand up to rigorous analysis, but it is interesting to see that one of the founders of ‘knowledge management’ is uncomfortable with the term.

Turning to an older and probably better known consultant, we find that Peter Drucker, one of the first people to write about the idea of the ‘knowledge society’ and the ‘knowledge economy’ (Drucker, 1969), disputes the notion that knowledge can be managed. At the Delphi Group’s Collaborative Commerce Summit, Kotzer (2001) reports Drucker as follows:

…Drucker… scoffs at the notion of knowledge management. ‘You can’t manage knowledge,’ he says. ‘Knowledge is between two ears, and only between two ears.’ To that extent, Drucker says it’s really about what individual workers do with the knowledge they have. When employees leave a company, he says, their knowledge goes with them, no matter how much they’ve shared.

Frank Miller, another independent consultant, working in Australia, and with an invited paper in this issue of Information Research, agrees. In the original version of the paper, available on his Web site he says:

…knowledge is the uniquely human capability of making meaning from information – ideally in relationships with other human beings…’
Knowledge is, after all, what we know. And what we know can’t be commodified. Perhaps if we didn’t have the word ‘knowledge’ and were constrained to say ‘what I know’, the notion of ‘knowledge capture’ would be seen for what it is – nonsense! (Miller, 2000)

These, however, are very much individual views. What corporate view of ‘knowledge management’ is presented by the major consultancy companies?

Accenture

Accenture is the former Andersen Consulting: its strengths have long been in the area of information technology management, so it is no surprise to find ‘knowledge management’ equated mainly with information technology. For example, Lotus Software is identified as a partner and the description reads:

This Knowledge Management solution provider enables workers to capture, manage and share information throughout their organizations. (http://www.accenture.com/)

which neatly demonstrates the use of ‘knowledge’ as a synonym for ‘information’. Elsewhere on the site, ‘knowledge management’ is defined as:

…ensuring that the right information is available in an easily digestible format to employees across the organization at the point of need so they can leverage experiences and make more effective business decisions. (http://www.accenture.com/)

which, to this author, reads very much like a 1970s definition of information management.

Cap Gemini Ernst and Young

The management consultancy arm of Ernst and Young was bought in 2000 by the French group, Cap Gemini, to form Cap Gemini Ernst and Young. In this company, ‘knowledge management’ appears to be equated with the management of ‘intellectual capital’ (Loudes, 1999) and this, in turn, means, for example:

  • encouraging information exchange among staff, for example, through formal and informal networking following training;
  • building intranets to provide access to information resources;
  • creating ‘yellow pages’ or indexes to expertise; and
  • creating newsgroups for employees to encourage information exchange.

In other words, at CGEY, ‘knowledge management’ is information management.

Deloitte and Touche

Deloitte and Touch promote ‘knowledge management’ (Eyler, 2001) under a definition provided by another consultancy, the Gartner Group:

Knowledge management is a discipline that promotes an integrated approach to the creation, capture, organization, access, and use of an enterprise’s information assets. These assets include structured databases, textual information such as policy and procedure documents, and most importantly, the tacit knowledge and expertise resident in the heads of individual employees.

which quite clearly proposes ‘knowledge’ as a synonym for ‘information’. The idea of ‘tacit knowledge’ will be dealt with later.

The company clearly views ‘knowledge management’ as amenable to technical solutions, claiming that:

Deloitte Consulting provides system consulting and implementation services for knowledge management solutions in a wide range of applications and scales. The solutions include data warehouse systems, enterprise system integration (data exchange system) with middleware, and workflow or document management systems with groupware such as Lotus Notes/Domino. (Eyler, 2001)

Ernst and Young

This company’s main concern appears to be in the application of ‘knowledge management’ to its own business: I could find no publications or site locations that promoted ‘knowledge management’ services other than e-learning. Internally, ‘knowledge management’ is translated as information sharing among Ernst and Young staff around the world (although it is called, of course, ‘knowledge sharing’) , and the provision of business intelligence to clients. These activities are supported by a network of ‘Centers for Business Knowledge’, which appear to be a combination of the traditional company library and information service, plus specialised services such as statistical analysis and financial benchmarking. Thus, although the rhetoric is about ‘knowledge’, the reality is about information, its organization and transfer.

KPMG Consulting

It seems that, at one time, KPMG had a ‘knowledge management practice’, but all trace of this appears to have disappeared from the site, except in descriptions of the authors of certain documents. It appears that KPMG thinks that there is more to be gained by ‘leverage intellectual assets’ and by drawing attention to the concept of ‘intellectual property’ and the ‘hidden value’ of such property. For example, a recent report, Intellectual gold, defines intellectual property as:

…not just patents, trade marks, copyrights, database rights and other « pure » IP, but other forms of articulated knowledge, such as business processes, methodologies and know how. (KPMG, 2002)

It may well be that KPMG has reached the conclusion that the area of intellectual property, broadly defined, offers more opportunity for income growth than the rather less well defined idea of ‘knowledge management’.

McKinsey and Company

McKinsey and co. do not have a significant representation of the idea of ‘knowledge management’ on their site. Most of the entries in the search results refer to the content of McKinsey Quarterly as a source of information on ‘the world of knowledge’. Apart from this, the employment pages refer to job opportunities in the sector of ‘Knowledge management and research’, where roles such as ‘Research analyst’ and ‘Knowledge specialist’ are identified. A typical ‘research analyst’ job description begins:

‘The Insurance Research Analyst will assist teams by collecting, summarizing, analyzing, and synthesizing facts that serve as critical inputs to client service teams, interpreting their findings into implications for teams.’

which seems like a straightforward information analysis job. The ‘knowledge specialist’ role is somewhat more diverse, but includes a number of tasks that would be familiar to anyone working under a title such as ‘information officer’:

‘Participate in the Practice’s knowledge capture and codification program by sourcing internal knowledge and experts; develop topical material relevant for internal and client related activities. Enhance the ability of client teams to access internal knowledge and experts, advise client teams on the application of practice knowledge and expertise; provide hands-on guidance for teams without prior experience in the financial services industry.
Build and maintain « self-service » tools/databases for consultants and research professionals to access knowledge, including intranet sites.
Maintain the Practice’s knowledge databases and tools for internal knowledge codification and storage. Provide ad hoc support to the Practice’s leaders for internal knowledge sharing meetings, performance metrics and other practice events/activities.’

It can be seen that ‘knowledge’ is being used as a synonym for ‘information’.

Price waterhouse Coopers

PwC’s global Web site has a number of pages devoted to two books written by PwC staff: The knowledge management fieldbook, by Bukowitz and Williams (1999a) and Knowledge management – a guide to good practice, by Kelleher and Levene (2001). An extract from the first of these (called, rather amusingly coincidentally in view of the above figure, ‘Looking through the knowledge glass’) appears on the Web site of CIO Enterprise Magazine (1999). The extract is written in typical ‘management consultancy speak’, which cannot hide the fact that most of the time ‘knowledge’ is simply a synonym for information. On the same page there is an interview with the authors, where the confusion of the two words increases:

Some early KM theorists hoped that somehow if we instituted knowledge management repositories, places to capture information, we really wouldn’t need that middle manager level.

Comment becomes unnecessary at this point.

However, the main area of the PwC business under which ‘knowledge management’ now falls appears to be the ‘Intellectual Asset Management Practice’ (to which Bukowitz and Williams belong). Most of the work in this practice appears to deal with issues such as licensing (both into companies and out of companies) and intellectual asset aspects of mergers and acquisitions and security. The site previously devoted to the Knowledge Management Practice appears no longer to exist, since a search for known documents using the search facility at http://www.pwcglobal.com revealed nothing. However, some papers are still available.

In particular, there is an issue of the house journal Investment Management Perspectives which contains eight papers on various aspects of ‘knowledge management’. The first (Yu, 2000), has a section headed, ‘What is knowledge management?’, which then fails to define it – there is a good deal on what ‘knowledge’ is and about what it is important to include in a ‘knowledge management’ programme, but no definition. There is also the usual confusion between ‘tacit knowledge’ and what we might call ‘expressible but previously unexpressed’ or implicit knowledge. The other papers deal with the problem of measuring the success of a knowledge management programme, but there is no definition of knowledge that distinguishes it from information, and the cases explored appear to be cases of information management rather than ‘knowledge management’ (Petrash, 2000). Similar problems plague the remaining papers – they deal with interesting topics, such as information sharing and the role of information technology, but they lack any coherent theoretical basis upon which to base any conception of ‘knowledge management’.

PwC has now been bought by IBM, thereby tying the consultancy even more closely to hardware and software selling.

Conclusion on the consultancies.

The conclusion to this brief exploration of consultancy Web sites is that ‘knowledge management’ means different things to different companies and that one or two of them that have previously dabbled with the idea have moved on to other things.

Some of the consultancies covered claim that companies are flocking to them to discover the joys of ‘knowledge management’. However, since 1993, Bain and Company have been tracking the use of various management tools and according to their latest survey covering the year 2000 (Bain & Company, 2001) only about 35% of their world-wide sample of 451 companies was using ‘knowledge management’, reporting a satisfaction rating of about 3.5 on a five-point scale. The usage figure puts ‘knowledge management’ in 19th position, out of 25 management tools. This compares with about 70% using benchmarking, and almost 80% using strategic planning. The Bain survey suggests that the flood may be more of a trickle.

The view from the business schools

Similar difficulties of definition and distinction seem to exist in the business schools: for example, the course on ‘knowledge management’ at the Stuart Graduate School of Business at Illinois Institute of Technology is part of the information management stream and covers:

Basic concepts of intelligent systems for improving business decision-making. Topics include opportunity/problem identification, data mining, visual model building, expert systems, neural networks and their successful implementation. Students will build prototype knowledge-based systems using commercial software. Case studies address knowledge management system implementation and benefit measurement challenges.

So, here: ‘knowledge management’ is equated, essentially, with expert systems for decision support and related software technologies.

At the George Mason University School of Management, ‘knowledge management’ is part of the information systems management stream and the relevant course is described as follows:

Examines the firms that use knowledge management principles and approaches: intellectual capital, human capital, customer capital, tacit and explicit knowledge, the new role of the Chief Knowledge Officer, leveraging of knowledge management.

This is not particularly helpful in terms of definition and the detailed syllabus is no longer available at the new site for the School. However, the cached file at Google reveals an array of topics that covers virtually all the definitions of ‘knowledge management’ imaginable, with no clear distinction offered between ‘information’ and ‘knowledge’. The structure of the course has no readily apparent logic and the description of Week 1 as presenting a ‘collage overview’, seems to apply to the entire course.

In the University of Kentucky’s Gattan College of Business and Economics, the Kentucky Initiative for Knowledge Management notes:

A variety of computer-based techniques for managing knowledge (i.e., representing and processing it) have been and will continue to be devised to supplement innate human knowledge management skills.

and ‘knowledge management’ is then defined as being concerned with:

…the invention, improvement, integration, usage, administration, evaluation, and impacts of such techniques.

Of course, as we have seen, only information can be ‘represented and processed’ by computers, so this initiative is concerned with information systems under another name; presumably one with public relations significance.

At the McCombs School of Business at the University of Texas at Austin, ‘knowledge management’ is part of the information management concentration in the MBA, with one core course on ‘Managing information’, The description notes:

A sample of the topics covered in the course includes business intelligence; knowledge management; knowledge-worker productivity, data modeling, and group decision support systems.

which looks like a very cursory nod in the direction of ‘knowledge management’. There is also an elective course on ‘Information and knowledge management’, with no detailed description.

Georgetown University, Washington DC is one of the most prestigious universities in the USA and its MBA programme has an elective course in ‘Technology and Knowledge Management‘, which:

‘…provides a managerial perspective on the effective use of information technology for strategic advantage and operational performance in global organizations through case analyses and class discussion. Topics include: information technology’s relationship to business competition and strategy; the business value of information systems; the use of information systems to enhance decision-making, communication, and knowledge use in organizations; using information technology to redesign business processes; the ways information systems can add value to products and services; and the organizational, social, and ethical issues arising from information technologies.’

The information systems orientation is clear.

At the Robert H. Smith School of Business, the University of Maryland, the Center for Knowledge & Information Management,

‘…focuses on research dealing with the transformation of business practices through information technology, and the creation, management, and deployment of knowledge and information.’

Very little additional information is available, since the relevant links appear to be ‘dead’, but from what can be found, the information technology orientation is obvious.

At the Harvard Business School, ‘knowledge management’ figures in part of a course on « General Management: Processes and Action », with the module title, ‘Organization Learning and Knowledge Management Processes’. The description makes the intention clear:

Learning processes determine how individuals and organizations create, acquire, interpret, transfer, and retain knowledge; they too may take a variety of forms. The approaches examined in this module include experimentation, benchmarking, and learning from past successes and failures.

Here, ‘organization learning’ is re-badged as ‘knowledge management’. This appears to be the only course at the School that deals with the subject.

The Wharton School of Business at the University of Pennsylvania is another prestigious institution in the USA. Although its site has a number of ‘knowledge management’ links, the subject does not appear to feature in the MBA programme. It does, on the other hand, have what appears to be a very soundly based course on, ‘Information: Strategy, Systems, and Economics‘:

Understanding the strategic aspects of information and information management is being transformed; what were once skills of specialized technologists are now critical aspects of the preparation of all executives. This major will prepare students for careers in consulting and venture capital, and for senior management positions in a wide range of industries already being transformed by the interacting forces of information, globalization, and deregulation.

No hyperbolae about ‘knowledge management’ here.

‘Knowledge management’ does not appear in the syllabus of the MBA at the London Business School although a seminar is offered at the Doctoral level. At the Manchester Business School, a Google search on the site revealed no information on courses on ‘knowledge management’ in the MBA programme, and the subject does not appear in the lists of core and elective courses.

The Said Business School at Oxford University appears to have no core or elective course in ‘knowledge management’ in its MBA programme’ However, one of the core courses, ‘People and organizations‘ includes « managing knowledge and change’, and ‘Managing knowledge-based organizations’ has been offered as an elective.

At the Cass Business School, City University, London, there are about twenty links to ‘knowledge management’ on the site, but none link to core or elective courses in the MBA programme. Most of them link to research topics: for example, a team working on ‘Operations management and quantitative analysis‘, refer to ‘Information and knowledge management – model building skills, management learning’, as a key topic. The usual confusion between ‘information’ and ‘knowledge’ can be seen: the main paragraph on this page refers to ‘…applying innovative systems thinking and information management to improve business performance and learning.’

Warwick University Business School, which is another leading UK institution and the joint home (the other institution is the University of Oxford) of the ESRC Centre on Skills, Knowledge and Organizational Performance, does not have a course on ‘knowledge management’ in its MBA programme. It does, however, have a course on ‘information management’.

One’s overall impression, from this review of business school sites is that the most prestigious steer well away from ‘knowledge management’, other than in the statements of interest of faculty. Nor does the subject appear to enter significantly into the teaching programmes. The sites often include documents in the form of reports, working papers, or draft papers and these reveal the same difficulties with the concept as shown in the review of journals.

‘Search and replace marketing’

The review of journal papers, the review of consultancy Web sites and those of the business schools, suggest that, in many cases, ‘knowledge management’ is being used simply as a synonym for ‘information management’. This has been referred to by David Weinberger, citing Adina Levin as the originator, as ‘search and replace marketing’ in reporting the KM Summit of 1998:

‘Andy Moore, editor of KM World and the event’s genial host, asked the group how you reply to a customer who says, « Isn’t this just search-and-replace marketing? » That is, do you become a KM vendor simply by taking your old marketing literature and doing a search and replace, changing, say, « information retrieval » into « KM »? The question rattled the group. Answers sputtered forth. This was obviously a sore subject. It seems to me that there are three possible answers to the question « Is this search-and-replace marketing? » given that this question expresses customer pain and suspicion:

  1. No, we’ve added important new features designed to help you with your KM chores.
  2. Sort of. We have the same features as always but have discovered new applications for them.
  3. Yes, you pathetic loser.

The first two answers are perfectly acceptable. The third is perhaps a tad too honest to make it in this imperfect world, although undoubtedly there is some « kewl » company that is contemplating using this as the center of its advertising campaign. (« Companies will love that we’re being so upfront with them, man. »)’ (Weinberger, 1998)

The software industry has become particularly prone to search and replace marketing, with almost everything from e-mail systems to Lotus Notes groupware being re-branded as ‘knowledge management’ software.

The same re-branding can be found in other places. Once upon a time the excellent business research site, www.brint.com, had a large section devoted to information management but, in 1999, if I remember aright, I wanted to locate something I had previously found there and used my hot-link, with no result. Eventually, I found that everything that had previously been located under ‘information management’ was now identified as ‘knowledge management’ and brint.com was claiming to be the Web’s best site for information on the subject.

As noted above, the confusion of ‘knowledge’ as a synonym for ‘information’ is one of the most common effects of the ‘knowledge management’ fad. The World Bank site (of which more below) used to carry a document by the former head of ‘knowledge management’, Stephen Denning, which is now available on Denning’s own site. The following piece is taken from that paper:

The reach of the new technology for information sharing: Many factors have transformed the way in which organizations now view information, but perhaps the pivotal development has been the dramatically extended reach of know-how through new information technology. Rapidly falling costs of communications and computing and the extraordinary growth and accessibility of the World Wide Web present new opportunities for information-based organizations, to share knowledge more widely and cheaply than ever before. Thus organizations with operations and employees around the world are now able to mobilize their expertise from whatever origin to apply rapidly to new situations. As a result, clients are coming to expect from global organizations, not merely the know-how of the particular team that has been assigned to the task, but the very best that the organization as a whole has to offer. Information sharing is thus enabling – and forcing – institutions that are international in the scope of their operations, to become truly global in character by enabling information transfer to occur across large distances within a very short time. (Denning, 1998)

However, I have changed all of the occurrences of ‘knowledge’ to ‘information’ and, as far as I can see, it makes no difference at all to the sense of the piece.

The ‘search and replace’ strategy is also seen in action in KPMG Consulting’s (2000) report on ‘knowledge management’. The report notes:

Companies still see knowledge management as a purely technology solution
Organisations have adopted a number of relevant technologies for KM purposes. 93% of respondents used the Internet to access external knowledge, 78% used an intranet, 63% used data warehousing or mining technologies, 61% document management systems, 49% decision support, 43% groupware and 38% extranets. (KPMG Consulting, 2000: 3

All of the technologies mentioned, of course, are information handling systems or database technologies, but for the purposes of the exercise, they are re-named ‘relevant technologies for KM purposes’

Finally, international organizations are not protected from the lure of ‘knowledge management’. The European Union’s Fifth Framework Programme made great play with the concept of ‘the Information Society’; however, when the Sixth Framework Programme was announced all the material that formerly appeared under the heading of ‘the Information Society’ appeared under the new heading – ‘the Knowledge Society’! No conceptual differences – just search and replace marketing.

Tacit knowledge

Mention has been made more than once of the idea of ‘tacit knowledge’ and the idea of ‘capturing’ such knowledge is often presented as central to ‘knowledge management’. However, what is ‘tacit knowledge’? The term originates with Polanyi (1958), chemist turned philosopher of science, and has been described as:

‘the idea that certain cognitive processes and/or behaviors are undergirded by operations inaccessible to consciousness’ (Barbiero, n.d.)

This is the key point about Polanyi’s concept: ‘tacit’ means ‘hidden’, tacit knowledge is hidden knowledge, hidden even from the consciousness of the knower. This is why Polanyi used the phrase ‘We know more than we can tell.’ A phrase parroted even by those who mis-use the idea and believe that this hidden knowledge, inaccessible to the consciousness of the knower, can somehow be ‘captured’.

Polanyi equates tacit knowledge with ‘acts of comprehension’:

‘tacit knowing achieves comprehension by indwelling, and… all knowledge consists of or is rooted in such acts of comprehension’ (Polanyi, 1958)

In other words, ‘tacit knowledge’ involves the process of comprehension, a process which is, itself, little understood. Consequently, tacit knowledge is an inexpressible process that enables an assessment of phenomena in the course of becoming knowledgeable about the world. In what sense, then, can it be captured? The answer, of course, is that it cannot be ‘captured’ – it can only be demonstrated through our expressible knowledge and through our acts.

How did the idea that tacit knowledge could be ‘captured’ arise? The guilty party appears to be Nonaka, (1991) and Nonaka and Takeuchi (1995), who appear to have either misunderstood Polanyi’s work, or deliberately distorted it to enable them to construct the well-known two-by-two diagram.


Tacit knowledge to
explicit knowledge
Tacit Knowledge from
explicit knowlwdge
Socialization Externalization
Internalization Combination

Having cited Polanyi as the source of the idea of ‘tacit knowledge’ and having noted that Polanyi refers to the process of ‘indwelling’, whereby people create knowledge of the world around them, Nonaka and Takeuchi go on to state that:

While Polanyi argues the contents for tacit knowledge further in a philosophic context, it is also possible to expand his idea [my emphasis] in a more practical direction. (Nonaka & Takeuchi, 1995: 60)

They then note that:

Mental models, such as schemata, paradigms, perspectives, beliefs and viewpoints help individuals to perceive and define their world. (Nonaka & Takeuchi, 1995: 60)

and include such models within tacit knowledge. However, if such models can be expressed by the person they constitute not tacit knowledge, which, as noted earlier, is inexpressible, but expressible knowledge, which, when expressed, becomes information. Such previously unexpressed but expressible knowledge may be termed ‘implicit’ knowledge.

In fact, the example cited by Nonaka & Takeuchi (1995:63-64) makes it clear that implicit knowledge is being talked about here. The case of bread-making is discussed and the fact that the head baker of the Osaka International Hotel twisted the dough as well as stretching it, is given as an example of ‘tacit’ knowledge – but no-one appears to have asked the baker how he made the bread! I have no doubt that (as a bread-maker myself) that he would have been able to describe his bread-making process in detail, including the process of twisting. The approach appears to be, « If I see something I hadn’t noticed before, or knew of before, then those actions, or whatever, must constitute tacit knowledge. » As a research approach this is somewhat lacking, nor is it very helpful as a guide to discovering practice. One must also bear in mind the cultural context of this example: I asked a Japanese colleague whether someone acting the role of apprentice in Japan would think of questioning the ‘master’ and, of course, she shook her head and smiled. The ‘apprentices’ in the example would never have thought of asking.

Nonaka and Takeuchi put forward the proposition, embodied in the diagram, that ‘tacit knowledge’ is somehow derived from explicit knowledge and, by other means, is made explicit. However, it is clear, from the analysis above, that implicit knowledge, which is not normally expressed, but may be expressed, is actually intended here. Implicit knowledge is that which we take for granted in our actions, and which may be shared by others through common experience or culture. For example, in establishing a production facility in a foreign country, a company knows it needs to acquire local knowledge of ‘how things are done here’. Such knowledge may not be written down, but is known by people living and working in the culture and is capable of being written down, or otherwise conveyed to those who need to know. The knowledge is implicit in the way people behave towards one another, and towards authority, in that foreign culture, and the appropriate norms of behaviour can be taught to the newcomers. Implicit knowledge, in other words, is expressible: tacit knowledge is not, and Nonaka would have saved a great deal of confusion had he chosen the more appropriate term. The critical reader might ask him/herself: ‘Does it make any difference to the argument if, in the diagram, we replace « tacit knowledge » with « knowledge » and « explicit knowledge » with « information »?’

The people perspective

The literature of ‘knowledge management’ claims that the ‘people’ dimension is more important than the technological (in spite of the fact that most of the same literature is heavily oriented towards technology use). As noted earlier, Sveiby (2001a) holds that the ‘management of people’ is one of the two tracks of ‘knowledge management’, and the work of the World Bank is held up by a number of writers as evidence for the power of the ‘people management’ track of ‘knowledge management’.

However, when we examine the World Bank’s ‘knowledge management’ strategy, the reality (as with the technology track) bears little relation to the rhetoric. The ‘vision’ of the World Bank is that it should become not simply a financial agency but the world’s ‘Knowledge Bank’.

With the retirement of Stephen Denning as head of the Bank’s ‘knowledge management’ initiative, and his re-emergence as a ‘knowledge management’ consultant (see, http://www.stevedenning.com/), the Bank has re-thought its strategy and removed the earlier documents. The rhetoric is no longer about ‘knowledge management’, but about ‘knowledge sharing’. The new initiative as described by the Bank’s Managing Director, Mamphela Ramphele (2002) still has four elements, but these are now expressed as follows:

  • The first, is fostering policy, regulatory, and network readiness, by supporting the development of an adequate enabling environment for efficiency, competition, and innovation in knowledge sharing, and development of information and communication technologies.
  • The second element focuses on building human capacity for the knowledge economy, by promoting excellence in education, from the basic to the tertiary level, as well as the new skills needed for information and communication technologies. Associated activities include work towards getting schools, classrooms, and libraries online, and promoting development of innovative approaches that extend the reach of education and training, such as distance learning, community-based training, and networking of educational institutions.
  • The third element of the strategy focuses on continued efforts to expand basic connectivity and access, and invest in information technology applications. Key activities include mobilizing resources to improve information infrastructure, working on ways to reduce the cost of connectivity, supporting community access programs, and developing local content and entrepreneurial information technology opportunities.
  • The final key element of the strategy is focused on promoting the generation and sharing of global knowledge, through support for knowledge networking, global research, and communities of practice. This will focus on creating and applying the knowledge necessary to stimulate and facilitate the transition to the knowledge economy-as well as the knowledge necessary to reap its full economic, social, and cultural benefits.

In fact, these are almost identical to the original four, the second and third have the same titles. The focus continues to be heavily technology-oriented and one might be forgiven for imagining that the real aim of the World Bank is to help U.S.-based global industries to sell more hardware and software to the developing world. Given that the Bank is located in Washington, D.C., where one of the biggest industries is the lobby industry, this would not be surprising.

Another ‘knowledge management’ legend, promulgated by Davenport (1997) is that Microsoft has a ‘knowledge management’ strategy. What does this turn out to be?

The knowledge base for Microsoft IT must always be current. Therefore, the IT group has focused heavily on the issue of identifying and maintaining knowledge competencies.

In other words, this ‘knowledge management strategy’ is a training programme. Of course, it is wrapped up in the jargon of the day:

‘The project, called Skills Planning « und » Development (thus affectionately known as « SPUD ») is focused not on entry level competencies, but rather on those needed and acquired to stay on the leading edge of the workplace.’

and

  • ‘Development of a structure of competency types and levels;
  • Defining the competencies required for particular jobs;
  • Rating the performance of individual employees in particular jobs based on the competencies;
  • Implementing the knowledge competencies in an online system;
  • Linkage of the competency model to learning offerings.’

However, a training programme remains a training programme and the fact that a high-technology company like Microsoft needs knowledgeable people and needs to maintain their knowledge bases hardly seems remarkable.

There is more to the ‘people perspective’ than the efforts of the World Bank, of course. The principal aim of this arm of ‘knowledge management’ is to improve the sharing of information in organizations and one of the chief ways in which this is attempted is by encouraging personal networking and the development of ‘communities of practice’.

Lesser and Storck (2001), in a paper referred to earlier, in the analysis of journal papers, and citing a paper by Storck and Hill (2000), draw attention to the difference between teams and communities of practice:

  • Team relationships are established when the organization assigns people to be team members. Community relationships are formed around practice.
  • Similarly, authority relationships within the team are organizationally determined. Authority relationships in a community of practice emerge through interaction around expertise.
  • Teams have goals, which are often established by people not on the team. Communities are only responsible to their members.
  • Teams rely on work and reporting processes that are organizationally defined. Communities develop their own processes.

Of course these distinctions would be meaningful if organizations were structured in such a way as to encourage the creation of ‘communities’ in which members owed allegiance only to one another and had the autonomy to develop their own ways of working. Expertise might well then be shared. However, organizations are not like this and business organizations in particular are certainly not always like this. Business organizations (especially public companies) are generally driven by the idea of ‘shareholder value’, which emphasises short-term strategies that are likely to increase the share value. Chief of these strategies are those that seek cost savings, leading often to a rather blinkered choice of the reduction of staff to achieve savings. Coupled with the kind of corporate misgovernance that we have seen in the cases of Enron, WorldCom, and others, one must doubt that business organizations are busy building the kind of corporate cultures that will actually encourage ‘communities of practice’

Conclusion

The inescapable conclusion of this analysis of the ‘knowledge management’ idea is that it is, in large part, a management fad, promulgated mainly by certain consultancy companies, and the probability is that it will fade away like previous fads. It rests on two foundations: the management of information – where a large part of the fad exists (and where the ‘search and replace marketing’ phenomenon is found), and the effective management of work practices. However, these latter practices are predicated upon a Utopian idea of organizational culture in which the benefits of information exchange are shared by all, where individuals are given autonomy in the development of their expertise, and where ‘communities’ within the organization can determine how that expertise will be used. Sadly, we are a long way removed from that Utopia: whatever businesses claim about people being their most important resource, they are never reluctant to rid themselves of that resource (and the knowledge it possesses) when market conditions decline. In the U.K. we can point to British Airways, which, in the aftermath of the terrorist attack of the 11th September 2001, paid off more than 7,000 of its ‘knowledge resources’ – financial observers suggested that they were simply waiting for a suitable excuse to do so, management having taken disastrous business decisions which had reduced profitability. We can also point to Barclays Bank, with profits of more than £2 billion in 2001 and profit growth that year of almost 3.0%, which, nevertheless, paid off some 10% of its total global workforce. No imagination appears to have been used by either of these companies to determine ways in which their ‘most important resource’ might be more effectively employed to increase turnover and profits.

The two companies mentioned are not atypical and we have to ask, ‘If getting promotion, or holding your job, or finding a new one is based on the knowledge you possess – what incentive is there to reveal that knowledge and share it?’

This is not to say that enabling people to contribute effectively to the management of organizations is impossible and that sharing knowledge and enabling people to use their creativity in innovative ways in organizations is impossible – simply that it is very difficult, and that it does not reduce to some simplistic concept of ‘knowledge management’! It demands a change in business culture, from the macho Harvard Business School model, to something more thoughtful and understanding of what motivates human beings. Organizations need to learn to think about problems, rather than grab at proffered ‘solutions’ – which often turn out to be expensive side-tracks away from the main issues. For example, if you have a poorly-rewarded and, hence, poor sales force, no amount of data warehousing (another so-called ‘knowledge management’ tool) is going to give you good customer relations.

A reasonable question to ask, at this stage, is, ‘Why now?’. Why has ‘knowledge management’ achieved such a fashionable status is the business world? This question was asked on the KNOW-ORG mailing list and my response was as follows:

First, and largely because of a fixation on internal organizational data, the term ‘information’ has become almost synonymous with data in the minds of organizational heads. For example, I’ve been told that the National Electronic Library for Health uses the term ‘Knowledge’ because in the NHS information=data and a different term was needed. We have to lay this, I think, at the feet of the information systems profession whose focus for years was data and data definitions, etc. In fact, they dealt not with information systems but with data systems.

Secondly, and opportunely for the software houses and IT firms, ‘km’ came along just as they were being hit by the wave of scepticism over the possibility of IT ever delivering more than problems – and certainly never likely to deliver productivity and performance. ‘Whoops, we’ve cracked it!’ cried the IBMs and MSofts of this world – ‘We should have been dealing with ‘knowledge’ all along, and now we are – Lotus Notes is no longer groupware and personal information management, it’s KnowledgeWare!’ So they are happily marketing the same product under a new name.

Thirdly, the organization and management boys finally began to realise that all this text that people were creating on word-processors, etc., needed to be managed effectively and, indeed, organized, shared and disseminated more effectively, but they couldn’t use ‘information management’ because that was ‘information systems’ and data, wasn’t it? So it must be ‘knowledge’, right? If we can only get people to share their ‘knowledge’ performance must improve because it is the communication barriers that are preventing the free flow of ‘knowledge’ (i.e., information). So, now, every aspect of organization and management theory has to have a ‘knowledge’ dimension, otherwise you aren’t in the game. In the literature, of course, this amounts to the token use of the term ‘knowledge management’ and the use of ‘knowledge’ as a synonym for ‘information’.

Fourthly, at the forefront of all this were the management consultancies – why? Because BPR and Organizational Learning were running out of steam. Amusingly, all organizational learning work appears to come under the heading of ‘km’ – more search and replace marketing. So, the consultancies grabbed at km in order to have something to sell at the end of the 90s.

Finally,… most (or at least many) departments of information management or information science, and departments of information systems in academia, are somewhat low on the totem pole in most of their institutions, and each needs to differentiate itself from the other in order to try to work its way up that greasy pole, so both have seized on km as an aid in the struggle. I foresee turf-wars over which department, where there is one of each, has the right to run degrees in km. Where only one of the kind exists, it will seek to make km all-embracing of management, computer science, information systems, etc., etc. – because the logic leads nowhere else 🙂 ‘If WE deal with knowledge – then how can anyone else presume to do so?’ (Wilson, 2001)

I see no reason to change my opinions as a result of the analysis carried out for this paper, but I would add that, according to the rhetoric of ‘knowledge management’, ‘mind’ becomes ‘manageable’, the content of mind can be captured or down-loaded and the accountant’s dream of people-free production, distribution and sales is realized – ‘knowledge’ is now in the database, recoverable at any time. That may be Utopia for some, but not for many. Fortunately, like most Utopias, it cannot be realized.

This analysis of ‘knowledge management’ may not have much significance to the world of business practice, where the academic literature is rarely read unless filtered through the ‘airport book’. One might argue that for information practitioners to call themselves (or for the organization to call them) ‘Knowledge Managers’ does no harm and may do some good, in terms of giving a higher profile to their role (even if a number of them are rather embarrassed by the title). However, the aim of the university and of those who work for it is to expose ideas to critical analysis and to inculcate in students the same abilities. It is, perhaps, a sad reflection on the way in which the university, world-wide, has changed from the ‘temple’ to the ‘factory’ (Beckman, 1989) that so many academics are prepared to jump on the bandwagon – one’s only satisfaction is that the bandwagon lacks wheels.


To discuss this paper, join the IR-DISCUSS discussion list by subscribing at http://www.jiscmail.ac.uk/lists/IR-DISCUSS.html

How to cite this paper:

Wilson, T.D. (2002) « The nonsense of ‘knowledge management' » Information Research, 8(1) [Available at http://InformationR.net/ir/8-1/paper144.html ]


© the author, 2002.
Last updated: 20th September, 2002


References

Alvesson, M. & Karreman, D. (2001) Odd couple: making sense of the curious concept of knowledge management. Journal of Management Studies, 38(7), 995-1018

Bain & Company (2001) Management tools. Boston, MA: Bain & Company. Available at: http://www.bain.com/bainweb/expertise/tools/overview.asp [Site visited 16th July 2002]

Barbiero, Daniel (n.d.) Tacit knowledge, in: Chris Eliasmith, ed. Dictionary of philosophy of mind. St. Louis, MO: Washington University in St. Louis. Available at: http://www.artsci.wustl.edu/~philos/MindDict/tacitknowledge.html [Site visited 7th August 2002]

Becker, M.C. (2001) Managing dispersed knowledge: organizational problems, managerial strategies, and their effectiveness. Journal of Management Studies, 38(7), 1037-1051

Beckman, S. (1989) Tema research and university ideals, in: Lind, I., Maunsbach, T., & Olsson, L. eds. Initiation, growth and consolidation: the scientific dynamics and societal relevance of a non-traditional research organization. pp. 31-41. Stockholm: Swedish National Board of Universities and Colleges.

Bukowitz, W. & Williams, R. (1999a) The knowledge management fieldbook. London: Financial Times/Prentice Hall.

Bukowitz, W. & Williams, R. (1999b) Looking through the knowledge glass. CIO Enterprise Magazine, October 15. Available at: http://www.cio.com/archive/enterprise/101599_book.html [Site visited 16th July 2002]

Davenport, T. (1997) Knowledge management case study: knowledge management at Microsoft. Austin, TX: University of Texas, McCombs School of Business. Available at: http://www.bus.utexas.edu/kman/microsoft.htm [Site visited 14th August 2002]

Denning, S. (1998) What is knowledge management? (A background paper to the World Development Report 1998). http://www.stevedenning.com Available at: http://www.stevedenning.com/knowledge.htm [Site visited 16th August 2002]

Drucker, P.F. (1969) The age of discontinuity: guidelines to our changing society. New York, NY: Harper and Row

Dueck, G. (2001) Views of knowledge are human views. IBM Systems Journal, 40(4), 885-888 Available at http://www.research.ibm.com/journal/sj/404/dueck.html [Site visited 14th July 2002]

Emerald (n.d.) Journal of Knowledge Management: the reviewing process. Bradford: MCB University Press, Ltd. Available at: http://www.emeraldinsight.com/journals/jkm/notes.htm [Site visited 16th August 2002]

Eyler, A.N. (2001) Corporate knowledge management. ProTopics, July/August, 6-9 Available at http://www.deloitte.com/dt/cda/doc/content/JulyAugustEnglish.pdf [Site visited 7th August 2002]

Fahey, L., Srivastava, R., Sharon, J.S. & Smith, D.E. (2001) Linking e-business and operating processes: the role of knowledge management. IBM Systems Journal, 40(4), 889-907. Available at http://www.research.ibm.com/journal/sj/404/fahey.html [Site visited 14th July 2002]

Gongla, P. & Rizzuto, C.R. (2001) Evolving communities of practice: IBM Global Services experience. IBM Systems Journal, 40(4), 831-841 Available at http://www.research.ibm.com/journal/sj/404/gongla.html [Site visited 14th July 2002]

Hall, E.A., Rosenthal, J., & Wade, J. (1994). How to make reengineering really work. McKinsey Quarterly, (No. 2), 107-128.

Jenkins, Carri P. (1997) Downsizing or dumbsizing? The restructuring of corporate America. Brigham Young Magazine, 51(1) Available at http://advance.byu.edu/bym/1997/97spring/downsizing.html [Site visited 08.03.02]

Kelleher, D. & Levene, S. (2001) Knowledge management – a guide to good practice. London: British Standards Institution.

Koenemann, J., Lindner, H.G., & Thomas, C. (2000). Enterprise Information Portals: From search engines to knowledge management. Nfd Information-Wissenschaft und Praxis 51(6), 325-334.

Kontzer, T. (2001) Management legend: trust never goes out of style. Call Center Magazine. Available at: http://www.callcentermagazine.com/article/IWK20010604S0011 [Site visited 16th July 2002]

KPMG Consulting (2000). Knowledge management research report. London: Atos KPMG Consulting. Available at: http://www.kpmgconsulting.co.uk/research/othermedia/wf_8519kmreport.pdf [Site visited 24th September 2002]

KPMG Consulting (2002) Intellectual gold. London: KPMG. Available at: http://www.kpmg.co.uk/kpmg/uk/image/intell_prop.pdf [Site visited 7th August 2002]

Lesser, E.L. & Storck, J. (2001) Communities of practice and organizational performance. IBM Systems Journal, 40(4), 831-841 Available at http://www.research.ibm.com/journal/sj/404/lesser.html [Site visited 14th July 2002]

Loudes, J-J (1999) Knowledge management that works. Focus E-zine, No. 2. Available at http://www.cgey.com/focus/issue2/ideas2.shtml [Site visited 7th August 2002]

Mack, R., Ravin, Y. & Byrd, R.J. (2001) Knowledge portals and the emerging digital knowledge workplace. IBM Systems Journal, 40(4), 925-955 Available at http://www.research.ibm.com/journal/sj/404/mack.html [Site visited 14th July 2002]

Marwick, A.D. (2001) Knowledge management technology. IBM Systems Journal, 40(4), 814-830. Available at http://www.research.ibm.com/journal/sj/404/marwick.html [Site visited 14th July 2002]

Mayo, Elton (1933) The social problems of an industrial civilization. New York, NY: Macmillan.

Merali, Y. (2000) Individual and collective congruence in the knowledge management process. Journal of Strategic Information Systems, 9(2-3), 213-234

Miller, F. (2000) I = 0 (Information has no intrinsic meaning). Brisbane: Fernstar.
Available at: http://www.fernstar.com.au/publications/papers/i=o.htm [Site visited 16th July 2002] Revised version available at http://InformationR.net/ir/8-1/paper140.html

Nonaka, I. (1991) The knowledge creating company. Harvard Business Review, 69, 96-104

Nonaka, I. & Takeuchi, H. (1995) The knowledge creating company: how Japanese companies create the dynasties of innovation. Oxford: Oxford University Press.

Parise, S. & Henderson, J.C. (2001) Knowledge resource exchange in strategic alliances. IBM Systems Journal, 40(4), 908-924. Available at http://www.research.ibm.com/journal/sj/404/parise.html [Site visited 14th July 2002]

Pedersen, M.K. & Larsen, M.H. (2001). Distributed knowledge management based on product state models – the case of decision support in health care administration. Decision Support Systems, 31(1): 139-158.

Petrash, G. (2000) Measure what matters: linking knowledge assets to strategy. Investment Management Perspectives, No. 1, 12-17. Available at: http://www.pwcglobal.com/extweb/pwcpublications.nsf/4bd5f76b48e282738525662b00739e22/92f014728e1030bf852568a3006b19c0/$FILE/
knowledge%20mgt.pdf [Site visited 18th July 2002]

Pohs, W., Pinder, G., Dougherty, C. & White, M. (2001) The Lotus Knowledge Discovery System: tools and experiences. IBM Systems Journal, 40(4), 956-966. Available at http://www.research.ibm.com/journal/sj/404/pohs.html [Site visited 14th July 2002]

Polanyi, M. (1958). Personal knowledge: towards a post-critical philosophy. Chicago, IL: University of Chicago Press.

Prusak, L. (2001) Where did knowledge management come from? IBM Systems Journal, 40(4), 1002-1007.
Available at http://www.research.ibm.com/journal/sj/404/prusak.html [Site visited 14th July 2002]

Ramphele, M. (2002) Sharpened focus for Bank’s global knowledge strategy. Washington, DC: World Bank. Available at: http://www.worldbank.org/wbi/todayarticles/whats_newknowledgebank.htm [Site visited 7th August 2002]

Schultze, U. & Boland, R.J. (2000) Knowledge management technology and the reproduction of knowledge work practices. Journal of Strategic Information Systems, 9(2-3), 193-212

Schutz, Alfred. (1967) The phenomenology of the social world. Evanston, IL: Northwestern University Press.

Sutton, D. C. (2001). What is knowledge and can it be managed? European Journal of Information Systems, 10(2), 80-88.

Sveiby, Karl Erik (1990) Kunskapsledning: 101 råd till ledare i kunskapsintensiva organisationer. [Knowledge management: 101 tips for leaders in knowledge-intensive organizations.] Stockholm: Affärsvärlden.

Sveiby, Karl Erik (2001a) What is knowledge management? Brisbane: Sveiby Knowledge Associates. Available at: http://www.sveiby.com.au/faq.html [Site visited 16th July 2001]

Sveiby, Karl Erik (2001b) Frequently asked questions. Brisbane: Sveiby Knowledge Associates.
Available at: http://www.sveiby.com.au/faq.html [Site visited 16th July 2001]

Swoboda, W.J., Swoboda, N. & Krafczyk, S. (1999) Knowledge management: Easy access to clinical information. Journal of The American Medical Informatics Association, Supplement S, 1174-1174.

Taylor, Frederick W. (1911) The principles of scientific management. New York, NY: Harper Bros.

Thomas, J.C., Kellogg, W.A. & Erickson, T. (2001) The knowledge management puzzle: human and social factors in knowledge management. IBM Systems Journal, 40(4), 863-884 Available at http://www.research.ibm.com/journal/sj/404/thomas.html [Site visited 14th July 2002]

Tracy, J. (n.d.) E-learning: a new cost-effective knowledge frontier. New York: Ernst & Young. Available at: http://www.ey.com/global/content.nsf/International/E-Learning%3A_A_New_Cost-Effective_Knowledge_Frontier [Site visited 18th July 2002]

Vimarlund, V., Timpka, T. & Patel, V.L. (1999) Information technology and knowledge exchange in health-care organizations. Journal of The American Medical Informatics Association, Supplement S, 632-636

Wasko, M.M. & Faraj, S. (2000) « It is what one does »: why people participate and help others in electronic communities of practice. Journal of Strategic Information Systems, 9(2-3), 155-173

Weinberger, D. (1998) The view from the (KM) summit. Journal of the Hyperlinked Organization, August 17.
Available at: http://www.hyperorg.com/backissues/joho-aug17-98.html [Site visited 16th August 2002]

Wilson, T.D. (2001) [Message on the KNOW-ORG mailing list.] Available at: http://www.jiscmail.ac.uk/cgi-bin/wa.exe?A2=ind0112&L=know-org&P=R224&I=-3 [Site visited 5th September 2002]

Yu, D. (2000) Seize the knowledge advantage: use what you know to invent what you need. Investment Management Perspectives, No. 1, 4-9 Available at: http://www.pwcglobal.com/extweb/pwcpublications.nsf/4bd5f76b48e282738525662b00739e22/92f014728e1030bf852568a3006b19c0/$FILE/
knowledge%20mgt.pdf [Site visited 18th July 2002



©HERMÈS : revue critique et T.D. Wilson
ISSN- 1481-0301
À jour le jeudi 20 mars 2003

Publié dans Bibliothéconomie, Société de l'information | Laisser un commentaire

Le système d’information organisationnel, objet et support d’apprentissage Sandrine DARAUT

LE SYSTEME D’INFORMATION ORGANISATIONNEL,
OBJET ET SUPPORT D’APPRENTISSAGE

Sandrine DARAUT  [1]

Paru dans le no 9 de HRC (HERMÈS : revue critique)


Sommaire

INTRODUCTION

I – SYSTEME D’INFORMATION ET APPRENTISSAGE

1. LE SYSTEME D’INFORMATION COMME SUPPORT DE LA MEMOIRE ORGANISATIONNELLE

1.1 Les différents supports de mémorisation

1.2 De la nécessité d’une utilisation flexibilisée du SIO

2. INFORMATION VERSUS CONNAISSANCES OU LA FORMATION DE REPRESENTATIONS PARTAGEES

2.1 La firme comme dépositaire de schémas d’action transférables

2.2 Apprentissage organisationnel, représentations collectives du réel et modes de traitement décisionnel

II – UNE APPLICATION A LA RELATION HOMME – POSTE INFORMATIQUE

1.VERS DES DYNAMIQUES DE CO-EVOLUTION TECHNICO -COGNITIVES

2.UNE MISE EN PERSPECTIVE AU SERVICE DE L’ACTION COLLECTIVE : L’INTRODUCTION DES NTIC DANS L’ENTREPRISE

2.1 Dynamiques d’innovation et dynamiques d’apprentissage : une application aux modes de déploiement des NTIC

2.2 Des acteurs-projets pour la structuration d’espaces de coordination au travers des NTIC

CONCLUSION

REFERENCES BIBLIOGRAPHIQUES

NOTES


INTRODUCTION

Il est aujourd’hui commun de relever que les nouveaux rapports à l’information privilégient la mémorisation, la rapidité d’accès et de circulation en s’appuyant, en particulier, sur des technologies nouvelles dites « de l’information et de la communication » – et sur tout un ensemble d’institutions qui régulent des flux informationnels de plus en plus denses. Cependant, il convient surtout de rappeler que ces nouveaux rapports constituent également des rapports à la connaissance et au savoir, rapports sans lesquels l’information n’a littéralement pas de sens. En tant que donnée, cette information ne va acquérir quelques utilités – pour une firme ou un groupe d’individus – qu’après avoir fait l’objet de divers travaux d’appropriation, de contextualisation, d’élaboration et de mise en forme.

Dans un second temps, elle ne pourra être acquise ou assimilée – et, donc, éventuellement transformée en connaissance ou savoir – que via un long processus de maturation et d’adaptation – suivant l’échéancier d’objectifs de l’utilisateur potentiel.

Ainsi, outre la nature du canal de transmission ainsi que les connaissances et savoirs respectifs de l’émetteur et du récepteur – qui, nous renvoient au contexte socio-économique de l’action tout autant qu’aux capacités de mémorisation des individus – il s’agit de mettre en œuvre un construit relationnel un tant soit peu transférable…

Dans une première partie, nous envisageons, donc, plus particulièrement, le passage des niveaux individuels à l’organisation, quant à la diffusion des connaissances et la formation des compétences. De ce point de vue, un usage flexibilisé du SIO permettrait l’émergence et la mise en œuvre d’un construit relationnel, intégrant la spécificité et la subjectivité des individus ainsi que les structures d’action, dans lesquelles ils évoluent.

Dans une seconde partie, nous nous attachons – plus modestement – à appliquer de tels schémas coordonnateurs au poste de travail informatisé. Dans ce cadre, on peut notamment s’interroger sur l’intégration des nouvelles technologies comme aptitude collective à construire des contextes d’interactions, nécessaires aux transferts – dans l’action – et au maintien du capital cognitif organisationnel.

I – SYSTEME D’INFORMATION ET APPRENTISSAGE

L’information collectée n’est, donc, généralement pas accessible directement aux membres de l’organisation, ils doivent l’interpréter suivant un ensemble de savoirs et de savoir-faire hétérogènes.

Au niveau individuel, ces derniers sont préalablement mis en forme via des mécanismes d’apprentissage, associés à un certain substrat institutionnel. Au niveau collectif, intervient le SIO. En tant qu’objet collectif cristallisant les résultats des processus d’apprentissage, un tel artefact appuie l’action collective. Mais, interviennent, aussi – à cet endroit – les modes de relation et de coordination inter-individuels – et, notamment le développement de codes communs, de règles et de représentations partagées, de « theories of action » (Argyris, Schön, 1996) – spécifiques à l’organisation considérée.

1. LE SYSTEME D’INFORMATION COMME SUPPORT DE LA MEMOIRE ORGANISATIONNELLE

Comme le constataient Cyert et March (1970 , p.95), « l’une des principales contraintes qui pèsent sur l’entreprise est sa capacité limitée à rassembler stocker et utiliser les[connaissances ; S.D]». En tant que support de la mémorisation, le Système d’Information et de Communication de l’organisation est l’instrument pour améliorer cette aptitude .

Mais, plus généralement, ces différents supports de mémorisation présentent des caractéristiques spécifiques : les produits et autres artefacts ont un contenu en connaissance donné – ils constituent une mémoire « morte » – alors que la connaissance individuelle et les routines présentent un caractère de variation ; et, donc, de potentialités supérieures – en ce sens que ces connaissances sont en action ; en un mot, elles sont « vivantes » (Azoulay et Weinstein, 2000, p.137).

1.1 Les différents supports de mémorisation

Tout d’abord, les individus conservent une certaine mémoire de leurs observations et de l’expérience. La connaissance conservée dans la mémoire individuelle peut concerner des faits bruts (stimuli reçus de l’environnement et résultats de décision). Elle peut se traduire, à un second niveau, sous forme de croyances ou de représentations particulières – justement utilisées dans les processus d’interprétation informationnelle.

En ce qui concerne ce dernier point, précisons, dans un premier temps, que la notion de représentation peut être définie suivant une double perspective.

·         Un premier sens correspond à « des structures de connaissances stabilisées, qui sont donc stockées en mémoire à long terme et qui ont besoin d’être recherchées, activées pour être utilisées » (Avenier, 1997, p.97). A ce titre, la représentation peut nous intéresser comme rendant compte des  moyens ou instruments,  dont disposent les individus pour s’adapter.

·         Une seconde acception renvoie à « des constructions circonstancielles faites dans un contexte particulier et à des fins spécifiques, élaborées dans une situation donnée et pour faire face à l’exigence de la tâche en cours » (Richard, 1990 , p.86). Cette seconde définition se rapproche, également, de celle de P.Falzon (1989 , p.11) : «  (…)l’idée d’un modèle interne élaboré par le sujet pour traiter les situations. Ce modèle interne résulte d’une construction, qui repose sur une analyse des données de la situation et sur l’évocation des connaissances en mémoire ». Cette citation englobe, alors, les deux aspects du concept de représentation. Nous retiendrons, pour notre part, surtout le fait qu’une telle notion est toujours liée à un contexte historique, culturel, technique – en dehors duquel elle est difficilement lisible.

A cet égard, interviennent notamment le substrat culturel et structurel de l’organisation. D’une part, la culture organisationnelle véhicule auprès du personnel, une certaine façon d’appréhender les problèmes ; elle repose sur des symboles, des mythes, etc. et véhicule, consécutivement, certaines valeurs. D’autre part, la notion de rôle encadre les comportements ; le découpage des activités (ou, la division du travail) s’accompagne de l’établissement de nomenclatures fonctionnelles générales – qui, imposent aux individus, se succédant sur le poste (de travail), une définition des tâches à accomplir (dans le cadre de leur affectation ).

Cependant, en termes de « rationalité adaptative » et de continuité interprétative, il s’agit, tout en préservant la structure cognitive existante de construire de nouvelles représentations – requises par les perturbations rencontrées.

Partant, il serait question « de standardiser et stabiliser des formes cognitives intermédiaires, des îlots de connaissances considérés comme temporairement satisfaisants » (Lorino, 1997, p.126). En effet, « en résolution (de problèmes) [constate H.A. Simon (1991)], un résultat partiel représentant un progrès identifiable vers le but joue le rôle d’un sous-assemblage stable ». Ce dernier représente une « économie d’attention », pour les membres d’une organisation qui, peuvent alors se concentrer sur les aspects vraiment problématiques. Ces îlots de stabilité constituent, également, des îlots de consolidation.

Mais, à ce stade de la réflexion, il conviendrait de donner un contenu plus théorique à la coordination de telles « convictions individuelles ». En particulier, « pour qu’un schéma soit remplacé, il faut que l’expression de son successeur soit aussi accessible et qu’il puisse avoir le même ancrage dans les systèmes de représentations [individuels ; S.D] » (Teulier-Bourgine, 1997 , p.129). On s’achemine, en conséquence, vers des formes simplifiées et tacites d’échanges et d’actions – qui, structurent récursivement les « régularités actionnables » (Reynaud, 1996). Autant de ROUTINES ou de « rules – ready-to-use » qui, incorporent des variables comportementales (associées à un certain contexte d’action).

De plus, outre l’articulation de processus cognitifs élémentaires, la cohérence du cheminement interprétatif fait intervenir une mémoire collective ; des artefacts physiques – supports et objets de PROCEDURES.

En pratique, la mémorisation interne (au sujet) est accompagnée par la constitution d’archives personnelles, de fichiers – qui, sont autant de mémoires auxiliaires. En particulier, la plupart des organisations formalisées prévoient un archivage systématique des enregistrements de leurs activités, sous forme de rapports, de comptes rendus, etc. Ces archives collectives conservent une trace des réponses, apportées par l’organisation, aux sollicitations de l’environnement.

Cependant, de façon plus générale, nous pouvons dire – à l’instar de N. Fabbe-Costes (1997 , p. 205) – que « la mémoire dans les organisations procède à la fois de la mémoire individuelle des acteurs qui la constituent, et de la mémoire collective que se construit l’organisation à travers son [Système d’Information] ».

De ce point de vue, une définition du concept de SIO est donnée par J-L. Peaucelle, en 1981 (p. 30). « Le SI est un langage de communication de l’organisation construit pour représenter, de manière fiable et objective, rapidement et économiquement, certains aspects de son activité passée ou à venir. Les phrases et les mots de ce langage sont les données dont le sens vient des règles élaborées, par des Hommes (…). Les mécanismes de représentation propres à ce type de langage prennent leur efficacité dans les répétitivités des actes [au sein ; S.D] des organisations » (souligné par nous).

Deux points sont, dès lors, à reprendre. D’un côté, l’information peut constituer un élément codifiable et transmissible ; mais encore, elle peut être non formalisable – car, liée au contexte dans sa signification, ainsi qu’à l’aptitude des membres de l’organisation à l’acquérir et à la diffuser ; même de façon informelle .

Par conséquent, nous percevons clairement, ici , l’importance d’une approche organisationnelle, en termes de lieu d’interactions entre centres d’information décentralisés; connaissances formalisées et informations tacites seraient, ensuite, prises en compte – au niveau du SIO – dans une perspective de réalisme et de complétude…D’un autre côté, une telle structure n’est intelligible que, si nous la confrontons aux procédures décisionnelles de l’organisation considérée (Favereau, 1989). En effet, la cohésion d’ensemble est fondée sur ces règles (de procédure) – ou « heuristiques au sein (et au service) d’un processus d’apprentissage collectif » (Favereau, 1994) – propres à faire émerger les significations. Ces procédures opératoires (quoi faire dans telle ou telle circonstance ?) – éléments majeurs, encore, de la mémoire organisationnelle – encadrent les perceptions individuelles ; elles fixent, par exemple, les règles d’exécution du travail, la façon de recueillir et de traiter les données, les objectifs à respecter, etc.

Au final, donc, la notion de mémoire collective serait plus globalement liée à un système d’inscriptions matérielles externes ; mais, collectivement produites, interprétées ou modifiées, suivant les histoires personnelles des individus et les structures organisationnelles dans lesquelles ils évoluent…

A partir de cette définition, considérant donc l’activité de mémorisation qui s’opère à travers le SI de l’organisation, nous ne pouvons qu’envisager un usage flexible de cet artefact.

Cependant, en guise de synthèse, dans le cadre des interactions dynamiques entre les membres de l’organisation et leur environnement, le SIO – en cristallisant les résultats des processus interprétatifs et d’apprentissage, au niveau du concept d’INFORMATION – peut impulser, après la mise en forme et la collectivisation associées à l’émergence des CONNAISSANCES, la construction de compétences « actionnables ». Ainsi, la boucle est bouclée. D’après une réflexion de P. Garrouste, une « information » ne devient « connaissance » que si l’on est capable de l’utiliser ; ce qui renvoie aux problèmes tenant notamment à la spécialisation des savoirs et à la différenciation des codes – y compris dans leurs aspects spécifiques et locaux (tout ce que D.Foray appelle « le marquage institutionnel de la connaissance ») – et, qui justifie, pour une firme, le maintien non seulement, d’une activité de recherche interne mais aussi, d’une capacité d’expertise (interne).

Nous partageons, donc, l’approche de J.C. Perrin (1991) qui, s’élève contre l’assimilation des savoir-faire à une combinaison d’informations. En effet, en fin de cycle, dans le champ de la mise en acte, la connaissance est confrontée au contexte d’interactions[2]. De fait, dans cette perspective, « l’information importante [qui constituera, à terme, une donnée ; S.D] n’est pas explicitée dans le langage général de la rationalité cognitive du fait qu’elle est spécifique à un contexte particulier et que, avant d’être formalisée dans un langage objectif, elle est mise au point et vécue expérimentalement par le collectif (de travail) » (1991 ; Perrin op.cit).

Nous envisageons, donc, l’enchaînement suivant :

Consécutivement, « le problème n’est pas de faire circuler toute [la connaissance ; S.D] systématiquement, mais de la rendre économiquement accessible à la demande, sans contraindre tous les acteurs de l’organisation à la consommer malgré eux » (Le Moigne, 1986, p. 24).

L’opérationnalisation de la mémorisation – au niveau organisationnel – impliquerait, donc, plutôt, des outils laissant place à une appropriation sélective des connaissances produites.

1.2 De la nécessité d’une utilisation flexibilisée du SIO

En réalité, la capacité d’accéder – en toute liberté ! – aux éléments en mémoire s’inscrit dans une dynamique de construction des décisions, au sein des organisations. En cela, « si le [Système d’Information] n’est pas le système de représentation de l’organisation, il lui est intimement lié ; il en est une expression tangible et le conditionne » (Couix, 1997 , p.176).

De façon plus pragmatique, nous sommes attentifs à certains signaux de nos environnements (entreprise, famille, etc.). Nous décidons, en conséquence, d’acquérir, mémoriser telle ou telle information, d’échanger telle ou telle connaissance ; ou bien, de représenter tel ou tel stimulus par telles ou telles variables interprétatives.

A contrario, une information peut influencer la représentation que l’on se fait d’un phénomène.

Aussi, J. March de préciser que « la construction [collective ; S.D ] d’informations peut être considérée comme plus importante que l’information elle-même, tout comme la prise de décisions a plus d’importance que ses résultats » (March, 1991 , p.12).

Plus précisément, une grande partie du traitement de l’information (visant à faciliter le travail, au sein des organisations ) « consiste à remplacer des informations brutes (perçus localement ; mais, nombreuses ) par une information de synthèse, élaborée selon des règles propres à celui qui fait la synthèse et difficilement contrôlables par ceux qui les recevront et les utiliseront » (Thévenot, France-Lanord, août 1993 , p.105).

Dans cette optique, le SIO constituerait l’interface « support d’attention – réducteur d’incertitude » – entre l’environnement organisationnel et la structure décisionnelle de l’organisation . En effet, considérant le rapport capacité de traitement informationnel / opacité des environnements organisationnels, nous pouvons mesurer l’importance d’une remise en question permanente de l’effectivité, quant à la collecte de données, au traitement et à la mémorisation de l’information. D’ailleurs, la ressource rare – notamment relativement à la rationalité limitée des agents économiques – réside autant dans les capacités de traitement que dans l’information elle-même . Dès lors, un projet de suivi des signaux environnementaux – médiatisé par le SIO – commence par une sélection des stimuli pertinents ; sélection qui, contribuera – en retour – à faire évoluer, chaque membre de l’organisation, à travers ses pratiques, son expérience…

Toutefois, il faut également envisager le « difficile » passage à la capitalisation collective des savoirs individuels.

2. INFORMATION VERSUS CONNAISSANCES OU LA FORMATION DE REPRESENTATIONS PARTAGEES

Selon une vision cognitive des organisations, la connaissance se distingue de l’information en ce qu’elle ne constitue pas une simple description – plus ou moins détaillée – d’une réalité ; mais, se présente comme un construit social, incluant une dimension de croyance et de jugement (March, 1991). D’après Nonaka (1994), par exemple, la connaissance se définit comme « a justified true belief ». Comment, dès lors, peuvent se coordonner des individus qui, n’ont pas les mêmes connaissances – ou, les mêmes perceptions et représentations du monde ? En guise de réponse, de nombreux travaux mettent alors l’accent sur l’existence de « schémas cognitifs partagés » – par les membres de l’organisation –règles, routines, langages, procédures…

2.1 La firme comme dépositaire de schémas d’action transférables

Ainsi, quand on sait que la production et le renouvellement de la coopération constituent le problème principal des organisations (notamment pour celles qui innovent ), il devient prégnant de s’interroger sur les potentiels de transmission des connaissances (et, des compétences) individuelles – justement (en partie ) objectivées via des « dispositifs cognitifs collectifs », suivant l’expression d’O. Favereau (1989).

Dans un premier temps – et, toujours dans une perspective d’accumulation et de sauvegarde des capacités productives  – nous pourrions penser que les individus organisés prennent leurs décisions « en fonction des représentations communes en vigueur, du jugement de convention » (Petit, 1993). En effet, logiquement, la mise en cohérence de différentes compétences, centrées sur des domaines d’intervention spécifiques, passe par une communication – à l’intérieur de la firme – entre différentes spécialisations ; aussi, est postulée la possession d’un langage commun entre les différents agents économiques (Le Bas et Zuscovitch, 1993). Néanmoins, c’est sans parler des savoirs tacites et non formalisés. Or, de telles connaissances – « gravées dans les mémoires (embrained) individuelles »– sont sans cesse mobilisées – automatiquement – dans la mise en œuvre de savoir-faire.

« Nous savons plus que ce que nous pouvons dire. (…) C’est un fait bien connu que le déroulement d’une performance habile est achevé dans l’observation d’un ensemble de règles qui ne sont pas connues en tant que telles par la personne les suivant » (Polanyi, 1958) ; ou, encore : « on retrouve toujours, dans la connaissance technique, la priorité d’un savoir-faire sur un savoir-comment. Entre le dessin de l’outil et de la machine, d’un côté, le dessin de l’objet à fabriquer de l’autre, il demeure une zone de geste et de la parole qui est indescriptible » (Gille, 1978 , p.1440) – et, par conséquent, difficilement transférable d’un individu à l’autre.

De ce point de vue, « les routines d’une organisation constituent la qualification (skill) de cette organisation » (J. Perrin, 1993 , p.11). Mais, parties prenantes du « capital immatériel » (associé à ces savoirs individuels, inarticulables au moyen d’un langage), elles demeurent, aussi, distribuées et incorporées au niveau des rationalités individuelles. De fait, de telles routines, « même si elles s’expriment globalement pour réaliser une tâche collective [ !] » (B. Walliser, 2000 , p.208), «  ne sont véritablement collectives que quant à leur résultat » (B. Walliser, 2000 , p.209).

En effet ce qui est transposé, au niveau collectif , ce sont des formes de « connaissance codifiée » – impliquant, en amont, autant de représentations, de règles interprétatives et de systèmes informationnels…Au final, donc, via une agrégation automatique des comportements individuels, se reconstitue – au prix d’un appauvrissement, relatif au contenu ainsi qu’à la variété des schémas mentaux  – un enchaînement exhaustif de la forme : « si…(liste de conditions contextuelles)…Alors…(liste d’actions associées) ».

Autant de postulats stratégiques très difficilement interprétables (car, guidant quasi mécaniquement les comportements, sans être d’ailleurs totalement exprimables par chaque individu…) ; et, partant, aussi, difficilement transposables dans un nouveau contexte socio-économique…

A contrario, « la partie articulée des savoirs et savoir-faire humains est (…) facilement transférable d’un individu à l’autre, étant dans une forme destinée par sa nature même à la communication entre êtres humains » (Mangolte, 1997, p. 121).

A côté d’un essai de stabilisation des ressources organisationnelles dans le champ du tacite, nous percevons, donc – de façon plus tangible  – le cadre formel des activités productives. Nous évoquons, ici, des procédures standardisées ; du type processus de fabrication, méthode d’utilisation de machines-outils, etc.

Dès lors, sur cette base, d’après A. Kirman (2000), « l’émergence des liens entre les individus peut être expliquée par l’utilisation de règles de comportement très simples, sans avoir recours à un comportement optimisateur ou stratégique ». Dans cette perspective, nous nous rapprochons du raisonnement simonnien – qui, implique de s’écarter de la validité objective des règles déterminant l’usage optimal des connaissances et l’action optimale ; pour se rapprocher de PROCEDURES satisfaisantes, utilisées par les agents pour améliorer leur compréhension de la réalité (Simon, 1976). Par conséquent, afin de maintenir une cohérence d’ensemble, nous nous inscrivons dans le comment (rationalité procédurale) ; et, « chemin faisant », les règles servent de guides (ou de repères) pour l’apprentissage collectif. En réalité, de telles règles (de procédure) consistent à découper le problème organisationnel, d’une certaine façon ; et, consécutivement à cette décomposition, à découvrir une heuristique spécifique (de manière, encore, plus ou moins exploratoire ou automatique ).

Un tel « langage résolutoire » peut jouer, alors, le rôle d’un Common Knowledge (CK) – créant du lien entre les membres organisationnels (du moins, pour un certain nombre d’entre eux ) ; et, permettant des transferts de significations…

« La mise en forme articulée facilite donc la circulation du savoir productif, sa dispersion éventuelle et son appropriation par autrui. On peut ainsi penser au plan d’une machine prototype – plan que l’on peut reproduire, photocopier et envoyer à l’autre bout du monde. A l’arrivée, à la seule condition de savoir déchiffrer le plan, c’est-à-dire de comprendre les codes, les conventions, les symboles utilisés, la machine est presque immédiatement reproductible » (Mangolte, 1997 , p.112).

Ainsi, comme le disait Favereau (1996), « l’incomplétude n’est pas le problème, c’est la solution » – notamment pour adapter les connaissances (construites collectivement) à de nouvelles circonstances. Maintenant, c’est dans cette optique, que nous nous proposons d’examiner, plus en détail, les modalités de passage d’un phénomène individuel à un processus collectif de mémorisation.…

2.2 Apprentissage organisationnel, représentations collectives du réel et modes de traitement décisionnel

En première analyse, nous pouvons retenir la définition de l’apprentissage – individuel et organisationnel – proposée par C. Le Bas (1993 , p.5) : « l’apprentissage est un processus d’acquisition de connaissances. Il peut être défini plus généralement comme un processus d’accumulation, de mémorisation, et concerne avant tout les Hommes dans leurs activités sociales et, en particulier, dans leur activité économique. S’il est indubitablement un phénomène dont l’agent individuel est le support, il s’incruste également dans les organisations, c’est-à-dire dans les formes institutionnelles que prennent les rapports économiques et sociaux des agents ». Une telle caractérisation trouve, d’emblée, sa légitimité dans l’évocation des dimensions individuelle et collective de l’apprentissage ; l’auteur inscrit également un tel phénomène dans le cadre social relatif aux activités de production. Enfin, est soulignée la mobilisation d’une mémoire ; partageable à divers niveaux et, chargée d’assurer la sauvegarde des connaissances accumulées…

De fait, afin de garantir, dans un premier temps, la cohérence des divers processus d’apprentissage (au sein des organisations) ainsi qu’une régulation efficace des compétences individuelles, il doit exister – à l’échelle collective – un corps de connaissances communes. Si l’on se place, donc, dans une situation de CK – telle que définie par D. Lewis – aucun doute résiduel n’est présent ; tout individu d’une population P conformera son comportement à toute régularité R caractérisant les autres membres de la population considérée – ce type de comportement étant, de plus, approuvé et connu par tout individu caractérisé ici. De ce point de vue, l’application de la règle est tout à fait dissociée des aléas affectant les interactions. « L’objectivité de la règle ne signifie rien d’autre que le fait qu’il n’y a plus rien dans la relation intersubjective qui puisse en venir perturber l’application » (Orléan, 1994).

Mais, justement, à l’instar de C. Argyris et D.A Schön, nous pouvons aussi dire que l’apprentissage organisationnel n’est possible que dans le cas où les membres de l’organisation appliquent, avec un regard critique, les règles guidant l’action collective.

Aussi, dans le cadre des préférences et des représentations individuelles, la coordination située nécessiterait la présence « d’une forme affaiblie de savoir collectif ». Tel est notre avis ; on se laisse guider – dans l’apprentissage – par les règles existantes, lesquelles sont réinterprétées au terme de cet apprentissage…

« Ces traits de comportement, justifient (…) l’idée selon laquelle les contextes d’une action sont, dans une certaine mesure, donnés à l’acteur sous la forme de figures collectives, que la coordination ne peut se faire en dehors de tout repère collectif. Cette référence peut être plus ou moins contraignante, plus ou moins directive. Elle est en revanche, toujours partagée car inscrite dans les environnements d’actions. Elle induit un statut différencié des participants à l’action et une approche différente des comportements d’action. » (Kechidi, 1998, p. 434 ; souligné par nous)

A cet égard, dans le champ des processus décisionnels, « les règles qui régissent la recherche de solutions s’ajustent également car les modes de recherche ayant produit des solutions dans le passé tendent à être répétés et ceux non productifs évités » (Daraut, 1999, p.11). Malgré tout, dans un tel cadre, peut alors se poser le problème de la maîtrise des conflits, inhérents à des logiques rationnelles différentes.

Les évolutionnistes aboutissent, par suite, à une définition des routines, à partir de propriétés presque exclusivement cognitives (Egidi et alii, 1994 , p. 2). En effet, comme « truces amongst conflicts » (Nelson et Winter, 1982) ou, mécanismes particuliers de régulation – intégrant des processus interindividuels  – de telles routines peuvent permettre – mais, toujours artificiellement ; de « canaliser le découpage des évènements ».

Elles ont, alors, cinq propriétés respectives :

(1)  une régularité et une prédictibilité ; car, représentant des modèles de comportement qui, peuvent être répétés – si les conditions environnementales sont similaires

(2)  une automaticité

(3)  un contenu tacite

(4)  une ignorance partielle quant à leur mobilisation, dans la mesure (cf. 2) où elles sont actionnées automatiquement (sans nécessité délibérative )

(5)  l’économie de savoirs au niveau individuel, lors d’une mise en place au niveau collectif (Egidi et alii, 1994 , p .2).

Partant, en particulier suivant ce cinquième item, nous pouvons renvoyer à la notion de MEMOIRE ORGANISATIONNELLE. De fait, face à des problèmes de nature répétitive, les comportements (qui ont réussi ) sont mémorisés à travers des règles standardisées. On évite, par là même, au décideur, de recommencer en totalité l’analyse et la modélisation du problème ; il suffit de reconnaître la nature du problème et d’appliquer le schéma résolutoire – qui, a réussi par le passé  – sans avoir à reconstruire complètement une réponse adaptée…

Cependant, nous pouvons considérer qu’il existe plusieurs niveaux possibles dans le processus d’apprentissage.

  • Dans le cas le plus courant, le problème est reconnu comme strictement identique à ceux qui ont été déjà observés. Il suffit, donc, de retrouver, dans l’ensemble des décisions stockées, celle qui a conduit à un résultat jugé satisfaisant et de la reproduire.
  • Si le problème n’est pas reconnu comme strictement identique, il y a adaptation ; et, pas seulement reproduction d’une décision.  Cette adaptation est toutefois plus rapide à mettre en œuvre qu’une solution totalement nouvelle.
  • Dans certains cas, néanmoins, le schéma d’action prévu dans la procédure (ou, enregistré dans la mémoire du décideur) se révèle inadéquat ; les faits observés ne coïncident pas avec la représentation « apprise » du problème. Il faut, alors, passer à un autre niveau d’apprentissage qui, consiste à modifier le schéma d’interprétation, appliqué jusque-là ; puis, à sélectionner, dans le cadre de ce schéma, les réponses fournissant les meilleurs résultats. Ce deuxième niveau d’apprentissage est celui de la modification des représentations.

Plus généralement, alors, nous pouvons remarquer que « le profil des convictions de l’organisation dépend énormément du fonctionnement de [sa ; S.D] mémoire et du fait qu’il est différent ou non selon les périodes et selon les unités de l’organisation » (March et Olsen, 1976). De cette manière, la structure organisationnelle conditionne étroitement les dynamiques d’apprentissage Comme le souligne, globalement, Llerena (1996), « dans la mesure où les processus d’apprentissage individuels sont fortement tributaires du contexte et de l’engagement des individus dans les activités cognitives, l’évolution des connaissances au sein de la firme ne peut être appréhendée sans tenir compte du contexte organisationnel dans lequel s’insèrent les individus. Ce contexte particulier, en définissant (…) les tâches et les possibilités d’interactions, les rapports hiérarchiques et les relations d’autorité, guide les activités cognitives des membres de l’organisation et détermine la variété des cadres d’interprétation ». Et, c’est notamment dans cette perspective que nous allons envisager « la coopération située ordinateur/opérateur ».

II – UNE APPLICATION A LA RELATION HOMME – POSTE INFORMATIQUE

1.VERS DES DYNAMIQUES DE CO-EVOLUTION TECHNICO -COGNITIVES

Dans un premier temps, N. Rosenberg (1982) a souligné, via le concept de « learning by using », le rôle d’un apprentissage se construisant à partir de l’expérience acquise dans l’utilisation des produits ou des machines. Plus précisément, il a montré – pour des techniques ou des objets complexes – que « les performances de ces produits sont difficiles à prévoir ; de plus, beaucoup de leurs caractéristiques ne seront connues qu’après une utilisation intensive et prolongée ». Dans de telles situations, l’innovation technologique passera par le maintien de relations étroites entre utilisateurs et concepteurs – justement, pour que ces derniers intègrent, dans leur activité, les enseignements tirés par les premiers.

A ce niveau, il ne s’agit plus, alors, de postuler un quelconque déterminisme de la technologie sur l’organisation ; mais, de considérer la technologie dans son aspect « permissif ». Parallèlement, on peut observer une forme de concomitance des changements techniques et organisationnels (Reix, 1990 , p.106).  En particulier, dans un tel cadre d’analyse, l’autonomie se définit « comme une capacité d’initiative et d’action propre à l’individu en situation de travail » (Lallé, 1999, p.98).  « L’autonomie sera positive si elle permet d’assurer la cohérence des actions en adéquation avec les objectifs de l’entreprise » (p.103 ; op.cit Lallé).

Cependant, dans une perspective d’ « action située » (Suchman, 1987), l’enjeu est de considérer l’interaction dynamique entre l’homme et son environnement. « L’action est située lorsque les ressources de l’environnement accroissent les capacités cognitives des agents » (Laville, 2000 , p.13).

De ce point de vue, si l’on se place dans le champ du traitement informationnel, nous pouvons envisager – à l’exemple de Simon – que « l’Homme raisonne dans son contexte, avec sa rationalité limitée, et cherche à ses problèmes la solution satisfaisante plutôt que la solution optimale qu’il ne peut trouver faute de disposer d’une capacité de traitement suffisante. La machine comblerait [ainsi] une partie [de ses ; S.D] lacunes, contribuant (…) à l’aider à accroître sa rationalité dans [la] prise de décision. L’Homme et son ordinateur forment alors un ‘couple’, un système Homme-machine dont la performance va croissant, au fur et à mesure que l’on comprend mieux la manière de raisonner d’une part et que les outils logiciels sont plus évolués d’autre part » (p. 101 ; op.cit Thévenot et France-Lanord, 1993).

Pourtant, H.A Simon n’a pas consacré l’essentiel de ses recherches au problème des interfaces – apparaissant comme central quant à l’utilisation des Systèmes d’Information…En effet, dans ce domaine, tout semble se jouer au niveau de la gestion des échanges de données.

« Starting from the viewpoint of action as situated in complex ill-structured contexts, Winograd et Flores (1986) argued that the most significant challenge facing the interface design is to discover the true ontology of human beings with respect to computer: Human-Computer Interaction (HCI)” (Vera et Simon, 1993, p.13). En effet, lorsque deux individus sont en interaction (même si l’un d’eux est une machine ou, interagit au travers d’une machine), ils redéfinissent, continuellement,  leur contexte d’interactions ; ceci, relativement à « la taille des mondes » dans lesquels ils évoluent respectivement…

En réalité, la prise de conscience du caractère distribué, fragmenté de la production / consommation d’informations vient se superposer à une coopération accrue entre l’Homme et la machine – médiatisant le dialogue et l’articulation de ces espaces, de ces différents points de vue connectés. Conçus séparément, l’humain et le technique s’articulent, alors, de façon inédite ; dans un processus de « mémorisation interactive ».

Minsky décrit  « l’apparition inattendue à partir d’un système complexe d’un phénomène qui n’avait pas semblé inhérent aux différentes parties de ce système. Ces phénomènes émergents ou collectifs montrent qu’un tout peut être supérieur à la somme des parties ». Dès lors, Winograd et Flores (1986) – s’intéressant toujours à la mobilisation du système interactif Homme / ordinateur – écrivent « we must focus on how people use them [interfaces] instead of how people think or what computers can do » (p.11 ; op.cit Vera et Simon).

Partant, l’apprentissage et la mémorisation continus mettent en jeu un ensemble de relations dialectiques ; « like ‘rationality’, the continuity of activity over contexts and occasions is located partly in the person acting, partly in contexts, but most strongly in their relations (souligné par nous) » (Lave, 1988, p.20).

Nous en venons, alors, progressivement, au(x) rôle(s) joué(s) par les nouvelles technologies, dans la structuration de dynamiques d’échange – propres à assurer la cohérence et la pérennité des construits d’action collective…

2.UNE MISE EN PERSPECTIVE AU SERVICE DE L’ACTION COLLECTIVE : L’INTRODUCTION DES NTIC DANS L’ENTREPRISE

A l’instar de J-L. Le Moigne, nous réaffirmons l’indépendance conceptuelle du SIO et des technologies de traitement de l’information – justement susceptibles de faciliter l’exercice des fonctions assumées par cette partie constitutive du pilotage organisationnel ; en effet, le SIC peut être défini comme « un système social de significations partagées » (Hirscheim, Klein, Lyytinen, 1995).

2.1 Dynamiques d’innovation et dynamiques d’apprentissage : une application aux modes de déploiement des NTIC

En pratique, la diffusion des NTIC se caractérise plutôt  par l’ajustement ; et, donc, par l’absence de lignes directrices ainsi que d’objectifs clairement définis.

  • Dans un premier temps, l’amélioration, au quotidien, de l’existant est privilégiée ; relativement à l’exploration de nouvelles formes organisationnelles.
  • Dans un second temps, les firmes peuvent innover plus profondément, à mesure que leurs membres s’approprient les technologies. Les utilisateurs peuvent, en effet – « avec le recul nécessaire » – imaginer des utilisations originales…
  • De telles possibilités incrémentales d’évolution organisationnelle et d’adaptation technologique représentent, enfin, des critères décisifs quant aux futurs choix d’investissement.

Ainsi, dans le cadre de relations de travail harmonieuses et constructives, la mise en œuvre d’une véritable ingénierie informationnelle peut engendrer un processus qualifiant. De telles dynamiques technico-organisationnelles tendent, surtout, à réduire l’aspect routinier des pratiques productives, valorisant le volet cognitif de l’innovation technologique et incitant à la prise en charge des problèmes organisationnels par les individus (caractérisés notamment par leurs compétences respectives ).

Dans cet état de fait, la mémorisation collective joue, encore, un rôle déterminant (Day, 1992). L’entreprise, ainsi comprise dans sa durée, dans son histoire se constitue dans « un processus continuellement apprenant » (Chandler, 1992). Mémoire et apprentissage sont interdépendants, même s’il reste à aménager l’organisation – afin que la mémorisation ne soit pas trop affectée par une vision ( par trop !) schématique du savoir…Cela n’est possible que si l’on respecte l’hétérogénéité de la connaissance ; ses versants implicites et tacites, ses degrés de codification plus ou moins établis (Spender et Baumard, 1995 ; Baumard, 1995).

Et, dans une perspective dynamique  – le savoir antérieur doit être fortement relié à la nouveauté ou à la création ; de manière à en faciliter l’assimilation…

Ainsi, l’apprentissage par l’usage peut faire évoluer les cadres cognitifs de la prise de décision . En particulier, les performances qu’une firme peut obtenir aux moyens des NTIC sont, entre autres, corrélées avec les phénomènes d’apprentissage associés à l’utilisation de telles technologies (Rosenberg, 1982 ; Porter, 1985 ; Von Hippel, 1988 ; March, 1991). En outre, dans une étude de cas, Néo (1988) observait que les implantations des NTIC les plus fructueuses correspondaient à celles pour lesquelles les organisations avaient – déjà  – enregistré une expérience, dans le domaine…

En conséquence, l’efficacité d’un SIO ne serait pas dépendante de la technologie – elle-même  – ni de la structure organisationnelle, prise de façon isolée ; mais, de la conjonction des deux (Markus et Robey, 1983). L’apport des NTIC ne doit pas être appréhendé sous une forme statique ; mais encore, suivant une co-évolution technico-organisationnelle (Brousseau et Rallet, 1995 , p.19). Par exemple, « chemin faisant », l’apprentissage lié à l’utilisation de ces nouvelles technologies pourrait permettre de catalyser des signaux environnementaux, invitant à une réorientation dans l’activité productive.

2.2 Des acteurs-projets pour la structuration d’espaces de coordination au travers des NTIC

Dans cette optique, la prise en compte des paradoxes organisationnels (intégration-différenciation, individus-collectifs, stabilité-changements, exploitation-exploration, etc.) permet de passer outre la conception statique des organisations.

Dans « une vision conversationnelle », il s’agit, alors, de proposer des schémas coordonnateurs qui, font apparaître la dynamique d’action comme une force motrice permanente – ceci, via une recherche perpétuelle d’équilibration[3] entre pôles antagonistes. « Il est donc nécessaire que soient privilégiées les stratégies bipolaires (…) incluant par exemple, une dose accrue de centralisation de certaines décisions et, simultanément, plus d’actions décentralisées » (Martinet, 1989, p. 234-35). Or, de façon générale, « les décisions ne s’imposent jamais comme des évidences techniques ou économiques, ou financières, mais en fonction des systèmes relationnels existants » (Bernoux, 1995, p.223).

  • En particulier, dans une dynamique d’amélioration de la production, toute apparition d’une innovation commande une redéfinition de la situation (Goffman, 1973 ; Habermas, 1987) – c’est-à-dire une transformation des trois rapports, constitutifs de toute culture ; à savoir aux autres, aux choses et à soi. Cependant, si cette révision n’est pas conduite par la hiérarchie en place, elle risque d’être opérée sur le versant informel de l’organisation ; la dissociation s’accentuera, alors, entre un système figé « dans la paix des rationalités » et l’effervescence associée à l’expérimentation – au quotidien …
  • Malgré tout, dans le flanc du monde vécu, la coordination s’appuie – aussi  – sur des mécanismes de circulation de la connaissance que, l’on ne peut dissocier du cadre formel. Ces mécanismes contribuent à l’efficacité et à la souplesse des liaisons hiérarchiques et horizontales. Ils constituent, dès lors, avec « la structure organisationnelle »[4] un tout indissociable – qui, peut s’analyser, en dernier ressort, comme un outil de traitement informationnel ( en vue de la prise de décisions).

Plus généralement, donc, l’individu est considéré comme inséré dans un environnement, avec lequel il est en interaction.

Dès lors, afin d’articuler ici une théorie de l’action, nous pouvons également appréhender le « travail adaptatif » comme un processus d’organisation, tendant à faire apparaître un système d’activités coordonnées (justement adapté aux conditions de l’environnement ).

Nous retrouvons cette conceptualisation dans la théorie de la structuration d’A. Giddens (cf. notamment J. Rojot, 1998).

En particulier, « les activités sociales des êtres humains sont récursives, comme d’autres éléments auto-reproducteurs dans la nature. Elles ne sont pas créées ab initio par les acteurs sociaux mais recréées sans cesse par eux en faisant usage des moyens mêmes qui leur permettent de s’exprimer en tant qu’acteurs. Des conditions permettent les activités des agents et dans et à travers leurs activités, les agents produisent et reproduisent les conditions mêmes qui rendent ces activités possibles » (p.6 ; op.cit Rojot).

A partir de là, dans un cadre organisationnel donné et considérant des dynamiques de projets endogènes – tenant notamment à une mise en situation des NTIC, au sein de certains construits béhavioristes et institutionnalisés – nous pouvons évaluer comment les agents opérationnels interagissent avec la technologie et l’organisation.

C’est dans une relation continue et bilatérale avec l’artefact technique ainsi qu’avec Autrui que se constituerait (récursivement ) « les activités spatio-temporellement situées des [acteurs ; S.D] humains » (Giddens, traduction de M. Audet, 1987 , p.74).

Partant, dans un même mouvement, les règles de l’action collective – elles-mêmes  – seront interprétées et ajustées à la situation.

En pratique, en effet, nous pouvons facilement envisager que l’acteur-projet ou l’opérateur communique ses expériences (quant à son poste de travail ), auprès de l’équipe ou des personnes les plus proches de lui en termes de compétences ; car, à première vue, ces collègues partagent – déjà  – un certain capital cognitif productif…

Ensuite, dans le cadre d’une telle base d’autonomie stable[5], les NTIC peuvent notamment appuyer des dynamiques d’apprentissage (de groupe ) – en favorisant la rapidité et l’étendue des processus de mémorisation et de communication. En retour, ces technologies feront – elles-mêmes – l’objet d’adaptations…

CONCLUSION

Ainsi, la mise en œuvre des nouvelles technologies induit – préalablement  – un processus d’abstraction et de représentation du monde – ou, plus modestement, de l’organisation du travail. En effet, les NTIC s’imbriquent à l’organisation, parce qu’elles reprennent – en partie  – le traitement et le transfert d’informations codées. « L’utilisation des TIC dans la coordination est (…) étroitement liée à la nature, formelle ou informelle, des procédures qui règlent les rapports entre les unités [organisationnelles ; S.D] » (Brousseau et Rallet, 1997, p. 294).

Dès lors, une telle inscription dans la technique, d’un certain substrat culturel légitime, encore davantage, l’intervention (négociée) des agents – s’identifiant et participant à l’organisation . Ceci d’autant plus que l’apprentissage des technologies par les utilisateurs (Rosenberg, 1983 ; Von Hippel, 1988) constitue une source génératrice d’innovation – ces derniers utilisateurs ne connaissant pas, au départ, toutes les propriétés et les potentialités des technologies. L’usage les leur apprend ; et, à ce moment-là, « cet apprentissage emprunte des voies inattendues qui tiennent d’une part aux détours d’appropriation des usages et, d’autre part, à la difficulté de modifier les mécanismes de coordination existants » (p. 304 ; op.cit Brousseau et Rallet). Se dessinent, alors, progressivement – via ce « learning by using » – des sentiers de co-évolution entre technologies et modalités organisationnelles.

«L’organisation qui émerge de ces actions stabilise la coordination des comportements des individus, mais ne se confond pas avec une donnée structurelle, une totalité préexistante à l’action des individus ; elle est plutôt une construction sociale. Au sein de cette construction sociale, la confiance et les règles jouent un rôle essentiel dans la coordination des individus. Mais les secondes ont pour avantage de permettre une coordination à distance d’individus anonymes, alors que la confiance n’est pas aliénable. Elle reste inscrite dans le cadre du face à face, de la relation de proximité » (Dupuy et Kechidi, 1996, p. 17).

Au final, donc, la possibilité d’échanges sereins et prolongés sur la base des compétences techniques de chacun, permet à ceux qui disposent déjà d’une certaine reconnaissance d’affirmer leur position au sein de l’organisation ; les autres peuvent, alors, trouver une occasion inespérée d’être rapidement reconnus ! Mais, surtout, un simple tissage de liens via les NTIC ne garantit pas – en soi  – des construits technico-organisationnels plus efficients. Ceux-ci ne peuvent constituer que le fruit « de la volonté et de la capacité des Hommes à partager la connaissance, à établir des coopérations, à faire confiance, à reconnaître à l’autre son altérité et le droit de sa subjectivité, à s’engager avec d’autres sur des chemins qui ne sont pas écrits à l’avance » (Génelot, 1996).


REFERENCES BIBLIOGRAPHIQUES

Argyris C., Schön D., “Organizational Learning. A theory of action perspective”, Reading Mass, Addison Wesley, 1978; “Organizational Learning II, theory, method and practice”, Addison Wesley, New York, 1996.

Avenier M-J. (ouvrage coordonné par), « La stratégie chemin faisant », Economica, 1997.

Azoulay N., Weinstein O.,  „Les compétences de la firme“, Revue d’Economie Industrielle, n°93, p. 117-153, 4° trimestre 2000.

Baumard Ph., « Des organisations apprenantes ? Les dangers de la ‘consensualité’ », Revue Française de Gestion sept/oct ; p. 49-57, 1995.

Bernoux Ph., « La sociologie des entreprises », Seuil, 1995.

Bouchikhi H., « La structuration des organisations », Economica, 1990.

Boyer R. et Orléan A., « Les transformations des conventions salariales entre théorie et histoire », Revue Economique, 42(2), p. 236, mars 1991.

Brousseau E. et Rallet A., « Efficacité ou inefficacité du bâtiment : une interprétation en termes de trajectoire organisationnelle », Revue d’Economie Industrielle n°74 ; p. 9-30, 1995.

Brousseau E. et Rallet A., « Le rôle des technologies de l’information et de la communication dans les changements organisationnels », in Guilhon B., Huard P., Orillard M. et Zimmerman J.B (eds.), Economie de la connaissance et organisation – entreprises, territoires, réseaux – l’Harmattan, 1997.

Chandler A., « What is a firm ? A historical perspective”, European Economic Review, 1992.

Couix N., “Evaluation ‘chemin faisant’ et mise en acte d’une stratégie tâtonnante », in M-J. Avenier « La stratégie chemin faisant » ; p.165-187, 1997.

Cyert R.M., March James., « Processus de décision dans l’entreprise », Dunod, 1970.

Daraut S., « La prise de décision dans les organisations », mémoire de DEA, 1999.

Day G.S, “Continuous Learning about Markets”, Planning Review, vol.20, n°5; p. 47-59, 1992.

Dupuy C., Kechidi M., « Interprétabilité des règles et confiance dans la dynamique des organisations », Sciences de la Société n°39, oct. 1996.

Egidi M., Marengo L., Narduzzo A.,“ On the origin and nature of organizational routines – some evidence from experiments”, Working paper, Eunetic conf., Strasbourg, oct. 1994.

Fabbe-Costes N., « Les multiples rôles du SIC dans l’action stratégique », in M-J. Avenier « La stratégie chemin faisant » ; p. 189-215, 1997.

Falzon P., « Ergonomie cognitive du dialogue », Grenoble, Presses Universitaires de Grenoble, 1989.

Favereau O., « La formalisation du rôle des conventions dans l’allocation des ressources », in R. Salais et L. Thévenot eds, Le travail : marchés, règles, conventions, INSEE – Economica ; p. 250-267, 1986.

Favereau O., « Marchés internes, marchés externes », Revue Economique n° spécial : « l’Economie des conventions », p. 273-328, mars 1989.

Favereau O., « Règles, organisation et apprentissage collectif : un paradigme non standard pour trois théories hétérodoxes », in Orléan (ed.) «  Analyse économique des conventions », Paris, Puf, Coll. « Economie », p. 113-137, 1994.

Favereau O., « Notes sur la théorie de l’information à laquelle pourrait conduire l’économie des conventions », Commissariat Général au Plan, P. Rouédé, 1996.

Génelot D., “Organisations formatrices, organisations apprenantes : atout et limite des nouvelles technologies », in J. Mallet « L’entreprise apprenante. TI : l’action productive de sens », Université d’Aix – en- Provence, 1996.

Giddens A., “La constitution de la société”, traduction de M. Audet, PUF, Paris, 1987.

Gille B.(sous la direction de.), « Histoire des techniques : technique et civilisations, technique et sciences », Paris : Gallimard (1652 p.), 1978.

Giordano Y., « L’action stratégique en milieu complexe : quelle communication ? », in M-J. Avenier « La stratégie chemin faisant » ; p. 137-164, 1997.

Goffman E., « La mise en scène de la vie quotidienne » (Tome 1 : la présentation de soi), Paris, Ed. de communicationnel, Minuit, 1973.

Habermas J., « Théorie de l’agir communicationnel » (Tome1 : rationalité de l’agir et rationalisation de la société ; tome 2 : pour une critique de la raison fonctionnaliste), Paris, Fayard, 1987.

Hirscheim R., Klein H., Lyytinen K., “Information Systems Development and Data modeling: conceptual and philosophical Foundations”, Cambridge University Press, 1995.

Kechidi M., « Rationalités et contextes de décisions: un retour sur H. Simon », Revue Internationale de Systémique, Vol.12, n°4-5, p. 419-440, 1998.

Kirman A., « La rationalité individuelle et la rationalité collective : l’importance des interactions entre des individus », ‘Economie cognitive’, Ecole thématique du CNRS, Ile de Berder (Morbihan), 14-19 mai 2000.

Lallé B., « Nouvelles technologies et évolution de la dialectique contrôle/autonomie dans le secteur des services – application au cas bancaire », Revue de Gestion des Ressources Humaines n°32, 1999.

Lave J., « Cognition in practice, Mind, Mathematics and culture in every day life », New York, Cambridge University press, 1988.

Laville F., “La cognition située – Une nouvelle approche de la rationalité limitée », Revue Economique, Vol.51, n°6 ; p. 1301-1331, 2000.

Le Bas C., « La firme et la nature de l’apprentissage», Economies et Sociétés, Série Dynamique technologique et organisation du travail, 1, p. 7-24, 1993.

Le Bas C. et Zuscovitch E., « Apprentissage technologique et organisation », Economies et Sociétés, 5, p. 153-196, 1993.

Le Moigne J-L., « Vers un système d’information organisationnel ?», Revue Française de Gestion, nov.-déc., 1986.

Llerena P., « Internationalisation de l’environnement et apprentissages dans les organisations », Thèse de doctorat, Strasbourg, 1996.

Lorino Ph., “Les deux fonctions de pilotage de l’entreprise: coordination et équilibration », in Guilhon B., Huard P., Orillard M. et Zimmerman J.B.(eds.) « Economie de la connaissance et organisation – entreprise, territoire, réseaux », L’Harmattan ; p.111-131, 1997.

Mangolte P-A., “La dynamique des connaissances tacites et articulées: une approche socio-cognitive », in Economie Appliquée, Tome L, n°2 ; p. 105-134, 1997.

March J., Olsen J.P, “Ambiguity and choice in organizations”, Bergen: universitetsforlaget, 1976.

Markus M. et Robey D., « Information technology and Organizational change : causal structure research », in Theory and Management Science, Vol.34, n°5, may, 1993.

Minsky M L., « La société de l’esprit », traduit de l’américain par J. Henry, Paris : InterEditions, 1988.

Nelson R. et Winter S., « An evolutionary Theory of Economic change », Harvard University Press, 1982.

Neo B.S., “Factors Facilitating the Use of Information Technology for Competitive Advantage: An Exploratory Study”, Information and Management, n°15, p.191-201.

Nonaka I., « A dynamic theory of organizational knowledge creation”, Organization Science, 5, 1, p. 14-37, 1993.

Peaucelle J-L., « Les systèmes d’information : la représentation », Presses Universitaires de France, Paris, 1981.

Perrin J., « Apprentissage et cognition en économie des changements techniques, l’apport des économistes néo-institutionnalistes », in Economies et Sociétés, Série Dynamique technologique et organisation, W., n°1, p. 103-124, 5/ 1993.

Perrin J-C., „ Les politiques technologiques régionales“, DATAR / GREMI (avec le concours de V. Peyrache), 1991.

Petit P., « Normes et choix rationnels », Réseaux 62, Cnet 1993.

Polanyi M., « Personal knowledge : towards a post-critical philosophy”, Chicago, University of  Chicago Press, 1958/1974.

Porter M.E. et Millard V., « How information gives you competitive advantage », Harvard Business Review, Vol.63, n°4 ; p. 149-160, 1985.

Reix R., “L’impact organisationnel des nouvelles technologies de l’information”, Revue Française de Gestion, janv. – févr ; p.100-106, 1990.

Reynaud B., « Types of rules, Interpretation and economic dynamics », ICC, 1996.

Richard J- F., « La notion de représentation et les formes de représentation », in Richard J.F., Bonnet C., Ghiglione R., Traité de psychologie cognitive, Tome 2, Dunod, Paris, 1990.

Rojot J., « La théorie de la structuration », Revue de Gestion des Ressources Humaines  n° 26-27, mai-juin 1998.

Rosenberg N., « Inside the Black Box : technology and economics”, Cambridge University Press, 1982.

Simon H., « From substantive to procedural rationality », Method and appraisal in economics, Cambridge, Cambridge University Press, 1976.

Simon H.,  “Sciences des systèmes, sciences de l’artificiel”, Dunod, 1991.

Spender J- C., Baumard Ph., „ Turning troubled firms around: case-evidence for a Penrosian view of strategic recovery”, présentation à l’Academy of Management Annual Meeting, Vancouver, le 8 août 1995.

Suchman L., “Plans and situated actions”, Cambridge, Cambridge University Press, 1987.

Nonaka I. et Takeuchi H., “The knowledge creating company: how japanese companies create the dynamics of innovation”, Oxford University Press, New York, 1995.

Teulier-Bourgine R., « Les représentations : médiations de l’action stratégique », in M-J. Avenier « La stratégie chemin faisant » ; p. 95-135, 1997.

Thévenot J. et France-Lanord B., « Systèmes d’information : un précurseur », Revue Française de gestion, juin. – juillet. – août ; p. 96-111, 1993.

Vera A.H et Simon H.A, « Situated action : a symbolic interpretation », cognitive science, 17(1) ; p. 7-48 ; 1993.

Von Hippel E., « The sources for Innovation », Oxford University Press, 1988.

Walliser B., “L’économie cognitive”, Odile Jacob, 2000.

Winograd T. et Flores F., « Understanding computers and cognition : a new foundation for design”, (220p.), Norwood, NJ: Ablex, 1986; paperback issued by Addison-Wesley, 1987.

NOTES

[1] ATER en sciences économiques à l’université des Sciences Sociales de TOULOUSE ; doctorante en économie au LEREPS – GRES (TOULOUSE ). (Retour au texte)

[2] Entendez autant la relation Homme-Homme que la relation Homme-Machine. (Retour au texte)

[3] La congruence n’apparaît donc pas comme une propriété figée : elle est fondamentalement dynamique, en perpétuelle équilibration (et non équilibre ; souligné par nous) ; elle n’est jamais acquise, mais à rechercher/concevoir/produire continuellement au fur et à mesure que l’action se déploie et crée de nouvelles opportunités, situations, problèmes (Giordano, 1997 , p. 160). (Retour au texte)

[4] L’ensemble des fonctions et des relations déterminant formellement les missions que chaque unité de l’organisation doit accomplir et les modes de collaboration entre ces unités – STRATEGOR – « Stratégie, structure, décision, identité, politique générale d’entreprise », InterEditions, Paris, 2° édition, 1993. (Retour au texte)

[5] C’est comme si le collectif – entendez  la cellule en charge d’une activité particulière au sein d’un service ou, le service tout entier – développait « des modes de coordination de ses expériences » (Bouchikhi, 1990), capitalisant dans un nouveau cadre organisationnel. Nous considérons, aussi, une rationalité interactive – i.e procédurale et située ; au sens où « elle suppose un certain capital cognitif commun (au groupe considéré), sous la forme d’une communauté d’expériences, qu’elles soient culturelles ou historiques » (Boyer & Orléan, 1991). (Retour au texte)

©HERMÈS : revue critique et Sandrine Daraut
ISSN- 1481-0301
À jour le jeudi 20 mars 2003

Publié dans Bibliothéconomie, Cybernétique, Société de l'information | Laisser un commentaire