Remarques sur l’aménagement du statut du français en informatique[1]
Jean-Claude Boulanger (Université Laval)
Au détour des années 1950 et dans le sillage de la guerre finissante, on commença à percevoir l’accélération phénoménale du développement de la technologie de l’informatique et son insertion dans les ordres spécialisés du savoir. Quarante ans plus tard et à la veille de la conclusion du deuxième millénaire de l’humanité, un quatuor de termes reliés au même technolecte semble dominer l’univers des connaissances et témoigne de l’impact de l’informatique sur les sociétés. Il s’agit des termes ordinateur (1955) (Marcellesi, 1979 : 176-180) et de son rejeton micro-ordinateur (1971), informatique (1962) et de son satellite immédiat micro-informatique (vers 1980), logiciel (vers 1970) et de l’adjectif artificiel que l’on trouve associé à quelques substantifs (ex. intelligence, langage). À sa manière, chacun a dominé sa décennie et il est indéniable qu’ils font désormais partie intégrante de l’histoire du français; à double titre d’ailleurs : premièrement parce qu’ils sont devenus des termes techniques indispensables, deuxièmement parce qu’ils se sont coulés dans le moule de l’usage général.
Bien entendu, il est d’abord fait référence ici à la macro-informatique souvent dénommée informatique professionnelle. Les mutations technologiques successives ont pris une ampleur nouvelle au commencement des années 1980 avec l’avènement de la micro-informatique qui a rendu matériels et logiciels disponibles et accessibles pour toutes les catégories d’usagers, spécialistes ou profanes. La micro-informatisation entraîna à sa suite une amorce de démystification de la technologie et le début de la banalisation de la terminologie propre au secteur. Une bonne partie du vocabulaire de l’informatique n’est plus l’apanage exclusif des informaticiens, des penseurs, des concepteurs, des publicitaires, des diffuseurs et des vendeurs de produits. L’aggiornamento informatique trouve son achèvement dans les dictionnaires de langue pour adultes ou pour élèves. Ainsi la nouvelle édition du Micro-Robert qui sera mise en marché très bientôt, répertorie tout le vocabulaire de l’informatique passé dans l’usage commun. On en fait même un argument publicitaire. La visibilité de l’informatique dans les foyers oblige les responsables à se pencher sur la « déjargonisation » du lexique. En particulier, il faudra autopsier le statut de l’anglais comme langue véhiculaire de la technologie micro- ou macro-informatique.
Les quelques problèmes qui paraissent jouer un rôle majeur dans les rapports entre les concepts d’« informatique » et de « francophonie » seront abordés ci-après. La position adoptée ici est celle du linguiste, qui use à l’occasion des outils informatiques, surtout de la micro, et qui a des préoccupations en ce qui concerne les capacités d’une langue de faire face au renouvellement de son fonds par le recours aux formes autochtones inédites ou existantes.
À travers les siècles, le français a toujours su nationaliser les terminologies qui le nécessitaient. Pourquoi en serait-il autrement aujourd’hui alors qu’il paraît mieux équipé que jamais pour le faire? Après la période de mise en place de l’arsenal des mécanismes de formation des mots en français au Moyen Âge, toutes les époques se sont heurtées au besoin de contrer les langues étrangères (arabe, latin, italien, anglais) ou de combattre des jargons scientifiques, juridiques, scolastiques, ecclésiastiques et théologiques, et même techniques. Chaque étape de l’histoire du français atteste amplement des efforts d’émancipation réussis : au XVIe siècle, la langue du peuple commence à prendre le pas sur le latin dans le domaine juridique (Édit de Villers-Cotterêts en 1539), en médecine (chirurgie), en astronomie, en musique, ainsi de suite; au XVIIIe siècle, les sciences naturelles et la chimie sont mieux perçues en français. Peu importe les époques, un seul motif explique l’emploi du vernaculaire : l’usager ordinaire de la langue générale et le consommateur de technolectes ne peut plus décoder les terminologies savantes ou étrangères. Ainsi donc des pans entiers du lexique spécialisé ont échappé peu à peu aux langues doctes en raison de l’incapacité des utilisateurs de parler ou de comprendre ces langues (Boulanger 1988b : 4-9). La force du besoin a servi de catalyseur afin d’encourager la naturalisation lexicale.
Ce bref tracé historique sert de trame au problème du langage informatique d’aujourd’hui, qui se ramène en fait à savoir si le français peut exprimer sans contrainte les concepts de ce vaste domaine ou s’il doit être à la remorque de l’américain, avant d’être phagocyté par lui. La réponse à cette interrogation fondamentale indiquera si l’édifice du français risque de s’effondrer, à tout le moins de se fissurer, ou si l’alarme n’est rien d’autre qu’une suite de fantaisies de linguistes.
Quelques facteurs seront examinés, dont les uns jouent en faveur du maintien et du développement du français et dont les autres, sans être négatifs, ont néanmoins des incidences non négligeables sur ses structures. Parmi ces facteurs, un seul est d’origine purement linguistique. Il ne sera abordé que sommairement en raison du fait que la langue est constamment présente en filigrane dans les autres éléments. De fait, elle les cimente tous en un réseau de liens très complexes.
L’informatisation
L’informatique est un secteur de connaissance très vaste et intimidant pour le néophyte ou le non-spécialiste. C’est aussi un domaine mythifié par la langue et le vocabulaire employés, à savoir l’anglais ou plus précisément une certaine forme d’anglais qui s’apparente à une langue quasi artificielle ou à un métalangage. Au départ, l’informatique est une technologie importée dans le monde francophone. Une chercheuse constatait en 1973 que 90% du marché français était occupé par des constructeurs américains (Marcellesi 1973 : 59). Le vocabulaire a naturellement suivi la chose de sorte que « l’emploi, qui semble abusif au profane, de termes anglo-américains, la difficulté même de la technique et le mystère dont elle est souvent entourée aux yeux du non-initié, rendent ce langage particulièrement incompréhensible pour qui n’a aucune notion d’anglais ou d’informatique » (Marcellesi 1973 : 59). Malgré ses ouvertures franches, l’informatique demeure une chasse gardée pour nombre d’utilisateurs potentiels. Les publicitaires eux-mêmes ne s’emploient guère à résoudre le mystère. Grande diffuseuse de mots, la publicité « exploite et démultiplie toutes les dénominations susceptibles de flatter les mythes ou les préjugés des clients virtuels. Or elle considère [...] les termes étrangers comme des “mots-qui-font-vendre” » (Quemada 1978 : 1228).
Depuis longtemps et dans plusieurs milieux, on souhaite que des efforts sérieux soient accomplis pour rendre l’informatique plus accessible, plus compréhensible au vaste public. Derrière ce désir relié à la diffusion du savoir technologique, se profile le seul et unique moyen rentable de réaliser la tâche. Il consiste à offrir la terminologie en français ou plutôt à rendre fonctionnel le vocabulaire disponible. En réalité, c’est plutôt la micro-informatique qui est pointée ici puisqu’il appert que la macro-informatique demeurera sans doute encore longtemps l’apanage des spécialistes informaticiens. Si la macro-informatique représente une micro-culture technicienne, à l’inverse la vulgarisation plus rapide de la micro-informatique façonne une macro-culture nouvelle.
La miniaturisation
Les générations d’ordinateurs s’enchaînent avec comme double objectif « la nécessaire décroissance des dimensions des machines et la recherche de marchés nouveaux » (Goujon 1985 : 400), sans compter le désir d’augmenter la puissance des logiciels. Afin de répondre à ce vœu et depuis le début de la décennie, la cartographie informatique se ramifie en de multiples sous-secteurs et applications qui favorisent sa diffusion sociale. Ainsi en va-t-il de la domotique, de la servitique, de l’éditique, de l’autotique, alors que des domaines de l’activité traditionnelle se micro-informatisent. Le mouvement vers la miniaturisation des équipements s’amorce vers 1960. Le premier micro-ordinateur du monde, le Micral, apparaît en 1972 tandis que la première boutique de micros ouvre en 1975 à Los Angeles (Goujon 1985 : 401). À l’heure actuelle, les incidences de ce phénomène sur les avancées ou le recul de la francisation sont difficilement mesurables. Cependant, les attentes sont nombreuses comme le démontrent les recherches et les enquêtes menées auprès des usagers de l’infographie dans les domaines artistiques (arts visuels en particulier) et culturels (Turcotte 1988).
Le développement fulgurant et récent de quelques technologies a entraîné le passage obligé de la macro-informatique à la micro-informatique. La miniaturisation a donné une nouvelle impulsion aux recherches centrées sur l’intelligence artificielle, sur la TAO, sur la TERAO et sur la linguistique, pour mentionner quelques domaines qui nous concernent de plus près. À ce chapitre, il est clair que les « résultats de l’informatique linguistique favorisent le développement, la fabrication et la commercialisation des technologies et des produits tout à fait révolutionnaires, qui rendent d’indéniables services dans diverses sphères d’activité » (Boulanger 1988b : 19-20). Simultanément, le poids et l’influence de la langue anglaise se sont accrus dans le monde. L’anglais consolide sa place privilégiée et sa position de force par rapport aux autres langues. Pressées de s’équiper et de fonctionner avec ces nouveaux outils révolutionnaires, peu de sociétés se sont penchées sur l’impact que cette technologie provoque sur l’ensemble de la ou des langues en usage dans ces communautés ou sur leur territoire. Éblouis par les possibilités nouvelles et par la doxa informatique, quelques pays africains francophones ont introduit l’anglais dans leur projet d’aménagement linguistique dont le premier objectif consistait à promouvoir les langues nationales. Des projets prennent du retard ou sont repoussés, ils passent au second plan pour se dissoudre enfin dans le faux brouillard de la modernisation. L’industrialisation et la planétarisation massive de l’anglais creusent davantage le fossé entre les langues. L’écart s’agrandit en faveur de la langue des producteurs de systèmes et d’outils. L’informatique grande ou petite, matérielle ou logicielle, est pensée, produite et surtout commercialisée par des entreprises américaines. Les objets sont exportés vers d’autres milieux consommateurs qui les acceptent tels quels, avec dans leur sillage les termes allogènes demeurés intacts (les emprunts) ou légèrement retouchés pour prendre un visage en apparence français (les calques) (Boulanger 1988a). A l’occasion, quelques notions parviennent à donner naissance à des créations internes originales qui sont à leur tour réexportées avec succès vers l’anglais (ex. télématique → telematics), démontrant qu’un aller-retour est parfois possible.
Mais il reste qu’on dit et écrit fréquemment que l’informatique est une « langue » peuplée d’emprunts et de calques, une « langue » difficile, voire impossible à traduire. Quand on observe l’augmentation de l’amplitude de l’informatique dans les activités quotidiennes, quand on constate l’accroissement de la vitesse de pénétration des trouvailles technologiques dans la vie courante d’une année sur l’autre, on est en droit de se poser des questions sur l’avenir du français dans l’espace micro-informatique. D’autant que jusqu’à récemment, l’informatique s’était limitée à jouer le plus souvent un rôle de support pour transmettre l’information lexicale. Désormais, elle devient en plus l’information lexicale en soi, justifiant aux yeux de ses ardents défenseurs qu’elle pourrait aspirer au statut de langue. Nombreux sont ceux qui croient que l’empire informatique s’identifie à une « langue » multinationale qui dépasse le strict niveau lexical pour fonder sa propre syntaxe. Le lexique, y compris la variation d’entreprises, la grammaire et la syntaxe se combinent pour générer un pur métalangage, un code aux règles internes bien contrôlées et appartenant aux seuls tenants de ce savoir. Le technolecte informatique ne risque-t-il pas ainsi de se transformer en un artifice qui deviendra bientôt si sophistiqué et marginalisé que nul ne le comprendra si ce ne sont les purs ingénieurs informaticiens?
La banalisation
La miniaturisation ou l’atomisation a eu comme effet secondaire de permettre à l’informatique de percer le marché domestique et d’élargir sa palette d’influence. La micro-informatique constitue désormais un facteur culturel et social non négligeable, qui a des répercussions sur de multiples gestes quotidiens des individus non préparés à affronter cette technologie. Les logiciels se métamorphosent en produits de consommation banals, disponibles partout, concurrentiels, faciles d’utilisation et qui s’adaptent aux besoins des utilisateurs. De plus, ils sont de moins en moins coûteux. Tout propriétaire de micro devrait « pouvoir utiliser l’ordinateur sans rien connaître du principe du traitement électronique de l’information ou de la programmation » (Meney et coll. 1987 : 2). D’où le succès incontestable des mécanismes comme la souris et les menus didactiques. Avec un minimum de débrouillardise, les « utilisateurs domestiques, ceux qui n’ont pas encore renoncé, acquièrent peu à peu une culture informatique suffisante qui leur permet de maîtriser peu ou prou le fonctionnement de leur machine » (Goujon 1985 : 403).
La diffusion sociale de l’informatique entretient semble-t-il un écart entre les usagers ordinaires et les professionnels de la technologie. Des recherches et des enquêtes récentes ont démontré que « parmi les catégories d’utilisateurs, seuls les professionnels et les informaticiens semblent préférer travailler avec des logiciels de langue anglaise » (Rapport d’étape du comité Canada-Québec sur le développement du logiciel d’expression française 1986 : 2). En d’autres mots, le simple citoyen se plaint ou se plaindra du rôle prédominant de l’anglais. Ceci pourrait avoir des conséquences économiques désastreuses lorsque le plafonnement des produits sera atteint et qu’il faudra trouver de nouveaux débouchés. La maîtrise du langage étant essentielle à la maîtrise des produits, il est évident que les rapports du langage avec la connaissance et la pensée, et avec la réalité et la pratique, doivent être soignés.
L’informatique, ou plutôt la micro-informatique, doit se franciser pour la bonne et unique raison qu’elle se banalise. Elle sort du cercle étroit et du despotisme des spécialistes. En se vulgarisant, elle engendre des exigences et des attentes en vertu des usagers qui se multiplient et qui l’utilisent comme un moyen, un outil et non comme une fin. En se transformant en objet quotidien, en étendant ses zones d’intervention, l’informatique perd son caractère d’alchimie, ce qui en fait une bonne candidate à la francisation.
La conscientisation
La terminologie est l’une des ressources linguistiques disponibles dont se servent les sociétés pour assurer leurs métamorphoses et leur avenir. « En vertu d’une logique interne, toute langue évolue et s’adapte au nouvel ordre de vie d’une société » (Boulanger 1988b : 3). Mais quand il s’agit des langues de spécialité, il faut y adjoindre une condition : c’est la volonté collective d’agir sur la langue. Inscrire des termes, des néologismes dans le cycle de l’usage relève de considérations qui n’ont souvent pas de grandes résonances d’origine linguistique mais plutôt des sources d’origine sociale, dans le sens le plus englobant du mot.
L’organisation rationnelle et fonctionnelle des travaux repose toujours sur le principe volontariste et valorisateur. L’aménagement linguistique du vocabulaire de l’informatique passe par le développement et le « confortement » d’une idéologie en ce qui a trait à la terminologie et à la néologie françaises. Le terme aménagement linguistique désigne ici « l’ensemble des dispositions sociales qui influenceront le comportement linguistique des individus au sein de la société » (Corbeil 1978 : 157). Tandis que la néologie sera perçue comme le processus auquel recourent les individus pour créer des mots ou des sens nouveaux dans une langue. Les innovations linguistiques servent à plusieurs fins parmi lesquelles on peut retenir les deux plus visibles : 1 - augmenter naturellement le stock lexical d’une langue et 2 - permettre de transiter d’une langue à une autre en vertu d’un principe comme celui de la francisation. Les technolectes s’alimentent des dénominations des deux types. L’informatique paraît construire sa terminologie en s’appuyant davantage sur le second modèle, c’est-à-dire le transfert par emprunt ou par calque, entretenant ainsi l’image du palimpseste de l’anglais (Boulanger 1988a et Humbley 1987).
Lorsque le phénomène de la conscientisation est évoqué, le premier objectif à atteindre est certainement l’infléchissement des comportements fixistes et élitistes du corps informatique. C’est le seul moyen de faire face à la francisation de la pensée et du vocabulaire de ce secteur technolectal et ainsi de cesser de vouloir concurrencer l’anglais qui s’arroge le monopole de cette terminologie en ce moment. Ne vaudrait-il pas mieux devenir agressif et offensif en français plutôt que de se défendre contre l’envahisseur en même temps que l’on défend l’envahisseur? Superposer le français à l’anglais de manière impressionniste est peine perdue et relève d’une forme de snobisme et de complexe d’infériorité linguistiques. Il faut penser prioritairement en français. Mais avant de penser en français, il faut se convaincre que le français peut faire face à la musique.
Les actions en faveur de la francisation de l’informatique ont trouvé un nouvel élan lorsque les industries de la langue ont commencé à émerger vers 1984. Les applications industrielles du traitement de la langue, devenue un simple matériau, par les ordinateurs répond à de nombreux besoins dans des secteurs aussi divers que la santé, l’éducation, la gestion, la sécurité, etc., en somme partout où l’informatique peut rendre des services. Si le français n’effectue pas de virage collectif et panfrancophone vers son industrialisation, « ses chances de se maintenir au niveau d’une langue internationale vont en s’amenuisant, du fait de la pression croissante qu’exerceront, dans tout type de communication industrielle, commerciale et scientifique, les ordinateurs capables de manipuler l’anglais, c’est-à-dire la langue des ingénieurs qui construisent actuellement le plus d’ordinateurs » (Hagège 1987 : 249).
Le contrôle socioprofessionel de toute terminologie ne peut être assuré que par les concepteurs et les usagers de ces vocabulaires. Pour ce qui concerne le français, on a assez répété, et malheureusement pas assez compris ou accepté, que ce ne sont pas les Américains qui vont créer l’informatique en français. Plusieurs groupes professionnels francophones semblent se complaire dans cet état d’attentisme qui se révèle être des plus néfastes puisqu’il ouvre la porte à toutes les excuses et à toutes les exagérations. Le contrôle social de la langue existe puisqu’elle est un bien collectif. « Affirmer que c’est l’usage qui fait la langue apparaît [comme] un faux-fuyant, car la question suivante s’enchaîne : qui fait l’usage? » (Corbeil 1978 : 158).
Contrôler la langue peut être le début d’un meilleur aménagement économique. On sait que le langage de l’informatique est une institution. Or l’institution est organisée à divers paliers, notamment :
- elle détient un pouvoir d’entraînement considérable;
- elle est un acteur social très important;
- elle peut perturber le projet collectif si elle décide de se marginaliser;
- elle dispose des moyens nécessaires pour définir ses comportements naturels langagiers et pour définir sa norme de référence pour que ses comportements s’y modèlent.
L’orientation interne de la langue est alors le fait de la somme des décisions prises par les individus qui forment le groupe dominant. La conjonction des esprits doit créer la dynamique qui permettra de concevoir que l’informatique en français est un choix éclairé pour une société francophone.
La terminologisation
Il ne fait aucun doute que l’informatique est dotée d’un vocabulaire qui dépasse largement plusieurs milliers d’unités. En outre, l’instrumentation lexicographique et terminographique est à peu près au point. Les banques de termes sont saturées, gonflées à bloc par des dizaines de milliers d’unités lexicales de ce domaine. La banque IBMOT consigne environ 25 000 termes, le dictionnaire de l’Office de la langue française retrace 12 000 entrées, les dictionnaires classiques se comptent par centaines. Pour le seul sous-domaine de la bureautique, une recherche documentaire a permis de recenser 150 dictionnaires complets ou partiels publiés entre 1980 et maintenant (Cormier et Boulanger 1988). Le noyau dur de la terminologie de l’informatique est presque entièrement répertorié. Il n’exige qu’un entretien périphérique sous la forme de mises à jour régulières afin de réparer quelques errances ou de combler quelques déficits lexicaux constatés dans l’un ou l’autre nœud du super-réseau de la connaissance qu’est l’informatique.
Tout le secteur est terminologisé, consigné, répertorié à l’envi. C’est l’implantation, l’usage qui ne suit pas toujours, parce que la volonté est quasi nulle. La loi du laisser-faire et des vœux pieux l’emporte sur la conviction que le français peut relever le défi de l’informatique. L’idée est si profondément ancrée dans les cerveaux que l’arbre cache la forêt. Il ne faut pas se leurrer non plus; les linguistes ne peuvent à eux seuls imposer l’usage des terminologies et aucune loi incitative n’abattra le mur de la résistance intérieure, pas plus que les termes les plus esthétiques passeront dans le discours des utilisateurs qui en refusent l’emploi.
On laisse l’informatique se terminologiser en anglais en croyant qu’elle se francisera par la suite. C’est là une erreur de jugement fondamentale et la plus belle preuve du transfert et de l’assimilation. A bien examiner la situation de près, on considérera que la francisation consiste à transiter d’une langue à une autre par le recours aux emprunts, aux calques et, pour une portion minime, à la création interne naturelle. La terminologie française actuelle de l’informatique résulte à peu près intégralement du transfert du savoir-faire, des référents ou des notions élaborés par les Américains. Le matériel linguistique américain est donc adopté, grâce à l’emprunt, et adapté, grâce au calque et à la traduction. Le monopole de l’anglais n’est aucunement brisé si la filiation demeure par trop visible. Il paraît évident que désormais une langue vivante comme le français doit se savoir capable de transformer sa propre actualité en immortalité glorieuse et capitaliser sur son futur sans recourir à la médiation constante d’une langue étrangère et à des modèles technolectaux allogènes ou importés.
Conclusion : Rien ne se perd, rien ne se crée
Dans l’introduction, il a été signalé comment tout au long des siècles de l’histoire du français, des spécialistes ont été sensibles aux difficultés, au ressourcement et à l’évolution de leur langue. Seuls les domaines ont varié au gré des besoins des usagers et des découvertes scientifiques ou technologiques nouvelles. Au XVIe siècle, les spécialistes avant-gardistes se sont mis à combattre le latin et l’italien, à lutter contre des jargons ecclésiastiques, scolastiques et juridiques. Au XXe siècle, on se plaint de l’invasion massive, outrageuse parfois, de l’anglais, on épingle les jargons que sont la plupart des technolectes, et parmi eux l’informatique prend place au premier rang. Le caroussel du temps n’a fait que déplacer les pôles d’attraction et fournir des moyens auxquels les époques passées n’ont pu recourir, et pour cause. Depuis cinq siècles, l’élargissement continu des cadres du lexique général et du lexique terminologique français est un processus réitératif dialectiquement lié aux changements et aux démotivations observés dans les sociétés qui se sont succédées. « C’est là une caractéristique profonde des langues humaines, qui d’usures en réfections, parcourent les voies d’un éternel retour » (Hagège 1983 : 59).
Il n’est pas plus difficile de créer des mots français en informatique que dans n’importe quelle autre sphère des connaissances. Les médecins et les minéralogistes ont des règles qui fonctionnent et dont ils s’accommodent. Il n’est pas plus difficile de former des néologismes à l’ère de l’exploration spatiale qu’au siècle de Rabelais. En soi, une langue peut tout nommer. « La décision de fonctionner dans sa langue maternelle ou dans une langue « nationale » (en élaborant des terminologies) ou de se résigner à emprunter la langue-outil avec la matière à travailler est politique, car toute langue est capable de tout nommer : l’impression trop fréquente que certaines sémantiques ne peuvent répondre au besoin notionnel relève de l’idéologie » (Rey 1979 : 66-67).
Dans la francophonie d’aujourd’hui, la francisation et la néologie s’appuient sur des fondements institutionnels solides. La création linguistique est systématisée et organisée rationnellement un peu partout où l’aménagement linguistique est en cours. Les organismes d’intervention sur la langue qui émanent des politiques linguistiques ont le pouvoir de créer, d’harmoniser et de normaliser des terminologies. Malgré quelques erreurs de parcours observées à l’occasion, ils accomplissent un travail dont les résultats sont fiables et probants. La résistance et les rejets proviennent des milieux socioprofessionnels, des groupes qui sont les premiers producteurs et utilisateurs de termes et qui les répercutent sur l’ensemble du public. Quant à celui-ci, il perpétue dans l’usage ce qu’on lui enseigne et il fait vivre les mots qu’on lui vend avec les produits qu’il acquiert.
Le, français devra sa place dans l’espace informatique à l’augmentation des usagers ordinaires et à la vulgarisation de la technique. L’un des fondements du processus de motivation demeure la synergie entre la langue et l’élément humain qui génère la volonté d’agir. Sortir du ghetto terminologique des superspécialistes ne suffit pas. La francomanie de la société moderne doit résolument être associée aux aspirations socio-économiques et volontaristes qui conditionnent le déploiement des communications linguistiques en « langage maternel françois ». Tout réexamen du statut du français dans l’informatique est commandé par cette prémisse. Au fond, le problème est relativement simple : ce n’est pas la quantité de français dans la micro-informatique qui est mise en cause, mais bien son statut. Il faut œuvrer avant tout sur l’aménagement du statut du français en informatique, c’est-à-dire sur sa capacité fonctionnelle de véhiculer la technologie aussi bien dans les hautes sphères spécialisées que dans les conversations courantes. L’ensemble des facteurs de résistance, qu’ils soient d’ordre linguistique, sociolinguistique, psycholinguistique ou extralinguistique, se ramène à l’évaluation du système de la langue et non pas au corpus, c’est-à-dire à la généralisation d’un usage pris comme modèle.
Enfin, il faut bien s’avouer que si l’informatique paraît être un langage, elle ne peut certainement prétendre être une langue. C’est un sphinx qui peut être dompté. Si l’on examine attentivement la petite famille lexicale de départ, on remarque qu’un seul des quatre termes n’a pas été pensé en français. En effet, ordinateur, informatique et logiciel sont des formations autochtones tandis que artificiel, malgré son allure française, est calqué sur l’anglais artificial. Il est à noter que ordinateur et logiciel ont évincé des concurrents anglais (computer et software) en peu de temps; quant à artificiel, son intégration est complète, facilitée qu’elle fut par l’existence d’un homonyme français.
Une idée implicite doit s’incarner dans le corps doctrinal de chaque ordre de la connaissance, s’incarner assez profondément pour n’avoir jamais besoin d’être formulée, sinon de biais et comme avec une pudeur révérencielle. L’idée consiste à croire que la vérité du politologue, du médecin, du savant, du technicien, en somme du spécialiste, est incapable de devenir la vérité de tous si elle se contente de demeurer cantonnée dans son exposé technique ou scientifique. Pour atteindre le lieu où elle sera unanimement accueillie, cette vérité doit savoir renoncer à l’orgueil de sa spécialité pour se faire éloquence, c’est-à-dire recevoir l’approbation des usagers conviés au banquet linguistique. Ce qui suppose le choix d’un lexique et de termes attestés par un passé français et trempés dans une matière reconnue par tous. Par delà les formes sélectionnées, le modèle privilégié doit valoriser « une élégance et une clarté heureuse qui rendent la vérité séduisante et transparente à tous, un pathétique et une force d’imagination qui sache faire aller la vérité jusqu’au cœur de tous » (Fumaroli 1986 : 382). Le reste appartient à l’histoire de demain. Personnellement, je ne doute pas que le français ait une destinée canonique en informatique, capable de lui assurer un avenir prometteur à l’enseigne de ce que lui souhaitait déjà Ronsard à la Renaissance, qui fut l’une des grandes époques fastes de l’incubation de la langue française. Laissons au français contemporain le temps d’accomplir son œuvre dans chaque sphère du savoir.
Bibliographie
- BOULANGER (Jean-Claude), 1988a, Un miroir aux alouettes : le calque en intelligence artificielle, dans Le Langage et l’homme, vol. 23, fasc. 1, no 66, p. 3-13.
- — 1988b, L’évolution du concept de « néologie » de la linguistique aux industries de la langue, communication présentée au Colloque sur l’histoire de la terminologie, Bruxelles, 25 et 26 mars 1988, 23 p. dactylographiées, à paraître dans les actes.
- CORBEIL (Jean-Claude), 1978, Les conditions de succès des lois à caractère linguistique, dans Les implications linguistiques de l’intervention juridique de l’État dans le domaine de la langue. Actes du Colloque international de sociolinguistique, Lac-Delage (Québec), 3 au 6 octobre 1976, Québec, Office de la langue française, Éditeur officiel du Québec, mars, p. 155-164.
- CORMIER (Monique) et Boulanger (Jean-Claude), 1988, (sous la direction de), Analyse des répertoires terminologiques de la bureautique et de quelques domaines connexes. Bibliographie sélective et critique, Édition provisoire, Laval (Québec), Centre canadien de recherche en informatisation du travail, 152 p.
- FUMAROLI (Marc), 1986, La coupole, dans Les lieux de mémoire. II. La nation, coll. « Bibliothèque illustrée des histoires », Paris, Éditions Gallimard, vol. 3, p. 321-388.
- GOUJON (Pierre), 1985, L’informatique individuelle, dans Universalia 1985. Les événements, les hommes, les problèmes en 1984, Paris, Encyclopaedia Universalis France, p. 400-403.
- HAGÈGE (Claude), 1983, Voies et destins de l’action humaine sur les langues, dans La réforme des langues. Histoire et avenir, vol. 1, Hambourg, Buske Verlag Hamburg, p. 11-68.
- — 1987, Le français et les siècles, Paris, Éditions Odile Jacob, 272 p.
- HUMBLEY (John), 1987, L’emprunt sémantique dans la terminologie de l’informatique, dans La fertilisation terminologique dans les langues romanes. Actes du colloque de Paris, octobre 1986, publiés dans Meta, vol. 32, no 3, septembre, p. 321-325.
- MARCELLESI (Christiane), 1973, Le langage des techniciens de l’informatique : quelques aspects de leur vocabulaire écrit et oral, dans Les vocabulaires techniques et scientifiques, publiés dans Langue française, no 17, février 1973, p. 59-71.
- — 1979, Retour aux sources : quelques aspects du vocabulaire de l’informatique, dans Néologie et lexicologie. Hommage à Louis Guilbert, coll. « Langue et langage », Paris, Librairie Larousse, p. 176-183.
- MENEY (Lionel), Juhel (Denis) et Mepham (Michael), 1987, Le guide de l’utilisateur (IBM PC) : Difficultés linguistiques et rédactionnelles, coll. « K », no 2, Québec, Université Laval, Centre international de recherche sur le bilinguisme, 18 p.
- QUEMADA (Bernard), 1978, Technique et langage, dans Histoire des techniques. Techniques et civilisations. Techniques et sciences, coll. « Encyclopédie de la Pléiade », no 41, Paris, Éditions Gallimard, p. 1146-1240.
- Rapport d’étape du comité Canada-Québec sur le développement du logiciel d’expression française et faits saillants, s.l., Ministère des Communications du Canada et Ministère des communications du Québec, juin, 6 p.
- REY (Alain), 1979, La terminologie : noms et notions, coll. « Que sais-je », no 1780, Paris, Presses universitaires de France, 128 p.
- TURCOTTE (Roselyne), 1988, Vers une terminologie des arts infographiques, Rapport sur le projet de recherche intitulé « Terminologie, néologie et informatisation dans un contexte bilingue canadien », sous la direction de Jean-Claude Boulanger et Monique Cormier, Université Laval, CEFRIO, 120 p., à paraître.
Note
[1] Communication présentée lors du 56e Congrès de l’ACFAS, Moncton, 9-13 mai 1988.
Référence bibliographique
BOULANGER, Jean-Claude (1989). « Remarques sur l’aménagement du statut du français en informatique », dans Annie Bourret et Marie-Claude L’Homme (dir.), Les industries de la langue : au confluent de la linguistique et de l’informatique, sous la direction de Pierre Auger, avec la collaboration de Carole Verreault, coll. « K », no 9, Québec, Centre international de recherche sur le bilinguisme, Université Laval, p. 61-79. [article]