(La culture est décrite au chapitre 6)

Une langue est un système sémiotique, c’est-à-dire un système de sens qui inclut une langue parlée et une langue écrite. En Occident, la langue orale comprend une quarantaine de sons et, avec ses intonations, qui décrivent bien les relations qui existent quotidiennement entre le locuteur et son milieu, tandis que la langue écrite n’est basée que sur un alphabet de 26 lettres latines, une grammaire fort complexe, elle sert plutôt à contrôler ce milieu.

La langue est plus qu’un outil, avec la culture, elle est la fondation sur laquelle se construit l’identité du peuple. Elle est non seulement un don de nos ancêtres, mais elle est régénérée par chaque nouvelle génération qui découvre ainsi leur place dans le monde.

Comme la culture, la langue est un système vivant qui évolue selon la mixité ethnoculturelle du milieu, c’est-à-dire qu’elle est modulée par l’espace et le temps où elle prend racine. Elle s’adapte à sa situation historique et territoriale ; exemple du français, de l’anglais et de l’espagnol parlés en Europe et en Amérique. Le français québécois est au français parisien ce que l’anglais américain et à l’anglais parlé à Londres. Parce qu’elle s’adapte continuellement à sa situation, une langue peut être utilisée par les citoyens à plusieurs niveaux : vernaculaire, véhiculaire, référentiaire et mythique (voir le schéma 17, chapitre 6) (voir aussi les études de Henri Gobard dans « Analyse tétraglossique du langage »).

Aujourd’hui, il existe à peu près 6,000 langues dans le monde et, parce que ce sont des systèmes vivants, elles sont toutes en train de muter et, dans certains cas, même de disparaître. La langue a toujours eu plusieurs fonctions :

  • Articuler notre univers sous la forme d’informations, c’est-à-dire décrire, cataloguer et mémoriser l’environnement.
  • Raffermir les liens entre les individus appartenant au même clan.
  • Servir d’instrument à la gouvernance.
Repères historiques

– 50 000 : le premier code oral fut probablement accompagné par une importante gestuelle. Puis, il y a certainement eu des emprunts aux éléments sonores de l’environnement (pluie, tonnerre, vent).

– 10 000 : l’oral doit maintenant être appris par cœur : listes des dieux, des généalogies, des roitelets, etc. Cette mémorisation est devenue très importante pour les shamans (pour leurs rituels), les poètes (les sagas racontant les origines du groupe) et les princes (les ententes commerciales avec les États voisins).
– 3200 : L’oral est codifié par des pictogrammes cunéiformes ou égyptiens. Ces dessins sont empruntés à des objets provenant de l’environnement (porte, animaux, outils, etc.) et représentent parfois des sons.
– 1350 : Apparition de l’alphabet, qui constitue une véritable révolution. Des milliers d’idéogrammes sont remplacés par une trentaine de signes phonétiques.
1440 : le code typographique qui, avec l’imprimerie, multiplie et diffuse industriellement les contenus anciens (grecs et romains) et modernes.
1905 : le code cinématographique ; désormais, l’image est en mouvement tandis que le cinéma muet devient éventuellement parlant.
1950 : le code télévisuel et ses grands réseaux électroniques de diffusion continentale ; les émissions sont traduites et sous-titrées dans plusieurs langues à la fois.
2007 : la nouvelle écriture médiatique qu’utilisent les appareils mobiles impose un nouveau code interactif et idéographique grand public qui emprunte ses signes à l’environnement et à la culture orale (chapitre 5, no 9).

À chaque étape, le cerveau de l’individu a dû devenir plus fluide, c’est-à-dire plus ouvert à l’exploration et à l’innovation qu’auparavant :

  • si l’invention de l’écriture nous a confrontés à notre mémoire ;
  • l’imprimerie nous a obligé à devenir un lecteur ;
  • le cinéma a fait de nous un rêveur ;
  • la télévision nous a révélé notre village global ;
  • le micro-ordinateur nous a convertis en éditeur de contenus ;
  • l’Internet fait de nous des citoyens actifs du cyberespace.

144

Repères technologiques

1945 Memex de Vennevar Bush (voir ci-dessous)
1966 Eliza, programme de simulation de psychothérapie écrit par Joseph Weizenbaum.
1967 Logo de Seymour Papert, un langage de programmation réflexif orienté-objet.
1980 WYSIWYG du Look and Feel de Apple.
1990 Langage CSS introduisant les feuilles de style.
1990 Deep Blue, d’IBM, le premier ordinateur du monde champion d’échec (en 1997)
1993 Navigateur Mosaic.
1995 Yahoo, premier annuaire.
1998 Web sémantique, de Tim BernerLee (W3C).
2004 Web 2.0.
2007 Apparition d’un nouveau langage médiatique plus visuel.
2011 Watson d’IBM, programme d’intelligence artificielle présenté lors d’une émission Jeopardy.

Dans un article écrit en 1945, Vannevar Bush décrit un système appelé Memex dans lequel il présente un bureau avec des écrans sur le dessus et une bibliothèque de textes et de films à l’intérieur. C’est ce concept qui a donné naissance à la souris de Douglas Engelbart (1963), qui a inspiré la venue du Apple II (1977) et de l’hypertexte de Ted Nelson (1965), qui est à l’origine de Web (1989), etc. Voici Memex :

145

Les industries de la langue

Elles sont florissantes à travers toute la planète. En 2000, la traduction humaine a rapporté 11 milliards $, la traduction automatique, 134 millions $ et les logiciels, plus d’un milliard. (Rapport de l’Association canadienne des industries de la langue, 2000)

C’est une industrie qui évolue avec les besoins de la société :

146

Plusieurs études récentes indiquent que l’anglais occupe une position supercentrale et que le français, l’espagnol et l’allemand sont aussi des langues centrales. Par contre, le chinois, l’hindi et l’arabe, quoique très parlés, sont étonnamment périphériques. Au 21e siècle, la centralité d’une langue n’est plus l’affaire de démographie, mais de connectivité (de réseaux électroniques de diffusion, de traduction ou de recherches universitaires). Voir l’Étude Weber, 1990, l’Index translationum de l’UNESCO 1979-2013, l’Étude Calvet 2012, l’Étude de l’Agence Bloomberg, 2011, et celle du Media Lab du MIT, 2014.

Après 2020 (?)

L’essentiel des recherches porte actuellement sur l’apprivoisement de la complexité du langage naturel afin de développer des outils numériques plus performants, c’est-à-dire plus « proches » de l’usager. Par exemple : un ordinateur capable de comprendre la langue naturelle de l’utilisateur ou un système qui apprend au fur et à mesure de ses interactions avec son utilisateur (Machine learning). L’objectif est de créer des Information seeking tools pour établir éventuellement des liens entre le décodage des données et les changements de comportements de l’utilisateur.

Voir l'exemple du projet Watson d’IBM

Ce serveur utilise 2800 processeurs qui, en quelques millisecondes, interrogent des millions de films, de textes et d’encyclopédies et autres à partir de 6000 règles de sens commun. C’est donc un système de prévision à partir de jugements statistiques.

Le système DeepQA de Watson combine plusieurs technologies : Natural language processing, Semantic analysis, Information retrieval, Automated reasoning et Machine learning :

147

En général, l’objectif est d’organiser l’information de telle façon que son accès soit de plus en plus « naturel » et se traduise par des connaissances pour l’usager. Celà nous ramène à l’intelligence prévisionnelle (chapitre 6) et au projet BRAIN (chapitre 3).

Tout ceci est cependant mal engagé. Comme pour le Web sémantique, les promoteurs ne tiennent pas compte du fait que 80 % des informations arrivent d’abord au cerveau humain par le système visuel. L’avenir sera plutôt à une combinaison du visuel (symbolique et schématique) avec le textuel (règles de stockage et d’accès).

Watson

(La culture est décrite au chapitre 6)

Une langue est un système sémiotique, c’est-à-dire un système de sens qui inclut une langue parlée et une langue écrite. En Occident, la langue orale comprend une quarantaine de sons et, avec ses intonations, qui décrivent bien les relations qui existent quotidiennement entre le locuteur et son milieu, tandis que la langue écrite n’est basée que sur un alphabet de 26 lettres latines, une grammaire fort complexe, elle sert plutôt à contrôler ce milieu.

La langue est plus qu’un outil, avec la culture, elle est la fondation sur laquelle se construit l’identité du peuple. Elle est non seulement un don de nos ancêtres, mais elle est régénérée par chaque nouvelle génération qui découvre ainsi leur place dans le monde.

Comme la culture, la langue est un système vivant qui évolue selon la mixité ethnoculturelle du milieu, c’est-à-dire qu’elle est modulée par l’espace et le temps où elle prend racine. Elle s’adapte à sa situation historique et territoriale ; exemple du français, de l’anglais et de l’espagnol parlés en Europe et en Amérique. Le français québécois est au français parisien ce que l’anglais américain et à l’anglais parlé à Londres. Parce qu’elle s’adapte continuellement à sa situation, une langue peut être utilisée par les citoyens à plusieurs niveaux : vernaculaire, véhiculaire, référentiaire et mythique (voir le schéma 17, chapitre 6) (voir aussi les études de Henri Gobard dans « Analyse tétraglossique du langage »).

Aujourd’hui, il existe à peu près 6,000 langues dans le monde et, parce que ce sont des systèmes vivants, elles sont toutes en train de muter et, dans certains cas, même de disparaître. La langue a toujours eu plusieurs fonctions :

  • Articuler notre univers sous la forme d’informations, c’est-à-dire décrire, cataloguer et mémoriser l’environnement.
  • Raffermir les liens entre les individus appartenant au même clan.
  • Servir d’instrument à la gouvernance.
Repères historiques

– 50 000 : le premier code oral fut probablement accompagné par une importante gestuelle. Puis, il y a certainement eu des emprunts aux éléments sonores de l’environnement (pluie, tonnerre, vent).

– 10 000 : l’oral doit maintenant être appris par cœur : listes des dieux, des généalogies, des roitelets, etc. Cette mémorisation est devenue très importante pour les shamans (pour leurs rituels), les poètes (les sagas racontant les origines du groupe) et les princes (les ententes commerciales avec les États voisins).
– 3200 : L’oral est codifié par des pictogrammes cunéiformes ou égyptiens. Ces dessins sont empruntés à des objets provenant de l’environnement (porte, animaux, outils, etc.) et représentent parfois des sons.
– 1350 : Apparition de l’alphabet, qui constitue une véritable révolution. Des milliers d’idéogrammes sont remplacés par une trentaine de signes phonétiques.
1440 : le code typographique qui, avec l’imprimerie, multiplie et diffuse industriellement les contenus anciens (grecs et romains) et modernes.
1905 : le code cinématographique ; désormais, l’image est en mouvement tandis que le cinéma muet devient éventuellement parlant.
1950 : le code télévisuel et ses grands réseaux électroniques de diffusion continentale ; les émissions sont traduites et sous-titrées dans plusieurs langues à la fois.
2007 : la nouvelle écriture médiatique qu’utilisent les appareils mobiles impose un nouveau code interactif et idéographique grand public qui emprunte ses signes à l’environnement et à la culture orale (chapitre 5, no 9).

À chaque étape, le cerveau de l’individu a dû devenir plus fluide, c’est-à-dire plus ouvert à l’exploration et à l’innovation qu’auparavant :

  • si l’invention de l’écriture nous a confrontés à notre mémoire ;
  • l’imprimerie nous a obligé à devenir un lecteur ;
  • le cinéma a fait de nous un rêveur ;
  • la télévision nous a révélé notre village global ;
  • le micro-ordinateur nous a convertis en éditeur de contenus ;
  • l’Internet fait de nous des citoyens actifs du cyberespace.

144

Repères technologiques

1945 Memex de Vennevar Bush (voir ci-dessous)
1966 Eliza, programme de simulation de psychothérapie écrit par Joseph Weizenbaum.
1967 Logo de Seymour Papert, un langage de programmation réflexif orienté-objet.
1980 WYSIWYG du Look and Feel de Apple.
1990 Langage CSS introduisant les feuilles de style.
1990 Deep Blue, d’IBM, le premier ordinateur du monde champion d’échec (en 1997)
1993 Navigateur Mosaic.
1995 Yahoo, premier annuaire.
1998 Web sémantique, de Tim BernerLee (W3C).
2004 Web 2.0.
2007 Apparition d’un nouveau langage médiatique plus visuel.
2011 Watson d’IBM, programme d’intelligence artificielle présenté lors d’une émission Jeopardy.

Dans un article écrit en 1945, Vannevar Bush décrit un système appelé Memex dans lequel il présente un bureau avec des écrans sur le dessus et une bibliothèque de textes et de films à l’intérieur. C’est ce concept qui a donné naissance à la souris de Douglas Engelbart (1963), qui a inspiré la venue du Apple II (1977) et de l’hypertexte de Ted Nelson (1965), qui est à l’origine de Web (1989), etc. Voici Memex :

145

Les industries de la langue

Elles sont florissantes à travers toute la planète. En 2000, la traduction humaine a rapporté 11 milliards $, la traduction automatique, 134 millions $ et les logiciels, plus d’un milliard. (Rapport de l’Association canadienne des industries de la langue, 2000)

C’est une industrie qui évolue avec les besoins de la société :

146

Plusieurs études récentes indiquent que l’anglais occupe une position supercentrale et que le français, l’espagnol et l’allemand sont aussi des langues centrales. Par contre, le chinois, l’hindi et l’arabe, quoique très parlés, sont étonnamment périphériques. Au 21e siècle, la centralité d’une langue n’est plus l’affaire de démographie, mais de connectivité (de réseaux électroniques de diffusion, de traduction ou de recherches universitaires). Voir l’Étude Weber, 1990, l’Index translationum de l’UNESCO 1979-2013, l’Étude Calvet 2012, l’Étude de l’Agence Bloomberg, 2011, et celle du Media Lab du MIT, 2014.

Après 2020 (?)

L’essentiel des recherches porte actuellement sur l’apprivoisement de la complexité du langage naturel afin de développer des outils numériques plus performants, c’est-à-dire plus « proches » de l’usager. Par exemple : un ordinateur capable de comprendre la langue naturelle de l’utilisateur ou un système qui apprend au fur et à mesure de ses interactions avec son utilisateur (Machine learning). L’objectif est de créer des Information seeking tools pour établir éventuellement des liens entre le décodage des données et les changements de comportements de l’utilisateur.

Voir l'exemple du projet Watson d’IBM

Ce serveur utilise 2800 processeurs qui, en quelques millisecondes, interrogent des millions de films, de textes et d’encyclopédies et autres à partir de 6000 règles de sens commun. C’est donc un système de prévision à partir de jugements statistiques.

Le système DeepQA de Watson combine plusieurs technologies : Natural language processing, Semantic analysis, Information retrieval, Automated reasoning et Machine learning :

147

En général, l’objectif est d’organiser l’information de telle façon que son accès soit de plus en plus « naturel » et se traduise par des connaissances pour l’usager. Celà nous ramène à l’intelligence prévisionnelle (chapitre 6) et au projet BRAIN (chapitre 3).

Tout ceci est cependant mal engagé. Comme pour le Web sémantique, les promoteurs ne tiennent pas compte du fait que 80 % des informations arrivent d’abord au cerveau humain par le système visuel. L’avenir sera plutôt à une combinaison du visuel (symbolique et schématique) avec le textuel (règles de stockage et d’accès).

Watson