Nous sommes tellement technocentrés que nous ne réalisons pas qu’Internet devient maintenant ethnocentré à cause de ses trois évolutions accélérées :

Internet 1 : la révolution technologique (celle de son implantation numérique).

Ce qu’on veut : surtout sur les écrans de téléviseurs.

Internet 2 : la révolution mobile (lorsqu’il devint une place électronique qui véhicule surtout des opinions).

Où on le veut : à la fois les écrans des téléviseurs, des ordinateurs, des mobiles et des réseaux sociaux.

Internet 3 : la révolution des services (celle des niches et de leurs applications). (Un Internet plus complexe que l’Internet des objets qui en fait partie).

Quand on le veut : une télévision smart c’est-à-dire à la carte comprenant les trois écrans + les réseaux personnalisés + les réseaux commerciaux + les réseaux de distribution à la Netflix + l’Internet des objets, etc.

Autres passages :   022

084
À chaque bond, il est multiplié par :

  • la capacité de traitement numérique des informations, qui deviennent de plus en plus nombreuses ;
  • la diminution du coût des appareils (mémoire, batterie, etc.) ;
  • l’augmentation de la largeur de bande ;
  • l’apparition de nouveaux circuits électroniques plus puissants et plus petits.
Internet 1

(l’enfance, surtout à partir de 1970)
(À partir des années 70, une génération de circuits de 16 bits à 16 MHz.)
(À partir des années 80, une génération de 32 bits à 100 MHz.)

C’est l’étape de l’implantation physique du premier réseau d’ordinateurs centraux aux télécommunications très lentes et utilisant le mode broadcasting. Son usage a d’abord été militaire (pour sa puissance de calcul), puis commercial (pour la multiplication de la productivité). C’est l’étape de l’informatisation des activités de bureautique. Cet Internet a tellement multiplié la productivité que son impact fut principalement d’ordre économique.

Les principaux personnages de cette génération sont Al Gore et Bill Gates.
Repères technologiques
1940 Le système SAGE est le premier réseau informatique à la grandeur des États-Unis, il comprend 40 ordinateurs reliés à autant de radars.
1958 DARPA signale le début de l’essor du complexe militaro-scientifique grâce à l’invention de la commutation par paquets.
1962 Telstar, le premier satellite de télécommunications.
1969 Arpanet, première connexion entre ordinateurs.
1980 Les premiers babillards électroniques ; émergence de la culture de réseaux.
1980 Les premiers micro-ordinateurs ; émergence des évangélistes et des clubs de citoyens utilisateurs.
1989 Création du World Wide Web par Tim Berners-Lee.
1990 Démilitarisation d’ARPANET qui devient l’Internet.
1993 Le Rapport d’Al Gore The National Information Infrastructure.
1993 Mosaic – l’Internet arrive aux PC.
1995 La norme Internet est acceptée par tous les pays industrialisés (G7) et permet l’essor de sa commercialisation, qui devint éventuellement la mondialisation. On assiste alors à son absorption de tous les réseaux universitaires, commerciaux et nationaux.
2009 Battlefield Internet, lors de la Guerre d’Irak
2013 Affaires Snowden-NSA.
2014 Début de la balkanisation d’Internet et du Web.

C’est vers 1980 qu’a eu lieu la rencontre entre un langage de programmation (orienté objet : Logo), une philosophie de l’éducation (c’est le jeune qui apprend par lui-même, voir le socio-constructivisme) et la tortue graphique (voir les expériences de Seymour Papert) :

085

Des questions

En 1980, lors de plusieurs colloques, on posa la question aux gens de l’industrie : Qui sera le chef de file du secteur de l’information qui voit le jour ? Il y avait quatre prétendants au trône :

  • Les grandes entreprises de téléphonie (Bell).
  • Les équipementiers (IBM).
  • Les câblodistributeurs (Vidéotron).
  • Les entreprises de micro-informatique alors naissantes (Apple).

Il y a 40 ans, Internet n’était même pas une option. Au début, personne ne savait ce qui se cachait derrière cette nouvelle expression d’Autoroute électronique (voir la caricature de Serge Chapleau) :

086
La place du consommateur dans les analyses du début de cette période était quasi inexistante :
087

Internet 2

(l’adolescence, à partir de l’an 2000)
(Une génération de circuits de 64 bits à 3,5 GHz)

C’est l’étape qui est en train de se réaliser maintenant, celle des appareils mobiles, de la géolocalisation et du développement d’un million d’applications, c’est-à-dire d’une ère de l’informatique qui se veut sympathique. C’est l’âge d’or de l’utopie de l’Internet planétaire. C’est une étape de socialisation où plus de deux milliards d’internautes apprennent à devenir des participants en empruntant le mode pointcasting (architecture pair-à-pair ou P2P) utilisé par les réseaux sociaux de première génération :

03_3-Modes

L’importance des TIC

De toutes les infrastructures de la société c’était les technologies d’information et de communication dans lesquelles elle a investis le plus durant les derniers vingt-cinq ans :

Base de Données PPI, Groupe World Bank, 2016

Base de Données PPI, Groupe World Bank, 2016

Il se développe selon la loi de Moore. C’est durant cette étape que se réalisera probablement le rêve de Tim Berners-Lee (1989) : l’apparition d’un User-generated Content system. Aussi, parce qu’Internet 2 suscite de plus en plus de prises de parole, son impact sera surtout politique.

Les principaux personnages de l’Internet 2 sont Tim Berners-Lee et Steve Jobs.
Internet 3

(la maturité, après 2020 ?)
(Cette génération utilisera des « qubits» et des ordinateurs très différents).

Ce sera l’Internet des services, l’ère d’un écosystème omniprésent et banalisé (Ubiquitous computing). Tous les robots, les étiquettes, les caméras et les circuits intelligents y seront connectés, créant ainsi l’Internet des objets. Au début, cet Internet 3 servira de gadget de monitorage, ce qui pourrait alors porter atteinte à la vie privée des citoyens. Il deviendra banalisé au point de faire partie des meubles, d’autant que ces « objets » seront de plus en plus petits et peu coûteux. Certains seront même volants ; ici, un drone équipé d’une caméra qui inspecte la structure d’un pont :

088

Actuellement, les principaux pionniers sont Mark Andreessen, Jeff Besos et Mark Zukerberg.

Les grandes lignes de son évolution sont décrites dans le schéma suivant, où l’on voit que le traitement des informations s’organise actuellement de plus en plus dans les environnements de proximité (maison, etc.) ; viendront ensuite les objets intelligents et, enfin, la conquête du cerveau humain :

06_transition

Ce schéma indique bien la tendance générale qui se dégage à long terme : placer l’utilisateur DANS l’information (3D), c’est-à-dire lui faire vivre une téléprésence qui, plus tard, deviendra participative, parce qu’immersive.

Vers une copie du cerveau ?

089

Le projet BRAIN Initiative est un Map project, comme le Genome project. Ce projet veut essayer de comprendre et copier ce qui se passe dans le cerveau humain pour mieux programmer les futures générations d’ordinateurs. Il a été annoncé par Obama au début de 2014 (budget de 100 millions $). En Europe, l’équivalent est le Human Brain Project (budget de 1,5 milliard $ sur dix ans, impliquant 120 laboratoires). Il a comme objectif de concevoir un cerveau humain virtuel, comprenant 85 milliards de neurones, d’ici 2024. Voir également les différents projets émergents comme SPAVN, où l’on cherche à développer un Biological-base cognitive architecture, une sorte de pointeur qui aidera à comprendre les liens qui existent entre les données et les comportements.

Le Deep Learning

En intelligence artificielle, le Deep Learning utilise un Artificial Neural Network (ANN) qui fonctionne de la façon suivante. Dans le schéma ci-dessous, chaque point reçoit une valeur, c’est-à-dire un poids et passe ensuite cette valeur à l’un des points de la couche suivante. (Des ingénieurs chez Microsoft ont réussi a construire un système informatique comprenant 152 couches « neuroniques »). Ensuite, on n’a qu’à changer les poids pour raffiner l’analyse de la base de données.

C’est en changeant ces valeurs qu’on peut personnaliser de plus en plus les contenus ou les services (par exemple, classer des images, observer la présence de spams, trouver une fraude dans des cartes de crédit, améliorer un jeu vidéo, etc.), qu’on peut aussi monitorer et même espionner les gens.
Brain-3-1

Une architecture copiant celle des neurones :

Dans ce domaine, on a d’abord tenté de modéliser le fonctionnement de certaines parties du cerveau. Ci-dessous, la photo du bas montre un enchevêtrement de fils qui essaient de reproduire les neurones et leurs connexions synaptiques observées dans la photo du haut :

090

Nous sommes tellement technocentrés que nous ne réalisons pas qu’Internet devient maintenant ethnocentré à cause de ses trois évolutions accélérées :

Internet 1 : la révolution technologique (celle de son implantation numérique).

Ce qu’on veut : surtout sur les écrans de téléviseurs.

Internet 2 : la révolution mobile (lorsqu’il devint une place électronique qui véhicule surtout des opinions).

Où on le veut : à la fois les écrans des téléviseurs, des ordinateurs, des mobiles et des réseaux sociaux.

Internet 3 : la révolution des services (celle des niches et de leurs applications). (Un Internet plus complexe que l’Internet des objets qui en fait partie).

Quand on le veut : une télévision smart c’est-à-dire à la carte comprenant les trois écrans + les réseaux personnalisés + les réseaux commerciaux + les réseaux de distribution à la Netflix + l’Internet des objets, etc.

Autres passages :   022

084
À chaque bond, il est multiplié par :

  • la capacité de traitement numérique des informations, qui deviennent de plus en plus nombreuses ;
  • la diminution du coût des appareils (mémoire, batterie, etc.) ;
  • l’augmentation de la largeur de bande ;
  • l’apparition de nouveaux circuits électroniques plus puissants et plus petits.
Internet 1

(l’enfance, surtout à partir de 1970)
(À partir des années 70, une génération de circuits de 16 bits à 16 MHz.)
(À partir des années 80, une génération de 32 bits à 100 MHz.)

C’est l’étape de l’implantation physique du premier réseau d’ordinateurs centraux aux télécommunications très lentes et utilisant le mode broadcasting. Son usage a d’abord été militaire (pour sa puissance de calcul), puis commercial (pour la multiplication de la productivité). C’est l’étape de l’informatisation des activités de bureautique. Cet Internet a tellement multiplié la productivité que son impact fut principalement d’ordre économique.

Les principaux personnages de cette génération sont Al Gore et Bill Gates.
Repères technologiques
1940 Le système SAGE est le premier réseau informatique à la grandeur des États-Unis, il comprend 40 ordinateurs reliés à autant de radars.
1958 DARPA signale le début de l’essor du complexe militaro-scientifique grâce à l’invention de la commutation par paquets.
1962 Telstar, le premier satellite de télécommunications.
1969 Arpanet, première connexion entre ordinateurs.
1980 Les premiers babillards électroniques ; émergence de la culture de réseaux.
1980 Les premiers micro-ordinateurs ; émergence des évangélistes et des clubs de citoyens utilisateurs.
1989 Création du World Wide Web par Tim Berners-Lee.
1990 Démilitarisation d’ARPANET qui devient l’Internet.
1993 Le Rapport d’Al Gore The National Information Infrastructure.
1993 Mosaic – l’Internet arrive aux PC.
1995 La norme Internet est acceptée par tous les pays industrialisés (G7) et permet l’essor de sa commercialisation, qui devint éventuellement la mondialisation. On assiste alors à son absorption de tous les réseaux universitaires, commerciaux et nationaux.
2009 Battlefield Internet, lors de la Guerre d’Irak
2013 Affaires Snowden-NSA.
2014 Début de la balkanisation d’Internet et du Web.

C’est vers 1980 qu’a eu lieu la rencontre entre un langage de programmation (orienté objet : Logo), une philosophie de l’éducation (c’est le jeune qui apprend par lui-même, voir le socio-constructivisme) et la tortue graphique (voir les expériences de Seymour Papert) :

085

Des questions

En 1980, lors de plusieurs colloques, on posa la question aux gens de l’industrie : Qui sera le chef de file du secteur de l’information qui voit le jour ? Il y avait quatre prétendants au trône :

  • Les grandes entreprises de téléphonie (Bell).
  • Les équipementiers (IBM).
  • Les câblodistributeurs (Vidéotron).
  • Les entreprises de micro-informatique alors naissantes (Apple).

Il y a 40 ans, Internet n’était même pas une option. Au début, personne ne savait ce qui se cachait derrière cette nouvelle expression d’Autoroute électronique (voir la caricature de Serge Chapleau) :

086
La place du consommateur dans les analyses du début de cette période était quasi inexistante :
087

Internet 2

(l’adolescence, à partir de l’an 2000)
(Une génération de circuits de 64 bits à 3,5 GHz)

C’est l’étape qui est en train de se réaliser maintenant, celle des appareils mobiles, de la géolocalisation et du développement d’un million d’applications, c’est-à-dire d’une ère de l’informatique qui se veut sympathique. C’est l’âge d’or de l’utopie de l’Internet planétaire. C’est une étape de socialisation où plus de deux milliards d’internautes apprennent à devenir des participants en empruntant le mode pointcasting (architecture pair-à-pair ou P2P) utilisé par les réseaux sociaux de première génération :

03_3-Modes

L’importance des TIC

De toutes les infrastructures de la société c’était les technologies d’information et de communication dans lesquelles elle a investis le plus durant les derniers vingt-cinq ans :

Base de Données PPI, Groupe World Bank, 2016

Base de Données PPI, Groupe World Bank, 2016

Il se développe selon la loi de Moore. C’est durant cette étape que se réalisera probablement le rêve de Tim Berners-Lee (1989) : l’apparition d’un User-generated Content system. Aussi, parce qu’Internet 2 suscite de plus en plus de prises de parole, son impact sera surtout politique.

Les principaux personnages de l’Internet 2 sont Tim Berners-Lee et Steve Jobs.
Internet 3

(la maturité, après 2020 ?)
(Cette génération utilisera des « qubits» et des ordinateurs très différents).

Ce sera l’Internet des services, l’ère d’un écosystème omniprésent et banalisé (Ubiquitous computing). Tous les robots, les étiquettes, les caméras et les circuits intelligents y seront connectés, créant ainsi l’Internet des objets. Au début, cet Internet 3 servira de gadget de monitorage, ce qui pourrait alors porter atteinte à la vie privée des citoyens. Il deviendra banalisé au point de faire partie des meubles, d’autant que ces « objets » seront de plus en plus petits et peu coûteux. Certains seront même volants ; ici, un drone équipé d’une caméra qui inspecte la structure d’un pont :

088

Actuellement, les principaux pionniers sont Mark Andreessen, Jeff Besos et Mark Zukerberg.

Les grandes lignes de son évolution sont décrites dans le schéma suivant, où l’on voit que le traitement des informations s’organise actuellement de plus en plus dans les environnements de proximité (maison, etc.) ; viendront ensuite les objets intelligents et, enfin, la conquête du cerveau humain :

06_transition

Ce schéma indique bien la tendance générale qui se dégage à long terme : placer l’utilisateur DANS l’information (3D), c’est-à-dire lui faire vivre une téléprésence qui, plus tard, deviendra participative, parce qu’immersive.

Vers une copie du cerveau ?

089

Le projet BRAIN Initiative est un Map project, comme le Genome project. Ce projet veut essayer de comprendre et copier ce qui se passe dans le cerveau humain pour mieux programmer les futures générations d’ordinateurs. Il a été annoncé par Obama au début de 2014 (budget de 100 millions $). En Europe, l’équivalent est le Human Brain Project (budget de 1,5 milliard $ sur dix ans, impliquant 120 laboratoires). Il a comme objectif de concevoir un cerveau humain virtuel, comprenant 85 milliards de neurones, d’ici 2024. Voir également les différents projets émergents comme SPAVN, où l’on cherche à développer un Biological-base cognitive architecture, une sorte de pointeur qui aidera à comprendre les liens qui existent entre les données et les comportements.

Le Deep Learning

En intelligence artificielle, le Deep Learning utilise un Artificial Neural Network (ANN) qui fonctionne de la façon suivante. Dans le schéma ci-dessous, chaque point reçoit une valeur, c’est-à-dire un poids et passe ensuite cette valeur à l’un des points de la couche suivante. (Des ingénieurs chez Microsoft ont réussi a construire un système informatique comprenant 152 couches « neuroniques »). Ensuite, on n’a qu’à changer les poids pour raffiner l’analyse de la base de données.

C’est en changeant ces valeurs qu’on peut personnaliser de plus en plus les contenus ou les services (par exemple, classer des images, observer la présence de spams, trouver une fraude dans des cartes de crédit, améliorer un jeu vidéo, etc.), qu’on peut aussi monitorer et même espionner les gens.
Brain-3-1

Une architecture copiant celle des neurones :

Dans ce domaine, on a d’abord tenté de modéliser le fonctionnement de certaines parties du cerveau. Ci-dessous, la photo du bas montre un enchevêtrement de fils qui essaient de reproduire les neurones et leurs connexions synaptiques observées dans la photo du haut :

090