Le numérique (c’est-à-dire la logique mathématique, le concept de programmation, les systèmes et les appareils numériques) nait grâce aux travaux d’Alan Turing :

1936 : Son article On computable numbers, with an application to the Entscheidungs  problem (ou problème de la décision) est la texte fondateur.

1940 : Il décrypte la machine Enigma utilisée alors par les nazis (c’est l’époque de Bletchley Park)

1948 : Il participe a la création du premier ordinateur, le Mark 1, a l’Université de Manchester.

1950 : Son article Est-ce qu’une machine peut penser ? lance le domaine de l’intelligence  artificielle (AI) (ou Test de Turing).

1952 : Ses travaux de morphogénèse développent un modèle biomathématique qui sera  confirmé plus tard par des recherches en chimie.

Comme d’autres penseurs, de Copernic et Newton à Einstein, il a révolutionné notre société.  Voici le concept de sa machine:

Turing-2

Le numérique s’ajoute aux autres outils, il ne les remplace pas.

Le numérique fait peur :

Soeur-2

Le numérique est devenu la pierre angulaire du XXIe siècle en cinq générations technologiques. Chaque bond a permis l’augmentation de la vitesse, la diminution des coûts, la réduction de la taille des appareils et l’augmentation de la fiabilité du système :

1957 : le transistor
Par Robert Noyce de la compagnie Fairchild. Ce circuit fut créé grâce à la rencontre de sept jeunes ingénieurs expatriés sur la Côte Ouest (qui deviendra la future Silicon Valley), qui profitèrent du remplacement du germanium par le silicium et des demandes de l’industrie de la défense (surtout la NASA).

1961 : le semi-conducteur
Par Robert Noyce de Faichild. Le numérique est alors principalement utilisé par le consortium militaro-industriel américain dans le contexte de la guerre froide.

1971 : le microprocesseur
Par MM. Noyce-Moore-Groove de Intel. Le numérique envahit dorénavant la plupart des grands secteurs industriels et de la finance.

1976 : la carte mère du micro-ordinateur
Par Steve Wozniak de Apple. Le numérique est dorénavant utilisé abondamment à la maison et à l’école.

2001 : le circuit du iPod
Par Steve Job de Apple. Le numérique devient grand public et mobile.
L’un des premiers processeurs fut le Planar (1961) :
planar-2-1
Vingt ans après, voici le microprocesseur 32-bit 68000, de Motorola (1979) :
32 bits-2-1

Le numérique est un nouvel alphabet.

Serge Soudoplatoff

Le numérique est une boîte à outils !

Un deuxième bond a lieu avec l’arrivée du Web vers 1995, puis un autre avec celle des téléphones et des tablettes sans clavier ; on assiste alors à l’explosion d’un million d’applications. C’est l’étape des hackers, des communautés virtuelles et des réseaux sociaux de première génération.

Puis, nous passons de giga à tera puis à peta, etc :

055

Une nouvelle culture algorithmique émerge :
056

La plus grande crise qui menace notre société sera la façon de transformer l’information en connaissance structurée.

Carlos Fuentes

Ci-dessous, voici le schéma classique de l’évolution des appareils numériques. La courbe est exponentielle comme celle de la population et celles des crises (chapitre 0, page 2). Cette courbe annonce une nouvelle génération d’ordinateurs qui naît en ce moment de la rencontre entre les règles de la physique quantique et celles de la puissance accrue du numérique (chapitre 3). Le passage des bits à qubits va générer de nouvelles façons de penser :
057

L’informatique privée et l’informatique libre

Les logiciels privés, ou informatique privatique, sont développés par des entreprises privées qui analysent les activités humaines via des algorithmes gardés secrets. Cette surveillance de l’utilisateur  relève de cette mentalité néolibérale qui essaie de développer des économies de marchés. Pour elle, cette technologie est intéressante, car celle-ci possède un potentiel exponentiel : en effet, elle est multipliée par le temps que l’usager  l’utilise (économie de la contribution). Cependant, elle possède un côté sombre : elle conduit l’utilisateur a une inertie sociale :
Informatiq-2-1
Les logiciels libres, ou informatique libre et ouverte, fonctionnent grâce à une cogestion qui administre les données comme une ressource : elle est soutenue par une communauté d’utilisateurs. Elle a comme principe fédérateur celui du commun, donc de la solidarité. Ces logiciels offrent quatre libertés : libertés d’usage, d’étude, d’amélioration et de diffusion.

Le numérique (c’est-à-dire la logique mathématique, le concept de programmation, les systèmes et les appareils numériques) nait grâce aux travaux d’Alan Turing :

1936 : Son article On computable numbers, with an application to the Entscheidungs  problem (ou problème de la décision) est la texte fondateur.

1940 : Il décrypte la machine Enigma utilisée alors par les nazis (c’est l’époque de Bletchley Park)

1948 : Il participe a la création du premier ordinateur, le Mark 1, a l’Université de Manchester.

1950 : Son article Est-ce qu’une machine peut penser ? lance le domaine de l’intelligence  artificielle (AI) (ou Test de Turing).

1952 : Ses travaux de morphogénèse développent un modèle biomathématique qui sera  confirmé plus tard par des recherches en chimie.

Comme d’autres penseurs, de Copernic et Newton à Einstein, il a révolutionné notre société.  Voici le concept de sa machine:

Turing-2

Le numérique s’ajoute aux autres outils, il ne les remplace pas.

Le numérique fait peur :

Soeur-2

Le numérique est devenu la pierre angulaire du XXIe siècle en cinq générations technologiques. Chaque bond a permis l’augmentation de la vitesse, la diminution des coûts, la réduction de la taille des appareils et l’augmentation de la fiabilité du système :

1957 : le transistor
Par Robert Noyce de la compagnie Fairchild. Ce circuit fut créé grâce à la rencontre de sept jeunes ingénieurs expatriés sur la Côte Ouest (qui deviendra la future Silicon Valley), qui profitèrent du remplacement du germanium par le silicium et des demandes de l’industrie de la défense (surtout la NASA).

1961 : le semi-conducteur
Par Robert Noyce de Faichild. Le numérique est alors principalement utilisé par le consortium militaro-industriel américain dans le contexte de la guerre froide.

1971 : le microprocesseur
Par MM. Noyce-Moore-Groove de Intel. Le numérique envahit dorénavant la plupart des grands secteurs industriels et de la finance.

1976 : la carte mère du micro-ordinateur
Par Steve Wozniak de Apple. Le numérique est dorénavant utilisé abondamment à la maison et à l’école.

2001 : le circuit du iPod
Par Steve Job de Apple. Le numérique devient grand public et mobile.
L’un des premiers processeurs fut le Planar (1961) :
planar-2-1
Vingt ans après, voici le microprocesseur 32-bit 68000, de Motorola (1979) :
32 bits-2-1

Le numérique est un nouvel alphabet.

Serge Soudoplatoff

Le numérique est une boîte à outils !

Un deuxième bond a lieu avec l’arrivée du Web vers 1995, puis un autre avec celle des téléphones et des tablettes sans clavier ; on assiste alors à l’explosion d’un million d’applications. C’est l’étape des hackers, des communautés virtuelles et des réseaux sociaux de première génération.

Puis, nous passons de giga à tera puis à peta, etc :

055

Une nouvelle culture algorithmique émerge :
056

La plus grande crise qui menace notre société sera la façon de transformer l’information en connaissance structurée.

Carlos Fuentes

Ci-dessous, voici le schéma classique de l’évolution des appareils numériques. La courbe est exponentielle comme celle de la population et celles des crises (chapitre 0, page 2). Cette courbe annonce une nouvelle génération d’ordinateurs qui naît en ce moment de la rencontre entre les règles de la physique quantique et celles de la puissance accrue du numérique (chapitre 3). Le passage des bits à qubits va générer de nouvelles façons de penser :
057

L’informatique privée et l’informatique libre

Les logiciels privés, ou informatique privatique, sont développés par des entreprises privées qui analysent les activités humaines via des algorithmes gardés secrets. Cette surveillance de l’utilisateur  relève de cette mentalité néolibérale qui essaie de développer des économies de marchés. Pour elle, cette technologie est intéressante, car celle-ci possède un potentiel exponentiel : en effet, elle est multipliée par le temps que l’usager  l’utilise (économie de la contribution). Cependant, elle possède un côté sombre : elle conduit l’utilisateur a une inertie sociale :
Informatiq-2-1
Les logiciels libres, ou informatique libre et ouverte, fonctionnent grâce à une cogestion qui administre les données comme une ressource : elle est soutenue par une communauté d’utilisateurs. Elle a comme principe fédérateur celui du commun, donc de la solidarité. Ces logiciels offrent quatre libertés : libertés d’usage, d’étude, d’amélioration et de diffusion.