AdmisConcours

Histoire et jalons de la révolution numérique : de la Pascaline à la 5G

La révolution numérique s'inscrit dans une histoire longue, de la Pascaline de Pascal (1642) aux réseaux 5G. Les étapes clés incluent l'invention de l'ENIAC (1946), la création d'ARPANET et des protocoles TCP/IP (1973-1983), le World Wide Web au CERN (1990), puis l'émergence du Web 2.0 et du smartphone. Cette chronologie illustre l'accélération exponentielle des innovations et la concentration du pouvoir technologique.

Comprendre la fracture numérique suppose de maîtriser les grandes étapes de la révolution informatique et numérique. Cette chronologie, qui s'étend sur près de quatre siècles, met en lumière l'accélération des innovations et la concentration progressive du pouvoir technologique.

Les prémices de l'informatique (XVIIe-XIXe siècles)

L'histoire de l'informatique commence bien avant l'ère numérique. En 1642, Blaise Pascal invente la Pascaline, machine à calculer mécanique capable d'effectuer additions et soustractions. Cette invention inaugure une longue tradition de mécanisation du calcul qui se poursuit avec la machine analytique de Charles Babbage (1837), considérée comme l'ancêtre conceptuel de l'ordinateur moderne, et les travaux d'Ada Lovelace, reconnue comme la première programmeuse de l'histoire.

En 1886, Herman Hollerith dépose le brevet de sa machine mécanographique utilisant des cartes perforées et le codage binaire des données. Son succès tient à l'adoption par les administrations étatiques pour le traitement de données statistiques, notamment lors du recensement américain de 1890. La compagnie fondée par Hollerith sera transformée en IBM (International Business Machines) par Thomas Watson en 1924. En France, la compagnie Bull est créée la même année, symbolisant l'ambition française dans le domaine de l'informatique.

L'ère des ordinateurs (1946-1970)

L'invention de l'ENIAC (Electronic Numerical Integrator and Computer) en 1946 par John Mauchly et John Eckert marque la naissance de l'informatique moderne. Cette même année voit la création de l'INSEE en France, qui utilise les machines mécanographiques pour le traitement des données démographiques.

En 1949, John von Neumann conçoit l'EDVAC (Electronic Discrete Variable Automatic Computer), dont l'architecture, fondée sur le stockage du programme en mémoire, reste le paradigme dominant de l'informatique contemporaine. L'IBM 701, apparu en 1952, s'impose comme la machine de référence.

Le développement de la mise en réseau commence avec la création de l'ARPA (Advanced Research Projects Agency) en 1958 par le Département de la Défense américain, en réaction au lancement du satellite soviétique Spoutnik. L'invention du time sharing (temps partagé) en 1961 permet le partage des ressources informatiques entre plusieurs terminaux.

La micro-informatique et l'essor des réseaux (1973-1990)

L'année 1973 est doublement décisive : apparition des premiers micro-ordinateurs (Micral en France, considéré comme le premier micro-ordinateur commercial au monde) et définition par Vinton Cerf et Robert Kahn du protocole d'interconnexion d'ARPANET. Le principe du TCP (Transmission Control Protocol) est adopté pour normaliser les échanges entre machines sur différents réseaux.

La sortie de l'Apple I en 1976 introduit un changement fondamental dans la relation entre l'homme et la machine, en rendant l'informatique accessible aux particuliers. En 1981, IBM lance le Personal Computer (PC) utilisant le système d'exploitation MS-DOS de Microsoft, inaugurant l'ère de la micro-informatique de masse.

Entre 1965 et 1975, Gordon Moore, ingénieur chez Fairchild puis fondateur d'Intel, formule sa célèbre loi selon laquelle le nombre de transistors des microprocesseurs double tous les deux ans. Cette loi empirique, régulièrement vérifiée pendant cinq décennies, a guidé l'industrie des semi-conducteurs et explique l'accélération exponentielle de la puissance de calcul.

L'ouverture au domaine public des protocoles TCP/IP en 1983, parallèlement à la séparation entre usages militaires (MILNET) et académiques (ARPANET), constitue le moment fondateur d'Internet tel qu'on le connaît.

La naissance du World Wide Web et la démocratisation d'Internet (1990-2007)

En 1990, Tim Berners-Lee et Robert Cailliau, au sein du CERN de Genève, proposent le protocole HTML et le système d'identification des ressources par URL, créant le World Wide Web. La même année, l'ARPANET est démantelé et la gestion du réseau est transférée à la NSF (National Science Foundation).

En 1992, le sociologue Ulrich Beck publie La société du risque, dans lequel il décrit la « sub-politique technologique » comme le risque de laisser au couple scientifiques-entrepreneurs les choix décisifs de modernisation, sans contrôle démocratique. Cette réflexion reste pertinente face à la gouvernance actuelle du numérique.

La commercialisation d'Internet s'accélère avec le navigateur Netscape de Marc Andreessen (1994), puis le transfert de la gestion du réseau à des opérateurs privés, les ISP (Internet Service Providers), en 1995. Le moteur de recherche Google, lancé en 1998 par Larry Page et Sergey Brin, transforme l'accès à l'information en ligne.

Les années 2000 voient l'émergence des plateformes qui redéfinissent les usages : iTunes d'Apple (2001) pour la musique, Facebook (2004) et Twitter (2006) pour les réseaux sociaux. En 2007, Tim Berners-Lee qualifie cette évolution de Global Giant Graph, la distinguant du Web originel : il ne s'agit plus seulement de relier des documents, mais de tracer et mettre en scène les actions, relations et expressions des individus. C'est le Web 2.0 selon l'expression de Tim O'Reilly (2005). La sortie de l'iPhone d'Apple en 2007 inaugure l'ère du smartphone et de l'Internet mobile.

L'accélération contemporaine

Les années 2010-2020 sont marquées par l'accélération des débits mobiles (4G déployée en Europe en 2013, 5G en France en 2021), le développement du Big Data (données de masse dépassant les capacités d'analyse humaine et des outils traditionnels), et l'essor de la blockchain (registre distribué certifiant les transactions, support du Bitcoin).

En France, le Conseil national du numérique, créé en 2012, est chargé de formuler des recommandations pour réduire la fracture numérique et accompagner la transformation numérique de la société. L'algorithme de Google, dans sa version 2013, permet de prédire les attentes implicites des internautes grâce au croisement des données massives, illustrant les capacités et les risques du Big Data.

À retenir

  • L'informatique naît avec la Pascaline (1642) et se mécanise avec les cartes perforées d'Hollerith (1886), ancêtre d'IBM.
  • L'ENIAC (1946) marque la naissance de l'ordinateur, et l'architecture von Neumann (1949) reste le paradigme dominant.
  • Internet émerge d'ARPANET (1958-1983) grâce aux protocoles TCP/IP ouverts au domaine public, et le World Wide Web est inventé au CERN en 1990.
  • La loi de Moore (doublement des transistors tous les deux ans) a guidé l'industrie des semi-conducteurs pendant cinq décennies.
  • Le Web 2.0 (2005-2007) et le smartphone (iPhone, 2007) inaugurent l'ère des réseaux sociaux et de l'Internet mobile.
Partager

Références

  • Tim Berners-Lee et Robert Cailliau, proposition du HTML au CERN, 1990
  • Ulrich Beck, La société du risque, 1992
  • Gordon Moore, loi de Moore, 1965
  • Vinton Cerf et Robert Kahn, protocole TCP, 1973
  • Tim O'Reilly, What is Web 2.0, 2005
  • Dominique Boullier, Sociologie du numérique, A. Colin, 2016

Flashcards (6)

3/5 Qu'est-ce que l'ARPANET et quel rôle a-t-il joué dans la naissance d'Internet ?
ARPANET est le réseau de recherche du Pentagone créé en 1958 (via l'ARPA). Les protocoles TCP/IP y ont été développés par Cerf et Kahn (1973), puis ouverts au domaine public en 1983, donnant naissance à Internet. L'ARPANET est démantelé en 1990.

5 flashcard(s) supplémentaire(s)

Créer un compte gratuit

QCM

En quelle année Tim Berners-Lee et Robert Cailliau ont-ils proposé le protocole HTML au CERN ?

Que décrit Ulrich Beck par l'expression « sub-politique technologique » dans La société du risque (1992) ?

Quel événement de 1983 est considéré comme fondateur d'Internet tel qu'on le connaît ?

Quelle innovation technique a permis le passage de la micro-informatique de laboratoire à un usage grand public ?

Testez vos connaissances

Évaluez votre maîtrise de Culture générale avec nos QCM interactifs.

Faire le QCM Culture générale

Fiches connexes

Les politiques de lutte contre la fracture numérique et le rôle de l'éducation

La lutte contre la fracture numérique mobilise acteurs publics, privés et associatifs. La logique d'équipement s'est avérée insuffisante sans transformation pédagogique. L'éducation au numérique constitue l'enjeu central, avec la création de la spécialité NSI au lycée et les humanités numériques, mais l'implication des GAFAM pose des questions de souveraineté. Le tissu associatif et les dispositifs comme les Maisons France Services apportent un accompagnement de proximité.

Les facteurs sociaux et générationnels de l'exclusion numérique

La fracture numérique ne se réduit pas à un clivage riches/pauvres : l'enquête Inéduc montre que les familles populaires sont aussi équipées que les aisées, la différence portant sur les usages et la socialisation parentale. La dimension générationnelle et la dématérialisation des services publics créent des formes spécifiques d'exclusion touchant les personnes âgées, les migrants et les personnes handicapées, tandis qu'émerge un phénomène de déconnexion volontaire.

Les dimensions territoriales de la fracture numérique : du local au mondial

La fracture numérique se manifeste à toutes les échelles géographiques. En France, les zones blanches touchent les espaces ruraux peu denses tandis que les politiques publiques d'aménagement tentent de rééquilibrer l'accès. À l'échelle mondiale, la géographie des câbles sous-marins et la concentration du pouvoir numérique (GAFAM, BATX) reflètent les inégalités de développement, même si l'Afrique illustre des possibilités de saut technologique.

Partager :

Cette fiche vous a été utile ?

Créez un compte gratuit pour accéder aux QCM complets, suivre votre progression et recevoir les notes de préparation.