T031 – 6. Les moyens informatiques

  • Le monde moderne emploie souvent le terme ordinateur comme synonyme du mot informatique. Il est erroné de restreindre l’informatique à des équipements électroniques de traitements automatiques de données. Originellement, l’informatique se définit comme la science du traitement rationnel. En d’autres termes, toutes les méthodes techniques facilitant le calcul ou le traitement d’informations s’intègrent à cette notion.
  • Contrairement à l’ordinateur né il y a à peine septante ans, l’informatique comprise dans son sens large date de plusieurs milliers d’années. L’homme a de tout temps créé des outils pour l’aider à calculer en limitant les erreurs et en économisant du temps.

a. Le développement de l’ordinateur
  • Quatre générations d’ordinateur se sont succédées depuis 1936[1]:

–    La première génération née en 1936 avec le Turing s’achève avec le premier IBM. De cette génération est issue la programmation informatique, la notion de programme informatique, les calculateurs électroniques et le traitement de nombres et de textes. En outre, dès 1939, les premiers systèmes de stockage font leur apparition avec de faibles capacités de 64 mots à leurs débuts jusqu’à 8’192 mots.

–     De 1956 à 1973, les ordinateurs de deuxième génération sont une évolution des ordinateurs de première génération. Les innovations techniques se ciblent sur la miniaturisation, la robustesse, la légèreté des composants et la diminution de la consommation électrique. En outre, le RAMAC est créé. Il s’agit de l’ancêtre de notre disque dur qui permet de stocker 60’000 caractères. En revanche, le coût des ordinateurs et des systèmes de stockage est un frein à l’emploi de l’informatique.

–     La troisième génération d’ordinateur (1963 à 1971) est marquée par la naissance de la puce électronique. Les composants informatiques continuent de se miniaturiser impliquant une diminution de la grandeur des ordinateurs et du coût de production, sans toutefois permettre l’accessibilité des ordinateurs au grand public.

–     La quatrième génération est née en 1971. Tous les transistors se trouvent sur un seul circuit intégré, le coût de production devient alors faible et les ordinateurs deviennent peu à peu accessibles à tout un chacun. Quant à la mémoire de masse, les capacités de stockage des disques durs de troisième génération peuvent atteindre 25 milliards de caractères en 1998 et 1’000 milliards en 2007.

  • Malgré son jeune âge, le matériel informatique a subi une évolution colossale en passant d’un ordinateur de 50 tonnes nécessitant 25 kilowatts d’énergie et traitant une centaine d’instructions par seconde à un micro-processeur Pentium de quelques grammes consommant 25 watts et traitant 100 millions d’instructions à la seconde[2]. Entre 1980 et 2013, la vitesse de lecture et d’écriture des disques durs s’est multipliée par 32, leur durée de vie par 145. Parallèlement, leur coût d’achat a fortement chuté passant de 300 dollars le mégaoctet à 0,00022 dollars[3]. En trente-et-un ans, le prix du mégaoctet s’est divisé par 1,3 millions alors même que les disques durs se sont perfectionnés. En sus, la vitesse de calcul s’est améliorée et le coût d’un ordinateur a diminué. L’informatique devient un bien abordable pour tous.
  • Au début des années 50, une étude a estimé à une cinquantaine le nombre d’ordinateurs vendus. Aujourd’hui, plus d’un 1,5 milliards d’ordinateurs de quatrième génération sont en fonction dans le monde entier[4]. En cinquante ans, le marché mondial a cru de 3 milliards de pourcents.
  • Si nous nous projetons en 2020, tout laisse à penser que le Pentium sera aussi démodé que la première génération d’ordinateurs et que les disques durs pourront stocker toujours plus d’informations à moindre coût.
  • Pour preuve de cette évolution, nous pouvons citer la première loi de Moore[5]. Constatant que la complexité des semi-conducteurs doublait toutes les années à coût constant depuis 1959, date de leur invention, Gordon Moore en déduit l’hypothèse suivante: la puissance va poursuivre cette croissance exponentielle. En 1975, Gordon Moore réévalue sa prédiction avec la deuxième loi de Moore et modifie le rythme de croissance. Désormais, le nombre de transistors des microprocesseurs sur une puce de silicium double tous les vingt-quatre mois, et non tous les douze mois. Bien qu’il ne s’agisse pas d’une loi physique, mais juste d’une extrapolation empirique, cette prédiction s’est révélée étonnamment exacte.
  • Théoriquement, la deuxième loi de Moore devrait cesser de s’appliquer en 2015, mais les barrières technologiques et les limites physiques empêchent cette progression. Actuellement, l’industrie informatique contourne cet obstacle par le doublement sur une même puce du nombre de processeurs, la fréquence restant, pour sa part, inchangée (Dual PowerPC en 2002, Dual IA en 2004, Intel Core Duo en 2006). Par ce biais, l’industrie informatique assure la continuité de l’évolution de la puissance des ordinateurs.

 

b. La création d’Internet
  • Avec la croissance du marché de l’informatique, l’idée d’un réseau informatique – permettant aux utilisateurs d’ordinateurs de communiquer entre eux – se développe.
  • De 1960 à 1980, les premiers réseaux dont l’ARPANET voient le jour permettant une communication générale entre des ordinateurs reliés par une ligne de télécommunication à large bande[6]. Relevons que l’ARPANET créé en 1969 est le précurseur d’Internet[7]. Initialement financé à des fins militaires, ce réseau va se déployer uniquement au sein des universités américaines.
  • Avec le développement d’ARPANET, divers protocoles réseaux se créent amenant un besoin d’uniformisation, c’est ainsi que naît le protocole TCP/IP – Transmission control Protocol/Internet Protocol – intégré officiellement dans l’ARPANET en 1983[8].
  • La fusion d’ARPANET avec le NFSNet créé par la « National Science Fondation » pose la dernière pierre nécessaire à la création de l’Internet moderne se définissant comme le réseau mondial rassemblant l’ensemble des réseaux d’ordinateurs et utilisant le protocole TCP/IP pour communiquer[9].
  • Au début des années 1980, Tim Berners-Lee, chercheur au CERN, s’intéresse à la problématique des moyens de recherche et d’organisation de l’information. Il met au point un système de navigation hypertexte[10]. A la fin des années 1990, il instaure le protocole HTTP – Hyper Text Transfer Protocol – ainsi que le langage HTML[11] – Hypertext Markup Language – permettant de naviguer à l’aide de liens hypertextes à travers tous les réseaux.
  • L’application de Tim Berners-Lee donne naissance au World Wide Web qui se diffuse rapidement. En 1996, plus de 30 millions de pages publiques d’informations étaient référencées dans les systèmes de recherche[12].
  • L’influence de l’informatique sur la société est aujourd’hui officiellement reconnue. Avant l’unification du protocole réseau – TCP/IP – et la création du World Wide Web, seulement 1’000 ordinateurs étaient connectés au réseau. Vingt-cinq ans plus tard, 1,733 milliards de personnes sont raccordées à Internet à travers le monde, et chaque seconde cinq nouveaux raccords sont effectués[13]. Selon les statistiques, Internet a encore un bel avenir devant lui, son taux de pénétration actuel de 34,3% devant doubler d’ici 2017.

 

c. L’Internet comme mode de communication
  • Le réseau ARPANET est une contribution majeure à l’essor des courriers électroniques[14]. En effet, lors de la création de ce réseau, des échanges expérimentaux de courriers inter-système ont été effectués[15]. Puis, en 1971, le programme SNDMSG/READMAIL – Send message/read message – est implanté dans ARPANET. En utilisant deux boîtes aux lettres électroniques sur deux ordinateurs situés côte-à-côte et connectés au réseau, Ray Tomlinson réussit à envoyer un message « QWERTYUIOP » et à le réceptionner. A cette occasion, l’ingénieur définit l’adresse électronique en reprenant le nom de l’utilisateur, le nom de l’ordinateur et en les séparant par un @[16].
  • Par la suite, l’amélioration des travaux de Ray Tomlinson permet de créer la première application capable de lister les messages par objet ou par date et de les lire dans l’ordre de son choix. Depuis l’instauration des messageries électroniques sur le réseau ARPANET, les programmes de courriels n’ont de cesse de croître.
  • Avec l’avènement du réseau informatique, les ingénieurs découvrent donc un moyen innovateur d’échange d’informations. Depuis, le courrier électronique est souvent considéré comme la killer application ou application révolutionnaire d’Internet.
  • Dorénavant, en moins d’une seconde, les utilisateurs d’Internet et des messageries électroniques s’échangent, presque gratuitement, des données et des informations à travers le monde. C’est pourquoi, après la consultation des sites Web, l’email se classe en deuxième position des services les plus utilisés sur le net. En 1996, le service de courriers électroniques gratuit Hotmail de la société Microsoft recensait 100’000 utilisateurs et le chiffre s’élevait à 30 millions d’abonnés fin 1998[17]. Environ dix ans plus tard, le nombre de comptes email dépasse les 3,9 milliards, près de 200 millions de nouveaux comptes sont créés chaque année[18].
  • Simple, rapide et gratuite, la globalisation des messageries électroniques se reflète dans l’augmentation sensible du volume des communications écrites. En ne comprenant pas les spams, ce n’est pas moins de 183 milliards d’emails qui sont envoyés chaque jour, dont environ 82 milliards de personne à personne, ce qui ne comprend pas les emails professionnels[19]. Avec 3.9 milliards de comptes emails, chaque abonné envoie près deux messages électroniques toutes les heures.

 

 

[1] Birrien, p. 50, 53, 68 et 86-87; Ceruzzi, p. 13-18, 51, 58, 64-70 et 218; Ferro, Swedin, p. 25-64 et 65-130; Paoletti, p. 45-46; Piguet, Hügli, p. 72-90, 105-107 et 149-154; Turing Alan Mathison, On computable numbers with an application to the Entscheidungsproblem, in Proceedings of London Mathematical Society s2-42 (1937) p. 230-265.

[2] Cohen, Verdier, Benghozi p. 169; Figer, p. 1.

[3] Informations disponibles sur le site internet de Seagate: http://www.storageseagate.com [consulté le 09.10.2013].

[4] Chiffre disponible sur le site internet de Computer Industry Almana Inc: http://www.c-i-a.com/ [consulté le 08.05.2016].

[5] Moore Gordon, Cramming more components onto integrated circuits, in Electronics magazine vol. 38 (19 avril 1965), disponible sur: http://download.intel.com/research/silicon/moorespaper.pdf [consulté le 08.05.2016].

[6] Ceruzzi, p. 259; Licklider Joseph Carl Robnett, Man-computer symbiosis, in Human factors in electronics HFE-1 (1960) p. 4-11.

[7] Birrien, p. 90; Ceruzzi, p. 117.

[8] Comer, p. 7; Murray, p. 69; O'Regan, p. 105.

[9] Ceruzzi, p. 295-296; Comer, p. 7-9; Figer, p. 14.

[10] Ceruzzi, p. 300-302; O'Regan, p. 106-107.

[11] Ceruzzi, p. 302; Murray, p. 4 et 72-74.

[12] Figer, p. 15.

[13] Chiffres disponibles sur le site internet d'Internet world stats: http://www.internetworldstats.com [consulté le 08.05.2016].

[14] Ceruzzi, p. 298; Licklider Joseph Carl Robnett, Applications of information networks, in Computer-supported cooperative work: a book of readings vol. 66 n° 11, p. 143-183.

[15] Ceruzzi, p. 259; Wagner, Hüttl, Bakin, p. 65; Safko, p. 62.

[16] Rahoual, Siarry, p. 15; Wagner, Hüttl, Bakin, p. 65-66; Watson, p. 175.

[17] Informations fournies par la société Hotmail.

[18] Informations disponibles sur le site internet The Radicati Group Inc: http://www.radicati.com/ [consulté le 08.05.2016].

[19] Informations disponibles sur le site internet d'IDC – Analyze the future: http://www.idc.com/ [consulté le 08.05.2016].

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *