Les premières années de l’informatique

par Céphale
lundi 1er février 2010

Le marché des équipements de traitement de l’information a commencé à évoluer en 1960. J’ai tenté ici d’en retracer l’historique en faisant appel à mes seuls souvenirs. Cet article n’est donc pas le résultat d’une étude exhaustive ; il peut aussi comporter quelques inexactitudes. Merci aux lecteurs de les rectifier.

 Un bref historique

Jusqu’en 1960, les calculateurs électroniques vendus par IBM n’avaient que des programmes câblés, des programmes qu’il fallait construire à la main sur un tableau électrique. Les Américains avaient nommé cette machine « electronic computer » tandis que les Français lui avaient déjà donné ce nom inventé par le linguiste Jacques Perret : « ordinateur ».

C’est précisément cette année-là que la Compagnie des Machines Bull a révolutionné le marché des ordinateurs en commercialisant le Gamma 60, fruit de trois années d’études. Les programmes n’étaient plus câblés, mais enregistrés sur une mémoire centrale de 96 K. Parmi les nombreuses innovations de cette machine, on peut citer aussi des circuits imprimés équipés de transistors et des mémoires matricielles à tores magnétiques. Les concepteurs du Gamma 60 avaient bien conscience d’être à l’origine d’une nouvelle science, c’est pourquoi ils ont inventé le mot « informatique », tellement courant aujourd’hui.

1960, c’était aussi le premier essai nucléaire français en Algérie. Le général de Gaulle, obsédé par l’indépendance militaire à l’égard des Etats-Unis, négligeait tout ce qui pouvait assurer notre indépendance civile. Il n’a donc pas vu l’importance stratégique du Gamma 60, et il a refusé de donner à la Compagnie des Machines Bull les crédits dont elle avait besoin. La compagnie française est achetée à vil prix par General Electric en 1964, ce qui permet à IBM de s’imposer sur le marché des ordinateurs, notamment avec la série 360, en s’inspirant des percées technologiques de son concurrent, et profitant en outre de fabuleux contrats avec l’armée américaine.

En 1967, le général de Gaulle prend enfin conscience de son erreur et veut la réparer en créant le « Plan Calcul ». Des milliers d’ingénieurs sont embauchés, des milliards de francs sont dépensés, mais il est trop tard. L’industrie informatique française est définitivement morte.

La vie d’un informaticien en 1970

Les principaux « langages de programmation » sont l’assembleur, le Basic, le Fortran et le Cobol. L’assembleur est le plus proche du code binaire, son emploi est difficile, et ceux qui programment en assembleur sont regardés avec respect. Les operating systems sont programmés en assembleur. Le Basic est principalement utilisé pour des applications simples, le Fortran pour des applications scientifiques et le Cobol pour des applications de gestion. Ce dernier a le grand avantage d’être très bien structuré, ce qui n’est pas le cas des premières versions du Fortran.

La programmation commence avec un papier et un crayon. Ensuite il faut porter son travail à l’atelier mécanographique où des dizaines d’opératrices perforent des cartes dans un bruit assourdissant. Une carte par ligne de programme. Le lendemain, on va chercher son bac de cartes à la mécano pour le porter au centre de calcul, une grande salle climatisé avec de nombreuses armoires et des imprimantes énormes. C’est là que se fait l’assemblage de votre programme. Le résultat, c’est un gros listing qui souvent annonce des « bugs ». On reprend son papier et son crayon. Il faut généralement plusieurs retours à la mécano, puis au centre de calcul, pour avoir enfin un programme qui tourne correctement.

C’est vers 1978, je crois, grâce aux microprocesseurs 16 bits, que la programmation a pu s’affranchir des cartes perforées. Le temps de mise au point des programmes d’application en a été considérablement raccourci. On pouvait enfin écrire un programme et le déboguer en restant devant son écran. Mais à cette date, j’avais quitté le métier de l’informatique. 


Lire l'article complet, et les commentaires