La singularité technologique expliquée

par Irr
jeudi 20 août 2009

Le progrès technique s’accélère et va atteindre un point de rupture...

Au sortir de la seconde guerre mondiale, le petit monde de ce qui n’est pas encore l’informatique est en effervescence. La cryptographie, c’est-à-dire l’art de « cracker » les messages codés du camp ennemi, a connu un essor important et la mise au point de la bombe atomique a initié la recherche en simulation numérique. On se demande alors jusqu’où pourrait aller le « calcul » si l’on disposait de machines plus performantes. Alan Turing, chercheur britannique, publie en 1950 dans la revue Mind un article qui fera date : Computing Machinery and Intelligence. Il y pose explicitement le problème de l’intelligence des machines et propose un moyen d’en rendre compte. L’article résonne immédiatement comme un programme de recherches dans le champ de l’intelligence artificielle et annonce l’avènement d’une nouvelle discipline fondamentale : l’informatique, dont les progrès spectaculaires, aujourd’hui en prise avec les nanotechnologies, ne semblent pas connaître de fin.

L’INVENTION DE L’INFORMATIQUE ET SON IMAGINAIRE.
 
Les avancées technologiques sont relativement rapides et bientôt chacun dispose chez lui de l’une de ces machines. Pourtant, l’intelligence artificielle semble nourrir davantage l’imagination des auteurs de science-fiction que l’innovation industrielle. Ce n’est qu’une question de temps d’après certains chercheurs et ingénieurs du domaine. En 1965, Irving Good, statisticien britannique, pose les jalons d’une vision du progrès technologique oscillant entre foi et science. Dans son article Speculations concerning the first ultraintelligent machine, il décrit, voire prophétise, un développement prochain extrêmement soudain de la technique, un progrès ultra-rapide dans un laps de temps extrêmement réduit. Il avance en effet que si l’on pouvait construire une machine ne serait-ce qu’un peu plus "intelligente" que l’homme, celle-ci serait capable, très vite, de construire elle-même une machine encore plus intelligente, et ainsi de suite jusqu’à atteindre une intelligence incommensurable à la nôtre : l’homme serait littéralement "largué", abandonné sur le quai du progrès.

Ce brusque accroissement du savoir technique s’apparenterait à un "point" dans l’histoire, à un "pli", ou plutôt à une "singularité". Le terme fut utilisé pour décrire ce phénomène par Vernor Vinge, chercheur américain et auteur de science-fiction, dans son essai The Coming Technological Singularity (1993). Il est emprunté à la physique où la notion de singularité gravitationnelle renvoie à des régions de l’espace-temps où les quantités dont on est capable de rendre compte habituellement deviennent subitement infinies, et par là-même échappent à nos appareils de mesure. Par analogie, on imagine qu’une fois cette singularité technologique atteinte, notre société connaîtrait des bouleversements démesurés. Pour certains, les transhumanistes par exemple, la singularité signe la fin de l’humanité et la nécessité de nous robotiser, pour d’autres, inspirés par la "noosphère" de Teilhard de Chardin, elle équivaut à l’entrée dans un Âge d’Or où l’information et la communication se font sans entraves. D’après les plus alarmistes, les machines super intelligentes nous réduiront à néant sans attendre. On retrouve là toute l’ambiguïté des récits apocalyptiques dans lesquels on tente de faire coïncider en un même événement destruction et révélation, mort et naissance, fin et début (une "destruction créatrice" comme diraient Nietzsche ou Schumpeter).
 
 
LA SINGULARITÉ TECHNOLOGIQUE ENTRE MYTHE ET RÉALITÉ.
 
On est en droit de se demander dans quelle mesure la qualité de chercheurs et de scientifiques des différents protagonistes de ce "mouvement de pensée" garantit la scientificité de la singularité technologique. En effet, sur certains points, et même s’il ne s’agit pas de remettre en cause les compétences de ces scientifiques, l’idée paraît naïve et semble reposer sur des "extrapolations" plutôt que sur des "lois". Les tenants de la singularité technologique s’inspirent en effet de la dite "loi de Moore". D’après cette conjecture, la complexité des semiconducteurs, et donc par extension la puissance de calcul des ordinateurs, croîtrait à un rythme exponentiel : le nombre de transistors par circuit de même taille doublerait tous les 18 mois. Cela revient à dire que si sur un m2 de champ cultivable vous récoltez 10 pommes de terre en janvier 2002, vous en récoltez 20 en juin 2003, 40 en janvier 2005, 80 en juin 2006, 160 en janvier 2008, 320 en juin 2009, et ainsi de suite. On comprend que les quantités deviennent vite énormes, et même, à partir d’un certain point, "infinies" ou, en tout cas, proches de l’infini. Ray Kurzweil, auteur de l’essai The Singularity is near : when Human transcends Biology (2005), parle d’un "accelerating change", d’un changement qui va en s’accélérant. Or, on sent bien intuitivement que s’approcher d’une telle croissance, surtout si l’on parle de "quantités de savoir" ou de "quantités d’intelligence", devrait avoir des conséquences concrètes immédiates pour nos modes de vie. C’est ce que Vernor Vinge et ses acolytes appellent la "singularité technologique", stimulant l’imaginaire d’une révolution comparable aux révolutions néolithiques et industrielles, voire les surpassant.

Tout ceci peut paraître très excitant ou très angoissant, au choix. Seulement voilà, l’histoire a la fâcheuse tendance de ne peut pas suivre des lois mathématiques abstraites. Tout d’abord, les investissement financiers et humains dans la recherche reposent sur la motivation des hommes. Ensuite, et surtout, la Nature résiste. Ainsi, de l’aveu même de Gordon Moore, co-fondateur d’Intel et auteur de la loi susnommée, le progrès technologique en matière de computation va se heurter à un mur dans sa quête de miniaturisation : l’échelle atomique. À partir d’un certain stade, en effet, et selon les prévisions, c’est à l’échelle de l’atome que nous devrions prochainement confectionner nos processeurs.
 
 
BREAKING THE WALL !
 
Ce "wall" est d’ores et déjà l’objet de toutes les convoitises commerciales et scientifiques : défi majeur pour l’intelligence humaine, sa percée représente également un marché potentiel qui se chiffre en millards de dollars. Ce marché est celui des nanotechnologies. Il s’agit de réussir à construire des machines, si possible intelligentes, des robots, à l’échelle du nanomètre (pour ordre de grandeur, il y a 1 000 000 de nanomètres dans 1 millimètre). Pour réaliser ces machines, il faut maîtriser la manipulation de la matière atome par atome. Cette perspective a été évoquée dès 1959 par le physicien Richard Feynman dans sa conférence There’s Plenty of Room at the Bottom. Depuis, les chercheurs s’y attèlent : en septembre 1989, Donald Eigler et Erhard Schweizer, chercheurs chez IBM, annoncent qu’ils sont parvenus à déplacer la matière atome par atome, dessinant le sigle IBM à l’aide de 35 atomes de Xenon déposés sur une surface de Nickel.

Dès lors, les spéculations vont bon train et les plus audacieux évoquent la possibilité de "reprogrammer" la matière, transformant ainsi le monde réel en un monde virtuel, malléable, modifiable selon nos souhaits. Une telle image est vertigineuse. Elle l’est tant que seuls 29,5 % des américains jugent "moralement acceptable" l’idée d’une manipulation de la matière atome par atome (enquête présentée en 2008 par Dietram Scheufele). Ray Kurzweil lui-même, lors de la présentation d’un rapport sur les nanotechnologies au Congrès Américain, a jugé bon de souligner les dangers potentiels, tout en prévenant que la tentation d’y parvenir était si grande que personne ne pourrait entraver cette recherche. Ces dangers sont peu ou prou semblables aux critiques régulièrement prononcées à l’égard de l’intelligence artificielle (on aura compris en quoi ces deux champs ont partie liée) : perte de contrôle de l’homme sur sa création, confusion totale quant à ce qui est réel et ce qui ne l’est pas, impossibilité de prévoir le comportement d’une machine rendue autonome (et invisible à l’œil nu).

Car c’est à un niveau fondamental que se situe le cœur du débat portant sur la nature de la technique, de l’esprit et de l’intelligence. S’il est encore de bon ton, notamment dans la tradition "continentale" de la philosophie, de tourner en ridicule la recherche en intelligence artificielle en s’appuyant sur les a priori fondant notre conception de l’humanisme, il semble important de s’intéresser aux évolutions récentes et de s’investir dans le débat. La virulence des confrontations secrète en effet des arguments de plus en plus riches. À titre d’exemple, Anthony Berglas, dans Artifical Intelligence will Kill our Grandchildren (2008), défend l’idée selon laquelle une machine, n’étant ni mortelle ni incarnée, n’aurait nul besoin de développer un sentiment tel que l’amour, qui, sur un plan évolutionniste, assure la reproduction d’une espèce. Or de telles conceptions sont porteuses de réflexions étonnamment denses quant à notre condition mortelle et notre rapport au temps. Comment pourrait-on seulement concevoir l’équivalent d’une conscience qui n’aurait pas un rapport au temps de mortel ? Une conscience qui se déploierait dans une pure atemporalité, hors du temps ?

Mais soyons patients, car la réponse est proche si l’on en croit Vernor Vinge : "Je serai surpris si cet événement arrive avant 2005 ou après 2030" (1993).



ARTICLES CITÉS :

Alan Turing, Computing Machinery and Intelligence, in Mind, 59, 433-460, 1950.

Irving J. Good, Speculations Concerning the First Ultraintelligent Machine, in Advances in computers, 39, 1965.

Vernor Vinge, The Coming of Technological Singularity, présenté au Vision-21 symposium du NASA Lewis Research Centre et de l’Ohio Arospace Institute, 1993.

Pierre Teilhard de Chardin, La place de l’homme dans la Nature, Seuil, Paris, 1963.

Ray Kurzweil, The Singularity is Near, Viking Adult, 2005.

Richard Feynman, There’s Plenty of Room at the Bottom, conférence donnée à l’American Physical Society, 1959.

Anthony Berglas, Artificial Intelligence will Kill our Grandchildren, 2008.
 

Lire l'article complet, et les commentaires