lundi 29 août 2011

Et voici l'informatique cognitive !

Signe des temps... La mise au point par IBM de deux prototypes de circuits intégrés qui essaient d'imiter certains fonctionnements du cerveau humain a été accueillie sans délires utopistes ni pleurnicheries humanistes. Les ruptures technologiques - c'en est une, et de taille - sont devenues normales.

Ce sont des circuits intégrés en silicium qui ont été gravés à l'échelle nanométrique.


Ce sont des circuits intégrés en silicium qui ont été gravés à l'échelle nanométrique. Crédit DR
La rupture remet en cause toute l'architecture de l'informatique, c'est à dire les principes qui relient les composants vitaux de l'ordinateur : processeur, contrôle, mémoire, stockage. Cette structure a été imaginée en 1945 par le mathématicien américain d'origine hongroise, John von Neumann qui a contribué à la mise au point de la bombe atomique, entre autres exploits intellectuels. Dans l'architecture informatique selon von Neumann - qui est ici simplifiée à dessein - le processeur exécute les instructions qu'un cerveau humain a compilé dans un logiciel sous la forme d'algorithmes. Voici la mutation technologique: les prototypes d'IBM ne se contentent pas d'exécuter des instructions; ils captent des données, les analysent, les transforment en décisions et les mémorisent ce qui revient à dire qu'ils apprennent et s'adaptent. Comme les systèmes experts des années soixante et les "Neugents" de Computer Associates dans les années quatre-vingt dix, en beaucoup mieux.

Capter, analyser, mémoriser, décider

Examinons d'un peu plus près les nouvelles bestioles d'IBM. Ce sont des circuits intégrés en silicium qui ont été gravés à l'échelle nanométrique. En l'occurrence, chaque trait mesure 45 millionièmes de millimètre. Avec une particularité décisive: chaque puce contient deux noyaux. L'un avec 262 144 circuits programmables, l'autre avec 65 536 circuits d'apprentissage. Dans les deux cas, ces circuits sont appelés synapses par analogie avec les zones de contact entre les neurones du cerveau.

Et d'ailleurs, le projet lancé il y a deux ans par IBM porte le nom générique de SyNapse ( Systems of Neuromorphic Adaptive Plastic Scalable Electronics) que l'on peut essayer de traduire ainsi: Système électronique neuromorphique adaptatif, plastique et évolutif. Chaque mot a son pesant de signification pratique mais le plus important est évidemment "neuromorphique".

Outre leur capacité à effectuer des tâches binaires massivement parallèles, ces circuits intégrés ont vocation à "apprendre". Leurs copies de neurones peuvent, comme nos cellules cérébrales, se connecter et se déconnecter de manière dynamique (plasticité) en fonction des stimuli, en l'occurrence des données, qu'elles reçoivent.

Elles sont aptes à capter, c'est à dire à percevoir, à "comprendre" après analyse, ce qu'elles ont capté, à mémoriser ce qu'elles ont "compris", à transformer cette mémoire en expérience afin de réagir à des changements dans leur environnement (adaptabilité) en modifiant l'intensité de leurs connexions avec les autres copies de synapses.

Il y aura toujours, dans le comportement de ces puces, une part de programmation d'origine humaine mais il faut désormais intégrer les notions d'informatique cognitive et d'ordinateurs cognitifs dans le répertoire technoïde de notre vocabulaire. Car ce que vient de réaliser IBM, c'est une convergence concrète entre les neurosciences (étude biologique du cerveau), les sciences cognitives (modélisation théorique des modes de fonctionnement de l'esprit) et l'informatique avancée.

Les militaires vont adorer

Il y a quelques années, tout ce qui précède aurait déclenché une tornade de délires futuristes, utopiques, technophobes et apocalyptiques: " Enfin ! C'est le grand retour de l'intelligence artificielle!", "Voici venir la transhumanité hybridée à l'aide de vitamines au silicium !", " Au secours ! On a transplanté un abaque dans le golem pour déshumaniser la pensée...", "Et Dieu, dans tout çà ?" Depuis le 18 août, dâte de la publication du communiqué d'IBM, rien d'irrationnel dans les médias les plus enclins à cultiver l'émotivité des populations béotiennes. La mutation technologique est traitée comme un événement normal, qui va de soi. Et ça, c'est plutôt bon signe. Immunisés par les bouleversements scientifiques et technologiques du siècle précédent, les humains d'aujourd'hui attendent tranquillement qu'on leur explique à quoi ça va (leur) servir.

Les SyNAPSES d'IBM vont d'abord servir aux militaires américains. Le projet d'informatique cognitive a été financé à hauteur de 4,9 millions de dollars par la DARPA (agence gouvernementale de soutien à la recherche avancée). Or la DARPA s'est parfois trompée ces dernières années mais elle est quand même à l'origine d'internet qui fut d'abord, en 1957, une réaction technologique au risque d'atomisation du Pentagone et de la Maison Blanche par un Spoutnik soviétique.

Les militaires ont aimé les avancées informatiques qui leur ont permis de faire Hiroshima. Ils vont adorer les SyNAPSE qui leur permettront, selon Dharmendra Modha, chef de projet chez IBM Research, de "découvrir des modèles basés sur les probabilités et la mise en relation des informations provenant d'un réseau de capteurs de surveillance." Surtout avec le potentiel prédictif qui va de pair avec l'analyse d'énormes quantités de données. Leurs collègues de la NSA (grandes oreilles électroniques des Etats-Unis) entreront en pâmoisons quand les circuits neuromorphiques détecteront en temps réel certains "motifs" dans des déluges de données qui déferlent à travers les réseaux électroniques.

Mais - et là, on retrouve à nouveau la préhistoire du web - il y a cinq universités dans le projet d'informatique cognitive: Columbia, Cornell, Californie, Merced et Wisconsin, Madison. Or les universitaires adorent bidouiller puis détourner les joujoux militaires pour les mettre à la disposition des civils. En vrac, quelques détournements possibles des SyNapses kakis: alertes plus rapides au tsunamis par analyses et "compréhension" de données géologiques, atmosphériques et océaniques complexes, gestion en temps réel des réseaux électriques ou de l'approvisionnement en eau, aide à la conception et à la fabrication de produits de plus en plus "intelligents".

Rien à voir avec Hal, cet abruti

Mais que les choses soient claires: les puces cognitives d'IBM n'ont aujourd'hui que 256 "neurones"; la plupart d'entre nous - il y a des exceptions évidentes - en ont 100 milliards. IBM aimerait bien arriver un jour à leur faire produire cent milliards de "synapses" au lieu des 300 000 actuelles mais ses chercheurs savent bien qu'ils n'arriveront jamais à reproduire la singularité du cerveau: taille compacte et consommation électrique inférieure à celle d'une ampoule de réfrigérateur. Inutile donc de fantasmer sur cet abruti de Hal, l'ordinateur geignard, paranoïaque et malfaisant de "2001: odyssée de l'espace".

Quand même...Regardez bien votre portable tout neuf équipé d'un processeur Intel i7 cadencé à 3,4 GigaHertz. Il vous semble déjà un peu mérovingien, non ?

Aucun commentaire:

Enregistrer un commentaire