Dirigé depuis l’EPFL, le Human Brain Project veut parvenir d’ici à dix ans à simuler le cerveau sur ordinateur. Vu les sommes engagées (jusqu’à un milliard d’euros sur dix ans) et les promesses de thérapies médicales engagées, l’initiative suscite un vif débat parmi les neuroscientifiques
Toucher à l’une des frontières de la science: comprendre le cerveau. Et cela non pas en l’imageant à l’aide de techniques pointues ou en le disséquant pour analyser ses neurones, mais en simulant la façon dont ceux-ci communiquent pour permettre à l’homme de penser, d’interagir, de rêver. Le tout avec un ordinateur surpuissant, qui reste à construire. Tel est l’objectif du Human Brain Project (HBP), projet international dirigé depuis l’Ecole polytechnique fédérale de Lausanne, impliquant environ 90 institutions de 22 pays. Une initiative tentaculaire qui, au vu de ses ambitions, de ses promesses et surtout de ses besoins financiers, suscite un très vif débat dans la communauté scientifique, comme l’a montré un récent colloque organisé à l’Université de Berne par l’Académie suisse des sciences naturelles (SCNAT).
Le Human Brain Project est un des six projets phares présélectionnés par l’UE dans le cadre de son programme sur les technologies futures et émergentes (FET); trois sont menés ou codirigés à partir d’une haute école suisse (lire LT du 5.5.2011). Un montant de 1,4 million d’euros lui a été accordé pour une étude de faisabilité, qui doit être rendue le 30 avril. Et c’est au début de 2013 que deux de six initiatives seront choisies, chacune alors soutenue à hauteur de 1 milliard d’euros sur dix ans.
Pour comprendre le cerveau, «les approches traditionnelles basées sur l’étude de sa physiologie ou l’imagerie ne suffiront jamais, estime l’âme du projet, Henry Markram, neurobiologiste à l’EPFL. Ce qu’il nous faut, c’est une nouvelle stratégie.» Laquelle? «Soixante mille articles sont publiés chaque année en neurosciences. Diverses techniques ont permis de détailler le fonctionnement des gènes, des canaux de communication entre neurones, des neurotransmetteurs que libèrent ces cellules, etc. L’objectif est d’abord d’organiser cette masse d’informations.» Une vaste base de données idoine, unifiée et largement consultable, devra être érigée.
L’étape suivante consistera en une vaste reconstruction informatique d’un réseau de neurones, ce justement en prenant en compte, sous forme d’équations ou de paramètres de calcul, toutes ces règles et informations contenues dans la littérature scientifique. Par exemple la manière dont croissent les axones, ces «bras» des neurones, ou leur mode de communication à travers leurs synapses. En commençant par une architecture grossière, mais en augmentant petit à petit le niveau de détails, jusqu’à reproduire dans le code du programme les échanges moléculaires. «La recherche basée sur la simulation – pas forcément selon notre méthode – est inévitable», résume Henry Markram.
Ajoutant la démonstration à la parole, le charismatique chercheur évoque alors les résultats du Blue Brain Project, prélude au HBP lancé en 2005 à l’EPFL. En 2008, son équipe annonçait être parvenue à recréer virtuellement une colonne corticale de rat, soit l’entrelacement des 10 000 neurones constituant cette structure de 1 mm3 qui se répète à l’envi dans le cortex. Mieux, les scientifiques ont réussi à faire «s’allumer» ce réseau, autrement dit à lui insuffler ce qui correspondrait à une activité électrophysiologique. «On peut alors, sur cette base, faire moult hypothèses sur le fonctionnement de cette colonne, dit le chercheur, à l’aide de simulations animées. Ce que l’on vise au final, c’est développer des théories de fonctionnement générales, que l’on pourrait appliquer à d’autres zones du cerveau.» Pour simuler celui de l’homme, qui contient 100 milliards de neurones, la tâche s’avère toutefois d’un autre ordre. «Nous y parviendrons d’ici à dix ans», assure Henry Markram.
En y mettant à chaque présentation plus ou moins de gants, le neurobiologiste explique à quoi serviront ces travaux: «Il existe 560 maladies du cerveau; aucune n’est comprise dans ses détails. L’industrie pharma tente de développer des médicaments, mais de manière empirique.» Deux milliards de personnes étant concernées, l’enjeu est énorme. «Nous allons développer des solutions concrètes pour traiter ces affections», disait Henry Markram en 2009 sur le site TED.com . Plusieurs journalistes assurent l’avoir entendu déclarer en mai 2011, lors de la présentation des six projets FET, qu’il serait possible de venir à bout de la maladie d’Alzheimer «d’ici à dix ans». «Nous développons les outils qui permettront d’avancer vers une meilleure connaissance de ces pathologies», tempère-t-il aujourd’hui.
C’est là que le bât a commencé à blesser ses homologues neuroscientifiques. Dénonçant des promesses sans fondement, ils s’en prennent maintenant à la méthode. «Ce que nous montre votre modèle, c’est de la foutaise! Rien ne dit que l’activité que vous observez dans votre colonne veut dire quelque chose», s’est emporté Larry Abbot, de l’Université Columbia à New York, spécialiste mondial de ce domaine, qui n’a pas voulu détailler ses propos à la presse.
Rodney Douglas, lui, s’est montré moins timide: «Le problème, c’est qu’avec une telle simulation vous pouvez représenter aussi bien la vérité que la fantaisie. Car la méthode est agnostique de ce qu’elle fait. Il y a une différence entre une activité observée dans un réseau de neurones sur ordinateur – ce que tout le monde peut faire – et une activité qui a du sens», en produisant des outputs sur la base d’inputs. Le professeur à l’Institut de neuroinformatique de l’EPF de Zurich est un critique de la première heure du HBP. Il poursuit: «C’est comme si vous observez l’activité électrique d’un ordinateur. Si vous ne savez pas d’emblée qu’il effectue des opérations selon des codes précis, vous ne pourriez pas immédiatement interpréter ce qu’il fait. Bien sûr, on sait ce qu’il fait, vu qu’on l’a construit. Or, concernant le cerveau, on voit bel et bien une activité entre les neurones, mais pour l’heure on reste incapable de comprendre les principes de base qui conduisent tel patron d’activité neuronale à générer telle action…»
Pour Alexandre Pouget, professeur de neurosciences à l’Université de Genève (Unige), le problème se situe dans la démarche. «Le seul cortex contient 1 million à 1 milliard de neurones, chacun ayant 10 000 points de contact (synapses). Il existe 4 à 10 neurotransmetteurs, et 10 à 100 types de canaux ioniques à travers lesquels ils s’activent, etc. Au final, il y a au moins 10 000 milliards de variables.» En résumé: «Il y a bien plus de paramètres à inclure dans le modèle que de données provenant de mesures biologiques. On peut donc faire dire quasi n’importe quoi au modèle…» Ce que montre la simulation du HBP serait une activité anarchique: «Comme de l’épilepsie.»
Henry Markram connaît cette critique, mais tient sa réponse toute prête: «Il est naïf de croire que tous ces 10 000 milliards de paramètres sont toujours modulables. Il existe, dans cette simulation, des règles d’exclusion et des contraintes biologiques liées au fonctionnement des neurones, qui font que ce nombre diminue fortement.»
Cela dit, «même s’il s’agit d’un beau travail d’agglomération de données, il n’y a, dans cette reconstruction de bas niveau, rien qui se rapproche d’une activité correspondant à un comportement», reprend Alexandre Pouget, qui participait au HBP, mais confie en être sorti «après avoir compris ce que c’était». Or «c’est bien cela, le but que poursuivent tous ceux qui veulent comprendre le fonctionnement du cerveau».
«Ce n’est pas parce que vous ne voyez pas dans cette simulation ce que vous souhaiteriez voir que cette dernière est inutile», rétorque le chercheur de l’EPFL. Et de détailler sa dernière découverte: «Nous avons montré que la localisation exacte des points de connexion entre les neurones peut varier, mais le fonctionnement du réseau dans son entier ne change pas. C’est cette distribution statistique des synapses qui pourrait expliquer pourquoi le cerveau est plastique», autrement dit pourquoi une de ses aires, devenue déficiente, peut être suppléée par une autre. «Expliquer le comportement, c’est l’étape ultime. Nous n’y prétendons pas pour l’instant. Pour cela, il faut des fondations solides, plaide-t-il. Si l’on assemble tous les éléments correctement, quelque chose – l’intelligence, la conscience? – va émerger. Et sinon, nous corrigerons chaque niveau. Il y avait, jusque-là, une forte tradition à créer des modèles dans l’objectif de reproduire une fonction. Or c’est exactement ce que nous ne faisons pas.» Car, selon lui, cette première méthode ne mène à rien.
Henry Markram l’admet: pour arriver à ses fins, il lui faudra disposer d’un ordinateur surpuissant capable d’exaflops (milliard de milliards d’opérations par seconde). Une telle machine n’existe pas encore, mais pourrait être disponible vers 2018. Et d’ajouter: «Avec ces simulations, il sera possible de faire moins d’expérimentations animales, car celles-ci seront mieux ciblées.» Christian Lüscher, neurobiologiste à l’Unige, en doute: «On disait aussi, avec l’arrivée de l’ordinateur, qu’on utiliserait moins de papier. Or c’est le contraire, car on imprime tout… Ici, de même, on voudra vérifier expérimentalement toutes les simulations…» Quant au premier argument, c’est Rodney Douglas qui montre son scepticisme: «On connaît depuis des décennies le réseau formé par les 302 neurones du ver C. elegans, mais on peine toujours à le simuler sur ordinateur. Ainsi, la puissance informatique n’est pas cruciale. Le HBP en a uniquement besoin pour traiter le nombre incroyable de paramètres introduits dans son modèle.»
Alexandre Pouget, comme Rodney Douglas, en est convaincu: avant de s’éparpiller avec de telles simulations, «il faut faire un sérieux effort pour établir une théorie sur le fonctionnement du cerveau. Il faut formaliser mathématiquement ce que fait cette «machine» si puissante, comme l’a fait jadis Alan Turing avec l’ordinateur, avant que ses prototypes puissent être construits. Il faut travailler sur les algorithmes d’apprentissage des systèmes d’intelligence artificielle; on défriche encore dans ce domaine.» Bref, suivre plusieurs axes simultanément.
Or, chez ceux qui ne sont pas impliqués dans le HBP, on craint que cet unique et vaste projet n’accapare toutes les ressources financières de la communauté neuroscientifique en Suisse et n’empêche de soutenir une multitude de jeunes chercheurs desquels pourraient foisonner des idées inédites. Au plus la moitié du milliard d’euros promis aux deux projets FET lauréats sera en effet allouée par l’UE, l’autre part restant à la charge des pays hôtes; il se murmure que la Suisse devrait contribuer à hauteur de dizaines de millions par année si le HBP était choisi début 2013. «Les fonds européens ne viendront en réalité que compléter des projets déjà en route ou soumis en Suisse, rétorque Henry Markram. Et, s’il ne se fait pas en Suisse, le HBP se concrétisera de toute manière à l’étranger. L’Allemagne ou l’Espagne sont prêts à nous accueillir.»
Observateur à ce colloque pour la classe politique, le conseiller national et professeur honoraire à l’EPFL Jacques Neyrinck se dit, lui, «favorable à concentrer les forces et à soutenir massivement un tel projet».
Content d’avoir suscité un si large débat d’idées sous l’égide de la SCNAT, qu’il préside, Thierry Courvoisier déplore ces chamailleries, «car les chercheurs des neurosciences, qui se frottent aux très grands projets, devraient moins polémiquer et davantage construire ensemble. Car tout ce que l’on a entendu aujourd’hui suit, intellectuellement, le même objectif, si louable.»