Regrouper toutes les données environnementales et les faire interagir dans un superordinateur: c’est l’«Ultimate Earth Project», coimaginé par Philippe Gillet, de l’EPFL. Il répond à un appel à idées de l’UE pour les grandes initiatives à 1 milliard d’euros
Nom de code: «Ultimate Earth Project», qu’on traduit par «Projet de Terre ultime». Objectif: simuler le fonctionnement de la Terre entière, en tenant compte de tous les secteurs qui la caractérisent, soit son atmosphère, sa biosphère, sa géosphère, son hydrosphère, sa cryosphère (régions des glaces)…
C’est l’initiative colossale proposée par un consortium, qui s’est réuni le 15 avril 2016 et qui est mené par deux chercheurs, John Ludden, directeur du British Geological Survey, ainsi surtout que Philippe Gillet, géophysicien et vice-président de l’EPF de Lausanne. Un projet qui, selon ce dernier, devrait «enfin permettre de considérer et traiter la planète dans sa globalité». Comment? «En agrégeant toutes les données scientifiques collectées durant des décennies dans les domaines précités pour les insérer dans un immense simulateur informatique.»
Cette description n’est pas sans rappeler un autre programme d’envergure similaire: le Human Brain Project (HBP), pensé aussi à l’EPFL, et qui ambitionne de regrouper toutes les connaissances sur le cerveau pour, à terme, reproduire son activité à l’aide de superordinateurs de conception inédite. La ressemblance ne s’arrête pas là, puisque ces deux projets s’inscrivent dans le cadre des «FET Flagships» (vaisseaux) scientifiques voulus par la Commission européenne, soit des grands plans sur dix ans dotés d’un milliard d’euros devant permettre d’assurer un leadership du Vieux Continent dans des secteurs clés. Le HBP a été choisi dans la première vague, en 2013. Et l’Ultime Earth Project, déposé sous l’égide du Natural Environment Research Council britannique, est l’une des 27 propositions qui font suite à un appel à idées lancé en février par l’UE en vue d’une possible deuxième salve. A ce stade, il ne s’agit pas d’un projet de l’EPFL, mais du «bébé» de plusieurs scientifiques parmi lesquels se trouve son vice-président.
Participation du public
«Pour prétendre vivre de manière durable, et permettre aux décideurs et aux industriels de prendre des décisions adéquates pour assurer la sécurité, la gestion des ressources, ou contrer les impacts des catastrophes naturelles, il faut développer une compréhension globale du système Terre», explique Philippe Gillet. Jusqu’à aujourd’hui, des milliers de scientifiques ont œuvré de manière compartimentée: les meilleurs satellites d’observation de la Terre ont été lancés, les systèmes de senseurs les plus fins ont été installés aux quatre coins du globe, les modèles prédictifs les plus évolués ont été mis au point, mais cela à chaque fois dans un domaine d’étude précis. «Il s’agit maintenant de faire parler ensemble toutes ces données, de les faire interagir», dit le géophysicien. L’ambition de l’Ultimate Earth Project est ainsi de développer une plate-forme de simulation qui intègre tous les aspects de l’évolution de la Terre, et qui devienne une ressource unique mais ouverte à toute la communauté scientifique.
Le projet vise de plus à tirer parti des données générées également par les particuliers. Nombre d’entre eux s’équipent par exemple d’une petite station météo, dont les mesures, même de qualité variable, ont aussi de la valeur. Philippe Gillet admet que «le succès d’un tel projet passera inévitablement par une standardisation et une harmonisation de toutes ces données. Il y a là, c’est vrai, un énorme travail informatique à réaliser.» Enfin, «il y aura aussi des retombées économiques, la gestion de ces informations devant être prise en charge par des entreprises».
Le vice-président de l’EPFL le reconnaît: l’Ultimate Earth Project n’est pas la seule initiative du genre. Aux Etats-Unis, le projet Earth Cube, lancé en 2011 par la National Science Foundation, vise le même objectif, ou presque. «Notre approche veut développer une cyberinfrastructure servant de support générique aux géosciences, détaille l’un de ses responsables, Lee Allison, de l’Arizona Geological Survey à Tucson. Nous mettons l’accent sur un petit nombre d’«outils de base» pour développer des applications, et sur des activités pour lier ces efforts. Le potentiel pour un simulateur planétaire global pourrait émerger de cela, mais nous n’en avons encore vu aucune preuve.» Une approche dite «bottom up», souvent propre au mode de pensée américain, que Philippe Gillet respecte, mais à laquelle il préfère une vision «top down»: «Tout le monde travail dans son coin. Il est temps d’avoir une vision plus large et intégrée.»
Deux autres projets «phares»
Au Japon, voici quinze ans que tourne l’Earth Simulator Center, un supercalculateur utilisé surtout pour mener des simulations en sismologie et en météorologie ou climatologie. En novembre, lors d’un colloque tenu à Buenos Aires, des résultats ont été présentés. Arthur Charpentier, mathématicien à l’Université du Québec, à Montréal, y a assisté et se dit impressionné: «Dans leurs modèles climatiques, les chercheurs japonais sont parvenus à une résolution spatiale excellente, de 5 km, alors que la granulométrie habituelle qu’on utilise est de 200 à 250 km. De plus, ces modèles incluaient aussi des données géophysiques, et permettent de simuler l’évolution sur des régions parfois exclues, comme les pôles. C’est donc intéressant.»
Philippe Gillet ne dit pas le contraire, mais souligne que ce projet travaille par segment et en vase clos, et non de manière intégrée en tenant compte de toutes les données existantes en géosciences. «En fait, ils sont arrivés trop tôt par rapport à ce domaine du Big Data», estime-t-il.
Enfin, en 2013, Bob Bishop, ancien directeur de la firme Silicon Graphics, a fondé à Genève l’International Center for Earth Simulation (ICES), avec la même idée que l’Ultimate Earth Project de l’EPFL, école à laquelle il est d’ailleurs rattaché. «L’ICES n’a toutefois jamais pu développer son idée, qui est bonne, car il n’a pas réussi à lever les fonds nécessaires», indique le climatologue Martin Beniston, de l’Université de Genève, appelé à faire partie du comité d’experts. Philippe Gillet reconnaît d’ailleurs sans ambages s’être inspiré des plans de l’ICES pour sa nouvelle proposition.
Va-t-on donc assister à une bataille des «simulateurs terrestres», comme on assiste à une course aux «cerveaux artificiels» (entre la Chine, les Etats-Unis et l’Europe)? Pour Andrea Thorpe, scientifique de l’observatoire américain NEON destiné à prévoir les actions nécessaires pour faire face aux impacts des changements climatiques, «il s’agit plutôt d’un défi commun, tant chaque projet doit apprendre des autres puisque tous sont partis sur des bases différentes».
Philippe Gillet, lui, est moins conciliant: «Oui, c’est une course pour l’Europe, car elle possède le savoir-faire dans ces domaines du Big Data, il serait dommage qu’elle le perde [dans le domaine de l’environnement]. Car ces initiatives parallèles vont accélérer les activités dans ce domaine.» Et d’insister sur le fait que l’expérience acquise dans le Human Brain Project donne un certain poids à cette nouvelle proposition: «L’on a montré qu’on peut le faire avec le cerveau, pourquoi ne pourrait-on pas avec la Terre?»
Scepticisme attendu
Si cette légitimité affichée fait un peu débat dans le secteur des sciences de la Terre – l’EPFL n’étant pas en pointe dans ce domaine –, les experts contactés par Le Temps reconnaissent qu’avoir déjà érigé un projet tentaculaire, le HBP, est un atout. Ils se posent toutefois d’autres questions de détail sur la pertinence de ces «simulateurs de planète». «J’ai l’impression que ceux-ci pourront être utiles, notamment dans la prédiction des grands phénomènes, tel El Niño, dit d’abord Arthur Charpentier. Mais, pour moi qui travaille dans la simulation de la gestion des risques sur les bâtiments, par exemple, il restera impossible de prévoir les rafales de vent, ou le nombre de tempêtes hivernales sur une période de cinq ans.» Martin Beniston, lui, se demande si «le fait de coupler divers modèles de plusieurs domaines géoscientifiques ne fera pas s’additionner aussi les incertitudes qui sont intrinsèquement liées à chacun d’eux, au risque d’avoir un produit final inutilisable». Mais il entrevoit aussi des applications concrètes: «Nous pourrions par exemple étudier comment la tectonique des plaques a influencé les paléoclimats.»
Comme il l’explique dans sa proposition, Philippe Gillet s’attendait à susciter un certain scepticisme semblable à celui qui a accompagné l’éclosion du Human Brain Project. Mais il rétorque d’une réponse toute faite: «Nous avons aujourd’hui la technologie pour nous lancer. Si on ne commence pas maintenant, on ne fera jamais rien.»