INFO CLIMAT
Changement climatique
Les thèmes abordés ici sont l'environnement, l'écologie et le développement durable. Les articles sont classés chronologiquement.

  • Juin 2018
  • Juillet 2018
  • Août 2018
  • Septembre 2018
  • Octobre 2018
  • Novembre 2018
  • Décembre 2018
  • Janvier 2019
  • Février 2019
  • Mars 2019
  • Avril 2019
  • Mai 2019
  • Juin 2019
  •  Avril 2019
    Lundi 29/04/19 - La destruction de la nature, une menace pour l'Homme autant que le réchauffement

    Le message lancé lundi à l'ouverture d'une réunion mondiale sur la biodiversité est clair: la destruction de la nature menace l'Homme "au moins autant" que le changement climatique et mérite donc autant d'attention pour éviter des impacts dévastateurs.

    Scientifiques et diplomates de plus de 130 pays sont réunis jusqu'à samedi à Paris pour adopter la première évaluation mondiale des écosystèmes depuis près de 15 ans, un sombre inventaire d'une nature pourtant vitale pour l'humanité.

    "Les preuves sont incontestables: notre destruction de la biodiversité et des services écosystémiques a atteint des niveaux qui menacent notre bien-être au moins autant que les changements climatiques induits par l'Homme", a déclaré Robert Watson, président de Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES).

    Le groupe d'experts a travaillé pendant trois ans sur un rapport de 1.800 pages qui devrait devenir la référence scientifique en matière de biodiversité, comme le sont ceux du Giec pour le climat.

    Si le mot "biodiversité" semble parfois bien abstrait, il concerne toutes les espèces animales ou végétales vivant sur la planète, y compris l'espèce qui se met elle-même en danger en détruisant la nature: l'Homme. Et l'Homme ne peut vivre sans cette nature qui lui rend des services inestimables, des insectes pollinisateurs aux forêts et océans absorbant le CO2, en passant par les médicaments ou l'eau potable.

    Alors comme pour le climat, "ce mois d'avril 2019 peut marquer le début d'un +tournant parisien+ similaire pour la biodiversité et les contributions de la nature aux populations", a estimé M. Watson, en référence à l'accord de Paris, en 2015.

    Beaucoup espèrent que cette évaluation sera le prélude à l'adoption d'objectifs ambitieux lors de la réunion en 2020 en Chine des Etats membres de la Convention de l'ONU sur la diversité biologique (COP15).

    Quasiment aucun des 20 objectifs précédemment définis pour 2020, qui visent une vie "en harmonie avec la nature" d'ici 2050, ne seront atteints, selon le projet de synthèse du rapport obtenu par l'AFP, projet qui sera discuté, amendé et adopté ligne par ligne par les délégués avant sa publication le 6 mai.

    "Le patrimoine environnemental mondial (...) est en train d'être altéré à un niveau sans précédent", met en garde ce texte.

    Un quart des 100.000 espèces évaluées -- portion minime des 8 millions estimées sur Terre-- sont déjà menacées d'extinction, sous pression de l'agriculture, de la pêche, de la chasse, ou encore du changement climatique.

    Mais "une accélération rapide imminente du taux d'extinction des espèces" se profile, selon le projet de rapport: entre 500.000 et un million devraient être menacées, dont "beaucoup dans les prochaines décennies".

    - "Modifier notre consommation" –

    Des projections en accord avec ce que décrivent depuis des années certains scientifiques: le début de la 6e "extinction de masse", la première depuis l'arrivée des hommes sur la planète.

    Le texte fait clairement le lien entre les deux menaces majeures que sont le réchauffement et les atteintes à la nature, identifiant certaines causes similaires, en particulier les pratiques agricoles et la déforestation, responsables d'environ un quart des émissions de CO2 mais aussi de graves dommages directs aux écosystèmes.

    Le tout sur une planète de plus en plus peuplée dont les habitants consomment de plus en plus.

    "Votre expertise collective doit nous permettre de nous doter d'objectifs précis", a plaidé lundi après-midi le ministre français de la Transition écologique François de Rugy devant les experts réunis au siège de l'Unesco.

    "Il ne faut pas seulement modifier la production agricole, il faut aussi modifier notre consommation. Par exemple, un régime alimentaire bien équilibré est bon pour notre santé et aussi bon pour la planète", a expliqué à l'AFP Paul Leadley, un des auteurs du rapport.

    Mais vu l'ampleur des réformes à mettre en place, qui impliquent une véritable transformation de nos modes de vie, les résistances risquent d'être encore plus fortes que pour la lutte contre le changement climatique.

    "Il pourrait y avoir des difficultés avec certains pays. Nous ne savons pas comment le Brésil va réagir, avec le nouveau gouvernement (de Jair Bolsonaro). Nous ne savons pas ce que les Etats-Unis pensent de cette évaluation", note ainsi Günther Mitlacher, de WWF, qui décrit aussi une division Nord-Sud semblable à la géopolitique climatique.

    Avec notamment des pays africains très demandeurs d'actions parce qu'"ils voient que leur population dépend des ressources naturelles", ajoute-t-il.

    Source illustrée : ww.capital.fr avec l'AFP


    28/04/19 - Transition écologique: Macron crée de nouveaux comités, mais il en existe déjà… 60

    Lors de sa conférence de presse de jeudi, le président a annoncé la mise en place d’une convention citoyenne et d’un Conseil de défense écologique. Or plusieurs dizaines d’instances consacrées au climat existent déjà, et un certain nombre sont des coquilles vides.

    Si certains écolos, comme le député Matthieu Orphelin, conviennent que le Conseil de défense écologique promis par le chef de l’État lors de sa conférence de presse de jeudi pourrait, sous certaines conditions, s’avérer « utile », beaucoup s’interrogent sur l’idée de la Convention citoyenne - qui regrouperait 150 citoyens tirés au sort et amenés à proposer des solutions pour la transition écologique.

    Un énième « comité Théodule », comme dirait le général de Gaulle ? Fin novembre, au tout début de la crise des Gilets jaunes et de la fronde contre la taxe carbone, Macron avait déjà annoncé un Haut conseil pour le climat présidé par la climatologue Corinne Le Quéré et placé sous l’autorité du Premier ministre.

    Coquilles vides

    Or, si l’on se réfère à la liste exhaustive des 387 commissions et instances délibératives recensées dans les annexes du projet de loi de finances pour 2019, on constate qu’il existe déjà… une bonne soixantaine de comités chargés de la transition énergétique ! Certains sont très spécialisés, comme le Conseil national des déchets, le Conseil national de l’air ou la Commission des téléphériques. Mais d’autres instances sont plus généralistes, comme le Comité d’experts de la transition écologique (8 membres, 21 réunions et un coût modeste de 6000 € depuis 2015), le Conseil économique du développement durable (27 membres, 45 réunions et 6900 € depuis 2015), et surtout le Conseil national de la transition écologique (50 membres, 25 réunions et 3000 € depuis 2015).

    « C’est trop, on s’y perd ! Aucune lisibilité pour le grand public. Certaines de ces instances sont même clairement des coquilles vides, elles ne servent à rien », admet sans ambages un conseiller ministériel. Au chef de l’État, donc, de faire mentir ses détracteurs sur l’utilité de cette Convention citoyenne qui verra le jour en juin.

    Source: www.leparisien.fr - Rédaction: Olivier Beaumont


    25/04/19 - Allons-nous connaître le même sort que les dinosaures ?

    « Pourquoi les dinosaures se sont-ils éteints ? » Chez les paléontologues comme chez les enfants férus de dinosaures, il y a consensus : un astéroïde de 10 km de diamètre s’est écrasé il y a quelque 66 millions d’années sur l’actuelle Amérique centrale. Cette chute a provoqué un nuage de poussière et de fumée : en se répandant dans la haute atmosphère, il a obstrué le soleil, refroidi la Terre et détruit la couche d’ozone, qui protège la vie des rayonnements cosmiques nocifs.

    Ces effets ont duré plus d’une décennie, dévastant sur Terre plantes et planctons. Des ravages qui ont rapidement remonté la chaîne alimentaire, tuant d’abord les grands herbivores, incapables de se procurer suffisamment de nourriture, puis les carnivores, qui se sont vite trouvés dans la même situation. Une proportion ahurissante des espèces s’est alors éteinte : 75 % d’entre elles ont disparu – y compris tous les dinosaures « non-aviaires » (qu’on distingue des oiseaux, dinosaures eux aussi). Cet événement, baptisé « extinction Crétacé-Tertiaire », est l’une des cinq plus grosses extinctions connues au cours des 500 derniers millions d’années.

    Une conjonction d’événements

    D’autres événements dramatiques coïncident toutefois avec la disparition des dinosaures. À peu près au même moment, en Inde centrale, une quantité colossale de volcans ont craché plus d’un million de kilomètres cubes d’une lave mélangée à du soufre et du dioxyde de carbone : la chaleur de ce magma a modifié le climat et provoqué des pluies acides dans le monde entier. Entre temps, un ralentissement de l’activité tectonique sous-marine a conduit le niveau de la mer à une vitesse jamais égalée dans l’histoire de la planète : un phénomène qui a dévasté les écosystèmes côtiers.

    Cette conjonction d’événements a conduit à quelques débats assez passionnés pour déterminer la cause « réelle » de l’éradication des dinosaures. D’autant plus qu’à d’autres époques, des événements tout aussi dramatiques sont survenus sans qu’ils semblent avoir causé autant de dégâts.

    Un changement profond, complexe et interconnecté

    De nouveaux éléments suggèrent que tous ces événements étaient peut-être interconnectés et qu’on ne peut se contenter d’expliquer l’extinction du dinosaure comme un simple processus au cours duquel un phénomène malheureux est soudainement tombé du ciel bleu et clair, tuant tout sur son passage. Il s’agirait plutôt de changements profonds, complexes et interconnectés aux systèmes globaux qui soutiennent la vie.

    Vers la fin de la période crétacée, par exemple, la planète a connu une restructuration des écosystèmes terrestres, qui les a rendus plus vulnérables à un effondrement catastrophique. Cette recomposition a pu être provoquée par de multiples modifications évolutives et écologiques liées au changement climatique, par la prédominance croissante des plantes à fleurs et par les fluctuations dans la diversité et l’abondance de certains groupes de dinosaures.

    Cette complexité n’est pas non plus inhabituelle dans les extinctions de masse. Pour chacune des cinq grandes catastrophes mondiales, il existe quantité de causes possibles. Astéroïdes, volcans, changement climatique (refroidissement et réchauffement), l’évolution de nouvelles espèces telles que des plantes profondément enracinées qui ont transformé pour la première fois de la roche nue en un sol riche, et même les effets d’étoiles explosant.

    Astéroïdes, micro-organismes, volcans et méthane

    La plus grosse des extinctions massives, dite la « grande extinction », paraît encore plus complexe. Survenu à la fin du Permien-Trias, il y a 250 millions d’années, cet événement a tué 90 % des espèces sur Terre. Et l’on compte pas moins de sept événements catastrophiques associés à cette période dans l’histoire géologique. Pour n’en citer que quelques-unes : l’évolution de nouvelles souches de micro-organismes, un impact d’astéroïdes et une immense zone d’activité volcanique dans l’actuelle Sibérie – entrée en éruption pendant un million d’années.

    Mais les principaux changements se seraient produits dans les eaux. Le fond des océans émettait d’importantes quantités de méthane, les courants océaniques stagnaient, les niveaux de dioxyde de sulfure, en augmentation, causaient la mort du phytoplancton – ensemble des organismes végétaux vivant en suspension dans l’eau –, et les niveaux d’oxygène diminuaient.

    Sachant cela, on est surtout surpris d’apprendre que 10 % des espèces ont survécu, plutôt que de savoir que 90 % se sont éteintes !

    Temps précaires pour l’humanité

    Que cela implique-t-il pour la période que nous vivons aujourd’hui, qualifiée fréquemment de « sixième extinction » ?

    Au Centre pour l’étude des risques existentiels, à l’Université de Cambridge, nous nous heurtons souvent au problème de nouvelles menaces, mondiales et « sans précédent ». Certaines d’entre elles, comme les risques liés aux armes nucléaires ou à l’intelligence artificielle, peuvent s’apparenter à des astéroïdes tombés du ciel, et on nous demande souvent lesquelles nous inquiètent le plus. Ce que l’étude des précédentes extinctions de masse nous enseigne, c’est que cette question est sans doute mal formulée.

    La vie de l’humanité est bien plus précaire que l’on ne le croie. Elle dépend d’un grand nombre de systèmes globaux, depuis l’environnement qui nous fournit en nourriture, en eau, en air pur et en énergie, jusqu’à l’économie mondiale qui offre des biens et des services, où nous le souhaitons et quand nous le souhaitons.

    En se penchant sur nos connaissances historiques et géologiques, il apparaît clair que de tels systèmes peuvent facilement basculer d’une phase à une autre, pour passer rapidement, et parfois irrévocablement, de la stabilité au chaos. Les scientifiques ont déjà identifié comment cela se produirait en cas de phénomène tels que des « points de basculement climatiques » – où les effets du changement climatique commencent à s’autoalimenter et ne sont plus seulement le fruit de l’action humaine –, l’effondrement de l’écosystème et l’hyperinflation – où des institutions économiques auparavant stables cessent de fonctionner et où la monnaie perd sa valeur.

    Une adaptation incertaine de la biosphère aux changements

    Un autre enseignement de ces événements passés est qu’aucune loi de la nature n’empêche ces transformations de s’étendre à l’échelle mondiale ou de devenir catastrophique. Poussés assez loin, les systèmes globaux peuvent indéniablement s’effondrer dans une spirale mortelle, où les dommages causés à une espèce, un écosystème ou un processus environnemental généreront des problèmes pour les autres, créant une rétroaction positive qui accélère le changement et le rend autosuffisant.

    En effet, tandis que l’hypothèse de Gaïa, très populaire, suggère que les systèmes globaux agissent pour promouvoir la stabilité générale de notre planète, il n’y a pas de preuve convaincante que la biosphère s’ajuste aux changements pour soutenir le maintien d’une vie complexe.

    Selon une étude récente, l’une des raisons pour lesquelles la vie semble rare sur d’autres planètes est que son émergence ne garantit en rien son développement. Sur ces planètes, la vie peut apparaître mais non se développer en raison de conditions trop hostiles. Et il n’est pas impossible que la Terre se retrouve un jour dans une telle situation.

    Il n’y a pas non plus de raison pour que les systèmes que nous avons nous-mêmes conçus soient moins fragiles. Nombre de nos institutions ont montré qu’elles étaient entièrement indifférentes au bien-être humain ; tant qu’elles peuvent servir les intérêts d’une maximisation du profit à court terme, de la participation électorale et d’autres objectifs, finalement inutiles, elles le font.

    Espèces spécialisées vs généralistes

    Tous ces éléments ne constituent pas forcément que des mauvaises nouvelles pour l’humanité. Certains théoriciens suggèrent que les effets catastrophiques d’une extinction de masse ont tendance à évincer les « espèces spécialisées » les plus adaptées à la période, et laissent les « espèces généralistes » les plus flexibles survivre, voire s’épanouir sous de nouvelles formes. Nous pouvons donc peut-être nous réconforter du fait que les humains se soient révélés des généralistes par excellence, capables de s’adapter pour survivre – sans forcément prospérer –, à tous les habitats de la Terre, et même dans l’espace.

    Mais nous devrions également réfléchir au fait qu’une grande partie de cette flexibilité nous vient des technologies que nous avons créées, et non de notre biologie. Non seulement ce sont ces mêmes technologies qui nous conduisent à pousser toujours plus loin nos systèmes globaux, mais elles sont rapidement en train de dépasser les limites de notre propre compréhension, tant elles se font complexes et sophistiquées.

    En réalité, les utiliser et les maintenir requiert désormais une connaissance immense qui pourrait faire de nous des individus bien adaptés mais composant désormais à une espèce spécialiste. Et ce n’est pas vraiment une bonne nouvelle.

    Source + illustrations : theconversation.com - Auteurs: Simon Beard Senior Research Associate, Centre for the Study of Existential Risk, University of Cambridge - Lauren Holt Research Associate, Centre for the Study of Existential Risk, University of Cambridge - Paul Upchurch Professor of Palaeobiology, UCL
    Traduit de l’anglais par Nolwenn Jaumouillé



    25/04/19 - Transition énergétique: la Suède, un modèle qui peut inspirer la France ?

    Le 9 avril 2019, l’Agence internationale de l’énergie (AIE) a publié un rapport sur la transition énergétique suédoise. Et si le pays nordique fait l’objet d’une attention particulière de la part de l’AIE, c’est parce qu’il est devenu un véritable champion de l’énergie verte. Avec une consommation bien contrôlée et une production électrique décarbonée, la Suède est devenue le pays membre de l’AIE qui a la plus faible part d’énergies fossiles dans sa consommation d’énergie primaire. De quoi inspirer ses voisins européens.

    Transition énergétique de la Suède: « une économie sobre en carbone »

    Dans son rapport du 9 avril 2019, l’AIE est largement revenue sur les clés de la réussite de la transition énergétique en Suède. Le pays fait désormais figure de modèle : il est parvenu à revoir son système de consommation énergétique pour rationaliser sa production et réduire son empreinte carbone. De plus, le nucléaire, la biomasse et l’hydroélectricité assurent une grande part de la production énergétique. Enfin, le pays s’est également converti à la chaleur renouvelable. Ainsi, la consommation d’énergie est restée stable depuis le début du siècle, alors que le PIB national a augmenté de 16% entre 2007 et 2017.

    Aussi, la Suède a affiché un taux d’émissions de CO2 particulièrement faible au regard de la moyenne mondiale. D’après une étude de Nature Climate Change, la Suède est un exemple à suivre au même titre que le Royaume-Uni, qui bénéficie selon Corinne Le Queré de “l’effet de la limitation du charbon“. La Suède se classe donc en seconde position, derrière la Suisse, dans le classement des pays industrialisés qui émettent le moins de gaz à effet de serre. Selon le rapport de l’AIE, le modèle suédois est une réussite, et il “ouvre la voie vers une économie sobre en carbone.”

    L’électricité au service d’un mix énergétique bas carbone

    L’exception énergétique suédoise repose largement sur un modèle où l’électricité prédomine. Tout comme la France, la Suède a fait le pari de l’électricité pour couvrir ses besoins énergétiques. La part d’électricité dans sa consommation finale d’énergie représentait 32,7% en 2017. C’est plus qu’en France, où l’électricité pèse pour à peine un quart de notre consommation finale d’énergie.

    Et tout comme en France, la filière nucléaire est au cœur de la production électrique domestique. Le nucléaire représente environ 40% du mix électrique, ce qui la place dans le top 10 des pays les plus nucléarisés au monde. Le reste de son mix électrique est également axé sur une stratégie bas-carbone qui privilégie les énergies renouvelables. Puisque la Suède jouit de nombreuses ressources hydrauliques, mais elle dispose aussi d’importantes ressources forestières pour la biomasse, tandis que l’éolien se développe progressivement.

    Le modèle de production électrique suédois s’avère constituer une ressource énergétique fiable, et même profitable. Non seulement le pays est autonome pour son approvisionnement électrique, mais il est même devenu un exportateur net d’électricité. En 2017, il a exporté 19 TWh d’électricité dans l’interconnexion qui relie les pays nordiques.

    Transports : la Suède anticipe déjà l’après-pétrole
    Malgré cet élan d’électricité verte, les énergies fossiles sont encore bien présentes en Suède. Le rapport de l’AIE le montre bien : le prochain défi à relever se trouve du côté de l’industrie et des transports. Le secteur des transports est encore largement tributaire du pétrole. Désormais, le pays compte sur l’électrification du secteur des transports pour améliorer son empreinte carbone. Par ailleurs, la Suède a aussi était parmi les premier pays à adopter la taxe carbone. Elle est aujourd’hui à un niveau record de 114 euros par tonne de CO2.

    En parallèle, le pays soutient aussi le développement des biocarburants. Avec l’Allemagne, la Suède est le pays européen qui a le plus diversifié sa consommation de biocarburants. Le pays consomme du bioéthanol, du biodiesel et utilise aussi du biogaz carburant.


    23/04/19 - Au Groenland, les glaciers fondent de plus en plus vite. Et "ça fait peur"

    Une nouvelle étude révèle l'accélération majeure de la fonte glaciaire au Groenland depuis huit ans.

    Mesurer la fonte des glaces au Groenland ou en Antarctique est un exercice relativement précis en 2019, grâce à un arsenal de satellites, de stations météo et de modèles climatiques sophistiqués. Les scientifiques savaient aussi le faire assez bien pour les années 1990 et 2000, mais les estimations des décennies précédentes étaient jusqu'à présent peu fiables, car les satellites et autres technologies de mesures étaient moins avancés.

    Un changement à une vitesse effrayante

    Dans une étude parue lundi 22 avril 2019 dans les Compte-rendus de l'Académie américaine des sciences (PNAS), des chercheurs ont recalculé la perte de glaces depuis 1972, date de la mise en orbite des premiers satellites Landsat ayant photographié régulièrement le Groenland. "Quand on regarde sur plusieurs décennies, il vaut mieux s'asseoir sur sa chaise avant de regarder les résultats, parce que ça fait un petit peu peur de voir à quelle vitesse ça change", dit à l'AFP le glaciologue français Eric Rignot, à l'Université de Californie à Irvine, coauteur de l'étude avec des collègues en Californie, à Grenoble, Utrecht et Copenhague. "C'est aussi quelque chose qui affecte les quatre coins du Groenland, pas juste les parties plus chaudes au Sud".

    Les glaciologues disposent de trois méthodes pour mesurer la fonte glaciaire. Des satellites mesurent tout simplement l'altitude - et ses variations - grâce à un laser : si un glacier fond, le satellite voit son altitude baisser. Une seconde technique consiste, depuis 2002 grâce à des satellites de la NASA, à mesurer les variations de gravité terrestre : les montagnes ne bougeant (presque) pas, ce sont les mouvements et transformations de l'eau qui les expliquent.

    Enfin, les scientifiques ont développé des modèles dits de bilan de masse : ils comparent ce qui s'accumule sur le Groenland (pluie, neige) à ce qui en sort (rivières de glace), et calculent ainsi ce qui reste. Ces modèles, confirmés avec des mesures de terrain, sont devenus très fiables depuis le milieu des années 2000, dit Eric Rignot - de l'ordre de 5 à 7% de marge d'erreur, contre 100% il y a quelques décennies.

    La glace fond six fois plus vite

    L'équipe a utilisé ces modèles pour "remonter dans le temps" et reconstruire en détails où en était la glace du Groenland dans les années 1970 et 1980. Le peu de données dont ils disposaient pour cette période (photos satellites de moyenne résolution, photos aériennes, carottages de neige et autres observations de terrain) a permis d'affiner le modèle. "On a ajouté un petit morceau d'histoire qui n'existait pas", ajoute Eric Rignot.

    Source + photo: www.sciencesetavenir.fr/nature-environnement avec l'AFP


    16/04/19 - Nucléaire: une multiplicité de scénarios pour tenter d’imaginer le futur de la filière

    Le nucléaire occupe une place très importante en France – où 75 % de l’électricité est produite grâce à cette énergie – et pose des questions majeures, qu’il s’agisse de penser sa place dans le futur mix électrique ou les modalités de gestion des matières et déchets radioactifs qui l’accompagne.

    Mais les discussions menées dans le cadre de la récente Programmation pluriannuelle de l’énergie (PPE) ont finalement peu abordé ces enjeux. Le débat public qui s’ouvre ce mercredi 17 avril sur la gestion des matières et déchets radioactifs sera peut-être l’occasion d’aller plus loin.

    58 réacteurs à eau pressurisés (REP) dits de « génération 2 » fonctionnement actuellement en France et produisent la grande part de l’électricité hexagonale. Parmi ces réacteurs, 19 ont été mis en service avant 1981 et atteindront leur durée de vie théorique de 40 ans dans les 3 prochaines années.

    L’avenir de la filière nucléaire représente une question centrale, susceptible d’impacter durablement l’ensemble des acteurs – producteurs d’électricité, gestionnaires de réseau de distribution, fournisseurs d’énergie et consommateurs. Ce sont en fait tous les citoyens français qui sont concernés.

    Imaginer le futur du nucléaire

    Les décisions d’investissement relatives au secteur de l’électricité peuvent engager le pays pour des dizaines, voire des centaines d’années, et ce futur demeure évidemment incertain. Dans un tel contexte, les démarches prospectives sont un moyen de se projeter dans le futur et d’identifier, même partiellement, les possibles conséquences de choix présents.

    Ce type d’approche nécessite au préalable d’identifier puis d’analyser les différentes trajectoires possibles afin de les évaluer et, éventuellement, de les hiérarchiser.

    Le futur du nucléaire est caractérisé par un spectre des possibles relativement large : il varie notamment selon l’évolution de la puissance installée et le rythme de déploiement des nouvelles technologies (celle des EPR, dits de « génération 3 » ou celle des RNR, dits de « génération 4 »).

    Compte tenu de toutes les incertitudes relatives au devenir de la filière nucléaire, les recherches s’appuient sur des outils de simulation ; le « scénario électronucléaire » constitue l’un des principaux moyens. Peu connu du grand public, il diffère des scénarios énergétiques mobilisés pour alimenter les réflexions de la Programmation pluriannuelle de l’énergie (PPE). Le scénario nucléaire constitue une brique élémentaire du scénario énergétique et part d’une description fine des installations nucléaires et de la physique qui les gouverne. En pratique, scénarios énergétique et nucléaire peuvent être complémentaires : les sorties du premier constituant les hypothèses du deuxième ; les résultats du deuxième permettant d’analyser plus finement les trajectoires du premier.

    L’étude de scénarios nucléaires vise à étudier et analyser une ou des trajectoires d’évolution d’un parc du point de vue des bilans matières, c’est-à-dire du suivi de l’évolution des matières radioactives (uranium, plutonium, produits de fission, etc.) dans les usines nucléaires. Elle s’appuie généralement sur un outil de modélisation complexe qui gère plusieurs échelles spatiales (de la particule élémentaire jusqu’au parc) et temporelles (inférieure à la microseconde pour certaines réactions nucléaires jusqu’à plusieurs millions d’années pour certains déchets).

    À partir de la définition précise d’un parc et de son évolution au cours du temps, le code de simulation calcule l’évolution de la masse de chaque élément d’intérêt, radioactif ou non, dans toutes les installations nucléaires. Ces informations peuvent ensuite servir de base pour produire des données plus exploitables relatives à la gestion des ressources et des matières recyclées, à la radioprotection, etc.

    L’émergence de nouveaux acteurs

    Longtemps réservés aux institutionnels ou industriels de la filière, les processus de construction de scénarios se sont progressivement ouverts aux chercheurs académiques, sous l’impulsion majeure de la loi Bataille de 1991 puis de la loi Birraux de 2006, relative à la gestion des matières et déchets radioactifs. Cela a permis une diversification du panel d’acteurs impliqués dans la production, l’évaluation, mais aussi l’usage des scénarios.

    Au-delà des acteurs historiques (EDF et CEA en particulier), des chercheurs du CNRS ou universitaires (physiciens principalement et plus récemment économistes) ainsi que des représentants de la société civile, se sont emparés de ces questions en produisant leurs propres scénarios.

    Du côté des utilisateurs aussi, des évolutions notables ont eu lieu. Si, avant les lois Bataille et Birraux, les questions nucléaires étaient débattues quasi-exclusivement entre les acteurs du nucléaire et le pouvoir exécutif, promouvant l’image de questions confinées au « secret des cabinets ministériels », ces textes ont structuré la mise à l’agenda de ces questions au travers d’arènes plus ouvertes et publiques, notamment dans les sphères académiques et législatives.

    Elles ont ainsi créé des Commissions nationales d’évaluation, composées de douze membres choisis sur propositions de l’Académie des sciences, de l’Académie des sciences morales et politiques et de l’Office parlementaire d’évaluation des choix scientifiques et technologiques. Les études de scénarios produites par les institutionnels, industriels ou académiques sont évaluées par ces commissions, donnant lieu à un rapport annuel et public, transmis aux parlementaires.
    Cette ouverture à un panel plus large d’acteurs a eu des effets sur les pratiques de scénarisation. Elle a abouti à un mouvement de diversification des scénarios, et des hypothèses sur lesquelles ils sont construits.

    Une variété de scénarios

    Parmi les scénarios construits par les institutionnels ou les industriels du nucléaire dominent, aux dires de ces mêmes acteurs, des propositions « réalistes » : ces scénarios s’appuient sur des retours d’expérience issus de la filière nucléaire. Ils mettent en jeu des technologies déjà conçues ou exploitées et s’appuient majoritairement sur des hypothèses de poursuite du nucléaire, à une puissance installée constante (voir à ce propos le rapport CEA de 2015).

    Les scénarios proposés par le monde de la recherche tendent à s’affranchir de l’obligation de « réalisme industriel » et à explorer des futurs en rupture avec l’existant. On peut citer les travaux menés sur la transmutation en ADS (réacteur piloté par accélérateur), les études de conception de RSF (réacteur à sel fondu), parfois qualifiés de réacteurs « exotiques », ou encore les études relatives au cycle thorium. Une étude récente a également analysée l’impact du recyclage du plutonium dans des réacteurs de technologie actuelle, dans le cadre d’une réduction significative de la part du nucléaire, voire de la sortie du nucléaire d’ici 2050.

    On le voit, ces scénarios académiques sont souvent élaborés avec l’objectif de déconstruire les rhétoriques dominantes, dans une logique de débat.

    Les scénarios électronucléaires jouent ainsi incontestablement le rôle d’« objet-frontière ». Ils offrent l’opportunité à des communautés d’acteurs aux connaissances et intérêts différents, voire opposés, de se rencontrer, de confronter leurs visions du futur, de se structurer ou même de coopérer. Ce faisant, ils favorisent une ouverture du « champ des possibles », et finalement l’innovation, à travers une plus grande diversité de scénarios produits.

    Face aux incertitudes inhérentes au monde du nucléaire, cette diversité apparaît aussi comme la possibilité d’une plus grande robustesse ou fiabilité des scénarios produits, leur mise en discussion obligeant les acteurs à expliciter, voire à justifier, les hypothèses, outils et critères mobilisés, encore souvent implicites.

    Débattre des scénarios

    La façon dont ces différents scénarios pourraient soutenir des décisions « éclairées » reste toutefois l’objet de controverses.

    La complexité du système à modéliser implique en effet des simplifications qui produisent des biais difficilement quantifiables dans les données de sortie. Ces biais concernent aussi bien les données techniques qu’économiques et sont souvent utilisés, à juste titre, pour contester les résultats des scénarios et les recommandations qu’ils peuvent soutenir.

    Comment dès lors s’assurer de la robustesse des scénarios produits ?

    Deux stratégies s’opposent : faut-il s’atteler à construire des scénarios simples ou simplifiés, dans un souci de les rendre compréhensibles par le plus grand nombre (notamment les politiques), au risque de négliger des variables importantes et de « biaiser » les décisions ? Ou faut-il produire des scénarios eux-mêmes complexes, plus fidèles aux processus en jeu et à leurs incertitudes, au risque de les rendre largement « opaques » aux décideurs, et plus largement aux citoyens invités à prendre part au débat public ?

    Aujourd’hui, les scénarios restent encore trop peu débattus en dehors des cercles d’experts. Mais souhaitons que le débat public organisé sur la gestion des matières et déchets radioactifs constitue une excellente occasion de faire davantage entrer ces questions « dans le champ de la démocratie », pour reprendre les termes de Christian Bataille.

    Source: theconversation.com - Auteur: Stéphanie Tillement, Sociologue, IMT Atlantique – Institut Mines-Télécom & Nicolas Thiolliere, Enseignant-Chercheur en physique des réacteurs et scénarios associés, IMT Atlantique – Institut Mines-Télécom


    08/04/19 - Une entreprise suisse annonce des batteries lithium à très forte densité

    La société suisse Innolith annonce avoir créé une batterie au lithium avec une densité de 1000 Wh/kg. A titre de comparaison, la densité des batteries Tesla tourne autour de 250 Wh/kg, et pourrait passer prochainement à 330 Wh/kg.

    Les "exploits de laboratoires" sont nombreux dans le domaine de l'énergie, mais rares sont ceux qui passent justement le stade du labo pour être mis en production. C'est pourtant ce qu'espère Alan Greenshields, le co-fondateur de la société Innolith en Suisse, qui annonce avoir créé une batterie au lithium d'une densité de 1000 Wh/kg.

    Pour vous donner un ordre d'idée de la chose, dites-vous qu'une batterie d'environ 450 kg chez Tesla donne 100 kWh de "réserve". Si vous prenez le même poids de batterie mais avec la technologie Innolith, vous obtenez 400 kWh, soit quatre fois plus. Et, forcément, une autonomie multipliée par 4 (sur le papier, en tout cas).

    Une batterie de citadine avec une telle densité permettrait à l'auto d'effectuer quasiment un millier de kilomètres sur une charge, ce qui est évidemment phénoménal.

    Innolith ne donne pas trop de détails sur sa batterie si ce n'est que l'électrolyte utilisé habituellement dans les batteries au lithium est ici remplacé par un autre électrolyte (toujours liquide) mais non-organique, beaucoup plus stable et moins inflammable. La durée de vie de la batterie en serait également considérablement augmentée.

    Pour l'heure, Innolith a déjà franchi un cap en faisant tourner une telle batterie aux Etats-Unis comme source d'alimentation et de stockage pour la société PJM Grid. Quand la verrons-nous dans une auto ? Probablement pas avant cinq ans, au mieux, selon le fondateur.

    Une telle batterie pose en tout cas un nouveau problème : comment recharger autant de kWh rapidement ? Plus les capacités (et les densités) vont augmenter, plus la tâche sera compliquée et les bornes de recharge coûteuses.

    Source: www.caradisiac.com - Rédaction:
    Audric Doche



    07/04/19 - Depuis quelques années, la fonte du Groenland ralentit

    Depuis quelques années maintenant, le plus imposant glacier du Groenland semble bénéficier d’un répit dans son retrait précipité entamé au cours des années 1990. En effet, depuis 2016 les mesures satellitaires ont révélé un épaississement ainsi qu’une avancée du front glaciaire. Une évolution à contre-courant de la tendance générale. L’inlandsis groenlandais continuant dans son ensemble à perdre de la masse à grande vitesse.

    Le Jakobshavn Isbrae est un glacier situé sur la côte centre-ouest du Groenland. Il s’agit du glacier qui s’écoule le plus rapidement de la calotte et qui draine le volume de glace le plus important. Durant les années 1990, il s’est déstabilisé. Il a alors entamé une phase d’amincissement marquée, laquelle a été accompagnée d’un recul du front glaciaire. Entre 2000 et 2010, le Jakobshavn Isbrea a contribué à lui seul pour environ 1 millimètre à la hausse du niveau moyen des mers.

    Toutefois, à partir de 2013-2014, les observations satellitaires ont mis en évidence un ralentissement de cet amincissement. Entre 2016 et 2018, le glacier s’est même épaissi de plusieurs dizaines de mètres tout en voyant son front s’étendre vers l’océan*. Dans le même temps, l’inlandsis groenlandais dans son ensemble continuait pourtant à perdre de la masse à un rythme effréné. Une particularité régionale qui a été étudiée dans un papier paru le 25 mars 2019 dans la revue Nature Geoscience.

    « Au début, nous n’y croyions pas », indique Ala Khazendar, auteur principal de l’étude. « Nous avions supposé que le Jakobshavn continuerait à se comporter à peu près comme il l’a fait au cours des 20 dernières années », poursuit-il.

    Le rôle des courants océaniques

    La dégradation du Jakobshavn Isbrae initiée dans les années 1990 a été attribuée à l’arrivée d’eau anormalement chaude – en particulier sous la surface – dans la baie de Disko. Une baie située à l’est de la mer de Baffin. L’intrusion de ce courant a provoqué une fusion rapide à la base de la langue de glace, conduisant à une déstabilisation du glacier qui s’est ensuite propagée vers l’intérieur des terres. Les eaux ont continué à se réchauffer dans la région les années qui ont suivi, accentuant le retrait.

    La situation prend une tournure inattendue à partir de 2013-2014, lorsque la température de l’océan près du glacier chute. Une chute estimée à 2 °C sur la période 2014-2016 dans la baie Disko, à 150 mètres de profondeur. Il faut retourner dans les années 1980 pour retrouver de telles valeurs. En conséquence, l’eau en contact avec la base flottante du Jakobshavn Isbrae a vu sa capacité d’érosion être sensiblement réduite. De ce fait, les conditions sont devenues – temporairement – plus favorables, d’où l’avancée du front glaciaire et l’épaississement observés.

    Une amélioration qui ne durera pas

    Les auteurs retracent l’origine du refroidissement local à des pertes radiatives océaniques anormalement élevées au sud du Groenland. Fortement refroidies, les eaux ont ensuite été transportées par les courants vers la baie de Disko. Une fluctuation qui résulte de la variabilité associée à l’oscillation nord-atlantique. Il s’agit d’un régime de circulation des vents propre au bassin atlantique et qui alterne entre différentes phases. L’amélioration dont bénéficie le glacier depuis quelques années n’est donc que temporaire, et ne pourra compenser les pertes enregistrées au cours des 20 années précédentes.

    « Ce refroidissement va passer », précise Ala Khazendar. « Quand cela se produira, le glacier se retirera encore plus vite qu’avant ».

    Un des enseignements principaux de l’étude est la nécessité de prendre en compte le couplage entre la glace, l’océan et l’atmosphère dans la simulation de l’évolution des glaciers et des calottes. « Nos conclusions soulignent la nécessité d’inclure la variabilité océanique et atmosphérique dans les projections de la contribution future du Jakobshavn Isbrae à l’élévation du niveau de la mer. Cette conclusion s’ajoute aux éléments de preuve fournis par l’Antarctique, selon lesquels (…) les forçages “externes” continuent de moduler le taux de retrait ou de progression »,peut-on lire dans le papier en guise de conclusion.

    * Notons que le bilan de masse est toujours négatif – il y a donc toujours perte nette de masse. Mais à un rythme sensiblement moins soutenu.

    Source illustrée: sciencepost.fr - Rédaction: Damien Altendorf, rédacteur scientifique


    01/04/19 - Ce que la couleur des océans révèle du changement climatique

    Une équipe de chercheurs américains de l’Institut de technologie du Massachusetts (MIT), vient de montrer que la couleur de l’océan révélée par satellite pourrait être utilisée comme signature du changement climatique

    Tout le monde connaît ces images de tourbillons de bleus et de verts qui parent les océans du monde vus du ciel. Ces formes et couleurs étonnantes sont liées à la présence de milliards de plantes microscopiques, regroupées sous le nom de phytoplancton. L’activité de ces organismes varie selon les conditions ambiantes : ensoleillement, température, courants… avec une incidence directe sur leur aspect vu du ciel.

    Nous allons voir ici comment les chercheurs mettent en relation cette activité avec le changement climatique.

    Le phytoplancton, puissant émetteur d’oxygène

    Les océans sont peuplés d’organismes qui dérivent au gré des courants et qui forment ce que l’on appelle le plancton marin. Tout comme les plantes terrestres, certains de ces organismes réalisent la photosynthèse : grâce à l’énergie lumineuse, ils sont capables de transformer le carbone inorganique (et en particulier le dioxyde de carbone, CO2, présent dans l’atmosphère) en matière organique et en oxygène.

    Ce plancton « végétal », ou phytoplancton, est ainsi responsable de la production de près de la moitié de l’oxygène que nous respirons. Il joue ainsi un rôle central dans les flux de carbone à l’échelle globale, et par conséquent dans la régulation du climat de notre planète. Son autre grand rôle est bien sûr d’approvisionner en nourriture l’ensemble des réseaux alimentaires marins et les pêcheries.

    La couleur du phytoplancton, principalement constitué de microalgues unicellulaires, reflète son contenu pigmentaire. Ainsi, une forte teneur en chlorophylle lui confère une couleur verte, tout comme celle contenue dans les feuilles des plantes terrestres.

    Cependant, la composition pigmentaire varie d’un groupe d’organismes à un autre. Ainsi certaines sont plutôt brunes (comme les diatomées) alors que d’autres sont plutôt vert bleuté (comme les cyanobactéries) ou encore rouge orangé (comme certains dinoflagellés toxiques). Enfin, certaines d’entre elles fabriquent également des structures calcifiées (comme les coccolithophores, à l’origine des gisements calcaires) ce qui leur confère une couleur plus blanchâtre.

    Le phytoplancton pisté par satellite

    Une manière d’étudier la dynamique du phytoplancton marin à grande échelle repose sur l’utilisation de satellites en rotation autour de la terre, qui mesurent la proportion de lumière que la surface de l’océan renvoie vers l’espace, appelée réflectance. Vue de l’espace, notre planète semble bleue car elle est recouverte à 70 % d’eau, et les molécules d’eau ont tendance à absorber la partie rouge du spectre lumineux et à renvoyer la partie bleue.

    En effet, la couleur, qu’elle soit perçue par l’œil humain ou par un satellite, dépend des longueurs d’onde qui composent la lumière. Ainsi, les microalgues qui présentent une forte teneur en chlorophylle absorbent les parties bleues et oranges/rouges du spectre lumineux et renvoient une lumière verte que nos yeux peuvent percevoir. Lorsque ces microalgues sont très abondantes, leur présence est également visible depuis l’espace.

    Grâce à des algorithmes spécifiques, la couleur des océans, et en particulier la réflectance mesurée à la surface des océans par les satellites, permet d’estimer la concentration en chlorophylle et d’en déduire des estimations de la production primaire par le phytoplancton marin.

    Les propriétés optiques des océans simulées

    Les chercheurs du MIT signataires de l’étude ont développé un modèle couplant physique, biogéochimie et écologie, capable de simuler à la fois les propriétés physiques de l’océan (courants, température), les flux de matière (carbone, oxygène, nutriments), et la dynamique des communautés planctoniques (dont la croissance de plusieurs types de phytoplancton, comme les diatomées, les cyanobactéries, ou les coccolithophores). Ce modèle a été utilisé pour simuler les propriétés optiques des océans à l’échelle globale.

    En confrontant la concentration en chlorophylle et la réflectance simulées par leur modèle aux données satellites du projet Ocean Colour Climate Change Initiative (OC-CCI), l’équipe a montré que leur modèle était capable de simuler correctement la réflectance et la couleur de l’eau mesurées actuellement à la surface des océans par satellite. Ces chercheurs ont aussi montré que leur modèle était capable de reproduire la variabilité des données observées par satellite.

    3 °C de plus, le phytoplancton profondément impacté

    Grâce à leur modèle, ces chercheurs ont ensuite testé l’impact du changement climatique sur les propriétés optiques de l’océan, et en particulier sur la réflectance. Pour cela, ils se sont basés sur le scénario climatique RCP8.5 du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC, ou IPCC en anglais). Ce scénario correspond au cas où les émissions de gaz à effet de serre continuent d’augmenter en suivant leur trajectoire actuelle.

    Il s’agit donc d’un scénario pessimiste, mais réaliste. Il prévoit une augmentation moyenne de 3 °C de la température à la surface des océans d’ici 2100, avec une diminution de la concentration en phytoplancton et de la production primaire dans la plupart des océans du globe, mais surtout d’importants remaniements parmi ces populations.

    En effet, même si l’augmentation du taux de CO2 peut favoriser la croissance du phytoplancton dans certaines zones du globe, l’augmentation de la température conduit à un océan plus « stratifié », avec des eaux chaudes en surface qui se mélangeront moins avec les eaux froides des profondeurs, riches en nutriments (contrairement à la surface). Les communautés de phytoplancton, disposant alors de moins de nutriments, seront alors fortement perturbées.

    En estimant la couleur réelle de l’océan à l’horizon 2100, cette étude indique que la couleur de l’océan va changer en réponse au changement climatique, et que le signal le plus fort sera décelable en observant les longueurs d’onde dans la partie bleu vert du spectre lumineux. En effet, l’impact du changement climatique sur les communautés phytoplanctoniques qui peuplent l’océan se traduira plus rapidement par des modifications de la composition de ces communautés que par des modifications de la concentration en chlorophylle.

    En conséquence, les algorithmes actuellement utilisés pour estimer la chlorophylle océanique à partir des données satellites risquent de ne plus être valables d’ici la fin du siècle ! Ces travaux suggèrent que ces algorithmes devront donc continuellement être mis à jour et calibrés à partir des données de terrain, mais aussi que les algorithmes qui prennent en compte à la fois la chlorophylle, la teneur en particules, et en matière organique dissoute à la surface des océans, seraient les plus performants.

    Une première étude qui ouvre de nouvelles pistes

    Bien que ces résultats soient principalement issus de modèles qui, par définition, ne représentent qu’une version simplifiée de la réalité, ils sont corroborés par les observations actuelles. Cette étude est ainsi la première à étudier à l’échelle globale l’impact du changement climatique sur les propriétés optiques des océans en prenant en compte la dynamique des communautés de phytoplancton marin.

    Elle permet également de dégager plusieurs zones d’intérêt pour observer la réponse des océans et du plancton marin au changement climatique, aussi bien à travers le maintien et l’amélioration des méthodes d’observation par satellite de la couleur des océans, que par l’observation à long terme des communautés planctoniques in situ.

    Source + Illustrations + vidéo : Auteur : Sakina-Dorothée Ayata, Maître de conférences en écologie marine, Sorbonne Université

     Tiré à part 

    Le "Journal Communautaire Interactif ©" est une création @picom  - e-mail : journal@j-c-i.com
    Informations légales