Atmosphère - Terre

Discussion dans 'Bibliothèque Wladbladi' créé par titegazelle, 27 Mars 2013.

  1. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113
    Atmosphère
    - Terre -

    L'atmosphère est la couche de gaz qui entoure la terre. L'atmosphère est indispensable à la vie. Elle contient l'air que nous respirons et elle nous protège des rayons dangereux du soleil.


    Astronomie

    L'atmosphère est l'enveloppe gazeuse entourant certains astres, comme l'atmosphère d'une planète ou l'atmosphère stellaire d'une étoile. Dans le cas d'une planète «gazeuse», l'atmosphère désigne la partie de la planète dont la matière est en phase gazeuse. Ainsi :

    * l'atmosphère de Mercure est l'enveloppe gazeuse extrêmement ténue qui s'échappe de la surface de mercure ;

    * l'atmosphère de Vénus est l'épaisse couche gazeuse entourant le globe vénusien ;

    * l'atmosphère de la Terre est la couche gazeuse qui entoure le globe terrestre ;
    - l'atmosphère de la Lune est extrêmement ténue et même insignifiante en comparaison d'autres atmosphères planétaires ;


    * l'atmosphère de Mars est la fine couche gazeuse qui entoure le globe martien ;


    * l'atmosphère de Jupiter est l'épaisse couche gazeuse supérieure de Jupiter ; certains de ses satellites possèdent également une enveloppe gazeuse :
    - l'atmosphère de Io est la fine couche gazeuse qui entoure le globe de cette lune jovienne ;

    - l'atmosphère d'Europe est la fine couche gazeuse qui entoure le globe de cette lune jovienne ;

    - l'atmosphère de Ganymède est la fine couche gazeuse qui entoure le globe de cette lune jovienne ;

    - l'atmosphère de Callisto est la fine couche gazeuse qui entoure le globe de cette lune jovienne ;


    * l'atmosphère de Saturne est l'épaisse couche gazeuse supérieure de Saturne ; certains de ses satellites possèdent également une enveloppe gazeuse :
    - l'atmosphère de Titan est la couche gazeuse qui entoure le globe de cette lune de Saturne ;

    - l'atmosphère de Rhéa est la couche gazeuse ténue qui entoure le globe de cette lune de Saturne ;


    * l'atmosphère d'Uranus est l'épaisse couche gazeuse supérieure d'Uranus ;

    * l'atmosphère de Neptune est l'épaisse couche gazeuse supérieure de Neptune ; un de ses satellites possède également une enveloppe gazeuse :
    - l'atmosphère de Triton est la couche gazeuse entourant Triton ;


    * l'atmosphère de Pluton est la faible couche gazeuse qui englobe la planète Naine Pluton.

    Édition


    Atmosphères est un magazine féminin mensuel, édité par Art de Vivre Editions.

    Mécanique
    - Un moteur atmosphérique est un moteur ne recourant pas à un système de suralimentation en air, par opposition à un moteur suralimenté.



    Musique
    - Atmosphere est un groupe de hip hop américain.

    - Atmosphere est une chanson du groupe de coldwave anglais Joy Division.


    Physique
    - L’atmosphère (atm) est une unité de mesure de la pression.


    Autre sens
    - L'ambiance particulière d'un lieu peut être désigné sous le terme d’atmosphère. Un exemple en est la célèbre tirade du film Hôtel du Nord entre le couple d'acteurs Louis Jouvet et Arletty :
    Lui : «J'ai besoin de changer d'atmosphère»
    Elle : «Atmosphère ! Atmosphère ! Est-ce que j'ai une gueule d'atmosphère ?»




    _______________________
    Nom de la page : Atmosphère
    Source : Article Atmosphère de Wikipédia en français (auteurs)
    Les textes sont disponibles sous
    licence Creative Commons paternité partage à l’identique

    Atmosphère terrestre


    L'atmosphère terrestre désigne l'enveloppe gazeuse entourant la Terre solide. L'air sec se compose de 78,08 % de diazote, 20,95 % de dioxygène, 0,93 % d'argon, 0,039 % de dioxyde de carbone et des traces d'autres gaz. L'atmosphère protège la vie sur Terre en absorbant le rayonnement solaire ultraviolet, en réchauffant la surface par la rétention de chaleur (effet de serre) et en réduisant les écarts de température entre le jour et la nuit.

    Il n'y a pas de frontière définie entre l'atmosphère et l'espace. Elle devient de plus en plus ténue et s'évanouit peu à peu dans l'espace. L'altitude de 120 km marque la limite où les effets atmosphériques deviennent notables durant la rentrée atmosphérique. La ligne de Kármán, à 100 km, est aussi fréquemment considérée comme la frontière entre l'atmosphère et l'espace.

    Description

    La limite entre l'atmosphère terrestre et l'atmosphère solaire n'est pas définie précisément : la limite externe de l'atmosphère correspond à la distance où les molécules de gaz atmosphérique ne subissent presque plus l'attraction terrestre et les interactions de son champ magnétique. Ces conditions se vérifient à une altitude qui varie avec la latitude - environ 60 km au-dessus de l'équateur, et 30 km au-dessus des pôles. Ces valeurs ne sont toutefois qu'indicatives : le champ magnétique terrestre, en effet, est continuellement déformé par le vent solaire. L'épaisseur de l'atmosphère varie donc notablement.

    En outre, comme l'eau des océans, l'atmosphère subit l'influence de la rotation du système Terre-Lune et les interférences gravitationnelles de la Lune et du Soleil. Comme les molécules de gaz, plus légères et moins liées entre elles que les molécules de l'eau de mer, ont de grandes possibilités de mouvement, les marées atmosphériques sont des phénomènes beaucoup plus considérables que les marées océaniques.

    La plus grande partie de la masse atmosphérique est proche de la surface : l'air se raréfie en altitude et la pression diminue ; celle-ci peut être mesurée au moyen d'un altimètre ou d'un baromètre.

    L'atmosphère est responsable d'un effet de serre qui réchauffe la surface de la Terre. Sans elle, la température moyenne sur Terre serait de -18 °C, contre 14 °C actuellement. Cet effet de serre découle des propriétés des gaz vis-à-vis des ondes électromagnétiques.

    Composition chimique détaillée

    Elle a beaucoup varié selon les époques.
    Les gaz de l'atmosphère sont continuellement brassés, l'atmosphère n'est pas homogène, tant par sa composition que par ses caractéristiques physiques.

    La concentration des composants minoritaires, et en particulier les polluants, est très hétérogène sur la surface du globe, car des sources d'émission très locales existent, soit liées à l'activité humaine (usines, air intérieur ou extérieur, etc.) soit à des processus naturels (géothermie, décomposition de matières organiques, etc.).

    [​IMG]
    Évolution des teneurs connues de CO2 de l'atmosphère terrestre.
    Pour rendre ces variations plus visibles, l'échelle temporelle n'est pas linéaire
    Au niveau de la mer, l'air sec est principalement composé de 78,1 % de diazote, 20,9 % de dioxygène, 0,93 % d'argon et de 0,034 % de dioxyde de carbone pour les gaz majeurs. Toutefois, il comporte aussi des traces d'autres éléments chimiques, les gaz mineurs, dont la proportion varie avec l'altitude.
    [​IMG]
    Proportion actuelle des gaz atmosphériques
    (moyennes variant régionalement et saisonnièrement)

    Les gaz à effet de serre majeurs sont la vapeur d'eau, le méthane, l'oxyde d'azote et l'ozone. Les concentrations en dioxyde de carbone s'élèvent, en 2011, à 0,0392 %, soit 392 ppm alors qu'en 1998, elle était de 345 ppm.

    D'autres éléments d'origine naturelle sont présents en plus faible quantité, dont la poussière, le pollen et les spores ainsi que des virus, bactéries.

    De très nombreux polluants et aérosols d'origine industrielle, urbaine et agricole sont aussi présents dans l'air. Ce sont notamment du CO, du CO2, des oxydes d'azote, du chlore (élémentaire ou surtout composés), du fluor (composés), du mercure et du soufre (en composé tel que le SO[SUB]2[/SUB]). Les régions agricoles sont aussi sources de méthane (fermentation des lisiers, rizières), de pesticides (plus ou moins soluble dans l'air ou dans l'humidité de l'air selon leur tension de vapeur, d'azote (issu des engrais). Fusées et avions polluent aussi l'atmosphère par leurs trainées.

    [​IMG]



    Quantité moyenne de vapeur d'eau
    [​IMG]
    ____________________________________
    Ce média est dans le domaine public des États-Unis d’Amérique
    car son auteur est l’administration américaine
    comme précisé dans le code fédéral au Titre 17, Chapitre 1, Section 105.
    ____________________________________


    .......... Structure
     
  2. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113



    Structure


    L'atmosphère est divisée en plusieurs couches d'importance variable : leurs limites ont été fixées selon les discontinuités dans les variations de la température, en fonction de l'altitude. De bas en haut :

    Schéma des couches de l'atmosphère.
    [​IMG]
    Description : Les couches de l'atmosphère
    Date : 13 septembre 2007
    Source : Image:Atmosphere layers.svg by User:Mysid from a NOAA picture
    (http://www.srh.noaa.gov/srh/jetstream/atmos/layers.htm)
    Auteur : NOAA, Mysid and modified and translated by historicair 01:09, 13 September 2007 (UTC)
    Autorisation : Cette image est dans le domaine public
    car son contenu provient du National Oceanic and Atmospheric Administration,
    réalisé par un employé dans le cadre de ses activités professionnelles.

    ___________________________


    - la troposphère : la température décroît avec l'altitude (de la surface du globe à 8-15 km d'altitude) ; l'épaisseur de cette couche varie entre 13 et 16 km à l'équateur, mais entre 7 et 8 km aux pôles. Elle contient 80 à 90 % de la masse totale de l'air et la quasi-totalité de la vapeur d'eau5. C'est la couche où se produisent les phénomènes météorologiques (nuages, pluies, etc.) et les mouvements atmosphériques horizontaux et verticaux (convection thermique, vents) ;
    - la stratosphère : la température croît avec l'altitude jusqu'à 0 °C (de 8-15 km d'altitude à 50 km d'altitude) ; elle abrite une bonne partie de la couche d'ozone ;
    - la mésosphère : la température décroît avec l'altitude (de 50 km d'altitude à 80 km d'altitude) jusqu'à -80 °C ;
    - la thermosphère : la température croît avec l'altitude (de 80 km d'altitude à 350-800 km d'altitude) ;
    - l'exosphère : de 350-800 km d'altitude à 50 000 km d'altitude.


    Troposphère


    La troposphère, du mot grec τρέπω signifiant « changement », est la partie la plus basse de l'atmosphère ; elle commence à la surface et s'étend entre 7 et 8 km aux pôles et de 13 à 16 km à l'équateur, avec des variations dues aux conditions climatiques. Le mélange vertical de la troposphère est assuré par le réchauffement solaire. Ce réchauffement rend l'air moins dense, ce qui le fait remonter. Quand l'air monte, la pression au-dessus de lui décroît, par conséquent il s'étend, s'opposant à la pression de l'air environnant.

    Or, pour s'étendre, de l'énergie est nécessaire, donc la température et la masse de l'air décroissent. Comme la température diminue, la vapeur d'eau dans la masse d'air peut se condenser ou se solidifier, relâchant la chaleur latente permettant une nouvelle élévation de la masse d'air. Ce processus détermine le gradient maximal de baisse de la température avec l'altitude, appelé gradient thermique adiabatique. La troposphère contient grossièrement 80 % de la masse totale de l'atmosphère. 50 % de la masse de l'atmosphère se trouvent en dessous d'environ 5,5 km d'altitude.


    À noter que la partie la plus basse de la Troposphère est aussi appelée Peplos. Cette couche qui trouve sa limite vers 3 km est aussi qualifiée de couche sale en raison de son taux d'impureté très important (aérosol ou nucléus) qui sont des noyaux auxquels viennent se former les gouttes d'eau dans le cas d'un air ayant atteint 100 % d'humidité relative. Cette couche se termine par la péplopause. La présence de cette couche sale explique la quasi absence d'air sur-saturé dans la couche supérieur de la troposphère.

    - Tropopause
    La tropopause est la frontière entre la troposphère et la stratosphère.

    Couche d'ozone


    Bien que faisant partie de la stratosphère, la couche d'ozone est considérée comme une couche en soi parce que sa composition chimique et physique est différente de celle de la stratosphère. L'ozone (O[SUB]3[/SUB]) de la stratosphère terrestre est créé par les ultraviolets frappant les molécules de dioxygène (O[SUB]2[/SUB]), les séparant en deux atomes distincts (de l'oxygène) ; ce dernier se combine ensuite avec une molécule de dioxygène (O[SUB]2[/SUB]) pour former l'ozone (O[SUB]3[/SUB]). L'O[SUB]3[/SUB] est instable (bien que, dans la stratosphère, sa durée de vie est plus longue) et quand les ultraviolets le frappent, ils le séparent en O[SUB]2[/SUB] et en O.
    Ce processus continu s'appelle le cycle ozone-oxygène. Il se produit dans la couche d'ozone, une région comprise entre 10 et 50 km au-dessus de la surface. Près de 90 % de l'ozone de l'atmosphère se trouve dans la stratosphère. Les concentrations d'ozone sont plus élevées entre 20 et 40 km d'altitude, où elle est de 2 à 8 ppm.


    Stratosphère


    La stratosphère s'étend de la tropopause, entre 7–17 km et environ 50 km. La température y augmente avec l'altitude. La stratosphère contient la majeure partie de la couche d'ozone.

    - Stratopause
    La stratopause est la limite entre la stratosphère et la mésosphère. Elle se situe vers 50-55 km d'altitude. La pression représente environ 1/1000 de la pression atmosphérique au niveau de la mer.

    Mésosphère


    La mésosphère, du mot grec μέσος signifiant « milieu », s'étend de 50 km à environ 80–85 km. La température décroît à nouveau avec l'altitude, atteignant −100 °C (173,1 K) dans la haute mésosphère. C'est aussi dans la mésosphère que la plupart des météorites brûlent en entrant dans l'atmosphère.

    - Mésopause
    La température minimale se rencontre à la mésopause, frontière entre la mésosphère et la thermosphère. C'est le lieu le plus froid de la Terre, avec une température de −100 °C (173,1 K).

    Thermosphère


    La thermosphère est la couche atmosphérique commençant vers 80–85 km et allant jusqu'à 640 km d'altitude, la température y augmente avec l'altitude. Bien que la température puisse atteindre les 1 500 °C, un individu ne la ressentirait pas à cause de la très faible pression. La station spatiale internationale orbite dans cette couche, entre 320 et 380 km d'altitude. Comme description moyenne le modèle MSIS-86 est recommande par le Committee on Space Research.

    - Thermopause
    La thermopause est la limite supérieure de la thermosphère. Elle varie entre 500 et 1 000 km d'altitude.

    Ionosphère


    L'ionosphère, la partie de l'atmosphère ionisée par les radiations solaires, s'étire de 50 à 1 000 km et chevauche à la fois la thermosphère et l'exosphère. Elle joue un rôle important dans l'électricité atmosphérique et forme le bord intérieur de la magnétosphère. À cause de ses particules chargées, elle a une importance pratique car elle influence, par exemple, la propagation des ondes radio sur la Terre. Elle est responsable des aurores.

    Exosphère


    L'exosphère commence avec l'exobase, qui est aussi connu comme le «niveau critique», vers 500–1 000 km et s'étire jusqu'à 10 000 km d'altitude. Elle contient des particules circulant librement et qui migrent ou proviennent de la magnétosphère ou du vent solaire.




    .......... Pression et épaisseur
     
  3. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113

    Température de l'atmosphère (en °C) en fonction de l'altitude (en km).
    [​IMG]
    Description : couches de l'atmosphere
    Date : 2007
    Source : Travail personnel
    Auteur : asaphon
    Ce fichier est disponible selon les termes de la licence
    Creative Commons paternité – partage à l’identique 3.0 (non transposée)

    __________________________


    Pression et épaisseur


    La pression atmosphérique moyenne, au niveau de la mer, est de 1 013 hectopascals ; la masse atmosphérique totale est de 5,1480×10[SUP]18[/SUP] kg.

    La pression atmosphérique est le résultat direct du poids total de l'air se trouvant au-dessus du point où la pression est mesurée. La pression de l'air varie en fonction du lieu et du temps, car la quantité et le poids d'air varient suivant les mêmes paramètres. Toutefois, la masse moyenne au-dessus d'un mètre carré de la surface terrestre peut être calculée à partir de la masse totale de l'air et la superficie de la Terre. La masse totale de l'air est de 5 148 000 gigatonnes et la superficie de 51 007,2 megahectares. Par conséquent 5148000/51007,2 = 10,093 tonnes par mètre carré. Ceci est environ 2,5 % inférieur à l'unité standardisée officielle de 1 atm représentant 1 013,25 hPa, ce qui correspond à la pression moyenne, non pas au niveau de la mer, mais à la base de l'atmosphère à partir de l'élévation moyenne du sol terrestre.

    Si la densité de l'atmosphère restait constante avec l'altitude, l'atmosphère se terminerait brusquement vers 7,81 km d'altitude. La densité décroît avec l'altitude, ayant déjà diminué de 50 % dès 5,6 km. En comparaison, la plus haute montagne, l'Everest, atteint les 8,8 km d'altitude, donc l'air est moins de 50 % moins dense à son sommet qu'au niveau de la mer.
    Cette chute de pression est presque exponentielle, ainsi la pression diminue de moitié environ tous les 5,6 km et de 63,2 % [​IMG] tous les 7,64 km (hauteur échelle moyenne de l'atmosphère terrestre en dessous de 70 km). Même dans l'exosphère, l'atmosphère est encore présente, comme on peut le constater par la traînée subie par les satellites.

    Les équations de pression par altitude peuvent être utilisées afin d'estimer l'épaisseur de l'atmosphère. Les données suivantes sont données pour référence :

    • 50 % de la masse de l'atmosphère est en dessous de 5,6 km d'altitude ;
    • 90 % de la masse de l'atmosphère est en dessous de 16 km d'altitude. L'altitude courante des transports aériens commerciaux est de 10 km et le sommet de l'Everest est à 8 848 m au-dessus du niveau de la mer. Dans la région supérieure, où les gaz sont raréfiés, se produisent des aurores et d'autres effets atmosphériques. Le vol le plus élevé de l'avion X-15 a atteint, en 1963, une altitude de 108,0 km.
    Densité et masse

    La densité de l'air au niveau de la mer est d'environ 1,2 kg/m[SUP]3[/SUP] (1,2 g/L). Les variations naturelles de la pression atmosphérique se produisent à chaque altitude et à chaque changement de temps. Ces variations sont relativement faibles dans les altitudes habitées, mais elles deviennent plus prononcées dans l'atmosphère supérieure puis dans l'espace à cause des variations des radiations solaires.

    La densité atmosphérique décroît avec l'altitude. Cette variation peut être modélisée par la formule du nivellement barométrique. Des modèles plus sophistiqués sont utilisés par les météorologues et les agences spatiales pour prédire le temps et l'abaissement progressif de l'orbite des satellites.

    La masse de l'atmosphère est de 5×10[SUP]15[/SUP] tonnes soit 1/1 200 000 la masse de la Terre. D'après le National Center for Atmospheric Research, la «masse totale de l'atmosphère est de 5,1480×10[SUP]18[/SUP] kg avec une variation annuelle due à la vapeur d'eau de 1,2 à 1,5×10[SUP]15[/SUP] kg en fonction de l'utilisation des données sur la pression de surface et la vapeur d'eau. La masse moyenne de la vapeur d'eau est estimée à 1,27×10[SUP]16[/SUP] kg et la masse de l'air sec est de 5,1352 ±0,0003×10[SUP]18[/SUP] kg.»

    Opacité


    Les radiations solaires (ou rayonnement solaire) correspondent à l'énergie que reçoit la Terre du Soleil. La Terre réémet aussi des radiations vers l'espace, mais sur des longueurs d'onde plus importantes invisibles à l'œil humain. Suivant les conditions, l'atmosphère peut empêcher les radiations d'entrer dans l'atmosphère ou d'en sortir. Parmi les exemples les plus importants de ces effets il y a les nuages et l'effet de serre.

    Diffusion des ondes
    Quand la lumière traverse l'atmosphère, les photons interagissent avec elle à travers la diffusion des ondes. Si la lumière n'interagit pas avec l'atmosphère, c'est la radiation directe et cela correspond au fait de regarder directement le soleil. Les radiations indirectes concernent la lumière qui est diffusée dans l'atmosphère. Par exemple, lors d'un jour couvert quand les ombres ne sont pas visibles il n'y a pas de radiations directes pour la projeter, la lumière a été diffusée. Un autre exemple, dû à un phénomène appelé la diffusion Rayleigh, les longueurs d'onde les plus courtes (bleu) se diffusent plus aisément que les longueurs d'onde les plus longues (rouge). C'est pourquoi le ciel parait bleu car la lumière bleue est diffusée. C'est aussi la raison pour laquelle les couchers de soleil sont rouges. Parce que le soleil est proche de l'horizon, les rayons solaires traversent plus d'atmosphère que la normale avant d'atteindre l'œil par conséquent toute la lumière bleue a été diffusée, ne laissant que le rouge lors du soleil couchant.

    Absorption optique
    L’absorption optique est une autre propriété importante de l'atmosphère. Différentes molécules absorbent différentes longueurs d'onde de radiations. Par exemple, l'O[SUB]2[/SUB] et l'O[SUB]3[/SUB] absorbent presque toutes les longueurs d'onde inférieures à 300 nanomètres. L'eau (H[SUB]2[/SUB]O) absorbe la plupart des longueurs d'onde au-dessus de 700 nm, mais cela dépend de la quantité de vapeur d'eau dans l'atmosphère. Quand une molécule absorbe un photon, cela accroît son énergie.

    Transmittance (ou opacité) atmosphérique de la Terre
    à diverses longueurs d'onde et radiation électromagnétique,
    y compris lumière visible.

    [​IMG]
    Description : Opacité électromagnétique (ou transmittance)
    de l'atmosphère en fonction de la longueur d'onde.
    Date : 16 septembre 2012, 15:54:41
    Source : Ce fichier est dérivé de :
    Atmospheric_electromagnetic_opacity.svg Atmospheric electromagnetic opacity.svg
    Auteur : Atmospheric_electromagnetic_opacity.svg: NASA (original); SVG by Mysid.
    derivative work: Hugooguh
    Ce fichier provient de la NASA.
    Sauf exception, les documents créés par la NASA
    ne sont pas soumis à copyright.

    __________________________


    Quand les spectres d'absorption des gaz de l'atmosphère sont combinés, il reste des «fenêtres» de faible opacité, autorisant le passage de certaines bandes lumineuses. La fenêtre optique va d'environ 300 nm (ultraviolet-C) jusqu'aux longueurs d'onde que les humains peuvent voir, la lumière visible (communément appelé lumière), à environ 400–700 nm et continue jusqu'aux infrarouges vers environ 1100 nm. Il y a aussi des fenêtres atmosphériques et radios qui transmettent certaines ondes infrarouges et radio sur des longueurs d'onde plus importantes. Par exemple, la fenêtre radio s'étend sur des longueurs d'onde allant de un centimètre à environ onze mètres. Le graphe ci-dessus représente 1-T (exprimé en %) (T:transmittance)

    Émission
    L’émission est l'opposé de l'absorption, quand un objet émet des radiations. Les objets tendent à émettre certaines quantités de longueurs d'onde suivant les courbes d'émission de leur «corps noir», par conséquent des objets plus chauds tendent à émettre plus de radiations sur des longueurs d'onde plus courtes. Les objets froids émettent moins de radiations sur des longueurs d'onde plus longues. Par exemple, le Soleil est approximativement à 6 000 K (5 730 °C), ses pics de radiation approchent les 500 nm, et sont visibles par l'œil humain. La Terre est approximativement à 290 K (17 °C), par conséquent ses pics de radiations approchent les 10 000 nm (10 µm), ce qui est trop long pour que l'œil humain les perçoive.

    À cause de sa température, l'atmosphère émet des radiations infrarouges. Par exemple, lors des nuits où le ciel est dégagé la surface de la Terre se rafraichit plus rapidement que les nuits où le ciel est couvert. Ceci est dû au fait que les nuages (H[SUB]2[/SUB]O) sont d'importants absorbeurs et émetteurs de radiations infrarouges.

    L’effet de serre est directement lié à l'absorption et à l'émission. Certains composants chimiques de l'atmosphère absorbent et émettent des radiations infrarouges, mais n'interagissent pas avec la lumière visible. Des exemples communs de ces composants sont le CO[SUB]2[/SUB] et l'H[SUB]2[/SUB]O. S'il y a trop de ces gaz à effet de serre, la lumière du soleil chauffe la surface de la Terre, mais les gaz bloquent les radiations infrarouges lors de leur renvoi vers l'espace. Ce déséquilibre fait que la Terre se réchauffe, entrainant ainsi des changements climatiques.

    Circulation


    La circulation atmosphérique est le mouvement à l'échelle planétaire de la couche d'air entourant la Terre qui redistribue la chaleur provenant du Soleil en conjonction avec la circulation océanique. En effet, comme la Terre est un sphéroïde, la radiation solaire incidente au sol varie entre un maximum aux régions faisant face directement au Soleil, situé selon les saisons plus ou moins loin de l'équateur, et un minimum à celles très inclinés par rapport à ce dernier proches des Pôles. La radiation réémise par le sol est liée à la quantité d'énergie reçue.

    Il s'ensuit un réchauffement différentiel entre les deux régions. Le déséquilibre ainsi créé a pour conséquence des différences de pression, qui sont à l'origine des circulations atmosphérique. Celle-ci, combinée aux courants marins, est le moyen qui permet de redistribuer la chaleur sur la surface de la Terre. Les détails de la circulation atmosphérique varient continuellement, mais la structure de base reste assez constante.

    Phénomènes optiques


    La composition de l'atmosphère terrestre la rend relativement transparente aux rayonnements électromagnétiques dans le domaine du spectre visible. Elle est cependant relativement opaque aux rayonnements infrarouges émis par le sol, ce qui est à l'origine de l'effet de serre. Il s'y produit aussi différents phénomènes optiques causés par des variations continues ou non de l'indice de réfraction du milieu de propagation des ondes électromagnétiques.

    Parmi ces phénomènes, les plus notables sont les arcs-en-ciel et les mirages.
    La couleur du ciel diurne, quant à elle, est due à la variation de la diffusion du rayonnement solaire en fonction de la longueur d'onde. Des couleurs inhabituelles s'observent cependant lors des aurores polaires (aurores boréales ou australes), qui résultent de l'interaction entre les particules du vent solaire et la haute atmosphère.

    Historique


    Les premières mesures de l'atmosphère actuelle se sont d'abord déroulées au sol, en plaine puis au sommet des montagnes.
    Le 19 septembre 1648, le beau-frère de Blaise Pascal, Florin Périer constate sur le Puy de Dôme que la pression atmosphérique diminuait avec l'altitude prouvant ainsi la pesanteur de l'air.
    Au XIX[SUP]e[/SUP] siècle, le progrès scientifique permet de faire des mesures depuis des ballons puis des ballons-sondes permettant de découvrir l'existence de la stratosphère en 1899.
    Enfin, les engins spatiaux permettent d'accéder au-delà de l'atmosphère.


    _____________________________________

    Nom de la page : Atmosphère terrestre
    Contenu soumis à la licence CC-BY-SA 3.0
    .
    Source : Article Atmosphère terrestre de Wikipédia en français (auteurs)
    Les textes sont disponibles sous
    licence Creative Commons paternité partage à l’identique
     
  4. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113



    Circulation atmosphérique


    La circulation atmosphérique est le mouvement à l'échelle planétaire de la couche d'air entourant la Terre qui redistribue la chaleur provenant du Soleil en conjonction avec la circulation océanique. En effet, comme la Terre est un sphéroïde, la radiation solaire incidente au sol varie entre un maximum aux régions faisant face directement au Soleil, situé selon les saisons plus ou moins loin de l'équateur, et un minimum à celles très inclinés par rapport à ce dernier proches des Pôles. La radiation réémise par le sol est liée à la quantité d'énergie reçue. Il s'ensuit un réchauffement différentiel entre les deux régions. Ce déséquilibre thermique a pour conséquence la création d'un type particulier de cellules de convection près de l'équateur. Plus loin de celui-ci, la rotation de la Terre influence le trajet de l'air selon la répartition des pressions et les toutes formes de la circulation atmosphérique.


    Caractéristiques de la circulation selon la latitude


    La circulation atmosphérique change continuellement mais la tendance de base est relativement constante. Les dépressions des latitudes moyennes ou les cyclones tropicaux individuels se développent un peu partout selon une prédictibilité parfois proche de la théorie du chaos mais la tendance moyenne est stable.
    On distingue trois zones de circulation des vents entre l'équateur et les Pôles. La première zone est celle de Hadley qui se situe entre l'équateur et 30 degrés N et S où l'on retrouve des vents réguliers soufflant du nord-est dans l'hémisphère nord et du sud-est dans celui du sud : les alizés. Les navigateurs à voile ont depuis longtemps utilisés cette zone de vents réguliers pour traverser les océans. La seconde se situe aux latitudes moyennes et est caractérisée par des systèmes dépressionnaires transitoires sous une circulation d'altitude généralement d'ouest, c'est la cellule de Ferrel. Finalement, les cellules polaires se retrouvent respectivement au nord et au sud des 60-ièmes parallèles nord et sud avec une circulation de surface généralement d'est.
    Entre ces trois zones, à une altitude variant entre 6 et 15 km, on retrouve les courant-jets circulant autour de la planète et qui sont un des précurseurs de la frontogenèse

    Cellules de Hadley

    Le moteur de la circulation atmosphérique dans les tropiques est le réchauffement solaire. À cause de l'inclinaison de 23,5 degrés de l'axe de rotation de la Terre, le Soleil n'est jamais plus qu'à quelques dizaines de degrés du zénith à midi tout au long de l'année dans les tropiques ce qui donne un maximum de réchauffement autour de l'équateur géographique. Cette chaleur est transportée en grande partie dans l'atmosphère sous forme de relâchement de chaleur latente dans les orages tropicaux.
    Edmond Halley, l'astronome célèbre, avait proposé une théorie pour expliquer la présence des alizés. Cependant, sa solution n'expliquait pas pourquoi les vents se dirigeaient vers l'ouest. George Hadley, avocat anglais et météorologue amateur, a proposé une variante en 1735 en décrivant une circulation fermée. Pour expliquer la direction vers l'ouest de la circulation de surface, il a tenu compte de la rotation de la Terre. En effet, une parcelle d'air se dirigeant vers le nord ou le sud, par rapport à un observateur au repos dans l'espace, semble se déplacer avec une composante ouest par rapport à un observateur terrestre parce que ce dernier se déplace vers l'est. Gaspard-Gustave Coriolis reprendra cette idée un siècle plus tard dans sa description des mouvements dans un repère en rotation.

    Le mécanisme de formation des cellules de Hadley se décrit donc ainsi :

    [​IMG]
    Les cellules de Hadley transportent chaleur
    et humidité des tropiques vers les latitudes moyennes.


    Description : Coupe verticale de la cellule climatique de Hadley entre l'équateur et 30 degrés N et S. L'air chaud et humide converge à l'équateur parce que le facteur de Coriolis y est négligeable et que les vents n'y ont pas de direction privilégiée. L'air se déplace alors vers les zones de pression plus basses (4) où ils s'élèvent en formant des orages (1). C'est la zone dite de convergence intertropicale où les précipitations sont très abondantes mais les vents faibles (le pot-au-noir).
    Quand les parcelles d'air chaud et humide atteignent la tropopause (limite entre la troposphère et la stratosphère), à environ 12 à 15 km d'altitude, elles ne peuvent monter plus haut ni ne peuvent rester à cet endroit à cause du flux constant venant des basses couches de l'atmosphère. Par conséquent, elles sont repoussées vers le nord (2a) ou le sud (2b) de l'équateur.
    En s'éloignant de l'équateur, la force de Coriolis augmente ce qui dévie les parcelles vers l'Est (du point de vue d'un observateur terrestre). En se déplaçant vers les Pôles, l'air se refroidit par échange avec l'environnement ce qui éventuellement le rend négativement instable et il commence à descendre (3). Lors de la descente, les parcelles d'air suivent la courbe de gradient thermique adiabatique sèche, ce qui fait qu'elles se réchauffent et que leur humidité relative tombe. Cela se produit autour de 30 à 35 degrés N et S où l'on retrouve la zone de calme subtropical aride dominée par un anticyclone.
    Date : 30 mars 2006, 14:22
    Source : French version of File:HadleyCross-sec.jpg done with WP Paint
    Auteur : Pierre_cb
    Cette image a été (ou est ici-même) mise à disposition dans le domaine public
    par son auteur, Pierre_cb dans le projet Wikipedia francophone.
    Ceci s'applique partout dans le monde.
    Au cas où cela n'est pas possible légalement :
    Pierre_cb donne à toute personne le droit d'utiliser ce document
    dans n'importe quel but, sans aucune condition,
    à moins que de telles conditions soient imposées par la loi.
    _____________________________________________

    Sur l'image, on voit en (4) que l'air chaud et humide converge à l'équateur parce que le facteur de Coriolis y est négligeable et que les vents n'y ont pas de direction privilégiée. L'air se déplace alors vers les zones de pression plus basses (4) où ils s'élèvent en formant des orages (1). C'est la zone dite de convergence intertropicale où les précipitations sont très abondantes mais les vents faibles (le
    pot-au-noir).*

    Quand les parcelles d'air chaud et humide atteignent la tropopause (limite entre la troposphère et la stratosphère), à environ 12 à 15 km d'altitude, elles ne peuvent monter plus haut ni ne peuvent rester à cet endroit à cause du flux constant venant des basses couches de l'atmosphère. Par conséquent, elles sont repoussées vers le nord (2a) ou le sud (2b) de l'équateur.

    En s'éloignant de l'équateur, la force de Coriolis augmente ce qui dévie les parcelles vers l'Est (du point de vue d'un observateur terrestre). En se déplaçant vers les Pôles, l'air se refroidit par échange avec l'environnement ce qui éventuellement le rend négativement instable et il commence à descendre (3). Lors de la descente, les parcelles d'air suivent la courbe de gradient thermique adiabatique sèche, ce qui fait qu'elles se réchauffent et que leur humidité relative tombe. Cela se produit autour de 30 à 35 degrés N et S où l'on retrouve la zone de calme subtropical aride dominée par un anticyclone.

    Finalement, l'air venant de l'anticyclone se dirige vers l'équateur pour compléter le cycle et cette fois, la force de Coriolis le dévie vers l'Ouest, ce sont les alizés qui soufflent du nord-est dans l'hémisphère nord et du sud-est dans celui du sud. Ces cellules sont multiples autour de la Terre et elles ne sont pas alignées exactement avec l'équateur géographique mais plutôt avec l'équateur défini comme le point au zénith du soleil ce qui amène une variation saisonnière vers le nord et le sud de la position de ces cellules. En plus, la différence de réchauffement local et la friction sous deux kilomètres d'altitude changent constamment la position d'une cellule particulière.

    En bordure de ces cellules, les convections jouent un rôle important dans la chimie de l'atmosphère, en contribuant à certains transferts verticaux d'aérosols ou de polluants des basses couches (troposphère) vers les hautes couches, et inversement (pour l'ozone par exemple). Un mécanisme convectif complémentaire, également capable de verticalement transférer des polluants est celui qui se manifeste dans le système «rayonnement infrarouge - cirrus».

    (*) «Pot au noir», est une ceinture, de seulement quelques centaines de kilomètres du nord au sud, de zones de basses pressions entourant la Terre près de l'équateur. Elle est formée par la convergence des masses d'air chaudes et humides anticycloniques provenant des tropiques portées par les alizés. Elle est caractérisée par des mouvements convectifs des cellules de Hadley et, en règle générale, par des formations importantes de cumulonimbus. Cette zone est appelée familièrement «Pot au noir» par les marins. Un «pot au noir» désignait au XIX[SUP]e[/SUP] siècle une situation peu claire et dangereuse.

    Cellule polaire


    La cellule polaire est un système identique à la cellule de Hadley. Même si l'air est plus sec et froid au nord/sud du 60[SUP]e[/SUP] parallèle, il peut subir une circulation fermée convective. Le parcours de l'air se passe sous les 8 km d'altitude car la tropopause n'y dépasse pas ce niveau. L'air descendant est très sec ce qui explique que les Pôles soient des déserts froids. Encore une fois, la force de Coriolis dévie l'air vers l'ouest et un observateur terrestre note des vents du nord-est dans l'hémisphère nord et du sud-est dans l'hémisphère sud.
    Les anticyclones semi-permanents sur la Sibérie, les îles arctiques et l'Antarctique sont une conséquence directe de la cellule polaire ce qui fait que la météorologie de ces régions est relativement stable, contrairement aux dépressions à répétition qui affectent les latitudes moyennes. De plus, cela permet à des dômes très froids de s'installer et où des records de basses températures ont été rapportés (-89,2 °C à la base antarctique Vostok II en 1983 en Antarctique).
    La circulation polaire interagit avec le terrain pour donner des ondes harmoniques longues appelées ondes de Rossby. Ces dernières ont un rôle important dans la trajectoire du courant-jet polaire qui sépare la cellule polaire de celle de Ferrel. L'énergie solaire venant de l'équateur est transférée à la cellule polaire par ce mécanisme et elle peut finalement être distribuée jusqu'aux Pôles.

    La cellule de Ferrel

    La cellule de Ferrel couvre les latitudes moyennes entre 30 et 60 degrés. Elle est nommée en hommage à William Ferrel (1817-1891) qui a cherché à décrire la circulation générale d'ouest qu'on y retrouve. C'est une circulation indirecte, contrairement aux cellules de Hadley et polaire.

    Dans les latitudes moyennes, on retrouve de l'air froid venant des Pôles par la cellule polaire et de l'air chaud venant de l'équateur par la cellule de Hadley. Ces deux types de masses d'air se rencontrent le long d'un ruban thermique plus ou moins continu et intense. Selon la direction des vents au sol, on assiste en certains points au resserrement de ce ruban et à une cyclogénèse dans le flux d'air pour créer des dépressions ce qui pousse l'air chaud vers les Pôles et l'air froid vers l'équateur.


    Dans ces systèmes, l'air chaud et humide rencontrant l'air plus froid doit s'élever non pas par convection mais par forçage dynamique ce qui crée un mouvement vertical synoptique ascendant aidé par la présence d'un courant-jet. Ce mouvement doit être compensé en amont et en aval par un mouvement vertical descendant. Ceci crée donc une succession d'anticyclones et de dépressions le long du ruban thermique. Les vents tournant dans le sens inverse dans les dépressions et les anticyclones, les habitants des latitudes moyennes subissent donc un régime continuellement changeant des vents.


    - Flux zonal
    Toute cette succession de systèmes météorologiques se déplace dans une direction générale d'ouest en est. Le ruban thermique explique cette circulation d'ouest appelée flux zonal. En effet, les vents sont essentiellement le déplacement de l'air des hautes vers les basses pressions, déviés vers la droite dans l'hémisphère nord par la force de Coriolis nord et la gauche dans celui du sud. Le gradient de pression dépend quant à lui de la structure thermique dans la colonne d'air. Plus la différence de température entre deux zones est grande, plus la différence de pression et le vent augmenteront avec l'altitude. Le vent sera parallèle au ruban thermique, car la variation de pression est perpendiculaire à celui-ci.
    Ainsi le courant-jet se forme au-dessus d'un ruban serré de différence de températures que l'on nomme front (front chaud et front froid) et qui sépare les masses d'air froid (vers les pôles) et chaud (vers l'équateur). Comme en moyenne le ruban thermique (appelé zone barocline) est orienté Ouest-Est, le résultat est une circulation générale d'Ouest en Est aux latitudes moyennes.

    - Flux méridional
    Cependant, les différences de friction dans la basse couche de l'atmosphère, comme le passage de l'océan aux montagnes de la côte ouest de l'Amérique, dévient le vent. Cela crée des ondes dans la circulation qui se reflètent en altitude par une circulation qui prend la forme d'un sinus à plusieurs cycles décrit comme ondes de Rossby.
    La portion du flux qui prend alors une direction nord-sud est appelée flux méridional. C'est cette composante du flux qui transfère l'air froid vers l'équateur et l'air doux vers les Pôles. Elle contribue ainsi à l'intensification des dépressions et aux forts changements de température de surface. La position de ce sinus n'est pas stable car il dépend du transfert de températures dans la couche sous-jacente. Il se déplace, se déforme et des tourbillons indépendants s'en détachent.

    Effets locaux


    Les cellules de Hadley, Ferrel et polaire donnent une idée générale de la circulation atmosphérique. Cependant, les effets locaux sont très importants et modulent ces circulations et créent des sous-cellules. Ces dernières sont influencées par la différence de friction des surfaces, par la capacité d'absorption et de relâchement différentielle de chaleur entre les océans et la terre, ainsi que par le cycle diurne d'ensoleillement. Cela joue même à micro-échelle. Par exemple, dans le cas des brises de mer, l'air de la rive réchauffé par le Soleil s'élève et il est remplacé par de l'air plus frais venant de l'eau. Durant la nuit, la terre perd sa chaleur plus rapidement que l'eau et la direction des vents s'inverse.
    À plus grande échelle, ce cycle diurne peut devenir saisonnier ou même pluri-annuel. L'air chaud des continents équatoriaux et du Pacifique Ouest s'élève, se déplace vers l'est ou l'ouest selon les circonstances jusqu'à atteindre la tropopause puis subside dans l'Atlantique, l'océan Indien ou le Pacifique Est plus froids.

    - Circulation de Walker
    La cellule du Pacifique, entièrement océanique, est particulièrement importante. On lui a donné le nom de cellule de Walker en l'honneur de Sir Gilbert Walker, directeur au début du XX[SUP]e[/SUP] siècle des observatoires météorologiques d'Inde. Il essaya de trouver un moyen de prédire les vents de mousson. Bien qu'il ne réussisse pas, son travail le conduit à la découverte d'une variation périodique de pression entre les océans Indien et Pacifique qu'il dénomma l’Oscillation australe. Deux autres cellules identiques se retrouvent près de l'équateur dans l'océan Indien et dans l'Atlantique Sud.
    Le courant de Humboldt, venant de l'Antarctique, refroidit la côte de l'Amérique du Sud. Il y a donc une grande différence de température entre l'Ouest et l'Est de ce vaste océan qui donne lieu à une circulation directe semblable à celle de Hadley. On note de la convection dans la partie ouest, près de l'Asie et de l'Australie et de la subsidence dans un anticylone le long de la côte de l'Amérique du Sud. Ceci crée une forte circulation de retour d'Est qui produit un effet de seiche : le niveau de la mer est de 60 cm plus haut dans le Pacifique Ouest que dans l'Est.
    Le mouvement de l'air dans cette circulation affecte la température dans tout le système ce qui crée cycliquement des hivers inhabituellement chauds ou froids après quelques années. Ceci peut modifier également la fréquence des ouragans


    - El Niño et l'Oscillation australe
    Le comportement de la cellule de Walker est la clé principale pour comprendre le phénomène du El Niño (en anglais ENSO ou El Niño - Southern Oscillation). Si l'activité convective diminue dans le Pacifique Ouest, pour des raisons mal comprises, la cellule s'effondre comme un château de carte. La circulation d'ouest en altitude diminue ou cesse ce qui coupe l'apport d'air froid dans le Pacifique Est et le flux de retour d'est de surface faiblit.
    Cela permet à l'eau chaude empilée dans le Pacifique Ouest de dévaler la pente vers l'Amérique du Sud ce qui change la température de surface de la mer dans ce secteur en plus de perturber les courants marins. Cela change également complètement les systèmes de nuages et de pluviométrie en plus de donner des températures inhabituelles aux deux Amériques, à l'Australie et à l'Afrique du Sud-Est.

    Pendant ce temps dans l'Atlantique, les vents d'altitude d'Ouest qui sont en général bloqués par la circulation de Walker peuvent maintenant atteindre une force inhabituelle. Ces forts vents coupent les colonnes ascendantes d'air humide des orages qui normalement s'organisent en ouragans et ainsi diminuent le nombre de ces derniers.
    L'opposée du El Niño est La Niña. La convection dans le Pacifique Ouest augmente dans ce cas ce qui amplifie la cellule de Walker amenant de l'air plus froid le long de la côte de l'Amérique. Cette dernière donne des hivers plus froids en Amérique du Nord et plus d'ouragans dans l'Atlantique. Parce que l'eau chaude est repoussée vers l'Ouest par l'anticylone, cela permet à l'eau froide des profondeurs de remonter sur la côte de l'Amérique du Sud ce qui donne un meilleur apport de nutriments pour les poissons et amène une pêche excellente. Cependant, le temps demeurant au beau fixe, on note de longues périodes de sécheresse dans la même région.


    Systèmes semi-permanents


    Suivant le relief terrestre, la température de surface de la mer et des courants marins, ainsi que l'ensoleillement saisonnier, certaines régions de la Terre vont avoir une prédominance durant une partie importante de l'année de dépressions ou d'anticyclones sur les cartes montrant la moyenne mensuelle de la pression. Cela ne veut pas dire que ces systèmes soient stationnaires à ces endroits mais plutôt que dans les systèmes d'un certain type y demeurent plus longtemps, y sont plus intenses ou les deux.
    Durant l'hiver de l'hémisphère Nord, des centres anticycloniques, dus au refroidissement intense en surface, s'installent sur le continent nord-américain et en Asie, tel l’anticyclone de Sibérie. En été, ces zones sont beaucoup moins fréquemment dominées par un anticyclone.

    Sur les océans, on retrouve dans la partie descendante de la cellule de Hadley l'anticyclone du Pacifique nord, près d'Hawaï, et l'anticyclone des Açores/Bermudes sur le centre de l'Atlantique nord. Deux centres dépressionnaires se développent en hiver à l'approche des régions arctiques : la dépression d'Islande et la dépression des Aléoutiennes. Ces dernières sont plus diffuses en été alors que les deux anticyclones se renforcent et qu'une dépression thermique se forme sur toute l’Asie centrale et se prolonge en Afrique au-dessus du Sahara.

    Dans l'hémisphère sud à prédominance océanique, ce type de système météorologique semi-permanent est peu développé à cause du manque de contrastes thermiques. Il se forme cependant un anticyclone thermique sur l'Australie en hiver à cause du refroidissement de son large désert intérieur. Sur les océans, on retrouve un anticyclone dans chacun des trois océans dans la partie descendante de la cellule de Hadley : Atlantique Sud à l'Île Sainte-Hélène, Pacifique Sud près de l'Île de Pâques et dans l'océan Indien autour des Mascareignes. Au sud de ces trois systèmes on retrouve une succession de dépressions au nord du continent Antarctique qui sont fameuses pour leurs vents violents et constants (Cinquantièmes hurlants
    )*.


    Nom de la page : Circulation atmosphérique
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Circulation atmosphérique de Wikipédia en français (auteurs)
    Les textes sont disponibles sous licence Creative Commons paternité partage à l’identique
    _____________________________


    *
    Cinquantièmes hurlants
    Les cinquantièmes hurlants (en anglais : Furious Fifties) est le nom attribué aux latitudes situées entre le 50[SUP]e[/SUP] et 60[SUP]e[/SUP] parallèle dans la zone de l'océan Austral, proche de l'Antarctique et étroitement lié aux climats que l'on trouve dans cette région : vents violents et mer souvent grosse.
    [​IMG]

    Description : Routes commerciales empruntées par les navires entre l'Angleterre et l'Australie/Nouvelle Zélande du XVIIIe au XXe siècle. Dessiné par Jérôme BLUM le 22 juillet 2006, inspiré par la version anglaise. La carte de fond est dans le domaine public. Elle est issue du projet Visible Earth de l'observatoire de la Terre de la NASA. L'image originale provient de cette page
    Date et heure : 3 juillet 2006 à 15:26
    Utilisateur : Wagner51
    Ce fichier est disponible selon les termes de la licence
    Creative Commons paternité – partage à l’identique 3.0 (non transposée)




    ..........
     
  5. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113
    Pression atmosphérique

    La pression atmosphérique est la pression qu'exerce le mélange gazeux constituant l'atmosphère considérée, sur Terre : de l'air, sur une surface quelconque au contact avec cette atmosphère.
    Sur la Terre, la pression atmosphérique moyenne au niveau de la mer dépend essentiellement de la masse de l'atmosphère, celle-ci pouvant évoluer avec la masse moyenne des gaz à concentration variable comme la vapeur d'eau. Elle varie autour de l'atmosphère normale, soit 1013,25 hPa.

    La pression atmosphérique se mesure surtout à l'aide d'un baromètre, d'un hypsomètre ou d'un altimètre. Elle a été longtemps mesurée en mm Hg (puis en torr) en raison de l'utilisation courante de baromètre à colonne de mercure. Depuis l'adoption du pascal comme unité de pression, les météorologues utilisent un multiple de cette unité, l'hectopascal (1 hPa = 100 Pa), nouvelle dénomination du millibar (1 bar = 100 000 Pa).

    Variation verticale

    La pression atmosphérique diminue avec l'altitude : elle diminue, exponentiellement, d'un facteur 10 chaque fois que l'on s'élève de 16 km. (ou de moitié à 5500 m) Il est ainsi possible d'utiliser la pression pour mesurer la hauteur, ce qui est le principe de base de l'altimètre utilisé en aéronautique et en alpinisme.
    En météorologie appliquée, la pression est souvent utilisée directement comme coordonnée verticale. On parlera par exemple de la température à 700 hPa. Cette approche a des avantages techniques et elle simplifie certaines équations utilisées en météorologie.

    Stabilité et instabilité

    En règle générale, la pression atmosphérique diminue de moitié à environ 5 500 mètres et la température moyenne de l'atmosphère diminue de 6,5 °C par 1 000 mètres. Cependant ce taux n'est valable que pour une atmosphère normalisée et varie en fait selon le contenu en vapeur d'eau et l'altitude. Ces propriétés peuvent être démontrées rigoureusement si l'on fait l'hypothèse que l'atmosphère est en équilibre (ce qui n'est pas vrai en pratique).
    Lorsque le sol est chauffé par le soleil, par convection, les basses couches de l'atmosphère sont réchauffées et comme l'air chaud est moins dense, l'air réchauffé va avoir tendance à s'élever grâce à la poussée d'Archimède. Si la poche d'air chaud se refroidit moins vite que l'air environnant, cette parcelle d'air va accélérer vers le haut. On est alors en présence d'une masse d'air instable. Dans le cas contraire, l'air en ascension devient plus froid que l'air environnant, le mouvement ascendant va s'interrompre et l'atmosphère est alors stable.

    Le taux de refroidissement de la masse d'air en ascension peut être calculé théoriquement, ou sur un diagramme thermodynamique, par rapport à la température de l'environnement donnée par un radiosondage. Ce calcul repose sur l'hypothèse qu'il n'y a pas d'échange calorique avec l'air extérieur et que le taux de changement de température est différent si l'air est saturé ou pas. Dans le premier cas, la vapeur d'eau condensée est retirée de la masse en ascension.

    Variation horizontale

    Les météorologues analysent les variations horizontales de la pression atmosphérique pour localiser et suivre les systèmes météorologiques : ceci permet de définir les zones de dépressions (pression inférieure à 1 013 hPa), les zones anticycloniques (pression supérieure à 1 013 hPa) et les isobares. En particulier, les dépressions et les creux barométriques dans la pression atmosphérique sont généralement associés au mauvais temps.

    La différence de pression entre deux points de même altitude (ou gradient horizontal de pression) est également la plus importante force motrice du vent : des valeurs de 5 hPa par km ont été observées dans les cyclones les plus violents.
    Afin d'utiliser la pression pour suivre les systèmes météo et estimer la force du vent, il est nécessaire de faire concorder des mesures de pression qui ont été prises à différentes altitudes : en mer, dans les vallées, en montagne. Pour ce faire, on soumet les mesures brutes de pression à un ajustement standardisé. La valeur résultant de cet ajustement est appelée pression au niveau de la mer, ou PNM. Si l'on prend par exemple le cas d'une station située à 100 mètres au-dessus du niveau de la mer, l'ajustement sera effectué en estimant la pression au fond d'un trou fictif, de 100 mètres de profondeur, qu'on aurait creusé à la station.
    Plus précisément, la valeur de la PNM est fonction de la pression mesurée à la station et de la température assignée à la colonne d'air fictive. Pour cette dernière on utilise la moyenne de la température actuelle à la station et de celle mesurée douze heures auparavant. La PNM est une approximation d'une grande utilité, mais il faut se garder de lui donner toute la valeur d'une mesure physique exacte, particulièrement en terrain montagneux. La pression atmosphérique mesurée au niveau de la mer varie autour d'une valeur moyenne de 1 013 hPa.

    La pression mesurée au sol est utilisée pour l'étalonnage et la validation des données en provenance d'instruments météorologiques de mesure à distance. Des mesures précises de pression sont ainsi un fondement nécessaire pour l'observation de la Terre et du climat.

    Valeurs types

    Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue
    • Ouragan de classe 5 : pression au centre inférieure à 920 hPa
    • Ouragan de classe 4 : pression au centre comprise entre 920 et 944 hPa
    • Ouragan de classe 3 : pression au centre comprise entre 945 et 964 hPa
    • Ouragan de classe 2 : pression au centre comprise entre 965 et 980 hPa
    • Ouragan de classe 1 : pression au centre supérieure à 980 hPa
    Ouragan de classe 16 : PRESSION ATMOSPHÉRIQUE DE 235 À 230 HPA

    Valeurs records
    ** Des pressions plus basses encore ont été enregistrées au sein de violentes tornades, mais ces mesures demeurent controversées.
    ** On a attribué une pression minimale de 868,5 hPa, le 23 avril 2006 à 7:15 UTC, au centre du cyclone Monica, lorsqu'il a frappé au nord de Maningrida, en Australie. Cette mesure est non-officielle et controversée.
    _______________________________
    Nom de la page : Pression atmosphérique
    Les textes sont disponibles sous
    _______________________________
    Cyclone Monica
    Le cyclone Monica est un cyclone tropical qui toucha l'Australie pendant la saison des cyclones 2005–2006 de l'hémisphère sud. Il a été classé de force 5. La pression atmosphérique aurait été de 869 hPa, ce qui serait la plus basse pression atmosphérique après celle du typhon Tip en 1979 qui a été mesurée à 870 hPa. Mais ces mesures sont controversées.

    [​IMG]
    Description : Le cyclone tropical Monica s'est formé au large de la côte nord-est de l'Australie le 17 avril 2006. Il s'agit de la même zone où le cyclone Larry s’est formé un mois plus tôt. Le 19 et 20 Avril, le cyclone Monica a traversé la péninsule du Cap York avec des vents plus faibles que Larry et son chemin d'accès dans le nord du Queensland il a fallu bien loin des zones les plus sédentaires. Toutefois, deuxième acte de Monica s'est avéré tout à fait différent. Le cyclone a rassemblé taille et puissance dans le golfe de Carpentaria et se stransforma en une tempête de catégorie 5. Monica sur la partie supérieure du Territoire du Nord, menaçant les collectivités de la Terre d'Arnhem, Kakadu, et la ville de Darwin avec de fortes pluies et des vents très violents. De nombreux services de presse australiens ont comparé Monica en 1974 le puissant cyclone Tracy, qui a sévi à Darwin et la tempête la plus dévastatrice jamais arrivé à l'Australie.
    [​IMG]
    ___________________________
    Nom de la page : Cyclone Monica
     
  6. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113
    Pression normale


    La pression normale est une valeur pratique, en partie arbitraire, de la pression absolue d'expérimentation et de mesure en laboratoire en Physique et en Chimie. Le choix d'une pression normalisée permet des comparaisons commodes entre résultats expérimentaux. Les conditions les plus usuelles, issues des méthodes expérimentales du XIXe siècle, fixent la pression à 1 atmosphère. Toutefois, il existe d'autres définitions de la pression normale.

    Valeur usuelle de la pression normale

    La pression normale est usuellement fixée à 1 atmosphère. Cette valeur a été précisée lors de la Conférence générale des poids et mesures en 1954 comme égale à 101 325 Pa. Elle correspond à la pression d'une hauteur de 760 mmHg (millimètres de mercure) à 0 sous l'accélération normale de la pesanteur (9,80665 m/s).
    Ce choix présente deux avantages :

    • c'est une quantité «ronde» (tout au moins si l'on utilise l'atmosphère comme unité – mais celle-ci est désormais désuète) ;
    • surtout, c'est une pression voisine de la moyenne climatique en Europe et en Amérique du Nord, donc facile à obtenir et à contrôler.
    Autres valeurs de la pression normale

    D'autres valeurs de la pression normale sont définies dans divers domaines scientifiques ou techniques.
    Voir à ce sujet l'article Conditions normales de température et de pression.
    _______________________________
    Nom de la page : Pression normale
    Les textes sont disponibles sous
    _______________________________


    Conditions normales
    de température et de pression


    Les conditions normales de température et de pression (CNTP) sont des conditions pratiques, en partie, arbitraires, d'expérimentation et de mesure en laboratoire en physique et en chimie. Elles permettent des comparaisons commodes entre résultats expérimentaux. Les conditions les plus usuelles fixent la température normale à 0 et la pression normale à 1 atmosphère. Toutefois, il existe d'autres définitions.

    Histoire des sciences

    Dans l'expression «conditions normales», le terme normal signifie normalisé et non pas habituel.
    C'est au début du XIX[SUP]e[/SUP] siècle, en physique des gaz, qu'est apparu le besoin de rapporter les résultats d'expériences à des conditions standards, ou normales, de pression et de température. Ces conditions résultent d'un accord empirique et consensuel des expérimentateurs.

    Pression normale

    Pour la pression, le choix s'est immédiatement porté sur la valeur d'1 Torr, 760 millimètres de mercure ou mmHg, (c'est-à-dire 1 atmosphère) établie par Torricelli en 1643 comme valeur moyenne de la pression atmosphérique au sol.

    Température normale

    La température normale n'est réellement utilisée qu'en physique. En chimie, la température des conditions expérimentales est généralement spécifiée au cas par cas, car les conditions d'expérience, les résultats obtenus dépendent de façon cruciale de la ou des température(s) en jeu.

    Au début du XIX[SUP]e[/SUP] siècle, la température expérimentale était souvent fixée autour de 20 car c'était une température pratique selon les conditions climatiques moyennes en Europe. Toutefois, lorsqu'il est apparu nécessaire de mieux préciser les conditions expérimentales, le choix s'est porté sur la température de 0 , facile à obtenir et à contrôler car c'est la température de la glace fondante. C'est cette température qui est utilisée dans les résultats d'Avogadro (1811}, puis de Clapeyron (1834).
    Pour la tolérance géométrique des produits, la norme ISO 1 éditée en 1951 a défini la température de 20 °C comme température de référence, suivant le choix fait par la CIPM en 1931.

    Définition usuelle des conditions normales de température et de pression

    Ce sont ces conditions qu'il faut entendre lorsqu'elles sont spécifiées sans autre précision.

    Autres définitions


    • En chimie, l'Union internationale de chimie pure et appliquée (IUPAC) a défini en 1982 comme conditions normales la température de 0℃ (273,15 K) et la pression de 100 kPa (= 1 000 hPa = 1 000 mbar = 1 bar ou 0,986 atm) ; une autre variante fixe la température standard à 25℃. (Voir État standard).
    • Dans l'industrie pétrolière et gazière, on utilise fréquemment comme conditions normales la température de 15℃ (288,15 K) et la pression de 1 atm (101 325 Pa).
    • En Russie, la Norme d'État GOST 2939-63 spécifie comme conditions normales : la température de 25℃ (298,15 K) ; la pression de 760 mmHg (101 325 Pa), sous l'accélération normale de la pesanteur (9,80665 m/s²) et un taux d'humidité relative nul.
    Conditions normales selon diverses organisations

    [​IMG]

    Conditions ambiantes de température et de pression

    Les conditions ambiantes de température et de pression (CATP) ne sont usitées qu'en chimie. Bien qu'il existe plusieurs définitions, la plus commune est la suivante : ce sont les conditions dans lesquelles la constante d'auto-ionisation (autoprotolyse) de l'eau est de 10[SUP]-14[/SUP].
    Elles correspondent à une température de 25 et à une pression de 100 kPa.
    La «température ambiante» correspond à 25 . Si la «pression ambiante» n'est pas spécifiée, elle est, par défaut de 100 kPa.

    ___________________________________________________
    Nom de la page : Conditions normales de température et de pression
    Les textes sont disponibles sous
     
  7. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113


    Atmosphère normalisée

    L'atmosphère normalisée définit des «température et pression normales» (TPN) qui permettent de s'affranchir des variations de ces deux paramètres selon le lieu et le temps considérés. Ici, le terme «normal» renvoie à «norme» (valeur arbitraire de référence acceptée par consensus), et non pas à « habituel ». Au niveau de la mer, l'air est "normalement" à 15 °C et à 1 013,25 hPa.

    Mais la température et la pression de l'atmosphère varient en fonction de la position sur le globe, de l'altitude et du moment (saison, heure de la journée, conditions locales de météorologie, etc.). Les valeurs dites «normales» de pression et de température seront définies en fonction de l'altitude. Ces valeurs ont une grande importance dans de nombreux processus chimiques et physiques, notamment en ce qui concerne les mesures.

    Atmosphères normalisées

    Lorsque l'on s'intéresse à des variations notables d'altitude, il faut définir des valeurs normalisées selon l'altitude ; ce sont les atmosphères normalisées.
    L'atmosphère terrestre est soumise à de nombreuses variations de température et de pression. Les valeurs varient en fonction du moment et de la position sur le globe de manière extrêmement complexe (en raison de nombreux paramètres, comme le relief, l'ensoleillement, l'humidité, les vents, la température des courants marins, etc.), c'est pourquoi l'on définit des valeurs typiques de référence qui ne dépendent que de l'altitude.

    De manière globale

    - il s'établit un gradient thermique entre le sol, dont la température est gouvernée par la géothermie, et l'ensoleillement (effet de corps noir, effet de serre, effet albédo), et l'espace ;
    - il s'établit un gradient de pression : la pression est créée par le poids de l'air situé au-dessus du lieu considéré ; il faut prendre en compte la compressibilité de l'air ainsi que la variation de la gravité avec l'altitude.

    À faible altitude, la pression atmosphérique baisse de 1 hPa chaque fois que l'on s'élève de 8 mètres, et la température baisse d'environ 1 °C chaque fois que l'on s'élève de 150 m (valeur ISA : perte de 6,5 °C par kilomètre, soit 1 °C pour 154 m).

    Atmosphère type internationale
    L'atmosphère type internationale (ISA pour International Standard Atmosphere) est un modèle atmosphérique décrivant les variations de pression, de température, de densité et de viscosité pour un large éventail d'altitudes. Il se compose d'une table de valeurs à différentes altitudes et de quelques formules qui ont permis le calcul de ces valeurs. L'organisation internationale de normalisation (ISO pour International Organization for Standardization) publie l'atmosphère type internationale (ISA) comme norme, ISO 2533:1975. D'autres organismes de normalisation, comme l'organisation de l'aviation civile internationale et le gouvernement des États-Unis, publient, sous leur propre autorité, des prolongements ou des sous-ensembles de normes pour le même modèle atmosphérique.

    -Description
    Le modèle ISA divise l'atmosphère en différentes couches avec une distribution linéaire de la température. Les autres valeurs sont calculées à partir des constantes physiques fondamentales et dérivées. Par exemple, au niveau de la mer la norme donne une pression de 1 013,25 hPa (hectopascal), une température de 15 °C et un gradient thermique adiabatique de -6,5 °C/km. On peut lire ensuite sur la table qu'à 11 km d'altitude la pression a chuté à 226,32 hPa et la température à -56 °C. Entre 11 km et 20 km la température reste constante.

    Sans titre.png
    Dans ce tableau, la hauteur géopotentielle est calculée à partir d'un modèle mathématique dans lequel l'accélération de la pesanteur est supposée constante. La hauteur géométrique vient de l'hypothèse — plus exacte — que la pesanteur suit une loi de l'inverse des carrés (car l'interaction gravitationnelle entre deux corps est inversement proportionnelle au carré de la distance les séparant).

    Le modèle ISA est basé sur des conditions moyennes à une altitude moyenne tel que déterminé par le comité technique ISO TC 20/SC 6. Il y a eu plusieurs révisions depuis le milieu du XX
    [SUP]e[/SUP] siècle.


    Atmosphère type OACI
    L'Organisation de l'aviation civile internationale (OACI) définit l'«atmosphère type OACI». C'est le même modèle que l'ISA, mais il couvre les altitudes jusqu'à 80 km (262 500 ft). De plus, l'atmosphère type OACI ne prend pas en compte la vapeur d'eau.

    Les valeurs au niveau de la mer sont de 1 013,25 hPa pour la pression atmosphérique, de 15 °C pour la température et de 0 % pour l'humidité. Ces valeurs sont utilisées pour calculer diverses caractéristiques de performance aéronautique, telles que l'endurance, le rayon d'action, la vitesse aérienne et la consommation de carburant. Pour se reporter à une altitude barométrique autre que le niveau de la mer, la température est ajustée selon le gradient thermique adiabatique prescrit (qui est de -6,5 °C/km pour les premiers 11 km).


    En ce qui concerne l'aéronautique :

    - Au niveau de la mer, l'air est à 15 °C et à 1 013,25 hPa ;
    - la troposphère s'étend de 0 à 11 km ; la température décroît linéairement de 6,5 °C par km, elle a donc une température de -56,5 °C à la tropopause.
    La pression en altitude est fonction de la pression au niveau de la mer [​IMG] en hPa et de l'altitude [​IMG] en m :
    [​IMG]
    - à la tropopause et à la basse stratosphère, entre 11 et 20 km d'altitude, la température est constante et vaut -56,5 °C ;
    - dans la moyenne stratosphère, entre 20 et 32 km, l'air se réchauffe linéairement de +1 °C par km, sa température atteint donc -44,5 °C à 32 km d'altitude.

    Pour la météorologie, on extrapole ce modèle pour des altitudes plus élevées :

    - dans la haute stratosphère, entre 32 et 47 km d'altitude, la température croît linéairement de +2,8 °C par km, atteignant -2,5 °C à 47 km ;
    - dans la stratopause, de 47 à 51 km, la température reste constante à -2,5 °C.
    Pour l'aéronomie, on étend ce modèle jusqu'à la mésopause, à 85 km d'altitude : la température décroît linéairement et atteint -90 °C à cette altitude.

    - Tableau des valeurs

    On obtient les valeurs suivantes :

    valeurs.PNG


    Atmosphère Army Standard Metro
    L'atmosphère Army Standard Metro, utilisée en balistique, définit les conditions au niveau de la mer comme étant 29,5275 in Hg (749,9985 mm Hg) de pression (999,916 hPa), 59°F (15 °C), et 78 % d'humidité.

    Différentes atmosphères standard

    L'atmosphère américaine normale (U.S. Standard Atmosphere) est un modèle qui définit les valeurs de la température atmosphérique, de la pression et d'autres propriétés, pour un large éventail d'altitudes. Le premier modèle, basé sur des normes internationales existantes, a été publié en 1958 par le Comité américain pour l'extension des normes atmosphériques (U.S. Committee on Extension to the Standard Atmosphere) et fut mis à jour en 1962, 1966, et 1976.

    Les modèles proposés par l'atmosphère américaine normale, l'atmosphère type OACI et l'organisation météorologique mondiaole sont les mêmes que celui de l'ISA pour les altitudes jusqu'à 32 km.
    NRLMSISE-00 est un modèle global empirique de l'atmosphère terrestre, du sol jusque dans l'espace. Il rend compte de la température et de la densité des composants atmosphériques. Primitivement, ce modèle a été utilisé comme aide à la prévision de la dégénérescence des satellites par la traînée atmosphérique.



    ______________________________________
    Nom de la page : Atmosphère normalisée
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Atmosphère normalisée de Wikipédia en français (auteurs)
    Les textes sont disponibles sous
    licence Creative Commons paternité partage à l’identique


     

    Fichiers attachés:

    Dernière édition: 14 Décembre 2013
  8. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113



    Effet de serre


    L'effet de serre est un processus naturel résultant de l’influence de l'atmosphère sur les différents flux thermiques contribuant aux températures au sol d'une planète. La prise en compte de ce mécanisme est nécessaire pour expliquer les températures observées à la surface de la Terre et de Vénus. Dans le système solaire l'essentiel de l'énergie thermique reçue par une planète provient du rayonnement solaire et, en l’absence d'atmosphère, une planète rayonne idéalement comme un corps noir, l'atmosphère d'une planète absorbe et réfléchit une partie de ces rayonnements modifiant ainsi l'équilibre thermique. Ainsi l'atmosphère isole la Terre du vide spatial comme une serre isole les plantes de l'air extérieur.


    L'expression effet de serre résulte d'une analogie entre l'atmosphère et les parois d'une serre. Son usage s'est étendu dans le cadre de la vulgarisation du réchauffement climatique causé par les gaz à effet de serre qui bloquent et réfléchissent une partie du rayonnement thermique. Or le bilan thermique d'une serre s'explique essentiellement par une analyse de la convection et non du rayonnement: la chaleur s'accumule à l'intérieur de la serre car les parois bloquent les échanges convectifs entre l'intérieur et l'extérieur. Aussi, le terme scientifique, utilisé par la communauté des climatologues pour décrire l’influence des gaz à effet de serre, composants de l'atmosphère bloquant le rayonnement infrarouge, sur le bilan thermique de la Terre, est forçage radiatif.

    Les températures terrestres résultent d'interactions complexes entre les apports solaires perturbés par les cycles de l'orbite terrestre, de l'effet albédo de l'atmosphère, des courants de convection dans l'atmosphère et les océans, du cycle de l'eau et le forçage radiatif de l'atmosphère notamment.

    Historique


    Dans les années 1780, Horace-Bénédict de Saussure mesure les effets thermiques du rayonnement solaire à l'aide de boites transparentes qu'il dispose dans la vallée et au sommet d'une montagne .

    En 1824, Joseph Fourier publie Remarques générales sur les températures du globe terrestre et des espaces planétaires dans lesquelles il affine l'analyse des expériences de Horace-Bénédict de Saussure en concluant «la température du sol est augmentée par l'interposition de l'atmosphère, parce que la chaleur solaire trouve moins d'obstacles pour pénétrer l'air, étant à l'état de lumière, qu'elle n'en trouve pour repasser dans l'air lorsqu'elle est convertie en chaleur obscure».

    En 1861, John Tyndall identifie les principaux responsables de ce mécanisme : la vapeur d'eau et le dioxyde de carbone. Il suggère alors qu'une modification de la composition de l'atmosphère peut avoir une influence sur l'évolution du climat.

    En 1896, Svante August Arrhenius propose la première estimation de l'impact du niveau de dioxyde de carbone sur les températures terrestres. Il estime qu'un doublement de la quantité de dioxyde de carbone devrait augmenter de 4° la température moyenne. Il espère ainsi que l'exploitation du charbon permettra de surmonter la prochaine ère glaciaire due à l'orbite terrestre. Le géologue américain Thomas Chamberlin (en) arrivera indépendamment aux mêmes conclusions.

    En 1909, Robert William Wood montre que contrairement à une idée reçue le blocage du rayonnement infrarouge par le verre n'est pas le principal mécanisme qui explique le fonctionnement d'une serre. Par conséquent le terme scientifique, adopté par le GIEC, utilisé pour décrire l’influence des composants de l'atmosphère bloquant le rayonnement infrarouge sur le bilan thermique de la Terre est forçage radiatif et non effet de serre.
    L'expression synthétique effet de serre provient de la vulgarisation au début des années 80 des résultats alarmants des recherches climatologiques. Alors que les climatologues analysent l'impact du dioxyde de carbone sur le climat sans parler d'effet de serre, les premières alertes pour infléchir les décisions politiques sont lancées au début des années 80 en utilisant cette expression, reprise par la suite dans des rapports de plus en plus médiatisés, comme le rapport Brundtland (1987). En France, Jean-Marc Jancovici et Hervé Le Treut ont vulgarisé les risques liés à l'effet de serre depuis les années 1980.


    Fonctionnement d'une serre


    Contrairement à une idée reçue, et comme le suggère ce nom, l'effet de serre, sous-entendu le mécanisme lié à l’absorption et à l'émission de radiations thermiques par le verre, joue un rôle négligeable dans le fonctionnement d'une serre. En 1909 Robert Williams Wood a réfuté par l'expérience cette explication. En remplaçant le verre qui recouvre une serre par du halite, un matériau totalement transparent aux infrarouges, Robert Wood mesure une augmentation similaire de température dans les deux cas. Aussi l'augmentation de température dans une serre ne s'explique pas par le fait que le verre réfléchit les infrarouges. L'expression "effet de serre" a néanmoins été conservée dans l'usage courant. Mais le terme scientifique, utilisé par la communauté scientifique pour décrire l’influence des composants de l'atmosphère bloquant le rayonnement infrarouge sur le bilan thermique de la Terre, est forçage radiatif.

    Le fonctionnement d'une serre s'explique essentiellement par une analyse de la convection et non du rayonnement: la chaleur s'accumule à l'intérieur de la serre car les parois bloquent les échanges convectifs entre l'intérieur et l'extérieur.


    Mécanisme sur Terre


    Lorsque le rayonnement solaire atteint l'atmosphère terrestre, une partie (environ 30 %) est directement réfléchie, c'est-à-dire renvoyée vers l'espace, par l'air, les nuages blancs et la surface claire de la Terre (on pense évidemment aux régions blanches et glacées comme l'Arctique et l'Antarctique, mais il ne faut pas en surestimer le rôle : leur position aux pôles fait qu'elles reçoivent peu d'énergie solaire) ; l'albédo est la mesure de cet effet de miroir. Les rayons incidents qui n'ont pas été réfléchis vers l'espace sont absorbés par l'atmosphère (20,7 %) et la surface terrestre (51 %).

    Cette dernière partie du rayonnement absorbée par la surface du sol lui apporte de la chaleur qu'elle restitue à son tour, le jour comme la nuit, en direction de l'atmosphère. Le transfert de chaleur entre la Terre et l'atmosphère se fait, conformément au deuxième principe de la thermodynamique, du chaud (la terre) vers le froid (l'atmosphère) ; il se fait par convection (réchauffement et humidification de l'air au contact du sol puis ascension de cet air et libération de la chaleur latente de la vapeur d'eau lorsqu'elle se condense en nuages) et sous forme de rayonnements infrarouges lointains (dans la plage 8-13 μm principalement, correspondant au «rayonnement du corps noir» pour la température du sol).

    L'effet de serre ne s'intéresse qu'à ces rayonnements, qui seront absorbés en partie par les gaz à effet de serre, ce qui contribue à réchauffer l'atmosphère. Puis dans un troisième temps, cette chaleur contenue par l'atmosphère est réémise dans toutes les directions ; une partie s'échappe vers l'espace, mais une autre partie retourne vers la Terre et vient en déduction de l'apport de chaleur de la surface vers l'atmosphère, donc s'oppose au refroidissement de la surface.


    Sans effet de serre (ce qui implique notamment : sans vapeur d'eau et sans nuages), et à albédo constant, la température moyenne sur Terre chuterait à -18 °C. Mais à cette température la glace s'étendrait sur le globe, l'albédo terrestre augmenterait, et la température se stabiliserait vraisemblablement en dessous de -50 °C (voir glaciation Varanger)


    Les gaz à «effet de serre»


    Les gaz à effet de serre sont des composants gazeux de l'atmosphère qui contribuent à l'effet de serre (sans perdre de vue que l'atmosphère contient d'autres composants non gazeux qui contribuent à l'effet de serre, comme les gouttes d'eau des nuages sur Terre). Ces gaz ont pour caractéristique commune d'absorber une partie des infrarouges émis par la surface de la Terre.

    Les principaux gaz à effet de serre sont la vapeur d'eau, le dioxyde de carbone (CO[SUB]2[/SUB]), le méthane (CH[SUB]4[/SUB]), l'oxyde nitreux (ou protoxyde d'azote, de formule N[SUB]2[/SUB]O) et l'ozone (O[SUB]3[/SUB]). Les gaz à effet de serre industriels incluent les halocarbones lourds (fluorocarbones chlorés incluant les CFC, les molécules de HCFC-22 comme le fréon et le perfluorométhane) et l'hexafluorure de soufre (SF[SUB]6[/SUB]).

    Contributions approximatives à l'effet de serre des principaux gaz, d'après le GIEC :

    En tenant compte de l'effet de serre des nuages, l'ensemble vapeur d'eau + nuages représente au moins 90 % de l'effet de serre.

    Effets des activités humaines


    La plupart des gaz à effet de serre (GES) sont d'origine naturelle. Mais certains d'entre eux sont uniquement dus à l'activité humaine ou bien voient leur concentration dans l'atmosphère augmenter en raison de cette activité. C'est le cas en particulier de l'ozone (O[SUB]3[/SUB]), du dioxyde de carbone (CO[SUB]2[/SUB]) et du méthane (CH[SUB]4[/SUB]).

    La preuve que l'augmentation du CO[SUB]2[/SUB] atmosphérique est d'origine humaine se fait par analyse isotopique. Par contre, ce dernier gaz rejeté dans l'atmosphère ne participe que pour 40 % à l'effet de serre additionnel provenant de l'activité humaine.

    L'ozone est fourni en grande quantité par l'activité industrielle humaine, alors que les CFC encore largement utilisés détruisent eux, l'ozone, ce qui fait que l'on peut constater un double phénomène :

    • une accumulation d'ozone dans la troposphère au-dessus des régions industrielles ;
    • une destruction de l'ozone dans la stratosphère au-dessus des pôles.
    La combustion des carbones fossiles comme le charbon, le lignite, le pétrole ou le gaz naturel (méthane) rejette du CO[SUB]2[/SUB] en grande quantité dans l'atmosphère : la concentration atmosphérique de gaz carbonique a ainsi légèrement augmenté, passant de 0,030 % à 0,038 % en 50 ans. Un des secteurs d'activités qui dégagent le plus de gaz à effet de serre est l'énergie : à ce sujet, voir l'article énergie et effet de serre. Ces combustibles augmentent, de plus, la concentration de gaz à effet de serre, car ils étaient enfouis dans le sol depuis des milliers d'années ce qui a rompu l'équilibre. Il s'agit d'un ajout additionnel de gaz carbonique dans l'atmosphère qui n'est pas non plus complètement compensé par une assez grande absorption : seule la moitié serait recyclée par la nature ; l'autre moitié resterait dans l'atmosphère et augmenterait l'effet de serre.

    La seconde cause d'émission de gaz à effet de serre est la déforestation, qui est responsable à elle seule de 20 % des émissions mondiales. Les déboisements les plus importants concernent les trois grandes forêts tropicales que sont la forêt amazonienne, la forêt du bassin du Congo, et la forêt indonésienne. Il s'agit d'une des plus grandes causes, car tout le carbone absorbé par ces arbres est rediffusé dans l'air. S'il y avait replantation, cette quantité de dioxyde de carbone serait réabsorbée par un autre arbre, mais sans replantation, alors il n'y a qu'un ajout de la quantité de ce gaz dans l'air.
    Les activités humaines dégagent donc une abondance de GES : les scientifiques du GIEC qui étudient le climat estiment que l'augmentation des teneurs en gaz d'origine anthropique est à l'origine d'un réchauffement climatique.

    En France, selon le groupe Facteur 4, les émissions de gaz à effet de serre proviennent des transports pour 26 %, suivis de l’industrie (22 %), de l’agriculture (19 %), des bâtiments et habitations (19 %), de la production et de la transformation de l’énergie (13 %), et du traitement des déchets (3 %). Depuis 1990, les émissions ont augmenté de plus de 20 % pour les transports et les bâtiments. En revanche, elles ont diminué de 22 % dans l’industrie, de 10 % dans le secteur agricole, de 9 % dans le secteur de l’énergie et de 8 % pour le traitement des déchets.


    Hypothèse de l'emballement de l'effet de serre
    On craint au pire le déclenchement d'un effet «boule de neige» (rétroaction positive), où le réchauffement conduirait à un réchauffement encore accru, via la disparition des glaces (réduction de l'albédo) et surtout la libération de stocks naturels de GES actuellement fixés par le pergélisol, les hydrates de méthane marins, ou encore la biomasse.
    Si cela se produit et les réactions ne se terminent qu'après avoir produit une grande augmentation de la température, cela s'appelle un emballement de l'effet de serre (runaway greenhouse effect en anglais).

    Selon l'hypothèse du fusil à clathrates (clathrate gun en anglais), un emballement de l'effet de serre pourrait être causé par la libération de méthane à partir des clathrates (hydrates de méthane qui tapissent le fond des océans) suite au réchauffement planétaire. On suppose que l'extinction massive d'espèces lors du Permien-Trias a été causée par un tel emballement. Il est également estimé que de grandes quantités de méthane pourraient être libérées de la toundra sibérienne qui commence à dégeler, le méthane étant 21 fois plus puissant comme gaz à effet de serre que le dioxyde de carbone.

    Conséquences pour l'environnement
    L'effet de serre n'est pas en soi nocif aux écosystèmes ; sans lui, la Terre ne serait qu'une boule de glace où la vie ne serait pas possible, car il n'y aurait pas d'eau liquide. Le danger pour les écosystèmes réside plutôt dans la variation trop rapide et trop importante des conditions climatiques pour que la plupart des espèces dites évoluées puissent s'adapter en cas de changements de température et de pluviométrie. Des écosystèmes marins et littoraux pourraient également être touchés par une hausse du niveau de la mer et des modifications des courants marins et des conditions physico-chimique de l'eau de mer (acidité, taux de gaz dissous...). Les populations humaines seraient évidemment touchées par le réchauffement climatique. En effet, une hausse des températures aide à la prolifération des maladies infectieuses puisque celles-ci survivent mieux dans des milieux chauds et humides.

    Le GIEC envisage, selon les scénarios, des augmentations de 1,5 °C à 6 °C pour le siècle à venir en supposant que l'augmentation des rejets de GES continue au rythme des 20 dernières années (on n'a pas observé de ralentissement global des émissions, même depuis la signature du protocole de Kyoto par la plupart des pays). Un arrêt total et immédiat des rejets de carbone n'empêcherait cependant pas la température moyenne de la planète de continuer à augmenter pendant plusieurs dizaines à centaines d'années, car certains gaz à effet de serre ne disparaissent de l'atmosphère que très lentement.


    Débat scientifique sur l'origine et les conséquences de l'effet de serre


    Les études concernant le réchauffement climatique et ses conséquences ont été parmi les plus fournies de l'histoire scientifique inter-disciplinaire. Toutefois, ces études se font sous d'importantes pressions politiques et économiques, de part et d'autre. Les décisions ont un poids qui justifie un lobbying intense, et des débats contradictoires sur l'interprétation des données disponibles.

    Le fait que les activités humaines contribuent à l'augmentation en GES n'est pas discuté en soi ; en revanche, l'importance de ces modifications par rapport aux évolutions naturelles, et l'importance de leur effet climatique (par rapport à d'autres facteurs comme l'activité solaire par exemple) sont discutées.

    Au plan des conséquences, les débats dépendent beaucoup des centres d'intérêt des participants : selon qu'on s'attache à une zone géographique particulière ou à la Terre dans son ensemble, à une espèce ou un biotope ou à la biosphère, les conclusions peuvent être fort différentes. Sans oublier les divergences entre spécialistes sur les capacités d'adaptation d'une espèce aux changements envisagés. L'histoire de la Terre montre qu'elle est passée par des bouleversements bien plus importants et que la vie s'est adaptée et a continué, mais l'ampleur des extinctions peut être très importante. L'éventuel changement climatique, qui pourrait avoir une intensité inhabituelle pour un délai si court (quelques siècles seulement), pourraient avoir un effet massif sur la sélection naturelle, les disparitions et apparitions d'espèces.


    Effet de serre sur les autres planètes


    Effet de serre sur Vénus
    Sur Vénus l'effet de serre a porté la température à plus de 460 °C. Cet effet n'est pas dû au dioxyde de carbone qui constitue 96 % de l'atmosphère, mais à des constituants en très faibles quantités relatives tels que SO[SUB]2[/SUB] et H[SUB]2[/SUB]O. En effet, dans le domaine infrarouge correspondant au maximum d'émission thermique pour un corps à la température de la surface et de la basse atmosphère de Vénus, le CO[SUB]2[/SUB] présente des fenêtres de transmission très larges qui ne peuvent piéger efficacement le rayonnement infrarouge. En revanche, SO[SUB]2[/SUB] et H[SUB]2[/SUB]O absorbent les radiations dans ce domaine de longueurs d'onde, tout comme le font également les fines particules d'acide sulfurique qui constituent les nuages. Vénus, plus proche (72,3 %) du Soleil que la Terre, reçoit ainsi près du double (191 %) de l'énergie solaire reçue par celle-ci.
    D'autres études contredisent cependant ce point et mettent en avant le rôle essentiel du CO[SUB]2[/SUB] dans l'effet de serre vénusien.

    Effet de serre sur Mars
    L'atmosphère de Mars contient une grande proportion de CO[SUB]2[/SUB], néanmoins l'atmosphère de la planète est trop ténue pour avoir un impact significatif sur la température (impact d'au plus quelques degrés).


    ______________________________
     
  9. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113



    Changement climatique


    Ne doit pas être confondu avec réchauffement climatique.


    Un changement climatique correspond à une modification durable (de la décennie au million d'années) des paramètres statistiques (paramètres moyens, variabilité) du climat global de la Terre ou de ses divers climats régionaux. Ces changements peuvent être dus à des processus intrinsèques à la Terre, à des influences extérieures ou, plus récemment, aux activités humaines.


    Le changement climatique anthropique est le fait des émissions de gaz à effet de serre engendrées par les activités humaines, modifiant la composition de l'atmosphère de la planète. À cette évolution viennent s'ajouter les variations naturelles du climat.
    Dans les travaux du GIEC, le terme «changement climatique» fait référence à tout changement dans le temps, qu'il soit dû à la variabilité naturelle ou aux activités humaines.
    Au contraire, dans la Convention cadre des Nations Unies sur le changement climatique, le terme désigne uniquement les changements dus aux activités humaines. La Convention-cadre utilise le terme «variabilité climatique» pour désigner les changements climatiques d'origine naturelle.


    Variations climatiques

    - Anciennes variations

    Les phases antérieures à l'Histoire humaine relèvent de la paléoclimatologie. Elles permettent de suivre, au fil de la dérive des continents et des périodes de glaciations successives, les variations liées au changement climatique ayant affecté les sols et les espèces, selon leur nature. Le cycle du carbone en est désormais partie prenante ; Les glaciations : le cycle des changements climatiques permet aujourd'hui de détailler les sept glaciations antérieures :

    1. (<de 650 000 à 450 000, autres glaciations restant à identifier>)
    2. jusque 450 000 ans en arrière : Interglaciaire de Waal
    3. jusque 400 000 ans en arrière : Glaciation de Günz ou Nébraskien
    4. jusque 350 000 ans en arrière : Interglaciaire de Cromer ou Aftonien
    5. jusque 320 000 ans en arrière : Glaciation de Mindel, ou Elster ou Kansien
    6. jusque 270 000 ans en arrière : Interglaciaire de Holstein ou Yamouthien
    7. jusque 200 000 ans en arrière : Glaciation de Riss, ou Saal, ou de l'Illinoien
    8. jusque 125 000 ans en arrière : Interglaciaire de Eem ou Sangamonien ou Eémien
    9. jusque 70 000 ans en arrière : Glaciation de Würm, ou glaciation Weichselien ou Wisconsinien
    10. jusque 11 625 ans en arrière : Interglaciaire de l'Holocène, (Holocene climatic optimum) parfois désigné comme «le nouveau réchauffement» de l'Holocène
    Début de l'histoire humaine écrite et constatation des variations climatiques par les chroniqueurs. 535-536, le changement climatique de 535-536 a été constaté par le byzantin Procope de Césarée. Du X[SUP]e[/SUP] siècle au XIV[SUP]e[/SUP] siècle, l'optimum climatique du Moyen Âge est un réchauffement localisé à l'Europe et à l'Amérique du Nord. Des années 1550 aux années 1850 subsiste le petit âge glaciaire. La dernière phase est contemporaine et s'attache à décrire les multiples effets du réchauffement climatique ; elle est à séparer du reste compte tenu de la constante ingérence anthropique sur les équilibres climatiques depuis l'avènement de la révolution industrielle et le contrôle des énergies polluantes par l'Humanité (voir Recul des glaciers depuis 1850).

    Début de l'histoire humaine écrite et constatation des variations climatiques par les chroniqueurs. 535-536, le changement climatique de 535-536 a été constaté par le byzantin Procope de Césarée. Du X[SUP]e[/SUP] siècle au XIV[SUP]e[/SUP] siècle, l'optimum climatique du Moyen Âge est un réchauffement localisé à l'Europe et à l'Amérique du Nord. Des années 1550 aux années 1850 subsiste le petit âge glaciaire. La dernière phase est contemporaine et s'attache à décrire les multiples effets du réchauffement climatique ; elle est à séparer du reste compte tenu de la constante ingérence anthropique sur les équilibres climatiques depuis l'avènement de la révolution industrielle et le contrôle des énergies polluantes par l'Humanité (voir Recul des glaciers depuis 1850).

    - Réchauffement climatique planétaire récent
    Le réchauffement climatique planétaire a d'abord été évoqué par plusieurs auteurs, puis modélisé par Svante Arrhenius en 1896. L'expression anglaise d'origine, global warming, a été inventée par le climatologue Wallace Broecker(en) dans la revue Science le 8 août 1975. Depuis, le GIEC affirme que ce réchauffement tend à s'emballer et que les cycles et processus de régulation climatique classiques sont dépassés depuis 1950 , avec notamment le dégel du pergélisol contenant du méthane (CH[SUB]4[/SUB]), dont l'action sur l'effet de serre est de 25 fois supérieure au dioxyde de carbone (CO[SUB]2[/SUB]) et la fonte des glaces polaires et des glaciers augmente l'absorption par les sols et les océans des rayonnements solaires.
    Durant les canicules plus fréquentes , la végétation ralentit sa croissance et donc sa capacité à extraire le carbone de l'atmosphère. Il s'agirait d'un basculement vers un déséquilibre climatique de forte ampleur, sans déjà savoir si un point de non-retour est atteint.


    Le GIEC ne mène pas de recherche en son propre nom mais a pour mission d’évaluer les informations d’ordre scientifique, technique et socio-économique qui sont nécessaires pour mieux comprendre les fondements scientifiques des risques liés au changement climatique d’origine humaine, cerner les conséquences possibles de ce changement et envisager d’éventuelles stratégies d’adaptation et d’atténuation. Les dix années les plus chaudes depuis 1850 sont toutes postérieures à 1998.

    - Sécheresse et désertification
    Les phénomènes de sécheresse, salinisation et désertification peuvent être aggravés par les modifications du climat, notamment dans le Sahel et le désert de Gobi qui s'étendent. La désertification peut elle-même contribuer à des modifications locales et globales du climat, exemple en favorisant les incendies de savanes ou steppes, en étant une source importante de poussières (aérosols qui peuvent influer sur la pluviométrie) et par leur albédo (plus importante qu'un milieu végétalisé).

    Facteurs


    Actuellement, le phénomène des changements climatiques dits naturels (ou «variations climatiques») n'est pas totalement compris, mais il existe plusieurs hypothèses qui peuvent tenter de les expliquer.

    - Causes astronomiques
    Cette théorie proposée par Milutin Milanković entre 1911 et 1941, confirmée par l'étude de l'oxygène 18, et largement approuvée par la communauté scientifique explique les cycles climatiques glaciaires / interglaciaires par les variations d'excentricité, d'obliquité et de précession terrestre. Selon cette théorie, sans forçage anthropique la planète devrait entrer dans une nouvelle ère de refroidissement, ou entrer dans une phase interglaciaire exceptionnellement longue et stable (encore 50 000 ans).

    Une autre théorie, compatible avec les autres, est celle des cycles solaires, développée par l'Allemand Heinrich Schwabe vers 1840, puis par l'Américain George Hale en 1906. Elle explique les faibles variations climatologiques qui ont lieu tous les 11 ans, cycle correspondant à celui des taches solaires qui ont une périodicité de 11 ans ; lorsque le nombre de taches solaires est important, le Soleil émet plus d'énergie (la Terre en reçoit donc plus) et donc un changement de température a lieu. Ce rayonnement influe de manière complexe sur la nébulosité (Cf. principe physique de la chambre à brouillard) et donc à la fois sur l'albédo planétaire et l'effet de serre dû aux nuages et à la vapeur d'eau. Ces taches sont plus froides (4 500 K) que la surface du Soleil (5 800 K environ), mais elles correspondent à une augmentation du rayonnement en rayons-X qui peut augmenter de 1 000 fois pour 1 % dans la lumière visible dans les périodes d'intense activité. La petite période glaciaire observée entre les années 1645 à 1715, est une illustration de la théorie de l'influence des variations de températures dues au cycle des taches solaires. Un nombre inhabituellement faible de taches solaires y ont été observées.

    - Nuages interstellaires de poussière
    Cette théorie est la plus controversée. Pour certains scientifiques, lorsque le système solaire passe dans un nuage interstellaire de poussière, une partie de l'énergie lumineuse est absorbée ; cela influe sur la quantité de chaleur qui arrive sur Terre et donc sur les climats.

    - Déplacements des continents vers les pôles
    Pour comprendre l'influence des déplacements des continents, il faut d'abord savoir que les courants océaniques ont une influence très importante sur les changements climatiques, les continents n'ont en réalité pas d'influence directe sur le climat mais ils permettent en se déplaçant la formation ou l'arrêt des courants marins.

    L'exemple de l'Antarctique : avant la dislocation du super-continent Gondwana, le climat antarctique était chaud et humide ; dès que l'Australie, l'Afrique et l'Amérique du Sud ont migré vers le nord, les divers détroits se sont ouverts et un courant océanique circulaire (appelé courant circumpolaire) commença. En quelque temps, le climat se modifia pour atteindre celui actuel avec une énorme calotte glaciaire qui se mit en place sur le continent antarctique, malgré son aridité (c'est la zone la plus aride du monde), mais toute la neige s'accumule au sol, car à -45 °C de moyenne, la pression de sublimation est négligeable ; la cause d'ablation est d'origine éolienne et sur les côtes, le vêlage des glaciers. D'autre part, le "tapis roulant" océanique tourne en environ 2000 ans. Si la circulation thermo-haline venait à être interrompue, le climat serait très nettement perturbé.

    Les deux modèles informatiques de climats (américain et européen) donnent des résultats assez semblables, mais sont très largement dépendants des facteurs anthropiques.


    - Crises volcaniques

    [​IMG]
    Description
    : Eruption du Pinatubo en 1991
    Date et heure : 09:57, 8 March 2006
    Utilisateur : Magalhães
    Photo by : T. J. Casadevall, U.S. Geological Survey.
    From http://www.beringia.com/climate/content/volcanoes.shtml

    Cette image est placée dans le domaine public
    parce qu'elle contient des éléments issus de l'United States Geological Survey,
    une agence du Département de l'Intérieur des États-Unis.

    ____________________________

    Les émissions gazeuses des volcans ont 2 effets inverses : les aérosols (émissions de SO[SUB]2[/SUB] et poussières) obscurcissent l'atmosphère, augmentent la pluviométrie et refroidissent le climat ; dans un second temps, les grandes quantités de gaz à effet de serre émis provoquent un effet de serre additionnel. L'effet de serre a pour conséquence, à l'instar du climat dans une serre, d'amplifier les différences de températures : s'il y a du soleil, la chaleur est conservée et réfléchie, s'il n'y a pas de soleil, la chaleur rentre plus difficilement et par conséquent il fait plus froid. La majorité des extinctions des espèces du passé semble due à une variation climatique brutale.

    La chute de la météorite du Chicxulub est souvent évoquée comme cause initiale de l'effondrement de la biodiversité à la fin du jurassique, mais il semble (Courtillot, 2004) que des éruptions volcaniques (induites ou indépendantes de chocs météoritiques) qui ont laissé des trapps (dans le Deccan, Inde) gigantesques ont le plus drastiquement perturbé le climat durant des centaines d'années à une vitesse dépassant la cadence des adaptations évolutives possibles des espèces. En particulier, la crise des trapps de Sibérie est associée à l'hécatombe du permien. Des perturbations significatives et mesurables ont suivi l'éruption du Pinatubo (1991) et en 1783-1784, celle du Laki (éruption islandaise dont le nuage a laissé une trace dans les registres de mortalité d'Europe (Courtillot, 2005)). En 1815, l'éruption du Tambora a également eu des conséquences climatiques mondiales, avec de fortes perturbations en 1816.

    Rétro-action


    Variation de l'albédo
    Cet effet n'est pas à proprement parler un facteur des changements climatiques mais un amplificateur. L'albédo est la proportion (en pourcentage) de rayonnement solaire arrivant au sol réfléchie vers l'espace. Les surfaces enneigées et glacées ont un fort albédo. Les surfaces sombres (terre) ont un faible albédo. Plus l'albédo est élevé, plus le rayonnement est réfléchi et moins il réchauffe le sol puis l'atmosphère subjacente. En effet, lorsque la Terre rentre dans une ère glaciaire, la surface occupée par les glaces augmente et donc l'albédo augmente, ce qui diminue le réchauffement du sol et de l'atmosphère subjacente et renforce ainsi l'ère glaciaire. Et inversement lorsque la Terre est en période interglaciaire.

    Conséquences liées à l'humanité


    Les changements climatiques sont dus à l'industrialisation de la planète et à l'utilisation massive d'énergies fossiles. Alors que les changements climatiques naturels se font sur de très longues périodes, ce qui implique une certaine adaptation des espèces animales et végétales, les changements anthropiques sont très rapides et par conséquent menacent énormément les écosystèmes souvent fragiles.
    La déclaration commune des Académies des Sciences des pays du G8 de juin 2008 demande que toutes les nations collaborent pour apporter une réponse globale au changement climatique (académies signataires : Maroc, Chine, Brésil, Canada, Allemagne, Inde, Italie, Japon, États-Unis, Russie, Grande-Bretagne, France). Mais lors des prises de décision par les pouvoirs exécutifs, comme pour le protocole de Kyoto, le Canada et les États-Unis refusent de s'impliquer, au contraire de l'Union européenne et de la Chine.


    Hiver nucléaire
    Un hiver nucléaire est un phénomène climatique hypothétique, de baisse globale des températures de surface, prédit comme pouvant être le résultat d'une guerre nucléaire massive. Il serait analogue à l'hiver volcanique ou à l'hiver d'impact.



    ______________________________________
    Nom de la page : Changement climatique

    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Changement climatique de Wikipédia en français (auteurs)
    Les textes sont disponibles sous
    licence Creative Commons paternité partage à l’identique





     
  10. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113


    Réchauffement climatique


    Le réchauffement climatique, également appelé réchauffement planétaire, ou réchauffement global, est un phénomène d'augmentation de la température moyenne des océans et de l'atmosphère, mesuré à l'échelle mondiale sur plusieurs décennies, et qui traduit une augmentation de la quantité de chaleur de la surface terrestre. Dans son acception commune, ce terme est appliqué à une tendance au réchauffement global observé depuis le début du XX[SUP]e[/SUP] siècle.


    En 1988, l'ONU crée le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) chargé de faire une synthèse des études scientifiques sur cette question. Dans son dernier et quatrième rapport, auquel ont participé plus de 2 500 scientifiques de 130 pays, le GIEC affirme que le réchauffement climatique depuis 1950 est très probablement dû à l'augmentation des gaz à effet de serre d'origine anthropique. Ces conclusions ont été approuvées par plus de 40 sociétés scientifiques et académies des sciences, y compris l'ensemble des académies nationales des sciences des grands pays industrialisés.

    Dans une étude publiée fin 2012, qui a compilé et comparé des simulations issues de 20 modèles informatiques différents et des informations issues des observations satellites, une équipe de climatologues du Lawrence Livermore National Laboratory du DOE et de 16 autres organisations a conclu que les changements de température de la troposphère et de la stratosphère sont bien réels et qu'ils sont clairement liées aux activités humaines.

    Les projections des modèles climatiques présentées dans le dernier rapport du GIEC indiquent que la température de surface du globe est susceptible d'augmenter de 1,1 à 6,4 °C supplémentaires au cours du XXI[SUP]e[/SUP] siècle. Les différences entre les projections proviennent de l'utilisation de modèles ayant des sensibilités différentes pour les concentrations de gaz à effet de serre et utilisant différentes estimations pour les émissions futures.
    La plupart des études portent sur la période allant jusqu'à l'an 2100. Cependant, le réchauffement devrait se poursuivre au-delà de cette date, même si les émissions s'arrêtent, en raison de la grande capacité calorifique des océans et de la durée de vie du dioxyde de carbone et des autres gaz à effet de serre dans l'atmosphère.


    Des incertitudes sur la hausse de température globale moyenne subsistent du fait de la précision des modélisations employées, et des comportements étatiques et individuels présents et futurs. Les enjeux économiques, politiques, sociaux, environnementaux, voire moraux, étant majeurs, ils suscitent des débats nombreux, à l'échelle internationale, ainsi que des controverses. Néanmoins l'impact économique, sociologique, environnemental voire géopolitique de ces projections est globalement négatif à moyen et long terme.

    Observations liées au réchauffement climatique actuel


    Divers changements observés dans le monde ont conduit à conclure à l'existence d'un réchauffement climatique planétaire :

    En France, un observatoire national sur les effets du réchauffement climatique (ONERC), créé en 2001, compile les observations ;

    En Europe, La dernière évaluation (2012, par l'AEE)a conclu à l'imminence de nouveaux impacts négatifs, dont économiques ; Comme prévu par la plupart des modèles, les températures moyennes ont augmenté en Europe, et les précipitations ont diminué au sud et augmenté au Nord. Les glaces arctiques et groenlandaises ont continué à régresser, de même que de nombreux glaciers européens (Les glaciers alpins ont presque perdu deux tiers de leur masse de 1850 à 2010), alors que le permafrost s'est réchauffée et que le manteau neigeux tend à diminuer. Les crises climatiques (pics et vagues de chaleur, inondations, sécheresses) sont de plus en plus coûteuses en Europe, et inégalement réparties (notamment car les activités humaines sont croissantes dans les zones à risque ; zones qui devraient s'agrandir avec le dérèglement climatique). Sans dispositifs d'adaptation, les coûts générés par des évènements extrêmes attendus (plus intenses et plus fréquents) devraient régulièrement augmenter et aggraver certaines inégalités. Selon Jacqueline McGlade, directrice de l'AEE, tous les acteurs de l’économie, dont les ménages, doivent s’adapter et réduire leurs émissions.

    En Europe, la décennie 2002-2011 a été la plus chaude depuis que l'on dispose de données météo (températures moy du sol dépassant de
    1,3 °C la moyenne "préindustrielle" et qui pourraient après 2050 dépasser de 2,5 à 4 °C la moyenne des années 1961 - 1990.
    Des dizaines de milliers de morts sont attribués aux vagues de chaleur (plus fréquentes, plus longues). Le nombre de morts de froid en Europe devrait par contre diminuer. Les inondations devraient augmenter au nord et les sécheresses au sud. L'Arctique se réchauffe plus vite que les autres régions européennes, entrainant un doublement de la fonte de la calotte groenlandaise de 1990 à 2010 (250 milliards de tonnes de glace perdues/an de 2005 à 2009). La mer a monté en Europe d'environ
    1,7 mm/an au cours du XX[SUP]e[/SUP] siècle, avec une accélération (3 mm/an) au cours des dernières décennies, avec des variations isostatiques locale.
    Des impacts sont attendus sur la flore (floraison plus précoce et/ou tardive, maladies des arbres..., mais aussi sur la faune (zoonoses, changement d'aire de répartition) et les maladies (tiques, certains moustiques et phlébotomes remontent plus au nord et en altitude). La saison pollinique est en 2012 plus longue d'environ 10 jours qu'en 1960). Le plancton se modifie et - hors milieux marins - la vitesse de migration/adaptation de beaucoup espèces est insuffisante par rapport à la rapidité des dérèglements biogéoclimatiques, ce qui aggrave les risques de disparition.
    Les rendements agricoles devraient diminuer au sud et peut-être augmenter au nord. Le chauffage hivernal est moins nécessaire, mais climatisation estivale compense ces économies ; à la saison où les réacteurs nucléaires sont le plus à l'arrêt ou commencent parfois déjà à manquer d'eau pour leur refroidissement. Une nouvelle stratégie d'adaptation européenne est en préparation pour mars 2013. Un site web (Climate-ADAPT offre de l'information et des conseils sur l'adaptation au changement climatique.


    Évolution des températures
    Les mesures terrestres de température réalisées au cours du XX[SUP]e[/SUP] siècle montrent une élévation de la température moyenne. Ce réchauffement se serait déroulé en deux phases, la première de 1910 à 1945, la seconde de 1976 à aujourd'hui. Ces deux phases sont séparées par une période de léger refroidissement. Ce réchauffement planétaire semble de plus corrélé avec une forte augmentation dans l'atmosphère de la concentration de plusieurs gaz à effet de serre, dont le dioxyde de carbone, le méthane et le protoxyde d'azote.
    L'élévation de la température moyenne du globe entre 1906 et 2005 est estimée à 0,74 °C (à plus ou moins 0,18 °C près), dont une élévation de 0,65 °C durant la seule période 1956-2006.

    Selon le Goddard institute for space studies (GISS) de la NASA, l'année 2010 a été l'année la plus chaude et marque la fin de la décennie et d'une suite de 30 années les plus chaudes jamais enregistrées par la météorologie, ceci malgré un net refroidissement de certaines zones de l'hémisphère nord par La Niña, et malgré les effets d'une faible activité solaire. Le réchauffement s'est globalement poursuivi sans discontinuer de 1980 à 2010, sur 30 ans, intervalle de temps généralement considéré par les météorologues comme suffisant à titre de tendance sur le court terme.

    Parmi les dix années les plus chaudes depuis un siècle, neuf sont postérieures à l'an 2000.
    Le quatrième rapport du GIEC estime comme très probable le fait que les températures moyennes dans l’hémisphère nord aient été plus élevées pendant la seconde moitié du XX[SUP]e[/SUP] siècle que durant n’importe quelle autre période de cinquante ans au cours des cinq derniers siècles, et probable le fait qu’elles aient été les plus élevées depuis 1 300 ans au moins.


    Précipitations
    Selon le quatrième rapport du GIEC, la répartition des précipitations s'est modifiée au cours du XX[SUP]e[/SUP] siècle. En particulier, les précipitations auraient fortement augmenté dans l’est de l’Amérique du Nord et du Sud, dans le nord de l’Europe et dans le nord et le centre de l’Asie, tandis qu’elles diminuaient au Sahel, en Méditerranée, en Afrique australe et dans une partie de l’Asie du Sud. D'autres experts estiment toutefois les données actuelles trop rares et incomplètes pour qu'une tendance à la hausse ou à la baisse des précipitations puisse se dégager sur des zones de cette ampleur. On observe également depuis 1988 une diminution notable de la couverture neigeuse printanière aux latitudes moyennes de l'hémisphère nord. Cette diminution est préoccupante car cette couverture neigeuse contribue à l'humidité des sols et aux ressources en eau.

    Fonte de la banquise
    Plusieurs études indiquent que les banquises sont en train de se réduire. La surface des glaces de mer a connu une décroissance très rapide, passant de 8,5 millions de km[SUP]2[/SUP] pendant la période 1950-1975 à 5,5 millions de km[SUP]2[/SUP] en 2010. Le satellite spécialisé CryoSat-2 fut mis en orbite en avril 2010 après l'échec du premier satellite CryoSat en 2005. Il doit fournir des informations plus précises sur les quantités de glace polaire.

    - En Arctique
    Des observations par satellite montrent que ces banquises perdent de la superficie dans l'océan Arctique. Par ailleurs, un amincissement de ces banquises, en particulier autour du pôle nord, a été observé. L'âge moyen des glaces sur la période 1988-2005, est passé de plus de six ans à moins de trois ans. La réduction de l'étendue moyenne de la banquise arctique depuis 1978 est de l'ordre de 2,7 % par décennie (plus ou moins 0,6 %), son étendue minimale en fin d'été diminuant de 7,4 % par décennie (plus ou moins 2,4 %). Le réchauffement dans cette région est de l'ordre de 2,5 °C (au lieu de 0,7 °C en moyenne sur la planète), et l'épaisseur moyenne des glaces a perdu 40 % de sa valeur entre les périodes 1958-1976 et 1993-1997. 2007 marque un minimum de la banquise en été.
    Cette année-là, les observations satellitaires constatent une accélération de la fonte de la banquise arctique, avec une perte de 20 % de la surface de la banquise d'été en un an Les observations menées pendant l'expédition Tara dirigée sous l'égide du programme européen Damoclès (Developping Arctic Modelling and Observing Capabillities for Long-term Environmental Studies) de septembre 2006 à décembre 2007 indiquent que les modifications entamées dans l'océan Arctique sont profondes et irréversibles.
    Par ailleurs, le Groenland a vu ses glaciers se réduire de 230 à 80 milliards de tonnes par an de 2003 à 2005, ce qui contribuerait à 10 % des 3 mm actuels d'élévation annuelle du niveau des mers.


    Une étude récente montre une anticorrélation et un basculement bipolaire entre les températures des pôles : quand un pôle se réchauffe, l'autre se refroidit, et les phases de réchauffement/refroidissement se succèdent par cycles de quelques dizaines d'années. Le lien entre les deux pôles serait l'océan Atlantique. Selon les auteurs, «l'accélération récente du réchauffement de l’Arctique résulte d'un renforcement positif de la tendance au réchauffement (due à l'accroissement des gaz à effet de serre et à d'autres forçages possibles) par la phase de réchauffement due à la variabilité climatique multidécennale (due aux fluctuations de la circulation de l'océan Atlantique».

    Dans le Guardian, du 17 septembre 2012, Peter Wadhams (en), directeur du département de physique de l'océan polaire à l'université de Cambridge, en Angleterre, affirme que la banquise arctique pourrait avoir totalement disparu en été d'ici 2016.

    - En Antarctique
    En Antarctique, les mesures par satellites, faites depuis 1979 ne montrent pas actuellement de diminution de surface, contrairement à la banquise Arctique. Cependant, on observe un certain nombre de phénomènes exceptionnels. Ainsi, 3 500 km[SUP]2[/SUP] de la banquise Larsen B, (l'équivalent en surface des deux tiers d'un département français), se sont fragmentés en mars 2002, les premières crevasses étant apparues en 1987. Cette banquise était considérée comme stable depuis 10 000 ans. Au mois d'avril 2009, la plaque Wilkins, dont la superficie était naguère de 16 000 km[SUP]2[/SUP] s'est également détachée.

    Calottes polaires
    Le bilan de masse des calottes polaires de l’Antarctique et du Groenland est négatif depuis une dizaine d’années, même si certaines régions de l'Antarctique s’épaississent par suite de précipitations neigeuses accrues. La perte de masse s’effectue dans les zones côtières en raison de l'écoulement rapide de certains glaciers vers l’océan.

    Fonte du pergélisol
    On observe un réchauffement et une fonte partielle du pergélisol arctique. Entre un tiers et la moitié du pergélisol de l'Alaska n'est plus qu'à un degré de la température de dégel. En Sibérie, des lacs issus de la fonte du pergélisol se forment, provoquant des dégagements importants de méthane. Le dégagement de méthane est de l'ordre de 14 à 35 millions de tonnes par an sur l'ensemble des lacs arctiques. L'analyse au carbone 14 de ce méthane prouve que celui-ci était gelé depuis des milliers d'années.

    Recul des glaciers de montagne
    À quelques exceptions près, la plupart des glaciers montagnards étudiés sont en phase de recul. Le recul des glaciers continentaux est observé de façon quasi généralisée depuis 3 à 4 décennies, avec une nette augmentation au cours des 20 dernières années.

    De nombreux travaux documentent ce recul et cherchent à l'expliquer. Un tel recul semble tout à fait cohérent avec un réchauffement du climat, cependant cette hypothèse n'est pas certaine, certains glaciers ayant commencé à reculer au milieu du XIX[SUP]e[/SUP] siècle, après la fin du petit âge glaciaire. L'avancée ou le recul des glaciers sont récurrents et liés à de nombreux facteurs, parmi lesquels les précipitations ou le phénomène El Niño jouent un rôle important. Par exemple le recul actuel de la mer de Glace à Chamonix découvre des vestiges humains du Moyen Âge, preuve que le glacier a déjà reculé davantage que de nos jours à une période historiquement proche.

    Le recul des glaciers de montagne, notamment à l'ouest de l'Amérique du Nord, en Asie, dans les Alpes, en Indonésie, en Afrique (dont le Kilimandjaro), et dans des régions tropicales et subtropicales d'Amérique du Sud, a été utilisé comme preuve qualitative de l'élévation des températures globales depuis la fin du XIX[SUP]e[/SUP] siècle par le GIEC dans son rapport de 2001.

    Les causes du recul du glacier du Kilimandjaro en Afrique sont débattues et sont un bon exemple de la complexité du réchauffement climatique et de la circonspection nécessaire dans l'analyse des données. Pour certains climatologues, ce recul est dû à une diminution des chutes de neige depuis le XIX[SUP]e[/SUP] siècle. Pour d'autres, le réchauffement climatique est en cause, du fait que les glaciers tropicaux sont en phase de régression partout sur la planète et que les glaces du Kilimandjaro ont résisté à une longue sécheresse il y a 4000 ans.

    En ce qui concerne les glaciers himalayens, il faut souligner le nombre limité de données. Une étude de 2006 observe qu'une augmentation du ruissellement saisonnier des glaciers de l'Himalaya a entraîné une augmentation de la production agricole en Inde du nord au cours du XX[SUP]e[/SUP] siècle. Des données fiables n'existaient en 2007 que pour 50 glaciers indiens, sur plus de 9 500. Selon un rapport de 2009 du ministère Indien de l'environnement, les glaciers de l'Himalaya qui constituent les sources des plus grandes rivières d'Asie — Gange, Indus, Brahmapoutre, Yangtze, Mekong, Salween et Huang He — sont en recul. Cependant ce rapport reste prudent dans ces conclusions:
    «Il est prématuré d'affirmer que les glaciers himalayens reculent anormalement à cause du réchauffement climatique. Un glacier est influencé par tout un ensemble de facteurs physiques et par une interconnexion complexe des facteurs climatiques.»

    Pratiques agricoles
    Le climat, et en particulier les températures, ont un effet sur la date des récoltes agricoles. Dans de nombreux cas, les dates de vendanges sont régulièrement avancées, comme en Bourgogne. De plus ces phénomènes peuvent être décrits sur plusieurs décennies car ces dates de vendanges ont été consignées dans le passé et archivées. De tels documents sont utilisés pour déterminer les températures à des périodes où les thermomètres n'existaient pas ou manquaient de précision. Un réchauffement climatique depuis le XX[SUP]e[/SUP] siècle est clairement établi par l'étude de ces archives (ainsi, la date de début des vendanges à Châteauneuf-du-Pape a avancé d'un mois en cinquante ans).

    Faune et flore
    En mer, de nombreuses espèces de poissons remontent vers les pôles. Sur Terre, on observe aussi une modification de l'aire de répartition de différentes espèces animales et végétales. Cette modification est complexe et hétérogène.

    Dans certains cas, les espèces et écosystèmes reculent face à la désertification ou à la salinisation. Certaines limites d'aire de répartition montent plus haut en altitude, en particulier quand l'aire de l'espèce se déplace vers le nord (ou le sud dans l'hémisphère sud), ce qui ne doit pas cacher le fait qu'en réalité, localement au moins, l'optimum pour une espèce a pu fortement descendre en altitude (là où les milieux sont plus humides, par exemple suite à une fonte accrue des glaciers). Par exemple en Californie, pour 64 espèces végétales dont l'aire de répartition a été suivies depuis 1930 à 2010, la zone d'optimum climatique de ces plantes a diminué de 80 mètres d'altitude en moyenne. Un suivi fait dans 13 États européens montre que les plantes de montagne «grimpent» en altitude, mais sont alors confrontées à une concurrence accrue.
    Dans tous ces cas, le réchauffement climatique est souvent proposé comme expliquant ces modifications.

    Paradoxalement, localement, suite aux courants froids résultant de la fonte accélérée de la calotte glaciaire, des refroidissements hivernaux peuvent aussi affecter la faune. Ainsi au début de février 2011, 1.600 tortues vertes (espèce en danger) engourdies par une eau inhabituellement froide se sont échouées sur et autour de South Padre Island (Texas). Elles sont alors plus vulnérables aux collisions avec les bateaux, à leurs prédateurs et aux échouages (sur les 860 premières tortues récupérées par des bénévoles, 750 ont survécu et ont pu être ensuite libérées). En janvier 2010, plus de 4.600 tortues s'étaient échouées en Floride.

    Ceci vaut aussi pour la faune terrestre. Par exemple, l'extension actuelle de l'aire de répartition de la chenille processionnaire du pin, qui a atteint Orléans en 1992 et Fontainebleau en 2005, pourrait être due au réchauffement climatique.

    Le Muséum national d'histoire naturelle a mis en place depuis plusieurs années des systèmes de suivi des espèces. Le suivi temporel des oiseaux communs (STOC) montre par exemple qu'en vingt ans, les communautés d'oiseaux en France se sont globalement déplacées de 100 km vers le nord. Ces éléments peuvent avoir une grande importance pour les stratégies de protection et restauration de la biodiversité et des trames vertes et bleues nécessaires à leur déplacements (dont corridors climatiques le cas échéant). Ainsi les parcs nationaux surtout positionnés en montagne pourraient ne pas assez tenir compte d'un discret mais important phénomène de descente des «optimums» de certains végétaux qui vont souvent s'étendre sur des zones urbanisées et agricoles.

    Le réchauffement global contribuerait aussi au rétrécissement de la taille des espèces vivantes, comme celle qui s'est produite au Maximum thermique du passage Paléocène-Eocène. L'augmentation de température entraîne la raréfaction de l'oxygène dissous dans l'eau, la sécheresse ou encore l'augmentation du métabolisme des ectothermes, si bien que la grande majorité des organismes semble s'adapter avec une croissance moindre, par un effet de rétrécissement en cascade (des producteurs primaires aux consommateurs) suite à la baisse des ressources alimentaires de la chaîne alimentaire.

    Cyclones tropicaux
    Le consensus scientifique dans le rapport de 2007 du GIEC est que l'intensité des cyclones tropicaux va probablement augmenter (avec une probabilité supérieure à 66 %).
    Une étude publiée en 2005, remise en question depuis par une seconde étude, indique une augmentation globale de l'intensité des cyclones entre 1970 et 2004, le nombre total de cyclones étant en diminution pendant la même période. Le nombre de cyclone d'intensité 4 et 5 à presque doublé en nombre et en proportion entre 1970 et 2004. Selon cette étude, il est possible que cette augmentation d'intensité soit liée au réchauffement climatique, mais la période d'observation est trop courte et le rôle des cyclones dans les flux atmosphériques et océaniques n'est pas suffisamment connu pour que cette relation puisse être établie avec certitude. La seconde étude publiée un an plus tard ne montre pas d'augmentation significative de l'intensité des cyclones depuis 1986.
    Ryan Maue, de l'université de Floride, dans un article intitulé Northern Hemisphere tropical cyclone activity, observe pour sa part une baisse marquée de l'activité cyclonique depuis 2006 dans l'hémisphère nord par rapport aux trente dernières années. Il ajoute que la baisse est probablement plus marquée, les mesures datant de trente ans ne détectant pas les activités les plus faibles, ce que permettent les mesures d'aujourd'hui. Pour Maue, c'est possiblement un plus bas depuis cinquante ans que l'on observe en termes d'activité cyclonique.


    Par ailleurs, les simulations informatiques ne permettent pas dans l'état actuel des connaissances de prévoir d'évolution significative du nombre de cyclones lié à un réchauffement climatique.

    Réchauffement des océans et élévation du niveau de la mer
    On observe un réchauffement des océans, qui diminue avec la profondeur. L'élévation de température depuis 1960 est estimée à 0,6 °C pour les eaux de surface, et à 0,04 °C pour l'océan dans son ensemble.

    On estime que les océans ont absorbé à ce jour 80 à 90 % de la chaleur ajoutée au système climatique. Ce réchauffement contribue pour 30 % à une montée du niveau de la mer par dilatation thermique des océans, 60 % de cette montée étant due à la fonte des glaces continentales (dont la moitié provient de la fonte des calottes polaires) et 10 % à un flux des eaux continentales vers les océans. Les données proviennent des marégraphes mis en place depuis la fin du XIX[SUP]e[/SUP] siècle, secondés à partir des années 1990 par des satellites altimétriques.
    Leur analyse suggère que le niveau de la mer s'est élevé au cours du XX[SUP]e[/SUP] siècle de quelques dizaines de centimètres, et qu'il continue à s'élever régulièrement. On estime que le niveau de la mer s'est élevé de 1,8 mm par an entre 1961 et 2003 et de 3,4 mm par an depuis 1993. Cette élévation du niveau de la mer peut aussi être observée indirectement par ses conséquences sur l'environnement, comme c'est le cas au Nouveau-Brunswick.


    Dans le cadre du système ARGO, 3 000 balises automatiques ont été réparties dans tous les océans en 2007 et permettront de suivre la température et la salinité des océans jusqu'à 2 000 mètres de profondeur. En Atlantique Nord, des chercheurs de l'Ifremer Brest ont confirmé les tendances au réchauffement dans les couches de surface.
    La courbe de la quantité de chaleur estimée dans les océans est mise à jour régulièrement par l'organisme américain de météorologie NOAA


    ...........
     
  11. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113
    Réchauffement climatique
    _________________________________________________________



    Perspectives : évolution passée des températures et
    conséquences


    Cycles climatiques


    Les variations du climat sont corrélées avec celles de l'insolation, des paramètres de Milanković, de l'albédo, des cycles solaires et des concentrations dans l'atmosphère des gaz à effet de serre comme le dioxyde de carbone et des aérosols.
    Le climat global de la Terre connaît des modifications plus ou moins cycliques de réchauffements alternant avec des refroidissements qui diffèrent par leur durée (de quelques milliers à plusieurs millions d'années) et par leur amplitude. Depuis 60 millions d'années, la Terre connaît un refroidissement général, avec l'apparition de la calotte glaciaire antarctique il y a 35 millions d'années et de la calotte glaciaire de l'hémisphère nord il y a 4 millions d'années.

    Depuis 800 000 ans, le climat terrestre connaît plusieurs cycles de glaciation et de réchauffement, d'environ 100 000 ans chacun. Chaque cycle commence par un réchauffement brutal suivi d’une période chaude de 10 000 à 20 000 ans environ, appelée période interglaciaire. Cette période est suivie par un refroidissement progressif et l'installation d’une ère glaciaire. À la fin de la glaciation, un réchauffement brutal amorce un nouveau cycle. Nous vivons actuellement depuis plus de 10 000 ans dans une période interglaciaire (voir figure ci-dessous), et l'actuelle évolution climatique se place par rapport au réchauffement naturel postérieur à la dernière glaciation.

    [​IMG]

    Grâce à l'étude des carottages de glace et plus précisément de l'analyse de la composition isotopique de l'oxygène piégé dans la glace, les températures atmosphériques des cycles glaciaires de l’ère quaternaire ont pu être reconstituées. La carotte glaciaire la plus profonde a été forée dans le cadre du projet Epica, en Antarctique, à plus de 3 500 mètres de profondeur, ceci permettant d'étudier l'histoire du climat en Antarctique depuis 800 000 ans. Les carottes de glace contiennent des bulles d'air et des indications sur la teneur en gaz de l'atmosphère d'autrefois. Ces carottages ont ainsi permis de montrer que la teneur en CO[SUB]2[/SUB] dans l'atmosphère a augmenté de 30 % durant le dernier siècle alors qu'elle était à peu près stable auparavant.

    Amplitudes des variations climatiques


    Au cours du quaternaire, l'amplitude thermique a été de l'ordre de 10 °C, mais avec des hausses de température n'ayant jamais dépassé de plus de 4 °C la température moyenne annuelle de la fin du XX[SUP]e[/SUP] siècle.

    En revanche pour les cycles plus anciens, comme durant le Permien, la température moyenne globale a atteint 22 °C soit 8 °C de plus que la moyenne actuelle, comme on peut le voir sur le graphique ci-dessous. Durant ces périodes chaudes qui ont duré plusieurs dizaines de millions d'années, la Terre était dépourvue de calottes polaires.


    [​IMG]

    Le maximum thermique entre le paléocène et l'éocène, il y a 56 millions d'années, est particulièrement intéressant car il semble dû à un dégagement de gaz à effet de serre, mais étalé sur plusieurs milliers d'années. Le réchauffement total fut de 5 °C, au rythme modéré de 0,025 °C par siècle, très inférieur au rythme observé actuellement. Son impact fut important sur les espèces marines dont certaines disparurent à la suite de l'acidification des océans, les espèces animales ou végétales terrestres réussissant pour la plupart à s'adapter ou à migrer.

    Temps historiques

    À l'intérieur des grandes fluctuations climatiques terrestres, se trouvent des variations plus brèves et plus limitées en intensité. Ainsi, au cours du dernier millénaire, est apparue en Europe occidentale une période chaude entre le X[SUP]e[/SUP] siècle et le XIII[SUP]e[/SUP] siècle siècle, appelée «optimum climatique médiéval» : c'est l'époque où les navigateurs vikings découvrent et baptisent le Groenland (littéralement «Pays vert») et fondent des colonies à l'extrême sud de l'île. De même, l'époque des Temps Modernes (1550-1850) connut une période de refroidissement que les historiens appellent le «petit âge glaciaire» caractérisé par des hivers très rigoureux, dont le terrible hiver 1708-1709. Cette année-là, les céréales manquèrent dans la plus grande partie de la France, et seuls la Normandie, le Perche et les côtes de Bretagne ont pu produire assez de grain pour assurer les semences. Dans la région parisienne, le prix du pain atteignit, en juin 1709, 35 sous les neuf livres au lieu de 7 sous ordinairement. De nombreux arbres gelèrent jusqu'à l'aubier, et la vigne disparut de plusieurs régions de la France, les températures les plus basses étant atteintes entre le 10 et le 21 janvier.
    Selon les reconstitutions de températures réalisées par les climatologues, la dernière décennie du XX[SUP]e[/SUP] siècle et le début du XXI[SUP]e[/SUP] siècle constituent la période la plus chaude des deux derniers millénaires (voir graphique ci-dessous). Notre époque serait même un peu plus chaude (de quelques dixièmes de degrés) que ne le fut l'optimum climatique médiéval.


    [​IMG]


    Causes

    Hypothèse d'un effet de serre additionnel


    L’effet de serre est un phénomène naturel : une partie du rayonnement infrarouge émis par la Terre vers l’atmosphère terrestre reste piégée par les gaz dits «à effet de serre», augmentant ainsi la température de la basse atmosphère (troposphère). Ces gaz sont essentiellement de la vapeur d'eau et du dioxyde de carbone. Environ un tiers de ce dernier a été produit par l'homme. Sans cet effet, la température de surface de la Terre serait en moyenne de 33 °C inférieure soit -19 °C
    L'augmentation actuellement observée des quantités de gaz à effet de serre, comme le CO[SUB]2[/SUB], contribue à renforcer l'effet de serre. Les concentrations actuelles de CO[SUB]2[/SUB] dans l'atmosphère surpassent de loin les taux des 650 000 dernières années. Elles sont passées de 280 ppm en 1970 à 379 ppm en 2005, et celles de méthane sont passées de 715 ppb à 1 774 ppb.


    Par ailleurs, la vitesse de croissance du taux de CO[SUB]2[/SUB] dans l'atmosphère augmente également, passant de +1,5 ppm par an de 1970 à 2000, à +2,1 ppm par an entre 2000 et 2007. Il a été prouvé par l’étude isotopique du carbone dans l’air que cette augmentation des quantités de gaz à effet de serre est due pour plus de la moitié à la combustion de matière carbonée fossile, l'autre partie étant due essentiellement aux déboisements massifs.
    Selon le quatrième rapport du GIEC, 49 milliards de tonnes équivalent CO[SUB]2[/SUB] sont émises annuellement par les activités humaines, réparties comme suit :

    • la part due au secteur énergétique est de 25,9 % ;
    • suivie par l'industrie à 19,4 % ;
    • le secteur forestier à 17,4 % ;
    • l'agriculture à 13,5 % ;
    • les transports à 13,1 % ;
    • les habitations à 7,9 % ;
    • les déchets et eaux usées à 2,8 %.
    L’hypothèse d’un lien entre la température moyenne du globe et le taux de dioxyde de carbone dans l’atmosphère a été formulée pour la première fois en 1895 par le Prix Nobel de Chimie Svante Arrhenius. Svante Arrhenius a démontré que l’augmentation de la concentration de CO[SUB]2[/SUB] dans l’atmosphère risquait d’accroître très significativement la température de la planète. Il avait calculé qu’un doublement de la teneur en CO[SUB]2[/SUB] pourrait provoquer un réchauffement de 4 à 6 °C, des valeurs en cohérence avec les modélisations du XXI[SUP]e[/SUP] siècle. Cet élément montre l'ancienneté d'une théorie scientifique du réchauffement climatique.

    En 1938, l’ingénieur anglais Guy Callendar, puis en 1956 le physicien américain Gilbert Plass (en) ont établi puis théorisé la relation entre l’accroissement des rejets industriels de CO[SUB]2[/SUB] et les premières observations de réchauffement climatique planétaire. Dans ce contexte, en 1957, les Américains ont mis en place des mesures de la concentration en CO[SUB]2[/SUB] de l’atmosphère à Hawaï. Cela a permis au climatologue américain Charles Keeling de produire en 1961 une première courbe confirmant une progression régulière de la concentration de CO[SUB]2[/SUB]. C’est seulement en 1979, lors de la première conférence mondiale sur le climat, à Genève, qu’a été avancée publiquement pour la première fois sur la scène internationale l’éventualité d’un impact de l’activité humaine sur le climat.

    L’augmentation de l’effet de serre induit par l’ensemble des gaz à effet de serre est estimé à 2,3 W/m[SUP]2[/SUP]. Les variations d'énergie rayonnée par le Soleil durant ses cycles d'activité sont dix fois plus faibles. L'éventuelle influence sur la formation des nuages d'un rayonnement cosmique galactique modulé par le vent solaire est actuellement à l'étude.
    L'article controverses sur le réchauffement climatique détaille l'hypothèse des fluctuations de l'activité solaire

    Validation de l'hypothèse

    Selon les conclusions du rapport de 2001 des scientifiques du GIEC, la cause la plus probable de ce réchauffement dans la seconde moitié du XX[SUP]e[/SUP] siècle serait le «forçage anthropique», c’est-à-dire l’augmentation dans l’atmosphère des gaz à effet de serre résultant de l’activité humaine. Le degré de certitude a été augmenté dans le rapport 2007 du GIEC, qui qualifie de très probable le fait que le réchauffement climatique soit dû à l’activité humaine.

    Selon les prévisions actuelles, le réchauffement planétaire se poursuivrait au cours du XXI[SUP]e[/SUP] siècle mais son amplitude est débattue : selon les hypothèses retenues et les modèles employés, les prévisions pour les 50 années à venir vont de 1,8 à 3,4 °C.

    - Méthode scientifique: la modélisation
    Leurs conclusions sont tirées des résultats d’expériences avec des modèles numériques.
    Ces modèles tiennent compte de deux types de mécanismes :

    • ceux qui sont suffisamment bien compris pour pouvoir être traduits en équation. Il s'agit essentiellement de la circulation de l'atmosphère, des phénomènes de forçage radiatif, et de l'hydrodynamique de la circulation océanique. La précision des prévisions basées sur ces mécanismes est limitée par la limitation spatiale et temporelle due à la puissance des ordinateurs et à l'efficacité des algorithmes de calcul utilisés ;
    • ceux dont la modélisation est empirique. Telle est en particulier l'effet des nuages, la taille des mailles des modèles actuels ne permettant de ne traiter ceux-ci que sous un aspect statistique. Il en est de même pour l'albédo de la végétation, qui est déduite de mesures d'observation.
    - - Hypothèses à tester
    Les modèles numériques ont été utilisés pour estimer l’importance relative des divers facteurs naturels et humains au travers de simulations menées sur des supercalculateurs, pour identifier le ou les facteurs à l’origine de la brutale hausse de température. Plusieurs hypothèses ont été testées :

    1. les fluctuations cycliques de l’activité solaire ;
    2. la rétention de la chaleur par l’atmosphère, amplifiée par les gaz à effet de serre ;
    3. la modification de la réflectivité de la surface terrestre — l'albédo — par la déforestation, l’avancée des déserts, l’agriculture, le recul des glaces, neiges et glaciers, mais aussi par les cirrus artificiels créés par les traînées des avions et l’étalement urbain ;
    4. les émissions volcaniques.
    Certaines de ces causes sont d’origine humaine, comme la déforestation et la production de dioxyde de carbone par combustion de matière fossile. D’autres sont naturelles, comme l’activité solaire ou les émissions volcaniques.

    -- Résultats

    Les simulations climatiques montrent que le réchauffement observé de 1910 à 1945 peut être expliqué par les seules variations du rayonnement solaire (voir http://www.wladbladi.net/forum/bibliotheque-wladbladi/120636-atmosphere-cours.html#post1337912 ). En revanche, pour obtenir le réchauffement observé de 1976 à 2006 (voir graphique ci-dessous), on constate qu’il faut prendre en compte les émissions de gaz à effet de serre d’origine humaine. Les modélisations effectuées depuis 2001 estiment que le forçage radiatif anthropique est dix fois supérieur au forçage radiatif dû à des variations de l’activité solaire, bien que le forçage dû aux aérosols soit négatif.
    Le point essentiel est que le forçage radiatif net est positif. En particulier, l’augmentation de la température moyenne mondiale depuis 2001 est en accord avec les prévisions faites par le GIEC depuis 1990 sur le réchauffement induit par les gaz à effets de serre. Enfin, un réchauffement uniquement dû à l’activité solaire n’expliquerait pas pourquoi la troposphère verrait sa température augmenter et pas celle de la stratosphère.


    [​IMG]





    • Dans son rapport de 2001, le GIEC conclut que les gaz à effet de serre anthropogéniques «jouent un rôle important dans le réchauffement global».
    • En 2003, l'American Geophysical Union affirme que «les influences naturelles ne permettent pas d’expliquer la hausse rapide des températures à la surface du globe».
    • Le 7 juin 2005, les académies des sciences des pays du G8 et celles des trois plus gros pays en voie de développement consommateurs de pétrole ont signé une déclaration commune à Londres, affirmant que le doute entretenu par certains à l'endroit des changements climatiques ne justifie plus l'inaction et qu'au contraire, il faut « enclencher immédiatement » un plan d'action planétaire pour contrecarrer cette menace globale.
    • Enfin, en 2007, le quatrième rapport du GIEC, annonce que la probabilité que le réchauffement climatique soit dû aux activités humaines est supérieure à 90 %.
    De nombreux scientifiques estiment même que ce rapport n'est pas assez clair et qu'il faudrait dès maintenant un programme international pour réduire drastiquement les deux sources principales de gaz à effet de serre, le transport routier et les centrales à charbon.

    - Critiques de l'hypothèse d'une origine humaine
    Bien qu'il existe un fort consensus dans la communauté scientifique sur le rôle prédominant des activités humaines dans le réchauffement climatique du dernier demi-siècle, des personnalités contestent tout ou partie de cette thèse et attribuent le réchauffement à des causes naturelles, par exemple liées à l'activité naturelle du Soleil. Cette hypothèse n'est pas retenue par l'Académie des sciences française.
    Par ailleurs, des critiques et controverses portent également sur les conséquences du réchauffement (voir le paragraphe Poursuite du réchauffement climatique plus bas) et les actions à mener pour lutter contre lui (voir la section Réponse des États plus bas).
     
  12. RedEye

    RedEye - أبو عبدالرحمن - Membre du personnel

    J'aime reçus:
    4157
    Points:
    113
    bent 3ommi, ana shaaak fik shada shi dokotra 3alamiya, w 3andak nadariyate w ab7ate ghiir guerri [22h]

    merci pour le grand effort à enrichir cette section...bonne continuation [20h]
     
  13. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113

    wa tta s7ablek bent 3ommik sa8la hhhhh :p
    ra8a shada doctorat spécial mazal ma kayen f l'académie française mdrrrr [22h]
    Merci pour tes encouragements
    [20h]
     
  14. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113
    Réchauffement climatique
    _________________________________________________________




    Projections


    Le GIEC distingue les prévisions climatiques des projections climatiques. Les prévisions climatiques sont le résultat d’une tentative d’estimation de l’évolution réelle du climat à l’avenir (à des échelles de temps saisonnières, interannuelles ou à long terme, par exemple), et sont en général de nature probabiliste. Les projections climatiques sont basées sur des modèles climatiques et répondent à divers scénarios d’émissions de gaz à effet de serre, basés sur des hypothèses concernant l’évolution socioéconomique et technologique à venir. Or, ces hypothèses pouvant se réaliser ou non, les projections sont donc sujettes à une forte incertitude.


    Modèles climatiques
    Les projections par les scientifiques de l’évolution future du climat est possible par l'utilisation de modèles mathématiques traités informatiquement sur des superordinateurs. Ces modèles, dits de circulation générale, reposent sur les lois générales de la thermodynamique et simulent les déplacements et les températures des masses atmosphériques et océaniques. Les plus récents prennent aussi en considération d'autres phénomènes, comme le cycle du carbone.

    Ces modèles sont considérés comme valides par la communauté scientifique lorsqu'ils sont capables de simuler des variations connues du climat, comme les variations saisonnières, le phénomène El Niño, ou l'oscillation nord-atlantique. Les modèles les plus récents simulent de façon satisfaisante les variations de température au cours du XX[SUP]e[/SUP] siècle. En particulier, les simulations menées sur le climat du XX[SUP]e[/SUP] siècle sans intégrer l'influence humaine ne rendent pas compte du réchauffement climatique, tandis que celles incluant cette influence sont en accord avec les observations.

    Les modèles informatiques simulant le climat sont alors utilisés par les scientifiques pour établir des scénarios d'évolution future du climat, mais aussi pour cerner les causes du réchauffement climatique actuel, en comparant les changements climatiques observés avec les changements induits dans ces modèles par différentes causes, naturelles ou humaines.

    Ces modèles sont l'objet d'incertitudes de nature mathématique, informatique, physique, etc. Les trois principales sources d'incertitude mentionnées par les climatologues sont :




      • la modélisation des nuages ;
      • la simulation de phénomènes de petite échelle, comme les cellules orageuses, ou l'effet du relief sur la circulation atmosphérique ;
      • la modélisation de l'interface entre les océans et l'atmosphère.
    De façon plus générale, ces modèles sont limités d'une part par les capacités de calcul des ordinateurs actuels, et le savoir de leurs concepteurs d'autre part, la climatologie et les phénomènes à modéliser étant d’une grande complexité. L'importance des investissements budgétaires nécessaires sont aussi un aspect non négligeable de la recherche dans le domaine du réchauffement climatique. Malgré ces limitations, le GIEC considère les modèles climatiques comme des outils pertinents pour fournir des scénarios d'évolution utiles du climat.

    Poursuite du réchauffement climatique
    Pour les climatologues regroupés au sein du GIEC, l'augmentation des températures devrait se poursuivre au cours du XXI[SUP]e[/SUP] siècle. L'ampleur du réchauffement attendu le plus probable est de à 1,8 à 3,4 °C à la fin du XXIe siècle (ce qui ne signifie pas la fin de l'augmentation des températures en 2100).

    [​IMG]


    [​IMG]

    L'ampleur du réchauffement prévu est incertaine ; les simulations tiennent compte :




      • des incertitudes liées aux modèles (voir plus haut) ;
    Afin de prendre en compte ce dernier paramètre dans leurs projections, les climatologues du GIEC ont utilisé une famille de 40 scénarios d'émission de gaz à effet de serre détaillés dans le rapport Special Report on Emissions Scenarios (SRES).

    Dans certains scénarios, la croissance de la population humaine et le développement économique sont forts, tandis que les sources d’énergie utilisées sont principalement fossiles. Dans d’autres scénarios, un ou plusieurs de ces paramètres sont modifiés, entrainant une consommation des énergies fossiles et une production de gaz à effet de serre moindres. Les scénarios utilisés comme hypothèse de travail pour l’élaboration du troisième rapport du Giec (2001) ne prennent pas en compte l’éventualité d’une modification intentionnelle des émissions de gaz à effet de serre à l’échelle mondiale.
    Les incertitudes liées au fonctionnement des modèles sont mesurées en comparant les résultats de plusieurs modèles pour un même scénario, et en comparant les effets de petites modifications des scénarios d’émission dans chaque modèle.

    Les variations observées dans les simulations climatiques sont à l'origine d'un éparpillement des prévisions de l'ordre de 1,3 à 2,4 °C, pour un scénario (démographique, de croissance, de «mix énergétique mondial», etc.) donné. Le type de scénario envisagé a un effet de l’ordre de 2,6 °C sur le réchauffement climatique simulé par ces modèles et explique une bonne partie de la marge d’incertitude existant quant à l’ampleur du réchauffement à venir.

    Les projections d'augmentation de température pour l'horizon 2100 données par le Giec (SPM du rapport de 2007) s'échelonnent de 1,1 à 6,3 °C. Les experts du Giec affinent leurs projections en donnant des valeurs considérées comme « les meilleures estimations », ce qui permet de réduire la fourchette de 1,8 à 4,0 °C. Et en éliminant le scénario A1F1, considéré comme irréaliste, l'augmentation de température serait comprise entre 1,8 et 3,4 °C.


    [​IMG]
    Les scientifiques du Giec considèrent que ces scénarios sont les meilleures projections actuellement possibles, mais qu'ils sont toujours sujets à des réajustements ou à des remises en cause au fur et à mesure des avancées scientifiques. Ils considèrent qu'il est nécessaire d'obtenir des modèles plus réalistes et une meilleure compréhension des phénomènes climatiques, ainsi que des incertitudes associées.

    Cependant, de nombreux climatologues pensent que les améliorations à court terme apportées aux modèles climatiques ne modifieront pas fondamentalement leurs résultats, à savoir que le réchauffement planétaire va continuer et que son ampleur sera plus ou moins importante en fonction de la quantité de gaz à effet de serre émis par les activités humaines au cours du XXI[SUP]e[/SUP] siècle, et ce en raison de l'inertie des systèmes climatiques à l'échelle planétaire.

    Certains articles scientifiques montrent que l'année 1998 a été la plus chaude de toute l'histoire de la météorologie, que le réchauffement s'accélère — 0,8 °C en un siècle, dont 0,6 °C sur les trente dernières années — mais aussi d'après l'analyse de sédiments marins, que la chaleur actuelle se situe dans le haut de l'échelle des températures depuis le début de l'holocène, c’est-à-dire depuis 12 000 ans.

    Une étude publiée en février 2013 dans Global Environmental Change démontre que la plupart des prévisions du GIEC se sont avérées trop optimistes (à l'exception de celles concernant la hausse des températures) : ainsi, la hausse du niveau des océans sur la période 1993-2011 a été de 3,2 ± 0,5 mm/an, 60 % plus rapide que l'estimation du GIEC de de 2 mm/an ; la fonte de la banquise arctique a été beaucoup plus rapide que les pires prévisions du GIEC ; la progression des émissions des pays émergents a été largement sous-estimée (3 à 4 % par an en Chine dans les hypothèses du GIEC, 10 à 11 % en réalité) si bien que les émissions mondiales de CO2 sont alignées sur le plus pessimiste des scénarios du GIEC ; l'amplification du réchauffement causée par la fonte du pergélisol n'a pas été prise en compte dans les modèles du GIEC, etc ; l'étude attribue ce syndrome ESLD (Erring on the Side of Least Drama - Pêcher par excès de dédramatisation) à une réaction excessive aux accusations d'alarmisme lancées par les climato-sceptiques, ainsi qu'à la culture de prudence scientifique.
     
    Dernière édition: 29 Mai 2016
  15. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113
    Réchauffement climatique
    ________________________________________________________




    Conséquences environnementales prévues


    Les modèles utilisés pour prédire le réchauffement planétaire futur peuvent aussi être utilisés pour simuler les conséquences de ce réchauffement sur les autres paramètres physiques de la Terre, comme les calottes de glace, les précipitations ou le niveau des mers. Dans ce domaine, un certain nombre de conséquences du réchauffement climatique sont l'objet d'un consensus parmi les climatologues.

    Montée des eaux


    Une des conséquences du réchauffement planétaire sur lesquelles s'accordent les scientifiques est une montée du niveau des océans. Deux phénomènes engendrent cette élévation :

    • l'augmentation du volume de l'eau due à son réchauffement (dilatation thermique) ;
    • l'apport d'eau supplémentaire provenant de la fonte des glaciers continentaux et des calottes polaires. Ce dernier phénomène s'étale sur une longue durée, la fonte des glaciers se mesurant à l'échelle de plusieurs décennies, et celle des calottes polaires sur plusieurs siècles ou millénaires.
    De même que pour les températures, les incertitudes concernant le niveau de la mer sont liées aux modèles, d'une part, et aux émissions futures de gaz à effet de serre, d'autre part.
    L'élévation entre 1993 et 2003 est estimée à 3,1 mm par an (plus ou moins 0,7 mm). L’élévation prévue du niveau de la mer en 2100 est de 18 à 59 cm, selon le quatrième rapport du Giec. Il s'agit probablement d'une estimation minimaliste, car les prévisions du Giec sont basées uniquement sur le réchauffement futur de l'océan et la fonte prévue des glaciers de montagne, en excluant les phénomènes liés à une instabilité possible des calottes polaires, récemment mis en évidence.
    Une montée des eaux de quelques centimètres n'a pas d'impact très visible sur les côtes rocheuses, mais peut avoir des effets très importants sur la dynamique sédimentaire des côtes plates : dans ces régions, qui sont en équilibre dynamique, la montée des eaux renforce les capacités érosives de la mer, et déplace donc globalement l'équilibre vers une reprise de l'érosion qui fait reculer les côtes. La montée du niveau moyen de la mer a ainsi des effets beaucoup plus importants que la simple translation de la ligne de côte jusqu'aux courbes de niveau correspondantes.

    Précipitations


    Selon le dernier rapport du Giec, une augmentation des précipitations aux latitudes élevées est très probable tandis que dans les régions subtropicales, on s'attend à une diminution, poursuivant une tendance déjà constatée, même si d'autres experts tempèrent cela, estimant les données trop rares et incomplètes pour pouvoir dégager une tendance actuelle à la hausse ou à la baisse. Selon des études, à l'horizon 2025, un tiers de la population mondiale pourrait se trouver en état de stress hydrique ; le réchauffement aurait tantôt un effet positif, tantôt un effet négatif, la balance entre les deux dépendant du mode de comptage adopté.

    Circulation thermohaline


    La circulation thermohaline désigne les mouvements d'eau froide et salée vers les fonds océaniques qui prennent place aux hautes latitudes de l’hémisphère nord. Ce phénomène serait, avec d'autres, responsable du renouvellement des eaux profondes océaniques et de la relative douceur du climat européen.
    En cas de réchauffement climatique, le moteur qui anime les courants marins serait menacé. En effet, les courants acquièrent leur énergie cinétique lors de la plongée des eaux froides et salées, et donc denses, dans les profondeurs de l'océan Arctique. Or, l'augmentation de la température devrait accroître l'évaporation dans les régions tropicales et les précipitations dans les régions de plus haute latitude. L'océan Atlantique, en se réchauffant, recevrait alors plus de pluies, et en parallèle la calotte glaciaire pourrait partiellement fondre (voir Événement de Heinrich). Dans de telles circonstances, une des conséquences directes serait un apport massif d’eau douce aux abords des pôles, entraînant une diminution de la salinité marine et donc de la densité des eaux de surface. Cela peut empêcher leur plongée dans les abysses océaniques. Ainsi, les courants tels que le Gulf Stream pourraient ralentir ou s'arrêter, et ne plus assurer les échanges thermiques actuels entre l'équateur et les zones tempérées. Pour le XXI[SUP]e[/SUP] siècle, le GIEC considérait dans son rapport 2007 comme très probable un ralentissement de la circulation thermohaline dans l'Atlantique, mais comme très improbable un changement brusque de cette circulation.

    - Arrêt de la circulation thermohaline
    Selon une théorie, un éventuel arrêt de la circulation thermo haline, dû au réchauffement climatique, pourrait engendrer une chute importante de température voire une ère glaciaire en Europe et dans les régions à hautes latitudes. En effet, l'Europe se situe à la même latitude que le Québec, et l'étude de Detlef Quadfasel publié dans Nature en décembre 2005 démontre qu'une partie de la différence de climat semble résider dans le fait que l'Europe profite de l'apport thermique du Gulf Stream. L’équateur, à l'inverse, accumulerait alors de la chaleur stimulant de ce fait la formation continuelle d'ouragans amenant des précipitations de grande ampleur.
    Cette hypothèse d'un refroidissement de l'Europe qui suivrait le réchauffement global n'est cependant pas validée. En effet, il n'est nullement établi que le Gulf Stream soit la seule cause des hivers doux en Europe. Ainsi, Richard Seager a publié en 2002 une étude scientifique sur l'influence du Gulf Stream sur le climat. Selon lui l'effet du Gulf Stream est un mythe et n'a qu'un effet mineur sur le climat en Europe. La différence entre les températures hivernales entre l'Amérique du Nord et l'Europe est due au sens des vents dominants (vent continental glacial du nord sur la côte Est de l'Amérique du Nord et vent océanique de l'ouest en Europe) et à la configuration des Montagnes Rocheuses.

    Glaces et couverture neigeuse


    Les scientifiques du Giec prévoient, pour le XXI[SUP]e[/SUP] siècle une diminution de la couverture neigeuse, et un retrait des banquises. Les glaciers et calottes glaciaires de l'hémisphère nord devraient aussi continuer à reculer, les glaciers situés à moins de 3 400 m d'altitude pouvant être amenés à disparaître.
    En revanche, l'évolution de la calotte glaciaire antarctique au cours du XXI[SUP]e[/SUP] siècle est plus difficile à prévoir.
    En 2006 une équipe de chercheurs américains a mis en évidence un lien entre l'activité humaine et l'effondrement de plates-formes de glace dans l'Antarctique. Les réchauffements locaux seraient dus à un changement de direction des vents dominants, cette modification étant elle-même due à l'augmentation de la concentration de l'air en gaz à effet de serre et la dégradation de la couche d'ozone en Antarctique à cause des CFC d'origine humaine.
    Toutefois, selon une lettre envoyée au journal Nature, ces réchauffements ne s'observent que localement. En effet, l'Antarctique connaît globalement un climat de plus en plus froid et sa couverture glacée est en expansion, les élévations de la température dans ces secteurs très froids se révélant favorables à une augmentation des précipitations neigeuses donc à terme, à une augmentation des volumes de glace.
    Cependant, la quantité de glace de l'Antarctique déversée dans les mers a augmenté de 75 % durant les dix années précédant 2008. Ce phénomène risque de s'amplifier en raison de la disparition de la banquise qui cesse alors d'opposer un obstacle au déversement des glaciers dans l'océan.

    Conséquences brusques ou irréversibles, et prospectives


    Selon le Giec, «le réchauffement anthropique de la planète pourrait entraîner certains effets qui sont brusques ou irréversibles, selon le rythme et l'ampleur des changements climatiques».

    • On prévoit une augmentation du niveau de la mer de quelques dizaines de centimètres d'ici 2100, mais au cours des siècles et des millénaires suivant, la fonte partielle des calottes polaires pourrait relever de plusieurs mètres le niveau marin, en inondant les zones côtières basses, certaines îles basses et les deltas.

    • Environ 20 à 30 % des espèces évaluées à ce jour sont susceptibles d'être exposées à un risque accru d'extinction si l'augmentation du réchauffement mondial moyen dépasse 1,5 à 2,5 °C (par rapport à 1980 - 1999). Avec une augmentation de la température mondiale moyenne supérieure d'environ 3,5 °C, les projections des modèles indiquent des extinctions (de 40 à 70 % des espèces évaluées) dans le monde entier. En mai 2008, les États-Unis ont inscrit l'ours blanc d'Alaska sur la liste des espèces menacées.

    • Le réchauffement pourrait induire un effet rebond irréversible à échelle humaine de temps s'il amorce des incendies de forêts et un dégazage important de méthane des pergélisols et fonds marins. La quantité de méthane actuellement dégagée par le pergélisol en train de fondre est de l'ordre de 14 à 35 millions de tonnes par an. On estime que cette quantité s'élevera de 100 à 200 millions de tonnes par an d'ici 2100, menant à elle seule à une élévation de température de l'ordre de 0,3 °C. Au cours des prochains siècles, 50 milliards de tonnes de méthane pourraient être dégagés par les lacs thermokarstiques sibériens.

    • L'eau plus chaude et plus acide, et des pluies hivernales plus intenses, ainsi que des chocs thermiques et mouvements de nappe accrus pourraient avoir avant la fin du siècle des effets indirects sur le sol et sous-sols : des effondrements de cavités souterraines (carrière (géologie)s, d'anciens abris souterrains, de sapes de guerre ou de marnières etc.) sont attendus. (3 000 communes sont soumises à ce risque en France, hors risque d'« affaissement minier » selon l'INERIS. Un «Plan cavités» (sur les risques liés ou non au changement climatique) serait à l’étude en France selon l'INERIS.

    • Certains, dont le climatologue James Hansen, estiment que «la Terre pourrait avoir dépassé le seuil dangereux de CO[SUB]2[/SUB], et la sensibilité de la planète au dioxyde de carbone est bien plus importante que celle retenue dans les modèles».
    Des visions prospectives optimistes et moins optimistes cohabitent en 2009 : certains insistent sur le fait que les solutions techniques existent, et qu'il ne reste qu'à les appliquer (les maisons pourraient être isolées, et produire plus d'électricité qu'elles n'en consomment, les transports maîtrisés, les villes pourraient être plus autonomes et dépolluer l'air). D'autres — tout en invitant à appliquer au plus vite ces solutions voire une décroissance soutenable et conviviale — réalertent, constatent que de 1990 à 2009, la tendance a été la réalisation des fourchettes hautes d'émission de gaz à effet de serre, conduisant aux scénarios-catastrophe du Giec, et estiment qu'il est temps de cesser de parler de « changement » pour décrire une catastrophe.

    Phénomènes à très long terme


    La majorité des climatologues pensent que les phénomènes induits par l'émission des gaz à effet de serre vont se poursuivre et s'amplifier à très long terme. Le troisième rapport du Giec insiste en particulier sur les points suivants :

    • certains gaz à effet de serre, ont une espérance de vie longue, et influent donc sur l'effet de serre longtemps après leur émission (durée de vie dans l'atmosphère d'environ 100 ans pour le CO[SUB]2[/SUB]) ;
    • de par l'inertie du système climatique, le réchauffement planétaire se poursuivra après la stabilisation de la concentration des gaz à effet de serre. Ce réchauffement devrait cependant être plus lent ;
    • l'inertie, plus grande encore, de la masse océanique fait que l'élévation du niveau des mers se poursuivra même après la stabilisation de la température moyenne du globe. La fonte de calottes glaciaires, comme celle du Groenland, sont des phénomènes se déroulant sur des centaines voire des milliers d'années.
    Les récentes observations dans la zone arctique menées sous l'égide du programme européen Damoclès (Developping Arctic Modelling and Observing Capabillities for Long-term Environmental Studies) ont créé une véritable surprise dans le monde scientifique. En effet, celles-ci montrent une différence importante avec les prévisions issues des différents modèles et sur lesquelles sont basées les conclusions du Giec : ceci se traduit par une nette accélération des effets dus à l'augmentation des gaz à effet de serre en Arctique (fonte totale de la banquise en été d'ici 2020).

    Rétroactions


    Les scientifiques nomment rétroactions les actions en retour du système climatique sur lui-même. Ces rétroactions sont positives lorsque le réchauffement climatique induit des phénomènes contribuant eux-mêmes à accentuer ce réchauffement, et négatives lorsque les phénomènes induits contribuent à réduire le réchauffement. De telles rétroactions ont déjà été observées lors de précédents réchauffements climatiques, à la fin d'une ère glaciaire ; le climat peut ainsi, en quelques années, se réchauffer de plusieurs degrés.
    Les principales rétroactions, qui sont positives, sont les suivantes :

    • le dégagement de méthane : le méthane (CH[SUB]4[/SUB], qui n'est autre que le gaz naturel, à quelques «impuretés» près), est un gaz à effet de serre 23 fois plus réchauffant que le CO[SUB]2[/SUB]. Il se forme lorsque la décomposition de la matière organique s'effectue avec un manque d'oxygène, et sous l'action de bactéries, un processus nommé méthanisation. Les sols humides (marais) sont très propices à cette création de méthane, qui est alors libéré dans l'atmosphère (cela peut donner lieu à des inflammations spontanées et l'on peut observer des feux follets). Si le sol est gelé, le méthane reste piégé dans la glace sous la forme d'hydrates de méthane. Le sol de Sibérie est ainsi un immense réservoir de méthane (sans doute trop diffus pour être exploité industriellement) : selon Larry Smith du département de géographie de l'UCLA, la quantité de méthane présent dans le sol sibérien serait de 70 milliard de tonnes, soit un quart du méthane stocké à la surface de la planète. Si le sol se réchauffe, la glace fond et libère le méthane déjà présent initialement, ce qui a pour conséquence un effet de serre plus marqué, et par suite un emballement du réchauffement climatique, qui fait fondre la glace encore plus vite. On parle aussi de bombe à carbone ;
    • le ralentissement et la modification des courants océaniques : l'océan capte aujourd'hui le tiers du CO[SUB]2[/SUB] émis par les activités humaines. Mais si les courants océaniques ralentissent, les couches d'eau superficielles peuvent se saturer en CO[SUB]2[/SUB] et ne pourraient plus en capter comme aujourd'hui. La quantité de CO[SUB]2[/SUB] que peut absorber un litre d'eau diminue à mesure que l'eau se réchauffe. Ainsi, de grandes quantités de CO[SUB]2[/SUB] peuvent être relarguées si les courants océaniques sont modifiés. En outre, l'accumulation de CO[SUB]2[/SUB] dans les océans conduit à l'acidification de ces derniers, ce qui affecte l'écosystème marin et peut induire à long terme un relargage de CO[SUB]2[/SUB]. Les moteurs de la circulation océanique sont de deux types : l'eau en se rapprochant des pôles se refroidit et devient donc plus dense. De plus, l'eau de mer qui gèle rejette son sel dans l'eau liquide (la glace est constituée d'eau douce), devenant au voisinage des calottes glaciaires encore plus dense. Cette eau plonge donc et alimente la pompe : l'eau plus chaude de la surface est aspirée. L'eau du fond (froide) remonte dans les zones des tropiques et / ou équatoriales et se réchauffe, ceci en un cycle de plus de 1 000 ans. Si les calottes de glace fondent, la pompe se bloque : en effet, l'eau qui plonge provient de la calotte et non plus de l'eau refroidie en provenance des tropiques. Un effet similaire est observé si les précipitations augmentent aux hautes latitudes (ce qui est prévu par les modèles) : l'eau qui plongera sera l'eau douce de pluie. À terme, une forte perturbation du Gulf Stream est envisageable ;

    • la variation d'albédo : actuellement, la neige et la glace des zones polaires réfléchissent les rayons solaires. En cas de fonte de cette neige ou de cette glace, les rayons solaires sont davantages absorbés, entraînant un réchauffement supplémentaire de ces régions et une fonte accentuées, amplifiant le phénomène.
    Les rétroactions négatives sont plus incertaines :

    • le développement de la végétation : dans certaines régions, le réchauffement climatique pourrait être favorable au développement de la végétation, qui est un puits de carbone, ce qui contribuerait à limiter l'augmentation des gaz à effets de serre ;
    • le rôle de la vapeur d'eau : le réchauffement climatique pourrait augmenter la formation de nuages contribuant à réfléchir davantage les rayons solaires. Cependant, la vapeur d'eau est elle-même un gaz à effet de serre et le bilan final d'une augmentation de vapeur d'eau dans l'atmosphère est assez difficile à prévoir.
    Conséquences du réchauffement climatique sur l'homme et la biosphère

    Au-delà des conséquences directes, physiques et climatiques, du réchauffement planétaire, celui-ci influera sur les écosystèmes, en particulier en modifiant la biodiversité.
    Les scientifiques commencent à proposer des projections jugées relativement fiables du devenir de la biodiversité sur la base de 5 facteurs déterminants : la dégradation et la destruction des habitats, le changement climatique, la disponibilité des éléments nutritifs, la surexploitation des ressources biologiques et les espèces invasives.
    La convention sur la diversité biologique (CDB) a en 2010 proposé des scénarios de réponses de la biodiversité face au changement global. Ces outils prospectifs issus de modèles statistiques, d'expérimentations et des tendances observées visent à aider le dialogue. À partir des travaux publiés dans des journaux scientifiques évalués par les pairs, la CDB (via DIVERSITAS, le PNUE-WCMC) a produit ces «scénarios de biodiversité» avec la participation d'environ 40 experts, dont huit français.
    En France, la fondation biodiversité (FRB), dans le cadre du programme phare « modélisation et scénarios de biodiversité » a traduit en français ce cahier technique.
    Dans le monde, selon le GIEC, la capacité de nombreux écosystèmes à s'adapter naturellement sera probablement dépassée par la combinaison sans précédent des :

    Le déséquilibre naturel qui s'ensuivra pourrait entraîner la disparition de plusieurs espèces animales et végétales. C'est une préoccupation dont les États, comme la France, commencent à tenir compte. Pour l'ensemble des populations humaines, ces effets «physiques» et «écologiques» auront de fortes répercussions. La très grande complexité des systèmes écologiques, économiques et sociaux affectés par le réchauffement climatique ne permet pas de faire des prévisions chiffrées comme pour la modélisation physique de la Terre.
    Au niveau biologique et écologique, un consensus scientifique a été atteint sur les points suivants :

    • Le bilan global du réchauffement climatique en termes de biodiversité sera négatif selon un certain nombre d'études et selon le consensus du quatrième rapport du Giec qui envisage la disparition de 40 à 70 % des espèces évaluées ; certaines espèces verront peut-être (et éventuellement provisoirement) leur population et leur aire de répartition augmenter (par exemple pour la marmotte à ventre jaune).
    • certains systèmes naturels seront plus affectés que d'autres par le réchauffement planétaire. Les systèmes les plus sensibles seraient : les glaciers, les récifs coralliens, les mangroves, les forêts boréales et tropicales, les écosystèmes polaires et alpins, les prairies humides. Le blanchissement des récifs coralliens a été observé pour la première fois dès 1979 dans les Antilles. Ce phénomène s'est développé régulièrement dans l'espace et le temps à des échelles toujours plus grandes, par exemple à l'échelle de l'océan Indien en 1998. Si le réchauffement continue au rythme actuel, on craint une extinction de masse des récifs coralliens à l'échelle planétaire à partir de 2015 / 2020 ;
    • les dommages causés aux systèmes naturels, que ce soit par leur ampleur géographique ou leur intensité, seront proportionnels à l’intensité et à la rapidité du réchauffement planétaire.
    Conséquences négatives pour l'humanité
    Le Giec prévoit des conséquences négatives majeures pour l'humanité au XXI[SUP]e[/SUP] siècle :

    • une baisse des rendements agricoles potentiels dans la plupart des zones tropicales et subtropicales ;
    • une diminution des ressources en eau dans la plupart des régions sèches tropicales et subtropicales ;
    • une diminution du débit des sources d'eau issues de la fonte des glaces et des neiges, suite à la disparition de ces glaces et de ces neiges.
    • une augmentation des phénomènes météorologiques extrêmes comme les pluies torrentielles, les tempêtes et les sécheresses, ainsi qu'une augmentation de l'impact de ces phénomènes sur l'agriculture ;
    • une augmentation des feux de forêt durant des étés plus chauds ;
    • l'extension des zones infestées par des maladies comme le choléra ou le paludisme. Ce risque est fortement minimisé par le professeur spécialiste Paul Reiter mais le gouvernement du Royaume-Uni fait remarquer que ce professeur a choisi d'ignorer tous les rapports récents qui le contredisent ;
    • des risques d'inondation accrus, à la fois à cause de l'élévation du niveau de la mer et de modifications du climat ;
    • une plus forte consommation d’énergie à des fins de climatisation ;
    • une baisse des rendements agricoles potentiels aux latitudes moyennes et élevées (dans l'hypothèse d'un réchauffement fort).
    Conséquences positives pour l'humanité
    Elles sont aussi associées au réchauffement prévu au XXI[SUP]e[/SUP] siècle :

    • une plus faible mortalité hivernale aux moyennes et hautes latitudes ;
    • une augmentation éventuelle des ressources en eau dans certaines régions sèches tropicales et subtropicales ;
    • une hausse des rendements agricoles potentiels dans certaines régions aux latitudes moyennes (dans l'hypothèse d'un réchauffement faible) ;
    • l'ouverture de nouvelles voies maritimes dans l’Arctique canadien suite à la fonte des glaces dans le passage du Nord-Ouest.
    Conséquences en France

    En ce qui concerne la France, l'élévation de température risque d'augmenter le nombre de canicules en 2100. Alors que le nombre de jours de canicule est actuellement de 3 à 10 par an, il pourrait s'élever à une moyenne de 20 à 40 en 2100, rendant banale la canicule exceptionnelle de 2003.
    Les précipitations seraient plus importantes en hiver, mais moindres en été. Les régions connaissant des durées de plus de 25 jours consécutifs sans pluie, actuellement limitées au sud-est de la France, s'étendraient à la moitié ouest du territoire.
    D'une façon générale, les espèces arborées en France vont connaître une remontée vers le nord. Ce modèle repose sur plusieurs scénarios du rapport du GIEC de 2007 :

    • Un scénario optimiste B2 qui prévoit une augmentation des températures de 2°C pour 2100.
    • Un scénario pessimiste A2 qui prévoit une augmentation des températures de 3,5 °C pour 2100.
    On voit alors que dans les deux cas, on observe une diminution de l’aire de répartition des 3 types non méditerranéens (montagnard, continental, atlantique) et une augmentation de celle des espèces méditerranéennes. Plus particulièrement : L'épicéa risquerait de disparaître du Massif Central et des Pyrénées. Le chêne, très répandu dans l'Est de la France, verrait son domaine réduit au Jura et aux Vosges, mais le pin maritime, actuellement implanté sur la façade Ouest, s'étendrait sur la moitié ouest de la France et le chêne vert s'étendrait dans le tiers sud, marquant une étendue du climat méditerranéen.
    Les cultures du midi méditerranéen, telles que celle de l'olivier, pourraient s'implanter dans la vallée du Rhône. On peut désormais trouver des oliviers en tant qu'arbres d'ornement sur toute la façade sud-ouest de l'océan Atlantique, et ce jusqu'en Vendée. Par contre, faute d'eau suffisante, la culture du maïs serait limitée à la partie nord et nord-est du territoire. Les céréales verraient leur rendement augmenter si l'élévation de température ne dépasse pas 2 °C. Par contre, si elle était supérieure, les plantes cultivées auraient du mal à s'adapter et on pourrait craindre des difficultés agricoles.
    Les chutes de neige seront moins abondantes, entraînant un moindre approvisionnement en eau des fleuves, mais également des difficultés d'ordre économique pour l'économie de montagne. Par exemple, les stations de ski situées à moins de 1 500 m d'altitude seraient amenées à fermer leurs pistes et à se reconvertir.

    - Prospective climatique régionale
    En 2012, des scenarii régionalisés ont été publiés par l'ONERC, sous la direction de Jean Jouzel, avec des indices de références pour la métropole, et des éléments prospectifs concernant la montée du niveau de la mer. C'est un outil d'aide à la décision, complémentaire du SRCAE (Schéma régional climat - air - énergie).
     
  16. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113
    Réchauffement climatique
    ________________________________________________________




    Conséquences humaines du réchauffement climatique


    Face au réchauffement climatique, l'Académie des Sciences américaine note, dans un rapport de 2002 : «il est important de ne pas adopter d'attitude fataliste en face des menaces posées par le changement de climat. (…) Les sociétés ont dû faire face à des changements du climat graduels ou abrupts durant des millénaires et ont su s'adapter grâce à des réactions diverses, telles que s'abriter, développer l'irrigation ou migrer vers des régions plus hospitalières. Néanmoins, parce que le changement du climat est destiné à continuer dans les prochaines décennies, dénier la possibilité d'événements climatiques abrupts ou minimiser leur impact dans le passé pourrait s'avérer coûteux.».

    Impact sur les régions côtières

    La montée du niveau de la mer est évaluée entre 18 et 59 cm d'ici 2100 par le quatrième rapport du GIEC.
    Les populations de certaines îles de l'océan Pacifique ou de l'océan Indien, telles que les îles Maldives ou Tuvalu, sont directement menacées, car une partie de leur territoire pourrait se retrouver submergée. Mais l'ensemble des populations vivant dans des régions côtières (soit plus de cinq cent millions de personnes) risquent de voir leur environnement dégradé (érosion du littoral, salinité des aquifères, disparition des zones humides, inondations permanentes).
    Localement, cette montée s'ajoute à des phénomènes qui ne sont pas liés au climat et qui entraînent un enfoncement du sol : charge des sédiments dans les deltas des fleuves, pompage des eaux souterraines, extraction de gaz et de pétrole, affaissements miniers ...

    En France, des études sont menées pour évaluer l'impact de la montée des eaux sur le littoral d'ici 2100 et les aménagements à envisager.

    Agriculture et pêcheries

    L'accroissement de l'évaporation devrait augmenter localement la pluviosité hivernale, sauf dans les pays méditerranéens qui verraient la sècheresse s'accentuer, dans un contexte où la violence et/ou la fréquence et gravité des aléas climatiques pourraient croître.
    En zone tempérée (hors des zones arides qui pourraient le devenir encore plus) et circumpolaire, dans un premier temps, la conjonction du réchauffement et de l'augmentation du taux de CO[SUB]2[/SUB] dans l'air et les pluies pourrait accroître la productivité des écosystèmes. L'agriculture du Nord des États-Unis, du Canada, de la Russie et des pays nordiques pourrait peut-être en profiter, mais des signes de dépérissement forestier semblent déjà visible dans ces zones.

    De façon générale, le réchauffement des océans a un impact sur les organismes marins et notamment les espèces exploitées. Cet impact s'observe sur la biogéographie des espèces et sur la structure et la trophodynamique de l’écosystème marin. Des bouleversements, dans la distribution spatiale et l’abondance d’espèces de poissons, tels la morue de l’Atlantique ont été observés en réponse directe ou indirecte aux modifications climatiques.


    Probabilité de présence du lieu noir en Atlantique Nord
    (animation)
    [​IMG]
    Probabilité de présence du lieu noir en Atlantique Nord
    estimée à partir d'un modèle d'habitat (NPPEN,
    pour la période allant de 1960 à 2099,
    basée sur le scénario d'évolution des températures du GIEC: ECHAM4 B2)

    Description : Distribution spatiale modélisée du lieu noir en Atlantique Nord 1960-2099
    Date : 7 June 2012
    Source : Own work
    Auteur : Sylvain59
    Ce fichier est disponible selon les termes de la licence
    Creative Commons paternité – partage à l’identique 3.0 (non transposée)

    ______________________________

    En Atlantique Nord, les espèces risquent d'effectuer en majorité un déplacement dirigé vers le nord, pour rester dans un environnement conforme à leurs exigences écologiques et plus particulièrement thermiques. L’intensité et la vitesse des mouvements biogéographiques attendus, de même que le bilan des gains ou pertes d’aires de répartition spatiale diffèrent selon les espèces et l’intensité du réchauffement climatique. En mer du Nord, des espèces comme le lieu jaune, à la niche écologique étroite et aux exigences strictes, risquent de disparaitre suite à la contraction de leur aire de répartition. D’autres espèces, plus adaptées verront leur abondance augmentée ou/et leur limite supérieure de distribution repoussée au nord, tel le lieu noir.
    La modification des aires de répartitions des espèces de poissons exploitées risquent de poser des problèmes d'un nouveau genre aux acteurs du secteur économique de la pêche. Associées à l'épuisement des ressources lié à la surexploitation, des disparitions locales d'espèces cibles risquent de survenir, conduisant les professionnels de la pêche à modifier leur mode d'activité afin de prévoir, d‘anticiper et de compenser les changements potentiels de leurs ressources.


    On ignore aussi à partir de quand les écosystèmes marins réagiront négativement à l'acidification des océans qu'entraîne la dissolution de quantités croissantes de CO[SUB]2[/SUB]. Des organismes tels que levures ou plantes (ex : Arabidopsis thaliana) sont - grâce à une seule protéine (histone H2A.Z) pour l'arabette - sensibles à des variations de température de moins de 1 °C, qui suffisent via cette protéine à modifier l’enroulement de l’ADN sur lui-même, ce qui contrôle l’accès à l’ADN de certaines molécules inhibant ou activant plusieurs dizaines de gènes. Ceci devrait aider à mieux comprendre certains effets (sur les gènes) du réchauffement climatique.

    Le Comité économique et social européen dans son avis du 3 février 2009 note que des études comparatives concluent à un bilan de l'agriculture biologique en moyenne meilleur (au regard de la consommation de matières premières et d'énergie et au regard du carbone stocké ou des émissions de gaz à effet de serre) que celui de l'agriculture dite conventionnelle, même si l'on tient compte des rendements moindres de l'agriculture bio, ce qui a justifié que le gouvernement allemand, l'intègre parmi les moyens de lutter contre le changement climatique).
    LE CESRE rappelle aussi qu'une agriculture réorientée et adaptée pourrait, selon divers spécialistes et ONG, aussi contribuer à tamponner ou freiner les effets du réchauffement (Cool farming)).
    Le comité ne cite pas les agrocarburants comme une solution, citant le climatologue Paul Crutzen selon qui les émissions de protoxyde d'azote induites par la culture et production de biodiesel, suffisent, dans certaines conditions à faire que le méthylester de colza puisse avoir des effets climatiques pires que ceux du diesel fait avec du pétrole fossile.
    Le comité, pose aussi la question des fumures traditionnelles et se demande «si l'utilisation intégrale des plantes, telle qu'elle est prévue dans le cadre des biocarburants de la deuxième génération, ne risque pas de porter atteinte aux objectifs fixés en matière de développement de la couche d'humus», c'est-à-dire de contribuer à encore épuiser la matière organique des sols. Le comité repose la question de l'écobilan des biocarburants en citant une étude comparative, de l'Empa qui a conclu que pour parcourir 10 000 km une automobile moyenne (Volkswagen Golf) nécessitait, avec les rendements observés en Suisse, une surface au sol de 5 265 m[SUP]2[/SUP] de colza (biodiesel) contre 37 m[SUP]2[/SUP] de panneaux solaires (soit 134 fois moins).


    Forêt, sylviculture, agrosylviculture

    Les forêts tropicales sont vulnérables aux sécheresses, cyclones et incendies ; Pour les rendre plus résilientes au changement climatique, il faudrait un effort coordonné et multi-niveau pour mieux utiliser les outils de conservation, avec notamment l'expansion des aires protégées, le contrôle des incendies, et l'application de la REDD (réduction des émissions de la déforestation et de la dégradation forestière, outil destiné à protéger le carbone forestier mais auquel il manque des mécanismes explicites d'amélioration de la résilience de la forêt.

    En Amérique du Nord, Thomas Veblen, professeur de géographie à l'Université du Colorado, coauteur avec l'Institut de géophysique américain, a étudié des parcelles forestières de l'ouest des États-Unis sur les périodes 1955/1994 et 1998/2007. En 30 ans, Avec peut être d'autres causes, un réchauffement moyen de 0,5 °C a déjà doublé le taux de mortalité des arbres des grandes forêts de l'ouest américain, en favorisant les sècheresses et pullulations de ravageurs (dont scolytes qui ont par exemple détruit environ 1,4 million d'hectares de pins dans le nord-ouest du Colorado). Le manque de neige a induit un déficit hydrique et un allongement des sècheresses estivales, avec multiplication des incendies, ce qui laisse craindre des impacts en cascade sur la faune et les écosystèmes.

    La mortalité accrue touche tant feuillus que conifères, de toutes tailles et essences et à toutes les altitudes. Dans le nord-ouest américain et le sud de la Colombie-Britannique (Canada), le taux de mortalité dans les vieilles forêts de conifères a même doublé en 17 ans (c'est une fois et demie plus rapide que la progression du taux de mortalité des arbres des futaies californiennes où ce taux a été multiplié par deux en 25 ans). L'accélération de la mortalité a été moindre dans les forêts de l'ouest ne bordant pas le Pacifique (dans le Colorado et l'Arizona), mais «un doublement de ce taux de mortalité finira par réduire de moitié l'âge moyen des arbres des futaies, entraînant une diminution de leur taille moyenne», estime T Veblen. Il craint aussi une moindre fixation du CO[SUB]2[/SUB] de l'atmosphère. Il appelle à « de nouvelles politiques permettant de réduire la vulnérabilité des forêts et des populations », dont en limitant l'urbanisation résidentielles dans les zones vulnérables.

    En France, selon l'INRA, le réchauffement devrait aussi affecter les forêts ; plusieurs essences, dont le hêtre (très sensible au manque d'eau) ne survivront pas dans la moitié sud du pays, et plusieurs ravageurs des arbres pourraient continuer à remonter vers le nord.

    • Une étude de 2008 a montré que la flore montagnarde (et une partie de la faune, dont des parasites tels que les tiques) répondait déjà au réchauffement en migrant en altitude (65 mètres/an en moyenne depuis les années 1980), mais avec impossibilité en moyenne montagne pour certaines plantes de monter plus haut.
      En outre, les surfaces disponibles se réduisent quand on se rapproche des sommets soumettant les espèces à une concurrence plus aiguë.
      Des modifications adaptatives phénologiques sont aussi observées, mais qui apparaissent à des rythmes différents selon les capacités adaptatives des espèces.
    • Contrairement à ce qu'on a d'abord cru ou espéré, les forêts de plaine ne sont pas épargnées ; Comme la plupart des écosystèmes terrestres, elles subissent des changements latitudinaux et altitudinaux en réponse au forçage climatique. Une étude récente (2011) basée sur l'observation des assemblages de plantes (observés en plaine et en montagne via 76 634 inventaires effectués sur une période de 43 ans en France, de 1965 à 2008). Les auteurs concluent qu'en plaine, les espèces ont en fait encore moins de possibilité d'échapper au réchauffement, qu'en montagne, d'autant que les forêts de plaines sont en France souvent très fragmentées par des routes (depuis l'époque de Louis XIV parfois), ce qui les rend plus vulnérables.
      En montagne (500 à 2 600 m d'altitude), la remontée progressive des communautés végétales typiques de climats frais ou froids (remplacée par des espèces plus thermophiles) leur a permis de «compenser» 0,54 °C sur les 1,07 °C d'augmentation moyenne de température pour la période étudiée. Par contre en plaine, la compensation n'a été que de 0,02 °C pour un réchauffement similaire (1,11 °C). Ceci démontre une perte d'adéquation entre la flore forestière de plaine et le climat, qui était en 2008 3,1 fois plus grave en plaine qu'en montagne. Ceci s'expliquerait par le fait que les espèces de plaines sont théoriquement plus adaptées aux températures chaudes mais en réalité bien plus soumises aux pollutions, au dérangement, à la fragmentation à la proximité de routes, habitations, villes, agriculture intensive qu'en montagne. Or ces facteurs de stress écologique sont aussi autant d'obstacles aux migrations de propagules, d'espèces ou de biocénoses forestières. Enfin, les grands massifs forestiers montagneux sont souvent plus vastes et mieux interconnectés ou plus proches les uns des autres que les massifs de plaines, notamment dans les zones d'agriculture intensive qui abritent les sols les plus riches et donc les plus cultivés. Là, le vent ou la zoochorie peuvent ne plus suffire à assurer des migrations assez rapides pour la pérennité des écosystèmes forestiers de plaine. Les désynchronisation entre chorologie, phénologie, chronobiologie et nouveaux climats qui augmentent 3,1 fois plus vite en forêt de plaine qu'en forêt de montagne sont une source potentielle supplémentaire d'extinctions ou régression d'espèces et de biodiversité.
      Enfin, d'une génération à l'autre, les espèces de forêt de plaines doivent parcourir une distance croissante pour retrouver un climat favorable à leur développement. Elles doivent en montagne de migrer (en moyenne) sur 1,1 km, vers les sommets surtout, pour retrouver un environnement thermo hygrométrique proche de celui qui précédait ce réchauffement climatique. En Forêt de plaine, la distance à parcourir pour ce faire est environ 30 fois plus importante (35,6 km en moyenne). Certaines espèces ont de faibles distances de dispersion. Et dans les meilleurs cas, elles ne dépassent pas quelques centaines de mètres par an. Les herbacées forestières semblent donc ne pas pouvoir suffisamment compenser par leurs potentialités naturelles de déplacement la hausse de température observée en plaine.
    Accès à l'océan Arctique

    Une diminution des glaces polaires arctiques a ouvert de nouvelles routes commerciales pour les navires, et rendrait accessibles des ressources sous-marines de pétrole ou de matières premières, mais avec des conséquences néfastes sur nombre d'espèces, comme le plancton ou les poissons à haute valeur commerciale.
    L'accès à ces matières premières en des zones désormais accessibles risque d'être source de conflit entre pays côtiers de l'océan Arctique. Ainsi, les États-Unis et le Canada ont-ils protesté lorsque, le 2 août 2007, la Russie planta son drapeau au fond de l'océan sous le pôle Nord.


    Économie

    Le rapport établi par Nicholas Stern, économiste anglais, estime que le réchauffement climatique entrainerait un coût économique de 5 500 milliards d'euros en tenant compte de l'ensemble des générations (présente et futures) ayant à en subir les conséquences.
    En 2007, pour la première fois, le World monuments fund (WMF, Fonds mondial pour les monuments) a introduit les modifications climatiques dans la liste des menaces pour 100 sites, monuments et chefs-d’œuvre de l’architecture menacés, les autres menaces principales étant les guerres et conflits politiques, et le développement industriel et urbain anarchique.
    Le rapport du réassureur Munich Re du 17 octobre 2012 (sur la période 1980 à 2011) estime que c'est l'Amérique du Nord qui a subi l'aggravation la plus forte de «pertes financières dues à des événements liés à la météo», avec plus de 30 000 morts et 1060 milliards de dollars (820 milliards d’euros) induits par la gestion et réparation des catastrophes climatiques. Ce même rapport a estimé que le nombre d'événements extrêmes a quintuplé dans le monde (et doublé en Europe).

    Santé

    Des conséquences sanitaires des phénomènes climatiques sont redoutées : le quatrième rapport du Giec met en avant certains effets sur la santé humaine, tels que «la mortalité associée à la chaleur en Europe, les vecteurs de maladies infectieuses dans diverses régions et les allergies aux pollens aux latitudes moyennes et élevées de l’hémisphère nord» ou l'émergence ou réémergence de maladies infectieuses et [vecteur (biologie)|vectorielles]

    Les changements climatiques pourront modifier la distribution géographique de nombreuses maladies infectieuses. Des températures élevées dans les régions chaudes pourraient réduire l'extension du parasite responsable de la bilharziose. Mais le paludisme fait sa réapparition au nord et au sud des tropiques (Aux États-Unis, cette maladie était en général limitée à la Californie, mais depuis 1990, des épidémies sont apparues dans d'autres États, tels le Texas, la Floride, mais aussi New York ; Il est également réapparu dans des zones où il était peu fréquent, telles le sud de l'Europe et de la Russie ou le long de l'océan Indien. On constate également que les moustiques et les maladies qu'ils transmettent ont gagné en altitude. La fréquence de la maladie de Lyme augmente, ainsi que son extension géographique, de manière corrélée à l'augmentation de l'aire de répartition de son principal vecteur connu, la tique due à une bactérie spirochète.

    En climat tempéré, un réchauffement global réduirait le nombre de morts par le froid ou les maladies respiratoires, mais augmenterai la surmortalité estivale lors des canicules.
    Il est difficile de savoir quel sera le bilan global, et si une diminution de l'espérance de vie en découlera ou non.


    L'Institut de veille sanitaire (InVS) a évalué les principaux risques pour la France métropolitaine, et proposé des voies d'adaptations possibles, pour la veille sanitaire et la recherche et a publié fin 2010 une Note de position sur ce thème.


    Déstabilisation géopolitique mondiale

    Rapport du DoD de 2003
    Selon un rapport de 2003 commandé par le département de la Défense des États-Unis et selon un rapport de 2007 du programme des Nations unies pour l'environnement (UNEP), le réchauffement climatique pourrait entraîner des phénomènes de déstabilisation mondiale, qui bouleverseraient les rapports géopolitiques entre les États, et augmenteraient les risques de guerre civile.

    Le réchauffement climatique et son influence sur les changements environnementaux, couplés à des facteurs politiques ou économiques, sont pris en compte dans l'étude d'éventuelles migrations forcées de population.

    Le 3 juin 2009, Les Nations unies ont adopté une résolution sur «Les Changements climatiques et leurs répercussions éventuelles sur la sécurité».

    En août 2012, John Kerry, devenu depuis lors secrétaire d'État, a tenu un long discours au Sénat sur les risques de conflits liés au changement climatique. Face à des conservateurs républicains niant la réalité scientifique du réchauffement climatique, John Kerry démontrait que la diminution du débit du fleuve Indus pouvait amener le gouvernement indien à préserver ses ressources en eau par la construction de barrages. Son voisin, le Pakistan se verrait ainsi privé d’un important accès à l’eau ; John Kerry estime qu'au vu de l’état de ses forces armées traditionnelles, le Pakistan ne se risquerait pas à un conflit conventionnel pour préserver ses ressources en eau, mais opterait sans doute pour la menace nucléaire et, cas échéant, à son exécution.
    La perspective de guerres liées au changement climatique a également été évoquée par les agences nationales, en particulier la CIA, et par le Pentagone qui, dans son rapport 2010 sur la défense, identifie le changement climatique comme une des causes essentielles dans la possible multiplication des conflits.


    Interactions avec la crise de 2008-2009
    En 2009, l'agence internationale de l'énergie (AIE) constate - en raison de la crise - une baisse de la consommation d'énergie, mais aussi une baisse des investissements en économies d'énergie (un cinquième en moins en 2009), L'AIE redoute une nouvelle hausse induite par une éventuelle reprise de l'économie. Il faudrait selon cette agence investir 10 500 milliards de dollars d'ici 2030 pour «décarboner» l'économie afin de limiter l'impact sur le climat (c'est le scénario 450 ppm de CO[SUB]2[/SUB] à ne pas dépasser pour que le réchauffement ne dépasse pas 2 °C en 2100). Avec la poursuite du scénario tendanciel (+1,5 % par an de consommation d'énergie de 2007 à 2030, soit +40 % au total), c'est une hausse moyenne de 6 °C qui pourrait être observée à la fin du XXI[SUP]e[/SUP] siècle.

     
  17. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113
    Réchauffement climatique
    ________________________________________________________



    Réponses des États,
    collectivités, entreprises,
    citoyens face à la menace climatique




    La réalité du risque et du phénomène fait maintenant presque consensus. L'auteur du rapport Stern, Nicholas Stern, en 2006, reconnaissait lui-même avoir sous-estimé l’ampleur du problème : «La croissance des émissions de CO[SUB]2[/SUB] est beaucoup plus forte que prévue, les capacités d’absorption de la Planète se réduisent et la vitesse des changements climatiques est plus rapide qu’envisagée.»

    Face au problème, trois approches se complètent : lutte contre les émissions de gaz à effet de serre, puits de carbone, et adaptation.
    L'effort international a d'abord visé à réduire le CO[SUB]2[/SUB] (gaz à longue durée de vie), alors qu'une action urgente sur les polluants à courte durée (dont le méthane, l'ozone troposphérique et le «carbone noir») pourrait mieux réduire le réchauffement de l'Arctique. La réduction du CO[SUB]2[/SUB] est aussi importante, mais ses effets se feront sentir à plus long terme (après 2100).


    • La prospective éclaire les gouvernements, entreprises et individus, qui, grâce à la connaissance des tendances générales, peuvent prendre des décisions politiques et stratégiques plus pertinentes pour limiter les impacts du changement climatique.
    Les rapports du Giec sont la principale base d'information et discussions, dont dans le cadre du protocole de Kyoto et de ses suites (Bali, décembre 2007, ...). L'augmentation prévue de 1,5 à 7 °C pour le siècle à venir, pourrait être moindre si des mesures environnementales sévères étaient prises ou qu'un réel compétiteur aux énergies fossiles émergeait. En dépit des succès dans le secteur des énergies renouvelables, du nucléaire et surtout d'un changement de mode de vie et de consommation, la recherche n'a pas encore offert d'alternative à court terme aux carburants fossiles. Énergie éolienne, énergie hydroélectrique, énergie géothermique, énergie solaire, méthanisation, énergie hydrolienne, pile à combustible, énergie nucléaire, stockage géologique du dioxyde de carbone sont néanmoins en rapide développement. Le gisement d'économies d'énergie — les négawatts — est encore considérable.

    • La société civile propose aussi des réponses, notamment via les campagnes et actions de lobbying des ONG et associations locales.
    En France, les ONG de protection de l’environnement et les associations concernées se sont regroupées au sein du Réseau Action Climat (RAC).
    Le réchauffement climatique pourrait se traduire par un temps plus instable (vagues de chaleur ou de froid, inondations ou sécheresse, tempêtes et cyclones). De plus, d'après le GIEC, la capacité à s'adapter naturellement de nombreux écosystèmes sera probablement dépassée, causant massivement l'extinction des espèces, par la combinaison sans précédent de :


    Protocole de Kyoto

    La convention-cadre des Nations unies sur les changements climatiques est signée en 1992 lors du sommet de la Terre à Rio de Janeiro. Elle entre en vigueur le 21 mars 1994. Les signataires de cette convention se fixent comme objectif de stabiliser la concentration des gaz à effet de serre dans l’atmosphère à «un niveau qui empêche toute perturbation anthropique dangereuse du climat». Les pays développés ont comme objectif de ramener leurs émissions de gaz à effet de serre en 2010 au niveau de 1990, cet objectif n'étant pas légalement contraignant.

    En 1997, les signataires de la convention cadre adoptent le protocole de Kyoto, dont la nouveauté consiste à établir des engagements de réduction contraignants pour les pays dits de l'annexe B (pays industrialisés et en transition) et à mettre en place des mécanismes dit «de flexibilité» (marché de permis, mise en œuvre conjointe et mécanisme de développement propre) pour remplir cet engagement. Le protocole de Kyoto entre en vigueur le 16 février 2005 suite à sa ratification par la Russie.
    En juillet 2006, le protocole de Kyoto est maintenant ratifié par 156 États. Les États-Unis et l'Australie (voir ci-dessous) ne sont pas signataires. Les États-Unis sont pourtant le deuxième émetteur mondial de gaz à effet de serre avec environ 20 % des émissions de gaz à effet de serre. Les pays de l'annexe B se sont engagés à réduire leurs émissions de six gaz à effet de serre (CO[SUB]2[/SUB], CH[SUB]4[/SUB], N[SUB]2[/SUB]O, SF[SUB]6[/SUB], HFC, PFC) de 5,2 % en 2008-2012 par rapport au niveau de 1990.


    [​IMG]
    Description : Les dix premiers pays pour les émissions de CO2 en 2006
    Date : 28 avril 2009
    Source : Travail personnel
    Auteur : Urban
    Autres versions : Œuvres dérivées de ce fichier : 10 pays emissions C02 2006.es.png
    Autorisation : Moi, propriétaire du copyright de cette œuvre,
    la place dans le domaine public.
    Ceci s'applique dans le monde entier.
    Dans certains pays, ceci peut ne pas être possible ; dans ce cas :
    J'accorde à toute personne le droit d'utiliser cette œuvre dans n'importe quel but,
    sans aucune condition, sauf celles requises par la loi.

    _______________________________

    Après la victoire des travaillistes aux élections législatives australiennes du 24 novembre 2007, le nouveau premier ministre Kevin Rudd annonce avoir ratifié le protocole de Kyoto.
    Des pays en voie de développement fortement contributeurs aux émissions comme l'Inde, 5[SUP]e[/SUP] émetteur mondial, et la Chine, 1[SUP]re[/SUP] émettrice, n'ont pas d'objectifs de réduction car ils étaient considérés comme insuffisamment industrialisés et parce que leurs niveaux d'émissions ramenés au nombre d'habitants sont extrêmement faibles.

    Union européenne


    L'Union européenne a lancé en 2005 le système communautaire d'échange de quotas d'émission (1[SUP]er[/SUP] marché de «permis contraignant» au niveau mondial). En octobre 2006, le Comité économique et social européen (CESE) active son Observatoire du développement durable (ODD). La Commission européenne publie le 29 juin 2007 un «Livre vert» sur l'adaptation au changement climatique de l'Union européenne. Il prône à la fois l'adaptation et l'atténuation, l'amélioration des connaissances (y compris sur les besoins et coûts d’adaptation - Cf. 7[SUP]e[/SUP] programme-cadre de recherche de l’UE (2007-2013)), l’élaboration de stratégies et d’échanges de bonnes pratiques entre pays, de nouveaux produits assurantiels («dérivés climatiques», «obligations catastrophe», l’adaptation des marchés européens des assurances (cf. directive «Solvabilité II») et des fonds «catastrophes naturelles» ainsi que des politiques agriculture et pêche, avec le développement d’une solidarité interne à l’UE et avec les pays extérieurs touchés. 50 millions d'euros sont réservés par la Commission pour 2007-2010 pour favoriser le dialogue et l’aide à des mesures d’atténuation et d’adaptation ciblées, dans les pays pauvres.
    La Directive sur le système européen d'échange de droits d'émission devait être modifiée en 2008, pour inclure notamment les émissions de l'aviation. Cela fut refusé par le Conseil mais devrait être tout de même inclus d'ici 2012.

    La proposition sur les limites d'émission des voitures (130 g de CO[SUB]2[/SUB] par km) fut validée par le Parlement européen le second semestre 2008. De nouvelles mesures doivent être prises afin de ramener ce taux d'émission à 120 g de CO[SUB]2[/SUB] par km.

    La France a publié une «Stratégie nationale d’adaptation au changement climatique» en juillet 2007 et envisageait une gouvernance adaptée, notamment dans le cadre du Grenelle Environnement. En juillet 2011, la France a publié le premier «Plan national d’adaptation au changement climatique». Il prévoit 80 actions déclinées en 230 mesures concrètes dont le coût est estimé à 171 millions d’euros.

    L'UE disposait en 2006 de 66 % de la puissance mondiale installée en éolien terrestre et offshore, devant les États-Unis (16 %), l’Inde (8 %) et le Japon (2 %) et d'un tiers du parc nucléaire mondial. Cela la rend moins dépendante des énergies fossiles que la Chine et les États-Unis.
    L'UE encourage aussi tous les acteurs à préparer leur adaptation au changement climatique.

    Régions et collectivités d'Europe et des États-Unis pourraient coopérer pour le climat : Mercedes Bresso (la présidente du Comité des Régions) et Elisabeth B. Kautz (Présidente de la Conférence des maires américains ; organisation officielle des maires des quelque 1 200 villes de plus de 30 000 habitants que comptent les États-Unis, qui est une sorte d'équivalent de la Convention des maires européenne, qui rassemble en 2010 2 000 villes, dont 25 capitales, et 100 régions), ont signé le 5 mai 2010 un «Mémorandum d'entente et de coopération» pour lutter contre le changement climatique.


    États-Unis


    Deuxième pays pollueur derrière la Chine, les États-Unis via l’administration de George W. Bush refusent de présenter de nouveau en juillet 2005 le traité pour ratification considérant celui-ci comme un frein pour l’économie nationale et que le combat contre le réchauffement climatique doit se faire non pas avec une simple réduction des gaz à effet de serre, mais par une meilleure gestion de leur émission.
    De nombreux États des États-Unis, comme la Californie, ont néanmoins pris des mesures fédérales de restriction sur les gaz à effet de serre.


    - Lutte contre le réchauffement climatique aux États-Unis
    Depuis 2001, les États du Texas, de la Californie, du New Hampshire, ont instauré un dispositif de contrôle des émissions de gaz pour différents secteurs industriels et énergétiques. Le dispositif adopté par la Californie, qui s'applique depuis 2009, prévoit de réduire les émissions de gaz polluants de 22 % en moyenne d'ici 2012 et de 30 % d'ici 2016.
    En outre, le principe des marchés des permis d’émission consiste à accorder aux industriels «pollueurs» gratuitement, à prix fixe ou aux enchères, des quotas d'émissions de CO[SUB]2[/SUB], que ceux-ci peuvent ensuite s'échanger. Chaque émetteur de CO[SUB]2[/SUB] doit alors vérifier qu’il détient autant de permis d'émission que ce qu'il va émettre. Dans le cas contraire, il se trouve contraint soit de diminuer ses émissions, soit d’acheter des permis. Inversement, si ses efforts de maîtrise des émissions lui permettent de posséder un excédent de permis, il peut les vendre.
    De tels procédés ont été réalisés pour réduire les pluies acides aux États-Unis et ont connu des succès (programme «Acid rain»). Ce système des marchés de permis d’émission fait partie du dispositif du protocole de Kyoto qui n'était pas ratifié par les États-Unis en juillet 2006.

    En 2004, le sénateur républicain John McCain et le démocrate Joseph Lieberman déposent un projet de loi visant à limiter les rejets dans l’atmosphère ; soutenu par les grandes entreprises Alcoa, DuPont de Nemours et American Electric Power, il n’est pourtant pas adopté.

    Les États-Unis financent avec la Chine, le Japon, la Russie et l'UE, le projet ITER (International Thermonuclear Experimental Reactor), projet de recherche sur la fusion nucléaire contrôlée, mené à Cadarache (Sud de la France). Toutefois, la production nette d'énergie par fusion nucléaire chaude reste à l'état d'espoir lointain : les prévisions les plus optimistes des partisans du projet parlent de plusieurs dizaines d'années.
    Le 8 juillet 2008, George Bush signe un texte engageant les États-Unis à réduire de moitié des émissions des GES d'ici à 2050, à Toyako (Japon), dans le cadre d'une réunion du G8.
    Début décembre 2009, l'agence de protection de l'environnement des États-Unis (EPA) rend un rapport décrétant que les émissions de gaz à effet de serre jugés responsables du réchauffement climatique représentent une menace pour la santé publique.


    Lutte contre le réchauffement climatique en Chine


    La Chine, pour lutter contre le réchauffement climatique, investit dans plusieurs domaines de pointe :


    • l'électricité nucléaire. En 2011, 27 réacteurs nucléaires sont en construction en Chine, ce qui représente une puissance éclectique de 27230 MW. Deux Réacteur pressurisé européen (EPR) y sont en construction.
    • les éoliennes. Entre 2004 et 2008, le nombre d'éoliennes installées en Chine double tous les ans. En 2009, elle devient le troisième plus grand producteur mondial d'énergie éolienne, et devrait devenir le premier vers 2012 ;
    • l'énergie photovoltaïque. La Chine est le premier producteur mondial de l'énergie photovoltaïque ;
    • le captage de CO[SUB]2[/SUB] dans les centrales électriques à charbon. La Chine vend désormais sa technologie aux États-Unis ;
    • la promotion subventionnée par l'État chinois des ampoules à basse consommation d'électricité.
    • la voiture électrique : L'objectif de ventes de véhicules hybrides et électriques a été revu à la hausse : 5 millions d'unités à l'horizon 2020, avec un temps intermédiaire de 500 000 immatriculations en 2015. Le gouvernement prévoit des allocations budgétaires pour soutenir la filière de l'électrification, promettant une enveloppe de 12 milliards d'euros de subventions pour les entreprises, notamment dans le domaine des infrastructures. Le client final n'est pas oublié et les autorités chinoises évoquent un dispositif de prime à l'achat renforcé.
    Nouveaux pays industrialisés contre États-Unis

    Un point de débat est de savoir à quel degré les nouveaux pays industrialisés tels que l'Inde et la Chine devraient restreindre leurs émissions de CO[SUB]2[/SUB]. Les émissions de CO[SUB]2[/SUB] de la Chine ont dépassé celles des États-Unis en 2007 alors qu'elle ne produit que 5,4 fois moins de richesses que l'Union européenne ou les États-Unis, et elle n'aurait dû, en théorie, atteindre ce niveau qu'aux alentours de 2020. En 2007, la Chine est le premier producteur et consommateur de charbon, sa première source d'énergie, qui est extrêmement polluante. De plus, l'augmentation du niveau de vie accroît la demande de produits «énergivores» tels que les automobiles ou les climatisations.
    La Chine a répondu qu'elle avait moins d'obligations à réduire ses émissions de CO[SUB]2[/SUB] par habitant puisqu'elles représentent un sixième de celle des États-Unis. L'Inde, également l'un des plus gros pollueurs de la planète, a présenté les mêmes affirmations, ses émissions de CO[SUB]2[/SUB] par habitant étant près de vingt fois inférieures à celles des États-Unis. Cependant, les États-Unis ont répliqué que s'ils devaient supporter le coût des réductions de CO[SUB]2[/SUB], la Chine devrait faire de même.


    Mesures individuelles de lutte contre le réchauffement climatique

    L'humanité rejette actuellement 6 Gt (gigatonne = milliard de tonnes) d'équivalent carbone par an dans l'atmosphère, soit environ une tonne par habitant. On estime que les océans en absorbent 3 Gt et qu'il faudrait donc abaisser les émissions de gaz à effet de serre de moitié pour arrêter d'enrichir l'atmosphère, ce qui représente une émission moyenne de 500 kg d'équivalent carbone par habitant. Chaque Français en émet environ deux tonnes, soit quatre fois plus qu'il ne faudrait. En dehors de mesures collectives, des personnalités ont esquissé les gestes quotidiens à mettre en œuvre, dès aujourd'hui, pour limiter le réchauffement climatique comme Jean-Marc Jancovici ou Al Gore.
    Quelques mesures relèvent des économies d'énergie, en particulier des énergies fossiles :


    • éviter de prendre l'avion. Un kilomètre en avion long courrier émet 60 g d'équivalent carbone par personne ; un voyage intercontinental représente près des 500 kg d'équivalent carbone. A fortiori, pour les voyages court-courrier (100 g d'équivalent carbone par kilomètre et par personne), préférer le train ;
    • utiliser le moins possible les véhicules automobiles (préférer la bicyclette ou les transports en commun chaque fois que possible). Une voiture émet entre 100 et 250 g d'équivalent CO[SUB]2[/SUB] par km parcouru, soit entre 30 et 70 g d'équivalent carbone. 20 000 km par an représentent entre 600 et 1 400 kg d'équivalent carbone. Si une automobile est nécessaire, choisir le modèle le moins polluant et le plus efficace possible (par exemple, certains constructeurs ont annoncé des véhicules consommant moins de 1,5 l pour 100 km) ;
    • atteindre une isolation optimale des bâtiments, au mieux par le recours à l'architecture bioclimatique qui réduit au maximum les besoins de chauffage (15 kWh⋅m[SUP]-2[/SUP] par an, les anciennes maisons étant à 450 kWh⋅m[SUP]-2[/SUP] par an) et supprime le besoin de climatisation active, tout en améliorant le confort de vie.
    Politiques de développement durable

    La résolution du problème du réchauffement climatique implique de prendre en considération non seulement les paramètres qui interviennent directement dans le réchauffement, à savoir les émissions de gaz à effet de serre, mais également l'ensemble des informations environnementales, ainsi que des indicateurs sociaux et économiques, selon les principes élaborés au sommet de la Terre de Rio de Janeiro en 1992, qui a identifié trois piliers dans le développement durable : environnement, social, et économique.
    La réponse des États se fait donc aujourd'hui au travers de stratégies nationales de développement durable, celles des collectivités au travers d'agenda 21, et celles des entreprises au travers de la responsabilité sociétale des entreprises.

    Le développement durable relève de programmes transversaux dans les organisations. Chaque domaine est appelé à apporter une contribution à l'effort commun. L'informatique par exemple, loin d'être virtuelle ou immatérielle, apparaît comme un secteur émetteur de gaz à effet de serre. Selon Jean-Marc Jancovici, la dématérialisation n'a pas apporté jusqu'à présent de solution au problème du réchauffement climatique, puisqu'on constate une corrélation entre les flux d'information et les flux physiques. Il est donc nécessaire que le secteur de l'informatique se fixe des objectifs en matière de développement durable. C'est ce qui a été fait avec la création en 2007, par Google et le WWF de la Climate Savers Com*****g Initiative, initiative commune à plusieurs constructeurs informatiques pour réduire de moitié la consommation d'énergie des ordinateurs d'ici 2010.


    ..........
     
  18. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113
    Réchauffement climatique
    ________________________________________________________



    Controverses sur le réchauffement climatique


    L'existence du réchauffement fait quasiment consensus au sein de la communauté scientifique et plus encore des climatologues. Cela n'exclut cependant pas des controverses portant sur :

    • le fonctionnement du GIEC : nécessité de vérifier rigoureusement les données produites, et de prendre en compte les avis divergents ;
    • la validité des conclusions du GIEC : importance du réchauffement, probabilité attribuée aux scénarios, importance des causes anthropiques, etc. ;
    • les conséquences du réchauffement (accusations de surestimation des effets négatifs et occultation des effets positifs) ;
    • les politiques à mettre en œuvre pour parer ce phénomène climatique (arbitrage des priorités entre les autres problèmes et celui du réchauffement ; arbitrage entre politiques destinées à éviter le réchauffement et politiques destinées à en compenser les effets).
    Divers groupes d'intérêt (industrie, pétrole) finançant des laboratoires d'idées travaillent à produire un dissensus
    * en noyautant ces débats).

    * Dissensus : Étymologie
    Consensus est un mot latin qui signifie «accord», au sens de «sentiment commun». Il a été lexicalisé dans la langue française au XIX[SUP]e[/SUP] siècle sous le sens de «large accord» .
    Le mot latin dissensus, bien qu'il ne soit pas lexicalisé en français (il n'apparaît pas dans les dictionnaires) est parfois utilisé pour désigner soit l'échec d'une recherche de consensus, soit l'attitude qui consiste à vouloir opposer les différentes opinions sans chercher à les rapprocher.
    Du fait du changement de sens récent qui fait du consensus une «simple» large majorité, on en vient à parler de «consensus absolu» ou de «consensus parfait» pour désigner un accord qui ne recueille aucune opposition. (source Wikipédia)


    Le réchauffement climatique comme sujet de fiction

    Depuis quelques années, plusieurs écrivains de science-fiction, ou même d'autres genres (comme Doris Lessing, prix Nobel de littérature 2007), ont mis le changement climatique au cœur de leur intrigue romanesque, souvent en s'appuyant sur des données scientifiques pour imaginer des futurs possibles. Par exemple :

    Filmographie

    • Une vérité qui dérange, documentaire de Davis Guggenheim, commenté par Al Gore sur le réchauffement climatique. Ce film a valu à Al Gore (et au Giec qui lui a fourni les données scientifiques) le prix Nobel de la Paix le 12 octobre 2007. Cependant, un juge de la haute cour de Londres a jugé que le film comporte «9 erreurs» qui participent à un «climat d'alarmisme et d'exagération» et que «la science est utilisée par un homme politique et un orateur de talent pour faire une déclaration politique et soutenir un programme politique», tout en reconnaissant la validité des arguments rendant les gaz à effet de serre d'origine humaine responsable du réchauffement climatique. Il l'a autorisé à être diffusé dans les écoles britanniques à la condition d'être accompagné d'un document évoquant les différentes thèses en débat sur les neuf erreurs pointées.
    • Climat en crise, documentaire diffusé sur France 5, libre de tous droits. Ce reportage présente des prédictions climatiques faites par un super-calculateur (Japon) pour les années à venir (année 2100 max). Durée 50min.
    • La 11[SUP]e[/SUP] Heure, le dernier virage (The 11th hour) produit par Leonardo DiCaprio et réalisé par Nadia Conners et Leila Conners Petersen en 2007. Ce documentaire jette un regard sur l'état de l'environnement et donne des solutions pour tenter de restaurer l'écosystème planétaire, à travers des rencontres avec une cinquantaine de scientifiques, intellectuels et dirigeants politiques. Initialement prévu pour une diffusion en salles, le documentaire de Nadia Conners et Leila Conners Petersen avait en effet été rayé du planning des sorties de la Warner, au profit d'une exploitation en VOD (Video On Demand), jugée plus en adéquation avec les aspirations écologiques du film.
    • Enfin, une vingtaine de scientifiques de haut niveau ont contesté les principaux résultats du Giec dans le film The Great Global Warming Swindle (La Grande Arnaque du réchauffement climatique) en 2007. Ce film entraîna une vive réaction de la Royal Society et du Met Office, et l'un des scientifiques cités par le film, C. Wunsch, protesta vivement contre la façon dont ses propos étaient utilisés.
    • Le Muséum de Paris et le GIS Climat-Environnement-Société ont produit de courtes vidéos pédagogiques sur le thème «Changement climatique et biodiversité»


    _________________________________
    [​IMG]Cet article est reconnu comme «bon article»,
    depuis sa version du 14 août 2008 (comparer avec la version actuelle).
    Pour toute information complémentaire,
    consulter sa page de discussion et le vote l'ayant promu.
    Nom de la page : Réchauffement climatique
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Réchauffement climatique de Wikipédia en français (auteurs)
    Les textes sont disponibles sous
    licence Creative Commons paternité partage à l’identique

     
  19. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113




    Enjeux du réchauffement climatique

    Cet article examine les enjeux du réchauffement climatique pour l'humanité.


    En 1824, le physicien français Joseph Fourier découvre le phénomène de l'effet de serre et son effet sur le bilan thermique de la Terre. En 1896, Svante Arrhenius publie un article décrivant le phénomène, et proposant une prédiction de l'élévation de la température atmosphérique en cas de doublement de la concentration en CO[SUB]2[/SUB]. Dans les années 1980, cette question refait surface à l'échelle mondiale, avec la création du GIEC en 1988. Celui-ci arrive à la conclusion que, très probablement, le climat de la Terre se réchauffe du fait de l'activité anthropique. Des enjeux nouveaux émergent pour des secteurs localement très vulnérables aux changements cilmatiques tels que l'agriculture ou la forêt, ou encore les zones habitées situées sous le niveau de la mer (Polders) ou les îles basses (AOSIS : alliance des petits états insulaires, menacés par une augmentation du niveau de la mer). Les zones chaudes ou subdésertiques sont concernées par un risque accru de désertification, salinisation ou incendies alors que les constructions appuyées sur le pergélisol perdent leur stabilité là où il fond anormalement.


    Cet avant-bilan a été fait alors que les énergies fossiles étaient en croissance, et que les industries, individus et sociétés n'en ont jamais été aussi dépendants. Des discussions ont alors préparé la convention de Rio dont les acteurs ont été pour la première fois réunis à une même table de discussion dans le but d'arriver à des accords.
    L'économie, aux premières loges de l'argumentation, subira elle aussi les conséquences du dérèglement climatique. Un des enjeux majeurs du XXI[SUP]e[/SUP] siècle sera de conjointement développer des stratégies de lutte contre les émissions de CO[SUB]2[/SUB] et d'adaptation aux dérèglements climatiques et à leurs conséquences sociales, économiques, agronomiques et environnementales.


    Effets géopolitiques : conventions et acteurs

    Éléments précurseurs et conventions

    La négociation climatique s'est effectuée dès la remise du premier rapport du GIEC de 1990, qui a débouché sur le sommet de la terre tenu à Rio de Janeiro en 1992. Cette conférence établissait une série de normes en matière de lutte contre le réchauffement climatique et en faveur du développement durable, sans toutefois n’imposer aucune contrainte aux pays signataires. Cette conférence a permis «d'admettre le fait politique de la réalité scientifique du risque du changement climatique».

    La divergence entre les états était claire et les tensions parfois vives entre les niveaux ministériels. Toutefois, les enjeux de tenir une telle conférence n'ont pas été dictés uniquement dans l'optique d'un réchauffement du climat. Effectivement, la liaison avec la sécurité énergétique mondiale, l'émergence du tiers monde comme grand consommateur potentiel d'énergie et le maintien d'une consommation abondante des États-Unis, ont pesé dans la balance. Il semble qu'aujourd'hui, la coopération internationale doit suivre trois axes complémentaires : la coopération politique, la coopération technologique et la coopération financière. On peut, en suivant ces trois axes, effectuer plusieurs propositions telles que : la fixation d'objectifs à long terme d'ici 2050, le renforcement des marchés du carbone, un accord spécifique sur la déforestation évitée ou encore la mise en place d'accords sectoriels. Une réflexion dans ce sens permettrait de renouveler l'approche de la négociation climat.

    Acteurs

    États-Unis et Tiers monde
    La guerre du Golfe de 1991 au Moyen-Orient s'insère dans le contexte et illustre la primauté des intérêts énergétiques américains sur la question environnementale. La peur de se faire dépasser par les blocs émergents a amené les États-Unis à rejeter tous les pourparlers en matière de Quota d'émission de gaz à effet de serre et de taxes sur le carbone, qu'ils percevaient comme une «restriction de la souveraineté du Congrès américain» et une entorse au libre échange.

    La majeure partie des pays en développement n'ont pas ratifié le protocole de Kyoto, mais à la base ce sont les pays industrialisés qui sont la source du problème avec les États–Unis en tête. C'est dans cette optique que la première étape passe par la volonté d'assumer cette responsabilité. «Le plus grand danger planétaire qui planera sur la paix dans le monde ces prochaines années découlera non pas des actes irrationnels d'États ou d'individus, mais des demandes légitimes des démunis du monde entier.». L'avènement de Kyoto accentue davantage la dissymétrie entre les différents acteurs. La puissance de groupes de pression pétroliers, charbonniers et électriques suffit à montrer le poids des intérêts.»Avec Kyoto, de nombreuses solutions sont avancées, la diversification des ressources énergétiques et les bourses du carbone, mais seront jugées trop contraignantes par les États-Unis.
    En effet, ces derniers n'étaient pas prêts à lancer de tels marchés et n'avaient aucun «schéma opérationnel», ayant basé l'ensemble de leur géostratégie sur le pétrole. De plus, les quotas d'émissions sont inacceptables pour les pays en développement qui se doivent de réduire leurs émissions existantes par rapport à 1990. Les pays du Sud et membres du G 7 voient donc une initiative des pays du nord pour restreindre leur développement.


    L’Union européenne
    Alors que les États-Unis, la Chine et l'Australie rechignaient à soutenir le protocole de Kyoto, l'Union européenne a été leader dans le dossier du réchauffement climatique. L'Europe a été contrainte de négocier en un bloc homogène pour des raisons de subsidiarité et de non concurrence déloyale entre états, ce qui lui a aussi permis de rappeler son poids géopolitique.

    Le GIEC a rappelé à l'Europe sa vulnérabilité face au risque de Submersion et d'érosion côtière pour sa façade ouest mais aussi les risques de sécheresses graves (salinisation, désertification, incendies pour le sud européen). Les modèles projettent d'importantes différences régionales et locales. Les capacités de résilience écologique des écosystèmes deviennent aussi un enjeu socio-économique (Beaucoup d'usines chimiques, de raffineries, de grands ports stratégiques, des centrales électrique, dont nucléaires sont construites sur les littoraux. Ce sont aussi sur des atolls vulnérables à la submersion qu'on a fait de nombreux essais nucléaires (Moruroa en particulier…)

    Ce sont aussi sur les littoraux qu'ont subsisté de nombreux milieux naturels précieux et menacés (par exemple en France coûteusement achetés par le Conservatoire du littoral en France) ; Ils abritent une partie importante des réserves naturelles et de la biodiversité mondiale. De nombreux récifs du domaine ultramarin de l'UE risquent de ne pas pouvoir croître assez vite pour s'adapter à une montée de l'eau, surtout si celle-ci devient plus turbide et polluée en raison d'une augmentation de l'érosion, ce qui semble être déjà le cas. Beaucoup de ressources sont menacées par la montée des océans ou le réchauffement des écosystèmes terrestres.


    Faits et projections économiques


    The Economist soutenait que la meilleure stratégie est de continuer de développer la prospérité et la technologie de manière à être mieux équipés pour affronter le réchauffement climatique (…) avec une économie 300 % plus forte qu'elle ne l'est actuellement en 2095, elle serait plus en mesure de faire face aux coûts du changement climatique.
    Dans le même ordre d'idée, R.J. Eaton, PDG de Chrysler, avance que «97 % du CO[SUB]2[/SUB] provient de sources naturelles et les autos ne contribuent que pour un huitième de la faible partie de CO[SUB]2[/SUB] attribuable aux humains»..

    Dans son rapport de 700 pages remis au gouvernement britannique, le rapport Stern, l'ex-économiste de la banque mondiale Nicholas Stern parle de coûts allant jusqu'à 7 000 milliards de dollars si les gouvernements ne prennent pas de mesures radicales au cours des dix prochaines années, ce qui représente un coût plus élevé que les deux grandes guerres mondiales et que la crise économique de 1929. De plus, son rapport parle de plus de 200 millions de réfugiés victimes de sécheresse et d'inondations par année.

    La FAO abonde dans le même sens. Celle-ci mentionne le fait que 65 pays en développement comptabilisant la moitié de la population, subiraient des pertes de 280 millions de tonnes, soit 16 % du PIB agricole et 56 milliards de pertes, sous l'effet des changements climatiques. La Chine est une des rares bénéficiaires de la situation, avec une augmentation de 15 % de sa production céréalière pour 360 millions de tonnes de plus.
    Selon L'OCDE, les pays en développement sont les grands perdants de cette conjoncture, avec des pertes de l'ordre de 57 à 121 milliards, comparativement à des pertes oscillant entre 13,5 et 17,6 milliards de dollars pour les pays développés.
    Le World Watch Institute est aussi très pessimiste, il estime qu'en 2025, 40 % de la population mondiale pourraient vivre des épisodes de stress hydrique. La ségrégation sur le plan territorial est donc très forte et les différents pays ne seront pas touchés à parts égales par le réchauffement. Cette situation, pourrait dégénérer en conflit armé car des ressources en eau sont indispensables, tandis que les sources d'eaux douces pourraient être mises à rudes épreuves à certains endroits de la terre.


    Étude de cas

    Impact sur l'agriculture des États–Unis

    L'agriculture des États-Unis serait aussi fortement touchée par les changements climatiques, et ce, même si leur position demeure bien tranchée sur la question. L'industrie agroalimentaire américaine, tout de même très puissante, subirait de lourdes pertes. En somme, en modifiant des variables comme la température, la pluviométrie, la qualité des sols, le drainage et l'érosion, l'agriculture s'y trouverait modifiée dans son ensemble et certaines espèces agricoles considérées sténotherme et peu tolérantes aux changements brusques s'en trouveraient perturbées. En effet, dans un scénario à triplement des émissions préindustrielles, les pertes agricoles oscilleraient entre 10 et 25 % de la valeur pour la période 2020-2049 et de 27-69 % pour la période allant de 2070-2099.

    Cette analyse a été réalisée pour l'est du 100[SUP]e[/SUP] méridien qui établit la limite entre l'agriculture pluviale et irriguée et qui est le grenier des États-Unis avec 72 % du rendement agricole. L'ouest plus aride et reposant sur l'agriculture irriguée répond à une dynamique toute différente avec la Californie en tête. Celle-ci répond directement à la disponibilité de la couverture neigeuse des montagnes de la Sierra Nevada qui lui fournissent 75 % de son eau au printemps et en été. Cette couverture neigeuse pourrait décliner de 30 à 70 % dans un scénario à doublement des émissions causant des effets dramatiques pour l'agriculture et les besoins urbains en eau, plus criants en période de sécheresse.

    Néanmoins pour nuancer ces «prévisions» rappelons que les observations montrent que le centre des États-Unis s'est refroidi durant une bonne partie du XX[SUP]e[/SUP] siècle et que certains États sont plus froids que dans les années 1930.

    Autres régions


    L'ensemble des impacts découlant de cette étude pourrait être projeté dans le monde entier, mais avec sûrement certaines réserves. Cette projection pourrait aussi s'appliquer pour les hauts massifs en Anatolie qui sont le siège du fleuve Euphrate et des montagnes du rift éthiopien qui alimentent le Nil.

    L’Allemagne : le Géant vert

    C'est en 1998 que le tournant vert s'est accompli pour l'Allemagne lorsque le parti SPD avec Gerhard Schröder en tête et le parti vert de Joschka Fischer ont fait une alliance, soit la coalition rouge-verte. Cette alliance a fait en sorte que les SPD-Verts avec 47,6 % des suffrages ont remporté de justesse cette élection contre les autres partis (la CDU/CSU, le FDP et le PDS), qui en avaient 46,4 %. Ce virage vert a entraîné une réingénierie fulgurante des modes de production allemands, ce qui n'a pas été sans contrainte pour le système social.

    L'Allemagne est un géant industriel, soit le 4[SUP]e[/SUP] pays au niveau mondial avec 432794 milliards de dollars par année provenant de ce secteur. Son secteur charbonnier est aussi fort prépondérant depuis longtemps, ce qui lui donne fort à faire pour se restructurer. Pour atteindre ses objectifs de Kyoto, l'Allemagne se devait de réduire ses émissions de 21 % par rapport à l'année de référence de 1990. En comparaison, l'ensemble de l'Union européenne ne devait réduire ses émissions que de 8 %. De plus, l'alliance rouge-verte convenait aussi à l'abandon du nucléaire d'ici 2020, ce qui ne conduit à rien de favorable pour la lutte aux gaz à effet de serre, puisqu'un tiers de l'énergie produite provient de ce secteur. Sous cette conjoncture, on s'attend à ce que les émissions de CO[SUB]2[/SUB] augmentent de 45 millions de tonnes, pour combler le vide laissé par le nucléaire. On mise donc sur les énergies renouvelables et, bien sûr, l'efficacité énergétique.

    - Mesures mises en œuvre
    L'Allemagne, en 2002, était déjà parvenue à réduire de 18 % (OCDE, 2006) ses émissions de gaz à effet de serre. Pour en arriver là, le gouvernement a eu recours à une multitude de mesures.

    Dans le domaine du bâtiment, les nouvelles constructions vont abaisser les besoins en énergie de 30 %. L'utilisation de la géothermie, des pompes à chaleur, des chaudières fonctionnant au bois et des collecteurs solaires.
    Dans le domaine des transports : On a établi des taxes sur les poids lourds, on a introduit des carburants sans soufre, augmenté le rendement des carburants de 15 % sur les moteurs de nouvelle génération en accord avec les constructeurs automobiles, utilisé du gaz naturel, de l'éthanol et finalement favorisé le transport en commun.
    Dans le domaine du transport de marchandises : L'accent est mis principalement sur le développement du réseau ferré.
    Dans le domaine industriel et le secteur des services : Le secteur économique devait s'engager à réduire ses émissions de CO[SUB]2[/SUB] de 28 % entre 1990 et 2005.
    L'Allemagne s'est engagée à produire de l'énergie renouvelable, mais cette dernière se doit d'être utilisée de manière méthodique. Chaque habitant ainsi que les compagnies doivent s'engager à réduire leur consommation d'énergie. De cette façon, il serait possible d'économiser 40 TWh/an, soit l'équivalent de la production de quatre centrales nucléaires.

    Canada

    Le Canada au début des années 1980 était un leader en matière climatique. Ce rôle se retrouva à l'apogée à la conférence de Rio où il joua un rôle de premier plan. Le Canada a signé le protocole de Kyoto en 1997, mais il ne l'a jamais ratifié. Ces engagements faisaient en sorte qu'il devait réduire de 6 % ses émissions atmosphériques par rapport au niveau de 1990, et ce, jusqu'à 2012.
    La forte dépendance du Canada envers les États-Unis en matière économique et commerciale a obligé le gouvernement alors en place à faire preuve de très peu d'autonomie et à suivre la position américaine.

    - Situation en interne
    Brian Mulroney et Jean Chrétien étaient tous les deux en faveur d'une action mondiale concertée dans le dossier des changements climatiques. Cependant, la venue d'un nouveau gouvernement conservateur piloté par Stephen Harper change la donne et la question environnementale est reléguée au second plan, au détriment du développement économique. Ce dernier en 2006 a affirmé son désir de retraiter du protocole de Kyoto qu'il percevait comme un complot socialiste tout en remettant en cause la fameuse courbe du Bâton de Hockey. Sa position cadre très bien avec celle du président américain George W. Bush et avec celles des lobbys du pétrole. Ce même gouvernement vient de publier un rapport d'étude sur les coûts qu'engendrerait le respect des objectifs de Kyoto.
    Ce rapport fait état d'une augmentation de 25 % du taux de chômage, soit une perte nette de 275 000 emplois. De plus, limiter le tiers des émissions dans le secteur des transports, selon ce rapport, ferait doubler le prix du gaz naturel et augmenterait de 60 % le coût de l'essence. De plus, cette étude évalue que limiter les émissions d'une tonne de carbone coûte en moyenne
    195 $. Cependant, les effets sociaux positifs ne sont pas inclus dans ce rapport, comme les marchés des énergies renouvelables et les bourses du carbone.
    Le gouvernement conservateur s'est tout de même doté d'un plan de lutte aux gaz à effet de serre. Ce plan permettrait aux émissions de GES d'augmenter jusqu'en 2012 pour ensuite les faire diminuer de 20 % sous le niveau de 2006 en 2020. Les émissions seront toutefois 10 % plus élevées que ce que Kyoto prévoyait.

    - Bilan des émissions selon les provinces
    En 2003, le Canada émettait environ 740,2 mégatonnes de GES et ce chiffre en 2007, selon la croissance économique actuelle, devrait être encore plus élevé.
    La majeure partie des provinces ne veulent pas payer pour la pollution induite par les sables bitumineux de l'Alberta, d'autant plus que l'Alberta refuse de freiner l'extraction de ses hydrocarbures.

    - Les sables bitumineux
    À l'aube de 2004, on estimait que les réserves s'établissaient à 315 milliards de barils. L'extraction en Alberta est de 1 million de barils par jour, mais les États-Unis font actuellement pression pour monter la capacité d'extraction à 5 millions de barils par jour. Ces derniers pourraient devenir de la sorte moins dépendants de l'or noir du Moyen-Orient et pourraient s'offrir cette ressource stratégique.
    Il faut des quantités importantes d'eau pour produire un baril de pétrole brut synthétique. Entre 2 et 4,5 barils d'eau sont nécessaires pour produire un seul de ces barils. Actuellement, le gouvernement a approuvé l'utilisation de 370 millions de mètres cubes d'eau (2,3 milliards de barils) de la rivière Athabasca par an. Cependant, l'ambitieux programme d'extractions pourrait faire monter ce chiffre à 529 millions de mètres cubes (3,3 milliards de barils).

    Au niveau des émissions atmosphériques, les sables bitumineux sont ce qui a fait le plus augmenter les émissions atmosphériques au Canada. D'importants progrès ont été réalisés pour améliorer le processus de transformation vers le brut, mais la production additionnelle annule les gains et finalement la production totale continue d'augmenter. À l'aube 2015, on estime que les émissions totales pourraient être de 67 mégatonnes par an. Dans un tout ordre d'idée, on discute de technologies servant à capter le CO[SUB]2[/SUB] à l'intérieur des couches géologiques sédimentaires, une fois les hydrocarbures extraient, mais ce projet est uniquement au stade d'étude de faisabilité.

    - Le Québec dans une classe à part
    Le Québec a un assez bon bilan d'émissions de GES, grâce aux énergies renouvelables. En effet, 94 % de la puissance du Québec est de source hydraulique et les émissions du secteur de l'énergie ne comptent que pour 1,7 % des émissions totales. Cependant, nous ne pouvons pas dire que l'hydroélectricité est totalement propre puisqu'elle dénature nombre de rivières, mais elle a l'avantage d'être peu polluante. En 1990, le Québec émettait 85,3 mégatonnes de GES contre 90,9 en 2003. L'objectif vert du Québec est de réduire de 10 Mt dans la période 2006-2012, soit une baisse de 1,5 % par rapport au niveau de 1990. C'est majoritairement dans le secteur du transport qu'il faudra concentrer les efforts puisqu'il est la principale source d'émission, avec 37,4 % des émissions.

    Actions concrètes et espérances

    L'approche pessimiste

    Le protocole de Kyoto est la plus grande réalisation en matière de négociation sur le climat, à ce jour et ce même si les mesures prises sont largement dépourvues d'impact. En effet, seulement 37 pays industrialisés ont ratifié le protocole et accepté d'émettre 5,2 % moins qu'en 1990. Cependant, c'est plutôt une baisse de l'ordre de 40 à 60 % qui serait nécessaire pour stabiliser le climat. De nombreux grands acteurs sont absents du protocole, faisant en sorte que Kyoto a une portée très limitée. De plus, les pays qui ont ratifié Kyoto risquent de voir certaines entreprises se délocaliser pour ne pas avoir à subir les contraintes liées au protocole.


    L’approche optimiste

    Certains États ont leur propre mécanisme de lutte, comme la Californie, qui s'engage à réduire les émissions provenant des voitures de 30 % à échéance 2016. Neuf États du nord-est ont aussi un système de permis d'émission proche de celui de l'Europe. Ce même système en Europe a vu des transactions de l'ordre de 1,37 milliard d'euros pour 90 millions de quotas transigés dans les six premiers mois de 2005. Ce système a aussi l'avantage de créer de l'emploi, a induit de nouveaux marchés et plus important encore, il a mis le poids de la pollution sur les épaules des entreprises et non sur celui des individus. En ce moment, la tonne de carbone se vend 10 euros. Actions connexes que ce marché peut avoir s'il est étendu, il pourrait permettre de réduire la déforestation de 50 % sous une taxe carbone de 12 $ US/tonne. La déforestation produit 1,1 gigatonne de carbone par année et est la deuxième source de gaz à effet de serre. Ce phénomène ferait en sorte qu'il serait plus profitable de préserver les puits de carbone, en l'occurrence la forêt, plutôt que de l'exploiter pour son bois ou pour l'agriculture.


    Impact en droit de l’Union européenne

    Principes de l'acte juridique de l'Union européenne en matière de luttes aux changements climatiques :

    1. Le plafonnement et les droits d'émissions
    2. Il est principalement axé sur le CO[SUB]2[/SUB] émis par les grandes entreprises industrielles
    3. Il est appliqué par étapes et prévoit des examens périodiques et des possibilités d’extensions à d'autres gaz à effets de serre et d'autres secteurs.
    4. Les plans d'allocations des droits d'émissions sont définis périodiquement.
    5. Il prévoit un cadre strict en matière de conformité.
    6. Le marché est à l'échelle de l'Union européenne, mais il exploite les possibilités de réduction des émissions dans le reste du monde grâce au mécanisme de développement propice et à la mise en œuvre conjointe. Le système prévoit par ailleurs des liens avec des programmes compatibles existant dans les pays tiers.


    ______________________________
    Nom de la page
    : Enjeux du réchauffement climatique
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Enjeux du réchauffement climatique de Wikipédia en français (auteurs)
    Les textes sont disponibles sous licence Creative Commons paternité partage à l’identique
    ______________________________

     
  20. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4185
    Points:
    113



    Niveau de la mer


    Le niveau de la mer est la hauteur moyenne de la surface de la mer, par rapport à un niveau de référence suffisamment stable.


    Mesure


    Il est difficile de réaliser une mesure directe du niveau moyen de la mer. L'altimétrie satellitale permet néanmoins de rapporter l'altitude de la mer à un référentiel terrestre (géoïde ou système géodésique). On peut aussi mesurer la variation du niveau moyen en fonction du temps. Cette variation sert d'indication notamment sur le réchauffement climatique. Toutefois, il n'est pas possible d'effectuer une mesure directe des variations du niveau moyen. En effet, de nombreuses perturbations affectent les mesures avec notamment dans l'ordre d'importance, la marée, les effets de la pression atmosphérique, la houle, ...

    Ces perturbations sont dites hautes fréquences, car leur signature est rapide dans le temps : quelques secondes pour les vagues et quelques heures (jours) pour les marées.

    Afin d'obtenir une estimation de la variation du niveau moyen dans le temps, il est nécessaire de soustraire ces perturbations. Les variations du niveau moyen sont très lentes, donc basse fréquence. Ainsi, il suffit d'appliquer sur les séries temporelles de mesures (enregistrées avec un marégraphe) une fonction mathématique dite filtre passe-bas. Cette fonction a pour caractéristique de ne conserver que les basses fréquences d'un signal. Ainsi, les perturbations sont éliminées du signal. Il est nécessaire toutefois pour appliquer ce filtre de posséder un enregistrement de grande qualité et de longue durée (1 an minimum).


    Référence


    La mesure d'une hauteur du niveau de la mer pose immédiatement le problème d'un point de référence, c'est-à-dire un point qu'on suppose fixe et qui sert d'origine pour les mesures.

    La localisation précise de ce point est liée à la définition d'un référentiel géodésique, un ensemble de points dont les coordonnées sont connues. Plusieurs systèmes de ce type coexistent ; en France, l'Institut national de l'information géographique et forestière utilise entre autres un réseau géodésique couvrant le territoire du pays, dont l'origine d'altitude est déterminée par un marégraphe situé à Marseille : définir le niveau de la mer à un autre endroit, visible depuis la terre ferme, peut ensuite se faire par nivellement.

    En haute mer, une définition moderne fait appel à un géoïde de référence, une surface couvrant le globe de telle façon que la gravité terrestre lui soit toujours perpendiculaire en tout point. En l'absence de forces extérieures, le niveau de la mer coïnciderait avec ce géoïde, puisqu'il s'agirait d'une surface équipotentielle du champ de gravité terrestre. En réalité, les différences de pression, de température, de salinité et les courants marins font que ce n'est pas le cas, même sur une moyenne à long terme : à l'échelle du globe, le niveau de la mer n'est donc pas constant et les variations atteignent ±2 m par rapport au géoïde de référence.
    Le niveau de l'océan Pacifique à un bout du canal de Panama est par exemple 20 cm plus élevé que celui de l'océan Atlantique à l'autre bout.


    Le géoïde de référence est une surface complexe. Pour simplifier le problème, on a souvent recours à un ellipsoïde de référence (WGS 84), plus facile à modéliser. Le niveau de la mer résultant varie en revanche beaucoup plus, pouvant s'éloigner d'une centaine de mètres par rapport à l'ellipsoïde de référence par le fait d'anomalies gravitationnelles.

    Variations


    Le niveau de la mer a varié de façon plus ou moins rapide, au cours des âges.
    Le dernier minimum date d'il y a environ 20 000 ans, le niveau de la mer était un peu plus de 100 m plus bas qu'actuellement. Malgré cela, le niveau de la mer semble être de nos jours à l'un des niveaux les plus bas depuis plusieurs centaines de millions d'années.

    Ses oscillations sont dues à de multiples facteurs, en particulier à des changements de climat, eux-mêmes déterminés par des causes diverses. Ces différents facteurs agissent principalement sur le stock de glace sur les terres (de nos jours : en Antarctique, au Groenland, etc.) : le niveau de la mer baisse lorsque ce stock augmente, et monte lorsque cette glace fond, ou se déverse dans la mer.

    Noter qu'en revanche la glace flottante (icebergs, banquise arctique) n'a pas d'impact sur le niveau de la mer, du fait du principe d'Archimède.


    - Sur les 30 derniers millénaires

    La frise suivante tente de résumer les variations du niveau de la mer sur les 30 000 dernières années et ses implications sur la géographie (principalement européenne).


    [​IMG]

    - Sur les deux dernières décennies

    Entre janvier 1993 et avril 2012, l’élévation du niveau moyen des mers est estimée, après application de la correction de rebond post-glaciaire, à 3,11 mman[SUP]-1[/SUP]. Cette mesure, établie par CLS/CNES/LEGOS, est basée sur les missions des satellites altimétriques TOPEX/Poseidon et Jason (1 et 2). Les mesures des missions ERS (1 et 2) et ENVISAT servent de comparaison pour d’éventuelles corrections.

    Prévision


    Les prévisions donnent une élévation du niveau de la mer de 11 à 77 centimètres à la fin du XXI[SUP]e[/SUP] siècle. Si toute la glace qui se trouve sur le continent Antarctique fondait, le niveau de la mer s'élèverait de 70 mètres. Si la glace du Groenland fondait, cela ajouterait 7 mètres de plus.


    ___________________________
    Nom de la page : Niveau de la mer
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Niveau de la mer de Wikipédia en français (auteurs)
    Les textes sont disponibles sous licence Creative Commons paternité partage à l’identique


     

Partager cette page