économies d'énergie

3.3480885311658 (994)
Posté par hal 02/03/2009 @ 15:41

Tags : économies d'énergie, énergie, environnement

Dernières actualités
Benoist Apparu : il faut faire un "effort majeur sur les économies ... - Le Point
Le nouveau secrétaire d'Etat au Logement et à l'Urbanisme Benoist Apparu a estimé mercredi sur RTL qu'il y avait "un effort majeur" à faire sur les économies d'énergie, se félicitant du rattachement de son secrétariat d'Etat au ministère de l'Ecologie....
Economies d'énergie : et voilà le "consommateur intelligent" - L'Expansion
RTE, le gestionnaire du réseau de transport électrique, a mis en place un systeme d'alerte par SMS en cas de pointe de consommation. Il le teste auprès de ses abonnés dans les deux régions "fragiles" du pays. L'idée est toute simple....
Maîtrise de l'énergie : les propriétaires informés mais peu engagés - Challenges
31 % des propriétaires de logement ont engagé des démarches pour obtenir l'aide de l'Etat en matière d'économies d'énergie, indique l'enquête Logica-Tns Sofres dévoilée lors du Enerpresse Forum. Cette enquête sur la perception et connaissance des...
Économies d'énergie. Au tour de Molène et Ouessant - Le Télégramme
Après Sein, ce sont les îles de Molène et Ouessant qui se voient proposer un programme incitatif pour faire des économies d'énergie. À Sein, les propositions se sont soldées par une économie de 15% de la consommation électrique sur l'île,...
USA: 8 mds pour les voitures propres - Le Figaro
Les Etats-Unis ont annoncé aujourd'hui qu'ils débloquaient 8 milliards de dollars pour aider trois constructeurs à investir dans des véhicules permettant de faire des économies d'énergie, près des trois quarts de cette aide revenant au groupe américain...
Nicolas Sarkozy souhaite "aller le plus loin possible sur la taxe ... - AFP
La "taxe carbone" vise à encourager les économies d'énergie et à changer les habitudes d'achat grâce à un déplacement de la fiscalité du travail vers l'énergie et les émissions polluantes. Portée par l'écologiste Nicolas Hulot en 2007, qui en faisait...
AMPOULES BASSE CONSOMMATION : Selon un sondage réalisé par le site ... - Euroinvestor
C'est à cette question que le portail d'information sur les économies d'énergie www.canal-energie.com a tenté de répondre à travers un sondage mené entre le 8 et le 14 juin 2009 auprès de 300 de ses abonnés pour le compte du producteur français...
Énergies renouvelables : la région Rhône-Alpes met en place des ... - Maxisciences
Il pourrait un jour être étendu à tous les achats liés aux économies d'énergie. Lors de sa campagne électorale, le parti Europe Écologie proposait la mise en place d'un chéquier semblable aux chèques déjeuners et avec lesquels les achats d'appareils...
Doit-on avoir peur des lampes à basse consommation d'énergie ? - Notre-Planète.Info
Finalement, ces données suggèrent que les lampes à basse consommation sont sûres et peuvent être substituées aux ampoules à incandescence standard [6], contribuant ainsi de manière non négligeable aux économies d'énergie. En revanche, il faut avoir...
OMC: la Chine défend ses restrictions d'exportations de matières ... - Radio Chine Internationale
... la Chine a fait des efforts considérables pour économiser l'énergie et protéger l'environnement. Dans ce plan, le gouvernement a ordonné la limitation des exportations de certaines matières à forte consommation d'énergie et hautement polluantes....

Économie d'énergie

De la fin de la préhistoire au XVIIIe siècle, l'Homme n'a pratiquement utilisé que des énergies renouvelables, avant que le charbon, brûlé pour chauffer la vapeur d’eau, ne joue un rôle central dans la 1re révolution industrielle (chemins de fer, usines..) ; à partir de la fin du XIXe siècle, le pétrole permet le développement du moteur à explosion puis Diesel et turboréacteurs, et donc des véhicules routiers, des centrales thermiques, de l’aviation...

Le pétrole, depuis le début du XXe siècle, est le principal pourvoyeur d’énergie (tout en fournissant, par ses dérivés, la matière première des industries chimiques et pharmaceutiques). En revanche, l'industrie pétrolière est traditionnellement un gros consommateur d'énergie. En effet, pour que les réactions de raffinage du pétrole se déclenchent, il faut porter les charges à des températures de 350 °C à 600 °C. Pour atteindre de telles températures, le raffinage doit brûler entre 5 % et 7 % de la charge.

Par ailleurs, les gros tankers pétroliers consomment aussi énormément de fioul.

La guerre du Kippour en 1973, qui déclencha la crise pétrolière et le renchérissement du brut, a inauguré une prise de conscience du problème d'économie d'énergie, mais presque sans mesures concrètes. Depuis lors, la hausse considérable des prix du brut rendrait rentables de massives économies d'énergie. Pourtant, depuis 1973, la production de pétrole, gaz et charbon a constamment augmenté.

Pour certains pays sans ressources pétrolières (par exemple la France) le problème d'économie d'énergie constitue un enjeu majeur car la facture d'importation de l'énergie représente environ 75 % de l'énergie consommée. D'autres pays, bien qu'ayant de grandes réserves d'hydrocarbures, rationnent sévèrement l'exploitation de ces ressources (par exemple, la Norvège) .

En ramenant la consommation des différentes sources d’énergie (hydroélectricité, carburants) au watt (unité de puissance correspondant à la consommation d’un joule par seconde), on a calculé qu’actuellement la consommation moyenne par personne en Europe occidentale est d’environ 6 000 watts. Aux États-Unis à peu près deux fois plus.

L’objectif de la « société à 2 000 watts » est de diviser par trois la consommation énergétique moyenne par personne en Europe occidentale. De ces 2 000 W, seuls 500 devraient provenir de sources d'énergie non renouvelables, le reste de sources renouvelables.

Le label Minergie, qu’il est question de rendre obligatoire pour toutes les nouvelles constructions, prévoyant une enveloppe étanche, une isolation et un système d'aération, propose une consommation inférieure à 3 litres de fioul (ou mazout) par m² habitable par année, à un prix avantageux. La visée de BedZED (Beddington Zero Energy Development, îlot résidentiel de 82 logements au sud de Londres) est plus ambitieuse : bilan carbone de zéro ou impact neutre, sans aucune utilisation d'énergies fossiles. BedZED fonctionne depuis 2000-2002. Les maisons passives, ont non seulement un bilan carbone faible voire nul, mais peuvent injecter de l'électricité sur le réseau. On sait que les « voitures propres », à hydrogène, sans rejet dans l’atmosphère autre que la vapeur d’eau, commencent à être commercialisés, malgré la résistance qu’y opposent les grands firmes automobiles. Il faut quand même noter que la production d'hydrogène, qu'il faut plutôt considérer comme une forme de stockage d'énergie que comme une source d'énergie, cette production consomme beaucoup d'énergie.

Le négaWatt est un néologisme proposé comme unité de mesure de l’économie d'énergie (« l'énergie substituée pour assurer un même service »).

La maîtrise de l'énergie (MDE) regroupe les techniques permettant de diminuer la consommation d'énergie d'un bâtiment, d'un territoire, d'un pays, dans un souci d'économies financières (maîtrise des coûts) et de réduction de l'empreinte écologique. On parle aussi d'utilisation rationnelle de l'énergie (URE).

Le proverbe « L'énergie la moins chère est celle qu'on ne consomme pas » pourrait résumer les démarches qui vont dans le sens de la MDE, si l’objectif ultime était le profit financier. « L’énergie qu’on ne consomme pas est celle qui peut améliorer la vie humaine » pourrait être la devise de ceux qui veulent vraiment avancer dans les économies d’énergie.

Selon de nombreux organismes français tels l'ADEME ou le CLER, il s'agit d'une démarche essentielle pour une politique énergétique en faveur des énergies renouvelables. Selon l'initiative allemande Aktion Klimaschutz, la maîtrise de l'énergie permet de contribuer à la protection du climat.

Sur les installations à construire, l'économie d'énergie peut se chiffrer à 30-40 %, parfois même jusqu'à 60 %.

La conception des bâtiments selon les principes de l'architecture bioclimatique et de maison passive permet des économies énergétiques majeures, préalable nécessaire à l'utilisation des énergies renouvelables.

Pour les systèmes de préchauffage d'air par des fumées, sur les fours de distillation, on peut rentabiliser les investissements en moins de deux ans. Si la raffinerie se trouve dans une zone, où il existe d'autres raffineries chez les confrères (Rotterdam, Singapour), on peut également envisager l'exploitation des synergies énergétiques entre confrères.

Dans les systèmes d'utilités (vapeur/électricité, réseau fuel gaz, eau de refroidissement, air comprimé), ainsi que dans les unités de traitement (choix des catalyseurs, objectif normatif des consommations d'énergie, simulation de procédés, fours pilotes, aide à la conduite des unités…) des économies substantielles sont réalisables.

Les équipements industriels ont tous été conçus avec le baril de pétrole brut à 20 dollars. Or en 2007 le baril s'échange à un prix supérieur à 90 dollars , et actuellement (mai 2008) se situe au-delà de 137 dollars. La place de l'énergie dans l'industrie a fortement changé ; la conception des équipements industriels doit être adaptée et optimisée.

Pour les équipements industriels existants, une analyse minutieuse doit identifier les "sources" c'est-à-dire les flux qui permettent de récupérer de l'énergie inexploitée et à l'opposé identifier les "puits" c'est à dire des flux qui permettent de réinjecter l'énergie ainsi récupérée sur les sources à la place des énergies primaires en générale fossiles. Une fois les "sources" et les "puits" identifiés, la tâche est de trouver les couplages qui vont permette de revaloriser l'énergie des "sources" sur les "puits", ceci avec un TRI (Temps de Retour sur Investissement) court terme.

Toutes les économies décrites ci-dessus pour des entreprises sont transposables pour les particuliers.

En France, la Loi Programme des orientations de la politique énergétique du 13 juillet 2005 (dite Loi POPE) établit les économies d'énergie comme la première priorité de la politique énergétique française. Elle définit des mesures purement nationales (certificats d'économie d'énergie, par exemple) tout en transposant toutes les directives européennes en œuvre dans le domaine à cette date.

De nouvelles démarches techniques (HQE) et plus collaboratives (Agenda 21, Grenelle de l'Environnement en France) émergent. Outre une fiscalité encourageant les économies d'énergie (bonification des prêts, assouplissement des conditions d’épargne-logement quand les travaux sont à visée énergétique).. des pistes nouvelles se dessinent, dont par exemple un encouragement à grande échelle à gager les futures économies d’énergie pour financer les travaux (sous forme de « contrat de performance énergétique » par lesquels un « tiers investisseur » (l’entreprise qui réalise les travaux) se finance avec le revenu issu des économies réalisée. Le Grenelle de l'environnement a en octobre 2007 repris cette propositions, avec pour les particuliers, un système « simple et forfaitisé ».

Des controverses importantes persistent sur la question du nucléaire et des agrocarburants, voire sur les espoirs suscités par la pile à combustible et l'hydrogène.

En haut



Efficacité énergétique (économie)

La notion d'efficacité énergétique est une notion désormais pluridisciplinaire qui concerne les sciences exactes mais aussi et plus récemment les sciences humaines avec une signification précise en termes de politiques publiques et en droit. En physique, cette terminologie est issue de la thermodynamique et des lois s'appliquant à l'énergie. En droit, cette notion est essentiellement d'origine européenne par une politique qui vise à augmenter les économies d'énergie de l'amont à l'aval de la chaîne énergétique. En économie, le terme d’efficacité énergétique est utilisé de manière synonyme avec celui de l’efficience énergétique, qui consiste à réduire les consommations d’énergie, pour un même type de produit ou de service.

En Europe, la politique européenne de l'efficacité énergétique trouve son acte fondateur avec livre vert sur l'efficacité énergétiquede 2005 qui construit une vision d'ensemble de cette ambition indispensable au développement de l'Union Européenne face aux enjeux stratégiques de l'énergie perçus dès 2020.

En France, le Programme National d'Amélioration de l'Efficacité Energétique (PNAEE), a été présenté par le Premier ministre le 6 décembre 2000 avec pour priorité outre le secteur des transports, la promotion des énergies renouvelables, la maîtrise de la demande d'électricité, les économies d'énergie dans les bâtiments et les entreprises. En 2007 et 2008, le Grenelle de l'environnement a laissé à ce thème toute sa place en particulier au sein des comités opérationnels traitant des bâtiments privés et publics. Le détail du "Plan d'action de la France pour l'efficacité énergétique" remis fin février à la Commission européenne confirme la relance des thématiques de 2000.

Après avoir favorisé une politique de label énergétique dès 1992 qui a touché une série de produits de consommation courante (réfrigérateurs, lampes, etc.), la Commission a pris l'initiative de directives sur d'autres segments de la chaîne énergétique : l'efficacité énergétique des bâtiments en 2002, puis la cogénération (ou production locale à haut rendement) en 2004, puis pour renforcer la politique de label, une directive favorisant l'éco-conception les produits consommateurs d'énergie en 2005 et enfin, en 2006, une directive sur les services énergétiques.

Ces directives qui doivent être transposées dans les 27 États membres font l'objet d'un suivi attentif en particulier la directive 2006/32 qui prévoit des plans nationaux d'action dont un dernier bilan en 2007 démontre une certaine lenteur.

Transversale par essence puisque la consommation de l'énergie est partout dans les sociétés développées, l'efficacité énergétique se diffuse dans tous les compartiments de l'économie. Les pays en voie de développement voire les moins avancés comme les nouveaux pays développés (BRIC) ne peuvent négliger cette exigence. « Le concept d'efficacité énergétique comme indicateur de performances énergétiques de l'économie » selon Bruno Lapillonne(cf. Liaison Energie Francophonie, (34), 1er trim. 1997, p. 4-7) se vérifie avec plus d'acuité en particulier si une économie est confrontée à des questions de sécurité d'approvisionnement.

Du point de vue macro-économique, l'efficacité énergétique vise à diminuer la demande énergétique globale, qui additionne la demande primaire à travers les secteurs de l'agriculture, de l'industrie et du commerce sans oublier les transports et la demande finale finale d'énergie quelque soit ses formes (consommation domestique).

Du point de vue micro-économique, les mesures visent à renchérir le coût de consommation de l'énergie et de favoriser par le biais d'aides (subventions , déductions fiscales) des unités économiques de plus faible intensité énergétique sous réserve de respecter des normes techniques strictement définies et adaptées. le calcul précis de la demande, des pertes et des économies réalisables font de la phase de diagnostic (diagnostic de performance énergétique par exemple) une phase clef de la recherche d'efficacité par l'acteur économique.

En France, l'approche de l'efficacité énergétique est désormais une thématique professionnelle essentielle des constructeurs de bâtiments (démarche HQE) et des énergéticiens.

L'efficacité énergétique constitue un nouveau secteur économique à fort développement pour les décennies 2010 à 2030 voire 2050 pour tous les acteurs spécialisés et un champ d'innovation de premier plan au même titre que les énergies renouvelables.

En haut



Géothermie

Structure interne du globe terrestre montrant les température des différentes couches.

La géothermie, du grec Géo (la terre) et thermie (la chaleur), est la science qui étudie les phénomènes thermiques internes du globe terrestre et la technique qui vise à l'exploiter. Par extension, la géothermie désigne aussi l'énergie géothermique issue de l'énergie de la Terre qui est convertie en chaleur.

Ces trois types de géothermie prélèvent la chaleur contenue dans le sol.

L'énergie géothermique est exploitée dans des réseaux de chauffage et d'eau chaude depuis des milliers d'années en Chine, dans la Rome antique et dans le bassin méditerranéen.

L'augmentation des prix de l'énergie et le besoin d'émettre moins de gaz à effet de serre la rendent plus attrayante. En 2007, en France le BRGM a avec l'ADEME, créé un Département Géothermie pour la promouvoir, après s'être associé à différents programmes de recherche, de travaux de service public. Deux de ses filiales CFG Services (services et ingénierie spécialisée) et Géothermie Bouillante (qui exploite la centrale électrique de Bouillante en Guadeloupe) sont impliquées dans la géothermie.

La plus grande partie de la chaleur interne de la Terre (87%), est produite par la radioactivité des roches qui constituent le manteau et la croûte terrestre : Radioactivité naturelle produite par la désintégration de l'uranium, du thorium et du potassium.

En général le principe du « doublet géothermique » est retenu pour augmenter la durée de vie de l'exploitation de la nappe phréatique dans laquelle on puise l'eau chaude. Le principe est de faire deux forages : le premier pour puiser l'eau, le second pour la réinjecter dans la nappe. Les forages peuvent être éloignés l'un de l'autre (un à chaque extrémité de la nappe pour induire un mouvement de circulation d'eau dans la nappe, mais ce n'est pas pratique d'un point de vue de l'entretien) ou rapprochés de quelques mètres mais avec des forages obliques (toujours dans le but d'éloigner les points de ponction et de réinjection de l'eau).

Les forages sont dans ce cas plus profonds. La profondeur de forage est en fonction de la température désirée et du gradient thermique local qui peut varier sensiblement d'un site à l'autre. (en moyenne 4 °C par 100 m de profondeur). La méthode utilisée pour les transferts thermiques est plus simple (échangeur de température à contre courant) et ne nécessite pas de fluide caloporteur comme cela est le cas avec la géothermie peu profonde basse température.

Par rapport à d’autres énergies renouvelables, la géothermie de profondeur (haute et basse énergie), présente l’avantage de ne pas dépendre des conditions atmosphériques (soleil, pluie, vent). C’est donc une source d'énergie quasi-continue car elle est interrompue uniquement par des opérations de maintenance sur la centrale géothermique ou le réseau de distribution de l'énergie. Les gisements géothermiques ont une durée de vie de plusieurs dizaines d'années (30 à 50 ans en moyenne).

Dès 1973, B. Lindal avait synthétisé dans un tableau les applications possibles de la géothermie.

La géothermie haute énergie, ou géothermie profonde, appelée plus rarement géothermie haute température, ou géothermie haute enthalpie, est une source d'énergie contenue dans des réservoirs localisés généralement à plus de 1500 mètres de profondeur et dont la température est supérieure à 150 °C. Grâce aux températures élevées, il est possible de produire de l'électricité et de faire de la cogénération (production conjointe d'électricité grâce à des turbines à vapeur et de chaleur avec la récupération des condensats de la vapeur).

Plus l'on fore profond dans la croûte terrestre, plus la température augmente. En moyenne, l'augmentation de température atteint 20 à 30 degrés par kilomètre. Ce gradient thermique dépend beaucoup de la région du globe considérée. Les zones où les températures sont beaucoup plus fortes, appelées anomalies de température, peuvent atteindre plusieurs centaines de degrés pour de faibles profondeurs. Ces anomalies sont observées le plus souvent dans les régions volcaniques. En géothermie, elles sont désignées comme des gisements de haute enthalpie, et utilisées pour fournir de l'énergie, la température élevée du gisement (entre 80 °C et 300 °C) permettant la production d'électricité.

L'exploitation de la chaleur provenant de la géothermie haute énergie est ancienne. Les bains dans des sources chaudes étaient déjà pratiqués dans l'Antiquité dans de nombreuses régions du monde. C'est au début du XXe siècle qu'une centrale géothermique de production d'électricité a été pour la première fois réalisée à Larderello (Italie). La géothermie haute température connaît actuellement un renouveau important, notamment parce que la protection contre la corrosion et les techniques de forage se sont fortement améliorées.

De nouvelles applications technologiques sont envisageables pour récupérer la chaleur de la Terre. La cogénération permet déjà de combiner la production de chaleur et d'électricité sur une même unité, et augmente ainsi le rendement de l'installation. Un projet européen de géothermie profonde à Soultz-sous-Forêts vise à produire de l’électricité grâce au potentiel énergétique des roches chaudes fissurées (en anglais Hot Dry Rock).

La géothermie est la source d'énergie principale de l'Islande , mais ce sont les Philippines qui en sont le plus gros consommateur, 28% de l'électricité générée y étant produite par la géothermie. Il existe trois centrales électriques importantes qui fournissent environ 17% (2004) de la production d'électricité du pays. De plus, la chaleur géothermique fournit le chauffage et l'eau chaude d'environ 87% des habitants de l'île.

L'une des sources géothermiques les plus importantes est située aux États-Unis. The Geysers, à environ 145 km au nord de San Francisco, démarra la production en 1960 et dispose d'une puissance de 2000 mégawatts électriques. Il s'agit d'un ensemble 21 centrales électriques qui utilisent la vapeur de plus de 350 puits. La Calpine Corporation gère et possède 19 des 21 installations. Au sud de la Californie, près de Niland et Calipatria, une quinzaine de centrales électriques produisent environ 570 mégawatts électriques.

La géothermie est particulièrement rentable dans la zone du Rift en Afrique. Trois centrales ont récemment été construites au Kenya, respectivement de 45 MW, 65 MW et 48 MW. La planification prévoit d'augmenter la production de 576 MW en 2017, couvrant 25% des besoins du Kenya, et réduisant ainsi la dépendance du pays aux importations de pétrole .

En Guadeloupe, la seule référence française en matière de géothermie haute température se situe à Bouillante, non loin du volcan guadeloupéen de la Soufrière. Il a été réalisé en 1984 un premier forage d’une profondeur de 300 m sur la base duquel l’installation d’une centrale de 5 MW a été décidée. Très proches de ce site, trois nouveaux puits de production plus profonds (1 km en moyenne) ont été mis en service en 2001 et une centrale, construite en 2003 (Bouillante 2), a permis de mettre en production, à fin 2004, 11 MW supplémentaires. Ce nouvel apport d'énergie couvre environ 10% des besoins annuels en électricité de l'île.

En France métropolitaine, on fore actuellement à grande profondeur (de l'ordre de 5 000 m à Soultz-sous-Forêts ) dans des « roches chaudes sèches » où de l'eau est injectée ; on crée ainsi un échangeur thermique.

En Allemagne, une centrale utilisant la géothermie de 3,4 mégawatts, devrait fonctionner à Unterhaching près de Munich à partir de 2007, et produire en cogénération de la chaleur et de l'électricité. Le forage a atteint 3350 mètres de profondeur, et 150 litres d'eau jaillissent par seconde à une température de 122 °C.

L'électricité est produite à partir de la géothermie dans plus de 20 pays dans le monde : la Chine, l'Islande, les États-Unis, l'Italie, la France, l'Allemagne, la Nouvelle-Zélande, le Mexique, le Nicaragua, le Costa Rica, la Russie, l'Indonésie, le Japon, le Kenya et le Canada.

On parle de « géothermie basse énergie » lorsque le forage permet d'atteindre une température de l'eau entre 30 °C et 100 °C dans des gisements situés entre 1500 et 2500 m de profondeur. Cette technologie est utilisée principalement pour le chauffage urbain collectif par réseau de chaleur, et certaines applications industrielles.

En France, un réseau de chauffage urbain situé en région parisienne utilise la géothermie basse énergie. Les installations de pompes à chaleur sur nappe continuent à se développer en région parisienne car elles correspondent à des techniques de chauffage et de refroidissement particulièrement bien adaptées aux secteurs tertiaire et résidentiel.

Une centrale géothermique fonctionnant sur le principe du doublet a été mise en service en 1994 à Riehen en Suisse, pour le chauffage des immeubles locaux. Depuis décembre 2000, une partie de la chaleur produite est exportée en Allemagne et approvisionne ainsi un quartier de la ville voisine de Lörrach. L'agrandissement a provoqué un mini tremblement de terre en décembre 2006.

La production de chaleur au moyen d’une pompe à chaleur sur nappe, repose sur le prélèvement et le transfert de l'énergie contenue dans l’eau souterraine vers les locaux à chauffer. Par ailleurs, une pompe à chaleur peut assurer simultanément et/ou successivement des besoins en chauffage et/ou climatisation/rafraîchissement. Cette catégorie est tout de même, d'un point de vue technicien et d'investissement financier, plus de la famille des géothermies de très basse énergie.

La géothermie très basse énergie est une géothermie au niveau des températures comprises entre 10 °C et 30 °C. Dans ce cas, la chaleur provient non pas des profondeurs de la croûte terrestre, mais du soleil et du ruissellement de l'eau de pluie, le sol du terrain jouant un rôle de source chaude du fait de son inertie et de sa mauvaise conductivité thermique.

Ces systèmes permettent de faire, par rapport à l'usage unique d'une énergie primaire, des économies d'énergie sur le chauffage et la production d'eau chaude. Néanmoins ils nécessitent une source d'énergie extérieure, le plus souvent l'électricité, qui doit rester disponible.

La géothermie de pompe à chaleur consiste à puiser la chaleur présente dans le sol à travers des capteurs verticaux ou horizontaux, selon la configuration du terrain.

Un système thermodynamique (ou pompe à chaleur) a un fonctionnement comparable à celui d'un réfrigérateur ménager : il assure le chauffage d'un local à partir d'une source de chaleur externe (dont la température est inférieure à celle du local à chauffer). Il puise les 2/3 de l'énergie de chauffage dans la chaleur produite par les entrailles de la terre (géo = terre, thermie = chaleur) et l'autre tiers est un apport électrique pour le compresseur .

Tout se joue grâce au changement d'état, quand un fluide passe de l'état liquide à l'état gazeux, et inversement. C'est simple : un long tuyau de polyéthylène ou de cuivre gainé de polyéthylène est enterré dans le jardin. On fait circuler dedans un liquide, qui se réchauffe un peu au contact de la terre. Comme ce liquide a la propriété de se mettre à bouillir à très basse température, il passe alors de l'état liquide à l'état vapeur. Cette vapeur est comprimée par un compresseur situé dans la maison. Le simple fait de la comprimer a pour effet d'augmenter sa température. Elle est alors conduite à un condenseur qui la refait passer à l'état liquide. Lors de ce changement d'état il se dégage à nouveau de la chaleur, qui est transmise à l’eau de chauffage (radiateur, plancher chauffant, ...). Le liquide continue son cycle, et après s'être détendu, repart en circuit fermé rechercher de la chaleur dans la terre du jardin.

Du point de vue du budget d'investissement, les pompes à chaleur, installées à plus de 90 % dans du neuf (sources : Ademe, Sofath) n'entrent pas en concurrence avec le chauffage électrique par effet Joule (résistance électrique), mais plutôt avec tous les autres véritables moyens écologiques (solaire actif, bois énergie, mais avant tout les architectures climatique et bioclimatique).

La pompe à chaleur gagnerait probablement à muter vers un fonctionnement à partir de moteur thermique, pouvant utiliser des combustibles issus de la biomasse (biogaz par exemple), et ce évidemment pour des raisons d'économie d'échelle, dans des grands ensembles, permettant ainsi de localiser la production proche des lieu d'utilisation et d'augmenter les potentiels de production d'énergies renouvelables locales tout en évitant d'amplifier les problèmes actuels en amont du compteur électrique.

Les installations géothermiques ont parfois besoin d'être détartrées. Pour cela, on injecte de l'eau sous pression, ce qui dans certains cas peut déclencher des séismes de magnitude pouvant aller jusqu'à 4,6. Un moyen de limiter leur intensité est d'utiliser de l'acide chlorhydrique à la place de l'eau .

En Islande ou aux Philippines, la géothermie est largement exploitée.

En France, où la priorité a été donnée au nucléaire, la société Géochaleur créée sur suggestion de la Délégation aux énergies nouvelles du Ministère de l’Industrie en 1978 et de l’UNHLM pour assister les maîtres d’ouvrage en géothermie, a finalement rapidement disparu faute de soutient budgétaire et politique, ainsi que l’IMRG (Institut Mixte de Recherche sur la Géothermie) créé plus tard à l’initiative du BRGM et de l’AFME, mais l’obligation d’économie d’énergie qui accompagne la souplesse des échanges de certificats pourrait redonner un intérêt à la Géothermie, considérée comme déjà rentable par la Commission Énergie, présidée par Jean Syrota dans ce pays .

En haut



Communauté d'agglomération Val de Seine

La Communauté d'agglomération du Val-de-Seine est une structure intercommunale française, située dans le département des Hauts-de-Seine et la région Île-de-France.

Crée le 1er janvier 2004. La constitution de cette communauté d'agglomération a été très critiquée à Sèvres, beaucoup estimant que la cohérence géographique aurait exigé que Sèvres rejoigne la Communauté d'agglomération Arc de Seine, et que la disproportion entre Sèvres (22 700 habitants) et Boulogne-Billancourt (108 000 habitants) est trop importante. L'opposition municipale y a vu la volonté de se rapprocher d'un voisin UMP, Sèvres étant entourée de municipalités UDF et radicale de gauche.

Selon les Verts de Sèvres, "Au-delà du discours convenu sur la mutualisation des moyens, il s’agissait surtout d’éviter à Boulogne (une des villes les plus riches de France) de payer la pénalité dû au FSRIF (Fonds de solidarité de la région Île-de-France) du fait du manque de logements sociaux à Boulogne (environ 11% au lieu des 20%, minimum fixé par la loi). Sevres avec 25% de logements sociaux réduit en effet le manque de Boulogne dans le domaine.

Le nombre limité de compétences effectivement transférées ainsi que du personnel propre de la communauté laisse d'ailleurs penser que cette communauté n'a pas encore réellement commencé à fonctionner.

La communauté est administrée par un conseil communautaire constitué par des membres élus par chacun des conseils municipaux en leur sein.

Ce conseil communautaire élit au début de chaque mandat son président ainsi que son bureau et ses commissions.

L'organisation opérationnelle de la Communauté s'appuie sur les services des deux villes, la direction générale désignant au cas par cas un service pilote.

La direction générale est coordonnée par le directeur général des services de Sèvres.

La communauté est essentiellement financée par la taxe professionnelle unique, qu'elle collecte à la place des communes. Elle perçoit également la taxe d'enlèvement des ordures ménagères.

Pour 2008, les taux de ces impôts sont respectivement de 9,44 % et de 4,79 %.

La communauté a signé le 15 juillet 2008 un contrat de partenariat public-privé (PPP) avec la société ETDE, filiale électricité et maintenance de Bouygues Construction, pour la réfection et l'entretien de l'éclairage public. Ce contrat, d'une durée de 20 ans, est présenté comme la plus importante opération d’éclairage public jamais réalisée en France dans le cadre d’un partenariat public-privé. Permettant le remplacement, de 2008 à 2011, de 75 % des équipements préexistants, il devrait permettre des économies d'énergie de l'ordre de 38 %.

Elle s'est engagée dans la réalisation d'un Bilan Carbone.

Passées les divergences qui avaient empêché les deux agglomération de n'en faire qu'une à leur création respective en 2003 et 2004, la Communauté d'agglomération Arc de Seine et la communauté d'agglomération Val de Seine ont annoncé leur fusion. Elle devrait être officialisée le 27 novembre 2008 à Sèvres.

En haut



Réchauffement climatique

Depuis 400 000 ans la Terre a connu 4 cycles de glaciation.

Le réchauffement climatique, également appelé réchauffement planétaire ou réchauffement global, est un phénomène d'augmentation de la température moyenne des océans et de l'atmosphère, à l'échelle mondiale et sur plusieurs années. Dans son acception commune, ce terme est appliqué au changement climatique observé depuis environ 25 ans, c'est-à-dire depuis la fin du XXe siècle. La plupart des scientifiques attribuent à ce réchauffement global une origine en grande partie humaine. Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) est chargé d'établir un consensus scientifique sur cette question. Son dernier et quatrième rapport, auquel ont participé plus de 2 500 scientifiques de 130 pays, affirme que la probabilité que le réchauffement climatique depuis 1950 soit d'origine humaine est de plus de 90 %. Cette thèse est contestée par une minorité de personnalités.

Le climat global de la Terre connait des modifications plus ou moins cycliques de réchauffements alternant avec des refroidissements qui diffèrent par leur durée (de quelques milliers à plusieurs millions d'années) et par leur amplitude. Depuis 800 000 ans, le climat terrestre a connu plusieurs de ces cycles. Plusieurs cycles de 100 000 ans environ se sont répétés au cours de cette période. Chaque cycle commence par un réchauffement brutal suivi d’une période chaude de 10 000 à 20 000 ans environ, appelée période interglaciaire. Cette période est suivie par un refroidissement progressif et l'installation d’une ère glaciaire. À la fin de la glaciation, un réchauffement brutal amorce un nouveau cycle. Nous vivons actuellement depuis plus de 10 000 ans dans une période interglaciaire (voir figure).

Grâce à l'étude des carottages de glace et plus précisément de l'analyse de la composition isotopique de l'oxygène piégé dans la glace, les températures atmosphériques des cycles glaciaires de l’ère quaternaire ont pu être reconstituées. La carotte glaciaire la plus profonde a été forée dans le cadre du projet Epica, en Antarctique, à plus de 3 500 mètres de profondeur et permettant de remonter l'histoire du climat en Antarctique jusqu'à 800 000 ans. Les carottes de glace contiennent des bulles d'air et des indications sur la teneur en gaz de l'atmosphère d'autrefois, ce qui montre que les températures globales sont liées à la quantité de gaz à effet de serre dans l'atmosphère.

Les variations du climat sont corrélées avec celles de l'insolation, des paramètres de Milanković, de l'albédo, des cycles solaires et des concentrations dans l'atmosphère des gaz à effet de serre comme le dioxyde de carbone et des aérosols.

Au cours du quaternaire, l'amplitude thermique a été de l'ordre de 10 °C, mais avec des hausses de température n'ayant jamais dépassé de plus de 4 °C la température moyenne annuelle de la fin du XXème siècle. En revanche pour les cycles plus anciens, la température moyenne globale a atteint 22 °C soit 8 °C de plus par rapport à la moyenne actuelle. Durant ces périodes chaudes qui ont duré plusieurs dizaines de millions d'années, la Terre était dépourvue de calottes polaires.

À l'intérieur des grandes fluctuations climatiques terrestres, se trouvent des variations plus brèves et plus limitées en intensité. Ainsi, au cours du dernier millénaire, est apparu une période chaude aux Xe et XIe siècles appelée « optimum climatique médiéval » : c'est l'époque où les navigateurs vikings découvrent et baptisent le Groenland (littéralement « Pays vert ») et fondent des colonies à l'extrême sud de l'île. De même, l'époque des Temps Modernes (1550-1850) connut une période de refroidissement que les historiens appellent le « petit âge glaciaire » caractérisé par des hivers très rigoureux, dont le terrible hiver 1708-1709. Cette année là, les céréales manquèrent dans la plus grande partie de la France, et seuls la Normandie, le Perche et les côtes de Bretagne on put produire assez de grain pour assurer les semences. Dans la région parisienne le prix du pain atteignit, en juin 1709, 35 sous les neuf livres au lieu de 7 sous ordinairement. De nombreux arbres gelèrent jusqu'à l'aubier, et la vigne disparut de plusieurs régions de la France. Du 10 au 21 janvier, la température sous-abri se maintint à Paris aux environs de -20 °C, avec des minima absolus de -23,1 °C les 13 et 14 janvier ; le 11, le thermomètre s'abaissa jusqu'à -16,1 °C à Montpellier et -17,5 °C à Marseille.

Selon les reconstitutions de températures réalisées par les climatologues, la dernière décennie du XXe siècle et le début du XXIe siècle constituent la période la plus chaude des deux derniers millénaires (voir graphique). Notre époque serait même un peu plus chaude (de quelques dixièmes de degrés) que ne le fut l'optimum climatique médiéval.

Les mesures terrestres de température réalisées au cours du XXe siècle montrent une élévation de la température moyenne. Ce réchauffement se serait déroulé en deux phases, la première de 1910 à 1945, la seconde de 1976 à aujourd'hui. Ces deux phases sont séparées par une période de léger refroidissement. Ce réchauffement planétaire semble de plus corrélé avec une forte augmentation dans l'atmosphère de la concentration de plusieurs gaz à effet de serre, dont le dioxyde de carbone, le méthane et le protoxyde d'azote.

L'élévation de la température moyenne du globe entre 1906 et 2005 est estimée à 0,74 °C (à plus ou moins 0,18 °C près), dont une élévation de 0,65 °C durant la seule période 1956-2006.

La température moyenne planétaire de 2001 à 2007 est de 14,44°C soit 0,21°C de plus de 1991 à 2000. À ce rythme l'augmentation est de 2,5°C en 100 ans.

Plusieurs changements ont été observés dans le monde qui semblent cohérents avec l'existence d'un réchauffement climatique planétaire. Cependant, le lien entre ce réchauffement et les observations faites n’est pas toujours établi de façon sûre. En France c'est l'ONERC qui coordonne les observations.

Selon le troisième rapport du GIEC, la répartition des précipitations s'est modifiée au cours du XXe siècle. En particulier, les précipitations seraient devenues plus importantes aux latitudes moyennes et hautes de l'hémisphère Nord, et moins importantes dans les zones subtropicales de ce même hémisphère. D'autres experts estiment toutefois les données actuelles trop rares et incomplètes pour qu'une tendance à la hausse ou à la baisse des précipitations puisse être dégagée sur des zones de cette ampleur. On observe également depuis 1988 une diminution notable de la couverture neigeuse printanière aux latitudes moyennes de l'hémisphère nord. Cette diminution est préoccupante car cette couverture neigeuse contribue à l'humidité des sols et aux ressources en eau.

Plusieurs études indiquent que les banquises sont en train de se réduire. Le satellite spécialisé CryoSat-2, qui sera mis en orbite en 2009 après l'échec du premier satellite CryoSat en 2005, fournira des informations plus précises sur les quantités de glace polaire.

Des observations par satellite montrent que ces banquises perdent de la superficie dans l'océan Arctique. Par ailleurs, un amincissement de ces banquises, en particulier autour du pôle nord, a été observé. L'âge moyen des glaces sur la période 1988-2005, est passé de plus de six ans à moins de trois ans. La réduction de l'étendue moyenne de la banquise arctique depuis 1978 est de l'ordre de 2,7 % par décennie (plus ou moins 0,6 %), son étendue minimale en fin d'été diminuant de 7,4 % par décennie (plus ou moins 2,4 %). Le réchauffement dans cette région est de l'ordre de 2,5 °C (au lieu de 0,7 °C en moyenne sur la planète), et l'épaisseur moyenne des glaces a perdu 40 % de sa valeur entre les périodes 1958-1976 et 1993-1997. En 2007, les observations satellitaires constatent une accélération de la fonte de la banquise arctique, avec une perte de 20 % de la surface de la banquise d'été en un an. Les observations menées pendant l'expédition Tara dirigée sous l'égide du programme européen Damoclès (Developping Arctic Modelling and Observing Capabillities for Long-term Environmental Studies) de septembre 2006 à décembre 2007 indiquent que les modifications entamées dans l'océan arctique sont profondes et irréversibles, remettant en cause les modèles existants : la fonte totale de la banquise en été interviendrait entre 2015 et 2020 ; certains observateurs, compte tenu de ces nouveaux résultats, envisagent une disparition totale de la banquise d'été aux alentours de 2013. Par ailleurs, le Groenland a vu ses glaciers se réduire de 230 à 80 milliards de tonnes par an de 2003 à 2005, ce qui contribuerait à 10 % de l'élévation du niveau des mers.

En Antarctique, 3 500 km2 de la banquise Larsen B, (l'équivalent en surface des deux tiers d'un département français), se sont fragmentés en mars 2002, les premières crevasses étant apparues en 1987. Cette banquise était considérée comme stable depuis 10 000 ans. Au début de l'année 2009, la plaque Wilkins, dont la superficie était naguère de 16 000 km2 menaçait de se détacher.

À quelques exceptions près, la plupart des glaciers montagnards étudiés sont en phase de recul.

Les glaciers de l'Himalaya reculent rapidement et pourraient disparaître dans les cinquante prochaines années, selon des experts réunis à Katmandou pour une conférence sur le réchauffement climatique le 4 juin 2007. Les températures dans cette région ont crû de 0,15 °C à 0,6 °C tous les 10 ans au cours des 30 dernières années. De nombreux travaux documentent ce recul et cherchent à l'expliquer. Un tel recul semble tout à fait cohérent avec un réchauffement du climat. Cependant, cette hypothèse n'est pas certaine, certains glaciers ayant commencé à reculer au milieu du XIXe siècle, après la fin du petit âge glaciaire. L'avancée ou le recul des glaciers sont récurrents et liés à de nombreux facteurs, parmi lesquels les précipitations ou le phénomène El Niño jouent un rôle important. Par exemple le recul actuel de la mer de Glace à Chamonix découvre des vestiges humains du Moyen Âge, preuve que le glacier a déjà reculé davantage que de nos jours à une période historiquement proche.

Il faut également souligner la quasi-absence de données sur les glaciers himalayens. Par exemple, des données fiables n'existent que sur 50 glaciers indiens, sur plus de 9 500.

Le climat, et en particulier les températures, ont un effet sur la date des récoltes agricoles. Dans de nombreux cas, les dates de vendanges sont régulièrement avancées, comme en Bourgogne,,. De plus ces phénomènes peuvent être décrits sur plusieurs décennies car ces dates de vendanges ont été consignées dans le passé et archivées. De tels documents sont utilisés pour déterminer les températures à des périodes où les thermomètres n'existaient pas ou manquaient de précision. Un réchauffement climatique depuis le XXe siècle est clairement décrit par l'étude de ces archives (ainsi, la date de début des vendanges à Châteauneuf-du-Pape a avancé d'un mois en cinquante ans).

Plusieurs équipes de chercheurs ont observé une modification de l'aire de répartition de différentes espèces animales et végétales. Dans certains cas, en particulier lorsque cette aire se déplace vers le nord ou vers de plus hautes altitudes, le réchauffement climatique planétaire est parfois proposé comme cause de ces modifications. Par exemple, l'extension actuelle de l'aire de répartition de la chenille processionnaire du pin, qui a atteint Orléans en 1992 et Fontainebleau en 2004, pourrait être due au réchauffement climatique.

Une étude publiée en 2005, remise en question depuis par une seconde étude, indique une augmentation globale de l'intensité des cyclones entre 1970 et 2004, leur nombre total de cyclones étant en diminution pendant la même période,,. Selon cette étude, il est possible que cette augmentation d'intensité soit liée au réchauffement climatique, mais la période d'observation est trop courte et le rôle des cyclones dans les flux atmosphériques et océaniques n'est pas suffisamment connu pour que cette relation puisse être établie avec certitude. La seconde étude publiée un an plus tard ne montre pas d'augmentation significative de l'intensité des cyclones depuis 1986,.

Par ailleurs, les simulations informatiques ne permettent pas dans l'état actuel des connaissances de prévoir d'évolution significative du nombre de cyclones lié à un réchauffement climatique.

On observe un réchauffement des océans, qui diminue avec la profondeur. On estime que les océans ont absorbé à ce jour plus de 80 % de la chaleur ajoutée au système climatique. Ce réchauffement entraîne une montée du niveau de la mer par dilatation thermique des océans. Différentes données obtenues à l'aide de marégraphes et de satellites ont été étudiées. Leur analyse suggère que le niveau de la mer s'est élevé au cours du XXe siècle de quelques dizaines de centimètres, et qu'il continue à s'élever régulièrement. Le GIEC estime que le niveau de la mer s'est élevé de 1,8 mm par an entre 1961 et 2003,. Cette élévation du niveau de la mer peut aussi être observée indirectement par ses conséquences sur l'environnement, comme c'est le cas au Nouveau-Brunswick.

Selon la grande majorité des scientifiques, le réchauffement climatique est largement attribué à un effet de serre additionnel dû aux rejets de gaz à effet de serre produits par les activités humaines, et principalement les émissions de CO2,. L’origine humaine des gaz à effet de serre est confirmée entre autres par l'évolution des composantes isotopiques du carbone dans l'atmosphère,. Les concentrations actuelles de CO2 dépassent de 35 % celles de l’ère préindustrielle, surpassant de loin les taux des 600 000 dernières années. Elles sont passées de 280 ppm à l'époque pré-industrielle à 379 ppm en 2005, et celles de méthane ont augmenté de 150 %.

On assiste à une augmentation de 40 % de la vitesse de croissance du CO2 dans l'atmosphère, augmentant de +1,5 ppm par an de 1970 à 2000, et de +2,1 ppm par an entre 2000 et 2007.

Des experts du GIEC ont confirmé le 2 février 2007 que la probabilité que le réchauffement climatique soit due à l’activité humaine est supérieure à 90 %. Leurs conclusions sont tirées des résultats d’expériences avec des modèles numériques. En particulier, l’augmentation de la température moyenne mondiale depuis 2001 est en accord avec les prévisions faites par le GIEC depuis 1990 sur le réchauffement induit par les gaz à effets de serre. Enfin, un réchauffement uniquement dû à l’activité solaire n’expliquerait pas pourquoi la troposphère verrait sa température augmenter et pas celle de la stratosphère.

L’hypothèse d’un lien entre la température moyenne du globe et le taux de gaz carbonique dans l’atmosphère a été formulée pour la première fois en 1894 par Svante Arrhenius. Mais c’est en 1979, lors de la première conférence mondiale sur le climat, à Genève, qu’est avancée pour la première fois sur la scène internationale l’éventualité d’un impact de l’activité humaine sur le climat.

L’effet de serre est un phénomène naturel : une partie du rayonnement infrarouge émis par la Terre vers l’atmosphère terrestre reste piégée par les gaz dits « à effet de serre », qui augmentent ainsi la température de la basse atmosphère (troposphère). Ces gaz sont essentiellement de la vapeur d'eau, et une infime partie est d’origine humaine. Sans cet effet, la température de surface de la Terre serait en moyenne de -18 °C ! Actuellement ce phénomène naturel se renforce car la quantité de gaz à effet de serre a augmenté ces dernières années, en particulier le CO2, naturellement en très faible concentration dans l’atmosphère par rapport à la vapeur d’eau ou au diazote (N2), ce qui déséquilibre le bilan radiatif de la Terre. Il a été prouvé par l’étude isotopique du carbone dans l’air que cette augmentation des quantités de gaz à effet de serre est due à la combustion de matière carbonée fossile.

Selon les conclusions du rapport de 2001 des scientifiques du GIEC, la cause la plus probable de ce réchauffement dans la seconde moitié du XXe siècle serait le « forçage anthropique », c’est-à-dire l’augmentation dans l’atmosphère des gaz à effet de serre résultant de l’activité humaine. Selon les prévisions actuelles, le réchauffement planétaire se poursuivrait au cours du XXIe siècle mais son amplitude est débattue : selon les hypothèses retenues et les modèles employés, les prévisions pour les 50 années à venir vont de 1,8 à 3,4 °C.

Certaines de ces causes sont d’origine humaine, comme la déforestation et la production de gaz carbonique par combustion de matière fossile. D’autres sont naturelles, comme l’activité solaire ou les émissions volcaniques.

Les simulations climatiques montrent que le réchauffement observé de 1910 à 1945 peut être expliqué par les seules variations du rayonnement solaire (voir changement climatique). Par contre, on constate qu’il faut prendre en compte les émissions de gaz à effet de serre d’origine humaine, pour obtenir le réchauffement observé de 1976 à 2006 (voir graphique). Les modélisations effectuées depuis 2001 estiment que le forçage radiatif anthropique est dix fois supérieur au forçage radiatif dû à des variations de l’activité solaire, bien que le forçage dû aux aérosols soit négatif. Le point essentiel est que le forçage radiatif net est positif.

De nombreux scientifiques estiment même que ce rapport n'est pas assez clair et qu'il faudrait dès maintenant un programme international pour réduire drastiquement les deux sources principales de gaz à effet de serre, le transport routier et les centrales à charbon.

Bien qu'il existe un fort consensus dans la communauté scientifique sur le rôle prédominant des activités humaines dans le réchauffement climatique du dernier demi-siècle, sa probabilité étant estimée à plus de 90 % par le dernier rapport du GIEC en 2007, des personnalités contestent encore tout ou partie de cette thèse et attribuent le réchauffement à des causes naturelles, liées à l'activité du Soleil. Si la réalité du réchauffement climatique n'est, à quelques exceptions près, plus mise en doute, les critiques et controverses portent aujourd'hui principalement sur les causes de ce réchauffement, ses conséquences (voir le paragraphe Poursuite du réchauffement climatique plus bas) et les actions à mener pour lutter contre (voir la section Réponse des États plus bas).

La prévision par les scientifiques de l’évolution future du climat est possible par l'utilisation de modèles mathématiques traités informatiquement sur des superordinateurs. Ces modèles, dits de circulation générale, reposent sur les lois générales de la thermodynamique et simulent les déplacements et les températures des masses atmosphériques et océaniques. Les plus récents prennent aussi en compte d'autres phénomènes, comme le cycle du carbone.

Ces modèles sont considérés comme valides par la communauté scientifique lorsqu'ils sont capables de simuler des variations connues du climat, comme les variations saisonnières, le phénomène El Niño, ou l'oscillation nord-atlantique. Les modèles les plus récents simulent de façon satisfaisante les variations de température au cours du XXe siècle. En particulier, les simulations menées sur le climat du XXe siècle sans intégrer l'influence humaine ne rend pas compte du réchauffement climatique, tandis que celles incluant cette influence sont en accord avec les observations.

Les modèles informatiques simulant le climat sont alors utilisés par les scientifiques pour prévoir l'évolution future du climat, mais aussi pour cerner les causes du réchauffement climatique actuel, en comparant les changements climatiques observés avec les changements induits dans ces modèles par différentes causes, naturelles ou humaines.

De façon plus générale, ces modèles sont limités d'une part par les capacités de calcul des ordinateurs actuels, et le savoir de leurs concepteurs d'autre part, la climatologie et les phénomènes à modéliser étant d’une grande complexité. L'importance des investissements budgétaires nécessaires sont aussi un aspect non négligeable de la recherche dans le domaine du réchauffement climatique. Malgré ces limitations, le GIEC considère les modèles climatiques comme des outils pertinents pour fournir des prévisions utiles du climat.

Pour les climatologues regroupés au sein du GIEC, (IPCC en anglais), l'augmentation des températures va se poursuivre au cours du XXIe siècle. L'ampleur du réchauffement attendu le plus probable est de à 1,8 à 3,4 °C.

Afin de prendre en compte ce dernier paramètre dans leurs prévisions, les climatologues du GIEC ont utilisé une famille de 40 scénarios d'émission de gaz à effet de serre détaillés dans le SRES. Dans certains scénarios, la croissance de la population humaine et le développement économique sont forts, tandis que les sources d’énergie utilisées sont principalement fossiles. Dans d’autres scénarios, un ou plusieurs de ces paramètres sont modifiés, entrainant une consommation des énergies fossiles et une production de gaz à effet de serre moindres. Les scénarios utilisés comme hypothèse de travail pour l’élaboration du troisième rapport du GIEC (2001) ne prennent pas en compte l’éventualité d’une modification intentionnelle des émissions de gaz à effet de serre à l’échelle mondiale.

Les incertitudes liées au fonctionnement des modèles sont mesurées en comparant les résultats de plusieurs modèles pour un même scénario, et en comparant les effets de petites modifications des scénarios d’émission dans chaque modèle.

Les variations observées dans les simulations climatiques sont à l'origine d'un éparpillement des prévisions de l'ordre de 1,3 à 2,4 °C, pour un scénario (démographique, de croissance, de « mix énergétique mondial », etc.) donné. Le type de scénario envisagé a un effet de l’ordre de 2,6 °C sur le réchauffement climatique simulé par ces modèles et explique une bonne partie de la marge d’incertitude existant quant à l’ampleur du réchauffement à venir.

Les prévisions d'augmentation de température pour l'horizon 2 100 données par le GIEC (SPM du AR4 2007) s'échelonnent de 1,1 à 6,3 °C. Les experts du GIEC affinent leurs prévisions en donnant des valeurs considérées comme « les meilleures estimations », ce qui permet de réduire la fourchette de 1,8 à 4,0 °C. Et en éliminant le scénario A1F1, considéré comme irréaliste, l'augmentation de température serait comprise entre 1,8 et 3,4 °C.

Les scientifiques du GIEC considèrent que ces prédictions sont les meilleures prédictions actuellement possibles, mais qu'elles sont toujours sujettes à des réajustements ou à des remises en cause au fur et à mesure des avancées scientifiques. Ils considèrent qu'il est nécessaire d'obtenir des modèles plus réalistes et une meilleure compréhension des phénomènes climatiques, ainsi que des incertitudes associées.

Cependant, de nombreux climatologues pensent que les améliorations à court terme apportées aux modèles climatiques ne modifieront pas fondamentalement leurs résultats, à savoir que le réchauffement planétaire va continuer et que son ampleur sera plus ou moins importante en fonction de la quantité de gaz à effet de serre émis par les activités humaines au cours du XXIe siècle, et ce en raison de l'inertie des systèmes climatiques à l'échelle planétaire.

Les derniers articles scientifiques montrent que l'année 1998 a été la plus chaude de toute l'histoire de la météorologie, que le réchauffement s'accélère — 0,8 °C en un siècle, dont 0,6 °C sur les trente dernières années —, mais aussi d'après l'analyse de sédiments marins, que la chaleur actuelle se situe dans le haut de l'échelle des températures depuis le début de l'holocène, c’est-à-dire 12 000 ans.

Les modèles utilisés pour prédire le réchauffement planétaire futur peuvent aussi être utilisés pour simuler les conséquences de ce réchauffement sur les autres paramètres physiques de la terre, comme les calottes de glace, les précipitations ou le niveau des mers. Dans ce domaine, un certain nombre de conséquences du réchauffement climatique sont l'objet d'un consensus parmi les climatologues.

Selon le troisième rapport du GIEC, le niveau de la mer s'est élevé de 0,1 à 0,2 m au XXe siècle. La montée du niveau des eaux est due principalement au réchauffement des eaux océaniques et à leur dilatation thermique. L'effet de la fonte des glaciers ne se ferait sentir qu'à beaucoup plus long terme, et celle des calottes polaires à l'échelle de plusieurs siècles ou millénaires. De même que pour les températures, les incertitudes concernant le niveau de la mer sont liées aux modèles, d'une part, et aux émissions futures de gaz à effet de serre, d'autre part.

L'élévation entre 1993 et 2003 est estimée à 3,1 mm par an (plus ou moins 0,7 mm). L’élévation prévue du niveau de la mer en 2100 est de 18 cm à 59 cm, selon le 4e rapport du GIEC. Elle pourrait être de 2 mètres en 2300.

Une montée des eaux de quelques centimètres n'a pas d'impact très visible sur les côtes rocheuses, mais peut avoir des effets très importants sur la dynamique sédimentaire des côtes plates : dans ces régions, qui sont en équilibre dynamique, la montée de la mer lui donne une capacité d'érosion plus forte, et déplace donc globalement l'équilibre vers une reprise de l'érosion qui fait reculer les côtes. La montée du niveau moyen de la mer a ainsi des effets beaucoup plus importants que la simple translation de la ligne de côte jusqu'aux courbes de niveau correspondantes.

Selon le dernier rapport du GIEC, une augmentation des précipitations aux latitudes élevées est très probable et une diminution est, elle, probable dans les régions subtropicales, poursuivant une tendance déjà constatée, de sorte qu'à l'horizon 2025, un tiers de la population mondiale pourrait se trouver en état de stress hydrique.

La circulation thermohaline désigne les mouvements d'eau froide et salée vers les fonds océaniques qui prennent place aux hautes latitudes de l’hémisphère nord. Ce phénomène serait, avec d'autres, responsable du renouvellement des eaux profondes océaniques et de la relative douceur du climat européen.

En cas de réchauffement climatique, le moteur qui anime les courants marins serait menacé. Effectivement, les courants acquièrent leur énergie cinétique lors de la plongée des eaux froides et salées, et donc denses, dans les profondeurs de l'océan Arctique. Or, l'augmentation de la température devrait accroître l'évaporation dans les régions tropicales et les précipitations dans les régions de plus haute latitude. L'océan Atlantique, en se réchauffant, recevrait alors plus de pluies, et en parallèle la calotte glaciaire pourrait partiellement fondre (voir Événement de Heinrich). Dans de telles circonstances, une des conséquences directes serait un apport massif d’eau douce aux abords des pôles, entraînant une diminution de la salinité marine et donc de la densité des eaux de surface. Cela peut empêcher leur plongée dans les abysses océaniques. Ainsi, les courants tels que le Gulf Stream pourraient ralentir ou s'arrêter, et ne plus assurer les échanges thermiques actuels entre l'équateur et zones tempérées. Pour le XXIe siècle, le GIEC considérait dans son rapport 2007 comme très probable un ralentissement de la circulation thermohaline dans l'Atlantique, mais comme très improbable un changement brusque de cette circulation.

Selon certaines thèses, un phénomène d'arrêt du Gulf Stream, dû au réchauffement climatique, pourrait engendrer un effet paradoxal : par son inégale distribution de la chaleur, une ère glaciaire en Europe et dans les régions à hautes latitudes. En effet, l'Europe se situe à la même latitude que le Québec, et la seule différence de climat semble résider dans le fait que l'Europe profite de l'apport thermique du Gulf Stream. L’équateur, à l'inverse, accumulerait alors une chaleur harassante stimulant de ce fait la formation continuelle d'ouragans amenant des précipitations de grande ampleur.

Cette hypothèse d'un refroidissement de l'Europe qui suivrait le réchauffement global n'est cependant pas validée. En effet, il n'est nullement établi que le Gulf Stream soit la seule cause des hivers doux en Europe. Ainsi, Richard Seager a publié en 2002 une étude scientifique sur l'influence du Gulf Stream sur le climat. Ses conclusions sont sans appel : l'effet du Gulf Stream est, selon lui, un mythe et a un effet mineur sur le climat en Europe. La différence entre les températures hivernales entre l'Amérique du Nord et l'Europe est due au sens des vents dominants (vent continental glacial du nord sur la côte est de l'Amérique du Nord et vent océanique de l'ouest en Europe) et à la configuration des Montagnes Rocheuses. Même en cas d'arrêt du Gulf Stream, le climat de l'Europe occidentale serait comparable à celui de la côte Ouest des États-Unis plutôt qu'à celui de la côte Est.

Les scientifiques du GIEC prévoient, pour le XXIe siècle une diminution de la couverture neigeuse, et un retrait des banquises. Les glaciers et calottes glaciaires de l'hémisphère nord devraient aussi continuer à diminuer, les glaciers situés à moins de 3 400 mètres d'altitude pouvant être amenés à disparaître.

En revanche, l'évolution de la calotte glaciaire antarctique au cours du XXIe siècle est plus difficile à prévoir.

Une équipe de chercheurs a récemment mis en évidence un lien entre l'activité humaine et l'effondrement de plates-formes de glace dans l'Antarctique. Les réchauffements locaux seraient dus à un changement de direction des vents dominants, cette modification étant elle-même due à l'augmentation de la concentration de l'air en gaz à effet de serre et la dégradation de la couche d'ozone en Antarctique à cause des CFC d'origine humaine.

Toutefois, selon une lettre envoyée au journal Nature, ces réchauffements ne s'observent que localement. En effet, l'Antarctique connait globalement un climat de plus en plus froid et sa couverture glacée est en expansion, les élévations de la température dans ces secteurs très froids se révélant favorables à une augmentation des précipitations neigeuses donc à terme, à une augmentation des volumes de glace.

Cependant, la quantité de glace de l'Antarctique déversée dans les mers a augmenté de 75% durant les dix années qui précèdent 2008. Ce phénomène risque de s'amplifier en raison de la disparition de la banquise qui cesse alors d'opposer un obstacle au déversement des glaciers dans l'océan.

Le quatrième rapport d'évaluation du GIEC énonce que « le réchauffement anthropique de la planète pourrait entraîner certains effets qui sont brusques ou irréversibles, selon le rythme et l'ampleur des changements climatiques ».

Les scientifiques nomment ainsi des emballements du système climatique lorsqu'un seuil est dépassé. On parle aussi de bombe à carbone. De telles rétroactions ont déjà été observées lors de précédents réchauffements climatiques, à la fin d'une ère glaciaire ; le climat peut ainsi, en quelques années, se réchauffer de plusieurs degrés. Un exemple concerne les hydrates de méthane. Le méthane (CH4, qui n'est autre que le gaz naturel, à quelques « impuretés » près), est un gaz à effet de serre 23 fois plus réchauffant que le CO2. Il se forme lorsque la décomposition de la matière organique s'effectue avec un manque d'oxygène, et sous l'action de bactéries, un processus nommé méthanisation. Les sols humides (marais) sont très propices à cette création de méthane, qui est alors libéré dans l'atmosphère (cela peut donner lieu à des inflammations spontanées et l'on peut observer des feux follets). Si le sol est de plus gelé, le méthane reste piégé dans la glace sous la forme d'hydrates de méthane. Le sol de Sibérie est ainsi un immense réservoir de méthane (sans doute trop diffus pour être exploité industriellement) : le département des études géologiques des USA a évalué que ce réservoir pouvait être de la même ampleur que tout le gaz, le pétrole et le charbon réunis. Cependant, le magazine Science & Vie d'avril 2006 donnait plutôt comme valeur 1 400 Gt, comparativement à 5 000 Gt pour l'ensemble des combustibles fossiles. Si le sol se réchauffe, la glace fond et libère le méthane déjà présent initialement, ce qui a pour conséquence un effet de serre plus marqué, et par suite un emballement du réchauffement climatique, qui fait fondre la glace encore plus vite... d'où le nom de rétroaction.

Une autre rétroaction serait le ralentissement et la modification des courants océaniques. L'océan capte aujourd'hui le tiers du CO2 émis par les activités humaines. Mais si les courants océaniques ralentissent, les couches d'eau superficielles peuvent se saturer en CO2 et ne pourraient plus en capter comme aujourd'hui. La quantité de CO2 que peut absorber un litre d'eau diminue à mesure que l'eau se réchauffe. Ainsi, de grandes quantités de CO2 peuvent être relarguées si les courants océaniques sont modifiés. En outre, l'accumulation de CO2 dans les océans conduit à l'acidification de ces derniers, ce qui affecte l'écosystème marin et peut induire à long terme un relargage de CO2 .

Les moteurs de la circulation océanique sont de deux types : l'eau en se rapprochant des pôles se refroidit et devient donc plus dense. De plus, l'eau de mer qui gèle rejette son sel dans l'eau liquide (la glace est constituée d'eau douce), devenant au voisinage des calottes glaciaires encore plus dense. Cette eau plonge donc et alimente la pompe : l'eau plus chaude de la surface est aspirée. L'eau du fond (froide) remonte dans les zones des tropiques et/ou équatoriales et se réchauffe, ceci en un cycle de plus de 1 000 ans.

Si les calottes de glace fondent, la pompe se bloque : en effet, l'eau qui plonge provient de la calotte et non plus de l'eau refroidie en provenance des tropiques. Un effet similaire est observé si les précipitations augmentent aux hautes latitudes (ce qui est prévu par les modèles) : l'eau qui plongera sera l'eau douce de pluie. À terme, une forte perturbation du Gulf Stream est envisageable.

Le déséquilibre naturel qui s'en suivra pourrait entraîner la disparition de plusieurs espèces animales et végétales. C'est une préoccupation que les états, dont la France, commencent à prendre en compte. Pour l'ensemble des populations humaines, ces effets « physiques » et « écologiques » auront de fortes répercussions. La très grande complexité des systèmes écologiques, économiques et sociaux affectés par le réchauffement climatique ne permet pas de faire des prévisions chiffrées comme pour la modélisation physique de la terre. Cependant, certains points semblent faire consensus dans la communauté scientifique.

En ce qui concerne la France, l'élévation de température risque d'augmenter le nombre de canicules en 2100 . Alors que le nombre de jours de canicule est actuellement de 3 à 10 par an, il pourrait s'élever à une moyenne de 20 à 40 en 2100, rendant banale la canicule exceptionnelle de 2003 .

Les précipitations seraient plus importantes en hiver, mais beaucoup moins en été. Les régions connaissant des durées de plus de 25 jours consécutifs sans pluie, actuellement limitées au sud-est de la France, s'étendraient à la moitié ouest du territoire.

La végétation connaitrait une remontée vers le nord. L'épicéa risquerait de disparaitre du Massif Central et des Pyrénées. Le chêne, très répandu dans l'Est de la France, verrait son domaine réduit au Jura et aux Vosges, mais le pin maritime, actuellement implanté sur la façade Ouest, s'étendrait sur la moitié ouest de la France et le chêne vert s'étendrait dans le tiers sud, marquant une étendue du climat méditerranéen,.

Les cultures du midi méditerranéen, telles que celle de l'olivier, pourrait s'implanter dans la vallée du Rhône. On peut désormais trouver des oliviers en tant qu'arbres d'ornement sur toute la façade sud-ouest de l'océan Atlantique, et ce jusqu'en Vendée. Par contre, faute d'eau suffisante, la culture du maïs serait limitée à la partie nord et nord-est du territoire. Les céréales verraient leur rendement augmenter si l'élévation de température ne dépasse pas 2°C. Par contre, si elle était supérieure, les plantes cultivées auraient du mal à s'adapter et on pourrait craindre des difficultés agricoles .

Les chutes de neige seront moins abondantes entraînant un moindre approvisionnement en eau des fleuves, mais également des difficultés d'ordre économique pour l'économie de montagne. Par exemple, les stations de ski situées à moins de 1500 m d'altitude seraient amenées à fermer leurs pistes et à se reconvertir.

Face au réchauffement climatique, l'Académie des Sciences américaine note, dans un rapport de 2002 : « il est important de ne pas adopter d'attitude fataliste en face des menaces posées par le changement de climat. (…) Les sociétés ont dû faire face à des changements du climat graduels ou abrupts durant des millénaires et ont su s'adapter grâce à des réactions diverses, telles que s'abriter, développer l'irrigation ou migrer vers des régions plus hospitalières. Néanmoins, parce que le changement du climat est destiné à continuer dans les prochaines décennies, dénier la possibilité d'événements climatiques abrupts ou minimiser leur impact dans le passé pourrait s'avérer coûteux. ».

Nombre de chercheurs prédisent des conséquences désastreuses en cas d'un réchauffement de 1,5 à 7°C, mais la plupart estiment qu'en limitant le réchauffement global à 1°C, les conséquences seraient de grande ampleur mais resteraient acceptables.

La montée du niveau de la mer, due essentiellement à la dilatation thermique des océans, est évaluée entre 18 et 59 cm d'ici 2100 par le 4e rapport du GIEC. Elle inquiète les populations de certaines îles de l'océan Pacifique ou de l'océan Indien qui pourraient se voir complètement submergées. À ce phénomène de montée des eaux s'ajoute un phénomène encore plus important de subduction (enfoncement des terres dans l'Océan) (voir notamment l'article sur l'archipel des Tuvalu et les écoréfugiés).

Mais cette montée des eaux apparemment minime menace également les 20% de la population mondiale vivant sur les littoraux.

L'accroissement de l'évaporation devrait augmenter localement la pluviosité, sauf dans les pays méditerranéens qui verraient la sècheresse s'accentuer, dans un contexte où la violence et/ou la fréquence et gravité des aléas climatiques pourraient croître.

En zone tempérée (hors des zones arides qui pourraient le devenir encore plus) et circumpolaire, dans un premier temps, la conjonction du réchauffement et de l'augmentation du taux de CO2 dans l'air et les pluies pourrait accroître la productivité des écosystèmes. L'agriculture du Nord des États-Unis, le Canada, la Russie et les pays nordiques pourraient peut-être en profiter, mais des signes de dépérissement forestier semblent déjà visible dans ces zones.

Les satellites montrent que la productivité de l'hémisphère Nord a augmenté depuis 1982, du fait de ce réchauffement et de l'enrichissement de l'atmosphère en CO2, mais aussi en partie à cause de l'eutrophisation des écosystèmes, les engrais d'origine humaine (phosphates et nitrates notamment) étant entrainés là où ils ces substances étaient beaucoup plus rares autrefois. L'augmentation de la biomasse n'est par ailleurs pas nécessairement bénéfique et comporte le risque de s'accompagner d'une régression de la biodiversité. Enfin, au delà d'un certain seuil, les modèles du GIEC calés sur des tests en laboratoire et en extérieur, prédisent qu'un taux de CO2 ne bénéficierait plus aux plantes, les effets négatifs pouvant alors l'emporter.

Dans le sud de l'Amérique du Nord, de la Chine, du Japon et de l'Europe, de longues sécheresses, avec des épisodes répétés de canicules pourraient induire des phénomènes d'aridification puis de désertification et salinisation empêchant l'agriculture, détruisant les récoltes ou la rendant très coûteuse. De graves incendies pourraient massivement détruire les cultures (en 2007 le feu a en Grèce détruit de vastes zones agricoles (dont oliveraies). Même sans incendies, l'augmentation de l'évapotranspiration en été, liée à une productivité dopée par le CO2, pourrait augmenter la sensibilité d'un milieu aux sécheresses et aggraver de ce fait le risque d'incendies de forêts et de stress et maladies des arbres et des plantes cultivées.

Une augmentation de la biomasse totale ne compenserait probablement pas un recul d'espèces cultivées, pêchées et chassées. Le bilan global ne peut à ce jour être calculé, mais il pourrait être désavantageux, même dans les zones où les effets positifs se feraient le plus sentir. Pour le GIEC, mis en balance avec les effets négatifs, ces quelques aspects positifs ne permettent pas de considérer le réchauffement climatique comme globalement bénéfique.

On ignore aussi à partir de quand les écosystèmes (marins notamment) réagiront négativement à l'acidification des eaux qu'entraîne la dissolution de quantités croissantes d'acide carbonique.

Le Comité économique et social européen dans son avis du 3 février 2009 note que des études comparatives concluent à un bilan de l'agriculture bio en moyenne meilleur (au regard de la consommation de matières premières et d'énergie et au regard du carbone stocké ou des émissions de gaz à effet de serre) que celui de l'agriculture dite conventionnelle, même si l'on tient compte des rendements moindres de l'agriculture bio, ce qui a justifié que le gouvernement allemand, l'intègre par mi les moyens de lutter contre le changement climatique). LE CESRE rapelle aussi qu'une agriculture réorientée et adaptée pourrait selon divers spécialistes et ONG aussi contribuer à tamponner ou freiner les effets du réchauffement (Cool farming)). Le comité ne cite pas les agrocarburants comme une solution, citant le climatologue Paul Crutzen selon qui les émissions de protoxyde d'azote induites par la culture et production de biodiesel, suffisent, dans certaines conditions à faire que le méthylester de colza puisse avoir des effets climatiques pires que ceux du diesel fait avec du pétrole fossile. Le comité pose aussi la question des fumures traditionnelles et se demande « si l'utilisation intégrale des plantes, telle qu'elle est prévue dans le cadre des biocarburants de la deuxième génération, ne risque pas de porter atteinte aux objectifs fixés en matière de développement de la couche d'humus », c'est à dire de contribuer à encore épuiser la matière organique des sols. Le comité repose la question de l'écobilan des biocarburants en citant une étude comparative, de l'Empa qui a conclu qu'une Volkswagen Golf nécessitait 2 062 m2 de colza pour parcourir 10 000 km avec du biodiesel, alors que 37 m2 de panneaux solaires (1/60ème de la parcelle de colza précédente) suffirait à produire assez d'électricité pour parcourir la même distance.

Selon une étude récente, en 30 ans, un réchauffement moyen de 0,5 degré Celsius a déjà doublé le taux de mortalité des arbres des grandes forêts de l'ouest américain, en favorisant les sécheresse et pullulations de ravageurs (dont scolytes qui ont par exemple détruit environ 1,4 million d'hectares de pins dans le nord-ouest du Colorado). Le manque de neige induit un déficit hydrique et un allongement des sécheresses estivales, avec multiplication des incendies, alertent les auteurs qui craignent des impacts en cascade sur la faune et les écosystèmes. L'augmentation de la mortalité touche des arbres (feuillus et conifères) de toutes les tailles et différentes essences et à toutes les altitudes. Dans le nord-ouest américain et le sud de la Colombie britannique (Canada), le taux de mortalité dans les vieilles forêts de conifères a même doublé en 17 ans (c'est une fois et demie plus rapide que la progression du taux de mortalité des arbres des futaies californiennes où ce taux a été multiplié par deux en 25 ans. L'accélération de la mortalité a été moindre dans les forêts de l'ouest ne bordant pas le Pacifique (dans le Colorado et l'Arizona), mais « un doublement de ce taux de mortalité finira par réduire de moitié l'âge moyen des arbres des futaies, entraînant une diminution de leur taille moyenne », estime T Veblen qui craint aussi une moindre fixation du carbone (CO2) de l'atmosphère et qui appelle à « envisager de nouvelles politiques permettant de réduire la vulnérabilité des forêts et des populations », notamment en limitant l'urbanisation résidentielles dans les zones vulnérables.

En France, selon les prévision de l'INRA, plusieurs essences ne survivront pas dans la moitié sud de la France et plusieurs ravageurs des arbres pourraient continuer remonter vers le nord.

Une diminution des glaces polaires arctiques ouvrirait de nouvelles routes commerciales pour les navires, et rendrait accessibles des ressources sous-marines de pétrole ou de matières premières, mais avec des conséquences néfastes sur nombre d'espèces, dont plancton et poissons de haute valeur commerciale.

L'accès à ces matières premières en des zones aujourd'hui non accessibles risque d'être source de conflit entre pays côtiers de l'océan Arctique. Ainsi, les États-Unis et le Canada ont-ils protesté lorsque, le 2 août 2007, la Russie planta son drapeau au fond de l'océan sous le pôle Nord.

Un rapport de 700 pages de sir Nicholas Stern, économiste anglais, estime que le réchauffement climatique entrainerait un coût économique de 5 500 milliards d'euros en tenant compte de l'ensemble des générations (présente et futures) ayant à en subir les conséquences.

En 2007, pour la première fois, le World monuments fund (WMF, Fonds mondial pour les monuments) a introduit les modifications climatiques dans la liste des menaces pour 100 sites, monuments et chefs-d’œuvre de l’architecture menacés, les autres menaces principales étant les guerres et conflits politiques, et le développement industriel et urbain anarchique.

On redoute aussi les conséquences des phénomènes climatiques, non seulement sur l'économie, mais également sur la santé publique : le quatrième rapport du GIEC met en avant certains effets sur la santé humaine, tels que « la mortalité associée à la chaleur en Europe, les vecteurs de maladies infectieuses dans diverses régions et les allergies aux pollens aux latitudes moyennes et élevées de l’hémisphère Nord ».

Les changements climatiques pourront modifier la distribution géographique de certaines maladies infectieuses. Des températures élevées dans les régions chaudes pourraient réduire l'extension du parasite responsable de la bilharziose. Mais le paludisme fait sa réapparition au nord et au sud des tropiques. Aux États-Unis, cette maladie était en général limitée à la Californie, mais depuis 1990, des épidémies sont apparues dans d'autres États, tels le Texas, la Floride, mais aussi New York. Il est également réapparu dans des zones où il était peu fréquent, telles le sud de l'Europe et de la Russie ou le long de l'océan Indien. On constate également que les moustiques et les maladies qu'ils transmettent ont gagné en altitude.

Sous les climats tempérés, le réchauffement climatique réduirait le nombre de décès induit par le froid ou les maladies respiratoires. Cependant, l'augmentation de la fréquence des canicules estivales augmenterait le nombre de décès en été. Il est difficile de savoir quel sera le bilan global, et si une diminution de l'espérance de vie en découlera.

Selon un rapport de 2003 commandé par le Pentagone et selon un rapport de 2007 de l'UNEP, le réchauffement climatique pourrait entraîner des phénomènes de déstabilisation mondiale, avec des risques de guerre civile.

Face au problème, trois approches se complètent ; lutte contre les émissions de GES, puits de carbone, et adaptation.

L'effort international a d'abord visé à réduire le CO2 (gaz à longue durée de vie), alors qu'une action urgente sur les polluants à courte durée (dont le méthane, l'ozone troposphérique et le « carbone noir ») pourrait mieux réduire le réchauffement de l'Arctique. La réduction du CO2 est aussi importante, mais ses effets se feront sentir à plus long terme (après 2100).

L'augmentation prévue de 1,5°C à 7°C pour le siècle à venir, pourrait être moindre si des mesures environnementales sévères étaient prises ou qu'un réel compétiteur aux énergies fossiles émergeait. En dépit des succès dans le secteur des énergies renouvelables, du nucléaire et surtout d'un changement de mode de vie et de consommation, la recherche n'a pas encore offert d'alternative à court terme aux carburants fossiles. Énergie éolienne, énergie hydroélectrique, énergie géothermique, énergie solaire, la méthanisation, l'énergie hydrolienne, pile à combustible, énergie nucléaire, stockage géologique du dioxyde de carbone sont néanmoins en rapide développement. Le gisement d'économies d'énergie est encore considérable.

La Convention Cadre des Nations unies sur les changements climatiques a été signée en 1992 lors du sommet de la terre à Rio de Janeiro. Elle est entrée en vigueur le 21 mars 1994. Elle a été ratifiée à ce jour par 192 États. Les parties à la convention cadre sur les changements climatiques se sont fixés comme objectif de stabiliser la concentration des gaz à effet de serre dans l’atmosphère à « un niveau qui empêche toute perturbation anthropique dangereuse du climat ». Les pays développés ont comme objectif de ramener leurs émissions de gaz à effet de serre en 2010 au niveau de 1990, cet objectif n'est pas légalement contraignant.

En 1997, les parties à la Convention cadre sur les changements climatiques des Nations unies (UNFCCC) ont adopté le protocole de Kyoto, dont la nouveauté consiste à établir des engagements de réduction contraignants pour les pays dits de l'annexe B (pays industrialisés et en transition) et à mettre en place des mécanismes dit « de flexibilité » (marché de permis, mise en œuvre conjointe et mécanisme de développement propre) pour remplir cet engagement. Le protocole de Kyoto est entré en vigueur le 16 février 2005 suite à sa ratification par la Fédération de Russie.

À la date de juillet 2006, le protocole de Kyoto a été ratifié par 156 États. Les États-Unis et l'Australie (voir infra) ne sont pas signataires. Les États-Unis, sont pourtant le deuxième émetteur (20 % des émissions de gaz à effet de serre). Les pays de l'annexe B se sont engagés à réduire leurs émissions de six gaz à effet de serre (CO2, CH4, N2O, SF6, HFC, PFC) de 5,2 % en 2008-2012 par rapport au niveau de 1990. Cet objectif représente en réalité une diminution d'environ - 20 % par rapport au niveau d'émissions anticipé pour 2010 si aucune mesure de contrôle n'avait été adoptée. Les objectifs de réduction par pays vont d'une réduction de 8 % pour l'Union européenne à une possibilité d'augmentation de 10 % pour l'Islande.

Après la victoire des travaillistes aux élections législatives australiennes du 24 novembre 2007, le nouveau premier ministre Kevin Rudd a annoncé avoir ratifié le protocole de Kyoto.

Des pays en voie de développement fortement contributeurs aux émissions comme l'Inde, 5e émetteur mondial, et la Chine, 1re émettrice, n'ont pas d'objectifs de réduction car ils étaient considérés comme insuffisamment industrialisés et parce que leurs niveaux d'émissions ramenés au nombre d'habitants sont extrêmement faibles. Le mécanisme dit « de développement propre » (MDP), instauré par le protocole de Kyoto, permet aux investisseurs, en contrepartie d'un investissement propre dans un pays en développement, de gagner des « crédits carbone ». Ce mécanisme permet aux pays développés d’avoir accès aux réductions à bas coûts des pays en développement et donc de diminuer le coût de leur engagement. Il permet aux pays en développement de bénéficier d’investissements propres. Il encourage les transferts de technologie. Le MDP apparait cependant insuffisant pour infléchir profondément les trajectoires d’émissions de ces pays. L’absence d’engagement de réduction des pays en développement est une des raisons avancées par les États-Unis pour justifier leur refus de ratifier le protocole. C'est pourquoi un des enjeux majeurs pour la période après Kyōto est de définir des modalités d'association de ces pays à l’effort commun de réduction.

L'Union européenne reste le 3e pollueur mondial après la Chine et les États-Unis, mais dispose d'atouts pour lutter contre le réchauffement.

L'UE a lancé en 2005 le marché de permis européen (1er marché de permis contraignant au niveau mondial). La Commission européenne va en 2007-2008 activer son observatoire de l'énergie, restée embryonnaire, et publier (prévu en 2007) un « Livre vert » sur l'adaptation de l'UE au changement climatique, support de débat avant une prise de décision en 2008. La Directive sur le système européen d'échange de droits d'émission sera modifiée en 2008, pour inclure notamment les émissions de l'aviation. La proposition sur les limites d'émission des voitures (120g de CO2 par km soit 12 kg de CO2 / 100 km; rappelons que chaque automobile parcourt en moyenne 15 000 km/an) devrait être publiée au second semestre de 2007. La DG Recherche doit proposer en novembre un plan européen, et des propositions de législation sur les piles à combustibles et les avions « propres ». Des appels d'offre sur l'énergie et le climat devraient être publiés avant mi 2007. Le 29 juin 2007, la commission publie et met en consultation un Livre vert sur la question et sur les possibilités d'action de l'UECOM(2007) 354 final). Il prône à la fois l'adaptation et l'atténuation, l'amélioration des connaissances (y compris sur les besoins et coûts d’adaptation - Cf. 7e programme-cadre de recherche de l’UE (2007-2013), l’élaboration de stratégies et d’échanges de bonnes pratiques entre pays, de nouveaux produits assurantiels (« dérivés climatiques », « obligations catastrophe », l’adaptation des marchés européens des assurances (cf. directive « Solvabilité II ») et des fonds « catastrophes naturelles » ainsi que des politiques agriculture et pêche, avec le développement d’une solidarité interne à l’UE et avec les pays extérieurs touchés. 50 millions € sont réservés par la Commission pour 2007-2010 pour favoriser le dialogue et l’aide à des mesures d’atténuation et d’adaptation ciblées, dans les pays pauvres.

La France a également (juillet 2007) publié une Stratégie nationale d’adaptation au changement climatique et envisagerait une gouvernance adaptée, notamment dans le cadre du Grenelle de l'Environnement.

L'UE dispose de ressources en éolien terrestre et offshore (déjà 66 % de la puissance éolienne installée dans le monde en 2006, essentiellement au Danemark qui produit ainsi près de 40 % de sa puissance électrique) devant les États-Unis (16 %), l’Inde (8 %) et le Japon (2 %), en technologies solaires et d'un tiers du parc nucléaire mondial. Cela la rend moins dépendante des énergies fossiles que la Chine et les États-Unis. La France, pays le plus nucléarisé, reste cependant loin du record de 1961 où 51 % de son énergie électrique venait du renouvelable (hydroélectrique).

L'UE encourage aussi tous les acteurs à préparer leur adaptation au changement climatique.

Deuxième pays pollueur derrière la Chine, les États-Unis via l’administration de George W. Bush refusèrent de présenter de nouveau en juillet 2005 le traité pour ratification parce qu’ils considèrent que cela freinerait l’économie nationale et que le combat contre le réchauffement climatique doit se faire non pas avec une simple réduction des gaz à effet de serre, mais par une meilleure gestion de leur émission.

De nombreux États des États-Unis ont néanmoins pris des mesures de restriction sur les gaz à effet de serre.

Depuis 2001, les états du Texas, de la Californie, du New Hampshire, ont instauré un dispositif de contrôle des émissions de gaz pour différents secteurs industriels et énergétiques. Le dispositif adopté par la Californie, qui s'appliquera à partir de 2009, prévoit réduire les émissions de gaz polluants de 22 % en moyenne d'ici 2012 et de 30 % d'ici 2016.

En outre, le principe des marchés des permis d’émission consiste à accorder aux industriels « pollueurs » gratuitement, à prix fixe ou aux enchères, des quotas d'émissions de CO2, que ceux-ci peuvent ensuite s'échanger. Chaque émetteur de CO2 doit alors vérifier qu’il détient autant de permis d'émission que ce qu'il va émettre. Dans le cas contraire, il se trouve contraint ou bien de diminuer ses émissions, ou bien d’acheter des permis. Inversement, si ses efforts de maitrise des émissions lui permettent de posséder un excédent de permis, il peut les vendre.

De tels procédés ont été réalisés pour réduire les pluies acides aux États-Unis et ont connu des succès (programme « Acid rain »). Ce système des marchés de permis d’émission fait partie du dispositif du Protocole de Kyoto qui à la date de juillet 2006 n'est toujours pas ratifié par les États-Unis.

En 2004, le sénateur républicain John McCain et le démocrate Joseph Lieberman déposent un projet de loi visant à limiter les rejets dans l’atmosphère ; soutenu par les grandes entreprises Alcoa, DuPont de Nemours et American Electric Power, il n’est pourtant pas adopté.

Les États-Unis financent avec la Chine, le Japon, la Russie et l'UE, le projet ITER (International Thermonuclear Experimental Reactor), projet de recherche sur la fusion nucléaire contrôlée, mené à Cadarache (Sud de la France). Toutefois la production nette d'énergie par fusion nucléaire chaude reste à l'état d'espoir lointain : les prévisions les plus optimistes des partisans du projet parlent de plusieurs dizaines d'années. Certains voient plus d'espoir dans la production d'énergie par réactions nucléaires en matière condensée.

Le 8 juillet 2008, George Bush signe un texte engageant les États-Unis à réduire de moitié des émissions des GES d'ici à 2050, à Toyako (Japon), dans le cadre d'une réunion du G8.

Les décisions pour réduire les émissions de CO2 sont prises par les états fédérés : en 2005, 18 de ces états obligeaient les producteurs d’électricité à utiliser en partie des sources d’énergie renouvelables.

En 2005, les maires de 136 villes américaines, ont pris l'engagement d'appliquer les normes du protocole de Kyoto et à réduire d'ici 2012 leurs émissions de gaz à effet de serre de 7 % par rapport à 1990.

L'état du Nevada a pour objectif d'atteindre le seuil de 20 % de sa consommation en énergie renouvelable, d'ici 2015, notamment grâce aux centrales solaires installées dans le désert.

En outre, à l'initiative du maire de Seattle, 166 grandes villes américaines, dont New York et Boston, se sont engagées solennellement à respecter le protocole de Kyoto en mars 2005.

Alors que la population californienne représente 12 % de la population américaine, elle ne consomme que 7 % de l’électricité produite dans le pays ; ainsi, la Californie se trouve à la première place pour la rentabilité énergétique par personne. L'État s'est engagé à limiter les émissions de gaz à effet de serre : les objectifs annoncés sont une diminution de 11 % avant 2010 et de 87 % avant 2050. Le 30 août 2006, le gouvernement et le Parlement de Californie signent un accord pour diminuer la production de gaz à effet de serre, mettant l’État en conformité avec le protocole de Kyoto. La décision AB32 (Global Warming Solutions Act) a été prise de réduire d’un quart les émissions de gaz à effet de serre d’ici 2020. Des sanctions financières seront prises contre les industries qui ne respectent pas cet engagement. Un marché de permis d’émissions sera créé et contrôlé par l’Air Resources Board.

La Californie s'est aussi engagée à respecter des règles plus strictes sur la consommation et les pots d'échappement de véhicules neufs ; cette politique est imitée par deux autres États de l'Ouest : Washington et Oregon. Le 20 septembre 2006, Bill Lockyer (en) le ministre de la Justice de Californie, lance des poursuites judiciaires contre trois constructeurs automobiles américains et trois japonais, et leur demande des dommages et intérêts pour la pollution qu'ils engendrent. Selon lui, les véhicules automobiles représentent 30 % des émissions de dioxyde de carbone de l'État.

En 2005, le gouverneur républicain Arnold Schwarzenegger proposait que le budget de l'État de Californie finance à hauteur de 6,5 millions de dollars la construction de stations pour les véhicules roulant à l’hydrogène.

Le code d'éducation de la Californie (chapitre IV, sections 8700 à 8784) insiste pour que les élèves soient sensibilisés aux problèmes de l'environnement.

Grâce à son bon ensoleillement, la Californie développe l’énergie solaire : l’État abrite des collecteurs cylindro-paraboliques dont la puissance atteint 80 MW, la plus grande centrale à tour comme Solar one puis Solar 2 ne dépasse pas 10 MW.

Un projet de loi oblige les promoteurs immobiliers à installer un système d’énergie solaire sur 15 % des nouvelles maisons construites en Californie à partir de 2006. Le projet de loi prévoit que, d’ici 2010, 55 % des maisons seront équipées en panneaux solaires. Le gouverneur Arnold Schwarzenegger avait fait campagne pour inciter à installer des systèmes solaires dans la moitié des maisons de l’État à partir de 2005.

La centrale thermo-solaire Nevada Solar One est en construction depuis le 11 février 2006 à Boulder City. À terme, elle développera une puissance de 64 MW et sera la troisième du monde. Selon ses concepteurs, la centrale devrait permettre d'éliminer un volume de pollution équivalent à la suppression d'un million de voitures en circulation sur le territoire des États-Unis.

La Californie a adopté une loi qui contraint les grands groupes automobiles à vendre des véhicules respectant des normes strictes de rejets de CO2.

La Californie est l’État où l’énergie éolienne est la plus développée avec une capacité de production de plus de 2040 MW installés en 2004, loin devant le Texas (1293 MW). La principale région de production se trouve au nord de l'État, à l'est de San Francisco.

À 150 km au nord de San Francisco, 19 centrales géothermiques (350 puits) sont contrôlées par la société Calpine dans les comtés de Lake et de Sonoma. Elles produisent environ 850 mégawatts, c'est-à-dire presqu'autant qu'une petite centrale nucléaire.

Un point de débat est à quel degré les nouveaux pays industrialisés tel que l'Inde et la Chine devraient restreindre leurs émissions de CO2. Les émissions de CO2 de la Chine ont dépassé celles des États-Unis en 2007, alors qu'elle ne produit que 5,4 fois moins de richesses que l'UE ou les États-Unis, et elle n'aurait dû, en théorie, atteindre ce niveau qu'aux alentours de 2020. En 2007, la Chine est le premier producteur et consommateur de charbon, sa première source d'énergie, qui est extrêmement polluante. De plus, l'augmentation du niveau de vie accroît la demande de produits « énergivores » tels que les automobiles ou les climatisations.

L'humanité rejette actuellement 6 Gt (gigatonne = milliard de tonnes) d'équivalent carbone par an dans l'atmosphère, soit environ une tonne par habitant. On estime que les océans en absorbent 3 Gt et qu'il faudrait donc abaisser les émissions de gaz à effet de serre de moitié pour arrêter d'enrichir l'atmosphère, ce qui représente une émission moyenne de 500 kg d'équivalent carbone par habitant. Chaque français en émet environ deux tonnes, soit quatre fois plus qu'il ne faudrait. En dehors de mesures collectives, des personnalités ont esquissé les gestes quotidiens à mettre en œuvre, dès aujourd'hui, pour limiter le réchauffement climatique comme Jean-Marc Jancovici ou Al Gore.

En haut



Source : Wikipedia