samedi, mai 24, 2008

Nongovernment International Panel on Climat Change

Le Rapport du NIPCC vient de sortir vous le trouverez ici.
Ecrit par 25 scientifiques, voici un bon antibiotique a la fièvre verte.
Voici un apercu:

1. Introduction

While AR4 is an impressive document, it is far from being a reliable reference work on some of the most important aspects of climate change science and policy. It is marred by errors and misstatements, ignores scientific data that were available but were inconsistent with the authors’ pre-conceived conclusions, and has already been contradicted in important parts by research published since May 2006, the IPCC’s cut-off date.

Ce rapport se concentre sur deux problèmes majeurs de l'IPCC:

  • The very weak evidence that the causes of the current warming are anthropogenic (Section 2)
  • The far more robust evidence that the causes of the current warming are natural (Section 3).
Puis quelques points moins cruciaux sont abordes:

  • Computer models are unreliable guides to futureclimate conditions (Section 4)
  • Sea-level rise is not significantly affected by rise in GH gases (Section 5)
  • The data on ocean heat content have been misused to suggest anthropogenic warming. The role of GH gases in the reported rise in ocean temperature is largely unknown (Section 6)
  • Understanding of the atmospheric carbon dioxide budget is incomplete (Section 7)
  • Higher concentrations of CO2 are more likely to be beneficial to plant and animal life and to human health than lower concentrations (Section 8)
  • The economic effects of modest warming arelikely to be positive and beneficial to human health (Section 9)
  • Conclusion: Our imperfect understanding of the causes and consequences of climate change
    means the science is far from settled. This, in turn, means proposed efforts to mitigate climate
    change by reducing GH gas emissions are premature and misguided. Any attempt to influence global temperatures by reducing suchemissions would be both futile and expensive (Section 10).

Quelques myth Busted!:

  • For about two million years ice ages have been the dominant climate feature, interspersed with relatively brief warm periods of 10,000 years or so. Ice-core data clearly show that temperatures change centuries before concentrations of atmospheric carbon dioxide change. [Fischer et al. 1999; Petit, Jouzel et al. 1999] Thus, there is no empirical basis for asserting that changes in concentrations of atmospheric carbon dioxide are the principal cause of past temperature and climate change.
  • The proposition that changing temperatures cause changes in atmospheric carbon dioxide concentrations is consistent with experiments that show carbon dioxide is the atmospheric gas most readily absorbed by water (including rain) and that cold water can contain more gas than warm water. The conclusion that falling temperatures cause falling carbon dioxide concentrations is verified by experiment.
  • Carbon dioxide advocates advance no experimentally verified mechanisms explaining how carbon dioxide concentrations can fall in a few centuries without falling temperatures. Carbon dioxide is a minor greenhouse gas and is tertiary in greenhouse effect behind water vapor (WV) and high-level clouds. All other things being equal, doubling carbon dioxide in the atmosphere will increase temperatures by about 1 degree Celsius. Yet, as discussed below, the computer models used by the IPCC consistently exaggerate this warming by including a positive feedback from WV, without any empirical justification.
  • In his classic Climate, History, and the Modern World, H.H. Lamb [1982] traced the changes in climate since the last ice age ended about 10,000 years ago. He found extensive periods warmer than today and cooler than today. The last warm period ended less than 800 years ago. When comparing these climate changes with changes in civilization and human welfare, Lamb concluded that, generally, warm periods are beneficial to mankind and cold periods harmful. Yet the anthropogenic global warming (AGW) advocates have ignored Lamb’s conclusions and assert that warm periods are harmful – without historical reference or knowledge

2. How much of modern warming is anthropogenic?

  • The so-called ‘hockey-stick’ diagram of warming has been discredited.
  • The correlation between temperature and carbon dioxide levels is weak and inconclusive.
  • Observed and predicted ‘fingerprints’ don’t match.

Conclusion: The claim that man is the primary cause of the recent warming is not supported by science. The scientific evidence cited by the IPCC is largely contradicted by observations and analysis.

3. Most of modern warming is due to natural causes

4. Climate models are not reliable

Conclusion: The climate models used by the IPCC do not depict the chaotic, open-ended climate system. They cannot make reliable predictions and should not be used in formulating government policy.

5. The rate of sea-level rise is unlikely to increase
6. Do anthropogenic greenhouse gases heat the oceans?
7. How much do we know about carbon dioxide in the atmosphere?

Conclusion: While, evidently, there are still many unknowns about CO2 lifetimes, sources, and sinks, the overwhelming uncertainty is not in the science but in the emission scenarios that depend on many socio-economic assumptions.

8. The effects of human carbon dioxide emissions are benign
9. The economic effects of modest warming are likely to be positive
10. Conclusion

To sum up: This NIPCC report falsifies the principal IPCC conclusion that the reported warming (since 1979) is very likely caused by thehuman emission of greenhouse gases. In other words, increasing carbon dioxide is not responsible for current warming. Policies adopted and called for in the name of ‘fighting global warming’ are unnecessary. It is regrettable that the public debate over climate change, fueled by the errors and exaggerations contained in the reports of the IPCC, has strayed so far from scientific truth. It is an embarrassment to science that hype has replaced reason in the global debate over so important an issue.

vendredi, avril 25, 2008

dimanche, février 17, 2008

Quelques nouveaux liens

Que vous pourrez retrouver dans notre sélection, rubrique "Brigades anti-khmers verts"

Biocarburants : un désastre, conséquence de l'escroquerie verte

Une note de Vincent Bénard (que nous remercions vivement) parue sur Objectif Liberté.

Sans une cohorte de politiciens stupides, il ne serait sans doute jamais venu à l'idée d'hommes sensés l'idée de faire pousser du maïs ou du colza pour faire rouler des voitures: le pétrole est une ressource bien moins coûteuse pour cet usage, l'hydrogène devrait l'être également sous une cinquantaine d'années, et compte tenu des rendements agricoles escomptables à court, moyen et long terme, les surfaces arables disponibles sont insuffisantes pour permettre de propulser tout notre parc automobile sans gravement remettre en cause la disponibilité de surfaces agricoles pour ce qui a toujours été la première destination des terres cultivées: nourrir les hommes, directement ou via la nourriture du bétail.

J'ai déjà eu l'occasion de dire tout le mal que je pensais des politiques visant à introduire, par la fiscalité et les subventions, des signaux de prix totalement faussés poussant les exploitants agricoles à sacrifier des forêts de valeur ou des terres pour fabriquer des bio-fuels. Comme je l'écrivais à l'époque,

Soit le réchauffement climatique d'origine humaine est une erreur conceptuelle, et utiliser le sol pour produire des biocarburants au lieu de nourrir les hommes est une complète aberration, soit l'effet de serre anthropique est une réalité, et utiliser le sol pour produire des biocarburants au lieu de nourrir les hommes est une complète aberration.

J'étais encore au dessous de la réalité. Il apparaît aujourd'hui que si le CO2 rejeté par les humains est réellement un danger pour notre planète et son climat (j'en doute toujours, mais ce n'est pas la question), alors la politique visant à pomper des surfaces agricoles pour produire des bio-carburants est véritablement un facteur d'accroissement du danger. Selon cet article du New York Times,

The benefits of biofuels have come under increasing attack in recent months, as scientists took a closer look at the global environmental cost of their production. These latest studies, published in the prestigious journal Science, are likely to add to the controversy.

These studies for the first time take a detailed, comprehensive look at the emissions effects of the huge amount of natural land that is being converted to cropland globally to support biofuels development.

The destruction of natural ecosystems — whether rain forest in the tropics or grasslands in South America — not only releases greenhouse gases into the atmosphere when they are burned and plowed, but also deprives the planet of natural sponges to absorb carbon emissions. Cropland also absorbs far less carbon than the rain forests or even scrubland that it replaces.

Together the two studies offer sweeping conclusions: It does not matter if it is rain forest or scrubland that is cleared, the greenhouse gas contribution is significant. More important, they discovered that, taken globally, the production of almost all biofuels resulted, directly or indirectly, intentionally or not, in new lands being cleared, either for food or fuel.

“When you take this into account, most of the biofuel that people are using or planning to use would probably increase greenhouse gasses substantially,” said Timothy Searchinger, lead author of one of the studies and a researcher in environment and economics at Princeton University. “Previously there’s been an accounting error: land use change has been left out of prior analysis.”

These plant-based fuels were originally billed as better than fossil fuels because the carbon released when they were burned was balanced by the carbon absorbed when the plants grew. But even that equation proved overly simplistic because the process of turning plants into fuels causes its own emissions — for refining and transport, for example.

The clearance of grassland releases 93 times the amount of greenhouse gas that would be saved by the fuel made annually on that land, said Joseph Fargione, lead author of the second paper, and a scientist at the Nature Conservancy. “So for the next 93 years you’re making climate change worse, just at the time when we need to be bringing down carbon emissions.”

Pour ceux que l'éducation nationale a durablement fâché avec la langue de Benny Hill, un rapide résumé:

"des études montrent que non seulement la destruction de milieux naturels forestiers ou de brousses en vue de produire des biofuels relâche beaucoup de CO2 dans l'atmosphère, mais que les terres ainsi occupées absorbent nettement moins de CO2 que les milieux antérieurs, qui étaient de véritables éponges à CO2. En outre, comme il faut bien produire de quoi manger, des forêts supplémentaires, autres puits de carbone, tendent à être également détruites. Même la destruction d'aires engazonnées relâche 93 fois plus de carbone que le CO2 économisé annuellement par le remplacement des fuels fossiles par des biocarburants. La comptabilité qui a abouti à faire croire que le bilan CO2 des biofuels était positif était bien trop simpliste, négligeant gravement la conséquence des changements d'affectation du sol et les cycles de production de CO2 engendrés par les processus de fabrication des biocarburants par eux mêmes. "

Une pétition est lancée par de nombreux scientifiques pour tenter de convaincre George W. Bush et Nancy Pelosi, leader de la majorité démocrate au congrès, de renoncer aux politiques favorisant les biocarburants.

Bref, non seulement la destruction massive de forêts pour produire des bio-carburants est un désastre écologique pour la biodiversité par elle même (de nombreuses études, notamment allemandes, ont montré que les grandes aires dédiées aux monocultures intensives étaient bien moins favorables à la biodiversité que les forêts naturelles - On s'en serait un peu douté...), non seulement la production de biocarburants déséquilibre gravement les marchés mondiaux des céréales, ce qui affecte en priorité les populations des pays les moins riches, mais en plus, elle va à l'encontre de l'objectif recherché de réduction des émissions de CO2, que ce soit pertinent ou pas.

Non seulement il serait temps d'abandonner toute politique d'encouragement des biocarburants, mais à la lumière d'échecs aussi flagrants de décisions politiques fondées sur une science aussi douteuse, il serait plus qu'approprié de décréter une pause dans toutes les politiques de "lutte contre le réchauffement climatique" décidées à la va-vite par des gouvernements soucieux de coller aux idées à la mode sans aucune préoccupation de vérifier la qualité de la science derrière ces décisions. Il faut prendre le temps d'en mesurer avec rigueur toutes les conséquences, car lenteur des phénomènes dont il est question nous permet de consacrer sans crainte la dizaine d'années qui vient à améliorer en priorité notre connaissance du climat et des conséquences de ses variations, naturelles ou provoquées, et rend inutile, voire nuisible, toute précipitation.

Malheureusement, tant la production de biocarburants que l'érection d'éoliennes géantes, autre stupidité sur laquelle je prendrai prochainement le temps de m'étendre, sont l'objet de subventions massives, lesquelles ont durablement orienté des pans entiers de l'industrie vers ces secteurs soutenus artificiellement. Il y a d'ailleurs actuellement une véritable bulle spéculative qui est en train de se former autour des actions de l'industrie éolienne, qui ne demande qu'à éclater. Non seulement ces subventions sont en train de faire beaucoup de mal à la planète qu'elle prétendent contribuer à "sauver", mais les lobbys qui en bénéficient feront tout pour en empêcher l'abandon, ce qui devrait rendre très difficile un retour à une situation "normale", où l'état ne se mêle pas de diriger l'argent des contribuables vers sa lubie du moment.

Loin des bonnes intentions qu'elle affiche, l'écologie sectaire doit être considérée comme un crime contre la planète et ses habitants.

vendredi, janvier 18, 2008

Quand les poules auront des dents

Mise en garde, tout ce qui est écrit ci-dessous est rigoureusement scientifique, la critique n'est pas autorisée et sera bientôt punie par la loi contre le négationnisme. (par décret exceptionnel de la commission du même nom du 11/06/07)

Une étude issue d'une coopération entre scientifiques Franco-allemands du centre de recherche indépendant de Saint Marcel Paulelle (CRISMP) affirme qu'une augmentation de 2°C de la température globale favorise le risque de mutation génétique chez des ovidés. L'une des mutations observées par simulation numérique est l'apparition de dents chez les Gallus Molarus, une race numérique de poules de basse-cour."

Un des chercheurs du CRISMP précise :
Si on se base sur les conclusions du GIEC qui prévoit une augmentation de 2°C d'ici 2050, les poules auront des dents en 2066.

Le sérieux de cette étude ne peut être remis en question puisqu'elle répond à tous les critères journalistiques d'acceptation d'une étude scientifique :
  • elle s'appuie sur les résultats du GIEC,
  • elle va dans le sens d'un catastrophisme écologique,
  • elle est basée sur des simulations numériques
  • et elle est réalisée par une collaboration internationale.

L'association des superstitieux de France craint déjà une augmentation des phénomènes étranges due au réchauffement climatique, nombres de prédictions sont en effet associées à l'apparition des poules à dents.

Billet de Tom31

mardi, janvier 15, 2008

Les previsions du GIEC sonnent faux

screenshot_013.jpgDr. Roger Pielke Jr. (le fils de R Pielke Sr) est un professeur en science environnementale a l'université du Colorado. Il vient juste de poster un billet sur son blog Prometheus, sur la comparaison entre les prévisions du GIEC (1990, 1995, 2001, 2007) et les températures observées. Les trois lignes marrons représentent les prévisions du GIEC, qui utilisent trois hypothèses différentes sur la sensibilité climatique. La ligne rouge représente les températures observées par le Remote Sensing Systems (RSS satellite data). La ligne verte provient des mesures faites par la NASA et le Goddard Institute of Space Studies (GISS, ie les données du Dr. Hansen). La ligne bleue claire vient de l'office United Kingdom Meteorological (UKMET) et la ligne noire représente les températures calculées par l'University of Alabama in Huntsville (Données des Drs. Christy et Spencer).

Nous y voyons clairement l'effet du El Nino, très puissant, de 1998 sur les observations des températures. Nous voyons également que les données du GISS du Dr. Hansen sont environ 0.25 dégrées Celsius plus chaudes que les températures mesurées par le RSS. Les données UKMET et UAH sont similaires en 2007 et semblent être un bon compromis.

Finalement seul les données du Dr. Hansen restent dans la fourchette des prévisions du GIEC (Par ailleurs il admet que ses données sont plus chaudes en raison de son calcul du réchauffement en arctique). Tous les autres résultats sont, eux, plus FROIDS que les prévisions les plus prudentes du GIEC.

J'ai rappelé a de nombreuses reprises que les prévisions des modèles informatiques surestiment le réchauffement et voici une première preuve. Les erreurs des modèles proviennent des trop nombreuses rétroactions positives, et plus particulièrement de la vapeur d'eau. Si cette surestimation continue pour encore quelques années, même les plus ardent défenseurs de l'alarmisme devront mettre en sourdine leur rhétorique.

Toutes mes félicitations au Dr. Pielke Jr. pour cet excellent travail. Mais qui veut parier sur un petit mot de ces nouvelles au 20 heure?

Traduction d'un billet trouve sur l'incontournable icecap, de Craig James

Note: L'auteur ne parle pas d'une autre chose importante qui ressort du billet du Dr Pielke.
En effet les projections du Giec, par exemple celle de 2007, commence en fait en 2000!!!! C'est un peu comme prédire la meteo d'aujourd'hui a 18 heure.

De l'influence des volcans

Image d'Eugenio Hackbart / MetSul Meteorologia

Il n'y a aucun doute que la faible d'activité volcanique lors de ces dix dernières années, a joué un rôle majeur dans le réchauffement récent. Joseph D’Aleo d'ICECAP a expliqué dans un article récent comment les volcans ont contribué aux variations décennales des températures du 19ieme siècle.Ainsi, nous devrions porter une attention particulière a l'activité volcanique. Lors des premiers jours de 2008 le volcan Llaima au sud du Chili est entré en éruption, envoyant des tonnes d'aérosols dans l'atmosphère et a submergé ses alentours de cendres . (Remarque: les cendres ainsi produites ont atteints des altitudes de 41000 pieds soit plus de 13 kilomètres). Un nuage de cendre s'est déplacé jusque dans la province de Nequen en Argentine. Ce Volcan se situe dans la région des Araucania, au sud du Chili. Le volcan est par ailleurs toujours actif. Le dimanche 05 janvier, l'énorme volcan, Popocatépetl, a 60 kilomètres au sud de Mexico, a produit un nuage de cendre de 7 kilomètres (le plus important depuis plusieurs années). Cependant les autorités ne s'attendent pas a une éruption majeure, mais le niveau d'alerte est élevé. Ainsi comme les mesures par satellites RSS MSU et UAH MSU indiquent une tendance a la baisse des températures sans éruptions volcaniques majeures, imaginons l'impact que pourrait avoir une éruption comme celle du pinatubo aujourd'hui?

* voir

Icecap Note: Les éruptions type Pinatubo ou El Chichon ont injecté dans la stratosphère 80,000-100,000ft des aérosols ayant pour effet un refroidissement global et ceci pendant trois années.

Traduction d'un billet d'

Dans le prochain billet, je continuerai a me pencher sur les prévisions des modèles du Giec. Et le travail est énorme car la très sainte église du rechauffisme n'aime pas que l'on compare ces modeles avec la réalité.

dimanche, janvier 13, 2008

Climat et meteo: quelles differences?

Ceci est la traduction d'un billet de Lubos Motls The Reference Frame: Weather, climate, and noise

Gavin Schmidt et Stefan Rahmstorf discutent sur realclimatdotorg [la bible de la très sainte église du rechauffisme] des différences entre météo et climat. On y trouve de bonnes choses mais aussi beaucoup de naïveté.

Ils présentent les températures observées comme la somme d'une tendance de fond - tendance sensée représenter le climat probablement due pour une large partie aux gaz a effet de serre - plus un bruit aléatoire, i.e la météo. La météo représente le court terme mais ses effets sont sensés disparaitre en moyennant sur une période suffisamment longue. Selon eux cette période ou l'on commence a entrevoir les tendances du climat est de 15 ans.

Cette approche est intéressante pour avoir une idée simpliste a propos de la météo, du climat, et des différences entre les deux, mais leur modèle naïf est clairement insuffisant pour comprendre la climatologie du 20 siècle. Il y a beaucoup de raisons, certaines d'entre elles sont liées - regardons cela plus en détail.

1. Les changements du climatiques ne sont pas le résultats d'un seul effet, comme ils [gavin et compagnie] semblent le suggérer, mais plutôt d'une centaine d'effets qui agissent a différentes échelles de temps i.e de quelques secondes a quelques milliards d'années.

2. Ces effets a long terme ne conduisent pas a une variation linéaire de la température ou de tous autres paramètres climatiques. Bien au contraire, beaucoup d'effets a long terme oscillent ou sont périodiques.

3. Il n'y a pas de démarcation franche entre le court terme et le long terme. Choisir une telle limite ne peut être qu'une pure convention [i.e arbitraire]. Vous devez toujours avoir a l'œil qu'il existe des facteurs qui ont une influence rapide et d'autres une influence lente.

4. Pour tous les animaux, hommes ou nations, c'est la météo locale qui importe. Les températures locales sont beaucoup plus aléatoire que les variables globales moyennes. Ceci qui signifie bien que les variations locales sont plus importantes - pour nous qui les subissons - que les variations moyennes a long terme - que personnes ne subit. Ces variations long terme sont par conséquent plus intéressantes pour les spécialistes, ou les bureaucrates arrivistes, qu'elles ne le sont pour le décideur raisonnable ou l'homme ordinaire.

5. Les moyennes sur les échelles de temps et d'espaces peuvent augmenter le ratio signal/bruit, mais ces moyennes ne sont jamais parfaites. Les changements observés sur une période longue, disons un siècle, peuvent toujours faire ressortir des tendances qui ne semblent pas être le résultat d'un aléa météo.

6. Moyenner sur des échelles d'espaces plus petites que la surface de la terre et des échelles de temps plus petite qu'un siècle peut être suffisant pour supprimer les aléa météo. Ceci signifie que des désaccords, sur des continents lors d'une période de trente ans, entre la réalité observable et les modèles peuvent remettre en cause les conclusions de ces modèles

7. Quand ils parlent des aléa météo, ils imaginent clairement quelque chose de non corrélé, i.e les anomalies d'une journée ne sont pas corrélées avec les anomalies de la veille. (De même que d'une année sur l'autre). En réalité, les aléa météo sont toujours corrélés en fonction de l'échelle de temps choisi. Il donc est important de connaitre la nature de ces aléa.

8. Ils pensent que les tendances et les aléa météo peuvent être tout simplement ajoutés. Cependant, ce genre d'hypothèse de linéarité n'est pas très pertinent dans la nature, en particulier a cause du caractère spécial des aléa météo, lesquels peuvent changer justement, en fonction des variations climatiques. Du coup il devient très difficile de séparer météo et climat.

Laissez moi maintenant vous expliquez plus précisément les différents points soulevés.

Les échelles de temps.

La façon dont gavin smith voit la réalité est particulièrement simpliste: pour lui la température est la somme d'une tendance sous jacente, i.e le climat, une variation grossièrement linéaire due au CO2, et des aléa météo. D'ailleurs il ne s'intéresse pas a la météo et pense qu'il n'a même pas besoin de la comprendre. Je reviendrai sur cette assertion plus tard. Du coup lorsqu'il nous fait le coup des moyennes, il prétend s'affranchir de la météo et ainsi conserver la tendance de fond, le climat.

Mais ce n'est pas le résultat que l'on observe dans la nature. Même en supprimant tous les effets court terme, inférieurs a 15 ans, vous ne vous retrouverez pas avec une variation linéaire. En effet, aussi bien les observations qu'une bonne analyse théorique montrent qu'il y a plein d'autres choses.

La plus part des effets sont oscillatoires, et non monotones.

L'activité solaire oscille selon des cycles de 11 années lesquels sont modulés par d'autres cycles de 200 années. Les courants marins amènent périodiquement des eaux chaudes et froides en divers endroits, selon des cycles variant de plusieurs années a plusieurs millénaires

Ajoutez a cela, les cycles de Milankovitch, la dérive des continents, les rayons cosmiques qui influent sur la météo [formations des nuages notamment] , ou les soubresauts de l'activité solaires. Tous ces facteurs sont importants. La température est donc le résultat d'effets linéaires, cycliques, chaotiques, imprévisibles ou calculables.

Même si vous faites l'hypothèse que la concentration en CO2 est le paramètre le plus important a observer, ces variations passées ont été largement influencé par le dégazage des océans (ce dernier est passe de 180 ppm a 280 ppm puis re a 180 ppm etc...) et sa concentration future sera elle aussi largement influencée par les changements technologiques ou le succès des fanatiques qui pensent pouvoir contrôler la vie des hommes. Les fonctions linéaires ne sont donc vraiment pas pertinentes.

Il n'y a pas de frontières claires entre climat et météo

Les Gentlemans de RealClimatedotorg essaient implicitement de convaincre leurs lecteurs que 15 années est un intervalle de temps suffisant pour faire une distinction climat-météo. Mais il est évident qu'une telle limite n'est rien d'autre qu'une pure convention. De plus cette convention n'est même pas, celle couramment utilisée par les scientifiques du climat, lesquels utilisent plutôt 30 années.

De telles frontières seraient utiles s'il existait une échelle de temps capable de faire disparaitre certaines complications de la météo. Par exemple il n'est pas vrai que les température ne sont pas corrélées d'une année sur l'autre.
Je vais vous expliquez pourquoi. La météo n'est pas simplement quelque chose qui change d'une semaine a l'autre. La météo est aussi assujettie a des phénomènes tels que EL nino ou EL nina, et les météorologistes s'y intéressent. La durée moyenne du phénomène El nino est d'environ 2 années. Du coup il est évident que les influences d'El Nino se répercuteront l'année suivante. Si vous n'êtes pas d'accord avec cette conclusion car vous pensez qu'El Nino varie selon une autre fréquence, alors nous pouvons regarder l'oscillation décennal du pacifique qui influence également la météo, mais dont la fréquence varie de 10 a 50 années.

La meteo est plus importante que le climat.

Les intervenants de RealClimat affirment avec raison que les variations des températures locales sont plus significatives que les variations de la température moyenne globale. Regardez un graphe des températures moyenne. Il semble évident qu'il ne s'agit pas d'une variation linéaire. Mais si vous vous intéressez aux habitants de Prague, vous conviendrez qu'ils sont sous l'influence de leur température locale et depuis 1775 voici de quoi cela a l'air:

La fin du 18ieme siècle est plutôt chaude, le 19 siècle est plutôt froid mais de nouveau le 20ieme siècle est chaud. Le graphe montre les variations des températures annuelles mais franchement les personnes réelles vivent dans le monde réel et sont influencés par les températures journalières. Et ces températures varient de 5C entre le jour et la nuit et de 10 a 20 C entre l'hiver et l'été. De même la température moyenne globale est plus chaude en été qu'en hiver d'environ 4 °C De plus en raison de l'asymétrie de la répartition des terres entre l'hémisphère nord et l'hémisphère sud, les saisons sont plus marquées au nord qu'au sud. L'eau réduit la vitesse de variation des température, [c'est l'effet thermostat, ou pourquoi en schématisant il fait toujours 15C en Bretagne.] )

Du coup en regardant les graphes, il semble évident que l'augmentation de 0.3C sur 50 ans moyennée a 10 années n'a pas la moindre influence sur la vie des habitants de Prague en comparaison des variations locales. De plus comme cette tendance moyenne a l'augmentation est globale, elle n'a aucune espèce d'importance face aux tendances locales comme a Prague ou partout ailleurs dans le monde et ceci pour chaque petit village.Il n'existe personne vivant dans ces moyennes tout comme il n'existe pas de personnes globales.

Les tendances moyennes ne sont jamais parfaites

N'importe quel imbécile qui trouve une corrélation entre x et y, pense avoir trouvé une preuve de l'existence de Dieu ou d'un phénomène naturel. Quelques scientifiques alarmistes aiment utiliser ce genre d'argument.Mais dans la réalité le coefficient de corrélation n'est jamais nul. Même si les données sont aléatoires et non corrélées, ce coefficient ne peut jamais être égale a zéro pour une série finie de points. Mais derrière le bruit, il peut aussi y avoir des contributions basses fréquences difficiles a prévoir tel que l'oscillation pacifique dont j'ai touché deux mot précédemment. Vous êtes en effet toujours assuré de voir des tendances positives ou négatives sur n'importe quelle série de données de température. Obtenir exactement zéro est très improbable avec une régression linéaire. Ainsi obtenir un résultat non nul - ou une série de résultat - ne peut constituer une preuve raisonnable pour s'alarmer.

Les continents et le moyen terme

Les champions de l'hystérie climatique aiment affirmer que le moindre désaccord entre leur modèle et la réalité est due aux aléa météo. Par exemple, la masse de glace sur l'antarctique a augmente récemment. Certains alarmistes vont ainsi vous dire qu'il ne s'agit juste que d'une fluctuation, pendant que d'autres vous diront qu'ils l'avaient prédit dans leur meilleur modèle.
Ces réponses sont parfaitement contradictoires mais vous ne les verrez pas débattre pour essayer de les réconcilier. Pourquoi? Parce que ils se moquent bien de la réalité scientifique. Ils s'occupent de la promotion de leur politique favorite de régulation.
Dans la réalité, l'antarctique est une région très large et 30 ans est une période assez longue pour que les modèles qui prétendent parfois déterminer la politique a suivre pour l'année 2068, puissent prédire des tendances intéressantes. Si les modeles ne le peuvent pas alors vous aurez beaucoup de mal a convaincre une personne rationnelle que lorsque l'on passe sur la terre entière toutes les erreurs s'évaporent. Alors effectivement la chute dans la marge d'erreur relative est de l'ordre de racine de 2 mais en aucun cas nous passons d'une situation "tous ces effets sont dus a la météo et il n'y a donc pas de raison de se mettre d'accord" a la situation "tout est parfaitement précis , fiable et tout le monde doit etre d'accord".
Plus les régions sont petites et plus l'influence des aléa météo se fait sentir. Par exemple la fonte spectaculaire de glace de l'artique est un phénomène météo [tout comme sa reglaciation tout aussi extraordinaire]. Mais de toute façon nous n'avons pas besoin d'en parler, observons plutôt que durant ces 30 dernières années l'hémisphère sud c'est réchauffé (de 0.3C) trois fois moins vite que l'hémisphère nord. Ce qui signifie qu'en prenant des régions de l'ordre de grandeur de la terre entière - en fait la moitie - et des échelles de temps de 30 ans, le bruit est aussi important que le signal lui même, et ceci en prenant comme hypothèse qu'il y a bien un signal a la hausse des température. Ce bruit reste donc présent sur une grande échelle de temps et d'espace. Quand au bruit a Prague - comme partout ailleurs, il est encore plus important. La tendance au réchauffement est donc parfaitement négligeable. Bref, ce qui importe pour un être humain du monde réel c'est la météo locale

De quel type de bruit parle-ton?

Schmidt et Rahmstorf, tout comme beaucoup d'autres, pensent la météo comme a un bruit blanc (pas de corrélation). Les anomalies de température du dimanche ont la même probabilité d'être positives ou négatives sans rapport aucun avec les anomalies des températures du samedi. Ou alors que anomalies des température de l'année 2008 peuvent être négatives ou positives indifféremment des anomalies de 2007. Mais comme nous l'avons explique, ceci est faux.
En fait les différences de température sur une petite échelle de temps ont de grandes chances d'être petites car la température est une fonction continue du temps.

Le mauvais découplage entre climat et meteo

Pour finir, les idéologues de aiment présenter les tendances du climat et la météo comme deux choses non corrélées: les observations sont simplement la somme de ces deux termes. Cette idée de linearite est la première chose que nous avons regarde, mais il existe de bonnes raisons de penser que cette approximation est mauvaise. Par exemple le réchauffement observe pendant les nuits et l'hiver semble plus rapide que pendant le jour et l'été. Soit dit en passant si vous faites fleurir des orchidées vous vous moquez des températures nocturnes, du coup vous ne serez pas trop affecte par le réchauffement ;-). Enfin voila des exemples de non linearite. De plus ces observations conduisent a douter d'autant plus du réchauffement du au CO2, car celui-ci agit jour et nuit, 365 jours sur 365 jours.

Pour conclure si l'hypothèse de linearite est un point de départ intéressant, un scientifique ne doit pas cependant oublier qu'une hypothèse se vérifie, car elle peut être fausse. Il faut donc contrôler tous les détails et ne pas se satisfaire du prêt a penser des Gavin Schmidt.

Affaire a suivre dans un prochain billet sur les volcans et le climat.

samedi, janvier 12, 2008

Confrontations des affirmations du GIEC avec la realite.

Tiré du blog de Roger Pielke Sr
Résumé: L'étude des paramètres climatiques les plus fondamentaux montre que leurs récentes variations ne sont pas compatibles avec les affirmations du GIEC 2007. Nous noterons l'absence de réchauffement de la troposphère inférieure et supérieure, l'absence d'augmentation de la température des couches supérieures des océans, la faiblesse, au mieux, de l'humidification de la troposphère, et la preuve d'une rétroaction negative. Ces incompatibilités avec les paramètres climatiques indiquent que le rapport du GIEC ne peut être interprété que comme une collection d'articles concernant une hypothèse [foireuse], plutôt que comme une synthèse scientifique de notre compréhension des changements climatiques.

John Tierney, du New York Times, a posé cette question très importante sur son blog
Voir Are There Are Any Good Weather Omens?
« Mon oppinion est la suivante: les publicistes ont exploité les évènements météo récents afin d'éveiller le public à ce qui pourrait être un véritable danger à long terme: le réchauffement de la planète. Ouragans, tempêtes de neige, inondations, sècheresses, années extrêmement chaudes, tous ont été liés [frauduleusement] au réchauffement. Parfois, ils sont décrits comme des «preuves» ou comme "exemples" de ce qu'il pourrait se passer. Les plus prudents disent que ces événements sont «compatibles» avec la théorie.
Mais y a t-il des tendances ou des événements météorologiques qui eux seraient incompatibles?

Roger Pielke Jr, de l'Université du Colorado, pose cette question sur son blog Prométhée: (voir Prometheus)

"Quels comportements du système climatique, incompatibles avec le consensus actuel, pourraient hypothétiquement être observés au cours des prochaines années? Je porte mon attention sur les évènements extrêmes tels que les inondations et les ouragans, mais nous pouvons aussi examiner les autres phénomènes climatiques que l'on estime importants. Idéalement, une réponse devrait être axée sur plus que la simple élévation du niveau des mers ou de la température moyenne, mais s'il s'agit des seuls paramètres intéressants à regarder, il serait très intéressant de le savoir.

Alors quelles réponses apportées?
Climate Science a présenté - a des maintes reprises - les incohérences du concept de réchauffement de la planète (et plus généralement des changements climatiques), tels qu'ils sont présentés dans le rapport du GIEC 2007, et plusieurs d'entre elles sont résumées ci-dessous. J'invite les lecteurs a réfuter ces conclusions.

Les incohérences du GIEC sur le réchauffement de la planète

Revendication du GIEC:
"Suite a plusieurs décennies de développement, les modèles ont toujours donné une image énergique sans ambiguïté d'un réchauffement climatique significatif en réponse à l'augmentation en concentration des gaz à effet de serre." (page 600)
"… Les modèles sont unanimes dans leur prévision d'un réchauffement climatique substantiel a cause de l'augmentation des gaz à effet de serre, de plus ce réchauffement est d'une ampleur compatible avec des estimations indépendantes provenant d'autres sources, telles que les changements climatiques observés par le passé et les reconstructions climatiques." (page 601)

Le réchauffement de la planète n'a pas eu lieu ces dernières années Par exemple, le réchauffement de la troposphère inférieure ne s'est pas produit depuis 2003 environ (voir
Voir aussi See also, Out On A Limb - The 2007 Bali Climate Declaration By Scientists
Au cours des prochaines semaines, une preuve supplémentaire de l'absence de réchauffement des couches supérieures de l'océan sera présentée sur la climat science.

Revendication du GIEC:
"Les nouvelles observations et les résultats de la modélisation, appuient fermement l'idee d'une retrocation positve du a la vapeur d'eau, celle-ci est comparable à celle trouvée dans les modèles de circulation générale (environ 1 Wm-2 ° C-1, ce qui correspond à environ 50% d'amplification à l'échelle mondiale du Réchauffement moyen). page 591
«La vapeur d'eau est le plus important feedback qui augmente la sensibilité climatique." (page 593)

L'augmentation de la vapeur d'eau contenu de l'atmosphère a été reduite à zéro au cours des dernières années, voir Evidence For A Lack Of Water Vapor Feedback On The Regional Scale
Voir aussi [ from Wang, J.-W., K. Wang, R.A. Pielke, J.C. Lin, and T. Matsui, 2007: Does an atmospheric warming trend lead to a moistening trend over North America? Geophys. Res. Letts., submitted].

Revendication du GIEC:
La compréhension des effets des activites humaines s'est améliorée depuis le TAR, ceci conduit à degré de confiance très élevé sur les effets de ces activités lesquelles ont provoques un forçage radiatif de +1,6 [+ 0,6 à +2,4] Wm-2 (voir la Figure SPM.2).
(page 3)
"Le réchauffement est sans équivoque, d'après les observations nous notons l'augmentation des températures, la fonte généralisée de la neige et de glace, et la hausse moyenne du niveau des mers (voir la figure SPM.3)." (page 5)

En utilisant l'estimation du Giec sur le forçage radiatif et sur le déséquilibre radiatif de l'océan, nous obtenons des rétroactions - feedback - négatives. Cela ressort clairement de la relation entre le forçage radiatif (RF), le déséquilibre radiatif (RI), et les réactions (RFB), où

RI = RF + RFB.

Si RI est inférieur à RF, la rétroaction radiative, RFB, est négative. Jim Hansen, (voir ici) estime RI dans les années 1990 a 0,85 watts par mètre carré. Il s'agit d'une estimation haute, mais elle illustre parfaitement le fait que le forçage radiatif RF, doit être inférieure à 0,85 watts par mètre carré pour que les rétroactions radiatives soient positives! Conclusion: le GIEC estime un forçage radiatif est trop important (1.6 Wm-2) et / ou leurs estimations des rétroactions dans leurs modèles sont fausses. Le GIEC se trompe certainement sur les deux tableaux.

Pour un examen plus approfondi voir Climate Metric Reality Check #1 - The Sum Of Climate Forcings and Feedbacks Is Less Than The 2007 IPCC Best Estimate Of Human Climate Forcing Of Global Warming
Why We Need Estimates Of The Current Global Average Radiative Forcing

Ces échecs dans les prévisions devraient entraîner le rejet du rapport du GIEC.

mardi, janvier 08, 2008

Les Droits des Animaux (Murray Rothbard)

Une nouvelle mode se répand depuis quelque temps qui consiste à étendre le concept de Droits aux animaux et à affirmer que ceux-ci disposeraient de tous les Droits des hommes, et qu’il serait donc illégitime — c’est-à-dire qu’aucun homme n’aurait le Droit — de les tuer ou de les manger.

Cette thèse soulève évidemment un grand nombre de difficultés, dont celle d’établir un critère pour choisir entre les animaux à inclure dans la sphère des Droits et ceux qui en sont exclus. (Par exemple, peu de théoriciens iraient aussi loin qu’Albert Schweitzer, qui niait à quiconque le Droit d’écraser une blatte. Et s’il fallait que la théorie s’applique non seulement aux êtres conscients mais à tous les êtres vivants, bactéries et plantes comprises, la race humaine s’éteindrait rapidement.)

Cependant, le vice essentiel de la doctrine des “Droits des animaux” est plus fondamental et d’une portée plus grande. En effet, l’affirmation des Droits de l’homme ne relève pas de l’émotivité ; si les individus ont des Droits, ce n’est pas pas parce que nous “sentons” qu’il doit en être ainsi, mais parce que l’examen rationnel de la nature de l’homme et de l’univers le démontre. Autrement dit, l’homme a des Droits parce que ce sont des Droits naturels. Ils sont ancrés dans la nature de l’homme : dans sa capacité individuelle de poser des choix conscients, dans la nécessité pour lui d’employer sa raison et son énergie pour adopter des objectifs et des valeurs, pour appréhender le monde, pour poursuivre ses fins de survie et de prospérité, dans sa capacité et son besoin de communiquer, d’interagir avec d’autres êtres humains et de participer à la division du travail. Bref, l’homme est un animal rationnel et social. Aucun autre animal, aucun autre être ne possède le même faculté de raisonner, de poser des choix conscients, de transformer son milieu aux fins de sa prospérité, de participer consciemment à la société et à la division du travail.

Par conséquent, si les Droits naturels, comme nous l’avons dit et redit, sont absolus, il est un sens, mais un seul, dans lequel on doit les considérer comme relatifs : ils sont relatifs à l’espèce humaine. Une éthique des Droits pour l’humanité signifie précisément qu’elle s’applique à tous les hommes, sans distinction de race, de croyances, de couleur ou de sexe, mais à l’espèce humaine exclusivement. La Bible a raison de dire que l’homme a reçu — en Droit naturel, on dirait qu’il détient — la capacité de dominer toutes les espèces de la terre. Le Droit naturel est nécessairement lié à l’espèce.

Pour nous persuader que le concept d’éthique de l’espèce fait partie de la nature de l’univers, il suffit d’observer ce que font les autres espèces dans la nature. Ce n’est pas seulement une plaisanterie que de relever le fait que les animaux, eux, ne respectent pas les prétendus Droits de leurs semblables ; que, dans l’état de l’univers, la condition de toutes les espèces naturelles veut qu’elles survivent en mangeant d’autres espèces. Entre les diverses espèces, la survie est question de dents et de griffes. Il serait sans nul doute absurde d’affirmer que le loup est “mauvais” parce qu’il passe sa vie à dévorer et “agresser” les agneaux, les poules, etc. Le loup n’est pas un être méchant qui “commet des agressions” contre les autres espèces ; il ne fait que suivre la loi naturelle de sa propre survie. Il en est de même pour l’homme. Dire que l’homme commet des “agressions” contre les vaches est aussi insensé que de dire des loups qu’ils “commettent des agressions” contre les moutons. Et si un homme tue le loup qui l’a attaqué, il serait absurde de dire que le loup était un “méchant agresseur” ou qu’il a été “puni” pour son crime. C’est pourtant bien ce qu’impliquerait d’étendre aux animaux l’éthique des Droits naturels. Les concepts de Droits, de crime ou d’agression ne s’appliquent qu’aux actions des hommes envers d’autres hommes.

Que dire du problème du martien ? S’il arrivait qu’un jour nous rencontrions des êtres d’une autre planète, devrait-on leur reconnaître, à eux, les Droits des êtres humains ? La réponse est que cela dépendrait de leur nature. Si nos martiens hypothétiques étaient semblables à l’homme — conscients, rationnels, capables de communiquer avec nous et de participer à la division du travail —, on peut penser qu’ils seraient eux aussi détenteurs des Droits actuellement réservés aux humains domiciliés sur notre planète. Imaginons au contraire que nos martiens possèdent les attributs et la nature des vampires de la légende, et qu’ils ne puissent survivre qu’en se nourrissant de sang humain. Dans ce cas, aussi intelligents qu’ils soient, ils seraient nos ennemis mortels et nous ne pourrions les considérer comme titulaires des mêmes Droits que l’humanité. Ennemis mortels, encore une fois, non pas parce qu’ils seraient de méchants agresseurs, mais simplement parce que les conditions et exigences de leur nature les mettraient inéluctablement en état de conflit avec les nôtres.

Ainsi est-elle à peu près juste, cette boutade selon laquelle “nous reconnaîtrons les Droits des animaux quand ils les réclameront”. Le fait que, de toute évidence, les animaux sont incapables de pétitionner pour leurs “Droits” relève de leur nature et constitue une partie de l’explication du fait qu’ils ne sont pas équivalents à l’être humain et ne possèdent pas ses Droits. Et à l’objection que les bébés ne peuvent pétitionner davantage, la réponse est que les bébés sont de futurs adultes humains, ce que les animaux ne sont certes pas.

Murray Rothbard in L'éthique de la liberté

mercredi, décembre 19, 2007

Sortie du Roadster électrique de Tesla

Via Happyfruits dont je me permets de recopier la note

Alors que l’on fête le dixième anniversaire de la Prius (sauf Jeremy Clarkson), l’usine Tesla annonce la sortie (enfin !) de son roadster électrique, la première voiture de sport électrique vraiment fonctionnelle (la Venturi Fetish prenant la poussière dans la vitrine d’un concessionnaire monégasque planqué dans une ruelle sombre de Fontvieille). Bon, pour l’instant, ça sera avec une transmission jetable (quelques milliers de kilomètres), les fournisseurs de Tesla n’ayant toujours pas réussi à concevoir une transmission capable d’endure le couple énorme fourni par le moteur électrique (250 chevaux, plus de 200 km/h, 300 km d’autonomie… et le 0 à 100 en moins de 4 secondes).


Et en France? oh, Vélib se porte à merveille dit-on.

vendredi, décembre 07, 2007

De l'Eau Salée et du Réchauffement climatique

"Depuis la fin des années 1960, la plus grande partie de l’Océan Atlantique Nord est devenue moins salée, partiellement en raison des augmentations de ruissellement d’eau douce dû au réchauffement du globe, expliquent les scientifiques" .

-Michael Schirber, LiveScience, le 29 juin 2005

"Les eaux de surface de l’Atlantique Nord deviennent plus salées, suggère une nouvelle étude de mesures s’étendant sur plus de 50 ans. Ils ont constaté que pendant cette periode , la couche d’eau des premiers 400 mètres de profondeur est progressivement devenue plus saumâtre. L’eau de mer devient probablement plus salée en raison du réchauffement du globe, explique Boyer."

-Catherine Brahic, New Scientist, le 23 août 2007

La Grande Fraude du Réchauffement Climatique

A voir ici

samedi, octobre 01, 2005

Dans les jours à venir....

Un dossier complet sur l' énergie éolienne est en cours de préparation. Il paraitra dans les jours à venir sous sa première version, et sera augmenté par la suite.
A bientôt et bonne lecture.

vendredi, août 26, 2005


Nouveau venu ? Je vous conseille vivement de commencer par la
présentation du blog.

mardi, août 23, 2005


Toute l' actualité du libéral écolo :

Dans les prochaines semaines, une bibliothèque relative à l' écologie libérale sera mise en ligne. Elle sera régulièrement augmentée pour répondre au mieux à vos attentes. N' hésitez pas non plus à m' écrire, je m' efforcerai de vous répondre au mieux.

Une newsletter mensuelle sera également crée pour la rentrée. Ecologie libérale, actualité du blog, événements libéraux en France, actualité, inscrivez-vous en me contactant. Je vous ajouterai à la mailing list.

lundi, août 22, 2005


Un grand merci à Sylvain Gay pour cet article ! Visitez son blog : Urgesat

Sous-titre : Le véritable état de la planète.
Le Cherche Midi (2004).
Edition originale danoise : « Verdens Sande Tilstand » (1998).
Edition anglaise révisée : « The Skeptical Environmentalist » (2001).
Traduit de l’anglais par Anne Terre.
Préface de Claude Allègre.

Après une annonce prématurée en janvier, le très attendu livre de Bjørn Lomborg est enfin sorti en français en mai dernier.
La parution de cette édition (assez laide, il faut bien le reconnaître) est un événement car il s’agit d’une somme de plus de 700 pages dans laquelle l’auteur passe en revue quasiment tous les problèmes contemporains liés à l’environnement.

Bjørn Lomborg est danois. Il est professeur de statistiques à l’université d’Aarhus au Danemark. Il a un jour de 1997 décidé de vérifier avec ses étudiants les affirmations de Julian Simon de l’université de Maryland qui disait que la plupart de nos connaissances concernant l’environnement sont inexactes ou biaisées. A sa grande surprise, Lomborg s’est rendu compte que Simon avait raison et que ce que nous croyons savoir de l’environnement est au mieux approximatif quand ce n’est pas carrément faux. Ce livre est donc le résultat de cette recherche.

La méthode de Lomborg est simple : ne pas se contenter des affirmations courantes disant que tout va de plus en plus mal mais aller voir de près les statistiques et les études disponibles sur une sujet donné et les confronter entre elles. Méthode simple mais minutieuse et dévoreuse de temps : ce livre est le résultat de plusieurs années de travail et comporte plusieurs milliers de références.
Comme l’édition originale date de 2001, Lomborg a utilisé les données disponibles en mai 2001. La traduction française arrive avec un décalage de trois ans mais il y a peu de raisons de penser que les choses ont beaucoup changé dans ce laps de temps.
La force de ce travail est de s’appuyer sur les statistiques officielles d’organismes émanant de l’ONU comme la FAO, l’OMS, le PNUD, etc. ou d’autres organisations internationales comme le FMI, la Banque mondiale, l’OCDE ou l’UE. Ces renseignements sont complétés par des statistiques émanant des ministères de différents pays. Lomborg explique page 61 que ces chiffres sont ceux que tout le monde utilise y compris les organisations écologistes comme Greenpeace ou le WWF car « il n’en existe pas d’autres ». Sur chaque problème et à chaque fois qu’il le peut, l’auteur précise l’évolution et la situation au niveau mondiale et ne se focalise pas sur les données locales qui ne sont que rarement représentatives.

On peut partager l’ensemble de ce livre en deux parts inégales :
- d’une part presque tout le livre apparemment assez consensuel puisque peu attaqué et peu critiqué par les « environnementalistes » ;
- d’autre part la centaine de pages (sans les notes) consacrée au réchauffement de la planète sur laquelle se sont focalisées les polémiques et les commentaires.

Les thèmes du premier groupe bien que délaissés par les médias sont pourtant bien intéressants. Lomborg soutient et démontre de façon convaincante successivement que la surpopulation en tant que telle n’est pas un problème (la plupart des pays ayant une forte densité de population sont en Europe, page 94), que l’humanité n’a jamais été aussi bien nourrie (même si 18% de la population mondiale ne mange pas encore à sa faim, chiffre qui n’a jamais été aussi bas, cf chapitre 5) et qu’il n’y a pas d’inquiétude à avoir pour nourrir la population dans l’avenir (chapitre 9).

Plusieurs chapitres sont également consacrés aux supposées pénuries qui nous menaceraient dans un futur plus ou moins proche.
Le cas du pétrole est exemplaire (chapitre 11). En 1920, il y avait pour 10 ans de consommation de réserve estimée. En 1960 et alors que la consommation était bien plus importante, les réserves s’élevaient à près de 40 ans. En l’an 2000 donc, tout le pétrole aurait dû être épuisé. Or les chiffres des réserves estimées en l’an 2000 sont toujours de 40 ans alors que la consommation a encore beaucoup augmentée... Le problème des catastrophistes est qu’ils ne prennent pas en compte l’ingéniosité humaine qui se traduit notamment par le progrès scientifique et technologique. Des gisements inaccessibles il y a dix ou vingt ans sont aujourd’hui exploitables et rentables. Aujourd’hui encore on ne peut extraire qu’environ un tiers du pétrole présent dans un gisement, il y a encore des progrès à faire...

La situation est similaire en ce qui concerne d’autres sources d’énergie comme le charbon (230 ans de réserve) ou le gaz (60 ans de réserve). Lomborg examine également le cas des énergies dites renouvelables que sont l’énergie solaire et l’énergie éolienne et pense qu’elles deviendront réellement compétitives vers le milieu du siècle. Et puis il y a aussi l’huile de schiste (dont on pourrait extraire l’équivalent de 250 fois la production actuelle de pétrole) et le nucléaire (il reste de l’uranium pour 14 000 ans). Bref, pas de crise de l’énergie en vue...

L’énumération pourrait ensuite devenir fastidieuse car Lomborg examine ensuite (chapitre 12) les ressources non énergétiques comme le ciment, l’aluminium, le fer, le cuivre ou l’azote (liste non limitative). Le seul élément dont les réserves ont réellement baissé est le tantale qui est utilisé dans l’industrie aéronautique. Toujours pas de quoi mettre une civilisation à genoux.
Même les ressources en eau apparaissent largement nécessaires au développement pour peu que les prix reflètent le coût réel. Beaucoup de pays subventionnent l’eau fournit aux agriculteurs par exemple ce qui entraînent gaspillage et mauvaise gestion.

Plusieurs chapitres du livre sont consacrés à la pollution et tous les chiffres montrent qu’elle est en baisse dans les pays développés. Le modèle est que la pollution augmente dans les premiers temps du développement économique. A un certain stade, l’environnement devient une préoccupation importante et le progrès technologique aussi bien que le désir de la population provoque un contrôle progressif et une baisse de la pollution.

Il y a quand même un chapitre qui ne parle pas du réchauffement climatique et qui a déclenché quelques polémiques, c’est le chapitre 10 qui est consacré à la forêt. Croire que la forêt diminue en taille est un article de foi très fort chez les environnementalistes. Je me souviens des cris d’horreur qu’ils avaient poussés il y a une quinzaine d’années quand un rapport officiel avait conclu qu’en France la forêt s’était étendue depuis le XIXè siècle... Rien de nouveau donc quand Lomborg explique que la situation est loin d’être catastrophique y compris en ce qui concerne les forêts tropicales. Le constat a déjà été fait et il est simple : là où les forêts sont essentiellement privées, elles sont correctement gérées et ont tendance à s’étendre ; là où elles appartiennent à l’Etat, elles sont mises en coupe réglée, gérées n’importe comment et ont tendance à diminuer.
Un problème lié à celui-ci est la menace qui pèserait sur la biodiversité (chapitre 23). Les scientifiques ne savent pas, même approximativement combien il y a d’espèces vivants sur Terre. Beaucoup d’espèces tropicales annoncées comme disparues sont par la suite retrouvées bien vivantes. Les estimations du nombre d’espèces disparaissants chaque année à cause de l’activité humaine sont donc à prendre avec de grandes pincettes. Un chiffre donné couramment est celui de 40 000 par an. Le célèbre biologiste américain E.O. Wilson avance le chiffre de 100 000 espèces par an. Le problème avec Wilson, pour qui j’ai par ailleurs beaucoup d’admiration, est que son seul argument est « croyez-moi sur parole » ! Pas très scientifique comme attitude... En partant des observations réelles, certains chercheurs arrivent à un taux d’extinctions de 0,7% sur cinquante ans, essentiellement constitué par des disparitions d’insectes et autres invertébrés, ce qui change quand même pas mal de choses.

Comme je le disais plus haut, la plupart des critiques et des attaques contre ce livre se sont focalisées sur le chapitre 24 qui est consacré au réchauffement de la planète. Bjørn Lomborg ne nie pas ce réchauffement et pense que l’homme y est pour quelque chose. La discussion est assez technique car il examine les scénarios élaborés par le GIEC ( « Groupe International d’Experts sur le Climat », en anglais « IPCC », un « machin » mis en place sous l’égide de l’ONU) qui tentent de simuler par ordinateur l’évolution future du climat en faisant varier certains paramètres. La modélisation est très difficile et certains phénomènes ne peuvent pas être rendu de façon totalement satisfaisante. Il est difficile en outre de prévoir ce que sera le futur et pourtant c’est sur cette base bien fragile que sont ou seront prises beaucoup de décisions politiques à commencer par les trop fameux accords de Kyoto...
La position fondamentale de Lomborg est que les estimations du réchauffement à venir sont toujours exagérées. Seules les estimations les plus hautes sont citées dans les médias et par les politiques alors qu’elles sont les plus improbables. Par ailleurs, les mesures proposées par les environnementalistes coûteront très cher pour un résultat insignifiant à l’exemple de Kyoto qui dans leur esprit n’est qu’une première étape. Lomborg pense que le développement économique rendra l’adaptation à la hausse des températures plus facile et que les ressources disponibles aujourd’hui seraient mieux employées dans l’aide aux pays en développement ou dans la lutte contre le sida. Je ne suis pas d’accord sur ces sujets car Lomborg reste dans certains cas interventionniste et nous savons bien que l’aide aux pays en développement notamment est un échec flagrant.

Bjørn Lomborg reconnaît pourtant la valeur de l’économie de marché :
« Nous nous sommes enrichis avant tout parce que les fondements de notre société reposent sur une économie de marché et non à cause de notre inquiétude » écrit-il page 616.
De la même façon il voit juste lorqu’il explique que les « biens collectifs » sont forcément gaspillés (page 190 à propos de la pêche et page 199 à propos de la forêt tropicale).
Il était sans doute déjà difficile de récuser toutes les croyances obscurantistes que propagent les écologistes, si en plus Lomborg s’était déclaré franchement libéral...

Pour en revenir au sujet, il est clair que les environnementalistes utilisent le réchauffement climatique et toutes les peurs concernant l’environnement pour tenter d’imposer un projet politique fait de repli sur de petites communautés semi-autonomes et sur l’arrêt ou du moins le ralentissement du progrès scientifique et technique. Pour vendre ce projet dont peu de gens voudraient spontanément, rien de tel que des campagnes répétées de désinformation visant à faire croire que tout va de plus en plus mal et que l’apocalypse est pour bientôt. Rien d’étonnant si les politiques et autres hommes de l’Etat suivent le mouvement, voire le précèdent. On leur remet une idéologie interventionniste et pro-étatiste clef en main, il aurait été bien étonnant qu’ils ne s’en servent pas.
Deux indices intéressants : les scénarios du GIEC ne tiennent pas compte des réductions d’émission des gaz à effet de serre ayant déjà eu lieu ou engagées à la suite de traités (page 449) et ces mêmes scénarios ne tiennent pas compte non plus de l’aspect économique du réchauffement climatique, ils doivent se borner à étudier la meilleure manière d’éviter les rejets de gaz à effet de serre (page 502).

Un mot pour terminer sur le chapitre 22 consacré à la crainte des produits chimiques. Dans ce remarquable chapitre, Bjørn Lomborg démontre avec brio combien ces produits sont nécessaires, utiles et inoffensifs.

Sylvain Gay, à qui j' adresse de nouveau tous mes remerciements.

jeudi, août 18, 2005

Sécheresse, coupures d' eau et Politique Agricole Commune

Restrictions d' eau, sécheresse, cet été – comme bien d' autres – aura pointé les faiblesses françaises – lourdes de conséquences – dans la gestion publique de l' eau. Derrière ce qui est trop souvent présenté par les « responsables » politiques comme une fatalité, n' y a-t-il pas en vérité de graves incohérences et de lourds archaïsmes dans notre gestion publique de l' eau ?
Les hommes de l' Etat sont prompts à nous expliquer béatement que, fautes de précipitations suffisantes, et suite à une consommation qui rechigne à décroitre, des restrictions d' eau s' imposent. Des mesures de ce type auront été cette années adoptées dans environ 65% des départements français, avec néanmoins une ampleur variable.
Alors que ni la densité démographique, ni la situation géographique de la France ne permettent d' expliquer à priori de telles pénuries d' eau – devenues chroniques depuis quelques années – nous voici revivre une situation bien connue en France par le passé, le contrôle des prix, la mise en place de grands plans, et, in fine, le rationnement. Car l' autre nom de la restriction n' est-il point le rationnement ? Il fut jadis relatif à la nourriture, il l' est aujourd' hui pour l' eau.
Derrière ce qui nous est allégrement présenté comme inéluctable, on doit cependant y voir l' empreinte étatique, et plus précisément celle de la Politique Agricole Commune (PAC). Sous de fallacieux prétextes de défense de l' agriculture européenne et d' indépendance alimentaire, l' Europe use, par l' entremise de la PAC, des leviers économiques les plus dirigistes de contrôle des prix, de subvention et de planification. L' URSS avait, en son temps, asséché la mer d' Aral en plantant, dans les zones désertiques environnantes, du coton, extrêmement consommateur d' eau.C' est aujourd' hui ce qui se produit en France, dans de moindres proportions certes : la substitution de maïs, grand consommateur d' eau, à d' autres cultures moins demandeuses est en train d' assécher nappes phréatiques et réserves de tout type.
Majoritairement cantonnés à la Dordogne il y a encore quelques décennies, les champs de maïs s' étendent aujourd' hui sur l' ensemble du territoire, faisant exploser la demande d' eau à tel point que 68% de la consommation nationale est désormais dévolue à l' agriculture. La PAC se rend donc coupable – par le truchement d' absurdes directives protectionnistes et dirigistes – des pénuries d' eau touchant aujourd' hui le pays. Quand on sait que la production d' un kilogramme de grains de maïs nécessite 454 litres d' eau en moyenne (source : CNRS) et que cette seule céréale absorbe aujourd' hui 50% de la consommation agricole en eau (contre 6% pour toutes les autres céréales ou 8% pour l' ensemble des légumes frais. Source : SCEES – Ministère de l' Agriculture), on mesure la dangerosité de certains textes européens.
Mais il est également un second volet de la PAC, peut-être moins visible mais tout aussi pernicieux : le contrôle des prix par la substitution de prix politiques aux prix économiques. Un prix (sous-entendu économique) est l' indicateur de la rareté d' un bien ou d' un service, issu de la confrontation entre offre et demande. Toute augmentation de la rareté se traduit donc in fine par une hausse des prix, et inversement.Un prix politique est fixé par l' Etat sans prise en compte véritable de l' offre, de la demande et des variations de ces deux dernières. Il est donc supérieur ou inférieur au prix de marché. Dans le premier cas, il grève le budget des ménages et diminue leur pouvoir d' achat. Dans le second, il pousse au gaspillage. La politique agricole commune frappe un grand coup en combinant les deux cas. Les dégats eux ne se combinent pas, ils s' ajoutent, voire se multiplient.
Ce sont en effet à des prix trop élevés que les européens payent leurs produits agricoles (les ménages les plus pauvres, dont une large partie du budget est consacré à l' alimentation, sont les premiers à en pâtir). Le FEOGA (Fonds Européen d' Orientation et de Garantie Agricole) assure en effet aux agriculteurs des prix stables, supérieurs à ceux qui auraient émergé d' une libre confrontation de l' offre et de la demande. On gaspille donc pour faire survivre, grâce à un dispositif de respiration artificielle, des exploitations qui engloutissent de l' argent bien plus qu' elles n' en rapportent. Ce sont par ailleurs des prix trop faibles qui sont payés par les exploitants agricoles pour l' eau. Pas étonnant dès lors que la consommation soit très importante. Toute augmentation de la rareté n' est pas répercutée sur le prix de vente. Un prix politique – qui n' est bien souvent que le reflet d' une volonté politique, attisée par la démagogie – ne peut conduire pour l' eau qu' à l' asséchement progressif des nappes phréatiques.
Plus que la faiblesse des précipitations, ce sont bien la « prime au maïs », le maintien d' exploitations destructrices de richesses et des prix trop faibles pour l' eau qui sont les causes véritables de la sécheresse et des coupures d' eau. Au vu de ces faits, la fatalité s' estompe pour laisser transparaître une bien sinistre réalité, mise en oeuvre par l' Europe, cautionnée par la France.

vendredi, août 05, 2005

Scandale des marées noires : L' Etat et les collectivistes coupables

A chaque principe libéral bafoué, son lot de catastrophes et de désillusions. Il en est ainsi dans les domaines politiques, économiques, et sociaux. L’ environnement ne fait pas exception comme le montre le cas exemplaire des marées noires. Qu’ en est-il ? 1999, naufrage de l’ Erika ; 2002, naufrage du Prestige. Et c’ est sans parler des dégazages sauvages réguliers ! Il importe désormais de s’ interroger sur les coupables véritables de tels drames. Les antimondialistes s’ empressent de crier haro sur le « capitalisme international et débridé » ou sur la « mondialisation néo-libérale ». Il n’ en est rien. Et ce sont les mêmes qui rentrerons le soir chez eux en voiture, retrouver le confort du chauffage au fuel et qui, les vacances venues, s’ envoleront vers Cuba pour aller bronzer au soleil.
C’ est en réalité une atteinte de l’ Etat à la conception libérale de la liberté et non le libéralisme lui-même qui est en cause. A la conception libérale de la liberté « individuelle et responsable », les étatistes ont substitué le principe de responsabilité « collective » concernant les actions individuelles. Dans notre acception française de la responsabilité, ce ne sont donc pas les armateurs ou les compagnies pétrolières qui sont reconnus coupables, mais bien la collectivité. Il n’ est en effet pas rare de voir les hommes politiques se gargariser suite à de tels désastres : « il est de notre responsabilité à tous de lutter contre de tels sinistres ». Dès lors, il est de l’ intérêt des armateurs de faire des économies en n’ entretenant que très mal leurs navires ou en dégazant en mer. Ce sont en effet eux qui bénéficient des réductions de coûts et la collectivité qui finance les réparations pour les dégâts. Il ne faut donc pas s’ étonner de la régularité avec laquelle nos côtes françaises sont souillées ! En aucun cas le capitalisme peut être accusé d’ être à l’ origine des marées noires, puisque que c’ est le principe éminemment étatique et collectiviste de « responsabilité collective » qui est en cause.
Une solution simple, mais extraordinairement efficiente, consisterait à réintroduire dans notre Droit le principe libéral de responsabilité individuelle : chaque Homme se doit – dans ses propres actes – de respecter les Droits fondamentaux des autres individus et d’ assumer la réparation des dommages qui pourraient leur être causés. Un tel système obligerait donc les compagnies pétrolières à assumer leur responsabilités (individuelles) face à la pollution. C’ est ce que l’ on appelle plus couramment le principe « pollueur-payeur ». On peut, à cet égard, se réjouir de voir – pou une fois – les écologistes se réclamer d’ un principe libéral. Auraient-ils compris les faiblesses de l’ Etat à assurer la protection de l’ environnement ? Permettez-moi d’ en douter. (J’ ajouterai un bémol supplémentaire en précisant que les dédommagements ne doivent pas être payés à l’ Etat seul, mais à l’ ensemble des victimes et que leur montant ne doit pas être fixé arbitrairement par la loi, mais être calculé en fonction du sinistre.)
Et tout cela est loin de n’ être qu’ une spéculation d’ idéaliste libéral : le cas des Etats-Unis nous montre l’ efficacité du libéralisme dès lors que l’ on prend la peine de le mettre en place. En 1989 coulait l’ Exxon Valdez, ravageant les côtes de l’ Alaska. Le président de l’ époque – Georges Bush père – ainsi que les représentants du peuple ont eu le courage, malgré l’ opposition des lobbies pétroliers, de faire voter une loi, l’ Oil Pollution Act, rendant pénalement coupable tout armateur dont les bateaux dégazeraient ou couleraient. C’ est à dire que les indemnisations et les coûts de dépollution sont désormais à la charge des compagnies pétrolières. Autant dire que la dissuasion est forte (la compagnie Exxon Mobil avait du débourser 2 milliard de dollar en 1989 pour la dépollution et 5 milliard supplémentaires pour faire cesser les poursuites) : La flotte croisant en eaux américaines à été totalement modernisée ou renouvelée, les navires ne prenaient pas la mer quand la tempête menaçait, mais les compagnies d’ assurances ont aussi modulé les primes en fonction des risques encourus ( les primes sont mêmes devenues exorbitantes pour les « navires poubelles » ). Les résultats d’ une telle politique sont spectaculaires : alors qu' ils ont une longueur des côtes et des importations de pétrole bien plus importantes que la France, les marées noires y sont beaucoup moins fréquentes, même si l' Alaska a encore été souillée par le naufrage du Selendang le 16 décembre 2004.
La France continue à ériger en dogme le principe d’ irresponsabilité collective ( seule véritable manifestation de la « responsabilité collective »). Ce ne sont donc pas les hommes, mais les systèmes qui sont en cause. En effet, comment expliquer que les mêmes navires coulent beaucoup plus en France qu' aux Etats-Unis ? Et quand bien même on hurle au scandale, une éternelle litanie fait office de réponse : « Ne vous en faites pas ! L’ Etat s’ en occupe ! ».

lundi, juillet 18, 2005

Du principe de précaution dans la Constitution

Le candidat Chirac l' avait promi en 2002, c' est désormais chose faite : la Charte de l' environnement et son principe de précaution sont – au même titre que la Déclaration des droits de l' Homme et du Citoyen de 1789 – adossés à la Constitution. Omnubilés sur ce terrain de la précaution par le débat sur les OGM, il semble que nous ayons mal perçu l' ampleur du bouleversement. Si la sagesse nous préconise une grande méfiance dès lors qu' altermondialistes et écologistes se réjouissent d' un changement, celle-ci ne s' est exprimée – et c' est regrettable – que par la voix de la communauté scientifique, bien peu écoutée... Une large partie d' entre elle parle de « catastrophe scientifique » alors que les académies des sciences et de médecine mettent en garde contre les « effets pervers susceptibles d’avoir des conséquences désastreuses sur des progrès futurs ». Il est en effet grand nombre de risques inhérents à l' application stricte de ce principe.

Ceux-cis sont tout d' abord d' ordre scientifique. Toute l' histoire de la science est aussi celle de prises de risque modérées, jaugées à l' aune de leur utilité. Découvrir, avancer dans la science et la connaissance, c' est aussi faire un pas vers l' inconnu, vers ce que l' on ne peut – par essence - pas connaître à priori. « dé-couvrir », comme la contruction du mot en atteste, c' est lever une partie du voile qui masque la connaissance non encore acquise, c' est faire scintiller une nouvelle étoile dans la ciel noir de la science. Le Noir, ce que l' on ne peut pas voir. La découverte et le progrès présupposent donc l' avancée vers l' inconnu, le risque. Le rejeter systématiquement, c' est faire une croix sur toute avancée scientifique ou technologique. Voici donc le premier risque. Et il est d' autant plus important que le progrès est l' un des vecteurs les plus prometteurs dans la résolution de nos problèmes environnementaux (Comme je le montrais récemment dans un article sur le protocole de Kyoto).

Le second risque est juridique. Le principe de précaution tel qu' il a été consacré est, de fait, une norme de rang supérieur à l' ensemble des autres normes, lois, traités ou réglements. C' est donc donner un pouvoir exorbitant aux hommes de l' Etat et aux magistrats que de graver ce principe dans le marbre constitutionnel. Loins d' être proportionnées aux risques réels – par essence immesurables lorsque l' on chemine vers l' inconnu – les mesures prises par les élus et les juges le seront en fonction des menaces politiques et médiatiques. Un nouvel obscurantisme... Bouleversant notre conception traditionelle du Droit selon laquelle la preuve est à la charge de l' accusateur, nous voici en train de constitutionnaliser une nouvelle chimère : non plus la liberté « responsable », mais la liberté « présumé coupable », non plus la responsabilité individuelle, mais la responsabilité collective, non plus la preuve, mais le soupçon...

Il en découle inévitablement un danger pour la démocratie. Si les interdictions ne sont prononcées qu' au prorata des enjeux politiques et médiatiques – et, in fine, démagogiques – (comme cela est nécessairement le cas), le pouvoir et la vérité sont désormais entre les mains des faiseurs d' opinion, « des marchands de peur, des prophètes de la catastrophe et des fabricants de bouc émissaires. », comme le souligne fort justement Alain Madelin.
A ceux qui craindraient la « loi de la jungle », ou un « déchainement anti-environnemental » en cas de refus du principe de précaution, j' oppose le principe de responsabilité civile, l' une des bases de tout société libérale et de tout Etat de droit. Il est clairement inscrit dans notre législation. Il s' agit de l' article 1382 du Code civil : «Tout fait quelconque de l’homme qui cause à autrui un dommage oblige celui par la faute duquel il est arrivé à le réparer.» Ainsi se trouvent maitrisés les risques. Ainsi se trouve aussi encouragé le progrès.

Il me faut, en guise de conclusion, remercier l' humanité de n' avoir pas édicté ce principe plus tôt. Je m' adresse en cela plus particulièrement aux hommes préhistoriques qui ont eu le courage d' apprendre à maitriser le feu, malgré les immenses risques que cela comportait, pour en faire un formidable vecteur de progrès et d' innovation.Il nous est permis d' imaginer les « altermondialistes » de l' époque s' insurger contre un tel progrès. Le regrette-t-on aujourd' hui ?

lundi, juin 20, 2005

Méthodologie étatiste pour éradiquer une espèce animale

1) Un méga-projet, une méga-bureaucratie.

S' il est plusieurs moyens pour éradiquer les espèces animales, celui-ci se révèle particulièrement efficace pour porter un premier coup à l' ennemi. Il consiste en la mise en place de méga-projets, de méga-bureaucraties, comme seul l' Etat est capable d' en imaginer. C'est le meuilleur moyen pour créer des déséquilibres majeurs et irréversibles. Il peut consister aussi bien en le détournement de rivières (comme ce fut le cas pour l' asséchement de la mer d' Aral), qu' en l' instauration d' une Politique Agricole Commune (PAC), récompensant la pollution par l' entremise de subventions sans cesse accrues. Mais les idées ne manquent pas chez les hommes de l' Etat quand il s' agit de nuire gravement à l' environnement, et l' on ne saurait en faire une liste exhaustive. Une politique de la ville créant d' immenses cités grises peut aussi se révéler particulièrement efficace.

2) Un régime de propriété publique.

Mais la meuilleure solution, infaillible celle-là, et grâce à laquelle l' élimination des espèces est garantie à court ou moyen terme, c' est le recours à un régime de propriété publique. Cela consiste à dire que chacun peut utiliser comme il l' entend la ressource (le cas exemplaire est celui du poisson) et que la collectivité en supporte les coûts et la responsabilité (en réalité l' irresponsabilité). On a donc ici un moyen extraordinairement efficace d' erradication des espèces par l' Etat puisqu'il est de l' intérêt de chacun d' abuser des ressources. Et les hommes de l' Etat peuvent même, par un habile travail de désinformation, rejeter la responsabilité sur certains individus ou entreprises, quand bien même ceux-ci ne font que s' adapter au cadre juridique qui leur est proposé. Et cette méthode marche pour de très nombreuses espèces, des poissons aux tortues, des éléphants aux tigres, mais elle est également applicable aux végétaux, et c' est précisément ce que le gouvernement socialiste de Lula est en train de faire au Brésil pour détruire la forêt amazonienne.

3) Se donner bonne conscience.

Même s' il n' en est rien, l' Etat est censé agir pour l' intérêt général, pour le « bien de tous ». Après avoir usé méthodiquement de tous leurs pouvoirs pour faire disparaître la faune, les hommes de l' Etat se doivent de retrouver une bonne conscience puisque leur seul horizon – l' élection – approche à grands pas. Quoi de mieux pour cela que de beaux mots et le rejet de la faute sur un innocent, mais un innocent faible (après tout, c'est plus simple). En ce qui concerne les belles paroles, tout est très simple, il suffit par exemple de décréter quelques animaux « en voie de disparition ». Cela ne change rien puisque la demande persiste (l' ivoire pour les éléphants, l' écaille pour les tortues,...), mais l' offre continue de décliner puisque le braconnage tente de répondre à la demande. Plus personne n' a intérêt à protéger les animaux puisque les débouchés ont disparu (viande, bibelot d' ivoire,...). Le seul véritable avantage de cette mesure est personnel : des points marqués par le ministre dans l' opinion. Quant à l' ennemi faible qu' il incombe de trouver, rien de plus simple. Le « libéralisme » ou la « mondialisation » conviennent à merveille. Ce sont déjà deux prétextes fort fréquemment utilisés pour expliquer tous les maux. Bien que la cause du problème soit l' absence de libéralisme (des projets étatiques et un régime de propriété publique), le tapage médiatique et l' action de quelques lobbies fait le reste. Ca y est, le tour est joué, le libéralisme est le responsable en dernier ressort, il faut lutter contre et, au passage, renforcer le pouvoir de l' Etat, ce qui nous entraine dans un cercle vicieux. Toujours plus d' Etat, toujours plus de désastres !

dimanche, juin 19, 2005

Epuisement des stocks de poissons : Libéralisons !

Certains raisonnements écologistes peuvent paraître hautement paradoxaux. Prenons l' exemple de l' épuisement des stocks de poisson en mer (dans les étangs privés, il n' y a aucun problème). Celui-ci est fort souvent imputé indifféremment à la "mondialisation ultralibérale", au "capitalisme débridé" ou au "contexte général de surproduction". Mais alors, si ces accusations étaient justifiées, comment expliquer que les vaches ne se soient pas déjà éteintes, puisque l' humanité en consomme quotidiennement. Comment expliquer aussi que le blé n' ait pas encore disparu alors qu'il contribue à fabriquer la farine de centaines de millions d' humains ?
Les sophismes écologistes et altermondialistes ne doivent donc évidemment pas être pris au sérieux, si l' on remarque qu'ils ne prennent en compte que ce que l' on voit. Mais on ne peut omettre ce qu'on ne voit pas (comme l' expliquait avec une grande maestria Frédéric Bastiat au XIX°s pour l' économie). En effet : on tue un animal, c'est ce qu'on voit ; on aura auparavant tout fait pour préserver ses petits ou sa ponte, c'est ce que l' on ne voit pas.
Ainsi, la réponse à notre problème ne réside pas dans des réglementations ou des restrictions d' accès à la ressource (en l' occurence le poisson), mais dans son régime de propriété. Les vaches ou le blé sont des propriétés privées, tandis que les poissons en mer sont des propriétés publiques jusqu' à leur capture. Ces derniers font donc logiquement l' objet d' une pêche intensive : en effet, tout exploitant ne supporte que les coûts privés (essence du bateau, entretien du filet, main d' oeuvre,...) et non les coûts sociaux que constituent la raréfaction de la ressource. Il est donc de l' intérêt de chacun de surexploiter la mer, quitte à jeter les poissons par la suite. Nous sommes aux antipodes du capitalisme ; nous baignons encore une fois dans un domaine où l' Etat fait preuve d' irresponsabilité sous couvert de gestion à long terme.
Une solution authentiquement libérale consisterait à introduire des droits de propriété clairement définis sur l' ensemble des ressources halieutiques (c'est à dire de la pêche). Les exploitants et les pêcheurs seraient ainsi responsabilisés et toute surpêche se traduirait par une perte pour la pêcherie qui n' aurait pas intérêt à les multiplier. La méthode la plus simple pour établir des droits de propriété est certainement la mise en place de quotas individuels transférables (QIT), c' est à dire l' instauration de droits à pêcher un certain nombre de poissons. Le nombre de QIT émis sera déterminé par l' organisme le plus capable (une commission d' experts problablement) et entériné par l' Etat. Ces quotas doivent aussi être transférables pour permettre à chacun l' accès au marché. On aura ainsi la création d' un contexte concurrentiel ou chacun sera incité à baisser le coût de la pêche pour son quota (ce qui se traduit notamment par une utilisation moins intensive des chalutiers).
La politique européenne de la pêche mise en place en 1983 est un cuisant échec. En revanche, quelques exemple montrent la viabilité et l' efficacité des solutions libérales. C'est le cas de l' Islande où les stocks de poisson se reconstituent progressivement depuis l' instauration des quotas. De très nombreuses espèces - le hareng, la morue et l' espadon par exemple - sont menacées à court terme si l' on rechigne à appliquer les solutions libérales.