Par Ralph Park.
Une analyse de Watts Up With That ?
Un nombre impressionnant de scientifiques du climat, de personnalités des médias et de célébrités est convaincu que le réchauffement climatique est une menace très réelle. La théorie a pour origine des modèles informatiques très sophistiqués qui démontrent des températures en augmentation provoquée par des concentrations en hausse du CO2. Cette théorie est confirmée par des données d’observations, ayant comme source des instruments, et qui sont présentées comme des données « d’anomalies » pour des températures de surface ajustées. L’émergence soudaine d’un motif de réchauffement inhabituel est alarmant et coïncide avec la hausse rapide des concentrations de gaz à effet de serre, particulièrement du CO2, provenant d’activités humaines brûlant des combustibles fossiles.
Le graphique 1 reproduit l’effet de réchauffement climatique sur les températures quotidiennes maximales Tmax, du réseau historique de climatologie des États-Unis, US HCN. Les données Tmax ajustées peuvent être comparées directement avec des données brutes, non ajustées, de mesures faites sur le terrain. Alors qu’un net effet de réchauffement est clairement évident après 1975, une telle tendance n’est aucunement présente dans les données brutes du terrain. En fait, la variation de motif des Tmax brutes n’est en rien remarquable, montrant des variations mineures irrégulières de part et d’autre de l’axe du zéro des changements de températures.
Comme le clarifie le graphique 1, les ajustements sont le facteur dominant dans la tendance de réchauffement planétaire. Les ajustements peuvent facilement être isolés en calculant la différence entre les ensembles de données ajustées et brutes.
{Adj(Stn,Yr)} = {Tmax(Stn,Yr)_adj} – {Tmax(Stn,Yr)_raw} 1
Stn se réfère à l’identifiant de la station météorologique
Yr se réfère à l’année
Le graphique 2 illustre le biais d’ajustement moyen incorporé dans les données. Le motif de réchauffement est clairement visible dans le motif d’ajustements.
Les ajustements constituent un biais de refroidissement appliqué aux températures du passé. Les ajustements sont ensuite lentement enlevés, à partir des années 1970. L’intention évidente des ajustements est de créer l’illusion d’un signal de réchauffement planétaire important dans les temps récents. Le réchauffement récent coïncide avec l’alarme publique sur les niveaux de CO2 en augmentation. Le graphique 2 montre l’effet net du processus d’ajustement, qui sculpte les données de mesures pour qu’elles se conforment avec l’alarme du réchauffement planétaire. Le profil statistique pour les années 30 et les années 90 (voir Graphique 3) démontre que le biais net est le résultat d’un algorithme sophistiqué, pour déguiser un biais systématique en phénomène naturel. L’effet net est un sculptage non aléatoire des températures pour montrer une forte tendance de réchauffement mondial.
Le dilemme de la « pause ».
Ceux d’entre nous qui constituons la communauté des sceptiques et de la science non officielle, pensons depuis toujours que les ajustements sont malavisés et scientifiquement inappropriés. Mais nous n’avions jamais soupçonné un effort intentionnel pour fabriquer du réchauffement planétaire par l’utilisation adroite d’algorithme d’ajustement. Néanmoins, nous savons désormais que le réchauffement mondial est en effet causé par du carbone, celui du graphite de mines de crayons, figurativement parlant, bien sûr. Il est basé sur des algorithmes sophistiqués qui sculptent astucieusement les ensembles de données pour les faire coller à la théorie. Comme il est désormais démontré, la confirmation du réchauffement planétaire par les données de l’US HCN est purement un artefact des algorithmes d’ajustement.
Ceci n’est bien sûr pas une preuve que toutes les autres sources de données sont falsifiées de façon aussi flagrante. Néanmoins, l’US HCN est suffisamment étendu et crédible pour démontrer que le réchauffement mondial n’affecte pas le continent Nord américain. Il serait difficile de soutenir un argument scientifique valide en faveur d’un réchauffement mondial quand un des continents majeurs n’en montre aucun signe.
Le problème avec le truc des ajustements, c’est qu’une vraie tendance mondiale au réchauffement n’a peut-être pas lieu. Cela veut dire qu’enlever les ajustements artificiels mène à un dilemme futur. Si les données brutes de Tmax continuent d’être remarquablement plates, alors interrompre l’ajout de ce biais a pour résultat une pause dans le réchauffement planétaire. Prolonger le biais, par contre, mènerait à un écart de plus en plus large avec la réalité, qui risque de pénétrer dans la conscience du public.
La théorie de la pause
Dès lors, la théorie la mieux adaptée pour la « pause », c’est que la science climatique a temporairement épuisé les raisonnements justifiant les ajustements. Étant donné les succès passés à convaincre le public, il est assez possible que la science officielle continuera simplement le processus d’ajustements.
—
Sur le web. Traduction Contrepoints.
- Les données {Adj(Stn,Yr)} n’incluent que des séries de données assorties dans les deux ensembles. Elles n’incluent pas les données « fantômes » qui ne sont pas dans l’ensemble des données brutes. ↩
« Les ajustements constituent un biais de refroidissement appliqué aux températures du passé. … L’intention évidente des ajustements est de créer l’illusion d’un signal de réchauffement planétaire important dans les temps récents. »
Hormis « l’intention évidente », quelle est la raison technique de ces ajustements et de leur si remarquable distribution ?
Les ajustements sont nécessaires parce que les conditions dans lesquelles les relevés de température sont effectués peuvent changer avec le temps :
– une station est déplacée ;
– l’heure du relevé change ;
– du matériel est remplacé ;
– l’environnement est modifié (batiments, végétation, …)
Pour toutes ces raisons, il peut y avoir des paliers dans les séries de mesures, qui ne correspondent pas à une cause climatique. Pour garder des données cohérentes dans le temps, il faut procéder à des ajustements, ou si l’on veut, à une recalibration des stations par rapport aux mesures actuelles.
Quand les changements de conditions sont documentés, c’est plus facile. Par exemple, si l’on sait qu’en 1955 une station a été déplacée de 10 km, et qu’en même temps on constate à cette date un saut de 0,5°C – vers le haut ou vers le bas – dans les températures moyennes relevées, on peut le corriger.
Par contre, certains changements ne sont pas documentés. Dans ce cas, des méthodes statistiques ont été développées pour repérer ces possibles changements de condition et les corriger. On peut par exemple comparer les relevés d’une station présentant un saut de température avec les relevés des stations avoisinantes. Si ces dernières ne montrent pas la même variation de température, il y a fort à parier que ce palier provient d’un changement de conditions. D’autres méthodes plus complexes interviennent aussI.
Mais contrairement à ce que vous insinuez (« leur si remarquable distribution ») et à ce que l’auteur fait plus qu’insinuer, globalement les ajustements conduisent à une diminution de l’élévation totale de température depuis 1900, et non à « un biais de refroidissement appliqué aux températures du passé » (voir par exemple l’analyse du projet BEST : http://imgur.com/hHj0TQQ)
Je vous invite à lire ce billet posté sur le site de Judith Curry qui explique mieux et plus en détails ce que je viens d’écrire : http://judithcurry.com/2015/02/09/berkeley-earth-raw-versus-adjusted-temperature-data/
bel effort, mais
1) les ajustements dont vous parlez sont justifiés, mais en fait, très souvent ils ne sont même pas opérés : quand les stations rurales deviennent urbaines, quand un parking en terre est goudronné, on devrait faire ce genre d’ajustement, et on ne les fait pas ! Statistiquement, ce genre d’ajustement devrait avoir une moyenne nulle, ce n’est pas le cas
2) Inversement, on fait des ajustement bizarre. par exemple quand une station s’écarte de la moyenne de zones grandes comme la France, on suppose alors que la station a un problème et ses mesures « doivent » être corrigée.
C’est pas la peine de se cacher derrière son petit doigt : il y bel et bien un biais qui « améliore » le réchauffement depuis 1970, et si il a comme effet secondaire de réduire le réchauffement depuis 1900 c’est pas grave pour le dogme, c’est même plutôt dans son sens.
Merci pour vos liens et explications.
Mais cela n’empêche pas les risques de biais qui ont pu conduire aux alarmes propagés par les climatologues du GIEC.
Tout d’abord, l’important n’est pas le fait que la température globale soit diminuée ou augmentée. C’est l’extrême variation depuis 1980 qui a pu faire croire à une intervention non naturelle. L’article montre le fait que les températures d’avant les années 70 sont fortement raffraichies? Pourquoi ? Il me semble qu’il serait plus normal que les stations terrestres actuelles soient plus refroidies compte tenu du développement urbain.
Enfin, le second point : pourquoi le différentiel avec les valeurs brutes s’améliore à partir des années 80 ? Cela ne serait-il pas dû à la concurrence avec les données satellite, données qu’il est assez facile à ajuster et contrôler de manière objective, contrairement aux données terrestre ? Le lien vers le site de JudithCurry le montre : elle inverse le problème d’objectivité, en justifiant la qualité de l’ajustement parce que les données corrigées sont finalement proches des données satellitaires. Le problème est que ces dernières ne sont disponibles que depuis les années 80, soit juste au moment où le différentiel de température entre brut et corrigé se réduit.
Bref, je reste sur un doute, surtout quand l’exercice du bâton de hockey a montré la trop grande subjectivité des analyses. Si on revient à des chiffres d’avant 1970 plus chaud, alors l’évidence de réchauffement climatique anthropique et catastrophique tombe à l’eau.
Bonsoir,
Quelques précisions :
“L’article montre le fait que les températures d’avant les années 70 sont fortement raffraichies?”
Le champ de cet article se limite aux observations de températures aux USA (erronément appelés “continent Nord américain”), et en tire des conclusions globales : “Il serait difficile de soutenir un argument scientifique valide en faveur d’un réchauffement mondial quand un des continents majeurs n’en montre aucun signe.”
L’analyse globale des températures montre au contraire que si effectivement les ajustements des stations US ont amené un refroidissement des températures pré-1970, d’autres endroits, l’Afrique notamment, ainsi que les océans, présentent la tendance inverse, et globalement, les ajustements à la hausse et à la baisse se compensent mutuellement, avec un léger avantage pour les ajustements à la hausse des températures passées (c-à-d une diminution de la hausse totale des températures après ajustements, voir le graphique que j’ai posté ci-dessus).
“pourquoi le différentiel avec les valeurs brutes s’améliore à partir des années 80 ?”
Par convention les ajustements se font sur les relevés passés. C’est logique, si l’on considère que les mesures actuelles sont probablement plus fiables (matériel, méthode, documentation, …) que les mesures passées. Sachant cela, c’est normal que la différence entre les données brutes et les données ajustées soit plus petite maintenant que dans le passé. On voit cela très bien également sur le même graphique ci-dessus.
Mais vous avez raison de soulever la comparaison avec les données satellites, parce qu’une des manières de repérer un “point de rupture” dans les données est par la comparaison avec d’autres sets de données, températures de surface, satellites ou réanalyses. Seulement détrompez-vous, les mesures par satellites sont loin d’être “facile à ajuster et contrôler de manière objective”. Il faut savoir que les satellites ne mesurent pas de températures. Ils mesurent, depuis une altitude de 800 kms, un rayonnement micro-onde émis par la colonne d’atmosphère située sous eux. Par des algorithmes complexes, en comparant les mesures de plusieurs passages parallèles, ils en arrivent à calculer le rayonnement émis par une certaine couche de l’atmosphère, et à partir de là, en déduisent une température moyenne de cette couche.
Ces algorithmes et mesures ont fait – et feront encore – l’objet de nombreux ajustements et corrections, et sont loin d’être parfaits, encore moins objectifs (à titre d’exemple, voyez les ajustements apportés au canal T2 des mesures par satellites de l’Université d’Alabama à Huntsville (UAH) : http://vortex.nsstc.uah.edu/data/msu/t2lt/readme.06Nov2014). Toute méthode différente de mesure des températures est intéressante, à titre de comparaison, mais aucune, aujourd’hui, ne fait référence absolue. Voilà pourquoi il est nécessaire de continuer à récolter des données de surface, et de faire en sorte que ces données soient le plus homogènes possibles, le moins contaminées par des artéfacts introduits par des changements de conditions.
Donc vous prétendez être capable de retrouver des événements historiques documentés à partir des relevés de températures?
Reverb « L’analyse globale des températures montre au contraire que si effectivement les ajustements des stations US ont amené un refroidissement des températures pré-1970, d’autres endroits, l’Afrique notamment, ainsi que les océans, présentent la tendance inverse, et globalement, les ajustements à la hausse et à la baisse se compensent mutuellement, avec un léger avantage pour les ajustements à la hausse des températures passées »
En regardant les graphiques de l’article, on voit qu’il s’agit des températures de 1895 à nos jours.
Vous défendez les ajustements en Afrique et dans les océans ? Pouvez-vous nous parler des données de températures de 1895 à 1950 par exemple sur ce continent et les océans. Parce que des données valables pour cette période en distribution spatiales et temporelles, en nombre suffisant pour tirer quelques conclusions que ce soit, moi je n’en connait pas.
Puisque vous semblez au courant, merci de nous donner les liens vers ces fameuses données…
Des données existent pour l’Afrique depuis le milieu du 19e siècle, même si bien sûr, elles étaient peu nombreuses à cette époque. Mais il y avait déjà plus de 50 stations actives en 1895 sur le continent, et près de 500 en 1950 : http://imgur.com/NiE6UK2
Quant aux océans, les premières mesures de température par bateau datent de la fin du 18e, et dès 1853, des recommandations internationales de méthode et de matériel étaient émises pour uniformiser les mesures (doi:10.5194/os-9-683-2013). Plusieurs études ont été réalisées pour comparer ces méthodes historiques avec les enregistrements plus récents, par exemple les mesures faites par les bouées Argo.
Il y a des tas de références sur le web
Actuellement seules 2% des stations USHCN sont classées en catégorie 1 et 10% seulement ont une précision inférieure au degré alors qu’on parle de 0.7C° global depuis 1850. Méthode Coué: Mais a part ça les données africaine dès 1920 seraient,elles, fiables.
Certains ont pu constater que les données GISS ont été massivement trafiquées en Amérique du Sud, les tendances RAW sont inversée une fois ajustée par le GISS et le même biais a été constaté pour les stations arctique entre le canada et la Sibérie.
Les données RAW d’une station au Paraguay:
http://i.telegraph.co.uk/multimedia/archive/03175/Booker-graph-2_3175679a.jpg
Les données « Ajustées » par le GISS
http://i.telegraph.co.uk/multimedia/archive/03175/Booker-puerto_3175673a.jpg
Anyway: les satellites RSS, eux ne montre rien de particulier, pas d’année « record » pour 2014, la « pause » est bien réelle et les modèles s’éloignent de plus en plus de la réalité.
Et même si. La température ne cesse de changer, pour la période moderne le lien avec le CO2 et l’homme reste à démontrer. L’homme contribue pour 5% seulement de l’augmentation de 0.000002 par année du CO2.
« Actuellement seules 2% des stations USHCN sont classées en catégorie 1 et 10% seulement ont une précision inférieure au degré »
Vous n’ignorez pas que la précision sur une moyenne augmente en fonction de la racine du nombre d’observations. Le GHCN dispose de 7280 points de mesure principaux, ce qui augmente la précision de près d’un facteur 100.
L’incertitude affichée pour la température globale de la NASA ou de la NOAA ou des autres (généralement ±0,05°C) ne vient pas de la précision des thermomètres, mais bien de leur répartition.
« Certains ont pu constater que les données GISS ont été massivement trafiquées en Amérique du Sud, les tendances RAW sont inversée une fois ajustée par le GISS et le même biais a été constaté pour les stations arctique entre le canada et la Sibérie. »
Christopher Booker du Telegraph mentionne trois stations au Paraguay qui selon lui serait la preuve du « plus grand scandale scientifique de tous les temps ». Outre la qualification hyperbolique de ses « découvertes », deux remarques :
1) Booker ne mentionne pas les – très – nombreuses stations où les ajustements ont produit le résultat inverse, et je rappelle qu’au final, les ajustements des mesures ont pour effet de diminuer le réchauffement historique total (voir : http://imgur.com/hHj0TQQ) et non de l’augmenter.
2) pour un scandale scientifique, il est peu discret : les données brutes sont accessibles à tous sur le web, et les ajustements font l’objet de publications régulières dans la littérature. N’importe qui peut en reproduire la méthode et vérifier les résultats.
« Anyway: les satellites RSS, eux ne montre rien de particulier, pas d’année « record » pour 2014, la « pause » est bien réelle et les modèles s’éloignent de plus en plus de la réalité. »
Les satellites ne mesurent pas les températures de surface, or on parle ici d’ajustements des mesures de températures de surface.
« L’homme contribue pour 5% seulement de l’augmentation de 0.000002 par année du CO2. »
Un peu de confusion de proportions dans cette phrase. L’augmentation de la concentration de CO2 dans l’atmosphère est de 0,5% par an (2 ppm/an pour 400 ppm présents). Les activités humaines ont contribué à augmenter cette concentration de plus de 40% depuis le début de la période industrielle. Ce qui signifie que 30% du co2 présent dans l’atmosphère actuellement est d’origine humaine.
reverb : « Vous n’ignorez pas que la précision sur une moyenne augmente en fonction de la racine du nombre d’observations. ce qui augmente la précision de près d’un facteur 100 »
Quand vous aurez compris à quel point votre affirmation -transposée à la mesure des températures globale d’un système hautement dynamique- est hilarante, vous cesserez de croire au RCA.
« en fonction de la racine du nombre d’observations […] toutes les circonstances étant égales par ailleurs »
C’est la partie qui vous a échappé.
reverb : « Christopher Booker du Telegraph mentionne trois stations au Paraguay »
Non, relisez. Suivez les liens.
reverb : Ce qui signifie que 30% du co2 présent dans l’atmosphère actuellement est d’origine humaine.
L’homme émet 36 milliards de tonnes chaque année, la nature 771 milliards de tonnes.
« Reverb : Ce qui signifie que 30% du co2 présent dans l’atmosphère actuellement est d’origine humaine.
L’homme émet 36 milliards de tonnes chaque année, la nature 771 milliards de tonnes. »
Pour en avoir le coeur net, dites-moi fanchement : est-ce que vous niez que les quelque 120 ppm supplémentaires (30%) de concentration de CO2 dans l’atmosphère depuis 150 ans sont dûs aux activités humaine ?
reverb: « 120 ppm supplémentaires (30%) de concentration de CO2 dans l’atmosphère depuis 150 ans sont dûs aux activités humaine ? »
L’homme est très loin d’avoir émis 36 milliards de tonnes de Co2 chaque année depuis 150 ans.
Dans les années 1950 c’était à peine 1Gt de carbone et dans les années 80 c’était 5Gt par année. Quand vous faites l’addition sur 150 ans c’est assez négligeable par rapport à la nature alors vos « 30% » sortis du chapeau catastrophique… Pourquoi pas 90% tant qu’à faire ?
Détail amusant : il y a 100 ans le réchauffement avait déjà largement commencé alors que l’humain avait émis un total de carbone dérisoire.
D’autre par la végétation réagis fortement à une augmentation du CO2 puisqu’on en injecte dans les serres, mais elle le fait avec retard, il faut 40 années pour faire repousser une forêt, la grande majorité du carbone humain date des années post 1950. Coïncidence, on constate justement ces dernières années une augmentation de la couverture végétale.
Et pour finir le CO2 est corrélé aux températures avec il semble un retard. En l’état, seul un escroc peut affirmer avec un bon taux de certitude qui de l’œuf ou de la poule carbonée et la cause et la conséquence de l’autre.
Et il reste encore à prouver que le réchauffement est bien anormal et il faut encore le relier a ce gaz négligeable de 400 particules par millions qu’est le co2.
Thomas B. Gray, météorologue au NOAA rappelle que « rien de ce qui est en train d’arriver sur le plan climatique ne peut être considéré comme anormal à la lumière de notre connaissance des variations climatiques passées ». Il accuse directement les tenants de la théorie de l’origine humaine du réchauffement climatique de ne s’appuyer « sur aucune donnée fiable »
Vous évitez de répondre à la question mais je considérerai que votre Gish gallop équivaut à un oui.
On quitte donc le territoire du pseudo-scepticisme pour s’engager dangereusement sur celui du déni farouche de la réalité !
On sait – à moins que vous ne contestiez – que la concentration de CO2 dans l’atmosphère était de 280 ppm vers 1850. On sait qu’elle est maintenant de 400 ppm, soit une augmentation de 43%, et donc, actuellement l’atmosphère contient 30% de CO2 de plus qu’il y a 165 ans.
De plus, on peut estimer avec une assez grande précision les émissions de CO2 liées aux activités humaines depuis le début de l’usage des combustibles fossiles. Les registres d’achat, de vente de charbon, puis de pétrole ou de gaz, les échanges sur les places boursières, les statistiques de production des différents acteurs du domaine, … et les lois de la chimie, donnent une bonne idée des quantités de CO2 qui ont été émises dans l’atmosphère depuis la première exploitation industrielle du charbon il y a plus de 200 ans.
On peut aussi estimer, avec moins de précision certes, l’influence de la déforestation et des changements d’usage des sols sur l’absorption du CO2 par la biosphère. L’exercice est plus délicat, mais des statistiques et des relevés historiques existent en suffisance pour donner une idée cohérente de ce facteur.
Globalement donc (chiffres de 2012), les activités humaines ont contribué à l’émission de ~2000 GT de CO2 depuis 1750 (~1400 par l’utilisation de combustibles fossiles, ~600 par les changements d’usage des sols et la déforestation). De ces 2000 GT, environ 900 sont restées dans l’atmosphère, le reste a été absorbé, environ pour moitié par les océans (ce que l’on mesure par la diminution de leur pH global), et pour moitié par la biosphère (vous mentionnez vous-même une augmentation de la couverture végétale) .
Quand on mesure que les émissions actuelles de 36 GT CO2 par an, dont un peu moins de la moitié restent dans l’atmosphère, entraînent une augmentation de la concentration de CO2 de l’ordre de 2 ppm, on peut faire une règle de 3 : si un apport de ~16 GT de CO2 produit une augmentation de concentration de CO2 de 2 ppm, 900 GT ont dû causer une augmentation de l’ordre de 112 ppm depuis 1750. Compte tenu de l’incertitude sur les mesures et les statistiques, c’est un résultat très proche des 120 ppm observés.
Alors de deux choses l’une :
– soit la consommation de combustibles fossiles et les changements apportés à la biosphère par la déforestation et les changements d’usage des sols ont effectivement augmenté la concentration de CO2 dans l’atmosphère de 43%, ce qui signifie que 30% (que vous qualifiez de « sortis du chapeau catastrophiste ») du CO2 présent dans l’atmosphère actuellement le sont du fait des activités humaines ;
– soit on est en présence d’un phénomène indétectable et inexpliqué, qui ne s’est jamais produit depuis près d’un million d’année, et qui absorbe le CO2 émis par les activités humaines depuis 200 ans, … ET EGALEMENT d’un second phénomène indétectable et inexpliqué, qui ne s’est jamais produit depuis près d’un million d’année, et qui a émis près d’un millier de GT de CO2 dans l’atmosphère, pour causer l’augmentation de la concentration de CO2 que l’on constate aujourd’hui.
A vous de choisir, la science ou la magie.
C’est encore vous surtout, qui vous défilez sur les mesures « globale-ultra-précise » de l’Afrique de Livingstone mais bon.
reverb: « ~2000 GT de CO2 depuis 1750 »
Estimation avec une louche grosse comme une maison, comme d’habitude, mais même ce chiffre est à comparer aux 204315 Gt naturels émis dans la même période soit 0.98%.
reverb: soit on est en présence d’un phénomène indétectable et inexpliqué, qui ne s’est jamais produit depuis près d’un million d’année
La mauvaise foi et le manque d’humilité ?
Les mesures du CO2 des glaces c’est 200’000 ans maximum, on n’a aucun étalonnage et un lissage mortel pour les données. Avant c’est le doigt mouillé, et toutes les mesures qui ne vont pas dans le « bon » sens ont été occultées (Beck & cie)
reverb: « ce que l’on mesure par la diminution de leur pH global »
Cette constatation n’existe pas. Les articles avançant ce serpent de mer font état de « mesures » remontant cent quarante deux ans avant que la notion de PH fut inventée par Sørensen.
Non seulement vous mesurez des systèmes gigantesque au centième avec trois bouts de bois posé sur des chameaux mais vous obtenez la même précision à des époques ou les instruments n’existaient même pas.
Vous êtes magique !
Howard Hayden, professeur émérite de physique à l’Université du Connecticut. Il a écrit une lettre ouverte au Département d’État américain pour exprimer son scepticisme, en déclarant que « les activistes du réchauffement climatique [..] regardent les 3 derniers millionièmes de 1% de l’histoire de la Terre et font des conclusions extravagantes sur le climat et en particulier sur leur compréhension du climat »
Stanley Goldenberg, météorologue à la division de recherche sur les ouragans de la NOAA, ex-directeur au National Hurricane Center. « c’est un mensonge éhonté colporté par les médias que de faire croire qu’il n’y aurait qu’une frange marginale de scientifiques sceptiques sur l’origine humaine du réchauffement climatique ».
@ Ilmryn
Pouvez vous s’il vous plait répondre à la question qui vous a été posée par un oui ou par un non?
Vous ne répondez à aucun moment. C’est pourtant simple. Oui ou non?
Djamal : Oui ou non?
Noui
“C’est encore vous surtout, qui vous défilez sur les mesures « globale-ultra-précise » de l’Afrique de Livingstone mais bon.”
Ou ai-je dit que les mesures de températures en Afrique – dont je ne fais que reposter un graphique paru dans la littérature scientifique, soit dit en passant – sont “globale-ultra-précise” ? Allez-y, faites-vous plaisir, citez-moi.
Et si vous avez des problèmes avec ces mesures, pourquoi ne pas vous adresser à l’équipe qui les a publiées ? Elles me paraissent raisonnablement fiables, mais si vous en avez de meilleures, n’hésitez-pas, publiez.
“Estimation avec une louche grosse comme une maison, comme d’habitude, mais même ce chiffre est à comparer aux 204315 Gt naturels émis dans la même période soit 0.98%.”
Vous avez visiblement du mal à comprendre que la nature, par différents mécanismes, absorbe autant de CO2 qu’elle en émet (indice : c’est pour cela qu’on parle de cycle du carbone). Pourtant, le chiffre de 204 315 GT que vous postez aurait dû vous mettre la puce à l’oreille : comment en 260 ans la nature aurait-elle émis dans l’atmosphère plus de carbone que la quantité totale présente sur terre ?
“Les mesures du CO2 des glaces c’est 200’000 ans maximum, on n’a aucun étalonnage et un lissage mortel pour les données. Avant c’est le doigt mouillé, et toutes les mesures qui ne vont pas dans le « bon » sens ont été occultées (Beck & cie)”
Les carottages de Vostok remontent à 420 000 ans BP. Ceux du projet européen EPICA remontent à 800 000 ans (http://cdiac.ornl.gov/trends/co2/ice_core_co2.html).
Et en citant Ernst-Georg Beck, je suppose que votre scepticisme ne vous a pas poussé jusqu’à vous poser la question : quels phénomènes naturels indétectables et inexpliqués ont permis de relâcher et d’absorber des quantités énormes de CO2, de l’ordre de 100 fois le total des volcans de la planète, en catimini, uniquement pendant la période de l’étude de Beck, ne se sont jamais produit pendant les 800 000 années précédentes, et ne se sont plus produits depuis ?
Comme le fait remarquer Ralph Keeling dans Energy & Environment (Vol. 18(2), 259–282, 2007), le journal qui a publié le papier de Beck :
“Beck’s 11-year averages show large swings, including an increase from 310
to 420 ppm between 1920 and 1945 (Beck’s Figure 11). To drive an increase of this
magnitude globally requires the release of 233 billion metric tons of carbon to the
atmosphere. The amount is equivalent to more than a third of all the carbon contained
in land plants globally. Other CO2 swings noted by Beck require similarly large releases
or uptakes. To make a credible case, Beck needed to offer evidence for losses or gains
of carbon of this magnitude from somewhere. He offered none.”
Alors, magie ou méthodologie inadéquate ? A vous de décider.
“Cette constatation n’existe pas. Les articles avançant ce serpent de mer font état de « mesures » remontant cent quarante deux ans avant que la notion de PH fut inventée par Sørensen.”
L’absorption d’environ 30% de nos émissions de CO2 par les océans est bien documentée et observée, et à moins de nier les lois de la chimie, elle se traduit par une diminution du pH, également observée (DOI: 10.1146/annurev.marine.010908.163834, http://www.us-ocb.org/publications/Royal_Soc_OA.pdf)
Quant à votre remarque sur l’invention de la notion de pH, et l’idée qu’il serait impossible de mesurer des données historiques antérieures à cette invention, j’espère que vous réalisez qu’elle est ridicule ? Au même titre, il serait impossible de déduire des températures d’enregistrements historique avant 1740 et Anders Celsius ? De parler de l’existence des dinosaures il y a 230 millions d’années, parce qu’on n’a inventé le nom qu’en 1842 ? Sérieusement …
llmrym:
Vous le savez sans doute que jusqu’à il y a 150 ans, le cycle du carbone était équilibré et ce que rejetait la nature comme vous dites était absorbés continuellement. Aujourd’hui ce n’est plus le cas; et 35 GT devant 750 GT « de cycle » chaque année est absolument considérable. Votre logique de comparer 35 à 750 est malhonnête. On est passé, grossièrement, car on est ici pour énoncer des principes en quelques lignes sinon ça devient illisible et surtout vain, de 750-750 = 0 à 750- 750 +k= k.
C’est le même raisonnement que de dire qu’il n’y a que 0.040% de [CO2] ou encore dire que X% de l’effet de serre résulte de la vapeur d’eau alors que le CO2 ne représente que x% etc etc
reverb: « Quant à votre remarque sur l’invention de la notion de pH, et l’idée qu’il serait impossible de mesurer des données historiques antérieures à cette invention, j’espère que vous réalisez qu’elle est ridicule ? »
Non, ce qui est ridicule, c’est de croire à des reconstructions globales assez précise pour être significative.
Tu n’as pas l’air de comprendre que pour ces reconstructions, comme pour la mesure des températures historiques, on applique des algorithmes qui en l’absence d’étalonnage fiable ne reflètent trop souvent que ce que le chercheur veut mettre en évidence.
La littérature sur l’art des mesures et des reconstruction remplis des bibliothèques et reflète toute l’incertitude scientifique de rigueur et toi, tu fais comme si les données avancée par une personne (souvent choisie) étaient issues des « instruments » qu’on voit dans les films hollywoodien. Blip blip !
Tu confonds encore la science et les films de science-fiction.
Le co2 « explose », la température « globale » n’obéis absolument pas aux prédictions. La théorie et/ou les mesures reconstruites sont fausses.
Christopher Landsea, météorologue à la NOAA, spécialiste des ouragans, Ph.D. : Ancien rédacteur du rapport du GIEC, il l’a quitté en en dénonçant l’instrumentalisation : « je ne peux pas continuer, en conscience, à contribuer à un processus que je considère être et conduit par des objectifs préconçus et scientifiquement non valable »
« Le GHCN dispose de 7280 points de mesure principaux »
Vous n’avez pas mesuré 7280 fois la même chose. Vous mesurez différentes choses une seule fois. Et le réseau de mesure n’a pas été créé par échantillonnage aléatoire.
Et vous oubliez les biais, comme les îlots de chaleur urbaine, les problèmes de certains instruments de mauvaise qualité, les différents protocoles de mesures, etc. qui génèrent des altérations qui sont très difficilement mesurables, donc non corrigeables, qui n’ont rien d’erreurs de mesures aléatoires (de moyenne nulle).
Il y a énormément de facteurs qui peuvent influencer la mesure d’une température (quand on veut une précision diabolique comme en climato – en météo on s’en fout un peu à vrai dire).
Raconter qu’on peut corriger les biais avec une précision diabolique, seul un enfant peut croire ça. Un enfant pas très éveillé!
Un enfant pas très éveillé!
Tiens, c’est pile poile la définition d’un écolo 🙂
D’accord avec vos remarques.
Prétendre tirer des conclusions à partir de 50 ou même 500 stations (qui, de surcroit, sont généralement placées à des endroits très particuliers où les données météo ont une importance spéciales, comme les aéroports, mais malheureusement ce sont aussi des endroits affectés directement par l’Homme) dans un continent grand comme 60 fois la France O_o .
Et c’est pour cela que les incertitudes sur les mesures (la zone grise du graphique) augmentent quand on remonte plus loin dans le passé (http://imgur.com/kuVXQHx)
On voit ça. +-0.1C° sur la température globale du continent africain en 1940 c’est de l’escroquerie au vu du maillage et des conditions de mesures de l’époque. Mais moins hilarant quand-même que les +-0.2C° de 1860 dans l’Afrique de Livingstone.
Ivar Giaever, Prix Nobel de physique : il s’oppose tout particulièrement aux dévoiements de l’écologie à des fins politiques qu’organisent des individus comme Al Gore, Phil Jones ou James Hansen et des organismes comme le GIEC. Il a ainsi déclaré : « je suis un sceptique, le réchauffement climatique est devenu une nouvelle religion »
« du matériel est remplacé »
Ah oui, vous pouvez détailler?
Vous voulez dire que selon la marque du thermomètre, la signification d’un lecture n’est pas la même?
Allo la Terre?
« – l’environnement est modifié (batiments, végétation, …) »
Pouvons-nous connaitre la liste de ces évolutions, dûment répertoriée par les agences responsables de la collecte des données?
Et comment voulez-vous corriger l’effet de l’ombre, l’effet du sol, l’effet d’une clim toute proche? Vous connaissez l’utilisation de la clim, l’ensoleillement jour après jour, les propriétés du revêtement?
Vous.
Vous.
Fichez.
Du.
Monde.
Il est absolument IMPOSSIBLE d’espérer « corriger » ces biais avec la précision d’un dixième de ° C.
C’est GROTESQUE.
Ce n’est pas de la science.
Ce n’est pas de la science.
Si on ajoute fiction à science, cela devient crédible
Vous êtes tellement abruti par vos idées, disons que c’est un peu trop fort mais pas si exagéré que cela, que vous ne voyez que amike pose un question, et par conséquent il n’insinue rien du tout
Et quand l’ajustement ne suffit plus, les relevés sont carrément truques:
http://www.zerohedge.com/news/2015-02-22/republicans-investigate-nasa-over-climate-data-tampering
De toute façon, on n’y pourra rien.
Le réchauffement climatique, est-ce le seul objectif pour faire payer les consommateurs ???
http://www.lefigaro.fr/conjoncture/2015/02/25/20002-20150225ARTFIG00273-l-union-energetique-selon-juncker-un-chantier-a-2000-milliards-d-euros.php
« Devenir le «champion mondial des énergies renouvelables»
L’Europe, premier importateur d’énergie au monde, est très dépendante de l’extérieur, ce qui la fragilise. Elle importe 53% de son énergie, pour 400 milliards d’euros par an; 94% des transports sont assurés à l’aide de produits pétroliers, dont 90% sont importés. Six États membres de l’UE sont dépendants d’un fournisseur extérieur unique pour le gaz: les pays baltes, Finlande, Bulgarie, Slovaquie. Les achats de gaz russe représente 27% de la consommation de l’UE. La moitié de ces achats transitent par l’ Ukraine. «La sécurité du secteur des approvisionnements impose de diversifier les sources, les fournisseurs et les routes», a rappelé le commissaire Canete, qui envisage une «clause de solidarité» en cas de rupture d’approvisionnement et une transparence accrue des accords commerciaux avec la Russie.
L’Europe ne veut pas seulement sécuriser ses approvisionnements, pour moins dépendre de laRussie, elle veut devenir le «champion mondial des énergies renouvelables» afin de se présenter en élève modèle à conférence climat en 2015. L’Union européenne a promis de réduire de 20% ses émissions de gaz à effets de serre, et de porter à 20% la part des énergies renouvelables dans la production d’électricité d’ici 2020. Le secteur des énergie renouvelable est créateur de richesse et porteur d’emploi, mais l’Europe perd du terrain face à la concurrence de la Chine.
Mobilisation générale
Parmi les pistes les plus concrètes figure la promotion de la voiture électrique, le grand retour du principe «pollueur payeur», qui ne s’adressera pas seulement aux poids lourds mais aussi au secteur aérien. Le marché du CO2 sera revu et corrigé afin d’être vraiment dissuasif. Le secteur agricole et forestier devra aussi faire des efforts.
Bruxelles décrète la mobilisation générale. «Nous avons fixé le cap pour la création d’un marché unique intégré, connecté et sécurisé», a assuré le commissaire Canete. Mais cela prendra cinq ans au moins, voir dix, le temps de changer des textes, et de lancer de nouvelles directives. »
Et chacun sait que nos technocrates européens sont de fins stratèges en matière économique et géo-politique. C’est pas grave, c’est l’état qui paye …
L’Etat c’est qui !?
« L’Etat, donc nous, nous remboursons ceux qui investissent mais quels investisseurs ? »
http://www.boursorama.com/forum-iberdrola-s-a-blackstone-investit-dans-l-eolien-411101667-1
http://www.lefigaro.fr/conjoncture/2011/05/19/04016-20110519ARTFIG00713-blackstone-est-le-premier-investisseur-au-monde.php
http://www.huffingtonpost.fr/2014/01/20/psa-chine-fonds-souverains-qatar-norvege_n_4632339.html
« Sans détailler, le bureau d’audit fustige également le manquement de certains gérants à leurs responsabilités ainsi que le recrutement « non standardisé » de managers. Créé en 2007 et doté de 575 milliards de dollars, le fonds souverain chinois a pour objectif d’obtenir de meilleurs rendements que ceux offerts par les traditionnels bons du Trésor américain pour une partie des importantes réserves de change du premier exportateur mondial, qui s’élevaient en mars à 3950 milliards de dollars.
Très tôt après sa création, la mission de CIC se révèle difficile. Le fonds subit pendant la crise financière des pertes sur des investissements dans la banque Morgan Stanley et le fonds Blackstone, erreurs qui reviennent selon Pékin à avoir joué le précieux argent de la Chine au casino de Wall Street.
Le fonds joue depuis davantage la sécurité en investissant dans les infrastructures – les eaux de Londres, l’aéroport d’Heathrow par exemple – et les ressources naturelles. Il détient ainsi 30 % de la branche exploration-production de GDF Suez. Il mise également sur l’agriculture. »
Une mafia infiltrée par Greenpeace !
Je ne sais pas. Une secte qui parvient à faire croire au peuple qu’elle gouverne et est légitime pour le faire. L’état n’existe que parce que les gens y croient.
Au niveau européen, c’est encore plus vague. Alors que les Américains (US) ont une forte (trop ?) conscience « nationale », cela n’existe guère chez nous au sens d’une conscience « européenne » supra-nationale. Cela laisse toutes libertés à nos zélus ou technocrates à faire n’importe quoi mais en revanche ne stabilise guère leur position qui selon toute vraisemblance va voler en éclat faute de responsabilité (ils sont choisis sur un positionnement national et non européen) et de réalisme (ils n’agissent pas pour le bien de l’Europe mais pour des « principes » utopiques).
Et l’intérêt général dans tout cela !?
« Le caractère abstrait et imprécis de l’intérêt général peut entraîner des dérives en cas d’utilisation abusive et conduire à une limitation des libertés publiques. »
http://www.toupie.org/Dictionnaire/Interet_general.htm
« Toupictionnaire » : le dictionnaire de politique
Intérêt général
« On ne saurait déduire des principes de l’économie politique que l’intérêt personnel dûment éclairé oeuvre toujours au service de l’intérêt général. Il n’est même pas vrai que l’intérêt personnel soit généralement éclairé. »
John Meynard Keynes – 1883-1946 – La fin du laissez-faire, 1924
« Définition de l’intérêt général
Etymologie : du latin médiéval interesse, dédommager pour la résiliation d’un contrat, venant de interest, importer, être important.
Un intérêt est ce qui importe à quelqu’un, ce qui lui convient, ce qui lui procure un avantage, une utilité. C’est aussi le profit tiré par un prêteur, sous la forme d’une rémunération de l’argent prêté à un emprunteur.
L’expression « intérêt général » désigne les intérêts, valeurs ou objectifs qui sont partagés par l’ensemble des membres d’une société. Elle correspond aussi à une situation qui procure un bien-être à tous les individus d’une société.
En politique, l’intérêt général ou intérêt public est une notion qui décrit la finalité de l’action de l’Etat au niveau d’un pays sans qu’il soit nécessaire d’en définir le contenu exact. Il peut être à la fois la somme des intérêts particuliers et un intérêt spécifique à la collectivité qui transcende les intérêts des individus. Pour les partisans de l’utilitarisme, la recherche de l’intérêt général consiste à maximiser le bonheur individuel du plus grand nombre des membres d’une société.
En France, l’intérêt général n’a pas de réelle valeur constitutionnelle. C’est une notion floue et mal définie. Il est néanmoins le fondement du droit public qui en définit le cadre et notamment ses corollaires comme l’utilité publique, l’ordre public, le domaine public, les services publics… L’action administrative trouve sa justification et sa finalité dans la recherche de l’intérêt général et s’exerce dans le respect de celui-ci et sous le contrôle de la justice.
Le caractère abstrait et imprécis de l’intérêt général peut entraîner des dérives en cas d’utilisation abusive et conduire à une limitation des libertés publiques. »
L’intérêt général quand le bateau coule c’est d’écoper et surtout de cesser de faire des petits trous en dessous de la ligne de flottaison. Les politiciens ne sont même pas capables de sauver l’Europe mais prétendent au nom des européens sauver l’humanité, le monde, la Grèce, l’Ukraine, la Syrie. On va sauver le monde, mais on a juste besoin d’aide d’outre atlantique pour sauver notre économie et notre unité sociale. En échange on va leur donner des conseils et leur expliquer l’intérêt général.
« réduire de 20% ses émissions de gaz à effets de serre »
Fastoche, yaka réduire la part du charbon et du pétrole et augmenter la part de l’énergie nucléaire dans le mix. En France c’est difficile, mais en (au hasard) en Allemagne ou au Danemark il y a du potentiel. C’est bizarre, l’article du Figaro n’en parle pas 😉
« promotion de la voiture électrique, »
Bonne idée de recharger les batteries aux heures creuses grâce au nucléaire 😉
« le grand retour du principe «pollueur payeur», »
Traduction Novlangue->Français: préparez vous à des hausses de taxes.
L’électricité ne représente pas la totalité de l’énergie consommée.. loin de la. Mais vous savez, ce n’est pas si simple, on n’utilise pas une centrale thermique (utilisée en pointe) comme on utilise une tranche nucléaire. La plupart des centrales thermiques française ne peuvent être remplacée par du nucléaire.
Oui bien sur. Le nucléaire en France représente près de 80% de la production électrique (regardez votee facture EDF pour plus de précision), mais beaucoup moins de la production d’énergie globale. La différence c’est principalement le chauffage aux hydrocarbures (facile à remplacer par de l’electrique) et les transports (plus difficile, le poid lourd électrique c’est pas encore ça 😉
Après, le nucleaire assure la « base » de la conso, et il faut d’autres sources (principalement gaz et hydraulique) pour assurer les pointes de conso rapides.
Si vous remplacez tout le chauffage au gaz par de l’électrique, dans des logements souvent mal isolés, vous augmentez de beaucoup la pointe de consommation.
Il faudra donc des investissements importants dans les réseaux et les moyens de production de pointe, comme par exemple le gaz. (Vous ne pouvez pas rentabiliser une centrale nucléaire si elle ne fonctionne que quelques mois par an. Le tout nucléaire n’est pas un objectif réaliste.)
« Le tout nucléaire n’est pas un objectif réaliste. »
Exact. La France est déjà très bien équipée en nucléaire. Je ne sais pas si nous pouvons faire plus. Par contre, les autres pays d’Europe ont une marge énorme de progression dans ce domaine. Y’a plus qu’à dédiaboliser le nucléaire…
Tout ça n’est rien, si on compare aux données satellites c’est carrément le massacre.
Par ailleurs, ce qui ne manque pas de me fasciner, c’est que d’après les mesures relevées au sol, l’hémisphère Nord aurait pris en 30 ans 0,3 degrés de plus que l’hémisphère Sud. Soit plus du double de réchauffement au Nord qu’au Sud.
Donc soit on a un changement astronomique (modification de l’axe de rotation), soit le CO2 se concentre au Nord (mais on en aurait entendu parler), soit les météorologues américains auraient besoin de changer de lunettes (ou de règle à calculer les ajustements).
soit, plus simplement, le sol terrestre a plus tendance à se réchauffer que les océans, et comme on sait que l’hémisphère nord contient une proportion terres/océan plus importante 😉
Oui mais un réchauffement n’est pas égal à une quantité d’énergie. (Ca dépend du « matériau ambiant ». qui absorbe l’énergie). Et dans ce cas cela veut dire que les mesures terrestres sont largement biaisées.
Chez les défenseurs de la « science » officielle, on considère ces « ajustements » et « homogénéisation » comme un simple processus de calibration, dont comme une étape in-dis-pen-sable!
Les ajustements sont censés améliorer la fiabilité des données.
Pour avoir une idée des ajustements curieux qui peuvent être faits, allez voir la méthodologie de « BEST ». C’est du charcutage de graphiques.
Sans aucune validation expérimentale, comme toujours.
Marc Girard sur la pharmacovigilance :
Source : http://www.rolandsimion.org/spip.php?article279
Mais on va continuer à me raconter qu’il n’y a aucun rapport entre biomédecine corrompue et climastrologie!
Je pense personnellement qu’il ne faut pas expliquer par la malhonnêteté ce qui s’explique largement par l’incompétence.
Tout ceci peut se résumer par la constatation faite par les informaticiens des l’origine : Garbage In Garbage Out.
http://en.wikipedia.org/wiki/Garbage_in,_garbage_out
Quand les promoteurs des vaccins (dont on admet implicitement qu’ils pourrait (à p<.05) causer un presque doublement des SEP) ont des conflits d'intérêts, c'est de l'incompétence ou de la malhonnêteté?
En tout cas l'incompétence est une forme de corruption morale, et la corruption morale est typique des bigots.
Ce papier est vide d’arguments. A aucun moment l’auteur ne décrit la méthode des ajustements, leur formule, leur base physique. adoptée. Une démarche scientifique valide eut été de reprendre la méthodologie et d’argumenter dessus. Clairement, l’auteur n’a tout simplement aucune connaissance de la méthodologie.
En conclure sur des bases aussi faibles que le hiatus est causé par les ajustements relève du délire complotiste, en aucun cas de la science
Il est question de pif.
Vous n’en avez pas. Du tout.
Pat, un chauffagiste m’a dit a peu près la même chose que vous il y a plus de dix ans parce que je critiquais le fait que les cernes des arbres n’étaient pas un marqueur suffisant pour y voir la preuve d’un réchauffement important du climat : « Étudiez d’abord la croissance des arbres, et après, vous pourrez en reparlez, pas avant ». Ouais, bon, …
un grand merci un Reverb pour ses commentaires éclairants. ça fait vraiment plaisir de lire des commentaires de ce niveau.
Merci pour votre commentaire, Marcel. J’ai rarement autant ri !
C’est vrai que c’est drôle, olala..
Oui, Djamal, « chauffe Marcel », hein ?