Blog

  • La Conférence sur le Climat Arctique prévoit une rapide élévation du niveau moyen des mers

    La Conférence sur le Climat Arctique prévoit une rapide élévation du niveau moyen des mers

       Le pessimisme est de rigueur sur l'évolution du climat dans le Grand Nord. La Conférence sur le Climat Arctique a estimé que le Groenland a perdu durant les 5 dernières années 240 km3 de glace par an. Les scientifiques présents ont estimé que dans l'hypothèse d'une extrapolation des tendances actuelles, le niveau moyen des mers pourrait s'élever de près d'un mètre d'ici à un siècle.

       Le niveau moyen des mers est une grandeur intensive mesurable soit par des capteurs locaux en de multiples points autour du globe, soit par des mesures par satellite. Les deux méthodes ne donnent pas des valeurs tout à fait identiques mais les mesures vont toutes dans la même direction: l'élévation du niveau estimée autour de 3,2 mm par an. Les scientifiques spécialistes de ces mesures cherchent à déterminer la part relative de la dilatation thermique des océans en raison de l'augmentation de température des eaux de surface et de la contribution des fontes de glaces terrestres qui sont les deux gros contributeurs, à parts sensiblements égales, à ces phénomènes. Des erreurs de mesures de températures des océans qui ont pu faire croire à un refroidissement, ont longtemps alimenté les débats entre spécialistes. Mais il semblerait que les choses soient maintenant maîtrisées et qu'il y ait une bonne coïncidence entre la théorie et les mesures expérimentales (FIG. recouvrement des courbes bleues et roses ces dernières années).

    Sea-level-comparé-1960-2007

      Si les prévisions alarmistes des spécialistes du Grand Nord s'avèrent exactes, les courbes de mesure des niveaux moyens des mers devraient présenter un changement de pente important dans les années à venir. Ces mesures sont à mon avis le meilleur indicateur intensif du changement climatique observé. La fonte des glaces et le réchauffement des océans représentant plus des 4 cinquièmes des phénomènes d'accumulation d'énergie par notre planète.

    LIRE les conclusions de la Conférence.

    Comprendre les difficultés rencontrées par l'interprétation de données de températures erronées

    Le 2 Septembre 2009

  • Les primes à la casse constituent de formidables outils de reprise de la production industrielle

    Les primes à la casse constituent de formidables outils de reprise de la production industrielle

        Il avait été montré ici, grâce à une simulation simple, combien le report échelonné de décision d'achat d'un véhicule neuf de 12 à 36 mois par une minorité de consommateurs pouvait avoir un impact profond sur les ventes de véhicules durant plusieurs années (LIRE). Le mécanisme financier de report d'achat est donc relativement simple à analyser et à quantifier. Ce qui semble beaucoup plus complexe est de comprendre les motivations de ces changements de comportements des consommateurs. Pour certains, à l'analyse abrupte, c'est la perte de pouvoir d'achat d'une frange des consommateurs qui explique l'essentiel de ces phénomènes. Bien sûr une telle hypothèse simpliste n'a que très peu de sens, ne serait-ce que par le fait qu'à une baisse des investissements des ménages (voiture, maison ou appartement) lui correspond une augmentation de l'épargne et par le fait que la part de population la plus pénalisée par la crise, n'est pas obligatoirement celle qui achète des voitures neuves par des temps plus favorables. Dans les faits les motivations de reports d'achats sont beaucoup plus complexes. Liées au vieillissement des populations urbaines comme au Japon, liées aux changements de modes de vie et de consommation des nouvelles générations, là aussi très étudiés au Japon mais résultant d'une évolution touchant la quasi totalité des pays de l'OCDE, dans le cadre du phénomène de Seconde Transition Démographique. Mais il ne faut pas oublier aussi les raisons purement déflationnistes qui vont persuader le consommateur d'attendre la future baisse des prix, la future promotion commerciale, la sortie de nouveaux modèles plus adaptés à se besoins, tout cela dans un climat d'incertitude sur les jours à venir.

    Ventes-voitures-USA-2007-2009-08 

      Or il existe un formidable outil pour rompre ce phénomène d'indécision: la prime à la casse. Le consommateur américain indécis découvre soudain que son vieux pick-up des week-end va valloir 4500 dollars durant une brève période de temps. Opportunité inespérée, son appât du gain le décide immédiatement de se diriger vers le car dealer le plus proche. Ce phénomène initialement sous estimé par les autorités US qui n'avaient prévu qu'un milliard de dollars épuisé en quelques jours, fut partiellement prolongé par une rallonge de deux milliards de dollars afin de tenir un mois environ. Le résultat sur les ventes du moins d'Août sont spectaculaires (FIG.), les ventes de ce mois à 1,26 millions d'exemplaires dépassent même celles d'Août 2008 qui avaient été soutenues. Ce succès commercial va immédiatement se répercuter dans les usines en portant pour le mois de Septembre, le taux d'utilisation des capacités de production de véhicules en Amérique du Nord au delà de 61%. Il n'était que de 38% au mois de Juillet et de 58% au mois d'Août (FIG.II).

    Taux-utilisation-2009-09

        Ce même phénomène commercial de prime à la casse soutient les ventes en Europe. Le Royaume-Uni a vu ses ventes de Juillet s'accroître de 2%, première hausse en 15 mois. Une voiture sur 5 a profité du mécanisme incitateur. L'Espagne vient, quasi miraculeusement dans ce pays ravagé par la crise, de voir ses ventes du mois d'Août faire jeu égal avec celles d'il y a un an, grâce aux 2000 euros de prime accordée. Enfin la France devrait poursuivre, au moins partiellement, son plan incitatif jusqu'en 2011, pour éviter une trop grande rupture de charge de son industrie automobile.. C'est une excellente décision pour l'industrie européenne.

      Parmi les mécanismes de relance de l'économie il est certain que la prime à la casse est un des outils les plus efficaces à la disposition des Gouvernements. Le retrait de vieux modèles polluants et la relance de la production automobile en direction de modèles plus sobres en carburant (LIRE) est un progrès certain et immédiat vers une meilleure efficacité énergétique des pays les plus riches. Ce double impact économique et écologique doit être pris en compte dans toute analyse sérieuse.

    Le 2 Septembre 2009

  • Récupérer sur Terre, grâce aux micro-ondes, l’énergie photovoltaïque générée dans l’espace

    Récupérer sur Terre, grâce aux micro-ondes, l’énergie photovoltaïque générée dans l’espace

       Alors qu'en France, au nom d'un baroque Principe de Précaution (LIRE), les sommités scientifiques et judiciaires se passionnent sur d'hypothétiques effets nocifs sur la santé des micro-ondes émises des téléphones portables et de leurs stations relai, ailleurs dans le monde, d'autres étudient la faisabilité d'aller générer de l'énergie photovoltaïque dans l'espace, à bord d'un satellite en orbite géostationnaire, et de la rapatrier sur Terre grâce à de fins faisceaux de micro-ondes dirigés sur des capteurs terrestres qui convertiraient à nouveau ces ondes en électricité. La NASA a officiellement de façon sporadique étudié cette possibilité, mais les plus avancés dans ces études d'application civile semblent être les Japonais. Mitsubishi Electric a imaginé un projet baptisé SOLARBIRD qui à partir d'un parc de satellites équipés de miroirs de grande précision et de modules photovoltaïques, dirigeraient sur terre des faisceaux d'ondes vers des cibles bien précises qui utiliseraient cette énergie pour générer du courant. La motivation de cette étude est basée sur le fait que dans l'espace l'énergie des rayons solaires est le double de celle observée sur terre et l'ensoleillement du satellite est de prés de 24 heures par jour, 365 jours par an.

    Solarbird2-mitsubishi-elec  

        L'Agence Bloomberg nous apprend que le METI japonais a choisi un groupe de 16 Sociétés japonaises qui va travailler pendant quatre ans sur le problème du transfert d'énergie par micro-ondes à longue distance. Par la suite, vers 2015, l'Agence Spatiale Japonaise pourrait lancer un satellite géostationnaire, à 36 mille km d'altitude, pour réaliser les premiers tests de faisabilité d'un tel transfert focalisé d'énergie de l'Espace vers la surface de la Terre, au travers de la ionosphère. Par la suite, vers 2030, le premier satellite opérationnel pourrait être mis en place.

       Tout cela semble être sorti d'un roman de Science Fiction, mais illustre surtout le fossé intellectuel qui s'est établi en quelques décennies entre notre vieux pays tétanisé et d'autres Nations plus aventureuses. Il n'est pas sûr qu'un grand Emprunt National arrive à combler ce gouffre culturel.

    LIRE le communiqué de Bloomberg.

    Voir les grandes lignes du projet SOLARBIRD 

    Le 1er Septembre 2009.

  • Les futurs véhicules routiers haut de gamme seront « smart & green », même en Europe

    Les futurs véhicules routiers haut de gamme seront « smart & green », même en Europe

        C'est une des grandes innovations marketing qui a pris corps dès 2008 aux Etats-Unis, avec la crise économique et le détournement de l'appétit des consommateurs les plus éclairés des gros 4X4 obséquieux et rutilants de chromes, vers des modèles plus smarts et plus respectueux de l'environnement. Pour se convaincre de ce changement radical d'approche du marché, le nouveau concept car de BMW, Vision Efficiency Dynamics, qui sera présenté au Salon de Francfort au mois de Septembre, montre que l'Europe vient elle aussi de virer sa cuti, malgré un retard technologique certain sur la traction électrique (FIG.).

    BMW-concept-car

      Sans rentrer dans les détails de définition de ce bolide, ce que d'autres prendront plaisir à faire, c'est un véhicule Plug-In-Hybrid ou hybride rechargeable au réseau, équipé d'un moteur diesel et de deux moteurs électriques. Il est étudié pour présenter une autonomie en mode purement électrique de 50km et de 650 km en mode hybride diesel.

      La batterie de type Lithium-Ion polymère (du coréen SB Limotive?) de 10,8 kWh (30Ah X 364V) assure le stockage de l'énergie électrique. Cette batterie de 30 Ah est capable de délivrer des pointes de courant de 30 secondes pouvant atteindre 1200 A, soit 40C. C'est une bonne performance.

      Ce type de concept car, présenté par un des leaders européens des véhicules haut de gamme, montre clairement que le futur du marché sera largement ouvert aux véhicules "Smart & Green". Dans ce domaine la part électrique de la source d'énergie, couplée à la démocratisation des modules solaires de faible coût, prendra de plus en plus d'importance. Le pétrole deviendra alors une source d'énergie primaire de second ordre dans le mix énergétique des Nations. Un bel exemple à venir de la substituabilité des sources d'énergie, concept fondamental à comprendre pour imaginer le futur.

    VOIR la présentation de ce concept sur le site BMW

    Le 31 Août 2009.

  • Comment s’y retrouver dans les divers procédés conduisant de la biomasse à un biocarburant

    Comment s’y retrouver dans les divers procédés conduisant de la biomasse à un biocarburant

      Il ne se passe pas une semaine sans que la littérature ne dévoile un nouveau procédé, un nouveau brevet ou un nouvel industriel qui va révolutionner l'industrie en gestation, de deuxième génération, (elle n'est pas encore née malgré les multiples faire-part) qui va convertir les matériaux lignocellulosiques les plus divers, en biocarburants de type essence, gasoil, éthanol, butanol ou autres dérivés du furfural.

        Pourquoi cette profusion de nouveaux procédés et pourquoi ne voyons nous pas s'élever les rangs de cheminées d'usines de production de biocarburants de cette très attendue deuxième génération? A mon avis il y a quelques raisons très simples pour expliquer ce dynamisme en amont, dans les laboratoires et les ateliers de développement, et cet attentisme en aval, sur le terrain où devrait s'élever une usine.

    1. La crise économique bien sûr qui a freiné bien des projets. Les financiers ont refait les calculs et malgré les multiples aides étatiques, la rentabilité n'est pas au rendez-vous.
    2. La biomasse nécessite des cultures, des récoltes, de l'acheminement vers un centre de traitement et tout cela pour une densité énergétique très faible, 20 fois plus faible pour un m3 de paille que celle de l'essence.
    3. Pour ces raisons spatiales et de logistique, les futures unités industrielles devront être de taille et de complexité "agricoles", à la taille du canton, pilotées simplement par quelque dizaines d'opérateurs, nécessitant peu de maintenance et ne posant pas de problèmes de sécurité.
    4. Le produit obtenu doit être facile à isoler et à conditionner. Des "bières" à 4 ou 5 degrés d'alcool ne sont pas économiquement acceptables.
    5. Les catalyseurs de réactions, de types enzymes gloutons, ne peuvent pas coûter plus cher que l'éthanol ou le butanol produit.

    On le voit les diverses contraintes logistiques, économiques, énergétiques et environnementales sont de puissants obstacles au développement des procédés d'élaboration de biocarburants de nouvelle génération. C'est la raison pour laquelle il est impératif de phosphorer fort dans les laboratoires.

    BTL-process   

       Ne verront le jour industriel et ne se développeront que les procédés simples, économes en capitaux et aisés à conduire.

       Pour se faire une idée des diverses grandes familles de procédés il est intéressant de les trier selon le premier traitement qui va être appliqué. Ces traitements du plus destructeur au plus doux, vont de la gazéification pure et simple qui conduit au syngas CO+H2 à une hydrolyse douce en milieu acide pour faire passer la cellulose et une part d'hémicellulose en solution qui sera ensuite soumise à fermentation (FIG.).

     Remarque: cette classification est très réductrice, dans les faits les procédés, souvent complexes, s'entrecroisent ou se chevauchent, en raison d'une très grande créativité des scientifiques travaillant sur le sujet.

    Le cahier des charges appelant un procédé simple et peu dangereux disqualifie tout procédé de type Ficher-Tropsch qui nécessite de très gros investissements. La gazéification ne peut se concevoir qu'en appoint d'un procédé existant (LIRE) de type coal-to-liquid. La pyrolyse est simple mais elle conduit à un produit intermédiaire complexe et instable. Les procédés enzymatiques sont à la recherche de l'enzyme universel et pas cher, qui conduirait à des solutions concentrées en éthanol. Il ne semble pas être encore tout à fait au point.

    Aujourd'hui les regards se portent vers la décomposition catalytique de la lignocellulose et les travaux de l'Université du Massachusetts Amherst qui portent sur la pyrolyse catalytique rapide en présence de zéolites entre 400°C et 600°C. C'est le jeune et dynamique George Huber qui semble avoir le mieux compris l'équation, en proposant un procédé de conversion catalytique directe qui partant de sciure de bois conduit à un mélange de "green gasoline" et d'eau. La rusticité du procédé semble a priori suffisante pour justifier enfin un certain enthousiasme. Un spin-off, Anellotech, vient d'être créé pour exploiter en exclusivité les droits du procédé développé par Huber.

    REGARDER absolument la video qui montre George Huber expliquer en laboratoire le procédé, cela vous changera de nos airport-professeurs souvent guindés des Universités européennes.

    Le 30 Août 2009.

    -  

  • Etats-Unis: les consommations moyennes en produits pétroliers en baisse de 5,7% au premier semestre 2009

    Etats-Unis: les consommations moyennes en produits pétroliers en baisse de 5,7% au premier semestre 2009

       Les consommations moyennes américaines en produits pétroliers, publiées par l'Energy Information Administration, ont marqué au mois de Juin, avec 18,76 millions de barils/jour, une nette hausse par rapport à celles enregistrées au mois de Mai qui avaient atteint un plus bas de l'année à 18,18 millions de barils/jour. Mais ces consommations demeurent inférieures de 4% à celles de Juin 2008 (FIG.), malgré un léger accroissement de la consommation d'essence de 1,7% par rapport à la même référence.

    Conso-pétrole-USA_2009_06  

        En cumulé depuis le début de l'année, le premier semestre 2009 se traduit par une baisse des consommations en produits pétroliers de 5,7% par rapport au même semestre 2008. Les productions des raffineries n'ont baissé pour leur part que de 3,7%. Cette différence entre consommation et production se traduit par une mise en stock spéculative des produits raffinés, en attente des intempéries d'automne dans le Golfe du Mexique (FIG.II). A fin Juin 2009 les stocks de produits raffinés ou intermédiaires atteignaient 766 millions de barils en croissance de 82 millions de barils par rapport à fin Juin 2008. Cela représente dans les 6 milliards de dollars de valorisation de stock supplémentaire. Bien sûr, si les ouragans n'arrivent pas cette année, un certain nombre de raffineurs américains vont éprouver quelques difficultés financières supplémentaires dans les mois à venir.

    Stocks-produits-US-2009-06

      Enfin il est intéressant de signaler la croissance des consommations moyennes d'éthanol de 39% sur le premier semestre par rapport à celles du premier semestre 2008. La teneur moyenne en éthanol dans l'essence américaine ressort à 7,4% au mois de Juin, elle n'était que de 6,15% il y a un an. Il a été souligné ici combien certains raffineurs américains, tel que Valero, jouent à fond la carte des biocarburants et rationnalisent leur outil de raffinage (LIRE).

    Le 30 Août 2009

  • Remplacer le charbon par du bois dans les centrales thermiques, la façon la plus simple de valoriser la biomasse

    Remplacer le charbon par du bois dans les centrales thermiques, la façon la plus simple de valoriser la biomasse

    Miscanthus-switchgrass    La pression exercée par les Etats américains sur les producteurs d'électricité pour qu'ils réduisent leurs émissions de CO2, pousse les opérateurs à rétrofiter certaines de leurs centrales à charbon en unités capables de brûler de la biomasse constituée de cultures dédiées, de taillis et autres chutes de l'exploitation du bois ou de divers autres déchets. Le Department of Energy américain cite le cas de l'Ohio Edison Company qui, accusée de pollution excessive, a trouvé un accord auprès de la Justice locale pour rétrofiter deux tranches de centrales au charbon représentant 312 MWe en unités brûlant essentiellement de la biomasse, avec au maximum 20% de charbon. Ces unités seront opérationnelles en 2012 et seront alimentées en circuit fermé par des cultures dédiées.

        Le cas de la Société ADAGE filiale d'AREVA et de Duke Energy est également cité. Cette entreprise a défini une unité type de 50MWe alimentée des taillis et autres déchets de l'exploitation du bois. Elle doit installer la première unité dans le Nord de la Floride (LIRE).

       Les projets de centrales thermiques à base de biomasse sont généralement de taille réduite (entre 30 et 100MW)  en raison de la faible énergie volumique du bois (LIRE). Les problèmes de logistique et d'approvisionnement du bois pour alimenter de façon continue la centrale déterminent la puissance de l'unité. Cette contrainte limitera dans le futur tous les projets à base de biomasse, quelles que soient les cultures utilisées et les formes d'énergie à produire. Ce sont des unités qui s'approvisionneront dans une aire du territoire de la taille d'un county américain ou de quelques cantons français, comme le font aujourd'hui les unités de production d'éthanol à partir de maïs aux Etats-Unis.

    LIRE l'article du DOE

    Le 29 Août 2009

  • La Californie veut mettre en place des quotas d’électricité verte dont les tarifs seraient fixés aux enchères

    La Californie veut mettre en place des quotas d’électricité verte dont les tarifs seraient fixés aux enchères

    California   La politique des aides tarifaires pour les énergies renouvelables ou Feed in Tariff, présente l'avantage de favoriser l'émergence de nouvelles technologies en achetant à bon prix l'électricité produite, mais elle présente de nombreux inconvénients dont on peut retenir les trois plus importants:

    1- elle oblige le consommateur à payer beaucoup plus cher la fraction d'électricité sponsorisée, c'est donc un impôt déguisé,
    2- elle crée des rentes de situations auprès de toute la filière, entraînant une inflation de projets, avec des prix des équipements totalement artificiels, comme ce fut le cas en Espagne en 2008 pour la filière photovoltaïque,
    3- en masquant les gains de productivité, elle discrédite les énergies renouvelables auprès des usagers, sortes de danseuses onéreuses des gouvernements, dont le gogo utilisateur doit payer les extras.

       La California Public Utilities Commission (CPUC) vient de proposer un nouveau mécanisme qui pourrait concilier aide tarifaires et maîtrise des coûts. Elle propose, pour des unités de tailles moyennes de 1 à 10 MW, qui ne nécessitent pas de remettre en cause le réseau électrique existant, de mettre aux enchères des tranches de puissance électrique qui seraient attribuées aux producteurs pour fourniture aux "utilities" qui détaillent et distribuent localement le courant. Ces puissances seraient attribuées pour une durée déterminée ou un montant déterminé. Plusieurs fois par an, pour chaque "utility", des tranches de puissance seraient vendues aux enchères, le fournisseur le moins disant ne pouvant obtenir au maximum que 50% de la puissance mise aux enchères, ceci enfin d'éviter l'établissement d'une trop forte position monopolistique.

      Il y a dans ce mécanisme de mise en concurrence des divers fournisseurs de courant "en gros" peut-être un moyen de voir enfin apparaître dans les tarifs, les gains de productivité réalisés par les diverses filières d'électricité d'origine renouvelable. La puissance publique détermine les quantités d'énergie d'origine renouvelable à injecter dans le réseau, mais le marché détermine le prix unitaire. Ce type de mécanisme, rendu possible avec la séparation de la production et de la distribution d'électricité, pourrait inspirer certains Gouvernements européens qui se sont durement pris les pieds dans le tapis des aides tarifaires.

    LIRE les détails complexes du projet.

    Le 29 Août 2009

  • Siemens met des billes dans le photovoltaïque en Israël

    Siemens met des billes dans le photovoltaïque en Israël

    Breaking-news     Le Jerusalem Post informe ses lecteurs que le Groupe allemand Siemens vient de rentrer à hauteur de 40% dans le capital d'Arava Power une Société impliquée dans le photovoltaïque en Israël. Arava Power qui dispose d'accords d'installations de fermes photovoltaïques et d'une licence commerciale lui donnant le droit de produire de l'électricité a toutes les cartes en main pour devenir le leader du photovoltaïque dans son pays. Mais pour cela, il faut attendre que le gouvernement israélien donne son feu vert pour accorder des aides tarifaires (feed in tariff) à des fermes de tailles moyennes (jusqu'à 5 MW). L'objectif d'Israël est de produire 10% de son énergie à partir de sources renouvelables dès 2020.

      Siemens, outre le capital, va apporter à l'ensemble sa technologie et sa maîtrise industrielle pour mener à bien ces futurs projets. Ce type d'accord entre industriel et opérateur local est une des voies pour accéder de façon très privilégiée à certains marchés. Cet exemple montre qu'il n'est pas évident que les producteurs de modules solaires soient les mieux placés pour accéder à ces nouveaux business, dans lesquels, finalement, le module photovoltaïque sera une fourniture plus ou moins banalisée parmi d'autres.

    LIRE l'article du Jerusalem Post.

    Le 28 Août 2009.

  • La prime à la casse américaine permettra d’économiser une demi-journée par an de consommation d’essence

    La prime à la casse américaine permettra d’économiser une demi-journée par an de consommation d’essence

       Les chiffres du programme américain Cash for Clunkers de 3 milliards de dollars qui vient de se terminer mettent en évidence les formidables réductions potentielles de consommation de carburant que peuvent faire les américains s'ils en ont, bien sûr, la volonté. Les 690114 très vieux véhicules mis à la casse, concernés par ce programme, présentaient une autonomie moyenne de 15,8 miles/gallon, ce qui en divisant 235 par ce nombre (LIRE) conduit à une consommation moyenne de 14,9 litres aux cent km. Ils ont été remplacés par des véhicules présentant une autonomie moyenne de 24,9 miles/gallon soit une consommation de 9,4 litres/cent km. Formidable progrès pour les Etats-Unis! Un calcul simple montre que sur un an de circulation moyenne des véhicules de 12000 miles, ce sont 4,6 millions de barils d'essence qui seront économisés. Cela représente une grosse demi-journée de consommation d'essence de ce grand pays énergivore.

        Ces quelques chiffres illustrent le gâchis d'énergie organisé par les grands constructeurs de véhicules américains et japonais durant les précédentes décennies. La fermeture annoncée de l'usine californienne de Toyota et General Motors marque symboliquement la fin de cette période stupide. Il faut noter que de formidables progrès restent encore à accomplir pour que la consommation moyenne des futurs véhicules américains se rapproche des 6 à 7 litres d'essence aux cent km des limousines modernes. Les Etats-Unis consomment encore 9 millions de barils par jour d'essence. Dans 20 ans, le temps nécessaire pour rénover le parc automobile, si les constructeurs et les consommateurs le décident, cette consommation devrait se situer entre 4 et 5 millions de barils/jour. De quoi réduire les importations américaines et alimenter les consommations croissantes de la Chine et du Brésil.

    Cash-for-clunkers-2009

    Le 28 Août 2009