Auteur/autrice : Raymond Bonnaterre

  • Une plus grande dissolution du CO2 dans des parties plus fraîches des océans est-elle un paramètre important pour le climat?

    Une plus grande dissolution du CO2 dans des parties plus fraîches des océans est-elle un paramètre important pour le climat?

    Il a été mentionné ici (LIRE) combien certains phénomènes récents pouvaient poser question dans le cadre de l'évolution du climat de notre planète. Deux paramètres apparaissent en particulier: la chute de la fraction atmosphérique du CO2 d'origine fossile (la vitesse d'apparition de CO2 dans l'atmosphère est plus lente que celle de sa formation par les activités humaines mesurables) et  le changement de pente de la courbe du niveau moyen des océans en fonction du temps. Il apparaît intéressant de faire figurer les deux phénomènes sur un même graphique pour illustrer la simultanéité des phénomènes (FIG.I)

    FIG.I : la quasi simultanéité du changement de pente de la croissance du niveau des océans et la variation brusque de la fraction atmosphérique du CO2  posent question.

    Sea-level-aFOSS-relation 

    Entre 1993 et 2002 la fraction atmosphérique (aFOSS) du CO2 émis par les activités humaines mesurables (combustion des énergies fossiles et production de ciment) était de l'ordre de 55 à 56%. A partir de 2003 cette   proportion s'est mise à décroître pour atteindre 49% du CO2 émis en 2008 (FIG.I, gros points noirs). Sept points de variation de ce ratio, pour 33 milliards de tonnes de CO2 émises annuellement, cela représente annuellement dans les deux milliards de tonnes de CO2 absorbés en plus ou relargués en moins par les terres ou les mers.

    Remarque: ce résultat n'est pas pur sucre, il peut être entaché par une modulation des émissions de CO2 liées aux variations d'utilisation des sols (LUC) par l'homme (destruction des forêts tropicales, reboisement, assèchement volontaire de zones humides, extension des zones cultivées, etc.). D'autre part, les climatologues distingués prennent généralement une valeur forfaitaire annuelle de 5,5 milliards de tonnes de CO2 pour quantifier ce paramètre, ce qui a pour effet de faire baisser le fraction atmosphérique qu'ils nomment alors aE. Mais cela ne change pas la nature du problème et aux 2 milliards de tonnes de CO2 perdus. (VOIR la comparaison des deux courbes).

    Durant la première phase du phénomène précédent le niveau moyen des océans s'est élevé selon une loi sensiblement quadratique (courbe verte, R2 =0.88 et moyenne mobile sur 6 mois en noir), puis, à partir de 2003 un changement de pente est perceptible. Pour bien comprendre ce phénomène il ne faut pas oublier que ce niveau des mers est une moyenne mondiale avec des parties des océans qui s'échauffent, comme l'Océan Indien par exemple, et de larges zones dans l'Océan Atlantique et dans l'Océan Pacifique qui se refroidissent.

    Par exemple on a vu en 2008 et surtout cette année la mousson revenir parfois brutalement sur le Sahel, en raison du refroidissement des eaux du Golfe de Guinée, condition nécessaire pour que s'établisse la mousson (FIG. II). En 2007 année calamiteuse de grande sècheresse dans la région, certains avaient déjà enterré la mousson à jamais, au nom du réchauffement climatique. Des précurseurs!

    FIG.II : le retour d'eaux plus fraîches dans le Golfe de Guinée relance la mousson dans le Sahel

    Mousson-golfe-guinée-2005-2009

    Remarque: pour comprendre ce phénomène de mousson africaine on pourra consulter la présentation de Jean-Luc Redelsperger au Collège de France (VOIR)

    On ne peut donc que s'interroger sur la coïncidence des deux phénomènes décrits par la Figure I, en sachant que le rafraîchissement de certaines zones de surface océaniques peuvent accroître l'absorption de CO2 ou inversement dans les zones chaudes faire décroître le relargage du CO2 dissous dans les courants remontant en surface. La disparition de la banquise durant les mois d'été, la plus grande fréquence des pluies sont également des paramètres qui favorisent l'absorption de dioxyde de carbone.

    Ces feedbacks puissants sur le cycle du carbone méritent d'être approfondis à partir de mesures systématiques des teneurs en CO2 dans les eaux de surface. L'absence du satellite OCO de la NASA, qui devait mesurer les teneurs en CO2 sur la surface du Globe et dont le lancement a échoué au début de cette année se fait durement sentir. Le suivi de ces deux pramètres dans les années à venir va permettre d'évaluer si une période de relative stabilité climatique est en train de se former. L'inertie thermique des masses océanes explique la lenteur et le décalage éventuels du phénomène.

    Le 15 novembre 2009.


     

  • Sanyo propose à son tour des batteries clé en main pour des applications d’énergie en tampon ou de puissance pour la  traction

    Sanyo propose à son tour des batteries clé en main pour des applications d’énergie en tampon ou de puissance pour la traction

    Dans la batterie japonaise, Sanyo et Panasonic ont longtemps fait la course, avant qu'un projet d'absorption du premier par le second ne vienne stopper cette redoutable compétition. Mais il est difficile de casser les habitudes au sein des diverses équipes, habituées à vouloir faire toujours mieux que le concurrent d'en face. C'est ainsi qu'après l'annonce de Panasonic de vouloir proposer un pack batterie Li-Ion de 1,5 kWh (LIRE), voici Sanyo qui vient proposer à son tour des produits du même genre. Ce dernier présente deux batteries standards.

    Sanyo-battery – L'une (DCB-101) pour le stockage d'énergie de 1,6 kWh, d'une masse imposante de 19 kg, constitué de 312 éléments 18650 de 1,4 Ah& en configuration 13S-24P. Cet ensemble batterie de 48V, 33,6 Ah équipé de son système de surveillance interne, est un produit clé en main destiné à stocker ou délivrer de l'énergie électrique en tampon avec une source intermittente d'énergie du type module solaire ou éolienne. Il peut être utilisé également dans les applications de secours (back-up) classiques.

    Sanyo-battery-2009-11b – L'autre pack batterie (EVB 101) destiné aux applications de puissance de 0,54 kWh est constitué de 84 éléments 18650 en configuration 14S-6P. Cet ensemble batterie de 50,4V, 10,8 Ah est capable d'être déchargé en continu à 35A (3C) et de fournir des pointes de courant de 120A (3kW). Pour Sanyo ce produit de puissance, d'une masse de 7 kg, est destiné aux applications de type véhicule électrique léger. Il est possible de penser au scooter électrique par exemple.

    Ces nouveaux produits clé en main sont de nature à démocratiser la décentralisation du stockage d'énergie vers les applications domestiques dans le cadre d'une politique de développement d'un réseau électrique "smart". Ils seront disponibles commercialement à partir de Mars 2010.

    LIRE le communiqué de Sanyo.

    Le 15 Novembre 2009


     

  • Les productions nord-américaines de véhicules ont dépassé le million d’exemplaires au mois d’Octobre

    Les productions nord-américaines de véhicules ont dépassé le million d’exemplaires au mois d’Octobre

    Prod-mensuelle-véhicules-NA-2009-10b Les relevés de production de voitures et autres 4X4 sur le Continent nord-américain dévoilent que les productions durant le mois d'Octobre ont dépassé le million d'exemplaires à 1,023 million, ce qui correspond à une capacité d'utilisation de l'outil de production de 64%. Les Trois Grosses américaines qui ont beaucoup maigri, ont produit 52% de véhicules. Les trois japonaises ont assuré 30% des volumes produits. Ce bon niveau global de production devrait se poursuivre au mois de Novembre avec un taux d'utilisation de l'outil de production qui devrait se maintenir vers les 64%. Par contre le mois de Décembre ne semble être chargé, pour l'instant, qu'à hauteur des 51% de ses capacités. La prime à la casse américaine du mois d'Août aura globalement sauvé la fin de l'année de cette industrie.

    Prod-mensuelle-véhicules-NA-2009-10

    Le 14 Novembre 2009
     

  • L’ascension des cours du pétrole stoppée par une demande languissante

    L’ascension des cours du pétrole stoppée par une demande languissante

    Malgré l'arrivée de l'ouragan Ida dans le Golfe du Mexique, de surprenantes prévisions de consommations mondiales croissantes de produits pétroliers en 2010 par l'Energy Information Administration (LIRE), de la grande faiblesse du Dollar Obama, plombé par les dépenses fastueuses de l'Administration américaine et une politique de taux administrés quasi nuls, les cours du pétrole sont restés étonnamment stables durant la semaine (FIG.), nettement au dessous de la barre des 80$ le baril. Il est vrai que de Margerie, le patron de Total, a fait quelques déclarations à sa façon, largement reprises par les agences. Citons Reuters: "Aujourd'hui le prix du pétrole est entre 70 et 80$. Il pourra même demain atteindre 90$. Mais, je vous le dis, si vous regardez l'offre et la demande le prix devrait être plus bas". Type de déclaration de la part d'un patron d'une Major du pétrole dont l'apparente naïve sincérité surprend toujours les milieux économiques anglo-saxons, aux messages beaucoup plus convenus. Les stocks pléthoriques mondiaux, à 70 millions de barils au dessus de la moyenne sur 5 ans, sont toujours en place. Il n'y a donc aucune raison pour que l'OPEP change quoi que ce soit dans sa politique de production très rentable, avec des volumes réels commercialisés au dessus des quotas convenus.

    WTI-USDX-2009-11

    Toutes les conditions sont rassemblées pour que le pétrole, devenu trop vite trop cher, perde pour un temps, son statut d'instrument de couverture contre la baisse du dollar.

    Le 14 Novembre 2009 

  • La prévision climatique: une science en guerre et en plein chamboulement?

    La prévision climatique: une science en guerre et en plein chamboulement?

    Les tribus divisées de climatologues peuvent se distinguer en deux grands blocs: les anciens férus de climatologie cyclique, issus de l'ère glacière, scrutant les taches solaires, convaincus qu'après une phase caniculaire, reviendra une période de frimas et le retour du mammouth laineux sur les rives de la Mer Noire. L'autre bloc, plus jeune, plus actif qui a balayé toutes ces fadaises cycliques et affirme, grâce à l'utilisation de modèles de simulation introduisant les effets des GHG, des aérosols, des nuages et de l'activité volcanique, être en capacité de prévoir l'évolution du climat qui s'avère être …très chaude. Querelle classique des anciens et des modernes comme la Science en a toujours connu. Il n'y a pas si loin, nos grands savants s'accrochaient encore aux ineptes idées de génération spontanée devant les fadaises d'un jeune Pasteur qui à l'aide de ses expérimentations, détruisait toutes leurs théories fumeuses.

    FIG.I : Cycles ou modélisation? Les deux écoles de climatologie s'affrontent.

    Scafetta-2009-l 

    Il y a cependant un hic important dans ce schéma officiel. Les divers outils de simulation utilisés de type Energy Balance Model (EBM) ou de General Circulation Model (GCM) pâtissent d'une faiblesse intrinsèque à l'outil utilisé devant un phénomène d'une très grande complexité, comme le climat: la difficulté d'établir les nombreuses lois physiques qui relient entre eux les divers paramètres. Par exemple, il a été montré sur ce blog de façon très simple (LIRE), combien la proportion atmosphérique de gaz carbonique émis par les activités humaines pouvait largement varier en quelques années. Ceci prouve que le seul cycle du carbone est à lui seul un vaste sous-ensemble de cette problématique, encore largement méconnu où se percutent de nombreux feedbacks et autres interactions. En d'autres termes, il semblerait que l'outil de travail des climatologues de l'IPCC (GIEC) ne soit pas encore à la hauteur des ambitions révolutionnaires de ses Membres. Par analogie, les anciens se souviendront des prévisions économiques catastrophiques du Club de Rome et de son pavé issu en 1972 de travaux de simulation trop ambitieux,"The limit of growth" qui aurait pu s'appeler "Les limites de la simulation".

    Ce constat de faiblesse de l'outil de simulation, Nicola Scafetta de la Duke University de Durham, l'a bien identifié. Il préconise donc d'abandonner l'outil de simulation pour revenir à la démarche empirique, chère aux anciens. Mais ce qui fait la force de Scafetta, c'est sa maîtrise de l'outil mathématique et son aptitude à prendre ce qui est bon dans les résultats des travaux de simulation comme l'impact du volcanisme ou celui de l'ENSO (El Niño-Southern Oscillation). Dans son approche de régression multilinéaire il identifie deux systèmes superposés l'un avec une constante de temps courte de 0,4 an attribuable aux constituants du climat à faible capacité calorifique (atmosphère, nuages, aérosols,…) et l'autre avec une constante de temps longue de 12 + ou – 3 ans attribuable aux océans. En réalisant plusieurs hypothèses sur les variations d'irradiances solaires, jusque là mal mesurées par des satellites différents, Scafetta montre que la composante liée à l'irradiation solaire et ses cycles décennaux joue un rôle encore important dans le réchauffement climatique (FIG.II). C'est la conclusion de ses travaux publiés en Juillet 2009 dans le Journal of Atmospheric and Solar-Terrestral Physics. Selon les hypothèses sur les valeurs d'irradiance totale (TSI), la composante liée aux cycles solaires dans les phénomènes serait encore comprise entre 1/3 et les 2/3 des phénomènes observés. 

    FIG.II : Le modèle de régression multilinéaire, selon les irradiances solaires totales retenues permettent d'expliquer une partie des variations de températures, dépouillées des effets volcaniques et de l'ENSO.

    Scafetta-2009-e

    Certains comme Benestad et Schmidt ont voulu contester la méthodologie de Scafetta, mais ils se sont fait immédiatement et sèchement renvoyer dans leurs buts par ce dernier pour incompétence en mathématiques (LIRE). Les coups volent bas dans la climatologie mondiale.

    Il apparaît donc que le réchauffement climatique observé depuis les trente dernières années est dû à la fois au forçage climatique relié à la croissance de la teneur des GHG mais aussi à des maximum d'irradiance solaire totale (TSI) particulièrement intenses durant les dernières décennies (FIG.III).

    FIG.III : L'Irradiance solaire totale des dernières décennies a connu des maximums très intenses

    Scafetta-2009-k

    A partir de ces observations et de la mise en évidence d'un cycle de 60 ans de l'irradiance solaire qui semble être lié à la variation de la position du soleil par rapport au centre des masses du système solaire. Le climat par effet des radiations solaires selon des cycles de 10, 20, 30 et 60 ans subirait des fluctuations autour d'une courbe quadratique de corrélation qui peut être attribuée au forçage radiatif des GHG (FIG.IV).

    FIG. IV : les variations climatiques dues au cycle solaire de 60 ans se superposent à une évolution quadratique qui rappelle celle de l'évolution de la teneur en CO2 dans l'atmosphère

    Scafetta-2009-i

    On peut l'observer sur la courbe pleine noire en partant du maximum des années 1940 qui va en décroissant jusqu'en 1970, suivie de la forte remontée des températures jusqu'en 2000. Ce cycle de 60 ans est cohérent avec les observations passées mais aussi avec les observations actuelles qui ne montrent depuis 5 ou 6 ans aucun emballement des températures (LIRE). La courbe quadratique de tendance longue sur laquelle cette variation se superpose est cohérente avec l'évolution parabolique des teneurs en bioxyde de carbone dans l'atmosphère (LIRE).

    Cette nouvelle approche de modèle qui consiste à introduire de façon plus objective les variations d'irradiance solaire constitue un perfectionnement évident aux approches actuelles de simulation.

    Il faut donc attendre le modèle qui va faire la synthèse entre ces travaux de Scafetta et le forçage radiatif qui n'a pas disparu et qui, au contraire, va prendre de plus en plus d'importance au cours du temps comme le montre la courbe noire. Si l'approche de Scafetta est correcte cela permet de prédire que le monde va bénéficier d'une fenêtre climatique acceptable jusqu'en 2030, à condition que la parabole sous-jacente ne s'emballe pas trop. Mais à partir de 2030 la phase de croissance va redémarrer de plus belle, il faudra alors que la parabole sous-jacente, reliée aux GHG, ne se soit pas trop exacerbée pour que les prédictions optimistes de Scafetta se réalisent… à peu près.

    En conclusion, ces travaux d'une grande intelligence, où l'on sent Scafetta se moquer de ses collègues de toute évidence moins brillants, allant même jusqu'à la provocation (voir le forecast 2 sur le dernier graphe !), ne sont pas du tout une alternative théorique aux modèles actuels. Ils constituent un perfectionnement important qui met le Soleil à sa place…en plein milieu du problème climatique. Place qu'il n'aurait jamais dû quitter. 

    LIRE le papier de synthèse de Scafetta qui résume l'essentiel de ses travaux.

    Le 13 Novembre 2009
     
     

      

  • L’EIA pronostique une étonnante reprise des consommations mondiales de pétrole en 2010

    L’EIA pronostique une étonnante reprise des consommations mondiales de pétrole en 2010

     Depuis deux mois consécutifs l'Energy Information Administration, dans son Short-Term Energy Outlook publié mensuellement, revoit à la hausse les pronostics de reprise des consommations mondiales de pétrole en 2010 (FIG.I) qui avec un accroissement de 1,5%, atteindrait 85,4 millions de barils/jour.

    Conso-pétrole-monde-eia-P2010

     Cette publication du mois de Novembre pronostique une reprise de la demande en produits pétroliers des pays NON-OCDE de 1,14 millions de barils/jour dont 0,45 millions pour la Chine (+5.5%), ce qui constitue une valeur haute des accroissements prévisibles pour ce pays. Mais de façon assez étonnante, dans le climat de préparation de la réunion de Copenhague, l'EIA prévoit également un accroissement des consommations des pays OCDE de 0,12 millions de barils/jour dont 0.30 millions pour les seuls Etats-Unis (FIG.II) dont les consommations repasseraient ainsi au dessus des 19 millions de barils/jour.

    Conso-pétrole-monde-eia-b-P2010

     Ces chiffres pour les pays OCDE et plus particulièrement pour les Etats-Unis sont assez déroutants, dans un contexte de valorisation forte des cours du pétrole, de volonté politique de diminution des consommations moyennes en carburants des gammes automobiles et de la montée en production des biocarburants.

     Il y a chez les Agences de prévisions de tous poils une tradition à la hausse des consommations de  pétrole dont elles ont du mal à se dépouiller. Il est certain que de tels chiffres, couplés à la faiblesse du Dollar Obama, vont conforter la spéculation à poursuivre la pression à la hausse sur les cours du pétrole et donc à la baisse mécanique des consommations américaines. A moins que nombreux des opérateurs aient cessé de croire en ces pronostics de peu de valeur, continuellement revus et corrigés.

    VOIR les chiffres du Short-Term Energy Outlook du mois de Novembre.

    Le 12 Novembre 2009

  • L’IEA après avoir souligné l’abondance des ressources de gaz naturel dans le monde ne condamne pas l’usage du charbon

    L’IEA après avoir souligné l’abondance des ressources de gaz naturel dans le monde ne condamne pas l’usage du charbon

    L'Agence Internationale de l'Energie dans son World Energy Outlook 2009, depuis qu'elle a changé de patron, ne se risque plus à de périlleuses prévisions. Elle élabore tout d'abord un scénario de référence par extrapolation des tendances actuelles puis, elle propose ensuite une scénario modifié, plus économe en énergie, qu'elle appelle Scénario 450, qui devrait assurer que les teneurs en CO2 dans l'atmosphère ne dépasseront pas 450 ppm afin de maintenir, selon les théories actuelles, l'accroissement moyen de température de la planète aux environs de 2°C (FIG.I).

    FIG.I : émissions de CO2 dues à la combustion des énergies fossiles dans le scénario de référence et dans le scénario 450 ppm de l'IEA

    IEA_WEO2009_CO2-abatement 

    Ce scénario suppose qu'en 2020, si les actions proposées par l'IEA sont suivies par les politiques, les émissions de CO2 à 30,7 milliards de tonnes seront réduites de 3,8 milliards de tonnes par rapport à celles du scénario de référence. Dans ce bilan de réduction des émissions de bioxyde de carbone, les mesures d'amélioration de l'efficacité énergétique qui représentent 2,5 milliards de tonnes se taillent la plus grosse part. Cependant il est un nombre très choquant dans cette analyse ce sont les maigres 233 millions de tonnes de CO2 économisés par les gains de rendements dans les centrales électriques. Ce chiffre n'est pas à la hauteur des 13 à 14 milliards de tonnes de CO2 largués annuellement dans l'azur par les centrales électriques à flamme.

    Un examen plus attentif des hypothèses de l'Agence montre que, dans son scénario 450, la consommation de charbon poursuit allègrement sa croissance pour dépasser les 3,5 milliards de TEP entre 2013 et 2020 (FI.II, courbe marron) alors que la consommation de gaz naturel (courbe parme) croît certes, mais de façon mesurée, pour plafonner à 3 milliards de TEP vers les 2025.

    FIG.II : la consommation de charbon dans le scénario vertueux de l'IEA poursuit sa croissance jusqu'en 2015 alors que la consommation de gaz naturel ne croît que de façon modérée

    IEA_WEO2009_450scenario

    Cette timidité dans l'utilisation du gaz naturel est d'autant plus choquante que par ailleurs l'IEA rappelle les énormes ressources de cette forme d'énergie primaire tant sous la forme conventionnelle (FIG.III) que sous la forme de ressources nouvelles atypiques comme les gaz des schistes bitumineux (shale gas), de houille (coal bed methane) ou de sables compacts (tight gas) très abondants aux Etats-Unis. 

    FIG.III : l'humanité n'a consommé que 14% des ressources ultimes estimées de gaz naturel conventionnel

    IEA_WEO2009_natural-gas

    Ce scénario 450 supposé vertueux de l'IEA semble donc largement maculé de noir de charbon. Volonté de l'institution de ne pas vouloir prendre à rebrousse poil ses puissants sponsors que sont les Etats-Unis, l'Allemagne ou le Japon gros consommateurs de charbon. Il y a sûrement de cela.

    Enfin notons la grosse maladresse de l'Agence qui dans les efforts demandés met la Chine, avec 1,2 milliards de tonnes de bioxyde de carbone, en premier contributeur et les Etats-Unis en second à moins de 0,8 milliards de tonnes à l'horizon 2020 (FIG.IV). Bien que ceci soit mesuré par une courbe en forte croissance pour la Chine, il y a là une présentation destinée à faire échouer les négociations à Copenhague. On ne peut pas imaginer mieux! Les Etats-Unis et plus globalement les pays de l'OCDE doivent apparaître en tête du mouvement pour espérer de voir suivre la Chine et l'Inde. Pour l'instant, d'après le représentant du Premier Ministre indien à Copenhague, il n'y aurait aucune chance de signer quoi que ce soit.

    FIG.IV : l'IEA demande un effort à la Chine disproportionné par rapport à celui demandé aux Etats-Unis

    IEA_WEO2009_abatement-key-emitters

    LIRE l'Executive Summary du WEO 2009

    Le 11 Novembre 2009

     
     
     

  • Siemens prend commande de quatre gazéifieurs de 500MW pour une future centrale IGCC dans l’Illinois

    Siemens prend commande de quatre gazéifieurs de 500MW pour une future centrale IGCC dans l’Illinois

    Gazéfieur-Siemens-500MW-40bars Siemens Energy vient de recevoir une commande, de la part de l'américain Tenaska, pour 4 gazéifieurs de 500MW qui seront alimentés au charbon. Ces unités (FIG.) qui peuvent engloutir quotidiennement 2000 tonnes de poudre de charbon chacune seront destinées, entre autres, à alimenter en syngas (CO + H2) une centrale électrique de type IGCC (Integrated Gas Combined Cycle) pour le Teylorville Energy Center situé dans l'Illinois. Cette unité qui devrait produire 700 MW de puissance électrique, devrait être équipée d'une unité de captage et de séquestration (CCS) destinée à piéger au moins 50% du CO2 produit lors de la formation du syngas et de sa conversion en mélange CO2 + H2. Ce taux de captage amènerait le niveau de rejets de CO2 vers celui d'une centrale au gaz naturel. Elle devrait être opérationnelle en 2014. Mais il n'est pas dit qui sera en charge de la réalisation de la partie CCS qui pourtant est la moins bien maîtrisée du process à ce jour. 

    Le projet devrait bénéficier d'une garantie de prêt de la part du DOE américain à hauteur de plus de 2,5 milliards de dollars.

    LIRE le communiqué de Siemens et DECOUVRIR que pour un industriel allemand un gazéifieur de charbon est un équipement "environnemental".

    Le 10 Novembre 2009.

  • Shell se débarrasse de sa participation dans Choren, le chantre allemand des procédés biomass to liquid

    Shell se débarrasse de sa participation dans Choren, le chantre allemand des procédés biomass to liquid

    Depuis l'inauguration des nouvelles installations de production de Choren par la Chancelière Merkel (LIRE) et des promesses d'engagement de Rob Routs Directeur Exécutif de Royal Dutch Shell en Avril 2008, il s'est passé bien des choses dont un effondrement des cours du brut et une crise économique qui n'ont pas épargné les pétroliers. L'heure est donc venue à des modes de gestion plus réalistes et plus économes. Alors, rien d'étonnant lorsqu'on apprend que Shell Deutschland Oil vient de vendre sa participation dans Choren. La Société Choren c'est le leader allemand des procédés Biomass to Liquid (BTL) avec un fichu procédé, sorte de Fischer Tropsch, amélioré par Shell, mais alimenté avec de la paille ou des copeaux de bois. Tout un symbole pour une Allemagne verte. Le défaut majeur de cette voie très complexe est son inadaptation à de petites unités agricoles, impératif économique dicté par les contraintes de logistiques dans une Europe agricole morcelée et largement exploitée par ailleurs. Les biocarburants seront agricoles, produits par des procédés très simples, de tailles adaptées au canton ou au county ou ne seront pas. La nouvelle est un coup dur pour cette entreprise allemande.

    Choren-process

    LIRE le communiqué de Choren.

    Le 9 Novembre 2009
     

  • Renault ou les contraintes d’un transfert de technologie dans la construction de batteries pour véhicules électriques

    Renault ou les contraintes d’un transfert de technologie dans la construction de batteries pour véhicules électriques

    Renault a annoncé la semaine dernière que l'Etat Français représenté par le FSI et le CEA (?), allait l'aider à industrialiser sur le site de Flins la production et le recyclage de batteries pour ses futurs véhicules électriques. Les montants financiers annoncés pour ce projet sont assez importants puisque 600 millions d'euros ont été évoqués pour une première phase et qu'il a été question d'un coût global de 1,5 milliards d'euros. Cela ressemble donc à un projet ambitieux qui ne peut qu'aider les industries françaises à entrer dans les technologies du XXIème siècle et qui verront l'électricité prendre le pas, comme vecteur énergétique, dans les transports routiers et les habitations, avec le développement d'un mix énergétique européen à base de photovoltaïque, d'éolien, de nucléaire et de centrales électriques au gaz naturel. Seule voie raisonnable pour atteindre une réduction par trois les émissions de dioxyde de carbone.

    FIG.I : une batterie Renault-Nissan est constituée par assemblage de modules rigides, chacun  contenant 4 éléments de 35 Ah (2S2P) de technologie polymère

    Renault-Nissan-polymer-battery

    C'est donc un beau et grand projet. Mais pour comprendre ce qu'il peut représenter de difficultés, il faut entrer dans le détail des grandes étapes d'un processus complexe de fabrication qui va être rappelé. La production de batteries de type Lithium-Ion polymère pour la traction électrique qui est le choix de Renault-Nissan, nécessite un parcours qui va de la chimie des matériaux, à la mécanique d'assemblage, au traitement électrique des accumulateurs et à l'électronique de contrôle associée. On peut distinguer les grandes étapes suivantes:

    1. l'élaboration des matériaux: supports d'électrodes, matières électrochimiquement actives, liants, additifs conducteurs, matériaux pour séparateur, enveloppe multicouche d'accumulateur, agents de scellement et d'étanchéité, etc. Ces produits, parfois d'une grande complexité, sont réalisés chez des sous-traitants dont les connaissances sont à la base de la réussite de tout projet. Ils sont bien souvent japonais ou plus largement asiatiques, membres importants et souvent ignorés du cluster de la Batterie Asiatique.
    2. la production d'électrodes par rouleau transfert, évaporation et calandrage en continu sur une feuille d'aluminium ou de cuivre d'un mélange liquide qui a été auparavant élaboré (slurry process).
    3. le traitement de surface d'électrode avec apport du matériau qui formera avec l'électrolyte, le polymère gélifié séparateur des deux électrodes.
    4. l'assemblage, en salle sèche, du faisceau d'électrodes, la mise en sachet aluminium souple, l'ajout d'électrolyte organique, le scellement de l'accumulateur.
    5. la formation électrique individuelle et la mesure exacte de la capacité de chaque accumulateur. Cette étape nécessite de lourds investissements en génération-régulation de puissance électrique et acquisition de données
    6. la constitution en boîtier rigide de modules de 500 Wh constitués de 4 accumulateurs (2S2P, LIRE).
    7. l'assemblage de la batterie définitive dans un boîtier rigide avec son connectage, son électronique de surveillance et d'équilibrage (Battery Management System ou BMS), ainsi que divers organes de sécurité. La partie électronique complexe provient de chez un fournisseur, élaborée à partir du cahier des charges du concepteur de la batterie.

     La production de batteries sur un site peut donc se décliner de multiples façons selon nombre d'étapes concernées en partant de l'amont.

     Dans le cas de Nissan aujourd'hui les étapes 4 à 7 de production d'accumulateurs, de modules et de batteries sont réalisées chez AESC une JV 51/49 entre Nissan et NEC. Par contre l'étape 2 et probablement l'étape 3 qui concernent la production et le traitement de surfaces des électrodes sont réalisées chez NEC-Tokin qui a mis au point la technologie. Cette entreprise du Groupe NEC est maintenant spécialisée dans la production d'électrodes. Elle vient de revoir ses objectifs à la hausse, indique le Nikkei, avec la mise en place d'une capacité de production d'électrodes pour 100 mille batteries d'ici à la fin Mars 2011.

     Le Groupe Renault, en signant un accord avec sa filiale indirecte AESC, n'a pu obtenir le know-how et les droits que sur ces étapes de 4 à 7 qui ne constituent donc qu'une partie du procédé. Par la suite pour maîtriser la totalité du procédé en France il faudra soit que NEC-Tokin vienne installer un atelier de production d'électrodes en France, soit envisager le développement d'une filière nationale de production et de traitement d'électrodes sous les conseils avisés du CEA qui, on ne sait pourquoi, a toujours bidouillé dans les générateurs électrochimiques. Ce dernier assure travailler activement sur la filière phosphate de fer (LIRE la plaquette "batteries électriques" de Septembre 2009).

    Les grandes étapes du projet d'intégration par Renault peuvent donc s'imaginer de la façon suivante:

    1- assemblage de batteries à partir de modules provenant du Japon

    2- intégration de l'assemblage des éléments, leur formation électrique et la réalisation de modules, à partir d'électrodes provenant du Japon

    3- construction d'un atelier de production et de traitement d'électrodes

    4- construction d'un atelier de recyclage des batteries usagées

    Ces précisions illustrent la difficulté d'un processus de rattrapage technologique qui va demander beaucoup d'argent et beaucoup d'efforts pour un résultat qui ne risque que d'être partiel. Mais c'est la seule voie sérieuse, à partir d'une technologie japonaise, qu'à notre pays pour relever à terme le défi des batteries Li-Ion polymères.

    Le 9 Novembre 2009