Blog

  • Poet fait part des bons résultats de son usine pilote de conversion des rafles de maïs en bioéthanol

    Poet fait part des bons résultats de son usine pilote de conversion des rafles de maïs en bioéthanol

    Poet, Société non cotée américaine, est le premier producteur de bioéthanol aux Etats-Unis avec des volumes de plus de 100 mille barils/jour (1,54 milliards de gallons ou 5,8 millions de m3 par an). Son objectif, à l'aide d'un investissement limité, est de modifier la plupart de ses 26 usines pour les rendre aptes à produire une partie de l'éthanol (15 à 20%) à partir de rafles de maïs. Pour cela, il a démarré depuis un an, avec une subvention du DOE, une usine pilote de conversion en alcool des rafles et autres déchets cellulosiques du maïs. Poet fait le point sur l'avancement de ce projet qu'il avoue avoir fait largement progresser.

    Ses efforts ont porté sur les économies d'énergies et sur l'utilisation du biogaz et autres déchets qui assureront la totalité des besoins en énergie de la partie cellulosique et 80% de l'énergie de la partie traditionnelle de ses usines.

    L'autre point important qui bloque l'apparition de bien des projets est le coût des enzymes. Poet assure avoir réussi à réduire le coût de ces additifs indispensables avec son fournisseur.

    Enfin une remise en cause de certaines étapes du process lui permet de réduire ses investissements de 40%.

    Poet-liberty-prix

    L'ensemble de ces actions permettent à Poet d'atteindre un prix de l'éthanol cellulosique de 2.35$/gallon aujourd'hui et de prévoir un prix de 1.90$/gallon en 2011 (FIG.). Pour information, le gallon de fuel éthanol se vend autour des 2,1$/gallon en ce moment.

    Cette démarche d'un grand réalisme qui grâce à un investissement marginal et à l'apport de tous les progrès technologiques réalisés jusque là sur la conversion de maïs en éthanol, va faire de Poet le premier producteur d'alcool cellulosique américain à l'échelle industrielle. Mais ce qui est rentable marginalement ne l'est peut-être pas encore pour les "pure players" de la voie cellulosique, surtout par ces temps d'investisseurs rendus prudents.

    LIRE le communiqué de Poet.

    Le 19 Novembre 2009

  • La dégradation du solde des échanges d’électricité avec nos voisins ne date pas d’hier

    La dégradation du solde des échanges d’électricité avec nos voisins ne date pas d’hier

    RTE vient d'annoncer que le solde des échanges d'énergie électrique avec nos voisins était négatif au mois d'Octobre. Ce qui est surprenant c'est que certains commentateurs semblent surpris par cette nouvelle, alors que nous avons assisté ces dernières années à une dégradation lente et semble-t-il inexorable de cette performance. Ce qui est surprenant c'est que ce passage en négatif soit situé si tôt dans l'année et dans un climat de faible demande (FIG.)

    RTE-solde-échanges-2007-2009

    Cette situation, attribuable à des performances opérationnelles de l'outil de production d'EDF des plus médiocres, montre le dur vieillissement du parc nucléaire français maintenu par des équipes parfois indisponibles.

    Cet état de fait illustre combien dans certaines grandes entreprises, les dirigeants font passer leur passion stratégique avant d'avoir assuré l'excellence opérationnelle de leur boutique. Bien sûr l'Italie, la Grande -Bretagne, les Etats-Unis sont des pays dans lesquels EDF peut faire de grandes choses, mais encore faudrait-il qu'elle sache approvisionner en qualité et en quantité ses clients français et participer un tant soit peu à l'équilibre de la balance commerciale de notre pays.

    Les rodomontades du futur patron de ce Groupe, qui, dans Les Echos, porte jugement sur la médiocrité des performances d'AREVA et lui prescrit une organisation plus morcelée, tombent vraiment mal. Mais il n'est pas sûr qu'EDF ait les moyens des ambitions de son futur patron.

     Le grand risque qui menace toute cette industrie plus ou moins bancale de l'énergie électrique française est le repli  intérieur, au nom du concept totalement ringard de "filière française" (Ouvrez-le ban!). Nos entreprises (AREVA T&D) dans les équipements et les infrastructures d'acheminement et de distribution de l'énergie électrique doivent lutter contre Siemens ou ABB très agressifs et qui sont deux fois plus gros. Une alliance équilibrée avec la partie équivalente de General Electric serait un formidable pas pour faire acquérir la taille mondiale nécessaire à ces activités.

     De même dans l'électronucléaire, les alliances doivent être mondiales pour s'adresser à un marché qui sera majoritairement asiatique et dans lequel les choix sont politiques. Les axes Nippo-américains (GE-Hitachi ou Toshiba-Westinghouse) ou Germano-russe en sont la preuve. AREVA doit s'allier, c'est évident…mais surtout pas avec un Groupe français. Or c'est bien cela qui la menace. Le partenaire tout désigné d'AREVA, le japonais Mitsubishi Heavy Industries, n'attendra pas une ou deux décennies de plus, il trouvera bien plus tôt, grâce à son immense compétence technologique, un autre allié plus disponible et plus perspicace.

    LIRE le papier mensuel de RTE

    LIRE l'article des Echos.

    Le 18 Novembre 2009

  • La technologie CIGS pourrait prendre une large part de marché du photovoltaïque dans les années qui viennent

    La technologie CIGS pourrait prendre une large part de marché du photovoltaïque dans les années qui viennent

    Parmi les technologies d'élaboration de modules photovoltaïques, celle qui dans le futur prendra le dessus, devra concilier deux impératifs: l'un qui est d'assurer une production automatisée des modules sur de grandes surfaces, en utilisant peu de matières, comme c'est le cas des technologies en couches minces, l'autre est de présenter des rendements de conversion tendant vers la barre des 20 % franchie aujourd'hui avec les meilleures technologies utilisant du silicium cristallin comme base (Ex: la technologie HIT de Sanyo). Or la technologie qui est susceptible dans un avenir proche de réaliser sur le papier cette synthèse, c'est la technologie CIGS qui utilise comme couche photosensible de 2 à 3 microns d'épaisseur, un complexe semi-conducteur à base de Cuivre, Indium, Gallium, Sélénium et Soufre. Cette technologie qui résiste très bien au rayonnement ultraviolet, présente la qualité d'absorber la lumière sur un très large spectre (FIG.) ce qui lui permet de pouvoir revendiquer des rendements de conversion qui peuvent se rapprocher des 20% sur de petits échantillons de laboratoire.

    CIS-spectral-sensitivity

    Showa Shell le leader japonais dans la technologie a revendiqué au printemps dernier savoir produire des échantillons de 30 cm de côtés présentant des rendements de 15,7%. Pour l'instant les produits catalogués présentent des rendements de 11% avec des modules de 80W de puissance max pour des surfaces de 1200mm X 600mm. Showa Shell dispose d'une capacité de production de 80MW et son ambition est d'atteindre une capacité proche de 1000 MW grâce à la construction annoncée d'une nouvelle usine de 900MW. Mais pour réussir Showa Shell a besoin d'atteindre des coûts au watt proches de ceux de FistSolar qui par sa technologie en couche mince au tellurure et sulfure de cadmium produit les modules les moins chers du moment, mais potentiellement handicapés par l'utilisation du Cadmium écologiquement black-listé.

    D'autres industriels dans le monde jouent la carte du CIGS tel Solyndra aux Etats-Unis, fortement sponsorisé par les garanties du DOE sur un emprunt de 535 M$ et qui propose des modules réalisés à partir de cellules cylindriques réalisées sur des tubes de verre. Citons également Avancis de Saint-Gobain, Solibro filiale de Q-Cells,Würth Solar, Sunload, Honda Soltec, Ascent Solar, Nano Solar, Global Solar et de nouveaux venus tel que Miasolé qui eux aussi jouent la difficile carte industrielle de la technologie CIGS. Une des options est de produire des modules en continu par dépôt au rouleau, sur des supports flexibles dont certains pourraient être directement incorporés dans des modules-matériaux de construction.

    D'après la banque coréenne Displaybank, la capacité mondiale de production de ces produits qui est d'un peu plus de 300 MW pourrait dépasser les 3000 MW d'ici à 2013, représentant ainsi dans les 20% de part de marché. Mais pour Showa Shell l'objectif dans l'immédiat est d'atteindre un prix de vente de moins de 100 yens/Watt ce qui suppose une maîtrise parfaite d'un outil de production complexe, permettant d'offrir des rendements de conversion supérieurs à 15%, pour des produits industriels de grandes surfaces. A suivre donc.

    Le 18 Novembre 2009

  • Finalisation du plan « Soleil Doré » de soutien aux industries des modules photovoltaïques du gouvernement chinois

    Finalisation du plan « Soleil Doré » de soutien aux industries des modules photovoltaïques du gouvernement chinois

    "Golden Sun" en langage du business, tel est le plan de soutien chinois à son industrie photovoltaïque. Le gouvernement aurait sélectionné 294 projets qui totalisent 642 MW et qui devraient s'étaler sur trois ans. Ce plan représenterait dans les 3 milliards de dollars, donc un peu moins de 5$ par Watt installé. Les aides du Gouvernement ont été fixées à 14 RMB (2$) par Watt pour les modules en Silicium polycristallin et à 9 RMB (1.32$) par Watt pour les modules en technologies en couches minces. Cette information est en phase avec la valorisation à New York de la plupart des cours des actions des Sociétés du photovoltaïque chinois la semaine dernière et qui s'est poursuivie hier (TAB.)

    Chinois-PV-2009-11

    Il faut cependant noter que ces montants d'aides du Gouvernement Chinois apparaissent ridiculement faibles si on les compare aux 41 milliards d'euros que vont devoir débourser les consommateurs allemands sur 20 ans pour soutenir 10 ans d'aventure photovoltaïque dans un pays peu renommé pour son ensoleillement.

    Le 17 Novembre 2009.
     

  • Quelques idées simples pour imaginer l’avenir des productions par technologies de l’industrie automobile

    Quelques idées simples pour imaginer l’avenir des productions par technologies de l’industrie automobile

    L'actualité nous apporte régulièrement des études plus ou moins pertinentes sur l'avenir des technologies électriques dans le marché des futures voitures et autres 4X4, d'ici à quelques décennies. C'est le cas de Transport & Environment qui sort un papier assez roboratif intitulé "How to avoid an electric chock" qui s'inspire lui même d'un rapport Mc Kinsey sorti au mois de mai de cette année. Ce genre de papiers qui essaient de se projeter à 20 ans de là, sans très bien connaître et prendre en compte ce qui se trame dans les bureaux d'études des grands constructeurs automobiles, doit toujours être pris avec beaucoup de philosophie. Alors, plutôt que d'essayer de prédire de façon assez illusoire l'avenir avec une grande précision, il me paraît plus important de dégager les grandes tendances technologiques, économiques et démographiques qui sont susceptibles d'infléchir les choix des équipes marketing de ces grands Groupes automobiles et donc de ceux des futurs consommateurs.

    Tout d'abord cette industrie automobile, gravement percutée par la crise, est confrontée à une nécessaire adaptation de sa gamme de produits aux contraintes énergétiques et environnementales. L'efficacité énergétique et les qualités environnementales des produits proposés seront à la fois un puissant argument de vente et une réponse aux contraintes règlementaires qu'il faut imaginer de plus en plus strictes et planificatrices.

    Le deuxième input va concerner les choix des constructeurs automobiles chinois qui dans leur dialogue avec les leaders du régime en place, risquent d'opter pour des solutions innovantes, forts de leur industrie des batteries et de leurs ressources en lithium et autres terres rares; un saut technologique est possible.

    Le troisième paramètre important est le processus d'urbanisation et de vieillissement des populations qui va s'opposer à l'expansion du parc automobile et à l'utilisation de gros 4X4, à l'exception notable des Etats-Unis qui, en raison de l'espace disponible, constituent un marché à part, totalement différent de celui de l'Asie ou de l'Europe.

    Le quatrième paramètre déterminant pour le futur est la synergie entre énergie photovoltaïque décentralisée, réseau électrique smart et véhicule électrique, que ce soit dans un cadre de vie de type pavillonnaire à l'américaine où dans des parcs de stationnement urbains équipés de stations de recharge alimentées par des modules photovoltaïques.

    Enfin il ne faut pas oublier la voiture pour tous, style Tata Motors. Avec 2000 ou 3000 dollars il est difficile de proposer des technologies de pointe. Marché d'entrée de gamme dont les nuisances seront limitées par la présence de réseaux routiers inadaptés et encombrés, et dont le développement sera contrôlé par les autorités en place. Les 1,5 milliard d'Indiens attendus en 2030 ne pourront pas tous se déplacer en Tatamobile.

    TAB.I : calcul du rendement énergétique du puits à la roue des diverses technologies de traction des véhicules.

    Toyota-energy-by-technology 

    A partir de cette grille de cinq idées forces il est, je pense, possible de rêver le futur. Mais voyons tout d'abord la contrainte énergétique et environnementale. Pour cela de façon très intelligible, ce qui se conçoit bien s'énonçant clairement,  je vous propose de partir d'un tableau d'un industriel qui a un peu réfléchi au problème: Toyota. Ce constructeur décompose classiquement le bilan énergétique des divers modes de propulsion en deux facteurs: l'un qui est le bilan du puits de pétrole ou de gaz au réservoir d'essence ou à la batterie et l'autre qui représente le rendement intrinsèque du véhicule du réservoir à la roue. Pour lire ce tableau il faut partir de la ligne du bas, de la voiture à moteur à combustion interne (ICE). Que nous dit cette ligne? Que le Rendement énergétique moyen pour extraire du pétrole, le raffiner et distribuer l'essence produite est de 84%. Ce rendement n'ira pas en progressant dans le temps compte tenu de la difficulté croissante à explorer et exploiter les champs pétroliers offshore de plus en plus profonds, mais cet effort croissant est en partie compensé par l'amélioration des rendements en carburants des raffineries, aux dépens des résidus lourds peu valorisables. Par contre le rendement du moteur à explosion de papa avec 23% déglingue complètement le bilan énergétique qui ressort à 19%. Les quatre cinquièmes du pétrole exploité partent en chaleur. C'est la voie choisie par la Tatamobile et autres véhicules économiques

    Bien sûr, entre cette solution de base et la version hybride de la ligne du dessus il existe bien des améliorations possibles. Mais l'hybridation couplée à un moteur d'excellent rendement, solution de la Prius, est à ce jour la solution énergétiquement la plus favorable puisque Toyota revendique un rendement énergétique du véhicule de 40% et donc un rendement global du puits à la roue de 34%. Dans ce cas les deux tiers du pétrole exploité sont dissipés en chaleur. Des progrès dans cette option hybride sont encore attendus avec la diésélisation par exemple, mais aussi avec l'allègement des véhicules grâce à l'utilisation de matériaux de type composites à fibres de carbone (LIRE). Il faut donc imaginer, pour des raisons énergétiques et environnementales le futur marché des véhicules à moteur à explosion avec un fort taux d'hybridation de 75 à 80%. A ce jour, 12% des voitures vendues au japon sont hybrides, ce n'est plus une activité marginale.

    Le rapport Mc Kinsey (FIG.II) dans son hypothèse la moins détestable, envisage pour 2030 que sur 61 millions de voitures non électrifiées vendues en 2030 dans le monde, seulement 25 millions seront hybrides. Ceci indique une totale incompréhension de l'impact de la contrainte énergétique. Alors disons plutôt pour 2030 que se vendront dans les 15 millions de Tatamobiles et 46 millions d'hybrides, ce serait plus réaliste, si le marché en volume atteint une telle ampleur, soit 90 millions de véhicules vendus annuellement dans le monde.

    FIG.II  : la répartition de ventes des 90 millions (?) de véhicules par technologies à l'horizon 2030 par McKinsey en 2009. 

    McKinsey-car-mix-2030b

    Mais revenons au Tableau I et passons à la ligne au dessus, celle du véhicule électrique. Nous assistons alors à un chamboulement complet de l'équation. En effet, le rendement interne, de la batterie à la roue, devient excellent, 85% affirme Toyota. Ce rendement du véhicule est appelé à progresser encore en travaillant sur les rendements de l'électronique de puissance, de la batterie, sur la masse du véhicule, sur son isolation thermique, sur son coefficient de pénétration dans l'air, ou en l'équipant de modules solaires à haut rendement. En effet c'est l'autonomie, point faible des EV qui est en jeu. Pudiquement Toyota choisit une génération d'électricité au gaz naturel avec un rendement global de 39% pour que l'ensemble soit juste en dessous de la version hybride.

    Au départ de la mise sur le marché des véhicules électriques qu'ils soient purs EV ou Plug-in Hybrides, les besoins en électricité supplémentaires seront marginaux. Par exemple un parc automobile de la Zone Euro à 10% électrique, à savoir composé de 20 millions de véhicules, consommant annuellement chacune (16000 km X 15 kWh/100 km / 0.8 rendement de charge et pertes en lignes) 3000 kWh, conduira à une consommation d'électricité supplémentaire de 60 TWh. Il faut savoir que la Zone Euro consomme aujourd'hui 2238 TWh d'électricité.

    10% du parc automobile de la Zone Euro électrifié ne consommera, avec 20 millions de véhicules, que 3% de la consommation globale d'électricité.

    Si l'on retient l'hypothèse de McKinsey avec une proportion de voitures électriques dans les ventes de 32% à l'horizon 2030, la Zone Euro se dirigerait alors vers un parc de 65 à 70 millions de voitures électriques qui ne consommeraient que dans les 200 TWh d'électricité par an. Il faut donc bien comprendre que l'électrification du parc automobile ne change pas fondamentalement les besoins en électricité d'un pays développé. Par contre elle change fondamentalement sa consommation en produits pétroliers.

    Il faut donc pour juger des bienfaits ou des inconvénients de l'électrification du parc automobile raisonner en marginal. Par rapport à mon outil de génération d'électricité existant qui crache pas mal de CO2 dira un Grolandais que faut-il que j'ajoute en moyens marginaux de production pour que cette électrification se traduise par zéro émission de CO2 supplémentaire? Il va bien sûr penser aux énergies renouvelables et va utiliser la synergie entre génération photovoltaïque locale et véhicule électrique. Si sur le toit de mon garage j'ai des modules photovoltaïques qui produisent les 20 kWh quotidiens nécessaires à recharger mon véhicule, non seulement je ne consommerai pas d'électricité polluante grolandaise et je ne passerai plus jamais à la pompe. Sans oublier que le Président, en homme politique, fera installer des chargeurs solaires sur les parkings de la Place de la Mairie et, en homme d'affaires, sur les parkings de son Supermarché afin que ses citoyens le réélisent et viennent faire leurs achats chez lui.

    Imaginer ce que sera le marché de la voiture dans le monde en 2030 et au delà nécessite donc d'intégrer l'arrivée massive des énergies renouvelables domestiques qui seront complémentaires du mode de traction électrique en cours de développement.

    Enfin, un petit mot sur l'option  Fuel Cell Hybrid. Selon Toyota qui croit beaucoup à cette technologie pour le futur, elle présenterait un rendement énergétique de conversion du gaz naturel en hydrogène, par reforming catalytique et séparation par membrane, de 67%, quand à la pile à combustible avec un rendement de 59% elle serait donc déchargée à 0.87V par élément en moyenne, ce qui suppose que toutes les pointes de courant seraient absorbées par une grosse batterie en tampon. Le retour à cette solution demande d'abandonner pour un bon bout de temps les énergies renouvelables. Une option pour de grosses voitures de prestige de la marque Lexus?

    Il faut donc imaginer un futur de la bagnole avec un fort taux d'hybridation des véhicules à combustion interne, à l'exception des produits "indiens" d'entrée de gamme. Quand aux gammes électriques elles risquent de devenir majoritaires dans des pays fortement administrés comme la Chine et prendre une part importante du marché dans les immenses métropoles américaines ou les banlieues des villes européennes, mais alors couplées avec une génération domestique photovoltaïque d'électricité. Ces évolutions ne se feront qu'avec des investissements massifs de la profession et de ses sous-traitants et une régulation administrée à long terme des prix de la tonne de CO2 qui ne devra pas dépendre des humeurs fantasques de la spéculation. Il faut donc abandonner les systèmes de marché libre de Cap & Trade, ou les borner par le haut et par le bas comme proposent certains, ce qui revient au même.

    CONSULTER le rapport de T & D et CELUI de McKinsey

    Le 16 Novembre 2009.

  • Une plus grande dissolution du CO2 dans des parties plus fraîches des océans est-elle un paramètre important pour le climat?

    Une plus grande dissolution du CO2 dans des parties plus fraîches des océans est-elle un paramètre important pour le climat?

    Il a été mentionné ici (LIRE) combien certains phénomènes récents pouvaient poser question dans le cadre de l'évolution du climat de notre planète. Deux paramètres apparaissent en particulier: la chute de la fraction atmosphérique du CO2 d'origine fossile (la vitesse d'apparition de CO2 dans l'atmosphère est plus lente que celle de sa formation par les activités humaines mesurables) et  le changement de pente de la courbe du niveau moyen des océans en fonction du temps. Il apparaît intéressant de faire figurer les deux phénomènes sur un même graphique pour illustrer la simultanéité des phénomènes (FIG.I)

    FIG.I : la quasi simultanéité du changement de pente de la croissance du niveau des océans et la variation brusque de la fraction atmosphérique du CO2  posent question.

    Sea-level-aFOSS-relation 

    Entre 1993 et 2002 la fraction atmosphérique (aFOSS) du CO2 émis par les activités humaines mesurables (combustion des énergies fossiles et production de ciment) était de l'ordre de 55 à 56%. A partir de 2003 cette   proportion s'est mise à décroître pour atteindre 49% du CO2 émis en 2008 (FIG.I, gros points noirs). Sept points de variation de ce ratio, pour 33 milliards de tonnes de CO2 émises annuellement, cela représente annuellement dans les deux milliards de tonnes de CO2 absorbés en plus ou relargués en moins par les terres ou les mers.

    Remarque: ce résultat n'est pas pur sucre, il peut être entaché par une modulation des émissions de CO2 liées aux variations d'utilisation des sols (LUC) par l'homme (destruction des forêts tropicales, reboisement, assèchement volontaire de zones humides, extension des zones cultivées, etc.). D'autre part, les climatologues distingués prennent généralement une valeur forfaitaire annuelle de 5,5 milliards de tonnes de CO2 pour quantifier ce paramètre, ce qui a pour effet de faire baisser le fraction atmosphérique qu'ils nomment alors aE. Mais cela ne change pas la nature du problème et aux 2 milliards de tonnes de CO2 perdus. (VOIR la comparaison des deux courbes).

    Durant la première phase du phénomène précédent le niveau moyen des océans s'est élevé selon une loi sensiblement quadratique (courbe verte, R2 =0.88 et moyenne mobile sur 6 mois en noir), puis, à partir de 2003 un changement de pente est perceptible. Pour bien comprendre ce phénomène il ne faut pas oublier que ce niveau des mers est une moyenne mondiale avec des parties des océans qui s'échauffent, comme l'Océan Indien par exemple, et de larges zones dans l'Océan Atlantique et dans l'Océan Pacifique qui se refroidissent.

    Par exemple on a vu en 2008 et surtout cette année la mousson revenir parfois brutalement sur le Sahel, en raison du refroidissement des eaux du Golfe de Guinée, condition nécessaire pour que s'établisse la mousson (FIG. II). En 2007 année calamiteuse de grande sècheresse dans la région, certains avaient déjà enterré la mousson à jamais, au nom du réchauffement climatique. Des précurseurs!

    FIG.II : le retour d'eaux plus fraîches dans le Golfe de Guinée relance la mousson dans le Sahel

    Mousson-golfe-guinée-2005-2009

    Remarque: pour comprendre ce phénomène de mousson africaine on pourra consulter la présentation de Jean-Luc Redelsperger au Collège de France (VOIR)

    On ne peut donc que s'interroger sur la coïncidence des deux phénomènes décrits par la Figure I, en sachant que le rafraîchissement de certaines zones de surface océaniques peuvent accroître l'absorption de CO2 ou inversement dans les zones chaudes faire décroître le relargage du CO2 dissous dans les courants remontant en surface. La disparition de la banquise durant les mois d'été, la plus grande fréquence des pluies sont également des paramètres qui favorisent l'absorption de dioxyde de carbone.

    Ces feedbacks puissants sur le cycle du carbone méritent d'être approfondis à partir de mesures systématiques des teneurs en CO2 dans les eaux de surface. L'absence du satellite OCO de la NASA, qui devait mesurer les teneurs en CO2 sur la surface du Globe et dont le lancement a échoué au début de cette année se fait durement sentir. Le suivi de ces deux pramètres dans les années à venir va permettre d'évaluer si une période de relative stabilité climatique est en train de se former. L'inertie thermique des masses océanes explique la lenteur et le décalage éventuels du phénomène.

    Le 15 novembre 2009.


     

  • Sanyo propose à son tour des batteries clé en main pour des applications d’énergie en tampon ou de puissance pour la  traction

    Sanyo propose à son tour des batteries clé en main pour des applications d’énergie en tampon ou de puissance pour la traction

    Dans la batterie japonaise, Sanyo et Panasonic ont longtemps fait la course, avant qu'un projet d'absorption du premier par le second ne vienne stopper cette redoutable compétition. Mais il est difficile de casser les habitudes au sein des diverses équipes, habituées à vouloir faire toujours mieux que le concurrent d'en face. C'est ainsi qu'après l'annonce de Panasonic de vouloir proposer un pack batterie Li-Ion de 1,5 kWh (LIRE), voici Sanyo qui vient proposer à son tour des produits du même genre. Ce dernier présente deux batteries standards.

    Sanyo-battery – L'une (DCB-101) pour le stockage d'énergie de 1,6 kWh, d'une masse imposante de 19 kg, constitué de 312 éléments 18650 de 1,4 Ah& en configuration 13S-24P. Cet ensemble batterie de 48V, 33,6 Ah équipé de son système de surveillance interne, est un produit clé en main destiné à stocker ou délivrer de l'énergie électrique en tampon avec une source intermittente d'énergie du type module solaire ou éolienne. Il peut être utilisé également dans les applications de secours (back-up) classiques.

    Sanyo-battery-2009-11b – L'autre pack batterie (EVB 101) destiné aux applications de puissance de 0,54 kWh est constitué de 84 éléments 18650 en configuration 14S-6P. Cet ensemble batterie de 50,4V, 10,8 Ah est capable d'être déchargé en continu à 35A (3C) et de fournir des pointes de courant de 120A (3kW). Pour Sanyo ce produit de puissance, d'une masse de 7 kg, est destiné aux applications de type véhicule électrique léger. Il est possible de penser au scooter électrique par exemple.

    Ces nouveaux produits clé en main sont de nature à démocratiser la décentralisation du stockage d'énergie vers les applications domestiques dans le cadre d'une politique de développement d'un réseau électrique "smart". Ils seront disponibles commercialement à partir de Mars 2010.

    LIRE le communiqué de Sanyo.

    Le 15 Novembre 2009


     

  • Les productions nord-américaines de véhicules ont dépassé le million d’exemplaires au mois d’Octobre

    Les productions nord-américaines de véhicules ont dépassé le million d’exemplaires au mois d’Octobre

    Prod-mensuelle-véhicules-NA-2009-10b Les relevés de production de voitures et autres 4X4 sur le Continent nord-américain dévoilent que les productions durant le mois d'Octobre ont dépassé le million d'exemplaires à 1,023 million, ce qui correspond à une capacité d'utilisation de l'outil de production de 64%. Les Trois Grosses américaines qui ont beaucoup maigri, ont produit 52% de véhicules. Les trois japonaises ont assuré 30% des volumes produits. Ce bon niveau global de production devrait se poursuivre au mois de Novembre avec un taux d'utilisation de l'outil de production qui devrait se maintenir vers les 64%. Par contre le mois de Décembre ne semble être chargé, pour l'instant, qu'à hauteur des 51% de ses capacités. La prime à la casse américaine du mois d'Août aura globalement sauvé la fin de l'année de cette industrie.

    Prod-mensuelle-véhicules-NA-2009-10

    Le 14 Novembre 2009
     

  • L’ascension des cours du pétrole stoppée par une demande languissante

    L’ascension des cours du pétrole stoppée par une demande languissante

    Malgré l'arrivée de l'ouragan Ida dans le Golfe du Mexique, de surprenantes prévisions de consommations mondiales croissantes de produits pétroliers en 2010 par l'Energy Information Administration (LIRE), de la grande faiblesse du Dollar Obama, plombé par les dépenses fastueuses de l'Administration américaine et une politique de taux administrés quasi nuls, les cours du pétrole sont restés étonnamment stables durant la semaine (FIG.), nettement au dessous de la barre des 80$ le baril. Il est vrai que de Margerie, le patron de Total, a fait quelques déclarations à sa façon, largement reprises par les agences. Citons Reuters: "Aujourd'hui le prix du pétrole est entre 70 et 80$. Il pourra même demain atteindre 90$. Mais, je vous le dis, si vous regardez l'offre et la demande le prix devrait être plus bas". Type de déclaration de la part d'un patron d'une Major du pétrole dont l'apparente naïve sincérité surprend toujours les milieux économiques anglo-saxons, aux messages beaucoup plus convenus. Les stocks pléthoriques mondiaux, à 70 millions de barils au dessus de la moyenne sur 5 ans, sont toujours en place. Il n'y a donc aucune raison pour que l'OPEP change quoi que ce soit dans sa politique de production très rentable, avec des volumes réels commercialisés au dessus des quotas convenus.

    WTI-USDX-2009-11

    Toutes les conditions sont rassemblées pour que le pétrole, devenu trop vite trop cher, perde pour un temps, son statut d'instrument de couverture contre la baisse du dollar.

    Le 14 Novembre 2009 

  • La prévision climatique: une science en guerre et en plein chamboulement?

    La prévision climatique: une science en guerre et en plein chamboulement?

    Les tribus divisées de climatologues peuvent se distinguer en deux grands blocs: les anciens férus de climatologie cyclique, issus de l'ère glacière, scrutant les taches solaires, convaincus qu'après une phase caniculaire, reviendra une période de frimas et le retour du mammouth laineux sur les rives de la Mer Noire. L'autre bloc, plus jeune, plus actif qui a balayé toutes ces fadaises cycliques et affirme, grâce à l'utilisation de modèles de simulation introduisant les effets des GHG, des aérosols, des nuages et de l'activité volcanique, être en capacité de prévoir l'évolution du climat qui s'avère être …très chaude. Querelle classique des anciens et des modernes comme la Science en a toujours connu. Il n'y a pas si loin, nos grands savants s'accrochaient encore aux ineptes idées de génération spontanée devant les fadaises d'un jeune Pasteur qui à l'aide de ses expérimentations, détruisait toutes leurs théories fumeuses.

    FIG.I : Cycles ou modélisation? Les deux écoles de climatologie s'affrontent.

    Scafetta-2009-l 

    Il y a cependant un hic important dans ce schéma officiel. Les divers outils de simulation utilisés de type Energy Balance Model (EBM) ou de General Circulation Model (GCM) pâtissent d'une faiblesse intrinsèque à l'outil utilisé devant un phénomène d'une très grande complexité, comme le climat: la difficulté d'établir les nombreuses lois physiques qui relient entre eux les divers paramètres. Par exemple, il a été montré sur ce blog de façon très simple (LIRE), combien la proportion atmosphérique de gaz carbonique émis par les activités humaines pouvait largement varier en quelques années. Ceci prouve que le seul cycle du carbone est à lui seul un vaste sous-ensemble de cette problématique, encore largement méconnu où se percutent de nombreux feedbacks et autres interactions. En d'autres termes, il semblerait que l'outil de travail des climatologues de l'IPCC (GIEC) ne soit pas encore à la hauteur des ambitions révolutionnaires de ses Membres. Par analogie, les anciens se souviendront des prévisions économiques catastrophiques du Club de Rome et de son pavé issu en 1972 de travaux de simulation trop ambitieux,"The limit of growth" qui aurait pu s'appeler "Les limites de la simulation".

    Ce constat de faiblesse de l'outil de simulation, Nicola Scafetta de la Duke University de Durham, l'a bien identifié. Il préconise donc d'abandonner l'outil de simulation pour revenir à la démarche empirique, chère aux anciens. Mais ce qui fait la force de Scafetta, c'est sa maîtrise de l'outil mathématique et son aptitude à prendre ce qui est bon dans les résultats des travaux de simulation comme l'impact du volcanisme ou celui de l'ENSO (El Niño-Southern Oscillation). Dans son approche de régression multilinéaire il identifie deux systèmes superposés l'un avec une constante de temps courte de 0,4 an attribuable aux constituants du climat à faible capacité calorifique (atmosphère, nuages, aérosols,…) et l'autre avec une constante de temps longue de 12 + ou – 3 ans attribuable aux océans. En réalisant plusieurs hypothèses sur les variations d'irradiances solaires, jusque là mal mesurées par des satellites différents, Scafetta montre que la composante liée à l'irradiation solaire et ses cycles décennaux joue un rôle encore important dans le réchauffement climatique (FIG.II). C'est la conclusion de ses travaux publiés en Juillet 2009 dans le Journal of Atmospheric and Solar-Terrestral Physics. Selon les hypothèses sur les valeurs d'irradiance totale (TSI), la composante liée aux cycles solaires dans les phénomènes serait encore comprise entre 1/3 et les 2/3 des phénomènes observés. 

    FIG.II : Le modèle de régression multilinéaire, selon les irradiances solaires totales retenues permettent d'expliquer une partie des variations de températures, dépouillées des effets volcaniques et de l'ENSO.

    Scafetta-2009-e

    Certains comme Benestad et Schmidt ont voulu contester la méthodologie de Scafetta, mais ils se sont fait immédiatement et sèchement renvoyer dans leurs buts par ce dernier pour incompétence en mathématiques (LIRE). Les coups volent bas dans la climatologie mondiale.

    Il apparaît donc que le réchauffement climatique observé depuis les trente dernières années est dû à la fois au forçage climatique relié à la croissance de la teneur des GHG mais aussi à des maximum d'irradiance solaire totale (TSI) particulièrement intenses durant les dernières décennies (FIG.III).

    FIG.III : L'Irradiance solaire totale des dernières décennies a connu des maximums très intenses

    Scafetta-2009-k

    A partir de ces observations et de la mise en évidence d'un cycle de 60 ans de l'irradiance solaire qui semble être lié à la variation de la position du soleil par rapport au centre des masses du système solaire. Le climat par effet des radiations solaires selon des cycles de 10, 20, 30 et 60 ans subirait des fluctuations autour d'une courbe quadratique de corrélation qui peut être attribuée au forçage radiatif des GHG (FIG.IV).

    FIG. IV : les variations climatiques dues au cycle solaire de 60 ans se superposent à une évolution quadratique qui rappelle celle de l'évolution de la teneur en CO2 dans l'atmosphère

    Scafetta-2009-i

    On peut l'observer sur la courbe pleine noire en partant du maximum des années 1940 qui va en décroissant jusqu'en 1970, suivie de la forte remontée des températures jusqu'en 2000. Ce cycle de 60 ans est cohérent avec les observations passées mais aussi avec les observations actuelles qui ne montrent depuis 5 ou 6 ans aucun emballement des températures (LIRE). La courbe quadratique de tendance longue sur laquelle cette variation se superpose est cohérente avec l'évolution parabolique des teneurs en bioxyde de carbone dans l'atmosphère (LIRE).

    Cette nouvelle approche de modèle qui consiste à introduire de façon plus objective les variations d'irradiance solaire constitue un perfectionnement évident aux approches actuelles de simulation.

    Il faut donc attendre le modèle qui va faire la synthèse entre ces travaux de Scafetta et le forçage radiatif qui n'a pas disparu et qui, au contraire, va prendre de plus en plus d'importance au cours du temps comme le montre la courbe noire. Si l'approche de Scafetta est correcte cela permet de prédire que le monde va bénéficier d'une fenêtre climatique acceptable jusqu'en 2030, à condition que la parabole sous-jacente ne s'emballe pas trop. Mais à partir de 2030 la phase de croissance va redémarrer de plus belle, il faudra alors que la parabole sous-jacente, reliée aux GHG, ne se soit pas trop exacerbée pour que les prédictions optimistes de Scafetta se réalisent… à peu près.

    En conclusion, ces travaux d'une grande intelligence, où l'on sent Scafetta se moquer de ses collègues de toute évidence moins brillants, allant même jusqu'à la provocation (voir le forecast 2 sur le dernier graphe !), ne sont pas du tout une alternative théorique aux modèles actuels. Ils constituent un perfectionnement important qui met le Soleil à sa place…en plein milieu du problème climatique. Place qu'il n'aurait jamais dû quitter. 

    LIRE le papier de synthèse de Scafetta qui résume l'essentiel de ses travaux.

    Le 13 Novembre 2009