Les crises et la confiance

Pourquoi nous soucions-nous des cycles économiques? En 1985, Robert Lucas a fait valoir que le coût de la volatilité macroéconomique pour le bien-être est très faible – et que les économistes devraient donc se concentrer sur la croissance à long terme plutôt que sur les politiques de stabilisation. Il a mis à jour ses calculs en 2003 en utilisant les données américaines de 1947 à 2001 et est arrivé aux mêmes conclusions – le coût des fluctuations de la tendance de consommation à long terme s’élève à seulement 30 $ par habitant et par an.
En revanche, les coûts des cycles économiques peuvent ne pas se limiter à la volatilité de la consommation actuelle. Par exemple, ceux qui ne trouvent pas d’emploi pendant la récession subissent un choc négatif sur leur capital humain; cela peut avoir des répercussions durables sur leur productivité tout au long de leur carrière (par exemple, Kahn 2010 constate un effet important, négatif et persistant de l’obtention d’un diplôme universitaire pendant une récession).
Un autre coût à long terme de la récession est son impact durable sur les préférences et les valeurs qui peuvent à leur tour affecter négativement les décisions économiques et politiques. Par exemple, Giuliano et Spilimbergo (2014) montrent que les Américains qui grandissent en récession sont plus susceptibles d’avoir des valeurs pro-redistribution que ceux qui grandissent dans les bons moments. Malmendier et Nagel (2007) montrent que les individus qui ont connu des temps meilleurs en termes de rendements boursiers sont moins opposés au risque.
La crise en Russie et ses effets sur la confiance
Dans notre récent article (Ananyev et Guriev 2015), nous constatons que les crises peuvent également avoir un effet immédiat, substantiel et durable sur la confiance interpersonnelle.1 La confiance est l’un des concepts centraux des sciences sociales modernes. Il est important pour la responsabilité politique (Nannicini et al. 2010), pour l’efficacité du système judiciaire (La Porta et al. 1997), pour le développement financier (Guiso et al. 2004) et la croissance économique (Tabellini 2005, Algan et Cahuc 2010).
C’est pourquoi il est important de comprendre ce qui détermine la confiance elle-même. De nombreux chercheurs ont fait valoir que la confiance peut avoir des racines historiques profondes. Par exemple, Putnam (1994) a affirmé que les différences de capital social (et, par conséquent, de qualité de la gouvernance) entre le nord et le sud de l’Italie peuvent s’expliquer par des différences de régimes politiques remontant au 11e siècle. Nunn et Wantchekon (2011) font le lien entre le faible niveau de capital social dans certains pays africains et l’héritage de la traite négrière.
Dans notre article, nous montrons que s’il semble réaliste de supposer que le stock de capital social dépend de la trajectoire, il peut également réagir aux événements économiques récents. En particulier, nous étudions l’effet de la crise économique de 2008-09 sur la confiance en Russie. En Russie, le PIB a baissé de 8% de 2008 à 2009. La contraction a été rapide. Au quatrième trimestre de 2008, le PIB a diminué de 19% en termes annuels et au premier trimestre de 2009, le PIB a diminué de 17% en termes annuels.
Les régions russes ont varié dans leur expérience de la crise. Dans certains d’entre eux, le PIB a baissé de 20%, tandis que dans d’autres, le PIB a en fait augmenté de 1%. Pourquoi l’effet de la crise était-il si différent selon les régions? L’impact de la crise dépendait de la structure industrielle des régions. Les régions avec une part plus importante d’industries lourdes et de production de pétrole ont connu des baisses de revenus plus importantes. Comme dans toute récession, l’investissement a souffert plus que la consommation. La figure 1 montre qu’en 2008-2009, l’investissement a diminué de plus de 50% alors que la consommation n’a diminué que de 6%. Sans surprise, les producteurs de biens d’équipement ont dû faire face à une chute spectaculaire de la demande. Et, comme les prix mondiaux du pétrole se sont effondrés d’un facteur trois pendant la crise, l’industrie du pétrole et du gaz a également baissé de 40%. Dans le même temps, les industries de biens de consommation et les services n’ont connu qu’une baisse modérée voire ont continué de croître.
La baisse du PIB s’est accompagnée d’une forte baisse de la confiance interpersonnelle. Dans l’enquête représentative régionale que nous utilisons dans notre article, la confiance en Russie est passée de 34% au deuxième trimestre 2008 à seulement 19% en 2009. La baisse de confiance était, bien entendu, plus importante dans les régions où la PIB. Cependant, cette corrélation n’est pas informative en soi car la baisse du PIB elle-même aurait pu être endogène à la baisse de la confiance.
Afin de résoudre le problème de l’endogénéité, nous devons trouver un instrument pour la baisse du PIB – un facteur qui affecterait la chute du PIB pendant la crise mais n’affecterait pas directement le changement de confiance. Nous utilisons la structure de l’économie régionale héritée de l’époque soviétique (à savoir les données du dernier recensement industriel soviétique de 1989). Les régions qui se spécialisaient dans le pétrole ou la production de biens d’équipement il y a 25 ans continueront probablement de le faire. C’est donc probablement eux qui souffriront le plus pendant la crise.
La variation de la composition des économies régionales est héritée de l’industrialisation soviétique et est donc exogène aux événements de 2008-09. Nous utilisons la composition de l’ère soviétique de l’économie régionale pour prédire la baisse du revenu en 2009. Nous utilisons ensuite la baisse prévue du revenu pour mesurer l’impact du revenu régional sur la confiance. Nous constatons que l’effet du changement de revenu sur le changement de confiance est statistiquement significatif et de grande ampleur. En contrôlant d’autres déterminants conventionnels de la confiance, nous montrons qu’une baisse de 10% du revenu est associée à une diminution de cinq points de pourcentage de la proportion de répondants qui disent que la plupart des gens peuvent faire confiance (figure 3). Pour la Russie, c’est un effet important étant donné que le niveau moyen de confiance est de 25%.
La destruction du capital social est-elle persistante? Pour répondre à cette question, nous avons inclus la question de confiance dans l’enquête réalisée dans les mêmes régions en avril 2014 en utilisant la même stratégie d’échantillonnage. Début 2014, le PIB russe était encore plus élevé qu’avant la crise. Ainsi, si l’effet des chocs de revenus sur la confiance est transitoire, nous ne devons trouver aucune preuve de l’effet de la crise sur le changement de confiance entre 2008 et 2014.
Nous avons constaté des différences importantes dans la dynamique de confiance après la crise entre les régions où la baisse initiale de confiance avait été faible ou modérée et les régions où la baisse initiale de confiance avait été élevée. Dans le premier ensemble de régions, la confiance a retrouvé son niveau d’avant la crise. Dans le deuxième ensemble de régions, le niveau de confiance était toujours inférieur de 10 points de pourcentage en 2014 à celui de 2008.

Appréhender le changement climatique

Le réchauffement climatique est un sujet très crucial et une conférence mondiale a de nouveau été organisée, avant le sommet de la COP, pour évaluer la signification du réchauffement climatique. Par définition, le réchauffement climatique est définitivement la personnalisation occasionnelle de l’environnement terrestre en raison de modifications du climat et des relations entre l’ambiance et d’autres éléments géologiques, chimiques, biologiques et géographiques du système terrestre. Tous les problèmes vivants répondent à l’environnement et aux modifications de la météo, même si ces modifications sont délicates et momentanées. Bon nombre des exemples les plus apparents comprennent la perte de feuillage par les plantes en fleurs lorsque la disponibilité en eau normale est réduite et les comportements de protection et de dormance chez les créatures répondant à des problèmes plus froids ou plus secs. Il semble que la vie sur la planète soit adaptée pour tolérer une altération du temps dans certaines études, et cela prouve que les modifications de l’environnement, mais notre propre expérience de la météo tout au long de notre vie, en plus des enregistrements scientifiques, montre également que le changement climatique se produit . D’un point de vue spécifique, la météo quotidienne pourrait être considérée comme une sorte de réchauffement climatique. Les conditions changent de bas en haut au cours de la matinée; vitesse et trajectoire de changement du vent; et les précipitations et les chutes de neige traversent divers endroits au cours de chaque journée. Même si nous sommes capables de ressentir chacun de ces phénomènes, ce type d’ajustements ponctuels est souvent mis en place en dehors du dialogue sur le climat. Le climat est la liste des circonstances atmosphériques à un seul endroit à une seule période de temps minimale. L’environnement implique néanmoins la situation régulière de l’environnement s’étendant sur une longue période (y compris sur plusieurs générations ou plus) avec une zone donnée. Chaque endroit du monde rencontre des variations météorologiques saisonnières (bien que le mouvement puisse être mineur dans certaines régions chaudes), et cette variation est due à des altérations saisonnières du volume de soleil (rayons solaires) créant l’ambiance et la surface de la Terre. Des ajustements climatiques de 12 à 12 mois ont également lieu; ils comprennent les sécheresses, les inondations, ainsi que d’autres occasions la conséquence d’une sélection complexe d’aspects et de relations avec le système planétaire, tels que les styles de circulation atmosphérique et océanique (tels que El Niño, La Niña, l’oscillation vers l’Atlantique nord, séminaire entreprise etc.). -qui affectent les routes des trajectoires des tempêtes et les actions des masses de flux d’air. Des variantes de l’environnement se produisent également à des échelles de temps qui durent des générations, avec des grappes de problèmes humides, desséchés, graves ou confortables qui s’étalent sur une longue période consécutive pour des endroits donnés. À des échelles de milliers d’années au cours des vies humaines, le climat réagit à la précession (rotation lente ou «oscillation») de l’axe de la Terre, à l’inclinaison de la planète (obliquité), ainsi qu’aux changements de la forme elliptique (excentricité) de l’orbite terrestre. . Ces phénomènes se connectent les uns aux autres pour déterminer le niveau d’ensoleillement (et donc le système de chauffage à énergie solaire) que diverses parties de la surface de la Terre reçoivent au cours de différentes périodes de l’année. Nous devons également tenir compte du fait que le volume d’énergie dynamique que le monde reçoit du soleil augmente lentement, ce qui ajoute de plus en plus d’énergie au mélange au fil du temps.

En finir avec les troubles de la parole

Une conférence importante a été structurée pour se concentrer sur l’état de la parole qui fait partie des conditions qui nuisent à la conversation des êtres humains. La communication de l’être humain repose principalement sur la faculté de la parole, aggravée par la création de sons spécifiques, chacun ayant un sens distinctif. La conversation des êtres humains est extraordinairement compliquée, constituée d’ondes sonores d’une gamme variée de fréquences, d’intensités et d’amplitudes qui expriment des informations spécifiques. Le développement et la réception de ces sons nécessitent un programme auditif et auditif fonctionnant correctement, ainsi que des structures de chant et de production de sons intactes et saines, y compris le larynx, la bouche et les lèvres. L’interaction vocale peut être rendue difficile ou extrêmement difficile par des difformités dans les bâtiments physiques utilisés dans la conversation et la création du son ou par des troubles affectant les régions du cerveau qui traitent la conversation et le son. Aux États-Unis, les données du début du XXIe siècle rassemblées par l’Institution nationale sur la surdité et d’autres problèmes de communication indiquent qu’environ 5 % des enfants des États-Unis avaient des troubles de la parole détectables à l’âge de six ou sept ans. Environ 7,5 mille citoyens américains ont été découverts incapables de parler normalement. Les conditions d’articulation chez les jeunes enfants étaient régulières. Des recherches en Allemagne, en Autriche et dans d’autres pays d’Europe centrale suggèrent que l’incidence et la prévalence des troubles de la conversation dans ces pays s’en tiennent à des schémas similaires à ceux observés dans d’autres pays occidentaux traditionnels. Vous trouverez cependant des écarts par rapport à ces tendances. Par exemple, l’occurrence de la fente palatine est très élevée chez les citoyens américains locaux, organisation de séminaire alors qu’elle est beaucoup plus faible chez les Noirs que chez les Blancs. Des études sur le bégaiement qui se sont concentrées sur des communautés particulières, telles que les Américains, les Européens et les Africains, ont indiqué que la prévalence du trouble parmi ces populations est extrêmement variable. Cependant, la généralisation des données montre qu’environ 2,5 % des enfants de moins de cinq ans sont affectés par le bégaiement. Pour quelques conditions de parole, des informations fiables sur la fréquence et la distribution mondiales font défaut. Selon les facteurs physiologiques, les conditions d’interaction sont d’abord classées en conditions de respiration vocale et phonique, troubles de la conversation articulée et conditions de vocabulaire. Il est reconnu depuis longtemps que presque tous les troubles de la communication ne sont pas causés par des lésions cutanées locales de la dent, de la langue, des cordes chantantes ou des centres mentaux régulateurs. Parce que ces conditions prédominantes de la parole et de la parole se développent à partir de dérangements des caractéristiques physiques fondamentales de la respiration, de l’utilisation de la parole, des habitudes de parole ou des conditions émotionnelles, ce groupe a été qualifié de pratique. Le reste des conditions d’interaction avec des irrégularités structurelles clairement identifiables dans l’ensemble du système vocal a été qualifié d’organique. Bien que ce regroupement empirique ait des effets spécifiques pour la sélection du traitement approprié, il n’est pas acceptable car le cadre organique et la fonctionnalité résidante ne seront jamais divisés. Certaines conditions fonctionnelles de la voix provoquées par son abus habituel peuvent très bien entraîner des modifications structurelles supplémentaires, telles que les excroissances (polypes et nodules) des cordes chantantes, qui se construisent à la suite d’un abus vocal. Cependant, toutes les lésions manifestement organiques et architecturales, comme la perte de la langue à la suite d’un accident ou d’un traitement chirurgical, seront presque inévitablement accompagnées de réactions psychologiques et autres réactions mentales. Dans ce cas, les composants fonctionnels sont de nature complémentaire mais impacteront dans une certaine mesure l’ensemble de l’image de la perturbation, y compris la capacité du patient à s’adapter à la limitation, à réapprendre un nouveau mode de fonctionnalité adapté et à tirer le meilleur parti de son problème. A l’intérieur de ces groupes significatifs, les diverses conditions d’interaction ont été pendant longtemps, ainsi que dans la plupart des composantes du monde, expliquées par la perception perceptive de l’auditeur. La plupart des dialectes emploient des termes particuliers pour vos divers discours irréguliers, comme le bégaiement, le bégaiement, le désordre, le marmonnement, le zézaiement, le chuchotement et bien d’autres. Le problème avec de telles étiquettes subjectives et symptomatiques est le fait qu’elles tentent de définir le résultat final, perceptible, la tendance identifiable, et en aucun cas le calendrier réel. Cette propension générale de l’être humain à expliquer les troubles de l’interaction avec ce que l’auditeur entend est analogue aux efforts des médicaments antérieurs pour catégoriser les maladies à partir des symptômes du patient que le médecin diagnostique pouvait voir ou écouter ou vraiment ressentir ou peut-être sentir.

Conférence: le cycle de l’eau pour ralentir le changement climatique

Une nouvelle étude menée par des scientifiques de la Rosenstiel School of Marine and Atmospheric Science de l’Université de Miami (UM), en collaboration avec des scientifiques de l’Université de Princeton, montre que l’intensification du cycle hydrologique mondial entraîne une plus grande absorption de la chaleur des océans dans l’océan profond et modère la rythme du réchauffement climatique.

En raison du réchauffement climatique, le cycle mondial de l’eau s’intensifie et, par conséquent, les régions humides deviennent de plus en plus humides et les régions sèches deviennent plus sèches. Les chercheurs ont découvert que cette intensification se reflète également dans la salinité des océans. L’augmentation de la salinité de la surface des océans dans les régions salées, telles que les océans subtropicaux, conduit à une eau de mer plus dense et à une plus grande absorption de chaleur dans l’océan profond. L’augmentation du taux d’absorption de chaleur par les océans réduirait le taux de réchauffement de la surface.

« Nous avons découvert un nouveau mécanisme qui influence le taux de réchauffement climatique grâce à une série d’expériences de modèles climatiques », a déclaré Maofeng Liu, chercheur postdoctoral à l’UM École Rosenstiel, 100% Voyage Département des sciences de l’atmosphère. « La bonne correspondance entre les simulations de modèles climatiques et les observations au cours des dernières décennies suggère que les changements de salinité dus au réchauffement induit par l’homme contribuent probablement à améliorer l’absorption de chaleur par l’océan. »

Pour mener l’étude, les chercheurs ont utilisé un modèle climatique mondial pour mener deux séries d’expériences. Dans la première série d’expériences menées comme référence, ils ont augmenté la concentration de dioxyde de carbone atmosphérique d’un pour cent par an jusqu’à ce qu’elle double. Dans la deuxième série d’expériences, ils ont répété la première expérience mais ne permettent pas à la salinité de surface de répondre aux changements du cycle hydrologique global induits par le CO2. Les résultats différents des deux séries d’expériences mettent en évidence l’impact des changements du cycle de l’eau sur l’absorption de chaleur par les océans et le changement climatique transitoire.

Le réchauffement climatique dû à l’émission de gaz à effet de serre dans l’atmosphère augmente le niveau de la mer et entraîne des tempêtes plus fréquentes et plus intenses, sécheresse et incendies de forêt.

« Prédire le taux de réchauffement climatique reste un défi », a déclaré Liu. « Cette étude a trouvé un nouvel impact sur le taux de réchauffement climatique. »

Une convention sur le futur de l’automobile

Les voitures électriques (VE) sont un élément important de la façon dont nous allons réduire les polluants qui transforment le climat, la pollution de l’air et la consommation d’essence. Sont-ils le seul moyen de réduire la pollution des transports individuels ? Bien sûr que non. Les véhicules électriques sont essentiels, mais nous devrions également être prudents quant à l’utilisation de la conception urbaine, des transports et de la flexibilité partagée pour réduire la quantité de déplacements provenant de tous les véhicules. Cependant, un récent article du U.S. News And Planet Report place les véhicules électriques dans une fausse compétition en utilisant ces autres techniques, tout en répétant les idées fausses concernant les effets écologiques des véhicules électriques. En règle générale, les véhicules électriques sur la route aujourd’hui créent moins de polluants liés au changement climatique que le véhicule à essence neuf moyen. Les émissions dépendent de ce qui, au sein du You.S. le VE est utilisé, simplement parce que la production d’électricité provient de diverses ressources basées sur la région. Tout simplement parce que la plupart des véhicules électriques sont déjà disponibles dans des régions où l’énergie est plus propre (comme la Californie), les véhicules électriques utilisés de nos jours sont, en moyenne, responsables de moins d’émissions que n’importe quelle voiture à essence. Sur la base des ventes de produits jusqu’en 2016, l’utilisation du véhicule électrique moyen représente des polluants du changement climatique comparables à ceux d’un véhicule à essence de 73 MPG. Les véhicules électriques continuent d’être responsables de moins d’émissions liées au changement climatique, même si l’on considère l’énergie et les matériaux supplémentaires nécessaires à la fabrication des batteries qui alimentent les véhicules électriques. Nous avons découvert que ces émissions supplémentaires sont compensées rapidement par des économies de coûts tout au long de l’utilisation ; généralement juste après 6 à dix-huit mois d’utilisation. Il y a aussi d’autres problèmes soulignés en passant dans le post de U.S. News, comme l’impact de l’exploitation minière pour les matériaux non cuits alimentés par batterie. Mais les impacts défavorables de l’enlèvement des matières non cuites sont en grande partie dus à des réglementations laxistes et peuvent être traités par un plan et une responsabilité commerciale bien meilleurs. Pour les composants tels que le cobalt et les métaux précieux de la terre rares, toutes les entreprises de produits de consommation de haute technologie doivent s’assurer qu’elles peuvent disposer de chaînes d’approvisionnement respectueuses de l’environnement qui protègent également les droits et la santé des personnes touchées par l’exploration. C’est vraiment aussi réel pour Apple et Samsung que pour les producteurs de véhicules électriques. Il y a eu de bons progrès de la part des fournisseurs de batteries et des entreprises technologiques, mais ils peuvent et devraient vraiment faire beaucoup plus pour assurer une production d’énergie de batterie responsable. Dans le même temps, nous devons également tenir compte des impacts défavorables de la création de gaz, des violations des droits de l’homme aux catastrophes environnementales massives lors de l’élimination des huiles essentielles, en passant par les inévitables dommages de la pollution atmosphérique causée par le raffinage et la combustion de gaz dans nos véhicules. Tous nos moyens de transport individuels – essence, diesel, biocarburants ou électricité – pourraient être plus propres si les producteurs de carburant sont tenus responsables de réduire leur pollution atmosphérique. Une autre attaque contre les véhicules électriques dans l’article de U.S. News est le fait que les véhicules électriques ne représentent qu’une petite fraction des automobiles sur les routes du pays de nos jours. C’est correct, mais ce n’est pas une bonne raison pour revenir en arrière. Les premiers véhicules électriques grand public n’ont été commercialisés qu’à la fin de 2010. À partir de ces deux modèles (Chevy Voltage et Nissan LEAF), le marché s’est développé pour une trentaine de modèles de véhicules électriques disponibles aujourd’hui. Cependant, bon nombre de ces véhicules électriques ne sont généralement pas vendus à l’échelle nationale et ne sont pas commercialisés avec succès. Dans une situation importante, Fiat Chrysler a décidé de ne même pas informer les clients de l’extérieur de Ca qu’il s’agit d’un nouveau monospace disponible dans une édition plug-in. Pourtant, les ventes de produits EV augmentent et franchissent de nouveaux jalons, en particulier dans les endroits dotés de réglementations et de programmes de motivation puissants comme la Californie, où les fabricants ont également déployé beaucoup plus d’efforts pour commercialiser les VE (par rapport aux autres You.S.) Au premier trimestre. en 2017, les ventes de produits EV en Ca représentaient près de 5 % des ventes de produits de voitures neuves et pour certains producteurs, elles étaient plus élevées. Par exemple, les voitures rechargeables expérimentées de la marque Chevrolet de Basic Motors représentent plus de 15 % de toutes les ventes de nouveaux produits au cours des trois premiers mois de 2017. Avoir plus d’options pour les acheteurs de véhicules neufs pour choisir un véhicule rechargeable aidera simplement pour faire évoluer le marché. Et il est essentiel que le marché se développe le plus rapidement possible. Parce que les véhicules restent souvent sur la route plus de dix ans, il est essentiel d’accélérer la transition du pétrole à l’électricité. L’avenir du voyage est électrique. Ce n’est pas seulement notre point de vue chez UCS, incentive chaque constructeur automobile et les autorités gouvernementales comprennent que les VE sont le long terme. Les PDG de Ford et VW ont documenté les prévisions de ventes de produits EV en grande quantité. Et la France, la Norvège et l’Inde font partie des pays qui se sont fixé des objectifs remarquables pour passer aux véhicules électriques. Mais les véhicules électriques seuls ne suffisent pas à satisfaire nos objectifs environnementaux. Il est essentiel de diminuer également l’effet des transports en réduisant le nombre de kilomètres parcourus, même à partir des voitures électriques. Le transport discuté, que ce soit par le biais du transport, du covoiturage ou de nouveaux services de covoiturage, sera également important pour réduire considérablement la pollution de l’air. Mais ce n’est en aucun cas en concurrence avec les VE. Au lieu de cela, les véhicules électriques sont complémentaires à bon nombre de ces options de transport partagé.

1er forum sur la progression de l’obésité et le cancer

Une réunion a été structurée pour visualiser le lien Web des problèmes de poids et du cancer. Une toute nouvelle étude chez les rongeurs découvre qu’un régime riche en graisses permet aux cellules cancéreuses de surpasser les cellules immunitaires en énergie, en altérant la fonction immunitaire et en accélérant la croissance tumorale. Les cellules cancéreuses le font en recâblant leur métabolisme pour améliorer l’utilisation des graisses. L’obstruction de ce recâblage améliore l’immunité anti-tumorale. Les résultats recommandent de nouvelles stratégies pour se concentrer sur le métabolisme des cancers et améliorer les immunothérapies. L’obésité continue d’être associée à un danger accru pour plus d’une douzaine de types différents de cancers, ainsi qu’à un pronostic et une survie encore pires. Au fil des ans, les chercheurs ont reconnu les procédures associées aux problèmes de poids qui entraînent la croissance tumorale, comme les changements métaboliques et l’inflammation persistante, mais une compréhension détaillée de l’interaction entre les problèmes de poids et les cancers a toujours été difficile à atteindre. Désormais, dans le cadre d’une recherche sur les souris, les chercheurs du Harvard Healthcare College ont découvert une toute nouvelle pièce de ce défi, avec des effets surprenants pour l’immunothérapie des cancers: les problèmes de poids permettent au matériau cellulaire cancéreux de surpasser le matériau cellulaire de défense éliminant les tumeurs dans une bataille pour l’énergie. Rapportant dans Cellular le 9 décembre, l’équipe de recherche implique qu’un régime alimentaire riche en graisses corporelles diminue le nombre et l’exercice antitumoral du matériau cellulaire CD8 T, un type vital de défense cellulaire, dans les tumeurs. Cela se produit simplement parce que les cellules cancéreuses reprogramment leur métabolisme en réaction à une meilleure accessibilité aux graisses pour mieux engloutir les molécules de graisse corporelle riches en énergie, privant les cellules T d’énergie et accélérant la croissance tumorale. « Mettre la même tumeur dans des contextes en surpoids et non obèses révèle que le matériel cellulaire cancéreux recâblera son processus métabolique en réponse à un régime alimentaire gras », a déclaré Marcia Haigis, professeur de biologie cellulaire à la Blavatnik Institution à HMS et co-auteur principal de la recherche . « Cette découverte montre qu’une thérapie qui pourrait éventuellement fonctionner dans un environnement pourrait ne pas être aussi efficace dans un autre, ce qui doit être mieux compris étant donné l’épidémie de problèmes de poids dans notre société. » Ils ont découvert que l’obstruction à cette reprogrammation métabolique liée aux graisses diminuait considérablement le volume de la tumeur chez les souris soumises à un régime riche en graisses. Étant donné que le matériau cellulaire CD8 T serait le principal outil utilisé par les immunothérapies qui activent les mécanismes de défense contre les cancers, les résultats de l’analyse suggèrent de nouvelles stratégies pour améliorer ce type de thérapies. «Les immunothérapies cancéreuses ont un effet énorme sur le mode de vie des patients, mais elles ne profitent généralement pas à tout le monde», a déclaré la co-rédactrice principale Arlene Sharpe, promouvoir le tourisme professeur de pathologie comparée au HMS George Fabyan et présidente du département d’immunologie de l’institution Blavatnik. « Nous savons actuellement qu’il existe un bras de fer métabolique entre le matériel cellulaire T et les cellules tumorales qui change avec des problèmes de poids », a déclaré Sharpe. « Notre recherche offre une feuille de route pour découvrir cette interaction, ce qui nous aidera à commencer à envisager les immunothérapies anticancéreuses et les traitements combinés de manière nouvelle. » Haigis, Sharpe et ses collègues ont étudié les effets des problèmes de poids sur les types de souris informatiques de différents types de cancers, tels que le cancer colorectal, le sein, le mélanome et le poumon. Dirigée par les co-auteurs de l’étude Alison Ringel et Jefte Drijvers, l’équipe a donné aux souris des régimes alimentaires normaux ou riches en graisses, ce dernier entraînant une amélioration du poids corporel et d’autres changements liés à des problèmes de poids. Ils ont ensuite vérifié différents types cellulaires et molécules à l’intérieur et sur les tumeurs, les uns avec les autres appelés le microenvironnement tumoral. Les chercheurs ont découvert que les tumeurs augmentaient beaucoup plus rapidement chez les animaux suivant un régime alimentaire riche en graisses corporelles par rapport à celles-ci suivant un régime normal. Mais cela ne s’est produit que dans les types de cancers qui sont immunogènes, qui peuvent contenir un nombre élevé de matériel cellulaire de défense; ont tendance à être plus facilement reconnus par les mécanismes de défense; et sont plus susceptibles de provoquer une réaction immunitaire. Les tests ont révélé que les variations de la croissance tumorale associées au régime alimentaire dépendaient spécifiquement de l’activité des cellules T CD8, un matériau cellulaire de défense qui ciblera et tuera les cellules cancéreuses. Le régime alimentaire n’a pas eu d’incidence sur le taux de développement de la tumeur si les lymphocytes T CD8 avaient été éliminés expérimentalement chez la souris. De manière frappante, les régimes alimentaires riches en graisses ont réduit l’existence du matériel cellulaire CD8 T dans le microenvironnement tumoral, mais pas ailleurs dans le corps. Celles-ci restant dans la tumeur étaient beaucoup moins solides – elles se séparaient plus lentement et avaient des marqueurs d’activité réduite. Mais lorsque ces cellules ont été isolées et développées dans un laboratoire, elles avaient un exercice normal, ce qui indique que quelque chose dans la tumeur a altéré la fonction de ces cellules. L’équipe a également rencontré un paradoxe évident. Chez les animaux obèses, le microenvironnement de la tumeur était dépourvu d’acides gras clés totalement libres, une source d’énergie cellulaire importante, malgré le fait que le reste du corps était enrichi en graisse corporelle, comme prévu dans l’obésité. Ces indices les ont poussés à élaborer un vaste atlas à partir des profils métaboliques de différents types de cellules dans les cancers dans des conditions de régime alimentaire typiques et riches en graisses. Les analyses indiquent que les cellules cancéreuses se sont adaptées en réponse aux changements d’accessibilité à la graisse corporelle. Dans le cadre d’un régime riche en graisses corporelles, les cellules cancéreuses ont pu reprogrammer leur métabolisme pour augmenter l’absorption et l’utilisation de la graisse corporelle, contrairement aux cellules T CD8. Cela a finalement épuisé le microenvironnement tumoral d’acides gras spécifiques, laissant le matériau cellulaire T affamé de cette énergie essentielle. «L’épuisement paradoxal des acides gras essentiels a été l’une des découvertes les plus étonnantes de la recherche. Cela nous a vraiment époustouflés et c’était le coussin de libération de nos analyses», a déclaré Ringel, un autre postdoctoral au sein du laboratoire Haigis. «Cette obésité et le processus métabolique du corps entier peuvent transformer la façon dont différents matériaux cellulaires dans les tumeurs utilisent l’énergie était une percée passionnante, et notre atlas métabolique nous permet maintenant de disséquer et de mieux comprendre ces processus.

Une convention internationale sur l’éducation et le gain quantique

Une toute nouvelle recherche décrit les techniques que les universités et les collèges peuvent réviser leurs programmes pour faire travailler le personnel d’une nouvelle vague d’innovation technologique quantique. Trois chercheurs, tels que le professeur Ben Zwickl du Rochester Institute of Technologies Relate, ont proposé des mesures à prendre dans un tout nouveau document dans le cadre de l’étude sur l’éducation à la physique de l’évaluation corporelle après avoir interrogé des administrateurs de plus de 20 organisations de technologies quantiques à travers le You.S. Les créateurs de l’étude de l’Université du Colorado à Boulder et du RIT s’efforcent de mieux comprendre les types de postes de diplôme d’accès qui peuvent être trouvés dans ces organisations et les voies d’enseignement qui peuvent guider ces tâches. Ils ont découvert que, comme les entreprises recherchent néanmoins des travailleurs avec des niveaux STEM standard, elles souhaitent vraiment que les candidats comprennent les concepts essentiels de la technologie et de la science de l’information et des faits quantiques. «Pour un certain nombre de ces emplois, il y a cette idée d’être ‘conscient quantique’ qui est extrêmement attrayante», a déclaré Zwickl, qui fait partie de l’effort et du centre de photons à venir du RIT pour instruire, apprendre et analyser. « Les entreprises nous ont dit que de nombreux stages ne doivent pas nécessairement avoir de compétences sérieuses, mais les élèves pourraient vraiment bénéficier d’un modèle d’introduction d’un ou deux semestres qui enseigne les principes fondamentaux, quelques-unes des implémentations de l’équipement, le fonctionnement des techniques, exactement ce qu’est un qubit, et des trucs comme ça. Ensuite, le diplômé apportera toute l’énergie de toute formation STEM traditionnelle mais pourra parler la langue dont parle l’entreprise.  » Les auteurs ont déclaré que les collèges et les universités doivent fournir des leçons d’introduction multidisciplinaires avec un certain nombre de conditions préalables qui permettront au génie logiciel informatique, à la technologie informatique, à la science et à d’autres majors de Come d’apprendre collectivement les idées de base. Zwickl a déclaré que fournir des chances de scolarisation quantique aux étudiants de toutes les disciplines sera probablement crucial en raison du fait que la technologie quantique a la capacité d’interrompre un large éventail de domaines de carrière. «C’est un secteur en développement qui peut créer de nouveaux capteurs, des systèmes d’imagerie, de conversation, de traitement et bien plus encore», a déclaré Zwickl. « La grande majorité des technologies se trouvent dans un cycle d’étude et de développement, mais pendant qu’elles commencent à s’orienter vers la commercialisation et la production de masse, vous obtiendrez des utilisateurs qui réfléchissent à la manière d’appliquer la technologie moderne. Ils auront peut-être besoin d’individus technologiques. de leur côté, qui maîtrisent suffisamment les idées pour en tirer parti.  » La participation de Zwickl à la tâche a été garantie en partie par le financement du RIT reçu du logiciel Quantum Jump Challenge Organizations de votre NSF. En tant que co-IP et responsable de l’éducation, de l’apprentissage et de l’amélioration du personnel pour l’offre, il a été cité en disant qu’il espérait appliquer un grand nombre des classes acquises lors de l’examen aux cours de RIT. Il est dans la technique de l’établissement de deux nouvelles classes préliminaires RIT en information quantique et recherche scientifique avec une mineure interdisciplinaire dans la discipline.

4ème Colloque du Groenland

Le Groenland, l’île la plus importante du monde, est couverte à environ 80% de glaçons. Les Vikings sont arrivés sur l’île au 10ème siècle en provenance d’Islande; La colonisation danoise a commencé à l’intérieur du XVIIIe siècle et le Groenland est devenu une partie intégrante du monde danois en 1953. Il a signé avec le Groupe européen (devenu l’UE) avec le Danemark en 1973, mais s’est retiré en 1985, couvrant un différend consacré à la pêche sportive stricte. quotas. Le Groenland doit continuer de faire partie de l’Association internationale des lieux et régions de l’UE. Le Groenland a obtenu le gouvernement personnel en 1979 du Parlement danois; entrée en vigueur l’année prochaine. Le Groenland a voté en faveur d’une augmentation du principe personnel en novembre 2008 et a reçu une responsabilité accrue pour les problèmes intérieurs si le travail sur le gouvernement personnel du Groenland était promulgué en juin 2009. Le Danemark, néanmoins, exerce systématiquement le pouvoir sur plusieurs régions du plan au nom du Groenland , qui incluent les questions étrangères, la stabilité et le plan économique en nomination avec le gouvernement autonome du Groenland. L’économie globale du Groenland dépend des exportations de crevettes et de poisson, ainsi que d’une subvention considérable par le biais des autorités danoises. Les produits de la mer représentent plus de 90% de leurs exportations, soumettant l’économie globale à des déséquilibres de prix de vente. La subvention de votre gouvernement danois est estimée à environ 535 000 $ en 2017, plus de 50% des revenus du gouvernement et 25% du PIB. L’économie progresse juste après une période de décroissance. Le climat économique s’est contracté entre 2012 et 2014, est devenu de 1,7% en 2015 et également de 7,7% en 2016. L’augmentation est stimulée par des quotas de crevettes plus importants, l’exportation groenlandaise prédominante, ainsi que par une activité accrue dans l’industrie du design, en particulier à Nuuk, le capital d’investissement. L’utilisation exclusive, les voyages et les loisirs entraînent également une expansion du PIB plus importante qu’au cours des dernières années. Les vacances au Groenland sont devenues chaque année près de 20% en 2015 et 2016, en grande partie en raison des quantités croissantes de croisiéristes fonctionnant maintenant dans la partie européenne et méridionale des océans du Groenland pendant la période touristique maximale de la saison estivale de l’année. Tout le monde, comme les entreprises publiques et les villes, a une fonction dominante dans le climat économique du Groenland. Au cours des dernières années, le gouvernement fédéral du Groenland a recherché des polices d’assurance financière et financière conservatrices, mais la pression publique ouverte s’est accrue pour de bien meilleurs établissements d’enseignement, soins de santé et systèmes de retraite. Votre budget était déficitaire en 2014 et 2016, mais l’endettement personnel des collectivités reste inférieur à environ 5% du PIB. Le gouvernement américain élabore un budget sain pour la période 2017-2020. Des défis importants se posent à la région, qui comprennent de faibles niveaux d’effort certifié, une dispersion géographique, un manque de diversité des entreprises, la durabilité à long terme de la fourchette de prix communautaire, ainsi qu’une diminution du nombre d’habitants en raison de l’émigration. La recherche d’hydrocarbures a cessé avec la baisse des fourchettes de prix du gaz. Cette île tropicale a des perspectives d’exploitation normale des ressources utiles avec des projets mondiaux exceptionnels, d’uranium et de minerai de vitamines, mais un manque de structure entrave les progrès.

Une extraordinaire convention sur l’alimentation de l’IA

Les chercheurs ont créé une technologie de connaissance artificielle qui rassemble l’imagerie, le traitement, l’apprentissage des appareils et la mémorisation en une seule rayure numérique, exploitée par l’éclairage. Le prototype réduit les connaissances synthétiques de la technologie moderne en imitant la manière dont le cerveau humain exploite les détails graphiques. L’amélioration à l’échelle nanométrique combine les logiciels clés nécessaires pour pousser les connaissances artificielles avec des équipements de capture d’images dans un seul appareil électronique. Avec de nouvelles améliorations, le prototype piloté par l’éclairage pourrait permettre des technologies autonomes plus intelligentes et plus compactes telles que les drones et la robotique, ainsi que des appareils portables intelligents et des implants bioniques tels que les rétines artificielles. L’étude, réalisée par une équipe internationale de chercheurs australiens, américains et orientaux guidés par l’université ou le collège RMIT, est publiée dans le journal Innovative Components. Le chercheur direct Relate, le professeur Sumeet Walia, de RMIT, a mentionné que le prototype fournissait des fonctionnalités similaires à celles de l’esprit dans un seul appareil puissant. «Notre nouvelle technologie moderne augmente radicalement l’efficacité et la précision en regroupant plusieurs éléments et fonctionnalités dans un seul système», a déclaré Walia, qui codirige également le groupe de recherche sur les matériaux et les microsystèmes utiles. « Cela nous rapproche d’un produit d’IA tout-en-un motivé par la meilleure innovation de traitement de la nature – un cerveau de personnes. » Notre objectif serait de dupliquer un attribut principal des méthodes que le cerveau comprend, en imprimant la vue comme un souvenir. « Le prototype que nous avons développé est un pas en avant majeur dans la direction de la neurorobotique, de meilleures technologies pour la connexion homme-machine et des systèmes bioniques évolutifs. » En général, l’intelligence synthétique repose fortement sur les logiciels informatiques et loin de la digestion des données du site Web. Le dernier prototype cherche à combiner le matériel numérique et l’intelligence collectivement, pour des jugements rapides sur site. « Imaginez une caméra de tableau de bord dans un véhicule qui est incorporé avec un tel équipement neuro-motivé – il pourrait reconnaître l’éclairage, les indications, les choses pour prendre des décisions instantanées, sans avoir besoin de se connecter au net », a déclaré Walia. « En fournissant tout cela dans une seule puce, nous pourrions offrir des niveaux de performances et de vitesse sans précédent dans la production de choix autonome et basée sur l’IA. » Les technologies créent sur une puce prototype antérieure par le biais de l’équipe RMIT, qui a utilisé un poids léger pour créer et modifier des souvenirs. De nouvelles caractéristiques intégrées impliquent que le scratch peut désormais enregistrer et améliorer immédiatement les images, classer les figures et être formé pour reconnaître les styles et les images ayant un taux de précision bien supérieur à 90%. L’appareil est également facilement adapté aux appareils électroniques existants et aux systèmes silicium, pour une intégration future sans effort. Le prototype est motivé par l’optogénétique, un outil émergent en biotechnologie qui permet aux scientifiques d’explorer le programme électrique du corps avec une excellente précision et d’utiliser la lumière pour changer les neurones. Le pseudo AI est fondé sur une substance ultra-fine – le phosphore noir – qui ajuste l’opposition électrique en réponse à plusieurs longueurs d’onde d’éclairage. Les différentes fonctionnalités, y compris l’imagerie ou l’espace de stockage de l’espace mémoire, sont obtenues en faisant briller différentes couleurs de lumière sur la puce. Le rédacteur direct de la recherche, le docteur Taimur Ahmed, de RMIT, a déclaré que l’informatique dépendante de la lumière était plus rapide, plus précise et nécessitait moins de vitalité que les systèmes existants. «En regroupant de nombreuses fonctionnalités de base dans un seul appareil nanométrique compact, nous sommes en mesure d’élargir les perspectives de compréhension des machines et d’intégrer l’IA dans des applications plus compactes», a déclaré Ahmed. «L’utilisation de notre puce avec des rétines synthétiques, par exemple, permettrait aux experts de miniaturiser ces technologies en pleine croissance et d’améliorer la précision de l’œil bionique.» Notre prototype est en fait un progrès considérable vers le nec plus ultra des appareils électroniques: un cerveau humain-sur-un- puce qui étudiera de son environnement un peu comme nous le faisons tous. « 

Embrasser la prochaine révolution énergétique

Alors même que l’industrie des services publics d’électricité continue de travailler sur les implications de la production d’énergie renouvelable, les dirigeants sont déjà aux prises avec la prochaine grande chose: le stockage de l’énergie.

Le stockage d’énergie se met rapidement en ligne car l’adoption rapide des véhicules électriques réduit les coûts des batteries. Cette révolution aura d’énormes implications tout au long de la chaîne de valeur de l’électricité, car le stockage d’énergie peut remplacer les centrales de pointe, modifier les futurs investissements dans le transport et la distribution (T&D), agence digitale restructurer les marchés de l’électricité et aider à numériser l’écosystème électrique.

Sur certains marchés, le stockage sur batterie approche déjà de la parité économique avec certaines formes de production de pointe. Bain & Company estime que d’ici 2025, le stockage de batteries à grande échelle pourrait être compétitif par rapport aux centrales de pointe – et cela est basé uniquement sur le coût, sans aucune valeur ajoutée que nous attendons des entreprises et des services publics à générer à partir du stockage (voir Figure 1).

Cependant, la recherche de Bain sur le stockage d’énergie à l’échelle des services publics révèle que le déploiement précoce nécessitera de nouveaux modèles commerciaux qui créent de la valeur de plusieurs manières – ou comme on l’appelle parfois, l’empilement de la valeur. Bien sûr, les services publics peuvent utiliser des batteries pour stocker l’électricité pendant les périodes de faible demande, puis exploiter les électrons stockés pendant les périodes de pointe pour réduire les charges de pointe, et les clients peuvent faire de même pour arbitrer les tarifs d’électricité. Mais jusqu’à ce que les coûts baissent, les leaders du stockage d’énergie devront explorer des moyens d’empiler la valeur au-dessus de la réduction des pics, par exemple en assurant une plus grande fiabilité de la production d’énergie renouvelable, en permettant aux clients de fonctionner indépendamment du réseau si nécessaire et en fournissant des services tels que la tension et modulation de fréquence (voir figure 2).

Nouvelle valeur pour les services publics

Parallèlement à ces nouvelles opportunités, le stockage d’énergie apporte également de nouveaux défis, notamment en ce qui concerne les dispositifs réglementaires. Le stockage est un hybride, un peu comme une usine de pointe, tout en fournissant également des services comme la stabilisation de fréquence et des qualités de roulement qui en font partie de l’infrastructure de distribution. Une intégration réussie du stockage nécessite une vue d’ensemble complète de l’ensemble du système. Cependant, alors que les sociétés de transport et de distribution verticalement intégrées ou réglementées peuvent avoir la meilleure vision intégrée du besoin de stockage, les régulateurs craignent de ne pas dominer ou étouffer le marché.

Comme pour la production d’énergie renouvelable, le stockage affectera l’ensemble de l’écosystème électrique, des services publics aux consommateurs finaux. Chaque dirigeant de service public a un œil sur le stockage de l’énergie, mais beaucoup n’ont pas encore fait face aux complexités, telles que l’intégration dans les plans stratégiques, les décisions d’investissement ou les priorités réglementaires. Ils doivent saisir les opportunités le plus tôt possible pour éviter les types de pièges qu’ils ont rencontrés à mesure que les énergies renouvelables, en particulier l’énergie solaire distribuée, ont décollé.

Le stockage d’énergie devient également de plus en plus attrayant pour les clients commerciaux et industriels pour les avantages de fiabilité et d’arbitrage mentionnés ci-dessus, ainsi que pour les opportunités de cumul de valeur. Ces clients, et les sociétés de services énergétiques qui les desservent, peuvent avoir une voie plus claire pour bénéficier de ces nouvelles technologies, sans génération héritée et T&D, ainsi que des règles réglementaires qui s’appliquent aux services publics.

Pour tous les acteurs de l’écosystème électrique, l’avènement d’un stockage d’énergie rentable peut offrir de nouvelles opportunités de fiabilité, de résilience, de durabilité et de contrôle.

Le stockage de batteries d’énergie à grande échelle atteint un point d’inflexion, passant d’une expérimentation limitée à une adoption à grande échelle. Au cours du premier semestre de 2017 seulement, plusieurs services publics ont annoncé leur intention de construire et de déployer de grandes baies de batteries connectées au réseau en Australie, en Nouvelle-Zélande et dans plusieurs États américains. Pour les services publics, le stockage par batterie deviendra un outil intégral pour gérer les charges de pointe, réguler la tension et la fréquence, assurer la fiabilité de la production d’énergie renouvelable et créer un système de transport et de distribution plus flexible. Pour leurs clients, le stockage peut être un outil de réduction des coûts liés aux pics de demande d’énergie et les aider à atteindre leurs objectifs de développement durable en garantissant un flux plus fiable d’électrons issus de la production d’énergie renouvelable distribuée, solaire en particulier.

Les services publics devront adapter leurs modèles d’exploitation pour tirer parti de certaines des opportunités du stockage et d’autres développements technologiques dans le système électrique (voir le Bref Bain sur la valeur des technologies Grid-Edge »). Par exemple, comme le stockage d’énergie réduit les pics et aplatit la courbe de charge, les services publics peuvent être en mesure de renoncer à certains investissements dans la capacité de pointe et de reporter les investissements dans les infrastructures de transport et de distribution. De plus, comme le stockage de l’énergie peut être effectué par incréments beaucoup plus petits et peut être mobile, l’investissement a un coût moindre. De cette manière, le stockage devient non seulement un outil pour répondre aux besoins du système, mais peut également réduire les coûts du système car il évacue la capacité et le gaspillage inutiles du système (voir le Bref Bain sur la réduction des coûts pour les services publics dans un monde à croissance nulle »).

Des opportunités supplémentaires peuvent provenir de nouveaux modèles commerciaux liés à l’empilement de la valeur. Pour en tirer le meilleur parti, les services publics devront réfléchir de manière créative aux moyens de s’associer avec les clients commerciaux et industriels. Prenons l’exemple d’un gros client commercial exploitant une flotte de véhicules électriques. Pour plus d’efficacité, cette entreprise peut choisir de déployer une gamme de grandes batteries dans un garage où les véhicules sont garés et rechargés le soir. Cet actif de stockage d’électricité peut être disponible pour une utilisation par le service public pendant les heures où les véhicules sont complètement chargés ou sur la route. De même, une entreprise possédant de grands centres de données peut investir dans le stockage sur batterie pour assurer un approvisionnement fiable en électricité, mais peut permettre à l’utilitaire d’exploiter ces ressources lorsque le centre de données n’en a pas besoin. Des accords comme ceux-ci nécessiteront de nouveaux muscles au sein des services publics, car la plupart ne sont pas habitués à gérer ces types de partenariats.

Au cœur de tous ces efforts se trouvera l’amélioration des capacités informatiques des services publics, en particulier la maîtrise de l’analyse avancée des données (voir le Bref Bain sur la façon dont les utilitaires déploient l’analyse des données maintenant »). De plus en plus, ils auront besoin d’une meilleure visibilité de l’offre, de la demande et des besoins en tension et en fréquence, parfois jusqu’au niveau du circuit, car les clients et les régulateurs exigent davantage des services publics.

Alors que peu d’utilitaires ont actuellement les capacités nécessaires pour gérer des volumes de données aussi importants et pour tirer des informations précieuses en temps réel, de nombreux dirigeants d’utilitaires disent qu’ils commencent à développer ces capacités en interne. Cependant, il peut être plus rentable et plus efficace de s’associer à un fournisseur d’analyse tiers. En associant la profonde expérience du secteur et les tonnes de données de l’utilitaire à l’expertise analytique du fournisseur, ces partenariats sont souvent la voie la plus rapide et la plus économique pour obtenir des informations approfondies.

Services énergétiques pour les entreprises commerciales et industrielles

Comme dans le cas de la production d’énergie renouvelable, l’élan derrière l’adoption du stockage d’énergie viendra également de nouvelles entreprises qui peuvent agir avec agilité pour profiter de ces opportunités de stockage d’énergie en plein essor pour les clients commerciaux et industriels. Ces clients sont de plus en plus sophistiqués car ils cherchent à réduire leurs coûts, à améliorer leur fiabilité et leur résilience et, en général, à mieux contrôler leur consommation d’énergie. De plus en plus, ils regardent au-delà de leur fournisseur de services publics vers les entreprises de services énergétiques pour répondre à ces besoins.

Si le rôle des entreprises de services énergétiques n’est pas nouveau – des entreprises comme EnerNOC (acquise par Enel en août 2017), Ameresco et de nombreuses entreprises régionales existent depuis des années – le stockage est un nouvel ajout à leur boîte à outils. Ces entreprises, qui ont une expérience approfondie de la gestion de la réponse à la demande, commencent à fournir une large gamme de services pour empiler la valeur au-dessus du stockage d’énergie, en réduisant les pics de demande (et en réduisant ainsi les frais de demande fixes en fonction de ces pics), en renforçant le flux de distribution solaire, fournissant des capacités de sauvegarde ou d’îlotage qui permettent aux clients de fonctionner de manière indépendante hors réseau, et de soutenir les offres des clients sur les marchés de capacité et de services auxiliaires. Les développeurs et les joueurs de logiciels sophistiqués peuvent aider à créer une valeur différentielle pour les clients en ajoutant avec succès ces flux de revenus basés sur de nouvelles capacités d’analyse de logiciels et de données.

Stem, l’un des principaux fournisseurs de systèmes de stockage d’énergie commerciaux, basé à Millbrae, en Californie, propose des services de stockage aux clients commerciaux et aux services publics. Par exemple, Stem a travaillé avec le StubHub Center, un stade de tennis et de football de Los Angeles, pour fournir au stade des batteries à grande échelle qui lui permettent de stocker l’électricité à des tarifs inférieurs et de la consommer pendant les événements de l’après-midi, lorsque la demande de pointe augmente les tarifs. Stem utilise des techniques d’apprentissage automatique et s’appuie sur les données de sa large base de clients pour optimiser la distribution d’énergie.

Le stockage d’énergie offre des avantages immédiats aux clients commerciaux et industriels, qui exploitent une valeur encore plus grande en s’associant aux services publics. Advanced Microgrid Solutions, un leader du stockage d’énergie basé à San Francisco, propose des services qui aident les clients à arbitrer les tarifs tout en réservant une capacité qui peut ensuite être remise sur les marchés de l’électricité. Des solutions comme celles-ci profitent au client et aux services publics.

La voie à suivre pour les dirigeants des services publics

Pour les dirigeants des services publics évaluant l’opportunité de stockage d’énergie, la première étape consiste à définir le rôle du stockage d’énergie et des services associés dans le plan stratégique. Cela nécessite une compréhension approfondie des technologies disponibles et de la manière dont elles peuvent être déployées. Une évaluation globale des concurrents – une nouvelle capacité pour la plupart des services publics réglementés – est essentielle pour définir les opportunités et comment les exploiter.

La plupart des services publics devront développer les capacités nécessaires pour réussir et peuvent également choisir de s’associer avec des entreprises de services ou de gros clients pour acquérir les compétences nécessaires. Les projets pilotes aideront à développer ces nouveaux muscles, alors que les services publics explorent les possibilités de nouvelles sources de revenus dans les domaines non réglementés de l’industrie de l’énergie. Les dirigeants doivent continuer à travailler pour façonner leurs environnements réglementaires, y compris des incitations basées sur les performances qui encouragent le déploiement du stockage pour améliorer la fiabilité, la résilience et la sécurité tout en réduisant les coûts du système.

Alors que les coûts de stockage de l’énergie continuent de baisser, de nouveaux modèles commerciaux qui intègrent un large éventail de flux de valeur ensemble libéreront son potentiel. Le stockage d’énergie transformera l’ensemble de la chaîne de valeur de l’électricité car il permet un mélange toujours plus riche d’énergies renouvelables à grande échelle dans la pile de production, crée un système de T&D plus modulaire, flexible et localisé, et offre plus de valeur pour les clients. Les dirigeants des services publics doivent agir de manière agressive pour saisir les opportunités à portée de main.