Une organisation à but non lucratif trouve de l’espoir contre les incendies de forêt avec un allié inattendu : le charbon de bois -Ecologie, science


Cette histoire fait partie de la série Atteindre le zéro : décarboniser Cascadia, qui explore la voie vers une énergie à faible émission de carbone pour la Colombie-Britannique, l’État de Washington et l’Oregon. Ce projet est réalisé en partenariat avec EnquêterOuest et d’autres médias et est soutenu en partie par le Fonds pour le journalisme d’investigation.

« Nous ne vivons plus dans le Methow », dit Gina McCoy. « Nous vivons dans le Mordor. »

Au cours de la dernière semaine de juillet, des incendies brûlaient des deux côtés de la rivière Methow. La qualité de l’air était suffisamment mauvaise pour que le nouvelles nationales. Dans des temps meilleurs, Methow Valley dans le centre de Washington est une destination de classe mondiale pour l’escalade, la randonnée et le ski. C’est à distance. C’est beau. Mais comme une grande partie de l’Occident, il est de plus en plus enflammé.

Le 20 août, pour la première fois, Gina et son mari, Tom McCoy, ont allumé une machine qui, selon eux, offre la meilleure chance de réduire les incendies de forêt catastrophiques dans leur vallée – tout en luttant contre le changement climatique, en améliorant la qualité de l’air et en créant des emplois locaux qui aider à garder les forêts en bonne santé.

Par C6 De la forêt à la ferme, une organisation à but non lucratif qu’ils ont fondée l’année dernière, les McCoy prévoient d’accélérer la restauration des forêts en créant un marché local pour les arbres de petit diamètre qui sont un symptôme de forêts malsaines et qui alimentent des incendies géants. Ils fabriqueront du biochar, une forme de charbon de bois, à partir d’arbres coupés lors de l’éclaircissage des forêts. Ce faisant, le couple espère réduire les émissions créées par les incendies de forêt qui font rage et la combustion des tas de rémanents.

La machine récemment livrée aux McCoy par l’Université de Californie, Merced, est un pyrolyseur qui crée du biochar à partir de matière organique. La technologie de fabrication du charbon de bois est l’une des plus anciennes connues de l’homme. Historiquement, cela consistait à creuser un trou et à y brûler du bois. En termes techniques, la méthode par laquelle les McCoy envisagent de créer du charbon de bois s’appelle la pyrolyse : chauffer des copeaux de bois ou de la sciure de bois dans un environnement pauvre en oxygène à 750-1 100 degrés Fahrenheit. La pyrolyse du bois libère environ la moitié des émissions de la combustion à ciel ouvert; l’autre moitié du carbone est stockée dans le biochar résultant.

Un homme vêtu d'une chemise grise et d'un jean bleu tient un instrument de mesure sur sa main gauche pour vérifier une jauge sur une machine appelée pyrolyseur, qui ressemble à une grosse poubelle en métal reliée à un baril de métal rouillé. Il est dehors et le ciel est bleu.
Bret Richmond, membre du conseil d’administration de C6 Forest to Farm, vérifie une jauge sur le

nouveau pyrolyseur à but non lucratif près de Winthrop, Washington. Le pyrolyseur crée du biochar, une forme de charbon de bois qui peut séquestrer le carbone et servir d’additif au sol pour l’agriculture. Cette unité à petite échelle a été fournie par l’Université de Californie Merced pour aider le groupe basé à Methow à lancer des applications locales pour le biochar.
Tim Matsui / InvestigateWest

Certaines méthodes de pyrolyse à grande échelle nécessitent des installations de taille industrielle, mais la machine de recherche du Methow est relativement petite : elle tient à l’arrière d’une remorque de 5 pieds sur 5 et réside maintenant dans une ancienne gravière de 22 acres appartenant à par le comté d’Okanogan et se trouve à quelques pas de la maison des McCoy. Les McCoy prévoient d’organiser prochainement des manifestations publiques régulières. Leurs objectifs pour cette année sont de fabriquer du biochar à partir d’un tas de rémanents laissé par un projet de restauration de l’État et d’un tas de débris ligneux de 10 pieds de haut qui occupent la gravière depuis qu’il a été collecté par le comté lors des opérations de déblaiement de routine. .

La recherche suggère Le biochar peut persister dans le sol pendant des centaines d’années. Cela en fait un outil potentiel dans la lutte contre le changement climatique, en particulier lorsqu’il est fabriqué à partir de matériaux comme des arbres éclaircis ou des débris agricoles qui, s’ils sont brûlés, libèrent du carbone stocké dans l’atmosphère. Biochar a été reconnu au début des années 2000 lorsque les scientifiques résultats publiés sur le charbon de bois qui a été délibérément créé par les peuples autochtones de la région amazonienne pour être incorporé dans leur sol. Le sol, que les chercheurs ont appelé terre cuiteou « or noir », contenait de grandes quantités de carbone qui contribuaient à la richesse des nutriments et de la vie végétale.

Au cours des décennies qui ont suivi cette étude, de nombreux entrepreneurs potentiels en biochar ont essayé, sans succès, de rester à flot dans ce qui reste un marché sous-développé. Mais de nouvelles utilisations du biochar et de nouvelles manières de financer le stockage du carbone font désormais leur apparition.

Après des années d’incendies de forêt à leur porte, les McCoy ont décidé de se consacrer à la création d’un produit qui pourrait aider à financer la restauration des forêts ainsi que le stockage du carbone. Leur rêve ultime est de construire une usine de transformation de plusieurs millions de dollars qui transformera chaque année des milliers de tonnes de matière ligneuse en biochar. Ce printemps, la législature de Washington a tenté sa chance dans leur projet pilote en leur accordant 160 000 $ de fonds publics, à verser au cours des deux prochaines années.

« C’est le genre de choses auxquelles l’État devrait donner un coup de pouce », a déclaré le sénateur Brad Hawkins, qui a soumis le projet au financement de la législature. Cela est particulièrement vrai, dit-il, compte tenu des millions de dollars que l’État a déjà dépensés pour lutter contre les incendies de forêt.

L’objectif : la restauration des forêts

Dans le jardin du couple, à l’ombre d’un cerceau, Gina croque une tige d’aneth du pays. Tom montre de l’autre côté de la vallée la propriété d’un voisin où ils ont vu un incendie s’allumer en 2014, un incendie qui a finalement consumé 11 maisons. Il y a trois itinéraires dans et hors de la vallée, et cette année-là, les incendies ont temporairement fermé les trois. Ils disent que de nombreux voisins ont commencé à quitter la région pendant la saison des incendies d’été.

Une femme vêtue d'une chemise vert d'eau et d'un short kaki caresse un cheval.
Gina McCoy, une résidente de Methow Valley et cofondatrice de l’association à but non lucratif C6 Forest to Farm, attribue des décennies de suppression des incendies aux incendies de plus en plus fréquents et incontrôlables de la région. « Le gouvernement fédéral s’approprie en quelque sorte ce problème » ; dit McCoy. « Leur gestion des terres est fondamentalement ce qui constitue l’énorme menace pour toute cette communauté. »
Tim Matsui / InvestigateWest

Le changement climatique a contribué au problème, asséchant la végétation et la rendant plus inflammable. Mais 100 ans de suppression des incendies ont surpeuplé sauvagement la forêt avec des arbres malsains. Après des incendies catastrophiques dans l’ouest de l’intérieur des terres, qui ont brûlé 3 millions d’acres et tué 87 personnes en 1910, le US Forest Service a adopté une politique consistant à éteindre chaque étincelle. En 1935, l’agence avait mis en place la règle des « 10 heures », stipulant que tout incendie observé devait être éteint avant 10 heures le lendemain matin.

Entre les éclairs naturels et les brûlures intentionnelles déclenchées par les peuples autochtones, les forêts sèches d’une région comme la vallée de Methow ont historiquement subi des incendies de faible intensité tous les 7 à 15 ans. Ces incendies ont nettoyé les sous-bois et les arbres plus jeunes, faisant ressembler le Methow d’antan à un parc, avec des pins ponderosa majestueux suffisamment espacés pour laisser entrer la lumière du soleil.

Le consensus parmi les scientifiques est que les arbres de la vallée de Methow doivent être abattus beaucoup plus rapidement qu’aujourd’hui. Les gouvernements étatiques et fédéraux sont enthousiastes à l’idée de le faire, du moins sur le papier. Ils appellent ce « traitement de santé de la forêt », qui consiste généralement à laisser les plus gros arbres debout tout en coupant et en empilant les plus petits en tas de rémanents qui sont brûlés en hiver. Mais le taux de cet éclaircissement dépend du financement du gouvernement, et bien que les agences ne suivent plus la règle de 10 heures, une part croissante des budgets des agences est toujours consacrée à la lutte contre les incendies, laissant peu de place pour la restauration.

« Je suis devenu vraiment impatient au sujet du rythme et de l’ampleur de ces [forest health] traitements », explique Susan Prichard, résidente de Methow Valley et écologiste des incendies à l’Université de Washington. « Une bonne partie de ce travail est effectuée par les feux de forêt eux-mêmes. »

Prichard est l’auteur principal d’un ensemble de Trois des articles publié en août dans la revue scientifique Applications écologiques. Dans une revue de la littérature sur le sujet de la gestion des feux de forêt, des dizaines de scientifiques collaborateurs ont affirmé que les forêts doivent être éclaircies et que les feux de faible intensité doivent être réintroduits dans les brûlages dirigés.

Du bassin hydrographique entourant la vallée de Methow, 84 % appartient au gouvernement fédéral; vous ne pouvez pas conduire loin sans être accueilli dans une forêt domaniale ou une autre. Un autre 5 % appartient à l’État. Pour les personnes qui vivent sur des propriétés privées, des décennies de pratiques de gestion forestière, largement indépendantes de leur volonté, menacent désormais leurs moyens de subsistance et leurs biens.

UNE Article de janvier 2019 dans le Actualités de Methow Valley sur le risque de dommages causés par le feu dans la vallée a incité Gina à réfléchir à ce qu’ils pourraient faire à ce sujet. Le fait qu’elle soit assise à la maison avec deux chevilles foulées pendant la saison de ski a aidé le processus de réflexion. Elle savait que la densité des forêts était le problème dominant, alors elle a commandé un manuel sur le traitement de la biomasse et a commencé à déterminer ce qui pourrait le mieux aider leur région.

Au lieu de démarrer une entreprise en regardant le paysage et en se demandant ce qu’il pouvait faire pour eux, les McCoy ont commencé par se demander ce qu’ils pouvaient faire pour la terre. Il était naturel pour eux d’adopter cette approche : tous deux avaient une longue carrière en écologie du paysage et étaient habitués à réfléchir aux problèmes à l’échelle d’un bassin versant. Ils se sont rencontrés dans les années 1980, lorsque Gina est allée travailler pour la nation Yakama un mois après Tom. Il était gestionnaire de la faune; elle était gestionnaire de bassin versant. Son dernier emploi avant la retraite était en tant qu’ingénieur fluvial pour le Washington Department of Fish and Wildlife, et le sien était en tant que gestionnaire de la zone de faune Methow de 34 600 acres. Dans ce travail, Tom a vu de première main ce que la suppression des incendies avait fait au paysage et combien d’éclaircissage était nécessaire.

Deux photos du même endroit : à gauche, une photo où les petits arbres n'ont pas été débarrassés du paysage. A droite, une photo où ils ont. C'est une forêt et le ciel est bleu.
Un site forestier dans le centre-nord de Washington qui n’a connu aucun

un traitement d’amincissement ou de brûlure est illustré à gauche. Un site qui a été éclairci et brûlé est montré à

droit. De grands pins ponderosa résistants au feu dominent la zone traitée, avec peu d’inflammabilité

les débris du sol tels que les arbustes et le bois abattu.
Avec l’aimable autorisation de Susan Prichard / École des sciences de l’environnement et des forêts de l’Université de Washington

Le paysage économique

Un obstacle majeur à l’éclaircie est la faible valeur des arbres de petit diamètre sur le marché du bois commercial. Et la Methow Valley n’a pas de moulin. Pour être transformés en un produit utile, les petits arbres doivent être transportés par camion jusqu’à l’usine la plus proche à Kettle Falls, à environ 150 milles. Économiquement, le calcul ne fonctionne pas. Les bûcherons dépenseraient environ deux fois plus d’argent pour récolter et transporter le bois qu’ils n’obtiendraient d’une scierie.

Cela empêche la restauration des forêts de se produire rapidement, un point que le Département des ressources naturelles (DNR) de l’État a explicitement tenté d’aborder dans son Plan stratégique sur 20 ans pour la santé des forêts. L’agence espère stimuler l’investissement privé dans de nouveaux produits fabriqués à partir de sous-produits de l’éclaircissage des forêts, et les projets de biochar ne sont qu’une des nombreuses possibilités. Par exemple, Vaagen Timbers, une usine du nord-est de Washington, utilise les restes de l’éclaircie de la forêt nationale de Colville pour créer du bois lamellé-croisé, qui peut remplacer l’acier et le béton dans les bureaux et les appartements.

« Plus il y aura d’opportunités de créer des produits à valeur ajoutée à partir de ce qui est actuellement essentiellement un déchet, plus cela améliorera les conditions sur le terrain, réduira le risque de ces incendies de forêt catastrophiques et préparera mieux la forêt à la sécheresse. dit Andrew Spaeth, un planificateur environnemental du MRN qui a aidé à rédiger le plan sur 20 ans.

Un énorme tas de bûches repose sur l'herbe séchée pendant une chaude journée d'été.
Un tas de bûches coupées au cours des efforts de suppression des incendies de cet été se trouve à côté d’un

Tour d’entraînement Smokejumper et un aérodrome accueillant des hélicoptères de lutte contre l’incendie près de Winthrop,

Washington. Les grumes provenaient d’arbres récoltés par des équipes coupant des coupe-feu pour contrôler la

Cedar Creek et Cub Creek 2 feux de forêt dans la vallée de Methow. De même des arbres de petit diamètre

pourraient être éclaircies des forêts pour réduire le risque ou la gravité de futurs incendies.
Tim Matsui / InvestigateWest

Tom espère produire bientôt 6 000 à 7 500 tonnes de biochar par an, « un terrain de football de 20 à 30 pieds de profondeur ». La prochaine étape serait de déterminer comment utiliser et vendre le biochar.

Après des recherches sur terre cuite popularisé, de nombreuses entreprises se sont précipitées pour commercialiser leurs propres versions de biochar, avec des arguments de vente qui parlaient avec enthousiasme de sa capacité à augmenter la production agricole. Le biochar est encore souvent vendu comme amendement de sol et il peut augmenter les rendements lorsqu’il est ajouté à certains types de sol. Mais tous les biochars ne sont pas créés égaux. Il peut être fabriqué à partir de n’importe quel composé organique, du riz aux pneus, et tous les sols n’en ont pas la même utilisation.

Les marges des agriculteurs sont minces comme des rasoirs et beaucoup hésitent à parier sur un produit qui n’a pas fait ses preuves. La recherche est en cours, mais un rapport 2019 de l’Université de l’État de Washington a conclu qu’il existe une justification économique pour les agriculteurs du nord-ouest du Pacifique d’utiliser le biochar uniquement avec un seul type de culture – les légumes – à moins qu’ils ne soient également payés pour séquestrer le carbone sous forme de biochar. Au niveau national, le Service de conservation des ressources naturelles (NRCS) du ministère de l’Agriculture est exécuter un programme pilote de trois ans faire exactement cela, payer les agriculteurs pour qu’ils utilisent le biochar comme supplément de sol. Les États peuvent opter pour ce programme, mais Washington ne l’a pas encore fait.

La première vague d’enthousiasme pour le biochar n’a pas pris en compte la façon dont différents matériaux de source affecteraient le résultat. À l’inverse, les McCoy veulent créer ce qu’ils appellent du « biochar conçu », du charbon de bois fabriqué à partir de matériaux spécifiques, principalement le pin ponderosa et le sapin de Douglas, et destiné à des fins spécifiques. Ils espèrent toujours son potentiel en tant que supplément de sol, et Tom dit que si Washington optait pour le programme pilote NRCS, cet argent à lui seul pourrait couvrir la plupart de leurs dépenses.

Pour l’instant, C6 fonctionne grâce au financement de la législature et à des dons privés, bien qu’il explore également le programme de compensation carbone de l’État, né cette année dans le cadre de la législation de plafonnement et d’échange. Les compensations de carbone donnent une valeur monétaire aux capacités de stockage de carbone de quelque chose comme une forêt et permettent aux gens d’acheter des crédits qui la soutiennent. Parfois, des particuliers ou des entreprises achètent volontairement des compensations, mais dans les États dotés de réglementations sur le carbone, les grands pollueurs achètent souvent des crédits de compensation pour compenser leurs propres émissions.

Une camionnette blanche est garée à côté de gros sacs blancs sur le bord d'une route non goudronnée.
Les membres du conseil d’administration de C6 Forest to Farm surveillent leur pyrolyseur de recherche à petite échelle près de Winthrop, Washington, le 22 août 2021. Le système est conçu pour traiter les tas de rémanents comme celui à proximité, en particulier les débris de l’éclaircissage des forêts. Brûler des tas de rémanents ou les laisser pourrir libère des gaz à effet de serre, contribuant aux sécheresses et à la hausse des températures qui alimentent les méga-incendies. En revanche, le pyrolyseur convertit les rémanents en biocharbon, un matériau qui peut améliorer les sols et simultanément garder une grande partie du carbone du bois hors de l’atmosphère pendant des décennies, voire des siècles.
Tim Matsui / InvestigateWest

Jusqu’à présent, les compensations ont eu un succès douteux. UNE enquête conjointe de Examen de la technologie du MIT et ProPublica en avril a révélé que le programme de compensation californien, dans l’ensemble, avait peut-être ajouté du carbone dans l’atmosphère en raison de méthodes défectueuses utilisées pour tenir compte du carbone stocké dans les forêts. Calculer avec précision le carbone stocké dans le sol est extrêmement compliqué, et les marchés qui prétendent le mesurer et vendre des crédits sont encore assez nouveaux. Pourtant, certaines entreprises tentent de légitimer ce processus. Carbofex, une entreprise finlandaise qui crée du biochar à partir de sous-produits de forêts européennes gérées commercialement, l’utilise comme supplément de sol ou pour la filtration de l’eau, et vend des crédits de compensation sur le Puro.terre marché. Les législateurs de Washington ont tenté répondre aux préoccupations concernant les compensations en en faisant un « bonus » lors du décompte des émissions réduites. C’est-à-dire que les entreprises peuvent toujours acheter des compensations, mais contrairement à la Californie, les compensations n’éliminent pas les exigences selon lesquelles les pollueurs décarbonisent leurs opérations.

Qu’ils puissent ou non rejoindre un marché de compensation, les McCoy envisagent d’utiliser le biochar pour la filtration de l’eau, comme compost ou terreau, ou dans une nouvelle forme de revêtement qu’une entreprise australienne fabrique à partir de la biomasse. Ils explorent toutes les pistes, agnostiques quant à l’utilisation exacte, espérant que d’ici un an, ils auront des produits qui paieront au moins le coût de leur fabrication.

Pour les McCoy, la production de biochar est un moyen de faire face à l’ampleur du problème de santé des forêts dans le court laps de temps qu’ils estiment subsister ; c’est-à-dire avant qu’un autre méga-feu occidental ne rende ces questions sans objet. Recherche de l’Université de Washington suggère que les forêts de la Sierra Nevada en Californie pourraient, dans une rafale intense, brûler pendant encore une dizaine d’années, mais ensuite cesser car il ne restera plus beaucoup d’arbres. Les McCoy pensent que cela pourrait également se produire dans le Methow.

Avec la sécheresse qui s’est installée dans l’ouest des terres, il est peu probable que les arbres perdus à cause des incendies de forêt reviennent de si tôt. Recherche de l’Université du Montana indique que de nombreuses forêts de pin ponderosa et de douglas ne se régénéreront plus après les incendies comme elles le faisaient autrefois, ce qui suggère que les arbres matures de ces forêts sont maintenant essentiellement des ressources non renouvelables.

« Si nous pouvons empêcher qu’un seul incendie ne devienne catastrophique, cela en vaudra la peine », déclare Tom.

Il le pense sentimentalement, mais aussi économiquement : l’État a dépensé 60 millions de dollars pour lutter contre le

Incendies du complexe Carlton de 250 000 acres en 2014 dans la vallée de Methow. Tom estime que 60 millions de dollars pourraient faire fonctionner leur projet de biochar pendant des décennies. En ce qui concerne les effets sur le climat, les incendies de forêt étaient la deuxième source d’émissions de carbone à Washington en 2015, après seulement le secteur des transports.

« Les traitements de santé des forêts sont coûteux, mais pas comparés à la suppression des incendies, aux dommages matériels et au coût pour le climat », explique Gina.

Les McCoy ont lancé leur entreprise en tant qu’organisation à but non lucratif, une décision peu orthodoxe pour une entreprise spécialisée dans la chimie industrielle, et ils espèrent clairement pouvoir fournir un modèle à d’autres à travers l’Occident pour créer des versions locales de la même chose.

« Si l’économie, telle que nous l’avons structurée, ne valorise pas nos forêts ou notre climat, à quoi bon cette économie ? demande Gina. « Notre profit est la vallée que nous aimons. »



La tarification routière pourrait aider à réduire les émissions au Royaume-Uni – voici comment le faire fonctionner -Ecologie, science


Au cours des deux prochaines décennies, le Royaume-Uni s’apprête à commutation totale des voitures à essence et diesel aux voitures électriques, qui ne paient pratiquement aucun impôt.

Pour récupérer les quelque 34 milliards de livres sterling par an actuellement perçus par le biais des droits d’accise sur le carburant et les véhicules, un rapport a recommandé que le manière la plus équitable serait un système national de tarification routière. Cela ferait payer aux conducteurs l’utilisation des routes pour aider à couvrir les coûts des infrastructures ainsi que pour réduire la pollution de l’air et encourager l’utilisation d’options à faible émission de carbone telles que le covoiturage et les transports publics. Mais comment un tel système fonctionnerait-il ?

Il y a quatre façons dont la tarification routière pourrait fonctionner: le premier est un forfait par mile, où les conducteurs sont facturés en fonction de leur distance de conduite. Le second est un tarif forfaitaire à la minute, où les conducteurs sont facturés en fonction de leur temps de conduite. La troisième est géographique, où les conducteurs sont facturés à des tarifs différents selon la route sur laquelle ils roulent et la quatrième voie est dynamique, où les frais varient selon le lieu, le jour de la semaine ou l’heure de la journée.

Voici quelques-unes des façons dont ces systèmes pourraient être introduits :

Tarification routière manuelle et papier

Cela comprend les gares de péage et permis papier autorisant les voitures à circuler dans une certaine zone, comme la schéma utilisé à Singapour entre 1975 et 1998.

Cela pourrait également être utilisé lorsque les conducteurs sont facturés annuellement en fonction de leur kilométrage ou du temps passé à conduire si les voitures étaient également équipées de minuteries.

Reconnaissance automatique des plaques d’immatriculation

L’ANPR combine une caméra avec reconnaissance d’images logiciel pour lire les plaques d’immatriculation. Il est déjà largement utilisé au Royaume-Uni pour les radars autoroutiers et le péage urbain de Londres.

Alors que l’ANPR ne nécessite aucun matériel supplémentaire dans la voiture, un déploiement national nécessiterait l’installation de caméras sur toutes les routes incluses – pas seulement les autoroutes et les routes A où se trouvent la plupart d’entre eux actuellement. Ce serait cher.

Radio à courte portée

Les communications dédiées à courte portée (DSRC) sont un bande spécifique de radio réservée aux applications de transport. Dans un système de tarification routière basé sur DSRC, les données concernant la position du véhicule sont échangées via des ondes radio dans la bande DSRC spécifique entre un dispositif de communication embarqué et une unité routière appropriée, généralement un portique couvrant la largeur de la route. DSRC prend en charge le singapourien actuel système de tarification routière électronique.

Une voiture utilisant le système de tarification routière de Singapour
Une voiture utilisant le système de tarification routière de Singapour.
David Sing/Shutterstock

DSRC fonctionne bien dans une petite zone: le programme de Singapour signale que les conducteurs réagissent aux changements de prix, y compris des déplacements jusqu’à 20 % vers les bus aux heures de pointe suite à une augmentation marginale de 1 $ S (environ 0,54 £) du péage pour une route particulièrement encombrée. Cependant, un équivalent britannique nécessiterait l’installation de portiques coûteux à travers le pays.

GPS et cellulaire

Le GPS utilise des satellites en orbite autour de la Terre pour trianguler l’emplacement d’un utilisateur, tandis que les technologies de localisation cellulaire utilisent des signaux de réseau relatifs entre les tours d’un réseau pour faire la même chose.

Ces technologies peuvent surveiller la position des voitures équipées d’un équipement de suivi de la même manière que les utilisateurs de smartphones obtiennent des instructions via applications basées sur des cartes. Cellulaire et GPS avoir des compromis relatifs: la précision de la localisation GPS souffre dans les zones urbaines, la couverture du réseau cellulaire ne fonctionne pas aussi bien dans les zones rurales. Technologies hybrides sont couramment utilisés pour tirer le meilleur parti des deux mondes, ce qui pourrait potentiellement soutenir un système national de tarification routière avec précision voie par voie.

Un système de tarification routière GPS/cellulaire pourrait fonctionner via les smartphones des conducteurs. Mais il faudrait évidemment que tous les conducteurs aient un smartphone et ils devraient être allumés, avec les services de localisation activés, chaque fois que le conducteur prendrait un voyage. Un système de tarification routière GPS/cellulaire fonctionnel nécessiterait l’installation d’une unité de suivi sur chaque véhicule. En 2023, le système singapourien doit être mis à niveau pour utiliser Communication GPS, de sorte qu’il peut couvrir plus de routes sans avoir besoin de plus de portiques.

Tableau illustrant les différentes options technologiques de tarification routière
Comparaison des technologies de tarification routière.
James Dixon, Auteur fourni

Quelle est la meilleure option?

La technologie d’un système national de tarification routière au Royaume-Uni devrait pouvoir fonctionner sur une vaste zone, y compris dans des régions reculées du Royaume-Uni. Ainsi, les seules options réalisables sont soit manuel/papier ou GPS/cellulaire.

Un système manuel ou papier où les conducteurs sont facturés annuellement en fonction de leur kilométrage serait moins intrusif, car aucun matériel embarqué ne serait nécessaire, et pourrait être plus simple à comprendre. Mais, cela ne résoudrait pas – comme le système actuel de taxe sur les voitures ne le fait pas – la variabilité de la « coûts externes » de conduite.

Les coûts externes sont ceux qui affectent le reste de la société et sont basés sur la contribution des voitures à changement climatique, encombrement, la pollution de l’air, les nuisances sonores, les coûts d’infrastructure et les limites de développement économique régional qui résultent de la dépendance à la voiture.



À lire aussi :
La pandémie pourrait nous laisser avec un chaos de congestion – voici comment l’éviter


Les conducteurs britanniques ne paient actuellement que 49 % de ces coûts. Une analyse suggère qu’ils varient énormément selon l’emplacement, de 1,3 p par km (coût pour la société) sur les routes secondaires rurales à 93,1 p par km sur les routes A de Londres. Ils varient également en fonction du temps, de 9,5 pence par km pendant les heures creuses en semaine à 29,5 pence par km pendant la pointe du matin en semaine.

La meilleure option pour un programme national avec des prix variables pour refléter les vrais coûts de la conduite semble être le GPS/cellulaire. Un tel système serait le moyen le plus équitable de financer l’avenir de l’automobile : tout en nous incitant à évoluer vers des alternatives à la voiture dans les villes comme c’est le cas désespérément besoin. Cela pourrait également alléger le fardeau de ceux qui ont moins accès aux alternatives.

Accueil -Ecologie, science


Application Prions en Église

Nous vous encourageons un accès gratuit à l’application Prions en Église France et à l’espace premium qui propose l’intégralité des lectures des mess et bien plus.
Découvrez >

Es-tu en train de vivre une perte, que ce soit une séparation, la perte de la santé, le deuil d’un être cher ? GRANDIR veut t’accompagner sur la route qui s’ouvre devant toi


Les infirmières quittent la profession, et les remplacer ne sera pas facile -Ecologie, science


La quatrième vague de COVID-19 exacerbe la crise continue pour le personnel infirmier et a conduit à l’épuisement professionnel pour de nombreuses infirmières. Par conséquent, beaucoup abandonnent leurs emplois en nombre substantiel partout dans le pays, avec 62 % des hôpitaux déclarant un taux de vacance infirmier supérieur à 7,5 %, selon un rapport 2021 NSI Nursing Solutions.

Mais la pandémie mondiale n’a fait qu’aggraver des problèmes qui existent depuis longtemps au sein de la profession infirmière – en particulier, généralisés stress et Burnout, problèmes de santé et de sécurité, dépression et état de stress post-traumatique lié au travail, et même risque accru de suicide.

De plus, les infirmières doivent composer avec charges de travail croissantes et personnel insuffisant, ou ne pas avoir le bon nombre d’infirmières dans les bonnes unités pour s’assurer que les patients reçoivent des soins de qualité en toute sécurité. Heures supplémentaires obligatoires est un autre défi et se produit lorsque les infirmières doivent travailler des heures supplémentaires au-delà de leur quart de travail en raison d’une pénurie de personnel. Tous ces problèmes peuvent entraîner une faible satisfaction au travail chez les infirmières et sont susceptibles de contribuer à la quitter le métier, une tendance qui a commencé bien avant que la pandémie actuelle ne frappe.

Malgré une plus grande sensibilisation aux défis auxquels les infirmières sont actuellement confrontées, La dotation en personnel infirmier et son impact sur la sécurité des patients sont étudiés depuis plus de 20 ans. Mon rôle en tant que infirmière chercheuse et professeure adjointe à l’Université de Floride du Sud est d’évaluer les besoins de la main-d’œuvre infirmière et concevoir et mettre en œuvre des programmes pour les aborder.

Voici pourquoi la pandémie a aggravé la pénurie d’infirmières et pourquoi je pense que les dirigeants des soins de santé doivent apporter des changements audacieux pour assurer le bien-être des infirmières – pour le bien des infirmières et des soins aux patients dans notre pays.

Perturbations dans la prestation des soins de santé

Les infirmières, comme de nombreux travailleurs de la santé, sont épuisé physiquement et émotionnellement après avoir travaillé dans ce qui a été décrit comme une « zone de guerre » pendant la plus grande partie de l’année et demie écoulée. Une infirmière en première ligne a signalé dommages irréversibles du traumatisme de la prise en charge de patients extrêmement malades. D’autres connaissent des pénuries de oxygène, équipement et autres fournitures nécessaires pour assurer leur sécurité et garder leurs patients en vie.

À mesure que de plus en plus d’infirmières quitteront le marché du travail, les soins aux patients en souffriront sans aucun doute. Des recherches ont montré une relation entre ratios de dotation en personnel infirmier et sécurité des patients. Charge de travail accrue et le stress peuvent placer les infirmières dans des situations qui sont plus susceptibles de erreurs médicales. Une dotation en personnel infirmier plus faible et des charges de patients plus élevées par infirmière sont associées à une risque accru pour les patients de mourir à l’hôpital.

Parce que les hôpitaux ne peuvent pas ouvrir de lits s’il n’y a pas d’infirmières pour les doter, certains hôpitaux sont obligés de fermer les urgences et refuser des patients nécessitant des soins médicaux. C’est un problème non seulement pour les hôpitaux des grandes villes; hôpitaux ruraux sont également en difficulté. De façon alarmante, certains hôpitaux envisagent de besoin de rationner potentiellement les soins médicaux.

Comment certains hôpitaux font face à la pénurie

Les hôpitaux cherchent désespérément à pourvoir les postes d’infirmières. Un système hospitalier du Dakota du Sud offre des incitations aussi importantes que 40 000 USD de bonus de connexion recruter des infirmières pour travailler dans les domaines cliniques qui en ont le plus besoin. Il s’agit peut-être d’une grande tentative d’attirer des infirmières dans un établissement, mais les primes d’inscription et les les incitations pourraient ne pas suffire persuader certaines infirmières de travailler au chevet du patient et de continuer à faire face à la charge de travail actuelle de la pandémie.

Une autre stratégie pour combler les postes vacants est l’utilisation d’infirmières de voyage. Les infirmières de voyage travaillent pour des agences qui les affectent à des hôpitaux qui ne peuvent pas combler les postes vacants avec leur propre personnel. Bien qu’il puisse s’agir d’une solution efficace à court terme, le recours à des infirmières itinérantes n’est pas durable dans le temps et n’aide pas à retenir les infirmières de chevet expérimentées dans une organisation. Les infirmières de voyage font beaucoup plus d’argent que les infirmières de chevet, ce qui peut attirer les infirmières loin des postes permanents et, à son tour, augmenter le déficit de personnel des hôpitaux. Les salaire moyen pour une infirmière de voyage aux États-Unis est de 2 003 $ par semaine, avec 13 750 $ d’heures supplémentaires par an. Certaines infirmières acceptent même « missions de crise », qui peut payer jusqu’à 10 000 $ par semaine. C’est nettement plus élevé que la moyenne de 1 450 $ par semaine (36,22 $ par heure) pour une infirmière de service.

Travailleur de la santé féminin masqué regardant directement la caméra avec les bras croisés
Les hôpitaux ne peuvent pas ouvrir de lits s’il n’y a pas d’infirmières pour les doter.
Morsa Images/DigitalVision via Getty Images

Focus sur le bien-être des infirmières

Au cours des 18 dernières années, les soins infirmiers ont été identifiés comme le profession la plus fiable. Les infirmières sont des soignantes, des modèles, des éducatrices, des mentors et des porte-parole et elles ont un impact direct sur la santé et le bien-être des patients. La santé de la main-d’œuvre infirmière du pays est fondamentale pour notre industrie des soins de santé. Comme identifié par un 2021 Rapport de l’Académie nationale de médecine, le bien-être et la résilience des infirmières sont nécessaires pour assurer la prestation de soins de haute qualité et améliorer la santé de la nation.

La recherche démontre que les personnes ayant des niveaux de bien-être plus élevés ont des niveaux d’épuisement professionnel plus faibles et sont plus performantes au travail. Par conséquent, certains hôpitaux et syndicats offrent ressources et programmes aux infirmières pendant la pandémie de COVID-19 qui cherchent à réduire le stress, promouvoir la résilience et augmenter le bien-être. Nous n’avons pas encore constaté l’efficacité à long terme de ces programmes sur la santé et le bien-être des infirmières.

Alors que les infirmières sont responsables d’accorder la priorité aux autosoins, les organismes de soins de santé sont responsable de la création d’un environnement de travail dans lequel les infirmières peuvent s’épanouir. Les infirmières signalent moins d’erreurs médicales lorsque leur bien-être est soutenu par leurs organisations et qu’ils sont en meilleure santé physique et mentale.

La solution à long terme à la pénurie de personnel infirmier exige changements systématiques qui valorisent les infirmières et leur offrent un lieu de travail sécuritaire. Les exemples incluent la mise en œuvre de salaires appropriés et d’horaires flexibles, la garantie d’un personnel infirmier adéquat et la création d’emplois qui permettent aux infirmières vieillissantes de continuer à travailler dans des rôles de soins directs aux patients afin qu’elles puissent rester plus longtemps sur le marché du travail au lieu de prendre leur retraite. La pandémie a sensibilisé davantage de personnes aux conditions pénibles dans lesquelles travaillent de nombreuses infirmières. Mais sans changements systématiques, l’exode des infirmières hors de la profession – et son impact négatif sur les soins aux patients – ne fera que se poursuivre.

[[Les rédacteurs en chef des sciences, de la santé et de la technologie de The Conversation choisissent leurs histoires préférées. Hebdomadaire le mercredi.]


Les chercheurs expriment leur inquiétude alors que la glace de mer pluriannuelle de l’Arctique atteint un niveau record -Ecologie, science


  • Une faible concentration de glace de mer peut créer une image trompeuse de la santé de la glace de mer dans l’Arctique. Bien que l’étendue ne soit qu’à son 12e niveau le plus bas depuis le début des enregistrements satellitaires en 1979, les eaux au nord de l’Alaska en septembre sont pleines de glace diffuse.
  • Très préoccupant pour les scientifiques, l’Arctique a perdu 95 % de sa glace de mer pluriannuelle épaisse depuis 1985. Une glace plus ancienne et plus épaisse agit comme un tampon contre les futurs événements de l’océan bleu, attendus dès 2035. Un BOE marquerait une année où la plus grande partie de l’Arctique la glace fond en été.
  • Il ne faut plus une année exceptionnelle pour atteindre des records d’étendue ou de volume. 2020 a vu une deuxième place dans le livre des records, derrière 2012.

Début juillet, la banquise arctique semblait prête à établir un nouveau record au minimum annuel – la date en septembre où la glace flottant au-dessus de l’océan atteint son niveau le plus bas. Pendant des semaines, la banquise a suivi les dernières années record de 2020 et 2012. Mais alors que le temps frais et nuageux a dominé l’Arctique début août, la perte de glace s’est arrêtée et la région a réussi à éviter une année calamiteuse. pour la couverture de glace de mer. En fait, au 16 septembre, l’étendue était à son 10e plus bas jamais enregistré, dépassant les six dernières années, couvrant 4,724 millions de kilomètres carrés (1,824 millions de miles carrés).

« Nous envisageons un sursis cette année », déclare Mark Serreze, directeur exécutif de la Centre national de données sur la neige et la glace (NSIDC)

Cependant, les apparences peuvent être trompeuses. Le volume et la concentration de glace de mer, ainsi que la présence de glace pluriannuelle, c’est-à-dire de glace plus ancienne, souvent entre deux et quatre mètres d’épaisseur, racontent une histoire différente et inquiétante. La grande nouvelle : la glace pluriannuelle est à un niveau record en 2021, et il est probable que le volume soit également en baisse, bien que ces données n’aient pas encore été entièrement analysées.

La raison de la disparité entre l’étendue, le volume et la concentration : Bien que la glace de mer puisse être très étendue, couvrant une vaste superficie en septembre, cette glace est inhabituellement mince et fragmentée. « La santé de la couverture de glace n’est pas bonne », note Serreze.

Une équipe de recherche du service géologique des États-Unis traverse un paysage gelé de l’océan Arctique. Notez l’irrégularité de la glace, qui peut généralement être épaisse à certains endroits et très mince à d’autres. Image reproduite avec l’aimable autorisation de « Équipe de recherche sur les morses de l’USGS » par Commission géologique des États-Unis, CC0 1.0.

La concentration de glace est en baisse

Les scientifiques mesurent l’étendue de la glace en divisant l’océan en cellules quadrillées, chacune couvrant une superficie de 625 kilomètres carrés (241,3 milles carrés), et en analysant les pixels des images satellites pour déterminer quelles cellules contiennent de la glace. Toute cellule contenant plus de 15 % de glace est considérée comme solide avec de la « glace », tandis que toute cellule inférieure à 15 % est considérée comme ne contenant « pas de glace ». 90%. Cela signifie que même lorsque l’étendue de la glace de mer à l’intérieur d’une cellule de la grille existe à de très faibles concentrations, elle sera toujours comptée dans la même catégorie que les concentrations plus élevées. L’étendue, par conséquent, n’est pas indicative de la qualité de la glace – avec de la glace solide et de la glace criblée de trous ressemblant à du fromage suisse, souvent considérée comme équivalente.

« C’est un peu trompeur », convient Serreze. « Beaucoup de ces pixels sont comptés comme de la glace, mais ils n’ont pas beaucoup de glace, peut-être 30 ou 40 %. C’est de la glace très diffuse dans les zones au nord de la mer de Beaufort en Alaska et dans la mer des Tchouktches cette année. »

Bien que la glace de mer dans l’ouest de l’Arctique ait semblé plus étendue cet été, on ne pouvait pas en dire autant de la mer de Laptev et de la mer orientale du Groenland, toutes deux bordant la Sibérie     . La « mer de Laptev est juste grande ouverte et c’est arrivé très tôt », dit Serreze. Alors que la saison de fonte a commencé environ deux à trois semaines plus tard que la moyenne dans le nord de la mer de Beaufort, le retrait des glaces a commencé plus d’un mois plus tôt dans le Laptev, au nord de la Russie, et a finalement atteint un niveau record dans le record satellite.

Pendant ce temps, la glace dans l’est de la mer du Groenland plane juste en dessous d’un minimum record établi en 2002. L’eau libre persiste également de manière surprenante dans la mer de Wandel (s’étendant du nord-est du Groenland au Svalbard) – rare pour cette région abritant de la glace pluriannuelle jusqu’à ces dernières années. Dans l’ensemble, le début de la saison de fonte dans l’Arctique a eu lieu cinq jours plus tôt que la moyenne en 2021.

En résumé, « le [Arctic sea ice] l’étendue est plus élevée que ces dernières années, mais cela ne dit pas toute l’histoire », explique Serreze.

Les concentrations de glace de mer arctique de cette année ont été très faibles, la glace étant souvent largement dispersée au milieu de plaques d’eau libre. « Poux de mer » par Visites et voyages à Huron trouvé sur Flickr sous licence CC BY 2.0.

La banquise arctique rajeunit

Le titre le plus inquiétant en septembre est le manque de glace pluriannuelle dans les eaux arctiques. La glace pluriannuelle est une glace qui persiste pendant la saison de fonte estivale, devenant généralement plus épaisse, plus rugueuse et plus résistante à la fonte au fil des années. Les écosystèmes, les animaux et les humains dépendent de cette vieille glace, qui a également longtemps contribué à empêcher un événement dit de l’océan bleu ou BOE – une année future au cours de laquelle presque toute la glace de l’Arctique fondra, qui devrait se produire plus tard ce siècle, bien que les modèles ne soient pas d’accord. quant à précisément quand.

La glace pluriannuelle a été sur une tendance à la baisse pendant près de quatre décennies, et cette tendance s’est poursuivie cette année. Les scientifiques ont calculé que la glace pluriannuelle représentait 16 % de la banquise totale en 1985. Aujourd’hui, elle n’est plus que de 1 %, soit une perte de 95 % de glace épaisse et résistante en à peine 36 ans.

2021 est particulièrement mauvais. Début août, la glace pluriannuelle ne couvrait que 1,6 million de kilomètres carrés (618 000 milles carrés).

«Bien que la glace pluriannuelle soit plus résistante que la glace plus jeune, cette année, nous avons vu beaucoup de glace plus ancienne poussée dans des régions où la glace fond normalement», explique Robbie Mallett, qui étudie la glace de mer et est doctorant à l’University College London.

Âge de la banquise arctique au 19 août 2021. Capture d’écran avec l’aimable autorisation de NASA EASE.

Pour survivre, la glace de mer pluriannuelle doit rester dans les eaux plus froides du Grand Nord. Mais à l’hiver 2020, le vortex polaire – un anneau de vent dans le sens inverse des aiguilles d’une montre qui maintient généralement de l’air extrêmement froid en place au-dessus de l’Arctique – s’est effondré, créant un motif inhabituel de vents de surface dans le sens des aiguilles d’une montre qui tournaient autour du centre de l’Arctique, poussant la banquise pluriannuelle au nord du Groenland dans la mer de Beaufort plus chaude.

Pendant des mois, de la vieille glace épaisse s’est déversée dans la mer de Beaufort jusqu’à ce qu’elle contienne près du quart de la glace pluriannuelle de l’océan Arctique. « La question [then] était : « Est-ce que toute cette glace va fondre au cours de l’été à venir ? » », a déclaré Serreze du NSIDC. « Et, cet été, parce qu’il fait si chaud dans le Beaufort, la réponse semble être que la majeure partie a fondu. »

« Historiquement, nous n’avons pas perdu de grandes quantités de glace pluriannuelle pour être soufflées dans le Beaufort », rapporte Mallett. « On voit souvent de la glace sortir par le détroit de Fram qui se jette dans l’Atlantique Nord [between Greenland and Svalbard]. « 

Les morses, comme les ours polaires, dépendent de la banquise arctique comme habitat. La perte de la majeure partie de cette glace plus tard au cours de ce siècle lors d’un événement océanique bleu (BOE) provoqué par l’escalade du changement climatique pourrait être catastrophique pour la biodiversité de la région et pour les populations traditionnelles qui dépendent de la chasse pour leur subsistance. « Le morse du Pacifique fait surface à travers la glace » par USFWSAlaska sous licence CC BY-NC-ND 2.0.

La perte de glace pluriannuelle a de nombreuses répercussions sur l’écosystème arctique et potentiellement sur le climat mondial. Parce qu’il est plus épais, il réduit la quantité de lumière qui pénètre dans les eaux arctiques, dictant ainsi la productivité des producteurs primaires, comme les algues, qui poussent sur la glace. Ces producteurs primaires influencent le reste de la chaîne alimentaire arctique.

La glace pluriannuelle sert également de tampon contre le réchauffement de l’atmosphère et de l’océan arctiques, protégeant le reste de la glace de mer et aidant à conjurer un événement de l’océan bleu. Personne ne sait exactement comment le climat mondial réagira à un BOE, ou à une succession de BOE, lorsque les eaux sombres d’un océan Arctique ouvert commenceront à absorber et à retenir beaucoup plus de chaleur estivale du soleil, plutôt que de la refléter dans l’espace comme le la glace de la région fait aujourd’hui.

La seule lueur d’espoir, dit Mallett, est qu’il s’attendait à ce que davantage de glace pluriannuelle fonde cet été. « Mais parce que ce n’est pas très [hot or sunny] été pour l’Arctique, cela a contribué à sa survie.

Un grand bassin d’eau de fonte sur la glace de mer dans la mer de Beaufort de l’Arctique en juillet 2016. La photo a été prise dans le cadre de l’opération IceBridge de la NASA pour cartographier et documenter la fonte de la glace de mer arctique. Image reproduite avec l’aimable autorisation de la NASA/Opération IceBridge.

Pourtant, la tendance générale est alarmante pour les chercheurs. « L’année dernière, nous avons eu la deuxième plus faible étendue jamais enregistrée. Je pense qu’il est important de se rappeler que si vous voyez l’Arctique sur une tendance linéaire, ce n’était pas une année bizarre comme 2007 ou 2012 », explique Mallett. En d’autres termes, même si une faible étendue n’a pas eu lieu cette année, des pertes de glace arctique – des réductions de la glace pluriannuelle, de l’étendue, du volume et de la concentration – sont à prévoir à l’avenir, à moins que l’humanité ne réduise considérablement ses émissions annuelles de carbone atmosphérique.

La prochaine date critique pour assurer ces réductions de carbone survient début novembre, lorsque les représentants des nations du monde se réunissent à Glasgow en Écosse pour le COP26 sommet au cours duquel les négociateurs tenteront de mettre en place des mécanismes permanents pour maintenir une augmentation de température de 1,5 degré Celsius à portée de main, évitant, espérons-le, un changement climatique catastrophique.

Citations :

Mallett, R.D.C., Stroeve, J.C., Cornish, S.B. et al. (2021). Des vents d’hiver record en 2020/21 ont entraîné un transport exceptionnel de glace de mer dans l’Arctique. Communications Terre & Environnement, 2(1). https://doi.org/10.1038/s43247-021-00221-8

Image de la bannière:Une maman ours polaire et ses petits. Image reproduite avec l’aimable autorisation du Commission géologique des États-Unis, CC PDM 1.0

RETOUR D’INFORMATION: Utilisez ce formulaire pour envoyer un message à l’auteur de cet article. Si vous souhaitez publier un commentaire public, vous pouvez le faire en bas de la page.

Émissions de carbone, climat, changement climatique, changement climatique et conditions météorologiques extrêmes, science du climat, environnement, conditions météorologiques extrêmes, crise environnementale mondiale, réchauffement climatique, vert, émissions de gaz à effet de serre, impact du changement climatique, océans et changement climatique, régions polaires, recherche, données satellitaires, glace de mer, températures, météo


Bouton Imprimer
IMPRIMER

4 stratégies pour une percée mondiale sur l’énergie et le changement climatique -Ecologie, science


Deux événements mondiaux importants sont à venir et l’on espère largement qu’ils contribueront à relever ce que les Nations Unies appellent le « double défi » : lutter contre le changement climatique et garantir que les pays les plus pauvres puissent se développer de manière durable. L’énergie est un thème central dans les deux.

Pour la première fois en 40 ans, l’Assemblée générale des Nations Unies convoque une sommet mondial des dirigeants mondiaux axé uniquement sur l’énergie. Si tout se passe comme prévu le 24 septembre 2021, ils envisager une feuille de route cela comprend le triplement des investissements dans les énergies renouvelables et la mise à disposition d’une énergie moderne et propre abordable pour tous et partout au cours de la décennie.

Le deuxième événement est le Conférence des Nations Unies sur le climat en novembre, où les négociateurs représentant les nations du monde entier seront invités à intensifier les efforts de leurs pays pour réduire leurs émissions de gaz à effet de serre.

Le sommet sur le climat de cette année sera le premier à évaluer les progrès accomplis dans la réalisation des Accord de Paris sur le climat 2015. Il y a quelques nouveaux efforts – le président Joe Biden a annoncé le 17 septembre des plans pour un engagement des États-Unis et de l’Union européenne à réduire les émissions de méthane de 30% au cours de la décennie et a exhorté d’autres pays à adhérer – mais il reste également des points de blocage dans la façon dont les nations atteindront les objectifs promis. Les résoudre sera important pour la crédibilité de l’accord et la volonté des pays en développement de s’engager à progresser davantage.

Comme climat experts politiques Forts de décennies d’expérience dans le domaine de la politique énergétique internationale, nous avons identifié quatre priorités stratégiques qui contribueraient à jeter les bases d’une réussite dans l’assainissement de l’énergie et du changement climatique.

Qu’est-ce qui a été accompli jusqu’à présent?

Malgré les objectifs ambitieux de nombreux pays, les émissions mondiales de gaz à effet de serre ont continué d’augmenter. L’année 2020 a été une brève exception – les émissions ont chuté significativement en raison de la pandémie mondiale – mais cette tendance s’est déjà inversée à mesure que les économies se redressent.

Les déclarations publiées par les dirigeants mondiaux après la récente G7 et G20 les réunions ont souligné la reconnaissance du problème. Pourtant, très peu de pays et d’entreprises ont mis en place des plans et des budgets détaillés pour atteindre leurs propres objectifs de haut niveau.

Illustration montrant où réduire les émissions le plus rapidement et le plus efficacement possible
Atteindre l’objectif de l’accord de Paris sur le climat de maintenir le réchauffement climatique en dessous de 1,5 C (2,7 F) nécessitera de réduire les combustibles fossiles et d’augmenter les énergies renouvelables et l’efficacité énergétique, ainsi que de maintenir le dioxyde de carbone hors de l’atmosphère avec des techniques telles que la capture et le stockage ou l’utilisation du carbone. (CCS et CCU).
Agence internationale des énergies renouvelables

4 priorités stratégiques

Faire en sorte que les politiques énergétiques et climatiques du monde entier aillent dans la même direction est une tâche ardue. Voici quatre stratégies qui pourraient aider les pays à naviguer dans cet espace :

1) Déployer plus largement la tarification et les marchés du carbone.

Seulement quelques uns les pays, les états et les régions ont actuellement des prix du carbone suffisamment élevés pour pousser les pollueurs à réduire leurs émissions de dioxyde de carbone. Les négociations sur le climat en Écosse se concentreront sur la mise en place de règles adaptées aux marchés mondiaux.

Faire en sorte que ces marchés fonctionnent bien et de manière transparente est essentiel pour atteindre efficacement les nombreux objectifs climatiques zéro net qui ont été annoncés par les pays de Japon et Corée du Sud vers les États-Unis, la Chine et l’Union européenne. Il s’agit notamment de règles sur la utilisation des compensations carbone – ils permettent aux particuliers ou aux entreprises d’investir dans des projets qui contribuent à équilibrer leurs propres émissions – qui sont actuellement très controversés et largement non fonctionnels ou transparents.

2) Concentrez votre attention sur les secteurs « difficiles à décarboner ».

Le transport maritime, le fret routier et les industries comme le ciment et l’acier sont tous des endroits difficiles pour réduire les émissions, en partie parce qu’ils n’ont pas encore de substituts testés et abordables pour les combustibles fossiles. Bien qu’il existe des idées innovantes, les problèmes de compétitivité – tels que les entreprises déplaçant la production en dehors des zones réglementées pour éviter les réglementations – ont été un obstacle majeur au progrès.

L’Europe essaie de surmonter cet obstacle en établissant un mécanisme d’ajustement de la frontière carbone, avec des prélèvements sur les émissions à l’importation similaires à ceux des producteurs européens. L’administration Biden est également explorer de telles règles.

3) Faire participer la Chine et les autres économies émergentes.

Il est clair que le charbon, le combustible fossile le plus intensif en carbone, doit être éliminé rapidement, et cela est essentiel à la fois pour les programmes énergétiques et climatiques de l’ONU. Étant donné que plus de la moitié du charbon mondial est consommée en Chine, ses actions se démarquent, bien que d’autres économies émergentes telles que l’Inde, l’Indonésie et le Vietnam soient également critiques.

Ceci ne sera pas facile. Notamment, la moitié des centrales au charbon chinoises ont moins de dix ans, une fraction de la durée de vie typique d’une centrale au charbon.

4) Mettre l’accent sur l’innovation.

Le soutien à l’innovation nous a apporté des énergies renouvelables et des véhicules électriques de pointe beaucoup plus rapidement que prévu. Plus est possible. Par exemple, l’éolien offshore, la géothermie, la capture du carbone et l’hydrogène vert sont de nouveaux développements qui peuvent faire une grande différence dans les années à venir.

Qui dirige le développement de ces nouvelles technologies et quelles entreprises en tireront d’importants avantages économiques. Ils soutiendront également des millions de nouveaux emplois et la croissance économique.

Heureusement, les investisseurs soutiennent activement ces technologies. De plus en plus d’investisseurs commencent à croire aux transitions énergétiques et investissent leur argent dans le développement des technologies associées. Néanmoins, un soutien accru du gouvernement au financement de la recherche et du développement peut catalyser ces efforts.

Il existe également une opportunité d’élargir les efforts d’innovation au-delà de la technologie, à une approche systémique qui inclut des dimensions telles que conception du marché, acceptation sociale, équité, cadres réglementaires et modèles commerciaux. Les systèmes énergétiques sont profondément interconnectés aux problèmes sociaux, donc les changer ne sera pas un succès si les solutions se concentrent uniquement sur la technologie.

Pas une seule solution

Il est probable que les délibérations de l’ONU sur l’énergie et le climat au cours des prochains mois continueront d’avancer par à-coups. Le vrai travail doit avoir lieu à un niveau de mise en œuvre plus pratique, comme dans les États, les provinces et les municipalités. S’il y a une chose que nous avons apprise, c’est que l’atténuation du changement climatique sera une longue tâche, et non une annonce politique ponctuelle ou le soutien d’une célébrité. Cela demande bien plus que de simplement répéter des platitudes.

Les politiciens doivent montrer que les nombreuses transitions énergétiques émergentes sont bonnes pour les économies et les communautés, et peuvent créer des emplois et des recettes fiscales durables. Bien qu’il soit incontesté que les avantages de l’atténuation des gaz à effet de serre dépassent de loin le coût, il n’est pas toujours facile de marier cela avec des cycles politiques à court terme.

Cet article a été mis à jour le 17 septembre 2021, avec l’annonce de la promesse de vente de méthane de Biden.

[[Les rédacteurs en chef de The Conversation’s Politics + Society sélectionnent des histoires à connaître. Inscrivez-vous à Politics Weekly._]

comment la Corée du Nord et la Corée du Sud se sont enfermées dans une dangereuse course aux armements -Ecologie, science


Les récents essais de missiles tit-for-tat sur la péninsule coréenne ont fait monter les tensions dans la région. Le 15 septembre, la Corée du Nord a lancé deux missiles balistiques à courte portée au large de sa côte est, deux jours seulement après avoir testé un nouveau missile de croisière à longue portée capable d’atteindre des cibles au Japon et en Corée du Sud. Quelques heures plus tard, la Corée du Sud a testé un nouveau missile balistique lancé par sous-marin, ce qui en fait l’un des sept pays à disposer de cette technologie.

Cette a été rapportée comme le dernier développement d’une course aux armements dans la péninsule coréenne. Mais la finalité militaire des missiles balistiques pour la RPDC (Corée du Nord) est complètement différente de celle de ceux développés par son voisin du sud.

Parallèlement au développement d’une capacité d’armes nucléaires, la RPDC a commencé à construire et à déployer des missiles balistiques dans les années 1980. Leur objectif principal était de fournir les moyens de livrer des ogives nucléaires contre des « cibles ennemies » en cas de conflit. La Corée du Sud, quant à elle, a renoncé aux armes nucléaires en 1975 lorsqu’elle a ratifié le Traité de non-prolifération nucléaire. Le pays a lancé un programme limité de missiles conventionnels à la fin des années 1980.

Le programme de missiles de la Corée du Nord s’est développé à partir de missiles soviétiques de l’époque de la guerre froide avec des modifications ultérieures pour augmenter la portée et la précision. L’objectif de Pyongyang a été de développer une dissuasion (ou une menace) nucléaire crédible contre une superpuissance nucléaire à l’autre bout du monde – les États-Unis.

Cela nécessitait des missiles balistiques à portée intercontinentale ainsi qu’un stock important de dispositifs nucléaires testés. Le programme de la Corée du Nord a continué à dépendre fortement de Technologie soviétique/russe avec d’autres importations, très probablement de Chine.

Les missiles à moyenne portée du Nord peuvent menacer le Japon et la Corée du Sud. Alors que la Corée du Sud et les États-Unis sont considérés comme les adversaires les plus probables de la Corée du Nord dans tout conflit, menacer de détruire la Corée du Sud est problématique pour un leadership nord-coréen ostensiblement dédié à l’unification coréenne. Les Hwasong-15, testé en 2017, s’est rapproché le plus de démontrer une capacité à cibler les États-Unis.

Les développements récents pourraient néanmoins changer radicalement la situation stratégique de la péninsule coréenne et de l’Asie du Nord-Est. En réponse à la menace nord-coréenne, la Corée du Sud et le Japon ont déployé des défenses antimissiles balistiques fournies par les États-Unis. Mais ces systèmes ne fourniraient qu’une protection imparfaite si la Corée du Nord lançait une attaque nucléaire déterminée à très courte portée.

La Corée du Sud a été initialement dotée de la technologie des missiles par les États-Unis dans les années 1970. Le programme de missiles indigènes du pays a commencé par l’ingénierie inverse des missiles américains et s’est développé à partir de là. En juin, il a été annoncé que les États-Unis et la Corée du Sud avaient convenu de supprimer restrictions sur la portée et le poids des missiles de ce dernier convenu en 1979.

Le but des missiles balistiques et de croisière sud-coréens armés d’ogives conventionnelles est de cibler les centres de commandement et de contrôle nord-coréens et les installations militaires renforcées enfouies profondément sous terre. Ce que la Corée du Sud appelle son «tuer la chaîne» est conçu pour répondre de manière agressive à n’importe quel niveau d’agression nord-coréenne par « des punitions et des représailles massives ».

Un missile balistique lancé depuis une base côtière.
La Corée du Sud lance un nouveau missile balistique.
EPA-EFE/Ministère sud-coréen de la Défense

Le lancement réussi de son missile sous-marin montre que la Corée du Sud, dont budget militaire annuel dépasse largement l’ensemble du PIB de la Corée du Nord) dispose de forces hautement modernes et polyvalentes qui lui permettent au moins de se maintenir dans un conflit conventionnel. Mais en raison de la menace du programme d’armes nucléaires de la Corée du Nord, la Corée du Sud doit continuer à s’appuyer sur la dissuasion nucléaire étendue des États-Unis.

Démonstration de force

Pour la Corée du Nord, ces tests ne sont pas principalement conçus pour améliorer la conception des missiles. Au lieu de cela, ils visent à démontrer à sa propre population que la Corée du Nord est une nation grande et puissante. Il a également pour objectif de démontrer sa puissance militaire à des adversaires potentiels, notamment la Corée du Sud et les États-Unis.

La Corée du Nord utilise également ces tests comme moyen d’atténuer l’isolement diplomatique et comme levier pour générer de l’aide internationale. Au cours de l’administration Trump, l’ampleur croissante des essais nucléaires et de missiles nord-coréens a conduit Trump à menacer d’abord « »Feu et fureur” suivi des sommets avec Kim Jong-un. Les sommets n’ont guère abouti, si ce n’est pour améliorer la position publique de Kim – à la fois sur le plan international et auprès de son propre public.

Donald Trump et Kim Jong-un se serrent la main et sourient.
Réunion d’esprit : le président américain Donald Trump et le président coréen Kim Jong-un à la frontière de la zone démilitarisée de la Corée du Nord et de la Corée du Sud en 2019.
EPA-EFE/KCNA

De plus en plus sévère sanctions internationales ont durement frappé la Corée du Nord – bien que Pyongyang ait massivement investi dans le trafic et le blanchiment d’argent pour atténuer l’impact sur les élites nord-coréennes. Un panel d’experts de l’ONU conclu plus tôt cette année que « le régime nord-coréen esquive les sanctions à un rythme plus rapide que la communauté internationale n’est en mesure de durcir le régime de sanctions ».

Cela signifie que même s’il existe désormais un risque sérieux de une autre grande famine, le programme d’armement du pays s’est poursuivi à un rythme soutenu. Il a maintenant beaucoup de capacité pour fabriquer ses propres missiles.

Impasse

La reprise des essais de missiles et la reprise des opérations du réacteur nucléaire de Yongbyon signalent un nouvel effort de la RPDC pour faire avancer son programme d’armement nucléaire. Une fois de plus, cela servira avant tout une fin politique : sortir de l’impasse politique et économique dans laquelle elle se trouve.

L’administration Biden, quant à elle, tente de se positionner entre la politique de « patience stratégique» (en attendant que la Corée du Nord mette en œuvre ses précédents engagements de dénucléarisation) de l’administration Obama et du «bonne affaire» (relations diplomatiques complètes et avantages économiques en échange de l’abandon des armes nucléaires) promu par Trump.



À lire aussi :
Corée du Nord, prolifération nucléaire et pourquoi la « théorie du fou » est fausse à propos de Kim Jong-un


Washington reste déterminé à forcer la Corée du Nord à arrêter son programme d’armes nucléaires, mais n’a pas expliqué comment cela pourrait être réalisé. En l’absence d’initiatives diplomatiques crédibles, la tension entre la Corée du Nord d’un côté et la Corée du Sud et les États-Unis de l’autre risque de s’accroître. Attendez-vous à d’autres lancements de missiles – et peut-être à des essais d’armes nucléaires – dans un avenir proche.

Analyse de la pureté des oligonucléotides par électrophorèse capillaire -Ecologie, science



Le processus de synthèse d’oligonucléotides peut introduire de petites impuretés à divers stades. De plus, différentes méthodes de synthèse et efficacités de purification peuvent avoir un impact sur la qualité des échantillons. En tant que tel, il est important d’évaluer tous les oligonucléotides utilisés en laboratoire pour s’assurer que leur pureté est suffisante pour les applications en aval telles que la PCR, l’assemblage de gènes et les tests de microarray/hybridation.

Téléchargez cette présentation technique d’Agilent pour découvrir comment l’électrophorèse capillaire parallèle automatisée sépare et évalue les échantillons d’acide nucléique simple brin.

Nous utilisons l’ADN environnemental pour surveiller comment les activités humaines affectent la vie dans les rivières et les ruisseaux -Ecologie, science


Les rivières, les lacs et les zones humides ne couvrent que 1% de la surface de la Terre mais abritent près de 10% de toutes les espèces, y compris les poissons, les mammifères, les oiseaux, les insectes et les crustacés. Mais ces riches, diverse les écosystèmes sont en chute libre. Dans le monde, les espèces sont baisse plus vite maintenant qu’à aucun autre moment de l’histoire de l’humanité, et les eaux douces perdent plus d’espèces que les écosystèmes terrestres ou océaniques.

Aujourd’hui environ 1 créature d’eau douce sur 4 est menacée d’extinction. Les zones humides disparaissent trois fois plus rapide que les forêts. Partout dans le monde, la qualité de l’eau est en chute libre, polluée par plastique, eaux usées, boues minières, produits chimiques industriels et agricoles et bien plus encore.

Il est difficile d’étudier comment ces stress affectent la vie aquatique. Les menaces sont nombreuses et diverses et les réseaux fluviaux couvrent de vastes régions géographiques. Souvent, ils traversent des zones éloignées et presque inaccessibles. Les techniques actuelles de surveillance des espèces d’eau douce sont laborieux et coûteux.

Dans notre travail comme des chercheurs dans écologie, nous testons une nouvelle méthode qui peut considérablement étendre la biosurveillance : en utilisant l’ADN environnemental, ou eDNA, dans les rivières pour cataloguer et compter les espèces. Les agences fédérales et locales ont besoin de ces données pour restaurer la qualité de l’eau et sauver les espèces en déclin de l’extinction.

Cet aperçu du film « Rivières cachées » révèle la vie diversifiée et méconnue des voies navigables des Appalaches du Sud.

Les méthodes traditionnelles sont lentes et coûteuses

Avec les méthodes traditionnelles de biosurveillance, les scientifiques comptent les espèces individuelles et leur abondance à seulement quelques sites. Par exemple, une étude récente de impacts de l’exploitation minière au sommet d’une montagne sur les poissons en Virginie-Occidentale échantillonné seulement quatre sites avec une équipe de quatre chercheurs.

La collecte et l’identification d’organismes aquatiques nécessitent des écologistes et des taxonomistes hautement qualifiés possédant une expertise dans une grande variété d’espèces d’eau douce. Pour chaque échantillon de poisson ou d’invertébré prélevé sur le terrain, il faut de quelques heures à plusieurs semaines pour identifier toutes les espèces. Seuls les pays riches peuvent se permettre ce processus coûteux.

La conservation des espèces menacées et en voie de disparition et le maintien de la santé des écosystèmes fluviaux nécessitent une surveillance de vastes zones au fil du temps. Les insectes aquatiques et les espèces de poissons sensibles sont l’équivalent d’eau douce du canari proverbial dans une mine de charbon : si ces espèces sont absentes, c’est un indicateur fort de problèmes de qualité de l’eau. La cause peut être l’exploitation minière, l’agriculture, l’urbanisation ou d’autres sources, ainsi que barrages qui bloquent les mouvements des animaux en aval.

Les scientifiques prélèvent des échantillons de poissons dans un ruisseau du Maryland par «pêche électrique» – des poissons étonnants avec une légère impulsion électrique afin qu’ils puissent être collectés, identifiés et relâchés une fois le choc passé.

Preuve génétique flottante

Les innovations en technologie génétique ont créé un nouvel outil puissant et abordable que nous testons actuellement. Le processus consiste à extraire l’ADNe du matériel génétique flottant dans l’eau – peau, écailles, matières fécales et organismes unicellulaires, tels que les bactéries.

En analysant cette information génétique, nous pouvons détecter un large éventail d’espèces. Nous avons commencé à envisager d’utiliser l’eDNA pour nos recherches en 2018, après que plusieurs études eurent démontré sa capacité à surveiller des espèces d’intérêt ou des groupes d’organismes uniques. rivières et les océans.

La collecte d’ADNe est facile : un échantillon d’eau de 4 onces peut capturer l’ADN résiduel de milliers d’espèces aquatiques. Un autre avantage est qu’il ne nécessite pas de tuer la faune pour l’identification.

Au laboratoire, nous analysons un à un l’ADN de différents groupes taxonomiques : bactéries, algues, poissons et macroinvertébrés – des organismes dépourvus de colonne vertébrale et suffisamment gros pour être vus, tels que les escargots, les vers et les coléoptères. De nombreux chercheurs étudient un seul groupe, mais nous les évaluons tous en même temps.

Nous faisons ensuite correspondre nos séquences d’ADN avec des espèces d’eau douce déjà répertoriées dans des bases de données existantes. De cette façon, nous pouvons tracer la répartition et l’abondance de ces organismes à l’intérieur et à travers les rivières.

Ce processus ne nécessite qu’un filtre bon marché, une seringue et des flacons, et tout le monde peut le faire. Les sociétés commerciales d’ADNe facturent moins de 200 $ pour extraire et séquencer un échantillon.

Graphique montrant comment les scientifiques analysent l'eDNA pour détecter différentes espèces.
La plupart des eDNA que les auteurs collectent dans les flux sont microbiens (l’ADN gris dans le dessin ci-dessus). Sans techniques spéciales, ils ne « verraient » pas l’ADN moins fréquent d’autres groupes taxonomiques, de sorte que leurs enquêtes généreraient une courbe d’abondance des espèces comme celle en bas à gauche, dans laquelle la plupart des groupes préoccupants pour la conservation sont trop rares pour être détectés ou tomber dans la « longue traîne » des occurrences rares. En utilisant des amorces ciblées – de courtes portions d’ADN qui sont uniques à des groupes spécifiques d’organismes – ils peuvent amplifier l’ADNe de groupes moins abondants, comme les algues, les arthropodes et les poissons, comme illustré à droite.
Emily Bernhardt, réalisée avec Biorender, CC BY-ND

Rivières modifiées

En utilisant cette méthode, nous avons étudié de manière approfondie 93 rivières de Virginie-Occidentale – en examinant l’ensemble de l’arbre de la vie, de la plus petite bactérie au poisson – en deux jours avec une équipe de quatre personnes.

Les rivières des Appalaches que nous étudions regorgent de vie. Ce sont quelques-uns des écosystèmes d’eau douce tempérés les plus diversifiés au monde sur le plan biologique, abritant des de nombreuses espèces de poissons, ainsi que des salamandres, des écrevisses, des moules et des insectes aquatiques. Beaucoup ne se trouvent nulle part ailleurs. nous avons compté plus de 10 000 espèces différentes dans ces 93 cours d’eau.

La zone où nous avons travaillé est une région d’exploitation minière intensive du charbon, qui affecte fortement les cours d’eau. Les liquides s’écoulant des mines sont acide, mais dans cette région, ils réagissent avec la roche calcaire, de sorte que l’effet net est de rendre les cours d’eau locaux alcalins. Le drainage minier augmente également la salinité des cours d’eau et les concentrations de sulfate et autres contaminants. Nos recherches ont révélé que les bassins hydrographiques minés contenaient 40 % moins d’espèces que les zones sans exploitation minière, et les organismes que nous avons détectés étaient moins abondants que dans les rivières non affectées.

Évaluation de la santé des rivières

Nous pensons que cette nouvelle approche représente une révolution pour la biosurveillance, élargissant notre capacité à quantifier et à étudier la vie en eau douce. C’est également un nouvel outil de conservation important, permettant aux scientifiques de suivre les changements dans les populations d’espèces menacées ou envahissantes. Les chercheurs peuvent également utiliser l’eDNA pour surveiller la biodiversité ou découvrir de nouvelles espèces dans les océans ou les sols.

Cette méthode de science ouverte rend toutes les données ADN largement disponibles, avec presque toutes les séquences placées dans des référentiels publics. À l’avenir, nous nous attendons à ce qu’il aide de nombreux types de recherche, ainsi que des programmes de surveillance et de conservation nationaux et locaux. Les investissements dans la collecte d’ADNe, l’identification des organismes et l’analyse de leurs signatures génétiques continueront d’en faire un outil plus efficace.

[[Plus de 100 000 lecteurs comptent sur la newsletter de The Conversation pour comprendre le monde. Inscrivez-vous aujourd’hui.]

Des efforts sont en cours pour mieux cibler diverses espèces individuelles, en se concentrant sur celles qui sont en voie de disparition, les espèces envahissantes qui endommagent les écosystèmes et les espèces sensibles qui servent d’indicateurs de la santé des rivières. Les scientifiques congèlent des échantillons d’ADNe à -112 degrés F (-80 C) dans l’espoir que les progrès technologiques puissent produire plus d’informations à l’avenir.

Les approches de surveillance traditionnelles restent précieuses, mais eDNA ajoute un nouvel outil important à la boîte à outils. Ensemble, ces approches peuvent commencer à répondre à de nombreuses questions sur les réseaux trophiques, l’état de conservation des espèces, les taux de reproduction, les interactions entre les espèces, la santé des organismes, les maladies, etc.

Les plateformes de visioconférence sont-elles le talon d’Achille des PME françaises ? -Ecologie, science


Outil de communication de référence du monde professionnel depuis la pandémie, la visioconférence soulève nombre d’interrogations. Dans une époque où l’espionnage cible massivement l’entreprise, et de plus en plus les petites et moyennes structures, ces dernières doivent mesurer les enjeux et considérer quels engagements sont pris par les prestataires de leur choix.

Cet été, l’affaire Pegasus a relancé la polémique autour de l’espionnage par le biais du digital : outre des gouvernements et des intellectuels, 65 chefs d’entreprises français ont été espionnés par téléphone. Preuve éclatante, s’il en faut, que l’espionnage économique occupe une place prépondérante dans l’ingérence (60% des techniques de renseignement utilisées par la DGSE le sont pour des motifs économiques, industriels et scientifiques), et que sans surprise, cette intrusion recourt au digital (smartphones, visioconférence, messagerie…).

Le savoir-faire des PME françaises en danger

Si l’imaginaire collectif est enclin à projeter ses fantasmes à la « Bureau des légendes » sur des entreprises du CAC 40, ces intrigues sont statistiquement plus fréquentes dans des moyennes structures. PME et PMI devant 71% des entreprises victimes d’espionnage économique selon la Direction centrale du renseignement intérieur, loin des grands groupes qui ont les moyens de se former massivement à la cybersécurité et à la confidentialité des données. Enfin, ces structures plus vulnérables sont aussi fournisseurs, partenaires ou clients de grands groupes, et peuvent représenter une porte d’entrée pour l’espionnage économique.

Le manque à gagner de nos entreprises (secrets de fabrication dérobés, sabotage, atteinte à l’image de marque, viol de la propriété intellectuelle, etc…) et le risque géo-économique sont tellement importants que notre pays s’est doté d’ une unité spéciale des renseignements dédiée au contre-espionnage économique : la Direction du Renseignement et de la Sécurité de la Défense (DRSD). Cette unité se charge d’identifier et de veiller sur les entreprises françaises dont les produits ou les secrets de fabrication en font des potentielles victimes.

La DRSD a alerté au printemps dernier quant à une recrudescence de 36% d’alertes en plus, parents aux tentatives d’espionnage économique par des groupes étrangers profitant de la fragilisation post-covid des entreprises européennes pour tenter le rachat d’entreprises en possession de savoir-faire français.

L’accélération digitale de l’espionnage économique doit amener à une véritable prise de conscience

Le prérequis de présence sur les lieux pour espionner n’est qu’un lointain souvenir. L’omniprésence des messageries et, depuis l’arrivée de la pandémie, l’explosion du recours à la visioconférence pour remplacer les réunions d’équipes en présentiel et tout échange d’information, a donné lieu à une hausse vertigineuse de la cyber-malveillance .

Une solution de visioconférence, même relativement sécurisée, n’est pas sans risque : elle est conçue précisément pour ouvrir une fenêtre sur la vie d’une personne ou d’une entreprise. Comme toute solution de messagerie, on y échange oralement sur des sujets sensibles, sans que les logiciels de transcription puissent être transformés en ces échanges verbaux en textes, et donc en données facilement exploitables. En outre, la visioconférence filme un décor d’où peuvent apparaître des éléments complémentaires : un dossier confidentiel qui traîne sur une étagère, une fenêtre sur l’extérieur qui laisse deviner l’adresse d’une entreprise ou d’un collaborateur, la présence de telle ou telle nouvelle recrue, surtout depuis l’essor des open space (comme par exemple remarquer un visage familier, aperçu chez un concurrent). La visioconférence est donc devenue un outil de prédilection pour espionner.

Qui plus est, le recours massif au télétravail a notamment donné lieu à la mésaventure de « RevCode WebMonitor RAT », le logiciel pirate qui s’est fait passer pour la solution de visioconférence la plus célèbre au monde. Ainsi, des professionnels téléchargeaient la solution pirate persuadés de se procurer la solution de visioconférence souhaitée.

Ce type de déconvenue doit amener à une triple prise de conscience. La première est la plus générale : pour éviter les virus et logiciels espions il faut se limiter à télécharger des logiciels depuis des sites officiels ! La seconde, plus managériale : si les collaborateurs d’une organisation sont obligés de télécharger en toute hâte une solution de visioconférence gratuite et générique, plutôt qu’un outil professionnel scrupuleusement choisi, payant (sinon sur quoi d’autre que le commerce de données se baserait leur business model ?), offrant un minimum de garanties… c’est que la gestion n’a pas conscience des enjeux liés au partage de données. La troisième, plus technique et radicale : pourquoi se tourner vers des outils de visioconférence disponibles uniquement au téléchargement alors que cela constitue déjà un risque ?

Sans sécurisation des échanges par visioconférence, les entreprises n’ont aucun recours

Face à des actes d’espionnage économique, le premier réflexe que l’on peut avoir de penser que l’entreprise peut entamer des poursuites et obtenir un gain de cause. C’est malheureusement inexact et rarement simple.

En premier lieu, la loi française ne sanctionne pas l’espionnage en soi, mais bien les moyens illégaux déployés exemple pour espionner, comme par le vol (de données notamment ou de documents), la concurrence déloyale, l’abus de confiance ou l ‘atteinte au secret des affaires.

Cependant pour prouver l’existence d’une atteinte au secret des affaires encore faut-il avoir réuni trois conditions qui correspondent à la définition dudit secret des affaires selon le code de commerce, à savoir que l’information ne soit pas « en elle-même ou dans la configuration et l’assemblage exact de ses éléments, généralement connue ou facilement accessible pour les personnes familières de ce type d’informations en raison de leur secteur d’ activité », qu’elle « revêt une valeur commerciale, effective ou potentielle, du fait de son caractère secret », et en troisième condition « fait l’objet de la partie de son détenteur légitime de mesures de protection raisonnables, compte tenu des circonstances , pour en conserver le caractère secret ».

En raison de ce dernier critère, une entreprise qui ne déploie pas de mesures de protection suffisantes en amont de toute tentative de violation de ses secrets d’affaires, par exemple en un outil de messagerie ou de visioconférence inadapté et peu sécurisé, s’ exposer à la double peine : voir dérober ses secrets de fabrication, et subir l’absence de recours légal, voiture juridiquement ces « secrets » n’en sont pas pour le juge.

Notre utilisation du numérique dans le cadre professionnel nous exhorte donc à choisir nos canaux de communication avec précaution. Les solutions de visioconférences les données sont restées visibles des opérateurs lorsqu’elles transitent par leurs serveurs), les cas de « bombing » de réunions en visioconférence ont été légion, et enfin, ces solutions sont majoritairement américaines et chinoises.

Ou, en vertu des dispositions extraterritoriales de ces pays, les données sensibles des entreprises françaises peuvent être saisies par des gouvernements qui imposent à leurs champions de servir l’intérêt national en leur livrant des informations sur le camp adverse pour remporter la guerre économique en cours . C’est notamment le cas de la loi sur le renseignement national de la Chine, qui impose à ses multinationales la collaboration avec les services de renseignements pour étendre leur champ d’action à l’étranger.

L’abrogation du Privacy Shield, jusqu’en juillet 2020 les échanges de données hors UE, et les recommandations de la CNIL appelant à revoir l’utilisation d’outils collaboratifs états-uniens et d’identifiant des alternatives pour éliminer le risque d ‘un accès illégal par les autorités américaines aux données, vont aussi dans le sens de la protection des données via la souveraineté numérique.

Enfin, c’est aujourd’hui le Royaume-Uni qui, affranchir ses engagements envers l’UE, envisager de s’écarter du RGPD : s’assurer de nos échanges avec nos collègues et clients d’outre-Manche devient par conséquent crucial.

Le choix de nous protéger efficacement nous revient

L’espionnage économique équivaut à un manque à gagner évalué à plusieurs milliards d’euros par an et nuit à la créativité et à la richesse du tissu entrepreneurial français. Dans le pire des scénarios, il permet le détournement de savoir-faire français et européen à des fins malveillantes par des gouvernements hostiles aux démocraties européennes.

Dans un cyber-engrenage qui nous dépasse, il demeure de notre responsabilité en tant que professionnels de nous interroger, d’accorder notre confiance à des outils qui s’engagent concrètement à ne pas tirer profit des données des entreprises dans lesquelles nous nous investissons chaque jour, mais qui protège au contraire de les protéger.