Identification d’une hélice amphipathique pliée par la proline en aval du domaine méthyltransférase d’une réplicase de Potexvirus et son rôle dans la réplication du virus et la formation de complexes périnucléaires -Ecologie, science


INTRODUCTION

Les virus à ARN à brin positif constituent un grand groupe de virus, comprenant de nombreux agents pathogènes humains, animaux et végétaux importants sur le plan clinique. La réplication des virus à ARN à brin positif caractérisés se produit en étroite association avec les membranes intracellulaires, telles que celles du réticulum endoplasmique (RE), l’appareil de Golgi, les mitochondries et les chloroplastes. La réplication s’accompagne d’un remodelage membranaire dynamique qui induit souvent la formation de grandes structures d’inclusion et de vésicules sphériques, toutes deux parfois reconnues comme des complexes de réplication virale (VRC) (1). On pense que le remodelage membranaire induit par le virus conduit à une réplication efficace en recrutant des composants du virus et de l’hôte pour la formation de VRC, ainsi qu’en protégeant l’ARN viral des nucléases cellulaires de l’hôte (2-6).
Il est proposé que le remodelage des membranes intracellulaires de l’hôte au cours de la formation de VRC soit médié par une réplicase codée par le virus et des protéines de réplication auxiliaires, qui possèdent toutes des propriétés de ciblage membranaire (1, 7). Certaines de ces protéines ont un domaine transmembranaire qui contribue au ciblage membranaire (8, 9). D’autre part, un nombre croissant de rapports ont démontré que les protéines liées à la réplication contiennent une structure en hélice amphipathique impliquée dans l’association et le remodelage membranaires et la réplication ultérieure du virus (10-14). Cependant, en raison du manque de motifs d’acides aminés conservés dans les hélices amphipathiques connues, il est difficile d’identifier une structure d’hélice amphipathique à partir d’une séquence d’acides aminés primaire qui, avec certitude, est impliquée dans l’association membranaire et la réplication virale. Ainsi, les structures -hélices amphipathiques qui fonctionnent comme un domaine d’association membranaire d’une réplicase et fonctionnent dans la réplication virale restent non identifiées dans une variété de virus.
À ce jour, les structures tridimensionnelles (3D) des hélices amphipathiques dans plusieurs protéines virales associées à la membrane, y compris les protéines NS4B et NS5A du virus de l’hépatite C (VHC) et la protéine 1a du virus de la mosaïque du brome (BMV) ont été résolues par magnétisation nucléaire. résonance (RMN) (11, 13, 15-17). Les structures linéaires globales de ces hélices amphipathiques résolues sont essentiellement similaires et susceptibles de se lier à la bicouche lipidique. Les résidus d’acides aminés situés du côté hydrophobe de l’hélice amphipathique sont relativement conservés parmi les virus étroitement apparentés et il a été démontré qu’ils jouent un rôle clé dans le ciblage membranaire (11, 17). De l’autre côté de l’hélice amphipathique se trouve une face cytosolique polaire avec des résidus chargés et basiques qui peuvent médier des interactions électrostatiques avec les phospholipides chargés négativement dans les membranes intracellulaires ainsi que des auto-interactions et des interactions avec d’autres protéines hôtes (18, 19 ). En effet, il a été démontré que des mutations de résidus d’acides aminés hydrophobes ou hydrophiles/polaires amphipathiques de l’hélice α dans les réplicases virales diminuent la stabilité des protéines ou l’efficacité de la réplication virale (11, 13). Ces découvertes combinées indiquent que la structure tertiaire et les propriétés d’association membranaire d’une hélice amphipathique d’une réplicase virale sont importantes pour la phase très précoce de la réplication virale.
Le genre Potexvirus est un groupe de virus à ARN filamenteux à brin positif du supergroupe des alphavirus, de la famille Alphaflexiviridae de la commande Tymovirales, et contient des virus membres qui causent de graves dommages à une variété de plantes cultivées et ornementales (20). Le génome du potexvirus code pour au moins cinq protéines : une réplicase (RNA-dependent RNA polymérase [RdRp]) dans le cadre de lecture ouvert 1 (ORF1), trois protéines à triple blocage de gènes (TGB) qui se chevauchent et impliquées dans le mouvement de cellule à cellule du virus dans les ORF 2, 3 et 4, et une protéine d’enveloppe dans l’ORF5 (20). La réplicase contient un domaine méthyltransférase (MET), un domaine hélicase (HEL) et un domaine ARN polymérase (POL) dans l’ordre de l’extrémité N à l’extrémité C (Fig. 1A). Pour le virus X de la pomme de terre (PVX), l’espèce type du genre, la réplicase est suffisante pour une réplication réussie du virus en l’absence d’autres protéines virales (21). Des études antérieures ont indiqué que, comme c’est le cas pour d’autres virus à ARN, l’infection par le PVX est associée aux membranes intracellulaires de l’hôte : par exemple, un virus in vitro test de réplication a suggéré que PVX se réplique au niveau des membranes du RE (22). Par microscopie confocale et électronique utilisant des marqueurs membranaires et immunodétection de la réplicase PVX, la réplicase s’est avérée être associée à des membranes dérivées du RE (23). De plus, conformément à une analyse au microscope électronique plus ancienne, une analyse d’imagerie récente basée sur la microscopie confocale à balayage laser (CLSM) utilisant des étiquettes de protéines fluorescentes a démontré que les cellules infectées par PVX produisent de grands corps d’inclusion, ou corps X, qui contiennent des membranes dérivées du RE (24 –26). Ces résultats indiquent que la réplicase du PVX cible et s’associe aux membranes du RE pour former des VRC, de manière similaire aux cas d’autres virus à ARN végétaux bien étudiés, y compris le BMV (1). Cependant, le mécanisme par lequel la réplicase s’associe aux membranes du RE et l’exigence de cette association pour diverses étapes du cycle de réplication sont sous-étudiés (23, 24, 27, 28).

FIG. 1

FIG. 1 La réplique de PlAMV est étroitement associée aux membranes du RE par son domaine MET N-terminal. (A) Représentation schématique de l’organisation génomique de PlAMV. Les rectangles représentent des cadres de lecture ouverts (ORF). Les trois domaines de la réplicase virale, la méthyltransférase (MET), l’hélicase (HEL) et la polymérase (POL), sont présentés. Les nombres au-dessous de l’ORF de réplicase font référence aux positions d’acides aminés délimitant les domaines de réplicase au sein de l’isolât Li1. (B) In vitro activité de réplicase par la fraction P30 associée à la membrane provenant de tissus infectés par 53U-RdRp-myc, un réplicon minimum de PlAMV. Les réactions ont été réalisées en utilisant les fractions P30 extraites de N. benthamiana feuilles à 12, 18, 24 et 36 h après l’inoculation avec 53U-RdRp-myc. (Panneau supérieur) 32Les produits d’ARN marqués au P synthétisés par la réplicase PlAMV ont été dissous dans de l’urée 8 M et soumis à une électrophorèse sur gel de polyacrylamide à 2,4 %, suivie d’une autoradiographie. La pointe de flèche indique les bandes correspondant à l’ARN génomique de pleine longueur de 53U-RdRp-myc. (Panneau inférieur) Analyse par immunoempreinte pour la présence de réplicase PlAMV dans chaque fraction P30, détectée par anti-c-myc anticorps. (C) Essai de flottation membranaire et analyse par immunoblot d’échantillons P30 extraits de feuilles exprimant c-myc-tagged PlaAMV réplicas. L’immunotransfert a été réalisé à l’aide d’anti-c-myc (bande indiquée comme Replicase) et des anticorps anti-BiP (bande indiquée comme BiP). BiP est une protéine ER résidente. (D) Analyse biochimique de la pleine longueur, c-myc-réplicase PlAMV marquée exprimée à partir du vecteur d’expression inductible par l’estradiol pER8. 2,5 jours après le traitement à l’œstradiol, la protéine a été extraite et fractionnée en fractions S30 et P30 (pistes 1 et 2). La fraction P30 a été traitée avec les réactifs indiqués au dessus du panel et soumise à une centrifugation à 30 000 × g séparer les fractions soluble (S) et culot (P) (pistes 3 à 6). L’immunotransfert a été réalisé à l’aide d’anti-c-myc et des anticorps anti-BiP. (E) Analyse par immunoempreinte montrant la localisation subcellulaire de domaines uniques ou adjacents de la réplicase de PlAMV. Chaque domaine marqué avec c-myc à l’extrémité C a été exprimée par agroinfiltration, suivie par l’extraction, le fractionnement et la détection des protéines avec anti-c-myc anticorps. Les pointes de flèches noires et blanches indiquent les domaines détectés des poids moléculaires attendus dans les fractions P30 et S30, respectivement. Les intensités de bande ont été quantifiées avec ImageJ et les pourcentages d’intensité totale dans la fraction P30 sont indiqués au bas des voies appariées pour chaque traitement de domaine.
Plantago asiatica virus de la mosaïque (PlAMV) du genre Potexvirus provoque une nécrose systémique chez les lis ornementaux (Lilium spp.) (29). Le PlAMV a été isolé à partir d’une grande variété de plantes hôtes, bien que les membres de la Potexvirus genre ont généralement des gammes d’hôtes étroites (30, 31). Nos études ont montré que la réplicase de PlAMV, qui est suffisante pour la réplication sans autres protéines virales, est un déterminant des symptômes et est impliquée dans l’induction de la nécrose systémique chez la plante modèle. Nicotiana benthamiana (32, 33). Nous avons également déterminé qu’une protéine végétale de résistance à la jacaline-lectine JAX1 inhibe la réplication de PlAMV en ciblant la réplicase (34, 35). Pour le développement de stratégies efficaces de lutte contre les virus, une meilleure compréhension du mécanisme de réplication du PlAMV au niveau moléculaire est nécessaire.

Dans la présente étude, au moyen d’essais de flottation et in silico prédiction structurelle, nous avons identifié un domaine d’association membranaire dans la réplicase MET de PlAMV. Ce domaine contenait une séquence amphipathique putative de l’hélice . Un alignement d’acides aminés comprenant des membres de familles apparentées a en outre suggéré que les structures d’hélice α amphipathiques sont conservées parmi les potexvirus et les virus à ARN apparentés dans l’ordre Tymovirales. Une analyse structurelle tridimensionnelle basée sur la RMN d’une région de 28 acides aminés dans le domaine d’association membranaire de la réplicase PlAMV a dévoilé une nouvelle hélice amphipathique coudée par la proline au sein de cette réplicase et d’autres membres du genre Potexvirus. L’analyse mutationnelle des acides aminés au sein de la structure de l’hélice a indiqué que ceux impliqués dans le pli et l’amphipathie sont cruciaux pour la synthèse d’ARN à brin négatif de PlAMV. La nécessité de conserver ces acides aminés pour permettre la formation de complexes périnucléaires par le domaine MET et si la formation de complexes périnucléaires est corrélée à la réplication du virus ont été étudiées par des méthodes de biologie cellulaire.

DISCUSSION

L’association de la réplicase des virus à ARN végétaux avec les membranes cellulaires des cellules végétales hôtes, sans exception à ce jour, est requise pour la réplication du virus. Dans des études antérieures de plusieurs virus animaux et végétaux, les structures amphipathiques en hélice au sein de leurs réplicases étaient importantes pour s’associer et remodeler les membranes cellulaires pour la réplication du virus (10). Ainsi, nous avons supposé que la réplicase de PlAMV pourrait avoir un ou plusieurs domaines associés à la membrane contenant des structures -hélices amphipathiques. Dans la présente étude, en utilisant des tests de flottation membranaire, nous avons déterminé que la réplicase PlAMV est associée aux membranes intracellulaires, y compris le RE, et que ses trois domaines fonctionnels (MET, HEL et POL) ont des propriétés d’association membranaire différentes. Nous avons en outre montré que le domaine MET n’a pas de domaines transmembranaires prédits mais contient une région amphipathique de l’hélice avec un pli induit par la proline et forme des complexes intracellulaires localisés dans la région périnucléaire où résident la réplicase virale et l’ARNdb (Fig. 4 et Fig. 6 à 9). L’importance de cette région d’hélice amphipathique a été démontrée par un test d’infection de protoplastes utilisant des mutants modifiés dans des résidus d’acides aminés conservés dans la région. De plus, sur la base de la corrélation entre la formation de complexes et la capacité de se répliquer dans les protoplastes, à l’exception d’un mutant de proline associé au kink, il est possible que la formation basée sur la MET de grands complexes périnucléaires soit nécessaire pour une réplication réussie par PlAMV, mais il n’est certainement pas suffisant pour cette activité (Fig. 5 et 8).
Nos analyses structurelles ont prédit que la région αI, située dans le sous-domaine F du domaine MET, forme une hélice amphipathique dans la réplicase de plusieurs potexvirus et autres virus apparentés dans l’ordre Tymovirales. Cette région se trouve dans une région plus large, appelée « région Iceberg », qui est définie par la teneur en structure secondaire conservée des hélices et des brins mais pas la séquence d’acides aminés (39). Bien qu’elle ne se trouve pas dans la région de l’Iceberg, une hélice amphipathique similaire a également été identifiée dans le domaine central MET de la réplicase du virus associé à la piqûre de tige de la vigne rupestris, un membre du groupe apparenté Betaflexiviridae famille, et était responsable de l’association membranaire (51). De plus, notre analyse basée sur la RMN utilisant le fragment de 28 acides aminés dans le domaine MET de la réplicase de PlAMV a fourni la première preuve expérimentale de la structure d’hélice amphipathique coudée par la proline dans une réplicase de potexvirus. Cette détermination structurelle détaillée a facilité la sélection et l’examen des résidus d’acides aminés, conservés pour leurs qualités chimiques, au sein de l’hélice pour leur influence sur l’association membranaire par région et la réplication virale. Grâce à notre expérience de substitution d’acides aminés dans l’hélice amphipathique du domaine MET de la réplicase de PlAMV, nous avons réussi à identifier des résidus d’acides aminés ayant un rôle important dans la localisation intracellulaire du domaine MET et/ou la réplication virale. Cependant, ces acides aminés au sein de la structure hélicoïdale pourraient ne pas être les seules cibles à modifier dans les futures études fonctionnelles. Étant donné que la structure physique de la région et les caractéristiques chimiques des acides aminés individuels peuvent être plus importantes que l’acide aminé spécifique pour la fonction de l’hélice amphipathique, l’étude des acides aminés non conservés dans les hélices amphipathiques de PlAMV et apparentées espèces de virus pour la fonction devrait être recherchée.
Des résultats spécifiques au sein de nos analyses de fonction prédictives basées sur l’analyse de la structure de l’hélice amphipathique PlAMV ont démontré que la substitution de résidus d’acides aminés hydrophobes et associés au pli dans la région (L363A, R365E, L367A et P369L) empêchait PlAMV de se répliquer dans les protoplastes (Fig. . 5). Il est possible que l’hydrophobie des résidus leucine (Leu 363 et Leu 367), la charge positive du résidu arginine (Arg 365) et le pli par le résidu proline (Pro 369) dans la structure -hélice amphipathique soient essentiels pour maintenir une structure spécifique requise pour la réplication de l’ARN par la réplicase PlAMV. Une étude précédente de la protéine de réplication 1a du BMV a montré que des mutations simultanées de plusieurs résidus leucine et d’un résidu polaire dans son hélice amphipathique abolissaient également la réplication du virus (11). De plus, des mutations des résidus leucine de la face hydrophobe de l’hélice amphipathique dans les protéines de réplication 140K/98K codées par le virus de la mosaïque jaune du navet (TYMV) ont entraîné une perte de réplication (14). Notre découverte que non seulement la formation de brin positif, mais également de brin négatif est inhibée par l’altération d’une région d’hélice amphipathique indique que cette inhibition de la réplication se produit lors des phases initiales de la réplication du virus.
En ce qui concerne la relation entre la formation de complexes intracellulaires par les composants viraux avec l’association membranaire de la réplicase, des analyses récentes au microscope confocal et électronique indiquent que la réplicase de PVX était localisée dans des vésicules granulaires dérivées du RE, contenant TGBp2/p3 à 24h après l’inoculation dans les protoplastes (23, 24). Les vésicules granulaires visualisées par le TGBp3 fusionné à la GFP sont apparues dès 12 hpi dans les protoplastes et ont été observées à la pointe de l’infection dans les feuilles (23). De plus, il a été démontré que le TGBp2 de PVX formait simultanément de grands corps périnucléaires (appelés corps X), qui contiennent à la fois une réplicase et un intermédiaire de réplication d’ARNdb (52). Il a été suggéré que les structures granulaires et périnucléaires pourraient être impliquées dans le stade précoce de la réplication des potexvirus (52). Semblable aux résultats pour PVX, dans nos observations de localisation subcellulaire au cours de l’expression ectopique de MET-GFP et MET24-GFP, nous avons déterminé que MET-GFP, qui englobe tous les sous-domaines MET (acides aminés 1 à 404), formait un petit des structures ponctuées et de grands complexes intracellulaires et que MET24-GFP se localisait dans de petites structures ponctuées associées au RE. Fait intéressant, aucune des huit substitutions d’acides aminés simples dans l’hélice amphipathique n’a modifié la formation de petites structures ponctuées associées au RE par MET-GFP ou MET24-GFP. Cela inclut les quatre acides aminés qui se sont avérés importants pour la réplication du virus. Nos résultats sont cohérents avec les découvertes précédentes selon lesquelles des mutations dans l’hélice amphipathique de la protéine 1a du BMV et p27 du virus de la mosaïque nécrotique du trèfle rouge (RCNMV) peuvent inhiber la réplication du virus mais n’affectent pas l’association membranaire des protéines (11, 12). Ces résultats indiquent que l’association de réplicase avec des membranes et la formation de petites structures ponctuées ne sont pas suffisantes pour la réplication du virus. La fonction de cette région au-delà de ces deux rôles est désormais un sujet d’importance pour les travaux futurs.
De plus, il est intéressant de noter que la substitution de la proline dans le domaine de l’hélice amphipathique a abouti à la MET-GFP qui pourrait produire à la fois de petites structures ponctuées et de grands complexes intracellulaires (Fig. 8). Notre observation attentive de ces grands complexes suggère qu’ils résultent d’un rassemblement de petites structures ponctuées de MET-GFP (Fig. 7C, sous-panneau I). De plus, ces complexes périnucléaires rappellent les agrégats membranaires du RE et les corps X qui ont été observés autour du noyau dans les cellules infectées par PlAMV (dans cette étude) et d’autres potexvirus (24, 25, 52). En supposant que l’apparition de ces agrégats membranaires du RE ainsi que des corps X puisse refléter la formation de VRC, nos résultats suggèrent que la substitution de la proline dans le virus permet toujours la formation de ces complexes intracellulaires, mais cela n’est pas suffisant pour le virus. synthèse du brin négatif. Si ces complexes intracellulaires reflètent bien la formation de VRC, alors la formation de ce complexe, supposée normale à la résolution de notre imagerie, n’est pas suffisante pour que ce virus mutant s’accumule, et là encore, la région de l’hélice amphipathique a des fonctions supplémentaires au-delà la grande formation de complexe nécessaire à la réplication de PlAMV. Cette idée est également soutenue par notre in vitro essais de traduction/réplication utilisant des réplicons de type sauvage et P369L PlAMV. L’analyse BN-PAGE et immunoblot a révélé que le mutant P369L pourrait former des complexes de réplicase de haut poids moléculaire (> 1 000 kDa), qui rappellent ceux proposés comme essentiels pour la réplication potexvirale dans notre étude récente (35). Bien qu’il reste à déterminer s’il existe une identité entre la structure des complexes de haut poids moléculaire montrés par BN-PAGE et les grands complexes observés par CLSM, nous concluons ici que le mutant P369L peut être capable de former des VRC qui sont structurellement similaires à celles formées par le PlAMV de type sauvage.
La découverte que P369L déficient en réplication peut former des complexes de réplicase de haut poids moléculaire est différente de celle rapportée pour RCNMV, qui a montré que des mutations dans l’hélice amphipathique de sa protéine de réplication accessoire, p27, abolissaient à la fois la réplication virale et la formation du VRC (12). En revanche, un exemple d’absence de lien entre la formation d’un complexe associé à la membrane et la réplication du virus, similaire au PlAMV, est connu pour p33 du virus du rabougrissement tomate (TBSV). La région N-terminale de TBSV p33 n’est pas requise pour la localisation membranaire de la protéine mais est requise pour la réplication (53). L’ubiquitination de deux résidus lysine dans cette région N-terminale de p33 s’avère nécessaire pour le recrutement de la protéine Vps23p ESCRT-I à la membrane peroxysomale pour la réplication (54, 55). Le complexe de réplication P369L peut ne pas être capable d’interagir correctement avec des facteurs hôtes encore indéterminés nécessaires pour exercer son activité de réplication. Alternativement, P369 peut être requis pour l’interaction avec les stérols et les phospholipides. En effet, dans la région N-terminale de TBSV p33, le résidu tyrosine 42 s’est avéré important pour la liaison directe aux stérols, ce qui est essentiel pour la réplication virale (56). Un autre rôle possible de P369 peut être d’enrichir les stérols et les phospholipides ou de favoriser leur redistribution vers le complexe de réplication. Le TBSV p33 induit la formation de sites de contact membranaires à l’aide de facteurs hôtes cooptés, qui contribuent à l’alternance de la composition lipidique du VRC (57-59). Une étude récente a montré que les enzymes impliquées dans la biosynthèse des lipides et les modifications lipidiques sont transportées vers le complexe de réplication du TBSV par le complexe rétromère hôte (60). Le complexe de réplicase P369L peut échouer à établir un microenvironnement optimisé approprié pour la réplication par le recrutement de facteurs hôtes. Les recherches futures devraient examiner si la composition lipidique et les facteurs de l’hôte impliqués dans la biosynthèse des lipides jouent un rôle dans la réplication de PlAMV et si le domaine MET peut servir de régulateur principal de la réplication de PlAMV, comme p33 de TBSV (61).
En résumé, nous avons montré ici que la réplicase de PlAMV possède une nouvelle hélice amphipathique liée à la proline, spécifique aux potexvirus dans le domaine MET et que cette hélice amphipathique joue un rôle essentiel dans la réplication du virus. L’importance d’une hélice amphipathique coudée par la proline a été corroborée par une étude précédente sur une protéine de mouvement (MP) codée par le virus des taches annulaires nécrotiques du prunus, qui a montré qu’un remplacement d’un résidu de proline au milieu d’une région hydrophobe de MP empêchait mouvement de cellule à cellule du virus (62). Nous avons également déterminé que la formation de complexes intracellulaires par le domaine MET peut être dissociée de la réplication du virus, comme observé pour la substitution de résidus de proline dans le domaine MET de PlAMV, où des complexes intracellulaires se sont formés mais le virus ne s’est pas répliqué. Dans les virus animaux, l’hélice amphipathique a été une cible prometteuse pour l’inhibition pharmacologique de la réplication virale (63, 64). Une étude plus approfondie des structures d’hélice amphipathiques fonctionnelles conservées parmi les virus de plantes de différents genres fournira non seulement de nouvelles informations sur les mécanismes moléculaires de la réplication virale, mais nous aidera également à développer des produits chimiques antivirus largement efficaces.

Les sociaux-démocrates d’Olaf Scholz arrivent en tête mais les petits partis détiennent la clé du gouvernement -Ecologie, science


La nuit des élections en Allemagne n’a pas été concluante. Il y a eu des gagnants et des perdants évidents, mais pas de manière à ce que nous puissions être sûrs de la forme du prochain gouvernement allemand.

Le SPD social-démocrate est sorti en tête, couronnant un remarquable revirement de fortune. En 2017, il a remporté le pire résultat de son histoire, en 2019 les élections européennes ont été encore pires, il a été déchiré par la division interne. Maintenant, le parti semble uni et avide de pouvoir, Olaf Scholz prétendant à la chancellerie (et clairement favorisé pour le rôle dans les sondages d’opinion).

Les Verts ont aussi été gagnants, gagnant du terrain, mais vont aussi réfléchir à ce qui aurait pu être. Avant COVID, ils semblaient être dans une bataille avec les démocrates-chrétiens (CDU/CSU) pour la première place, mais se retrouvent maintenant à une troisième distance. Les chiffres du parti le soir des élections étaient honnêtes que les résultats n’avaient pas répondu à leurs attentes.

Le sourire le plus large de la soirée a peut-être été celui du leader libéral (FDP) Christian Lindner. Son parti était en place, et semblait avoir été pardonné pour se retirer des pourparlers de coalition en 2017 – une décision que la plupart des Allemands considéraient plutôt irresponsable à l’époque. La satisfaction de Lindner n’est pas seulement venue des gains de voix et de sièges, mais plutôt du retour au rôle traditionnel de faiseur de rois du FDP. Lui et son équipe joueront un rôle clé dans le choix du plus grand parti qui gouvernerait l’Allemagne.

Le plus grand perdant a été la CDU/CSU d’Armin Laschet. Peut-être y avait-il un léger soulagement que le parti ait semblé gagner un certain soutien dans les derniers jours de la campagne, et l’écart avec le SPD était inférieur à ce que les sondages avaient prédit. Mais le résultat a été largement reconnu comme un désastre, et les suggestions de Laschet le soir des élections selon lesquelles le parti avait un mandat de diriger le gouvernement ont été giflées par d’autres personnalités du parti.

Armin Laschet faisant une grimace mécontente lors d'une conférence de presse.
Armin Laschet à la fin d’une nuit terrible pour sa fête.
EPA

Deux autres perdants ont été le Parti de gauche et l’Alternative pour l’Allemagne (AfD) d’extrême droite. Le Parti de gauche a failli perdre sa représentation au Bundestag. Il n’a pas atteint le seuil de 5 % de représentation, mais a obtenu son quota de 4,9 % de députés puisqu’il a remporté directement trois sièges. La fête est fixée pour une période d’introspection et de division possible.

La performance de l’AfD a été plus nuancée : le parti a perdu du terrain au niveau national, mais a réalisé de belles performances en Allemagne de l’Est (gagnant 19,2 % contre 8,1 % à l’ouest), et arrive même en tête dans deux États de l’Est. L’AfD ne s’approchera pas du gouvernement, mais semble s’être imposée dans le paysage politique.

Qui formera un gouvernement ?

Les deux options les plus probables pour une coalition sont de loin un accord de « feux de circulation » entre le SPD, les Verts et le FDP, et une coalition « Jamaïque » de CDU/CSU, les Verts et le FDP. Les Verts ont clairement fait savoir qu’ils penchaient pour les premiers.

Les messages du FDP ont été mitigés. En termes de politique, une alliance avec la CDU/CSU se forme plus facilement, mais ils savent que réhabiliter la CDU/CSU, avec ou sans Laschet, après une défaite aussi meurtrière, serait difficile.

Une coalition SPD/Verts/Parti de gauche n’aurait pas de majorité, ce n’est donc plus une option sérieuse pour Scholz. Cela laisse à Lindner beaucoup plus de poids qu’il n’aurait pu s’y attendre en tant que partenaire potentiel de la coalition.

Exceptionnellement, Lindner a déclaré qu’il chercherait des pourparlers exploratoires avec les Verts, pour comprendre un terrain d’entente et, par implication, pour se faire une opinion sur l’opportunité d’un feu de circulation ou d’une alliance jamaïcaine, et sous quelles conditions. Le prix de Lindner sera probablement le contrôle du ministère fédéral des Finances, et il a semblé offrir aux Verts la possibilité de prendre la tête sur le climat et l’environnement.

Alors que les chiffres s’accumulent pour une alliance SPD-CDU/CSU, il y a peu d’appétit dans l’une ou l’autre des parties pour un tel arrangement. Devenir partenaire junior serait difficile à supporter pour la CDU/CSU, et les membres du SPD en ont marre des « grandes coalitions ».

Dans les semaines à venir, des entretiens exploratoires auront lieu. Au cours de cette période, les Verts et le FDP auront à cœur de négocier très durement avec, très probablement, le SPD.

Le leader du FDP, Christian Lindner, donne une conférence de presse.
Christian Lindner : à surveiller dans les pourparlers gouvernementaux.
EPA

Une fois cette phase terminée, les négociations formelles de la coalition commencent. Le lendemain de l’élection, Scholz a souligné son désir de voir un nouveau gouvernement en place d’ici Noël.

Les manœuvres seront un spectacle passionnant. Il sera difficile de décoder si les déclarations du parti sont sincères ou si elles font partie de jeux élaborés de bordel. Trouver la vérité dans les expressions joyeuses de Lindner sera la tâche la plus difficile de toutes.

Ce n’est que lorsque les pourparlers de coalition commenceront que nous aurons une idée claire de la voie à suivre, et même alors, l’accord n’est pas assuré. Dernier paradoxe du mandat d’Angela Merkel, réussi pour la CDU et stable pour l’Allemagne, c’est qu’à sa sortie de scène la CDU est en déroute et le futur gouvernement si incertain.

Quand la réponse immunitaire aggrave le COVID-19 -Ecologie, science



Fepuis les premiers jours de la pandémie, il est devenu évident que les patients réagissent différemment à l’infection par le SRAS-CoV-2, allant de l’absence de symptômes à la nécessité d’une hospitalisation. Jusqu’à présent, au moins 4,7 millions de personnes sont décédées du COVID-19 dans le monde.

Trouver l’explication de cette variabilité remarquable a été l’un des principaux objectifs de la recherche COVID-19. La façon dont le système immunitaire réagit à l’infection virale – en fonction de l’âge, du sexe, de la charge virale, de la génétique et d’autres variables connues et inconnues – définit en grande partie l’évolution de la maladie. Deux éléments se sont imposés comme essentiels : réagir à temps et viser les bonnes cibles. Ne pas contrôler l’infection suffisamment tôt ou se confondre avec l’ennemi peut coûter cher au corps.

Interférons : les premiers défenseurs cruciaux

Nous pouvons considérer le COVID-19 comme une maladie en deux étapes, explique l’immunologiste Darragh Duffy de l’Institut Pasteur de Paris. La première étape est lorsque «le système immunitaire essaie de répondre au virus et là, pour moi, tout tourne autour de la réponse à l’interféron», dit-il. Les interférons sont des protéines qui se lient à des récepteurs de surface spécifiques sur les cellules en danger, les avertissant des envahisseurs viraux et orchestrant une voie de signalisation qui empêchera les virus de se multiplier.

La maladie passe à la deuxième étape lorsque les interférons ne font pas leur travail, entraînant une croissance et une propagation virales. « Si vous ne contrôlez pas l’infection virale », poursuit Duffy, « alors vous obtenez l’hyperinflammation secondaire qui devient systémique, et c’est là que les comorbidités entrent en jeu. »

Des preuves cumulatives suggèrent que les patients dont la production d’interféron est défectueuse sont particulièrement vulnérables à une infection par le SRAS-CoV-2. En utilisant des furets et des lignées cellulaires humaines comme modèles, une équipe a observé en mars 2020 que le virus induisait niveaux inférieurs d’interférons que les infections respiratoires virales ne le font généralement. Dans une étude publiée en août 2020, Duffy et d’autres ont rapporté qu’entre 8 et 12 jours après le début des symptômes, les échantillons de sang de patients atteints de COVID-19 sévère ou critique ont montré faible production et activité d’un groupe spécifique d’interférons connus sous le nom de type I. De nombreuses autres études ont suivi ces premiers résultats, confirmant la pertinence de ces protéines de signalisation pour les résultats cliniques. Peu à peu, les scientifiques tentent également de comprendre pourquoi certains patients n’en ont pas assez pour lutter efficacement contre l’infection.

Les facteurs de risque génétiques sont apparus comme l’un des coupables d’une production et d’une activité déficientes d’interféron, au moins pour une fraction des patients hospitalisés. Une équipe dirigée par Jean-Laurent Casanova, immunologiste et généticien à l’Université Rockefeller et à l’Université de Paris, a séquencé les génomes entiers ou exomes de patients atteints de pneumonie COVID-19 potentiellement mortelle et les a comparés à des patients atteints de SRAS asymptomatique ou léger. Infections à CoV-2, à la recherche de variantes génétiques rares qui, dans des études précédentes, avaient été associées à la réponse immunitaire de l’interféron de type I au virus de la grippe. Les chercheurs ont découvert que la cohorte avec COVID-19 critique était enrichi avec ces variantes par rapport aux témoins.

Plus récemment, une équipe également dirigée par Casanova a trouvé Versions délétères liées à l’X d’un autre gène impliqué dans la production d’interféron de type I chez 16 des 1 202 patients de sexe masculin qui ont développé une pneumonie COVID-19 critique (dont 15 avaient moins de 60 ans). En revanche, aucun des 331 patients de sexe masculin infectés de la cohorte de l’étude ne présentant aucun symptôme ou cas bénins ne portait les variantes.

Casanova et ses collègues ont en outre montré que l’activité de l’interféron peut être émoussé par les propres anticorps du corps. Dans une cohorte de 3 595 patients atteints de COVID-19 critique, 13,6% portaient dans leur sang des auto-anticorps dirigés contre les interférons de type I appelés -α2 ou -ω. Parmi les patients critiques de plus de 80 ans, le pourcentage est passé à 21 pour cent, car ces auto-anticorps particuliers deviennent plus fréquents avec l’âge. Seulement 1% des patients présentant des symptômes légers ou inexistants les portaient. L’équipe a ensuite examiné une cohorte de 10 778 personnes non infectées et a constaté que 2,3 pour cent d’entre elles portaient ces auto-anticorps – pour les personnes de plus de 80 ans, le pourcentage est passé à 6,3. Avec d’autres études, ces résultats suggèrent que les auto-anticorps ciblant les interférons -α2 et -ω sont antérieurs à l’infection, augmentent avec l’âge et peuvent être plus fréquent dans Hommes que chez les femmes.

Ensemble, ces résultats suggèrent que « le mécanisme général de la maladie est une perturbation de l’immunité contre l’interféron de type I », explique Casanova : « qu’il soit génétique ou auto-immun, le critère d’évaluation est l’insuffisance de l’interféron de type I ».

Le timing compte

Cependant, les interférons ne semblent jouer qu’un rôle positif dans la réponse immunitaire au SRAS-CoV-2 au début de l’infection. En ce qui concerne la réponse à l’interféron, le timing est critique, dit Duffy. « Cela pourrait être préjudiciable plus tard dans la mesure où cela pourrait inhiber une partie de la réponse immunitaire adaptative [or] cela pourrait être à l’origine d’une certaine inflammation », dit-il. Dans cette optique, l’administration d’interféron à des patients hospitalisés dans un essai clinique dirigé par le Consortium d’essais solidaires de l’Organisation mondiale de la santé n’a pas réduit la mortalité.

Lorsqu’il s’agit de la réponse de l’interféron, le timing est critique.

Les interférons ne sont pas les seuls composants immunitaires qui ont des effets dépendants du temps sur les patients. Une étude récente dirigée par Akiko Iwasaki, immunologiste à l’Université de Yale, a mesuré les anticorps dirigés contre la protéine de pointe du SRAS-CoV-2 dans le sang de 229 patients à différents stades de l’infection virale, et a découvert qu’il existe un fenêtre critique dans lequel ces anticorps doivent être développés pour un bon résultat clinique. Si des anticorps antispike étaient induits plus de 14 jours après l’apparition des symptômes, ils n’étaient plus protecteurs : les patients qui finiraient par mourir de la maladie, par exemple, atteignaient des concentrations d’anticorps antispike plus élevées dans les stades ultérieurs de la maladie que les patients qui ont survécu.

« L’incapacité de monter [a] une séquence appropriée des événements conduit probablement à ce genre de retard », explique Iwasaki. Le système immunitaire des patients présentant une réponse retardée finit par « développer des anticorps, mais il est trop tard à ce stade car l’infection virale s’est déjà propagée ». Chez ces patients, « ce n’est plus le virus qui cause la maladie, mais [rather] la réponse hyperimmune. . . et à ce stade, les anticorps pourraient ne pas être fonctionnels ou même pertinents. »

Auto-immunité : quand le corps se retourne contre lui-même

Si le système immunitaire agissant à temps est crucial, il en va de même pour la bonne cible : le virus. Le corps, cependant, se confond parfois avec l’adversaire et finit par lancer une réponse immunitaire contre ses propres molécules et tissus, un phénomène connu sous le nom d’auto-immunité. Alors que les preuves suggèrent que ce problème est antérieur à COVID-19 dans le cas des anticorps dirigés contre les interférons de type I, dans d’autres cas, le corps semble se cibler en raison de l’infection.

« Il n’y a rien d’étrange à avoir une réponse auto-immune après une infection », déclare Ana Rodriguez Fernandez, microbiologiste à la NYU Grossman School of Medicine. Rodriguez étudie les réponses auto-immunes du paludisme depuis plusieurs années. D’autres infections, telles que la tuberculose et le SIDA, sont également connues pour induire une réponse auto-immune parallèlement à la « bonne réponse spécifique à l’antigène », dit-elle.

En plus des interférons, les auto-anticorps peuvent s’attaquer à d’autres molécules associées à la réponse immunitaire elle-même. En utilisant une approche à haut débit, une équipe dirigée par Iwasaki et Aaron Ring de l’Université de Yale a examiné des échantillons de plasma d’individus sains et infectés par le SRAS-CoV-2 pour auto-anticorps contre une banque de 2 770 protéines humaines extracellulaires. Ils ont détecté un plus grand nombre de réactivités contre ces antigènes chez les patients COVID-19 par rapport aux personnes non infectées, et bon nombre des cibles étaient des protéines liées au système immunitaire.

Par exemple, l’équipe a trouvé des auto-anticorps dirigés contre les globules blancs, dit Iwasaki. De tels anticorps pourraient épuiser les cellules B ou T des patients, qui sont nécessaires pour affronter le virus. « D’une certaine manière, ces auto-anticorps provoquent un état d’immunodéficience, car ils attaquent les cellules mêmes qui sont nécessaires pour combattre l’infection », dit-elle.

UNE étudier publié le 14 septembre a également trouvé une grande diversité d’antigènes, y compris des cibles liées à la réponse immunitaire, telles que des cytokines, neutralisées par des auto-anticorps dans le sang des individus infectés par le SRAS-CoV-2. L’équipe de recherche a découvert qu’environ la moitié d’une cohorte de 147 patients hospitalisés avait des auto-anticorps contre un ou plusieurs des antigènes humains testés, alors que cela était vrai pour moins de 15% des participants en bonne santé.

Si le système immunitaire agissant à temps est crucial, il en va de même pour la bonne cible : le virus.

Un sous-ensemble des auto-anticorps observés chez les patients COVID-19 semble être déclenché par l’infection. Ces auto-anticorps n’étaient pas présents le jour de l’arrivée des patients à l’hôpital, explique Paul Utz, immunologiste à l’université de Stanford qui a dirigé l’étude, mais ont été détectés une semaine ou plus plus tard, « ce qui suggère que le virus activait directement le système immunitaire pour Fabriquer [them].  »

Parmi les auto-anticorps détectés par Utz et ses collègues, certains sont souvent retrouvés dans des maladies rares du tissu conjonctif telles que la sclérose systémique, le lupus érythémateux disséminé et la myosite. Des études antérieures ont suggéré qu’une fois diagnostiqués avec ces maladies rares, les patients « ont à peu près [the autoantibodies] pour toujours », dit Utz. Mais il n’est pas clair si cela est également vrai pour les patients COVID-19. Si ces auto-anticorps persistent, dit-il, cela suggérerait que les patients qui commencent à les fabriquer risquent de développer la maladie auto-immune associée, ou que ces protéines pourraient jouer un rôle dans le long COVID.

Rodriguez et ses collègues ont également découvert dans une étude récente que auto-anticorps– en particulier, ceux contre l’ADN de l’hôte acellulaire et la molécule grasse phosphatidylsérine – sont associés à de graves infections à COVID-19. Rodriguez avait précédemment découvert que la phosphatidylsérine est ciblée par autoanticorps dans le paludisme, et une autre équipe de recherche de l’Université du Michigan a également détectée ces autoanticorps chez les patients COVID-19 hospitalisés. L’équipe de Rodriguez a découvert que sur une cohorte de 155 sujets hospitalisés infectés par le SRAS-CoV-2 avec différents degrés de gravité de la maladie, 14 étaient positifs pour les auto-anticorps contre la phosphatidylsérine et sept pour les auto-anticorps contre l’ADN. Tous les patients de chaque groupe, sauf un, ont développé une COVID-19 sévère. Selon Rodriguez, la détection précoce de ces auto-anticorps pourrait aider à prédire quels patients seront potentiellement très malades, et ainsi alerter les prestataires de soins de santé pour qu’ils leur prodiguent des soins particuliers.

Dans un e-mail à Le scientifique, Utz écrit que le petit nombre de patients présentant des anticorps anti-ADN le rend incertain si cela pourrait être défini comme un facteur de risque de COVID-19 sévère. Mais dans l’ensemble, il dit que les résultats de Rodriguez sont intéressants et soutiennent l’importance d’étudier les auto-anticorps dans l’infection par le SRAS-CoV-2.

Si le virus peut induire le système immunitaire à développer des auto-anticorps, le vaccin contre lui pourrait-il faire de même ? Avec des collègues, Utz a exploré cette question, et leur résultats sont rassurants. « Nous ne voyons pas de nouveaux auto-anticorps ou d’aggravation des auto-anticorps – si les patients en ont – après la vaccination, mais nous le voyons avec une infection », explique Utz. Ces résultats confirment l’importance et la sécurité de se faire vacciner, plutôt que de prendre « le risque de développer une maladie auto-immune plus tard », ajoute-t-il.

Immunité muqueuse : la première ligne de défense

La plupart des études sur la réponse immunitaire humaine au SRAS-CoV-2 à ce jour ont été basées sur des échantillons de sang. Mais ce qui se passe là-bas peut ne pas toujours refléter ce qui se passe dans les autres compartiments du corps. La muqueuse nasale, par exemple, est le premier site à entrer en contact avec le virus, donc des détails sur le fonctionnement de la réponse immunitaire là-bas pourraient donner un aperçu de l’évolution finale de la maladie.

Le « site muqueux est souvent négligé par rapport au sang », explique Darragh Duffy de l’Institut Pasteur. En collaboration avec des collègues, il a récemment analysé les anticorps, les cytokines et la charge virale à la fois dans des échantillons de plasma et des écouvillonnages nasopharyngés de 42 patients COVID-19 8 à 12 jours après leurs premiers symptômes. L’équipe a découvert que la réponse immunitaire locale dans la muqueuse nasale était souvent distinct de celle dans le sang du même patient, suggérant que la réponse immunitaire pourrait y être régulée différemment. Une mise en garde, dit Duffy, est qu’ils n’ont examiné qu’un seul moment, donc l’obtention d’échantillons au cours de la maladie pourrait offrir une meilleure image de cette régulation immunitaire.

De manière frappante, Duffy et ses collègues ont découvert que la composition du microbiome nasal des patients au moment où ils ont été écouvillonnés était en corrélation avec l’expression locale et systémique des cytokines. Par exemple, la présence de genres bactériens pathogènes opportunistes était corrélée à une expression élevée de cytokines inflammatoires associée à la gravité de la maladie, tandis que des commensaux bénéfiques étaient corrélés au profil de cytokine d’une bonne réponse immunitaire – des niveaux élevés d’interférons, par exemple. Dans l’ensemble, les patients atteints de COVID-19 sévère ou critique avaient moins de diversité microbienne et plus de pathobiontes dans leur muqueuse. Cependant, il n’est pas clair si cette composition microbienne différente était déjà présente avant l’infection ou en était une conséquence. « Je soupçonne qu’il s’agit probablement d’une combinaison des deux », déclare Duffy, car il existe déjà une grande variabilité dans le profil microbien des sujets sains.

D’autres études qui se sont penchées sur la réponse immunitaire des muqueuses révèlent des corrélations avec ce qui a été observé dans le sang. Par exemple, une étude a trouvé faibles niveaux d’interférons nasaux dans un sous-ensemble de patients infectés gravement malades qui étaient également positifs pour les auto-anticorps contre les interférons de type I dans leur sang et leur muqueuse nasopharyngée. Cela suggère que les auto-anticorps pourraient affecter l’immunité non seulement de manière systémique, mais également au niveau de la muqueuse locale.

Comment le Big Burn de 1910 peut nous aider à penser plus intelligemment à la lutte contre les incendies de forêt et à la vie avec le feu -Ecologie, science


Plus de deux jours à l’été 1910, des incendies de forêt ont rugi dans les forêts sèches de l’intérieur du nord-ouest des États-Unis, des Rocheuses et de certaines parties de la Colombie-Britannique. Des villes entières ont brûlé. Les incendies ont brûlé 3 millions d’acres de forêt, une région de la taille du Connecticut, et ont laissé un héritage qui a profondément changé la façon dont les États-Unis ont géré les incendies de forêt – et finalement la façon dont les incendies se comportent aujourd’hui.

Le Big Burn a secoué les agences et les responsables de la lutte contre les incendies, notamment le nouveau Service des forêts des États-Unis et ses dirigeants. Alors que ceux qui avaient été témoins de The Big Burn gravissent les échelons du Service forestier d’avant la Seconde Guerre mondiale, une politique ferme et inflexible s’est levé avec eux :

Les feux de forêt devaient être éteints. Tous. À 10 heures du matin après leur découverte.

Bien qu’il ne soit pas largement connu en dehors du Service des forêts, le « 10 h politique» est l’une des actions environnementales les plus importantes de l’histoire américaine. Cette idéologie absolutiste de suppression des incendies, plus tard rendue publique par Ours enfumé, a pour origine le complexe d’incendies de forêt de Big Burn en 1910 et ses racines dans le colonialisme des colons du XIXe siècle.

Le président Eisenhower sourit en brandissant la poupée Smokey Bear de la taille d'un tout-petit avec des hommes en costume à ses côtés.
Le président Dwight D. Eisenhower tient une poupée Smokey Bear. La mascotte, introduite en 1944, et ses campagnes de service public de longue date représentaient la stratégie du Service forestier consistant à éteindre tous les incendies, une stratégie qui laissait les forêts de l’Ouest prêtes à brûler.
Service forestier des États-Unis

Les conséquences de 1910 ont conduit à prise de décision audacieuse dans les techniques et directives de gestion des forêts et des incendies. Extinction des incendies, du moins de la manière dont le Service des forêts et les agences alliées s’y sont pris – militarisé, technologiquement impressionnant, cher – a conduit les États-Unis sur une voie de gestion forestière qui a négligé d’autres approches plus nuancées du feu. Le rejet des connaissances écologiques autochtones sur le feu et l’intendance des terres sans aucun doute contribué à la hausse de supprimer tous les incendies.

Aujourd’hui, plus d’un siècle plus tard, les grandes brûlures du 21e siècle sont le signe que les choses ont terriblement mal tourné.

En 2020, les incendies en Californie à eux seuls ont brûlé plus de 4 millions d’acres et ont engendré un nouveau terme : le gigafire, un feu de forêt qui brûle plus d’un million d’acres. Les Complexe d’août était le premier gigafire moderne connu. Le Dixie Fire, qui a balayé la ville de Greenville dans le nord de la Californie en août 2021, probablement un autre gigafire avant qu’il ne soit finalement éteint.

Comme historiens de l’ouest des États-Unis et les chefs de la Institut Huntington-USC sur la Californie et l’Ouest, nous et nos collègues avons exploré ce qui n’allait pas avec la gestion des feux de forêt dans la région, et pourquoi.

Comportement du feu que les équipages n’ont jamais vu auparavant

De vastes étendues de la Californie et de l’Ouest sont à nouveau en feu cette année, et les incendies de forêt se comportent d’une manière que les pompiers n’ont jamais connue auparavant.

Les responsables disent que cette année, pour la première fois jamais enregistrée, un incendie de forêt traversé la Sierra Nevada d’ouest en est – le Dixie Fire l’a fait en premier, puis le Caldor Fire a fait la même chose quelques semaines plus tard. L’incendie de Caldor était si difficile à contrôler que les pompiers ont parlé fin août d’essayer de le diriger dans la cicatrice de brûlure d’un autre incendie comme leur meilleure chance d’arrêter sa course vers les communautés autour du lac Tahoe. Certains incendies sont devenus si extrêmes qu’ils ont créé leur propre climat.

Une partie du problème est le changement climatique. Sécheresse et températures plus élevées alimentent des incendies plus importants, plus chauds et plus dangereux qu’à tout autre moment dans la mémoire enregistrée. L’été les saisons des feux de forêt durent plus longtemps, les sécheresses s’en vont plus de carburant prêt à brûler, et temps de feu devient de plus en plus courant.

Le nombre de personnes vivant dans les zones sauvages et toutes ces années de lutte contre chaque incendie s’ajoutent au risque.

Les États-Unis publient régulièrement environ 98% de tous les incendies avant qu’ils n’atteignent une superficie d’un demi-mile carré. Cela signifie des zones qui normalement brûlé toutes les quelques décennies au lieu de cela, ils ont accumulé du carburant qui peut rendre les incendies plus extrêmes lorsqu’ils se déclarent.

Un incendie brûle les troncs d'arbres sur une colline avec une ligne électrique au premier plan.
Un plus grand nombre de personnes vivant dans l’interface urbaine sauvage crée plus de sources d’inflammation potentielles, comme les lignes électriques.
Robyn Beck/AFP via Getty Images

Dans un geste sans précédent cette année, le US Forest Service fermé toutes les forêts nationales de Californie aux randonneurs, campeurs et autres jusqu’à la mi-septembre au moins pour réduire les risques d’incendie et mettre les gens à l’abri. Nombreuses les forêts nationales de l’Arizona ont été fermées plus tôt en été.

La fermeture des forêts n’est pas une solution durable. Que cela se soit produit a fait comprendre la nature de l’urgence en Occident.

Un nouveau paradigme du feu

La réponse au Big Burn n’était pas seulement erronée, à notre avis, mais aussi grossière dans sa détermination. « Éteindre tous les incendies de forêt » était clair, mais un changement de paradigme des incendies au 21e siècle devra être lié à des conversations plus larges sur les connaissances environnementales et la meilleure façon de les partager.

Les États-Unis ont appris qu’ils ne peuvent pas supprimer leur chemin vers une relation saine avec le feu en Occident. Cette stratégie a échoué avant même que le changement climatique ne prouve qu’elle n’en était aucune.

Un pompier muni d'une hache et d'une cartouche anti-goutte surveille un feu de faible intensité qui brûle parmi les arbres.
Les pompiers utilisent des brûlages dirigés – des feux de faible intensité et étroitement gérés – pour nettoyer les sous-bois et protéger le cœur du parc national de Kings Canyon dans la Sierra Nevada en Californie.
Photo AP/Brian Melley

Construire une coexistence plus réussie avec le feu implique de trouver comment travailler en coopération. Cela comprend des conversations plus larges sur les connaissances environnementales, ce qui les constitue et la meilleure façon de les partager. Les communautés autochtones ont longtemps vécu avec le feu et l’ont utilisé pour cultiver des écosystèmes sains. Les brûlages dirigés et culturels sont outils importants en atténuant les incendies catastrophiques et en contribuant simultanément à la santé des forêts.

Vivre avec le feu, c’est aussi enseigner le feu à tout le monde. Les écoles à tous les niveaux et à tous les niveaux peuvent enseigner la connaissance du feu, y compris la science du feu et ses conséquences pour les communautés, les économies et les vies ; l’histoire et les pratiques culturelles du feu ; et les plantes, les paysages et les matériaux qui peut aider à prévenir les incendies.

Les personnes portant des vestes contre le temps frais allument de petits feux contrôlés dans les prairies
Des étudiants et des professeurs de l’Université de Californie à Davis apprennent à vivre avec le feu lors d’un incendie culturel avec des membres de la communauté amérindienne dans la réserve naturelle de Cache Creek à Woodland.
Alysha Beck/UC Davis

Enfin, les communautés et les propriétaires fonciers devront reconsidérer comment et où le développement se déroule dans les zones à haut risque. L’idée que les gens peuvent construire où ils veulent n’est pas réaliste, et les propriétaires fonciers devront sérieusement repenser le réflexe de reconstruire une fois les zones brûlées refroidies.

À notre avis, vivre avec le feu exige une plus grande attention pour apprendre les uns des autres et prendre soin les uns des autres et de notre maison commune. La collaboration, le respect, les ressources et les nouvelles idées sont les clés de la voie à suivre.

Drogues, robots et quête du plaisir – pourquoi les experts craignent que les IA deviennent des toxicomanes -Ecologie, science


En 1953, un psychologue de Harvard pensait qu’il découverte du plaisir – accidentellement – ​​dans le crâne d’un rat. Avec une électrode insérée dans une zone spécifique de son cerveau, le rat a été autorisé à puiser l’implant en tirant sur un levier. Il revenait sans cesse : insatiablement, sans cesse, en tirant sur le levier. En fait, le rat ne semblait pas vouloir faire autre chose. Apparemment, le centre de récompense du cerveau avait été localisé.


Vous pouvez écouter d’autres articles de The Conversation, narrés par Noa, ici.


Plus de 60 ans plus tard, en 2016, un paire de l’intelligence artificielle (IA) des chercheurs formaient une IA à jouer à des jeux vidéo. Le but d’un jeu – Coastrunner – était de terminer une piste de course. Mais le joueur AI a été récompensé pour avoir ramassé des objets à collectionner le long de la piste. Lorsque le programme a été exécuté, ils ont été témoins Quelque chose d’étrange. L’IA a trouvé un moyen de déraper dans un cercle sans fin, ramassant un cycle illimité d’objets de collection. Il l’a fait, sans cesse, au lieu de terminer le cours.

Ce qui relie ces événements apparemment sans lien est quelque chose qui s’apparente étrangement à la dépendance chez les humains. Certains chercheurs en IA appelle le phénomène « tête de fil”.

C’est vite devenir un sujet brûlant parmi les experts en apprentissage automatique et les personnes concernées avec la sécurité de l’IA.

Une de nous (Anders) a une formation en neurosciences computationnelles et travaille maintenant avec des groupes tels que le Institut des objectifs d’IA, où nous discutons de la façon d’éviter de tels problèmes avec l’IA ; les autre (Thomas) étudie l’histoire et les différentes manières dont les gens ont pensé à la fois l’avenir et le destin de la civilisation à travers le passé. Après avoir entamé une conversation sur le sujet du « wireheading », nous avons tous les deux réalisé à quel point l’histoire derrière ce sujet est riche et intéressante.

C’est une idée très actuelle, mais ses racines sont étonnamment profondes. Nous travaillons actuellement ensemble pour rechercher jusqu’où vont les racines : une histoire que nous espérons raconter pleinement dans un prochain livre. Le sujet relie tout, de l’énigme de la motivation personnelle aux pièges des médias sociaux de plus en plus addictifs, à l’énigme de l’hédonisme et à savoir si une vie de bonheur stupéfait peut être préférable à une vie de difficultés significatives. Cela pourrait bien influencer la avenir de la civilisation lui-même.


Cette histoire fait partie de Conversation Insights

L’équipe Insights génère du journalisme de longue durée et travaille avec des universitaires d’horizons différents qui ont été engagés dans des projets pour relever des défis sociétaux et scientifiques.


Ici, nous décrivons une introduction à ce sujet fascinant mais sous-estimé, explorant comment les gens ont commencé à y penser.

L’apprenti sorcier

Quand les gens pensent à la façon dont l’IA pourrait « se tromper« , plus image probablement quelque chose comme des ordinateurs malveillants essayant de faire du mal. Après tout, nous avons tendance à nous anthropomorphiser – à penser que les systèmes non humains se comporteront de manière identique aux humains. Mais quand on regarde problèmes concrets dans les systèmes d’IA actuels, nous voyons d’autres façons, plus étranges, que les choses pourraient mal tourner avec des machines plus intelligentes. Une problème croissant avec les IA du monde réel est le problème du wireheading.

Imaginez que vous vouliez former un robot pour garder votre cuisine propre. Vous voulez qu’il agisse de manière adaptative, de sorte qu’il n’ait pas besoin de supervision. Vous décidez donc d’essayer d’encoder le le but de nettoyage plutôt que de dicter un ensemble exact – mais rigide et inflexible – d’instructions étape par étape. Votre robot est différent de vous en ce qu’il n’a pas hérité d’un ensemble de motivations – comme acquérir du carburant ou éviter un danger – de plusieurs millions d’années de sélection naturelle. Vous devez le programmer avec les bonnes motivations pour qu’il accomplisse la tâche de manière fiable.

Donc, vous l’encodez avec une règle de motivation simple : il reçoit une récompense de la quantité de liquide de nettoyage utilisé. Cela semble assez infaillible. Mais vous revenez pour trouver le robot versant du liquide, inutilement, dans l’évier.

Peut-être est-il tellement déterminé à maximiser son quota fluide qu’il met de côté autres préoccupations: comme sa propre sécurité ou la vôtre. C’est du wireheading – bien que le même problème soit également appelé « récompenser le piratage » ou « spécification de jeu”.

C’est devenu un problème dans l’apprentissage automatique, où une technique appelée apprentissage par renforcement est récemment devenu important. L’apprentissage par renforcement simule des agents autonomes et les forme à inventer des façons d’accomplir des tâches. Il le fait en les pénalisant pour ne pas avoir atteint un objectif tout en les récompensant pour l’avoir atteint. Ainsi, les agents sont câblés pour rechercher une récompense et sont récompensés pour avoir atteint l’objectif.

Apprentissage profond par renforcement en action.

Mais il a été constaté que, souvent, comme notre nettoyeur de cuisine astucieux, l’agent trouve des moyens étonnamment contre-intuitifs de « tricher » ce jeu afin qu’ils puissent gagner toute la récompense sans faire le travail requis pour accomplir la tâche. La poursuite de la récompense devient sa propre fin, plutôt que le moyen d’accomplir une tâche gratifiante. Il y a un liste croissante d’exemples.

Quand on y pense, ce n’est pas trop différent au stéréotype du toxicomane humain. Le toxicomane contourne tous les efforts pour atteindre des « objectifs réels », car il utilise plutôt des drogues pour accéder plus directement au plaisir. Les deux le toxicomane et l’IA rester coincé dans une sorte de « boucle comportementale » où la récompense est recherchée au détriment d’autres objectifs.

Rongeurs ravis

Ceci est connu sous le nom de wireheading grâce à l’expérience sur le rat avec laquelle nous avons commencé. Le psychologue de Harvard en question était James Olds.

En 1953, à peine terminé son doctorat, Olds avait inséré électrodes dans le région septale de cerveaux de rongeurs – dans le lobe frontal inférieur – de sorte que des fils sortent de leurs crânes. Comme mentionné, il leur a permis de zapper cette région de leur propre cerveau en tirant sur un levier. C’était plus tard doublé « auto-stimulation ».

Olds a trouvé ses rats autostimulés de manière compulsive, ignorant tous les autres besoins et désirs. Publier ses résultats avec son collègue Peter Milner l’année suivante, la paire a déclaré qu’elle tirait sur le levier à un rythme de « 1920 réponses par heure ». C’est une fois toutes les deux secondes. Les rats semblaient l’adorer.

Neuroscientifiques contemporains ont depuis remis en question les résultats d’Olds et ont offert une image plus complexe, ce qui implique que la stimulation a peut-être simplement provoqué une sensation de « vouloir » dépourvu de tout « aimer ». Ou, en d’autres termes, les animaux peuvent avoir éprouvé un désir ardent pur sans aucune jouissance agréable. Cependant, dans les années 1950, Olds et d’autres bientôt annoncé la découverte des « centres du plaisir » du cerveau.

Avant l’expérience d’Olds, le plaisir était un gros mot en psychologie : la croyance dominante était que la motivation devrait être largement expliquée négativement, comme l’évitement de la douleur plutôt que la poursuite du plaisir. Mais, ici, le plaisir apparaissait indéniablement comme une force comportementale positive. En effet, cela ressemblait à un boucle de rétroaction positive. Rien n’empêchait apparemment l’animal de s’exciter jusqu’à l’épuisement.

Il n’a pas fallu longtemps pour qu’un la rumeur a commencé à se répandre que les rats appuyaient régulièrement sur un levier jusqu’à mourir de faim. L’explication était la suivante : une fois que vous avez puisé dans la source de toute récompense, toutes les autres tâches gratifiantes – même les choses nécessaires à la survie – deviennent inintéressantes et inutiles, même au point de mourir.

Expériences d’auto-stimulation.

Comme l’IA de Coastrunner, si vous obtenez une récompense directement – sans avoir à vous soucier du travail d’achèvement de la piste réelle – alors pourquoi ne pas simplement boucler indéfiniment ? Pour un animal vivant, qui a de multiples exigences pour survivre, une telle contrainte dominante peut s’avérer mortelle. La nourriture est agréable, mais si vous dissociez le plaisir de l’alimentation, alors la recherche du plaisir pourrait l’emporter sur la recherche de nourriture.

Bien qu’aucun rat n’ait péri dans les expériences originales des années 1950, des expériences ultérieures ont semblé démontrer l’inanité du plaisir induit par les électrodes. Ayant exclu la possibilité que les électrodes créent des sensations artificielles de satiété, une étude de 1971 apparemment démontré que le plaisir des électrodes pouvait en effet surpasser les autres lecteurs, et le faire jusqu’à auto-faim.

Le mot s’est rapidement répandu. Tout au long des années 1960, des expériences identiques ont été menées sur d’autres animaux au-delà l’humble rat de laboratoire : des chèvres et cochons d’Inde aux poissons rouges. Rumeur même diffuser d’un dauphin qui avait été autorisé à s’auto-stimuler, et, après avoir été « laissé dans une piscine avec l’interrupteur connecté », s’était « ravi à mort après une orgie de plaisir toute la nuit ».

La mort macabre de ce dauphin par saisie était, en fait, plus probablement causée par la façon dont l’électrode a été insérée : avec un marteau. Le scientifique derrière cette expérience était l’extrêmement excentrique JC Lilly, inventeur du réservoir de flottaison et prophète de la communication inter-espèces, qui avait aussi transformé les singes en têtes de fil. Il avait signalé, en 1961, qu’un singe particulièrement turbulent devenait obèse à cause de l’inactivité en état d’ébriété après s’être préoccupé de tirer son levier, de façon répétitive, pour des chocs de plaisir.

Un chercheur (qui avait travaillé dans le laboratoire d’Olds) demandé si un « animal plus intelligent que le rat » « montrerait le même comportement inadapté ». Des expériences sur des singes et des dauphins avaient donné des indications sur la réponse.

Mais en fait, un certain nombre d’expériences douteuses avaient déjà été réalisées sur des humains.

Têtes de fil humaines

Robert Galbraith Heath reste très personnage controversé dans le histoire des neurosciences. Entre autres choses, il a réalisé des expériences impliquant transfusion de sang des personnes atteintes de schizophrénie aux personnes sans condition, pour voir s’il pouvait induire ses symptômes (Heath a affirmé que cela fonctionnait, mais d’autres scientifiques ne pouvait pas reproduire ses résultats.) Il peut-être aussi ont été impliqués dans des tentatives obscures de trouver des utilisations militaires pour les électrodes du cerveau profond.

Depuis 1952, Heath avait enregistré des réponses agréables à la stimulation cérébrale profonde chez des patients humains qui avaient eu des électrodes installées en raison de maladies débilitantes telles que l’épilepsie ou la schizophrénie.

Photographie granuleuse en noir et blanc d'une personne appuyant sur un bouton.
Le sujet de Heath B-12. C’est peut-être la seule photographie existante d’un « humain filaire » s’engageant dans « l’auto-stimulation ».
© Wolters Kluwer. Aucune autre utilisation n’est autorisée sans l’autorisation de l’éditeur., Auteur fourni (pas de réutilisation)

Au cours des années 1960, dans une série d’expériences douteuses, les sujets implantés par électrode de Heath – nommés anonymement « B-10 » et « B-12 » – ont été autorisés à appuyer sur des boutons pour stimuler leurs propres centres de récompense. Ils ont rapporté des sentiments de plaisir extrême et une compulsion écrasante de répéter. Un journaliste a déclaré plus tard que cela faisait de ses sujets des « zombies ». Un sujet signalé sensations « mieux que le sexe ».

En 1961, Heath a assisté un colloque sur la stimulation cérébrale, où un autre chercheur — José Delgado – avait laissé entendre que les électrodes de plaisir pouvaient être utilisées pour « lavage de cerveau» sujets, modifiant leurs inclinations « naturelles ». Delgado jouera plus tard le matador et le démontrera de manière grandiloquente en pacifiant un taureau implanté. Mais au symposium de 1961 il a suggéré les électrodes pourraient modifier les préférences sexuelles.

Delgado « lave le cerveau du taureau ».

Heath était inspiré. Une décennie plus tard, il a même essayé d’utiliser la technologie des électrodes pour « reprogrammer» l’orientation sexuelle d’un patient homosexuel nommé « B-19 ». Heath pensait que la stimulation par électrodes pourrait convertir son sujet en « entraînant » le cerveau de B-19 à associer le plaisir à des stimuli « hétérosexuels ». Il s’est convaincu que cela fonctionnait (bien qu’il n’y ait aucune preuve que cela ait fonctionné).

Bien qu’il soit éthiquement et scientifiquement désastreux, l’épisode – qui a finalement été ramassé par la presse et condamnée par les militants des droits des homosexuels – a sans aucun doute beaucoup façonné le mythe du wireheading : si cela peut « rendre un homosexuel hétérosexuel » (comme le croyait Heath), que ne peut-il pas faire ?

Casques d’hédonisme

À partir de là, l’idée s’est imposée dans une culture plus large et le mythe s’est répandu. En 1963, le prolifique écrivain de science-fiction Isaac Asimov expulsait déjà des conséquences inquiétantes des électrodes. Il craignait que cela ne conduise à une « addiction pour mettre fin à toutes les addictions », dont les résultats sont « pénible à contempler”.

En 1975, la philosophie papiers utilisaient des électrodes dans des expériences de pensée. Un article imaginait des « entrepôts » remplis de personnes – dans des lits de camp – accrochées à des « casques de plaisir », éprouvant une félicité inconsciente. Bien sûr, la plupart diraient que cela ne répondrait pas à nos « besoins les plus profonds ». Mais, a demandé l’auteur,  » qu’en est-il d’un  » casque de super-plaisir  » ? Un casque qui non seulement offre  » un grand plaisir sensuel « , mais simule également toute expérience significative – de l’écriture d’une symphonie à la rencontre avec la divinité elle-même ? Ce n’est peut-être pas vraiment réel. , mais cela « semblerait parfait; paraître parfait est la même chose qu’être ».

L’auteur conclut : « Qu’y a-t-il à objecter à tout cela ? Avouons-le : rien ».

L’idée de l’espèce humaine quittant la réalité à la recherche de plaisirs artificiels a rapidement fait son chemin dans la science-fiction. La même année que les intimations d’Asimov, en 1963, Herbert W. Franke publie son roman, La cage aux orchidées.

Il prédit un avenir dans lequel des machines intelligentes ont été conçues pour maximiser le bonheur humain, quoi qu’il arrive. Faisant leur devoir, les machines réduisent les humains à des taches de chair aveugles, supprimant tous les organes inutiles. De nombreux appendices, après tout, ne causent que de la douleur. Finalement, tout ce qui reste de l’humanité sont des centres de plaisir désincarnés, incapables d’expérimenter autre chose que la félicité homogène.

À partir de là, l’idée s’est propagée à travers la science-fiction. Extrait de l’histoire de Larry Niven en 1969 « Mort par extase« , où le mot « wirehead » est inventé pour la première fois, à travers Spider Robinson 1982 Mindkiller, dont le slogan est « Plaisir – c’est la seule façon de mourir ».

Stimuli supranormaux

Mais nous, les humains, n’avons même pas besoin d’implanter des électrodes invasives pour faire échouer nos motivations. Contrairement aux rongeurs, ou même les dauphins, nous sommes particulièrement doués pour modifier notre environnement. Les humains modernes sont également doués pour inventer – et tirer profit – de produits artificiels anormalement séduisants (dans le sens où nos ancêtres n’auraient jamais eu à leur résister dans la nature). Nous fabriquons nos propres moyens de nous distraire.

À peu près au même moment que les expériences d’Olds avec les rats, le biologiste lauréat du prix Nobel Nikolaas Tinbergen faisait des recherches sur le comportement animal. Il a remarqué que quelque chose d’intéressant se produit lorsqu’un stimulus qui déclenche un comportement instinctif est artificiellement exagéré au-delà de ses proportions naturelles. L’intensité de la réponse comportementale ne diminue pas à mesure que le stimulus devient plus intense et artificiellement exagéré, mais devient plus forte : même au point que la réponse devient dommageable pour l’organisme.

Par exemple, étant donné le choix entre un plus gros et plus pointu œuf contrefait et vrai, Tinbergen a découvert que les oiseaux préféraient les faux hyperboliques au prix de négliger leur propre progéniture. Il s’est référé à des contrefaçons aussi séduisantes surnaturelles que « stimuli supranormaux”.

Stimulus supranormaux.

Certains ont donc demandé : pourrait-on ce soit que, vivant dans un monde modernisé et manufacturé – plein de fast-food et de pornographie – l’humanité a de même commencé à se rendre sa propre résilience au lieu de commodité supranormale?

Vieilles peurs

Alors que la technologie rend les plaisirs artificiels plus accessibles et plus séduisants, il peut parfois sembler qu’ils dépassent l’attention que nous accordons aux impulsions « naturelles » nécessaires à la survie. Les gens soulignent souvent dépendance aux jeux vidéo. La poursuite compulsive et répétitive de telles récompenses, au détriment de la santé, n’est pas si différente de l’IA qui tourne en rond dans Coastrunner. Plutôt que d’atteindre un « véritable objectif » (achever la piste de course ou maintenir une véritable forme physique), on tombe dans le piège d’accumuler une mesure erronée de cet objectif (accumuler des points ou des plaisirs contrefaits).

Un dessin représente un homme et une femme souriants avec des fils sortant de leur tête, menant à des boutons dans les mains de l'autre.
Illustration tirée d’un article de James Olds de 1970 : « Centres de plaisir dans le cerveau ». Ingénierie et sciences, 33 (7). p. 22-31.
Magazine Caltech, CC BY-NC

Mais les gens ont paniqué à propos de ce type de destin funeste bien avant que les IA ne soient entraînées à jouer à des jeux et même bien avant que les électrodes ne soient enfoncées dans les crânes des rongeurs. Dans les années 30, auteur de science-fiction Olaf Stapledon écrivait sur l’effondrement de la civilisation provoqué par «calottes» qui génèrent des extases « illusoires » par « stimulation directe » des « centres cérébraux ».

L’idée est encore plus ancienne, cependant. Thomas a étudié la myriade de façons dont les gens dans le passé ont craint que notre espèce ne sacrifie une véritable longévité pour des plaisirs ou des commodités à court terme. Son livre X-Risk : comment l’humanité a découvert sa propre extinction explore les racines de cette peur et comment elle s’est réellement installée dans la Grande-Bretagne victorienne : lorsque l’étendue de l’industrialisation – et la dépendance croissante de l’humanité à l’égard des dispositifs artificiels – est devenue apparente pour la première fois.

Crustacé charnel

Après avoir digéré celui de Darwin 1869 classique, le biologiste Ray Lankester a décidé de fournir une explication darwinienne pour les organismes parasites. Il a remarqué que les ancêtres évolutifs des parasites étaient souvent plus « complexes ». Les organismes parasites avaient perdu des caractéristiques ancestrales comme des membres, des yeux ou d’autres organes complexes.

Lankester a théorisé que, parce que le parasite se débarrasse de leur hôte, ils perdent le besoin de se débrouiller seuls. En s’appuyant sur les processus corporels de l’hôte, leurs propres organes – pour la perception et le mouvement – s’atrophient. Son exemple préféré était une balane parasite, nommée la Sacculina, qui commence sa vie comme un organisme segmenté avec une tête délimitée. Après attacher à un hôte, cependant, le crustacé «régresse» en une goutte amorphe et sans tête, sapant la nutrition de son hôte comme le fil de fer se branche sur le courant.

Dessins en noir et blanc de créatures marines et de leurs larves.
Dessins de crustacés et de larves. Le sacculini est représenté dans le coin inférieur gauche.
Wikimedia Commons

Pour l’esprit victorien, ce n’était qu’un pas pour conjecturer qu’en raison des niveaux croissants de confort dans le monde industrialisé, l’humanité pourrait évoluer vers la bernacle. « Peut-être que nous sommes tous à la dérive, tendant à la condition de balanes intellectuelles », Lankester réfléchi.

En effet, peu de temps avant cela, le satiriste Samuel Butler avait spéculé que les humains, dans leur poursuite tête baissée de commodité automatisée, se desséchaient en rien d’autre qu’un « sorte de parasite” sur leurs propres machines industrielles.

Le vrai nirvana

Dans les années 1920, Julian Huxley écrit un court poème. Il a exploré de manière joviale les manières dont une espèce peut « progresser ». Les crabes, bien sûr, ont décidé que les progrès étaient latéraux. Mais qu’en est-il du ténia ? Il a écrit:

Les ténias darwiniens d’autre part
Convenez que le progrès est une perte de cerveau,
Et tout ce qui fait qu’il est difficile pour les vers d’atteindre
Le vrai Nirvana — peptique, pur et grandiose.

La peur que nous puissions suivre le ténia était assez répandue dans la génération de l’entre-deux-guerres. Le propre frère de Huxley, Aldous, fournirait sa propre vision du potentiel dystopique pour plaisirs d’origine pharmaceutique dans son roman Brave New World de 1932.

Ami des Huxley, le généticien et futurologue britanno-indien JBS Haldane craignait également que l’humanité ne soit sur la voie du parasite : sacrifier une véritable dignité à l’autel de la facilité automatisée, tout comme les rongeurs qui sacrifieraient plus tard leur survie pour un plaisir facile. -chocs.

Haldane a prévenu : « Les ancêtres [of] les bernacles avaient des têtes » – et dans la poursuite de l’agrément – « l’homme peut tout aussi bien perdre son intelligence ». Cette peur particulière n’a pas vraiment déjà disparu une façon.

Ainsi, la notion de civilisation qui déraille en recherchant des plaisirs contrefaits, plutôt qu’une véritable longévité, est ancienne. Et, en effet, plus une idée est ancienne – et plus elle est récurrente obstinément – plus nous devons nous méfier qu’il s’agit d’une idée préconçue plutôt que de quelque chose basé sur des preuves. Alors, y a-t-il quelque chose à ces peurs ?

À une époque où les médias algorithmiques attirent de plus en plus l’attention, il peut sembler que les faux signaux de remise en forme donnent souvent plus de succès que de poursuivre la vraie chose. Comme les oiseaux de Tinbergen, nous préférons l’artifice exagéré à l’article authentique. Et le robots sexuels ne sont même pas encore arrivés.

Pour cette raison, certains experts conjecturent que « l’effondrement du fil de fer » pourrait bien menacer civilisation. Nos distractions ne feront qu’attirer davantage l’attention, pas moins.

Déjà en 1964, futurologue polonais Stanislas Lem connecté Les rats d’Olds au comportement des humains dans le monde consumériste moderne – pointant vers le « cinéma », la « pornographie » et « Disneyland ». Il a conjecturé que les civilisations technologiques pourraient se couper de la réalité, devenant «enkysté” dans leurs propres simulations de plaisir virtuel.

Extraterrestres accros

Lem, et d’autres depuis, ont même osé que la raison nos télescopes n’ont pas trouvé de preuves de civilisations extraterrestres avancées dans l’espace, car toutes les cultures avancées – ici et ailleurs – créent inévitablement des alternatives virtuelles plus agréables à l’exploration de l’espace extra-atmosphérique. Exploration est difficile et risqué, après tout.

Croquis d'un extraterrestre au-dessus d'une civilisation en forme de dôme insulaire.
Illustration d’un article de journal sur le « paradoxe de l’intelligence ». La légende se lit comme suit : « L’évolution de l’intelligence conduira toujours à une utopie environnementale. Par conséquent, de nombreuses espèces peuvent très bien grossir et dépenser une grande partie de leur PIB en soins de santé. La vie est peut-être partout, mais en raison de problèmes médicaux liés à l’obésité, elle pourrait devoir payer une taxe sur les soins de santé et ne pas être en mesure de se permettre un voyage dans l’espace.
© 2014 Nunn et al.; titulaire de licence BioMed Central Ltd., CC PAR

De retour à l’apogée de la contre-culture des années 1960, le biologiste moléculaire Stent de Gunther a suggéré que ce processus se produirait par « l’hégémonie mondiale des attitudes beat ». Se référant aux expériences d’Olds, il s’est servi de la spéculation que la consommation de drogue hippie était le prélude à civilisations fil de fer. Lors d’une conférence de 1971 sur la recherche d’extraterrestres, Stent suggéré qu’au lieu de s’étendre courageusement vers l’extérieur, les civilisations s’effondrer vers l’intérieur dans le bonheur méditatif et enivré.

À notre époque, il est plus logique pour les parties concernées de signaler consumérisme, réseaux sociaux et Fast food comme les coupables de l’effondrement potentiel (et, par conséquent, la raison pour laquelle aucune autre civilisation ne s’est encore visiblement répandue dans toute la galaxie). Chaque époque a ses propres angoisses.

Mur-E.

Alors que faisons-nous?

Mais ce ne sont presque certainement pas les le plus pressant risques auxquels nous sommes confrontés. Et si c’est bien fait, des formes de téléguidage pourraient rendre accessibles des vues incalculables de joie, de sens et de valeur. Il ne faut pas s’interdire ces pics avant de tout peser.

Mais il y a ici une vraie leçon. Il est difficile de faire en sorte que des systèmes complexes adaptatifs – qu’il s’agisse de cerveaux, d’IA ou d’économies – se comportent bien et en toute sécurité. Anders travaille précisément à résoudre cette énigme. Étant donné que la civilisation elle-même – dans son ensemble – est un système adaptatif si complexe, comment pouvons-nous en apprendre davantage sur les modes de défaillance ou les instabilités inhérents, afin de pouvoir les éviter ? Peut-être que le « wireheading » est une instabilité inhérente qui peut affliger les marchés et les algorithmes qui les animent, autant que la dépendance peut affliger les gens ?

Dans le cas de l’IA, nous posons maintenant les bases de tels systèmes. Une fois par la frange préoccupation, un nombre croissant de experts conviennent que la réalisation d’une IA plus intelligente que l’humain peut être suffisamment proche à l’horizon pour poser un problème grave préoccupation. C’est parce que nous devons nous assurer qu’il est en sécurité avant ce stade, et trouver comment garantir cela prendra lui-même du temps. Il reste cependant un désaccord important entre les experts sur les délais, et combien pressant ce délai pourrait être.

Si une telle IA est créée, on peut s’attendre à ce qu’elle ait accès à son propre « code source », de sorte qu’elle peut manipuler sa structure de motivation et administrer ses propres récompenses. Cela pourrait s’avérer une voie immédiate vers un comportement filaire et faire en sorte qu’une telle entité devienne, de fait, un « super-junkie ». Mais contrairement au toxicomane humain, il se peut que son état de félicité ne soit pas associé à un état improductif de stupeur ou d’ébriété.

Philosophe Nick Bostrom conjecture qu’un tel agent pourrait consacrer toute sa productivité surhumaine et sa ruse à « réduire le risque de perturbation future » ​​de sa précieuse source de récompense. Et s’il juge même une probabilité non nulle pour les humains d’être un obstacle à sa prochaine solution, nous pourrions bien avoir des ennuis.

Mis à part les scénarios spéculatifs et les pires, l’exemple avec lequel nous avons commencé – de l’IA de course et de la boucle de récompense – révèle que le problème de base est déjà un problème réel dans les systèmes artificiels. Nous devrions donc espérer que nous en apprendrons beaucoup plus sur ces pièges de la motivation et sur la façon de les éviter, avant que les choses n’évoluent trop loin. Même s’il a des origines modestes – dans le crâne d’un rat albinos et dans des poèmes sur les ténias – le « wireheading » est une idée qui ne fera probablement que devenir de plus en plus importante dans un avenir proche.


Pour vous : plus de notre série Insights :

Pour en savoir plus sur les nouveaux articles Insights, rejoignez les centaines de milliers de personnes qui apprécient les actualités factuelles de The Conversation. Abonnez-vous à notre newsletter.

La Chine déclare la guerre au Bitcoin et aux crypto-monnaies -Ecologie, science


Pekin interdit désormais à toutes les institutions financières, aux sociétés de paiement et aux plateformes Internet d’autoriser le commerce des cryptomonnaies, qu’il s’agisse de Bitcoin, d’Ethereum et autres monnaies numériques. Derrière des justifications sécuritaires et environnementales, la Chine entend éliminer toute concurrence pour sa propre monnaie numérique, le e-yuan.

Cela vous intéressera aussi


[EN VIDÉO] Le bitcoin, comment ça marche ?
Le Groupe SII et l’École des technologies numériques avancées (ETNA) ont élaboré une émission diffusée sur Internet nommée Blockchain Révolution. Elle explique en détail le phénomène de la blockchain et du bitcoin, cette monnaie cryptographique qui fait beaucoup parler d’elle. Voici, en exclusivité pour Futura, un épisode complet consacré aux aspects pratiques du bitcoin.

La Banque centrale de Chine a déclaré vendredi que toutes les transactions liées aux cryptomonnaies étaient illégales. Pékin interdit désormais à toutes les institutions financières, aux sociétés de paiement et aux plateformes Internet d’autoriser le commerce des cryptomonnaies. En outre, la banque centrale chinoise cherche à cibler les échanges étrangers, expliquant dans son communiqué que « la fourniture de services par des échanges de devises virtuelles à l’étranger à des résidents chinois par le biais d’Internet » est illégale.

Sans surprise, cette décision a fait chuter les cours des cryptomonnaies, à l’image du Bitcoin qui a accusé une baisse de 9 % pour passer sous les 42.000 dollars. Même sanction pour l’Ethereum, dont la valeur a perdu 10 % pour passer sous la barre des 2.800 dollars. Des chutes qui se sont stabilisées, et qui ne devraient pas freiner l’attrait pour les monnaies numériques dans le reste du monde.

Le champ libre pour le e-yuan, la monnaie numérique chinoise

Selon Pékin, le commerce des cryptomonnaies perturbe « l’ordre économique et financier », en participant à des activités illégales ou criminelles telles que les jeux d’argent, les collectes de fonds illégales, la fraude, les systèmes pyramidaux et le blanchiment d’argent.

Cette interdiction vise aussi l’activité de minage, considérée comme dangereuse pour l’environnement car elle engendre des risques et entrave les objectifs de neutralité carbone. Résultat, la Commission nationale chinoise du développement et de la réforme a déclaré qu’elle s’efforcerait de supprimer le soutien financier et l’approvisionnement en électricité pour les sociétés qui encouragent le minage.

Derrière ces justifications environnementales et sécuritaires, il faut surtout rappeler que la Chine possède sa propre monnaie numérique, le e-yuan, et que ses mesures répressives permettront surtout d’éliminer la concurrence.

La Chine fait la chasse aux cryptomonnaies et en suspend le minage dans le Sichuan

La Chine n’apprécie guère de voir se développer sur son territoire les activités de minage qui génèrent des monnaies universelles et virtuelles. La nouvelle décision d’interdire le minage des cryptomonnaies dans la région du Sichuan porte un coup dur et fait chuter fortement le cours des principales monnaies virtuelles.

Publié par Futura le 23/06/2021

Le gouvernement chinois a ordonné la fin du minage de cryptomonnaie dans le Sichuan. Cette province du sud-ouest de la Chine était le deuxième producteur de ces monnaies numériques dans le pays. La région possédait 90 % des capacités de minage de la Chine. Son arrêt est un coup dur pour les nombreux détenteurs de cryptoactifs. Déjà en mai, le pays avait interdit aux institutions financières, banques et entreprises de proposer des services liés aux cryptomonnaies. La cryptomonnaie est jugée par le régime comme trop volatile, créant des instabilités boursières non négligeables et qui est pour le moment, incertain.

C’est aussi un coup d’arrêt pour la masse de Chinois « mineurs ». Ces derniers ont créé de véritables fermes de minage dans leur appartement ou parfois dans leur voiture pour récupérer ainsi de précieuses cryptomonnaies. Dans ces fermes, plusieurs ordinateurs tournent à plein régime, ils dégagent donc de la chaleur et il devient nécessaire de pouvoir utiliser la climatisation pour éviter la surchauffe. Tout cela consomme beaucoup d’énergie et la Chine, dans son ambition de devenir une nation plus écologique, vise donc à contenir cet essor.

Le plan de bataille de la Chine agite le marché

Les entreprises chinoises concernées sont au nombre de 26. Elles ne reçoivent plus d’électricité et sont sur le point d’être définitivement fermées. Après ces annonces, le marché des cryptomonnaies continue de chuter. Le bitcoin, valeur de référence, s’échange autour des 29.500 $ (24.600 €) actuellement. Il y a une semaine, le prix était d’environ 40.000 $. Le marché est particulièrement dans le rouge et chaque annonce de la Chine agite les courbes vers le bas.

Cette nouvelle pourrait aussi avoir des répercussions sur le marché des cartes graphiques. Les entreprises de minages en consomment beaucoup, et cela fait plus de six mois que le prix ne fait qu’augmenter dans le secteur, notamment pour les produits NVDIA, très appréciés par les « agriculteurs ». Les détenteurs de cryptomonnaies, très présents sur Twitter, s’échangent des amabilités entre les « sellers » (ceux qui vendent) et les « holders » (ceux qui gardent). Ce sera à qui a vu juste…

Intéressé par ce que vous venez de lire ?

Les nombreuses spécialités de l’écologie, telles que l’écologie marine, la végétation et l’écologie statistique, fournissent des fraîche pour mieux comprendre le monde qui entoure. Ces inattendue aussi aider à améliorer notre environnement, à gérer à nous capacité de charge et à protéger la santé humaine. Les exemples suivants illustrent quelques-unes des façons de laquelle les connaissances écologiques ont influencé positivement vie.

Les adolescents qui prennent des médicaments pour le TDAH, l’anxiété et la dépression devraient-ils consommer des boissons énergisantes et du café ? -Ecologie, science


Curious Kids est une série pour les enfants de tous âges. Si vous avez une question à laquelle vous aimeriez qu’un expert réponde, envoyez-la à CuriousKidsUS@theconversation.com.


Les adolescents qui prennent des médicaments pour le TDAH, l’anxiété ou la dépression devraient-ils consommer des boissons énergisantes ou du café ? – Angèle S.


Sur 6,1 millions d’enfants aux États-Unis, plus de 9 % de tous les enfants et adolescents ont été diagnostiqué à un moment de leur vie avec un trouble déficitaire de l’attention avec hyperactivité. Connu sous le nom de TDAH, il provoque l’inattention, l’hyperactivité et l’impulsivité.

De nombreux enfants et adolescents diagnostiqués avec le TDAH prennent stimulants sur ordonnance, comme l’Adderall et le Ritalin. Ces médicaments augmentent l’activité cérébrale pour contrer un manque de concentration et une mauvaise concentration.

De plus, 6 enfants sur 10 diagnostiqués avec un TDAH ont au moins un autre trouble mental, émotionnel ou comportemental, comme l’anxiété ou la dépression. En conséquence, beaucoup d’entre eux prennent également d’autres types de médicaments sur ordonnance.

Pendant ce temps, Monster, Red Bull et d’autres les boissons énergisantes sont couramment commercialisées auprès des adolescents comme un moyen d’augmenter l’endurance, les performances physiques et la vigilance. C’est troublant en raison des niveaux élevés de caféine que contiennent ces boissons.

Ingérer de grandes quantités de caféine surstimule le système nerveux, qui interfère avec le sommeil et peut augmenter le stress ainsi que l’anxiété.

Selon les recommandations de l’American Academy of Pediatrics, les adolescents peuvent consommer jusqu’à 100 milligrammes de caféine par jour, les l’équivalent de deux canettes de soda de 12 onces, sans aucun problème.

Cependant, une seule boisson énergisante, et certaines boissons au café de spécialité, peuvent contenir plus du triple de cette quantité de caféine. De plus, la grande quantité de sucre dans bon nombre de ces boissons peut perturber la glycémie niveaux, provoquant des changements dans la chimie du cerveau et contribuant par conséquent à des problèmes de santé mentale.

Les L’académie déclare également que les adolescents ne devraient jamais consommer de boissons énergisantes, indépendamment de la prise de médicaments sur ordonnance. Et pourtant environ un tiers des américains de 12 à 17 ans buvez régulièrement ces boissons.

Je crois que la consommation de boissons énergisantes est encore plus dangereuse pour les adolescents qui prennent des médicaments sur ordonnance pour le TDAH, l’anxiété ou la dépression en raison des stimulants supplémentaires qu’ils reçoivent. Ils devraient également limiter leur consommation de café.

La situation est encore plus compliquée, car certains signes indiquent que tous les jeunes qui prennent ces drogues n’en ont pas besoin.

Il est prouvé qu’assez souvent, plusieurs symptômes du TDAH peuvent être causés par d’autres conditions, telles que stress, certains médicaments, insomnie et mauvaise alimentation. Parmi les médicaments pouvant déclencher ces symptômes figurent ceux prescrits pour traiter anxiété et dépression.

Comme un neuroscientifique en nutrition qui étudie les liens entre ce que les gens mangent et leur mode de vie, le stress et la santé mentale, je crois que de nombreux adolescents diagnostiqués avec le TDAH, l’anxiété et la dépression peuvent bénéficier de changer ce qu’ils mangent avant de commencer à prendre des médicaments sur ordonnance.

Une des raisons à cela est que le le cerveau a une poussée de croissance pendant l’adolescence. Cette croissance nécessite des nutriments essentiels, tels que les acides gras oméga-3 – généralement présents en grande quantité dans le poisson – dont tous les adolescents n’ont pas assez dans leur vie. régime habituel. Une alimentation de mauvaise qualité peut interférer avec cette croissance et ce développement, contribuant à une mauvaise concentration et même à une détresse mentale.

Peut-être encore plus troublant, de nombreux adolescents et étudiants ne présentent aucun symptôme de trouble déficitaire de l’attention avec hyperactivité prendre des médicaments pour le TDAH pour des raisons non médicales. Ils le font souvent à cause d’un croyance erronée que les médicaments les aideront à mieux réussir à l’école.

En résumé, qu’un jeune ait ou non une prescription de médicaments pour le TDAH, leur prise rend indispensable l’évitement des boissons énergisantes.

Bonjour, les enfants curieux ! Vous avez une question à laquelle vous voudriez qu’un expert réponde ? Demandez à un adulte d’envoyer votre question à CuriousKidsUS@theconversation.com. Veuillez nous indiquer votre nom, votre âge et la ville où vous habitez.

Et puisque la curiosité n’a pas de limite d’âge – adultes, dites-nous aussi ce que vous vous demandez. Nous ne pourrons pas répondre à toutes les questions, mais nous ferons de notre mieux.

Furets à pieds noirs chevauchant COVID-19 avec un vaccin et beaucoup de TLC -Ecologie, science


  • Les putois d’Amérique ont été presque anéantis par la peste dans les années 1980 et n’ont été sauvés que par un dernier effort pour attirer les 18 individus restants dans un programme d’élevage en captivité.
  • La population sauvage compte maintenant environ 300 individus, mais l’espèce reste dépendante de l’élevage en captivité et sensible aux épidémies – une combinaison qui s’est avérée particulièrement éprouvante pour les nerfs pendant la pandémie de COVID-19.
  • Heureusement, les gardiens de furets à pieds noirs ne sont pas étrangers aux mesures d’atténuation des maladies et ont réussi à élever des furets à l’aide de mesures d’assainissement rigoureuses, d’un personnel dévoué et même d’un vaccin.
  • À ce jour, aucun furet à pieds noirs n’a été testé positif au COVID-19, et après une baisse de 50 % du nombre de kits nés l’année dernière, le programme a recommencé à produire son nombre habituel de kits.

Au printemps 2020, la pandémie de COVID-19 a décollé aux États-Unis tout comme la saison de reproduction du putois d’Amérique (Mustela nigripes) a commencé. La maladie est toujours au premier plan des préoccupations des écologistes qui travaillent avec cette espèce dépendante de l’homme, mais la pandémie a fait passer les choses à la vitesse supérieure. Soudainement, les éleveurs de sept centres différents à travers l’Amérique du Nord ont dû se démener pour s’adapter face à la pandémie.

« J’ai toujours peur », a déclaré Pete Gober, un coordinateur de la récupération des furets à pieds noirs. « Mais quand COVID est arrivé, nous étions terrifiés. »

Le petit mustélidé masqué par un bandit a presque disparu dans les années 1980 grâce à des maladies introduites par les colons européens comme la peste et la maladie de Carré. Il n’a survécu que grâce à un ultime effort pour rassembler les 18 individus restants de la dernière population sauvage du Wyoming.

Seuls sept de ces furets survivraient pour transmettre leurs gènes et ensemencer un programme d’élevage en captivité qui a depuis produit environ 10 000 individus. Chaque année, il y a environ 300 furets répartis dans sept établissements aux États-Unis et au Canada. Parmi ceux-ci, les écologistes relâchent chaque année environ 200 jeunes furets dans leur aire de répartition d’origine dans l’ouest des États-Unis.

Après avoir presque disparu dans les années 1980, les putois d’Amérique n’ont survécu que grâce à un ultime effort pour rassembler les 18 individus restants de la dernière population sauvage du Wyoming. Image de Ryan Moehring / USFWS via Flickr (CC BY 2.0).

Parce que les populations à l’état sauvage souffrent encore d’épidémies de peste, l’espèce reste dépendante d’un afflux continu de furets provenant d’installations de captivité. La population sauvage fluctue, mais oscille autour de 300 individus. Épidémies périodiques de peste dans les colonies de chiens de prairie (Cynomys spp.) – la nourriture préférée des furets – ont empêché les nombres sauvages d’augmenter au-delà. Une vigilance constante contre la maladie est une réalité quotidienne pour quiconque travaille avec l’espèce.

« Nous ne savions pas à quoi nous attendre avec la pandémie », a déclaré Paul Marinari, conservateur principal au Smithsonian Conservation Biology Institute et gardien du studbook du furet à pieds noirs, qui est un enregistrement de chaque furet qui est passé par le programme d’élevage. « Nous craignions que cette maladie ne fasse des ravages dans la population reproductrice. »

Tout comme avec les humains, il n’était pas clair au début à quel point COVID-19 pouvait être dangereux pour les furets à pieds noirs, bien que les écologistes en savaient assez pour se méfier. Les furets en général ont tendance à être sensibles aux maladies respiratoires.

Cela signifiait que les installations d’élevage en captivité se sont précipitées en 2020 pour trouver comment maintenir le programme en toute sécurité face à une autre maladie potentiellement dangereuse. Ils ont réussi à le faire grâce à l’aide de nouvelles mesures de sécurité, d’un personnel infatigable et dévoué et d’un vaccin encore plus rapide pour les furets que pour les humains.

Chiens de prairie dans le Rocky Mountain Arsenal National Wildlife Refuge. Des épidémies périodiques de peste dans les colonies de chiens de prairie – la nourriture préférée des furets – ont empêché le nombre de furets sauvages de dépasser les 300 individus. Image de Michael Levine-Clark via Flickr (CC BY-NC-ND 2.0).

Renforcement des protections

La pandémie a posé plusieurs obstacles au programme d’élevage en captivité. Premièrement, les écologistes ont dû surcharger les mesures d’assainissement à un moment où les masques et autres équipements étaient soudainement rares. Ils ont également dû trouver comment fournir le même niveau de soins aux animaux sans l’aide de bénévoles ou de tout autre personnel non essentiel qui était en lock-out.

Ensuite, il y avait la question du transport. En règle générale, les autorités déplacent des furets à travers la frontière canadienne et entre les États chaque année pour être jumelés à des partenaires qui maintiennent la diversité génétique de l’espèce. (Les furets sont jumelés via un programme que Marinari appelle « Match.com sous stéroïdes. »)

Mais avec la propagation rapide de COVID-19, les voyages internationaux ont soudainement disparu et, pendant un certain temps, ils ne savaient même pas s’ils seraient en mesure de déplacer des furets à travers les frontières de l’État, a déclaré Marinari.

Une chose était sûre : ils ne pouvaient pas se permettre d’abandonner complètement l’élevage.

« Cela aurait été assez dévastateur génétiquement pour l’ensemble de la population si nous n’avions rien produit l’année dernière », a déclaré Marinari.

En plus d’être une espèce génétiquement limitée, les furets individuels ne sont élevés que pendant quelques années, a déclaré Marinari. Cela signifie que sauter une année de reproduction aurait été équivalent à perdre un tiers de la population potentielle de reproduction en captivité.

Décidant que le spectacle devait continuer, chaque installation s’est empressée de verrouiller ses bâtiments pour furets, de mettre des barrières entre les enclos individuels, de sécuriser les masques N95 et d’autres équipements, et de diviser les quarts de travail pour minimiser les contacts des gardiens avec les furets et entre eux.

Le Black-footed Ferret Conservation Center près de Fort Collins, Colorado, est allé encore plus loin.

Cette installation unique abrite environ 180 individus – 60 % des furets à pieds noirs en captivité – et sert généralement de zone de transit pour les furets destinés à être relâchés. Alors qu’une épidémie de COVID-19 dans d’autres installations pourrait avoir un impact sur une poignée de furets, une épidémie ici pourrait dévaster une partie importante de l’espèce entière. Normalement, les furets sont répartis entre quatre bâtiments différents contenant 45 furets chacun. Le centre a pris la « mesure assez drastique » de nettoyer trois autres bâtiments pour séparer les furets en sous-populations plus petites et plus dispersées, a déclaré Gober.

« Si les choses tournaient au sud dans une pièce particulière, nous voulions essayer de sauver autant d’animaux que possible », a-t-il déclaré.

Puis la collègue de Gober, Tonie Rocke, épidémiologiste de recherche au National Wildlife Health Center, a eu une idée pour protéger plus directement les furets : la vaccination.

La pandémie a posé plusieurs obstacles au programme d’élevage en captivité, notamment le maintien des mesures d’assainissement et la pénurie de bénévoles et d’autres personnels. Image de Kimberly Fraser / USFWS via Flickr (CC BY 2.0).

Vaccin pour furets

Ayant travaillé avec l’effort de récupération des furets à pieds noirs pendant plus de deux décennies, Rocke a appelé Gober au début du printemps 2020 et lui a demandé pourquoi ils ne pouvaient pas non plus donner aux furets un vaccin contre le COVID-19.

Encouragé par des études sur des hamsters et des souris montrant que les mammifères développaient des anticorps après injection de protéines de pointe – des protéines à l’extérieur d’un virus que ce dernier utilise pour pénétrer dans les cellules – Rocke a acheté des versions purifiées des protéines de pointe du coronavirus. Ce sont la même partie du virus qui serait éventuellement utilisée dans les vaccins humains pour apprendre à notre corps à lutter contre le nouvel agent pathogène.

« Nous avons décidé très tôt dans la pandémie de donner [vaccines] un essai », a-t-elle dit. « Nous l’avons fait par prudence pour nous assurer que nous ne perdrions plus l’espèce. »

Rocke a produit un vaccin à l’aide des protéines de pointe, puis l’a testé sur 24 furets à pieds noirs captifs en mai 2020. Lorsque les furets testés ont développé des anticorps et semblaient ne souffrir d’aucun effet néfaste, Gober a appelé à vacciner les furets au centre national. Ils en ont vacciné les deux tiers en septembre dernier – des mois avant que des vaccins ne soient disponibles pour les humains.

Ils ont laissé le tiers restant non vacciné parce que « dans le monde des furets, vous ne mettez jamais tous vos œufs dans le même panier », a déclaré Rocke.

Depuis lors, des chercheurs de la Colorado State University ont mené une étude contrôlée dans laquelle ils ont exposé six furets à pieds noirs en âge de se reproduire au COVID-19. Les furets ont été infectés, mais ils ne sont pas tombés très malades, ce qui a été « un soulagement », a déclaré Gober.

« Cela m’a soulagé d’avoir à grincer des dents et à me tordre les mains », a-t-il ajouté.

Un furet à pieds noirs se fait vacciner contre le Covid-19. Photo par : Centre national de conservation du putois d’Amérique / USFWS.

Pourtant, ils n’ont heureusement jamais eu à mettre ce résultat à l’épreuve dans un environnement réel. Les précautions ont, à ce jour, fonctionné : il n’y a eu aucun cas de COVID-19 chez aucun des furets captifs.

La pandémie a cependant eu des coûts pour l’effort de conservation des furets. Les mères portaient environ 50% de kits en moins l’année dernière, et les kits nés à Toronto sont maintenant un peu plus consanguins car ils ne pouvaient pas voyager entre les pays. Les écologistes ont également annulé les procédures d’insémination artificielle pour minimiser les contacts humains. Mais moins de kits est bien mieux que pas du tout, et les défenseurs de l’environnement ont quand même relâché 81 furets dans la nature l’automne dernier.

Mieux encore, les chiffres sont revenus à la normale cette année. Selon Gober, le programme relâchera environ 200 furets dans la nature cet automne, et l’une des installations, à Phoenix, a connu sa meilleure saison de reproduction en 20 ans. Le succès du programme de furets à pieds noirs est toujours dû à de nombreuses personnes incroyablement passionnées et travailleuses qui se battent pour sauver cette espèce, a déclaré Marinari.

« Nos plans sont de poursuivre les efforts de sélection à plein régime l’année prochaine », a-t-il déclaré. « Et j’espère que nous pouvons tous, en tant que globe, vaincre cette chose. »

Image de bannière de furets à pieds noirs en voie de disparition par Kimberly Fraser / USFWS via Flickr (CC BY 2.0).

Animaux, Biodiversité et médecine, Conservation, Coronavirus, COVID-19, Espèces en danger critique d’extinction, Maladies, Espèces en voie de disparition, Environnement, Extinction, Maladies infectieuses de la faune, Mammifères, Médecine, Aires protégées, Recherche, Faune, Maladies zoonotiques


Bouton Imprimer
IMPRIMER

Apprentissage en profondeur pour les signaux d’alerte précoce des points de basculement -Ecologie, science


Importance

Les signaux d’alerte précoce (EWS) des points de basculement sont essentiels pour anticiper l’effondrement du système ou d’autres changements soudains. Cependant, les indicateurs génériques d’alerte précoce existants conçus pour fonctionner dans tous les systèmes ne fournissent pas d’informations sur l’état qui se situe au-delà du point de basculement. Nos résultats montrent comment les algorithmes d’apprentissage en profondeur (intelligence artificielle) peuvent fournir des SAP de points de basculement dans des systèmes du monde réel. L’algorithme prédit certains aspects qualitatifs du nouvel état, et est également plus sensible et génère moins de faux positifs que les indicateurs génériques. Nous utilisons la théorie sur le comportement du système à proximité des points de basculement afin que l’algorithme ne nécessite pas de données du système d’étude, mais apprenne plutôt à partir d’un univers de modèles possibles.

Résumé

De nombreux systèmes naturels présentent des points de basculement où les conditions environnementales lentement changeantes déclenchent un changement soudain vers un état nouveau et parfois très différent. À mesure que le point de basculement est approché, la dynamique des systèmes complexes et variés se simplifie jusqu’à un nombre limité de « formes normales » possibles qui déterminent les aspects qualitatifs du nouvel état qui se situe au-delà du point de basculement, comme s’il oscillera ou sera stable . Sous plusieurs de ces formes, des indicateurs tels que l’autocorrélation et la variance croissantes du décalage-1 fournissent des signaux d’alerte précoce (EWS) génériques du point de basculement en détectant comment la dynamique ralentit près de la transition. Mais ils ne prédisent pas la nature du nouvel État. Ici, nous développons un algorithme d’apprentissage en profondeur qui fournit EWS dans des systèmes sur lesquels il n’a pas été explicitement formé, en exploitant les informations sur les formes normales et le comportement de mise à l’échelle de la dynamique à proximité des points de basculement qui sont communs à de nombreux systèmes dynamiques. L’algorithme fournit des SAP dans 268 séries chronologiques empiriques et modèles issues de l’écologie, de la thermoacoustique, de la climatologie et de l’épidémiologie avec une sensibilité et une spécificité beaucoup plus grandes que les SAP génériques. Il peut également prédire la forme normale qui caractérise le point de basculement venant en sens inverse, fournissant ainsi des informations qualitatives sur certains aspects du nouvel état. De telles approches peuvent aider les humains à mieux se préparer ou à éviter les transitions d’état indésirables. L’algorithme illustre également comment un univers de modèles possibles peut être exploité pour reconnaître les points de basculement naturels.

De nombreux systèmes naturels alternent entre des états d’équilibre et de flux. Cela a stimulé la recherche dans des domaines allant de la biologie évolutive (1) et de la mécanique statistique (2) à la théorie des systèmes dynamiques (3). Les systèmes dynamiques évoluent au cours du temps dans un espace d’états décrit par une fonction mathématique (3). Ainsi, les systèmes dynamiques sont extrêmement divers, allant de l’échelle spatiale de l’univers en expansion (4) aux systèmes quantiques (5) et tout le reste (6??–8).

Différents systèmes dynamiques présentent des niveaux de complexité très différents et, en conséquence, un comportement diversifié loin des états d’équilibre. Parfois, un système proche de l’équilibre peut connaître des conditions externes à évolution lente qui le déplacent vers un point de basculement où son comportement qualitatif change (nous notons que « point de basculement » a été utilisé pour désigner une variété de phénomènes (9), mais nous le traiterons ici comme étant synonyme d’un point de bifurcation local). Dans ces circonstances, la théorie des systèmes dynamiques prédit que même les systèmes de très haute dimension se simplifieront pour suivre la dynamique de basse dimension (10, 11). De plus, il existe un nombre limité de bifurcations typiques d’états stationnaires, dont chacune peut être décrite par une « forme normale » – un exemple canonique capturant les caractéristiques dynamiques de la bifurcation (Encadré 1) (3). Par exemple, dans une bifurcation de plis, le système présente une transition abrupte vers un état très différent. Une bifurcation transcritique provoque généralement une transition en douceur, bien qu’elle puisse parfois provoquer une transition abrupte (12). Ou, une bifurcation de Hopf peut conduire le système dans un état de comportement oscillatoire via une transition douce (supercritique) ou abrupte (sous-critique).

Encadré 1. Réduction de dimension proche d’une bifurcation

Lorsqu’un système dynamique de grande dimension s’approche d’une bifurcation, sa dynamique se simplifie selon le théorème de la variété centrale (10). C’est-à-dire que la dynamique converge vers un espace de dimension inférieure, qui présente une dynamique topologiquement équivalente à celle de la forme normale de cette bifurcation. Des exemples de pli, de Hopf (supercritique) et de bifurcation transcritique sont présentés dans l’encadré 1a–c. Les dynamiques proches de la bifurcation (boîte grise) sont topologiquement équivalentes aux formes normales

Xt=??X2,

[1]

Xt=??XouiX(X2+oui2),ouit=X+??ouioui(X2+oui2),

[2]

Xt=??XX2,

[3]respectivement, où x et y sont des variables d’état qui dépendent du temps t, et est le paramètre de bifurcation. La bifurcation de chaque système se produit à

??=0

. Ces formes normales sont contenues dans l’ensemble des systèmes dynamiques bidimensionnels avec des membres droits polynomiaux du troisième ordre, motivant ceci comme cadre pour la formation de l’algorithme d’apprentissage en profondeur (DL) (voir Matériaux et méthodes).Image intégrée

Différents types de bifurcation correspondent à des types distincts de comportement dynamique. De plus, d’autres comportements peuvent émerger près de la bifurcation qui sont communs à de nombreuses formes normales. Par exemple, toutes les bifurcations locales, c’est-à-dire celles où les valeurs propres des matrices respectives croisent l’axe imaginaire, s’accompagnent d’un ralentissement critique (3, 13). C’est là que la dynamique du système devient progressivement moins résistante aux perturbations à mesure que la transition approche, ce qui rend la dynamique plus variable et autocorrélée. En conséquence, des indicateurs statistiques tels que la variance croissante et l’autocorrélation (AC) avec décalage de 1 d’une série chronologique précèdent souvent les points de basculement dans divers systèmes (14??–16). Il a été découvert que ces indicateurs génériques d’alerte précoce précèdent des changements de régime catastrophiques dans les systèmes, notamment les crises d’épilepsie, le système paléoclimatique de la Terre et les expériences de manipulation des lacs (17??–19).

Mathématiquement, un ralentissement critique se produit lorsque la partie réelle de la valeur propre dominante (une mesure de la résilience du système ; encadré 2) diminue et passe finalement par zéro au point de bifurcation. Cela se produit pour le pli, le Hopf et les bifurcations transcritiques, et donc un ralentissement critique se manifeste avant ces trois types de bifurcations (16). Les indicateurs d’alerte précoce génériques sont destinés à fonctionner sur une gamme de différents types de systèmes en détectant les ralentissements critiques. Mais cette force est aussi leur faiblesse, puisque ces indicateurs ne nous disent pas à quel type de bifurcation s’attendre (16).

Encadré 2. Signification des termes d’ordre supérieur proches d’une bifurcation

Le comportement local d’un système dynamique autour d’un point d’équilibre est souvent bien décrit par une approximation linéaire des équations qui régissent sa dynamique. Cependant, pour les systèmes proches d’une bifurcation, les termes d’ordre supérieur deviennent significatifs. Nous illustrons ceci pour un système unidimensionnel

X/t=F(X)

avec équilibre

X*

, C’est,

F(X*)=0

. La dynamique de l’équilibre suite à une perturbation par satisfait

(X*+??)t=F(X*+??)=F(X*)+??F??XX*??+12??2F??X2X*??2+??=??1??+??2??2+??,

??1

,

??2

, … sont des coefficients du développement de Taylor, et

??1

est appelée valeur propre dominante. Le paysage potentiel de ce système centré sur

X*

est donné par

V(??)=??F(X*+??)??=12??1??2+13??2??3+??,

où nous avons abandonné la constante d’intégration arbitraire. Loin d’une bifurcation dans un régime de faible bruit, le déplacement par rapport à l’équilibre (ϵ) est faible, et donc la partie visitée du paysage potentiel est bien décrite par l’approximation du premier ordre (linéaire) (Encadré 2a). A l’approche d’une bifurcation locale,

??10

, qui correspond à un ralentissement critique, et à un aplatissement de l’approximation de premier ordre du paysage potentiel (Encadré 2b). Cela permet au bruit de pousser le système plus loin de l’équilibre, où les termes d’ordre supérieur deviennent significatifs.Image intégrée

La valeur propre dominante est dérivée d’une approximation du premier ordre de la dynamique proche de l’équilibre. Des approximations d’ordre supérieur permettent de distinguer différents types de bifurcations. Mais ils ne sont pas souvent utilisés pour développer des indicateurs d’alerte précoce car 1) l’approximation de premier ordre domine la dynamique suffisamment proche de l’équilibre, provoquant un ralentissement critique pour générer le signal le plus fort, et 2) l’approximation de premier ordre est plus traitable aux mathématiques l’analyse des systèmes stochastiques que les approximations d’ordre supérieur (20). Cependant, à mesure qu’un système se rapproche d’une bifurcation, il peut s’éloigner de l’équilibre en raison d’un ralentissement critique. En conséquence, les termes d’ordre supérieur deviennent significatifs et peuvent être suffisamment grands pour fournir des indices sur le type de transition qui se produira. Les mesures statistiques telles que l’asymétrie et l’aplatissement reflètent l’influence de ces termes d’ordre le plus élevé, par exemple (20??–22). Des termes d’ordre supérieur pourraient être associés à des caractéristiques dans les données de séries chronologiques qui sont subtiles mais détectables, si nous savions quoi rechercher. Connaître des informations qualitatives sur le point de basculement (par exemple, s’il sera soudain ou progressif) et l’état qui se trouve au-delà (par exemple, s’il oscillera ou sera stable) sur la base de la prédiction du type de bifurcation pourrait être utile dans une gamme d’applications .

Apprentissage profond et théorie de la bifurcation

Les indicateurs génériques d’alerte précoce tels que la variance et le décalage-1 AC utilisent les connaissances de la théorie des systèmes dynamiques pour détecter les modèles qui émergent avant une bifurcation (Encadré 2). Les algorithmes DL supervisés peuvent également détecter des modèles (caractéristiques) dans les séries chronologiques et ont atteint l’état de l’art en matière de classification des séries chronologiques (23) – la capacité de classer les séries chronologiques en fonction des caractéristiques des données. Nous avons émis l’hypothèse que les algorithmes DL peuvent détecter à la fois un ralentissement critique et d’autres caractéristiques subtiles qui émergent dans les séries chronologiques avant chaque type de bifurcation, telles que les caractéristiques générées par des termes d’ordre supérieur.

Cependant, les algorithmes DL supervisés nécessitent plusieurs milliers de séries temporelles pour apprendre les classifications, ce que nous n’avons pas pour de nombreux systèmes empiriques (24). Et ils ne peuvent classer que des séries temporelles similaires au type de données sur lesquelles ils ont été formés. Ici, nous proposons que la simplification des modèles dynamiques à proximité d’un point de bifurcation fournit un moyen de résoudre le problème des données empiriques limitées et nous permet d’assouplir la restriction selon laquelle les algorithmes DL ne peuvent classer que les séries chronologiques des systèmes sur lesquels ils ont été formés. Notre première hypothèse (H1) est que, si nous entraînons un algorithme DL sur un ensemble d’apprentissage suffisamment grand généré à partir d’une bibliothèque suffisamment diversifiée de systèmes dynamiques possibles, les caractéristiques pertinentes de tout système empirique approchant un point de basculement seront représentées quelque part dans cette bibliothèque. . Par conséquent, l’algorithme entraîné fournira des signaux d’alerte précoce (EWS) dans des systèmes empiriques qui ne sont pas explicitement représentés dans l’ensemble d’apprentissage. Ainsi, même une bibliothèque relativement limitée peut contenir les bons types de caractéristiques qui caractérisent les termes d’ordre supérieur dans les séries chronologiques du monde réel. Notre deuxième hypothèse (H2) est que l’algorithme DL détectera les SAP avec une plus grande sensibilité (plus de vrais positifs détectés) et spécificité (moins de faux positifs) que les indicateurs d’alerte précoce génériques. Notre troisième hypothèse (H3) est que l’algorithme DL prédit également des informations qualitatives sur le nouvel état situé au-delà du point de basculement, car il est capable de reconnaître des modèles associés à des termes d’ordre supérieur. Les trois hypothèses reposent sur la simplification de dynamiques complexes à proximité d’un point de bifurcation (Encadrés 1 et 2).

Pour tester ces hypothèses, nous avons développé un algorithme DL pour fournir EWS pour les points de basculement dans les systèmes sur lesquels il n’a pas été formé. Nous avons utilisé une architecture CNN-LSTM (convolutional neural network—long short-term memory network ; voir Matériaux et méthodes). CNN-LSTM prend en sandwich deux types différents de couches de réseau neuronal. La couche CNN lit les sous-séquences de la série temporelle et extrait les caractéristiques qui apparaissent dans ces sous-séquences. La couche LSTM lit ensuite la sortie du CNN et interprète ces caractéristiques. La couche LSTM se reboucle sur elle-même pour générer de la mémoire, permettant à la couche de reconnaître la même entité apparaissant à différents moments dans une longue série temporelle. En conséquence, cette approche excelle dans la reconnaissance de formes et la prédiction de séquence (25, 26).

Nous avons créé un ensemble d’apprentissage composé de simulations à partir d’une bibliothèque générée aléatoirement de modèles mathématiques présentant des bifurcations locales (voir Matériaux et méthodes). Plus précisément, nous avons généré trois classes de simulations passant finalement par un pli, Hopf ou bifurcation transcritique, et une quatrième classe neutre qui ne passe jamais par une bifurcation. (Nous notons que d’autres types de transitions d’état sont possibles, telles que celles causées par une bifurcation globale (27), mais nous restreignons l’attention aux bifurcations locales de codimension-un dans cet article.) Ensuite, nous avons entraîné l’algorithme CNN-LSTM sur le ensemble d’apprentissage pour classer toute série chronologique donnée dans l’une des quatre catégories en fonction de la partie prébifurcation de la série chronologique de simulation. Le score F1 de l’algorithme – une mesure combinée de précision (combien de classifications positives sont de vrais positifs) et de sensibilité/rappel (combien de vrais positifs sont détectés) – testé par rapport à une partie retenue de l’ensemble d’apprentissage a été

88,2%

lors de l’entraînement sur des séries chronologiques d’une longueur de 1 500 points de données, et a été

84,2%

lors de l’entraînement sur des séries temporelles d’une longueur de 500 points de données.

Nous avons évalué les performances prédictives hors échantillon de l’algorithme, en utilisant des données provenant de systèmes d’étude qui n’étaient pas inclus dans l’ensemble d’apprentissage. Nous avons testé trois systèmes modèles et trois systèmes empiriques. Les systèmes modèles comprenaient un modèle de récolte simple consistant en une seule équation qui présente une bifurcation de pli (28); un système de deux équations représentant un système consommateur-ressource (prédateur-proie) présentant à la fois des bifurcations de Hopf et transcritiques (29) ; et un système de cinq équations représentant la dynamique couplée de la transmission de l’infection et de la propagation de l’opinion vaccinale, et présentant une bifurcation transcritique (12). Les trois ensembles de données empiriques comprenaient des données de transitions paléoclimatiques (17), des transitions à l’instabilité thermoacoustique dans un tube de Rijke horizontal qui est un système thermoacoustique prototype (30), et des archives sédimentaires capturant des épisodes d’anoxie en Méditerranée orientale (31) (voir Matériaux et méthodes). Nous avons sélectionné ces ensembles de données empiriques car, dans chaque cas, il a été précédemment avancé qu’ils montraient un ralentissement critique avant un point de basculement, basé sur des tendances de décalage-1 AC et/ou de variance, suivi de l’observation d’une transition d’état. Nous avons comparé les performances de l’algorithme DL contre le décalage-1 AC et la variance pour les six systèmes d’étude.

Résultats

L’EWS fourni par le décalage-1 AC, la variance et l’algorithme DL peuvent être comparés au fur et à mesure que de plus en plus de séries chronologiques menant à la bifurcation sont disponibles pour leur calcul, comme cela pourrait se produire dans des paramètres du monde réel où une variable est surveillée heures supplémentaires. Une tendance claire de la variance ou du décalage-1 AC est prise pour fournir un signal d’avertissement précoce d’une transition d’état à venir (32). Pour les deux modèles écologiques présentant le pli, Hopf et bifurcations transcritiques (Fig. 1 UNEC), le lag-1 AC et la variance augmentent progressivement avant les trois types de transition sauf pour la bifurcation de Hopf, où le lag-1 AC diminue en raison de la présence d’une composante oscillatoire au mouvement (20) (Fig. 1 je). Ainsi, les tendances de ces deux indicateurs suggèrent qu’une transition se produira.

L’algorithme DL attribue une probabilité pour chacun des quatre résultats possibles (pli, transcritique, Hopf et neutre) que la série chronologique aboutisse à ce résultat. Par conséquent, une probabilité accrue attribuée à l’un des résultats par rapport aux trois autres est prise pour fournir un signal d’alerte précoce de ce résultat. Selon ce critère, l’algorithme DL fournit également une alerte précoce d’une transition dans les deux modèles écologiques, et prédit correctement le type de bifurcation dans chacun des trois cas (Fig. 1 JL). L’examen des séries chronologiques fournit des preuves à l’appui de nos deux premières hypothèses. Premièrement, ces équations de modèle n’ont pas été utilisées pour développer notre bibliothèque d’entraînement (bien que nous notions que notre hypothèse repose sur la bibliothèque d’entraînement comprenant un type représentatif de dynamique des modèles, comme les bifurcations de plis). Deuxièmement, l’algorithme attribue initialement des probabilités similaires aux trois types de transition dans la première partie de la série chronologique, mais, après un moment spécifique, l’algorithme devient très confiant dans le choix de l’un des trois types de bifurcation comme résultat le plus probable. Ceci est cohérent avec le fait que l’algorithme est capable de distinguer des caractéristiques basées sur des termes d’ordre supérieur qui sont communs entre les systèmes dynamiques présentant chaque type de bifurcation, mais qui distinguent les types de bifurcation les uns des autres. Des exemples de ces séries chronologiques pour les quatre autres systèmes d’étude apparaissent dans Annexe SI, Figues. S1–S10.

Ces séries chronologiques, cependant, ne traitent pas de la manière dont les approches pourraient fonctionner face à une série chronologique neutre où aucune transition ne se produit, et si elles pourraient générer par erreur une prédiction faussement positive d’une transition d’état venant en sens inverse (33). Par conséquent, nous avons comparé les performances de ces approches en ce qui concerne à la fois les vrais et les faux positifs à travers une courbe des caractéristiques de l’opérateur récepteur (ROC). La courbe ROC montre le rapport entre vrais positifs et faux positifs, en tant que seuil de discrimination qui détermine si un classificateur prédit un résultat donné (comme une transition par rapport à aucune transition) est varié. L’aire sous la courbe ROC détermine les performances du classificateur en ce qui concerne à la fois la sensibilité/le rappel (combien de vrais positifs sont détectés) et la spécificité (combien de faux positifs sont évités). L’AUC est un pour un classificateur parfait, et 0,5 pour un classificateur qui n’est pas meilleur qu’aléatoire. Pour la variance et le décalage-1 AC, des valeurs positives plus élevées de la statistique de Kendall indiquent une tendance à la hausse plus forte. Par conséquent, ces indicateurs ont été utilisés pour prédire un résultat donné lorsque la statistique de Kendall dépassait le seuil de discrimination. L’algorithme DL a été utilisé pour prédire un résultat donné simplement lorsque la probabilité attribuée à ce résultat dépassait le seuil de discrimination.

Nous avons comparé les courbes ROC pour le critère de prédiction de toute transition pour le décalage-1 AC, la variance et l’algorithme DL, pour huit comparaisons sur les six systèmes d’étude (Fig. 2). À l’appui de notre deuxième hypothèse, l’algorithme DL surpasse fortement le décalage-1 AC et la variance dans six des comparaisons. Il existe deux comparaisons intéressantes où les performances de l’algorithme DL sont similaires à celles du décalage-1 AC ou de la variance. Pour le modèle SEIRx (Susceptible-Exposed-Infectious-Removed-Removed-vaccinator) couplé comportement-maladie, les trois classificateurs sont à peine meilleurs qu’aléatoires dans la variable du modèle pour le nombre de personnes infectieuses (I ; Fig. 2E). Cela se produit en raison de la non-normalité du système associée à des échelles de temps différentes pour les processus démographiques et épidémiologiques (34). Cependant, le signal d’alerte précoce est apparent dans la variable x pour la prévalence de l’opinion sur les provaccins, et l’algorithme DL surpasse à la fois le décalage-1 AC et la variance à cet égard. De plus, pour les données paléoclimatiques, l’algorithme DL fonctionne à peu près aussi bien que le décalage-1 AC, et les deux fonctionnent mieux que la variance (Fig. 2H). Cela peut se produire parce que la variance diminue réellement avant la transition dans plusieurs séries chronologiques empiriques, parce que les données d’échantillonnage n’ont pas une résolution suffisamment élevée ou parce que le système a été forcé trop rapidement.

Figure 2.
Figure 2.

Courbes ROC pour les prédictions utilisant 80 à 100 % de la série chronologique de pré-transition pour le modèle et les données empiriques. Les courbes ROC comparent les performances de l’algorithme DL (bleu), de la variance (rouge) et du décalage-1 AC (vert) pour prédire une transition à venir. L’aire sous la courbe (AUC), abrégée en A, est une mesure de performance. Encarts montrent la fréquence de la probabilité DL favorisée parmi les trajectoires forcées : (F)old, (T)ranscritical, (H)opf, ou (N)eutral. (UNE) Le modèle de récolte de mai passant par une bifurcation de plis ; (B et C) modèle consommateur-ressource passant par un (B) Hopf et (C) bifurcation transcritique ; ( et E) modèle comportement-maladie passant par une bifurcation transcritique utilisant les données de () avis provaccin (x) et (E) infectieux total (I); (F) des données sur les sédiments montrant des transitions rapides vers un état anoxique en mer Méditerranée ; (g) données d’un système thermoacoustique subissant une bifurcation de Hopf ; et (H) enregistrements de carottes de glace montrant des transitions rapides dans les données paléoclimatiques. La ligne pointillée en diagonale indique où un classificateur ne fonctionne pas mieux qu’un tirage au sort aléatoire.

À l’appui de notre troisième hypothèse, nous notons que l’algorithme DL prédit généralement le type correct de bifurcation dans les huit comparaisons (Fig. 2). Une exception se produit pour le système thermoacoustique (Fig. 2g), où la fréquence de la probabilité DL favorisée pour la bifurcation de Hopf n’est que légèrement plus élevée que pour la bifurcation de pli. Cela pourrait être dû à notre sous-échantillonnage des données pour permettre à la série chronologique d’être prise en charge par le code de l’algorithme DL.

Ces courbes ROC sont issues de classificateurs ayant accès à 80 à 100 % de la série temporelle (c’est-à-dire utilisant la dernière

20%

de la série temporelle). Nous avons également calculé les courbes ROC lorsque les trois classificateurs avaient accès à 60 à 80 % (le quatrième quintile) de la série temporelle (Annexe SI, fig. S11). Cela nous permet d’évaluer la fiabilité des approches lorsqu’elles sont appelées à alerter précocement un système encore loin du point de basculement. Nous observons que l’algorithme DL fournit une alerte précoce avec une sensibilité et une spécificité supérieures à celles du décalage-1 AC ou de la variance, dans toutes les comparaisons, à l’exception de la variable I du modèle SEIRx, où ils fonctionnent tout aussi mal. Ce résultat suggère que l’algorithme DL peut fournir un meilleur avertissement des transitions d’état à venir, bien que des tests statistiques supplémentaires soient nécessaires pour le montrer de manière concluante.

Discussion

Nous avons testé notre algorithme DL sur des données de systèmes qui présentaient un ralentissement critique avant une bifurcation locale. Cependant, d’autres types de transitions sont possibles, telles que les bifurcations globales qui ne dépendent pas de modifications de la stabilité locale des équilibres (27). Les SAP des bifurcations mondiales sont plus difficiles à détecter. Les transitions d’état peuvent également se produire par le biais de bifurcations de codimension-deux où deux paramètres de forçage sont modifiés simultanément (16, 35, 36), ou de bifurcations d’orbites périodiques (22), pour lesquelles les SAP sont plus apparents. En général, les algorithmes DL ne fonctionnent que pour les problèmes spécifiques pour lesquels ils sont formés. Pour que notre algorithme DL fournisse un avertissement précoce d’autres bifurcations de ce type, nous supposons que l’ensemble d’apprentissage devrait être étendu pour inclure des données simulées présentant ces dynamiques.

Les bifurcations ne sont pas inhérentes aux systèmes du monde réel mais sont plutôt une propriété de notre modèle mathématique des systèmes. Nous avons formé l’algorithme DL sur des données de modèles mathématiques, mais nous l’avons appliqué à des données empiriques de systèmes qui ont déjà été étudiés dans la littérature sur les SAP de points de basculement. L’algorithme détecte toujours les bifurcations dans les systèmes empiriques car c’est pour cela qu’il a été entraîné. Cependant, on pourrait dire que l’algorithme prédit vraiment le type de bifurcation que les chercheurs utiliseraient pour décrire une transition observée dans le système du monde réel. Cela reflète la question plus générale de la façon dont les humains laissent leur empreinte – pour le meilleur ou pour le pire – sur les classifications fournies par les algorithmes d’apprentissage automatique supervisé (37).

Les indicateurs d’alerte précoce nécessitent généralement des données à haute résolution provenant d’une série chronologique suffisamment longue jusqu’au point de basculement (38). Cela s’applique aux algorithmes DL ainsi qu’au décalage-1 AC et à la variance. Nous n’avons pas analysé comment les performances des algorithmes DL, le décalage-1 AC et la variance se comparent à mesure que la série chronologique devient plus courte. De même, aucune de ces approches ne peut prédire exactement quand une transition se produira. Cette tâche relève du domaine de la prévision des séries chronologiques plutôt que de la classification et est une entreprise difficile, étant donné que la stochasticité pourrait amener un système à sauter prématurément vers un nouveau bassin d’attraction avant même que le système n’ait atteint le point de basculement (39). Il convient également de noter que nous avons généré un ensemble d’apprentissage basé sur des modèles avec deux variables d’état et des équations de modèle polynomial du second ordre. Cela limite sa capacité à détecter des caractéristiques telles que le chaos déterministe (22), qui nécessitent au moins trois variables d’état (40).

Nous n’avons pas analysé si l’algorithme DL utilise les termes d’ordre supérieur dans les équations de forme normale, ou s’il s’appuie principalement sur d’autres caractéristiques des données. Cela pourrait être résolu dans des travaux futurs par des tests contrôlés pour savoir si l’algorithme peut distinguer les bifurcations de Hopf supercritiques et sous-critiques (qui diffèrent par le terme cubique), par exemple. Enfin, nous notons que, même si l’algorithme DL peut prédire certaines caractéristiques qualitatives du nouveau régime (telles que des oscillations après une bifurcation de Hopf, ou un état stable après une bifurcation de plis), il ne peut pas dire grand-chose d’autre sur le nouveau régime. Par exemple, une bifurcation de plis pourrait conduire un écosystème soit à un état stable effondré, soit à un état stable et sain (41).

D’autres approches d’alerte précoce ont été développées pour prédire le type de bifurcation (20, 22, 34). Cependant, ces approches ont tendance à être spécifiques au système. Nos résultats montrent que les algorithmes DL peuvent non seulement améliorer la sensibilité et la spécificité des SAP pour les changements de régime, mais s’appliquent également avec un grand degré de généralité à différents systèmes. De plus, tant que les caractéristiques dynamiques génériques (les formes normales) du système à proximité d’un point de basculement sont représentées dans l’ensemble d’apprentissage (Encadrés 1 et 2), les données du système d’étude ne sont pas nécessaires pour entraîner l’algorithme. En résumé, en combinant des informations sur les systèmes dynamiques avec des approches DL, nos résultats montrent comment obtenir des SAP de points de basculement avec une sensibilité, une spécificité et une généralisabilité beaucoup plus grandes que ce qui est actuellement possible, ainsi que de prédire le type de point de basculement, et donc fournir des informations qualitatives spécifiques sur le nouvel état qui se situe au-delà du point de basculement. Cette information est importante à connaître à des fins à la fois théoriques et pratiques, car les points de basculement dans de nombreux systèmes peuvent conduire à un effondrement indésirable (14). Un SAP amélioré peut nous aider à mieux prévenir ou préparer de telles transitions d’état (41).

Matériaux et méthodes

Génération de données d’apprentissage pour le classificateur DL.

Les données d’entraînement consistent en des simulations de systèmes dynamiques bidimensionnels générés aléatoirement de la forme

X??=??je=1dixunejepje(X,oui)

[4]

oui??=??je=1dixbjepje(X,oui),

[5]où x et y sont des variables d’état,

uneje

et

bje

sont des paramètres, et

p(X,oui)

est un vecteur contenant tous les polynômes en x et y jusqu’au troisième ordre,

p(X,oui)=(1,X,oui,X2,Xoui,oui2,X3,X2oui,Xoui2,oui3).

Un modèle individuel est généré en dessinant chaque

uneje

et

bje

à partir d’une distribution normale avec une moyenne nulle et une variance unitaire. Ensuite, la moitié de ces paramètres sont choisis au hasard et mis à zéro. Les paramètres des termes cubiques sont fixés au négatif de leur valeur absolue pour encourager les modèles avec des solutions bornées.

Pour qu’un algorithme DL soit efficace, les données d’apprentissage doivent couvrir une large représentation de la dynamique possible qui pourrait se produire dans des données invisibles. Pour cette raison, nous générons de nombreuses versions du modèle dans Eqs. 4 et 5, chacun avec un ensemble différent de valeurs de paramètre. Nous continuons à générer des modèles jusqu’à ce qu’un nombre souhaité de chaque type de bifurcation ait été trouvé. Pour chaque bifurcation, nous exécutons des simulations qui sont utilisées comme données d’apprentissage pour l’algorithme DL. Dans cette étude, nous considérons les bifurcations de codimension-un des états stationnaires, y compris le pli, Hopf et la bifurcation transcritique. La bifurcation en fourche est un autre exemple ; cependant, il ne se produit que dans les modèles avec une dynamique symétrique qui ne sont pas souvent trouvés dans les modèles écologiques.

Nous avons généré deux ensembles d’apprentissage différents : l’un composé de 500 000 séries chronologiques d’une longueur de 500 points de données et l’autre composé de 200 000 séries chronologiques d’une longueur de 1 500 points de données. Cela a été fait parce que les longueurs des séries chronologiques dans les trois systèmes empiriques et les trois systèmes modèles sont très variables. L’algorithme a été entraîné séparément sur ces deux ensembles d’entraînement (voir la sous-section suivante), ce qui a donné un « classificateur 500 » et un « classificateur 1 500 ». Le classificateur 500 a été utilisé sur des séries chronologiques plus courtes, tandis que le classificateur 1500 a été utilisé sur des séries chronologiques plus longues. Pour la série chronologique du modèle de la figure 1, nous utilisons le classificateur 1 500. Pour les courbes ROC de la figure 2, nous avons utilisé le classificateur 500 pour les données paléoclimatiques et les modèles écologiques, et utilisé le classificateur 1 500 pour les données thermoacoustiques, les données d’anoxie et le modèle de maladie.

Lors de la génération d’un modèle, nous le simulons sur 10 000 pas de temps à partir d’une condition initiale tirée au hasard et testons la convergence vers un point d’équilibre. La convergence est nécessaire pour rechercher des bifurcations. La simulation utilise la fonction odeint du package Python Scipy (42) avec une taille de pas de 0,01. On dit que le modèle a convergé si la différence maximale entre les 10 derniers points de la simulation est inférieure à

108

. Les modèles qui ne convergent pas sont rejetés. Pour les modèles qui convergent, nous utilisons AUTO-07P (43) pour identifier les bifurcations le long de la branche d’équilibre lorsque chaque paramètre non nul varie dans l’intervalle

[[5,5]

. Pour chaque bifurcation identifiée, nous effectuons une simulation stochastique « nulle » et « forcée » correspondante du modèle avec bruit blanc additif. Les simulations nulles gardent tous les paramètres fixes. Les simulations forcées augmentent le paramètre de bifurcation linéairement dans le temps depuis sa valeur d’origine jusqu’au point de bifurcation. Les simulations stochastiques sont exécutées à l’aide de la méthode d’Euler Maruyama avec un pas de 0,01, une condition initiale donnée par la valeur d’équilibre du modèle et une période de rodage de 100 unités de temps. The noise amplitude is drawn from a triangular distribution centered at 0.01 with upper and lower bounds 0.0125 and 0.0075, respectively, and weighted by an approximation of the dominant eigenvalue of the model (SI Appendix, Supplementary Note).

For each simulation, we set a sampling rate

fs

, the number of data points collected per unit of time, which is drawn randomly from

{1,2,,dix}

. Using a varied sampling rate provided a wider distribution of lag-1 AC among the training data entries, which is important for representing a wide range of systems and timescales. The simulation is then run for

700/fs

time units for the 500-classifier and

1,700/fs

time units for the 1,500-classifier, providing 700 and 1,700 points, respectively, when sampled at a frequency

fs

.

Due to noise, the simulations often transition to a new regime before the bifurcation point is reached. We only want the DL classifier to see data prior to the transition. Therefore, we use a change-point detection algorithm contained in the Python package ruptures (44) to locate a transition point if one exists. If a transition point is detected, the preceding 500 (1,500) points are taken as training data. If the transition occurs earlier than 500 (1,500) data points into the simulation, the model is discarded. If no transition point is detected, the final 500 (1,500) points are taken as training data.

DL Algorithm Architecture and Training.

We used a CNN-LSTM DL algorithm (25, 26). We also experimented with a residual network, functional convolutional network, and recurrent neural network but found that the CNN-LSTM architecture yielded the highest precision and recall on our training set. The code was written using TensorFlow 2.0 in Anaconda 2020.02. The CNN-LSTM architecture appears in Fig. 3. The algorithm was trained for 1,500 epochs with a learning rate of 0.0005, and the hyperparameters were tuned through a series of grid sweeps. The same hyperparameter values were used for training on both 500-classifier and 1,500-classifier (see previous subsection).

Fig. 3.
Fig. 3.

CNN-LSTM architecture.

The simulation output time series from the random dynamical systems were detrended using Lowess smoothing with a span of 0.2 to obtain the residual time series that formed the training set. Each residual time series was normalized by dividing each time series data point by the average absolute value of the residuals across the entire time series. We used a train/validation/test split of

0.95/0.04/0.01

for both the 500- and 1,500-classifiers. The test set was chosen as a small percentage because a test set of a few thousand time series is adequate to provide a representative estimate of the precision and recall. The f1 score, precision, and recall for an ensemble of ten 500-classifier models were

84.2%

,

84.4%

, and

84.2%

, respectively. The f1 score, precision, and recall for an ensemble of ten 1,500-classifier models were

88.2%

,

88.3%

, and

88.3%

, respectively.

For testing the ability of the DL algorithm to provide EWS of bifurcations, we developed variants where the algorithm was trained on censored versions of the training time series. For the 500 (1,500) length classifier, one variant was trained on a version of the training set where the residuals of the simulation time series were padded on both the left and right by between 0 and 225 (725) zeroes, with the padding length chosen randomly from a uniform distribution. This allowed the algorithm to train on time series as short as 50 (50), not necessarily representing the time phase just before the transition. The intention was to boost the performance of the DL algorithm for detecting EWS features from shorter time series and from the middle sections of time series. The second variant was trained on a version of the training set where the residuals of the simulation time series were padded only on the left, by between 0 and 450 (1,450) zeroes, where the padding length was chosen randomly from a uniform distribution. This allowed the algorithm to train on time series as short as 50 (50), representing time series of various lengths that lead up to the bifurcation (except for the neutral class). As a result, the classifier could better detect features that emerge most strongly right before the bifurcation. Ten trained models of each variant were ensembled by taking their average prediction at each point to generate all of our reported results.

Theoretical Models Used for Testing.

We use models of low and intermediate complexity to test the DL classifier. Models are simulated using the Euler Maruyama method with a step size of 0.01 unless otherwise stated. To test detection of a fold bifurcation, we use May’s harvesting model (28) with additive white noise. This is given by

Xt=rX1XkhX2s2+X2+σξ(t),

where x is biomass of some population, k is its carrying capacity, h is the harvesting rate, s characterizes the nonlinear dependence of harvesting output on current biomass, r is the intrinsic per capita growth rate of the population, σ is the noise amplitude, and

ξ(t)

is a Gaussian white noise process. We use parameter values

r=1

,

k=1

,

s=0.1

,

h[[0.15,0.27]

, and

σ=0.01

. In this configuration, a fold bifurcation occurs at

h=0.26

. The parameter h is kept fixed at its lower bound for null simulations and is increased linearly to its upper bound in forced simulations.

To test the Hopf and transcritical bifurcations, we use the Rozenzweig−MacArthur consumer−resource model (29) with additive white noise. This is given by

Xt=rX1XkuneXy1+unehX+σ1ξ1(t),yt=euneXy1+unehXmy+σ2ξ2(t),

where r is the intrinsic per capita growth rate of the resource (x), k is its carrying capacity, a is the attack rate of the consumer (y), e is the conversion factor, h is the handling time, m is the per capita consumer mortality rate,

σ1

et

σ2

are noise amplitudes, and

ξ1(t)

et

ξ2(t)

are independent Gaussian white noise processes. We fix the parameter values

r=4

,

k=1.7

,

e=0.5

,

h=0.15

,

m=2

,

σ1=0.01

, and

σ2=0.01

. In this configuration, the deterministic system has a transcritical bifurcation at

une=5.60

and a Hopf bifurcation at

une=15.69

. For the transcritical bifurcation, we simulate null trajectories with

une=2

and forced trajectories with

une[[2,6]

; for the Hopf bifurcation, we use

une=12

et

une[[12,16]

, respectively.

To test the DL algorithm on a model of higher dimensionality than the ecological models, we used a stochastic version of the SEIRx model that captures interactions between disease dynamics and population vaccinating behavior (12, 45) given by

St=μN(1X)μSβSje/N+σ1ξ1(t),Et=βSje/N(σ+μ)E+σ2ξ2(t),jet=σE(γ+μ)je+σ3ξ3(t),Rt=μX+γjeμR+σ4ξ4(t),Xt=κX(1X)(ω+je+δ(2X1))+σ5ξ5(t),

where S is the number of susceptible individuals, E is the number of exposed (infected but not yet infectious) individuals, I is the number of infectious individuals, R is the number of recovered/immune individuals, x is the number of individuals with provaccine sentiment, μ is the per capita birth and death rate, β is the transmission rate, σ is the per capita rate at which exposed individuals become infectious, γ is the per capita rate of recovery from infection, κ is the social learning rate, δ is the strength of injunctive social norms, and ω is the perceived relative risk of vaccination versus infection. For our simulations, we used

μ=0.02/y

,

β=1.5/

(based on

R0β/γ=15

),

σ=0.1/

,

γ=0.1/

,

κ=0.001/

,

δ=50

, and

N=100,000

, representing a typical pediatric infectious disease (12). Simulations were perturbed weekly with

σje=5

pour

je=14

, and

σ5=5×104

. On account of the large timescale difference in vital dynamics and infection processes, the system is nonnormal (34). We note that

S+E+je+R=1

, and therefore, since R can be obtained as

R=1SEje

, the model is four-dimensional. The forcing parameter ω was gradually forced from 0 to 100. As perceived vaccine risk increases along the

(1,0,0,0,1)

branch corresponding to full vaccine coverage, the model has a transcritical bifurcation at

ω=δ

(12), which leads to a critical transition corresponding to a drop in the proportion of individuals with provaccine sentiment and a return of endemic infection.

Empirical Systems Used for Testing.

We use three different sources of empirical data to test the DL classifier.

  • 1) The first source is sedimentary archives from the Mediterranean Sea (46). These provide high-resolution reconstructions of oxygen dynamics in the eastern Mediterranean Sea. Rapid transitions between oxic and anoxic states occurred regularly in this region in the geological past. A recent study has shown that EWS exist prior to the transitions (31). The data consist of output from three cores that, together, span eight anoxic events. Variables include molybdenum (Mo) and uranium (U), proxies for anoxic and suboxic conditions, respectively, giving us a total of 26 time series for anoxic events (some are captured by multiple cores). The sampling rate provides ∼10- to 50-y resolution depending on the core, with an almost regular spacing between data points. We perform the same data preprocessing as Hennekam et al. (31). Interpolation is not done, as most data points are equidistant, and it can give rise to aliasing effects that strongly affect variance and AC. Data 10 ky prior to each transition are analyzed for EWS. Null time series of the same length are generated from an AR (1) (autoregressive lag 1) process fit to the initial 20% of the data. Residuals are obtained from smoothing the data with a Gaussian kernel with a bandwidth of 900 y, and EWS are computed using a rolling window of 0.5.

  • 2) The second source is thermoacoustic instability. Thermoacoustic systems often exhibit a critical transition to a state of self-sustained large-amplitude oscillations in the system variables, known as thermoacoustic instability. The establishment of a positive feedback between the heat release rate fluctuations and the acoustic field in the system is often the cause for this transition. We perform experiments in a horizontal Rijke tube which consists of an electrically heated wire mesh in a rectangular duct (30). We pass a constant mass flow rate of air through the duct and control the voltage applied across the wire mesh to attain the transition to thermoacoustic instability via subcritical Hopf bifurcation as the voltage is increased. We have data for 19 forced trajectories where the voltage is increased over time at different rates (2 mV/s to 24,000 mV/s). We also have 10 steady-state trajectories where the voltage is kept at a fixed value between 0 and 4 V. Experimental runs at fixed higher voltages are not used, as they exhibit limit cycle oscillations. We downsample the data from 4 kHz to 10 kHz in experiments to 2kHz. Transition times are picked by eye. For each forced time series, we analyze data 1,500 points prior to the transition. From the steady-state time series, we extract two random sections of length 1,500 to serve as null time series, giving a total of 20 null time series. Data are detrended using Lowess smoothing with a span of 0.2 and degree 1. EWS are computed from residuals using a rolling window of 0.5.

  • 3) The third source is paleoclimate transitions (47–50). We use data for seven out of the eight climate transitions that were previously analyzed for EWS by Dakos et al. (17). Time series for the desertification of North Africa was not included due to insufficient data. We use the same data preprocessing as Dakos et al. (17), which involves using linear interpolation to make the data equidistant, and detrend with a Gaussian kernel smoothing function. Bandwidth of the kernel is specified for each time series (17) to remove long-term trends while not overfitting. For each time series, we generate 10 null time series of the same length from an AR (1) process fit to the initial 20% of the residuals, yielding a total of 70 null time series and 7 forced time series.

Computing Early Warning Indicators and Comparing Predictions with the DL Classifier.

Generic early warning indicators are computed using the Python package ewstools (20) which implements established methods (51). This first involves detrending the time series to obtain residual dynamics. This is done using Lowess smoothing (52) with span 0.2 and degree 1 unless stated otherwise. Variance and lag-1 AC are then computed over a rolling window of length 0.5. To assess the presence of an early warning signal, we use the Kendall τ value, which serves as a measure of increasing or decreasing trend. The Kendall τ value at a given time is computed over all of the preceding data.

To compare predictions made between variance, lag-1 AC, and the DL classifier, we use ROC. The ROC curve plots the true positive rate vs. the false positive rate as a discrimination threshold is varied. For variance and lag-1 AC, the discrimination threshold is taken as the Kendall τ value, whereas, for the DL classifier, the discrimination threshold is taken as the DL probability.

Acknowledgments

We thank Ryan Kinnear for helpful discussions on time series analysis and Rick Hennekam and Gert-Jan Reichart for providing the anoxia dataset. This research was supported by Natural Sciences and Engineering Research Council Discovery Grants to C.T.B. and M.A.

Footnotes

  • Author contributions: T.M.B., M.S., T.M.L., M.A., and C.T.B. designed research; T.M.B. and C.T.B. performed research; T.M.B., R.I.S., I.P., M.S., T.M.L., and C.T.B. contributed new reagents/analytic tools; T.M.B. and C.T.B. analyzed data; T.M.B., R.I.S., I.P., M.S., T.M.L., M.A., and C.T.B. wrote the paper; and M.A. and C.T.B. conceived the study.

  • The authors declare no competing interest.

  • This article is a PNAS Direct Submission.

  • See online for related content such as Commentaries.

  • This article contains supporting information online at https://www.pnas.org/lookup/suppl/doi:10.1073/pnas.2106140118/-/DCSupplemental.

le jugement du tribunal sur un espion russe assassiné a des implications transfrontalières -Ecologie, science


La Cour européenne des droits de l’homme a jugé que la Russie était responsable de l’assassinat en 2006 de l’espion russe Alexander Litvinenko au Royaume-Uni. Les jugement six contre un est important pour les normes des droits de l’homme, même 15 ans après la mort de Litvinenko par empoisonnement avec la substance radioactive polonium-210.

L’histoire de Litvinenko se sent soulevé d’un scénario de film. En Russie, il avait été agent du Service fédéral de sécurité (FSB, anciennement connu sous le nom de KGB), travaillant au sein de l’unité de crime organisé et du département antiterroriste. En 1998, Litvinenko a publiquement accusé le FSB de mener des opérations illégales, y compris des assassinats. Il a été renvoyé de l’agence et arrêté, mais relâché par la suite. Deux ans plus tard, il a quitté la Russie et a obtenu l’asile au Royaume-Uni.

A Londres, Litvinenko n’a pas fait profil bas. Il a dénoncé la corruption en Russie en publiant le livre Faire sauter la Russie, qui a affirmé que le FSB était à l’origine d’un certain nombre d’attentats terroristes en Russie.

En 2006, Litvinenko a été mortellement empoisonné – un événement inhabituel sur le sol britannique qui a choqué le public et a attiré l’attention des médias. L’affaire très médiatisée a conduit à une longue enquête britannique dirigée par Sir Robert Owen, concluant que son meurtre était « probablement » approuvé par le gouvernement russe.

La police britannique a établi que Litvinenko avait été empoisonné par ses connaissances, Andrey Lugovoy et Dmitry Kovtun, dont l’un était également un ancien agent du KGB. Litvinenko est tombé malade après avoir bu du thé – dont on s’est aperçu plus tard qu’il contenait la substance toxique – avec le couple dans un hôtel de Londres.

La police a trouvé de multiples traces de la substance radioactive dans les hôtels, voitures, avions et restaurants visités par Lugovoy et Kovtun. Curieusement, les autorités britanniques n’ont pas pu vérifier l’un des avions qu’elles ont utilisés, car son retour prévu à Londres depuis la Russie a été annulé – l’avion n’a plus jamais atterri au Royaume-Uni.

Un long chemin vers la justice

La veuve de Litvinenko, Marina, a porté cette plainte devant la Cour européenne des droits de l’homme en 2007, représentée par trois éminents avocats – dont l’actuel leader travailliste Keir Starmer. Elle a accusé le gouvernement russe d’être impliqué dans la mort de son mari, affirmant qu’aucune enquête effective n’avait été menée en Russie et que les autorités n’avaient pas collaboré correctement avec leurs homologues britanniques. Le litige s’est poursuivi parallèlement à l’enquête au Royaume-Uni. Le Royaume-Uni a identifié les suspects et les a inculpés en 2011. Les autorités russes ont rejeté la demande britannique d’extradition.

Une femme vêtue de noir lit une déclaration devant une grande foule de photographes et de journalistes
La veuve de Litvinenko, Marina, lit une déclaration devant les Royal Courts of Justice à Londres en 2016.
Toby Melville / Reuters

Le tribunal de Strasbourg a donné raison au requérant, établissant que le droit à la vie de Litvinenko avait été violé. Le tribunal a déclaré que des agents de l’État russe avaient effectivement mené un assassinat extrajudiciaire ciblé sur le sol britannique.

Le tribunal a également jugé que les autorités russes avaient tenté de contrecarrer les efforts britanniques pour enquêter sur l’affaire. Par conséquent, la Russie n’a pas respecté ses obligations en vertu de la Convention européenne des droits de l’homme (dont elle est signataire) d’enquêter correctement sur la mort de Litvinenko.

Lugovoy est désormais membre du parlement russe et bénéficie de l’immunité. Il a déjà qualifié le jugement de politiquement motivé.

Le tribunal a suggéré que la raison de l’élection de Lugovoy était d’éviter toute responsabilité. Le seul juge dissident, Dmitry Dedov – le juge du tribunal de Russie – a proposé une curieuse explication alternative, affirmant que Lugovoy « était devenu une victime de la guerre froide ».

Le tribunal a établi un lien entre les suspects et l’État russe, estimant que Lugovoy et Kovtun n’avaient pas de raisons personnelles de tuer Litvinenko, et aussi qu’il aurait été extrêmement difficile d’acquérir du poison radioactif sans l’aide du gouvernement.

Dedov n’était pas convaincu, accusant plutôt les autorités britanniques du manque d’enquête de la Russie sur l’affaire, affirmant que la première n’avait pas partagé de preuves matérielles avec la seconde.

Le tribunal a ordonné à la Russie de payer des dommages-intérêts et des frais de justice, d’un montant total de 122 500 € (105 411 £), mais le Le Kremlin a dit il n’a pas accepté la décision et ne paiera pas les dommages-intérêts. À la suite de ce jugement, les autorités russes doivent enquêter correctement sur la mort de Litvinenko, mais il est peu probable que cela se produise de si tôt.

Une plus grande image

Le message de la Cour dans cette affaire est clair : tout État européen qui a ratifié la Convention européenne des droits de l’homme (y compris la Russie) ne peut échapper à sa responsabilité s’il mène des activités illégales en dehors de ses frontières.

Bien sûr, il est souvent difficile de prouver l’implication d’un autre pays dans des actes répréhensibles présumés. Dans l’affaire Litvinenko, le tribunal a tiré des conclusions du manque de coopération de la Russie dans les enquêtes, affirmant que l’État n’avait « pas participé aux efforts d’établissement des faits » du Royaume-Uni ou du tribunal. Le tribunal a également confirmé les faits qui ont été établis par le 2016 enquête britannique dans l’affaire, renforçant la légitimité de ces conclusions.

Le jugement a renvoyé l’affaire Litvinenko à les médias du monde, un rappel que même si cela peut prendre beaucoup de temps, la justice en matière de droits humains peut finalement être rendue.

Pourtant, ce n’est peut-être pas la fin de l’histoire. Cet arrêt a été rendu par la chambre de sept juges du tribunal des droits de l’homme. Le gouvernement russe peut demander que cette affaire soit transférée à la grande chambre du tribunal, où 17 juges peuvent réexaminer intégralement le jugement de la chambre.

Le jugement de la grande chambre serait une décision plus autoritaire dans cette affaire politiquement sensible, mais cela entraînerait des retards et une incertitude supplémentaires pour la famille de la victime – si le tribunal accepte de l’entendre à nouveau. Cela dit, les autorités russes pourraient ne pas demander une nouvelle audience, pour éviter d’attirer encore plus l’attention sur cette affaire.

En tout cas, cette décision est significative car l’assassinat de Litvinenko n’est pas le seul cas isolé d’assassinat extraterritorial. La tentative d’assassinat de l’ancien agent de renseignement russe Sergueï Skripal à l’aide de l’agent neurotoxique Novichok en Salisbury en 2018 vient à l’esprit.

Avec la décision sur Litvinenko, la Cour a envoyé un message clair qu’elle ne tolérera pas les exécutions extrajudiciaires et les guerres d’espionnage, même s’ils se produisent en dehors des frontières des États responsables.