Depuis janvier 2020, nous sommes passés à travers une multitude de rebondissements et tergiversations publiques et médiatiques en rapport à l’évaluation du danger pandémique, de la veille d’éventuelles nouvelles vagues, et des meilleurs moyens de les prévenir. Parmi ces controverses, on peut citer la question du port du masque, et du type de masque porté, afin de réduire la transmission de la maladie au sein de la population.
Plusieurs phénomènes concourent certainement à expliquer l’émergence et la persistance de telles controverses publiques. Parmi ceux-ci, on peut pointer le manque de cohérence des différents gouvernements à ce sujet. Un article récent de la revue Nature souligne ainsi l’opinion changeante et les signaux contraires envoyés par le président des USA, en rappelant l’un des derniers épisodes en date, à savoir sa propre infection par le virus tout en ayant, quelques jours auparavant, moqué son opposant à la présidentielle au motif que celui-ci porte un masque en toutes circonstances [1]. La communication du gouvernement français, en particulier par la voix de son ancienne porte-parole, n’a hélas pas plus brillé sur ce sujet.
Mais la confusion peut également s’expliquer en partie par la précarité des données disponibles au début de la pandémie concernant l’efficacité réelle du port du masque généralisé à toute la population, et ce, en dépit d’un raisonnement intuitif incitant à penser que oui, les masques sont utiles. Le même article de Nature rapporte ainsi qu’en avril, une étude montrait l’inefficacité du port du masque, avant d’être rétractée en juillet [2]. En juin, une étude montrait au contraire l’utilité du port du masque, mais est passée au bord de la rétractation sous le feu des vives critiques concernant sa méthodologie [3]. Dans ce contexte, l’OMS comme d’autres agences de santé, a de fait tardé à émettre des recommandations fermes en la matière, notamment par peur de provoquer soudainement l’assèchement des stocks et la pénurie là où ces masques étaient les plus importants, à savoir dans les hôpitaux [1].
Quelles sont dès lors, à l’heure actuelle, les données concernant l’efficacité du port du masque dans la prévention de la contagion ? Y-a-t-il des différences entre les divers types de masques utilisés, notamment ceux achetés en pharmacie, et ceux que nous confectionnons nous-mêmes ? Les masques ont-ils éventuellement d’autres effets bénéfiques ?
En 2018 a été publié le livre posthume de Hans Rosling, intitulé Factfulness. H. Rosling vous sera peut-être un nom familier si vous vous intéressez au scepticisme scientifique ou à l’étude des grands jeux de données des Nations Unies sur l’état du monde actuel (niveaux d’alphabétisation, de couverture vaccinale, etc.). Avant d’être un vulgarisateur, H. Rosling était un médecin dont le travail a notablement consisté à se rendre dans des zones où émergeaient des épidémies inconnues afin d’en identifier les causes, et a fortiori de mettre en place des stratégies de lutte contre la dissémination des agents infectieux identifiés.
Hans Rosling, 1948-2017.
Ce livre a été écrit dans les dernières semaines de la vie de son auteur. Alors qu’il se savait condamné à court terme, Hans Rosling a consacré ses ultimes forces à s’assurer que son plaidoyer pour une compréhension factuellement fondée du monde qui nous entoure puisse parvenir au plus grand nombre. Il est possible de retrouver gratuitement son travail sur le site de la fondation Gapminder. A l’image de cet élément biographique, le contenu de cet ouvrage (et du site de Gapminder) est à la fois incroyablement optimiste, et tout à fait terrible.
Au travers de différents chapitres, l’auteur conduit le lecteur à s’interroger sur ce qu’il croit savoir du monde actuel, et ce que les données les plus exhaustives sur la question posée permettent en réalité de dire et de prévoir. Il est tout à fait frappant de constater de manière systématique que les personnes interrogées (de larges populations réparties dans différents pays) n’ont bien souvent qu’une très médiocre connaissance de l’état actuel du monde. Pire encore, cette méconnaissance pointe la plupart du temps vers les approximations les plus pessimistes, qui sont dans le même temps les plus éloignées de la réalité. Et cette tendance frappe aussi bien les groupes d’experts et personnes à haut niveau de diplôme, que les non-diplômés ; les progressistes que les conservateurs. Et il me semble salutaire de désamorcer ici l’objection intime que pourraient certainement se faire beaucoup de personnes à la lecture de ces lignes : Lire la suite →
Très souvent, dans le milieu des opposants aux OGM, j’entends dire qu’on n’a pas assez de preuves scientifiques sur les dangers des OGM, qu’on ne sait pas, qu’il n’y a pas d’études, qu’on n’a pas prouvé l’innocuité des OGM, etc.. Mais les camarades qui disent cela se trompent lourdement. En réalité, la documentation scientifique sur les dangers des OGM est énorme. Ceci s’explique par le fait que les OGM sont les produits biologiques les plus suivis au monde depuis 30 ans. Aussi, on cumule les données observationnelles et expérimentales. Il existe des milliers d’études sur les OGM, et des centaines d’entre elles évaluent leur danger. Bien entendu, une partie de ces études est financée par l’industrie. Mais au moins autant sont entreprises par des universitaires sur des budgets de la recherche publique.
De fait, les articles scientifiques indépendants de l’industrie et posant la question des dangers des OGM sont légions. Depuis les premiers travaux sur les OGM jusqu’en 2006, 31 848 articles scientifiques avaient été publiés sur le sujet. Le problème est que l’évaluation des dangers des OGM repose sur une approche multidisciplinaire, ce qui a tendance à diluer la visibilité de telles recherches déjà dans le domaine scientifique, mais encore plus auprès du grand public. Un journal peer review spécifique ainsi qu’une base de données dédiée à ces recherches ont donc été créés.
Le consensus scientifique sur le danger des OGM est très clair, comme il a pu être mis en évidence par une revue bibliographique sur tous les articles scientifiques publiés entre 2002 et 2012, soient 1783 articles comprenant des travaux de recherche et d’autres revues bibliographiques.
Nicolia et al., 2013
On peut voir que les études portant sur les dangers des OGM sont assez bien balancées entre les interactions OGM-environnement (47,5%) et les interactions OGM-humains (43,2%). A l’intérieur de ces deux grandes catégories, plusieurs thèmes sont abordés.
Les dangers pour la biodiversité
C’est le thème le plus fouillé par les scientifiques (68,4%) dans la catégorie des interactions OGM-environnement. On commence donc à connaître beaucoup de choses sur les dangers des OGM pour la biodiversité.
Comme vous le savez, la plupart des Plantes Génétiquement Modifiées (PGM) le sont pour devenir résistantes à des herbicides, comme le Roundup, ou pour produire des toxines insecticides, comme les semences Bt. Les scientifiques évaluent donc en permanence les dangers que cela peut représenter aux travers de données observationnelles et expérimentales.
La littérature évaluant ces dangers pour la faune, qu’il s’agisse des oiseaux, serpents, insectes non ciblés par les insecticides, microfaune du sol, etc., est extrêmement importante. Une revue de cette littérature montre bien les quantités de preuves sur les dangers des OGM : rares ou inexistantes. Les impacts négatifs qui ont pu être mis en évidence ont par ailleurs été critiqués pour leur faiblesse statistique et leurs extrapolations abusives.
Les OGM-herbicides et insecticides provoquent naturellement une baisse de la biodiversité au regard des cibles de ces pesticides. C’est en effet parfaitement logique et le même résultat est attendu en agriculture conventionnelle ou bio. Quel que soit le moyen de lutte utilisé, il conduit nécessairement à la diminution des cibles dans la zone d’utilisation. Cela démontre simplement l’efficacité de ces méthodes. Il est notable de constater que cette baisse de la biodiversité des cibles est généralement plus grande en agriculture utilisant des variétés non OGM, car les pesticides chimiques utilisés sont plus toxiques et persistants dans l’environnement. A ce propos, l’utilisation des « pesticides OGM » a permis une très large diminution de l’utilisation des pesticides chimiques conventionnels dans le monde, et donc une importante réduction de la pollution.
Le danger que représentent les OGM en termes d’apparition de plantes résistantes aux herbicides, les superweeds, ou d’insectes ravageurs résistants aux insecticides sont également bien évalués. Mais en réalité, ces problèmes bien connus ne sont pas spécifiques aux produits OGM. La théorie de l’évolution nous apprend effectivement que la pression sélective continue sur les individus, provoque nécessairement une adaptation continue. Ainsi, il semble peu probable qu’une solution de lutte contre un nuisible biologique ne soit jamais définitive. Il s’agit alors d’établir une gestion intelligente de différentes méthodes de lutte combinées pour éviter l’apparition de résistances. C’est ce qu’on appelle la course à l’armement. Ces dangers sont exactement les mêmes en agriculture conventionnelle ou biologique. Ils ne représentent pas une spécificité des OGM. Les techniques de l’un ou l’autre mode d’agriculture peuvent très bien être utilisées de manière combinée de sorte à réduire à la fois les pollutions et les risques de résistance.
En conclusion sur les dangers des OGM pour la biodiversité, il est notable de constater que les craintes communément soulevées ne sont pas justifiées. En outre, la diminution de la pollution grâce aux champs OGM est favorable à la biodiversité. Clairement, cette pratique ne présente aucune différence néfaste avec celles utilisées traditionnellement par l’homme depuis le Néolithique.
La contamination
Des plantes non OGM peuvent fertiliser des plantes OGM et vice-versa. Ceci se passe en permanence dans la nature entre des plantes non OGM. On appelle ça la reproduction. Lors du processus de reproduction, des gènes sont échangés et transmis aux générations suivantes. On parle de flux de gènes, processus improprement appelé « contamination » par les opposants, durant lequel des transgènes peuvent circuler et se fixer dans une population de plantes sauvages par introgression. Dans la littérature sur les dangers des OGM, les flux de gènes représentent 31,6% des publications relatives aux interactions OGM-environnement. C’est clairement un sujet très chaud qui est suivi sans relâche et dont le nombre de publications est en augmentation depuis 2006. Beaucoup de personnes craignent que ce flux de gènes soient nocifs. Qu’en est-il réellement ?
Beaucoup de facteurs conditionnent une telle possibilité : le mode de reproduction des plantes OGM, la présence ou non à proximité de plantes sauvages sexuellement compatibles, et la viabilité de tout hybride potentiel. Plusieurs exemples d’introgressions de ce genre ont déjà été documentés. Ce danger est bien connu. Plusieurs stratégies combinées existent pour le limiter : la stérilité des plans mâles, la désynchronisation de la floraison, l’introduction de gènes défavorables… Mais aucune de ces méthodes seule n’est totalement efficace pour interdire l’introgression d’un transgène dans une population sauvage.
Quoi qu’il en soit, le suivi intensif de ces dangers n’a encore jamais détecté d’effets défavorables de l’introgression d’un transgène dans une population sauvage. Par ailleurs, et exactement comme je l’ai dit plus haut concernant l’apparition de résistances, ce problème n’est absolument pas spécifique aux OGM. Il existe de nombreux exemples documentés d’hybrides non OGM naturellement invasifs et d’apparitions de résistances aux herbicides dans des populations sauvages sous l’effet de mutations aléatoires et naturelles.
Pour produire des plantes OGM, il est souvent nécessaire de recourir à un gène de résistance aux antibiotiques qui agit comme marqueur dans les cultures cellulaires, de sorte à pouvoir sélectionner uniquement les cellules porteuses du transgène et a fortiori résistantes à l’antibiotique. Il est donc raisonnable de penser que ce gène de résistance aux antibiotiques, transféré jusque dans le PGM final, puisse in fine passer dans le sol lors de la dégradation des restes végétaux et entrer en contact des bactéries du sol. Or, on sait parfaitement que les bactéries sont naturellement capables d’intégrer à leur génome de l’ADN exogène rencontré dans leur environnement. C’est ce qu’on appelle le transfert de gène horizontal. Le danger, bien entendu, serait alors que des bactéries intègrent ce gène de résistance aux antibiotiques, et que l’on se retrouve avec des bactéries ultra pathogènes et résistantes.
Cependant, les investigations menées en laboratoire jusqu’à présent montrent que cette intégration se fait à un rythme extrêmement lent, alors que les expérimentations en plein champ n’ont pu montrer aucune preuve de ce phénomène.
De plus, dans le cas apparemment très improbable où un tel scénario arrivait, cela n’affecterait pas les populations de bactéries déjà présentes dans le sol et naturellement résistantes aux antibiotiques, ni n’impliquerait de risques additionnels pour les humains ou les animaux.
En conclusion sur les risques de contamination, nous pouvons dire qu’ils sont tout à fait identiques à ceux de l’agriculture conventionnelle et biologique traditionnellement pratiquées. Le terme de « contamination » est en fait scientifiquement inexact, et ne fait que décrire un processus naturel non dangereux.
Les dangers pour les hommes et les animaux
L’équivalence en substance recouvre un aspect crucial de l’évaluation des risques liés aux OGM. L’équivalence en substance est la procédure stricte de vérification des effets créés par le transgène introduit dans un OGM. Cette procédure implique la comparaison de l’OGM avec la même plante non transgénique, possédant le même génotype moins le transgène. L’équivalence en substance, n’est donc absolument pas, comme on peut le lire sur le web, une norme attribuée gratuitement. C’est une procédure fondamentale de vérification de la conformité nécessaire à l’autorisation de mise sur le marché.
Cette procédure suit deux grandes étapes. D’abord, l’OGM est testé pour ses propriétés agronomiques, morphologiques et chimiques, telles que ses micro et macronutriments et ses protéines toxiques. Cette étape fixe la nécessité ou non de poursuivre des analyses sur les qualités nutritives de l’OGM. Tout écart qui tombe dans la variabilité naturelle de la plante non OGM est logiquement considéré comme sûr. Cette procédure est validée et reconnue internationalement. Si des différences ne recouvrant pas la variabilité naturelle de la plante non OGM sont détectées, elles doivent être analysées pour évaluer leur danger.
Cette procédure a été utilisée jusqu’à maintenant, et atteste donc de l’équivalence des plantes OGM avec leur version non OGM moins le transgène intégré. C’est ainsi que l’on sait que toutes les PGM mises sur le marché sont équivalentes à leur forme non OGM. Il ne s’agit pas d’une décision arbitraire.
L’équivalence en substance est fondamentale dans toute étude de conformité de produits OGM et est l’objet d’un consensus scientifique sans équivoque.
Il est notable que la littérature scientifique portant sur l’équivalence en substance est essentiellement composées des recherches produites par les firmes de biotechnologie. Ce constat est logique, dans la mesure où la puissance publique exige que les compagnies privées financent elles mêmes la mise aux normes des produits qu’elles souhaitent mettre sur le marché. Sans quoi, le contribuable devrait s’attendre à financer ces études, de sorte à ce qu’il se retrouve à payer les compagnies privées pour lui vendre des produits, et donc passer à la caisse deux fois. Bien que financées par les compagnies, ces procédures de conformité doivent être soumises au contrôle des instances de régulation publiques.
Depuis 2009, de plus en plus de procédures de contrôle, basées sur des tests d’équivalence non ciblés, en termes de transcriptomique, protéomique et métabolomique, se multiplient. Ces méthodes sont en cours de développement et ne sont pas encore harmonisées internationalement, de sorte à ce qu’on ne puisse pas encore en retirer des données utilisables. En l’état, le principe d’équivalence en substance reste une base très solide aux procédures de contrôle. Mais les transgènes et leurs produits sont bien entendu contrôlés eux aussi.
En conclusion sur l’équivalence en substance, nous pouvons dire qu’il s’agit d’un processus fiable et internationalement reconnu pour s’assurer par des analyses rigoureuses que le produit OGM est strictement identique au même produit non OGM. L’analyse du transgène est logiquement réalisée à part entière, en plus de l’équivalence en substance.
Les dangers pour la consommation représentent une part très importante de la littérature scientifique sur le sujet. Leur proportion par rapport aux autres thèmes reste constante, mais un pic de publication à ce sujet a été observé en 2008, à la suite de la ferveur scientifique occasionnée par les recherches expérimentales publiées par les compagnies en 2006.
Les dangers supposés des OGM pour la consommation peuvent se regrouper en trois aspects : l’innocuité du transgène inséré et de sa transcription en ARN, l’innocuité de la protéine transcrite par le transgène, et l’innocuité des changements attendus et inattendus sur les cultures. En d’autres termes, l’ADN transgénique et les protéines qu’il fabrique peuvent-ils être toxiques et mauvais pour la santé ?
Concernant l’innocuité de l’ADN, il faut savoir que celui-ci est contenu dans le régime alimentaire normal, qu’il soit issu de l’agriculture conventionnelle ou biologique, de sorte à ce que chaque humain consomme entre 0,1 et 1 gr d’ADN par jour quelle que soit sa diète. Cet ADN peut être détruit par la digestion, activer le système immunitaire, ou promouvoir la formation de biofilm bactérien. Des inquiétudes sont régulièrement soulevées quant à la possibilité pour un transgène de transférer une résistance antibiotique aux bactéries entériques selon les principes expliqués plus haut à propos des bactéries du sol, ou quant à sa translocation et accumulation dans le corps humain. Il est nécessaire une nouvelle fois de remettre les choses dans leur contexte.
D’abord, ce mécanisme n’est pas propre à un gène venant d’OGM. Ensuite, un transgène est totalement dilué dans la masse de l’ADN ingéré naturellement, à hauteur de 0,00006% à 0.00009%, et est digéré comme n’importe quelle autre partie de l’ADN. Par ailleurs, la préparation de la nourriture, cuisson, friture, ébullition, dégrade déjà préalablement les molécules d’ADN, transgénique ou pas, avant même leur ingestion. On sait expérimentalement que le transfert horizontal de transgène par les bactéries entériques des humains et des animaux est quant à lui rarissime. Si le scénario du pire arrivait, il est a noter que la résistance antibiotique utilisée pour les PGM ne représente pas de danger pour la santé des humains et des autres animaux. Il arrive naturellement que des molécules d’ADN passent la barrière intestinale lors de la digestion, mais ce phénomène n’a été observé que dans de très rares cas où un très grand nombre de copies d’un même gène se trouvait présent et dont des exemplaires étaient retrouvés dans des tissus et des organes de différents animaux ainsi que du lait de vache. Chez les humains, on a déjà pu observer le passage à travers la paroi intestinale d’un gène de lapin se trouvant dans un très grand nombre de copies. Le passage d’un transgène à travers la paroi intestinale à déjà pu être observé également, notamment chez le cochon et la truite arc-en-ciel, mais en micro quantités et avec de forts soupçons de contamination croisée lors des analyses. Dans la majorité des études conduites jusqu’à présent, il n’a pas été possible de retrouver des fragments de transgènes dans aucun produit animal dérivé. Il n’existe encore aucune preuve à ce jour de passage d’ADN à travers la paroi intestinale et d’intégration de celui-ci au génome des cellules de l’organisme hôte.
Clairement, l’ADN transgénique ingéré par la consommation d’OGM ne diffère en rien, intrinsèquement ou physiquement de n’importe quel autre ADN non transgénique déjà présent dans l’alimentation et n’implique aucun risque supérieur à l’ingestion de n’importe quel autre ADN non transgénique, qu’il vienne de produits de l’agriculture conventionnelle ou biologique.
Quand aux inquiétudes sur l’ingestion de transcrit ARN transgénique, les observations sont les mêmes que celles qui viennent d’être faites à propos de l’ADN. Un unique cas original est en cours d’investigations supplémentaires.
L’ADN transgénique induit pour la PGM recevant le transgène, la biosynthèse d’une protéine transgénique. On peut raisonnablement poser la question de la toxicité de telles biomolécules. L’innocuité de celles-ci est investiguée de diverses manières : des analyses bioinformatiques pour évaluer leur similarité avec la listes des substances toxiques et allergènes actuellement connues ; leur stabilité face au pH et à la température ; leur digestibilité in vitro via des fluides gastriques de mammifères (et donc la perte de leurs éventuels pouvoirs allergènes) ; leur niveau d’expression et d’absorption alimentaire afin d’évaluer l’exposition humaine et animale ; des tests de toxicité aigüe et chronique chez des rongeurs en utilisant la protéine transgénique purifiée afin de prédire les éventuels risques de toxicité chez les humains.
Le détail de ces analyses doit nécessairement être fourni aux autorités de régulations avant toute autorisation de mise en vente sur le marché. Ces données ne sont en revanche pas nécessairement publiées en outre dans des journaux scientifiques. Cette tendance tend cependant à s’inverser ces dernières années par la prise de conscience des compagnies de la nécessité de plus grande transparence. Il n’existe pas actuellement de preuves scientifiques d’effets toxiques ou allergiques. Les inquiétudes soulevées en 2007, 2009 et 2012 ont très vite été estompées par la très faible qualité des études qui en étaient à l’origine. Seuls deux cas d’effets allergiques sont connus à ce jour, l’un concernant un soja OGM qui n’a donc pas été mis sur le marché, et le cas jamais confirmé du maïs Starlink.
En conclusion sur les risques d’allergie et de toxicité à la consommation, nous pouvons dire que ceux-ci sont strictement et rigoureusement évalués par plusieurs batteries de tests très pointus. Les OGM sont les seuls aliments à ainsi faire l’objet de telles procédures de contrôle, et sont en cela beaucoup plus sûrs que les aliments bio qui ne sont eux jamais contrôlés. Les seuls risques connus n’ont logiquement jamais passé les premiers tests de conformité et n’ont jamais été développés.
Conclusion
Le nombre de repas consommés par des animaux nourris aux OGM depuis leur introduction il y a 20 ans, avoisine les deux trillions (soient 2 000 000 000 000 000 000, soient deux milliards de milliards, soient deux millions de millions de millions de repas). Ces données observationnelles absolument gigantesques, en plus des données expérimentales, n’ont jamais donné lieu à la moindre preuve de danger représenté par les OGM mis sur le marché. Sur les 9 milliards d’animaux d’élevage destinés à l’alimentation produits annuellement aux USA et suivis sur la période 1983-2011, strictement aucune différence n’a jamais été observée à partir de l’introduction des PGM dans l’alimentation de ces animaux en 1996, soient plus de 100 milliards de bêtes élevées depuis cette introduction et nourries à 95% d’OGM. Il est notable que la moindre crise épidémique apparue à la suite de l’introduction des OGM aurait immédiatement été détectée. Dans un tel scénario, les bêtes tomberaient malades à travers le monde par centaines de milliers. Il suffit de voir l’effet des épizooties infectieuses pour se rendre compte de ce que devrait être le moindre signal épidémique. Les données expérimentales de toutes sortes, dont de nombreuses études sur la toxicité à long terme (de 110 à 728 jours, jusqu’à 10 générations), n’ont pas montré de signes d’impact sur la santé des animaux ni de différence dans la valeur nutritive de cette alimentation en comparaison de leur équivalent non OGM.
En face de cela, une poignée d’études massivement dénoncées pour leurs nombreux biais et leur qualité exécrable continuent de retenir l’attention des médias grands publics qui passent sous silence les centaines d’autres études existantes sur le sujet et faisant consensus.
La revue de la littérature scientifique ne serait-ce que de ces dix dernières années (les OGM sont en développement depuis 30 ans), témoigne de ce consensus de sécurité et de suivi permanent pour tous les aspects de la question : impact sur l’environnement, impact sur l’homme et les autres animaux, traçabilité… Il est notable de constater, année après année, que chaque motif d’inquiétude dans le grand public est suivi par un regain de production scientifique à ce propos, comme ça a été le cas en 2011 sur les questions de biodiversité et les flux géniques soulevées par l’opinion publique. En l’état de la masse des connaissances scientifiques en perpétuel perfectionnement et accumulées depuis plusieurs décennies, la consommation d’OGM ne représente pas de danger supérieur à celui de la nourriture produite par l’agriculture conventionnelle ou biologique.
Il ne s’agit ni d’être « anti » ni d’être « pro » OGM. Ces deux positions sont irrationnelles, tout comme celle consistant au fence sitting et niant l’existence du consensus scientifique. Rationnellement, seules les preuves comptent. Le meilleur moyen à notre connaissance d’acquérir ces preuves et de les articuler logiquement reste la méthode scientifique. Or, cette méthode, grâce à des centaines de milliers de chercheurs à travers le monde, indépendants les uns des autres et acceptant de soumettre leurs résultats à la critique de leurs pairs, permet d’aboutir à un consensus scientifique. Ce consensus n’est évidemment pas définitif et est soumis aux connaissances nouvelles qui l’abreuvent en permanence. Dans le cas des OGM, le consensus, reposant sur des dizaines de milliers de publications scientifiques concordantes sur des dizaines d’années, est sans équivoque. Évidemment, cela ne veut absolument pas dire qu’il faut arrêter les contrôles et les évaluations, ni mêmes abaisser leur qualité. L’objectif de la recherche scientifique est bien le contraire : toujours augmenter la masse de connaissances et la rigueur de leur analyse. Ce qui est certain, c’est qu’on ne peut pas décemment prétendre que ces données n’existent pas ou seraient trop peu nombreuses pour savoir.
Paradoxalement, ces questions pourraient bénéficier d’une activité scientifique encore plus importante si ce n’était l’opposition virulente sinon violente d’une fraction de l’opinion aux expérimentations publiques en plein champ. Cette double position des cercles militants à exiger plus de recherche publique tout en la vandalisant est absolument mortifère pour la science et le progrès technologique et humain. Il est inconcevable que les contributions humanitaires de la recherche publique en biotechnologie soient vandalisées et retardées par des groupes de pression militants sans motifs valables au péril et au plus grand mépris de populations nécessiteuses.
Tout aussi paradoxalement, les réglementations européennes qui planent sur l’ingénierie génétique sont extrêmement lourde. Ceci n’est pas fondamentalement mal. Mais cet état contribuede facto à empêcher au secteur public et aux startups d’émerger et de faire contre poids aux géants américains. Là encore, une double position ubuesque.
Cet état de fait est probablement la conjonction d’interactions complexes entre des phénomènes sociologiques, psychologiques, politiques, et de non représentation du consensus scientifique auprès du grand public. Tous ces facteurs doivent être pris en compte pour un débat constructif à propos de l’utilisation des biotechnologies à l’avenir. L’amélioration de la communication scientifique, une meilleure visibilité du consensus, et une présentation non biaisée de celui-ci dans les médias de masse, pourraient clairement changer la donne, comme ça a été le cas récemment au Royaume-Uni pour le lancement de champs de blé expérimentaux.
Si ce tour en poney GM vous a plu et que vous en avez retiré quelque chose, n’hésitez pas à le diffuser largement.
Voilà maintenant un certain temps que, dans le cadre d’un cycle d’articles ayant trait au risque infectieux et à ses récupérations par tout ce que la toile compte de gogos et de charlatans, je réfléchis à l’Ebola.
A la faveur d’une accalmie épidémique et du désintéressement médiatique pour ce sujet au profit d’autres nouvelles macabres, l’emballement général semble avoir été amorti. On ne guète plus fiévreusement le retour des personnels de santé ou de missionnaires dans les laboratoires P4 du monde occidental en se demandant si nous serons tous transformés en zombis la semaine prochaine. C’est donc peut être le moment de revenir sereinement, sans subir la psychose collective, sur les bases scientifiques permettant de comprendre un tel phénomène et les difficultés que l’on peut avoir à le prédire et à le juguler. Je pensais d’abord à faire un article de débunking, revenant sur toutes les charlataneries qu’on a pu voir surfer sur cette tragédie : complotistes, anti-vaccinistes, homéopathes, naturopathes, vendeurs d’équipement de protection anti-Ebola, millénaristes en tout genre… J’ai finalement constaté que la plupart des gens ne connaissaient en fait absolument pas les mécanismes à l’œuvre, et qu’il serait peut être préférable de commencer par les exposer simplement. Il ne sera donc pas question dans ce billet de la dernière épidémie d’Ebola à proprement parlé, mais de sa remise dans un contexte et un historique épidémique plus large.
L’apparition d’Ebola :
L’Ebola a été découvert pour la première fois en 1976 au cœur de la forêt tropicale humide en République Démocratique du Congo (alors le Zaïre), dans un village nommé Yambuku sur une berge de la rivière Ebola. Avant cela, un seul cas avait été détecté en 1972, fatal pour le patient, et diagnostiqué rétrospectivement. En 1976, le microbe fut à l’origine de 284 cas répertoriés et 117 décès, soit une létalité de plus de 40%. Une surveillance attentive fut mise en place par l’Institut Pasteur et le service de santé des armées US, mais la maladie disparut aussi subitement qu’elle était venue et plus aucun cas ne fut observé pendant une quinzaine d’années.
On observait donc des émergences multiples avec des alternances de phases silencieuses, dont on sait aujourd’hui qu’il s’agit du pattern épidémique caractéristique du virus sur le continent africain. En 1994, un éthologue s’était contaminé par une nouvelle souche d’Ebola en enquêtant sur une épizootie dans la forêt de Taï en Côte d’Ivoire. En 1992 dans la même région, les primatologues avaient déjà observé une mortalité inhabituelle chez les communautés de grands singes. La disparition de l’Ebola ivoirien fut aussi inopinée que celle des autres souches et ne s’est alors plus manifestée.
Au total pour ces différentes épidémies venant de diverses souches du virus, 2317 cas ont été répertoriés pour 1671 décès, soit une mortalité de plus de 72%. On peut cependant légitimement se poser la question du nombre réel de cas et de décès dans une zone d’endémie aussi vaste et reculée. Combien de cas, combien de villages isolés ont été atteints sans que personne ne le sache ? Combien de décès constatés mais sans les moyens de détecter ou non la présence du virus ?
Mais le virus ne se limite pas nécessairement à l’Afrique. En 1989, une nouvelle souche, dite Ebola-Reston, fut détectée aux USA dans la ville éponyme et où elle avait été amenée par des singes infectés venus des Philippines et vendus à des laboratoires nord-américains. 500 macaques mangeurs de crabes furent euthanasiés préventivement avant que l’on constate que la souche était peu pathogène pour l’homme. Cette réponse prompte de la veille sanitaire était probablement à l’origine de l’absence totale de décès humains. En 1992, cette souche fut à nouveau localisée, en Italie cette fois-ci, toujours chez des primates venant des Philippines.
On a pu voir à la suite des épidémies des années 90 que le pattern épidémiologique de l’Ebola était de type multi émergence : ces épidémies sont indépendantes, distantes dans le temps et dans l’espace, s’opèrent dans des endroits et à des moments donnés si et seulement si toutes les conditions requises se rencontrent. Ces conditions impliquent la présence de chiroptères frugivores porteuses du virus, la présence de primates non immuns sensibles au pathogène et leur présence dans un écosystème commun favorable à leur rencontre. On peut résumer ces conditions, difficiles à réunir dans les faits, par un diagramme de Venn :
La transmission de la maladie à l’homme peut suivre l’épizootie ou en être concomitante. La saison de fructification qui attire à la fois les chiroptères et les singes peut correspondre à la période de chasse durant laquelle les hommes s’engagent en forêt à la poursuite de chauves-souris et des primates pour leur consommation de viande. La transmission à l’homme, permise par la conjonction des conditions nécessaires à l’émergence, se fait par le contact de celui-ci avec les déjections des chauves-souris ou au moment du dépeçage et de la préparation des singes.
L’aléa de l’émergence épidémique-épizootique tient donc à la rencontre de chiroptères frugivores infectés avec des bandes de primates non immuns sur un territoire commun de 2 millions de km², dans des lieux de passages extrêmement localisés et impliquant la présence de fruits communément consommés et donc a fortiori la saisonnalité des fructifications. Aussi précaires que soient ces conditions, c’est ainsi qu’émergent toutes les épidémies d’Ebola autour du massif forestier congolais, toujours précédées d’une épizootie avant toute épidémie et transmission interhumaine.
Chacun des acteurs est mobile : les chauves-souris migrent sur de vastes territoires à la recherche de fruits, les primates non humains semi-nomades évoluent sur des territoires de 10 à 30 km² à la recherche de nourriture et de gites ou passer la nuit ; les hommes quant à eux n’ont aucune limite. La chasse peut les emmener profondément dans la forêt. Cette grande mobilité de chacun des acteurs dans un même et vaste environnement favorise la multi émergence. A chaque rencontre commune, les acteurs repartent de leur côté, emmenant avec eux le virus dont ils sont à présent les hôtes. Mais cette transmission n’est possible que par le hasard des rencontres dans l’immensité forestière. Ce phénomène stochastique explique les longues périodes de silence inter épidémique.
A ces phénomènes finalement assez simples mais déjà très difficiles à prédire, il faut ajouter une multitude d’autres paramètres plus ou moins connus : les évènements conditionnant l’effervescence des colonies de chiroptères, leur préférence variée pour certains fruits plutôt que d’autres, les mêmes paramètres appliqués aux grands singes, le rôle de certains hôtes intermédiaires encore incertain, la fragmentation de la forêt par les activités humaines, les variations climatiques saisonnières et inter annuelles jouant en début de chaîne sur la fructification, etc..
Au final, on comprend aisément que ce pattern épidémique de multi émergence, s’il n’a rien de mystérieux, ou d’anormal, s’explique par des principes écologiques élémentaires de rencontres interspécifiques dans des environnements communs. Ces mécanismes s’observent pour toutes les relations hôte-pathogène et n’ont pas attendu la récente épidémie d’Ebola pour opérer. Ces notions peuvent être contre intuitives pour le grand public, mais reposent sur des phénomènes observables et testables bien plus parcimonieux que les nombreuses fumisteries qu’on a pu lire ou entendre sur nombre de médias anti-trucs à la mode. Il est dès lors inutile de crier au complot lorsqu’un pathogène ré émerge, ou qu’une nouvelle souche est découverte. Ces phénomènes sont connus, opèrent depuis des millions d’années, et continueront encore longtemps. Face à cela, c’est la mission des chercheurs et personnels de santé de spécialités très diverses de participer à la veille sanitaire toujours adossée aux trois principes élémentaires : observer, comprendre, prédire.