OGM = Danger, les preuves scientifiques

LA VERITE SUR LE ROUNDUP, HERBICIDE, MAÏS BT, COTON BT, SOJA BT, SUPERWEED, CONTAMINATION, MONSANTO, PESTICIDE, BIODIVERSITE, EQUUS TROJANUS !!!

Figure 1 Image tirée du documentaire intitulé « GMO OMG » de Jeremy Seifert, reviewé sur ce lien.

Très souvent, dans le milieu des opposants aux OGM, j’entends dire qu’on n’a pas assez de preuves scientifiques sur les dangers des OGM, qu’on ne sait pas, qu’il n’y a pas d’études, qu’on n’a pas prouvé l’innocuité des OGM, etc.. Mais les camarades qui disent cela se trompent lourdement. En réalité, la documentation scientifique sur les dangers des OGM est énorme. Ceci s’explique par le fait que les OGM sont les produits biologiques les plus suivis au monde depuis 30 ans. Aussi, on cumule les données observationnelles et expérimentales. Il existe des milliers d’études sur les OGM, et des centaines d’entre elles évaluent leur danger. Bien entendu, une partie de ces études est financée par l’industrie. Mais au moins autant sont entreprises par des universitaires sur des budgets de la recherche publique.

De fait, les articles scientifiques indépendants de l’industrie et posant la question des dangers des OGM sont légions. Depuis les premiers travaux sur les OGM jusqu’en 2006, 31 848 articles scientifiques avaient été publiés sur le sujet. Le problème est que l’évaluation des dangers des OGM repose sur une approche multidisciplinaire, ce qui a tendance à diluer la visibilité de telles recherches déjà dans le domaine scientifique, mais encore plus auprès du grand public. Un journal peer review spécifique ainsi qu’une base de données dédiée à ces recherches ont donc été créés.

Le consensus scientifique sur le danger des OGM est très clair, comme il a pu être mis en évidence par une revue bibliographique sur tous les articles scientifiques publiés entre 2002 et 2012, soient 1783 articles comprenant des travaux de recherche et d’autres revues bibliographiques.

Nicolia et al., 2013
Nicolia et al., 2013

On peut voir que les études portant sur les dangers des OGM sont assez bien balancées entre les interactions OGM-environnement (47,5%) et les interactions OGM-humains (43,2%). A l’intérieur de ces deux grandes catégories, plusieurs thèmes sont abordés.

Les dangers pour la biodiversité

C’est le thème le plus fouillé par les scientifiques (68,4%) dans la catégorie des interactions OGM-environnement. On commence donc à connaître beaucoup de choses sur les dangers des OGM pour la biodiversité.

Comme vous le savez, la plupart des Plantes Génétiquement Modifiées (PGM) le sont pour devenir résistantes à des herbicides, comme le Roundup, ou pour produire des toxines insecticides, comme les semences Bt. Les scientifiques évaluent donc en permanence les dangers que cela peut représenter aux travers de données observationnelles et expérimentales.

La littérature évaluant ces dangers pour la faune, qu’il s’agisse des oiseaux, serpents, insectes non ciblés par les insecticides, microfaune du sol, etc., est extrêmement importante. Une revue de cette littérature montre bien les quantités de preuves sur les dangers des OGM : rares ou inexistantes. Les impacts négatifs qui ont pu être mis en évidence ont par ailleurs été critiqués pour leur faiblesse statistique et leurs extrapolations abusives.

Les OGM-herbicides et insecticides provoquent naturellement une baisse de la biodiversité au regard des cibles de ces pesticides. C’est en effet parfaitement logique et le même résultat est attendu en agriculture conventionnelle ou bio. Quel que soit le moyen de lutte utilisé, il conduit nécessairement à la diminution des cibles dans la zone d’utilisation. Cela démontre simplement l’efficacité de ces méthodes. Il est notable de constater que cette baisse de la biodiversité des cibles est généralement plus grande en agriculture utilisant des variétés non OGM, car les pesticides chimiques utilisés sont plus toxiques et persistants dans l’environnement. A ce propos, l’utilisation des « pesticides OGM » a permis une très large diminution de l’utilisation des pesticides chimiques conventionnels dans le monde, et donc une importante réduction de la pollution.

Le danger que représentent les OGM en termes d’apparition de plantes résistantes aux herbicides, les superweeds, ou d’insectes ravageurs résistants aux insecticides sont également bien évalués. Mais en réalité, ces problèmes bien connus ne sont pas spécifiques aux produits OGM. La théorie de l’évolution nous apprend effectivement que la pression sélective continue sur les individus, provoque nécessairement une adaptation continue. Ainsi, il semble peu probable qu’une solution de lutte contre un nuisible biologique ne soit jamais définitive. Il s’agit alors d’établir une gestion intelligente de différentes méthodes de lutte combinées pour éviter l’apparition de résistances. C’est ce qu’on appelle la course à l’armement. Ces dangers sont exactement les mêmes en agriculture conventionnelle ou biologique. Ils ne représentent pas une spécificité des OGM. Les techniques de l’un ou l’autre mode d’agriculture peuvent très bien être utilisées de manière combinée de sorte à réduire à la fois les pollutions et les risques de résistance.

En conclusion sur les dangers des OGM pour la biodiversité, il est notable de constater que les craintes communément soulevées ne sont pas justifiées. En outre, la diminution de la pollution grâce aux champs OGM est favorable à la biodiversité. Clairement, cette pratique ne présente aucune différence néfaste avec celles utilisées traditionnellement par l’homme depuis le Néolithique.

La contamination

Des plantes non OGM peuvent fertiliser des plantes OGM et vice-versa. Ceci se passe en permanence dans la nature entre des plantes non OGM. On appelle ça la reproduction. Lors du processus de reproduction, des gènes sont échangés et transmis aux générations suivantes. On parle de flux de gènes, processus improprement appelé « contamination » par les opposants, durant lequel des transgènes peuvent circuler et se fixer dans une population de plantes sauvages par introgression. Dans la littérature sur les dangers des OGM, les flux de gènes représentent 31,6% des publications relatives aux interactions OGM-environnement. C’est clairement un sujet très chaud qui est suivi sans relâche et dont le nombre de publications est en augmentation depuis 2006. Beaucoup de personnes craignent que ce flux de gènes soient nocifs. Qu’en est-il réellement ?

Beaucoup de facteurs conditionnent une telle possibilité : le mode de reproduction des plantes OGM, la présence ou non à proximité de plantes sauvages sexuellement compatibles, et la viabilité de tout hybride potentiel. Plusieurs exemples d’introgressions de ce genre ont déjà été documentés. Ce danger est bien connu. Plusieurs stratégies combinées existent pour le limiter : la stérilité des plans mâles, la désynchronisation de la floraison, l’introduction de gènes défavorables… Mais aucune de ces méthodes seule n’est totalement efficace pour interdire l’introgression d’un transgène dans une population sauvage.

Quoi qu’il en soit, le suivi intensif de ces dangers n’a encore jamais détecté d’effets défavorables de l’introgression d’un transgène dans une population sauvage. Par ailleurs, et exactement comme je l’ai dit plus haut concernant l’apparition de résistances, ce problème n’est absolument pas spécifique aux OGM. Il existe de nombreux exemples documentés d’hybrides non OGM naturellement invasifs et d’apparitions de résistances aux herbicides dans des populations sauvages sous l’effet de mutations aléatoires et naturelles.

Pour produire des plantes OGM, il est souvent nécessaire de recourir à un gène de résistance aux antibiotiques qui agit comme marqueur dans les cultures cellulaires, de sorte à pouvoir sélectionner uniquement les cellules porteuses du transgène et a fortiori résistantes à l’antibiotique. Il est donc raisonnable de penser que ce gène de résistance aux antibiotiques, transféré jusque dans le PGM final, puisse in fine passer dans le sol lors de la dégradation des restes végétaux et entrer en contact des bactéries du sol. Or, on sait parfaitement que les bactéries sont naturellement capables d’intégrer à leur génome de l’ADN exogène rencontré dans leur environnement. C’est ce qu’on appelle le transfert de gène horizontal. Le danger, bien entendu, serait alors que des bactéries intègrent ce gène de résistance aux antibiotiques, et que l’on se retrouve avec des bactéries ultra pathogènes et résistantes.

Cependant, les investigations menées en laboratoire jusqu’à présent montrent que cette intégration se fait à un rythme extrêmement lent, alors que les expérimentations en plein champ n’ont pu montrer aucune preuve de ce phénomène.

De plus, dans le cas apparemment très improbable où un tel scénario arrivait, cela n’affecterait pas les populations de bactéries déjà présentes dans le sol et naturellement résistantes aux antibiotiques, ni n’impliquerait de risques additionnels pour les humains ou les animaux.

Le génie génétique prévoit en outre l’utilisation d’autres types de marqueurs génétiques que des gènes de résistance aux antibiotiques, et l’élimination de tous les gènes non désirés en bout de chaîne dans le génome final de la plante OGM.

En conclusion sur les risques de contamination, nous pouvons dire qu’ils sont tout à fait identiques à ceux de l’agriculture conventionnelle et biologique traditionnellement pratiquées. Le terme de « contamination » est en fait scientifiquement inexact, et ne fait que décrire un processus naturel non dangereux.

Les dangers pour les hommes et les animaux

L’équivalence en substance recouvre un aspect crucial de l’évaluation des risques liés aux OGM. L’équivalence en substance est la procédure stricte de vérification des effets créés par le transgène introduit dans un OGM. Cette procédure implique la comparaison de l’OGM avec la même plante non transgénique, possédant le même génotype moins le transgène. L’équivalence en substance, n’est donc absolument pas, comme on peut le lire sur le web, une norme attribuée gratuitement. C’est une procédure fondamentale de vérification de la conformité nécessaire à l’autorisation de mise sur le marché.

Cette procédure suit deux grandes étapes. D’abord, l’OGM est testé pour ses propriétés agronomiques, morphologiques et chimiques, telles que ses micro et macronutriments et ses protéines toxiques. Cette étape fixe la nécessité ou non de poursuivre des analyses sur les qualités nutritives de l’OGM. Tout écart qui tombe dans la variabilité naturelle de la plante non OGM est logiquement considéré comme sûr. Cette procédure est validée et reconnue internationalement. Si des différences ne recouvrant pas la variabilité naturelle de la plante non OGM sont détectées, elles doivent être analysées pour évaluer leur danger.

Cette procédure a été utilisée jusqu’à maintenant, et atteste donc de l’équivalence des plantes OGM avec leur version non OGM moins le transgène intégré. C’est ainsi que l’on sait que toutes les PGM mises sur le marché sont équivalentes à leur forme non OGM. Il ne s’agit pas d’une décision arbitraire.

L’équivalence en substance est fondamentale dans toute étude de conformité de produits OGM et est l’objet d’un consensus scientifique sans équivoque.

Il est notable que la littérature scientifique portant sur l’équivalence en substance est essentiellement composées des recherches produites par les firmes de biotechnologie. Ce constat est logique, dans la mesure où la puissance publique exige que les compagnies privées financent elles mêmes la mise aux normes des produits qu’elles souhaitent mettre sur le marché. Sans quoi, le contribuable devrait s’attendre à financer ces études, de sorte à ce qu’il se retrouve à payer les compagnies privées pour lui vendre des produits, et donc passer à la caisse deux fois. Bien que financées par les compagnies, ces procédures de conformité doivent être soumises au contrôle des instances de régulation publiques.

Depuis 2009, de plus en plus de procédures de contrôle, basées sur des tests d’équivalence non ciblés, en termes de transcriptomique, protéomique et métabolomique, se multiplient. Ces méthodes sont en cours de développement et ne sont pas encore harmonisées internationalement, de sorte à ce qu’on ne puisse pas encore en retirer des données utilisables. En l’état, le principe d’équivalence en substance reste une base très solide aux procédures de contrôle. Mais les transgènes et leurs produits sont bien entendu contrôlés eux aussi.

En conclusion sur l’équivalence en substance, nous pouvons dire qu’il s’agit d’un processus fiable et internationalement reconnu pour s’assurer par des analyses rigoureuses que le produit OGM est strictement identique au même produit non OGM. L’analyse du transgène est logiquement réalisée à part entière, en plus de l’équivalence en substance.

Les dangers pour la consommation représentent une part très importante de la littérature scientifique sur le sujet. Leur proportion par rapport aux autres thèmes reste constante, mais un pic de publication à ce sujet a été observé en 2008, à la suite de la ferveur scientifique occasionnée par les recherches expérimentales publiées par les compagnies en 2006.

Les dangers supposés des OGM pour la consommation peuvent se regrouper en trois aspects : l’innocuité du transgène inséré et de sa transcription en ARN, l’innocuité de la protéine transcrite par le transgène, et l’innocuité des changements attendus et inattendus sur les cultures. En d’autres termes, l’ADN transgénique et les protéines qu’il fabrique peuvent-ils être toxiques et mauvais pour la santé ?

Concernant l’innocuité de l’ADN, il faut savoir que celui-ci est contenu dans le régime alimentaire normal, qu’il soit issu de l’agriculture conventionnelle ou biologique, de sorte à ce que chaque humain consomme entre 0,1 et 1 gr d’ADN par jour quelle que soit sa diète. Cet ADN peut être détruit par la digestion, activer le système immunitaire, ou promouvoir la formation de biofilm bactérien. Des inquiétudes sont régulièrement soulevées quant à la possibilité pour un transgène de transférer une résistance antibiotique aux bactéries entériques selon les principes expliqués plus haut à propos des bactéries du sol, ou quant à sa translocation et accumulation dans le corps humain. Il est nécessaire une nouvelle fois de remettre les choses dans leur contexte.

D’abord, ce mécanisme n’est pas propre à un gène venant d’OGM. Ensuite, un transgène est totalement dilué dans la masse de l’ADN ingéré naturellement, à hauteur de 0,00006% à 0.00009%, et est digéré comme n’importe quelle autre partie de l’ADN. Par ailleurs, la préparation de la nourriture, cuisson, friture, ébullition, dégrade déjà préalablement les molécules d’ADN, transgénique ou pas, avant même leur ingestion. On sait expérimentalement que le transfert horizontal de transgène par les bactéries entériques des humains et des animaux est quant à lui rarissime. Si le scénario du pire arrivait, il est a noter que la résistance antibiotique utilisée pour les PGM ne représente pas de danger pour la santé des humains et des autres animaux. Il arrive naturellement que des molécules d’ADN passent la barrière intestinale lors de la digestion, mais ce phénomène n’a été observé que dans de très rares cas où un très grand nombre de copies d’un même gène se trouvait présent et dont des exemplaires étaient retrouvés dans des tissus et des organes de différents animaux ainsi que du lait de vache. Chez les humains, on a déjà pu observer le passage à travers la paroi intestinale d’un gène de lapin se trouvant dans un très grand nombre de copies. Le passage d’un transgène à travers la paroi intestinale à déjà pu être observé également, notamment chez le cochon et la truite arc-en-ciel, mais en micro quantités et avec de forts soupçons de contamination croisée lors des analyses. Dans la majorité des études conduites jusqu’à présent, il n’a pas été possible de retrouver des fragments de transgènes dans aucun produit animal dérivé. Il n’existe encore aucune preuve à ce jour de passage d’ADN à travers la paroi intestinale et d’intégration de celui-ci au génome des cellules de l’organisme hôte.

Clairement, l’ADN transgénique ingéré par la consommation d’OGM ne diffère en rien, intrinsèquement ou physiquement de n’importe quel autre ADN non transgénique déjà présent dans l’alimentation et n’implique aucun risque supérieur à l’ingestion de n’importe quel autre ADN non transgénique, qu’il vienne de produits de l’agriculture conventionnelle ou biologique.

Quand aux inquiétudes sur l’ingestion de transcrit ARN transgénique, les observations sont les mêmes que celles qui viennent d’être faites à propos de l’ADN. Un unique cas original est en cours d’investigations supplémentaires.

L’ADN transgénique induit pour la PGM recevant le transgène, la biosynthèse d’une protéine transgénique. On peut raisonnablement poser la question de la toxicité de telles biomolécules. L’innocuité de celles-ci est investiguée de diverses manières : des analyses bioinformatiques pour évaluer leur similarité avec la listes des substances toxiques et allergènes actuellement connues ; leur stabilité face au pH et à la température ; leur digestibilité in vitro via des fluides gastriques de mammifères (et donc la perte de leurs éventuels pouvoirs allergènes) ; leur niveau d’expression et d’absorption alimentaire afin d’évaluer l’exposition humaine et animale ; des tests de toxicité aigüe et chronique chez des rongeurs en utilisant la protéine transgénique purifiée afin de prédire les éventuels risques de toxicité chez les humains.

Le détail de ces analyses doit nécessairement être fourni aux autorités de régulations avant toute autorisation de mise en vente sur le marché. Ces données ne sont en revanche pas nécessairement publiées en outre dans des journaux scientifiques. Cette tendance tend cependant à s’inverser ces dernières années par la prise de conscience des compagnies de la nécessité de plus grande transparence. Il n’existe pas actuellement de preuves scientifiques d’effets toxiques ou allergiques. Les inquiétudes soulevées en 2007, 2009 et 2012 ont très vite été estompées par la très faible qualité des études qui en étaient à l’origine. Seuls deux cas d’effets allergiques sont connus à ce jour, l’un concernant un soja OGM qui n’a donc pas été mis sur le marché, et le cas jamais confirmé du maïs Starlink.

En conclusion sur les risques d’allergie et de toxicité à la consommation, nous pouvons dire que ceux-ci sont strictement et rigoureusement évalués par plusieurs batteries de tests très pointus. Les OGM sont les seuls aliments à ainsi faire l’objet de telles procédures de contrôle, et sont en cela beaucoup plus sûrs que les aliments bio qui ne sont eux jamais contrôlés. Les seuls risques connus n’ont logiquement jamais passé les premiers tests de conformité et n’ont jamais été développés.

Conclusion

Le nombre de repas consommés par des animaux nourris aux OGM depuis leur introduction il y a 20 ans, avoisine les deux trillions (soient 2 000 000 000 000 000 000, soient deux milliards de milliards, soient deux millions de millions de millions de repas). Ces données observationnelles absolument gigantesques, en plus des données expérimentales, n’ont jamais donné lieu à la moindre preuve de danger représenté par les OGM mis sur le marché. Sur les 9 milliards d’animaux d’élevage destinés à l’alimentation produits annuellement aux USA et suivis sur la période 1983-2011, strictement aucune différence n’a jamais été observée à partir de l’introduction des PGM dans l’alimentation de ces animaux en 1996, soient plus de 100 milliards de bêtes élevées depuis cette introduction et nourries à 95% d’OGM. Il est notable que la moindre crise épidémique apparue à la suite de l’introduction des OGM aurait immédiatement été détectée. Dans un tel scénario, les bêtes tomberaient malades à travers le monde par centaines de milliers. Il suffit de voir l’effet des épizooties infectieuses pour se rendre compte de ce que devrait être le moindre signal épidémique. Les données expérimentales de toutes sortes, dont de nombreuses études sur la toxicité à long terme (de 110 à 728 jours, jusqu’à 10 générations), n’ont pas montré de signes d’impact sur la santé des animaux ni de différence dans la valeur nutritive de cette alimentation en comparaison de leur équivalent non OGM.

En face de cela, une poignée d’études massivement dénoncées pour leurs nombreux biais et leur qualité exécrable continuent de retenir l’attention des médias grands publics qui passent sous silence les centaines d’autres études existantes sur le sujet et faisant consensus.

La revue de la littérature scientifique ne serait-ce que de ces dix dernières années (les OGM sont en développement depuis 30 ans), témoigne de ce consensus de sécurité et de suivi permanent pour tous les aspects de la question : impact sur l’environnement, impact sur l’homme et les autres animaux, traçabilité… Il est notable de constater, année après année, que chaque motif d’inquiétude dans le grand public est suivi par un regain de production scientifique à ce propos, comme ça a été le cas en 2011 sur les questions de biodiversité et les flux géniques soulevées par l’opinion publique. En l’état de la masse des connaissances scientifiques en perpétuel perfectionnement et accumulées depuis plusieurs décennies, la consommation d’OGM ne représente pas de danger supérieur à celui de la nourriture produite par l’agriculture conventionnelle ou biologique.

Il ne s’agit ni d’être « anti » ni d’être « pro » OGM. Ces deux positions sont irrationnelles, tout comme celle consistant au fence sitting et niant l’existence du consensus scientifique. Rationnellement, seules les preuves comptent. Le meilleur moyen à notre connaissance d’acquérir ces preuves et de les articuler logiquement reste la méthode scientifique. Or, cette méthode, grâce à des centaines de milliers de chercheurs à travers le monde, indépendants les uns des autres et acceptant de soumettre leurs résultats à la critique de leurs pairs, permet d’aboutir à un consensus scientifique. Ce consensus n’est évidemment pas définitif et est soumis aux connaissances nouvelles qui l’abreuvent en permanence. Dans le cas des OGM, le consensus, reposant sur des dizaines de milliers de publications scientifiques concordantes sur des dizaines d’années, est sans équivoque. Évidemment, cela ne veut absolument pas dire qu’il faut arrêter les contrôles et les évaluations, ni mêmes abaisser leur qualité. L’objectif de la recherche scientifique est bien le contraire : toujours augmenter la masse de connaissances et la rigueur de leur analyse. Ce qui est certain, c’est qu’on ne peut pas décemment prétendre que ces données n’existent pas ou seraient trop peu nombreuses pour savoir.

Paradoxalement, ces questions pourraient bénéficier d’une activité scientifique encore plus importante si ce n’était l’opposition virulente sinon violente d’une fraction de l’opinion aux expérimentations publiques en plein champ. Cette double position des cercles militants à exiger plus de recherche publique tout en la vandalisant est absolument mortifère pour la science et le progrès technologique et humain. Il est inconcevable que les contributions humanitaires de la recherche publique en biotechnologie soient vandalisées et retardées par des groupes de pression militants sans motifs valables au péril et au plus grand mépris de populations nécessiteuses.

Tout aussi paradoxalement, les réglementations européennes qui planent sur l’ingénierie génétique sont extrêmement lourde. Ceci n’est pas fondamentalement mal. Mais cet état contribue de facto à empêcher au secteur public et aux startups d’émerger et de faire contre poids aux géants américains. Là encore, une double position ubuesque.

Cet état de fait est probablement la conjonction d’interactions complexes entre des phénomènes sociologiques, psychologiques, politiques, et de non représentation du consensus scientifique auprès du grand public. Tous ces facteurs doivent être pris en compte pour un débat constructif à propos de l’utilisation des biotechnologies à l’avenir. L’amélioration de la communication scientifique, une meilleure visibilité du consensus, et une présentation non biaisée de celui-ci dans les médias de masse, pourraient clairement changer la donne, comme ça a été le cas récemment au Royaume-Uni pour le lancement de champs de blé expérimentaux.

Si ce tour en poney GM vous a plu et que vous en avez retiré quelque chose, n’hésitez pas à le diffuser largement.

Ebola : quelques clefs pour comprendre l’épidémie

Figure 1 Virus Ebola (au microscope électronique) montrant la structure filamenteuse de la particule virale. ©Cynthia Goldsmith/CDC/R/REX/SIPA

 

Voilà maintenant un certain temps que, dans le cadre d’un cycle d’articles ayant trait au risque infectieux et à ses récupérations par tout ce que la toile compte de gogos et de charlatans, je réfléchis à l’Ebola.

 

A la faveur d’une accalmie épidémique et du désintéressement médiatique pour ce sujet au profit d’autres nouvelles macabres, l’emballement général semble avoir été amorti. On ne guète plus fiévreusement le retour des personnels de santé ou de missionnaires dans les laboratoires P4 du monde occidental en se demandant si nous serons tous transformés en zombis la semaine prochaine. C’est donc peut être le moment de revenir sereinement, sans subir la psychose collective, sur les bases scientifiques permettant de comprendre un tel phénomène et les difficultés que l’on peut avoir à le prédire et à le juguler. Je pensais d’abord à faire un article de débunking, revenant sur toutes les charlataneries qu’on a pu voir surfer sur cette tragédie : complotistes, anti-vaccinistes, homéopathes, naturopathes, vendeurs d’équipement de protection anti-Ebola, millénaristes en tout genre… J’ai finalement constaté que la plupart des gens ne connaissaient en fait absolument pas les mécanismes à l’œuvre, et qu’il serait peut être préférable de commencer par les exposer simplement. Il ne sera donc pas question dans ce billet de la dernière épidémie d’Ebola à proprement parlé, mais de sa remise dans un contexte et un historique épidémique plus large.

 

L’apparition d’Ebola :

 

L’Ebola a été découvert pour la première fois en 1976 au cœur de la forêt tropicale humide en République Démocratique du Congo (alors le Zaïre), dans un village nommé Yambuku sur une berge de la rivière Ebola. Avant cela, un seul cas avait été détecté en 1972, fatal pour le patient, et diagnostiqué rétrospectivement. En 1976, le microbe fut à l’origine de 284 cas répertoriés et 117 décès, soit une létalité de plus de 40%. Une surveillance attentive fut mise en place par l’Institut Pasteur et le service de santé des armées US, mais la maladie disparut aussi subitement qu’elle était venue et plus aucun cas ne fut observé pendant une quinzaine d’années.

Dans les années 80-90, les outils diagnostiques de la biologie moléculaire actuelle n’existaient pas encore, et la veille sanitaire reposait donc sur des tests sérologiques. C’est ainsi qu’on put constater que les populations des zones explorées d’Afrique centrale par la veille étaient porteuses d’anticorps orientés contre les virus de la famille de l’Ebola sans être malades. C’était donc le signe que le microbe pouvait voyager dans tout le massif forestier congolais sans déclencher d’épidémies. En dehors de cette signature sérologique, aucun cas clinique et aucun décès n’était à signaler. Les chercheurs sur le terrain pouvaient suivre la trace du microbe, constater sa présence passée, mais ne jamais le saisir.

Enfin, en 1995, à 1000 km de Yambuku, dans la ville de Kikwit en RDC, le virus émergea à nouveau. On répertoria 315 cas et 244 décès, soit plus de 77% de létalité. Par la suite, plusieurs nouvelles émergences se manifestèrent en dehors du Congo, notamment au Gabon. De façon tout à fait remarquable, toutes ces émergences s’opéraient autour du massif forestier congolais. Cette région présente un écosystème de type forêt tropicale humide de part et d’autre de l’équateur sur 2 millions de km². Il s’agit de la plus grande forêt tropicale du monde après la forêt amazonienne.

En 1976, une autre épidémie avait éclaté indépendamment dans une usine de coton de Nzara au Sud-Soudan, à 1200 km de Yambuku. Le virus responsable de l’épidémie, différent de celui du Zaïre, fut appelé Ebola-Soudan. Ces émergences étaient concomitantes, mais indépendantes. L’Ebola-Soudan émergea encore à plusieurs reprises dans la même région de Maridi dans le Sud-Soudan, en 1976, 1979 et 2004. L’Ebola émergea en l’an 2000 en Ouganda avec une mortalité de 50% par le biais d’une nouvelle souche nommée Ebola-Bundibugyo, du nom du village où elle fut détectée.

On observait donc des émergences multiples avec des alternances de phases silencieuses, dont on sait aujourd’hui qu’il s’agit du pattern épidémique caractéristique du virus sur le continent africain. En 1994, un éthologue s’était contaminé par une nouvelle souche d’Ebola en enquêtant sur une épizootie dans la forêt de Taï en Côte d’Ivoire. En 1992 dans la même région, les primatologues avaient déjà observé une mortalité inhabituelle chez les communautés de grands singes. La disparition de l’Ebola ivoirien fut aussi inopinée que celle des autres souches et ne s’est alors plus manifestée.

Au total pour ces différentes épidémies venant de diverses souches du virus, 2317 cas ont été répertoriés pour 1671 décès, soit une mortalité de plus de 72%. On peut cependant légitimement se poser la question du nombre réel de cas et de décès dans une zone d’endémie aussi vaste et reculée. Combien de cas, combien de villages isolés ont été atteints sans que personne ne le sache ? Combien de décès constatés mais sans les moyens de détecter ou non la présence du virus ?

Mais le virus ne se limite pas nécessairement à l’Afrique. En 1989, une nouvelle souche, dite Ebola-Reston, fut détectée aux USA dans la ville éponyme et où elle avait été amenée par des singes infectés venus des Philippines et vendus à des laboratoires nord-américains. 500 macaques mangeurs de crabes furent euthanasiés préventivement avant que l’on constate que la souche était peu pathogène pour l’homme. Cette réponse prompte de la veille sanitaire était probablement à l’origine de l’absence totale de décès humains. En 1992, cette souche fut à nouveau localisée, en Italie cette fois-ci, toujours chez des primates venant des Philippines.

 

Comment comprendre ces différentes épidémies ?

 

On sait aujourd’hui qu’il existe au moins 5 souches du virus Ebola dont les apparitions multiples et indépendantes sont caractéristiques d’un virus cryptique dont le maintien est permis par un cycle selvatique éloigné de l’homme. On sait par ailleurs que les chauves-souris constituent le réservoir naturel du virus. Un réservoir est une niche écologique assurant le maintien d’un organisme. Les primates, dont l’homme, sont les hôtes intermédiaires du virus dont ils peuvent succomber. De fait, les épidémies d’Ebola chez les primates humains et non humains sont souvent fonction de rencontres saisonnières entre les chauves-souris, les singes et les hommes en milieu forestier. Le plateau et les personnages du cluedo sont installés, restent à connaître les autres éléments de l’enquête.

La première rencontre se fait entre des bandes de primates, généralement chimpanzés et gorilles, venu savourer les fruits décrochés de la canopée par les chiroptères frugivores. Les mangues, papayes, bananes et autres goyaves sont en effets l’alimentation de base de ces chauves-souris. Elles en mâchent la chaire pour en extraire le jus avant de relâcher les restes imbibés de leur salive. On peut ainsi observer des grands singes attirés par le parfum d’un manguier se repaitre à son pieds des fruits tombés au sol, tout à la fois souillés de la salive des chiroptères et arrosés par leurs déjections contaminées.

On a pu voir à la suite des épidémies des années 90 que le pattern épidémiologique de l’Ebola était de type multi émergence : ces épidémies sont indépendantes, distantes dans le temps et dans l’espace, s’opèrent dans des endroits et à des moments donnés si et seulement si toutes les conditions requises se rencontrent. Ces conditions impliquent la présence de chiroptères frugivores porteuses du virus, la présence de primates non immuns sensibles au pathogène et leur présence dans un écosystème commun favorable à leur rencontre. On peut résumer ces conditions, difficiles à réunir dans les faits, par un diagramme de Venn :

La transmission de la maladie à l’homme peut suivre l’épizootie ou en être concomitante. La saison de fructification qui attire à la fois les chiroptères et les singes peut correspondre à la période de chasse durant laquelle les hommes s’engagent en forêt à la poursuite de chauves-souris et des primates pour leur consommation de viande. La transmission à l’homme, permise par la conjonction des conditions nécessaires à l’émergence, se fait par le contact de celui-ci avec les déjections des chauves-souris ou au moment du dépeçage et de la préparation des singes.

L’aléa de l’émergence épidémique-épizootique tient donc à la rencontre de chiroptères frugivores infectés avec des bandes de primates non immuns sur un territoire commun de 2 millions de km², dans des lieux de passages extrêmement localisés et impliquant la présence de fruits communément consommés et donc a fortiori la saisonnalité des fructifications. Aussi précaires que soient ces conditions, c’est ainsi qu’émergent toutes les épidémies d’Ebola autour du massif forestier congolais, toujours précédées d’une épizootie avant toute épidémie et transmission interhumaine.

Chacun des acteurs est mobile : les chauves-souris migrent sur de vastes territoires à la recherche de fruits, les primates non humains semi-nomades évoluent sur des territoires de 10 à 30 km² à la recherche de nourriture et de gites ou passer la nuit ; les hommes quant à eux n’ont aucune limite. La chasse peut les emmener profondément dans la forêt. Cette grande mobilité de chacun des acteurs dans un même et vaste environnement favorise la multi émergence. A chaque rencontre commune, les acteurs repartent de leur côté, emmenant avec eux le virus dont ils sont à présent les hôtes. Mais cette transmission n’est possible que par le hasard des rencontres dans l’immensité forestière. Ce phénomène stochastique explique les longues périodes de silence inter épidémique.

A ces phénomènes finalement assez simples mais déjà très difficiles à prédire, il faut ajouter une multitude d’autres paramètres plus ou moins connus : les évènements conditionnant l’effervescence des colonies de chiroptères, leur préférence variée pour certains fruits plutôt que d’autres, les mêmes paramètres appliqués aux grands singes, le rôle de certains hôtes intermédiaires encore incertain, la fragmentation de la forêt par les activités humaines, les variations climatiques saisonnières et inter annuelles jouant en début de chaîne sur la fructification, etc..

Au final, on comprend aisément que ce pattern épidémique de multi émergence, s’il n’a rien de mystérieux, ou d’anormal, s’explique par des principes écologiques élémentaires de rencontres interspécifiques dans des environnements communs. Ces mécanismes s’observent pour toutes les relations hôte-pathogène et n’ont pas attendu la récente épidémie d’Ebola pour opérer. Ces notions peuvent être contre intuitives pour le grand public, mais reposent sur des phénomènes observables et testables bien plus parcimonieux que les nombreuses fumisteries qu’on a pu lire ou entendre sur nombre de médias anti-trucs à la mode. Il est dès lors inutile de crier au complot lorsqu’un pathogène ré émerge, ou qu’une nouvelle souche est découverte. Ces phénomènes sont connus, opèrent depuis des millions d’années, et continueront encore longtemps. Face à cela, c’est la mission des chercheurs et personnels de santé de spécialités très diverses de participer à la veille sanitaire toujours adossée aux trois principes élémentaires : observer, comprendre, prédire.