Le glyphosate, principe actif de divers herbicides tels que le RoundUp, fait parler de lui fréquemment ces dernières années. Dernier épisode en date, une soirée Envoyé Spécial lui est dédiée sur la chaîne télévisée France 2 le 17 janvier 2019. Au cours des 2h de reportage, sont abordés pêle-mêle des notions de toxicité, son classement par plusieurs organismes d’évaluation, mais aussi des affaires de manipulation et des études de cas.
Avant, pendant et à la suite de l’émission, de nombreux échanges ont éclos sur les réseaux sociaux à propos des arguments diffusés ; et le 22 janvier, France Info publie alors un article de réponse aux critiques reçues. C’est cette situation de double fact-checking que nous proposons de décortiquer à présent, d’abord en reprenant les points cités par France Info puis plus largement.
Le 10 août 2018, un jury populaire de Californie a accordé à monsieur Dewayne Johnson 289 millions de dollars de dommages contre la firme Monsanto, aujourd’hui détenue par Bayer. La décision était motivée par l’allégation selon laquelle D. Johnson, jardinier, aurait développé son lymphome non hodgkinien [NdT : un cancer de certaines cellules sanguines] à la suite de son exposition au Roundup, un herbicide ayant le glyphosate pour principe actif et développé par Monsanto.
J’y ajoute certaines observations marginales. Il s’agit d’un éditorial dont la compréhension est aisée et les notions claires. Je vous invite ainsi à le lire directement en anglais. Dans leur déclaration de conflits d’intérêt, les auteurs affirment n’avoir reçu aucun financement pour la rédaction de cet édito, mais précisent avoir travaillé par le passé sur le glyphosate dans des recherches financées par l’industrie.[1]Ceci étant dit, ils concentrent dans cet article un certain nombre d’éléments absolument fondamentaux pour toute personne estimant avoir une opinion sur le sujet : corpus de données utilisé dans l’évaluation de la substance, principe actif vs. formulations, danger vs. risque, etc.. Ces rappels sont fondamentaux et simples de compréhension, mais force est de constater qu’ils ne semblent pourtant pas dominer le « débat » public. On peut facilement imaginer que si c’était le cas, ce « débat » n’existerait pas, ou du moins, pas dans ces proportions et formes là.
Médias, dénis et réalité
L’accès à l’information est de plus en plus aisé. Les médias sont nombreux, et à ceux d’entre eux qu’on pourrait qualifier de « traditionnels » (presse écrite, radio, télévision) se sont ajoutés les médias en ligne et la diffusion d’informations via les réseaux sociaux. Ce contact avec l’information, indépendamment de sa pertinence ou de sa véracité, permet une bien meilleure appropriation par le public de problématiques relatives à sa santé, ou à l’environnement. Hélas, l’information accrocheuse, sensationnaliste, basée sur l’émotion ou le raisonnement motivé, se trouvent Lire la suite →
L’info est tombée aujourd’hui : nos céréales matinales ainsi que plusieurs légumineuses sèches seraient envahies par le glyphosate. Le rapport Glypho 2 de Générations Futures d’où sort le scoop est repris rapidement à la radio, sur 2 chaînes TV d’information en continu et 15 journaux et magazines dont 4 au niveau national franco-belge.
Doit-on avoir peur du petit déjeuner ? A-t-on empoisonné nos enfants et nos proches pendant tout ce temps ? Non.
Avons-nous déjà employé quasiment mot pour mot cette introduction l’année dernière ? Bien entendu, oui. Et on ne va pas s’arrêter là.
Non. D’ailleurs si on cherchait vraiment à manger assez de muesli pour s’intoxiquer aux pesticides, c’est en réalité le muesli qui aurait notre peau. Voilà, ceux qui sont venus pour avoir une réponse peuvent économiser 10 minutes et arrêter leur lecture. Maintenant, si vous ne me croyez pas sur parole – et je vous encourage vivement à ne jamais croire sur parole ni moi ni le reste de ce que vous lisez ou entendez sur les sujets scientifiques et polémiques – je vous invite à prendre 10 minutes pour comprendre ce que contient (et ne contient pas) le rapport de Générations Futures.
Mise en ligne sur Youtube le 11 mai, une vidéo de l’association militante wemove.eu sobrement titrée “Le glyphosate, un tissu de mensonge” nous propose une analyse se voulant factuelle, des connaissances actuelles portant sur la molécule qui agite si souvent les médias.
Intéressés par les substances présentes dans votre environnement, ou par les risques portant sur votre santé ? Alors reprenons ensemble les arguments exposés dans la vidéo, afin de compléter et enrichir cette dernière avec des sources précises et des explications complémentaires, et faire toute la lumière sur le fameux composé actif du fameux RoundUp de la fameuse entreprise Monsanto. Fameux programme.
Penchons nous ensemble sur ces risques dont on entend tant parler dans les médias et à la machine à café.
Non, cette illustration n’est pas si hors sujet que ça : les risques sont omniprésents et les évaluer, c’est avant tout éviter les écueils des probabilités.
Ce billet est une traduction de l’article de The Logic of Science datant du 7 Mars dernier. Je reviendrai certainement sur la notion de risque et comment elle se traduit dans la réalité dans une future parution, mais cet article est une première approche très pertinente et claire qu’il m’a semblé intéressant de relayer, sur les conseils avisés de Plasmodioum.
Nous sommes constamment bombardés par les médias d’annonces telles que « une nouvelle étude affirme que la substance X augmente les risques de Y de 100 % » ou encore « faire X double la probabilité d’avoir Y ». Mais que signifient réellement ces nombres ? Nous, en tant qu’humains, sommes très mauvais en ce qui concerne l’évaluation des risques, et la perception qu’on en a les amplifie beaucoup – ou parfois au contraire, les néglige dramatiquement. Une part du problème vient de la manière dont on parle des risques. Lire la suite →
Ser&Al. 2015 entend montrer que les OGM, pesticides et métaux lourds dans l’alimentation pour rongeurs déciment les rats de laboratoire.
Le jeudi 18 juin, la Tête Au Carré (laTAC), émission de radio quotidienne diffusée sur France Inter, interviewait en exclusivité Gilles-Eric Séralini, professeur de biologie moléculaire de l’université de Caen, à propos de la nouvelle étude choc qu’il s’apprête à publier dans la revue scientifique open access PLOS ONE, à propos de la nourriture des rats de laboratoire.
Si le nom Séralini vous dit quelque chose, ce n’est pas un hasard : le président du comité scientifique du CRIIGEN est à l’origine d’une autre étude publiée en 2012 à son nom, accusant un maïs GM et le RoundUp employé lors de la culture de ce dernier de déclencher l’apparition de tumeurs géantes sur des rats de laboratoire. Cette étude, parue dans des conditions pour le moins inhabituelles en sciences, eut un impact important dans les médias en France et à l’étranger.
Pourtant, sa rigueur scientifique fut rapidement remise en cause, alors qu’on découvrait également que les auteurs étaient sujets à de probables conflits d’intérêts importants. Finalement, le caractère non-reproductible des résultats avancés et les faiblesses méthodologiques révélées invalidèrent les conclusions de l’équipe du professeur Séralini, et le papier est considéré inexploitable par les experts et le reste de la communauté scientifique.
En ce jeudi 18 juin donc, Gilles-Eric Séralini revient sur le devant de la scène, décidé à discréditer ses détracteurs, comme lui l’avait été trois ans auparavant. Revenons ensemble sur cette journée mouvementée. Lire la suite →
Très souvent, dans le milieu des opposants aux OGM, j’entends dire qu’on n’a pas assez de preuves scientifiques sur les dangers des OGM, qu’on ne sait pas, qu’il n’y a pas d’études, qu’on n’a pas prouvé l’innocuité des OGM, etc.. Mais les camarades qui disent cela se trompent lourdement. En réalité, la documentation scientifique sur les dangers des OGM est énorme. Ceci s’explique par le fait que les OGM sont les produits biologiques les plus suivis au monde depuis 30 ans. Aussi, on cumule les données observationnelles et expérimentales. Il existe des milliers d’études sur les OGM, et des centaines d’entre elles évaluent leur danger. Bien entendu, une partie de ces études est financée par l’industrie. Mais au moins autant sont entreprises par des universitaires sur des budgets de la recherche publique.
De fait, les articles scientifiques indépendants de l’industrie et posant la question des dangers des OGM sont légions. Depuis les premiers travaux sur les OGM jusqu’en 2006, 31 848 articles scientifiques avaient été publiés sur le sujet. Le problème est que l’évaluation des dangers des OGM repose sur une approche multidisciplinaire, ce qui a tendance à diluer la visibilité de telles recherches déjà dans le domaine scientifique, mais encore plus auprès du grand public. Un journal peer review spécifique ainsi qu’une base de données dédiée à ces recherches ont donc été créés.
Le consensus scientifique sur le danger des OGM est très clair, comme il a pu être mis en évidence par une revue bibliographique sur tous les articles scientifiques publiés entre 2002 et 2012, soient 1783 articles comprenant des travaux de recherche et d’autres revues bibliographiques.
Nicolia et al., 2013
On peut voir que les études portant sur les dangers des OGM sont assez bien balancées entre les interactions OGM-environnement (47,5%) et les interactions OGM-humains (43,2%). A l’intérieur de ces deux grandes catégories, plusieurs thèmes sont abordés.
Les dangers pour la biodiversité
C’est le thème le plus fouillé par les scientifiques (68,4%) dans la catégorie des interactions OGM-environnement. On commence donc à connaître beaucoup de choses sur les dangers des OGM pour la biodiversité.
Comme vous le savez, la plupart des Plantes Génétiquement Modifiées (PGM) le sont pour devenir résistantes à des herbicides, comme le Roundup, ou pour produire des toxines insecticides, comme les semences Bt. Les scientifiques évaluent donc en permanence les dangers que cela peut représenter aux travers de données observationnelles et expérimentales.
La littérature évaluant ces dangers pour la faune, qu’il s’agisse des oiseaux, serpents, insectes non ciblés par les insecticides, microfaune du sol, etc., est extrêmement importante. Une revue de cette littérature montre bien les quantités de preuves sur les dangers des OGM : rares ou inexistantes. Les impacts négatifs qui ont pu être mis en évidence ont par ailleurs été critiqués pour leur faiblesse statistique et leurs extrapolations abusives.
Les OGM-herbicides et insecticides provoquent naturellement une baisse de la biodiversité au regard des cibles de ces pesticides. C’est en effet parfaitement logique et le même résultat est attendu en agriculture conventionnelle ou bio. Quel que soit le moyen de lutte utilisé, il conduit nécessairement à la diminution des cibles dans la zone d’utilisation. Cela démontre simplement l’efficacité de ces méthodes. Il est notable de constater que cette baisse de la biodiversité des cibles est généralement plus grande en agriculture utilisant des variétés non OGM, car les pesticides chimiques utilisés sont plus toxiques et persistants dans l’environnement. A ce propos, l’utilisation des « pesticides OGM » a permis une très large diminution de l’utilisation des pesticides chimiques conventionnels dans le monde, et donc une importante réduction de la pollution.
Le danger que représentent les OGM en termes d’apparition de plantes résistantes aux herbicides, les superweeds, ou d’insectes ravageurs résistants aux insecticides sont également bien évalués. Mais en réalité, ces problèmes bien connus ne sont pas spécifiques aux produits OGM. La théorie de l’évolution nous apprend effectivement que la pression sélective continue sur les individus, provoque nécessairement une adaptation continue. Ainsi, il semble peu probable qu’une solution de lutte contre un nuisible biologique ne soit jamais définitive. Il s’agit alors d’établir une gestion intelligente de différentes méthodes de lutte combinées pour éviter l’apparition de résistances. C’est ce qu’on appelle la course à l’armement. Ces dangers sont exactement les mêmes en agriculture conventionnelle ou biologique. Ils ne représentent pas une spécificité des OGM. Les techniques de l’un ou l’autre mode d’agriculture peuvent très bien être utilisées de manière combinée de sorte à réduire à la fois les pollutions et les risques de résistance.
En conclusion sur les dangers des OGM pour la biodiversité, il est notable de constater que les craintes communément soulevées ne sont pas justifiées. En outre, la diminution de la pollution grâce aux champs OGM est favorable à la biodiversité. Clairement, cette pratique ne présente aucune différence néfaste avec celles utilisées traditionnellement par l’homme depuis le Néolithique.
La contamination
Des plantes non OGM peuvent fertiliser des plantes OGM et vice-versa. Ceci se passe en permanence dans la nature entre des plantes non OGM. On appelle ça la reproduction. Lors du processus de reproduction, des gènes sont échangés et transmis aux générations suivantes. On parle de flux de gènes, processus improprement appelé « contamination » par les opposants, durant lequel des transgènes peuvent circuler et se fixer dans une population de plantes sauvages par introgression. Dans la littérature sur les dangers des OGM, les flux de gènes représentent 31,6% des publications relatives aux interactions OGM-environnement. C’est clairement un sujet très chaud qui est suivi sans relâche et dont le nombre de publications est en augmentation depuis 2006. Beaucoup de personnes craignent que ce flux de gènes soient nocifs. Qu’en est-il réellement ?
Beaucoup de facteurs conditionnent une telle possibilité : le mode de reproduction des plantes OGM, la présence ou non à proximité de plantes sauvages sexuellement compatibles, et la viabilité de tout hybride potentiel. Plusieurs exemples d’introgressions de ce genre ont déjà été documentés. Ce danger est bien connu. Plusieurs stratégies combinées existent pour le limiter : la stérilité des plans mâles, la désynchronisation de la floraison, l’introduction de gènes défavorables… Mais aucune de ces méthodes seule n’est totalement efficace pour interdire l’introgression d’un transgène dans une population sauvage.
Quoi qu’il en soit, le suivi intensif de ces dangers n’a encore jamais détecté d’effets défavorables de l’introgression d’un transgène dans une population sauvage. Par ailleurs, et exactement comme je l’ai dit plus haut concernant l’apparition de résistances, ce problème n’est absolument pas spécifique aux OGM. Il existe de nombreux exemples documentés d’hybrides non OGM naturellement invasifs et d’apparitions de résistances aux herbicides dans des populations sauvages sous l’effet de mutations aléatoires et naturelles.
Pour produire des plantes OGM, il est souvent nécessaire de recourir à un gène de résistance aux antibiotiques qui agit comme marqueur dans les cultures cellulaires, de sorte à pouvoir sélectionner uniquement les cellules porteuses du transgène et a fortiori résistantes à l’antibiotique. Il est donc raisonnable de penser que ce gène de résistance aux antibiotiques, transféré jusque dans le PGM final, puisse in fine passer dans le sol lors de la dégradation des restes végétaux et entrer en contact des bactéries du sol. Or, on sait parfaitement que les bactéries sont naturellement capables d’intégrer à leur génome de l’ADN exogène rencontré dans leur environnement. C’est ce qu’on appelle le transfert de gène horizontal. Le danger, bien entendu, serait alors que des bactéries intègrent ce gène de résistance aux antibiotiques, et que l’on se retrouve avec des bactéries ultra pathogènes et résistantes.
Cependant, les investigations menées en laboratoire jusqu’à présent montrent que cette intégration se fait à un rythme extrêmement lent, alors que les expérimentations en plein champ n’ont pu montrer aucune preuve de ce phénomène.
De plus, dans le cas apparemment très improbable où un tel scénario arrivait, cela n’affecterait pas les populations de bactéries déjà présentes dans le sol et naturellement résistantes aux antibiotiques, ni n’impliquerait de risques additionnels pour les humains ou les animaux.
En conclusion sur les risques de contamination, nous pouvons dire qu’ils sont tout à fait identiques à ceux de l’agriculture conventionnelle et biologique traditionnellement pratiquées. Le terme de « contamination » est en fait scientifiquement inexact, et ne fait que décrire un processus naturel non dangereux.
Les dangers pour les hommes et les animaux
L’équivalence en substance recouvre un aspect crucial de l’évaluation des risques liés aux OGM. L’équivalence en substance est la procédure stricte de vérification des effets créés par le transgène introduit dans un OGM. Cette procédure implique la comparaison de l’OGM avec la même plante non transgénique, possédant le même génotype moins le transgène. L’équivalence en substance, n’est donc absolument pas, comme on peut le lire sur le web, une norme attribuée gratuitement. C’est une procédure fondamentale de vérification de la conformité nécessaire à l’autorisation de mise sur le marché.
Cette procédure suit deux grandes étapes. D’abord, l’OGM est testé pour ses propriétés agronomiques, morphologiques et chimiques, telles que ses micro et macronutriments et ses protéines toxiques. Cette étape fixe la nécessité ou non de poursuivre des analyses sur les qualités nutritives de l’OGM. Tout écart qui tombe dans la variabilité naturelle de la plante non OGM est logiquement considéré comme sûr. Cette procédure est validée et reconnue internationalement. Si des différences ne recouvrant pas la variabilité naturelle de la plante non OGM sont détectées, elles doivent être analysées pour évaluer leur danger.
Cette procédure a été utilisée jusqu’à maintenant, et atteste donc de l’équivalence des plantes OGM avec leur version non OGM moins le transgène intégré. C’est ainsi que l’on sait que toutes les PGM mises sur le marché sont équivalentes à leur forme non OGM. Il ne s’agit pas d’une décision arbitraire.
L’équivalence en substance est fondamentale dans toute étude de conformité de produits OGM et est l’objet d’un consensus scientifique sans équivoque.
Il est notable que la littérature scientifique portant sur l’équivalence en substance est essentiellement composées des recherches produites par les firmes de biotechnologie. Ce constat est logique, dans la mesure où la puissance publique exige que les compagnies privées financent elles mêmes la mise aux normes des produits qu’elles souhaitent mettre sur le marché. Sans quoi, le contribuable devrait s’attendre à financer ces études, de sorte à ce qu’il se retrouve à payer les compagnies privées pour lui vendre des produits, et donc passer à la caisse deux fois. Bien que financées par les compagnies, ces procédures de conformité doivent être soumises au contrôle des instances de régulation publiques.
Depuis 2009, de plus en plus de procédures de contrôle, basées sur des tests d’équivalence non ciblés, en termes de transcriptomique, protéomique et métabolomique, se multiplient. Ces méthodes sont en cours de développement et ne sont pas encore harmonisées internationalement, de sorte à ce qu’on ne puisse pas encore en retirer des données utilisables. En l’état, le principe d’équivalence en substance reste une base très solide aux procédures de contrôle. Mais les transgènes et leurs produits sont bien entendu contrôlés eux aussi.
En conclusion sur l’équivalence en substance, nous pouvons dire qu’il s’agit d’un processus fiable et internationalement reconnu pour s’assurer par des analyses rigoureuses que le produit OGM est strictement identique au même produit non OGM. L’analyse du transgène est logiquement réalisée à part entière, en plus de l’équivalence en substance.
Les dangers pour la consommation représentent une part très importante de la littérature scientifique sur le sujet. Leur proportion par rapport aux autres thèmes reste constante, mais un pic de publication à ce sujet a été observé en 2008, à la suite de la ferveur scientifique occasionnée par les recherches expérimentales publiées par les compagnies en 2006.
Les dangers supposés des OGM pour la consommation peuvent se regrouper en trois aspects : l’innocuité du transgène inséré et de sa transcription en ARN, l’innocuité de la protéine transcrite par le transgène, et l’innocuité des changements attendus et inattendus sur les cultures. En d’autres termes, l’ADN transgénique et les protéines qu’il fabrique peuvent-ils être toxiques et mauvais pour la santé ?
Concernant l’innocuité de l’ADN, il faut savoir que celui-ci est contenu dans le régime alimentaire normal, qu’il soit issu de l’agriculture conventionnelle ou biologique, de sorte à ce que chaque humain consomme entre 0,1 et 1 gr d’ADN par jour quelle que soit sa diète. Cet ADN peut être détruit par la digestion, activer le système immunitaire, ou promouvoir la formation de biofilm bactérien. Des inquiétudes sont régulièrement soulevées quant à la possibilité pour un transgène de transférer une résistance antibiotique aux bactéries entériques selon les principes expliqués plus haut à propos des bactéries du sol, ou quant à sa translocation et accumulation dans le corps humain. Il est nécessaire une nouvelle fois de remettre les choses dans leur contexte.
D’abord, ce mécanisme n’est pas propre à un gène venant d’OGM. Ensuite, un transgène est totalement dilué dans la masse de l’ADN ingéré naturellement, à hauteur de 0,00006% à 0.00009%, et est digéré comme n’importe quelle autre partie de l’ADN. Par ailleurs, la préparation de la nourriture, cuisson, friture, ébullition, dégrade déjà préalablement les molécules d’ADN, transgénique ou pas, avant même leur ingestion. On sait expérimentalement que le transfert horizontal de transgène par les bactéries entériques des humains et des animaux est quant à lui rarissime. Si le scénario du pire arrivait, il est a noter que la résistance antibiotique utilisée pour les PGM ne représente pas de danger pour la santé des humains et des autres animaux. Il arrive naturellement que des molécules d’ADN passent la barrière intestinale lors de la digestion, mais ce phénomène n’a été observé que dans de très rares cas où un très grand nombre de copies d’un même gène se trouvait présent et dont des exemplaires étaient retrouvés dans des tissus et des organes de différents animaux ainsi que du lait de vache. Chez les humains, on a déjà pu observer le passage à travers la paroi intestinale d’un gène de lapin se trouvant dans un très grand nombre de copies. Le passage d’un transgène à travers la paroi intestinale à déjà pu être observé également, notamment chez le cochon et la truite arc-en-ciel, mais en micro quantités et avec de forts soupçons de contamination croisée lors des analyses. Dans la majorité des études conduites jusqu’à présent, il n’a pas été possible de retrouver des fragments de transgènes dans aucun produit animal dérivé. Il n’existe encore aucune preuve à ce jour de passage d’ADN à travers la paroi intestinale et d’intégration de celui-ci au génome des cellules de l’organisme hôte.
Clairement, l’ADN transgénique ingéré par la consommation d’OGM ne diffère en rien, intrinsèquement ou physiquement de n’importe quel autre ADN non transgénique déjà présent dans l’alimentation et n’implique aucun risque supérieur à l’ingestion de n’importe quel autre ADN non transgénique, qu’il vienne de produits de l’agriculture conventionnelle ou biologique.
Quand aux inquiétudes sur l’ingestion de transcrit ARN transgénique, les observations sont les mêmes que celles qui viennent d’être faites à propos de l’ADN. Un unique cas original est en cours d’investigations supplémentaires.
L’ADN transgénique induit pour la PGM recevant le transgène, la biosynthèse d’une protéine transgénique. On peut raisonnablement poser la question de la toxicité de telles biomolécules. L’innocuité de celles-ci est investiguée de diverses manières : des analyses bioinformatiques pour évaluer leur similarité avec la listes des substances toxiques et allergènes actuellement connues ; leur stabilité face au pH et à la température ; leur digestibilité in vitro via des fluides gastriques de mammifères (et donc la perte de leurs éventuels pouvoirs allergènes) ; leur niveau d’expression et d’absorption alimentaire afin d’évaluer l’exposition humaine et animale ; des tests de toxicité aigüe et chronique chez des rongeurs en utilisant la protéine transgénique purifiée afin de prédire les éventuels risques de toxicité chez les humains.
Le détail de ces analyses doit nécessairement être fourni aux autorités de régulations avant toute autorisation de mise en vente sur le marché. Ces données ne sont en revanche pas nécessairement publiées en outre dans des journaux scientifiques. Cette tendance tend cependant à s’inverser ces dernières années par la prise de conscience des compagnies de la nécessité de plus grande transparence. Il n’existe pas actuellement de preuves scientifiques d’effets toxiques ou allergiques. Les inquiétudes soulevées en 2007, 2009 et 2012 ont très vite été estompées par la très faible qualité des études qui en étaient à l’origine. Seuls deux cas d’effets allergiques sont connus à ce jour, l’un concernant un soja OGM qui n’a donc pas été mis sur le marché, et le cas jamais confirmé du maïs Starlink.
En conclusion sur les risques d’allergie et de toxicité à la consommation, nous pouvons dire que ceux-ci sont strictement et rigoureusement évalués par plusieurs batteries de tests très pointus. Les OGM sont les seuls aliments à ainsi faire l’objet de telles procédures de contrôle, et sont en cela beaucoup plus sûrs que les aliments bio qui ne sont eux jamais contrôlés. Les seuls risques connus n’ont logiquement jamais passé les premiers tests de conformité et n’ont jamais été développés.
Conclusion
Le nombre de repas consommés par des animaux nourris aux OGM depuis leur introduction il y a 20 ans, avoisine les deux trillions (soient 2 000 000 000 000 000 000, soient deux milliards de milliards, soient deux millions de millions de millions de repas). Ces données observationnelles absolument gigantesques, en plus des données expérimentales, n’ont jamais donné lieu à la moindre preuve de danger représenté par les OGM mis sur le marché. Sur les 9 milliards d’animaux d’élevage destinés à l’alimentation produits annuellement aux USA et suivis sur la période 1983-2011, strictement aucune différence n’a jamais été observée à partir de l’introduction des PGM dans l’alimentation de ces animaux en 1996, soient plus de 100 milliards de bêtes élevées depuis cette introduction et nourries à 95% d’OGM. Il est notable que la moindre crise épidémique apparue à la suite de l’introduction des OGM aurait immédiatement été détectée. Dans un tel scénario, les bêtes tomberaient malades à travers le monde par centaines de milliers. Il suffit de voir l’effet des épizooties infectieuses pour se rendre compte de ce que devrait être le moindre signal épidémique. Les données expérimentales de toutes sortes, dont de nombreuses études sur la toxicité à long terme (de 110 à 728 jours, jusqu’à 10 générations), n’ont pas montré de signes d’impact sur la santé des animaux ni de différence dans la valeur nutritive de cette alimentation en comparaison de leur équivalent non OGM.
En face de cela, une poignée d’études massivement dénoncées pour leurs nombreux biais et leur qualité exécrable continuent de retenir l’attention des médias grands publics qui passent sous silence les centaines d’autres études existantes sur le sujet et faisant consensus.
La revue de la littérature scientifique ne serait-ce que de ces dix dernières années (les OGM sont en développement depuis 30 ans), témoigne de ce consensus de sécurité et de suivi permanent pour tous les aspects de la question : impact sur l’environnement, impact sur l’homme et les autres animaux, traçabilité… Il est notable de constater, année après année, que chaque motif d’inquiétude dans le grand public est suivi par un regain de production scientifique à ce propos, comme ça a été le cas en 2011 sur les questions de biodiversité et les flux géniques soulevées par l’opinion publique. En l’état de la masse des connaissances scientifiques en perpétuel perfectionnement et accumulées depuis plusieurs décennies, la consommation d’OGM ne représente pas de danger supérieur à celui de la nourriture produite par l’agriculture conventionnelle ou biologique.
Il ne s’agit ni d’être « anti » ni d’être « pro » OGM. Ces deux positions sont irrationnelles, tout comme celle consistant au fence sitting et niant l’existence du consensus scientifique. Rationnellement, seules les preuves comptent. Le meilleur moyen à notre connaissance d’acquérir ces preuves et de les articuler logiquement reste la méthode scientifique. Or, cette méthode, grâce à des centaines de milliers de chercheurs à travers le monde, indépendants les uns des autres et acceptant de soumettre leurs résultats à la critique de leurs pairs, permet d’aboutir à un consensus scientifique. Ce consensus n’est évidemment pas définitif et est soumis aux connaissances nouvelles qui l’abreuvent en permanence. Dans le cas des OGM, le consensus, reposant sur des dizaines de milliers de publications scientifiques concordantes sur des dizaines d’années, est sans équivoque. Évidemment, cela ne veut absolument pas dire qu’il faut arrêter les contrôles et les évaluations, ni mêmes abaisser leur qualité. L’objectif de la recherche scientifique est bien le contraire : toujours augmenter la masse de connaissances et la rigueur de leur analyse. Ce qui est certain, c’est qu’on ne peut pas décemment prétendre que ces données n’existent pas ou seraient trop peu nombreuses pour savoir.
Paradoxalement, ces questions pourraient bénéficier d’une activité scientifique encore plus importante si ce n’était l’opposition virulente sinon violente d’une fraction de l’opinion aux expérimentations publiques en plein champ. Cette double position des cercles militants à exiger plus de recherche publique tout en la vandalisant est absolument mortifère pour la science et le progrès technologique et humain. Il est inconcevable que les contributions humanitaires de la recherche publique en biotechnologie soient vandalisées et retardées par des groupes de pression militants sans motifs valables au péril et au plus grand mépris de populations nécessiteuses.
Tout aussi paradoxalement, les réglementations européennes qui planent sur l’ingénierie génétique sont extrêmement lourde. Ceci n’est pas fondamentalement mal. Mais cet état contribuede facto à empêcher au secteur public et aux startups d’émerger et de faire contre poids aux géants américains. Là encore, une double position ubuesque.
Cet état de fait est probablement la conjonction d’interactions complexes entre des phénomènes sociologiques, psychologiques, politiques, et de non représentation du consensus scientifique auprès du grand public. Tous ces facteurs doivent être pris en compte pour un débat constructif à propos de l’utilisation des biotechnologies à l’avenir. L’amélioration de la communication scientifique, une meilleure visibilité du consensus, et une présentation non biaisée de celui-ci dans les médias de masse, pourraient clairement changer la donne, comme ça a été le cas récemment au Royaume-Uni pour le lancement de champs de blé expérimentaux.
Si ce tour en poney GM vous a plu et que vous en avez retiré quelque chose, n’hésitez pas à le diffuser largement.
*ainsi que quelques considérations sur le positionnement sceptique scientifique et la complémentarité du debunking et de la vulgarisation de tels sujets dans la communauté skepti…
J’essaie de relayer sur ce blog du contenu sceptique sur les sujets polémiques relatifs aux sciences de la vie et sciences médicales. Nécessairement, l’actualité dicte d’une certaine façon les sujets et les proportions dans lesquelles ils sont relayés. Dernièrement, la polémique « glyphosate » à nécessité quelques remises au point concernant les faits. Il peut en ressortir, indéniablement, une impression de circuit fermé, de caisse de résonance, comme le soulignait encore dernièrement Steven Novella sur NeurologicaBlog, (traduction ici), et qui n’est absolument pas l’apanage des communautés de tenants. Tomber dans cet écueil n’est évidemment pas la vocation de ce blog.
Face à ce type de polémique, la position sceptique la plus solide n’est pas d’être « pro » ou « anti ». Ces concepts sont des non sens, et faire du militantisme caricatural dans un sens ou dans l’autre ne participe pas à la compréhension intelligente de la problématique. Cette position sceptique ne consiste pas non plus à pratiquer le fence sitting (position probablement la plus pernicieuse, quel que soit le sujet), en invoquant le sophisme du faux équilibre et en faisant comme si le consensus scientifique n’existait pas (c’est par exemple particulièrement le cas sur un sujet comme l’homéopathie). En cela, je souscris totalement à la position expliquée par Marc Robinson-Rechavi dans l’épisode 169 de Podcast Science. Ce podcast vaut largement la peine d’être écouté intégralement, quelle que soit votre position sur le sujet.
Pour toute compréhension intelligente d’une problématique, il faut néanmoins accepter de faire l’effort de l’acquisition de quelques connaissances fondamentales sur le sujet. Or, ce débat n’a réellement cours qu’au sein de l’opinion publique, alors que le consensus scientifique semble rester stable sur la question. La tendance naturellement précautionniste de certains scientifiques peut s’entendre, mais la régulation est tellement minutieuse qu’elle est déjà jugée trop pesante par une partie de la communauté. Par ailleurs, ce précautionnisme n’enlève rien au consensus de la communauté dans son ensemble en dépit de certaines nuances portées sur les bénéfices de certaines cultures OGM.
Dans ces polémiques publiques, qu’il s’agisse d’interventions télévisées, radiophoniques, ou de discussions facebook, je suis toujours surpris par le néant abyssal qui semble constituer le socle de (non)connaissances des différents intervenants pourtant extrêmement sûrs de leurs positions. Du point de vue de l’honnêteté intellectuelle, peut-on intervenir et exprimer des avis catégoriques sur un sujet de ce type avec moins de connaissances scientifiques qu’un collégien de classe de 5e ? Mais encore, peut-on légitimement pester contre ce manque de connaissances si on ne participe pas soi-même à la diffusion des dites connaissances ?
Le debunking seul n’a pas grand sens si on ne propose pas dans le même temps de la connaissance fondamentale susceptible de prévenir la nécessité de debunking à l’avenir. C’est la vague histoire d’un gars à qui on apprend à pêcher plutôt que de lui donner des poissons, vous vous souvenez ? Ici, le poisson c’est le debunking, et la pêche, c’est les connaissances fondamentales. Aussi, on parle énormément des biotechnologies dans les médias, notamment les réseaux sociaux, mais je n’ai pas l’impression que ceux qui en parlent ou qui reçoivent ces informations comprennent réellement ce qu’ils disent et ce qu’ils entendent.
En les écoutant, j’ai personnellement le sentiment que les biotechnologies et les OGM, c’est quelque chose d’obscure et de mal, une sorte de souillure à la face d’une Déesse Gaïa idéalisée dans des envolées quasi christiques et millénaristes. Alors que de véritables Parabalanis vertsdétruisent des biens publics, je vois par exemple très souvent revenir des propos reposant sur la crainte de dévoiement des biotechnologies, et exigeant leur censure préalable et définitive. Ce type de position imagine beaucoup de choses quant à ce à quoi pourraient servir les biotechnologies, mais ne juge apparemment pas utile d’interroger ce à quoi elles servent vraiment, immédiatement, dans le monde réel. Sur la question de l’exigence de censure préalable de domaines scientifiques et techniques entiers de la part de certaines fractions de l’opinion publique, je reviendrai probablement ultérieurement. Avant donc de diffuser quelques informations d’ordre technique, je souhaite revenir sur les interactions multiples entre les biotechnologies et notre vie de tous les jours. Clairement, les biotechnologies et les OGM, à quoi ça sert.
Donc ce billet ne porte pas sur les problématiques politiques corrélées, mais non spécifiques aux OGM. Ce billet présente simplement les grands champs d’applications scientifiques et techniques de ce qu’on appelle mystérieusement « les biotechnologies », et a fortiori comment elles influencent notre vie de tous les jours.
Volontairement, je ne vais pas soulever les questions d’éthique relatives à chaque point. J’aimerai que le lecteur, quelle que soit son affinité préalable avec le sujet, parvienne à se formuler ces questions lui-même. Dans un second temps, je produirai un billet relatif à ces questions.
Les applications médicales
Les biotechnologies permettent l’identification de gènes dont les mutations sont responsables de maladies génétiques chez l’humain. Cela pourrait aboutir à de nouvelles avancées concernant le diagnostic et la prévention de ce type de maladies. La sensibilité génétique des individus joue également sur le développement de maladies non génétiques, comme le SIDA et l’arthrite, et toutes les maladies qui influencent l’expression génétique des cellules de l’organisme qui sont touchées. Toutes ces activations ou inactivations de gènes qui entrent en jeu dans un processus pathologique, représentent autant de cibles potentielles pour des traitements curatifs et préventifs de maladies gravement délétères. Pour rappel, le SIDA est l’une des trois premières causes de mortalité infectieuse dans le monde, avec 1,5 millions de décès en 2012 et 2013 et le VIH est l’agent infectieux le plus mortel au monde actuellement (pour rappel également, les personnes atteintes sont si affaiblies par le SIDA que c’est une autre infection opportuniste, habituellement bénigne, qui les tue). Aucune voie thérapeutique prometteuse n’est alors à négliger.
Diagnostics et traitements
Depuis quelques années, les biotechnologies ont permis de séquencer le génome du VIH. Or, sur la base de ce séquençage, on peut dorénavant amplifier (détecter) ce génome dans des échantillons de sang ou de tissu d’un patient.
Cette méthode de détection, qu’on appelle l’ACP (Amplification en Chaîne par Polymérase) permet de cibler des zones clef du génome d’un patient dont on sait qu’elles peuvent porter des mutations responsables de maladies génétiques. On peut ainsi détecter les mutations responsables de l’anémie falciforme, de l’hémophilie, de la mucoviscidose, de la maladie de Huntington, de la myopathie de Duchenne. De fait, on peut prévoir le développement de ces maladies chez un individu avant même l’apparition des premiers symptômes. On peut même le savoir pour un enfant avant sa naissance. Les possibilités de prévention thérapeutique sont ainsi immenses.
La détection de petites séquences ADN mutées permet de prévenir les risques accrus de cardiopathies, Alzheimer et cancers. Cependant, ces indications ne sont que des corrélations, et elle ne permettent pas de faire des prédictions absolues.
Par l’analyse de nombreux gènes chez les femmes touchées par le cancer du sein, on a ainsi pu montrer l’implication du mode d’expression de 70 d’entre eux dans l’apparition de la maladie. L’analyse de l’expression génique permet aux médecins et aux patients (un faible pourcentage d’hommes est aussi touché par le cancer du sein) de se reposer sur des informations valables quand vient le moment de choisir un traitement.
A l’avenir, ces techniques pourraient permettre le développement d’une véritable médecine personnalisée, où chaque patient pourrait connaître dans le détail ses propres facteurs de risque, et ainsi juger des meilleures mesures préventives à prendre pour sa santé.
La thérapie génique
Cette méthode consiste à réparer un gène défectueux à l’origine d’une maladie chez un patient. Il faut que la maladie n’ait pour origine qu’un seul gène défectueux, ce qui est plutôt rare, mais il est théoriquement possible de remplacer le gène responsable de la maladie par sa forme bénigne. Une première étude a été réalisée en France en 2000, pour 10 enfants souffrant de Déficit Immunitaire Combiné Sévère et traités par thérapie génique. Dans les deux ans, neuf d’entre eux présentaient une amélioration importante et définitive de leur état. Depuis, trois des enfants ont souffert d’une leucémie, et l’un d’eux en est décédé. On a aussi traité avec succès par thérapie génique des cas de cécité progressive et de dégénérescence du système nerveux.
Il est clair que ces perspectives thérapeutiques sont extrêmement stimulantes. Mais elles ne portent encore que sur très peu de cas, en terme de pathologies et de nombre de patients traités. L’optimisme doit donc rester extrêmement prudent.
La biopharmacie
L’utilisation des plantes médicinales est extrêmement ancienne. Dans les temps modernes, l’industrie pharmaceutique est née en parvenant à isoler des molécules biologiquement actives contenues dans les plantes. En 1897, la société Bayer a mis sur le marché l’acide acétylsalicylique, c’est-à-dire l’aspirine, qui était la forme synthétique de l’acide salicylique produit dans l’écorce de saule blanc. Ce « tout synthétique » n’a pas touché certains médicaments contre le cancer par exemple, comme le taxol, la vinblastine et la vincristine, provenant tous de sources végétales. Un retournement historiquement intéressant voit maintenant l’industrie pharmaceutique s’intéresser de nouveau à la production végétale grâce aux biotechnologies et aux OGM.
En 1990 a été produite la première protéine humaine produite par des plans de tabac et de pommes de terre OGM, la sérumalbumine. Depuis, plus de 20 protéines thérapeutiques ont été produites par des plantes OGM. Paradoxalement, le grand public semble ignorer qu’il ne s’agit ni plus ni moins que d’un revirement de l’industrie pharmaceutique du synthétique vers le bio grâce aux OGM.
Les biotechnologies permettent de fabriquer des petites molécules utilisées comme des médicaments. L’un de ces médicaments est l’imatinib, qui a permis la rémission durable et presque complète des patients souffrant de leucémie myéloïde chronique. On a aussi utilisé le même type de médicaments pour traiter avec succès certains cancers du sein et du poumon. Cette voie thérapeutique reste pour l’instant restreinte aux cancers dont les développements moléculaires sont suffisamment bien connus.
Ces produits pharmaceutiques protéiques sont fabriqués dans des cultures cellulaires, technique permise par les biotechnologies. Parmi les premières substances pharmaceutiques ainsi fabriquées, l’insuline et l’hormone de croissance humaine ont simplifié la vie de nombreux malades. L’insuline produite selon ces méthodes permet le traitement de plus de 200 millions de personnes à travers le monde. L’hormone de croissance quant à elle est une bénédiction pour les enfants atteints de certaines formes de nanisme par un déficit de production de cette hormone. Le tPA est un autre de ces médicaments, qui, s’il est administré suffisamment rapidement après une crise cardiaque, permet de dissoudre les caillots sanguins et réduit le risque d’une rechute. Pour rappel, les cardiopathies sont la première cause de mortalité dans le monde actuellement.
Parfois, pour assurer la production de suffisamment de médicaments, il est possible de les faire produire directement par des animaux. Pour cela, on transfère un gène provenant d’un animal dans le génome d’un autre, souvent d’une espèce différente, qui est alors dit transgénique. Il faut pour cela intégrer le gène d’expression recherchée dans un ovocyte de l’espèce réceptrice (et productrice) du médicament. L’ovocyte ainsi muni de son transgène est implanté chirurgicalement chez une mère porteuse de la même espèce. L’animal à naître, sera donc transgénique et exprimera son nouveau gène « étranger ». Les animaux deviennent alors de véritables producteurs de médicaments pour les hommes (ou pour d’autres animaux). On a par exemple inséré le gène codant pour une protéine sanguine humaine chez des chèvres, de sorte à ce que celles-ci fabriquent cette protéine, l’antithrombine, dans leur lait. Les très grosses quantités de protéines ainsi produites sont par ailleurs beaucoup plus faciles à purifier que si elles étaient produites par culture cellulaire. Les patients souffrants d’un déficit de production de cette protéine et sujets à la formation de caillots dans leurs vaisseaux sanguins peuvent ainsi être traités efficacement grâce à ces chèvres transgéniques productrices de médicaments. Évidemment, les animaux producteurs ne sont pas choisis au hasard. En l’occurrence, les chèvres se reproduisent plus vite que des bovins, et produisent plus de protéines du lait que d’autres mammifères à la reproduction plus rapide comme les lapins. Le choix des animaux « pharmaceutiques » repose donc sur le meilleur compromis. Les protéines produites par les animaux pharmaceutiques peuvent parfois êtres légèrement différentes de leur version humaine. Il est donc nécessaire de les tester minutieusement pour s’assurer que les patients ne souffriront pas d’effets secondaires allergiques ou d’autres contaminations.
Campbell, 2009
Les enquêtes judiciaires
Vous connaissez Les Experts, NCIS, Bones ? Au-delà de la vision très fantasmée et US-fan de ces professions, les identifications moléculaires que les héros de ces séries télé sont souvent portés à faire lors de leurs enquêtes depuis une vingtaine d’années, relèvent également des biotechnologies.
Sur les scènes de crime en effet, les experts s’appliquent à rechercher des traces organiques laissées par les criminels : sang, salive, sperme, cheveux… Il est ainsi possible de les analyser et d’identifier les groupes sanguins ou tissulaires de leur propriétaire grâce à des marqueurs protéiques. Évidemment, de nombreux individus ont des groupes sanguins ou tissulaires identiques, et ces méthodes ne peuvent servir qu’à innocenter des suspects, et non pas à prouver leur culpabilité.
Les traces d’ADN, qui est également une molécule, sont quant à elles beaucoup plus fiables, car chaque individu possède une séquence ADN qui lui est propre, sauf dans le cas de vrais jumeaux.
A l’aide de ces différents marqueurs moléculaires, les experts peuvent dresser le profile génétique d’un suspect. Le FBI utilise ces méthodes d’identification depuis 1988. Aujourd’hui, ces spécialistes utilisent des méthodes toujours plus fines et précises, en se reposant notamment sur la reconnaissance de toutes petites portions d’ADN spécifiques à chaque individu, qu’on appelle les Répétitions Courtes en Tandem. C’est très pratique, car cela permet d’identifier des individus même lorsque l’ADN est très abimé, dans le cas par exemple d’un accident quelconque où les traces moléculaires auraient consécutivement subi l’action d’un incendie et de l’eau utilisée par les pompiers pour en venir à bout. Ce sont ces méthodes qui ont été utilisées très récemment pour identifier les victimes du crash d’un Airbus A320 de la Germanwings dans les Alpes françaises. Le plus gros travail d’identification génétique jamais réalisé à suivi les attentats du World Trade Center en 2001, pour lequel plus de 10 000 échantillons de restes humains ont été comparés avec des effets personnels fournis par les familles de victimes, comme des brosses à dents, des brosses à cheveux, etc.. Près de 3000 victimes ont ainsi pu être identifiées.
Dans les enquêtes criminelles, ces méthodes permettent des comparer des échantillons de la scène de crime, du suspect, et de la victime. La probabilité pour que plusieurs personnes présentent les mêmes Répétitions Courtes en Tandem sur leur séquence ADN est si faible (de 1 sur 10 milliards à 1 sur plusieurs billions, et la population mondiale compte environ 7 milliards d’individus) qu’il s’agit d’un niveau de preuve acceptable pour valider une identification judiciaire.
Ces mêmes tests sont également utilisés dans les affaires de paternité.
La dépollution de l’environnement
Il s’agit d’utiliser la capacité de certains microorganismes à transformer des substances chimiques dont elles se nourrissent naturellement. Lors de leur digestion, ces substances sont transformées en composés beaucoup moins nocifs et/ou beaucoup plus faciles à traiter. Généralement, les besoins nutritifs de ces microorganismes ne suffisent pas à les utiliser dans des opérations de dépollution. Il s’agit alors de transférer leurs gènes codant l’expression métabolique recherchée à d’autres microorganismes produits en quantité suffisante. Ces bactéries transgéniques deviendront ainsi des agents de protection de l’environnement très efficaces. Certaines d’entre elles sont ainsi capables de digérer des métaux lourds (cuivre, plomb, nickel) présents dans leur milieu pour les transformer en composés aisément traitables comme les sulfates de cuivre et de plomb. Ces microOGM pourraient ainsi jouer un rôle de plus en plus important dans le domaine minier, dans le traitement des déchets hautement toxiques, etc.. Les chercheurs essaient de permettre à ces microOGM de dégrader les hydrocarbures chlorés. Ils pourraient être utilisés dans les stations d’épuration et les industries polluantes.
L’agronomie
Tout ce qui se trouve dans vos assiettes est le fruit de 10 000 ans de domestication par les humains. Je serai incapable de citer de tête un seul aliment couramment consommé et qui n’a pas été drastiquement modifié depuis le début du Néolithique. J’ai pu montrer dans un autre billet le cas de la forme pré-domestique du maïs, la téosinte, qui n’a plus rien à voir avec sa forme actuelle. Il s’agit directement de l’action de l’homme. Il en va de même pour toutes les variétés abusivement appelées « anciennes » (en fait très récentes), et qui étaient déjà le produit de la sélection artificielle il y a 50 ans, 100 ans, ou 200 ans. Il y a donc un non sens fondamental à opposer ce qui serait « naturel » à ce qui serait « pas naturel (produit par l’homme) », ou ce qui serait « moderne » (et mauvais) et ce qui serait « ancien » (et bon). Ces conceptions idéalisées ne correspondent à aucune réalité biologique. Prétendre que ce qui est moderne serait forcément bon, et ce qui est ancien forcément mauvais, serait tout autant un non sens.
Grâce aux biotechnologies, cette sélection artificielle, pratique ancestrale datant du Néolithique, est de plus en plus améliorée par la sélection assistée par des marqueurs moléculaires. En effet, vous savez maintenant qu’il est possible de reconnaître des zones d’intérêt très précises sur un génome. Il est donc possible de détecter les marqueurs de mutations d’intérêt dans un cheptel pour ne sélectionner à la reproduction que les bêtes rigoureusement susceptibles de présenter les traits recherchés pour la sélection. Il peut s’agir de marqueurs ADN corrélés à une production plus importante de laine chez les moutons, à une viande moins grasse chez les bovins, etc..
Il est également possible de produire des animaux et des et plantes transgéniques. Comme dans le cas de la chèvre pharmaceutique expliqué plus haut, il s’agit d’introduire un gène d’intérêt présent chez une espèce au sein d’une autre espèce. Pour des raisons techniques (de la biologie cellulaire), il est beaucoup plus facile de produire des plantes transgéniques que des animaux transgéniques. C’est la raison pour laquelle l’écrasante majorité des applications agricoles concernent des plantes génétiquement modifiées.
Ainsi, l’extrême majorité des cultures OGM actuelles à travers le monde sont des espèces végétales modifiées pour augmenter leur résistance aux herbicides et aux insectes ravageurs. Le soja modifié représente 60% de toutes les surfaces cultivée en OGM dans neuf pays, et 90% aux USA. Ces cultures initialement développées aux États-Unis se sont étendues à l’Asie. L’Europe pour sa part vient à peine d’autoriser les toutes premières commercialisations et productions d’OGM alimentaires commerciaux. Parmi les bénéfices sans précédents apportés par ces cultures OGM, la diminution drastique de l’épandage de pesticides « chimiques », la limitation des émissions de CO2 et la diminution du labour. Vous pouvez lire un précédant billet à ce propos. En Inde par exemple, on a pu insérer dans le génome de plusieurs espèces de riz un gène de résistance à la salinité de l’eau présent dans une plante de mangrove côtière. Le riz ainsi produit est capable de croître dans des rizières au taux de salinité trois fois plus élevé. Or, 1/3 de toutes les terres irriguées souffrirait de salinité excessive en raison d’une irrigation incontrôlée et de l’usage trop important d’engrais chimiques, ce qui représente une menace pour l’approvisionnement alimentaire. Ces plans de riz résistant pourraient être d’un intérêt majeur dans la prévention de ces risques.
L’exemple du riz doré
Le riz doré est un bon exemple de bénéfice public d’application des biotechnologies à la production d’OGM alimentaires. L’OMS estime à environ 200 millions le nombre d’enfants d’âge préscolaire affectés de carence en vitamine A, dont environ 5 millions sont atteints de cécité. Cette carence est particulièrement marquée dans les pays en développement où la nourriture de base est le riz.
La production d’un riz transgénique doté de gènes codant la fabrication de bêta-carotène qui se décomposera dans l’organisme en vitamine A, présente des espoirs majeurs pour faire reculer ces carences et cécités infantiles. Des chercheurs sont en effet parvenus à insérer des gènes exprimant la production de cette bêta-carotène à la surface des grains de riz venant de deux variétés de jonquilles et une espèce de bactérie. Cette nouvelle fonction métabolique, qui donne à ce riz sa couleur orangée, est un total succès en cela qu’elle n’entrave en rien sa production comme on pouvait le craindre : l’introduction de cette voie biochimique ne change en rien le métabolisme normal de la plante. Une deuxième version a été obtenue, produisant plus de bêta-carotène, en remplaçant le gène de jonquille par un gène de maïs.
Ce riz doré à été obtenu par une institution publique suisse et n’a fait l’objet d’aucun dépôt de brevet. Depuis, le riz doré a été amélioré plusieurs fois par des groupes publics et privés, et ces formes sont également disponibles gratuitement sans contraintes commerciales.
De multiples innovations de cette sorte sont actuellement en développement.
To be continued…
Je n’ai pas pu dans cette présentation parler de tous les exemples extrêmement prometteurs de différents OGM : les vaccins ADN, les vaccins en sous unité, les animaux domestiques transgéniques, les aliments bio fortifiés dont on améliore les vertus nutritives, etc.. De tous ceux là, je donnerai des exemples détaillés dans d’autres billets. Ici, il s’agit de donner une vision d’ensemble assez simple de ce à quoi servent vraiment les biotechnologies et les OGM, et la place qu’ils ont déjà dans nos vies (des milliards d’êtres humains et d’animaux) depuis des dizaines d’années : médicaments, aliments, aliments de nos aliments…
Nous n’en sommes qu’aux balbutiements d’innovations technologiques fantastiques dans les entreprises publiques de lutte contre la maladie, la pollution, la malnutrition et les inégalités de développement.
Dans cette toute jeune marche de l’Humanité vers le progrès, entamée depuis la seconde moitié du XIXe siècle, le rôle de l’institution publique, garante autant que faire se peut de transparence, de neutralité et d’équité, est de tout premier ordre dans l’application raisonnée de ces progrès scientifiques et techniques pour le bien commun.