Comprendre le principe de vaccination [difficulté : facile] (1100 mots / ~ 5 mins)

Figure 1 Une cellule immunitaire vue par microscopie électronique (wikipédia)

Pour comprendre sereinement et de manière éclairée le principe de la vaccination, et ainsi éviter les travers de l’anti-vaccinisme, voici une courte et simple présentation des principes sur lesquels repose la vaccination. Lire la suite

Nouvelle étude Séralini : quand les rats de Monsanto sont gavés au RoundUp

79331194_o
Ser&Al. 2015 entend montrer que les OGM, pesticides et métaux lourds dans l’alimentation pour rongeurs déciment les rats de laboratoire.

Le jeudi 18 juin, la Tête Au Carré (laTAC), émission de radio quotidienne diffusée sur France Inter, interviewait en exclusivité Gilles-Eric Séralini, professeur de biologie moléculaire de l’université de Caen, à propos de la nouvelle étude choc qu’il s’apprête à publier dans la revue scientifique open access PLOS ONE, à propos de la nourriture des rats de laboratoire.

Si le nom Séralini vous dit quelque chose, ce n’est pas un hasard : le président du comité scientifique du CRIIGEN est à l’origine d’une autre étude publiée en 2012 à son nom, accusant un maïs GM et le RoundUp employé lors de la culture de ce dernier de déclencher l’apparition de tumeurs géantes sur des rats de laboratoire. Cette étude, parue dans des conditions pour le moins inhabituelles en sciences, eut un impact important dans les médias en France et à l’étranger.

Pourtant, sa rigueur scientifique fut rapidement remise en cause, alors qu’on découvrait également que les auteurs étaient sujets à de probables conflits d’intérêts importants. Finalement, le caractère non-reproductible des résultats avancés et les faiblesses méthodologiques révélées invalidèrent les conclusions de l’équipe du professeur Séralini, et le papier est considéré inexploitable par les experts et le reste de la communauté scientifique.

En ce jeudi 18 juin donc, Gilles-Eric Séralini revient sur le devant de la scène, décidé à discréditer ses détracteurs, comme lui l’avait été trois ans auparavant. Revenons ensemble sur cette journée mouvementée.
Lire la suite

[Trad] Une scientifique démonte l’étude de Séralini sur les OGM à paraître dans PLoS One : « une tentative infructueuse de rédemption »

screen-shot-2014-06-24-at-8-51-24-am-300x225

Article publié par Alison Bernstein sur Genetic Literacy Project le 18 juin 2015

Gilles-Eric Séralini, un biologiste moléculaire de l’université de Caen, espère obtenir la rédemption avec un nouvel article sur l’effet des pesticides et de la nourriture génétiquement modifiée (OGM) des rats et souris de laboratoire. Il n’a pas obtenu cette rédemption.

Il y a quelques années, Séralini a été exposé à la pire humiliation possible pour un scientifique. Le Journal Food and Chemical Toxicology a rétracté son étude. Les éditeurs ont passé en revue les données brutes de cette étude et en ont déduit qu’elles n’étaient pas significatives et ne permettaient pas de tirer les conclusions qui étaient largement répandues dans les gros titres des grands médias. Les auteurs eux-mêmes ont finalement admis que l’étude souffrait de sérieux manquements, et relevaient dans une déclaration de presse que « les données ne sont pas significatives du fait de la sorte et du nombre de rats utilisés ».

D’autres études à long terme, financées sur des fonds publics, n’ont pas pu démontrer de problèmes de santé causés par le maïs OGM ou l’herbicide glyphosate [Ndtr : le Roundup étant la formulation commercialisée par Monsanto du glyphosate]. Le département japonais de toxicologie et santé environnementale a réalisé une étude de 52 semaines sur l’alimentation à base de soja OGM en 2007, et n’a pas pu relever « d’effets nocifs apparents chez les rats » ainsi nourris. En 2012, une équipe de scientifiques de l’école de biosciences de l’université de Nottingham à réalisé une revue de 12 études à long terme (jusqu’à deux ans) et 12 études multi-générationnelles (jusqu’à 5 générations) sur l’alimentation OGM dans le même journal que celui qui a publié l’étude de Séralini. Cette étude a conclu qu’il n’y avait aucun danger apparent pour la santé. Conséquemment, il y a eu une pression croissante sur le journal pour rétracter l’étude de Séralini depuis sa publication en 2012, ainsi que d’autres critiques et un échange de courriers au sein du journal.

Maintenant Séralini a prévu de publier une nouvelle étude, à paraître dans PloS (mais qui n’a pas encore été publiée car le journal à indiqué que l’article nécessitait certains changements éditoriaux) et dans lequel les auteurs ont mesuré les niveaux de différents pesticides, produits chimiques industriels et produits OGM dans 13 marques d’aliments pour rongeurs de laboratoire (remarque : une version antérieure de l’article sous embargo à été distribuée à de nombreux journalistes et sur le site même de Séralini, brisant ainsi l’embargo). Les résultats en eux mêmes ne semblent pas surprenant étant donné l’usage actuel des cultures OGM et pesticides.

Les auteurs prennent ces résultats attendus et posent la question de la validité de toutes les autres études existantes. La conclusion, comme expliqué dans un communiqué de presse, n’est pas fondée : « Il apparaît dès lors que la cause des maladies et troubles observés chez les rats de laboratoires ont été trop rapidement attribués aux caractéristiques génétiques des espèces utilisées » [Ndtr : en 2012, on avait reproché à Séralini d’avoir utilisé une espèce de rats qui présentait naturellement un fort taux de cancer qui ne pouvait donc pas être distingué de l’impact qu’il attribuait à la nourriture OGM à ce propos]. En d’autres termes, les rats meurent à cause des OGM et autres pesticides comme le glyphosate contenus dans les aliments.

En tant que neurologue qui travaille régulièrement avec des animaux de laboratoire, je trouve ces allégations déconcertantes.

Ces résultats ne signifient pas grand chose, étant donné l’absence de toute donnée suggérant une corrélation entre la diète et le phénotype [Ndtr : quelque chose de visible sur les rongeurs dans leur aspect général], une caractéristique, chez les rongeurs de laboratoires. Ils n’ont présenté aucune preuve dans leur propre travail ou travail préalablement publié selon laquelle la contamination de la nourriture est un problème pour la santé des animaux de laboratoire. Ils ne présentent aucune donnée sur la santé animale ni sur quels aliments, donnés à quelle variété produit quel état pathologique visible. Ils ignorent aussi complètement le fait que les différentes sortes de rats ont différents profils pathologiques dont différents taux de développements pathologiques spontanés. Les auteurs ont fait un énorme saut logique en concluant que ces données remettent en question toutes les autres données utilisées comme contrôles externes.

Heureusement, les données mêmes que les auteurs essayent de discréditer ne supportent probablement pas leur conclusion.

Je voudrai aussi souligner que si de tels changements phénotypiques de rongeurs de laboratoires bien connus arrivaient, les scientifiques qui travaillent avec ces animaux le remarqueraient. Lorsque vos animaux de contrôle ne se comportent pas comme ils le devraient (dans leur façon d’être, leur état de santé, leur durée de vie, leur capacité reproductrice, ou quoi que ce soit), c’est un gros signal d’alarme. Si il y avait un problème avec l’alimentation qui causait significativement des pathologies chez les rongeurs de laboratoire, ça serait remarqué dans tous les laboratoires autour du monde.

Si on voulait fouiller les données existantes pour éclaircir ces inquiétudes, on pourrait poser quelques questions sur ces produits OGM et produits chimiques dans l’alimentation des rongeurs pour savoir s’ils ont un impact sur eux.

Quand les cultures OGM ont été introduites dans les années 90, les souris de contrôle ont-elles changé de comportement ? On peut extraire les taux de pathologies spontanées des études publiées avant et après l’introduction des OGM dans l’alimentation des animaux et les comparer. S’il n’y a pas de différence chez les animaux de contrôle avant et après cette introduction, alors l’alimentation de laboratoire composée d’OGM n’a pas eu d’effets sur les animaux de laboratoire.

Une étude publiée l’année dernière à l’université de Californie par Alison Van Eenennaam, spécialiste de génétique animale, a exactement suivi ce principe pour le bétail. Son équipe a examiné presque 30 ans d’études sur le bétail, plus de 100 milliards d’animaux, en comparant leur santé avant et après l’introduction de leur nourriture OGM. Elle n’a trouvé aucune différence chez les animaux.

  1. Plusieurs sortes d’animaux de laboratoire ont été communément utilisées pendant plus de 70 ans. Les résidus de pesticides trouvés dans l’alimentation de laboratoire reflètent l’utilisation des pesticides à ce moment là. Donc, une question évidente est : les phénotypes de ces souris ont-ils changé au fur et à mesure que les pesticides changeaient ? Lorsque les organochlorés ont été bannis en 1970 et remplacés par les organophosphates, a-t-on observé un changement concomitant chez les animaux de laboratoire ? Lorsque le glyphosate a remplacé les herbicides plus toxiques, a-t-on observé des changements dans la santé des animaux de laboratoire ? Encore une fois, on peut répondre à ces questions en comparant les animaux de contrôle à chaque décennie. Si l’état des animaux de laboratoire est resté constant, alors ces changements dans les résidus de pesticides trouvés dans l’alimentation de laboratoire n’ont pas eu d’effet sur leur santé.
  2. Dans l’article de Séralini, les deux aliments utilisés en Italie avaient le plus haut niveau de contaminants, selon les auteurs. Cela soulève une question : est-ce que les animaux dans les laboratoires italiens ont un comportement différent à cause de cette alimentation spécifique ? Une façon plus générale de poser cette question est de savoir si les mêmes sortes d’animaux alimentées avec des aliments qui présentent un niveau différent de contamination ont un comportement différent.

On peut aisément fouiller les données pour répondre à ces questions. Regardons l’exemple des rats Sprague-Dawley pour répondre aux deux premières questions. Ces rats ont été croisés en 1925 et ils ont donc été utilisés expérimentalement pendant assez de temps pour répondre aux questions 1 et 2 posées plus haut. Si on regarde dans les données historiques et actuelles pour ces animaux, on peut voir si il y a eu un quelconque changement chez eux. Cela a déjà été fait dans une lettre de réfutation à l’article précédant du groupe de Séralini. Ces informations sont toujours valables.

« Ce croisement de rat en particulier est bien connu pour être prédisposé à développer des cancers avec l’âge et spécialement en l’absence de restrictions alimentaires. Par exemple, l’étude de Prejean et al., en 1973 a montré une incidence de tumeurs spontanées de 45% chez 360 rats Sprague-Dawley (179 mâles et 181 femelles) dans une série d’études sur 18 mois lors d’expériences sur la cancérogenèse. Le pourcentage de femelles avec une tumeur était presque le double de celui des mâles. Durbon et al., ont rapporté en 1966 une incidence moyenne de 71%, le pic d’incidence chez les rats vieillissant normalement était corrélé à l’âge avec de fortes augmentations dans le développement des tumeurs mammaires, l’une apparaissant autour du 500ième jour après la naissance, et l’autre autours du 660ième, avec un âge médian de 671 +/- 41 jours. Harlan, la compagnie qui a breveté ces animaux, décrit la haute incidence de 76% de tumeurs des glandes mammaires (essentiellement des fibroadénomes) chez les femelles. Keenan et al., ont décrit en 1995 des tumeurs spontanées jusque chez 87% des femelles et jusqu’à 71% des mâles alimentés à volonté. Une restriction alimentaire réduisait significativement l’incidence des tumeurs.

3) Pour répondre à la troisième question, on peut comparer les données des animaux de contrôle dans les études faites dans différents pays. Bien entendu, la meilleure façon de répondre à ces problèmes est une méta-analyse complète de tous les animaux de contrôles dans ces études, séparés par taxons. Cependant, une revue rapide de la littérature pour l’incidence des pathologies spontanées ne semble pas justifier un tel effort. Basiquement, si des changements chez différentes sortes de rongeurs utilisés communément dans les laboratoires arrivaient, nous pourrions les voir dans les données existantes. Si des effets nocifs arrivaient chez les animaux de contrôle, une étude correctement faite devrait rapporter ces effets et nous pourrions voir ces changements chez les animaux de contrôle dans la littérature. Il y a aussi des obligations éthiques et légales à rapporter de tels effets aux équipes vétérinaires et institutions d’éthique de la recherche. De plus, la question de savoir pourquoi les souris de contrôle se comportent de manière différente que toutes les autres souris de contrôle devrait être une question de recherche très intéressante dont les scientifiques voudraient suivre les avancées.

Les auteurs de cette nouvelle étude cherche des réponses à un problème qui n’existe pas. Tout ce que Séralini avait à faire était une recherche bibliographique pour déterminer si c’était effectivement un problème ou non. Ils essaient d’incriminer des facteurs exogènes (contaminations de produits OGM et chimiques) pour des problèmes génétiques. On peut en réalité répondre à beaucoup de questions en fouillant vraiment les données dont Séralini et ses collègues veulent se débarasser. Mais ils n’ont pas cherché à répondre à ces questions et ne peuvent donc faire aucune conclusion excepté que les cultures OGM et des traces de ces pesticides existent dans l’alimentation de laboratoire.

Les auteurs concluent également qu’en raison des graves conséquences pathologiques (non démontrées ici), les recommandations d’étudier plus de groupes d’animaux sont invalides. Ce n’est pas ainsi que les statistiques fonctionnent. Si votre variation est plus importante, vous devez prendre une groupe plus important pour distinguer les tendances. Si il y a effectivement des tendances nettes, la seule chose que cela montre est l’importance de choisir une sorte de souri appropriée pour l’étude.

En fin de comptes, cet article est une tentative à peine voilée d’attaquer le consensus scientifique critique à l’égard du travail précédant de Séralini. Ce nouveau papier ne l’aide aucunement dès lors que ses critiques ne sont pas valides.

Alison Bernstein est une scientifique qui étudie la maladie de Parkinson et vit à Atlanta avec son mari, ses 2 enfants et leurs 2 chats. Suivez là sur sa page FB Mommy PhD et sur Twitter @mommyphd2.

[Trad] Débunké : le vaccin contre la polio à l’origine du VIH

Article posté sur The History of Vaccines.

Figure 1 Le Dr. Koprowski, à l’origine du vaccin OPV

Quand le virus de l’immunodéficience humaine a été découvert dans les années 80, le public s’est immédiatement demandé d’où il venait et comment il pouvait se manifester ainsi chez tant de personnes. Parmi les différentes conjectures émises dans les années 90, l’une d’elles jetait le blâme de cette émergence sur une mesure de santé publique : le vaccin contre la polio.

A la fin des années 50, différents groupes de chercheurs essayaient de développer un vaccin contre la poliomyélite qui était alors toujours épidémique autour du monde. L’un de ces vaccins, développé par le médecin Hilary Koprowski (1916-2013), a été testé en Afrique après avoir d’abord été testé aux USA. Le virus du vaccin était cultivé sur des tissus de macaques avant d’être administré à environ 1 million de personnes au Burundi, au Rwanda et en RDC.

En 1992, le magazine Rolling Stone publia un article à propos du vaccin OPV de Koprowski comme cause possible de l’émergence du VIH. Koprowski poursuivit Rolling Stone et l’auteur de l’article, qui durent publier une clarification en décembre 1993, disant notamment :

« Les éditeurs de Rolling Stone souhaitent préciser qu’ils n’ont jamais eu l’intention de suggérer dans cet article qu’il existe la moindre preuve scientifique du lien OPV/VIH, ni qu’ils n’en connaissent aucune, que le Dr. Koprowski, un scientifique illustre, était en réalité responsable de l’introduction du SIDA dans la population humaine ou encore qu’il est le père du SIDA… Le travail pionnier du Dr. Koprowski sur le développement d’un vaccin anti polio a contribué à réduire la souffrance et la mort de centaines de milliers de victimes potentielles de paralysies dues à la poliomyélite et est peut être l’une de ses plus grandes contributions d’une vie de productions de haut niveau et largement reconnues ».

Malgré la clarification de Rolling Stone, le journaliste Edward Hooper publia un livre intitulé The River, Un voyage à la source du VIH et du Sida, en 1999, basé sur la conjecture d’un lien OPV/VIH. Hooper arguait que les cellules animales utilisées pour la culture du virus vaccinal étaient des cellules de rein de chimpanzés locaux endémiques des zones où les vaccins étaient utilisés, et que ces chimpanzés avaient été infectés par le Virus de l’Immunodéficience Simiesque (VIS). Selon Hooper, un vaccin créé à partir de telles cellules aboutirait à l’infection des humains par le VIH.

Bien que largement diffusées, les preuves de Hooper ne soutiennent pas (voire même contredisent directement) l’idée d’un lien entre OPV et VIH.

Des restes des anciens stocks du vaccin ont été examinés par des laboratoires indépendants, et ont confirmé d’abord qu’ils n’avaient pas été cultivés à partir de cellules de chimpanzés comme Hooper le prétendait. De plus, aucun échantillon ne contenait de traces de VIH ou de SIV. Ces données renforcent les déclarations des développeurs du vaccin selon qui ce dernier avait bien été produit à partir de cellules de macaque et non de chimpanzé.

En 2004, une étude publiée dans Nature montra que les souches de SIV infectant les chimpanzés dans la zone décrite par Hooper comme étant le vivier des spécimens ayant servi à la confection du vaccin, étaient génétiquement différentes des souches de HIV. Cela réfutait les allégations de Hooper sous un autre angle : même si des cellules de chimpanzés infectés par le SIV avaient été utilisées pour fabriquer le vaccin, elles ne pourraient pas avoir été la source du HIV chez les humains.

Des études épidémiologiques soulignent également un sérieux problème dans les allégations de Hooper à propos du lien OPV/VIH : le VIH-1 (la première souche connue de VIH, plus infectante et violente que la deuxième souche, VIH-2), est probablement passée à l’espèce humaine avant 1940 et ce dans une toute autre région de l’Afrique que celle où a été testé le vaccin anti polio, probablement via des chimpanzés infectés au Cameroun. Les essais congolais du vaccins commencèrent à la fin des années 50, au moins une décennie après le début de la radiation du VIH au sein de l’espèce humaine, et probablement encore plus loin que ça selon de récentes estimations (Worobey 2008). Le vaccin ne pourrait pas avoir été la source d’un virus qui avait déjà infecté les humains depuis de nombreuses années.

Hooper de son côté, reste campé sur ses positions et prétend à une tentative organisée d’étouffer l’affaire, mais cet argument a largement été relégué au statu de théorie du complot débunkée. Bien que ses arguments aient été démontrés sans valeur, ils ont tout de même été nocifs aux efforts d’éradication de la polio. Les rumeurs actuelles de la contamination volontaire du vaccin OPV avec des drogues causant la stérilité et des virus à l’origine du VIH et du SIDA ont conduit au refus d’accepter ce vaccin dans certaines parties de l’Afrique. Il est probable que ces rumeurs soient corrélées aux allégations originales à propos du lien OPV/VIH. Conséquemment, certaines parties de l’Afrique ont été exposées à des flambées de polio alors que l’éradication était en bonne voie.

Sources et informations supplémentaires

  1. Cohen J. Forensic Epidemiology: Vaccine Theory of AIDS Origins Disputed at Royal Society. Science. 2000; 289(5486):1850-1851.
  2. Jegede A. What Led to the Nigerian Boycott of the Polio Vaccination Campaign? PLoS Med. 2007; 4(3): e73.
  3. Korber B, Muldoon M, Theiler J, et al. Timing the ancestor of the HIV-1 pandemic strains. Science. 2000; 288(5472): 1789–96.
  4. Offit PA. Vaccinated: One Man’s Quest to Defeat the World’s Deadliest Diseases. New York: Harper Perennial; 1988.
  5. Worobey M, Santiago M, Keele B, et al. Origin of AIDS: contaminated polio vaccine theory refuted. Nature . 2004; 428(6985): 820.
  6. Plotkin SA. CHAT oral polio vaccine was not the source of human immunodeficiency virus type 1 group M for humans. Clin. Infect Dis.  2001; Apr 1;32(7): 1068-84.
  7. Plotkin SA. Untruths and consequences: the false hypothesis linking CHAT type 1 polio vaccination to the origin of human immunodeficiency virus. Philos Trans R Soc Lond B Biol Sci. 2001: June 29: 356(1410) 815-23.
  8. Sharp PM, Hahn BH. The evolution of HIV-1 and the Origin of AIDS.  Philos traqns R Soc Lond B Biol Sci. 2010 Aug 27:365(1552) 2487-94.
  9. Worobey M, Gemmel M, Teuwen DE et al. Direct evidence of extensive diversity of HIV-1 in Kinshasa by 1960. Nature. 2008 Oct 2 ; 455(7213) : 661-664.

    Last update 31 July 2014

Vaccins = Danger, les preuves scientifiques

VACCINATION, DANGER, AUTISME, THIOMERSAL, MERCURE, ALUMINIUM, FORMALDEHYDE, PETITION, BIG PHARMA, DOUREIOS HIPPOS !!!!!!

Il y a quelques semaines a été lancée une pétition contre les vaccins. En effet, beaucoup de dangers planent sur ceux-ci, et ils sont très bien connus et évalués par la communauté scientifique. Le consensus scientifique à leur propos est clair et massif. Voyons ce qu’il en est.

Les vaccins causent l’autisme

En 1998, un chirurgien britannique, Andrew Wakefield, a publié une étude dans The Lancet, prestigieux journal médical, qui faisait un lien entre le vaccin ROR et l’autisme.

Évidemment, la communauté scientifique alertée s’est penchée sur le danger supposé. Il s’est assez rapidement avéré que personne à travers le monde ne pouvait reproduire les résultats de Wakefield. Et pour cause, son étude à la méthodologie déjà très mauvaise et présentant de très graves problèmes d’éthique, était en outre l’objet de falsifications produites dans le but d’en tirer des bénéfices commerciaux.

Aucune étude entreprise par la suite n’a jamais confirmé de lien supposé entre la vaccination et l’autisme. Les causes de l’autisme sont encore assez mal connues, mais on sait désormais que les signes de syndromes autistiques apparaissent chez les enfants avant la prise du vaccin, et que l’augmentation présumée des cas d’autisme n’est pas corrélée à l’introduction vaccinale, mais d’abord et avant tout à l’amélioration des capacités diagnostiques à ce propos.

En conclusion : en l’état actuel des connaissances, le consensus scientifique est très clair et massif sur le sujet, la vaccination ne cause pas l’autisme, pas plus qu’aucune autre maladie grave souvent alléguée comme Alzheimer ou différents types de cancers.

L’immunité naturelle est plus efficace que la vaccination

Être exposé à une maladie peut en effet donner une immunité très forte. Mais cela n’en demeure pas moins dangereux. En étant exposé naturellement à la rougeole au motif d’acquérir l’immunité contre cette maladie, vous avez 0,1 à 1 chance sur 1000 de mourir (c’est beaucoup ! dans les pays en développement, ce risque est encore plus grand, de l’ordre de 7,5 décès en moyenne pour 1000 cas, et peut atteindre des pics importants). Avec la vaccination, ce risque tombe à 0%, et sans développer les symptômes de la maladie. Au final, la vaccination nous évite en France 76 à 760 décès annuels pour cette seule maladie.

En conclusion : l’état actuel des connaissances scientifiques nous apprend que comme pour tout médicament, un vaccin peut présenter des effets secondaires. Dans l’exemple du vaccin contre la rougeole, si les effets secondaires bénins (fièvre, rougeur au niveau de la piqure…) sont relativement fréquents (10-15%), les effets secondaires graves sont beaucoup plus rares, et leur fréquence est bien inférieure à celle des complications graves liées à la maladie. In fine, la balance risques/bénéfices reste positive pour la vaccination.

Les vaccins contiennent des « toxines »

Beaucoup de peurs sont agitées au motif que les vaccins contiennent des produits apparemment nocifs, comme le mercure, l’aluminium, et le formaldéhyde. Certains de ces produits ont effectivement un effet potentiellement nocif, tout comme le monoxyde de dihydrogène. Ce dernier est pourtant largement ignoré du grand public, alors qu’il cause la mort de nombreuses personnes chaque année, et que la population mondiale y est fortement exposée à chaque instant.

En réalité, il ne faut pas oublier le principe de Paracelse. La dose fait le poison. Ces produits sont bien connus et évalués en permanence, et s’ils se trouvent dans les vaccins, c’est parce qu’ils y sont bien utiles en plus d’y être inoffensifs.

Ces trois produits sont contenus dans une dose extrêmement faible dans les vaccins, bien en dessous de tout seuil de toxicité. Pire encore, le formaldéhyde par exemple, s’y trouve très en dessous du taux de formaldéhyde contenu naturellement dans notre corps ou dans certains fruits et légumes comme les poires. Le taux de formaldéhyde naturellement et continuellement présent dans le sang est ainsi d’environ 2,74 mg par litre. Un jeune enfant possédant un volume sanguin d’environ 2 à 3 litres porte donc naturellement 5 à 9 mg de formaldéhyde sanguin. Si on prend l’exemple du vaccin anti grippal Fluzone de Sanofi-Pasteur qui a fait l’objet de memes sur internet mettant en avant le fait qu’il contienne du formaldéhyde en quantités traces, c’est environ 1 000 000 (1 million) de fois plus que la dose se trouvant dans le vaccin. Pour tout juste arriver à augmenter ce niveau naturel, il faudrait injecter d’un coup 10 millions à 20 millions de doses de vaccins à l’enfant. Le seuil de toxicité potentielle du formaldéhyde étant de 0,2 mg par kg et par jour, un jeune enfant de 20 kg pourra absorber 4 mg de formaldéhyde par jour sans que cela soit encore dangereux, soit l’équivalent de 1 million de doses de vaccin par jour. Il s’agit ici de répondre à des inquiétudes dénuées de toute base critique, comme ça peut l’être dans le cas de peurs fondées sur une mauvaise interprétation du concepts de trace et des ordres de grandeurs. Mais dans tous les cas, quel que soit le vaccin considéré, le niveau de formaldéhyde circulant naturellement dans le corps d’un jeune enfant serait toujours 50 à 70 fois plus élevé que la quantité contenue dans le vaccin, et donc très en dessous des seuils toxiques.

On retrouve les mêmes principes pour les autres produits incriminés.

En conclusion : une connaissance scientifique très basique (savoir reconnaître des unités de mesures simples) et la compréhension du principe de Paracelse permettent de saisir l’inanité des allégations sur le danger des produits contenus dans les vaccins. Par ailleurs, ces produits sont perpétuellement évalués, leurs dangers sont connus, et le consensus scientifique est extrêmement clair : ces produits, aux doses présentes dans les vaccins, ne présentent aucun risque pour la santé, notamment en ce qui concerne les allégations infondées de risques d’autisme et le thiomersal.

L’amélioration de l’hygiène et de la qualité de vie explique la disparition des maladies infectieuses

L’amélioration de l’état pathologique des populations est évidemment poly factorielle. Du XIXe au XXIe siècles, la vaccination n’a pas été la seule avancée médicale, bien qu’elle fut absolument majeure. On a également fait quelques progrès notables du point de vue de l’hygiène publique, de l’urbanisme, de la prise en charge médicale, de la chirurgie… Tous ces éléments jouent bien entendu à différents niveaux sur le taux de mortalité des maladies infectieuses. Il est cependant possible d’isoler chaque paramètre et d’évaluer l’importance de chacun. On voit dès lors que la vaccination reste l’élément central et essentiel permettant l’éradication des infections.

Si l’on reprend l’exemple de la rougeole aux USA par exemple, on voit qu’avant 1963, la date d’introduction du vaccin, la prévalence de la maladie était de plus de 400 000 cas par an. Les standards d’hygiène étaient alors très semblables à ceux que nous connaissons aujourd’hui. En 1970, cette prévalence n’est plus que de 25 000 cas par an, 71 en 2009.

En conclusion : si nos conditions de vie actuelles rendent la maladie moins insupportable que par le passé, elles ne permettent pas de l’éviter. Les effets de l’introduction de la vaccination sont très bien connus, majeurs, et seuls responsables des véritables éradications que nous connaissons aujourd’hui.

Les risques de la vaccination sont supérieurs à ses bénéfices

Comme on l’a déjà évoqué plus haut, tout médicament quel qu’il soit comporte des risques secondaires. Ceux liés à la vaccination sont rarissimes en plus d’être bénins dans la plupart des cas. Quoi qu’il en soit, ces risques sont incomparablement plus faibles que ceux encourus en l’absence de vaccination, dont les complications et issues fatales sont parfois assurées.

En conclusion : en l’état actuel des connaissances, la vaccination n’est associée à aucun risque grave ou courant. Ces risques dérisoires sont par ailleurs à mettre en rapport avec les bénéfices écrasants de la vaccination, par exemple en ce qui concerne le vaccin contre la grippe.

Le vaccin peut donner la maladie contre laquelle il est supposé protéger

Parmi les rares effets secondaires des vaccins (tous les médicaments ont des effets secondaires), certains peuvent rappeler les symptômes provoqués par la maladie contre laquelle doit protéger le vaccin. En ce qui concerne les vaccins désactivés, c’est-à-dire ceux dans lesquels le microbe a été tué, c’est tout simplement impossible. Pour les vaccins vivants, c’est théoriquement possible, mais les symptômes observés sont provoqués par le vaccin, et non pas la maladie réellement entrain de se développer. Dans ce dernier cas, la réaction montre tout simplement de façon visible que la réaction immunitaire attendue a bien été provoquée. En effet, le gonflement, la rougeur et la sensation de chaleur sont les premiers signes visibles d’une réaction immunitaire localisée, exactement comme à l’endroit d’une piqure d’insecte.

On ne connait qu’un seul cas supposé de risque (toujours extrêmement faible), de maladie développée à la suite d’un vaccin devant la prévenir, celui de l’OPV qui a été retiré de la circulation par précaution, et ce malgré des bénéfices énormes pour la santé des enfants à travers le monde.

En conclusion : la sécurité des vaccins notamment au regard du risque de provoquer la maladie contre laquelle ils doivent combattre est très strictement évaluée. Certaines de ces peurs reposent sur des non-sens biologiques (cas des microbes désactivés), et restent dans tous les cas infondées au regard des contrôles stricts et massifs pré et post introduction.


OGM = Danger, les preuves scientifiques

LA VERITE SUR LE ROUNDUP, HERBICIDE, MAÏS BT, COTON BT, SOJA BT, SUPERWEED, CONTAMINATION, MONSANTO, PESTICIDE, BIODIVERSITE, EQUUS TROJANUS !!!

Figure 1 Image tirée du documentaire intitulé « GMO OMG » de Jeremy Seifert, reviewé sur ce lien.

Très souvent, dans le milieu des opposants aux OGM, j’entends dire qu’on n’a pas assez de preuves scientifiques sur les dangers des OGM, qu’on ne sait pas, qu’il n’y a pas d’études, qu’on n’a pas prouvé l’innocuité des OGM, etc.. Mais les camarades qui disent cela se trompent lourdement. En réalité, la documentation scientifique sur les dangers des OGM est énorme. Ceci s’explique par le fait que les OGM sont les produits biologiques les plus suivis au monde depuis 30 ans. Aussi, on cumule les données observationnelles et expérimentales. Il existe des milliers d’études sur les OGM, et des centaines d’entre elles évaluent leur danger. Bien entendu, une partie de ces études est financée par l’industrie. Mais au moins autant sont entreprises par des universitaires sur des budgets de la recherche publique.

De fait, les articles scientifiques indépendants de l’industrie et posant la question des dangers des OGM sont légions. Depuis les premiers travaux sur les OGM jusqu’en 2006, 31 848 articles scientifiques avaient été publiés sur le sujet. Le problème est que l’évaluation des dangers des OGM repose sur une approche multidisciplinaire, ce qui a tendance à diluer la visibilité de telles recherches déjà dans le domaine scientifique, mais encore plus auprès du grand public. Un journal peer review spécifique ainsi qu’une base de données dédiée à ces recherches ont donc été créés.

Le consensus scientifique sur le danger des OGM est très clair, comme il a pu être mis en évidence par une revue bibliographique sur tous les articles scientifiques publiés entre 2002 et 2012, soient 1783 articles comprenant des travaux de recherche et d’autres revues bibliographiques.

Nicolia et al., 2013
Nicolia et al., 2013

On peut voir que les études portant sur les dangers des OGM sont assez bien balancées entre les interactions OGM-environnement (47,5%) et les interactions OGM-humains (43,2%). A l’intérieur de ces deux grandes catégories, plusieurs thèmes sont abordés.

Les dangers pour la biodiversité

C’est le thème le plus fouillé par les scientifiques (68,4%) dans la catégorie des interactions OGM-environnement. On commence donc à connaître beaucoup de choses sur les dangers des OGM pour la biodiversité.

Comme vous le savez, la plupart des Plantes Génétiquement Modifiées (PGM) le sont pour devenir résistantes à des herbicides, comme le Roundup, ou pour produire des toxines insecticides, comme les semences Bt. Les scientifiques évaluent donc en permanence les dangers que cela peut représenter aux travers de données observationnelles et expérimentales.

La littérature évaluant ces dangers pour la faune, qu’il s’agisse des oiseaux, serpents, insectes non ciblés par les insecticides, microfaune du sol, etc., est extrêmement importante. Une revue de cette littérature montre bien les quantités de preuves sur les dangers des OGM : rares ou inexistantes. Les impacts négatifs qui ont pu être mis en évidence ont par ailleurs été critiqués pour leur faiblesse statistique et leurs extrapolations abusives.

Les OGM-herbicides et insecticides provoquent naturellement une baisse de la biodiversité au regard des cibles de ces pesticides. C’est en effet parfaitement logique et le même résultat est attendu en agriculture conventionnelle ou bio. Quel que soit le moyen de lutte utilisé, il conduit nécessairement à la diminution des cibles dans la zone d’utilisation. Cela démontre simplement l’efficacité de ces méthodes. Il est notable de constater que cette baisse de la biodiversité des cibles est généralement plus grande en agriculture utilisant des variétés non OGM, car les pesticides chimiques utilisés sont plus toxiques et persistants dans l’environnement. A ce propos, l’utilisation des « pesticides OGM » a permis une très large diminution de l’utilisation des pesticides chimiques conventionnels dans le monde, et donc une importante réduction de la pollution.

Le danger que représentent les OGM en termes d’apparition de plantes résistantes aux herbicides, les superweeds, ou d’insectes ravageurs résistants aux insecticides sont également bien évalués. Mais en réalité, ces problèmes bien connus ne sont pas spécifiques aux produits OGM. La théorie de l’évolution nous apprend effectivement que la pression sélective continue sur les individus, provoque nécessairement une adaptation continue. Ainsi, il semble peu probable qu’une solution de lutte contre un nuisible biologique ne soit jamais définitive. Il s’agit alors d’établir une gestion intelligente de différentes méthodes de lutte combinées pour éviter l’apparition de résistances. C’est ce qu’on appelle la course à l’armement. Ces dangers sont exactement les mêmes en agriculture conventionnelle ou biologique. Ils ne représentent pas une spécificité des OGM. Les techniques de l’un ou l’autre mode d’agriculture peuvent très bien être utilisées de manière combinée de sorte à réduire à la fois les pollutions et les risques de résistance.

En conclusion sur les dangers des OGM pour la biodiversité, il est notable de constater que les craintes communément soulevées ne sont pas justifiées. En outre, la diminution de la pollution grâce aux champs OGM est favorable à la biodiversité. Clairement, cette pratique ne présente aucune différence néfaste avec celles utilisées traditionnellement par l’homme depuis le Néolithique.

La contamination

Des plantes non OGM peuvent fertiliser des plantes OGM et vice-versa. Ceci se passe en permanence dans la nature entre des plantes non OGM. On appelle ça la reproduction. Lors du processus de reproduction, des gènes sont échangés et transmis aux générations suivantes. On parle de flux de gènes, processus improprement appelé « contamination » par les opposants, durant lequel des transgènes peuvent circuler et se fixer dans une population de plantes sauvages par introgression. Dans la littérature sur les dangers des OGM, les flux de gènes représentent 31,6% des publications relatives aux interactions OGM-environnement. C’est clairement un sujet très chaud qui est suivi sans relâche et dont le nombre de publications est en augmentation depuis 2006. Beaucoup de personnes craignent que ce flux de gènes soient nocifs. Qu’en est-il réellement ?

Beaucoup de facteurs conditionnent une telle possibilité : le mode de reproduction des plantes OGM, la présence ou non à proximité de plantes sauvages sexuellement compatibles, et la viabilité de tout hybride potentiel. Plusieurs exemples d’introgressions de ce genre ont déjà été documentés. Ce danger est bien connu. Plusieurs stratégies combinées existent pour le limiter : la stérilité des plans mâles, la désynchronisation de la floraison, l’introduction de gènes défavorables… Mais aucune de ces méthodes seule n’est totalement efficace pour interdire l’introgression d’un transgène dans une population sauvage.

Quoi qu’il en soit, le suivi intensif de ces dangers n’a encore jamais détecté d’effets défavorables de l’introgression d’un transgène dans une population sauvage. Par ailleurs, et exactement comme je l’ai dit plus haut concernant l’apparition de résistances, ce problème n’est absolument pas spécifique aux OGM. Il existe de nombreux exemples documentés d’hybrides non OGM naturellement invasifs et d’apparitions de résistances aux herbicides dans des populations sauvages sous l’effet de mutations aléatoires et naturelles.

Pour produire des plantes OGM, il est souvent nécessaire de recourir à un gène de résistance aux antibiotiques qui agit comme marqueur dans les cultures cellulaires, de sorte à pouvoir sélectionner uniquement les cellules porteuses du transgène et a fortiori résistantes à l’antibiotique. Il est donc raisonnable de penser que ce gène de résistance aux antibiotiques, transféré jusque dans le PGM final, puisse in fine passer dans le sol lors de la dégradation des restes végétaux et entrer en contact des bactéries du sol. Or, on sait parfaitement que les bactéries sont naturellement capables d’intégrer à leur génome de l’ADN exogène rencontré dans leur environnement. C’est ce qu’on appelle le transfert de gène horizontal. Le danger, bien entendu, serait alors que des bactéries intègrent ce gène de résistance aux antibiotiques, et que l’on se retrouve avec des bactéries ultra pathogènes et résistantes.

Cependant, les investigations menées en laboratoire jusqu’à présent montrent que cette intégration se fait à un rythme extrêmement lent, alors que les expérimentations en plein champ n’ont pu montrer aucune preuve de ce phénomène.

De plus, dans le cas apparemment très improbable où un tel scénario arrivait, cela n’affecterait pas les populations de bactéries déjà présentes dans le sol et naturellement résistantes aux antibiotiques, ni n’impliquerait de risques additionnels pour les humains ou les animaux.

Le génie génétique prévoit en outre l’utilisation d’autres types de marqueurs génétiques que des gènes de résistance aux antibiotiques, et l’élimination de tous les gènes non désirés en bout de chaîne dans le génome final de la plante OGM.

En conclusion sur les risques de contamination, nous pouvons dire qu’ils sont tout à fait identiques à ceux de l’agriculture conventionnelle et biologique traditionnellement pratiquées. Le terme de « contamination » est en fait scientifiquement inexact, et ne fait que décrire un processus naturel non dangereux.

Les dangers pour les hommes et les animaux

L’équivalence en substance recouvre un aspect crucial de l’évaluation des risques liés aux OGM. L’équivalence en substance est la procédure stricte de vérification des effets créés par le transgène introduit dans un OGM. Cette procédure implique la comparaison de l’OGM avec la même plante non transgénique, possédant le même génotype moins le transgène. L’équivalence en substance, n’est donc absolument pas, comme on peut le lire sur le web, une norme attribuée gratuitement. C’est une procédure fondamentale de vérification de la conformité nécessaire à l’autorisation de mise sur le marché.

Cette procédure suit deux grandes étapes. D’abord, l’OGM est testé pour ses propriétés agronomiques, morphologiques et chimiques, telles que ses micro et macronutriments et ses protéines toxiques. Cette étape fixe la nécessité ou non de poursuivre des analyses sur les qualités nutritives de l’OGM. Tout écart qui tombe dans la variabilité naturelle de la plante non OGM est logiquement considéré comme sûr. Cette procédure est validée et reconnue internationalement. Si des différences ne recouvrant pas la variabilité naturelle de la plante non OGM sont détectées, elles doivent être analysées pour évaluer leur danger.

Cette procédure a été utilisée jusqu’à maintenant, et atteste donc de l’équivalence des plantes OGM avec leur version non OGM moins le transgène intégré. C’est ainsi que l’on sait que toutes les PGM mises sur le marché sont équivalentes à leur forme non OGM. Il ne s’agit pas d’une décision arbitraire.

L’équivalence en substance est fondamentale dans toute étude de conformité de produits OGM et est l’objet d’un consensus scientifique sans équivoque.

Il est notable que la littérature scientifique portant sur l’équivalence en substance est essentiellement composées des recherches produites par les firmes de biotechnologie. Ce constat est logique, dans la mesure où la puissance publique exige que les compagnies privées financent elles mêmes la mise aux normes des produits qu’elles souhaitent mettre sur le marché. Sans quoi, le contribuable devrait s’attendre à financer ces études, de sorte à ce qu’il se retrouve à payer les compagnies privées pour lui vendre des produits, et donc passer à la caisse deux fois. Bien que financées par les compagnies, ces procédures de conformité doivent être soumises au contrôle des instances de régulation publiques.

Depuis 2009, de plus en plus de procédures de contrôle, basées sur des tests d’équivalence non ciblés, en termes de transcriptomique, protéomique et métabolomique, se multiplient. Ces méthodes sont en cours de développement et ne sont pas encore harmonisées internationalement, de sorte à ce qu’on ne puisse pas encore en retirer des données utilisables. En l’état, le principe d’équivalence en substance reste une base très solide aux procédures de contrôle. Mais les transgènes et leurs produits sont bien entendu contrôlés eux aussi.

En conclusion sur l’équivalence en substance, nous pouvons dire qu’il s’agit d’un processus fiable et internationalement reconnu pour s’assurer par des analyses rigoureuses que le produit OGM est strictement identique au même produit non OGM. L’analyse du transgène est logiquement réalisée à part entière, en plus de l’équivalence en substance.

Les dangers pour la consommation représentent une part très importante de la littérature scientifique sur le sujet. Leur proportion par rapport aux autres thèmes reste constante, mais un pic de publication à ce sujet a été observé en 2008, à la suite de la ferveur scientifique occasionnée par les recherches expérimentales publiées par les compagnies en 2006.

Les dangers supposés des OGM pour la consommation peuvent se regrouper en trois aspects : l’innocuité du transgène inséré et de sa transcription en ARN, l’innocuité de la protéine transcrite par le transgène, et l’innocuité des changements attendus et inattendus sur les cultures. En d’autres termes, l’ADN transgénique et les protéines qu’il fabrique peuvent-ils être toxiques et mauvais pour la santé ?

Concernant l’innocuité de l’ADN, il faut savoir que celui-ci est contenu dans le régime alimentaire normal, qu’il soit issu de l’agriculture conventionnelle ou biologique, de sorte à ce que chaque humain consomme entre 0,1 et 1 gr d’ADN par jour quelle que soit sa diète. Cet ADN peut être détruit par la digestion, activer le système immunitaire, ou promouvoir la formation de biofilm bactérien. Des inquiétudes sont régulièrement soulevées quant à la possibilité pour un transgène de transférer une résistance antibiotique aux bactéries entériques selon les principes expliqués plus haut à propos des bactéries du sol, ou quant à sa translocation et accumulation dans le corps humain. Il est nécessaire une nouvelle fois de remettre les choses dans leur contexte.

D’abord, ce mécanisme n’est pas propre à un gène venant d’OGM. Ensuite, un transgène est totalement dilué dans la masse de l’ADN ingéré naturellement, à hauteur de 0,00006% à 0.00009%, et est digéré comme n’importe quelle autre partie de l’ADN. Par ailleurs, la préparation de la nourriture, cuisson, friture, ébullition, dégrade déjà préalablement les molécules d’ADN, transgénique ou pas, avant même leur ingestion. On sait expérimentalement que le transfert horizontal de transgène par les bactéries entériques des humains et des animaux est quant à lui rarissime. Si le scénario du pire arrivait, il est a noter que la résistance antibiotique utilisée pour les PGM ne représente pas de danger pour la santé des humains et des autres animaux. Il arrive naturellement que des molécules d’ADN passent la barrière intestinale lors de la digestion, mais ce phénomène n’a été observé que dans de très rares cas où un très grand nombre de copies d’un même gène se trouvait présent et dont des exemplaires étaient retrouvés dans des tissus et des organes de différents animaux ainsi que du lait de vache. Chez les humains, on a déjà pu observer le passage à travers la paroi intestinale d’un gène de lapin se trouvant dans un très grand nombre de copies. Le passage d’un transgène à travers la paroi intestinale à déjà pu être observé également, notamment chez le cochon et la truite arc-en-ciel, mais en micro quantités et avec de forts soupçons de contamination croisée lors des analyses. Dans la majorité des études conduites jusqu’à présent, il n’a pas été possible de retrouver des fragments de transgènes dans aucun produit animal dérivé. Il n’existe encore aucune preuve à ce jour de passage d’ADN à travers la paroi intestinale et d’intégration de celui-ci au génome des cellules de l’organisme hôte.

Clairement, l’ADN transgénique ingéré par la consommation d’OGM ne diffère en rien, intrinsèquement ou physiquement de n’importe quel autre ADN non transgénique déjà présent dans l’alimentation et n’implique aucun risque supérieur à l’ingestion de n’importe quel autre ADN non transgénique, qu’il vienne de produits de l’agriculture conventionnelle ou biologique.

Quand aux inquiétudes sur l’ingestion de transcrit ARN transgénique, les observations sont les mêmes que celles qui viennent d’être faites à propos de l’ADN. Un unique cas original est en cours d’investigations supplémentaires.

L’ADN transgénique induit pour la PGM recevant le transgène, la biosynthèse d’une protéine transgénique. On peut raisonnablement poser la question de la toxicité de telles biomolécules. L’innocuité de celles-ci est investiguée de diverses manières : des analyses bioinformatiques pour évaluer leur similarité avec la listes des substances toxiques et allergènes actuellement connues ; leur stabilité face au pH et à la température ; leur digestibilité in vitro via des fluides gastriques de mammifères (et donc la perte de leurs éventuels pouvoirs allergènes) ; leur niveau d’expression et d’absorption alimentaire afin d’évaluer l’exposition humaine et animale ; des tests de toxicité aigüe et chronique chez des rongeurs en utilisant la protéine transgénique purifiée afin de prédire les éventuels risques de toxicité chez les humains.

Le détail de ces analyses doit nécessairement être fourni aux autorités de régulations avant toute autorisation de mise en vente sur le marché. Ces données ne sont en revanche pas nécessairement publiées en outre dans des journaux scientifiques. Cette tendance tend cependant à s’inverser ces dernières années par la prise de conscience des compagnies de la nécessité de plus grande transparence. Il n’existe pas actuellement de preuves scientifiques d’effets toxiques ou allergiques. Les inquiétudes soulevées en 2007, 2009 et 2012 ont très vite été estompées par la très faible qualité des études qui en étaient à l’origine. Seuls deux cas d’effets allergiques sont connus à ce jour, l’un concernant un soja OGM qui n’a donc pas été mis sur le marché, et le cas jamais confirmé du maïs Starlink.

En conclusion sur les risques d’allergie et de toxicité à la consommation, nous pouvons dire que ceux-ci sont strictement et rigoureusement évalués par plusieurs batteries de tests très pointus. Les OGM sont les seuls aliments à ainsi faire l’objet de telles procédures de contrôle, et sont en cela beaucoup plus sûrs que les aliments bio qui ne sont eux jamais contrôlés. Les seuls risques connus n’ont logiquement jamais passé les premiers tests de conformité et n’ont jamais été développés.

Conclusion

Le nombre de repas consommés par des animaux nourris aux OGM depuis leur introduction il y a 20 ans, avoisine les deux trillions (soient 2 000 000 000 000 000 000, soient deux milliards de milliards, soient deux millions de millions de millions de repas). Ces données observationnelles absolument gigantesques, en plus des données expérimentales, n’ont jamais donné lieu à la moindre preuve de danger représenté par les OGM mis sur le marché. Sur les 9 milliards d’animaux d’élevage destinés à l’alimentation produits annuellement aux USA et suivis sur la période 1983-2011, strictement aucune différence n’a jamais été observée à partir de l’introduction des PGM dans l’alimentation de ces animaux en 1996, soient plus de 100 milliards de bêtes élevées depuis cette introduction et nourries à 95% d’OGM. Il est notable que la moindre crise épidémique apparue à la suite de l’introduction des OGM aurait immédiatement été détectée. Dans un tel scénario, les bêtes tomberaient malades à travers le monde par centaines de milliers. Il suffit de voir l’effet des épizooties infectieuses pour se rendre compte de ce que devrait être le moindre signal épidémique. Les données expérimentales de toutes sortes, dont de nombreuses études sur la toxicité à long terme (de 110 à 728 jours, jusqu’à 10 générations), n’ont pas montré de signes d’impact sur la santé des animaux ni de différence dans la valeur nutritive de cette alimentation en comparaison de leur équivalent non OGM.

En face de cela, une poignée d’études massivement dénoncées pour leurs nombreux biais et leur qualité exécrable continuent de retenir l’attention des médias grands publics qui passent sous silence les centaines d’autres études existantes sur le sujet et faisant consensus.

La revue de la littérature scientifique ne serait-ce que de ces dix dernières années (les OGM sont en développement depuis 30 ans), témoigne de ce consensus de sécurité et de suivi permanent pour tous les aspects de la question : impact sur l’environnement, impact sur l’homme et les autres animaux, traçabilité… Il est notable de constater, année après année, que chaque motif d’inquiétude dans le grand public est suivi par un regain de production scientifique à ce propos, comme ça a été le cas en 2011 sur les questions de biodiversité et les flux géniques soulevées par l’opinion publique. En l’état de la masse des connaissances scientifiques en perpétuel perfectionnement et accumulées depuis plusieurs décennies, la consommation d’OGM ne représente pas de danger supérieur à celui de la nourriture produite par l’agriculture conventionnelle ou biologique.

Il ne s’agit ni d’être « anti » ni d’être « pro » OGM. Ces deux positions sont irrationnelles, tout comme celle consistant au fence sitting et niant l’existence du consensus scientifique. Rationnellement, seules les preuves comptent. Le meilleur moyen à notre connaissance d’acquérir ces preuves et de les articuler logiquement reste la méthode scientifique. Or, cette méthode, grâce à des centaines de milliers de chercheurs à travers le monde, indépendants les uns des autres et acceptant de soumettre leurs résultats à la critique de leurs pairs, permet d’aboutir à un consensus scientifique. Ce consensus n’est évidemment pas définitif et est soumis aux connaissances nouvelles qui l’abreuvent en permanence. Dans le cas des OGM, le consensus, reposant sur des dizaines de milliers de publications scientifiques concordantes sur des dizaines d’années, est sans équivoque. Évidemment, cela ne veut absolument pas dire qu’il faut arrêter les contrôles et les évaluations, ni mêmes abaisser leur qualité. L’objectif de la recherche scientifique est bien le contraire : toujours augmenter la masse de connaissances et la rigueur de leur analyse. Ce qui est certain, c’est qu’on ne peut pas décemment prétendre que ces données n’existent pas ou seraient trop peu nombreuses pour savoir.

Paradoxalement, ces questions pourraient bénéficier d’une activité scientifique encore plus importante si ce n’était l’opposition virulente sinon violente d’une fraction de l’opinion aux expérimentations publiques en plein champ. Cette double position des cercles militants à exiger plus de recherche publique tout en la vandalisant est absolument mortifère pour la science et le progrès technologique et humain. Il est inconcevable que les contributions humanitaires de la recherche publique en biotechnologie soient vandalisées et retardées par des groupes de pression militants sans motifs valables au péril et au plus grand mépris de populations nécessiteuses.

Tout aussi paradoxalement, les réglementations européennes qui planent sur l’ingénierie génétique sont extrêmement lourde. Ceci n’est pas fondamentalement mal. Mais cet état contribue de facto à empêcher au secteur public et aux startups d’émerger et de faire contre poids aux géants américains. Là encore, une double position ubuesque.

Cet état de fait est probablement la conjonction d’interactions complexes entre des phénomènes sociologiques, psychologiques, politiques, et de non représentation du consensus scientifique auprès du grand public. Tous ces facteurs doivent être pris en compte pour un débat constructif à propos de l’utilisation des biotechnologies à l’avenir. L’amélioration de la communication scientifique, une meilleure visibilité du consensus, et une présentation non biaisée de celui-ci dans les médias de masse, pourraient clairement changer la donne, comme ça a été le cas récemment au Royaume-Uni pour le lancement de champs de blé expérimentaux.

Si ce tour en poney GM vous a plu et que vous en avez retiré quelque chose, n’hésitez pas à le diffuser largement.

Biotechnologies et OGM : à quoi ça sert ?

*ainsi que quelques considérations sur le positionnement sceptique scientifique et la complémentarité du debunking et de la vulgarisation de tels sujets dans la communauté skepti…

J’essaie de relayer sur ce blog du contenu sceptique sur les sujets polémiques relatifs aux sciences de la vie et sciences médicales. Nécessairement, l’actualité dicte d’une certaine façon les sujets et les proportions dans lesquelles ils sont relayés. Dernièrement, la polémique « glyphosate » à nécessité quelques remises au point concernant les faits. Il peut en ressortir, indéniablement, une impression de circuit fermé, de caisse de résonance, comme le soulignait encore dernièrement Steven Novella sur NeurologicaBlog, (traduction ici), et qui n’est absolument pas l’apanage des communautés de tenants. Tomber dans cet écueil n’est évidemment pas la vocation de ce blog.

Face à ce type de polémique, la position sceptique la plus solide n’est pas d’être « pro » ou « anti ». Ces concepts sont des non sens, et faire du militantisme caricatural dans un sens ou dans l’autre ne participe pas à la compréhension intelligente de la problématique. Cette position sceptique ne consiste pas non plus à pratiquer le fence sitting (position probablement la plus pernicieuse, quel que soit le sujet), en invoquant le sophisme du faux équilibre et en faisant comme si le consensus scientifique n’existait pas (c’est par exemple particulièrement le cas sur un sujet comme l’homéopathie). En cela, je souscris totalement à la position expliquée par Marc Robinson-Rechavi dans l’épisode 169 de Podcast Science. Ce podcast vaut largement la peine d’être écouté intégralement, quelle que soit votre position sur le sujet.

Pour toute compréhension intelligente d’une problématique, il faut néanmoins accepter de faire l’effort de l’acquisition de quelques connaissances fondamentales sur le sujet. Or, ce débat n’a réellement cours qu’au sein de l’opinion publique, alors que le consensus scientifique semble rester stable sur la question. La tendance naturellement précautionniste de certains scientifiques peut s’entendre, mais la régulation est tellement minutieuse qu’elle est déjà jugée trop pesante par une partie de la communauté. Par ailleurs, ce précautionnisme n’enlève rien au consensus de la communauté dans son ensemble en dépit de certaines nuances portées sur les bénéfices de certaines cultures OGM.

Dans ces polémiques publiques, qu’il s’agisse d’interventions télévisées, radiophoniques, ou de discussions facebook, je suis toujours surpris par le néant abyssal qui semble constituer le socle de (non)connaissances des différents intervenants pourtant extrêmement sûrs de leurs positions. Du point de vue de l’honnêteté intellectuelle, peut-on intervenir et exprimer des avis catégoriques sur un sujet de ce type avec moins de connaissances scientifiques qu’un collégien de classe de 5e ? Mais encore, peut-on légitimement pester contre ce manque de connaissances si on ne participe pas soi-même à la diffusion des dites connaissances ?

Le debunking seul n’a pas grand sens si on ne propose pas dans le même temps de la connaissance fondamentale susceptible de prévenir la nécessité de debunking à l’avenir. C’est la vague histoire d’un gars à qui on apprend à pêcher plutôt que de lui donner des poissons, vous vous souvenez ? Ici, le poisson c’est le debunking, et la pêche, c’est les connaissances fondamentales. Aussi, on parle énormément des biotechnologies dans les médias, notamment les réseaux sociaux, mais je n’ai pas l’impression que ceux qui en parlent ou qui reçoivent ces informations comprennent réellement ce qu’ils disent et ce qu’ils entendent.

En les écoutant, j’ai personnellement le sentiment que les biotechnologies et les OGM, c’est quelque chose d’obscure et de mal, une sorte de souillure à la face d’une Déesse Gaïa idéalisée dans des envolées quasi christiques et millénaristes. Alors que de véritables Parabalanis verts détruisent des biens publics, je vois par exemple très souvent revenir des propos reposant sur la crainte de dévoiement des biotechnologies, et exigeant leur censure préalable et définitive. Ce type de position imagine beaucoup de choses quant à ce à quoi pourraient servir les biotechnologies, mais ne juge apparemment pas utile d’interroger ce à quoi elles servent vraiment, immédiatement, dans le monde réel. Sur la question de l’exigence de censure préalable de domaines scientifiques et techniques entiers de la part de certaines fractions de l’opinion publique, je reviendrai probablement ultérieurement. Avant donc de diffuser quelques informations d’ordre technique, je souhaite revenir sur les interactions multiples entre les biotechnologies et notre vie de tous les jours. Clairement, les biotechnologies et les OGM, à quoi ça sert.

Donc ce billet ne porte pas sur les problématiques politiques corrélées, mais non spécifiques aux OGM. Ce billet présente simplement les grands champs d’applications scientifiques et techniques de ce qu’on appelle mystérieusement « les biotechnologies », et a fortiori comment elles influencent notre vie de tous les jours.

Volontairement, je ne vais pas soulever les questions d’éthique relatives à chaque point. J’aimerai que le lecteur, quelle que soit son affinité préalable avec le sujet, parvienne à se formuler ces questions lui-même. Dans un second temps, je produirai un billet relatif à ces questions.

Les applications médicales

Les biotechnologies permettent l’identification de gènes dont les mutations sont responsables de maladies génétiques chez l’humain. Cela pourrait aboutir à de nouvelles avancées concernant le diagnostic et la prévention de ce type de maladies. La sensibilité génétique des individus joue également sur le développement de maladies non génétiques, comme le SIDA et l’arthrite, et toutes les maladies qui influencent l’expression génétique des cellules de l’organisme qui sont touchées. Toutes ces activations ou inactivations de gènes qui entrent en jeu dans un processus pathologique, représentent autant de cibles potentielles pour des traitements curatifs et préventifs de maladies gravement délétères. Pour rappel, le SIDA est l’une des trois premières causes de mortalité infectieuse dans le monde, avec 1,5 millions de décès en 2012 et 2013 et le VIH est l’agent infectieux le plus mortel au monde actuellement (pour rappel également, les personnes atteintes sont si affaiblies par le SIDA que c’est une autre infection opportuniste, habituellement bénigne, qui les tue). Aucune voie thérapeutique prometteuse n’est alors à négliger.

Diagnostics et traitements

Depuis quelques années, les biotechnologies ont permis de séquencer le génome du VIH. Or, sur la base de ce séquençage, on peut dorénavant amplifier (détecter) ce génome dans des échantillons de sang ou de tissu d’un patient.

Cette méthode de détection, qu’on appelle l’ACP (Amplification en Chaîne par Polymérase) permet de cibler des zones clef du génome d’un patient dont on sait qu’elles peuvent porter des mutations responsables de maladies génétiques. On peut ainsi détecter les mutations responsables de l’anémie falciforme, de l’hémophilie, de la mucoviscidose, de la maladie de Huntington, de la myopathie de Duchenne. De fait, on peut prévoir le développement de ces maladies chez un individu avant même l’apparition des premiers symptômes. On peut même le savoir pour un enfant avant sa naissance. Les possibilités de prévention thérapeutique sont ainsi immenses.

La détection de petites séquences ADN mutées permet de prévenir les risques accrus de cardiopathies, Alzheimer et cancers. Cependant, ces indications ne sont que des corrélations, et elle ne permettent pas de faire des prédictions absolues.

Par l’analyse de nombreux gènes chez les femmes touchées par le cancer du sein, on a ainsi pu montrer l’implication du mode d’expression de 70 d’entre eux dans l’apparition de la maladie. L’analyse de l’expression génique permet aux médecins et aux patients (un faible pourcentage d’hommes est aussi touché par le cancer du sein) de se reposer sur des informations valables quand vient le moment de choisir un traitement.

A l’avenir, ces techniques pourraient permettre le développement d’une véritable médecine personnalisée, où chaque patient pourrait connaître dans le détail ses propres facteurs de risque, et ainsi juger des meilleures mesures préventives à prendre pour sa santé.

La thérapie génique

Cette méthode consiste à réparer un gène défectueux à l’origine d’une maladie chez un patient. Il faut que la maladie n’ait pour origine qu’un seul gène défectueux, ce qui est plutôt rare, mais il est théoriquement possible de remplacer le gène responsable de la maladie par sa forme bénigne. Une première étude a été réalisée en France en 2000, pour 10 enfants souffrant de Déficit Immunitaire Combiné Sévère et traités par thérapie génique. Dans les deux ans, neuf d’entre eux présentaient une amélioration importante et définitive de leur état. Depuis, trois des enfants ont souffert d’une leucémie, et l’un d’eux en est décédé. On a aussi traité avec succès par thérapie génique des cas de cécité progressive et de dégénérescence du système nerveux.

Il est clair que ces perspectives thérapeutiques sont extrêmement stimulantes. Mais elles ne portent encore que sur très peu de cas, en terme de pathologies et de nombre de patients traités. L’optimisme doit donc rester extrêmement prudent.

La biopharmacie

L’utilisation des plantes médicinales est extrêmement ancienne. Dans les temps modernes, l’industrie pharmaceutique est née en parvenant à isoler des molécules biologiquement actives contenues dans les plantes. En 1897, la société Bayer a mis sur le marché l’acide acétylsalicylique, c’est-à-dire l’aspirine, qui était la forme synthétique de l’acide salicylique produit dans l’écorce de saule blanc. Ce « tout synthétique » n’a pas touché certains médicaments contre le cancer par exemple, comme le taxol, la vinblastine et la vincristine, provenant tous de sources végétales. Un retournement historiquement intéressant voit maintenant l’industrie pharmaceutique s’intéresser de nouveau à la production végétale grâce aux biotechnologies et aux OGM.

En 1990 a été produite la première protéine humaine produite par des plans de tabac et de pommes de terre OGM, la sérumalbumine. Depuis, plus de 20 protéines thérapeutiques ont été produites par des plantes OGM. Paradoxalement, le grand public semble ignorer qu’il ne s’agit ni plus ni moins que d’un revirement de l’industrie pharmaceutique du synthétique vers le bio grâce aux OGM.

Les biotechnologies permettent de fabriquer des petites molécules utilisées comme des médicaments. L’un de ces médicaments est l’imatinib, qui a permis la rémission durable et presque complète des patients souffrant de leucémie myéloïde chronique. On a aussi utilisé le même type de médicaments pour traiter avec succès certains cancers du sein et du poumon. Cette voie thérapeutique reste pour l’instant restreinte aux cancers dont les développements moléculaires sont suffisamment bien connus.

Ces produits pharmaceutiques protéiques sont fabriqués dans des cultures cellulaires, technique permise par les biotechnologies. Parmi les premières substances pharmaceutiques ainsi fabriquées, l’insuline et l’hormone de croissance humaine ont simplifié la vie de nombreux malades. L’insuline produite selon ces méthodes permet le traitement de plus de 200 millions de personnes à travers le monde. L’hormone de croissance quant à elle est une bénédiction pour les enfants atteints de certaines formes de nanisme par un déficit de production de cette hormone. Le tPA est un autre de ces médicaments, qui, s’il est administré suffisamment rapidement après une crise cardiaque, permet de dissoudre les caillots sanguins et réduit le risque d’une rechute. Pour rappel, les cardiopathies sont la première cause de mortalité dans le monde actuellement.

Parfois, pour assurer la production de suffisamment de médicaments, il est possible de les faire produire directement par des animaux. Pour cela, on transfère un gène provenant d’un animal dans le génome d’un autre, souvent d’une espèce différente, qui est alors dit transgénique. Il faut pour cela intégrer le gène d’expression recherchée dans un ovocyte de l’espèce réceptrice (et productrice) du médicament. L’ovocyte ainsi muni de son transgène est implanté chirurgicalement chez une mère porteuse de la même espèce. L’animal à naître, sera donc transgénique et exprimera son nouveau gène « étranger ». Les animaux deviennent alors de véritables producteurs de médicaments pour les hommes (ou pour d’autres animaux). On a par exemple inséré le gène codant pour une protéine sanguine humaine chez des chèvres, de sorte à ce que celles-ci fabriquent cette protéine, l’antithrombine, dans leur lait. Les très grosses quantités de protéines ainsi produites sont par ailleurs beaucoup plus faciles à purifier que si elles étaient produites par culture cellulaire. Les patients souffrants d’un déficit de production de cette protéine et sujets à la formation de caillots dans leurs vaisseaux sanguins peuvent ainsi être traités efficacement grâce à ces chèvres transgéniques productrices de médicaments. Évidemment, les animaux producteurs ne sont pas choisis au hasard. En l’occurrence, les chèvres se reproduisent plus vite que des bovins, et produisent plus de protéines du lait que d’autres mammifères à la reproduction plus rapide comme les lapins. Le choix des animaux « pharmaceutiques » repose donc sur le meilleur compromis. Les protéines produites par les animaux pharmaceutiques peuvent parfois êtres légèrement différentes de leur version humaine. Il est donc nécessaire de les tester minutieusement pour s’assurer que les patients ne souffriront pas d’effets secondaires allergiques ou d’autres contaminations.

Campbell, 2009
Campbell, 2009

Les enquêtes judiciaires

Vous connaissez Les Experts, NCIS, Bones ? Au-delà de la vision très fantasmée et US-fan de ces professions, les identifications moléculaires que les héros de ces séries télé sont souvent portés à faire lors de leurs enquêtes depuis une vingtaine d’années, relèvent également des biotechnologies.

Sur les scènes de crime en effet, les experts s’appliquent à rechercher des traces organiques laissées par les criminels : sang, salive, sperme, cheveux… Il est ainsi possible de les analyser et d’identifier les groupes sanguins ou tissulaires de leur propriétaire grâce à des marqueurs protéiques. Évidemment, de nombreux individus ont des groupes sanguins ou tissulaires identiques, et ces méthodes ne peuvent servir qu’à innocenter des suspects, et non pas à prouver leur culpabilité.

Les traces d’ADN, qui est également une molécule, sont quant à elles beaucoup plus fiables, car chaque individu possède une séquence ADN qui lui est propre, sauf dans le cas de vrais jumeaux.

A l’aide de ces différents marqueurs moléculaires, les experts peuvent dresser le profile génétique d’un suspect. Le FBI utilise ces méthodes d’identification depuis 1988. Aujourd’hui, ces spécialistes utilisent des méthodes toujours plus fines et précises, en se reposant notamment sur la reconnaissance de toutes petites portions d’ADN spécifiques à chaque individu, qu’on appelle les Répétitions Courtes en Tandem. C’est très pratique, car cela permet d’identifier des individus même lorsque l’ADN est très abimé, dans le cas par exemple d’un accident quelconque où les traces moléculaires auraient consécutivement subi l’action d’un incendie et de l’eau utilisée par les pompiers pour en venir à bout. Ce sont ces méthodes qui ont été utilisées très récemment pour identifier les victimes du crash d’un Airbus A320 de la Germanwings dans les Alpes françaises. Le plus gros travail d’identification génétique jamais réalisé à suivi les attentats du World Trade Center en 2001, pour lequel plus de 10 000 échantillons de restes humains ont été comparés avec des effets personnels fournis par les familles de victimes, comme des brosses à dents, des brosses à cheveux, etc.. Près de 3000 victimes ont ainsi pu être identifiées.

Dans les enquêtes criminelles, ces méthodes permettent des comparer des échantillons de la scène de crime, du suspect, et de la victime. La probabilité pour que plusieurs personnes présentent les mêmes Répétitions Courtes en Tandem sur leur séquence ADN est si faible (de 1 sur 10 milliards à 1 sur plusieurs billions, et la population mondiale compte environ 7 milliards d’individus) qu’il s’agit d’un niveau de preuve acceptable pour valider une identification judiciaire.

Ces mêmes tests sont également utilisés dans les affaires de paternité.

La dépollution de l’environnement

Il s’agit d’utiliser la capacité de certains microorganismes à transformer des substances chimiques dont elles se nourrissent naturellement. Lors de leur digestion, ces substances sont transformées en composés beaucoup moins nocifs et/ou beaucoup plus faciles à traiter. Généralement, les besoins nutritifs de ces microorganismes ne suffisent pas à les utiliser dans des opérations de dépollution. Il s’agit alors de transférer leurs gènes codant l’expression métabolique recherchée à d’autres microorganismes produits en quantité suffisante. Ces bactéries transgéniques deviendront ainsi des agents de protection de l’environnement très efficaces. Certaines d’entre elles sont ainsi capables de digérer des métaux lourds (cuivre, plomb, nickel) présents dans leur milieu pour les transformer en composés aisément traitables comme les sulfates de cuivre et de plomb. Ces microOGM pourraient ainsi jouer un rôle de plus en plus important dans le domaine minier, dans le traitement des déchets hautement toxiques, etc.. Les chercheurs essaient de permettre à ces microOGM de dégrader les hydrocarbures chlorés. Ils pourraient être utilisés dans les stations d’épuration et les industries polluantes.

L’agronomie

Tout ce qui se trouve dans vos assiettes est le fruit de 10 000 ans de domestication par les humains. Je serai incapable de citer de tête un seul aliment couramment consommé et qui n’a pas été drastiquement modifié depuis le début du Néolithique. J’ai pu montrer dans un autre billet le cas de la forme pré-domestique du maïs, la téosinte, qui n’a plus rien à voir avec sa forme actuelle. Il s’agit directement de l’action de l’homme. Il en va de même pour toutes les variétés abusivement appelées « anciennes » (en fait très récentes), et qui étaient déjà le produit de la sélection artificielle il y a 50 ans, 100 ans, ou 200 ans. Il y a donc un non sens fondamental à opposer ce qui serait « naturel » à ce qui serait « pas naturel (produit par l’homme) », ou ce qui serait « moderne » (et mauvais) et ce qui serait « ancien » (et bon). Ces conceptions idéalisées ne correspondent à aucune réalité biologique. Prétendre que ce qui est moderne serait forcément bon, et ce qui est ancien forcément mauvais, serait tout autant un non sens.

Grâce aux biotechnologies, cette sélection artificielle, pratique ancestrale datant du Néolithique, est de plus en plus améliorée par la sélection assistée par des marqueurs moléculaires. En effet, vous savez maintenant qu’il est possible de reconnaître des zones d’intérêt très précises sur un génome. Il est donc possible de détecter les marqueurs de mutations d’intérêt dans un cheptel pour ne sélectionner à la reproduction que les bêtes rigoureusement susceptibles de présenter les traits recherchés pour la sélection. Il peut s’agir de marqueurs ADN corrélés à une production plus importante de laine chez les moutons, à une viande moins grasse chez les bovins, etc..

Il est également possible de produire des animaux et des et plantes transgéniques. Comme dans le cas de la chèvre pharmaceutique expliqué plus haut, il s’agit d’introduire un gène d’intérêt présent chez une espèce au sein d’une autre espèce. Pour des raisons techniques (de la biologie cellulaire), il est beaucoup plus facile de produire des plantes transgéniques que des animaux transgéniques. C’est la raison pour laquelle l’écrasante majorité des applications agricoles concernent des plantes génétiquement modifiées.

Ainsi, l’extrême majorité des cultures OGM actuelles à travers le monde sont des espèces végétales modifiées pour augmenter leur résistance aux herbicides et aux insectes ravageurs. Le soja modifié représente 60% de toutes les surfaces cultivée en OGM dans neuf pays, et 90% aux USA. Ces cultures initialement développées aux États-Unis se sont étendues à l’Asie. L’Europe pour sa part vient à peine d’autoriser les toutes premières commercialisations et productions d’OGM alimentaires commerciaux. Parmi les bénéfices sans précédents apportés par ces cultures OGM, la diminution drastique de l’épandage de pesticides « chimiques », la limitation des émissions de CO2 et la diminution du labour. Vous pouvez lire un précédant billet à ce propos. En Inde par exemple, on a pu insérer dans le génome de plusieurs espèces de riz un gène de résistance à la salinité de l’eau présent dans une plante de mangrove côtière. Le riz ainsi produit est capable de croître dans des rizières au taux de salinité trois fois plus élevé. Or, 1/3 de toutes les terres irriguées souffrirait de salinité excessive en raison d’une irrigation incontrôlée et de l’usage trop important d’engrais chimiques, ce qui représente une menace pour l’approvisionnement alimentaire. Ces plans de riz résistant pourraient être d’un intérêt majeur dans la prévention de ces risques.

L’exemple du riz doré

Le riz doré est un bon exemple de bénéfice public d’application des biotechnologies à la production d’OGM alimentaires. L’OMS estime à environ 200 millions le nombre d’enfants d’âge préscolaire affectés de carence en vitamine A, dont environ 5 millions sont atteints de cécité. Cette carence est particulièrement marquée dans les pays en développement où la nourriture de base est le riz.

La production d’un riz transgénique doté de gènes codant la fabrication de bêta-carotène qui se décomposera dans l’organisme en vitamine A, présente des espoirs majeurs pour faire reculer ces carences et cécités infantiles. Des chercheurs sont en effet parvenus à insérer des gènes exprimant la production de cette bêta-carotène à la surface des grains de riz venant de deux variétés de jonquilles et une espèce de bactérie. Cette nouvelle fonction métabolique, qui donne à ce riz sa couleur orangée, est un total succès en cela qu’elle n’entrave en rien sa production comme on pouvait le craindre : l’introduction de cette voie biochimique ne change en rien le métabolisme normal de la plante. Une deuxième version a été obtenue, produisant plus de bêta-carotène, en remplaçant le gène de jonquille par un gène de maïs.

Ce riz doré à été obtenu par une institution publique suisse et n’a fait l’objet d’aucun dépôt de brevet. Depuis, le riz doré a été amélioré plusieurs fois par des groupes publics et privés, et ces formes sont également disponibles gratuitement sans contraintes commerciales.

De multiples innovations de cette sorte sont actuellement en développement.

To be continued…

Je n’ai pas pu dans cette présentation parler de tous les exemples extrêmement prometteurs de différents OGM : les vaccins ADN, les vaccins en sous unité, les animaux domestiques transgéniques, les aliments bio fortifiés dont on améliore les vertus nutritives, etc.. De tous ceux là, je donnerai des exemples détaillés dans d’autres billets. Ici, il s’agit de donner une vision d’ensemble assez simple de ce à quoi servent vraiment les biotechnologies et les OGM, et la place qu’ils ont déjà dans nos vies (des milliards d’êtres humains et d’animaux) depuis des dizaines d’années : médicaments, aliments, aliments de nos aliments…

Nous n’en sommes qu’aux balbutiements d’innovations technologiques fantastiques dans les entreprises publiques de lutte contre la maladie, la pollution, la malnutrition et les inégalités de développement.

Dans cette toute jeune marche de l’Humanité vers le progrès, entamée depuis la seconde moitié du XIXe siècle, le rôle de l’institution publique, garante autant que faire se peut de transparence, de neutralité et d’équité, est de tout premier ordre dans l’application raisonnée de ces progrès scientifiques et techniques pour le bien commun.