Vaccins = Danger, les preuves scientifiques

VACCINATION, DANGER, AUTISME, THIOMERSAL, MERCURE, ALUMINIUM, FORMALDEHYDE, PETITION, BIG PHARMA, DOUREIOS HIPPOS !!!!!!

Il y a quelques semaines a été lancée une pétition contre les vaccins. En effet, beaucoup de dangers planent sur ceux-ci, et ils sont très bien connus et évalués par la communauté scientifique. Le consensus scientifique à leur propos est clair et massif. Voyons ce qu’il en est.

Les vaccins causent l’autisme

En 1998, un chirurgien britannique, Andrew Wakefield, a publié une étude dans The Lancet, prestigieux journal médical, qui faisait un lien entre le vaccin ROR et l’autisme.

Évidemment, la communauté scientifique alertée s’est penchée sur le danger supposé. Il s’est assez rapidement avéré que personne à travers le monde ne pouvait reproduire les résultats de Wakefield. Et pour cause, son étude à la méthodologie déjà très mauvaise et présentant de très graves problèmes d’éthique, était en outre l’objet de falsifications produites dans le but d’en tirer des bénéfices commerciaux.

Aucune étude entreprise par la suite n’a jamais confirmé de lien supposé entre la vaccination et l’autisme. Les causes de l’autisme sont encore assez mal connues, mais on sait désormais que les signes de syndromes autistiques apparaissent chez les enfants avant la prise du vaccin, et que l’augmentation présumée des cas d’autisme n’est pas corrélée à l’introduction vaccinale, mais d’abord et avant tout à l’amélioration des capacités diagnostiques à ce propos.

En conclusion : en l’état actuel des connaissances, le consensus scientifique est très clair et massif sur le sujet, la vaccination ne cause pas l’autisme, pas plus qu’aucune autre maladie grave souvent alléguée comme Alzheimer ou différents types de cancers.

L’immunité naturelle est plus efficace que la vaccination

Être exposé à une maladie peut en effet donner une immunité très forte. Mais cela n’en demeure pas moins dangereux. En étant exposé naturellement à la rougeole au motif d’acquérir l’immunité contre cette maladie, vous avez 0,1 à 1 chance sur 1000 de mourir (c’est beaucoup ! dans les pays en développement, ce risque est encore plus grand, de l’ordre de 7,5 décès en moyenne pour 1000 cas, et peut atteindre des pics importants). Avec la vaccination, ce risque tombe à 0%, et sans développer les symptômes de la maladie. Au final, la vaccination nous évite en France 76 à 760 décès annuels pour cette seule maladie.

En conclusion : l’état actuel des connaissances scientifiques nous apprend que comme pour tout médicament, un vaccin peut présenter des effets secondaires. Dans l’exemple du vaccin contre la rougeole, si les effets secondaires bénins (fièvre, rougeur au niveau de la piqure…) sont relativement fréquents (10-15%), les effets secondaires graves sont beaucoup plus rares, et leur fréquence est bien inférieure à celle des complications graves liées à la maladie. In fine, la balance risques/bénéfices reste positive pour la vaccination.

Les vaccins contiennent des « toxines »

Beaucoup de peurs sont agitées au motif que les vaccins contiennent des produits apparemment nocifs, comme le mercure, l’aluminium, et le formaldéhyde. Certains de ces produits ont effectivement un effet potentiellement nocif, tout comme le monoxyde de dihydrogène. Ce dernier est pourtant largement ignoré du grand public, alors qu’il cause la mort de nombreuses personnes chaque année, et que la population mondiale y est fortement exposée à chaque instant.

En réalité, il ne faut pas oublier le principe de Paracelse. La dose fait le poison. Ces produits sont bien connus et évalués en permanence, et s’ils se trouvent dans les vaccins, c’est parce qu’ils y sont bien utiles en plus d’y être inoffensifs.

Ces trois produits sont contenus dans une dose extrêmement faible dans les vaccins, bien en dessous de tout seuil de toxicité. Pire encore, le formaldéhyde par exemple, s’y trouve très en dessous du taux de formaldéhyde contenu naturellement dans notre corps ou dans certains fruits et légumes comme les poires. Le taux de formaldéhyde naturellement et continuellement présent dans le sang est ainsi d’environ 2,74 mg par litre. Un jeune enfant possédant un volume sanguin d’environ 2 à 3 litres porte donc naturellement 5 à 9 mg de formaldéhyde sanguin. Si on prend l’exemple du vaccin anti grippal Fluzone de Sanofi-Pasteur qui a fait l’objet de memes sur internet mettant en avant le fait qu’il contienne du formaldéhyde en quantités traces, c’est environ 1 000 000 (1 million) de fois plus que la dose se trouvant dans le vaccin. Pour tout juste arriver à augmenter ce niveau naturel, il faudrait injecter d’un coup 10 millions à 20 millions de doses de vaccins à l’enfant. Le seuil de toxicité potentielle du formaldéhyde étant de 0,2 mg par kg et par jour, un jeune enfant de 20 kg pourra absorber 4 mg de formaldéhyde par jour sans que cela soit encore dangereux, soit l’équivalent de 1 million de doses de vaccin par jour. Il s’agit ici de répondre à des inquiétudes dénuées de toute base critique, comme ça peut l’être dans le cas de peurs fondées sur une mauvaise interprétation du concepts de trace et des ordres de grandeurs. Mais dans tous les cas, quel que soit le vaccin considéré, le niveau de formaldéhyde circulant naturellement dans le corps d’un jeune enfant serait toujours 50 à 70 fois plus élevé que la quantité contenue dans le vaccin, et donc très en dessous des seuils toxiques.

On retrouve les mêmes principes pour les autres produits incriminés.

En conclusion : une connaissance scientifique très basique (savoir reconnaître des unités de mesures simples) et la compréhension du principe de Paracelse permettent de saisir l’inanité des allégations sur le danger des produits contenus dans les vaccins. Par ailleurs, ces produits sont perpétuellement évalués, leurs dangers sont connus, et le consensus scientifique est extrêmement clair : ces produits, aux doses présentes dans les vaccins, ne présentent aucun risque pour la santé, notamment en ce qui concerne les allégations infondées de risques d’autisme et le thiomersal.

L’amélioration de l’hygiène et de la qualité de vie explique la disparition des maladies infectieuses

L’amélioration de l’état pathologique des populations est évidemment poly factorielle. Du XIXe au XXIe siècles, la vaccination n’a pas été la seule avancée médicale, bien qu’elle fut absolument majeure. On a également fait quelques progrès notables du point de vue de l’hygiène publique, de l’urbanisme, de la prise en charge médicale, de la chirurgie… Tous ces éléments jouent bien entendu à différents niveaux sur le taux de mortalité des maladies infectieuses. Il est cependant possible d’isoler chaque paramètre et d’évaluer l’importance de chacun. On voit dès lors que la vaccination reste l’élément central et essentiel permettant l’éradication des infections.

Si l’on reprend l’exemple de la rougeole aux USA par exemple, on voit qu’avant 1963, la date d’introduction du vaccin, la prévalence de la maladie était de plus de 400 000 cas par an. Les standards d’hygiène étaient alors très semblables à ceux que nous connaissons aujourd’hui. En 1970, cette prévalence n’est plus que de 25 000 cas par an, 71 en 2009.

En conclusion : si nos conditions de vie actuelles rendent la maladie moins insupportable que par le passé, elles ne permettent pas de l’éviter. Les effets de l’introduction de la vaccination sont très bien connus, majeurs, et seuls responsables des véritables éradications que nous connaissons aujourd’hui.

Les risques de la vaccination sont supérieurs à ses bénéfices

Comme on l’a déjà évoqué plus haut, tout médicament quel qu’il soit comporte des risques secondaires. Ceux liés à la vaccination sont rarissimes en plus d’être bénins dans la plupart des cas. Quoi qu’il en soit, ces risques sont incomparablement plus faibles que ceux encourus en l’absence de vaccination, dont les complications et issues fatales sont parfois assurées.

En conclusion : en l’état actuel des connaissances, la vaccination n’est associée à aucun risque grave ou courant. Ces risques dérisoires sont par ailleurs à mettre en rapport avec les bénéfices écrasants de la vaccination, par exemple en ce qui concerne le vaccin contre la grippe.

Le vaccin peut donner la maladie contre laquelle il est supposé protéger

Parmi les rares effets secondaires des vaccins (tous les médicaments ont des effets secondaires), certains peuvent rappeler les symptômes provoqués par la maladie contre laquelle doit protéger le vaccin. En ce qui concerne les vaccins désactivés, c’est-à-dire ceux dans lesquels le microbe a été tué, c’est tout simplement impossible. Pour les vaccins vivants, c’est théoriquement possible, mais les symptômes observés sont provoqués par le vaccin, et non pas la maladie réellement entrain de se développer. Dans ce dernier cas, la réaction montre tout simplement de façon visible que la réaction immunitaire attendue a bien été provoquée. En effet, le gonflement, la rougeur et la sensation de chaleur sont les premiers signes visibles d’une réaction immunitaire localisée, exactement comme à l’endroit d’une piqure d’insecte.

On ne connait qu’un seul cas supposé de risque (toujours extrêmement faible), de maladie développée à la suite d’un vaccin devant la prévenir, celui de l’OPV qui a été retiré de la circulation par précaution, et ce malgré des bénéfices énormes pour la santé des enfants à travers le monde.

En conclusion : la sécurité des vaccins notamment au regard du risque de provoquer la maladie contre laquelle ils doivent combattre est très strictement évaluée. Certaines de ces peurs reposent sur des non-sens biologiques (cas des microbes désactivés), et restent dans tous les cas infondées au regard des contrôles stricts et massifs pré et post introduction.


OGM = Danger, les preuves scientifiques

LA VERITE SUR LE ROUNDUP, HERBICIDE, MAÏS BT, COTON BT, SOJA BT, SUPERWEED, CONTAMINATION, MONSANTO, PESTICIDE, BIODIVERSITE, EQUUS TROJANUS !!!

Figure 1 Image tirée du documentaire intitulé « GMO OMG » de Jeremy Seifert, reviewé sur ce lien.

Très souvent, dans le milieu des opposants aux OGM, j’entends dire qu’on n’a pas assez de preuves scientifiques sur les dangers des OGM, qu’on ne sait pas, qu’il n’y a pas d’études, qu’on n’a pas prouvé l’innocuité des OGM, etc.. Mais les camarades qui disent cela se trompent lourdement. En réalité, la documentation scientifique sur les dangers des OGM est énorme. Ceci s’explique par le fait que les OGM sont les produits biologiques les plus suivis au monde depuis 30 ans. Aussi, on cumule les données observationnelles et expérimentales. Il existe des milliers d’études sur les OGM, et des centaines d’entre elles évaluent leur danger. Bien entendu, une partie de ces études est financée par l’industrie. Mais au moins autant sont entreprises par des universitaires sur des budgets de la recherche publique.

De fait, les articles scientifiques indépendants de l’industrie et posant la question des dangers des OGM sont légions. Depuis les premiers travaux sur les OGM jusqu’en 2006, 31 848 articles scientifiques avaient été publiés sur le sujet. Le problème est que l’évaluation des dangers des OGM repose sur une approche multidisciplinaire, ce qui a tendance à diluer la visibilité de telles recherches déjà dans le domaine scientifique, mais encore plus auprès du grand public. Un journal peer review spécifique ainsi qu’une base de données dédiée à ces recherches ont donc été créés.

Le consensus scientifique sur le danger des OGM est très clair, comme il a pu être mis en évidence par une revue bibliographique sur tous les articles scientifiques publiés entre 2002 et 2012, soient 1783 articles comprenant des travaux de recherche et d’autres revues bibliographiques.

Nicolia et al., 2013
Nicolia et al., 2013

On peut voir que les études portant sur les dangers des OGM sont assez bien balancées entre les interactions OGM-environnement (47,5%) et les interactions OGM-humains (43,2%). A l’intérieur de ces deux grandes catégories, plusieurs thèmes sont abordés.

Les dangers pour la biodiversité

C’est le thème le plus fouillé par les scientifiques (68,4%) dans la catégorie des interactions OGM-environnement. On commence donc à connaître beaucoup de choses sur les dangers des OGM pour la biodiversité.

Comme vous le savez, la plupart des Plantes Génétiquement Modifiées (PGM) le sont pour devenir résistantes à des herbicides, comme le Roundup, ou pour produire des toxines insecticides, comme les semences Bt. Les scientifiques évaluent donc en permanence les dangers que cela peut représenter aux travers de données observationnelles et expérimentales.

La littérature évaluant ces dangers pour la faune, qu’il s’agisse des oiseaux, serpents, insectes non ciblés par les insecticides, microfaune du sol, etc., est extrêmement importante. Une revue de cette littérature montre bien les quantités de preuves sur les dangers des OGM : rares ou inexistantes. Les impacts négatifs qui ont pu être mis en évidence ont par ailleurs été critiqués pour leur faiblesse statistique et leurs extrapolations abusives.

Les OGM-herbicides et insecticides provoquent naturellement une baisse de la biodiversité au regard des cibles de ces pesticides. C’est en effet parfaitement logique et le même résultat est attendu en agriculture conventionnelle ou bio. Quel que soit le moyen de lutte utilisé, il conduit nécessairement à la diminution des cibles dans la zone d’utilisation. Cela démontre simplement l’efficacité de ces méthodes. Il est notable de constater que cette baisse de la biodiversité des cibles est généralement plus grande en agriculture utilisant des variétés non OGM, car les pesticides chimiques utilisés sont plus toxiques et persistants dans l’environnement. A ce propos, l’utilisation des « pesticides OGM » a permis une très large diminution de l’utilisation des pesticides chimiques conventionnels dans le monde, et donc une importante réduction de la pollution.

Le danger que représentent les OGM en termes d’apparition de plantes résistantes aux herbicides, les superweeds, ou d’insectes ravageurs résistants aux insecticides sont également bien évalués. Mais en réalité, ces problèmes bien connus ne sont pas spécifiques aux produits OGM. La théorie de l’évolution nous apprend effectivement que la pression sélective continue sur les individus, provoque nécessairement une adaptation continue. Ainsi, il semble peu probable qu’une solution de lutte contre un nuisible biologique ne soit jamais définitive. Il s’agit alors d’établir une gestion intelligente de différentes méthodes de lutte combinées pour éviter l’apparition de résistances. C’est ce qu’on appelle la course à l’armement. Ces dangers sont exactement les mêmes en agriculture conventionnelle ou biologique. Ils ne représentent pas une spécificité des OGM. Les techniques de l’un ou l’autre mode d’agriculture peuvent très bien être utilisées de manière combinée de sorte à réduire à la fois les pollutions et les risques de résistance.

En conclusion sur les dangers des OGM pour la biodiversité, il est notable de constater que les craintes communément soulevées ne sont pas justifiées. En outre, la diminution de la pollution grâce aux champs OGM est favorable à la biodiversité. Clairement, cette pratique ne présente aucune différence néfaste avec celles utilisées traditionnellement par l’homme depuis le Néolithique.

La contamination

Des plantes non OGM peuvent fertiliser des plantes OGM et vice-versa. Ceci se passe en permanence dans la nature entre des plantes non OGM. On appelle ça la reproduction. Lors du processus de reproduction, des gènes sont échangés et transmis aux générations suivantes. On parle de flux de gènes, processus improprement appelé « contamination » par les opposants, durant lequel des transgènes peuvent circuler et se fixer dans une population de plantes sauvages par introgression. Dans la littérature sur les dangers des OGM, les flux de gènes représentent 31,6% des publications relatives aux interactions OGM-environnement. C’est clairement un sujet très chaud qui est suivi sans relâche et dont le nombre de publications est en augmentation depuis 2006. Beaucoup de personnes craignent que ce flux de gènes soient nocifs. Qu’en est-il réellement ?

Beaucoup de facteurs conditionnent une telle possibilité : le mode de reproduction des plantes OGM, la présence ou non à proximité de plantes sauvages sexuellement compatibles, et la viabilité de tout hybride potentiel. Plusieurs exemples d’introgressions de ce genre ont déjà été documentés. Ce danger est bien connu. Plusieurs stratégies combinées existent pour le limiter : la stérilité des plans mâles, la désynchronisation de la floraison, l’introduction de gènes défavorables… Mais aucune de ces méthodes seule n’est totalement efficace pour interdire l’introgression d’un transgène dans une population sauvage.

Quoi qu’il en soit, le suivi intensif de ces dangers n’a encore jamais détecté d’effets défavorables de l’introgression d’un transgène dans une population sauvage. Par ailleurs, et exactement comme je l’ai dit plus haut concernant l’apparition de résistances, ce problème n’est absolument pas spécifique aux OGM. Il existe de nombreux exemples documentés d’hybrides non OGM naturellement invasifs et d’apparitions de résistances aux herbicides dans des populations sauvages sous l’effet de mutations aléatoires et naturelles.

Pour produire des plantes OGM, il est souvent nécessaire de recourir à un gène de résistance aux antibiotiques qui agit comme marqueur dans les cultures cellulaires, de sorte à pouvoir sélectionner uniquement les cellules porteuses du transgène et a fortiori résistantes à l’antibiotique. Il est donc raisonnable de penser que ce gène de résistance aux antibiotiques, transféré jusque dans le PGM final, puisse in fine passer dans le sol lors de la dégradation des restes végétaux et entrer en contact des bactéries du sol. Or, on sait parfaitement que les bactéries sont naturellement capables d’intégrer à leur génome de l’ADN exogène rencontré dans leur environnement. C’est ce qu’on appelle le transfert de gène horizontal. Le danger, bien entendu, serait alors que des bactéries intègrent ce gène de résistance aux antibiotiques, et que l’on se retrouve avec des bactéries ultra pathogènes et résistantes.

Cependant, les investigations menées en laboratoire jusqu’à présent montrent que cette intégration se fait à un rythme extrêmement lent, alors que les expérimentations en plein champ n’ont pu montrer aucune preuve de ce phénomène.

De plus, dans le cas apparemment très improbable où un tel scénario arrivait, cela n’affecterait pas les populations de bactéries déjà présentes dans le sol et naturellement résistantes aux antibiotiques, ni n’impliquerait de risques additionnels pour les humains ou les animaux.

Le génie génétique prévoit en outre l’utilisation d’autres types de marqueurs génétiques que des gènes de résistance aux antibiotiques, et l’élimination de tous les gènes non désirés en bout de chaîne dans le génome final de la plante OGM.

En conclusion sur les risques de contamination, nous pouvons dire qu’ils sont tout à fait identiques à ceux de l’agriculture conventionnelle et biologique traditionnellement pratiquées. Le terme de « contamination » est en fait scientifiquement inexact, et ne fait que décrire un processus naturel non dangereux.

Les dangers pour les hommes et les animaux

L’équivalence en substance recouvre un aspect crucial de l’évaluation des risques liés aux OGM. L’équivalence en substance est la procédure stricte de vérification des effets créés par le transgène introduit dans un OGM. Cette procédure implique la comparaison de l’OGM avec la même plante non transgénique, possédant le même génotype moins le transgène. L’équivalence en substance, n’est donc absolument pas, comme on peut le lire sur le web, une norme attribuée gratuitement. C’est une procédure fondamentale de vérification de la conformité nécessaire à l’autorisation de mise sur le marché.

Cette procédure suit deux grandes étapes. D’abord, l’OGM est testé pour ses propriétés agronomiques, morphologiques et chimiques, telles que ses micro et macronutriments et ses protéines toxiques. Cette étape fixe la nécessité ou non de poursuivre des analyses sur les qualités nutritives de l’OGM. Tout écart qui tombe dans la variabilité naturelle de la plante non OGM est logiquement considéré comme sûr. Cette procédure est validée et reconnue internationalement. Si des différences ne recouvrant pas la variabilité naturelle de la plante non OGM sont détectées, elles doivent être analysées pour évaluer leur danger.

Cette procédure a été utilisée jusqu’à maintenant, et atteste donc de l’équivalence des plantes OGM avec leur version non OGM moins le transgène intégré. C’est ainsi que l’on sait que toutes les PGM mises sur le marché sont équivalentes à leur forme non OGM. Il ne s’agit pas d’une décision arbitraire.

L’équivalence en substance est fondamentale dans toute étude de conformité de produits OGM et est l’objet d’un consensus scientifique sans équivoque.

Il est notable que la littérature scientifique portant sur l’équivalence en substance est essentiellement composées des recherches produites par les firmes de biotechnologie. Ce constat est logique, dans la mesure où la puissance publique exige que les compagnies privées financent elles mêmes la mise aux normes des produits qu’elles souhaitent mettre sur le marché. Sans quoi, le contribuable devrait s’attendre à financer ces études, de sorte à ce qu’il se retrouve à payer les compagnies privées pour lui vendre des produits, et donc passer à la caisse deux fois. Bien que financées par les compagnies, ces procédures de conformité doivent être soumises au contrôle des instances de régulation publiques.

Depuis 2009, de plus en plus de procédures de contrôle, basées sur des tests d’équivalence non ciblés, en termes de transcriptomique, protéomique et métabolomique, se multiplient. Ces méthodes sont en cours de développement et ne sont pas encore harmonisées internationalement, de sorte à ce qu’on ne puisse pas encore en retirer des données utilisables. En l’état, le principe d’équivalence en substance reste une base très solide aux procédures de contrôle. Mais les transgènes et leurs produits sont bien entendu contrôlés eux aussi.

En conclusion sur l’équivalence en substance, nous pouvons dire qu’il s’agit d’un processus fiable et internationalement reconnu pour s’assurer par des analyses rigoureuses que le produit OGM est strictement identique au même produit non OGM. L’analyse du transgène est logiquement réalisée à part entière, en plus de l’équivalence en substance.

Les dangers pour la consommation représentent une part très importante de la littérature scientifique sur le sujet. Leur proportion par rapport aux autres thèmes reste constante, mais un pic de publication à ce sujet a été observé en 2008, à la suite de la ferveur scientifique occasionnée par les recherches expérimentales publiées par les compagnies en 2006.

Les dangers supposés des OGM pour la consommation peuvent se regrouper en trois aspects : l’innocuité du transgène inséré et de sa transcription en ARN, l’innocuité de la protéine transcrite par le transgène, et l’innocuité des changements attendus et inattendus sur les cultures. En d’autres termes, l’ADN transgénique et les protéines qu’il fabrique peuvent-ils être toxiques et mauvais pour la santé ?

Concernant l’innocuité de l’ADN, il faut savoir que celui-ci est contenu dans le régime alimentaire normal, qu’il soit issu de l’agriculture conventionnelle ou biologique, de sorte à ce que chaque humain consomme entre 0,1 et 1 gr d’ADN par jour quelle que soit sa diète. Cet ADN peut être détruit par la digestion, activer le système immunitaire, ou promouvoir la formation de biofilm bactérien. Des inquiétudes sont régulièrement soulevées quant à la possibilité pour un transgène de transférer une résistance antibiotique aux bactéries entériques selon les principes expliqués plus haut à propos des bactéries du sol, ou quant à sa translocation et accumulation dans le corps humain. Il est nécessaire une nouvelle fois de remettre les choses dans leur contexte.

D’abord, ce mécanisme n’est pas propre à un gène venant d’OGM. Ensuite, un transgène est totalement dilué dans la masse de l’ADN ingéré naturellement, à hauteur de 0,00006% à 0.00009%, et est digéré comme n’importe quelle autre partie de l’ADN. Par ailleurs, la préparation de la nourriture, cuisson, friture, ébullition, dégrade déjà préalablement les molécules d’ADN, transgénique ou pas, avant même leur ingestion. On sait expérimentalement que le transfert horizontal de transgène par les bactéries entériques des humains et des animaux est quant à lui rarissime. Si le scénario du pire arrivait, il est a noter que la résistance antibiotique utilisée pour les PGM ne représente pas de danger pour la santé des humains et des autres animaux. Il arrive naturellement que des molécules d’ADN passent la barrière intestinale lors de la digestion, mais ce phénomène n’a été observé que dans de très rares cas où un très grand nombre de copies d’un même gène se trouvait présent et dont des exemplaires étaient retrouvés dans des tissus et des organes de différents animaux ainsi que du lait de vache. Chez les humains, on a déjà pu observer le passage à travers la paroi intestinale d’un gène de lapin se trouvant dans un très grand nombre de copies. Le passage d’un transgène à travers la paroi intestinale à déjà pu être observé également, notamment chez le cochon et la truite arc-en-ciel, mais en micro quantités et avec de forts soupçons de contamination croisée lors des analyses. Dans la majorité des études conduites jusqu’à présent, il n’a pas été possible de retrouver des fragments de transgènes dans aucun produit animal dérivé. Il n’existe encore aucune preuve à ce jour de passage d’ADN à travers la paroi intestinale et d’intégration de celui-ci au génome des cellules de l’organisme hôte.

Clairement, l’ADN transgénique ingéré par la consommation d’OGM ne diffère en rien, intrinsèquement ou physiquement de n’importe quel autre ADN non transgénique déjà présent dans l’alimentation et n’implique aucun risque supérieur à l’ingestion de n’importe quel autre ADN non transgénique, qu’il vienne de produits de l’agriculture conventionnelle ou biologique.

Quand aux inquiétudes sur l’ingestion de transcrit ARN transgénique, les observations sont les mêmes que celles qui viennent d’être faites à propos de l’ADN. Un unique cas original est en cours d’investigations supplémentaires.

L’ADN transgénique induit pour la PGM recevant le transgène, la biosynthèse d’une protéine transgénique. On peut raisonnablement poser la question de la toxicité de telles biomolécules. L’innocuité de celles-ci est investiguée de diverses manières : des analyses bioinformatiques pour évaluer leur similarité avec la listes des substances toxiques et allergènes actuellement connues ; leur stabilité face au pH et à la température ; leur digestibilité in vitro via des fluides gastriques de mammifères (et donc la perte de leurs éventuels pouvoirs allergènes) ; leur niveau d’expression et d’absorption alimentaire afin d’évaluer l’exposition humaine et animale ; des tests de toxicité aigüe et chronique chez des rongeurs en utilisant la protéine transgénique purifiée afin de prédire les éventuels risques de toxicité chez les humains.

Le détail de ces analyses doit nécessairement être fourni aux autorités de régulations avant toute autorisation de mise en vente sur le marché. Ces données ne sont en revanche pas nécessairement publiées en outre dans des journaux scientifiques. Cette tendance tend cependant à s’inverser ces dernières années par la prise de conscience des compagnies de la nécessité de plus grande transparence. Il n’existe pas actuellement de preuves scientifiques d’effets toxiques ou allergiques. Les inquiétudes soulevées en 2007, 2009 et 2012 ont très vite été estompées par la très faible qualité des études qui en étaient à l’origine. Seuls deux cas d’effets allergiques sont connus à ce jour, l’un concernant un soja OGM qui n’a donc pas été mis sur le marché, et le cas jamais confirmé du maïs Starlink.

En conclusion sur les risques d’allergie et de toxicité à la consommation, nous pouvons dire que ceux-ci sont strictement et rigoureusement évalués par plusieurs batteries de tests très pointus. Les OGM sont les seuls aliments à ainsi faire l’objet de telles procédures de contrôle, et sont en cela beaucoup plus sûrs que les aliments bio qui ne sont eux jamais contrôlés. Les seuls risques connus n’ont logiquement jamais passé les premiers tests de conformité et n’ont jamais été développés.

Conclusion

Le nombre de repas consommés par des animaux nourris aux OGM depuis leur introduction il y a 20 ans, avoisine les deux trillions (soient 2 000 000 000 000 000 000, soient deux milliards de milliards, soient deux millions de millions de millions de repas). Ces données observationnelles absolument gigantesques, en plus des données expérimentales, n’ont jamais donné lieu à la moindre preuve de danger représenté par les OGM mis sur le marché. Sur les 9 milliards d’animaux d’élevage destinés à l’alimentation produits annuellement aux USA et suivis sur la période 1983-2011, strictement aucune différence n’a jamais été observée à partir de l’introduction des PGM dans l’alimentation de ces animaux en 1996, soient plus de 100 milliards de bêtes élevées depuis cette introduction et nourries à 95% d’OGM. Il est notable que la moindre crise épidémique apparue à la suite de l’introduction des OGM aurait immédiatement été détectée. Dans un tel scénario, les bêtes tomberaient malades à travers le monde par centaines de milliers. Il suffit de voir l’effet des épizooties infectieuses pour se rendre compte de ce que devrait être le moindre signal épidémique. Les données expérimentales de toutes sortes, dont de nombreuses études sur la toxicité à long terme (de 110 à 728 jours, jusqu’à 10 générations), n’ont pas montré de signes d’impact sur la santé des animaux ni de différence dans la valeur nutritive de cette alimentation en comparaison de leur équivalent non OGM.

En face de cela, une poignée d’études massivement dénoncées pour leurs nombreux biais et leur qualité exécrable continuent de retenir l’attention des médias grands publics qui passent sous silence les centaines d’autres études existantes sur le sujet et faisant consensus.

La revue de la littérature scientifique ne serait-ce que de ces dix dernières années (les OGM sont en développement depuis 30 ans), témoigne de ce consensus de sécurité et de suivi permanent pour tous les aspects de la question : impact sur l’environnement, impact sur l’homme et les autres animaux, traçabilité… Il est notable de constater, année après année, que chaque motif d’inquiétude dans le grand public est suivi par un regain de production scientifique à ce propos, comme ça a été le cas en 2011 sur les questions de biodiversité et les flux géniques soulevées par l’opinion publique. En l’état de la masse des connaissances scientifiques en perpétuel perfectionnement et accumulées depuis plusieurs décennies, la consommation d’OGM ne représente pas de danger supérieur à celui de la nourriture produite par l’agriculture conventionnelle ou biologique.

Il ne s’agit ni d’être « anti » ni d’être « pro » OGM. Ces deux positions sont irrationnelles, tout comme celle consistant au fence sitting et niant l’existence du consensus scientifique. Rationnellement, seules les preuves comptent. Le meilleur moyen à notre connaissance d’acquérir ces preuves et de les articuler logiquement reste la méthode scientifique. Or, cette méthode, grâce à des centaines de milliers de chercheurs à travers le monde, indépendants les uns des autres et acceptant de soumettre leurs résultats à la critique de leurs pairs, permet d’aboutir à un consensus scientifique. Ce consensus n’est évidemment pas définitif et est soumis aux connaissances nouvelles qui l’abreuvent en permanence. Dans le cas des OGM, le consensus, reposant sur des dizaines de milliers de publications scientifiques concordantes sur des dizaines d’années, est sans équivoque. Évidemment, cela ne veut absolument pas dire qu’il faut arrêter les contrôles et les évaluations, ni mêmes abaisser leur qualité. L’objectif de la recherche scientifique est bien le contraire : toujours augmenter la masse de connaissances et la rigueur de leur analyse. Ce qui est certain, c’est qu’on ne peut pas décemment prétendre que ces données n’existent pas ou seraient trop peu nombreuses pour savoir.

Paradoxalement, ces questions pourraient bénéficier d’une activité scientifique encore plus importante si ce n’était l’opposition virulente sinon violente d’une fraction de l’opinion aux expérimentations publiques en plein champ. Cette double position des cercles militants à exiger plus de recherche publique tout en la vandalisant est absolument mortifère pour la science et le progrès technologique et humain. Il est inconcevable que les contributions humanitaires de la recherche publique en biotechnologie soient vandalisées et retardées par des groupes de pression militants sans motifs valables au péril et au plus grand mépris de populations nécessiteuses.

Tout aussi paradoxalement, les réglementations européennes qui planent sur l’ingénierie génétique sont extrêmement lourde. Ceci n’est pas fondamentalement mal. Mais cet état contribue de facto à empêcher au secteur public et aux startups d’émerger et de faire contre poids aux géants américains. Là encore, une double position ubuesque.

Cet état de fait est probablement la conjonction d’interactions complexes entre des phénomènes sociologiques, psychologiques, politiques, et de non représentation du consensus scientifique auprès du grand public. Tous ces facteurs doivent être pris en compte pour un débat constructif à propos de l’utilisation des biotechnologies à l’avenir. L’amélioration de la communication scientifique, une meilleure visibilité du consensus, et une présentation non biaisée de celui-ci dans les médias de masse, pourraient clairement changer la donne, comme ça a été le cas récemment au Royaume-Uni pour le lancement de champs de blé expérimentaux.

Si ce tour en poney GM vous a plu et que vous en avez retiré quelque chose, n’hésitez pas à le diffuser largement.

Biotechnologies et OGM : à quoi ça sert ?

*ainsi que quelques considérations sur le positionnement sceptique scientifique et la complémentarité du debunking et de la vulgarisation de tels sujets dans la communauté skepti…

J’essaie de relayer sur ce blog du contenu sceptique sur les sujets polémiques relatifs aux sciences de la vie et sciences médicales. Nécessairement, l’actualité dicte d’une certaine façon les sujets et les proportions dans lesquelles ils sont relayés. Dernièrement, la polémique « glyphosate » à nécessité quelques remises au point concernant les faits. Il peut en ressortir, indéniablement, une impression de circuit fermé, de caisse de résonance, comme le soulignait encore dernièrement Steven Novella sur NeurologicaBlog, (traduction ici), et qui n’est absolument pas l’apanage des communautés de tenants. Tomber dans cet écueil n’est évidemment pas la vocation de ce blog.

Face à ce type de polémique, la position sceptique la plus solide n’est pas d’être « pro » ou « anti ». Ces concepts sont des non sens, et faire du militantisme caricatural dans un sens ou dans l’autre ne participe pas à la compréhension intelligente de la problématique. Cette position sceptique ne consiste pas non plus à pratiquer le fence sitting (position probablement la plus pernicieuse, quel que soit le sujet), en invoquant le sophisme du faux équilibre et en faisant comme si le consensus scientifique n’existait pas (c’est par exemple particulièrement le cas sur un sujet comme l’homéopathie). En cela, je souscris totalement à la position expliquée par Marc Robinson-Rechavi dans l’épisode 169 de Podcast Science. Ce podcast vaut largement la peine d’être écouté intégralement, quelle que soit votre position sur le sujet.

Pour toute compréhension intelligente d’une problématique, il faut néanmoins accepter de faire l’effort de l’acquisition de quelques connaissances fondamentales sur le sujet. Or, ce débat n’a réellement cours qu’au sein de l’opinion publique, alors que le consensus scientifique semble rester stable sur la question. La tendance naturellement précautionniste de certains scientifiques peut s’entendre, mais la régulation est tellement minutieuse qu’elle est déjà jugée trop pesante par une partie de la communauté. Par ailleurs, ce précautionnisme n’enlève rien au consensus de la communauté dans son ensemble en dépit de certaines nuances portées sur les bénéfices de certaines cultures OGM.

Dans ces polémiques publiques, qu’il s’agisse d’interventions télévisées, radiophoniques, ou de discussions facebook, je suis toujours surpris par le néant abyssal qui semble constituer le socle de (non)connaissances des différents intervenants pourtant extrêmement sûrs de leurs positions. Du point de vue de l’honnêteté intellectuelle, peut-on intervenir et exprimer des avis catégoriques sur un sujet de ce type avec moins de connaissances scientifiques qu’un collégien de classe de 5e ? Mais encore, peut-on légitimement pester contre ce manque de connaissances si on ne participe pas soi-même à la diffusion des dites connaissances ?

Le debunking seul n’a pas grand sens si on ne propose pas dans le même temps de la connaissance fondamentale susceptible de prévenir la nécessité de debunking à l’avenir. C’est la vague histoire d’un gars à qui on apprend à pêcher plutôt que de lui donner des poissons, vous vous souvenez ? Ici, le poisson c’est le debunking, et la pêche, c’est les connaissances fondamentales. Aussi, on parle énormément des biotechnologies dans les médias, notamment les réseaux sociaux, mais je n’ai pas l’impression que ceux qui en parlent ou qui reçoivent ces informations comprennent réellement ce qu’ils disent et ce qu’ils entendent.

En les écoutant, j’ai personnellement le sentiment que les biotechnologies et les OGM, c’est quelque chose d’obscure et de mal, une sorte de souillure à la face d’une Déesse Gaïa idéalisée dans des envolées quasi christiques et millénaristes. Alors que de véritables Parabalanis verts détruisent des biens publics, je vois par exemple très souvent revenir des propos reposant sur la crainte de dévoiement des biotechnologies, et exigeant leur censure préalable et définitive. Ce type de position imagine beaucoup de choses quant à ce à quoi pourraient servir les biotechnologies, mais ne juge apparemment pas utile d’interroger ce à quoi elles servent vraiment, immédiatement, dans le monde réel. Sur la question de l’exigence de censure préalable de domaines scientifiques et techniques entiers de la part de certaines fractions de l’opinion publique, je reviendrai probablement ultérieurement. Avant donc de diffuser quelques informations d’ordre technique, je souhaite revenir sur les interactions multiples entre les biotechnologies et notre vie de tous les jours. Clairement, les biotechnologies et les OGM, à quoi ça sert.

Donc ce billet ne porte pas sur les problématiques politiques corrélées, mais non spécifiques aux OGM. Ce billet présente simplement les grands champs d’applications scientifiques et techniques de ce qu’on appelle mystérieusement « les biotechnologies », et a fortiori comment elles influencent notre vie de tous les jours.

Volontairement, je ne vais pas soulever les questions d’éthique relatives à chaque point. J’aimerai que le lecteur, quelle que soit son affinité préalable avec le sujet, parvienne à se formuler ces questions lui-même. Dans un second temps, je produirai un billet relatif à ces questions.

Les applications médicales

Les biotechnologies permettent l’identification de gènes dont les mutations sont responsables de maladies génétiques chez l’humain. Cela pourrait aboutir à de nouvelles avancées concernant le diagnostic et la prévention de ce type de maladies. La sensibilité génétique des individus joue également sur le développement de maladies non génétiques, comme le SIDA et l’arthrite, et toutes les maladies qui influencent l’expression génétique des cellules de l’organisme qui sont touchées. Toutes ces activations ou inactivations de gènes qui entrent en jeu dans un processus pathologique, représentent autant de cibles potentielles pour des traitements curatifs et préventifs de maladies gravement délétères. Pour rappel, le SIDA est l’une des trois premières causes de mortalité infectieuse dans le monde, avec 1,5 millions de décès en 2012 et 2013 et le VIH est l’agent infectieux le plus mortel au monde actuellement (pour rappel également, les personnes atteintes sont si affaiblies par le SIDA que c’est une autre infection opportuniste, habituellement bénigne, qui les tue). Aucune voie thérapeutique prometteuse n’est alors à négliger.

Diagnostics et traitements

Depuis quelques années, les biotechnologies ont permis de séquencer le génome du VIH. Or, sur la base de ce séquençage, on peut dorénavant amplifier (détecter) ce génome dans des échantillons de sang ou de tissu d’un patient.

Cette méthode de détection, qu’on appelle l’ACP (Amplification en Chaîne par Polymérase) permet de cibler des zones clef du génome d’un patient dont on sait qu’elles peuvent porter des mutations responsables de maladies génétiques. On peut ainsi détecter les mutations responsables de l’anémie falciforme, de l’hémophilie, de la mucoviscidose, de la maladie de Huntington, de la myopathie de Duchenne. De fait, on peut prévoir le développement de ces maladies chez un individu avant même l’apparition des premiers symptômes. On peut même le savoir pour un enfant avant sa naissance. Les possibilités de prévention thérapeutique sont ainsi immenses.

La détection de petites séquences ADN mutées permet de prévenir les risques accrus de cardiopathies, Alzheimer et cancers. Cependant, ces indications ne sont que des corrélations, et elle ne permettent pas de faire des prédictions absolues.

Par l’analyse de nombreux gènes chez les femmes touchées par le cancer du sein, on a ainsi pu montrer l’implication du mode d’expression de 70 d’entre eux dans l’apparition de la maladie. L’analyse de l’expression génique permet aux médecins et aux patients (un faible pourcentage d’hommes est aussi touché par le cancer du sein) de se reposer sur des informations valables quand vient le moment de choisir un traitement.

A l’avenir, ces techniques pourraient permettre le développement d’une véritable médecine personnalisée, où chaque patient pourrait connaître dans le détail ses propres facteurs de risque, et ainsi juger des meilleures mesures préventives à prendre pour sa santé.

La thérapie génique

Cette méthode consiste à réparer un gène défectueux à l’origine d’une maladie chez un patient. Il faut que la maladie n’ait pour origine qu’un seul gène défectueux, ce qui est plutôt rare, mais il est théoriquement possible de remplacer le gène responsable de la maladie par sa forme bénigne. Une première étude a été réalisée en France en 2000, pour 10 enfants souffrant de Déficit Immunitaire Combiné Sévère et traités par thérapie génique. Dans les deux ans, neuf d’entre eux présentaient une amélioration importante et définitive de leur état. Depuis, trois des enfants ont souffert d’une leucémie, et l’un d’eux en est décédé. On a aussi traité avec succès par thérapie génique des cas de cécité progressive et de dégénérescence du système nerveux.

Il est clair que ces perspectives thérapeutiques sont extrêmement stimulantes. Mais elles ne portent encore que sur très peu de cas, en terme de pathologies et de nombre de patients traités. L’optimisme doit donc rester extrêmement prudent.

La biopharmacie

L’utilisation des plantes médicinales est extrêmement ancienne. Dans les temps modernes, l’industrie pharmaceutique est née en parvenant à isoler des molécules biologiquement actives contenues dans les plantes. En 1897, la société Bayer a mis sur le marché l’acide acétylsalicylique, c’est-à-dire l’aspirine, qui était la forme synthétique de l’acide salicylique produit dans l’écorce de saule blanc. Ce « tout synthétique » n’a pas touché certains médicaments contre le cancer par exemple, comme le taxol, la vinblastine et la vincristine, provenant tous de sources végétales. Un retournement historiquement intéressant voit maintenant l’industrie pharmaceutique s’intéresser de nouveau à la production végétale grâce aux biotechnologies et aux OGM.

En 1990 a été produite la première protéine humaine produite par des plans de tabac et de pommes de terre OGM, la sérumalbumine. Depuis, plus de 20 protéines thérapeutiques ont été produites par des plantes OGM. Paradoxalement, le grand public semble ignorer qu’il ne s’agit ni plus ni moins que d’un revirement de l’industrie pharmaceutique du synthétique vers le bio grâce aux OGM.

Les biotechnologies permettent de fabriquer des petites molécules utilisées comme des médicaments. L’un de ces médicaments est l’imatinib, qui a permis la rémission durable et presque complète des patients souffrant de leucémie myéloïde chronique. On a aussi utilisé le même type de médicaments pour traiter avec succès certains cancers du sein et du poumon. Cette voie thérapeutique reste pour l’instant restreinte aux cancers dont les développements moléculaires sont suffisamment bien connus.

Ces produits pharmaceutiques protéiques sont fabriqués dans des cultures cellulaires, technique permise par les biotechnologies. Parmi les premières substances pharmaceutiques ainsi fabriquées, l’insuline et l’hormone de croissance humaine ont simplifié la vie de nombreux malades. L’insuline produite selon ces méthodes permet le traitement de plus de 200 millions de personnes à travers le monde. L’hormone de croissance quant à elle est une bénédiction pour les enfants atteints de certaines formes de nanisme par un déficit de production de cette hormone. Le tPA est un autre de ces médicaments, qui, s’il est administré suffisamment rapidement après une crise cardiaque, permet de dissoudre les caillots sanguins et réduit le risque d’une rechute. Pour rappel, les cardiopathies sont la première cause de mortalité dans le monde actuellement.

Parfois, pour assurer la production de suffisamment de médicaments, il est possible de les faire produire directement par des animaux. Pour cela, on transfère un gène provenant d’un animal dans le génome d’un autre, souvent d’une espèce différente, qui est alors dit transgénique. Il faut pour cela intégrer le gène d’expression recherchée dans un ovocyte de l’espèce réceptrice (et productrice) du médicament. L’ovocyte ainsi muni de son transgène est implanté chirurgicalement chez une mère porteuse de la même espèce. L’animal à naître, sera donc transgénique et exprimera son nouveau gène « étranger ». Les animaux deviennent alors de véritables producteurs de médicaments pour les hommes (ou pour d’autres animaux). On a par exemple inséré le gène codant pour une protéine sanguine humaine chez des chèvres, de sorte à ce que celles-ci fabriquent cette protéine, l’antithrombine, dans leur lait. Les très grosses quantités de protéines ainsi produites sont par ailleurs beaucoup plus faciles à purifier que si elles étaient produites par culture cellulaire. Les patients souffrants d’un déficit de production de cette protéine et sujets à la formation de caillots dans leurs vaisseaux sanguins peuvent ainsi être traités efficacement grâce à ces chèvres transgéniques productrices de médicaments. Évidemment, les animaux producteurs ne sont pas choisis au hasard. En l’occurrence, les chèvres se reproduisent plus vite que des bovins, et produisent plus de protéines du lait que d’autres mammifères à la reproduction plus rapide comme les lapins. Le choix des animaux « pharmaceutiques » repose donc sur le meilleur compromis. Les protéines produites par les animaux pharmaceutiques peuvent parfois êtres légèrement différentes de leur version humaine. Il est donc nécessaire de les tester minutieusement pour s’assurer que les patients ne souffriront pas d’effets secondaires allergiques ou d’autres contaminations.

Campbell, 2009
Campbell, 2009

Les enquêtes judiciaires

Vous connaissez Les Experts, NCIS, Bones ? Au-delà de la vision très fantasmée et US-fan de ces professions, les identifications moléculaires que les héros de ces séries télé sont souvent portés à faire lors de leurs enquêtes depuis une vingtaine d’années, relèvent également des biotechnologies.

Sur les scènes de crime en effet, les experts s’appliquent à rechercher des traces organiques laissées par les criminels : sang, salive, sperme, cheveux… Il est ainsi possible de les analyser et d’identifier les groupes sanguins ou tissulaires de leur propriétaire grâce à des marqueurs protéiques. Évidemment, de nombreux individus ont des groupes sanguins ou tissulaires identiques, et ces méthodes ne peuvent servir qu’à innocenter des suspects, et non pas à prouver leur culpabilité.

Les traces d’ADN, qui est également une molécule, sont quant à elles beaucoup plus fiables, car chaque individu possède une séquence ADN qui lui est propre, sauf dans le cas de vrais jumeaux.

A l’aide de ces différents marqueurs moléculaires, les experts peuvent dresser le profile génétique d’un suspect. Le FBI utilise ces méthodes d’identification depuis 1988. Aujourd’hui, ces spécialistes utilisent des méthodes toujours plus fines et précises, en se reposant notamment sur la reconnaissance de toutes petites portions d’ADN spécifiques à chaque individu, qu’on appelle les Répétitions Courtes en Tandem. C’est très pratique, car cela permet d’identifier des individus même lorsque l’ADN est très abimé, dans le cas par exemple d’un accident quelconque où les traces moléculaires auraient consécutivement subi l’action d’un incendie et de l’eau utilisée par les pompiers pour en venir à bout. Ce sont ces méthodes qui ont été utilisées très récemment pour identifier les victimes du crash d’un Airbus A320 de la Germanwings dans les Alpes françaises. Le plus gros travail d’identification génétique jamais réalisé à suivi les attentats du World Trade Center en 2001, pour lequel plus de 10 000 échantillons de restes humains ont été comparés avec des effets personnels fournis par les familles de victimes, comme des brosses à dents, des brosses à cheveux, etc.. Près de 3000 victimes ont ainsi pu être identifiées.

Dans les enquêtes criminelles, ces méthodes permettent des comparer des échantillons de la scène de crime, du suspect, et de la victime. La probabilité pour que plusieurs personnes présentent les mêmes Répétitions Courtes en Tandem sur leur séquence ADN est si faible (de 1 sur 10 milliards à 1 sur plusieurs billions, et la population mondiale compte environ 7 milliards d’individus) qu’il s’agit d’un niveau de preuve acceptable pour valider une identification judiciaire.

Ces mêmes tests sont également utilisés dans les affaires de paternité.

La dépollution de l’environnement

Il s’agit d’utiliser la capacité de certains microorganismes à transformer des substances chimiques dont elles se nourrissent naturellement. Lors de leur digestion, ces substances sont transformées en composés beaucoup moins nocifs et/ou beaucoup plus faciles à traiter. Généralement, les besoins nutritifs de ces microorganismes ne suffisent pas à les utiliser dans des opérations de dépollution. Il s’agit alors de transférer leurs gènes codant l’expression métabolique recherchée à d’autres microorganismes produits en quantité suffisante. Ces bactéries transgéniques deviendront ainsi des agents de protection de l’environnement très efficaces. Certaines d’entre elles sont ainsi capables de digérer des métaux lourds (cuivre, plomb, nickel) présents dans leur milieu pour les transformer en composés aisément traitables comme les sulfates de cuivre et de plomb. Ces microOGM pourraient ainsi jouer un rôle de plus en plus important dans le domaine minier, dans le traitement des déchets hautement toxiques, etc.. Les chercheurs essaient de permettre à ces microOGM de dégrader les hydrocarbures chlorés. Ils pourraient être utilisés dans les stations d’épuration et les industries polluantes.

L’agronomie

Tout ce qui se trouve dans vos assiettes est le fruit de 10 000 ans de domestication par les humains. Je serai incapable de citer de tête un seul aliment couramment consommé et qui n’a pas été drastiquement modifié depuis le début du Néolithique. J’ai pu montrer dans un autre billet le cas de la forme pré-domestique du maïs, la téosinte, qui n’a plus rien à voir avec sa forme actuelle. Il s’agit directement de l’action de l’homme. Il en va de même pour toutes les variétés abusivement appelées « anciennes » (en fait très récentes), et qui étaient déjà le produit de la sélection artificielle il y a 50 ans, 100 ans, ou 200 ans. Il y a donc un non sens fondamental à opposer ce qui serait « naturel » à ce qui serait « pas naturel (produit par l’homme) », ou ce qui serait « moderne » (et mauvais) et ce qui serait « ancien » (et bon). Ces conceptions idéalisées ne correspondent à aucune réalité biologique. Prétendre que ce qui est moderne serait forcément bon, et ce qui est ancien forcément mauvais, serait tout autant un non sens.

Grâce aux biotechnologies, cette sélection artificielle, pratique ancestrale datant du Néolithique, est de plus en plus améliorée par la sélection assistée par des marqueurs moléculaires. En effet, vous savez maintenant qu’il est possible de reconnaître des zones d’intérêt très précises sur un génome. Il est donc possible de détecter les marqueurs de mutations d’intérêt dans un cheptel pour ne sélectionner à la reproduction que les bêtes rigoureusement susceptibles de présenter les traits recherchés pour la sélection. Il peut s’agir de marqueurs ADN corrélés à une production plus importante de laine chez les moutons, à une viande moins grasse chez les bovins, etc..

Il est également possible de produire des animaux et des et plantes transgéniques. Comme dans le cas de la chèvre pharmaceutique expliqué plus haut, il s’agit d’introduire un gène d’intérêt présent chez une espèce au sein d’une autre espèce. Pour des raisons techniques (de la biologie cellulaire), il est beaucoup plus facile de produire des plantes transgéniques que des animaux transgéniques. C’est la raison pour laquelle l’écrasante majorité des applications agricoles concernent des plantes génétiquement modifiées.

Ainsi, l’extrême majorité des cultures OGM actuelles à travers le monde sont des espèces végétales modifiées pour augmenter leur résistance aux herbicides et aux insectes ravageurs. Le soja modifié représente 60% de toutes les surfaces cultivée en OGM dans neuf pays, et 90% aux USA. Ces cultures initialement développées aux États-Unis se sont étendues à l’Asie. L’Europe pour sa part vient à peine d’autoriser les toutes premières commercialisations et productions d’OGM alimentaires commerciaux. Parmi les bénéfices sans précédents apportés par ces cultures OGM, la diminution drastique de l’épandage de pesticides « chimiques », la limitation des émissions de CO2 et la diminution du labour. Vous pouvez lire un précédant billet à ce propos. En Inde par exemple, on a pu insérer dans le génome de plusieurs espèces de riz un gène de résistance à la salinité de l’eau présent dans une plante de mangrove côtière. Le riz ainsi produit est capable de croître dans des rizières au taux de salinité trois fois plus élevé. Or, 1/3 de toutes les terres irriguées souffrirait de salinité excessive en raison d’une irrigation incontrôlée et de l’usage trop important d’engrais chimiques, ce qui représente une menace pour l’approvisionnement alimentaire. Ces plans de riz résistant pourraient être d’un intérêt majeur dans la prévention de ces risques.

L’exemple du riz doré

Le riz doré est un bon exemple de bénéfice public d’application des biotechnologies à la production d’OGM alimentaires. L’OMS estime à environ 200 millions le nombre d’enfants d’âge préscolaire affectés de carence en vitamine A, dont environ 5 millions sont atteints de cécité. Cette carence est particulièrement marquée dans les pays en développement où la nourriture de base est le riz.

La production d’un riz transgénique doté de gènes codant la fabrication de bêta-carotène qui se décomposera dans l’organisme en vitamine A, présente des espoirs majeurs pour faire reculer ces carences et cécités infantiles. Des chercheurs sont en effet parvenus à insérer des gènes exprimant la production de cette bêta-carotène à la surface des grains de riz venant de deux variétés de jonquilles et une espèce de bactérie. Cette nouvelle fonction métabolique, qui donne à ce riz sa couleur orangée, est un total succès en cela qu’elle n’entrave en rien sa production comme on pouvait le craindre : l’introduction de cette voie biochimique ne change en rien le métabolisme normal de la plante. Une deuxième version a été obtenue, produisant plus de bêta-carotène, en remplaçant le gène de jonquille par un gène de maïs.

Ce riz doré à été obtenu par une institution publique suisse et n’a fait l’objet d’aucun dépôt de brevet. Depuis, le riz doré a été amélioré plusieurs fois par des groupes publics et privés, et ces formes sont également disponibles gratuitement sans contraintes commerciales.

De multiples innovations de cette sorte sont actuellement en développement.

To be continued…

Je n’ai pas pu dans cette présentation parler de tous les exemples extrêmement prometteurs de différents OGM : les vaccins ADN, les vaccins en sous unité, les animaux domestiques transgéniques, les aliments bio fortifiés dont on améliore les vertus nutritives, etc.. De tous ceux là, je donnerai des exemples détaillés dans d’autres billets. Ici, il s’agit de donner une vision d’ensemble assez simple de ce à quoi servent vraiment les biotechnologies et les OGM, et la place qu’ils ont déjà dans nos vies (des milliards d’êtres humains et d’animaux) depuis des dizaines d’années : médicaments, aliments, aliments de nos aliments…

Nous n’en sommes qu’aux balbutiements d’innovations technologiques fantastiques dans les entreprises publiques de lutte contre la maladie, la pollution, la malnutrition et les inégalités de développement.

Dans cette toute jeune marche de l’Humanité vers le progrès, entamée depuis la seconde moitié du XIXe siècle, le rôle de l’institution publique, garante autant que faire se peut de transparence, de neutralité et d’équité, est de tout premier ordre dans l’application raisonnée de ces progrès scientifiques et techniques pour le bien commun.

L’opposition aux OGM du point de vue des sciences cognitives

Cette semaine, l’UE a autorisé l’importation et la commercialisation de produits génétiquement modifiés. Branle-bas de combat chez les opposants.

Il ne s’agira pas dans ce billet de parler des aspects politico-économiques de cette affaire ; une distinction que la majorité bruyante des opposants aux biotechnologies s’échine justement à ne pas faire. Il ne s’agira pas non plus d’aborder les aspects techniques et factuels des biotechnologies ; un domaine que la majorité bruyante des opposants s’échine à ne pas aborder avec rigueur. Il ne s’agira pas non plus de faire œuvre de «  shill », même si, comme il est devenu systématique, j’ai de bonnes raisons de penser que l’accusation me tombera dessus aussi brutalement et gratuitement que le couperet sur la nuque délicate de Marie Antoinette. A propos de cette réelle position sceptique scientifique, je renvoie le lecteur écouter Marc Robinson-Rechavi chez Podcast Science.

Non, en réalité, l’actualité me pousse à revenir sur un article à paraitre en avril dans Trends in Plant Science. Les auteurs, venant des départements de Philosophie et Sciences Morales et de Biotechnologies végétales de l’université de Gand en Belgique, s’interrogent sur les ressorts cognitifs de l’opposition persistante aux OGM dans le grand public.

Les auteurs mettent en lumière quatre points :

  • Le grand public a tendance à se reposer sur un raisonnement intuitif pour porter un jugement sur les OGM
  • Ce raisonnement intuitif inclut une vision naïve de la biologie, téléologique, et basée sur les émotions
  • Les activistes anti-OGM exploitent avec succès ces intuitions pour promouvoir leur cause
  • Les jugements intuitifs écartent le grand public des solutions durables

En effet, l’opposition aux OGM est extrêmement forte, particulièrement en France où toute une niche politique très bien représentée s’est construite sur cette opposition. Mais le lecteur francophone devrait savoir que cette situation peut varier selon les pays. Pourtant, l’opposition aux OGM reste fortement active, et ce dans des environnements culturels extrêmement distants. Ainsi, le gouvernement indien a interdit la culture du Brinjal Bt sous la pression de l’opposition après avoir autorisé sa commercialisation. En Europe, un véritable moratoire s’est abattu sur les biotechnologies conduisant à des standards de régulation extrêmement stricts et couteux concernant l’importation et la culture de produits OGM. En Afrique et en Asie, les conséquences de l’opposition sont pour le moins tragiques et mortifères.

Paradoxalement, le consensus scientifique sur la question, encore une fois, du point de vue strictement technique et factuel, est pour le moins clair. Il a ainsi été proposé que les croyances post-chrétiennes et les nouvelles conceptions romantiques de la nature (ce que j’appellerai les religions New-Age, mais les auteurs n’emploient pas le terme), sont à l’origine de cette rupture. On a aussi pointé le manque de bénéfices immédiats pour le consommateur occidental. Si ces pistes semblent correctes, elles n’expliquent pas encore comment la même opposition semble se produire également dans des cultures non post-chrétiennes et pourquoi le grand public ne rejette pas également toute technologie ne lui apportant pas un bénéfice immédiat, ou encore pourquoi le public préfère-t-il simplement ses conceptions romantiques à la réalité.

Cette rupture patente entre l’opinion publique et le monde scientifique requiert nécessairement une explication, et les auteurs pointent ici du doigt la nature intuitive du raisonnement humain à l’origine de telles méconnaissances des technologies produisant les OGM. Ils soulignent l’implication des raisonnements intuitifs particulièrement forts dans la popularité et la persistance de l’opposition aux OGM. opinions negatives OGM Bien que l’on puisse avoir l’impression d’être totalement maître de ses propres décisions, et que celles-ci sont systématiquement soumises à l’analyse consciente de la situation, la plupart sont en réalité décidées de manière tout à fait intuitive. Ces raisonnements intuitifs, parfaitement normaux et fruits de notre évolution, conduisent à une évaluation directe des risques et des bénéfices auxquels nous sommes apparemment confrontés. Dans le monde auquel le développement de nos sens répond, ces jugements intuitifs conduisent globalement à une bonne évaluation des risques et à notre survie individuelle. Traverser ce torrent furieux à la nage, d’après ce que mes sens me permettent d’appréhender, c’est-à-dire la vision des flots déchainés, le bruit assourdissant des remous, et tout un tas d’autres signaux connexes, me semble une entreprise pour le moins dangereuse. Intuitivement, le bénéfice d’atteindre l’autre rive plus rapidement qu’en faisant un détour de plusieurs kilomètres me semble assez contrebalancé par le risque d’un décès aussi prématuré que désagréable.

Mais la science est souvent contre intuitive. Dans l’observation de l’univers, nos sens se trouvent totalement perdus par l’appréhension de la nature telle que notre espèce n’a pas évolué pour s’y orienter. Notre cerveau ne sait pas appréhender intuitivement l’infiniment grand ou l’infiniment petit. Contrairement au torrent, ce ne sont pas des milieux auxquels nos sens sont adaptés. Fort heureusement, nous disposons d’un deuxième type de raisonnement, réflexif, et qui nous permet de mesurer le poids de différents jeux d’informations de manière consciente. Face à des observations naturellement contre intuitives pour nous, c’est ce type de raisonnement qu’utilisent les scientifiques pour comprendre l’univers de la façon la plus objective possible.

Ainsi, beaucoup de gens ont intuitivement peur des araignées, et très peu ont peur des voitures. Mais objectivement, les voitures sont beaucoup plus dangereuses et mortifères que les araignées. Pour apprécier cela, il faut analyser objectivement des jeux de données qui ne relèvent pas de l’intuition.

La première cause de la popularité et de la persistance de l’opposition aux OGM est bien là : l’activisme en appelle à l’intuition. Ce raisonnement est évidemment séduisant, car il correspond à l’approche la plus directe, simple et compréhensible de l’univers pour l’esprit humain.

La biologie naïve ou populaire est un autre ressort de ce succès. L’esprit humain dispose d’une compréhension intuitive du fonctionnement de la nature. L’un des aspects de cette biologie naïve est l’essentialisme psychologique tendant à la croyance en un cœur invisible et immuable déterminant l’identité des organismes, leur développement et leur comportement. Encore une fois, cela est totalement naturel et fait sens évolutivement. En effet, cette tendance à essentialiser d’autres organismes permet d’appréhender le monde biologique de manière directe et compréhensible. Cette compréhension est encore une fois l’agent de réponses adaptées à un environnement dangereux et à permis aux hommes dans le passé de comprendre intuitivement qu’il valait mieux ne pas croiser la route d’un tigre à dents de sabre. Reconnaître l’essence de ce qui fait un tel prédateur leur a permis d’éviter de se faire manger. Un tel raisonnement présente donc un avantage certain.

Encore une fois, le raisonnement scientifique se trouve être totalement contre intuitif, et ne correspond pas à cet essentialisme populaire. Il est notable de relever ainsi que lors d’une enquête aux USA, plus de la moitié des personnes interrogées ne rejetaient pas l’idée qu’un gène de poisson introduit dans une tomate GM donnerait irrémédiablement le gout de poisson à cette tomate. Dans ce raisonnement essentialiste, l’ADN de poisson, essence de ce qui fait le poisson, doit avoir le gout de poisson. Dans leurs campagnes de communication, les activistes anti-OGM se reposent systématiquement sur cet appel à l’essentialisme à grand renfort de montages photos montrant par exemple des hybrides de tomates et de poissons.

Les auteurs soulignent également la compréhension téléologique de l’univers dans le grand public. Il s’agit de la croyance communément partagée par les religions et les nouvelles conceptions quasiment religieuses de la nature ces dernières années, que l’univers a été créé dans une fin précise. Cette conception de la nature, bien que totalement démystifiée par la biologie évolutive, continue néanmoins d’irriguer nos contemporains qui pensent que les organismes ont été créés tels quels, et que toute modification représente donc une atteinte à un ordre voulu. En ce sens, les OGM sont vus comme n’étant « pas naturels ». Ainsi, qu’ils soient religieux ou sécularisés, les opposants aux OGM accusent souvent les scientifiques de vouloir « jouer à Dieu » ou d’agir « contre la nature ». Ils sont souvent décrits comme des docteurs Frankenstein dont les expériences vont s’échapper et amener l’apocalypse sur Terre.

Un autre trait de l’esprit humain interférant grandement avec l’évaluation objective des risques est l’émotion. Le dégout est ici particulièrement important, car l’opposition semble totalement ignorer les OGM non alimentaires. Ce dégout est probablement le fruit d’une réponse adaptative à l’évitement des pathogènes et poisons alimentaires. Dans le cas des aliments OGM, le dégout provient probablement du sentiment que la modification de l’ADN produit une atteinte à l’essence de l’organisme, le rendant impure et par conséquent impropre à la consommation. L’effet est probablement accru lorsque le gène introduit provient d’une espèce différente ou d’une espèce sous le coup d’un tabou alimentaire culturel. Ainsi, les campagnes anti-OGM présentent des fruits percés de seringues, ou arborant des couleurs inhabituelles, ou prétendent encore que les cultures Bt sont des poisons en passe de contaminer l’environnement. On notera que la bactérie dont provient le gène Bt des cultures OGM est très utilisée et plébiscitée en agriculture biologique, par les mêmes arguant que c’est un poison dans les OGM.

Le glissement vers la condamnation des producteurs et promoteurs des cultures OGM comme étant immoraux voire criminels est devenu central dans l’argumentaire anti-OGM. Il repose sur le dégout moral pour les multinationales accablant les fermiers, les poussant souvent à l’endettement et au suicide.

L’esprit humain n’est pas prédéterminé à croire que les OGM sont des poisons. Cependant, une fois que ces représentations négatives deviennent disponibles et largement diffusées à travers d’intenses campagnes de désinformation par des groupes activistes, ou à cause d’un manque d’opposition scientifiquement informée face à cela, l’esprit humain se trouvera nécessairement hautement réceptif à ces argumentaires séduisant sa façon intuitive de penser, fruit d’un long et efficace processus évolutif.

Il est notable de souligner en vertu des capacités de raisonnement propres à l’esprit humain expliquées supra, que le grand public véritablement inquiet des conséquences sanitaires et environnementales des OGM, peut paradoxalement adopter des stratégies intuitives à l’effet diamétralement opposé à celui recherché en interdisant tout à la fois des technologies promettant des développements agricoles durables et des applications médicales prometteuses.

Créationnisme vs. Évolution : peut-on voir une espèce évoluer ?

Suite à la diffusion d’une nouvelle perle créationniste, relayée comme il se doit par les médias alternatifs (probablement aussi par certains mainstreams), j’ai produit il y a quelques temps un billet à propos des preuves multiples, indépendantes et convergentes de l’Évolution, des attaques les plus communément et vainement portées à l’encontre de l’Évolution par les tenants de la Création, et la façon dont y répondre.

Car en effet, si la science avance, multipliant les observations, confirmant ses hypothèses, perfectionnant ses théories et contribuant au passage aux mieux être de l’Humanité (si si), le créationnisme, lui, oserais-je dire la religion, reste quasi strictement inchangé. Dès lors, ce sont les mêmes arguments erronés que l’on voit répétés depuis 150 ans à l’encontre de l’évolutionnisme par les tenants de la Création. Indéfectiblement, inlassablement. Une telle constance forcerait même presque le respect, si elle n’était pas motivée par la seule ignorance acharnée.

A la décharge des créationnistes cependant, il faut bien souligner que nos connaissances à l’époque de Darwin n’étaient pas ce qu’elles sont aujourd’hui. Il s’agissait à l’époque des balbutiements de la biologie évolutive, et certains arguments créationnistes, bien que déjà erronés, pouvaient se comprendre. Le registre fossile n’était par exemple pas ce qu’il est à notre époque, où nous amassons de plus en plus de spécimens transitionnels. Nous ne connaissions pas, au temps de Darwin, la biologie moléculaire. Par ailleurs, fort des données dont il pouvait alors disposer, spécimens vivants, taxidermisés et fossiles, Darwin ne pouvait pas tout saisir correctement du premier coup. Ainsi, il pensait que l’Évolution était nécessairement le produit d’un processus extrêmement lent et étalé sur des temps très longs, de sorte qu’il ne soit pas possible dans une vie d’homme de réellement « voir » l’Évolution.

De fait, cette idée de « voir » l’Évolution, par exemple en voyant de nos yeux une espèce entrain d’évoluer, a toujours été une marotte créationniste. « On n’a jamais vu une espèce entrain d’évoluer, donc l’Évolution n’existe pas ! ». J’ai déjà abordé ce point dans mon billet sur les preuves de l’Évolution, à propos de la mouche du vinaigre, Drosophila melanogaster. Mais comme me l’a dit un jour un professeur de paléoanthropologie, « on n’est jamais trop pédagogue », et je souhaite revenir spécialement ici sur ce point en détaillant un autre exemple. Ainsi, outre le shoot de Junk Science que je vous offre gratuitement parce que je suis un bon dealer, vous saurez à l’avenir quoi répondre lorsqu’un créationniste vous demandera de façon rhétorique si on peut voir une espèce évoluer :

« Oui ».

Bon, pour le suspens, c’est grillé, mais je vais quand même vous expliquer comment ça marche.

Traditionnellement, pour étudier l’Évolution, les biologistes observent ce qui s’est déroulé dans le passé, de quelques milliers à plusieurs millions d’années, voire même des milliards. Schématiquement, un paléontologue examine des restes fossilisés de dinosaures, un anthropobiologiste examine ceux de taxons pré-humains et humains, etc., de sorte à reconstruire l’arbre de la vie (ou le corail, selon votre imagination), que vous pourrez aussi appeler « arbre phylogénétique » pour briller en société. De fait, les données acquises ainsi sont d’ordre observationnel, comme en astronomie ou en histoire, et non pas expérimental. Il y a donc nécessairement un biais rétrospectif à prendre en compte dans ces études. C’est là qu’un tenant de la Création pourrait arriver et dire « oui ben tes fossiles ils sont morts, tu peux pas les voir évoluer ! ». Correct, Captain Obvious, mais la biologie évolutive ne repose pas uniquement sur l’observation, contrairement à l’histoire, mais également sur l’expérimentation et la prédiction. Ainsi, on observe de plus en plus de cas où des changements environnementaux peuvent provoquer de rapides modifications se rapportant à l’Évolution sur les espèces contraintes par ces changements.

Si les expérimentations sur la mouche du vinaigre D. melanogaster sont anciennes, ce n’est que plus récemment que l’on a commencé les expérimentations sur d’autres espèces à la fois en milieu naturel et en laboratoire. Un bon exemple de cela est celui des guppys.

Changement environnemental, changement phénotypique.

Le phénotype, c’est l’aspect extérieur d’un truc vivant, visqueux ou pas. Un rat au poil noir ou au poil blanc, c’est la même bestiole, mais de différents phénotypes.

Les guppys, ce sont des poissons généralement connus des aquariophiles pour leurs jolies couleurs et leur reproduction abondante. Ils vivent naturellement dans les cours d’eau d’Amérique du nord où ils peuplent les bassins précédant et suivant une petite cascade. Le fondule de son côté, est un autre poisson, vivant dans le même milieu que les guppys. Le fondule est pour le moins couillu, et lors des nuits pluvieuses, il parvient à sortir de l’eau en se tortillant pour se trainer jusque dans les bassins calmes surplombant les cascades. Le guppy utilise une autre technique : meilleur à la nage à contre-courant, il profite des inondations des canaux secondaires lors des fortes pluies pour contourner l’obstacle et coloniser le bassin supérieur.

Guppy coppia gialla.jpg
« Guppy coppia gialla » by Marrabbio2 – Own work. Licensed under CC BY-SA 3.0 via Wikimedia Commons.

Dans le même temps, d’autres poissons plus sédentaires peuplent le même milieu. Ainsi, les brochets cichlidés se cantonnent au bas des chutes d’eau où ils chassent les autres poissons, dont les guppys.

L’obstacle de la chute d’eau scinde donc l’environnement des guppys en deux milieux très différents. En bas de la chute, les guppys sont la proie des brochets, ce qui nuit sensiblement à leur espérance de vie. A contrario, au dessus de la chute, le seul prédateur est le fondule qui ne chasse que très rarement les guppys.

On a ainsi observé en milieu naturel que les guppys vivant au bas des chutes (là où ils sont mangés par les brochets), sont de couleur plus terne, sont plus petits, et arrivent plus rapidement à maturité sexuelle. Au dessus des chutes, les guppys sont chatoyants ce qui augmente leur succès auprès des femelles, sont plus gros, et arrivent à maturité plus tardivement.

De telles différences suggèrent l’action de la sélection naturelle : dans les bassins du haut, les guppys ne sont pas contraints par la prédation et peuvent arborer des couleurs plus vives. Les spécimens les plus chatoyants sont ainsi plus aptes à séduire les femelles attirées par les couleurs vives. En compétition contre les autres mâles pour l’accès aux femelles, les spécimens les plus gros et a fortiori les plus combatifs sont également positivement sélectionnés. En l’absence de prédation, la quantité d’énergie allouée à la croissance est augmentée, et ainsi, les plus gros mâles colorés bénéficient des meilleurs avantages reproductifs, assurant la transmission de ces caractères à leur descendance, et leur maintien et augmentation dans la population aux générations suivantes.

Au pied des chutes d’eau en revanche, la sélection joue différemment. La prédation des brochets aurait tendance à sélectionner négativement (éliminer) les caractères phénotypiques trop visibles (la couleur chatoyante) et à raccourcir l’espérance de vie des guppys (et ainsi allouer plus de ressources à la reproduction rapide plutôt qu’à la croissance). Les individus discrets et prompts à se reproduire sont donc avantagés, leurs chances de reproduction et donc de transmettre leurs caractères à la génération suivante est donc accrue. De génération en génération, ces caractères de discrétion et de maturation rapide se trouvent majoritairement présents dans la population.

De l’observation à l’expérimentation.

Les différences observées entre les populations de guppys vivant au dessus et en dessous d’une chute d’eau semblent donc être le fruit de la sélection naturelle. Mais en l’état, d’autres hypothèses tout aussi valables peuvent entrer en lice. En effet, on peut également penser que seuls les guppys assez forts pour remonter les cours d’eau secondaires arrivent à peupler les bassins supérieurs. Ainsi, seuls ces individus badass colonisent ce milieu, et par un mécanisme évolutif qu’on appelle l’effet de fondation, seul ce caractère se retrouve transmis aux générations suivantes dans cette population fille, alors que d’autres caractères morphologiques se trouvaient dans la population mère. Pour confirmer l’hypothèse de la sélection, il faut donc la reproduire expérimentalement en contrôlant les paramètres.

Lors d’une expérience, on a donc réparti 2000 guppys de façon égale dans dix bassins en laboratoire. Six mois plus tard, des brochets cichlidés furent ajoutés à quatre des bassins, des fondules à quatre autres, tandis que les deux derniers servirent de groupe témoin, et ne contenaient donc que des guppys.

Quatorze mois plus tard, soient dix générations de guppys, les scientifiques comparèrent les populations de guppys dans les dix bassins expérimentaux. Il était impossible de distinguer les guppys des bassins témoins de ceux comportant des fondules : tous les guppys étaient grands et très colorés. En revanche, les guppys exposés aux brochets étaient petits et ternes.

On voyait donc en quelques mois l’action de la prédation sur l’Évolution d’une espèce, et le mécanisme évolutif à l’origine de ces observations semblait bien être la sélection naturelle, puisqu’il n’y avait pas d’effet de fondation à l’origine du peuplement des dix bassins expérimentaux.

Retour sur le terrain.

Ok, mais est-ce que ce qui se passe en labo se passe exactement de la même manière en milieu naturel ? Les scientifiques ont donc repéré de cascades dont les bassins du bas étaient naturellement peuplés de guppys tandis qu’ils étaient absents des bassins du haut. Les bassins inférieurs étaient naturellement peuplés de brochets, et ceux du haut de fondules. Les scientifiques transférèrent une partie des populations de guppys des bassins inférieurs vers les bassins supérieurs et suivirent leur évolution à plusieurs années d’intervalle. Ainsi, bien qu’ils proviennent de populations naturellement exposées à la prédation des brochets, les colonies transplantées dans les bassins supérieurs développèrent rapidement les caractères morphologiques signant l’absence de prédation : maturation tardive, grande taille, couleurs chatoyantes. Dans le même temps, les populations laissées dans les bassins inférieurs conservaient leurs caractères originaux : maturation rapide, petite taille, couleurs ternes.

Le retour en laboratoire confirma par la suite que les différences phénotypiques entre les populations des bassins inférieurs et supérieurs correspondaient à des différences génétiques.

Conclusionnage.

Les travaux sur les guppys ont permis de montrer que des changements évolutifs au sein d’une espèce peuvent être manifestes en quelques années seulement et qu’il est possible de prédire expérimentalement les conséquences de mécanismes évolutifs observés en milieu naturel. De telles données apportent un niveau de preuve extrêmement fort à l’Évolution par sélection naturelle.

Créationnisme : une énième muflerie relayée par les « médias alternatifs »

Figure 1 Pinson des Galápagos. Toutes les illustrations de ce billet viennent de Campbell et al., Biologie, 2009 sauf mention contraire.

Comme c’est régulièrement le cas, les tenants de l’Intelligent design passent sournoisement à l’attaque. Je ne reviendrai pas ici sur ce mouvement créationniste, de loin le plus pernicieux de notre époque, ni sur les mouvements créationnistes en général.

Non, ce qui m’inquiète plutôt, c’est que comme il est devenu de plus en plus commun ces dernières années, les mouvements obscurantistes de tous poils ont le vent en poupe sur les médias alternatifs. Je ne me laisserai pas aller à de la sociologie et de la psychologie de bazar, mais à l’évidence, la mouvance autoproclamée « antisystème » est friande de contenus pseudo-scientifiques. La science admise et démontrée y est effectivement vue comme un vecteur, un agent du système officiel auquel il convient donc de porter l’estocade dès que possible. Les deux milieux trouvent un point d’accord fondamental sur leur peu de considération pour la rigueur intellectuelle et le raisonnement logique. Nul besoin de logique, quand tout ce qui est considéré arbitrairement comme « officiel » est de facto faux et mensonger, et tout ce qui est « alternatif » est, sinon vrai et bon, au moins mieux que ce qui est « officiel ».

Tout ceci ne serait que de peu d’intérêt et assez grotesque si ces médias alternatifs ne jouissaient pas, à la faveur d’internet, d’une audience certaine. Dès lors, certains mouvements obscurantistes, qui contrairement à d’autres n’avaient pas encore trouvé d’assise médiatique, se retrouvent catapultés sur les écrans de consommateurs ne demandant qu’à croire. Et puisque ces informations viennent de médias citoyens dont le business repose sur la prétendue recherche de vérité, il est encore moins besoin de faire preuve d’esprit critique que lorsqu’il s’agit de s’abrutir devant les grandes chaînes nationales.

C’est ainsi qu’a été diffusée le 7 avril sur l’un de ces fameux médias alternatifs francophones, la première partie d’une énième muflerie de l’Intelligent Design. Pour le média bien entendu, il n’est pas question de soumettre cette production à la moindre critique, mais d’en faire la promotion gratuite pour ce qu’elle dégage d’antisystème, d’anti darwinisme, donc d’anti-truc-officiel. Comme toujours dans ces cas là, et comme c’est également le cas sur les piètres médias « officiels » en matière d’information scientifique, les commentaires sous la vidéos peuvent être source de perte de foi définitive en l’intelligence humaine.

Cynisme de sceptique mis à part, les personnes qui adhèrent plus ou moins à ce type de production sont-elles bêtes, stupides, ignares ou mentalement déficientes ?

Catégoriquement non.

D’abord, n’avoir aucune culture fondamentale, et a fortiori aucune culture scientifique n’est pas un crime. Ensuite, ce type de vidéos produites par les tenants du créationnisme moderne est extrêmement pernicieux. Elles sont effectivement joliment réalisées, les explications sont simples, claires, la diction excellente. Les bribes de raisonnement invoquées reposent sur le même argument ressassé pendant une demi heure et est un appel au « bon sens » et à la « saine nature » du spectateur, rendant impossible la compréhension de la théorie de l’évolution.

Mais en science, les faits sont bien souvent contre intuitifs et échappent au bon sens de l’observateur.

Si vous regardez le ciel par cette belle journée de printemps, vous verrez que l’astre solaire tourne autour de vous. Ce matin, le soleil s’est levé derrière ce bois là, à l’Est, et ce soir, il se couchera derrière cette colline là, à l’Ouest. En l’état, tout indiquera à votre « bon sens » et à votre « saine nature » que le soleil s’est littéralement déplacé dans le ciel et qu’il a tourné autour de vous.

C’est ce que les hommes ont longtemps cru dans l’histoire, abusés qu’ils étaient par leur bon sens. Ils n’étaient pas bêtes du tout. Au fur et à mesure du perfectionnement des techniques d’observations et de la multiplication de celles-ci, nous avons pu comprendre qu’en réalité, c’est bien nous, sur Terre, qui tournions autour du soleil, et non pas le contraire. La multiplication des observations objectives nous a permis de nous émanciper le plus possible de notre vue subjective.

De la même façon, l’observation de l’ATP synthase comme elle est présentée dans cette vidéo, nous donne à voir ce qui n’est ni plus ni moins qu’un moteur rotatif moléculaire. Je suis moi-même toujours émerveillé d’en voir une reproduction tourner, ce n’est pas la question. Mais notre vue subjective nous porte à croire qu’il s’agit là d’un produit fini, apparu tel quel et conçu à cette fin. Cette vue subjective ne nous montre pas le processus évolutif ayant conduit à ce moteur.

Pour comprendre le phénomène, il nous faudrait donc l’objectiver, nous donner les moyens par une série d’observations objectives, délivrées au maximum de nos biais d’observateurs de voir ce phénomène.

Dans ce billet, je vais donc énumérer le plus simplement possible les observations objectives qui permettent de voir et de comprendre la théorie de l’évolution. Ce billet s’adresse essentiellement aux personnes qui pourraient tomber sur ce genre de vidéos, et hésiter à leur donner du crédit pour les raisons citées plus hauts, à savoir leur qualité de réalisation et la simplicité de leurs propos, et non pas pour la solidité scientifique de leur contenu. Je reviendrai ensuite sur les différentes critiques qui sont classiquement faites à ces observations des mécanismes étayant la théorie de l’évolution, et les réponses logiques à leur donner.

Qu’est ce que l’évolution des espèces par sélection naturelle ?

L’évolution est le processus par lequel les êtres vivants se transforment de génération en génération par la transmission génétique. La sélection naturelle est le mécanisme principal de l’évolution et favorise la survie des plus aptes en leur permettant de transmettre leur patrimoine génétique à la génération suivante. Ainsi, tout caractère octroyé par une mutation génétique et rendant son porteur plus apte à la survie est positivement sélectionné et transmis à la génération suivante.

Quelles observations permettent aux scientifiques de voir l’évolution sans voyager dans le temps ?

Différentes observations permettent de voir et de prédire l’évolution. Toutes ces observations sont indépendantes les unes des autres, suffisantes en elles mêmes pour soutenir l’évolution sans jamais enfreindre le principe de non contradiction, et convergent toutes vers la même explication. In fine, seule l’évolution permet de comprendre logiquement les transformations observées.

  • L’observation des espèces vivantes actuellement : lors de son voyage aux Galápagos en 1835, Darwin avait observé la présence de différentes sortes de petits pinsons (géospizes) sur les diverses îles de l’archipel. Chaque île était caractérisée par la présente d’une espèce de pinsons qu’on ne retrouvait pas sur les autres îles, et chacune de ses espèces se distinguait par la forme particulière de son bec. Rapidement, Darwin pensa qu’il s’agissait d’une adaptation de chaque groupe de pinsons à la nourriture présente sur l’île, et que tous ces groupes descendaient d’un ancêtre commun semblable. En effet, sur l’une des îles, les pinsons avaient un gros bec pour manger les graines sèches que l’on trouvait sur cette île, alors que sur une autre, les pinsons avaient un bec pointu leur permettant de piquer les oiseaux marins et de se nourrir de leur sang. D’autres encore, sur une autre île, avaient un petit bec agile dont ils se servaient pour mouvoir une brindille dont ils se servaient de pic pour atteindre les larves aux creux des arbres. Darwin présagea que la contrainte exercée par leur environnement avait modelé le bec de chaque groupe de pinsons afin de les rendre aptes à la survie dans cet environnement précis.

    En 1973, un couple de biologistes, Peter et Rosmary Grant, voulu vérifier l’hypothèse de Darwin à propos des pinsons des Galápagos. Ils mesurèrent donc avec précision, année après année, la forme et la dimension des becs des pinsons. Sur les îles où les pinsons se nourrissaient de fruits, ils constatèrent que les années humides, où les fruits étaient nombreux et tendres, les pinsons frugivores à bec fin dominaient. En revanche, après chaque sécheresse, où les fruits étaient peu nombreux et où ne restaient que les plus durs et secs, les pinsons frugivores à bec robuste dominaient. La contrainte environnementale semblait bel et bien influencer la fréquence des caractères morphologiques des becs dans les populations de pinsons.

    Mais le rôle de la sélection naturelle n’était pas encore certain. En effet, on pouvait penser qu’un autre mécanisme était à l’origine de ce changement de fréquence. Par exemple, ce qu’on appelle la plasticité ontogénique et que l’on nomme improprement l’adaptation physiologique, pourrait aussi être à l’origine des faits observés. Cette plasticité ontogénique aurait pu être induite par la nourriture sèche délivrée aux oisillons nés en période de sècheresse, conduisant à une croissance renforcée de leur bec. On observe ce mécanisme chez les populations humaines vivant à très haute altitude par exemple : ces gens présentent souvent des adaptations physiologiques à cette vie rude, acquises pendant leur croissance, comme l’augmentation du volume pulmonaire. Mais si ces gens redescendaient vivre au niveau de la mer, ils ne transmettraient pas ce caractère à leurs enfants. Pour écarter cette hypothèse, les Grant ont systématiquement mesuré les becs de tous les oisillons. Ils ont ainsi pu observer que le caractère morphologique observé chez eux était systématiquement conforme à celui observé chez les parents : les parents gros-bec avaient des oisillons gros-bec, et vice versa. Le caractère était donc bien transmis de génération en génération, sa distribution dans les populations de pinsons reflétait bien la distribution du caractère génétique positivement sélectionné.

    Ce phénomène a de nombreuses fois été observé sur différentes espèces animales et végétales.

  • L’observation de la sélection artificielle induite par l’homme : au tournant de la néolithisation, les sociétés humaines ont commencé à domestiquer des espèces animales et végétales. Le caractère morphologique sélectionné par les agriculteurs, s’il est déterminé par le code génétique de l’organisme sélectionné, sera logiquement transmis à la descendance. Une telle sélection de génération en génération produira des changements notables chez les descendants. Ainsi, les hommes ont sélectionné des milliers d’années durant les plans de maïs portant le plus de grains pour les faire se reproduire entre eux uniquement, et ont renouvelé l’expérience de génération en génération. Soucieux de produire plus de nourriture pour subvenir à leurs besoins, les anciens agriculteurs ont très empiriquement reproduit artificiellement le mécanisme de sélection. Aujourd’hui le maïs que nous cultivons a conservé ces caractères sélectionnés de productivité et n’a plus grand-chose à voir avec sa forme archaïque.

    Cette sélection artificielle, empirique, a été reproduite de nombreuses fois en laboratoire par les scientifiques. Ces derniers utilisent très souvent comme modèle la mouche du vinaigre, Drosophila melanogaster. Ils ont imposé une sélection sur quasiment tous les aspects imaginables de cet animal : taille du corps, couleur des yeux, vitesse de croissance, durée de vie, comportement… Le résultat est absolument constant : la sélection pour un caractère mène à un résultat clair et prévisible. Lors d’une expérience classique, les scientifiques sélectionnèrent un caractère particulier : la présence de soies (une sorte de poil) sur l’abdomen des mouches. A la première génération, toutes les mouches comptaient entre 9 et 10 soies. A chaque nouvelle génération, les scientifiques prélevèrent les 20% de mouches ayant le plus grand nombre de soies. Après 86 générations, le nombre moyen de soies par individu dans la population était de 40 ; il avait quadruplé. Lors d’une expérience suivante, les scientifiques établirent depuis une population commune une première colonie de mouches sélectionnées parmi celles ayant le plus grand nombre de soies, et une deuxième colonie constituée des mouches présentant le plus faible nombre de soies. Après 35 générations de sélection, il n’y avait plus aucun recouvrement du nombre de soies par mouche dans les deux colonies.

    Cette sélection artificielle peut produire des transformations substantielles qui ne se limitent pas à ce que l’on appelle la microévolution. Aujourd’hui, toutes les espèces domestiques, comme les chiens, sont issues de la sélection artificielle de l’homme au cours de son histoire. Chihuahua, Teckel, Lévrier, Mastiff : tous ont été façonnés de génération en génération par la sélection des hommes selon les caractères morphologiques qu’ils souhaitaient voir reproduits à la génération suivante. Remontant le cours des sélections, toutes les variétés de chiens domestiques descendent ultimement des premiers loups domestiqués par les sociétés préhistoriques.

  • L’observation des fossiles : c’est la preuve la plus directe de l’évolution. Le corpus des preuves fossiles est bien plus important qu’il ne l’était à l’époque de Darwin. Les fossiles sont les restes préservés d’anciens organismes vivants. Ceux-ci peuvent avoir été conservés fortuitement dans une coulée d’ambre, dans le permafrost sibérien, dans des cavernes sèches, où encore être pétrifiés dans un très long processus de sédimentation. Les fossiles sont rares, car habituellement, les plantes et les animaux morts se déposent à la surface du sol où ils se décomposent et sont consommés par d’autres organismes. Lorsque le milieu de dépôt permet la conservation des fossiles, ceux-ci sont mis au jour après plusieurs milliers ou millions d’années dans le sol, et sont donc très abimés. Logiquement, si ce phénomène de conservation est très rare, nous ne pouvons connaître que très peu d’espèces anciennes ayant autrefois peuplé la terre. Néanmoins, le nombre de découvertes s’est révélé suffisant pour livrer des informations détaillées sur l’évolution à travers les âges.

    Il est possible de dater les roches dans lesquelles se trouvent les fossiles, et donc de dater les fossiles qui y sont associés, par corrélation. A l’époque de Darwin, au XIXe siècle, les roches étaient datées par chronologie relative ; c’est-à-dire que l’on ne connaissait pas encore de techniques permettant de véritablement dater l’ancienneté des couches géologiques, et celles-ci étaient donc datées les unes par rapport aux autres : une couche géologique placée sous une autre est logiquement plus ancienne que celle-ci. Aujourd’hui, il est possible de déterminer la chronologie absolue des roches grâce à des méthodes physiques qu’on appelle isotopiques. En effet, lorsqu’une roche se forme, certains de ses éléments constitutifs existent sous différentes formes physiques, les isotopes. Ces éléments se dégradent au cours du temps, mais les différents isotopes d’un même élément ne se dégradent pas à la même vitesse. Connaissant la vitesse de dégradation des éléments, il est ainsi possible de faire le rapport quantitatif des isotopes présents dans la roche à dater, et de connaître l’ancienneté de celle-ci.

    Les fossiles permettent d’observer les transitions évolutives. Le fossile de transition le plus célèbre est probablement celui de l’archéoptéryx (qui signifie « plume ancienne »). Cet animal vivait il y a environ 165 millions d’années et est clairement intermédiaire entre les oiseaux et les dinosaures. Ses plumes, très semblables à celles des oiseaux actuels, le rapprochent clairement de ces derniers. Cependant, d’autres caractères, comme les dents, la queue osseuse et d’autres points anatomiques, le rapprochent tout aussi clairement des dinosaures carnivores. Il est en fait tellement semblable à ces derniers que plusieurs spécimens dont la trace des plumes n’a pas été conservée ont été identifiés comme des dinosaures. L’archéoptéryx montre une tendance propre aux espèces de transition qui présentent à la fois certains traits semblables à leurs ancêtres et certains traits semblables à ceux de leurs descendants.
    Aujourd’hui, on connait des fossiles de transition pour tous les groupes majeurs de vertébrés.

    Archaeopteryx lithographica (Berlin specimen).jpg
    « Archaeopteryx lithographica (Berlin specimen) » par H. Raab (User:Vesta) — Travail personnel. Sous licence CC BY-SA 3.0 via Wikimedia Commons.

  • L’observation anatomique : la théorie de l’évolution doit sa force à sa capacité de fournir un cadre logique autorisant l’interprétation de la diversité de la vie. De nombreuses observations dans tous les domaines ne s’expliquent que par l’évolution. C’est le cas des structures homologues, qui suggèrent une origine commune. Au cours de l’évolution en effet, les mêmes os ont pu servir à des fonctions différentes. Ces os restant visibles, leur présence révèle leur origine évolutive commune. Ainsi, les membres antérieurs des vertébrés (nos bras) sont des structures homologues, c’est-à-dire qu’elles diffèrent en forme et en fonction mais dérivent toutes d’une forme unique chez un ancêtre commun. On peut voir les membres antérieurs de différents mammifères dans l’illustration suivante. Les mêmes structures sont toujours présentes, mais dans des formes différentes : un gros os unique à la base du membre, puis une paire d’os, et un grand nombre de petits os à l’extrémité. Pourquoi ces formes très différentes présentent-elles toujours la même structure ? Sans l’évolution, cette observation est incompréhensible. Mais en admettant que ces différents animaux descendent d’un ancêtre commun, il est aisé de comprendre que la sélection naturelle a modifié la structure de départ pour la faire répondre à des fonctions différentes.

    On peut également voir l’ancestralité commune des différents animaux à travers les stades de leur développement embryonnaire. Les embryons des différents vertébrés se ressemblent souvent durant les stades précoces avant de se différencier peu à peu. Au tout début de leur développement, les embryons humains et ceux de poissons possèdent chacun des poches pharyngées formant diverses glandes et canaux chez l’homme, mais qui deviennent des fentes branchiales chez les poissons. A un stade plus tardif, chaque embryon humain possède une queue osseuse, dont l’adulte conserve une trace avec les vertèbres formant le coccyx, tout en bas de la colonne vertébrale.

    Certaines structures anatomiques sont mal adaptées à leur fonction. La sélection naturelle ne peut agir qu’à partir du matériel génétique présent dans la population. Il n’est donc pas surprenant de voir des structures mal adaptées aux contraintes environnementales, car façonnées avec les moyens du bord.

    L’œil des vertébrés est un excellent exemple d’imperfection. En effet, les photorécepteurs de ces derniers sont tournés vers le fond de l’œil, et non pas vers l’avant, vers la source de lumière. De fait, les fibres nerveuses des cellules photo réceptrices des yeux de vertébrés partent vers l’intérieur de l’œil avant de revenir vers le fond, et occultent donc légèrement la lumière transmise aux photorécepteurs. Par ailleurs, toutes ces fibres nerveuses se rejoignent en un faisceau épais, le nerf optique, comme une gaine électrique, pour traverser la paroi de l’œil en direction du cerveau. Ce trou au milieu du champ de photorécepteurs provoque immanquablement une tache aveugle.

    Les yeux des mollusques en revanches sont beaucoup plus perfectionnés : les photorécepteurs sont dirigés vers l’avant, les fibres nerveuses ne s’interposent pas entre la source de lumière et les cellules photoréceptrices et le nerf optique ne fait pas un trou au milieu des photorécepteurs.

    De fait, la sélection naturelle agit comme un bricoleur et non pas comme un ingénieur. Un bricoleur fait au mieux avec les matériaux à sa disposition, alors que l’ingénieur conceptualise une structure adaptée à une fonction déterminée en cherchant à éviter les erreurs de conception.

    Certaines structures anatomiques ne semblent pas avoir de fonction, comme des vestiges abandonnés. Les structures vestigiales peuvent être expliquées comme des reliquats du passé. En effet, on peut observer des structures anatomique ayant apparemment perdu toute fonction. Les hommes possèdent par exemple des muscles leur permettant de faire bouger leurs oreilles. Alors que les mêmes muscles servent à d’autres animaux à orienter leurs oreilles dans le sens de menaces détectées comme le grognement d’un prédateur, ces muscles n’ont aucune utilité chez l’homme et sont souvent impossibles à utiliser. Notre appendice vermiculaire est également vestigial. On ne lui connait aucune fonction actuelle, alors qu’il sert chez les herbivores à la digestion de la cellulose. De telles observations sont nombreuses, et peuvent également se faire au niveau moléculaire. Ainsi, le poisson des glaces qui vit dans les eaux froides de l’antarctique est quasiment transparent. Ce fait s’explique non seulement par son absence de pigmentation, mais également par la transparence de son sang. Le sang est normalement rouge à cause de l’hémoglobine qu’il contient, la molécule chargée de transporter l’oxygène. Or, plus les eaux sont froides, plus elles contiennent de l’oxygène. L’eau de l’antarctique est tellement froide, 0°C, qu’elle contient suffisamment d’oxygène pour que le poisson des glaces puisse se passer d’hémoglobine. Ce caractère devenu inutile a été supprimé. En revanche, le code génétique du poisson des glaces contient toujours le gène nécessaire à la fabrication d’hémoglobine, il a simplement été désactivé. C’est un gène fossile, ou pseudogène, et ceux-ci s’observent en fait chez de nombreuses espèces.

  • Les observations biogéographiques : la biogéographie est l’étude de la répartition géographique des espèces vivantes. La biogéographie nous permet de voir que des régions différentes abritent des groupes de plantes et d’animaux étonnamment semblables bien qu’ils soient peu apparentés. Il est très difficile d’attribuer autant de similitudes au simple hasard. Au lieu de ça, on comprend très bien que la sélection naturelle ait favorisé des adaptations évolutives parallèles dans des environnements semblables. Ainsi, dans chacun des environnements, la morphologie des groupes de plantes et d’animaux a convergé. On appelle ce phénomène l’évolution convergente.

    On peut ainsi observer deux groupes très importants de mammifères, les marsupiaux et les placentaires, qui ont évolués séparément mais parallèlement dans différentes régions du mondes coupées l’une de l’autre. Chez les marsupiaux, les jeunes naissent à un stade très immature, et ils doivent encore vivre un certains temps dans une poche ventrale. C’est par exemple le cas des kangourous. Ce n’est pas le cas des placentaires.

    L’Australie s’est séparée des autres continents il y a 70 millions d’années. A cette époque, les marsupiaux et les placentaires s’étaient déjà séparés, et on ne trouvait que des marsupiaux en Australie. Aujourd’hui, les marsupiaux australiens ressemblent étonnamment aux placentaires vivants sur les autres continents. Là encore, le hasard ne suffit pas à expliquer ce phénomène qui trouve en revanche une explication complète, logique et sans contradictions comme étant le résultat de l’évolution convergente : des formes de structures similaires apparues dans des environnements différents mais semblables et ayant exercés une pression sélective comparable.

    L’évolution convergente est un phénomène répandu.

    Quelles sont les critiques adressées à la théorie de l’évolution par les créationnistes et comment y répondre ?

Dans le film qui a motivé la rédaction de ce billet, on trouve les mêmes arguments éculés et ressassés par les créationnistes depuis 150 ans. L’appel au bon sens à déjà été rejeté au début de cet article. Le film en question se repose essentiellement sur une très mauvaise interprétation de la notion de hasard, ou ce qu’on appelle les phénomènes stochastiques, si vous voulez briller en société. Je vous présente ici les arguments immanquablement présents dans le film, et ceux qui seront présents dans ses parties suivantes et dans les autres films créationnistes à venir. Ainsi, vous saurez par avance quoi y répondre.

1. L’évolution n’est pas solidement démontrée, ce n’est qu’une théorie !

=> Contrairement à ce que pensent les créationnistes, « théorie » n’est pas synonyme d’  « infondée » ou même d’ « hypothèse ». Une théorie est basée sur des preuves observationnelles nombreuses et solides, des expérimentations largement reproduites indépendamment et des calculs prédictifs fonctionnels. Une théorie scientifique est ainsi bien différente de ce qu’entend par là le grand public, à savoir une proposition gratuite balancée entre la poire et le fromage.

2. Vous n’avez pas de chaînon manquant, on n’a jamais vu de nageoire entrain de se transformer en pied !

=> Cette remarque pouvait se comprendre à l’époque de Darwin, mais depuis, et comme je l’ai expliqué plus haut, on a au contraire découvert de très nombreux et très importants fossiles de transitions montrant les évolutions entre les structures principales. Ça n’empêche pas les créationnistes de ressasser cet argument.

3. Tout ça est trop complexe pour être le fruit du hasard et doit avoir été dirigé par une intelligence supérieure (Intelligent design), une horloge doit avoir été fabriquée par un horloger !

=> L’évolution des espèces par sélection naturelle n’est pas aléatoire. Au contraire puisqu’en favorisant les variations qui conduisent à une meilleure capacité de reproduction de l’espèce, elle agit indépendamment du hasard et conduit au développement d’organes très complexes par petites étapes successives de génération en génération. On connait ainsi de nombreuses formes d’yeux intermédiaires, et parmi eux, des formes imparfaites, comme ceux des vertébrés dont les hommes, surpassés dans leur conception par ceux des mollusques. La conception du dessein intelligent étant censée être parfaite, et l’aboutissement ultime de cette perfection étant censé être l’homme, l’Intelligent design entre en contradiction patente avec les observations factuelles élémentaires. Il viole ainsi le premier principe du raisonnement logique.

4. L’évolution viole la seconde loi de la thermodynamique, car une pile de kapla jetée au sol ne formera jamais une structure organisée par hasard : les évènements aléatoires créent de la désorganisation, c’est la règle de l’entropie !

=> L’entropie opère dans un système fermé, ce que la Terre n’est pas. L’énergie solaire délivrée en permanence par le soleil entretient la vie et tous ses mécanismes.

5. La synthèse d’une protéine est im-po-ssi-bleuh : l’hémoglobine alpha 141 comporte 141 acides aminés successifs, la probabilité pour que le premier, la leucine, soit à sa place est de 1/20, mais la probabilité pour que les suivants soient à la leur est de (1/20)141 !

=> On ne peut pas utiliser des statistiques pour argumenter a posteriori. La probabilité pour qu’un étudiant dans un amphithéâtre ait son anniversaire à un jour donné est de 1/365. Si on suit le même raisonnement, la probabilité que chaque élève d’un amphi de 250 ait son anniversaire au jour prévu est de (1/365)250, et pourtant cet amphi existe bien ainsi que les anniversaires de chaque étudiant.

6. Sélection naturelle ne veut pas dire évolution : vous n’avez jamais pu voir un poisson se transformer en grenouille pour échapper à un prédateur !

=> Ce phénomène a été reproduit artificiellement et expérimentalement. Les différentes variétés de chiens, comme je l’ai expliqué plus haut, présentent des structures extrêmement éloignées, qui seraient probablement jugées comme appartenant à des espèces différentes si on en connaissait que des fossiles. On a pu reproduire expérimentalement de telles modifications de structures associées avec une perte de l’interfécondité. Dans la nature, cela correspond clairement au phénomène de spéciation.

7. La complexité du vivant est irréductible, la machinerie moléculaire de la cellule ne peut s’expliquer par des stades plus simples, car chaque partie d’un processus complexe est nécessaire à l’ensemble !

=> Mais chaque part n’évolue pas comme ensemble d’un système. Chaque part peut être ajoutée, retirée, modifiée tout en étant conservée à la génération suivante pourvu qu’elle permette la survie du système. L’évolution agit sur chaque part qui peut se complexifier au fil du temps par petites touches successives. Depuis 150 ans, les créationnistes ont souvent affirmé que telle ou telle structure était trop compliquée pour advenir naturellement. Chaque fois, une étude scientifique approfondie a permis de comprendre la voie évolutive possible au cours de laquelle la structure s’était formée.

J’espère que ce billet, même lu en diagonale, pourra tomber entre les mains de personnes s’étant posées des questions devant ce film créationniste, ou d’autres dans le même genre. Si c’était le cas, qu’ils sachent que la science ne s’intéresse pas au « pourquoi » -question hautement métaphysique posée en ouverture du film, comme c’est souvent le cas- et ne prétend pas y répondre (on pense même que la question n’a pas vraiment lieu d’être), mais elle s’intéresse au « comment ». C’est l’écueil systématique des créationnistes : prétendre répondre au « pourquoi » en faisant semblant de répondre au « comment », le tout sans aucune assise scientifique.

Si vous avez des questions à poser, même si elles vous semblent stupides ou naïves, n’hésitez pas à le faire dans les commentaires à la suite de ce billet.

[Trad] «Pourquoi la négation des consensus scientifiques sur les OGM et la vaccination devrait être traitée de la même façon ».

 

Caricature par James Gillray, 1802 : « La variole, ou les effets merveilleux de la nouvelle inoculation ! ». Cette caricature dépeint les allégations qui circulaient à l’époque selon lesquelles l’inoculation de la variole bovine (une procédure précurseuse de la vaccination que nous connaissons aujourd’hui) conduisait au développement de caractères bovins chez les inoculés. La proximité de telles représentations avec les allégations caricaturales qui peuvent encore irriguer les discours anti-OGM au 21e siècle sont assez frappantes (cette illustration et son commentaire ne figurent pas dans la version originale de l’article ici traduit).

Article publié par Keith Kloor sur Discover le 7 août 2014.

Plus tôt dans le courant de l’année [ndtr : en 2014], deux auteurs ont écrit dans Mother Jones :

« C’est facile de trouver de mauvaises informations à propos de la sûreté des vaccins sur internet ».

Ça c’est vrai. C’est aussi facile de trouver de mauvaises informations à propos de la sûreté des OGM sur internet.

Ce qui m’intrigue, c’est pourquoi les journaux libéraux [ndtr : aux USA, comprendre « progressistes »] reconnaissent les « mauvaises informations » sur les vaccins mais pas sur les OGM (Grist est dorénavant une exception notable, après avoir diffusé des informations biaisées sur les OGM pendant des années). Pour que ce soit clair, la science sur les OGM est aussi solide et reconnue que sur les vaccins. Alors pourquoi les journaux libéraux comme le Huffington Post, qui acceptent le consensus scientifique sur les vaccins, n’acceptent pas celui sur les OGM ?

Je vais présenter un exemple illustrant ce Lire la suite