Glyphosate : comment en est-on arrivé là ?


Je fais dans ce billet une traduction synthétique de l’article publié dans la revue open access Journal of Public Health and Emergency (JPHE) en octobre 2017.

J’y ajoute certaines observations marginales. Il s’agit d’un éditorial dont la compréhension est aisée et les notions claires. Je vous invite ainsi à le lire directement en anglais. Dans leur déclaration de conflits d’intérêt, les auteurs affirment n’avoir reçu aucun financement pour la rédaction de cet édito, mais précisent avoir travaillé par le passé sur le glyphosate dans des recherches financées par l’industrie. [1] Ceci étant dit, ils concentrent dans cet article un certain nombre d’éléments absolument fondamentaux pour toute personne estimant avoir une opinion sur le sujet : corpus de données utilisé dans l’évaluation de la substance, principe actif vs. formulations, danger vs. risque, etc.. Ces rappels sont fondamentaux et simples de compréhension, mais force est de constater qu’ils ne semblent pourtant pas dominer le « débat » public. On peut facilement imaginer que si c’était le cas, ce « débat » n’existerait pas, ou du moins, pas dans ces proportions et formes là.

Médias, dénis et réalité

L’accès à l’information est de plus en plus aisé. Les médias sont nombreux, et à ceux d’entre eux qu’on pourrait qualifier de « traditionnels » (presse écrite, radio, télévision) se sont ajoutés les médias en ligne et la diffusion d’informations via les réseaux sociaux. Ce contact avec l’information, indépendamment de sa pertinence ou de sa véracité, permet une bien meilleure appropriation par le public de problématiques relatives à sa santé, ou à l’environnement. Hélas, l’information accrocheuse, sensationnaliste, basée sur l’émotion ou le raisonnement motivé, se trouvent en concurrence avec les informations tendant à l’objectivité factuelle et à la neutralité axiologique. De surcroît, certains médias ou diffuseurs d’informations se sont fait une spécialité de la diffusion d’informations de qualité médiocre, voire systématiquement négationnistes au regard des connaissances scientifiques. (Je rappelle ici que le négationnisme ne concerne pas uniquement le négationnisme historique, mais toutes les sciences. Je suis désolé qu’en France en particulier, cela apparaisse comme un point godwin prématuré. Dans les pays anglo-saxons, il n’y a qu’un seul mot pour tout cela : le « denialism ». Veuillez donc croire qu’il n’y a là aucune tentative de reductio ad hitlerum des personnes peu en phase avec l’état des connaissances scientifiques, mais seulement la reconnaissance du fait que cette rupture entre savoir scientifique et préférences personnelles s’applique également à différents champs de connaissance selon les mêmes modalités, bien au-delà de l’histoire du XXe siècle. Le bât blesse lorsqu’on constate que ces postures négationnistes, bien que souvent mortifères, sont pourtant socialement bien admises, voire même populaires).

On a pu voir ces dernières années par exemple le visibilité grandissante du mouvement anti-vacciniste, au sujet duquel il me semble juste de constater que les médias dit « mainstreams » n’ont rien à envier à internet et aux médias dits « alternatifs » en terme de malinformation voire de désinformation militante (cf. le cas récent de la tribune laissée à l’actrice Isabelle Adjani sur une radio du service public). Le constat demeure que quelle que soit l’origine de la désinformation, sa diffusion aura bien souvent le temps de faire le tour du monde avant que la réalité n’ait le temps d’enfiler ses chaussettes… Mais il serait mensonger de faire croire que toute malinformation diffusée le serait à dessein. Certaines idées reçues et incompréhensions de la part du public reposent avant tout sur les défauts de communication de leurs premiers émetteurs et à la complexité des sujets discutés.

Le glyphosate dans tout ça : une communication inadaptée au public

En effet, le traitement médiatique du glyphosate ces dernières années semble être un cas d’école de cet enchevêtrement de difficultés, à commencer par les défauts de communication initiaux. En 2015, une agence de l’OMS, l’IARC (International Agency for Research on Cancer), a préparé une monographie à propos du glyphosate (une molécule très utilisée dans le monde pour ses propriétés herbicides), ainsi que sur les formulations (différents herbicides) comprenant du glyphosate. La conclusion de cette agence l’a conduite à attribuer le glyphosate au groupe 2A de sa classification, regroupant les substances « probablement cancérogènes pour les humains ». [2] [3] Cette annonce a conduit l’EFSA (European Food Safety Authority) à revoir son évaluation du glyphosate, et à conclure que la molécule n’était probablement pas cancérogène pour les humains et n’exigeait donc pas d’être classée parmi les substances cancérogènes. [4]

D’emblée, il est tout à fait normal d’imaginer que le public, sur la base de cette apparente contradiction, ne puisse être que désarçonné, sinon suspicieux (en lieu et place de quoi je ne saurai trop que conseiller le scepticisme a priori sur les faits, moins chargé et plus en phase avec la suspension temporaire de jugement, ouvert au réajustement de son opinion personnelle).

Le corpus de données à l’origine des différentes évaluations du glyphosate

En première instance, nous pouvons constater que la divergence des conclusions des deux agences, l’IARC et l’EFSA, est avant tout conditionnée par les corpus de données utilisées, qui ne sont pas strictement identiques.

Se fondant sur des exigences de transparence, l’IARC a ainsi considéré toutes les données publiées dans la littérature scientifique ou acceptées pour une publication imminente. Ce type de données est très facilement accessible à tous les scientifiques dans le monde, et un peu moins par le grand public qui n’aurait pas d’accès académiques ni de compétences scientifiques. Mais toutes les données utiles à ce type d’évaluations ne sont pas nécessairement publiées dans la littérature scientifique. On trouve ainsi facilement des études épidémiologiques ou des études de cas, ainsi que des études toxicologiques menées sur des modèles animaux (comme des rats par exemple). Mais dans d’autres cas, certaines données ne sont remises par les fabricants qu’aux seules autorités de régulation qui leur imposent un certain nombre de normes contraignantes à respecter, sans pour autant que ces données ne fassent l’objet de publications scientifiques. Ces données non publiées sont très importantes, car elle peuvent représenter une très vaste part du corpus de données disponibles sur un produit. J’attire votre attention sur le fait que ce que l’auteur appelle ici la « transparence » dans le texte, repose sur l’utilisation de données publiées dans la littérature scientifique. Cela n’est hélas pas un certificat d’utilisation et de présentation solide et objective de ces données.

C’est ainsi que l’EFSA, contrairement à l’IARC, considère également ces données non publiées dans ses évaluations, dès lors qu’elles sont conformes aux normes exigées (qui sont des critères de scientificité appelés « GLPs » pour Good Laboratory Practices).

Selon les auteurs de cet article, cette dernière approche, considérant toutes les données disponibles indépendamment de leur publication préalable, fournit une base d’évaluation plus robuste que les données publiées seules, d’autant plus que toutes les données publiées ne respectent pas nécessairement ces GLPs. Ils précisent que les données publiées émanent bien entendu la plupart du temps de laboratoires académiques de haute qualité, mais que les travaux générés ne sont pas nécessairement les plus utiles à l’évaluation de la sécurité d’un produit. A contrario les données évaluant la sécurité d’un produit, à plus forte raison si les résultats sont négatifs (c’est-à-dire pas d’effet nocif démontré), n’intéressent pas forcément la publication scientifique (je suis personnellement sceptique sur ce point précis). Toujours est-il que le processus d’évaluation de l’IARC, bien que transparent, semble biaiser son corpus en ignorant la majeure partie des données pourtant disponibles sur le sujet (car si ces données ne sont pas publiées dans la littérature scientifique, elles restent bien entendu accessibles aux agences de régulation). Dans le même temps, il me semblerait tout à fait souhaitable que les données des industriels utilisées par l’EFSA soient également rendues publiques (ce qui est quasiment déjà le cas en ce qui concerne le glyphosate grâce à la pléthore d’évaluations faites à son sujet ces deux dernières années).

Le danger et le risque (hazard and risk)

La diffusion d’informations intuitivement contraires est une chose, la diffusion de notions complexes en est une autre. C’est le deuxième problème fondamental alimentant les conversations courantes ou malinformations auxquelles nous pouvons assister quotidiennement, bien au-delà du seul sujet du glyphosate.

L’IARC déclare ainsi :  « The (IARC) Monographs are an exercise in evaluating cancer hazards, despite the historical presence of the word ‘risks’ in the title. The distinction between hazard and risk is important, and the Monographs identify cancer hazards even when risks are very low at current exposure levels, because new uses or unforeseen exposures could engender risks that are significantly higher. » [2]

à savoir : « Les monographies de l’Agence produisent une évaluation des dangers de cancer, en dépit de la présence du mot ‘risques’ dans le titre. La distinction entre le danger et le risque est importante, et ces monographies identifient les dangers de cancer même quand les risques sont très bas aux niveaux d’exposition réels, car de nouveaux usages à des expositions encore non rencontrées auparavant pourraient engendrer des risques plus importants ».

Ainsi, l’IARC ne procède clairement qu’à l’évaluation des dangers, bien qu’elle évoque aussi les différentes expositions (exposure). [3] Ce n’est évidemment pas une mauvaise chose, car c’est le premier pas dans le processus dévaluation des risques réels. De surcroît, l’IARC ne repose apparemment que sur une approche statistique (je rappelle que l’IARC ne fait pas de recherche), en dépit de la plausibilité des phénomènes biologiques discutés.

D’un autre côté, l’EFSA, comme d’autres agences de régulation, évalue le risque de cancer, c’est à dire la probabilité de développer un cancer après avoir été exposé au produit évalué. Cette distinction est aussi basique qu’importante. Ainsi, l’EFSA considère un corpus de données non seulement bien plus important, mais quantifie également en regard de ces données le risque réel pour la population exposée au produit. Il faut bien comprendre que le soleil et le café présentent également un danger cancérogène. Le risque réel de développer un cancer dépend néanmoins totalement de l’exposition à ceux ci. Ainsi, l’EFSA considère non seulement le danger, mais également les mécanismes d’action, les voies d’administration et l’exposition réelle. Dès lors, l’agence présente une évaluation des risques selon différents scénarios réalistes (l’exposition environnementale pouvant varier), comme le risque via l’alimentation des consommateurs, ou le risque pour les professionnels manipulant ces produits. Dans les deux cas, ces groupes sont exposés au même danger, mais absolument pas au même risque. Et c’est ainsi que l’EFSA aboutit à une conclusion apparemment différent de celle de l’IARC.

Cette distinction peut être appréciée facilement grâce à cette infographie schématique produite par un sceptique francophone :

Sur l’évaluation du risque, vous pouvez également consulter ce billet plus fouillé.

Dans la foulée, d’autres agences de régulation ont également procédé à la réévaluation du risque représenté par le glyphosate pour les humains, et sont arrivées à des conclusions similaires à celle de l’EFSA (par exemple la Pest Management Regulatory Agency au Canada [7]).

Pour les auteurs de cet article, c’est là que réside l’information véritablement utile pour le public : dans l’évaluation des risques réels, ce qui me semble on ne peut plus élémentaire. Notez que cela ne permet pas aussi facilement de vendre des manchettes accrocheuses et anxiogènes dans la presse généraliste.

Tabloïd ? Vignette d’une obscure chaîne youtube de « réinformation » ? Non. L’Obs en 2017, 5 ans après une couv’ déjà particulièrement honteuse sur les OGM.

Glyphosate et formulations

Les produits herbicides utilisant du glyphosate comprennent également d’autres molécules. Celles ci aident le produit actif (le glyphosate), à avoir l’effet escompté. De fait, divers fabricants peuvent distribuer différentes formulations, toutes basées sur le glyphosate. Ces différents co-formulants peuvent avoir des propriétés toxiques intrinsèques, indépendamment de celle du glyphosate avec lequel ils sont utilisés.

C’est là encore une distinction expliquant les résultats apparemment divergents entre les différentes agences. L’IARC en effet évalue le danger non seulement du glyphosate, mais également des co-formulants avec lesquels il est utilisé, alors que l’EFSA évalue chaque produit séparément. En fait, l’IARC n’a pas évalué individuellement chaque produit contenu dans les différentes formulations, et n’a ainsi pas cherché à connaître l’effet particulier du glyphosate, pas plus que des autres co-formulants. Cela semble néanmoins faire sens en terme de santé publique : en effet, comme le postule l’IARC, le public est exposé aux formulations, et non au glyphosate seul. En revanche, l’éventuel danger, voir risque cancérogène, ne peut être attribué à une molécule particulière dans une telle approche. On s’expose alors au fait de ne tout simplement pas savoir quel est le réel agent causal du cancer (si cette relation de cause à effet est toute fois détectée), et à ne pas pouvoir agir sur lui, ni le réguler.

La nécessité de réfléchir à la communication scientifique, notamment sur la santé

On constate in fine que les évaluations de l’IARC et de l’EFSA ne sont pas intrinsèquement contradictoires l’une avec l’autre. Ce sont en fait deux choses différentes, qui ne font pas exactement les mêmes évaluations. Pourtant, le sujet est sensiblement le même, ainsi que le vocabulaire et le crédit que l’on peut accorder à des agences de régulation internationales et publiques. Indépendamment des mésusages qui pourraient être faits des ces résultats par différents diffuseurs d’informations selon leurs agendas politiques/idéologiques/philosophiques parfois opposés, il n’en demeure pas moins un scepticisme attendu du public.

Ainsi, bien en amont de ces potentiels mésusages, il est capital que les agences communiquant sur des questions de santé publique s’emparent des bonnes façons de communiquer en 2017, en particulier sur des problématiques impliquant la santé des individus.

Cela est particulièrement vrai pour l’IARC, qui, bien que se fondant sur une démarche « transparente » ne peut échapper au fait qu’en communiquant sa classification d’un produit comme « probablement cancérogène pour les humains » (groupe 2A incluant d’autres produits de consommation courante et non sujets à polémiques comme la viande rouge ou le café trop chaud [5] [6]), le public sera porté à entendre « qui cause le cancer ». Et il est bien compréhensible que n’importe quel esprit, y compris une caricature de rationaliste dénué de réactions émotionnelles, se mettra immédiatement en alerte à cette mention.

Faute de quoi, non seulement les agences perdront en crédibilité auprès du public (ce qui est dramatique lorsqu’on souhaite communiquer sur des enjeux de santé publique), mais perdront aussi en crédibilité auprès de la communauté scientifique pour ne pas communiquer clairement des conclusions conformes aux corpus et méthodes employées, ici en laissant entendre un risque réel, grave et permanent, où seul un danger a été évalué.

J’insiste sur le fait que ces considérations sont fondamentales pour quiconque prétendrait avoir un avis sur la question, bien avant de plonger tête la première sur l’analyse au doigt mouillé des intérêts et malversations d’un tel ou d’un autre dans l’affaire (qu’il s’agisse de certains rédacteurs de la monographie de l’IARC d’une part, ou des industriels d’autre part). On ne peut exiger vérité et transparence sans accepter au préalable de se soumettre à l’apprentissage et à l’examen de quelques données techniques élémentaires.

Bien entendu, l’investigation des potentiels biais dans la conduite de ces évaluations, au delà de leur aspect purement technique, est importante et salutaire. Dans la deuxième partie de ce billet, nous aborderons quelques points saillants à ce propos concernant les différentes évaluations du glyphosate..

Références :

[1] DeSesso et al., Conflicting views on the potential carcinogenicity of glyphosate: how did we get here and what should we do?, JPHE, 2017

[2] IARC, Some Organophosphate Insecticides and Herbicides, IARC Monographs on the Evaluation of Carcinogenic Risks to Humans, volume 112, 2017

[3] IARC, Glyphosate, in Some Organophosphate Insecticides and Herbicides, IARC Monographs on the Evaluation of Carcinogenic Risks to Humans, volume 112, 2016

[4] EFSA, Conclusion on the peer review of the pesticide risk assessment of the active substance glyphosate, EFSA Journal, 2015

[5] IARC, IARC Monographs evaluate consumption of red meat and processed meat, Press release n° 240, 2016

[6] IARC, IARC Monographs evaluate drinking coffee, maté, and very hot beverages, Press release n°244, 2016

[7] Pest Regulatory Agency, Re-evaluation Decision RVD2017-01, Glyphosate, 2017

Publicités

14 commentaires sur “Glyphosate : comment en est-on arrivé là ?

  1. Avec la décision de l’UE (27/11/2017), le feuilleton « glyphosate » a franchi une nouvelle étape. On pourrait s’étonner qu’il suscite tant de réactions dans les différents camps, mais au fond, il s’agit là d’un bon « cas de figure ».
    Je relève pour ma part deux anomalies dans ce débat:
    – la première est que personne ne semble se questionner sur ce que devrait être l’ « expertise indépendante ». Tout se passe comme s’il semblait acquis que seul l’appât du gain peut affecter l’objectivité scientifique. On demande donc à quiconque publie ou émet une opinion de produire une « déclaration d’intérêt » qui n’est susceptible que de mettre en évidence un intérêt financier ou un avantage matériel. Or il peut y avoir d’autres motivations, et au moins aussi fortes que celles de l’argent, pour biaiser le jugement. Il est d’ailleurs paradoxal que sur des sujets qui concernent le bien commun et l’éthique, on ne s’appuie que sur une échelle de valeur (celle de l’argent et de son pouvoir de corruption)- pour juger de ce qui est éthique ou pas.
    – la seconde est de nature plus technique, donc le commentaire sera « zappé », mais elle pose une question qui n’est pas technique. La communauté scientifique bruisse de débats sur la reproductibilité et la « p-value ». La « p-value », c’est, pour simplifier, la probabilité que l’on se donne de décider qu’une molécule, ou un gène, ou une conduite de culture pour les plantes, ou une séquence de traitement médicaux, a un effet sur un processus, alors qu’ils n’en ont pas. Le standard scientifique cherche à minimiser ce risque d’erreur: 5%; 1%, voire moins. En fait, personne ne sait à quel niveau mettre ce seuil de décision: un usage s’est imposé, différent selon les disciplines. Cet empirisme a eu des vertus, notamment celle de permettre de faire un tri grossier entre des hypothèses. Mais personne ne s’est posé apparemment posé la question de savoir si les deux risques d’erreur qui résultent de toute expérience (décider qu’il y a un effet alors qu’il n’y en a pas, décider qu’il n’y a pas d’effet alors qu’il y en a un) devraient être raisonnés différemment selon la question posée. Si je cherche à trier parmi une multitude de gènes lesquels peuvent être impliqués dans un processus biologique, il est crucial, y compris pour l’économie de la recherche, que je ne détecte pas trop de « faux positifs ». Si je cherche à savoir quels sont les les effets secondaires d’un traitement médical ou phytosanitaire, la priorité est, du point de vue sociétal, que la règle de décision laisse suffisamment de chances au test statistique de détecter qu’il y a un effet lorsqu’il existe. Et ceci devrait amener à augmenter la p-value pour favoriser la puissance du test: accepter, au nom d’un « principe de précaution » bien appliqué, des faux positifs plutôt que rejeter des faux négatifs.
    A l’évidence, ces deux commentaires tirent dans deux directions opposées: le premier remet en cause une doxa quelque peu sectaire qui favorise les « anti », la seconde met en évidence les lacunes dans le discours des « pro ». Mais est-ce que rétablir les bases d’un dialogue sain n’est pas la première des priorités ?

    J'aime

    • La question de la p-value est réglée par la multiplication et la reproductibilité des études. Dans le cas du glyphosate il y a eu suffisamment de reproduction d’études et de meta-analyses pour ne pas se préoccuper de la p-value. Aussi soyons réalistes à 5% la p-value standard est plus dans le champ des faux positifs que des faux négatifs.

      J'aime

      • J’ai visiblement du mal à me faire comprendre. Je voulais souligner qu’en fonction de la question posée (et des conséquences sur la suite à donner), le privilège devrait être donnée soit à la réduction de l’erreur de première espèce (p-value) – et il est légitime que ce soit le cas lorsqu’on cherche à « déchiffrer » ou à identifier des « candidats » -, soit à la réduction de l’erreur de seconde espèce (complément à 1 de la puissance du test) – et ce serait légitime lorsqu’on teste les « effets secondaires ». Or de la puissance, il n’est que très rarement question.
        A titre d’exemple: Dans l’étude publiée le 09/11/2017 (http://dx.doi.org/10.1093/jnci/djx233) et dont les conclusions ont été retenues comme favorables aux défenseurs du glyphosate, les auteurs notent, y compris dans l’abstract, que « There was some evidence of increased risk of AML [acute myeloid leukemia, NDLR] among the highest exposed group that requires confirmation. » Cela montre bien que les auteurs eux-même s’interrogent sur la pertinence de la p-value retenue. Dans cette étude, alors que la cohorte analysée est très importante et est, en cela, de nature à conférer une forte puissance à l’analyse, il n’y a pas d’étude de puissance: cela montre bien l’absence de sensibilité sur cette question.
        Il faudrait peut-être qu’on se sorte de la tête qu’une p-value faible, même obtenue de façon répétée, est une garantie que le pronostic est adéquat en toutes circonstances.

        J'aime

      • @vincourt
        Je suis médecin et non pas biostatisticien mais je vais quand même tenter une explication. Il me semble que les méta-analyses permettent justement de contrecarrer le risque de deuxième espèce, à supposer que les études soient calibrées pour montrer une différence (et non une absence de différence). Le problème c’est justement que nous ne sommes pas dans le cadre d’un essai thérapeutique (il n’est pas acceptable de produire une étude comparative) mais plutôt dans de l’observationnel épidémiologique (exposés/non exposés), ce qui rend en fait caduque la question d’un calcul de puissance pour ce qui est des études « humaines ».
        Pour les études sur l’animal ce n’est pas mon domaine (encore moins je dirais) mais il me semble qu’un calcul de puissance (i.e nombre de sujets nécessaires) se base sur une hypothèse a priori d’une différence attendue. Hors je ne vois pas quelle hypothèse on pourrait faire. Alors peut-être à analyser 50000 rats dans chaque groupe mais alors le risque de première espèce est trop grand. Par ailleurs le risque alpha est augmenté quand on multiplie les critères de jugement (ici le développement de plusieurs types de tumeurs) ce qui tendrait à affecter la représentativité des résultats.
        Bref tout ça reste assez opaque.

        Par ailleurs merci à la théière cosmique, je suis content d’être tombé sur ce papier aujourd’hui. Mon fil Facebook est devenu un ramassis de lieux-communs et les articles de médias nationaux que je me suis forcé à lire (OBS, France Info, Le Monde…) sont ineptes au possible. Ouf !

        J'aime

  2. Bonjour,

    Comment on en est arrivé là; très simplement, en se focalisant uniquement sur la toxicité du Roundup au lieu de faire l’effort intellectuel nécessaire à la compréhension du rôle des herbicides dans lutte contre les mauvaises herbes.

    À ce petit jeu, tous les produits de protection des cultures sont toujours coupables. Il s’est passé la même chose avec le DDT il y a 50 ans alors que ce dernier a éradiqué le paludisme qui tuait des milliers d’enfants dans les DOM-TOM: http://www.who.int/malaria/publications/atoz/9789241507738/fr/

    Chose amusante, j’ai ouvert l’autre jour un ouvrage sur les mauvaises herbes (Fundamentals fo weed science, 4è éd, 2014) et je suis tombé sur le paragraphe « Use of handweeding tools », je vous en livre un extrait:

    «if human labor is not abundant and it is expensive, hand methods are cost prohibitive and not efficiants».

    On a aussi quelques chiffres sur le temps nécessaire au désherbage manuel:
    -Soja: 360 heures / ha
    -Maïs: 24-48 heures / ha
    -Blé: 101 heures / ha
    -Cotton: 50-700

    Demandons nous ensuite quel est le temps nécessaire à la même opération avec un pulvérisateur. La réponse: en 5 et 10 minutes.

    L’auteur rappelle aussi que la Californie a banni le désherbage manuel (arrachage sans outil) en 2004 pour des raisons de pénibilité du travail et de protection de la santé des travailleurs: http://www.nbcnews.com/id/6084196/ns/business-us_business/t/calif-bans-weed-pulling-hand-farms/

    En France, au contraire, on fait de la réinvention de l’agriculture du moyen age un «challenge» national. Ici la version startupper 3.0 du désherbage manuel: https://www.youtube.com/watch?v=W-bYFlLn1VQ

    Nul doute que la horde de chômeurs sous allocation revenu universel s’empresseront de mettre leur temps libre à disposition de la nouvelle agriculture non-toxine, éco-friendly, et hipster approved. Je propose à l’équipementier de ce «lit de désherbage» de rajouter le Wifi et un support à smartphone pour diminuer la pénibilité du travail.

    En attendant les Américains ont déjà mis de l’IA dans leurs pulvérisateurs: https://www.wired.com/story/why-john-deere-just-spent-dollar305-million-on-a-lettuce-farming-robot/

    Un agronome en colère.

    J'aime

    • Merci pour votre commentaire.
      Le passage sur le lit de désherbage est effarant… Mais encore une fois, les plus véhéments contre l’usage de la chimie en agriculture ne seront pas les petites mains exploitées dans les champs…

      J'aime

    • « L’auteur rappelle aussi que la Californie a banni le désherbage manuel (arrachage sans outil) en 2004 pour des raisons de pénibilité du travail et de protection de la santé des travailleurs: »

      La Californie a aussi interdit la binette à manche court… Le lobby du biobusiness a obtenu une dérogation en sa faveur.

      J'aime

    • Il faut 5 à 10 minutes pour passer du pesticide sur un hectare de champ et donc c’est bien ? Mais ne faut-il pas regarder de façon plus large ? Combien coûte au contribuable la remise en état des cours d’eau liée aux pratiques agricoles ? Et combien coûtent les dégâts non réparables ? Le DDT est un POP (comme les PCBs) perturbateur endocrinien (décime les populations d’oiseaux dont les insectivores), STOT RE1 et suspecté Cancéro. Heureusement qu’on l’a banni de partout où c’était possible.

      J'aime

    • Dans une société avec 10 à 15% de chômage, ne serait-il pas judicieux de faire du désherbage à la main.
      Plutôt que de balancer 40 milliards d’euros dans un CICE totalement inefficace ? Au moins ça permettrait d’avoir de la nourriture à peu près propre tout en réduisant le nombre de chômeurs…

      J'aime

      • Si vous comptez les faire travailler gratuitement et mourir plus jeunes en leur esquintant la santé, pourquoi pas 🙂

        Le désherbage à la main est impensable à une échelle importante. Dans un jardin potager chez un particulier qui ne vit et ne fait vivre personne de sa production pourquoi pas – et c’est déjà éprouvant physiquement – mais ca n’a rien à voir avec l’agriculture.

        Des pistes sur la pénibilité de cette tâche ont déjà été données par d’autres en commentaires de cet article ; de plus il est bien plus coûteux d’employer des arracheurs que de desherber en saidant de moyens plus technologiques… et ce coût se répercute mécaniquement sur les prix des produits.

        Un angle intéressant pour répondre vous-même à votre question est de se demander de maniere analogue pourquoi on ne fabrique plus les automobiles comme sur les chaînes de Ford T mais avec de nombreux robots.

        J'aime

  3. Bonjour
    Je suis cancélogue,
    J’ai fait une petite vidéo que j’ai mise sur youtube pour expliquer la différence entre un Hazard cancérigène et un risque cancérigène.
    Je parlerai prochainement du glyphosate mais avant il faut que je fasse des vidéos pour expliquer les concepts de facteurs de risques, risques relatifs, risques absolus, puissance d’une étude et facteur de risque d’une maladie. Tout ceci est en préparation.
    Voici l’adresse de ma chaine si ca vous interesse:
    https://www.youtube.com/channel/UCOhW7sWI8IeAi0ZYe-P3qRg
    a bientot
    David

    J'aime

  4. Bonjour,

    Merci pour ce billet. J’aimerais juste préciser certaines choses.

    Norme GLP
    La norme GLP est une norme « Good Laboratory Practices » (Bonnes Pratiques de Laboratoire). C’est avant tout une norme de transparence. Elle ne sert qu’à pouvoir assurer à une autorité d’aller vérifier jusqu’à 10 ans plus tard (pas au delà) que les données brutes archivées dans le laboratoire sont conformes à celles contenues dans le rapport. Notons que dans les faits, les autorités vont très très rarement vérifier. Mais ça encourage malgré tout les labos privés indépendants à ne pas caviarder les résultats pour faire plaisir au client.
    Mais la norme GLP n’est en rien un gage de qualité scientifique. Jamais. Je peux trouver des dizaines d’études GLP toutes pourries dont on ne peut rien tirer si on lit correctement les rapports (qui parfois omettent des détails embêtants). La norme GLP n’a aucune exigence en matière d’expertise technique ou scientifique, ni en statistiques. La norme GLP n’impose même pas de faire figurer les données importantes ou la justification et la sortie statistique utilisée par l’auteur pour tirer ses conclusions.
    De fait, quand le labo privé Monsanto fait des études pour Monsanto, je n’ai que peu de confiance dans les conclusions du rapport. Mais je ne sais pas où ont été générées les études confidentielles sur le glyphosate.

    Classe de danger: cancérigène
    Je ne comprends pas bien le billet de l’auteur à propos de la différenciation danger/risque. Que ce soit l’EFSA ou l’IARC, les deux évaluent le danger de carcinogénicité pour classer, pas le risque. La réglementation CLP EC 1272/2008 revêt une approche danger. Le risque en est absent (heureusement). Donc, quand l’IARC conclut à de la carcino, mais que l’EFSA tire la conclusion inverse, il y a bien contradiction.
    Comme suggéré par l’auteur, une différence tient peut-être au fait que le IARC utilise les données épidémio alors que l’EFSA s’assoit probablement dessus. Les données épidémio prennent en compte la formulation (forcément), tandis que les données expérimentales ne prennent en compte que la matière active. Et on sait que le POEA (surfactant du round-up) est une saloperie ultracytotoxique qui potentialise les effets du glyphosate. Et donc, comme suggéré par l’auteur, le fait que le glyphosate ne soit pas cancérigène est peut-être vrai, mais cela relève un peu de la sémantique. Dans les faits, on peut conclure de façon assez robuste qu’au moins une formulation du glyphosate est cancérigène. Et dans les faits toujours, ce danger n’est pas pris en compte dans les évaluations de risque.

    J'aime

  5. Merci pour ce remarquable travail. Je fais maintenant appel à vos réflexes zététiciens pour m’aider : je me pose une question sur le fond du sujet et non son traitement. Il est ici question du danger/risque de cancer (et principalement exposition par alimentation) et la réponse est claire. Qu’en est-il des autres dangers/risques relatifs à ce produit : par exemple maladies neuro dégénératives type parkinson et exposition type manipulation par agriculteurs. Merci.

    J'aime

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s