Previous PageTable of ContentsNext Page


5. EVALUATION DES RISQUES DUS À LA PRÉSENCE DE PRODUITS CHIMIQUES DANS LES ALIMENTS

5.1 Introduction

Le présent chapitre ne traite que des produits chimiques introduits intentionnellement dans les aliments, des contaminations involontaires et des substances toxiques naturelles. Les produits considérés comprennent les additifs alimentaires, les résidus de pesticides et d'autres produits chimiques agricoles, les résidus de médicaments vétérinaires, les contaminants chimiques de toutes origines et les toxines naturelles, comme les mycotoxines et la ciguatoxine, mais non les toxines microbiennes, comme la toxine botulinique.

L'évaluation des risques constitue avant tout une méthode permettant d'organiser systématiquement l'information scientifique et technique, y compris les incertitudes qui l'entourent, pour répondre à des questions précises sur les risques sanitaires. Elle nécessite l'évaluation des informations pertinentes et le choix des modèles à utiliser pour en tirer des conclusions. En outre, les incertitudes doivent être explicitement reconnues et, le cas échéant, il doit être admis que d'autres interprétations des données disponibles peuvent être scientifiquement plausibles.

Les étapes de l'évaluation des risques d'origine chimique ont été examinées en détail dans d'autres publications (NRC, 1983, 1994). Cette procédure est sujette à des incertitudes liées aux données et au choix du modèle approprié. La question des incertitudes sera examinée de façon plus approfondie dans la suite du rapport. Toutefois, il faut souligner ici que les incertitudes sur les données résultent du fait que ces données sont limitées, mais aussi de l'évaluation et de l'interprétation des résultats des études épidémiologiques et toxicologiques. Pour ce qui est des modèles, des incertitudes apparaissent chaque fois que l'on tente d'utiliser des données concernant la survenue de certains phénomènes dans des conditions déterminées pour estimer ou prédire leur survenue dans d'autres circonstances pour lesquelles on ne dispose pas de données.

Le processus d'évaluation des risques nécessite des informations toxicologiques suffisantes, obtenues de préférence grâce à des protocoles d'essai normalisés acceptés par la communauté internationale. En outre, pour que l'évaluation soit crédible, il faut disposer d'un ensemble minimum de données qui a déjà été défini par d'autres organes (JECFA, JMPR, EPA, FDA, OCDE, etc.).

Selon le produit chimique en cause, des réponses empiriques peuvent être apportées à certaines questions toxicologiques pour les besoins de l'évaluation. Toutefois, en aucun cas, l'information scientifique ne sera suffisamment complète pour offrir un degré élevé de certitude. Lorsque l'on dispose de plusieurs séries de données toxicologiques chez l'animal, on n'a généralement pas suffisamment d'informations pour déterminer la série (espèce, souche, critères de toxicité, etc.) la meilleure pour prédire les effets chez l'homme. En conséquence, on a pris l'habitude de se fier aux réactions toxiques qui se produisent à la dose la plus faible dans une étude de qualité acceptable.

Il est difficile de spécifier à l'avance des normes minimales en matière de données pour l'évaluation des risques. Les bases de données sur les dangers, la relation dose-réponse et l'exposition varient énormément selon la substance, tant en ce qui concerne leur volume que leur portée ou leur qualité. Dans certains cas, les données peuvent être très limitées et pratiquement impossibles à obtenir, notamment pour les contaminants et les substances naturelles. Lorsqu'il est indispensable de procéder à une évaluation des risques, les évaluateurs doivent utiliser au mieux toutes les informations disponibles et prendre en compte explicitement les incertitudes sur les données. S'ils estiment que cela n'est pas possible, ils devront expliquer pourquoi. La meilleure solution est peut-être de décider au cas par cas du minimum de données nécessaires pour une évaluation.

Un autre problème lié au processus d'évaluation des données est l'utilisation d'hypothèses par défaut pour pallier le manque de connaissances théoriques et de données. Ces hypothèses ont l'avantage d'assurer la cohérence de la méthode et de minimiser ou d'éliminer les manipulations au cas par cas lors de l'évaluation pour atteindre les objectifs établis en matière de gestion des risques. Mais un inconvénient majeur est le risque de voir le jugement scientifique faussé par des directives rigides. Une approche intermédiaire consiste à permettre aux évaluateurs de remplacer les hypothèses par défaut dans le cas de certains produits chimiques pour lesquels il existe des données scientifiques à l'appui d'une autre hypothèse. De tels écarts par rapport à la procédure normale devront être justifiés de façon précise et explicite dans chaque cas.

5.2 Identification des dangers

Le but de l'identification des dangers est de déterminer les effets néfastes potentiels sur la santé humaine liés à l'exposition à un produit chimique, la probabilité de survenue de ces effets et la certitude ou l'incertitude qui leur est associée. Dans ce contexte, l'identification des dangers n'implique pas une extrapolation quantitative du risque pour les populations humaines exposées, comme dans l'étape de détermination de la relation dose-réponse et de caractérisation du risque, mais plutôt une évaluation qualitative de la probabilité que l'effet se produise dans les populations exposées.

Etant donné que les données sont souvent insuffisantes, la meilleure façon de procéder à l'identification des dangers consiste à utiliser la méthode dite du "poids de la preuve". Pour cela, il faut effectuer une analyse suffisamment approfondie et documentée des données scientifiques pertinentes provenant de bases de données appropriées, de la littérature ayant déjà fait l'objet d'une évaluation par les pairs et, si elles sont accessibles, d'autres sources d'études non publiées (industrie). Par ordre d'importance décroissante, les études se classent ainsi : études épidémiologiques, études toxicologiques chez l'animal, essais in vitro, et enfin études quantitatives des relations entre la structure et l'activité.

5.2.1 Etudes épidémiologiques

Lorsqu'on dispose de données provenant d'études épidémiologiques positives, il est vivement conseillé de les utiliser pour l'évaluation des risques. De même, s'il existe des données obtenues lors d'études cliniques chez l'homme, elles devraient être utilisées pour l'identification des dangers et peut-être dans d'autres étapes. Cependant, pour la plupart des substances chimiques, il est rare que l'on dispose de données cliniques et épidémiologiques. En outre, des données épidémiologiques négatives peuvent être difficiles à interpréter aux fins de l'évaluation des risques, car la puissance statistique de la plupart des études épidémiologiques est insuffisante pour détecter des effets à des niveaux relativement faibles dans les populations humaines. Enfin, même si l'on reconnaît la valeur des données épidémiologiques, les données positives indiquent qu'un effet défavorable s'est déjà produit; les décisions relatives à la gestion des risques ne doivent donc pas être retardées en attendant la mise au point de telles études. Les études épidémiologiques dont les données sont exploitées pour l'évaluation des risques doivent être menées selon des protocoles normalisés reconnus.

Lors de la conception des études épidémiologiques, ou lorsque l'on dispose de données épidémiologiques positives, il convient de tenir compte des variations de sensibilité chez l'homme, de la prédisposition génétique, de la sensibilité en fonction de l'âge et du sexe, ainsi que de l'incidence de certains facteurs comme la situation socio-économique, l'état nutritionnel, et d'autres facteurs confondants éventuels.

Etant donné le coût des études épidémiologiques et le peu de données qu'elles fournissent, l'identification des dangers devra généralement s'appuyer sur des données obtenues dans des études menées chez l'animal et in vitro.

5.2.2 Etudes chez l'animal

La plupart des données toxicologiques utilisées pour l'évaluation des risques proviennent d'études menées chez l'animal; il est donc essentiel que ces études soient effectuées selon des protocoles d'essais normalisés et largement acceptés. Il existe de nombreux protocoles à cet effet (OCDE, EPA, etc.), mais aucun guide n'a été publié en ce qui concerne le choix et l'utilisation d'un protocole donné pour l'évaluation des risques présentés par les denrées alimentaires. Quel que soit le protocole utilisé, toutes les études doivent respecter les bonnes pratiques de laboratoire (BPL) et les procédures normalisées d'assurance et de contrôle de la qualité (QA/QC).

Des spécifications concernant les caractéristiques minimales que doivent présenter les données destinées à l'évaluation des risques présentés par les aliments sont généralement disponibles et doivent être utilisées. Il s'agit notamment des spécifications concernant le nombre d'espèces ou de souches, l'utilisation d'animaux des deux sexes, le choix des doses (voir ci-dessous), la voie d'exposition et la taille des échantillons. En général, la source de données (études publiées, études non publiées, données fournies par les entreprises, etc.) ne pose pas de gros problèmes dans la mesure où les études sont transparentes et où l'on peut prouver qu'elles ont été menées dans le respect des BPL et des procédures QA/QC.

Les données des études à long terme (chroniques) sont d'une importance cruciale et doivent porter sur des effets ou des manifestations toxicologiques importants, notamment le cancer, les effets sur la reproduction et le développement, les effets neurotoxiques, les effets immunotoxiques, etc. Les études de toxicité à court terme (toxicité aiguë) sont également utiles et doivent être effectuées. Les études chez l'animal doivent faciliter l'identification de l'éventail des effets ou manifestations toxicologiques (y compris ceux qui sont énumérés). En ce qui concerne les substances pour lesquelles il existe des normes nutritionnelles à respecter, comme le cuivre, le zinc et le fer, il y a lieu de recueillir des données sur la relation entre la toxicité et le caractère essentiel de ces substances. Les études de toxicologie chez l'animal doivent être conçues de façon à établir une dose sans effet observé (DSEO), une dose sans effet indésirable observé (DSEIO) ou une dose de référence; autrement dit, les doses doivent être choisies de façon à pouvoir déterminer ces limites. Les doses choisies doivent également être assez élevées pour réduire autant que possible l'éventualité de résultats faussement négatifs dans des domaines comme la saturation métabolique, la prolifération cellulaire d'origine cytogénique et mitogénique, etc. Le choix de la dose la plus élevée pour les essais chroniques chez les rongeurs fait actuellement l'objet d'un débat. Les discussions portent principalement sur le choix, l'utilisation et l'interprétation des données provenant d'études effectuées avec la dose tolérée maximale (DTM). Des doses médianes doivent être choisies pour fournir des informations sur la forme de la courbe dose - réponse.

Dans la mesure du possible, les études chez l'animal doivent non seulement mettre en évidence les effets indésirables potentiels chez l'homme, mais aussi fournir des informations sur la pertinence de ces effets pour l'évaluation du risque. Ces informations peuvent être fournies par des études qui caractérisent le mécanisme d'action, la relation entre la dose administrée et la dose effectivement délivrée, ainsi que par des études pharmacocinétiques et pharmacodynamiques.

Les données mécanistes peuvent être complétées par des données d'études in vitro, par exemple des informations sur la génotoxicité obtenues grâce à des épreuves de réversion ou d'autres épreuves analogues. Ces études doivent être menées conformément aux BPL et à d'autres protocoles universellement acceptés. Toutefois, les données d'études in vitro ne peuvent constituer la seule source d'information pour prédire le risque chez l'homme.

Les résultats des études in vivo et in vitro peuvent aider à mieux comprendre les mécanismes et les aspects pharmacocinétiques/dynamiques. Toutefois, si de telles informations ne sont pas disponibles, ce qui est souvent le cas, leur recherche ne doit pas retarder le processus d'évaluation des risques.

Des informations sur la dose administrée par opposition à la dose effectivement délivrée seront utiles pour évaluer les données relatives au mécanisme d'action et à la pharmacocinétique. Cette évaluation doit aussi tenir compte des informations disponibles sur la spéciation chimique (dose administrée) et la toxicité des métabolites (dose délivrée). Dans ce contexte, il convient de tenir compte de la biodisponibilité chimique (biodisponibilité de la substance elle-même et de ses métabolites, etc.) et notamment de l'absorption à travers la membrane appropriée (par exemple l'intestin), du passage dans la circulation générale et du transport jusqu'à l'organe cible.

Enfin, les relations entre la structure et l'activité peuvent être utiles pour accroître la force de la preuve lors de l'étape d'identification des dangers. Lorsqu'on étudie une classe de composés (par exemple les hydrocarbures polycycliques aromatiques, les polychlorobiphényles ou les dioxines), et que l'on dispose de données toxicologiques adéquates sur un ou plusieurs membres de la classe, il peut être utile d'utiliser la notion d'équivalence toxique pour prédire les dangers associés à l'exposition aux autres substances de la même classe.

5.3 Caractérisation des dangers

Les produits chimiques considérés comprennent les additifs alimentaires, les pesticides, les médicaments vétérinaires et les contaminants. Ils sont généralement présents dans les aliments à de faibles concentrations – souvent une partie par million au moins. Cependant, si l'on veut que les études toxicologiques chez l'animal aient une sensibilité suffisante, elles doivent être effectuées avec de fortes concentrations qui, selon la toxicité intrinsèque de la substance étudiée, peuvent dépasser plusieurs milliers de parties par million. La signification des effets indésirables détectés chez l'animal à ces doses élevées pour les populations humaines exposées à de faibles doses est la principale question qui se pose lors de la caractérisation des dangers présentés par les substances chimiques.

5.3.1 Extrapolation de la relation dose-réponse

Pour pouvoir être comparées aux niveaux auxquels l'homme est exposé, les données recueillies chez l'animal doivent être extrapolées à des doses beaucoup plus faibles que celles qui sont utilisées pour les études. Cette extrapolation comporte des incertitudes tant qualitatives que quantitatives. Le danger peut changer de nature avec la dose ou même disparaître complètement. Le modèle choisi pour étudier la relation dose-réponse peut être incorrect si la nature de la réponse chez l'animal et chez l'homme est qualitativement la même. L'estimation de la dose équivalente chez l'animal et chez l'homme est un problème de pharmacocinétique comparative. A cela s'ajoute le fait que le métabolisme d'une substance chimique peut être différent aux fortes doses et aux faibles doses. Par exemple, les doses élevées submergent souvent les voies normales de détoxification et de métabolisme et entraînent des effets indésirables qui ne se produiraient pas à des doses plus faibles. De fortes doses peuvent induire un taux plus élevé de production enzymatique, des modifications physiologiques et des modifications pathologiques liées à la dose. Le toxicologue doit tenir compte de l'incidence potentielle de ce type de modifications liées à la dose lors de l'extrapolation des effets indésirables aux faibles doses.

5.3.2 Correspondance entre les doses

La question des doses toxicologiquement équivalentes chez l'animal et chez l'homme est un sujet controversé. Le JECFA et la JMPR utilisent généralement le nombre de mg par kg de poids corporel pour établir la correspondance entre les espèces. Récemment, les autorités de réglementation des Etats-Unis d'Amérique, se fondant sur des informations pharmacocinétiques plus récentes, ont proposé un équivalent en mg par 3/4 kg de poids corporel. Le facteur de correspondance idéal serait obtenu en mesurant les concentrations tissulaires et les taux d'élimination dans l'organe cible chez l'animal et chez l'homme; la mesure des concentrations sanguines serait une façon d'approcher cet idéal. Les facteurs de correspondance inter-espèces généraux ne devraient être considérés que comme des valeurs par défaut à utiliser en l'absence d'informations plus précises, ce qui est souvent le cas.

5.3.3 Cancérogènes génotoxiques et non génotoxiques

Traditionnellement, les toxicologues acceptent l'existence de seuils pour les effets indésirables, à l'exception de la cancérogénicité. Cette tradition date du début des années 40, où il est apparu que l'événement déclenchant la cancérogénèse pouvait être une mutation somatique. En théorie, quelques molécules, ou même une seule, pourraient provoquer une mutation capable de persister chez l'animal ou chez l'homme et de s'exprimer à terme en provoquant une tumeur. Théoriquement, il se pourrait qu'un cancérogène agissant par ce mécanisme ne soit jamais sans danger, si faible que soit la dose.

Récemment, il a été possible de distinguer entre différents types de cancérogènes et d'identifier une catégorie de cancérogènes non génotoxiques, incapables de produire par eux-mêmes des mutations, mais qui agissent à un stade ultérieur de l'évolution du cancer sur des cellules déjà "activées" par d'autres cancérogènes ou par d'autres facteurs comme les rayonnements. Par contre, d'autres cancérogènes induisent des altérations génétiques dans les cellules somatiques avec activation d'oncogènes et/ou inactivation de gènes suppresseurs du cancer. Ainsi, les cancérogènes génotoxiques sont définis comme étant des substances chimiques qui peuvent produire des altérations génétiques dans les cellules cibles, directement ou indirectement. Alors que la principale cible des cancérogènes génotoxiques est le matériel génétique, les cancérogènes non génotoxiques agissent sur des sites extragénétiques, ce qui entraîne probablement une plus grande prolifération des cellules et/ou une hyperfonction/dysfonction prolongée des sites cibles. En ce qui concerne les différences d'effets cancérogènes d'une espèce à l'autre, on dispose d'une masse considérable de données qui révèlent des différences quantitatives aussi bien pour les cancérogènes génotoxiques que pour les cancérogènes non génotoxiques. En outre, certains cancérogènes non génotoxiques, appelés cancérogènes spécifiques des rongeurs, peuvent être cités comme exemples de substances pour lesquelles l'effet cancérogène final présente des différences qualitatives. Par contre, on ne connaît pas d'exemples aussi nets pour les cancérogènes génotoxiques.

Les toxicologues et les généticiens ont mis au point des tests pour déceler les substances chimiques capables de provoquer des mutations de l'ADN; le test d'Ames en est un exemple bien connu. Un certain nombre d'épreuves, certaines in vitro, d'autres in vivo, sont utilisées, généralement sous la forme d'une batterie de tests, pour déterminer le potentiel mutagène des substances chimiques. Si les opinions peuvent diverger sur la composition exacte de ces batteries de test, celles-ci se sont généralement révélées utiles pour distinguer les cancérogènes génotoxiques des cancérogènes non génotoxiques.

Dans de nombreux pays, les autorités chargées de veiller à la salubrité des aliments font maintenant une distinction entre cancérogènes génotoxiques et non génotoxiques. Si cette distinction ne peut être appliquée dans tous les cas en raison d'un manque d'informations ou de connaissances sur la cancérogénèse, le concept sur lequel elle se fonde reste utile pour établir les stratégies d'évaluation des risques de cancer résultant d'une exposition aux substances chimiques. En principe, la réglementation des cancérogènes non génotoxiques peut se faire par une méthode fondée sur l'existence d'un seuil, par exemple celle qui consiste à appliquer un facteur de sécurité à la dose sans effet observé. Dans ce cas, en plus de démontrer que la substance n'est probablement pas génotoxique, il est souvent demandé de présenter des informations scientifiques expliquant le mécanisme de cancérogénicité.

5.3.4 Méthodes fondées sur l'existence d'un seuil

Une concentration sans danger ou une dose journalière admissible (DJA) est calculée en appliquant des facteurs de sécurité appropriés à la DSEO ou à la DSEIO expérimentale. La base conceptuelle de l'utilisation de ces méthodes est que les doses seuils sont raisonnablement comparables chez l'homme et chez les animaux d'expérience. Toutefois, la sensibilité peut être plus grande chez l'homme, de même que la diversité génétique et les différences d'habitudes alimentaires. En conséquence, le JECFA et la JMPR appliquent un facteur de sécurité pour tenir compte de ces incertitudes. Lorsqu'on dispose des résultats d'études à long terme chez l'animal, on utilise généralement un facteur de sécurité de 100, mais certains organismes appliquent d'autres facteurs. Le JECFA utilise aussi un facteur plus élevé lorsque les données sont très limitées ou lorsque la DJA est attribuée à titre temporaire. D'autres organismes corrigent la DJA pour tenir compte de la gravité ou de l'irréversibilité des effets. Ces différences dans les valeurs de la DJA constituent un problème important du point de vue de la gestion des risques et devraient retenir l'attention des organismes internationaux compétents.

Les autorités qui fixent une DJA veulent dire par là que l'ingestion de la substance chimique en question à une concentration égale ou inférieure à la valeur indiquée ne présente pas de risque significatif. Comme il a déjà été dit, le facteur de sécurité est choisi de façon à tenir compte des variations prévues de la sensibilité chez l'homme. Evidemment, il est théoriquement possible que certains individus soient tellement sensibles que le facteur de sécurité ne suffise pas. La méthodes des facteurs de sécurité, pas plus que la méthode d'évaluation quantitative des risques examinée ci-après, ne peut garantir une sécurité absolue pour tous.

Une autre méthode de calcul de la DJA, au lieu d'être fondée sur l'utilisation de la DSEO/DSEIO, consiste à déterminer une dose efficace plus faible (DE10 ou DE05, par exemple). Cette méthode, appelée méthode des doses de référence, accorde plus de poids aux données recueillies pour des doses proches de celles qui ont servi à déterminer la relation dose/réponse, mais elle suppose toujours l'application de facteurs de sécurité. Bien qu'elle permette de prédire avec plus de précision le risque dû à de faibles doses, la DJA fondée sur la méthode des doses de référence n'est donc généralement pas très différente de la DJA fondée sur la DSEO/DSEIO. Des groupes de population particuliers, comme les enfants, sont protégés par l'application d'un facteur de conversion inter-espèces approprié et, le cas échéant, par la prise en compte de conditions particulières d'exposition (voir 5.4 Evaluation de l'exposition).

5.3.5 Méthodes fondées sur l'absence de seuil

Pour les cancérogènes génotoxiques, on considère généralement que la méthode consistant à appliquer un facteur de sécurité à la DSEO ne convient pas pour établir une dose admissible. On considère en effet qu'il existe un risque à toutes les doses, même la plus faible. Deux solutions sont alors possibles :
1)  interdire l'utilisation commerciale de la substance en question, ou
2)  établir un niveau de risque suffisamment faible pour qu'il puisse être considéré comme négligeable, insignifiant ou socialement acceptable.
L'application de cette deuxième solution est à l'origine de l'évaluation quantitative des risques pour les cancérogènes.

Différents modèles d'extrapolation ont été utilisés à cette fin. Les modèles actuels prennent en compte la mesure expérimentale des doses et de l'incidence des tumeurs, pratiquement à l'exclusion de toute autre information biologique. Aucun de ces modèles n'a été validé au-delà du stade expérimental. Aucune correction n'est faite pour la toxicité à haute dose, l'intensification de la prolifération cellulaire ou la réparation de l'ADN, de sorte que l'on considère que les modèles linéaires actuels surestiment quelque peu le risque. C'est ce que l'on exprime en déclarant que les risques déterminés par ces modèles constituent une "limite supérieure plausible" ou qu'ils ont été calculés dans l'hypothèse la plus défavorable. Beaucoup d'organismes de réglementation reconnaissent que cette méthode ne prédit pas les risques réels ou probables pour l'homme. Certains pays ont tenté de réduire la surestimation des risques inhérente à l'extrapolation linéaire en utilisant des modèles non linéaires. Un élément essentiel de cette approche est la détermination d'un niveau de risque acceptable. Aux Etats-Unis d'Amérique, la FDA et l'EPA ont choisi un niveau de risque de un pour un million (10-6). Ce niveau a été choisi comme acceptable parce qu'il est considéré comme insignifiant. Mais le choix du niveau de risque acceptable constitue en définitive une décision qui concerne la gestion des risques et il appartient à chaque pays d'en décider.

Pour les additifs alimentaires et les résidus de pesticides et de médicaments vétérinaires, il est possible de fixer le niveau de risque, car ces substances peuvent être interdites si le risque estimé dépasse la limite établie par la réglementation. Par contre, dans le cas des contaminants, y compris les pesticides dont l'utilisation a été abandonnée, mais qui continuent à polluer l'environnement, le niveau admissible établi peut facilement être dépassé. Par exemple, aux Etats-Unis d'Amérique, on estime que les dioxines présentent dans le cas le plus défavorable un risque d'environ 10-4. Pour les contaminants cancérogènes ubiquitaires comme les hydrocarbures aromatiques polycycliques et les nitrosamines, le niveau de risque de 10-6 est également dépassé.

5.4 Evaluation de l'exposition

Pour estimer les quantités d'additifs alimentaires, de résidus de pesticides ou de médicaments vétérinaires et de contaminants absorbés avec les aliments, il faut disposer d'informations sur la consommation des aliments en cause et sur la concentration des substances à évaluer dans ces aliments. En général, trois méthodes sont utilisées pour évaluer l'exposition : 1) étude de la ration totale; 2) étude sélective de certains aliments; 3) étude de portions témoins. Des lignes directrices pour l'étude de l'absorption alimentaire des contaminants chimiques peuvent être obtenues auprès de l'OMS (GEMS/Food, 1985). Depuis quelques années, l'analyse directe des tissus et liquides corporels humains est de plus en plus utilisée pour évaluer l'exposition. Par exemple, le dosage dans le lait maternel des composés organochlorés, qui sont apportés principalement par les aliments, permet d'évaluer l'exposition humaine à ces substances (GEMS/Food, sous presse).

La détermination des apports alimentaires peut être relativement simple pour les additifs, les pesticides et les médicaments vétérinaires car les aliments en cause et leur niveau d'utilisation sont spécifiés par les conditions d'utilisation approuvées. Toutefois, les concentrations réelles d'additifs et de résidus de pesticides ou de médicaments vétérinaires dans les aliments sont souvent bien inférieures au maximum permis. En ce qui concerne les résidus de pesticides et de médicaments vétérinaires, ils sont souvent totalement absents des aliments car en général, une partie seulement des cultures ou des animaux sont traités. Les données sur les concentrations d'additifs dans les aliments peuvent être obtenues auprès des fabricants. Pour évaluer l'apport alimentaire des contaminants, il faut connaître leur répartition dans les aliments, et cette information ne peut être obtenue que par l'analyse d'échantillons représentatifs par des méthodes suffisamment sensibles et fiables. Des lignes directrices ont été élaborées pour la mise en place ou le renforcement des programmes nationaux de surveillance de la contamination des denrées alimentaires (GEMS/Food, 1979).

Les limites maximales de résidus (LMR) de pesticides et de médicaments vétérinaires, de même que les concentrations maximales d'additifs, peuvent être établies à partir des conditions d'utilisation. Dans le cas le plus simple, celui où un additif alimentaire utilisé à une concentration donnée reste stable dans l'aliment jusqu'à sa consommation, la concentration maximale sera égale à la concentration absorbée. Mais dans bien des cas, cette concentration peut changer avant la consommation. Par exemple, un additif alimentaire peut se dégrader au cours du stockage ou réagir avec l'aliment. Les résidus de pesticides dans les produits agricoles bruts peuvent se dégrader lors des étapes ultérieures de traitement. Le devenir des résidus de médicaments vétérinaires dépend de leur métabolisme, de leur cinétique, de leur distribution et des délais d'attente appliqués aux animaux traités.

Pour établir les LMR, il faut tenir compte de tout changement pouvant survenir dans la nature ou la concentration du résidu avant l'entrée du produit dans le circuit commercial ou lors de son utilisation dans les conditions prévues. Quant aux contaminants, étant donné que leur présence dans les aliments ne répond à aucun besoin technologique, les lignes directrices spécifient généralement que leur concentration ne doit pas dépasser la valeur la plus faible qu'il soit raisonnablement possible d'atteindre.

L'apport alimentaire théorique total des additifs, pesticides et médicaments vétérinaires doit être inférieur aux DJA correspondantes. Fréquemment, la quantité réellement absorbée est bien inférieure à la DJA. L'établissement de valeurs guides pour les contaminants présente des problèmes particuliers. Les données qui permettraient d'établir une dose tolérable provisoire sont généralement très limitées. Parfois, la concentration des contaminants est supérieure à celle qu'autoriserait la dose tolérable provisoire si elle était établie. Dans ce cas, les valeurs guides sont fixées en fonction de considérations économiques et/ou techniques.

Des données fiables sur la consommation alimentaire sont essentielles lorsque l'évaluation de l'exposition se fonde sur la mesure des concentrations de substances chimiques dans les aliments. Des données détaillées sur les habitudes alimentaires du consommateur moyen ou médian, ainsi que sur celles de différents groupes de population sont importantes pour évaluer l'exposition, notamment pour les groupes sensibles. En outre, des données comparables sur la consommation alimentaire dans les différentes régions du monde, notamment en ce qui concerne les aliments de base, sont essentielles pour établir une approche internationale de l'évaluation des risques.

GEMS/Food tient actuellement à jour une base de données sur cinq régimes alimentaires régionaux, ainsi que sur un régime composite dit "mondial". On y trouve des données sur la consommation quotidienne de près de 250 denrées alimentaires brutes ou semi-transformées. Les régimes alimentaires régionaux pour l'Afrique, l'Asie, la Méditerranée orientale, l'Europe et l'Amérique latine ont été établis à partir de données nationales provenant des Food Balance Sheets de la FAO. Les données de consommation calculées par cette méthode ne donnent aucune information sur les consommateurs ayant des habitudes alimentaires très différentes de la moyenne. D'autre part, GEMS/Food ne fournit aucune information sur l'absorption d'additifs alimentaires, bien que l'on pense que celle-ci soit plus importante dans les pays développés que dans les pays en développement, car la proportion des aliments transformés est plus grande dans les premiers que dans les seconds.

5.5 Caractérisation des risques

La caractérisation des risques a pour objet d'estimer la probabilité d'effets indésirables sur la santé des populations humaines exposées. Elle s'effectue en prenant en compte les résultats de l'identification des dangers, de leur caractérisation et de l'évaluation de l'exposition. En ce qui concerne les substances pour lesquelles il existe un seuil, le risque pour la population est caractérisé par comparaison de la DJA (ou d'un autre paramètre) avec l'exposition. Dans ce cas, la probabilité d'effets néfastes sur la santé est théoriquement égale à zéro lorsque l'exposition est inférieure à la DJA. Lorsqu'il n'existe pas de seuil, le risque est le produit de l'exposition par l'activité.

A l'étape de caractérisation des risques, les incertitudes relatives à chaque étape de l'évaluation des risques doivent être décrites. L'incertitude entourant la caractérisation des risque reflétera les incertitudes des étapes précédentes. L'extrapolation à l'homme des résultats des études menées sur l'animal peut donner lieu à deux types d'incertitude: 1) l'incertitude concernant l'application des résultats expérimentaux à l'homme. Par exemple, les tumeurs de l'estomac antérieur produites par le butylhydroxyanisole (BHA) chez le rat et les effets neurotoxiques de l'aspartame chez la souris n'ont pas nécessairement des effets parallèles chez l'homme; ii) l'incertitude concernant la sensibilité spécifique de l'homme aux effets d'une substance chimique qui ne peut être étudiée chez l'animal. L'hypersensibilité au glutamate en est un exemple. En pratique, pour lever ces incertitudes, il est fait appel au jugement d'experts et à des études complémentaires, de préférence chez l'homme. Ces études peuvent être effectuées avant ou après le début de la commercialisation du produit.


Previous Page Top of Page Next Page