Page précédente Table des matières Page suivante


4. TRAITEMENT ET ANALYSE DES DONNEES

Pour faire face efficacement au volume des informations récoltées par les campagnes de chalutage multispécifiques, il est nécessaire de traiter et d'analyser les données à l'aide d'un ordinateur. Cette section suppose que des moyens informatiques adéquats sont disponibles. Bien évidemment l'information de base peut être résumée à l'aide de calculateurs de poche, mais les perspectives de tels calculs sont très limitées et ils sont par ailleurs très lents par rapport à ce que peutoffrir un ordinateur.

4.1 Traitement initial et contrôle de qualité

Le traitement des données couvre une vaste gamme de travaux: il faut compléter et/ou coder les données à partir des bordereaux de terrain originaux pour les transférer sur carte, bande magnétique ou tout autre support, se soumettre à diverses procédures de contrôle, pour finir avec un fichier complet des données de l'étude, sur bande ou sur disque. La démarche optimale dépend en partie des caractéristiques des moyens informatiques disponibles, de même que des objectifs de l'étude. Il n'existe aucun système, ni aucune approche, qui soit idéal et pratique pour toute étude. Cependant certains aspects généraux de la manipulation des données sont pertinents dans tous les cas; les plus importants sont, dans l'ordre, le contrôle de qualité et l'efficacité. Les procédures de traitement des données mises sur pied au “Fisheries Laboratory” de Woods Hole (Massachussetts, E.-U.) ont été décrites de facon détaillée et peuvent être considérées comme un exemple de la facon dont les données peuvent être traitées (Grosslein, 1969b). Une version abrégée et quelque peu modifiée de ces procédures, est aussi décrite par Doubleday, (1981). Ces rapports donnent des exemples spécifiques des procédures de contrôle de qualité, de même que des suggestions pour résumer efficacement l'information de base en tableaux. En général, on gagne en efficacité et en exactitude en transférant les données brutes dans l'ordinateur, pour qu'il prenne en compte autant que possible les calculs fastidieux. Il peut toutefois être préférable, dans certains cas, d'enregistrer les données en mer sous une forme qui nécessite quelques calculs préliminaires avant l'entrée dans l'ordinateur. Dans le systéme développé à Woods Hole pour les distributions de longueur, les facteurs d'élévation sont calculés à la main dans le même temps où les taux d'échantillonnage sont vérifiés, au cours du codage des bordereaux de chalutage. On pourra se référer à Grosslein (1969b) pour des détails complémentaires. Ce rapport décrit également l'établissement de procédures de contrôle automatique et illustre la façon dont les erreurs majeures peuvent être détectées, à l'aide de vérifications simples effectuées par l'ordinateur. Ce document présente aussi brièvement des procédures qui suivent pas à pas les données, à toutes les étapes du traitement, afin d'illustrer la succession appropriée des événements. Il fournit enfin un résumé de l'édition de routine des données, généralement effectuée après les procédures de contrôle standard. Cette édition a prouvé son utilité à plusieurs titres. Une présentation plus complète de ce vaste sujet dépasserait le propos de ce rapport.

4.2 Analyse des données

Les études multispécifiques fournissent une grande variété d'informations utiles. Il est même fréquent que l'on soit à même d'aborder sérieusement des problèmes auxquels on n'avait même pas songé en établissant les objectifs de l'étude. L'accent ne sera mis ici que sur les données de base, relatives à l'abondance et à la structure (structure démographique ou distribution des longueurs) des populations. En ce qui concerne d'autres produits possibles des études, le lecteur pourra se reporter à la littérature citée dans ce document, ou évoquée durant le séminaire.

La capture moyenne par trait stratifié (équivalente à la capture moyenne par unité de surface balayée par un chalut standard), exprimée en kilogrammes out en nombre, peut être utilisée comme un indice non corrigé d'abondance relative. Il est aussi parfois possible de la corriger en fonction du rapport entre densité relative et absolue (en supposant que des données indépendantes sur la population soient disponibles). Ainsi ajustée elle peut représenter l'aboundance absolue pour toute la zone étudiée. Il faut souligner que les indices peuvent être utilisés pour suivre l'évolution générale de l'abondance et ce qu'ils aient pu ou non être corrigés pour prendre en compte les coefficients de vulnérabilité, aussi longtemps que ceux-ci demeurent constants. Il y a désormais de bonnes raisons de penser que les coefficients de vulnérabilité sont suffisamment stables pour que les études par chalutage reflétent les faits majeurs des évolutions d'abondance (cf.par exemple Clark, 1979). Des anomalies liées à l'environnement engendrent toutefois de temps à autre des variations de vulnérabilité importantes. L'indice pour une année individuelle peut s'en trouver sérieusement biaisé, comme ce fut le cas en 1969 pour le maquereau dans les études au large de la côte nord-est des Etats-Unis (Anderson, 1979). Cette année là des températures anormalement froides retardèrent apparemment les migrations du maquereau vers la côte, de sorte qu'au moment de la campagne une large fraction de la population était encore en dehors de la zone d'étude. Il est donc dangereux de s'en remettre aux résultats d'une seule campagne, notamment pour les espéces migratoires et semi-pélagiques. Ceci souligne toute l'importance de maintenir des séries pluriannuelles standardisées.

Les formules pour la moyenne et la variance stratifiée de la Section 2.5 sont applicables mais la dissymétrie positive de la distribution des captures par trait pose des problémes pour construire des intervalles de confiance fiables et pratiquer des tests de significativité reposant sur la théorie des lois normales.

On se souvient que pour les distributions binomiales négatives:

Pour une valeur donnée de k, et des valeurs relativement fortes de μ par rapport à 1/k, σ est approximativement fonction linéaire de μ (Pennington et Grosslein, 1978). Dans la mesure où l'écart type et la moyenne sont liés linéairement, une transformation logarithmique stabilisera les variances, mais n'engendrera pas nécessairement des distributions normales. Les conséquences d'écarts à la normalité peuvent être sérieuses dans la construction des limites de confiance. Une des solutions envisageables passe par l'utilisation de lois dites delta (Pennington et Grosslein, 1978).

En plus des moyennes stratifiées, en poids ou en nombres, il est courant d'estimer la distribution des longueurs ou les mortalités par âge (pour les espèces où l'on peut déterminer l'âge) dans la population à partir des résultats des campagnes de chalutage (Clark, 1979). Ces analyses peuvent être des compléments utiles (voire remplacer) aux estimations issues des statistiques commerciales. Les estimations du prérecrutement constituent un autre produit utile des études par chalutage, de même que les indices de biomasse totale de certains groupes de poisson (Clark et Brown, 1977; Clark, 1979). Les mêmes estimateurs stratifiés de base s'appliquent à toutes ces quantités.


Page précédente Début de page Page suivante