Variable régionalisée
Dans le domaine de la géostatistique, une variable régionalisée (VR) est toute fonction mathématique déterministe destinée à modéliser un phénomène présentant une structure plus ou moins prononcée dans l'espace et/ou le temps : phénomène physique ou abstrait (financiers, par exemple).
Historiquement les premières utilisations du vocabulaire et du concept de « variable régionalisée » concernaient presque exclusivement la répartition des teneurs minéralisées dans un gisement minier ; mais cet outil a par la suite trouvé des applications dans des domaines aussi variés que la météorologie et la sylviculture, la bathymétrie et la topographie (MNT), l'environnement, l'agriculture de précision, l'halieutique, l'épidémiologie, le génie civil, toute cartographie quantitative en général, etc.
Sous un vocabulaire différent, une variable régionalisée est strictement équivalente à la notion physique de champ, et plus précisément de champ déterministe.
Dans cet article, et suivant en cela les habitudes de vocabulaire de la communauté géostatistique francophone, on désignera sous le nom générique de régionalisation l'organisation spatiale (et/ou temporelle) des phénomènes étudiés ; par extension et lorsqu'il n'y a pas d'ambiguïté possible, ce mot désigne parfois le phénomène lui-même[Voir 1],[Voir 2]. On pourra alors comprendre en toute généralité la géostatistique comme étant l'étude des régionalisations, autrement dit le traitement des variables régionalisées, « traitement » signifiant plus précisément ici une succession de quatre étapes :
- analyse critique du phénomène tel qu'il se présente effectivement dans la réalité, en s'intéressant particulièrement à son organisation spatiale et/ou temporelle (démarche naturaliste et physicienne) ;
- modélisation mathématique, à la fois statistique et structurale (démarche mathématique). Dans les ouvrages de géostatistique, cette étape est usuellement désignée sous les noms synonymes d’analyse structurale, d' analyse variographique, ou plus simplement encore variographie ;
- mise en œuvre du modèle pour répondre à une question pratique précise (démarche mathématique). Il s'agit d'utiliser toute la panoplie des outils mathématiques autorisés pour construire numériquement une réponse à un problème, typiquement d'interpolation, d'estimation, de prédiction, de simulation numérique, etc.
- interprétation et analyse critique des résultats obtenus, replacés dans le contexte réel (démarche naturaliste et physicienne). Il ne suffit pas en effet qu'un résultat ait été construit par des enchaînements mathématiques corrects pour qu'il soit significatif et utilisable dans la pratique. Cette phase essentielle a été nommée par Matheron[1] : « reconstruction opératoire ».
Le point de vue « Étude des régionalisations » a l'avantage de ne privilégier ni un domaine d'application (contrairement à « géo- »), ni une méthode (contrairement à « -statistique »), et donc correspond mieux à la réalité de la géostatistique actuelle. En ce sens, et bien qu'historiquement acceptable, la définition proposée par Le Petit Larousse apparaît comme singulièrement restrictive : « Estimation des gisements par les méthodes de la statistique ».
Dans Estimer et choisir[Voir 3], Matheron présente la géostatistique comme étant la pratique[2] des « modèles topo-probabilistes » : une définition neutre[3], qui a également l'avantage de présenter la géostatistique comme une discipline à la jonction entre théorie et pratique. Mais cette formule, bien que rigoureusement descriptive, a pu paraître trop insister sur la composante théorique et dérouter les praticiens. Et par ailleurs, proposée tardivement, elle n'a finalement pas été retenue par l'usage ; les utilisateurs ont au contraire pris l'habitude de désigner simplement leur spécialité sous le nom familier de « géostat[4] ».
Dans sa mise en œuvre courante, la géostatistique relève des mathématiques appliquées : bien qu'elle se fonde sur des théories de mathématiques pures (algèbre linéaire, espaces de Hilbert, plus tard probabilités et processus stochastiques), elle est principalement orientée vers des applications concrètes[5], de sorte qu'elle est confrontée à la réalité physique : données imprécises ou lacunaires, éventuelles contraintes techniques ou économiques, problèmes parfois mal posés. C'est pourquoi, toujours dans Estimer et choisir[Voir 3], Matheron n'hésite pas dès le début à la décrire comme « un ensemble de modèles, méthodes et "tours de main", souvent peu orthodoxes[6] ». Cette dualité entre théorie et pratique, entre rigueur et pragmatisme, est une constante dans la démarche géostatistique appliquée.
Enfin, bien que l'on puisse parfois trouver dans la littérature le mot « géostatistiques », il s'agit historiquement d'un mot au singulier : citons par exemple les trois tomes du Traité de géostatistique appliquée de Georges Matheron (voir bibliographie), prémices de la littérature géostatistique. En revanche, dans le même temps et par le même auteur, le mot consacré en anglais est bel et bien « geostatistics » (cf. Georges Matheron, Principles of geostatistics, Economic Geology vol. 58, 1963).
À la limite, il ne serait pas exclu de traiter comme VR — par exemple — des valeurs numériques affectées à des points d'un plan factoriel : dans ce cas, l'objet étudié ne serait plus un phénomène, mais un artefact pur et simple — ce mot n'ayant au demeurant ici aucune connotation péjorative a priori. Rien ne l'interdit mathématiquement ; mais la question serait naturellement de savoir quelle signification attribuer à une telle approche et, sauf à faire de la recherche pure, cette question est évidemment primordiale. Dans le domaine de la géostatistique appliquée, ce type d'opérations spéculatives, qui certes peuvent parfois se révéler très fructueuses, exige une extrême prudence méthodologique et un très grand sens critique. Par extension, et lorsqu'il n'y a pas de confusion à redouter, ce terme peut désigner le phénomène lui-même. Dans la première acception, une VR est donc un objet mathématique, susceptible à ce titre de manipulations théoriques ; dans la seconde, c'est un phénomène ou un événement physique, à la fois mesurable et existant indépendamment de l'observateur[Voir 1] : cette dualité est suggérée par les deux images ci-contre, représentant un même territoire selon les deux points de vue.
La mise en œuvre des VR se justifie principalement pour rendre compte de phénomènes tout à la fois structurés et très irréguliers : tels sont par exemple le plus souvent les phénomènes naturels (minéralogiques, géophysiques, météorologiques, environnementaux, etc.), dont les comportements d'ensemble font apparaître une organisation globale dans l'espace et/ou le temps, mais dont la variabilité locale interdit toute modélisation par des expressions mathématiques simples. En revanche, même si rien n'interdit théoriquement de recourir au formalisme des VR de façon systématique, des informations totalement déstructurées pourraient plus avantageusement être traitées avec les outils des statistiques ; et à l'opposé, des phénomènes très réguliers pourraient être décrits par des fonctions simples ou des équations d'évolution.
Cet outil a par la suite trouvé des applications dans des domaines aussi variés que la météorologie et la sylviculture[Voir 4], la bathymétrie et la topographie (MNT), l'environnement, l'agriculture de précision, l'halieutique, l'épidémiologie, le génie civil, toute cartographie quantitative en général, etc. Ainsi, sous un vocabulaire différent, une variable régionalisée est-elle strictement équivalente à la notion physique de champ, et plus précisément de champ déterministe[7]
De plus, une variable régionalisée est fondamentalement une variable quantitative[8] : elle attribue à tout point de l'espace une valeur numérique au sens large (i.e. éventuellement vectorielle ou complexe). Ainsi une variable régionalisée est-elle également un champ au sens mathématique : champ scalaire, ou vectoriel, ou tensoriel : à ce titre, elle est donc susceptible d'être étudiée par les outils de l'analyse, en particulier le calcul différentiel et le calcul intégral, ainsi que par les outils des statistiques.
Pour faire simple... ↑ ↓ | |
Une variable régionalisée est une fonction numérique qui, sur un domaine géographique donné, a pour finalité de représenter un certain phénomène physique. Le travail du géostatisticien consiste à essayer d'associer les propriétés mathématiques de cette fonction aux caractéristiques structurales de ce phénomène, en vue de répondre aux problèmes concrets qui sont posés à son propos (interpolation, estimation, simulations numériques...). |
Statuts mathématique et épistémologique
Propriétés théoriques
La définition complète d'une variable régionalisée, considérée abstraitement comme fonction d'un ensemble dans un autre, demande en toute rigueur de préciser la structure de l'ensemble de départ, la structure de l'ensemble d'arrivée, et les propriétés analytiques de la fonction. Mais en réalité, dans la plupart des cas, une VR sera simplement une fonction d'un espace métrique dans un autre.
Espace de départ
Dans la mesure où le premier objectif de la variable régionalisée est de rendre compte d'une structure spatiale, l'espace de travail — c'est-à -dire l'espace de départ de la fonction VR — doit pouvoir être muni, au moins localement[Voir 8], d'une fonction distance. Ainsi, dans la plupart des cas, l'objet mathématique « espace de départ » sera une représentation abstraite de la notion intuitive d’espace géographique. En général, cela ne présentera pas de difficulté particulière : il est ainsi facile de mesurer des distances dans un gisement, sur un terrain pollué, dans une forêt, ou de mesurer des intervalles de temps au cours du déroulement d'un certain processus. On peut cependant imaginer des situations plus complexes ; ainsi,
- une cartographie sur l’ensemble du globe terrestre (ou même seulement d'un hémisphère) se heurtera à des problématiques propres à la géométrie sphérique. On pourra éventuellement[10] dans ce cas traiter la sphère comme une variété[11] ; toutefois, la synthèse globale d'un ensemble de résultats locaux par ailleurs satisfaisants rencontrera immanquablement des difficultés théoriques probablement sévères ;
- un travail sur un réseau hydrographique (étude de paramètres physiques naturels, ou de teneurs en polluants, par exemple) aura très probablement à utiliser une distance ad hoc, l'espace de départ présentant ici la structure particulière d'un graphe simple. Éventuellement[10], la distance géodésique pourrait convenir ;
- un travail relatif à l'évolution temporelle de cartes spatiales devra définir une distance spatiotemporelle qui fasse sens. Dans ce cas, la difficulté ne sera pas nécessairement de nature théorique, mais plutôt au niveau de la pertinence de l'outil mathématique ;
- en généralisant à des domaines plus abstraits, on pourrait imaginer de travailler par exemple dans un plan factoriel issu d'une analyse des données, et traiter un tel plan comme un territoire géographique : mais il faudra alors être très prudent dans la définition d'une distance sur un tel espace, et surtout dans la signification qu'on peut lui accorder.
Toutefois, dans la pratique, l'espace de départ est le plus souvent simplement un espace euclidien. Il est en fait plus exact de parler d'un sous-ensemble d'un tel espace : en pratique en effet, on travaille toujours sur un domaine borné, dont la frontière[Voir 9] est fondamentalement tributaire des données disponibles et du problème posé[12]. Dans ces conditions, le plus simple et le plus courant est de considérer mathématiquement ce domaine de travail comme un sous-ensemble borné de , où désigne la dimension (spatiale et/ou temporelle) de l'espace de travail.
Alors que le domaine de travail et la dimension de l'espace sont imposés par la nature du problème à résoudre, le choix de la distance est en principe libre, dans les limites souvent larges imposées par les mathématiques. Cependant, dans la quasi-totalité des cas, on préfèrera naturellement si cela est possible[13] la distance euclidienne, d'une part parce que c'est elle qui permet les développements théoriques les plus simples[Voir 10], et d'autre part parce qu'elle correspond à la distance usuelle mesurée sur le terrain par les praticiens, du moins lorsqu'on ne doit utiliser que des coordonnées spatiales. En revanche, pour des études de nature spatio-temporelles, il n'est pas certain qu'une réponse purement mathématique soit satisfaisante : on pourra toujours en effet construire une distance mélangeant les coordonnées spatiales et temporelles, mais il est douteux que cette construction par ailleurs correcte théoriquement ait une signification concrète.
Espace d'arrivée
Les objets de l'espace d'arrivée sont les valeurs prises par la VR en tout point de l'espace de départ.
Cas d'un champ scalaire
Si l'on travaille sur un champ scalaire[14], ces objets seront des nombres, la plupart du temps réels[15], de sorte que l'espace d'arrivée sera tout simplement . Dans ce cas d'une VR scalaire, la situation est simple à organiser : les valeurs prises par la VR sont des nombres qui s'expriment dans les unités de la variable étudiée. Ce seront par exemple des mètres (ou des pieds…) si la VR représente des altitudes topographiques, des mètres (ou des brasses…) si elle représente des profondeurs bathymétriques, des pourcentages (ou des g/T...) si elle représente une teneur de minerai, etc. Et comme l'objet de la géostatistique est essentiellement de caractériser les structures spatiales des objets étudiés, il faut pouvoir munir l'espace d'arrivée d'un outil théorique permettant de quantifier la ressemblance (ou la dissemblance) entre deux valeurs prises par la VR en deux points quelconques de l'espace de travail.
De tels outils existent dans le cadre des statistiques usuelles ; le plus simple est la fonction d'autocorrélation, qui permet entre autres de quantifier la notion intuitive de « zone d'influence ». Cette fonction a pour arguments deux points quelconques de l'espace géographique, et leur associe un nombre sans dimension compris entre -1 et +1 qui représente le coefficient de corrélation entre les valeurs de la variable considérées en ces deux points. Ainsi en particulier, lorsqu'à deux points géographiquement distincts il correspond une valeur nulle de cette fonction, cela signifie qu'il n'y a pas de lien statistique mutuel entre les mesures effectuées en ces deux points, ou encore que la connaissance de la valeur prise par la VR en un point n'apporte (statistiquement) aucune information supplémentaire sur la valeur prise par la VR en l'autre point. Cette fonction est donc d'une grande importance d'abord pour comprendre et modéliser l'organisation spatiale de la variable d'intérêt, et ensuite pour la construction d'un estimateur, et plus particulièrement pour l'interpolation en cartographie ; et de fait, elle peut être utilisée en géostatistique, par exemple pour le krigeage simple.
Toutefois, l'existence théorique de la fonction d'autocorrélation requiert des hypothèses fortes de stationnarité qui ne sont pas toujours satisfaites ; c'est pourquoi la géostatistique a dû très tôt[Voir 11] recourir à un autre outil. Dans un premier temps, cet outil est simplement l'écart quadratique entre les valeurs prises par la variable régionalisée en deux points de l'espace géographique. C'est une fonction de deux variables, de la forme générale :
où
- symboliquement, et représentent respectivement, dans l'espace « géographique », les coordonnées des deux points concernés. Cette notation conventionnelle[16] ne préjuge en rien de la dimension ou de la nature de l'espace de départ : l'écriture peut aussi bien désigner une abscisse sur la droite, un temps, une paire de coordonnées (abscisse, ordonnée) ou (module, azimut), etc.
- et sont les valeurs prises par la variable régionalisée aux points et . On rappelle qu'une VR est une fonction définie sur l'espace de départ, et cette fonction est ici notée .
Dans ces conditions, la fonction apparaît comme une mesure du contraste existant entre les valeurs observées en deux points. C'est un premier outil de quantification de la structure (spatiale et/ou temporelle) de la variable régionalisée, une fonction structurale qui dépasse donc la simple information purement statistique puisqu'elle prend en compte non seulement les valeurs prises par la VR, mais également l’implantation des valeurs observées.
Toutefois, considérée comme dépendant de deux variables indépendantes et , cette fonction ne peut être un outil opératoire, pour au moins deux raisons :
- d'une part, elle constitue un objet mathématique encore plus complexe que la VR qu'elle entend représenter, ne serait-ce que parce qu'elle est cette fois fonction de deux variables au lieu d'une seule. Par ailleurs, les fluctuations numériques que l'on peut craindre pour cette fonction seront encore plus importantes que pour la VR elle-même, par l'effet de l'élévation au carré ;
- d'autre part, et de même que pour la VR elle-même, les valeurs prises par cette fonction ne seront expérimentalement accessibles que sur un nombre limité de (paires de) points expérimentaux, de sorte que l'objet mathématique ne sera connu que de façon extrêmement parcellaire, sans qu'il soit réellement possible de proposer une expression théorique acceptable. Plus exactement, il ne sera pas possible de faire un choix[Voir 12] incontestable parmi les innombrables expressions théoriques différentes qui se révèleront compatibles avec le matériau expérimental disponible.
De la sorte, il est capital d'introduire des hypothèses de travail, autant que possible expérimentalement contrôlables, qui permettent de modéliser la fonction structurale en respectant deux contraintes antagonistes : rendre compte au mieux de la structuration de la VR, et constituer un objet aisément manipulable sur le plan mathématique. Cette démarche (partiellement évoquée ci-dessous), constitue l'essentiel de ce que les géostatisticiens appellent couramment variographie.
Cas d'un champ vectoriel ou multivariable
Le cas où l'ensemble d'arrivée est multidimensionnel met en lumière un problème courant en géostatistique. Sur le plan mathématique en effet, cela ne change presque rien au cas scalaire : la VR demeure une fonction au sens strict ; ce n'est en aucun cas une fonction multiforme, ce qui signifie encore qu'à tout point de l'espace géographique, elle associe une et une seule valeur dans l'espace d'arrivée, quand bien même celle-ci serait un vecteur, un tenseur, ou plus généralement un multiplet de valeurs scalaires. Dans tous les cas, l'image par la VR d'un point quelconque de l'espace de départ est un élément unique (un singleton) de l'espace d'arrivée.
Un exemple trivial prouve du reste que la frontière théorique entre le cas scalaire et le cas multivariable est parfois très mince. Si l'espace d'arrivée est le plan complexe[17], on peut aussi bien considérer la VR comme prenant des valeurs scalaires sur le corps des complexes, ou comme prenant ses valeurs dans un espace bidimensionnel sur le corps des réels[Voir 13]. Dans ces conditions, et toujours en en restant au niveau théorique, il est très facile de définir une métrique dans l'espace d'arrivée : on définira cette fois comme fonction structurale
où le symbole désigne le module du nombre complexe .
Par extension, si l'espace d'arrivée est un espace vectoriel, concrètement si les objets de l'espace d'arrivée sont des multiplets de valeurs qui s'expriment dans les mêmes unités, on pourra de façon naturelle adopter pour fonction structurale le carré du module. Par exemple, si la VR possède trois composantes , et [18], on posera
où le symbole désigne le module du vecteur .
En revanche, la formule précédente n'est plus utilisable si les différentes composantes qui constituent l'objet VR ne s'expriment pas dans les mêmes unités : la somme des carrés d'écart mélangerait des quantités hétérogènes, et n'aurait de ce fait plus aucune signification physique. Il faut donc définir une fonction structurale ad hoc, ce qui ouvre généralement la porte à un arbitraire[19] inévitable[Voir 14]. C'est une situation qui se présente presque inéluctablement lorsqu'on travaille dans un cadre multivariable : il n'y a en réalité aucune difficulté théorique nouvelle, et les développements mathématiques pourraient être poursuivis sans obstacles techniques ; mais la nécessité d'imposer au modèle de rendre compte dans de bonnes conditions de la réalité fait au contraire surgir des complications souvent considérables au niveau de la mise en œuvre et, dans ces conditions, l'expérience et le sens des responsabilités ont beaucoup plus d'importance que la rigueur mathématique[20] pour mener à bien une étude appliquée.
Comme ces facteurs ne peuvent être inclus dans la matière d'un texte de présentation général, on n'évoquera plus par la suite que sommairement les spécificités du cas multivariable, bien que cela concerne en pratique la très grande majorité des études[21]. Mais il ne faudra pas perdre de vue que dans la pratique, l'effort d'analyse critique et le dialogue constant avec le « client » occupent considérablement plus de temps du géostatisticien que la maîtrise des outils théoriques qui sont évoqués dans cet article, et que le choix d'une métrique pertinente sur l'espace d'arrivée constitue l'une des premières et des plus importantes étapes de ce travail critique.
Propriétés analytiques de l'application
Considérée comme une fonction (donc, un être mathématique), la variable régionalisée peut être un objet d'étude par tous les outils de l'analyse. On pourra donc s'interroger sur son comportement asymptotique, son analyse harmonique, les éventuelles EDP auxquelles elle satisfait, son Intégrabilité, etc. Naturellement, sauf dans le cas d'une recherche purement théorique, ce travail doit pouvoir être associé à des interprétations physiques, c'est pourquoi des modèles trop riches font courir un risque important de surinterprétation[22] : on se trouve typiquement dans le cadre d'application du principe de parcimonie. Par ailleurs, même si le modèle et les hypothèses mathématiques sont corroborés par les observations de terrain, il faut garder à l'esprit que « la corrélation n'implique pas la causalité », autrement dit que la modélisation structurale ne prétend à aucune valeur explicative ; et plus précisément encore, la VR en tant qu'objet mathématique se limite à une description de la VR en tant que phénomène physique. Une éventuelle recherche d'interprétation, voire d'explication, relève de la seule responsabilité de l'utilisateur.
À cet égard, les caractères de différentiabilité de la VR constituent un exemple important, qu'il est utile de détailler. Pour éviter des difficultés techniques (utilisation de dérivées partielles ou directionnelles, problèmes stéréologiques (en)), on se limitera au cas élémentaire où les espaces de départ et d'arrivée s'identifient à : la VR est alors simplement une fonction réelle d'une variable réelle.
Une illustration essentielle : la notion de « régularité »
Pour une fonction réelle définie sur (ou sur un sous-ensemble préalablement précisé de ), le concept de « régularité » est parfaitement défini, et est associé au degré de dérivabilité de la fonction. De plus, le cas échéant, ce degré de régularité peut n'être vérifié que par morceaux. L'ensemble des fonctions qui satisfont à un critère de régularité donné possède la structure d'un espace vectoriel[23], et les différents espaces vectoriels ainsi déterminés vérifient des relations d'inclusion strictes qui permettent de définir de façon rigoureuse une hiérarchie des caractères de régularité. Ainsi, en se limitant pour simplifier aux fonction définies sur tout entier,
- l'ensemble des fonctions continues par morceaux, noté , est l'ensemble des fonctions qui ne présentent qu'un nombre fini de discontinuités ;
- désigne l'ensemble des fonctions continues, c'est-à-dire ne présentant aucune discontinuité sur ;
- désigne l'ensemble des fonctions dont la dérivée est continue par morceaux : intuitivement, il s'agit de fonctions qui ne présentent qu'un nombre fini de points anguleux ;
- désigne l'ensemble des fonctions dérivables ;
- désigne l'ensemble des fonctions indéfiniment dérivables, parfois qualifiées de « lisses » ou « régulières[24] » ;
et l'on a la suite d'inclusions :
qui traduit une régularité (au sens mathématique) croissante.
Pour faire simple... ↑↓ | |
La pratique de la géostatistique appliquée se heurte à la réelle difficulté de faire coïncider des concepts mathématiques précis à des notions empiriques parfois incomplètement formulées. La dialectique est plus accentuée lorsque les propriétés mathématiques sont plus exigeantes ; et elle est plus cachée (et donc plus dangereuse) lorsque les notions empiriques concernées paraissent bien maîtrisées ou allant de soi. Des développements purement théoriques ne visant qu'à l'exactitude mathématique risquent de faire perdre le contact avec la réalité et de déboucher sur du formalisme pur, correct mais inutilisable. Des développements fondés seulement sur le pragmatisme risquent d'échapper à des possibilités de contrôle théoriquement rigoureux. >Le géostatisticien appliqué a pour mission de réaliser un équilibre, une synthèse acceptable entre ces deux approches qui prises séparément sont cohérentes mais incomplètes, et qui sont parfois difficiles à concilier. |
Pour le géostatisticien appliqué, il est essentiel de pouvoir interpréter ces propriétés en termes physiques[25]. La situation paraît simple lorsqu'il s'agit de continuité ou de continuité par morceaux : l'absence de discontinuité, ou la contrainte de n'avoir qu'un nombre fini de discontinuités, semblent être des propriétés effectivement observables sur le terrain, accessibles expérimentalement. Et pourtant, on est déjà en présence d'une forme discrète de « rupture épistémologique[26] ». Car, contrairement à sa version mathématique, la continuité n'est en réalité pas clairement définie selon le sens commun. Pour illustrer cette affirmation, on peut penser à un exemple très simple de VR : la topographie. Dire que sur un territoire l'altitude est continue, cela signifierait qu'il n'y a nulle part de discontinuité, qu'il n'y a en aucun point de saut brutal d'altitude. Mais cette affirmation est-elle sensée si on observe des données séparées de quelques centimètres, a fortiori si on descend à des échelles microscopiques ? en fait, expérimentalement, le concept même de « continuité » garde-t-il un sens ? voire, en allant jusqu'au paradoxe, peut-il exister une continuité à l'échelle atomique ? du reste, est-il encore pertinent de seulement parler d'« altitude » en deçà de certaines dimensions de l'observation ?
L'origine de ce hiatus est clairement identifiée : le concept mathématique de continuité, rigoureux, est une notion infinitésimale, et par ailleurs la VR est une « variable ponctuelle[27] ». En revanche, la « continuité » selon le sens commun, et a fortiori la « régularité », sont des notions floues qui se fondent toujours (quoiqu'implicitement[28]) sur une échelle d'observation et de travail. Or, ce facteur d'échelle est essentiellement absent du formalisme mathématique. Le rôle fondamental du géostatisticien (et de tout modélisateur) est alors de rapprocher les deux points de vue : préciser les notions trop floues du point de vue naturaliste, pour pouvoir les exprimer en des termes rigoureux ; et dans le même temps alléger autant que faire se peut les hypothèses mathématiques requises, pour leur permettre de décrire la réalité « dans de bonnes conditions » — étant entendu que le degré d'adéquation du modèle à la réalité est un paramètre ajustable, qui procède en général d'un dialogue entre le géostatisticien et son client.
À cet égard, l'ambivalence de l'expression « variable régionalisée » est ici dommageable. En effet (en gardant à l'esprit, à titre d'illustration, l'exemple de la topographie),
- on peut en général répondre sans ambiguïté à la question de savoir si la VR, en tant que fonction mathématique, est continue sur un domaine fixé ; et même si la réponse peut être difficile à obtenir effectivement[29], la question est parfaitement formulée et ne requiert pas d'informations supplémentaires : une fonction est, ou n'est pas, continue. Il n'y a pas d'alternative ;
- au contraire, si la question de la continuité porte sur la VR en tant que phénomène physique, elle n'a pas de sens telle quelle, parce que la notion de continuité d'un phénomène nécessite d'être définie. Faute de quoi, on risque de ne pas savoir de quoi on parle ou, plus vraisemblablement encore, on risque inconsciemment d'invoquer des pseudo-définitions ajustées au coup-par-coup. Il convient en particulier d'accepter l'idée qu'une question en apparence aussi simple que la continuité appelle une réponse multiple, en fonction de l'échelle de travail : ainsi, la topographie d'un territoire fixé pourra sans doute être considérée comme (voire lisse[30]) observée de l'espace, seulement ou à l'échelle kilométrique, discontinue à des échelles encore inférieures ; et sans doute sera-t-il purement et simplement impossible de la représenter par une fonction à l'échelle du caillou.
Résumé : réalité et modèles ↑ ↓ | |
Il n'y a qu'une seule réalité (physique) ; en revanche, il y a autant de modèles (mathématiques) que le souhaite l'utilisateur. La réalité s'impose à l'utilisateur ; sous réserve d'exactitude mathématique, l'utilisateur est a priori maître de ses modèles. Un modèle n'est pas « juste » ou « faux » : il est efficace ou non, utile ou non, judicieux ou non. Et cela est vrai même pour les modèles les plus basiques, comme la variable régionalisée. Dans ces conditions, il n'y a pas de « vrai modèle » : le travail du modélisateur, et du géostatisticien en particulier, n'est pas de trouver une vérité qui serait cachée derrière des données brutes, mais de construire sous sa responsabilité un objet mathématique qui sera à la fois un interprète respectueux de la réalité (« contrainte amont ») et un outil efficace pour répondre aux questions posées (« contrainte aval »). |
En cours d'étude, les caractéristiques structurales ne sont pas des attributs univoques de la VR physique, mais seulement des propriétés du modèle adopté hic et nunc ; mais rien n'interdit de proposer différents modèles pour un même phénomène. Alors que la réalité s'impose à nous, dans le même temps nous sommes seuls maîtres (bien sûr dans les limites du bon sens et de la rigueur mathématique) de nos choix intellectuels pour la modéliser. Un sujet de méditation[Voir 15]...
Naturellement, ces difficultés méthodologiques sont accrues lorsque le concept mathématique concerné devient plus exigeant. Les remarques, peut-être inattendues, qui viennent d'être faites à propos de la VR (la topographie, dans l'exemple) deviendraient par exemple plus cruciales si on examinait la dérivée de la VR. Ainsi, une fonction mathématique est, ou n'est pas, dérivable sur un domaine ; mais quel sens donner à la « dérivée » — notion irrémédiablement infinitésimale — d'un phénomène physique, de surcroît la plupart du temps reconnu seulement sur un échantillonnage fini ? Quant au concept de « régularité », il est encore plus dangereux à manipuler, puisqu'en matière de fonction mathématique il signifie « infinie dérivabilité », alors qu'en dépit de son apparence intuitive il n'a tout simplement pas de définition univoque au niveau d'un phénomène physique : une rivière qui fait de nombreux méandres a-t-elle un tracé régulier comme l'affirmera un pêcheur depuis sa barque au milieu de l'eau, ou au contraire presque chaotique comme l'affirmera un cosmonaute la survolant à quelques centaines de kilomètres ?... Il n'y a pas de réponse universelle[Voir 16].
Exemples élémentaires
« Le modèle jamais n'est identique à la réalité. D'innombrables aspects du réel lui échappent toujours, et, inversement, le modèle contient toujours d'innombrables propositions parasites, sans contrepartie aucune dans la réalité[31]. »
Or dans son sens mathématique de fonction, « la variable régionalisée n'est pas identique à la réalité, mais constitue déjà elle-même un modèle primaire[32] ». Essentielle pour le déroulement ultérieur d'une étude géostatistique, la définition de ce premier modèle est certes en général peu problématique, mais elle permet de mettre en place de façon rigoureuse le cadre de travail théorique, et attire éventuellement l'attention sur les difficultés à venir. À titre d'illustration, les exemples suivants présentent quelques interrogations qui peuvent surgir dès cette première étape.
Topographie
Une première illustration déjà évoquée, très simple, peut être donnée par la topographie d'un certain territoire géographique . En tout point de coordonnées [33] de ce territoire, la valeur de l'altitude peut être considérée comme le résultat d'une application du domaine géographique dans l'ensemble des réels
Même si cela paraît naturel, le fait même de représenter la topographie par une VR (donc : une fonction) implique une hypothèse : que le relief ne présente pas d'encorbellement. En l'occurrence, ce n'est pas une restriction très importante, mais cette remarque montre que l'étape de modélisation la plus anodine peut déjà comporter des présupposés. Dans la mesure où l'élaboration d'un modèle n'est pas un but en soi, mais constitue seulement la mise en place d'un outil destiné à répondre à des questions concrètes, il est bon de ne jamais perdre de vue cette propriété essentielle, afin que les développements théoriques ultérieurs ne s'éloignent pas subrepticement de la réalité. Dans ce cas précis, il y aurait une difficulté à tracer des courbes de niveau (par exemple pour une carte d'état-major) s'il existait des zones du domaine cartographié où la variable topographie peut présenter deux valeurs distinctes en un même point : une situation certes très rare, mais pas totalement impossible dans certains reliefs particuliers (certaines montagnes, falaises, canyons...).
Si la topographie peut effectivement être modélisée par une VR, la propriété de continuité du modèle s'écrira : , puisque cette fois l'espace géographique est , sous-ensemble de . Cette propriété s'associe intuitivement à l'idée d'une carte dont les courbes de niveaux ne présentent aucune anomalie (aucune discontinuité, et aucune zone d'accumulation). Peut être de signification physique plus claire, la propriété de continuité par morceaux[34], qui s'écrira : , signifie qu'il n'existe qu'un nombre au plus fini de falaises verticales sur le domaine. Et de même, la différentiabilité par morceaux — — pourra être interprétée comme la présence d'un nombre au plus fini d'arêtes vives (ruptures de pente : crêtes ou sillons) sur le domaine.
Mais naturellement, ces différentes caractéristiques intuitives (pas de discontinuités, pas de falaises, pas de rupture de pente — ou seulement en nombre fini) n'ont de sens pratique qu'associées à une certaine échelle d'observation, et ce facteur d'échelle est absent du formalisme mathématique : la VR « ne connaît pas[35] » les conditions dans lesquelles les valeurs numériques des données ont été acquises. C'est à l'utilisateur et à lui seul qu'il appartient d'intégrer ces informations complémentaires dans l'interprétation des résultats que produira un algorithme qui n'était pas en mesure de les prendre en compte.
Météorologie
Sur le même territoire que précédemment, on peut aussi s'intéresser à des paramètres météorologiques mesurés à une distance fixée du sol. Un point du domaine étudié est donc cette fois repéré par trois coordonnées (par exemple, latitude, longitude et altitude), de sorte que l'espace de départ est à trois dimensions. Observons que l'altitude , qui était la variable d'intérêt dans l'exemple précédent (donc, appartenait à l'espace d'arrivée), a cette fois le statut d'une coordonnée. Supposons alors que l'on s'intéresse en tout point aux valeurs respectives de la température (scalaire) et de la composante horizontale du vent (vecteur à deux dimensions). La VR (notée pour la circonstance) sera donc une application :
Cet exemple appelle quelques remarques :
- concernant l'espace de départ, il n'est pas très judicieux de le considérer comme étant à trois dimensions. En effet, si la mesure est effectuée à une distance imposée du sol[36], la donnée des deux coordonnées et implique la valeur de la troisième . Bien sûr, il peut s'agir d'une relation très compliquée et de surcroît mal connue, et de fait c'est très exactement la VR présentée dans l'exemple précédent ; mais en réalité, la détermination d'un point de donnée est entièrement réalisée à l'aide de seulement deux paramètres indépendants et , quand bien même ce point de donnée est plongé dans un espace tridimensionnel. Ou encore, dit autrement, les coordonnées sont bien au nombre de trois, mais elles sont globalement liées. Aussi, d'un point de vue mathématique, il sera plus correct de considérer l'ensemble de définition de la VR comme une variété à deux dimensions. Mais en conséquence, la définition d'une distance sur cet ensemble de départ pourra se révéler problématique : la distance euclidienne sera sans doute encore admissible sur un domaine sans grand relief, mais deviendra totalement inadaptée sur un domaine au relief très contrasté ;
- naturellement, toujours en s'appuyant sur ce même domaine , on pourrait aussi travailler avec des données véritablement tridimensionnelles, par exemple transmises par des ballons-sondes lancés depuis un point de [37]. En quelque sorte, par comparaison à l'exemple précédent, la troisième coordonnée retrouverait sa liberté par rapport aux deux autres. Dans ces conditions, le travail sur un espace de départ 3D retrouve sa pertinence, et le domaine de départ est effectivement un domaine tri-dimensionnel, dont n'est plus qu'un sous-ensemble. La donnée de la topographie pour devra plutôt être rapprochée de la notion de condition initiale, puisque toutes les valeurs des altitudes des points de mesure auront cette valeur de la topographie comme borne inférieure :
- la valeur prise en tout point par la variable régionalisée se présente ici comme un triplet de valeurs numériques. En l'occurrence, il est plus prudent d'utiliser cette expression neutre que de parler d'un vecteur à trois dimensions. En effet, les trois composantes de ce triplet sont de natures physiques différentes, et bien que l'opération soit possible mathématiquement, on imagine mal ce que pourrait être la signification d'une formule de changement de base, sachant que parmi ces trois composantes l'une s'exprime (par exemple) en degrés Celsius et les deux autres (par exemple) en m/s ; en revanche, une telle formule aurait un sens si on se limitait aux deux composantes de vitesse : c'est pourquoi, afin de garder le contact avec l'interprétation physique, il est instructif de désigner l'espace d'arrivée comme étant plutôt que .
À l'occasion de cet exemple météorologique, on peut évoquer un autre problème. Supposons que la première composante du domaine d'arrivée mesure la hauteur géopotentielle pour une valeur de la pression atmosphérique, et que le domaine horizontal d'étude soit situé dans une zone géographique qui autorise l'approximation géostrophique[38]. Le domaine de définition de cette nouvelle VR est donc de la forme [39]. Les trois composantes de [40] :
sont, en vertu de cette approximation, reliées (à fixé) par un système d'EDP :
où est une constante (à fixé) si le domaine n'est pas trop étendu.
Ainsi, mathématiquement, le vent géostrophique est caractérisé par le géopotentiel, ou encore : les deux dernières composantes de la VR sont caractérisées par la première. Il ne s'agit ici que d'une simplification, mais cet exemple illustre qu'il peut exister non seulement des liens statistiques, mais même des liens fonctionnels entre les composantes d'une VR. C'est ici l'occasion de souligner une nouvelle fois la différence entre les points de vue mathématique et physique.
Pour faire simple... ↑ ↓ | |
Les résultats d'opérations infinitésimales, comme la dérivation, ne peuvent par nature être mesurés, en aucun cas, sur la base d'un jeu fini des données sur lesquelles agissent ces opérations. On peut seulement en obtenir des valeurs estimées, donc produites par le biais de constructions intellectuelles dépendant de choix méthodologiques arbitraires. Il est capital de ne jamais confondre
|
En effet, on pourrait croire que l'approximation géostrophique peut dispenser de réaliser des mesures de vent. On pourrait aussi penser que ces équations permettent, avec les seules mesures du vent, de vérifier l'hypothèse géostrophique puisqu'on doit avoir en vertu du théorème de Schwarz :
Pourtant, en pratique, il n'en est rien. Les données étant nécessairement en nombre fini, il n'est strictement pas possible de mesurer les composantes du vent en dérivant dans les deux directions principales les valeurs du géopotentiel, pas plus qu'il n'est possible de mesurer les dérivées partielles des composantes du vent — une nouvelle fois parce que la dérivation est une opération essentiellement infinitésimale, qui est fondamentalement irréalisable avec un jeu fini de valeurs.
Tout au plus pourra-t-on proposer des algorithmes d’estimation, par exemple du vent à partir du géopotentiel, en utilisant les équations théoriques fournies par la physique. On pourra aussi réaliser d'autres manipulations fondées sur les trois composantes de la VR et tenant compte de l'équation théorique reliant ces trois composantes : cette approche est un des fondements de la géostatistique multivariable (cf. bibliographie : H. Wackernagel, 2003). Mais quelqu'intéressants puissent être les résultats ainsi obtenus, il est capital de garder à l'esprit qu'il s'agit d’artefacts[41], de produits issus d'un algorithme, et non pas de données brutes. Ce sont des images de la réalité, non des mesures de la réalité[42].
Pollution
Imaginons à titre de dernier exemple que le phénomène à étudier soit la pollution d'une rivière par un certain polluant . Compte tenu de la variable étudiée, il semble judicieux de ne pas utiliser la distance euclidienne[43], surtout si la rivière effectue de nombreux méandres : il est bien préférable de compter les distances en suivant le cours de la rivière, puisque c'est le parcours que suit le polluant. Pour simplifier l'exemple, on ne tiendra pas compte des variations de pollution dans la largeur de la rivière, et on supposera que le tronçon étudié ne comporte pas d'affluents : dans ces conditions, il est naturel de repérer spatialement une mesure uniquement pas son abscisse curviligne soit encore, plus concrètement, par la distance à un point de référence[44] en suivant le tracé de la rivière. Dans ces conditions, et en supposant que la mesure de pollution est un scalaire, la VR est une simple application de dans :
Il n'y a pas de difficulté en ce qui concerne le repérage géographique, et l'espace de départ peut effectivement être muni d'une métrique. Toutefois, la nature de la variable étudiée ne peut se contenter d'une seule information de distance ; lorsqu'on compare deux points, la mesure de l'écart qui les sépare est une information assez pauvre : en particulier, il n'est pas indifférent de savoir lequel des deux points est en amont et lequel est en aval. Cette information ne peut être prise en compte par une distance, qui est par nature une fonction symétrique des deux points auxquels elle s'applique.
Anticipant sur les méthodes de la géostatistique multivariable, on peut suggérer de rajouter l'abscisse curviligne comme variable supplémentaire, et envisager d'étudier conjointement les variables et avec les outils appropriés pour un travail multidimensionnel : par exemple, étudier le nuage de corrélation entre et [45] pour essayer de mettre en évidence une dérive (tendance). De plus, il est très probable que la structure locale de la pollution dépend aussi de la vitesse du courant : on peut donc égqlement rajouter cette donnée ou plutôt, ce qui sera sans doute plus simple, l'altitude qui constituera vraisemblablement une bonne variable explicative. Dans ces conditions, la VR apparaîtra comme une application :
On peut aussi du reste, si les données le permettent[46], choisir un autre angle d'attaque et faire intervenir le facteur temps et la vitesse de propagation du polluant le long de la rivière, donc le débit...
Cette réflexion sommaire souligne l'intérêt qu'il peut y avoir à solliciter des variables auxiliaires qui, sans présenter de réel intérêt en elles-mêmes, peuvent aider à affiner la connaissance structurale de la variable d'intérêt tout en permettant de continuer à bénéficier des outils généraux de la géostatistique. Naturellement, l'ajout de nouvelles variables introduit le problème, déjà rencontré, du choix d'une métrique dans l'espace d'arrivée... De nouveau, la responsabilité du géostatisticien est décisive pour la pertinence et l'efficacité des développements du modèle.
Signification d'une VR : approche critique
Un rappel capital : ↑ ↓ | |
La démarche du géostatisticien appliqué est constamment guidée — ce qui signifie : contrainte, mais aussi garantie — par le respect du principe déjà rencontré et énoncé ainsi par Matheron : « Le modèle jamais n'est identique à la réalité. D'innombrables aspects du réel lui échappent toujours, et, inversement, le modèle contient toujours d'innombrables propositions parasites, sans contrepartie aucune dans la réalité[31]. » |
Les commentaires qui ont jusqu'ici jalonné la mise en place du concept de VR, ainsi que les quelques exemples élémentaires proposés, constituent une illustration de l'aphorisme d'Alfred Korzybski : « une carte n'est pas le territoire[47] ». La « rupture épistémologique » est bel et bien déjà à l'œuvre, et il convient de la garder à l'esprit si, comme c'est fréquent, on utilise le vocabulaire variable régionalisée pour désigner aussi bien le phénomène que la fonction mathématique qui le modélise : la VR-fonction n'est pas la VR-phénomène.
À l'examen, cette mise en garde apparaît en fait comme de simple bon sens. Pour en revenir au vent géostrophique par exemple, les équations expriment que le vecteur (objet mathématique) est le gradient (opération mathématique)[48] de la hauteur géopotentielle (objet mathématique) dans le cadre de l'hypothèse d'équilibre géostrophique. Mais quel sens cela aurait-il de déclarer : « l'équilibre géostrophique, c'est lorsque le vent (phénomène physique)[49] est le gradient (notion physique non définie[Voir 17]) de la hauteur géopotentielle (donnée physique)[50] » ? La formulation correcte, qui rendrait compte rigoureusement de la relation entre phénomène et modèle, serait : « nous dirons (par définition) qu'il y a équilibre géostrophique lorsque le vecteur adopté[51] pour modéliser le vent peut être considéré[51] comme le gradient de la fonction adoptée[51] pour modéliser la hauteur géopotentielle ». Et incidemment, cette formulation a aussi pour mérite de souligner que l'« équilibre géostrophique » est une propriété du modèle, et non un phénomène physique observable et indépendant de l'observateur[52] ; de fait, cette formulation constitue très exactement une définition, rigoureusement exprimée, du concept mathématique d'« équilibre géostrophique ».
Naturellement, un tel énoncé aussi puriste est très lourd, et ne se trouve jamais dans les publications ; les risques d'accidents méthodologiques demeurent en effet assez limités. De sorte que par exemple, dans l'usage géostatistique, l'expression variable régionalisée est selon le contexte utilisée dans l'une ou l'autre de ses acceptions.
Mais pour parer d'éventuels faux-sens[53], le lecteur se doit de garder en mémoire la sentence de Korzybski. C'est du reste l'occasion de noter que cet aphorisme soulève implicitement trois points importants :
Carte et territoire : au-delà du jugement de valeur
Certes, la carte n'est pas le territoire, mais cette distinction ne doit pas inciter à opérer une classification, un jugement de valeur, une hiérarchie. Il serait erroné[54] de vouloir affirmer une quelconque « supériorité » de la carte sur le territoire (ou l'inverse). Scientifiquement, cela n'a pas de sens d'exprimer une « préférence » entre réalité et modèle : ces deux objets sont de natures essentiellement différentes, et à ce titre ne sauraient être classés. Leurs statuts épistémologiques sont différents, leurs rôles dans le déroulement d'une étude sont différents : la réalité existe indépendamment de nos choix personnels, et s'impose à nous ; le modèle est notre création, et nous devons le dominer[55].
Mais dans le même temps, dès qu'on se consacre à de la géostatistique appliquée, l'élaboration d'un modèle n'est pas une fin en soi, et a vocation à rendre compte du réel. C'est pourquoi il est important d'associer à chaque modèle un critère permettant d'apprécier, si possible de façon quantitative, l'adéquation de ce modèle à la réalité. Et cette notion d'adéquation, qui doit être définie a priori, est clairement contingente et tributaire du problème à résoudre : toutes choses égales par ailleurs (domaine étudié, données disponibles, contraintes de calcul, etc.), une modélisation donnée n'aura pas la même pertinence selon la question posée[Voir 15] : ainsi serait-il tout à fait illusoire d'espérer atteindre un outil universel d'évaluation des modèles. Au contraire, un critère est nécessairement conventionnel, et sa caractérisation s'apparente étroitement au choix déjà rencontré lors de la définition d'une métrique : choix qui comporte donc une part importante et inévitable d'arbitraire — ce mot une nouvelle fois n'ayant aucune connotation négative. Il existe donc en théorie une grande liberté dans les choix de critères, même si des raisons très diverses (culturelles, considérations de facilité de mise en œuvre, voire mode du moment en cours dans le milieu scientifique...) peuvent limiter ces choix ; il est par ailleurs prudent de s'en tenir au principe de parcimonie.
Pour faire simple... ↑ ↓ | |
La réalité (le territoire) existe indépendamment de l'observateur et ne peut être appréhendée intellectuellement que par l'intermédiaire d'une conceptualisation. La variable régionalisée, modèle primaire, est la première étape de cette conceptualisation, et constitue par construction la meilleure représentation numérique possible de la réalité. Mais d'une part, sa complexité ne permet pas de traitements mathématiques simples ; et d'autre part, elle n'est accessible que sur un nombre fini de données. Elle peut donc seulement servir d'assise à des modélisations plus abstraites, moins fidèles à la réalité, mais choisies pour être manipulables par les outils mathématiques. Ces nouvelles modélisations pourront en particulier, par comparaison à la VR désormais prise comme référence, faire l'objet d'une évaluation pourvu que l'on ait défini au préalable un critère de qualité. Du fait qu'il ne saurait exister de mesure universelle de la qualité d'un modèle, l'utilisateur dispose d'une très grande marge de manœuvre pour convenir d'un tel critère : il doit donc tout particulièrement faire preuve de réalisme et de responsabilité. |
Il est important à ce propos de noter que la VR (fonction) n'obéit pas en général[56] à ce principe. En effet, ayant vocation en tout point à prendre une valeur qui serait exactement ce que l'on pourrait mesurer sur le terrain[57], la VR est d'une incroyable complexité, et ne pourra être explicitée par une expression mathématique simple et utilisable. On pourra certes considérer que la VR-fonction décrit de façon optimale voire parfaite[58] la VR-phénomène, mais cette perfection est stérile, parce que non opératoire : on est condamné à des manipulations purement tautologiques. Ainsi, de façon essentielle, le modèle primaire se révèle-t-il la plupart du temps inopérant en tant que tel[Voir 18], et c'est pourquoi la géostatistique s'est orientée vers des modèles plus élaborés, de nature probabiliste (voir paragraphe 3 du présent article). Ainsi, pour revenir à l'aphorisme de Korzybski, on peut l'enrichir en insistant : « aucune carte n'est le territoire » et de surcroît, la seule qui pourrait prétendre rendre compte du réel, exactement et point à point, est en fait en général irréalisable.
Cela dit, pour tout traitement numérique d'un phénomène donné, la variable régionalisée constitue l'information quantitative irréductible la plus fondamentale, le socle sur lequel peuvent être élaborés tous les modèles ultérieurs, la référence suprême à laquelle il faut revenir en cas de difficulté méthodologique[59]. Ce rôle basique a conduit Matheron à introduire la très importante notion de grandeur régionale : « Nous appelons grandeur régionale, ou simplement régionale, toute fonctionnelle de la variable régionalisée définie sur , c'est-à-dire toute grandeur dont la valeur se trouve déterminée par la donnée de toutes les valeurs numériques lorsque parcourt [60]. » Par conséquent, pour éviter tout risque de hiatus entre les développements théoriques[61] et le problème réel qu'ils sont censés résoudre, il faut veiller à ce que les énoncés des résultats puissent se formuler en termes de grandeurs régionales afin de laisser, au moins en théorie, une possibilité de contrôle a posteriori.
Encore faut-il être bien conscient que ces contraintes méthodologiques sont virtuelles, et ne sauraient être actuelles si le domaine de travail est un continuum, puisqu'il n'est pas possible de réaliser une infinité non dénombrable de mesures. Tout au plus peut-on (imaginer) réaliser les mesures sur un ensemble fini de points quelconques désignés dans l'espace. La difficulté ici n'est pas conceptuelle, mais seulement technique, et s'apparente à un problème classique rencontré par exemple en échantillonnage ; ainsi une grandeur régionale, si elle ne se limite pas à une combinaison finie de valeurs ponctuelles de la VR, ne pourra-t-elle jamais être mesurée au sens strict, mais on pourra toujours en proposer une approximation : cela ne sera qu'une question de collecte de l'information.
Comparaison de différents modèles
Une fois qu'il a été convenu d'un critère d'évaluation, rien n'interdit de comparer différents modèles afin d'exprimer des préférences. Il peut s'agir d'une simple dichotomie : modèles acceptables vs. modèles à rejeter. Mais s'il s'agit d'un critère numérique, on peut aller plus loin et classer les modèles testés : on considérera en général[62] qu'un modèle est d'autant meilleur que sa distance à la VR est plus faible. Ainsi, alors qu'il était dépourvu de signification d'établir un jugement de valeur comparée entre modèle et réalité, il est au contraire possible — et souhaitable — de chercher à établir une hiérarchie entre modèles. Mais cette hiérarchie est bien sûr fondamentalement tributaire du critère adopté, donc comporte une part importante d'arbitraire.
Par exemple, si l'on prend comme critère une fonction de la seule distance du modèle à la VR, le meilleur modèle possible sera par construction la VR (fonction) elle-même ; mais cette réponse ne sera évidemment pas satisfaisante, puisque c'est un objet mathématique impossible à expliciter et à manipuler. À l'opposé, rien n'interdit par exemple de modéliser l'ensemble d'un phénomène[63] sur un certain domaine par la moyenne arithmétique des données de la VR mesurées sur ce domaine : on peut difficilement imaginer plus simple, mais on perd toute l'information structurale sur le phénomène en résumant toute sa complexité par un seul nombre...
Deux points de vue à la fois opposés et complémentaires se rencontrent dans cette recherche d'un critère de qualité, selon la priorité que l'on se donne :
- on peut vouloir privilégier les propriétés intrinsèques du modèle. Par exemple, si le but est d'avoir une vision globale et lissée du phénomène, on préférera un modèle présentant de bonnes caractéristiques de régularité[64]. Si on souhaite modéliser un profil d'aile d'avion ou de carrosserie automobile, on cherchera un modèle qui optimise l'aérodynamisme, ou la portance. On peut appeler ce type de contraintes des « contraintes aval », puisqu'elles concernent des propriétés futures de ce que l'on va construire. Ce point de vue est par exemple celui de la modélisation par fonctions splines ;
- on peut vouloir privilégier la fidélité du modèle à la réalité ; c'est, en général, le choix de la géostatistique. Encore cette contrainte de « fidélité » doit-elle être définie : selon le cas, le but sera d'avoir un modèle précis (dans un sens à son tour à définir), et tel est le point de vue du krigeage ; et dans d'autres cas, on insistera plutôt sur le respect des textures, on souhaitera que le modèle « ressemble » à la réalité[65], et tels seront les points de vue des MNT ou, en géostatistique, des simulations conditionnelles ou non[66]. On pourra parler ici de « contraintes amont ».
Une nouvelle fois, il n'existe pas de choix « vrai » ou « faux » quand il s'agit d'opter entre contraintes amont et contraintes aval. Il y a des choix judicieux ou non, efficaces ou non, en fonction des questions que l'on souhaite résoudre, des moyens dont on dispose, des contraintes économiques, etc. Et la rigueur méthodologique exige de ne pas réajuster, de façon ad hoc et a posteriori, un critère de qualité en fonction de la conclusion que l'on souhaite promouvoir.
Domaine de validité du modèle
Pour faire simple et imagé... ↑ ↓ | |
Par nature, un modèle cherche toujours à vivre une vie mathématique autonome et, étant une construction intellectuelle, à produire des résultats qui sont essentiellement de purs artefacts. Tant qu'il ne fait que s'affranchir du contrôle de l'utilisateur, cela n'est pas nécessairement dommageable, et peut même se révéler fructueux. Laisser un peu la bride sur le cou au modèle permet parfois d'ouvrir des pistes d'investigation intéressantes, à explorer naturellement avec prudence, esprit d'analyse et sens critique. En revanche, lorsque le modèle s'affranchit complètement de la référence au réel, on quitte le domaine de la science appliquée et on se retrouve (au mieux) dans un cadre purement académique : dès lors, prendre pour argent comptant les énoncés d'un modèle devenu indépendant constituerait l'erreur méthodologique la plus grave, une transgression du seuil de réalisme. |
Toujours pour rester dans la terminologie de Korzybski, la question est enfin de savoir ce que devient la carte au-delà du territoire. En d'autres termes, cela pose le problème de l'extrapolation. En effet, le territoire étudié (physiquement) est nécessairement borné alors que les modèles (mathématiques) utilisés ont bien souvent un domaine de validité illimité. Or, sans même aller jusqu'à parler de comportements asymptotiques, quelle signification pourra-t-on alors attribuer à un énoncé du modèle relatif à des portions de l'espace éloignées des données disponibles ? Ou encore : quelle confiance peut-on accorder à « ce que nous dira » un modèle en dehors du domaine sur lequel il a été ajusté ? La question n'est pas académique : par exemple, les prévisions météorologiques ou économiques sont essentiellement intéressantes pour le futur, c'est-à-dire pour un intervalle de temps où par nature on ne dispose d'aucune information permettant de corroborer ou d'infirmer le modèle...
Cela est inéluctable : lorsqu'on sollicite le modèle sur des domaines d'espace ou de temps où il n'a pu être contrôlé, ou lorsqu'on en invoque des propriétés mathématiques qui n'ont pu être associées à des particularités physiques, on court inévitablement le risque que les développements théoriques, désormais privés du contrôle des données mesurées sur le terrain, proposent des résultats dépourvus de toute vraisemblance, voire absurdes[67]. La raison de ce danger est facile à comprendre : l'adoption d'un modèle, en effet, constitue toujours une hypothèse anticipatrice[68] puisque, selon une citation déjà rencontrée[31], « ...le modèle contient toujours d'innombrables propositions parasites, sans contrepartie aucune dans la réalité. ». Le paradoxe apparent tient à ce que l'introduction d'une telle hypothèse anticipatrice, bien que source de dangers et d'incertitudes, est dans le même temps indispensable : c'est elle qui permet de sortir des manipulations tautologiques sur des amoncellements de valeurs numériques, et de produire des résultats intelligibles et opératoires.
En résumé, deux risques de dépassement du « seuil de réalisme », deux types d’extrapolations se présentent :
- appliquer sans discernement le modèle, par ailleurs correctement corroboré par les informations expérimentales disponibles, en dehors du domaine (physique) géographique ou temporel sur lequel il a été ajusté. On peut parler à ce propos d'extrapolation physique ;
- solliciter des caractéristiques du modèle autres que celles qui en ont guidé l'inférence. On peut alors parler d'extrapolation méthodologique ou intellectuelle.
Ces deux types d'extrapolation ne sont pas condamnables en eux-mêmes, et sont même parfois indispensables. Mais ils aggravent le risque que les développements méthodologiques et leurs conclusions s'éloignent de façon inacceptable de la réalité, le risque de commettre une erreur radicale[68]. Un risque inévitable, souvent fécond, et inhérent à toute démarche de représentation théorique du réel ; il appartient au praticien d'utiliser au mieux son sens critique et son expérience pour minimiser ce risque, sous sa responsabilité.
Une illustration sur un cas simple
Afin d'illustrer la démarche critique exposée précédemment, on propose ici un exemple simplifié, à une dimension, construit pour la circonstance. On pourra penser par exemple à un profil topographique décrivant un relief en bordure de mer (les valeurs d'altitudes sont négatives sur un des bords du domaine : on pourrait les interpréter comme des profondeurs bathymétriques). Pour fixer les idées, on pourra supposer que les unités sur les deux axes sont des hectomètres.
Il s'agit d'une construction académique, puisque la totalité de la variable régionalisée a ici été construite par un algorithme mathématique, donc pourrait être effectivement connue. Elle est représentée ci-contre par le profil bleu clair.
Cette situation est, en toute rigueur, complètement irréaliste lorsqu'on travaille sur des mesures physiques expérimentales, puisqu'il n'est pas envisageable d'accéder à la connaissance effective d'un continuum de valeurs strictement ponctuelles. Toutefois, avec une approximation que l'on peut juger acceptable[69], cette connaissance exhaustive de la VR pourrait être considérée comme atteinte dans certains cas particuliers, en télédétection par exemple : on peut ainsi éventuellement admettre qu'une image satellitale apporte une information exhaustive[70] d'un phénomène physique.
Cependant, dans la très grande majorité des cas, la réalité n'est mesurée numériquement que par un nombre fini de données ponctuelles, de surcroît en général réduit. Cet état de fait soulève le problème très important de l'échantillonnage, et en particulier la question de la représentativité des échantillons[71] : la valeur d'un jeu de données ne dépend pas seulement de la quantité de l'information disponible, mais aussi de sa qualité, c'est-à-dire en particulier de l'organisation géographique de son implantation.
Dans l'exemple examiné ici, on suppose que l'on ne dispose que de huit données irrégulièrement réparties, représentées par des points jaunes. Ainsi, si l'on s'en tient aux seules données numériques, les huit valeurs d'altitudes (et les huit coordonnées correspondantes) associées à ces huit points constituent la seule information disponible.
Méthodologiquement, la mise en œuvre de cet exemple académique s'impose d'elle-même : on se place dans l'environnement d'une étude réelle, c'est-à-dire qu'on ne s'autorise donc à utiliser que les huit mesures ponctuelles désignées ; mais on pourra a posteriori comparer les constructions effectuées et la réalité de la courbe bleue. Cette situation extrêmement privilégiée n'est évidemment pas envisageable dans la réalité, où la VR n'est accessible en pratique que sur un jeu fini de mesures. Sur le terrain, le seul contrôle éventuellement possible[72] consiste à aller effectuer des mesures supplémentaires en des points où initialement l'on ne disposait pas de données, et à en comparer la valeur à ce que proposent les algorithmes développés sur la base des données initiales.
Carte et territoire : au-delà du jugement de valeur
Le panneau ci-dessous n'a pour but que de rendre sensible la différence fondamentale de nature séparant la « carte » et le « territoire », et d'illustrer la sentence déjà évoquée : « Le modèle jamais n'est identique à la réalité. D'innombrables aspects du réel lui échappent toujours, et, inversement, le modèle contient toujours d'innombrables propositions parasites, sans contrepartie aucune dans la réalité[31]. »
- Esterel, bord de mer.
- Hawke's Bay, Nouvelle-Zélande.
- Watch Hill, Rhode Island.
- Foz do rio Sado.
- île Marion, Afrique du Sud.
- Baie Erebus, Antarctique.
- Èze, Alpes-Maritimes.
Les différents paysages proposés sont tous, au prix éventuel d'un changement de coordonnées, compatibles avec le profil de la VR, et a fortiori avec les huit données disponibles. Leur variété met en lumière tout ce que l'étape de modélisation fait perdre au niveau de la connaissance brute d'un phénomène, et ceci dès le niveau du modèle primaire. Mais inversement, la fonction mathématique VR autorise des constructions intellectuelles qui permettront de dépasser la simple accumulation de données numériques, et de proposer des synthèses aidant à enrichir cette phase de connaissance brute et à proposer des schémas de compréhension du phénomène. Ainsi phénomène et modèle ont-ils des rôles essentiellement complémentaires, et la tâche du géostatisticien est de veiller à assurer cette complémentarité tout au long d'une étude.
Toutefois, dans le cadre d'une étude appliquée, il va de soi qu'en cas de désaccord entre les développements du modèle et les observations[73] de contrôle a posteriori, c'est le modèle qu'il faut corriger : le modèle a vocation à représenter le réel, tandis que celui-ci n'a pas à se plier à nos représentations intellectuelles. C'est cette dissymétrie qui fait toute l'efficacité de la démarche scientifique[74], et c'est la maîtrise opératoire de cette dissymétrie qui caractérise la valeur d'un praticien.
Comparaison de différents modèles
En plus du profil de la VR et des huit points de données, l'animation ci-contre affiche six modèles possibles pour représenter le phénomène.
Il a été choisi ici de ne proposer que des modèles qui respectent les données, c'est-à-dire qui restituent exactement la valeur des données aux points où des mesures ont été effectuées : ainsi, la VR comme les six modèles passent exactement par les huit points de données. Cette contrainte paraît de bon sens, mais elle n'est pourtant nullement obligatoire : on pourrait par exemple imaginer que les mesures sont entachées d'erreur, et que par conséquent il n'est pas judicieux de chercher à toute force à restituer avec le modèle la valeur affichée par l'appareil de mesure. Du reste, les appareils de mesures sont usuellement accompagnés de spécifications techniques qui fournissent, en particulier, leur degré de précision, et cette information capitale est un élément important pour guider l'utilisateur dans la définition d'un critère de qualité pour ses modèles.
Il semble dès lors intuitif que, si l'on choisit de respecter les données, les différentes représentations possibles de la réalité se ressembleront d'autant plus qu'il y aura beaucoup de données, puisque toutes ces courbes seront astreintes à passer par les mêmes points : il s'agit d'un effet traditionnellement appelé >conditionnement en géostatistique, et le conditionnement par les données constitue en quelque sorte une force de rappel qui contraint les modèles à ne pas trop s'éloigner de la réalité.
Cette intuition doit cependant être considérée avec précaution ; imaginons que la VR de cet exemple ait été reconnue par 201 points : sa modélisation par un polynôme de degré 200[75] aurait été d'une énorme instabilité numérique en fonction des coordonnées de ces points, bien loin de l'allure générale de la VR en dépit d'un conditionnement très fort. Quant à ce qui concerne le conditionnement par huit points, il est au contraire très lâche, et on peut a priori s'attendre à des modélisations non seulement différentes quant à leurs textures (caractéristiques morphologiques de détail), mais même en ce qui concerne leurs allures générales.
On peut attendre d'un modèle, censé rendre compte de la réalité, au moins trois types de propriétés :
- « être beau » (concrètement : obéir à des conditions de régularité posées a priori), ce qui a été précédemment qualifié de « contrainte aval » ;
- être précis (dans un sens qui reste à définir), ce qui constitue une « contrainte amont » ;
- ressembler à la réalité (dans un sens qui reste à définir), ce qui est une autre « contrainte amont ».
Pour faire simple... ↑ ↓ | |
On peut légitimement demander à un modèle d'être beau, ou précis, ou de ressembler à la réalité, à la seule condition d'avoir défini précisément le sens donné à ces trois notions. En revanche, il serait illusoire d'attendre d'un modèle qu'il satisfasse simultanément ces trois contraintes. Une nouvelle fois, c'est au praticien qu'il revient de faire le tri, et de trouver un juste équilibre entre ce qui est possible et ce qui est souhaitable : son but n'est pas de trouver un hypothétique « vrai modèle », mais de choisir le modèle qui répondra au mieux à ses attentes. |
Chacune de ces exigences a sa légitimité, et son degré d'opportunité. Mais bien sûr, le praticien doit choisir, et il ne peut attendre d'un seul et unique modèle que ces trois contraintes soient satisfaites simultanément de façon optimale : par exemple, « ressembler à la réalité » et simultanément « être régulier » ne pourrait être envisagé que si la réalité était effectivement régulière, ce qui n'a rien de général concernant des variables naturelles ; ou encore, la « précision[76] » d'un modèle n'implique nullement qu'il doive « ressembler » à la réalité. La figure ci-dessus illustre sommairement ces réflexions :
- les trois premiers modèles sont des courbes indéfiniment dérivables : elles visent donc à satisfaire une propriété de régularité maximum. Elles respectent les huit données (la seule information réellement disponible), mais leur texture ne ressemble en rien à celle de la VR et, par ailleurs, elles ne correspondent pas à l'idée intuitive de ce que l'on pourrait appeler précision ;
- le quatrième modèle satisfait à une contrainte de précision, au sens du krigeage. Il s'agit d'un profil dérivable et de dérivée continue, donc dans une certaine mesure qui satisfait à des contraintes de régularité. En revanche, ce profil ne « ressemble » pas à la réalité (ou plutôt : à la VR) en ce qui concerne sa texture, c'est-à-dire ses comportements de détail ;
- les deux derniers modèles, eux aussi dérivables, cherchent à restituer la texture de la VR[77], mais cette restitution se fait au détriment de la précision.
Ces exemples pourraient être multipliés à l'infini : c'est au praticien, et à lui seul, qu'il appartient de faire le tri, car les données à elles seules ne permettent pas de faire un choix univoque. Qui plus est, il faut se rappeler que presque toujours, la VR n'est que très partiellement reconnue par un échantillonnage nécessairement limité, de sorte que les « contraintes amont » non seulement ne peuvent être satisfaites, mais ne peuvent être définies qu'en référence non pas à la VR elle-même, mais à l'idée que s'en fait le praticien. Cela est particulièrement vrai pour la texture de la VR, c'est-à-dire son comportement de détail, qui est par nature inaccessible expérimentalement ; c'est pourquoi l'effort de modélisation doit être aidé par un dialogue permanent avec les naturalistes (selon les cas, géologues, géophysiciens, météorologues, économistes, etc.), qui seuls peuvent apporter ce complément d'information absent des données et pourtant indispensable. Une des particularités de la démarche géostatistique est de mettre en lumière de façon immédiate ce problème qui, en fait, concerne l'ensemble des mathématiques appliquées.
Domaine de validité du modèle
Cette animation rapide illustre comment s'exerce l'effet de conditionnement sur les différentes représentations que l'on peut se faire de la réalité. Comme il était prévisible, les valeurs de la « carte » sont le plus fortement contraintes à proximité d'une donnée et, a contrario, les modèles peuvent proposer des valeurs extrêmement différentes lorsqu'on s'éloigne de tout point de mesure : cela est très clair en ce qui concerne l'extrapolation, ici par exemple pour des valeurs d'abscisses inférieures à 30 ou supérieures à 470 hm. Mais on peut noter que ces très importantes fluctuations numériques peuvent se manifester même en interpolation, en fonction de la densité des données conditionnantes ou de leurs dispositions relatives : c'est ce qui se passe par exemple vers l'abscisse 430 hm, qui pourtant aurait pu sembler suffisamment proche d'un point de donnée. En contrepartie, l'agrégat de trois données entre les abscisses 320 et 360 hm occasionne un conditionnement très fort, de sorte que toutes les cartes quelles qu'elles soient présentent des valeurs très semblables sur cet intervalle.
Les « arrêts sur image » ont pour but de souligner que cet effet de conditionnement a lieu quels que soient les modèles adoptés pour tracer le profil, c'est-à-dire en particulier quels que soient l'allure générale et la texture des cartes. Cependant, on pourra noter sur cet exemple un phénomène souvent observé empiriquement : ce sont les modèles les plus réguliers mathématiquement (indéfiniment dérivables, en l'occurrence) qui occasionnent les fluctuations numériques les plus considérables et, on peut le supposer, les moins réalistes. En d'autres termes et pour utiliser des termes anthropocentriques, un modèle très régulier se laisse moins facilement contraindre par la réalité et cherche plus fortement à s'imposer à l'utilisateur.
À titre de première conclusion, on a donc souligné les risques que font courir ce qui a été appelé l'« extrapolation physique », et mis en évidence que ce risque peut se manifester y compris à l'intérieur du domaine échantillonné, en fonction de la configuration géométrique des données.
Mais cet exemple très simple permet aussi d'illustrer les dangers de l'« extrapolation méthodologique ».
Ainsi, puisque les modèles proposés ici sont tous au moins dérivables, on peut s'interroger sur la signification que pourrait prendre leur dérivée. Même si cela n'a pas de sens clairement défini de parler de dérivée d'un phénomène, on pourrait supposer que la dérivée du modèle (qui par hypothèse existe mathématiquement) donne un aperçu plausible d'une pente moyenne de la VR, dans un sens qu'il faudrait préciser[78]. La figure ci-contre montre combien cette hypothèse est risquée. Il s'agit d'un zoom réalisé autour du dernier point de donnée de la figure précédente, et qui montre qu'il peut y avoir des différences considérables au niveau des pentes des différentes « cartes », y compris si on se situe exactement en un point de donnée. En fait, en voulant interpréter la dérivée de la carte, on invoque une propriété analytique du modèle qui sort largement du cadre dans lequel le modèle a été effectivement ajusté.
Naturellement, les risques de transgression du seuil de réalisme seront accrus si on sollicite une propriété encore plus exigeante : si la dérivée du modèle a peu de chances de correspondre à une pente au niveau du phénomène physique, il est encore plus improbable que la dérivée seconde puisse être associée à une notion de courbure, en dépit de ce qu'expriment les mathématiques pures... Le déroulement d'une étude géostatistique demande donc, une fois de plus, de satisfaire à une recherche d'équilibre : d'une part, il est légitime d'essayer d'employer le modèle à exprimer des propriétés du phénomènes que ne pourraient pas mettre en évidence une simple manipulation des données brutes ; mais d'autre part, il est fondamental de se donner les moyens de contrôler les conclusions du modèle en revenant à ce qui fonde l'ensemble de la démarche, à savoir la VR elle-même.
Rappel de notations
Lorsque cela ne soulèvera pas d'ambiguïté, nous respecterons dans la suite les habitudes de notation en usage dans la littérature géostatistique francophone :
- en toute généralité, une VR (en tant que fonction) sera désignée par la lettre [79]. Toutefois, on peut aussi choisir une notation rappelant la nature physique de la VR : cela est opportun dans le cas d'une étude multi-variable, pour éviter de surcharger par un indice rappelant de quelle composante il s'agit ;
- on adopte en général une notation unidimensionnelle pour représenter les coordonnées, même si l'espace de départ est à plusieurs dimensions. Ainsi, toujours si cela ne soulève pas d'ambiguïté, désignera en général un point de l'espace de départ, et non la seule abscisse de ce point. De même, et sauf indication contraire explicite, la notation désignera un couple de points de l'espace de départ ;
- plus généralement, un indice appliqué à une coordonnée numérote le point concerné, non une de ses coordonnée. Ainsi, la suite décrit un -uplet de points de l'espace de départ ;
- pour désigner la valeur prise par la VR en un point indicé, on adoptera également l'usage[80] de simplifier l'écriture attendue en . Ainsi,
- ces conventions s'étendent naturellement au cas continu. Ainsi, pour une VR scalaire, l'intégrale[81]
représente la valeur moyenne de la VR sur le domaine , sans préjuger de la dimension de l'espace de départ. Quant à la notation , elle représente la mesure (au sens mathématique) du domaine : longueur, aire ou volume, selon que l'espace de départ est à une, deux ou trois dimensions.
Attributs d'une VR
Une VR ne saurait se limiter à une collection de valeurs numériques implantées en des points de l'espace de travail, car « les valeurs numériques ne sont pas le réel, mais une première image (analytiquement très riche, structuralement très pauvre) de celui-ci[82] » : seulement une première image. Certes, rien n'interdirait de dérouler les algorithmes géostatistiques en se fondant uniquement sur cet aspect purement quantitatif, et en se fiant exclusivement à l'exactitude mathématique des opérations ; pourtant, il est clair qu'on se priverait ce faisant d'une information importante, absente des données et pourtant capitale pour assurer la pertinence du traitement futur de ces données. Aussi, même si le jeu de données brutes constitue la seule information incontestable[83] et le dernier recours en cas de doute méthodologique, « le reste — les idées que nous pouvons nous faire sur la genèse et la structure du phénomène, et, plus généralement l'intuition physique que nous nous en formons — n'en continue pas moins à jouer en coulisse un rôle des plus importants. C'est en général dans ce trésor archétypique que nous aurons des chances de trouver les schèmes ou les principes moteurs de modèles vraiment adaptés[82]. »
Cette information la plupart du temps qualitative, qui rajoute du sens aux données traitées, ne peut être acquise que par le dialogue entre le géostatisticien d'une part, et d'autre part le naturaliste, ou plus généralement le praticien qui a soumis le problème. Cette phase de dialogue est d'autant plus cruciale que, si on la néglige, il n'y aura en général aucun garde-fou pour protéger au cours des développements ultérieurs contre des traitements dépourvus de signification physique, de sorte que l'on risque de franchir le « seuil de réalisme » sans même en avoir conscience. La difficulté est que le géostatisticien, surtout s'il aborde un domaine d'application nouveau pour lui, ne saura pas nécessairement de quoi il doit s'inquiéter auprès du naturaliste ; et inversement, le naturaliste qui n'est pas au fait des théories mises en œuvre ne saura pas nécessairement sur quel point sensible il doit mettre l'accent.
Il existe cependant des constantes, des caractéristiques de la VR que le géostatisticien doit connaître quelle que soit l'étude entreprise, sous peine de perdre d'emblée tout contact avec le sens physique de ses opérations. On peut ainsi dans tous les cas distinguer trois attributs (nature, domaine et échelle de travail, support) et une propriété (additivité), dont le géostatisticien doit avoir connaissance et garder le contrôle.
Nature
La nature de la VR ne semble pas poser de problème en général : il s'agit tout simplement de notifier dans un premier temps de quelle variable d'intérêt on parle, et de préciser l'unité employée pour mesurer les données (ou les différentes unités dans le cas d'une VR multivariable).
Il importe bien sûr que dans un jeu de données, tous les échantillons soient de même nature et s'expriment dans les mêmes unités :
- mêmes unités : l'accident célèbre de Mars Climate Orbiter est une illustration spectaculaire de l'impact catastrophique d'un mélange de deux systèmes de mesures dans une chaîne de traitements numériques. Et même si le déroulement des calculs est effectué correctement, encore ne faut-il pas se tromper sur l'unité en laquelle sont exprimés les résultats, comme en atteste la perte de Kosmos 419. Il ne s'agit pas ici de vues de l'esprit, mais d'erreurs avérées, concrètes, et qui ont eu un coût considérable ;
- même nature : ainsi, pour l'estimation d'un gisement d'uranium, on ne mélangera pas des données de teneurs et des données de radioactivité, quand bien même ces deux informations sont presque équivalentes en ceci qu'elles traduisent à peu de chose près le même phénomène physique[84]. Faire un amalgame serait une erreur ; mais il serait par ailleurs regrettable de se priver du surplus d'information que constituent deux variables distinctes répondant au même objectif. Ici, la réponse méthodologique à cette difficulté est très simple, et très courante[85] : il faut considérer le problème comme étant multivariable. Par exemple, la VR utilisée pour rendre compte du gisement d'uranium sera finalement à deux composantes (teneur, radioactivité) et ultérieurement, le formalisme de la géostatistique multivariable[86] permettra de traiter ces deux composantes simultanément, en particulier en modélisant puis en utilisant leur forte corrélation.
Il est vrai que le formalisme de traitement multivariable est plus lourd et parfois plus délicat à manipuler que l'étude d'une variable scalaire unique[87]. On pourrait alors être tenté de convertir a priori des données initialement disparates en une seule unité, et ensuite traiter le problème dans une optique monovariable[88]. Cette technique n'est pas recommandable : elle cache le caractère hétérogène du matériau que l'on manipulera par la suite, et donc fait disparaître une information peut-être importante. En fait, il est recommandé de pousser la prudence jusqu'à distinguer des échantillons pourtant rigoureusement de même nature, mais prélevés avec des appareillages et/ou à des époques très différents. Il serait par exemple imprudent d'entreprendre une étude de cartographie sous-marine en mélangeant des données datant des années 1960 (avant le positionnement par GPS, les erreurs de localisation pouvaient être de plusieurs hectomètres en pleine mer) et des données actuelles ou, plus exactement, il est souhaitable de « faire comprendre » aux traitements futurs que les données sont de qualités différentes.
Ce dernier exemple attire l'attention sur un point souvent négligé, mais qui est d'importance pour un travail géostatistique minutieux. Idéalement, il serait souhaitable qu'à toute variable soit associé un indicateur de sa qualité. Après tout, la plupart des constructeurs fournissent à l'intention des professionnels des informations sur la précision de leurs instruments, et il serait dommage de ne pas utiliser cette connaissance. Dans les cas les plus élémentaires, il s'agit simplement d'une marge d'erreur, d'un intervalle de confiance unique pour toutes les mesures. Mais la situation peut être beaucoup plus complexe : ainsi, pour des mesures de bathymétrie effectuées par un navire le long de profils parallèles, il est probable que les erreurs de localisation le long d'un même profil seront fortement corrélées[89], alors qu'elles seront peut-être indépendantes entre deux profils. C'est une information très importante, qui ne saurait en aucun cas être contenue dans les seules valeurs de la bathymétrie mesurées. Il serait donc très profitable, dans la mesure du possible, d'associer à la VR d'intérêt une seconde VR qui quantifierait la précision de la première, autrement dit de travailler sur une VR bidimensionnelle (valeur, précision) : cette démarche, qui certes rajoute de la lourdeur aux calculs, n'est pas fréquemment entreprise, mais il est important de savoir qu'elle est accessible aux outils de la géostatistique.
Dernier point concernant la nature de la VR : contrairement à ce que serait une approche purement mathématique qui ne s'attacherait qu'aux valeurs numériques indépendamment de leurs interprétations et de leurs unités, la démarche du géostatisticien est guidée par la signification et la nature de la donnée qu'il examine. Même si la courbe est la même (à d'éventuels changements près d'unités sur les deux axes), le praticien ne réagira pas de la même façon devant le tracé d'une série temporelle selon que celle-ci décrit la température d'un malade, le cours de la bourse, la position d'une particule ou une séquence de précipitations sur un bassin versant... Car tout domaine de travail a ses spécificités de même que les spécialistes de chaque domaine ont leurs expériences propres, et il serait regrettable voire désastreux de se priver de ce surcroît de connaissance. La prise en compte de la nature de la VR constitue une sécurité, une protection contre le risque de dépasser le seuil de réalisme : toutes choses égales par ailleurs, on pourra probablement accepter des valeurs modélisées négatives s'il s'agit d'altitudes (il s'agit de profondeurs sous-marines, simplement) ; cela deviendra préoccupant, quoique théoriquement acceptable, s'il s'agit de bénéfices d'une entreprise ; et cela sera parfaitement absurde s'il s'agit de pressions atmosphériques. Bien plus : il est probable que devant un profil représentant des altitudes et tracé sans préciser les unités, le praticien ne réagira pas de la même façon s'il pense qu'il s'agit d'un profil d'extension kilométrique ou qu'il s'agit du profil d'un continent entier : une carte sans unités pourrait satisfaire le mathématicien pur, mais elle est presque sans utilité pour le praticien — en tout cas dans l'optique de la géostatistique.
Domaine, et échelle de travail
Contrairement au domaine (mathématique) de validité d'un modèle, le domaine de la VR — considérée cette fois comme un objet physique — est une notion ambivalente.
Point de vue « amont »
Il s'agit dans un premier temps de la portion d'espace et/ou de temps sur laquelle les données sont disponibles. Naturellement, les données étant toujours constituées d'un ensemble fini de valeurs numériques, il faut plutôt comprendre le domaine comme une enveloppe des points de données, en général dilatée (au sens morphologique). C'est donc une définition qui laisse place à une part d'arbitraire, et qui est étroitement associée à la notion intuitive, très courante mais imprécise, de « zone d'influence » des données[90] ; en d'autres termes, le domaine (de définition) de la VR est la portion d'espace à l'intérieur de laquelle on est fondé à penser que les données disponibles apportent une information significative. Quelque floue et finalement insatisfaisante qu'elle soit, cette formulation présente un intérêt indéniable : elle souligne que l'extension du domaine où la VR peut « raisonnablement[91] » être considérée comme connue ne dépend pas seulement de la géométrie de l'information, mais aussi de la structure intrinsèque de la variable étudiée : il est clair en effet par exemple que pour un schéma d'échantillonnage donné, le domaine d'une variable très erratique devra être considéré comme moins étendu que celui d'une variable fortement structurée et peu fluctuante ; autrement dit, en un point éloigné[92] des points de mesures, les données disponibles apportent moins d'information si la VR est erratique que si elle est peu fluctuante[93].
Cette remarque attire l'attention sur un point méthodologique très important. Elle exprime en effet que la délimitation du domaine d'une VR ne devra pas dépendre seulement de l'information déjà disponible (la géométrie de l'échantillonnage), mais aussi de la structure de la VR, qui est une caractéristique que précisément on cherche à mettre en évidence par le traitement géostatistique. Il s'agit bien d'une « contrainte amont », en ceci qu'elle existe bel et bien préalablement au départ de l'étude et indépendamment des choix du géostatisticien[94] ; mais elle constitue seulement une information future qui se dévoilera progressivement et qu'il faut savoir anticiper. Autrement dit, au début d'une étude, on ne sait pas a priori avec précision quel est le domaine de validité des opérations que l'on va entreprendre, du moins en se fondant sur les seules valeurs numériques disponibles[95] : une notion que l'on aurait pu croire basique (le domaine de définition de la VR) est en réalité en partie tributaire de ce que l'étude ultérieure mettra en évidence. C'est pourquoi il est normal, en réalité nécessaire et fructueux, qu'une étude appliquée ne se déroule pas de façon linéaire, mais procède par retours en arrière et réajustements des modèles en fonction de la progression du travail[96].
La confrontation du domaine avec la géométrie de l'information disponible constitue une première approche de la très importante notion d'échelle de travail. Par exemple, si le domaine reconnu est le territoire français métropolitain, il est évident que l'on en aura une meilleure connaissance avec 551 000 données réparties sur une grille carrée de côté 1 km qu'avec par exemple 95 données implantées à raison d'une par département. De façon très grossière, ainsi que le suggère cet exemple simpliste, on peut dans un premier temps rapprocher la notion d'échelle de travail de celle de densité d'information. Toutefois, cette approximation n'est plus valable dès que l'échantillonnage est réparti de façon hétérogène : ainsi, lors d'une campagne de bathymétrie réalisée sur des profils de navigation parallèles et largement[92] espacés, profils eux-mêmes très densément[92] échantillonnés, il est très difficile de définir une échelle de travail significative globalement ; clairement, on aura une échelle très fine[97] à proximité[92] immédiate des profils, et lâche lorsqu'on se place loin[92] de tout profil. Ce problème est éclairé en géostatistique par l'important concept de variance d'estimation, un outil quantitatif qui est très étroitement associé à l'échelle de travail, et qui constitue un premier indicateur fondamental pour mesurer[98] la qualité et la fiabilité des modélisations entreprises.
Point de vue « aval »
Mais le domaine de la VR dépend aussi du problème posé, et on rejoint ici la réflexion sur le domaine de définition (mathématique) du modèle. Certes, la portion d'espace sur laquelle on s'interroge est souvent très similaire au domaine sur lequel on dispose des données : c'est en particulier le cas lorsqu'on réalise des interpolations. Ainsi par exemple, l'extension d'un gisement minier que l'on cherche à estimer sera très voisine de l'enveloppe des données disponibles ; de même, on ne réalisera pas une carte topographique des Alpes avec des données mesurées en Beauce...
Pourtant, cette exigence de bon sens ne peut pas toujours être satisfaite. C'est parfois la nature même du problème qui exige que le domaine étudié excède le domaine reconnu par les données : c'est le cas en particulier dès qu'il s'agit de faire des prévisions. On pensera à des exemples immédiats en économie, en épidémiologie, en météorologie et climatologie, lorsque l'espace de travail est le temps. Mais il y a des circonstances plus cachées. Par exemple, lorsqu'on cherche à estimer les réserves d'un gisement, le domaine sur lequel on souhaite réaliser l'inventaire de la substance à exploiter correspond évidemment à la géométrie du gisement, sauf que cette information n'est pas disponible : la frontière du gisement n'est pas connue[Voir 19]. La seule chose qu'il soit possible d'affirmer, c'est si un forage donné est ou n'est pas dans le gisement. Bien plus, les informations disponibles sont en général toutes intérieures au gisement, pour la simple raison que les industriels n'aiment pas financer des forages ou des analyses effectués dans du stérile : autrement dit, la frontière du domaine ne peut être évaluée que par extrapolation, ce qui est en général source d'instabilités numériques. Au point de vue méthodologique, il y a encore plus dangereux, puisque la définition même du domaine repose en général sur un seuil de teneur[99] ; or cette variable — la teneur — constitue précisément le sujet de l'étude[100] : on se trouve donc dans le meilleur des cas exposé à des effets de bord, souvent imprévisibles et qui parfois masquent complètement les informations utiles. Mais plus profondément, on voit se mettre en place un obstacle théorique qui s'apparente à l'argument circulaire, soit, en caricaturant à peine : « on a besoin de la solution (les teneurs en tout point) pour poser correctement le problème (délimiter le volume sur lequel on va estimer le gisement) » ; si l'on s'en tient aux seules données numériques et si l'on ne veut pas commettre de faute méthodologique grave, on se trouve dans une impasse. Le renfort d'informations extérieures aux données numériques est alors, ici, absolument indispensable[101].
Par ailleurs, même en demeurant sur un domaine d'étude très semblable au domaine reconnu, on peut vouloir changer d'échelle de travail. Ainsi, sur l'exemple proposé ci-contre, si on souhaite réaliser une cartographie des valeurs de géochimie sur une maille carrée de côté 5 m, cela signifie que l'on veut un résultat à une échelle environ 15 fois plus fine[97] que l'échelle de l'information initiale, puisque la répartition des données est en moyenne équivalente à une grille de 75 m[102]. Il y a un point crucial à noter ici : strictement rien, au démarrage de l'étude et sur la base des seules 412 données, ne permet de savoir si le projet d'affiner par un facteur 15 l'échelle initiale est légitime ou non. Il est clair que la justification de cette opération dépendra étroitement de la structure de la variable étudiée, et qu'une opération acceptable pour une variable très fortement structurée[103] deviendra irréaliste pour une variable très erratique ; le problème étant que cette structure ne peut être appréhendée que sur la base des données disponibles, c'est-à-dire de l'échelle la plus lâche[97] : on est ici confronté à un problème très voisin méthodologiquement de ce qui se rencontre en théorie du signal. Une nouvelle fois, le praticien doit invoquer son expérience, et savoir faire preuve d'anticipation, avant que des manipulations critiques[104] puissent lui permettre — mais seulement a posteriori — de juger de la pertinence de ses choix.
Illustration sommaire
Sur la base des données précédemment évoquées (géochimie sur l'île de Vulcano), les images suivantes illustrent quelques problèmes liés à la représentation d'une VR et à ses attributs :
Cette figure simpliste illustre une des premières finalités d'un travail de géostatistique élémentaire : « remplir les lacunes d'information ». En effet, outre les limites du domaine qui sont ici imposées, la seule chose qui soit réellement connue est l'ensemble des 412 données, repéré sur la première vignette : mais cette information objective ne peut pas être cartographiée sur l'ensemble du domaine, puisque celui-ci constitue un continuum. Cette première image est très difficile à lire, et à interpréter structuralement[105].
La seconde vignette propose une première piste de visualisation : une partition de Voronoï, avec un codage de couleurs permettant de se faire une idée de la structuration spatiale de la VR. Mais il va de soi qu'il s'agit d'une représentation très grossière, et que personne n'imaginera que la réalité (telle qu'on pourrait l'observer si on effectuait des mesures supplémentaires) puisse ressembler effectivement à ce que montre cette image. Il s'agit d'une première modélisation, d'une première interpolation, du reste extrêmement contestable. Elle possède en effet des propriétés mathématiques (elle est constante par morceaux) qui n'ont en l'occurrence aucune chance de correspondre à une réalité physique[106].
Les deux dernières vignettes représentent exactement le même ensemble de valeurs, qui sont une interpolation construite sur la base des 412 données. Seules diffèrent les échelles de représentation, respectivement 75 m et 5 m. La première de ces valeurs a été choisie parce qu'elle équivaut à ce que serait une répartition régulière des 412 données : ainsi, il y a le même nombre de valeurs de la VR représentées sur les vignettes 2 et 3[107]. On observe que ces paramètres « aval », arbitraires, ont un impact non négligeable sur l'aspect des cartes. On se doute bien que l'aspect en damier de la troisième vignette est un pur artefact ; mais il faut bien voir qu'un effet tout à fait similaire apparaîtrait sur la quatrième vignette si on l'observait plus en détail... Ces effets, conséquences ici bien visibles du mode opératoire, sont strictement inévitables, et il appartient de ne pas leur attribuer une signification physique qu'ils ne sauraient avoir.
Cela n'a dans l'absolu aucun sens de parler d'une « grande échelle » ou d'une « grande » distance. Il est bien sûr légitime de comparer des échelles et dire que l'une est plus fine[97] que l'autre, et a fortiori de comparer des longueurs, mais cet aspect relatif ne rend compte que très imparfaitement de la complexité de la notion et de ses enjeux.
L’échelle de travail dépend de trois facteurs au moins, qui ne sont pas tous accessibles au même moment d'une étude et qui posent parfois des exigences contradictoires :
- la densité de l'information, la maille de reconnaissance dans le cas d'un échantillonnage régulier. Il s'agit d'un paramètre qui en général est imposé au géostatisticien, parce qu'il est très rare que celui-ci ait eu la possibilité d'en négocier la valeur avec le client[108]. Ce paramètre est pertinent lorsque l'échantillonnage est relativement homogène (voir par exemple les données de géochimie présentées dans cet article : on peut raisonnablement parler d'une valeur de 75 m pour la « maille équivalente »), mais devient dépourvu de sens pour un échantillonnage hétérogène (clusters, données sur profils, lacunes dans un schéma par ailleurs régulier). En raison de l'importance décisive des facteurs d'échelle sur la signification des résultats, l'attitude correcte consisterait à découper le problème (ou le domaine) en unités homogènes : encore faut-il que la quantité d'information disponible le permette. Quoi qu'il en soit, ce paramètre est le premier qui se présente dans le déroulement d'une étude ;
- les dimensions caractéristiques du problème posé. Par exemple, le client demande une cartographie (horizontale) de son gisement à maille carrée de 5 m. Cette valeur en soi n'est pas utilisable : elle n'aura pas le même sens selon que les forages utilisés pour fournir les données auront été réalisés à maille 250 m ou à maille 25 m, ce qui dessine une première dialectique. Une dimension du problème trop grande (sous-entendu : par rapport à la densité de l'information) n'apportera probablement pas grand-chose en général : on voit mal ce qu'il y aurait à gagner à faire une interpolation à maille 200 m sur la base de données à maille 250 m ; à l'opposé, une dimension trop petite risque de conduire à des résultats illusoires : on voit mal comment on pourrait accéder à des détails de l'ordre de 5 m à partir de données à maille 250 m. Quoi qu'il en soit, il est souhaitable que la définition de cette dimension puisse faire l'objet d'un dialogue entre le géostatisticien et le client ;
- le facteur le plus important est lié à la structure de la VR elle-même. La première étape d'une étude géostatistique appliquée, la variographie, a justement comme principal objectif de mettre en évidence les distances caractéristiques[109] de la VR : présence (ou absence) de pseudo-périodicités, dimensions de la zone d'influence, éventuelles structures gigognes, anisotropies si l'espace géographique est à 2D ou plus, etc. Cette fois, ces dimensions caractéristiques sont des réalités physiques qui s'imposent à tous, géostatisticien comme utilisateur. C'est pourquoi ce sont elles qui doivent être prises comme étalon, et c'est en référence à elles qu'il est légitime de déclarer une dimension « grande » ou « petite ». Si par exemple un phénomène a une portée latérale d'ordre décamétrique[110], une maille de sondages de 250 m pourra cette fois légitimement être qualifiée de « grande » ; à l'inverse, une carotte de diamètre décimétrique pourra être qualifiée de « petite ».
Un problème méthodologique capital tient à ce que ce dernier facteur, le plus important, n'est pas connu en début d'étude, et ne se révèle que progressivement. Bien plus : sa connaissance est tributaire de la densité de l'information, avec dans le pire des cas la possibilité d'occultation des propriétés du phénomène par les propriétés du système d'échantillonnage (forte analogie avec le théorème de Shannon et le crénelage). Mais sans aller jusqu'à des cas extrêmes, il est clair que les traits structuraux les plus fins ne peuvent être mis en évidence avec une maille de reconnaissance lâche. De nouveau, il faut chercher un équilibre entre ce qui est souhaitable (une connaissance de détail du phénomène — mais peut-être justement une information trop fine est-elle superflue pour le problème posé ?) et ce qui est possible (la collecte d'information a un coût, et est même parfois destructrice[111]).
Cet équilibre est crucial par ce que, contrairement à ce qui se passe en général dans une optique purement mathématique, la perception que l'on a des propriétés d'une VR est essentiellement tributaire de l'échelle à laquelle on interroge cette VR considérée comme un objet physique. Ainsi un même objet, par exemple une chaîne de montagne de 100 km, n'aura pas les mêmes propriétés pour un photographe qui en saisit le profil panoramique global à l'intention d'une revue de géographie (échelle de travail approximative : une dizaine de kilomètres), et pour un alpiniste qui escalade les principaux pics de cette même chaîne (échelle de travail approximative : inférieure au décamètre) ; même VR, même domaine, mais échelles de travail très différentes : les modèles mathématiques pertinents seront sans doute très différents eux aussi.
Il est souvent superflu, lors de la conclusion d'une étude, de rappeler les paramètres structuraux de la variable étudiée (point 3 ci-dessus), quand bien même ces paramètres ont été les plus importants pour réaliser la modélisation qui a permis l'étude : l'exploitant minier souhaite avant tout une évaluation de son gisement, non une image théorique de ce gisement. Il est en revanche important que les paramètres décrivant l'échantillonnage initial (point 1) ne réapparaissent pas comme éléments perturbateurs du résultat final : une carte de bathymétrie doit représenter le relief sous-marin, non le parcours du navire qui a effectué les mesures[112]. Enfin, de même que toute figure doit avoir une légende et toute carte des axes gradués, il est indispensable que le cadre de l'étude (point 2) soit rappelé en détail dans la conclusion du travail, puisque c'est de lui que dépend la signification des résultats : c'est une garantie contre le risque d'« extrapolation méthodologique ».Pour faire simple... ↑ ↓ | |
Peu importants si l'on s'en tient à un formalisme mathématique pur, les concepts de nature et de domaine d'une VR, ainsi que la notion d'échelle de travail, sont essentiels pour la compréhension du phénomène étudié et le réalisme des opérations entreprises. La prise en compte de la nature de la VR permet de replacer l'étude dans son contexte physique, d'éviter une éventuelle sur-utilisation des modèles mathématiques, et de bénéficier de l'expérience des praticiens. La délimitation du domaine, qu'elle soit imposée par des considérations extérieures ou qu'elle résulte des propriétés de la VR elle-même, est décisive pour déceler les éventuels effets de bords et les maîtriser ou au moins les quantifier. Enfin, l’échelle de travail est un élément complexe, dépendant à la fois de paramètres contingents (en amont : le schéma d'échantillonnage ; en aval : le cadre du problème posé) et de facteurs inhérents à la physique de la VR. L'utilisateur ne bénéficie que d'une liberté partielle pour fixer son échelle de travail, et il doit dans le même temps garder à l'esprit que la réponse à un problème géostatistique d'apparence unique est en fait essentiellement tributaire de l'échelle de travail qui aura été adoptée. |
Support
Mathématiquement, une VR sera une fonction sur l'espace de départ, donc prendra une valeur en tout point de cet espace. Dans ces conditions, « connaître » certaines valeurs de la VR signifierait que l'on a réalisé effectivement la mesure en un nombre (nécessairement fini) de points. Or, on ne peut jamais effectuer une telle mesure : même pour des variables aussi simples que des cotes topographiques, des températures ou des pressions, les valeurs communiquées par l'appareillage ne sont jamais rigoureusement ponctuelles, ne serait-ce qu'en raison de la dimension de l'appareil de mesure ; et de la même façon, une mesure temporelle n'est jamais rigoureusement instantanée, tout dispositif présentant un effet d'hystérésis plus ou moins prononcé. On peut certes considérer que dans les premiers exemples qui viennent d'être cités, il n'y a pas de danger à considérer les données comme sensiblement ponctuelles, mais il y a des situations où cette approximation n'est plus acceptable. Ainsi, en géostatistique minière, une analyse minéralogique est toujours effectuée sur un échantillon d'un certain volume (une carotte, par exemple), et la valeur de la teneur qui est obtenue est en fait, en l'occurrence, la moyenne des teneurs ponctuelles présentes sur cette carotte[113]. La valeur qui est mesurée est donc tributaire de la variable d'intérêt (la teneur), mais aussi de paramètres contingents comme la taille et la forme de la carotte. Même chose en météorologie, où la pluviométrie mesurée n'est pas une quantité d'eau tombée instantanément[114], mais le cumul de ce qui est tombé durant une période arbitrairement fixée. Comme dernier exemple plus complexe, on peut enfin citer la mesure de l'élévation de l'océan, actuellement connue avec une précision centimétrique : une telle précision, concernant un phénomène spatio-temporel qui en un point de coordonnées fixées peut connaître des fluctuations de quelques dizaines de mètres, n'a de sens que si la variable d'intérêt est définie comme une moyenne calculée sur un support géographique et un intervalle de temps bien spécifiés[Voir 20] ; et la robustesse de cette moyenne sera clairement entièrement dépendante[115] de ce support et de cet intervalle.
Il peut aussi se présenter des situations dans lesquelles la nature même de la VR interdit d'envisager des mesures ponctuelles, même approchées. Par exemple, en prospection d'uranium, la valeur de radioactivité mesurée en un point ne dépend pas seulement de l'activité de la radiosource implantée en ce point[116], mais de tout l'environnement, et ceci en suivant une loi de pondération parfaitement connue des physiciens. Même chose en ce qui concerne la géophysique (gravimétrie ou magnétisme) : les valeurs observées en un point sont révélatrices de tout un environnement, étant bien entendu que des régions plus lointaines ont une influence plus faible que la proximité immédiate du point où est effectuée la mesure[Voir 21].
De la sorte, toute mesure est en réalité une régularisation (un lissage) plus ou moins accentuée des valeurs ponctuelles de la VR (au sens mathématique). Cet effet de régularisation est toujours inhérent au processus de réalisation de mesures, et parfois de surcroît à la nature du phénomène mesuré. Il peut se modéliser[117] facilement : une mesure instrumentale apparaît toujours mathématiquement comme le produit de convolution[118] de la VR (théoriquement ponctuelle) par un certain opérateur[119] dépendant du dispositif de mesure et/ou de la physique du phénomène. Cela étant, deux remarques :
Pour résumer... ↑ ↓ | |
Bien que fréquemment considéré comme ponctuel, par souci de simplicité, le support de la VR fournit une image du domaine spatial qui, au voisinage de chaque point de mesure, contribue à la valeur affectée à la VR en ce point. Les caractéristiques de ce support sont tributaires de l'appareillage et des conditions de mesure, et parfois de la physique du phénomène. Mathématiquement, un support non ponctuel intervient dans le formalisme géostatistique comme un opérateur de convolution ; dans la pratique, cela revient schématiquement à effectuer une moyenne (éventuellement pondérée) glissante. |
- en fait, il arrive souvent que, par comparaison à l'échelle de travail, le support de régularisation soit suffisamment petit pour qu'il soit acceptable de traiter les données comme effectivement ponctuelles. Il s'agit très exactement d'une approximation, adoptée pour simplifier le formalisme théorique, et qui demeure légitime tant qu'elle n'est pas remise en question soit par des informations objectives nouvelles, soit par des incohérences lors de la mise en œuvre du modèle ;
- même lorsqu'une valeur numérique représente un support étendu, il n'est pas interdit de l'affecter à un point de l'espace géographique. Par exemple, la valeur moyenne d'une maille d'un réseau carré pourra être affectée au centre de la maille ; la teneur moyenne d'une carotte sera affectée (par exemple) aux coordonnées du centre de gravité de cette carotte ; etc. Ce point de vue est une généralisation du concept de moyenne glissante, et c'est le plus fréquemment employé : bien que les données ne soient pas ponctuelles, on garde ainsi le même espace (« géographique ») de départ, et on continue à bénéficier de sa métrique. Mais on peut aussi faire un choix différent : on peut décider de considérer que les objets (les singletons) de l'espace de départ sont désormais les supports de régularisation ; on quitte ainsi le domaine du continu pour se limiter à des statistiques discrètes, et c'est ce qui est proposé par exemple dans la figure précédente, avec le découpage en polynômes de Voronoï[120]. Cette approche, rarement mise en œuvre en pratique, a cependant eu historiquement une importance théorique considérable, puisque c'est elle qui a permis l'introduction du concept de variance de dispersion, essentiel pour dégager les fondements de la géostatistique intrinsèque.
La prise en compte d'un support de régularisation introduit donc un nouveau facteur d'échelle[121]. Ce nouveau facteur intervient de façon plus discrète que les autres lorsqu'il s'agit de définir les conditions de traitement des données, par exemple lors d'estimations ou de simulations numériques : le choix des points de données à utiliser pour réaliser une interpolation est beaucoup plus tributaire de la structure du phénomène et de la densité d'information que du support ; en revanche, le support a une importance considérable sur les statistiques réalisées sur les données, et particulièrement en ce qui concerne la variabilité. Ainsi un des premiers apports historiques notables de la géostatistique, dans le domaine minier, a consisté à expliquer et modéliser le fait que les teneurs mesurées sur des lames minces étaient plus fluctuantes et moins structurées que les teneurs (du même minerai, sur la même mine) mesurées sur des carottes[122].
Dernière remarque : le phénomène de régularisation a un impact direct sur la structure des outils d'investigation structurale, en particulier le variogramme, et cet impact caractéristique est très facile à modéliser[123]. Aussi, inversement, les outils géostatistiques peuvent-ils permettre dans certains cas de diagnostiquer que des mesures que l'on croyait quasi-ponctuelles sont en réalité des régularisées[124].
Additivité
Une VR sera dite « additive » si la valeur globale qu'elle prend sur un ensemble de domaines géographiques disjoints est égale à la somme des valeurs prises sur chacun de ces domaines[125]. Par exemple, dans une mine à ciel ouvert, le tonnage de métal contenu dans un gradin est bien égal à la somme des tonnages sur chacun des blocs distincts composant ce gradin : la quantité de métal est une variable additive ; plus simple encore dans cet exemple, il en est de même du volume. De la même façon, des quantités de chaleur ou d'électricité, des masses, les volumes produits par un puits de pétrole (en fonction du temps), etc. sont des variables additives. Cette propriété est particulièrement intéressante, parce qu'elle rend très faciles les mécanismes de changements d'échelles en gardant un sens physique aux opérations.
Sans être additives, il existe des variables qui bénéficient également de bonnes propriétés, parce qu'on peut se ramener au cas précédent moyennant une transformation simple. C'est le cas par exemple des teneurs : la teneur globale d'un ensemble de plusieurs blocs n'est pas égale à la somme des teneurs de chacun d'eux ; mais si on multiplie chacune des teneurs par le volume du bloc correspondant[126], on obtient une masse qui, elle, est une variable additive, et la somme des masses divisée par la somme des volumes donne la teneur globale. Cette fois, le résultat final est obtenu comme étant non plus une somme, mais une moyenne pondérée ; notons d'ailleurs que si tous les blocs étaient de même volume, il s'agirait d'une moyenne arithmétique simple. Cette situation se retrouve par exemple en hydrogéologie avec une variable comme la porosité, en agriculture avec des rendements à l'hectare, en épidémiologie avec des nombres de malades par commune ou par département, en environnement avec des taux de pollution. Dans ce dernier cas, on peut également se ramener au cas additif temporellement s'il s'agit d'une substance qui ne se dégrade pas, comme un métal lourd, etc. On note dans tous les cas que pour revenir à une grandeur additive, il faut utiliser une variable auxiliaire, souvent de nature géométrique, comme l'aire ou le volume, la durée, ou la masse : encore faut-il naturellement que cette variable auxiliaire ait été correctement échantillonnée[127], et c'est un cas où le géostatisticien peut être de bon conseil auprès de son client dès la campagne de mesures.
L'intérêt méthodologique d'une variable additive est considérable. En effet, en effectuant des cumuls de cette variable sur des domaines aussi variés que possible, on obtient toujours des valeurs qui ont un sens physique clair, et qui par ailleurs peuvent faire — au moins par la pensée[128] — l'objet de contrôles expérimentaux. Par ailleurs, les outils les plus simples de la géostatistique linéaire[129] permettent de formaliser théoriquement ces transformations (cumuls ou moyennes pondérées) et de les rendre opératoires. La seule limite, contingente, à cette phase de contrôle est la quantité d'information disponible.
Pour faire simple... ↑ ↓ | |
Une variable additive garde la même signification physique sur tous les supports : sa valeur sur le tout (géographique) est égale à la somme de ses valeurs sur les parties. Par extension, on peut avec précautions garder le même mot pour qualifier des variables qui peuvent se ramener au cas additif strict au prix d'une transformation simple. Dans ces conditions, une variable additive présente la particularité de ne pas provoquer d'effet d’émergence. Sans être rigoureusement indispensable au travail géostatistique, la propriété d'additivité facilité considérablement les développements théoriques, surtout s'il est nécessaire de réaliser des changements de supports ou d'échelles. À l'opposé, les variables non additives requièrent beaucoup de prudence dans leur manipulation, et rendent la phase de reconstruction opératoire à la fois bien plus cruciale et bien plus difficile. |
Pour rapprocher d'une notion courante, on peut dire que les VR additives ou qui peuvent être ramenées à un comportement additif ont la particularité de ne pas provoquer de phénomène d'émergence.
Malheureusement[130], beaucoup de variables ne sont pas additives. Par exemple, une température non seulement n'est pas additive au sens strict, mais il n'est pas certain qu'une moyenne de températures ait une signification physique incontestable, que cette moyenne soit spatiale ou temporelle. Cela ne veut naturellement pas dire que cette moyenne sera sans utilité : on peut ainsi imaginer qu'elle prenne une place légitime dans (par exemple) des équations d'évolution ; on peut même (au moins par la pensée) la contrôler « sur le terrain[131] » et donc elle a une signification objective[132] ; mais il est impossible d'imaginer un phénomène physique qui, en un lieu donné et a une date donnée, prenne la valeur indiquée par cette moyenne spatio-temporelle[Voir 22] : cette valeur n'est donc ni plus ni moins que le résultat d'un processus de calcul.
Un autre exemple de VR non additive, beaucoup plus complexe à traiter, est fourni par l'hydrogéologie avec la variable perméabilité. Il n'y a pas de relations simples entre les différentes perméabilités mesurées à différentes échelles (microscopique et macroscopique) ; il n'y a pas d'expression simple permettant de relier la perméabilité sur deux unités de volume et la perméabilité résultante sur l'union de ces deux volumes, et encore les expressions disponibles dépendent-elles de la dimension de l'espace[133]. Dans ces conditions, il est clair qu'une somme (éventuellement pondérée) de deux perméabilités n'a pas de signification physique et, même si l'on n'engage aucun changement d'échelle, une simple interpolation peut déjà être problématique : en l'occurrence, ce ne sont pas les outils mathématiques qui laissent voir des faiblesses, mais c'est un phénomène physique qui révèle son extrême complexité. Dans ces conditions, et plus généralement pour les VR non additives, il va de soi que le travail géostatistique doit être mené avec un maximum de précautions.
D'une variable régionalisée à une fonction aléatoire
Les raisons d'une modélisation probabiliste
Dès les débuts de la géostatistique[134], les limites inhérentes à un travail fondé exclusivement sur le modèle primaire sont apparues à la fois sur le plan théorique et au niveau de la mise en œuvre. Les formalismes développés, et qui constituent la matière de la géostatistique transitive, s'expriment essentiellement pour des informations disponibles sur une maille régulière (éventuellement avec des lacunes), ce qui peut convenir pour certains problèmes (analyse d'image, par exemple, ou estimations de surfaces ou volumes) mais n'est pas adapté à des échantillonnages irréguliers comme on en trouve dans la plupart des études : cette difficulté s'est rencontrée dès les premiers travaux appliqués, qui concernaient des estimations minières[135]. Toutefois, il aurait pu être intéressant de chercher à résoudre ce problème purement technique en restant dans le cadre du modèle primaire, tant ce modèle paraît satisfaisant : il ne requiert en effet aucune hypothèse particulière relative à la structure de la VR étudiée, et les outils de la géostatistique transitive sont essentiellement adaptés à travailler sur un champ borné, ce qui correspond exactement au cadre d'une étude réelle.
Clin d'œil anthropocentrique... ↑ ↓ | |
Il faut éviter de demander à un modèle de se juger lui-même. Au mieux, il n'en sera pas capable ; au pire, il sera autojustifiant. Le modèle primaire et la géostatistique transitive n'échappent pas à cette règle. Il faut des outils et des hypothèses supplémentaires pour sortir de l'impasse, et le choix de la géostatistique intrinsèque est de recourir à un formalisme probabiliste. |
Pourtant, un obstacle de fond apparaît dès que l'on souhaite évaluer la qualité des résultats proposés. En effet, qu'il s'agisse d'interpolation, d'estimation ou de toute autre opération algorithmique effectuée sur un jeu de données, il est clair qu'il n'est pas possible de se satisfaire de la production d'un seul nombre (ou une seule carte) ; encore faut-il que l'on dispose d'une mesure au moins indicative de la fiabilité de ce résultat. Or, un résultat profond apparaît ici, qui pose les limites de la méthode transitive : « Il est théoriquement impossible de déduire des mêmes données expérimentales à la fois une estimation et la précision de cette estimation[136]. » En rester à une utilisation exclusive de la VR est sans issue : si nous « convenons de dire qu'un modèle est strictement objectif si ses critères de spécification ne font intervenir que des paramètres objectifs (identifiables à des grandeurs régionales) et des paramètres méthodologiques (imposés sans ambiguïté par le problème à résoudre et la méthode choisie) à l'exclusion de toute autre sorte de paramètres conventionnels », alors « il est clair qu'un modèle strictement objectif — et justement parce qu'il est strictement objectif — ne peut être que tautologique : il ne fait que représenter sous une autre forme la même information, celle qui est contenue dans la donnée de la VR[137] ».
Au point de vue théorique, il y a cercle vicieux. « En pratique pourtant, l'introduction de certaines hypothèses raisonnables d'approximation ou de simplification permet de briser le cercle[138] » : ce sont les hypothèses anticipatrices, « avec leur fécondité et la vulnérabilité qu'elle implique[138] ». Historiquement, pour des données disposées aux nœuds d'une grille régulière, la géostatistique a usé d'un subterfuge : considérer que l'origine de la grille a été choisie aléatoirement de façon uniforme[139] ce qui confère ipso facto aux grandeurs régionales un statut aléatoire, et qui ouvre donc la porte à d'éventuels calculs de variances, c'est-à-dire d'outils de mesure de qualité. Cette démarche semble d'autant plus satisfaisante qu'elle n'implique aucune hypothèse a priori quant aux propriétés (statistiques, structurales) de la VR elle-même. En apparence, le problème est résolu, même si la réponse est fortement tributaire du caractère régulier de la maille d'échantillonnage : à l'évidence, il y a de nombreuses situations où supposer les données régulièrement distribuées ne constituera pas une approximation acceptable. Mais il y a un résultat plus profond que l'approche théorique met en évidence[139] : toutes choses égales par ailleurs[140], la variance théorique d'un estimateur peut présenter des fluctuations numériques considérables et incontrôlables pour de faibles variations de la dimension de la maille. De façon imprévue, on se trouve dans ce que Matheron appelle une « situation préaléatoire » : « L'"idée de hasard" c'est-à-dire, en réalité, l'usage des modèles probabilistes, s'introduit en physique "lorsque des conditions initiales inséparables expérimentalement sont suivies ultérieurement d'une séparation manifeste des phénomènes observés"[141]. » Et plus tard, lorsqu'on choisit de représenter la fonction structurale — qui est une grandeur régionale[142] — par un modèle plus simple, on peut interpréter cette modélisation « comme un passage à l'espérance mathématique ». Le cadre probabiliste s'impose de lui-même en quelque sorte.
La géostatistique intrinsèque a choisi de franchir le pas et de se placer délibérément dans le cadre d'une modélisation probabiliste, et ce choix a pris place dès les débuts de la géostatistique. Les développements ultérieurs ont montré que, bien que fondé sur une théorie bien plus abstraite que la géostatistique transitive, ce formalisme est parfaitement opérationnel et ouvre davantage de perspectives. Le formalisme transitif peut être considéré comme étant à l'origine de la morphologie mathématique, et il présente un indéniable intérêt pédagogique ; mais dans le cadre de la géostatistique, il n'est plus guère utilisé que pour traiter des problèmes de nature géométrique.
Statut épistémologique
Le choix de la géostatistique intrinsèque est d'associer à toute VR une fonction aléatoire[143] (FA), dont la VR sera considérée comme une réalisation.
Ce choix — car il s'agit d'une décision parfaitement arbitraire — est dicté seulement par des considérations opératoires. Il a été inspiré par les réflexions sur le statut de la VR, et a été conforté ultérieurement par la pratique et les développements de la géostatistique. Mais il ne signifie en rien que la réalité que nous étudions procède réellement d'un phénomène aléatoire. Du reste, affirmer que le réel est l'émanation d'une forme quelconque de hasard est une proposition qui n'est ni vérifiable, ni réfutable, et qui par conséquent sort du champ du discours scientifique. Ce qui peut faire l'objet d'un travail scientifique en revanche, c'est l'étude de l'adéquation d'un modèle aléatoire à la réalité étudiée. Ainsi, avec un degré d'approximation fixé, on peut contrôler si un modèle probabiliste permet ou non de rendre compte des informations disponibles, et c'est exactement ce que se propose de faire la géostatistique ; mais la réponse n'est pas exclusive, et il est parfaitement envisageable que des modèles fondamentalement contradictoires rendent compte simultanément d'un même phénomène avec la même qualité[144].
A fortiori, il serait vain de chercher à donner une signification objective à l'espace probabilisé sur lequel est définie la FA : quelle réalité tangible pourrait-on accorder à l'univers dans lequel la VR étudiée aurait été censée prélevée ? et surtout, comment pourrions-nous accéder à la loi de probabilité de ce prélèvement, sachant que nous ne disposons que d'un seul résultat (la VR) du dit prélèvement ? Cela dit, même en refusant les spéculations métaphysiques sur l'espace probabilisé, nous ne pourrons esquiver la question méthodologique qui sous-tend toute la démarche de la géostatistique intrinsèque : comment peut-on justifier l'emploi de modèles probabilistes pour rendre compte d'un phénomène unique ? La réponse est apportée progressivement, dans les étapes de mise en place du formalisme intrinsèque ; on peut aussi noter que cette interrogation constitue en filigrane le sujet principal de Estimer et choisir, qui en examine tous les aspects et toutes les implications.
Il est clair en tout cas que le recours à une modélisation probabiliste développe des outils plus abstraits que ne le faisait le traitement direct de la VR, et que par suite les risques de perdre le contact avec la réalité et de dépasser le seuil de réalisme sont considérablement accrus. Cette prise de risque ne se justifie que par l'efficacité de ce nouveau niveau d'abstraction, efficacité constatée par toutes les études et tous les développements entrepris depuis les débuts de la géostatistique appliquée. Fondamentalement, les précautions méthodologiques à prendre sont exactement celles qui ont été évoquées à propos du modèle primaire et donc, bien qu'elles soient ici plus cruciales, il n'y a pas lieu de les répéter. Paradoxalement, alors qu'il existait encore un risque réel de confusion au niveau du modèle primaire tant la VR pouvait facilement être confondue avec le phénomène[145], le danger de confusion est ici minime : personne n'a jamais observé d'espace probabilisé, personne n'a jamais touché une loi de probabilités. Ces êtres mathématiques, dont on attend beaucoup au niveau des constructions théoriques, ne sont en aucun cas des grandeurs régionales : ce sont des purs artefacts, des produits de notre intellect. Il est donc clair que les éléments de l'espace probabilisé doivent impérativement être évincés du résultat final si celui-ci prétend pouvoir être associé à une propriété physique[146], contrôlable « sur le terrain » : la phase de reconstruction opératoire est ici cruciale si l'on veut simplement que les conclusions d'une étude ait une signification concrète.
Conventions d'écriture
Un espace probabilisé est usuellement représenté par un triplet
où :
- l'ensemble désigne un univers ;
- l'ensemble est un ensemble de parties de , muni d'une structure de tribu (donc, en particulier, ). Les éléments de sont appelés évènements ;
- le couple constitue par définition un espace probabilisable ;
- , appelée probabilité, est une mesure positive définie sur et vérifiant .
Si on désigne comme dans les exemples précédents l'espace de départ (« géographique[147] ») par , une fonction aléatoire sera définie comme étant une famille de variables aléatoires définies sur l'espace probabilisable et à valeurs dans l'espace d'arrivée, cette famille étant indexée par . Une notation possible est donc
À retenir : ↑ ↓ | |
Il est courant dans les publications de géostatistique de représenter conventionnellement les grandeurs régionales (déterministes) par des minuscules, et les quantités aléatoires associées par des majuscules. Par ailleurs, on présente la plupart du temps les fonctions aléatoires comme étant fonction du seul espace géographique, en omettant la référence à l'espace probabilisé sur lequel elles sont définies. |
Toutefois, cette écriture ne met pas assez en lumière le fait que l'ensemble doit être un espace métrique, et que l'on s'intéresse au premier chef aux propriétés structurales de considérée comme fonction sur . Aussi la géostatistique préfère-t-elle noter une fonction aléatoire comme une fonction de deux variables, l'une parcourant l'espace probabilisable et l'autre l'espace « géographique ». De sorte que l'usage sera par exemple de représenter une FA réelle[148] sous la forme
Cette présentation sous forme d'une fonction de deux variables montre que :
- pour un événement fixé dans , l'objet mathématique est une fonction déterministe d'une seule variable, définie sur l'espace « géographique » : c'est donc, très exactement, une variable régionalisée. Cette observation va fonder la méthode de travail en géostatistique intrinsèque, présentée dans les alinéas suivants ;
- pour un point fixé dans l'espace « géographique » , l'objet mathématique est une fonction d'une seule variable définie sur l'espace probabilisable : c'est donc une variable aléatoire.
En fait, d'une part parce que l'espace des événements n'a pas de réalité physique (donc, non plus), d'autre part parce que c'est principalement la structuration dans l'espace de départ qui intéresse le géostatisticien, on écrit en général la FA comme une fonction d'une seule variable : , accentuant ainsi le parallélisme avec la VR associée . Le caractère aléatoire est, conventionnellement, révélé par l'utilisation d'une lettre majuscule[149].
Ainsi, lorsque l'on associe une FA à une VR , il sera automatiquement possible d'associer à toute grandeur régionale une version probabiliste qui s'obtiendra en remplaçant dans son expression la VR par la FA ; et, au niveau des écritures, cela reviendra simplement à changer une minuscule en majuscule. Ainsi, en gardant les conventions d'écritures définies précédemment, on a le tableau de correspondances[150] :
Version VR | Version FA | ||
---|---|---|---|
Statut | Notation | Notation | Statut |
Nombre | Variable aléatoire | ||
Fonction | Fonction aléatoire | ||
Nombre | Variable aléatoire | ||
Nombre | Variable aléatoire | ||
Fonction | Fonction aléatoire | ||
Fonction | Fonction aléatoire |
Il reste maintenant à expliciter le mécanisme intellectuel qui règle l'association entre une VR et une FA, puis à décrire comment ce mécanisme intervient dans une étude géostatistique.
Réalisation
D'un point de vue purement mathématique[151], l'écriture d'une FA[152] comme étant une fonction de deux variables sur un ensemble abstrait :
montre comment une fonction aléatoire génère des variables régionalisées : pour chaque événement (élément) fixé de la tribu , l'application partielle
Pour faire très simple... ↑ | |
De même que la réalisation d'une expérience aléatoire peut être considérée comme le tirage au hasard, selon une certaine loi de probabilités, d'une valeur numérique parmi toutes les valeurs possibles que peut prendre une variable aléatoire. De même, la réalisation d'une fonction aléatoire revient à tirer au hasard, selon une certaine loi de probabilités, une certaine fonction parmi toutes les fonctions possibles proposées par la FA. Dans le premier cas, le résultat de la réalisation est un nombre (ou un multiplet de nombres) ; dans la démarche géostatistique, le résultat d'une réalisation est une fonction de l'espace « géographique », c'est-à-dire une variable régionalisée. |
devient en effet une fonction d'une seule variable définie sur le seul ensemble géographique . Toute référence à un contexte probabiliste est désormais écartée, de sorte que conformément aux conventions d'écriture, il est légitime de représenter cette fonction par une lettre minuscule. Et cette fonction a très exactement la signification d'une variable régionalisée. Ainsi, lorsqu'on dispose d'une FA , il est possible de construire autant de VR qu'il sera possible de choisir des éléments dans la tribu d'événements sous-jacente.
Cette construction est pour le moment purement algébrique, et ne met en jeu que l'espace probabilisable. L'aspect aléatoire intervient dans la manière de choisir , et ce choix sera tributaire de la loi de probabilité , de sorte qu'intuitivement[153], toutes les VR possibles associées à une même FA n'auront en général pas la même chance d'être tirées au hasard. Le mécanisme complet consistant d'abord à tirer un événement au hasard puis à lui associer la VR correspondante est appelé réalisation du processus (synonyme : de la FA) et par extension, on dira en abrégé que « la VR est une réalisation de la FA ».
Cette dernière formulation escamote à la fois la tribu et la loi de probabilités : cela n'est nullement gênant dans la mesure où ces deux concepts mathématiques n'ont strictement aucune existence objective, pour cette raison ne doivent intervenir que le plus discrètement possible dans les développements algorithmiques (principe de parcimonie), et ne doivent pas être présents dans l'énoncé du résultat ultime d'une étude appliquée.
Il convient en revanche d'insister sur le fait que la VR n'est que une — et une seule — réalisation, parmi beaucoup d'autres possibles dans le cadre du modèle probabiliste sous-jacent[154]. Autrement dit, le modèle FA est beaucoup plus riche et complexe que le modèle VR, et beaucoup plus abstrait également en ceci qu'il dépend de beaucoup de facteurs (tribu d'événement, loi de probabilités) qui n'ont pas de signification objective et ne peuvent donc faire l'objet d'un contrôle expérimental. Sur le plan pratique, il faut prendre conscience de ce que le recours à un modèle probabiliste augmente considérablement les risques de franchir le seuil de réalisme ; et sur le plan épistémologique, il faut s'interroger sur la signification qu'il y a à vouloir représenter un phénomène unique[155] (la VR, pour faire simple) par un modèle aléatoire : ce problème, véritablement fondamental et essentiel[156], constitue la matière de l'ouvrage de Georges Matheron Estimer et choisir. Quant à la justification du recours à une méthode indéniablement plus délicate[157] à mettre en œuvre que le modèle primaire, elle est de nature empirique : le développement des travaux et outils de la géostatistique depuis le milieu des années 1950 a clairement établi l'intérêt des outils probabilistes en matière d'efficacité, et justifié les complications méthodologiques qu'ils introduisent.
Immersion probabiliste
Lorsqu'un praticien aborde une nouvelle étude, il dispose d'un jeu de valeurs numériques qui constituent un échantillonnage du modèle primaire, c'est-à-dire d'une variable régionalisée. S'il souhaite travailler dans le cadre de la géostatistique intrinsèque, il doit associer cette VR à une fonction aléatoire, sur laquelle les outils théoriques permettront d'établir des résultats bénéficiant de toute l'efficacité des modèles aléatoires. Cette opération est appelée « randomisation », ou plus rarement immersion probabiliste[158].
Bien que plus fréquent, le mot « randomisation[159] » ne semble pas opportun, principalement parce qu'il peut prêter à confusion. Il décrit en effet parfois l'action de réaliser des prélévements aléatoires dans un jeu de données, et ce n'est clairement pas de cela qu'il s'agit lorsqu'on passe d'une VR à une FA.
Cependant, dans son acception la plus précise[160], randomiser une variable aléatoire dépendant d'un paramètre signifie que l'on donne à ce paramètre un statut aléatoire : la variable randomisée devient, en quelque sorte, « doublement aléatoire »... Ce point de vue est, cette fois, transposable à la géostatistique intrinsèque : il consiste à considérer qu'une VR donnée est en réalité une fonction (déterministe) indexée par un certain paramètre , puis à remplacer ce paramètre par une variable aléatoire d'un espace probabilisé . Ainsi, on décide de poser — avec des notations un peu hybrides[161] :
et l'on définit la FA associée à la VR par la relation :
Le choix, habituel dans les publications de géostatistique, de ne pas faire figurer la seconde variable () n'est pas un simple allègement de notation. Cela évite d'attirer l'attention sur un paramètre qui n'a aucune réalité physique, et sur lequel le praticien n'a aucun moyen d'action. On écrit donc usuellement une FA , le caractère aléatoire (dans le modèle) de cette fonction étant conventionnellement désigné seulement par l'utilisation d'une lettre majuscule.
En examinant le mécanisme méthodologique qui fait passer des aux , on constate qu'il s'agit bel et bien de plonger une classe d'objets mathématiques déjà fort riche (les VR) dans un ensemble infiniment plus vaste (les FA) : l'expression « immersion probabiliste », bien que peu fréquemment utilisée, paraît donc judicieuse et sera conservée dans la suite de l'article.
Enfin, cette abstraction croissante fait naturellement courir des risques accrus de dépasser le seuil de réalisme, et le géostatisticien se doit d'être particulièrement vigilant. Mais en contrepartie, il bénéficiera de tout l'arsenal des outils et théorèmes de la théorie des probabilités et des processus stochastiques ; et si, au prix éventuel de transformations[162], il se limite à manipuler des FA de variance finie, il pourra munir son espace (de FA) d'arrivée d'une structure d'espace de Hilbert qui lui garantira par théorème l'exactitude de ses principaux résultats (interpolation, estimation, filtrage, etc.) : le gain théorique est immense, et justifie pleinement les efforts de rigueur qu'il faut consentir.
En conclusion : méthode de la géostatistique intrinsèque
L'animation ci-dessous rappelle de façon allégorique les trois niveaux d'une étude géostatistique. L'image du fond représente un chantier d'orpaillage industriel, pour rappeler qu'une étude de géostatistique appliquée a vocation à répondre à des questions concrètes, avec des enjeux non seulement méthodologiques, mais aussi techniques et économiques.
La première colonne se réfère à la réalité physique, au monde dans lequel le problème à résoudre a été posé. Les enjeux d'une étude peuvent être considérables : implicitement, dans l'illustration proposée, il s'agit d'exploiter un gisement minier. La sanction ultime sera en l'occurrence la rentabilité de l'entreprise : une sanction en général sans ambiguïté, mais qui n'arrive qu'en toute fin du travail. Ainsi, la mission qui est confiée au géostatisticien est essentiellement d’anticiper ce qui sera finalement plus tard une simple constatation — si du moins l'exploitation est réellement entreprise et menée à son terme : il s'agit donc d'aller plus loin que ce que disent hic et nunc les données, ce qui ne peut se faire qu'au prix d'un exercice intellectuel de modélisation.
La seconde colonne rappelle que le premier niveau de modélisation consiste à considérer le réel comme une fonction, comme un être mathématique : c'est l'introduction du concept de variable régionalisée. Symboliquement, l'arrière-plan de la figure est ici en partie brouillé, pour rappeler que l'exercice de modélisation nous éloigne partiellement de la réalité, à la fois en ne prenant pas en compte toute la complexité du réel, et en introduisant dans le même temps des propriétés mathématiques qui n'ont peut-être aucune contrepartie dans la réalité. Ce cadre du modèle primaire permet déjà des traitements spécifiques (statistiques) et constitue la matière de la géostatistique transitive.
Le passage à la troisième colonne constitue la caractéristique de la géostatistique intrinsèque : il consiste, sur la base de la seule variable régionalisée dont nous disposons, à invoquer une fonction aléatoire dont la VR serait une réalisation parmi une infinité d'autres. C'est le processus fondamental de l’immersion probabiliste qui, symboliquement, revient à remplacer par . Nous sommes ici dans un niveau d'abstraction bien plus élevé, c'est pourquoi symboliquement l'arrière-plan n'est presque plus discernable ; c'est pourquoi aussi le risque d'entreprendre des développements théoriques ne correspondant à rien dans la réalité est considérablement accru. Mais dans le même temps, on bénéficie de toute la richesse des outils probabilistes qui permettent de formaliser le problème initial en termes théoriques, et d'en proposer une solution.
L'étude ne doit pas s'arrêter là. Il convient maintenant d'exprimer la réponse théorique en termes concrets. Il faut donc d'abord veiller à ce que cette réponse ne soit tributaire d'aucun paramètre conventionnel, et puisse ne s'exprimer qu'en termes de grandeurs régionales. Ensuite, dans l'expression de la solution théorique, il faut remplacer la fonction aléatoire par la variable régionalisée (remplacer par ) : c'est la phase de réalisation, qui est à la base de la reconstruction opératoire. Le résultat fourni alors a vocation à être comparé à la réalité.
Pour conclure l'interprétation de cette figure, il faut remarquer que l'utilisateur ne dispose d'aucun degré de liberté dans la colonne de gauche, puisque la réalité s'impose à tous indépendamment de tous choix méthodologiques et de toutes préférences subjectives ; et inversement, plus on avance dans l'abstraction et plus on dispose de possibilités de faire des choix arbitraires et subjectifs. Aussi, s'il arrive qu'à l'issue d'un travail les résultats proposés se révèlent incompatibles avec les mesures de contrôle, c'est bien sûr au niveau des modèles qu'il convient d'apporter des corrections. Il faut alors entreprendre un nouveau cycle : éventuellement un nouveau modèle primaire, assurément une nouvelle immersion probabiliste, refaire exécuter les algorithmes et réeffectuer la reconstruction opératoire ; l'essentiel est de garder à l'esprit que, en cas de conflit entre la réalité et le modèle, c'est le modèle qui doit s'aligner sur la réalité...
Notes et compléments
Notes
- Estimer et choisir, p44.
- De fait, l'ouvrage commence par la phrase : « Plus qu'une thèse, je défends une pratique » (c'est Matheron qui souligne le mot « pratique »).
- Estimer et choisir, p5. Définition neutre, mais un peu restrictive, puisqu'elle exclut la géostatistique transitive, qui n'est pas de nature probabiliste. Cette restriction est sans réelle gravité, dans la mesure où la géostatistique transitive n'est que rarement utilisée ; mais pour être parfaitement rigoureux, il serait plus juste d'énoncer : « la géostatistique intrinsèque se définit comme la pratique des modèles topo-probabilistes ».
- Naturellement, cette expression familière — et extrêmement courante — relevant de la langue parlée en usage dans la communauté géostatistique, on n'en trouvera nulle part de référence bibliographique !
- Voir par exemple une présentation de logiciels de géostatistique.
- Estimer et choisir, p1.
- Dans tout cet article, le mot « déterministe » est pris strictement dans son acception mathématique, comme antonyme de « probabiliste ». Ainsi, en tant qu'objet mathématique, une VR est fondamentalement non-aléatoire.
- L'étude des variables qualitatives ou des variables géométriques relève en effet quant à elle d'autres méthodes mathématiques (analyse d'image, morphologie mathématique, codage disjonctif, différentes méthodes de classification, etc.).
- Georges Matheron, Traité de géostatistique appliquée, tomes 1 et 2, Technip, Paris, 1962 et 1963 ; tome 2, BRGM, Paris, 1962. Georges Matheron, Les variables régionalisées et leur estimation, Masson, Paris, 1965.
- Il ne s'agit pas d'une panacée. Selon la nature du problème à traiter, un tel choix pourra se révéler plus que satisfaisant, ou au contraire totalement inadapté.
- Ce qui signifie que l'on peut approximativement considérer que la sphère est localement un espace euclidien.
- Par exemple, les limites d'un gisement à estimer, la période sur laquelle on veut réaliser des moyennes météorologiques, le territoire sur lequel on veut synthétiser des informations épidémiologiques, etc. En simplifiant à peine, dans le cas d'une étude réelle, on peut dire que le domaine de travail est imposé par le client au géostatisticien ; celui-ci en tout cas ne dispose que de très peu de marge de manœuvre.
- Il convient naturellement de faire preuve de bon sens : si par exemple on étudie des teneurs minéralisées dans un gisement, il n'est pas sûr que la distance euclidienne entre deux points sera pertinente si ces deux points sont séparés par une faille !
- L'étude d'un champ scalaire constitue un cas particulier de travail monovariable. Mais inversement, une variable unique peut posséder plusieurs composantes, c'est-à-dire ne pas être scalaire, alors que son étude est bel et bien monovariable.
- Le travail sur des variables entières — donc sur un espace d'arrivée ou — présente des difficultés spécifiques qui ne seront pas examinées dans cet article. En revanche, le traitement de variables complexes (espace d'arrivée : ), bien que très rarement justifié, ne soulève pas de problèmes théoriques nouveaux.
- Pour alléger les notations, cette écriture simplifiée sera systématiquement utilisée lorsqu'elle n'introduira aucun risque de confusion.
- Une lecture méthodique des rapports d'étude produits depuis une cinquantaine d'années permet de constater que c'est une situation rarissime. En revanche, les études multivariables sont monnaie courante.
- On peut penser par exemple, en météorologie, aux trois composantes d'un vent.
- Comme toujours dans cet article, ce mot ne comporte aucun jugement de valeur. Mais il attire ici l'attention sur le fait essentiel que la définition de la fonction structurale n'est pas une opération univoque, et ne procède pas d'un enchainement inéluctable d'implications mathématiques. Il appartient au géostatisticien de juger ce fait comme regrettable, ou au contraire bénéfique.
- Naturellement, cette rigueur mathématique n'en demeure pas moins indispensable. Toutefois, c'est une condition nécessaire au succès d'une étude géostatistique, mais non suffisante.
- On peut citer en vrac : l'estimation des gisements polymétalliques, l'utilisation simultanée de données géophysiques et de forages en géostatistique pétrolière, la multiplicité des variables physiques dans l'étude des champs météorologiques, le couplage de données environnementales (pollution par exemple, ou agriculture) avec les paramètres climatiques, le couplage de données épidémiologiques avec des paramètres socio-économiques, etc. En fait, c'est le traitement monovariable qui constitue l'exception, à moins qu'il ne représente qu'une phase de dégrossissage d'une étude plus complexe.
- On peut aussi, dans certains cas favorables, arriver au résultat inverse : des développements purement abstraits mettant sur la piste de propriétés physiques jusque-là inaperçues. Cette démarche a été en particulier mise en œuvre dans le cadre de l'analyse krigeante (voir le livre de H. Wackernagel cité dans la bibliographie). Mais il est alors indispensable méthodologiquement, et de la plus élémentaire prudence en pratique, d'aller chercher des confirmations sur le terrain avant de proposer des conclusions trop téméraires.
- En fait, ces ensembles ont même une structure d'algèbre.
- À ne pas confondre avec les fonctions analytiques réelles, qui ne constituent qu'un sous-ensemble des fonctions régulières. Naturellement, des propriétés aussi fortes que l'indéfinie dérivabilité et a fortiori l'analyticité échappent à toute possibilité d'interprétation au niveau expérimental : elles se trouvent bien en deçà de ce que Matheron appelle le « seuil de réalisme » (Estimer et choisir, p. 23). Pour parler de façon imagée, ce sont des concepts mathématiques (parfaitement rigoureux) qui vivent leur vie propre, et qui se sont totalement affranchis de toute obligation d'avoir un correspondant dans le monde réel.
- Voir la bibliographie : la suite de ce paragraphe ne saurait se substituer à une lecture attentive de Estimer et choisir, en particulier le chapitre 2. On pourra aussi se reporter à l’Aide-mémoire de géostatistique linéaire, chapitre 1.
- Il est fait ici allusion plus précisément à la discontinuité entre sens commun et théorie scientifique (Pierre Jacob (dir.), De Vienne à Cambridge (1980), Gallimard, coll. "Tel", 1996, p. 7.)
- Elle prend une valeur en tout point (mathématique) du domaine.
- C'est évidemment ce caractère subreptice qui est à l'origine des plus grandes difficultés méthodologiques.
- En fait, elle est impossible à obtenir, du moins dans la totalité des cas où on travaille sur des données expérimentales. Ce n'est que dans un cadre purement académique, lorsqu'on travaille sur des données procédant déjà d'un algorithme de calcul, que les caractères de régularité de la VR-fonction peuvent être sûrement diagnostiqués.
- C'est-à-dire indéfiniment dérivable, pour reprendre le vocabulaire des classes de régularité.
- Estimer et choisir, p30.
- Estimer et choisir, p. 89.
- La notation ne préjuge ici en rien du système de coordonnées : il peut s'agir aussi bien des abscisse et ordonnée dans un système de projection quel qu'il soit, que des longitude et latitude.
- Cette propriété, ainsi que la suivante, sont parfaitement définies dans des espaces de dimension supérieure à 1, cf. les définitions de la régularité par morceaux. Mais la définition rigoureuse n'est pas essentielle pour la discussion actuelle.
- Cela n'est pas tout à fait exact. L'observation minutieuse des propriétés analytiques de la fonction structurale permet d'obtenir au moins des indications (non univoques) sur le possible support de la VR considérée. Ce type d'examen constitue la base des méthodes de changements de support, qui peuvent être considérées comme un apport significatif de la geostatistique aux outils des statistiques usuelles.
- On peut penser à un dispositif de hauteur fixe, placé sur le sol, et comportant un thermomètre, une girouette et un anémomètre.
- On suppose pour (beaucoup) simplifier que les ballons s'élèvent à la verticale...
- En particulier, cela exclut les zones intertropicales.
- La troisième coordonnée, la hauteur géopotentielle, est toujours positive.
- Cette présentation est très schématique ! Mais on notera que l'usage en météorologie est de définir la position d'une donnée par deux composantes géographiques, et une composante de pression. Ainsi, en un point de coordonnées x et y fixées, on considère que c'est l'altitude (le géopotentiel) qui est fonction de la pression, et non l'inverse. Les difficultés qui résultent éventuellement de cette approche sont sans incidence sur la réflexion du présent paragraphe.
- Ce mot est strictement descriptif, et ne comporte aucune connotation péjorative.
- Cette phrase ne comporte aucun jugement de valeur. Elle insiste seulement sur la différence de nature entre une mesure de terrain et l'issue d'une construction algorithmique, entre la réalité et un modèle. Prendre celui-ci pour celle-là peut conduire à des erreurs dramatiques : lors de l'exploitation d'une mine, on extrait des tonnages réels, non des valeurs estimées ; la confusion peut coûter très cher !
- Naturellement, le choix serait tout différent si on travaillait sur de la pollution de l'air, ou sur de la pollution de sols.
- Par exemple, la source de pollution si elle est ponctuelle et identifiée le long du tracé de la rivière.
- En l'occurrence, ce nuage n'est autre qu'une version discrétisée du profil des valeurs de pollution le long de la rivière !
- Par exemple, si la nature du polluant est telle que l'on bénéficie, aux points (géographiques) de mesure, d'enregistrements temporels en continu, ou tout au moins densément échantillonnés.
- On notera la très judicieuse subtilité dans l'usage des articles : évidemment défini pour le territoire, indéfini pour une carte.
- À une transformation près (changement d'axes et facteur multiplicatif), qui est sans incidence ici.
- C'est ce vent, par exemple, qui lorsqu'il est au niveau du sol fait tourner les éoliennes ou avancer les voiliers, ou qui en altitude perturbe le vol des avions. Il existe et s'impose à nous, indépendamment de la représentation intellectuelle que nous nous en faisons.
- C'est l'altitude à laquelle par exemple un ballon-sonde a constaté que la pression atmosphérique avait une valeur fixée.
- « Raisonnablement », c'est-à-dire : avec une tolérance (approximation) admissible fixée à l'avance. Car une mesure est presque toujours entachée d'une erreur, et on peut très souvent accepter une certaine marge d'imprécision sur le résultat : l'essentiel, au point de vue méthodologique, est de fixer ces seuils de tolérance (éventuellement nuls) a priori. Notons que cette notion d'approximation est presque constamment présente dans les sciences appliquées, alors qu'elle est au contraire très peu sollicitée dans les développements purement théoriques.
- Naturellement, l'affirmation phénoménologique que pourrait prononcer un météorologue : « nous nous trouvons en situation d'équilibre géostrophique », bien qu'en toute rigueur dépourvue de signification, constitue un raccourci que tous les professionnels interpréteront correctement, et qui ne constituera sans doute jamais un danger méthodologique grave.
- Et aussi pour éviter d'amorcer des polémiques stériles.
- En restant comme ici dans le domaine scientifique, naturellement. Car au niveau des préférences philosophiques, ou culturelles, ou esthétiques, rien n'interdit de proclamer la supériorité de l'abstraction de la carte sur la trivialité du territoire, ou au contraire de préférer le concret du territoire à l'immatérialité de la carte. Mais bien sûr, il ne s'agit plus là de démarche scientifique et l'on sort du domaine de la géostatistique, ce qui procède d'une autre légitimité. L'essentiel est ne pas faire d'amalgame.
- La créature qui échappe à son créateur est un thème inépuisable de la littérature, dans toutes les cultures et toutes les époques : ce n'est pas un hasard. Et cette source de catastrophe doit être soigneusement évitée par tout modélisateur.
- C'est-à-dire en particulier dans le cas de loin le plus fréquent où l'objet de l'étude est une variable physique naturelle (teneurs minérales, températures, pressions, altitudes, etc.) dont les comportements de détail sont extrêmement erratiques.
- Cette opération de mesure est imaginable conceptuellement, et c'est ce qui est important ici ; mais elle est irréalisable in praxi : en particulier, il n'existe pas dans la réalité de mesure véritablement ponctuelle. Et par ailleurs, on ne saurait réaliser de mesures sur la totalité d'un domaine (infinité non dénombrable de points de mesure !).
- Cette perfection supposée est en fait très douteuse, dans tous les cas : la description du réel par une seule accumulation de valeurs numériques (même infinie non dénombrable !) constitue déjà probablement une réduction importante de la connaissance que l'on aurait été en droit d'espérer. Et par nature, cette dégradation probable de l'information est fondamentalement impossible à mesurer, voire à définir rigoureusement.
- Il n'est bien sûr pas interdit, au cours des développements de modélisation ultérieurs, de compléter cette donnée de base par des informations qualitatives, qui rajouteront de la pertinence et de la signification à ces développements. Mais ces informations supplémentaires ne font pas partie de la VR, elles ne sont pas inscrites dans les données numériques disponibles ; elles peuvent donc parfois ne pas faire consensus parmi leurs utilisateurs.
- Estimer et choisir, p. 77.
- Pour parler de façon imagée, on pourrait dire que tout modèle cherche à vivre sa vie (mathématique) propre et à s'émanciper de son obligation initiale de rendre compte du monde réel. La contrainte d'en revenir systématiquement à des grandeurs régionales est une manière de « raccourcir la laisse » pour que le modèle ne s'éloigne pas trop de son dresseur !
- Mais on pourrait très bien imaginer qu'un critère de choix entre différents modèles ne repose pas sur une comparaison à la réalité, mais sur des facteurs purement intrinsèques : complexité de l'algorithme, temps de calcul, mémoire requise, etc.
- Supposé scalaire, pour simplifier l'exemple.
- Sous réserve des remarques faites précédemment quant à la notion de régularité...
- Ou plutôt, à l'idée qu'on se fait de la réalité, car celle-ci n'est que très imparfaitement connue en général. Quant à cette notion de ressemblance, elle demande elle aussi à être précisée.
- Voir par exemple : Christian Lantuéjoul, Geostatistical simulation : models and algorithms, Springer-Verlag, Berlin, 2002.
- Invraisemblables : des altitudes terrestres supérieures à 10 km, ou des températures océaniques supérieures à 100 °C, par exemple ; absurdes : des teneurs minérales ou des pressions atmosphériques négatives, des probabilités supérieures à 1... En l'occurrence, le plus grand danger n'est peut-être pas où l'on croit : un résultat absurde prouve de façon irréfutable que le modèle est inadéquat ou mal utilisé ; un résultat invraisemblable laisse la place à un doute.
- Estimer et choisir, p. 5, 69 et 75.
- L'acceptation ou le refus d'une telle approximation relève naturellement de critères et de seuils de tolérance qui sont conventionnellement définis à la discrétion du géostatisticien. Comme toujours, l'arbitraire de ces conventions peut bénéficier de l'expérience et du sens critique du praticien.
- Ce qui n'est une approximation acceptable que si l'on accepte de considérer un pixel comme un point...
- L'approche théorique de l'échantillonnage s'est révélée très vite d'une grande importance dans les développements de la géostatistique minière (voir par exemple les travaux (en) de Pierre Gy). Cette théorie est sans doute plus souvent associée aux méthodes de traitement du signal. En tout état de cause, la pertinence d'une étude ultérieure, qu'elle soit géostatistique ou non, est naturellement essentiellement tributaire de la qualité de l'échantillonnage, c'est-à-dire plus intuitivement de la valeur et de la représentativité des données disponibles.
- Il s'agit d'une possibilité théorique. En pratique, il peut exister de nombreux obstacles interdisant de réaliser le contrôle, ne serait-ce par exemple que le coût de mesures supplémentaires ou le caractère destructif de ces mesures. Et lorsqu'il s'agit de prédictions (météorologiques ou économiques, par exemple), le contrôle exige seulement d'attendre la date visée par la prédiction : mais alors, la prédiction ne présente à ce moment plus d'intérêt... Il s'agit donc là, essentiellement, d'un contrôle a posteriori, très important au niveau méthodologique, mais sans intérêt sur le plan pratique.
- On suppose ici, pour simplifier, que ces observations ne sont pas entachées d'erreurs de mesure. De telles erreurs, en effet, pourraient dans certains cas expliquer les désaccords ; il arrive même parfois qu'elles soient diagnostiquées grâce à l'existence de ces désaccords.
- Au sens philosophique, et sans jugement de valeur, la méthode scientifique est donc l'exact opposé de la pensée dogmatique.
- En l'occurrence, ce polynôme est unique, caractérisé par les 201 points. On se trouve dans une situation typique où le calage d'un modèle ne présente aucun problème au niveau mathématique (existence et unicité de la solution), alors que sa signification physique est nulle.
- C'est du reste une notion simple à définir mathématiquement, mais peu intuitive à concevoir et à interpréter dans la pratique.
- Naturellement, il s'agit d'une démarche académique : dans la réalité, cette texture serait strictement impossible à déterminer sur la base de huit données seulement !
- En particulier, dès que l'on évoque la moyenne d'une grandeur numérique, il est indispensable de préciser de quel type de moyenne il s'agit (arithmétique simple, pondérée, géométrique, etc.) et de ne pas oublier sur quel support on effectue cette moyenne. Or, la taille et la forme de ce support sont des paramètres arbitraires, qui sont en particulier totalement absents de la définition mathématique d'une dérivée.
- Cette habitude remonte aux tout débuts de la géostatistique (voir bibliographie). Elle est un peu inattendue dans la mesure d'une part où elle risque de causer des télescopages avec la notation usuelle de la troisième coordonnée, et d'autre part parce qu'elle laisserait entendre qu'à ses débuts la géostatistique traitait de surfaces topographiques ( en fonction de et ), ce qui n'a pas été le cas avant la fin des années 1960 et les débuts de la géostatistique non stationnaire.
- Cette habitude est fréquente — et commode — lors de l'écriture des systèmes de krigeage.
- Ce type d'intégrale joue un rôle crucial dans le calcul des variances de dispersion et d'estimation.
- Estimer et choisir, p88.
- On suppose implicitement ici, pour alléger la présentation, que les données sont fiables, en particulier non entachées d'erreurs de mesure. Du reste, les outils de la géostatistique permettent de mettre en évidence les anomalies, et même souvent de les corriger partiellement.
- C'est-à-dire tout simplement la richesse du gisement. Mais les teneurs s'expriment, par exemple, en grammes par tonnes ou en ppm tandis que la radioactivité se mesure, par exemple, en coups par seconde.
- En exploration pétrolière, la modélisation des réservoirs est en permanence confrontée à ce problème. La profondeur des horizons géologiques est dans le même temps connue avec une excellente précision par des forages (très peu nombreux et très coûteux) et par des données géophysiques, très abondantes mais susceptibles d'être affectées d'erreurs considérables. Ces deux types de données s'expriment bien en les mêmes unités, mais ce n'est certes pas une raison pour les mélanger sans précaution.
- cf. Hans Wackernagel, Multivariate Geostatistics, Springer-Verlag, Berlin, 2003
- Du reste, dans les débuts de la géostatistique, de nombreux logiciels n'existaient qu'en version monovariable, en raison du surcoût en temps calcul, et de la difficulté de prévoir toute la combinatoire des cas de figures possibles qui se présentent en multivariable.
- C'est une démarche qui a été très courante en exploration de l'uranium dans les années 1960 : on convertissait les données de radioactivité en valeurs de teneurs, par le biais de courbes de régression préalablement ajustées sur la base d'échantillons de référence.
- Elles seront d'autant plus corrélées qu'elles concerneront des points voisins sur le même profil. En revanche, il est probable que les erreurs ne seront pas corrélées si elles correspondent à des profils différents, et ceci même en des points géographiquement proches : une situation parfaitement envisageable si le navire effectue un quadrillage, avec des profils qui se recoupent.
- Cette notion peut, dans une certaine mesure, être rapprochée parfois d'une partition de Voronoï.
- Une nouvelle fois, cet adverbe est utilisé sciemment, pour attirer l'attention sur le fait que, immanquablement, il existe en matière de mathématiques appliquées une composante d’appréciation de la part du praticien. Même si cette situation peut paraître déroutante au théoricien pur, elle est en général facile à gérer pour un utilisateur expérimenté ; elle est même souvent bénéfique, parce qu'elle permet de s'affranchir en partie de l'emprise trop stricte des valeurs numériques.
- Voir la discussion dans la boîte déroulante en fin d'alinéa.
- Il s'agit là d'une affirmation généralement vérifiée, non d'un théorème. Ce qui est vrai en revanche, c'est que les outils de la géostatistique permettent de donner un sens précis et une quantification à cette notion un peu floue de « dégradation de l'information » : c'est l'objet en particulier des variances d'estimation. Bien qu'une approche aussi systématique ne soit pas nécessairement utile, on pourrait par exemple définir le domaine de définition d'une VR comme la portion d'espace où sa variance d'estimation est inférieure à un seuil donné.
- Elle fait partie de ces contraintes qui s'imposent à nous, qu'on le veuille ou non, et sur lesquelles nous n'avons aucun moyen d'action.
- Cette affirmation doit être nuancée : l’expérience professionnelle du géostatisticien d'une part, le dialogue constant avec son client d'autre part, permettent en général d'anticiper avec une bonne approximation le domaine de validité d'une nouvelle étude. Et si cette expérience professionnelle ne se fonde effectivement pas sur le jeu particulier de données qui sont l'objet de l'étude, elle procède pourtant de l'accumulation d'informations sur des études antérieures jugées suffisamment analogues au cas actuel. Autrement dit, sur un problème nouveau, le praticien chevronné ne part jamais complètement démuni.
- Et ces tâtonnements constituent le fondement de l'expérience du praticien, et contribuent à accélérer le déroulement des études futures jugées analogues.
- Les adjectifs inhabituels « fine » et « lâche » sont délibérément préférés aux expressions « grande échelle » et « petite échelle ». Celles-ci en effet sont, selon les cas, employées dans des sens opposés. Ainsi, dans le langage courant, « grande échelle » est généralement compris à tort comme impliquant une grande extension, une vue d'ensemble, alors qu'au contraire, si on se réfère à la définition rigoureuse, cela signifie une représentation détaillée, voire un agrandissement. Ce manque de rigueur dans l'utilisation du vocabulaire peut-être source de malentendus sérieux, voire de contresens graves.
- Cette mesure est, par nature, absolue, ainsi qu'il apparaît dans l'expression théorique. Toutefois, comme il s'agit d'un indicateur quadratique, la valeur de la variance d'estimation peut être en pratique affectée de fortes instabilités numériques. En revanche, il est toujours possible, dans des conditions de robustesse raisonnable, d'utiliser cet indicateur de façon relative, pour comparer des modèles ou des hypothèses : c'est le point de vue du krigeage.
- Approximativement, le gisement peut être décrit comme la portion d'espace où la teneur est supérieure à un seuil fixé.
- Mathématiquement, le tonnage des réserves est l'intégrale sur le gisement des teneurs ponctuelles.
- Du moins si l'on souhaite résoudre la question avec un minimum de formalisme théorique. Avec les moyens de calculs actuels, il est plus expédient de recourir à une approche heuristique ; les outils de simulations numériques, en particulier, s'ils ne permettent pas toujours une bonne compréhension des problèmes, donnent souvent une possibilité de faire un tri efficace entre les hypothèses de travail, et donc finalement de sortir des cercles vicieux.
- Cette valeur approximative s'obtient par un calcul trivial : on dispose de 412 données pour un domaine de superficie totale 2,28 km2, ce qui signifie que chaque donnée a une « zone d'influence » de 5 530 m2, ce qui correspondrait à un carré de 74 m environ.
- En poussant jusqu'à la caricature, si toutes les données sont égales, il n'y aura aucune objection à affiner l'échelle initiale d'un facteur encore plus important si on adopte pour modèle une VR constante !
- La mise en œuvre des outils de critique méthodologique, dès que les informations le permettent, est une phase capitale d'un travail scientifique conduit dans le respect des règles de l'art. Dans le cadre d'une étude industrielle, c'est parfois une phase difficile à conduire et nécessitant de la pédagogie, si le client n'en voit pas l'intérêt. C'est pourtant la meilleure garantie contre le risque d'« erreur radicale ».
- Il arrive souvent, pour les variables positives, que l'on représente la carte d'implantation avec des points de taille proportionnelle à la valeur de la donnée. On a ainsi un premier aperçu des zones riches ou pauvres éventuelles, aperçu naturellement d'autant plus facile à identifier que la densité d'information est importante. Il s'agit donc d'une première information structurale, très partielle, mais objective — c'est-à-dire qui n'est tributaire d'aucune transformation intellectuelle.
- Un tel modèle pourrait ne pas être absurde dans d'autres circonstances : on pourrait imaginer que cela conviendrait pour cartographier des structures d'alliages métalliques à échelle microscopique.
- Ce fait est brouillé visuellement par la discrétisation de la palette de couleurs utilisée, qui ne compte que 100 teintes différentes.
- En général, lorsqu'un industriel prend contact avec un géostatisticien, il dispose déjà du jeu de données dont il veut soumettre l'étude et dont il a décidé à sa convenance. Or, les demandes de l'industriel et du géostatisticien peuvent être contradictoires en matière de prélèvement des données : ainsi, dans le cas de prospection minière, le géostatisticien préférera des données régulièrement disposées et « fermant » le gisement (c'est-à-dire comportant des sondages stériles à la périphérie qui permettent de délimiter le gisement), tandis que le mineur préférera des sondages riches qui lui permettront de faire des essais de traitement minéralurgique sur les échantillons prélevés.
- Il n'est pas nécessaire ici de préciser cette notion, ni le vocabulaire de l'énumération qui suit : ce qui est important, c'est que ces paramètres ont une définition précise dans le cadre de la géostatistique, et qu'ils sont accessibles à une évaluation numérique. Pour compléter, on peut mentionner que cette évaluation s'apparente beaucoup à une analyse harmonique.
- Ce qui signifie que deux mesures séparées de 10 m ou plus dans un plan horizontal sont statistiquement non corrélées. Pour fixer les idées, cet ordre de grandeur pourrait correspondre à certains gisements d'uranium sédimentaire ; et la maille de sondages de 250 m serait une maille de première reconnaissance.
- En poussant jusqu'au paradoxe, on pourrait faire observer que le plus sûr moyen de modéliser un gisement serait de l'échantillonner intégralement : in fine, il serait parfaitement connu, mais il n'y aurait plus de gisement à exploiter ! En revanche, la mesure d'un champ de pressions, ou de températures, ou d'altitudes, etc. n'est pas destructrice, et le choix d'une densité de mesures est principalement une question de coût.
- Cette remarque n'est pas inutile : il est souvent très difficile, lorsque le schéma d'échantillonnage est hétérogène (clusters, profils, etc.), d'éviter qu'il perturbe la structure du résultat final.
- Il ne s'agit pas ici d'une remarque gratuite : pour certains produits hautement disséminés comme l'or ou l'uranium par exemple, il peut y avoir une grande variabilité des teneurs à l'intérieur d'une même carotte, dont les dimensions peuvent être pour fixer les idées de l'ordre du décimètre pour le diamètre et de quelques décimètres pour la longueur. Ce n'est pas une opération anodine que de résumer toute cette variabilité (d'échelle centimétrique ou infra-centimétrique) par un seul nombre, et d'affecter ce nombre unique à un objet de plusieurs kilogrammes.
- Incidemment, on illustre ici une nouvelle fois la différence entre phénomène et modèles. Car si on peut sans difficulté définir un objet mathématique qui aurait le statut (en tant que modèle) de « pluviométrie instantanée », il est impossible de lui attribuer un sens physique, et a fortiori d'en imaginer un système de mesure.
- On voit ici se manifester une dialectique classique qui se schématise ainsi : si le support est trop petit, l'effet de régularisation sera insuffisant et les valeurs numériques instables donc inutilisables ; et s'il est trop grand, les valeurs numériques seront bien robustes, mais « passe-partout » et auront gommé toutes les structures intéressantes.
- De nouveau, il n'est pas facile de donner un sens physique à cette notion de « radiosource ponctuelle ».
- Vue son importance, le processus fondamental de régularisation a été formalisé dès les débuts de la géostatistique. Au niveau théorique, il fait par exemple l'objet des chapitres 1, 2 et 11 de Matheron, 1965 : Les variables régionalisées et leur estimation.
- Comme exemple très simple et très courant : la moyenne arithmétique simple d'une VR sur un certain support est très exactement le résultat du produit de convolution de la VR ponctuelle par la fonction indicatrice de ce support.
- D'un point de vue purement académique, même une mesure réellement ponctuelle peut se mettre sous forme d'un produit de convolution de la VR (ponctuelle) par un opérateur, en l'occurrence par la mesure de Dirac : cette mesure de Dirac n'est autre en effet que l'élément neutre du produit de convolution. On peut ainsi en géostatistique théorique proposer un formalisme général qui n'a pas besoin de distinguer le cas ponctuel du cas continu.
- Cet exemple est d'ailleurs de manipulation problématique, dans la mesure où les mécanismes de régularisation s'appliquent à des supports variables ; il faudrait de plus définir une métrique (c'est mathématiquement facile) pertinente (c'est plus difficile) sur ce nouvel espace... Mais il ne s'agit que d'une illustration.
- Cette formulation est réductrice, puisque la régularisation fait aussi intervenir la géométrie du support, et la structure de la fonction de régularisation.
- J. Serra, Échantillonnage et estimation locale des phénomènes de transition miniers.
- P. Chauvet, Aide-mémoire de géostatistique linéaire, p. 76-79.
- Si on disposait simultanément du variogramme ponctuel et du variogramme régularisé, on pourrait même envisager reconstituer les paramètres de la régularisation : c'est un exemple de problème inverse. Mais cette opération, qui mathématiquement revient à une déconvolution, est un problème mal posé, et on se trouverait dans un cas typique de franchissement du seuil de réalisme.
- Cette définition donne à une variable additive le statut d'une mesure (au sens mathématique).
- Ce qui signifie implicitement qu'il s'agit de teneurs volumétriques, s'exprimant en . Ce n'est pas la situation la plus courante : on utilise plus souvent des teneurs massiques, qui sont des nombres sans dimension (des pourcentages, des ppm — souvent exprimées en g/T — ou des ppb) ; mais cela ne change rien à la présentation.
- La difficulté n'est pas en général dans la réalisation de sa mesure, mais tout simplement dans la prise de conscience que cette mesure est utile. Mais il n'est pas nécessaire de beaucoup d'expérience pour comprendre par exemple que, pour étudier une épidémie de grippe, il n'est pas très intéressant de fournir le pourcentage de malades sur chaque département ou sur chaque région, si cette information n'est pas accompagnée de la population globale de ce département ou de cette région.
- Naturellement, si la réalisation d'une mesure détruit l'échantillon, on n'effectuera pas ces contrôles volontiers ! Mais il s'agit là d'un obstacle technique ou économique, non d'une objection conceptuelle.
- Aide-mémoire de géostatistique linéaire, chapitre 3.
- C'est ici le seul jugement de valeur exprimé dans tout cet article, et il se place du point de vue de l'utilisateur. Il ne s'agit pas de former une opinion subjective sur la nature, mais seulement d'exprimer une réalité indéniable : la non-additivité rend la manipulation des VR plus délicate, voire véritablement beaucoup plus difficile. L'adverbe « malheureusement » se réfère donc aux conditions de travail du géostatisticien, et seulement à cela ; mais à ce titre, il est difficilement contestable !
- Sur un continuum, mesurer une moyenne revient à mesurer une intégrale. S'il n'existe pas de possibilité de mesurer directement cette valeur (possibilité qui existe, par exemple, pour une teneur minéralogique), ce calcul reviendrait à effectuer une infinité non dénombrable de mesures ponctuelles, ce qui est irréalisable. En revanche, on peut en proposer une approximation avec n'importe quelle précision spécifiée a priori : c'est une opération très classique d'analyse numérique qui revient à pratiquer un calcul numérique d'intégrale.
- Au sens défini par Matheron : Estimer et choisir, p. 77.
- Voir Matheron : Genèse et signification énergétique de la loi de Darcy, Revue de l'IFP et Annales des Combustibles Liquides, vol. XXI, no. 11, novembre 1966 ; L'émergence de la loi de Darcy, Annales des mines, mai-juin 1984
- Le résumé des motivations qui ont conduit à une modélisation probabiliste se réfère en permanence à Matheron, Les variables régionalisées et leur estimation, 1965.
- Les premières études de géostatistique appliquée réalisées par Matheron datent de 1954/1955. On peut y accéder via « Centre de géosciences / Géostatistique Publications & documentation », sur Centre de Géostatistique de l'École des Mines de Paris Leurs libellés donnent une idée à la fois de l'équilibre entre recherches théoriques et applications, et du champ d'application des études appliquées.
- Les variables régionalisées et leur estimation, p. 74.
- Estimer et choisir, p. 124-125.
- Estimer et choisir, p. 125.
- Les détails techniques de cette démarche, et les développements qui en découlent, sont exposés dant tout cours de géostatistique abordant le formalisme transitif. Voir par exemple Matheron, Les variables régionalisées et leur estimation, p. 72 et suiv. ; Estimer et choisir; p. 125 et suiv. ; ou Chauvet, Aide-mémoire de géostatistique linéaire, chapitre 2.
- C'est-à-dire, pour une VR donnée, et pour un domaine à estimer fixé, la variance étant alors considérée comme fonction seulement de la taille de la maille d'échantillonnage.
- Estimer et choisir, p. 59. Matheron fait ici une citation d'un texte de Jean Ullmo, inséré dans Logique et connaissance scientifique (p. 649), Jean Piaget ed., Bibliothèque de la Pléiade, Paris, 1967.
- Pour plus de détail, voir les références déjà citées, et en particulier Estimer et choisir p. 137. Mais pour simplifier, on peut mentionner que la fonction structurale usuelle, la fonction de covariance, est étroitement associée aux variances et connaît donc les mêmes problèmes de fluctuations numériques que celles-ci.
- L'expression « fonction aléatoire » est la formulation traditionnellement retenue en géostatistique. Les autres expressions : « processus stochastique », « processus aléatoire », ou « champ stochastique », sont mathématiquement équivalentes. Toutefois, l'usage est de réserver le mot « processus » aux fonctions aléatoires définies sur un espace monodimensionnel (continu ou discret), cet espace représentant généralement un temps : les trajectoires d'un processus sont alors des séries chronologiques.
- Un exemple archétypique est fourni en mathématiques par les décimales de : dans l'état actuel de nos connaissances, leur répartition peut être modélisée avec une grande précision par une distribution probabiliste équiprobable, alors que par nature ces décimales sont générées de façon totalement déterministe (cf. par exemple la formule BBP pour les décimales en base 16) par la définition même de . Il ne s'agit pour le moment que d'une constatation empirique (et en ce sens, on n'est pas très éloigné de la géostatistique appliquée) ; mais il n'est pas exclu que cette convergence ait des raisons profondes, et il est usuellement conjecturé que est bel et bien un nombre normal, ce qui ne constituerait en rien un paradoxe.
- D'où le risque, déjà dénoncé, d’extrapolation méthodologique.
- Il va de soi que cette contrainte ne concerne pas nécessairement les travaux de recherche théorique.
- Dans la terminologie usuelle des processus stochastiques, cet ensemble est appelé « espace d'état ».
- C'est-à-dire que l'espace d'arrivée est : cela ne constitue en rien une restriction à cette présentation.
- Il y a, bien sûr, des risques d'incohérence. Ainsi, on désigne en général les ensembles (par exemple, l'espace de départ et parfois le support) avec des lettres majuscules, alors qu'il ne s'agit pas de quantités aléatoires ! Cependant, les risques de confusion sont assez minces, et sont levés par une lecture attentive du contexte.
- Sous réserve naturellement de l'existence des intégrales et/ou des dérivées !
- C'est-à-dire, en oubliant provisoirement l'aspect probabiliste.
- On suppose, pour simplifier les écritures, qu'il s'agit d'une FA réelle. Cela ne change strictement rien à la construction.
- Cet énoncé est très approximatif, et n'aurait vraiment de sens que si la tribu sous-jacente était de cardinal fini. Une formulation rigoureuse pourrait se trouver dans tout traité de probabilités, mais ne rajouterait rien ici à la compréhension du mécanisme.
- En général, la tribu d'événements sous-jacente est non dénombrable. Par ailleurs, il n'est pas rare que l'on fasse dépendre la loi de probabilités de paramètres variant eux-mêmes continûment, ce qui fait encore « exploser » la complexité de l'ensemble des VR compatibles avec le modèle.
- Les phénomènes naturels sont la plupart du temps irréductiblement uniques. Dans certains cas mettant en jeu le temps, on pourrait peut-être considérer que l'on a plusieurs réalisations d'un même processus : par exemple en météorologie, des courbes de températures journalières prises plusieurs jours de suite pourraient peut-être être considérées comme autant de réalisations d'une même FA ; mais de toute façon, cette multiplicité est peu de chose comparée à la richesse de l'ensemble des VR compatibles avec cette même FA.
- Fondamentale, parce que tout l'édifice de la géostatistique intrinsèque repose sur le fait d'avoir utilisé un modèle aléatoire : ce recours au formalisme probabiliste constitue un véritable pari méthodologique. Essentiel, parce que ce sont la nature même et la signification des concepts et objets mathématique sollicités qui sont interrogées par le choix fondamental de la géostatistique intrinsèque.
- Et éventuellement source de controverse. L'usage des probabilités appliquées soulève, à juste titre, des questions qui ne relèvent pas toutes de la seule technique mathématique ; et de fait, le concept de « hasard » est d'usage délicat dans une argumentation scientifique. Il n'est pas non plus déplorable que les argumentations fassent intervenir des options philosophiques (épistémologiques). En revanche, il devient très regrettable que les discussions trahissent des querelles de chapelles, voire des affrontements culturels : à cet égard, sur le Wikipédia anglophone, la page de discussion sur l'article « geostatistics » constitue à la fois une sévère mise en garde et un exemple fâcheux.
- Voir l'article géostatistique intrinsèque ; voir aussi l’Aide-mémoire de géostatistique linéaire, p. 20.
- Il s'agit clairement d'un anglicisme ; une version française pourrait être « hasardisation ». Concernant l'action elle-même, on pourrait sans doute traduire « randomiser » par « aléatoiriser ». Mais il serait surtout important de donner une définition précise à une opération dont la signification n'est pas toujours la même selon les domaines d'application.
- Voir tout cours de probabilités : c'est un mécanisme qui ouvre la voie à la très importante notion d'espérance conditionnelle.
- Il aurait été sans doute plus conforme à la convention d'écriture d'adopter pour désigner un événement fixé, et la majuscule pour un événement aléatoire ; mais cette dernière notation désigne traditionnellement l'univers de l'espace probabilisé. Aussi convient-on ici de désigner l'événement fixé par , et représente un élément libre de la tribu , une variable muette.
- La démarche consistant à transformer une FA pour arriver à ne manipuler que des quantités de variance finie a été rodée dès les débuts de la géostatistique intrinsèque, en introduisant l'hypothèse intrinsèque pour se libérer du cadre trop contraignant des FA stationnaires. Par la suite, l'introduction des FAI-k a généralisé la démarche (cf. Matheron, 1973).
Compléments et ouvertures
- L'ambiguïté de langage déjà rencontrée pour l'expression « variable régionalisée » se retrouve à propos du mot « régionalisation » ; mais en général, le contexte met à l'abri de tout danger de confusion et d'erreur d'interprétation. Toutefois, un risque surgit dès que l'on cherche à approfondir les propriétés d'une VR (respectivement : d'une régionalisation). En effet, comme objet mathématique modélisant le réel, une VR possède de nombreuses propriétés théoriques qui n'ont pas toutes nécessairement une interprétation physique. En cherchant à « faire dire » au modèle mathématique VR plus qu'il ne peut dire sur le phénomène physique VR, en oubliant « la différence capitale qui existe entre un théorème et un énoncé empirique » (Estimer et choisir, premier chapitre), on franchit ce que Matheron a appelé le seuil d'objectivité : « Un modèle donné, aussi bien testé et corroboré qu'il ait pu être, contient toujours et nécessairement des théorèmes qui ne correspondent plus à des énoncés empiriques contrôlés, ni même contrôlables au-delà d'une certaine limite. » (Estimer et choisir, p. 23). Cela dit, ce risque ne peut être esquivé car « la réduction analytique du réel à une collection de valeurs numériques, seule, fournit les bases d'une méthodologie opératoire » (Estimer et choisir, p. 88) même si « celle-ci n'épuise jamais la richesse du réel. » (Estimer et choisir, p. 87).
- Supposons par exemple que sur un certain territoire et une certaine période, on étudie simultanément les deux variables météorologiques : température et pression atmosphérique. La première acception du mot « régionalisation » englobera l'ensemble des propriétés structurales de ces deux variables : éventuelles hétérogénéités et anisotropies spatiales, plus ou moins grande régularité à la fois dans l'espace et le temps, structure de la corrélation entre les deux variables, etc. Il s'agit donc d'une notion abstraite, qui se réfère à des propriétés mathématiques. On parlera ainsi de la régionalisation de la température, de la régionalisation de la pression. Mais par commodité, on pourra aussi utiliser ce même mot pour désigner la réalité concrète constituée de cette paire de variables physiques considérée sur le territoire et pour la période donnés. Dans cette seconde acception et pour l'exemple considéré, le mot « régionalisation » est un raccourci pour désigner les conditions météorologiques (température et pression) que subissent concrètement les habitants du territoire concerné. La variable régionalisée, dans son sens premier, apparaît alors très exactement comme un objet intellectuel qui modélise et synthétise ces deux aspects d'une régionalisation : les attributs de la VR définissent la régionalisation en tant qu’objet physique, tandis que le comportement analytique de la VR en décrit les propriétés structurales abstraites. Cette dualité est une constante du travail en géostatistique appliquée. Si cette expression un peu abstraite de « variable régionalisée » risque de faire oublier la nature de la variable d'intérêt et les spécificités qui s'y rattachent, elle a en revanche le mérite de souligner que l'étude des structures est au cœur du travail géostatistique. Dans leurs secondes acceptions respectives, « variable régionalisée » et « régionalisation » sont ainsi exactement synonymes.
- Voir à ce propos, trente ans après les débuts de la géostatistique, les commentaires développés dans : Georges Matheron, Estimating and choosing, Springer, Berlin, 1989. Achevée en 1978, l'édition originale de cet ouvrage de synthèse n'a finalement pas été publiée en français ; toutefois, il est possible pour les lecteurs francophones d'en obtenir une version auprès de la Bibliothèque de Mines ParisTech sous forme d'une note interne : Georges Matheron, Estimer et choisir, Les Cahiers du Centre de Morphologie Mathématique no 7, École des mines de Paris, 1978. Ce texte constitue une référence constante pour le présent article.
- Ce n'est pas fortuitement que ces deux domaines, pourtant étrangers l'un à l'autre, sont cités ici conjointement, de surcroît en tête de l'énumération. La géostatistique, sinon le vocabulaire « variable régionalisée », a en effet pris son essor dans la seconde moitié des années 1950, indépendamment et simultanément dans trois domaines et trois pays différents. En France, l'impulsion donnée par Georges Matheron, pour répondre à des problèmes soumis par les exploitants des mines d'or Sud-Africaines, s'est focalisée dans un premier temps sur l'estimation des gisements miniers : cette orientation est illustrée par les publications de l'époque (cf. bibliographie ci-après) et, plus tard, par l'article consacré à la géostatistique dans l'Encyclopædia Universalis. Dans le même temps, sous le nom d'analyse objective, Lev S. Gandin développait en URSS une méthode très similaire, mais appliquée à la météorologie (voir par exemple un hommage (en) « Remarks preceding the award to Lev S. Gandin, by George V. Gruza (Institute for Global Climate and Ecology, Moscow, Russia) », sur Canadian Centre for Climate Modelling and Analysis meetings datant de 1993). Enfin, simultanément, Bertil Matérn travaillait dans le même esprit en Suède, pour des applications dans le domaine des forêts (cf. par exemple sa synthèse : Spatial variations, Springer, Berlin, 1986). Mines, météorologie et forêts sont ainsi les trois domaines qui, historiquement, ont vu l'émergence de la géostatistique et donc se sont intéressés les premiers — avec éventuellement un vocabulaire différent — au concept de variable régionalisée.
- Comme la plupart des champs de l'activité humaine, la géostatistique s'est forgée un vocabulaire qui lui est propre. On peut être dérouté par cet état de fait, voire le juger regrettable parce que superflu, dans la mesure où bien souvent il ne s'agit que d'attribuer un nom nouveau à un concept par ailleurs classique. Mais un vocabulaire spécifique constitue une signature, qui rappelle l'environnement d'une étude ou d'une publication mieux que ne le ferait un terme général : à titre d'exemple, alors que l'expression « à droite » demeure d'une extrême généralité, l'expression « à tribord » traduit que l'on s'exprime en termes de marine et l'expression « côté jardin » traduit que l'on s'exprime en termes de théâtre ; ainsi de la même façon, dans le traitement de données numériques, l'expression « effet de pépite pur » signifie que l'on travaille dans une optique de géostatistique alors que l'expression « bruit blanc » signifie que l'on fait du traitement du signal, alors même que les deux concepts sont rigoureusement identiques. Il s'agit, finalement, d'une situation courante. Il serait donc erroné et stérile d'interpréter cette banale mise en place d'un vocabulaire spécifique comme une tentative d'appropriation de concepts par ailleurs classiques, comme une revendication d'originalité théorique, voire comme une tentative de camoufler un plagiat. En revanche, l'introduction d'un mot nouveau est l'occasion — et dans le même temps fait obligation — de définir rigoureusement ce mot pour éviter tout contresens. Cette remarque vaut du reste aussi pour les mots du langage courant lorsqu'ils sont employés dans un cadre scientifique : à cet égard, on pourra lire avec profit les commentaires de Georges Matheron sur les deux mots constituant le titre de son ouvrage Estimer et choisir.
- Une étude géostatistique appliquée est souvent confrontée à des enjeux matériels considérables. Évaluation de réserves minières ou pétrolières, planification d'un programme de dépollution, prédiction d'une tempête ou d'une crue, sont des problèmes dont l'approche ne saurait se contenter de seulement respecter la rigueur des constructions mathématiques : il ne suffit nullement que les équations soient exactes pour qu'elles permettent de répondre de façon satisfaisante aux interrogations soulevées par la pratique du terrain. En revanche, la rigueur mathématique n'en demeure pas moins nécessaire, pour dresser au moins un garde-fou contre des résultats absurdes : un empirisme incontrôlé fait courir autant de risques qu'une soumission irréfléchie à l'exactitude mathématique. L'histoire industrielle ne manque pas d'exemples de gros échecs techniques ou économiques dus soit à un oubli de rigueur dans la manipulation des outils mathématiques (probabilistes ou statistiques en particulier), soit au contraire à une trop grande confiance dans des développements purement théoriques. Cependant, ces exemples ont nécessairement une connotation polémique, en ce qu'ils ont tendance à jeter la suspicion sur des méthodes, des entreprises, ou des domaines industriels : ils ne pourraient donc que très difficilement trouver leur place dans une encyclopédie. Ce qui demeure comme leçon générale, c'est que la mise en application sur le terrain d'une méthode abstraite implique toujours, de la part de l'utilisateur, une prise de responsabilité.
- Une autre dualité apparaît lorsqu'on cherche à approfondir « de l'extérieur » la connaissance de la géostatistique. En effet, en raison du caractère fondamentalement appliqué de la discipline, beaucoup de progrès y compris théoriques y ont lieu à l'occasion d'études industrielles dans des domaines stratégiques (matières premières, environnement), de sorte qu'ils revêtent fréquemment un caractère de confidentialité, du moins pendant quelques années. Il devient ainsi difficile de proposer des références bibliographiques qui suivent au plus près l'actualité du domaine, et les ouvrages de synthèse sont souvent en retrait par rapport aux percées méthodologiques qui sont présentées dans les rapports d'études ou même dans les algorithmes des logiciels spécialisés. Un bon compromis consiste sans doute à se référer aux actes des Congrès Internationaux de Géostatistique, qui tous les quatre ans permettent une évaluation correcte des avancées de l'état de l'art.
- L'adverbe localement est employé ici à dessein dans son sens intuitif. Mais si au niveau mathématique, le concept topologique de propriété locale est défini sans ambiguïté, il n'en va pas de même au niveau application. Il peut se révéler délicat au cours d'une étude géostatistique de définir avec précision ce que l'on entend par local, d'autant que la plupart du temps, on souhaitera donner à ce mot une signification métrique plutôt que topologique. Dans ces conditions, on pourra convenir qu'une propriété observée « localement » sera une propriété valable « aux courtes distances ». Mais cette formulation ne fait en réalité que déplacer le problème : encore faut-il définir ce que l'on entend par « courte », étant entendu que cet adjectif n'a pas de sens dans l'absolu, mais seulement par référence à l'échelle de travail. Or cette échelle de travail dépend au moins de trois facteurs, sur lesquels le géostatisticien n'a que peu de moyens d'action ; et par ailleurs, ces facteurs sont en grande partie étrangers l'un à l'autre, et peuvent par conséquent poser des contraintes difficilement compatibles. Ce sont respectivement :
- les dimensions caractéristiques (physiques) propres au phénomène étudié : extension d'un gisement et de ses structurations, dimension d'une dépression atmosphérique, durée d'une crue, durée et extension géographique d'une épidémie, etc. Ni le géostatisticien, ni son client n'ont le moindre moyen d'action pour agir sur ce paramètre ;
- les dimensions du domaine, spatial ou temporel, sur lequel le problème est soumis. Par exemple, une épidémie sera-t-elle examinée à l'échelle d'un département ou d'une région, à l'échelle de la journée ou de la semaine, etc. Le client peut avoir une assez grande latitude quant à la détermination de ce facteur, le géostatisticien beaucoup moins ;
- enfin, la densité spatiale ou temporelle de l'information disponible pour mener à bien le travail : il s'agit là d'un facteur qui s'apparente à un problème d'échantillonnage, et de nouveau le géostatisticien a souvent peu de marge de manœuvre par rapport à ce que lui fixe le client.
- Le fait, inévitable, de travailler sur un domaine restreint, c'est-à -dire de définir un espace en dehors duquel le travail effectué n'est plus censé être légitime, peut soulever des difficultés méthodologiques considérables. En effet, les outils mathématiques mis en œuvre ont la plupart du temps vocation à être valides dans l'espace tout entier. Par exemple, si la VR étudiée est la teneur en or d'un gisement sud-africain, elle sera connue (en tant qu'objet physique) par un certain nombre de mesures effectuées à l'intérieur d'un contour situé sur le territoire de l'Afrique du Sud, et pas au-delà ; mais en tant que modèle, absolument rien n'interdit de manipuler (mathématiquement) des valeurs (théoriques) de cette VR affectées à des points situés sur un autre continent, sur la lune ou dans une galaxie lointaine ! Rien dans un modèle usuel ne met en garde intrinsèquement contre de tels débordements. Et si l'illustration proposée peut sembler caricaturale, il n'en demeure pas moins que le franchissement du domaine de validité du modèle constitue une menace méthodologique constante : c'est le délicat problème de l'extrapolation. Du reste, l'extrapolation est parfois inévitable, voire constitue la nature même du problème posé, surtout dans le domaine temporel : pensons par exemple aux prévisions météorologiques, épidémiologiques, économiques, etc. Par ailleurs, la prise en compte des frontières du domaine de validité fait surgir des problèmes d'effets de bord. À cette difficulté, parfois considérable, parfois même prédominante quantitativement, les géostatisticiens ont été confrontés dès la mise en place des bases de la géostatistique. L'usage a été de désigner cette problématique sous le nom générique de phénomènes de transition, et l'importance de cette question a justifié une des premières thèses de géostatistique (cf. bibliographie : J. Serra, Échantillonnage et estimation locale des phénomènes de transition miniers, 1967). Par ailleurs, l'étude théorique des phénomènes de transition occupe la moitié du premier ouvrage de synthèse (cf. bibliographie : G. Matheron, Les Variables régionalisées et leur estimation, 1965), et a été désignée sous le nom de géostatistique transitive.
- Il apparaît ici une nouvelle problématique, fréquente en géostatistique : la dialectique entre ce qui est possible (en l'occurrence : théoriquement) et ce qui est souhaitable. Naturellement, choisir la distance euclidienne seulement parce qu'elle permet des développements théoriques faciles ne serait pas une attitude satisfaisante : encore faut-il que ce choix soit pertinent au regard de la réalité du problème à résoudre. Inversement, un choix beaucoup plus compliqué destiné à mieux rendre compte du réel pourrait conduire à des modèles théoriques ingérables. Il faut donc de nouveau un équilibre acceptable entre deux situations extrêmes qui constituent des impasses : utiliser des modèles choisis pour leur commodité et la maîtrise mathématique que l'on a d'eux, mais qui ne rendent pas compte dans de bonnes conditions du phénomène étudié ; et, à l'opposé, élaborer des modèles très représentatifs de la réalité, mais dont les propriétés théoriques ne sont pas maîtrisées. Cette difficulté a pu être source de polémiques à propos de la géostatistique. Les théoriciens, les statisticiens surtout, ont pu reprocher aux géostatisticiens de réaliser des manipulations douteuses avec les outils employés dans un souci d'efficacité, chose du reste explicitement admise voire revendiquée (cf. Matheron dans Estimer et Choisir : « un ensemble de modèles, méthodes et "tours de main", souvent peu orthodoxes » !). À l'opposé, les praticiens et naturalistes ont souvent considéré la géostatistique comme l'intrusion d'un formalisme abstrait inutile dans des domaines qui pouvaient parfaitement s'en passer. Ces points de vue extrêmes perdent probablement de vue le plus important : un travail de modélisation n'a la prétention ni de relever des mathématiques (ou statistiques) « pures », ni de se substituer à l'approche qualitative du réel, mais d'essayer de concilier les deux points de vue, ce qui ne peut se faire qu'avec un certain niveau de tolérance et de précision. L'essentiel pour le scientifique est alors d'avoir une idée claire des approximations qu'il a dû, nécessairement, consentir, sous sa propre responsabilité. À la limite, dans certains cas inextricables, la seule solution intellectuellement et moralement admissible est de refuser l'étude ; mais il s'agit là d'un choix qui demande professionnellement beaucoup de droiture et de courage, et qui est rarement perçu positivement par le client.
- Voir par exemple en 1965 Georges Matheron, Les variables régionalisées et leur estimation, chap. VIII. En fait, le recours à une métrique s'impose naturellement dès que l'on se réfère au modèle probabiliste sous-jacent à la variable régionalisée, autrement dit dès que l'on réalise l'immersion probabiliste qui fonde la géostatistique intrinsèque. D'une part en effet, l'existence de cette métrique dans l'espace d'arrivée requiert des hypothèses moins fortes que ne l'exige l'existence d'une fonction de covariance (voir discussion dans : Pierre Chauvet, Aide-mémoire de géostatistique linéaire, chap. 4), de sorte que c'est un outil qui permet de modéliser effectivement une gamme plus étendue de phénomènes que ce qui est accessible par la seule fonction de covariance. D'autre part, la métrique ouvre la voie à une modélisation de l'espace d'arrivée par un espace de Hilbert, ce qui permet de bénéficier d'une théorie générale qui propose nombre de théorèmes importants garantissant l'exactitude des développements ultérieurs : par exemple, le théorème de projection qui assure l'existence et l'unicité du krigeage repose essentiellement sur la structure hilbertienne de l'espace d'arrivée.
- Cette remarque, qui renvoie évidemment au titre de l'ouvrage Estimer et choisir, soulève un point fondamental. Il est en effet extrêmement courant, dans toute science expérimentale, qu'une observation n'impose pas une interprétation unique ou une modélisation unique. Il peut arriver que la marge de manœuvre de l'expérimentateur soit suffisamment étroite pour que la communauté des spécialistes arrive à une conclusion univoque par consensus. Mais il existe aussi de nombreuses situations (par exemple, en paléontologie, en cosmologie, etc.) dans lesquelles il n'est pas possible de converger vers une réponse unique. La réponse scientifiquement satisfaisante serait de rechercher un complément d'information, de réaliser des expériences supplémentaires, etc. Mais cela n'est pas toujours possible, et il arrive souvent, en particulier pour les études industrielles, que le scientifique soit obligé de poursuivre, donc de fournir une réponse alors même qu'il ne dispose pas de suffisamment d'éléments pour le faire. Dans ces conditions, il faut choisir, et choisir arbitrairement. Ce mot ne comporte aucun jugement de valeur, et doit être compris dans son sens premier : il vient souvent un moment où l'expert doit prendre ses responsabilités, en connaissance de cause, et bien sûr en en informant son client. Du reste, dans certaines circonstances inextricables, la responsabilité peut consister à refuser l'étude. Quoi qu'il en soit, c'est en ceci que le scientifique se distingue du mathématicien, qui est soumis à l'enchainement des implications logiques ; et c'est en ceci que la géostatistique appliquée s'apparente bien davantage à une science physique qu'à une branche des mathématiques appliquées. Toutefois, l'écart entre la démarche expérimentale (éventuellement trop coûteuse, ou destructive) et la construction purement logique (éventuellement déconnectée de la réalité) s'est réduit au cours des dernières décennies grâce à l'énorme accroissement des puissances de calcul. Ainsi, désormais, face à des hypothèses contradictoires entre lesquelles il ne peut trancher, le scientifique peut recourir à des simulations numériques, et étudier fictivement les conséquences de chacune des hypothèses envisageables. Cette démarche n'est pas exempte de risques et ne permet pas toujours de conclure, mais en général elle peut aider à progresser au moins dans la compréhension des problèmes. Au cours d'une étude géostatistique, l'étape de la variographie se prête particulièrement à ce type de démarche
- Pour être complet, ce peut être un exercice scolaire instructif de pointer les différences théoriques entre les deux formalismes : scalaire dans le plan complexe et bivariable sur le corps des réels. En fait, d'un point de vue esthétique, il est préférable de travailler dans le domaine complexe, qui propose des expressions plus synthétiques : en particulier, l'expression du produit scalaire (la covariance, lorsqu'on plonge la VR dans un cadre probabiliste), le théorème de projection, éventuellement les transformées de Fourier, trouvent toute leur généralité lorsqu'exprimés dans le cadre complexe. Ce problème n'est que l'expression de l'isomorphisme usuel entre et .
- L'origine de cette difficulté tient à ce que l'on souhaite résumer par un scalaire (ici, la valeur de la fonction structurale ) toute la richesse d'un champ à plusieurs dimensions. Et cette nécessité provient des perspectives d’ordonner des valeurs de la fonction structurale. Par exemple, on aimerait pouvoir dire que signifie que les deux valeurs de la VR aux points et sont plus contrastées que les valeurs aux points et ; mais pour cela, il est indispensable de pouvoir comparer, puis classer, les valeurs de la fonction structurale, ce qui concrètement impose que ces valeurs soient des scalaires. On pourra par analogie comparer cette situation à une compétition sportive comme un décathlon. Le résultat final doit être un classement unique des compétiteurs, mais comment réaliser la comparaison ? Si toutes les épreuves étaient des courses dont tous les résultats s'expriment en la même unité, il serait peut-être possible de trouver un compromis. Mais si l'on doit synthétiser des performances qui ont des significations radicalement différentes (courses, lancers, sauts), on est contraint de recourir à une forme de conversion en une unité commune, et ceci est nécessairement conventionnel ; du reste, même si les variables s'exprimaient en les mêmes unités, la comparaison pourrait être difficile : comment comparer des longueurs de saut à des longueurs de lancer ? La part d'arbitraire est fondamentalement inévitable. De manière générale, il se pose la question de donner un sens à des combinaisons linéaires de données hétérogènes (un problème classique qui se rencontre aussi en analyse des données). Sur le plan théorique, il n'y a pas de difficulté : il suffira de multiplier chaque donnée par un coefficient de pondération possédant la dimension requise pour que tous les termes de la combinaison linéaire soient homogènes. Mais en pratique, il se pose le problème capital de la valeur numérique à attribuer à ces pondérateurs, et non seulement il n'existe en général pas de réponse incontestable à ce problème, mais bien souvent les développements ultérieurs sont totalement tributaires de ces valeurs numériques incertaines. A contrario, c'est une innovation théorique considérable qu'a apportée la relativité restreinte en introduisant une métrique canonique dans l'espace-temps à quatre dimensions. Mais il s'agit là d'une situation exceptionnelle : s'il était clair qu'il fallait multiplier le temps par une vitesse pour être homogène à une longueur, en revanche l'apport théorique essentiel est que la valeur numérique de cette vitesse n'a rien d'arbitraire et est égale à la vitesse de la lumière.
- Bien que généralement cela ne fasse pas courir de risques majeurs au cours d'une étude appliquée, il est en toute rigueur dépourvu de sens de s'interroger quant à savoir si une VR-phénomène est ou n'est pas continue (ou dérivable, ou analytique, etc.) puisque la continuité, propriété mathématique et purement abstraite, est étrangère au phénomène physique concret. Une formulation rigoureuse serait par exemple : « est-il possible de représenter raisonnablement la VR-phénomène par une VR-continue ? » (sous-entendu : compte tenu des informations disponibles et du but poursuivi). Et toute la difficulté de la modélisation repose sur l'adverbe « raisonnablement », qui évoque ce qu'il y a d'inéluctablement subjectif dans l'évaluation de la qualité de cette opération : le choix des outils, la marge d'erreur acceptable (la tolérance), éventuellement les limitations de calcul... L'acceptation ou le rejet d'un modèle ne dépendent pas seulement de la qualité de sa représentation du réel, mais aussi de nombreux facteurs extérieurs : les données disponibles, le coût informatique, et aussi la nature du problème à résoudre : toutes choses qui relèvent essentiellement de l'intervention humaine et qui sont étrangères au phénomène physique. Un point mérite d'être développé. Il peut sembler étrange, voire choquant, que — la réalité étant ce qu'elle est — l'adoption d'un modèle dépende du problème à résoudre, et on pourrait voir dans cette affirmation les prémices de manipulations malhonnêtes. Le risque existe, bien sûr. Pourtant, cette affirmation est presque une évidence : imaginons par exemple que le problème soit de tracer la carte d'un fond sous-marin, sur la base d'un jeu de données fixé. Il est dès lors évident qu'il ne faudra pas choisir le même modèle structural selon que la carte à établir (toutes choses égales par ailleurs) sera destinée à illustrer un manuel de géographie, à aider à la pause d'un câble de télécommunications, ou à déterminer la navigation d'un sous-marin : dans le premier cas, le modèle devra conduire à mettre en évidence les grandes structures sous-marines ; dans le second cas, il faudra une idée précise de la structure de détail et des irrégularités du fond (un câble doit reposer sur le fond) ; dans le troisième cas, il faudra être plus exigeant sur les risques de présence de hauts fonds que de gouffres... Si les déroulements des calculs sont régis par des contraintes mathématiques et par l'information disponible, les critères de qualité sont en revanche à l'entière discrétion des utilisateurs. On peut se féliciter de cette situation ou la déplorer, mais on ne peut l'ignorer. Ainsi, sous réserve naturellement qu'il soit mathématiquement correct, un modèle n'est ni juste ni faux : il est judicieux ou non, efficace ou non ; et cette appréciation varie non seulement avec l'utilisateur, mais même avec le temps pour un même utilisateur. L'utilisateur des mathématiques appliquées ne peut se dérober à sa part de responsabilité.
- Une nouvelle fois, il n'est pas essentiel ici de savoir si l'on déplore cet état de fait ou si l'on s'en félicite : le principal est d'en prendre acte. Contrairement à ce qui se passe dans le domaine des mathématiques, il ne saurait y avoir de réponse universelle concernant les propriétés du monde physique, parce que la représentation que nous nous en faisons est essentiellement tributaire de nos moyens d'investigation, de nos autres connaissances, voire de nos présupposés culturels. L'étude de l'histoire des sciences (par exemple, la physique des particules ou la cosmologie contemporaines) illustre de façon éclatante cette constatation. Bien plus : loin d'être une preuve d'échec ou d'insuffisance, l'existence de controverses est un moteur capital du progrès scientifique. Cela ne signifie nullement qu'il est impossible ou interdit d'énoncer des propositions catégoriques en matière de sciences appliquées. Mais cela fait obligation à celui qui les énonce de préciser dans quel paradigme il se situe. À cette condition, et cette condition seulement, il est légitime sans générer de polémique d'exprimer des certitudes, au même titre que le mathématicien exprime des théorèmes. Par ailleurs, surtout dans un milieu scientifique homogène culturellement, il n'est souvent pas nécessaire d'expliciter le paradigme de référence, qui fait consensus ; mais on est alors toujours à la merci d'un glissement vers des positions subjectives et des conflits. Notons que cette situation existe même dans le domaine des mathématiques, où le consensus semble pourtant solidement établi : il n'est que de penser à la controverse, au début du XXe siècle, soulevée par les intuitionnistes à propos des travaux de Cantor.
- Cette affirmation ne doit pas paraître excessive ou paradoxale, et moins encore provocante. Dépourvue de tout jugement de valeur, elle exprime seulement qu'il n'existe pas dans la nature d’objet physique « gradient » accessible expérimentalement, pas plus qu'il n'existe de résidus et de fonctions de régression, de lois de probabilité, a fortiori d'espérances mathématiques. Toutes ces notions abstraites, souvent profondes, sont des conceptualisations ; elles procèdent donc d'une construction intellectuelle et non de la réalité physique. Que, dans le domaine des mathématiques appliquées, ces concepts aient vocation à rendre compte du réel, cela est une évidence ; certains ont même été élaborés dans ce seul but. Mais « rendre compte » ne saurait être synonyme de « s'identifier », ou encore : les constructions mathématiques constituent un langage à qui l'on peut demander de chercher à décrire le réel, mais jamais de se substituer à ce réel. Sans doute la fréquente confusion entre modèle et objet est-elle encouragée par ce que l'on a pu appeler la déraisonnable efficacité des mathématiques dans les sciences naturelles, selon la célèbre expression de Eugène Wigner. L'examen et la critique de cette « déraisonnable » efficacité trouvent toute leur place en épistémologie et en théorie de la connaissance, et constituent en eux-mêmes un domaine de réflexion d'une très grande richesse.
- En toute rigueur, cette limitation du modèle primaire s'exerce même dans le cadre de la géostatistique transitive, pourtant censée se fonder exclusivement sur la variable régionalisée. Ce formalisme purement déterministe se révèle en effet inefficace si on ne « probabilise » pas au moins le schéma d'échantillonnage, et on peut donc dire que la géostatistique transitive constitue une « situation préaléatoire » (Aide-mémoire de géostatistique linéaire, p. 41). Ce qui explique la prééminence de la géostatistique intrinsèque : sauf dans de rares cas, de nature géométrique généralement, il est plus commode d'immerger le problème dans un formalisme probabiliste, plutôt que chercher à toute force à sauver le caractère déterministe du modèle. Ce choix est bien sûr dicté par le seul souci d'efficacité : il ne signifie nullement que l'on adhère à une conception probabiliste de la réalité : « Il n'y a pas, il ne saurait y avoir, de probabilité en soi. Il n'y a que des modèles probabilistes. » (Estimer et choisir, p. 2.).
- Cette remarque est l'occasion d'insister sur un point fondamental : dire qu'une grandeur n'est pas connue, cela signifie très exactement qu'elle n'a pas fait l'objet d'une mesure effective, dont le résultat s'imposerait à l'utilisateur indépendamment de tout développement théorique. En l'occurrence, les limites d'un gisement ne sont au sens strict jamais connues, du moins tant que le gisement n'a pas été intégralement exploité ! En revanche, on peut naturellement proposer des algorithmes permettant d’estimer ces limites, mais cette fois les valeurs résultantes sont tributaires des choix du praticien, et donc peuvent être à tout moment remises en cause. C'est une erreur épistémologique grave que de confondre une grandeur objective (physique, mesurable sur le terrain) et un estimateur de cette grandeur (qui procède d'une construction intellectuelle, et n'a pas d'existence concrète). Ce qui est peut-être inattendu, c'est que cette faute qui semble se situer seulement au niveau conceptuel peut parfois générer des erreurs considérables, ou en tout cas des incertitudes énormes, de surcroît très difficiles à modéliser. Ainsi, il est très difficile de deviner quel sera l'impact, sur l'estimation globale d'un gisement, des différents types d'estimation de sa frontière ; mais l'expérience a montré, dès les débuts de la géostatistique (cf. la géostatistique transitive), que les erreurs d'origine géométrique pouvaient être prépondérantes par rapport à toutes les autres sources d'incertitude. Les moyens de calculs actuels, et particulièrement les méthodes de simulations numériques, permettent de visualiser empiriquement ces effets qui demeurent toujours difficiles à théoriser, et souvent difficiles à corriger.
- L'exemple de la mesure du relief de la surface océanique peut être l'occasion d'une réflexion approfondie, typique du problème posé par l'étude des VR dès que l'on sort des simples problèmes d'interpolation. Il y a consensus parmi les spécialistes du domaine pour dire que nous connaissons désormais l'altitude des océans à quelques centimètres près (cf. par exemple 1, 2 ou 3). Pourtant, cette altitude n'est pas une observation directe qui serait accessible à Monsieur Tout-le-monde pour peu qu'il dispose des instruments adéquats ; en effet, le nombre sur lequel travaillent les spécialistes et qui s'exprime en centimètres ne provient pas d'une mesure brute, mais d'un traitement numérique (une modélisation), qui de surcroît dépend de paramètres arbitraires. Car ce qu'il est convenu d'appeler « altitude de l'océan » a été construit en faisant des moyennes spatiales et temporelles de mesures satellitales approximativement ponctuelles et instantanées : cette opération de régularisation correspond exactement à une démarche classique d'amélioration du rapport signal sur bruit et elle est absolument indispensable, puisque le signal que l'on veut mettre en évidence (la hauteur de l'océan, ou plutôt sa variation) est au moins mille fois plus faible que le bruit (les vagues, la houle, les marées, les courants marins...). Et bien sûr, les paramètres spatio-temporels de cette régularisation sont, en grande partie, arbitraires, et sont à la base des protocoles de traitement qu'élaborent les spécialistes. En conclusion, l'altitude océanique est, en dépit de son nom qui évoque un phénomène tangible, un pur artefact. Cette affirmation abrupte ne constitue en rien un jugement de valeur, tout au plus une mise en garde concernant une éventuelle tentation d'interprétation physique. Bien plus, elle ne remet absolument pas en cause l'utilisation de la VR « altitude de l'océan ». À partir du moment où la communauté scientifique a convenu d'un protocole de détermination de cette VR et s'y tient scrupuleusement, il est légitime de travailler (par exemple, avec des outils géostatistiques) comme si cette VR était beaucoup plus classique et résultait d'une mesure directe : il n'y a là aucune faute méthodologique, et le pire qui pourrait arriver serait que les résultats soient sans intérêt ou inutilisables (ce qui peut être gênant, coûteux, décevant, etc. mais ne constitue pas une faute et n'est pas grave intellectuellement). Une telle démarche n'a en fait rien de rare (pensons à la recherche médicale ou pharmacologique), et si les résultats ne sont pas satisfaisants, il faudra seulement changer de protocole et essayer d'autres définitions de la VR. Mais inversement, si la définition de la VR se révèle judicieuse a posteriori et permet des découvertes tangibles et vérifiables, alors, il importe peu que la VR n'ait pas de signification physique : elle est justifiée par son utilité, elle constitue seulement un intermédiaire conventionnel (au sens de Estimer et choisir, p. 45) et elle finit par s'effacer derrière les résultats concrets qu'elle a permis d'établir. L'exemple de l'altitude océanique n'a rien d'exceptionnel, si ce n'est que c'est un domaine où des contrôles ont pu avoir lieu, par exemple en permettant de découvrir des structures sous-marines ; c'est aussi un domaine où la communauté scientifique arrive à un consensus. Mais on aurait pu citer également comme autre exemple l'étude des infimes variation du fond diffus cosmologique, où des controverses peuvent cette fois surgir encore, parce qu'il y a encore en jeu des modèles cosmologiques concurrents voire des questions de prestige scientifique, et que le contrôle direct est ici irréalisable. Quoi qu'il en soit, l'essentiel devant des problèmes aussi complexes est de s'en tenir à une extrême rigueur méthodologique (respecter les protocoles et, surtout lorsqu'il y en a plusieurs en concurrence, en rappeler les termes dans la publication du résultat final) et de respecter scrupuleusement la démarche scientifique (ne pas laisser les opinions a priori influencer les résultats). Faute de quoi, le travail risque d'être irrémédiablement pollué par des considérations extérieures ; on pourra penser à titre d'exemple à l'étude du changement climatique : des choix stratégiques colossaux reposent inéluctablement sur des variables qui, à l'instar de la température moyenne du globe, ne peuvent être que conventionnels... L'exigence d'une parfaite honnêteté méthodologique est ici extrême !
- Si on veut être parfaitement correct, il convient d'examiner l'expression « support de la VR ». En effet, en mathématiques, le support d'une fonction est (la fermeture de) l'ensemble des points où cette fonction ne s'annule pas : ce n'est donc absolument pas la même notion. Dans la terminologie de la géostatistique, c'est plutôt le « domaine » de la VR qui serait à rapprocher du support au sens mathématique. De plus, il y a une contradiction dans les termes, ou à tout le moins une ambiguïté : la VR a en effet été présentée comme une application définie sur l'espace « géographique », c'est-à-dire une fonction
- la fonction décrit le processus de régularisation, que celui-ci soit d'origine opératoire ou physique ;
- la notation rappelle que cette opération est un produit de convolution ;
- la fonction de pondération (qui n'est pas nécessairement positive) doit être convolable avec . En pratique, on la supposera au minimum sommable, ce qui sera suffisant pour garantir la convolabilité puisque la VR a toujours un domaine borné. Par extension, on pourra admettre une mesure à la place d'une fonction ; alors, si cette mesure est la mesure de Dirac, il y aura identité entre la VR et sa régularisée , de sorte que la variable ponctuelle apparaît seulement comme un cas particulier de régularisation ;
- l'intégrale est effectuée sur tout l'espace (« géographique »).
- Pour être tout à fait complet, et en supposant fixée la nature de la VR, il convient de faire une distinction entre « signification objective » et « signification physique ». En adoptant la terminologie de Matheron (Estimer et choisir, p. 77), seules ont par définition une signification objective les grandeurs régionales, c'est-à-dire les quantités que l'on peut calculer dès que l'on connaît toutes les valeurs de la VR sur l'ensemble du domaine étudié. La « signification physique » est plus délicate à définir : intuitivement, on pourrait penser qu'une grandeur a un sens physique si elle peut être associée simplement à un phénomène directement observable ou encore (ce qui est une propriété assez proche), si elle peut faire l'objet d'une mesure directe. Un exemple (qui n'a valeur que d'illustration, pas de définition) pourrait être donné par la VR température : l'inverse de la température a évidemment une signification objective, mais n'a pas de signification physique (d'autant que si la température est exprimée en degrés Celsius, il peut ne pas être défini !). En acceptant pour simplifier cette présentation intuitive, il apparaît que toute grandeur qui a une signification physique est une grandeur objective, et que la réciproque est fausse : le concept de « signification physique » est donc plus restrictif que le concept de « signification objective ». Le matériau requis par la géostatistique appliquée est constitué des grandeurs régionales : ce sont elles en effet (et par définition elles seules) qui, à l'issue des traitements théoriques, permettent de contrôler la validité de la démarche par confrontation à la réalité : que cette confrontation soit actuelle ou virtuelle importe peu du point de vue seulement épistémologique, l'essentiel est qu'elle soit possible. Par ailleurs, rien n'interdit qu'une grandeur régionale dépende de paramètres conventionnels ; par exemple, une moyenne réalisée sur un domaine et pour une période donnée dépendra clairement de la taille de ce domaine et de la durée de cette période, qui auront probablement des valeurs arbitraires : l'essentiel est que le protocole de calcul soit explicité a priori, scrupuleusement respecté, et clairement rappelé dans les rapports d'avancement. Il faut aussi distinguer les études de recherche et les études appliquées. Dans le premier cas, le point le plus important est d'abord la cohérence des opérations effectuées. Mais pour une étude appliquée, il faut in fine pouvoir associer une signification physique à la réponse ultime, c'est-à-dire produire un résultat qui ne sera pas tributaire des intermédiaires conventionnels qui auront été, légitimement, introduits en cours de travail : « la règle, ici, consistera à s'assurer que toute trace de ces concepts ou paramètres conventionnels a disparu du résultat ultime » (Estimer et choisir, p. 45.). Cette étape ultime d'une étude appliquée a reçu de Matheron le nom de reconstruction opératoire. C'est la conduite correcte de cette dernière étape qui fonde principalement la qualité d'une étude de géostatistique appliquée ; c'est elle aussi qui justifie le recours à des paramètres conventionnels intermédiaires, mais qui également attire l'attention sur la nécessité de respecter prudemment le principe de parcimonie. Dernière remarque concernant la nature des contrôles. Si le contrôle d'une valeur n'est pas concevable, c'est que cette valeur n'a pas de statut objectif, et a fortiori ne peut pas être assortie d'une signification physique. Mais même si le contrôle est concevable, cela ne signifie pas nécessairement qu'il sera réalisable : un contrôle peut être trop coûteux, ou destructif, ou simplement concerner des informations qui ne sont pas accessibles hic et nunc (extrapolation). Cela ne condamne pas le résultat, mais interdit le calage du modèle et la protection contre les instabilités numériques, et fait donc courir davantage de risques. Il y a aussi un autre type d'impossibilité, de nature plus mathématique : c'est ce qui se produit par exemple lorsque le résultat s'exprime comme une intégrale. Si ce résultat a une signification physique, le contrôle est envisageable : par exemple, une teneur moyenne sur un bloc pourrait en toute rigueur être calculée, même si très probablement on ne le fera pas pour des raisons économiques ; en revanche, la température moyenne sur un domaine, qui est bien une grandeur régionale mais sans signification physique, ne peut être mesurée : on peut seulement en construire une valeur approchée, avec une précision décidée à l'avance. Naturellement, en pratique, cette situation est bien suffisante pour pouvoir conduire une étude dans les règles de l'art, et sans faute méthodologique.
Bibliographie
Ouvrages
Il s'agit d'une liste, nécessairement incomplète, se limitant aux ouvrages de synthèse (cours ou manuels) et classée par ordre chronologique de publications.
- (fr) Georges Matheron, Traité de géostatistique appliquée, tomes 1 & 2, Éditions Technip, Paris, 1962 ; tome 3, Éditions du B.R.G.M., Paris, 1962.
- (en) Georges Matheron, Principles of geostatistics, Economic Geology vol. 58, 1963.
- (fr) Georges Matheron, Les variables régionalisées et leur estimation, Masson, Paris, 1965.
- (fr) Jean Serra, Échantillonnage et estimation locale des phénomènes de transition miniers, Thèse de docteur-ingénieur, Université de Nancy, 1967.
- (ru) Georges Matheron, Osnovy prikladnoï geostatistiki, Éditions Mir, Moscou, 1968.
- (en) Daniel F. Merriam, Geostatistics, Plenum Press, New York, 1970.
- (fr) Pierre Laffitte (ed.), Traité d'informatique géologique, Masson, Paris, 1972. Article Théorie des variables régionalisées par Georges Matheron, p. 306-378.
- (en) Georges Matheron, The intrinsic random functions and their applications, Advances in applied probability vol. 5, 1973.
- (en) Michel David, Geostatistical Ore Reserve Estimation, Elsevier Scientific Publishing Company, Amsterdam, 1977.
- (en) André Journel & Charles Huijbregts, Mining Geostatistics, Academic Press Inc., London, 1978.
- (en) Isobel Clark, Practical Geostatistics, Applied Science Publishers, London, 1979.
- (en) Bertil Matérn, Spatial variations, Springer, Berlin, 1986.
- (en) Georges Matheron, Estimating and choosing, Springer, Berlin, 1989. Achevée dès 1978, prévue pour 1980 chez Gauthier-Villars, Paris, sous le titre : Estimer et choisir. Essai sur la pratique des probabilités, l'édition originale en français n'a finalement pas été publiée ; mais il est possible, auprès de la Bibliothèque de Mines ParisTech, d'en obtenir une version sous forme d'une note interne :
- (fr) Georges Matheron, Estimer et choisir, Les Cahiers du Centre de Morphologie Mathématique no 7, École des mines de Paris, 1978.
- (de) Rudolf Dutter, Mathematische Methoden in der Technik, Bd. 2: Geostatistik., B.G. Teubner Verlag, Stuttgart, 1985.
- (en) Noel Cressie, Statistics for spatial data, Wiley Interscience, New York, 1993.
- (en) Jean-Paul Chiles & Pierre Delfiner, Geostatistics: modeling spatial uncertainty, John Wiley & Sons, New York, 1999.
- (en) Christian Lantuéjoul, Geostatistical simulation : models and algorithms, Springer-Verlag, Berlin, 2002.
- (en) Hans Wackernagel, Multivariate Geostatistics, Springer-Verlag, Berlin, 2003.
- (fr) Pierre Chauvet, Aide-mémoire de géostatistique linéaire, Mines ParisTech Les Presses, Paris, 2008. (ISBN 9782911762949)
Auteur | Titre | Éditeur | An. | |
---|---|---|---|---|
Georges Matheron | Traité de géostatistique appliquée, tomes 1 & 2 | (fr) | Éditions Technip, Paris | 1962 |
Georges Matheron | Traité de géostatistique appliquée, tome 3 | (fr) | Éditions du B.R.G.M., Paris | 1962 |
Georges Matheron | Principles of geostatistics | (en) | Economic Geology vol. 58 | 1963 |
Georges Matheron | Les variables régionalisées et leur estimation | (fr) | Masson, Paris | 1965 |
Jean Serra | Échantillonnage et estimation locale des phénomènes de transition miniers | (fr) | Thèse de docteur-ingénieur, Université de Nancy | 1967 |
Georges Matheron | Osnovy prikladnoï geostatistiki | (ru) | Éditions Mir, Moscou | 1968 |
Daniel F. Merriam | Geostatistics | (en) | Plenum Press, New York | 1970 |
Pierre Laffitte (ed.) | Traité d'informatique géologique | (fr) | Masson, Paris | 1972 |
Georges Matheron | The intrinsic random functions and their applications | (en) | Advances in applied probability vol. 5 | 1973 |
Michel David | Geostatistical Ore Reserve Estimation | (en) | Elsevier Scientific Publishing Company, Amsterdam | 1977 |
André Journel & Charles Huijbregts | Mining Geostatistics | (en) | Academic Press Inc., London | 1978 |
Isobel Clark | Practical Geostatistics | (en) | Applied Science Publishers, London | 1979 |
Bertil Matérn | Spatial variations | (en) | Springer, Berlin | 1986 |
Georges Matheron | Estimating and choosing | (en) | Springer, Berlin | 1989 |
Georges Matheron | Estimer et choisir | (fr) | Les Cahiers du Centre de Morphologie Mathématique no 7, École des mines de Paris | 1978 |
Rudolf Dutter | Mathematische Methoden in der Technik, Bd. 2: Geostatistik | (de) | B.G. Teubner Verlag, Stuttgart | 1985 |
Noel Cressie | Statistics for spatial data | (en) | Wiley Interscience, New York | 1993 |
Jean-Paul Chiles & Pierre Delfiner | Geostatistics: modeling spatial uncertainty | (en) | John Wiley & Sons, New York | 1999 |
Christian Lantuéjoul | Geostatistical simulation : models and algorithms | (en) | Springer-Verlag, Berlin | 2002 |
Hans Wackernagel | Multivariate Geostatistics | (en) | Springer-Verlag, Berlin | 2003 |
Pierre Chauvet | Aide-mémoire de géostatistique linéaire | (fr) | Mines ParisTech Les Presses, Paris | 2008 |
Actes des Congrès Internationaux de Géostatistique
- (en) Massimo Guarascio, Michel David et Charles Huijbregts (ed.), Advanced Geostatistics in the mining industry, Reidel, Dordrecht, 1976. (ISBN 90-277-0669-7)
- (en) George Verly, Michel David, André Journel et Alain Maréchal (ed.), Geostatistics for natural resources characterization (2 vol.), Reidel, Dordrecht, 1984. (ISBN 90-277-1746-X) et (ISBN 90-277-1747-8)
- (en) Margaret Armstrong (ed.), Geostatistics (2 vol.), Kluwer, Dordrecht, 1989. (ISBN 0-7923-0204-4)
- (en) Amilcar Soares (ed.), Geostatistics Troia'92 (2 vol.), Kluwer, Dordrecht, 1993. (ISBN 0-7923-2157-X)
Voir aussi les actes du forum international à la mémoire de Michel David, Montréal, 1993 :
- (en) Roussos Dimitrakopoulos (ed.), Geostatistics for the next century, Kluwer, Dordrecht, 1994. (ISBN 0-7923-2650-4)
Pages non francophones sur la géostatistique
- (de) Geostatistik. Il existe une catégorie Geostatistik sur Wikipédia en allemand.
- (en) Geostatistics. Il existe une catégorie Geostatistics sur Wikipédia en anglais.
- (es) Krigeaje (la page Geoestadística est absente sur Wikipédia en espagnol, bien qu'il existe une catégorie Geoestadística).
- (it) Geostatistica. Il existe une catégorie Geostatistica sur Wikipédia en italien.
- (pt) Geoestatística. Il existe une catégorie Geoestatística sur Wikipédia en portugais.
Cours en ligne
- (fr) Jean-Stéphane Bailly, Géostatistique appliquée, Agro ParisTech.
Corrélats
- Épistémologie ;
- Espace métrique ;
- Fonction mathématique ;
- Georges Matheron ;
- Gaston Bachelard ;
- Géostatistique intrinsèque ;
- Karl Popper ;
- Modèle mathématique ;
- Rasoir d'Ockham ;
- Statistique descriptive ;
- Théorie de la connaissance ;
- Positivisme logique.
- Portail des mathématiques
- Portail des probabilités et de la statistique
- Portail de l’information géographique