"Rumlig autokorrelation" betyder forskellige ting for forskellige mennesker. Et overordnet koncept er dog, at et fænomen, der observeres på steder $ \ mathbf {z} $, på en eller anden bestemt måde kan afhænge af (a) kovariater, (b) placering og (c) dets værdier ved i nærheden placeringer. (Hvor de tekniske definitioner varierer, ligger i den type data, der overvejes, hvilken "bestemt måde" der postuleres, og hvad "nærliggende" betyder: alle disse skal gøres kvantitative for at komme videre.)
For at se hvad der kan ske, lad os overveje et simpelt eksempel på en sådan rumlig model for at beskrive topografien i en region. Lad den målte højde ved et punkt $ \ mathbf {z} $ være $ y (\ mathbf {z}) $. En mulig model er, at $ y $ på en bestemt matematisk måde afhænger af koordinaterne for $ \ mathbf {z} $, som jeg vil skrive $ (z_1, z_2) $ i denne to-dimensionelle situation. Lad $ \ varepsilon $ repræsentere (hypotetisk uafhængige) afvigelser mellem observationerne og modellen (som normalt antages at have nul forventning), kan vi skrive
$$ y (\ mathbf {z}) = \ beta_0 + \ beta_1 z_1 + \ beta_2 z_2 + \ varepsilon (\ mathbf {z}) $$
til en lineær trendmodel . Den lineære tendens (repræsenteret af $ \ beta_1 $ og $ \ beta_2 $ koefficienterne) er en måde at fange ideen om, at nærliggende værdier $ y (\ mathbf {z}) $ og $ y (\ mathbf {z} ') $ , for $ \ mathbf {z} $ tæt på $ \ mathbf {z} '$, burde have tendens til at være tæt på hinanden. Vi kan endda beregne dette ved at overveje den forventede værdi af størrelsen på forskellen mellem $ y (\ mathbf {z}) $ og $ y (\ mathbf {z} ') $, $ E [| y (\ mathbf {z }) - y (\ mathbf {z} ') |] $. Det viser sig, at matematikken er meget enklere, hvis vi bruger et lidt andet mål for forskel: I stedet beregner vi den forventede kvadrat forskel:
$$ \ eqalign {E [\ left (y (\ mathbf {z}) - y (\ mathbf {z} ') \ right) ^ 2]
& = E [\ left (\ beta_0 + \ beta_1 z_1 + \ beta_2 z_2 + \ varepsilon (\ mathbf {z}) - \ left (\ beta_0 + \ beta_1 z_1 '+ \ beta_2 z_2' + \ varepsilon (\ mathbf { z} ') \ højre) \ højre) ^ 2] \\ & = E [\ venstre (\ beta_1 (z_1-z_1') + \ beta_2 (z_2-z_2) '+ \ varepsilon (\ mathbf {z}) - \ varepsilon (\ mathbf {z} ') \ højre) ^ 2] \\ & = E [\ left (\ beta_1 (z_1-z_1') + \ beta_2 (z_2-z_2) '\ højre) ^ 2 \\ & \ quad + 2 \ left (\ beta_1 (z_1-z_1 ') + \ beta_2 (z_2-z_2)' \ right) \ left (\ varepsilon (\ mathbf {z}) - \ varepsilon (\ mathbf {z} ') \ højre) \\ & \ quad + \ left (\ varepsilon (\ mathbf {z}) - \ varepsilon (\ mathbf {z} ') \ right) ^ 2] \\ & = \ left (\ beta_1 (z_1-z_1') ) + \ beta_2 (z_2-z_2) '\ højre) ^ 2 + E [\ venstre (\ varepsilon (\ mathbf {z}) - \ varepsilon (\ mathbf {z}') \ højre) ^ 2]} $$
Denne model er fri for eksplicit rumlig autokorrelation, fordi der ikke er noget udtryk i den, der direkte relaterer $ y (\ mathbf {z}) $ til nærliggende værdier $ y (\ mathbf {z} ') $ .
En alternativ, anderledes model ignorerer den lineære tendens og antager kun at der er autokorrelation. En måde at gøre det på er gennem strukturen af afvigelserne $ \ varepsilon (\ mathbf {z}) $. Vi siger måske, at
$$ y (\ mathbf {z}) = \ beta_0 + \ varepsilon (\ mathbf {z}) $$
and, for at tage højde for vores forventning om sammenhæng, antager vi en slags "kovariansstruktur" for $ \ varepsilon $. For at dette skal være rumligt meningsfuldt, antager vi kovariansen mellem $ \ varepsilon (\ mathbf {z}) $ og $ \ varepsilon (\ mathbf {z} ') $, svarende til $ E [\ varepsilon (\ mathbf {z }) \ varepsilon (\ mathbf {z} ')] $ fordi $ \ varepsilon $ har nul betyder, har tendens til at falde, når $ \ mathbf {z} $ og $ \ mathbf {z}' $ bliver mere og mere fjerne. Da detaljerne ikke betyder noget, lad os bare kalde denne kovarians $ C (\ mathbf {z}, \ mathbf {z} ') $. Dette er rumlig autokorrelation. Faktisk er den (sædvanlige Pearson) korrelation mellem $ y (\ mathbf {z}) $ og $ y (\ mathbf {z} ') $
$$ \ rho (y (\ mathbf {z}), y (\ mathbf {z} ')) = \ frac {C (\ mathbf {z}, \ mathbf {z}')} {\ sqrt {C (\ mathbf {z}, \ mathbf {z}) C (\ mathbf {z} ', \ mathbf {z}')}}. $$
I denne notation forventede den foregående kvadratforskel på $ y $ for den første model er
$$ \ eqalign {E [\ left (y (\ mathbf {z}) - y (\ mathbf {z} ') \ right ) ^ 2] & = \ left (\ beta_1 (z_1-z_1 ') + \ beta_2 (z_2-z_2)' \ right) ^ 2 + E [\ left (\ varepsilon (\ mathbf {z}) - \ varepsilon ( \ mathbf {z} ') \ højre) ^ 2] \\ & = \ venstre (\ beta_1 (z_1-z_1') + \ beta_2 (z_2-z_2) '\ højre) ^ 2 + C_1 (\ mathbf {z} , \ mathbf {z}) + C_1 (\ mathbf {z} ', \ mathbf {z}')} $$
(forudsat $ \ mathbf {z} \ ne \ mathbf {z} ' $) fordi $ \ varepsilon $ forskellige steder er blevet antaget at være uafhængig. Jeg har skrevet $ C_1 $ i stedet for $ C $ for at indikere, at dette er kovariansfunktionen for den første model.
Når kovarianterne i $ \ varepsilon $ ikke varierer dramatisk fra et sted til et andet (faktisk , antages de normalt at være konstante), denne ligning viser, at den forventede kvadratiske forskel i $ y $ stiger kvadratisk med skillet mellem $ \ mathbf {z} $ og $ \ mathbf {z} '$. Den faktiske stigning bestemmes af trendkoefficienterne $ \ beta_0 $ og $ \ beta_1 $.
Lad os se, hvad de forventede kvadratiske forskelle i $ y $ er for den nye model, model 2 :
$$ \ eqalign {E [\ left (y (\ mathbf {z}) - y (\ mathbf {z} ') \ right) ^ 2] & = E [\ left (\ beta_0 + \ varepsilon (\ mathbf {z}) - \ left (\ beta_0 + \ varepsilon (\ mathbf {z} ') \ right) \ right) ^ 2] \\ & = E [\ left (\ varepsilon (\ mathbf {z}) - \ varepsilon (\ mathbf {z} ') \ højre) ^ 2] \\ & = E [\ varepsilon (\ mathbf {z}) ^ 2-2 \ varepsilon (\ mathbf {z}) \ varepsilon (\ mathbf {z} ') + \ varepsilon (\ mathbf {z}') ^ 2] \\ & = C_2 (\ mathbf {z}, \ mathbf {z}) - 2C_2 (\ mathbf {z} , \ mathbf {z} ') + C_2 (\ mathbf {z}', \ mathbf {z} ').} $$
Igen opfører det sig på den rigtige måde: fordi vi regnede med $ C_2 (\ mathbf {z}, \ mathbf {z} ') $ $ skulle reduceres som $ \ mathbf {z} $ og $ \ mathbf {z} '$ bliver mere adskilt, den forventede kvadratiske forskel i $ y $' s faktisk op med stigende adskillelse af placeringer.
Sammenligning af de to udtryk for $ E [\ left (y (\ mathbf {z}) - y (\ mathbf {z} ') \ right) ^ 2] $ i de to modeller viser os, at $ \ left (\ beta_1 (z_1-z_1') + \ beta_2 (z_2-z_2) 'højre) ^ 2 $ i den første model spiller en rolle matematisk identisk med $ -2C_2 (\ mathbf {z}, \ mathbf {z}') $ i den anden model. (Der er en konstant additiv, der lurer der, begravet i de forskellige betydninger af $ C_i (\ mathbf {z}, \ mathbf {z}) $, men det betyder ikke noget i denne analyse.) Ergo afhængig af modellen, er rumlig korrelation typisk repræsenteret som en kombination af en tendens og en fastlagt korrelationsstruktur på tilfældige fejl.
Vi har nu, håber jeg, en klar svar på spørgsmålet: man kan repræsentere ideen bag Toblers geografiske lov ("alt er relateret til alt andet, men nærmere ting er mere relateret") på forskellige måder. I nogle modeller er Toblers lov tilstrækkeligt repræsenteret ved at inkludere tendenser (eller "drift" -termer), der er funktioner i rumlige koordinater som længdegrad og breddegrad. I andre er Toblers lovfangst fanget ved hjælp af en ikke-trivial kovariansstruktur blandt additive tilfældige termer ($ \ varepsilon $). I praksis indeholder modeller begge metoder. Hvilken du vælger afhænger af, hvad du vil opnå med modellen og af dit syn på, hvordan rumlig autokorrelation opstår - om det er underforstået af underliggende tendenser eller afspejler variationer, du ønsker at betragte som tilfældig. Ingen af dem har altid ret, og i et givet problem er det ofte muligt at bruge begge slags modeller til at analysere dataene, forstå fænomenet og forudsige dets værdier andre steder (interpolation). p>