Hvad er grunden til, at vi bruger naturlig logaritme (ln) snarere end log til base 10 til at specificere funktioner i økonometri?
Hvad er grunden til, at vi bruger naturlig logaritme (ln) snarere end log til base 10 til at specificere funktioner i økonometri?
I forbindelse med lineær regression inden for samfundsvidenskab skriver Gelman og Hill [1]:
Vi foretrækker naturlige logfiler (dvs. logaritmer baserer $ e $), fordi som beskrevet ovenfor kan koefficienter på den naturlige log-skala direkte fortolkes som omtrentlige proportionale forskelle: med en koefficient på 0,06 svarer en forskel på 1 i $ x $ til en ca. 6% forskel i $ y $ osv.
[1] Andrew Gelman og Jennifer Hill (2007). Dataanalyse ved hjælp af regression og multilevel / hierarkiske modeller . Cambridge University Press: Cambridge; New York, s. 60-61.
Der er ingen særlig stærk grund til at foretrække naturlige logaritmer. Antag, at vi estimerer modellen:
ln Y = a + b ln X
Forholdet mellem naturlig (ln) og base 10 (log) logaritmer er ln X = 2.303 log X (kilde). Derfor svarer modellen til:
2.303 log Y = a + 2.303b log X
eller sætte a / 2.303 = a *:
log Y = a * + b log X
Enten form af modellen kunne estimeres med tilsvarende resultater.
En lille fordelen ved naturlige logaritmer er, at deres første differentiering er enklere: d (ln X) / dX = 1 / X, mens d (log X) / dX = 1 / ((ln 10) X) (kilde).
Se Gujarati, Essentials of Econometrics 3. udgave 2006 s. 288 for en kilde i en lærebog med økonometri, der siger, at begge former for logaritmer kunne bruges.
Jeg tror, at den naturlige logaritme bruges, fordi den eksponentielle ofte bruges, når man foretager interesse- / vækstberegning.
Hvis du har kontinuerlig tid, og at du forener interesser, vil du ende med at have en fremtidig værdi af et bestemt beløb svarende til $ F (t) = Ne ^ {rt} $ (hvor r er rentesatsen og N det nominelle beløb for summen).
Da du ender med eksponentiel i beregningen er den bedste måde at slippe af med den ved hjælp af den naturlige logaritme, og hvis du udfører den omvendte operation, vil den naturlige log give dig den nødvendige tid til at nå en vis vækst.
Også, det gode ved logaritmer (det være sig naturligt eller ej) er det faktum, at du kan gøre multiplikationer til tilføjelser.
Hvad angår matematiske forklaringer på, hvorfor vi ender med at bruge en eksponentiel, når vi sammensætter interesse, kan du finde den her: http://en.wikipedia.org/wiki/Continuously_compounded_interest#Periodic_compounding
Dybest set skal du tage grænsen for at have et uendeligt antal int erest rate betaling, som ender med at være definitionen af eksponentiel
Selv tænkt, kontinuerlig tid bruges ikke meget i det virkelige liv (du betaler dine pant med månedlige betalinger, ikke hvert sekund ..), den slags beregning bruges ofte af kvantitative analytikere.
En yderligere grund til, at økonomer kan lide at bruge regressioner med logaritmiske funktionelle former, er økonomisk: Koefficienter kan forstås som elasticiteter af en Cobb-Douglas-funktion. Denne funktion er sandsynligvis den mest almindelige anvendt blandt økonomer til at analysere spørgsmål vedrørende mikroøkonomisk adfærd (forbrugernes præferencer, teknologi, produktionsfunktioner) og makroøkonomiske spørgsmål (økonomisk vækst). Elasticitetsudtrykket bruges til at beskrive graden af respons for en ændring af en variabel i forhold til en anden.
Den eneste grund er, at Taylor-udvidelsen giver en intuitiv fortolkning af resultatet.
Lad os se på en typisk variabel, der bruges meget i økonometri, logforskellen i BNP: $$ \ Delta \ ln Y_t = \ ln Y_t- \ ln Y_ {t-1} = \ ln \ frac {Y_ {t}} {Y_ {t-1}} = \ ln \ left (1+ \ frac { \ Delta Y_t} {Y_ {t-1}} til højre) $$ , hvor $ \ frac {\ Delta Y_t} {Y_ {t-1}} $ er BNP-vækstraten nu.
Lad os anvende Taylor-udvidelse af loggen: $$ \ Delta \ ln Y_t \ approx \ frac {\ Delta Y_t} {Y_ {t-1}} - \ frac 1 2 \ left (\ frac {\ Delta Y_t} {Y_ {t-1}} \ right) ^ 2 + \ prikker $$ Da BNP-vækstraten normalt er lille, f.eks. for USA omkring 2% for nylig, kan vi droppe alle de højere ordrebetingelser, så får vi: $$ \ Delta \ ln Y_t \ approx \ frac {\ Delta Y_t} {Y_ {t-1}} $$
Så hvis du bruger logforskellene i BNP i højre ligning, f.eks. som en forklarende variabel i regressionen kan du have følgende: $$ \ dots = \ dots + \ beta \ times \ Delta \ ln Y_t $$ som kan fortolkes som "$ \ beta $ gange procentvis ændring i BNP."
Økonomer kan lide de variabler, der let kan fortolkes. Hvis du tilsluttede den forskellige logbase, er fortolkningsevnen svagere. Se f.eks. Hvad der sker med logbasen 10: $$ \ dots = \ dots + \ beta \ times \ Delta \ log_ {10} Y_t \\ \ approx \ dots + \ beta \ times \ frac 1 {\ ln (10)} \ frac {\ Delta Y_t} {Y_ {t-1}} $$ Dette fungerer stadig, men nu skal du dele $ \ beta $ med et uintuitivt tal for at få "procentvis ændring" -effektfortolkning.
Er dette unikt for økonomi? Standardnormalfordelingen indeholder en $ e ^ {- {1 \ over2} x ^ 2} $ i den, og den normale fordeling er kun en af de store familie af eksponentielle distributioner, der dækker et stort antal statistikker. (Se GLM'er.) Det ser ud til, at den naturlige log ville være nyttig i disse tilfælde.
Der er en god grund til at bruge logtransformationen af variablen, hvis du tror, at den inverse funktion af logaritme er den eksponentielle funktion, som er en kontinuerlig version af sammensmeltning. Den økonomiske variabel, der vokser omkring 10% ad gangen, kan omdannes til variablen med dens gennemsnit omkring 10 (plus en konstant). Du kan ikke gøre det med transformation af logaritme fra forskellige baser.
Ikke kun i økonometri er brug af base $ e $ mere "naturligt" i næsten ethvert domæne, inklusive datalogi, hvor det er domineret af $ 0,1 $ (hvor $ \ log_2 $ kan være naturlig).
Jeg vil gerne bruge nogle eksperimenter til at vise basen $ e $ er meget naturlig.
Overvej at følge tre funktioner $ f_1 (x) = 2 ^ x $ , $ f_ {2} (x) = 10 ^ x $ , $ f_3 (x) = e ^ x $ , hvilken virker mere naturlig? Mange siger måske, at de to første synes bedre, fordi $ 2 $ og $ 10 $ er små heltal og $ e $ er et irrationelt tal.
Overvej dog at følge eksperiment, vi vil undersøge forholdet mellem funktionens afledte ved $ x_0 $ og funktionsværdien ved $ x_0 $ .
Vi vælger to tilfældige punkter, siger $ 1,23 $ og $ 2,34 $ , og vi vil bruge $ f_1 $ som eksempel.
Her er nogle fakta:
$ f_1 '(1.23) = 1.625894, ~ f_1' (2.34) = 3.509423 $
$ f_1 (1.23) = 2.34567, ~ f_1 (2.34) = 5.063026 $
Vi ser, at der er nogle mønstre: Hvis vi beregner $ f_1 '(x_0) / f_1 (x_0) $ , er det en konstant: $ 0.6931472 = \ log (2) $ .
For en anden funktion $ f_2 $ er denne konstant $ 2.302585 = \ log (10) $ . (Jeg vedhæfter koden til nogle sjove eksperimenter)
Så det naturlige spørgsmål at stille er, når vi kan få forenklede resultater, der ikke skal skaleres med denne konstant (eller denne konstant er lig med $ 1.0 $ span >)?
Svaret er, når basen er $ e $ . Hvor $ f_3 '(x) = f_3 (x) $ . Nu tror vi måske, at base $ e $ er mere naturlig?
noget kode til sjove eksperimenter
# antag, at vi har nogle eksponentielle funktioner
# fordi 2 og 10 er små heltal f1, virker f2 ret naturligt
f1 <- funktion (x) 2 ^ x
# f2 <- funktion (x) 10 ^ x
# enkel kode til beregning af numerisk gradient
simpleNumDiff <- funktion (f, x0) {
(f (x0 + 1e-8) -f (x0)) / 1e-8
}
# vi forsøger at undersøge derv-værdi og funktionsværdimønster
# bemærk, de er ikke lige, men har et meget stærkt mønster
a1 = simpleNumDiff (f1,1.23)
b1 = f1 (1,23)
a2 = simpleNumDiff (f1,2.34)
b2 = f1 (2.34)
c (a1 / b1, a2 / b2) # log (2)