Spørgsmål:
Logistisk regression vs. LDA som to-klasses klassifikatorer
user1885116
2014-04-26 04:20:55 UTC
view on stackexchange narkive permalink

Jeg prøver at pakke hovedet omkring den statistiske forskel mellem Lineær diskriminerende analyse og Logistisk regression . Er min forståelse rigtig, at LDA for et to klasse klassificeringsproblem forudsiger to normale densitetsfunktioner (en for hver klasse), der skaber en lineær grænse, hvor de krydser hinanden, mens logistisk regression kun forudsiger det log-ulige funktion mellem de to klasser, hvilket skaber en grænse, men antager ikke densitetsfunktioner for hver klasse?

Se også et lignende spørgsmål http://stats.stackexchange.com/q/14697/3277
Et relateret svar, http://stats.stackexchange.com/a/31466/3277
Tre svar:
ttnphns
2014-04-26 11:41:55 UTC
view on stackexchange narkive permalink

Det lyder for mig, at du har ret. Logistisk regression antager faktisk ikke nogen specifikke former for tætheder i rummet med forudsigelsesvariabler, men LDA gør det. Her er nogle forskelle mellem de to analyser kort.

Binær logistisk regression (BLR) vs Lineær diskriminerende analyse (med 2 grupper: også kendt som Fishers LDA):

  • BLR : Baseret på estimering af maksimal sandsynlighed. LDA : Baseret på estimering af mindste kvadrater; ækvivalent med lineær regression med binær forudsigelse (koefficienter er proportionale og R-kvadrat = 1-Wilks lambda).

  • BLR : Estimerer sandsynlighed (for gruppe medlemskab) straks (forudsigelsen og betragtes i sig selv som sandsynlighed, observeret en) og betinget. LDA : estimerer sandsynligheden medie (forudsigelsen betragtes som indgående kontinuerlig variabel, den diskriminerende) via klassificeringsanordning (såsom naive Bayes), der bruger både betinget og marginal information.

  • BLR : Ikke så presserende til skalaens niveau og fordelingsformen i forudsigere. LDA : Det forudsiges ønskeligt intervalniveau med multivariat normalfordeling.

  • BLR : Ingen krav til kovariansmatricerne inden for gruppen af forudsigerne. LDA : Kovariansmatricerne inden for gruppen skal være identiske i populationen.

  • BLR : Grupperne kan have helt forskellige $ n $. LDA : Grupperne skal have lignende $ n $.

  • BLR : Ikke så følsom over for outliers. LDA : Helt følsom over for outliers.

  • BLR : Yngre metode. LDA : Ældre metode.

  • BLR : Normalt foretrukket, fordi det er mindre presserende / mere robust. LDA : Når alle kravene er opfyldt, klassificeres ofte bedre end BLR (asymptotisk relativ effektivitet 3/2 gang højere end derefter).

cbeleites unhappy with SX
2014-04-26 14:00:27 UTC
view on stackexchange narkive permalink

Lad mig tilføje nogle punkter til @ttnphns nice-liste:

  • Bayes-forudsigelsen af ​​LDA's sandsynlighed for bageste klassemedlemskab følger også en logistisk kurve.
    [Efron, B. Effektiviteten af ​​logistisk regression sammenlignet med normal diskriminerende analyse, J Am Stat Assoc, 70, 892-898 (1975).]

  • Mens papiret viser, at den relative effektivitet af LDA er bedre end LR, hvis LDA's antagelser er opfyldt (Ref: Efron-papir ovenfor, @tthnps 'sidste punkt), ifølge Elements of Statistical Learning i praksis er der næppe nogen forskel.
    [Hastie, T. og Tibshirani, R. og Friedman, J. The Elements of Statistical Learning; Data mining, Inference andPrediction Springer Verlag, New York, 2009]

  • Den enormt øgede relative effektivitet af LDA sker mest i asymptotiske tilfælde, hvor den absolutte fejl er praktisk talt ubetydelig under alle omstændigheder.
    [Harrell, FE & Lee, KL En sammenligning af diskrimination af diskriminerende analyse og logistisk regression under multivariat normalitet, Biostatistik: Statistik inden for biomedicin, folkesundhed og miljøvidenskab, 333-343 (1985).]

  • Skønt jeg i praksis er stødt på højdimensionelle situationer med lille stikprøvestørrelse, hvor LDA virker overlegen (på trods af at både den multivariate normalitet og de samme kovariansmatrixantagelser synligt ikke er opfyldt).
    [ Beleites, C .; Geiger, K .; Kirsch, M .; Sobottka, S. B .; Schackert, G. & Salzer, R. Raman spektroskopisk klassificering af astrocytomvæv: ved hjælp af blød referenceinformation., Anal Bioanal Chem, 400, 2801-2816 (2011). DOI: 10.1007 / s00216-011-4985-4]

  • Men bemærk, at i vores papir kæmper LR muligvis med det problem, som retninger med (nær) perfekt adskillelighed kan findes. LDA på den anden side kan være mindre alvorligt overmontering.

  • De berømte antagelser for LDA er kun nødvendige for at bevise optimalitet. Hvis de ikke er opfyldt, kan proceduren stadig være en god heuristisk.

  • En forskel, der er vigtig for mig i praksis, fordi de klassificeringsproblemer, jeg arbejder på nogle gange / ofte viser sig faktisk ikke at være så klart klassificeringsproblemer overhovedet: LR kan let gøres med data, hvor referencen har mellemliggende niveauer af klassemedlemskab. Det er trods alt en regression teknik.
    [se papir sammenkædet ovenfor]

  • Du kan sige, at LR koncentrerer sig mere end LDA om eksempler nær klassegrænsen og ser stort set bort fra sager på "bagsiden" af distributionerne.

  • Dette forklarer også, hvorfor det er mindre følsomt over for outliers (dvs. dem på bagsiden) end LDA.

  • (understøttelsesvektormaskiner ville være en klassifikator, der går denne retning helt til slutningen: her ignoreres alt undtagen tilfældene ved grænsen)

Suraj Malpani
2019-12-03 00:41:13 UTC
view on stackexchange narkive permalink

Jeg ville bare tilføje endnu et punkt.

  • LDA fungerer, når alle afhængige / forudsigelige variabler er kontinuerlig (ikke kategorisk) og følg en Normal distribution.
  • Mens det i logistisk regression ikke er tilfældet og kategoriske variabler kan bruges som uafhængige variabler, mens der forudsiges.


Denne spørgsmål og svar blev automatisk oversat fra det engelske sprog.Det originale indhold er tilgængeligt på stackexchange, som vi takker for den cc by-sa 3.0-licens, den distribueres under.
Loading...