Bayesiansk statistik >
Bayesiansk informationskriterie (BIC) är ett index som används i bayesiansk statistik för att välja mellan två eller flera alternativa modeller.
BIC är också känt som Schwarz-informationskriteriet (abrv. SIC) eller Schwarz-Bayesianska informationskriteriet. Det publicerades i en artikel 1978 av Gideon E. Schwarz och är nära besläktat med Akaike-informationskriteriet (AIC) som formellt publicerades 1974.
Definition av det bayesianska informationskriteriet / Schwarz-kriteriet
Det bayesianska informationskriteriet (BIC) definieras som
k log(n)- 2log(L(θ̂)).
Här är n urvalsstorleken; antalet observationer eller antalet datapunkter du arbetar med. k är antalet parametrar som din modell skattar, och θ är uppsättningen av alla parametrar.
L(θ̂) representerar sannolikheten för den testade modellen, givet dina data, när den utvärderas vid maximala sannolikhetsvärden för θ. Du skulle kunna kalla detta för modellens sannolikhet givet att allt är anpassat till sina mest gynnsamma.
Ett annat sätt att förstå L(θ̂) är att det är sannolikheten att få fram de data som du har, om man antar att den modell som testas är given.
Varje modelljämförelse
Varje modelljämförelse med det bayesianska informationskriteriet innebär helt enkelt att man beräknar BIC för varje modell. Modellen med lägst BIC anses vara den bästa och kan skrivas BIC* (eller SIC* om man använder det namnet och den förkortningen).
Vi kan också beräkna Δ BIC; skillnaden mellan en viss modell och den ”bästa” modellen med lägst BIC, och använda den som ett argument mot den andra modellen. Δ BIC är bara BICmodel – BIC*, där BIC* är den bästa modellen.
Om Δ BIC är mindre än 2 anses det ”knappt värt att nämna” som ett argument antingen för den bästa teorin eller mot den alternativa teorin. Den fördel den ger vår bästa modell är för liten för att vara signifikant. Men om Δ BIC är mellan 2 och 6 kan man säga att bevisen mot den andra modellen är positiva, dvs. vi har ett bra argument till förmån för vår ”bästa modell”. Om det ligger mellan 6 och 10 är bevisen för den bästa modellen och mot den svagare modellen starka. En Δ BIC på mer än tio innebär att bevisen till förmån för vår bästa modell mot den alternativa är mycket starka.
Exempel
Antag att du har en uppsättning data med 50 observationspunkter, och modell 1 skattar 3 parametrar. Modell 2 uppskattar 4 parametrar. Låt oss säga att loggen för din maximala sannolikhet för modell 1 är a; och för modell 2 är den 2a. Med hjälp av formeln k log(n)- 2log(L(θ)):
Beräkning av SIC på dessa data ger oss:
- Modell 1: 3log(50) – 2a = 5,1 – 2a
- Modell 2: 4log(50) – 4a = 6,8 – 4a
Då är ΔBIC 1,7 – 2a.
Då de bevis som Bayesian Information Criterion ger oss för modell 1 endast kommer att vara ”värda att nämna” om 1,7 – 2a > 2, kan vi endast hävda övertygande resultat om -2a > 0,3; det vill säga a < -0,15.
Claeskins, G. & Hkort, N. (2008). Model Selection and Model Averaging (Cambridge Series in Statistical and Probabilistic Mathematics) 1st Edition. Cambridge University Press.
Fabozzi, Focardi, Rachev & Arshanapalli. Grunderna i finansiell ekonometri: Verktyg, begrepp och tillämpningar inom kapitalförvaltning. Bilaga E: Kriterium för val av modell: AIC och BIC. Hämtad från http://onlinelibrary.wiley.com/store/10.1002/9781118856406.app5/asset/app5.pdf;jsessionid=A6726BA5AE1AD2A5AF007FFF78528249.f03t01?v=1&t=je8jr983&s=09eca6efc0573a238457d475d3ac909ec816a699 den 1 mars 2018
Wasserman, Larry. STAT 705 Lecture Notes: Model Selection
Hämtat från http://www.stat.cmu.edu/~larry/=stat705/Lecture16.pdf den 1 mars 2018
Stephanie Glen. ”Bayesian Information Criterion (BIC) / Schwarz Criterion” From StatisticsHowTo.com: Elementär statistik för oss andra! https://www.statisticshowto.com/bayesian-information-criterion/
——————————————————————————
Behövs hjälp med en läxa eller en provfråga? Med Chegg Study kan du få steg-för-steg-lösningar på dina frågor från en expert inom området. Dina första 30 minuter med en Chegg-handledare är gratis!