Особине процењивача

Преглед садржаја:

Особине процењивача
Особине процењивача
Anonim

Својства проценитеља су својства која они могу имати и која служе за одабир оних који су способнији да дају добре резултате.

За почетак ћемо дефинисати концепт проценитеља, рећи ћемо да је за било који случајни узорак (к1, Икс2, Икс3,…, ИКСн) процењивач представља популацију која зависи од φ параметра који не знамо.

Овај параметар, који означавамо грчким словом фи (φ), може бити, на пример, средина било које случајне променљиве.

Математички, једнопараметарски К процењивач зависи од случајних посматрања у узорку (к1, Икс2, Икс3,…, ИКСн) и позната функција (х) узорка. Процењивач (К) ће бити случајна променљива, јер зависи од узорка који садржи случајне променљиве.

К = х (к1, Икс2, Икс3,…, ИКСн)

Непристрасност проценитеља

К процењивач φ је непристрасни процењивач ако је Е (К) = φ за све могуће вредности φ. Е (К) дефинишемо као очекивану вредност или очекивање проценитеља К.

У случају пристрасних процењивача, ова пристрасност би била представљена као:

Предрасуде (К) = Е (К) - φ

Можемо видети да је пристрасност разлика између очекиване вредности проценитеља, Е (К), и стварне вредности параметра популације, φ.

Процена поена

Ефикасност процењивача

Да К1 и К2 су два непристрасна процењивача φ, њихов однос са К биће ефикасан2 када је Вар (К1) ≤ Вар (К2) за било коју вредност φ све док је статистички узорак φ строго већи од 1, н> 1. Где је Вар варијанса, а н величина узорка.

Интуитивно речено, под претпоставком да имамо два процењивача са непристрасним својством, можемо рећи да је један (К1) је ефикаснији од другог (П2) ако је променљивост резултата једног (П1) је мањи од оног код другог (П2). Логично је мислити да је једна ствар која варира више од друге мање „прецизна“.

Стога овај критеријум можемо користити за одабир процењивача само када су непристрасни. У претходној изјави када дефинишемо ефикасност већ претпостављамо да проценитељи морају бити непристрасни.

Да бисте упоредили проценитеље који нису нужно непристрасни, односно пристрасност може постојати, препоручује се израчунавање средње квадратне грешке (МСЕ) процењивача.

Ако је К процењивач φ, тада је ЕЦМ К дефинисан као:

Грешка средњег квадрата (МСЕ) израчунава просечну удаљеност која постоји између очекиване вредности проценитеља узорка К и проценитеља популације. Квадратни облик ЕЦМ-а је због чињенице да грешке могу бити подразумевано, негативне или као вишак позитивне у односу на очекивану вредност. На тај начин, ЕЦМ ће увек израчунати позитивне вредности.

ЕЦМ зависи од варијансе и пристрасности (ако постоје) омогућавајући нам да упоредимо две процене када су један или оба пристрасна. Онај чији је НДЕ већи схватиће се да је мање прецизан (има више грешака) и, према томе, мање ефикасан.

Конзистентност проценитеља

Конзистентност је асимптотско својство. Ово својство подсећа на својство ефикасности с том разликом што доследност мери вероватну удаљеност између вредности проценитеља и стварне вредности параметра популације како се величина узорка неограничено повећава. Ово неодређено повећање величине узорка је основа асимптотског својства.

Постоји минимална димензија узорка за спровођење асимптотске анализе (проверите конзистентност проценитеља како се узорак повећава). Приближне величине великог узорка добро функционишу за узорке од око 20 посматрања, (н = 20). Другим речима, желимо да видимо како се процењивач понаша када повећавамо узорак, али ово повећање тежи ка бесконачности. С обзиром на ово, правимо апроксимацију и од 20 запажања у узорку (н ≥ 20), асимптотска анализа је прикладна.

Математички дефинишемо К1н као процењивач φ из било ког случајног узорка (к1, Икс2, Икс3,…, ИКСн) величине (н). Дакле, можемо рећи да је Кн је доследан процењивач φ ако:

То нам говори да су разлике између проценитеља и његове вредности популације, | Кн - φ |, они морају бити већи од нуле. Због тога то изражавамо у апсолутној вредности. Вероватноћа ове разлике тежи 0 (постаје све мања и мања) када величина узорка (н) тежи ка бесконачности (постаје све већи и већи).

Другим речима, све је мање вероватно да ће Кн се превише удаљава од φ када се величина узорка повећава.