Pagkakaiba sa pagitan ng OLS at MLE

Anonim

OLS vs MLE

Madalas nating subukang maglaho kapag ang paksa ay tungkol sa mga istatistika. Para sa ilan, ang pagharap sa mga istatistika ay tulad ng isang nakakagulat na karanasan. Mapoot namin ang mga numero, linya, at mga graph. Gayunpaman, kailangan nating harapin ang malaking balakid na ito upang makatapos ng pag-aaral. Kung hindi, ang iyong hinaharap ay magiging madilim. Walang pag-asa at walang liwanag. Upang makapasa sa mga istatistika, madalas naming nakatagpo ang OLS at MLE. Ang "OLS" ay kumakatawan sa "ordinaryong hindi bababa sa mga parisukat" habang ang "MLE" ay kumakatawan sa "maximum estimation." Kadalasan, ang dalawang terminong ito ay may kaugnayan sa bawat isa. Pag-aralan natin ang tungkol sa mga pagkakaiba sa pagitan ng mga ordinaryong hindi bababa sa mga parisukat at pinakamataas na posibilidad na mga pagtatantya.

Ang karaniwang hindi bababa sa mga parisukat, o OLS, ay maaari ding tawaging linear na hindi bababa sa mga parisukat. Ito ay isang paraan para sa tinatayang pagtukoy ng hindi kilalang mga parameter na matatagpuan sa isang linear regression model. Ayon sa mga aklat ng istatistika at iba pang mga online na mapagkukunan, ang ordinaryong hindi bababa sa mga parisukat ay nakuha sa pamamagitan ng pag-minimize sa kabuuang squared vertical distansya sa pagitan ng mga naobserbahang tugon sa loob ng dataset at ang mga tugon na hinuhulaan ng linear approximation. Sa pamamagitan ng isang simpleng formula, maaari mong ipahayag ang resultang estimator, lalo na ang single regressor, na matatagpuan sa kanang bahagi ng linear regression model.

Halimbawa, mayroon kang isang hanay ng mga equation na binubuo ng ilang mga equation na may hindi kilalang mga parameter. Maaari mong gamitin ang ordinaryong paraan ng hindi bababa sa mga parisukat dahil ito ang pinaka karaniwang pamamaraang sa paghahanap ng humigit-kumulang na solusyon sa iyong sobrang tinutukoy na mga sistema. Sa madaling salita, ito ang iyong pangkalahatang solusyon sa pagliit ng kabuuan ng mga parisukat ng mga error sa iyong equation. Ang angkop na data ay maaaring ang iyong pinaka-angkop na application. Sinasabi ng mga pinagmumulan ng online na ang data na pinakamahusay na naaangkop sa ordinaryong hindi bababa sa mga parisukat ay nagpapabawas sa kabuuan ng mga kuwadong natitira. Ang "natitira" ay "ang pagkakaiba sa pagitan ng isang naobserbahang halaga at ang naaangkop na halaga na ibinigay ng isang modelo."

Ang pinakamataas na posibilidad na estimation, o MLE, ay isang paraan na ginagamit sa pagtantya sa mga parameter ng isang istatistika ng modelo, at para sa angkop na istatistika ng modelo sa data. Kung nais mong mahanap ang sukat sa taas ng bawat manlalaro ng basketball sa isang partikular na lokasyon, maaari mong gamitin ang maximum na posibilidad na kuru-kuro. Karaniwan, makakaranas ka ng mga problema tulad ng gastos at oras na limitasyon. Kung hindi mo kayang sukatin ang lahat ng mga manlalaro ng basketball, ang pinakamataas na posibilidad sa pagmamantini ay magiging magaling. Gamit ang maximum estimation ng posibilidad, maaari mong tantiyahin ang ibig sabihin at pagkakaiba ng taas ng iyong mga paksa. Itatakda ng MLE ang ibig sabihin at pagkakaiba bilang mga parameter sa pagtukoy sa mga partikular na parametric na halaga sa isang ibinigay na modelo.

Upang ibilang ito, ang maximum na posibilidad na kinalkula ay sumasaklaw sa isang hanay ng mga parameter na maaaring magamit para sa predicting ang data na kinakailangan sa isang normal na pamamahagi. Ang isang ibinigay, naayos na hanay ng data at ang posibilidad na modelo ay malamang na makagawa ng hinulaang data. Ang MLE ay magbibigay sa amin ng isang pinag-isang diskarte pagdating sa pagtatantya. Ngunit sa ilang mga kaso, hindi namin maaaring gamitin ang maximum na posibilidad na kuru-kuro dahil sa kinikilalang mga error o ang problema ay talagang hindi umiiral sa katotohanan.

Para sa karagdagang impormasyon tungkol sa OLS at MLE, maaari kang sumangguni sa mga istatistikang aklat para sa higit pang mga halimbawa. Online na ensiklopedya Ang mga website ay din magandang pinagkukunan ng karagdagang impormasyon.

Buod:

  1. Ang ibig sabihin ng "OLS" ay "ordinaryong hindi bababa sa mga parisukat" habang ang "MLE" ay kumakatawan sa "maximum estimation."

  2. Ang karaniwang hindi bababa sa mga parisukat, o OLS, ay maaari ding tawaging linear na hindi bababa sa mga parisukat. Ito ay isang paraan para sa tinatayang pagtukoy sa hindi kilalang mga parameter na matatagpuan sa isang linear regression model.

  3. Ang pinakamataas na posibilidad na kinalkula, o MLE, ay isang paraan na ginagamit sa pagtantya sa mga parameter ng isang istatistika ng modelo at para sa angkop na istatistika ng modelo sa data.