最大似然估计法的用法,其实你一看就懂——就像你调参调到刚好 fit 数据那一下。蛮适合做模型训练或者参数估计时用的,是在做逻辑回归、时间序列这种需要精细拟合的场景里,表现还不错。
MLE(Maximum Likelihood Estimation)的核心思路挺直观:就是找出让你手上这些观测数据最有出现的那个参数。换句话说,就是让似然函数最大。你只要数据靠谱,推出来的估计值基本就不会差到哪儿去。
用法也不复杂,先抽个样本,建个似然函数,比如正态分布的就套公式,用优化方法把参数往最大方向推。要注意几个点,比如不偏性、一致性这种统计性质——要估计得稳,后期才能靠谱。
在工程上,比如你搞线性系统建模、Matlab 里的信号估计,甚至Bootstrap 搞置信区间,MLE 都能上得了场面。而且它对各种分布都能适配,弹性还挺大。
另外,如果你对贝叶斯方法感兴趣,不妨顺带看下对比。贝叶斯会引入先验,MLE 不关心这些,只管找到让当前数据出现概率最大的参数,所以更干脆。实战上,两者也经常搭配使用。
如果你刚开始接触统计建模,推荐你先从 MLE 入手,逻辑清晰、实现简单,用起来也挺有成就感的。顺带附上几个还不错的资源链接,自己研究研究:
如果你模型复杂、分布不明确,可以考虑搭配贝叶斯估计一块用。要是你在做 AI 方向的建模推断,MLE 基本是绕不开的存在。