冰化了还有棍儿

冰化了还有棍儿

永远年轻,永远在路上

机器学习概论

NFL定理

No Free Lunch Theorem:天下没有免费的午餐

我们计算一个学习算法\(\mathcal{L}_a\)的“训练集外误差”,有 \[ \begin{aligned} E_{ote}(\mathcal{L}_a|X,f)=\sum_{h}\sum_{x\in\mathcal{X}-X}P(x)\mathbb{I}(h(x)\ne f(x))P(h|X,\mathcal{L}_a) \end{aligned} \]

如果对于所有真实目标函数\(f\)求和,则有 \[ \begin{aligned} \sum_f E_{ote}(\mathcal{L}_a|X,f)&=\sum_f\sum_h\sum_{x\in \mathcal{X}-X}P(x)\mathbb{I}(h(x)\ne f(x))P(h|X,\mathcal{L}_a)\\ &=\sum_{x\in\mathcal{X}-X}P(x)\sum_hP(h|X,\mathcal{L}_a)\sum_f\mathbb{I}(h(x)\ne f(x))\\ &=\sum_{x\in \mathcal{X}-X}P(x)\sum_hP(h|X,\mathcal{L}_a)\frac{1}{2}2^{|\mathcal{X}|}\\ &=\frac{1}{2}2^{|\mathcal{X}|}\sum_{x\in \mathcal{X}-X}P(x)\sum_hP(h|X,\mathcal{L}_a)\\ &=\frac{1}{2}2^{|\mathcal{X}|}\sum_{x\in \mathcal{X}-X}P(x)\\ \end{aligned} \] 我们可以看到,总误差与学习算法无关,也就是说,对于任意两个学习算法\(\mathcal{L}_a\)\(\mathcal{L}_b\),无论看上去\(\mathcal{L}_a\)多复杂,多聪明,在期望的意义下,他们的性能是相同的。(也就是说,随便瞎猜和复杂推导一样,不学了 (*`皿´*)ノ )


尝试证明AUC计算公式

配置hexo博客,并更换多种主题

hexo博客的基本维护方式

搭建过程可参考hexo博客搭建教程

hexo提供了便捷的构建、部署功能。在本地添加了新的markdown日志或者图片之后,只需执行如下代码:

1
2
3
4
5
6
# 清除已有的构建目录,默认为public
hexo clean
# 构建新的静态文件,g是generate的缩写
hexo g
# 一条命令直接部署,d是deploy的缩写
hexo d

就会把本地的public文件夹push到对应的github仓库,并将网站自动部署到 {github用户名}.github.io

此外,如果想要维护本地源文件,还可以单独创建一个私有github仓库,用于存放source文件中的源文件等等。

欢迎来到我的博客!

这是我的第一篇博客

以后会经常在这里记录一些我的学习经历

包括各种技术的踩坑之旅

加油

頑張って!

avatar
LULU
欢迎欢迎😁