阿贝多
玩原神的时候被阿贝多的美貌感动到了,想当阿贝多的狗😍
作者:柯柯,软院小仙男
人物:阿贝多——原神
是收获满满的一天,希望自己能够坚持下来!加油!
No Free Lunch Theorem:天下没有免费的午餐
我们计算一个学习算法\(\mathcal{L}_a\)的“训练集外误差”,有 \[ \begin{aligned} E_{ote}(\mathcal{L}_a|X,f)=\sum_{h}\sum_{x\in\mathcal{X}-X}P(x)\mathbb{I}(h(x)\ne f(x))P(h|X,\mathcal{L}_a) \end{aligned} \]
如果对于所有真实目标函数\(f\)求和,则有 \[
\begin{aligned}
\sum_f E_{ote}(\mathcal{L}_a|X,f)&=\sum_f\sum_h\sum_{x\in
\mathcal{X}-X}P(x)\mathbb{I}(h(x)\ne f(x))P(h|X,\mathcal{L}_a)\\
&=\sum_{x\in\mathcal{X}-X}P(x)\sum_hP(h|X,\mathcal{L}_a)\sum_f\mathbb{I}(h(x)\ne
f(x))\\
&=\sum_{x\in
\mathcal{X}-X}P(x)\sum_hP(h|X,\mathcal{L}_a)\frac{1}{2}2^{|\mathcal{X}|}\\
&=\frac{1}{2}2^{|\mathcal{X}|}\sum_{x\in
\mathcal{X}-X}P(x)\sum_hP(h|X,\mathcal{L}_a)\\
&=\frac{1}{2}2^{|\mathcal{X}|}\sum_{x\in \mathcal{X}-X}P(x)\\
\end{aligned}
\]
我们可以看到,总误差与学习算法无关,也就是说,对于任意两个学习算法\(\mathcal{L}_a\),\(\mathcal{L}_b\),无论看上去\(\mathcal{L}_a\)多复杂,多聪明,在期望的意义下,他们的性能是相同的。(也就是说,随便瞎猜和复杂推导一样,不学了
(*`皿´*)ノ )
搭建过程可参考hexo 博客搭建教程。
hexo 提供了便捷的构建、部署功能。在本地添加了新的 markdown 日志或者图片之后,只需执行如下代码:
1 | 清除已有的构建目录,默认为public |
就会把本地的 public 文件夹 push 到对应的 github
仓库,并将网站自动部署到 {github用户名}.github.io
。
此外,如果想要维护本地源文件,还可以单独创建一个私有 github 仓库,用于存放 source 文件中的源文件等等。