sklearn中的广义线性模型

模型的通用公式

其中$w=(w_1,\dots,w_p)$ 作为coef_;$w_0​$作为intercepr_

阅读更多 >>

集成学习算法总结

集成学习算法

使用多个分类器提高整体的泛化能力

1.Bagging(Bootstrap Aggregating)算法

通过组合随机生成的训练集而改进分类的集成算法(bootstrap)

阅读更多 >>

信息论的一些基本概念

信息熵

其中$P$ 为$X$的概率质量函数,$E$为期望函数,而$I(x)$是$X$ 的信息量(又称自信息).

阅读更多 >>

mathjax配置问题

使用hexo时,想要实现网页中公式的渲染
发现不管怎么改,都不能渲染单行公式
最后发现是在mathjax的2.3版本以后,配置方法变了

mathjax的配置方法

一般网上大部分的mathjax的配置如下

阅读更多 >>

pytorch使用和损失函数

激励函数

#激活函数
x=np.arange(-12.5,12.5,0.05)
tanh = (np.power(np.e,x)-np.power(np.e,-x))/(np.power(np.e,x)+np.power(np.e,-x))

阅读更多 >>

常见损失函数

1.损失函数

损失函数是指一种将一个事件(在一个样本空间中的一个元素)映射到一个表达与其事件相关经济成本机会成本的实数上的一种函数,较常运用在统计学统计决策理论经济学中。损失函数参数的真值为(θ),决策的结果为d ,两者的不一致会带来一定的损失,这种损失是一个随机变量,用L(θ,d)表示。

阅读更多 >>

神经网络中的前向传播与后向传播

img

$f(z)$为激励函数,关于激励函数(又称激活函数)的总结
隐藏层1输入

隐藏层1输出

阅读更多 >>

深度学习中Keras vs Pytorch

深度学习框架Keras与Pytorch的区别与优劣翻译
img

阅读更多 >>

优化算法总结

AdaGrad(Adaptive Gradient)自适应梯度

阅读更多 >>

Python中遇到的问题

1.列表的初始化

当初始化一个n×n的列表时不能使用如下方法,

In [1]: l=[[0]*3]*3 #如此初始化会导致其它行仅是第一行的引用而不是copy

阅读更多 >>