归档

2019 年 09 月

本文记录了一次在Arch Linux与Windows 10双系统环境下,因Windows更新和修复导致GRUB引导丢失的修复过程。作者在尝试多种方法失败后,最终通过在`grub-install`命令中添加`--removable`参数,或手动将GRUB文件移动到缺省/后备启动路径(EFI/BOOT/BOOTX64.EFI),成功解决了引导卡在`GRUB _`闪烁的问题,恢复了系统启动。

2019 年 08 月

本文概述了一种结合深度学习进行中文分词和词性标注的方法。其核心流程是:先将字转换为字向量,通过窗口方法获得包含上下文信息的向量,再经过神经网络层得到每个字的标签得分。模型引入了标签间的转移分数,并使用维特比(Viterbi)算法在全局上寻找最优的标签序列路径,通过最大化对数似然函数进行端到端的训练。

2019-08-22

本文介绍了Web本体语言(OWL)的基础知识。内容涵盖了OWL的基本元素,如类、个体和属性,并解释了其与RDF的关系。文章还详细介绍了RDF的多种��列化方法,包括RDF/XML、N-Triples、Turtle、RDFa和JSON-LD,并以RDF/XML和Turtle为例展示了具体的语法格式和使用方法,为理解语义网技术提供了入门指导。
本文概述了scikit-learn库中的多种广义线性模型。内容从普通最小二乘法(LinearRegression)开始,依次介绍了岭回归(Ridge)、Lasso回归、多任务Lasso(MultiTaskLasso���、弹性网络(ElasticNet)以及多任务弹性网络(MultiTaskElasticNet)。文章对每种模型的目标函数进行了数学公式的展示,并解释了关键参数(如α���ρ)的作用,为理解和选择线性模型提供了清晰的指导。
本文总结了集成学习中的几种核心算法。内容主要介绍了Bagging(如随机森林)和Boosting(如AdaBoost)两大类方法的思想和区别。此外,还详细阐述了梯度提升(Gradient Boosting)算法的原理和步骤,并点明了随机森林、提升树和GBDT等模型分别是Bagging或Boosting与决策树结合的产物,为理解集成学习提供了清晰的框架。
本文简明扼要地介绍了信息论中的几个核心基本概念。内容涵盖了信息熵、条件熵、信息增益、基尼系数(基尼不纯度)、信息增益比率、分裂信息、边界熵以及边界多样性(Accessor Variety, AV)的定义和数学公式。这些概念是机器学习,特别是决策树和自然语言处理中进行特征选择和模型评估的基础。

2019-08-10

本文解决了在使用Hexo时MathJax无法正确渲染单行公式的问题。文章指出,MathJax自2.3版本后配置方式发生变化,旧的`MathJax.Hub.Config`配置不再适用。文中提供了新的配置方法,即使用`window.MathJax`对象进行设置,并提及了解决Hexo默认转义问题的方法,确保公式能正确显示。

2019 年 07 月

2019-07-26

本文总结了PyTorch框架中的常用操作和损失函数。内容首先介绍了激活函数和BatchNorm2d等层,以及`normalize`, `cat`, `stack`等张量操作。接着,详细列举并解释了多种损失函数,如L1Loss, MSELoss, CrossEntropyLoss, NLLLoss, BCELoss, HingeEmbeddingLoss, CosineEmbeddingLoss等,并给出了它们的数学公式,为PyTorch使用者提供了全面的参考。

2019-07-21

本文介绍了机器学习中常见的几种损失函数。内容包括0-1损失函数、平方损失函数、绝对损失函数以及对数损失函数(或称对数似然损失函数),并给出了它们的数学表达式。此外,文章还引入了风险函数的概念,即损失函数的期望值,并区分了经验风险和结构风险,为理解模型评估和优化提供了基础。
本文详细阐述了神经网络中的前向传播和后向传播算法。文章首先通过数学公式清晰地描述了数据在多层神经网络中逐层前向传播的过程。接着,重点推导了后向传播的核心,即如何计算每一层的误差项(δ),并利用链式法则得出了损失函数对权重(W)和偏置(b)的偏导数计算公式,最后给出了参数更新的完整步骤。
上一页 下一页