本文记录了Vim中的一些实用命令,重点介绍了代码折叠功能。文章列举了Vim支持的六种折叠方式,并详细说明了如何配置和使用基于缩进(indent)的折叠。内容包括全局和单行折叠的开关命令(如`zm/zr`, `zc/zo`)以及在折叠代码间快速移动的快捷键。
本文介绍了如何让终端流量走代理。核心方法是通过设置`http_proxy`和`https_proxy`等环境变量。文章还提供了一个在`.zshrc`中创建`setproxy`和`unsetproxy`别名以方便切换代理的技巧,并讨论了v2ray代理中`socks`与`socks5`设置可能引发的`curl`解析错误问题。
本文介绍了Hugging Face��Transformers库,一个强大的Python库,提供了BERT���GPT-2等多种预训练模型用于NLU和NLG任务。文章概述了该库的特点,列举了其支持的多种主流模型,并详细说明了库的核心使用方法,包括模型(Model)、配置(Config)和分词器(Tokenizer)三个主要类。最后通过一个BERT的实例,展示了如何加载模型、处理文本输入以及进行预测。
本文是一篇关于机器学习评估指标的学习笔记。内容分为两部分:第一部分详细介绍了分类任务中常用的评估指标,包括准确率、精确率、召回率以及它们的调和均值F1分数。第二部分则聚焦于自然语言处理领域的序列评估指标,讲解了用于机器翻译的BLEU和用于自动摘要的ROUGE(特别是ROUGE-N和ROUGE-L)的计算方法和核心思想。
本文详细推导了在多分类问题中,结合Softmax激活函数和交叉熵损失函数的反向传播过程。文章从定义Softmax和交叉熵损失开始,逐步计算了损失对网络输出的偏导,以及Softmax函数对其输入的偏导(雅可比矩阵)。最终通过链式法则,得出了一个简洁而优美的结论:损失对Softmax层输入的梯度等于模型的预测概率与真实标签之差(ŷ - y)。
本文简要介绍了矩阵微积分中的两种基本求导运算。第一种是标量对向量求导,其结果是一个行向量,包含了该标量对向量中每个元素求偏导数的值。第二种是向量对向量求导,其结果是一个雅可比(Jacobian)矩阵,矩阵的每一列是输出向量中的一个分量对输入向量求导的结果。文章明确了求导结果的维度和布局约定。
本文记录了一次解决Linux系统下Nvidia显卡驱动错误的经历。在使用`bumblebee`进行双显卡切换时,`optirun`命令报错“Failed to load module "nouveau"”。作者通过修改`/etc/bumblebee/xorg.conf.nouveau`文件,取消对`BusID`的注释并正确指定显卡PCI地址,最终成功禁用了nouveau开源驱动,并加载了nvidia专有驱动。
本文主要介绍了基于统计的中文分词方法。首先讲解了N-gram语言模型(一元、二元、三元)的基本原理。接着,重点阐述了隐马尔可夫模型(HMM)在分词中的应用,详细定义了HMM的五个核心参数,并概述了其三大基本问题:概率计算、学习问题和解码问题,以及对应的算法(前向后向、鲍姆-韦尔奇、维特比),最后还对比了HMM、MEMM和CRF模型的特点。
本文解读了神经图灵机(Neural Turing Machine, NTM)的核心机制。NTM通过一个外部记忆矩阵增强了神经网络的能力。文章详细介绍了其读、写操作过程,关键在于一个可微的定位向量(addressing vector)。该向量的生成结合了基于内容的寻址(通过余弦相似度)和基于位置的寻址(通过插值、循环卷积偏移和重塑),使得模型能够端到端地学习访问和修改记忆。
本文解读了论文《Edge-Labeling Graph Neural Network for Few-shot Learning》。该方法将小样本分类问题转化为图节点标签预测任务,通过构建一个边标签图来学习样本间的关系。文章介绍了模型的核心思想:利用卷积网络提取特征,构建图结构,并通过图神经网络的邻域聚合框架迭代更新节点和边的特征,最终预测查询样本的类别。