发现自己线性代数完全忘光了,导致仿射变换、几何变换难以理解,于是在 2021 年 1 月开始重新学习高数集合、极限、线性代数相关知识,学完再回头研究仿射变换、透视变换;1. 2021 年 4 月学习空间变换,发现自己图像处理基础知识太弱,理解相关知识太困难,为此从 4 月开始学习冈萨雷斯的《数字图像处理》,在学习到《数字图像处理》直方图处理概念时,发现需要导数和微积分的知识,于是 2021 年 6 月重头学习导数、微分、不定积分、定积...
卷积层是神经网络中独特的网络机制,卷积目的是对图像进行特征提取,具有局部感知机制和权值共享的两个特性,因为卷积实质可以理解为一个滑动窗口(卷积核)翻转之后在特征图上滑动并进行加乘计算,因此具有局部感知机特... 输入神经元 X 通常通过线性计算 Z=WTX+b 得到净输入信号 Z,其中 W 是输入神经元 X 的权值矩阵,b 是对应的偏置矩阵,净输入信号 Z 是一个连续值,而类别是离散值,因此通过激活函数判断输出神经元是否会被激活并输出相...
目前互联网已经进入了AI驱动业务发展的阶段,传统的机器学习开发流程基本是以下步骤:数据收集->特征工程->训练模型->评估模型效果->保存模型,并在线上使用训练的有效模型进行预测。这种方式主要存在两个瓶颈:模... 最好是有解析解。1. 代理损失函数求得的解,和原函数的解的差距越小越好为了衡量条件2中的两个解的差距,引入regret的概念。如果一个在线学习算法可以保证其 regret 是 t 的次线性函数,那么随着训练样本的增多,在...