神经网络基础学习
[TOC]
概述
神经网络基础学习
[TOC]
概述文章参考:https://zh.d2l.ai/chapter_preface/index.html
神经元和感知机神经网络:人脑智慧的物质基础
神经元/神经细胞
突触:神经元之间的连接点
在同一时间被激发的神经元之间的联系会被强化
神经网络设计
单层前馈型神经网络
卷积神经网络学习
[TOC]
概述机器学习:特征工程:尽可能选择与构建出好的特征,使得机器学习算法能够达到最好的性能
传统机器学习:原始数据 –> 特征工程 –> 特征 —>学习器
依靠人工的方式提取和设计特征
需要大量的专业知识和经验
relu函数
Softmax函数
深度学习基础思想深度学习三要素:
数据
算法
计算力
数据量越大、深度学习的优势越明显
大规模深层神经网络需要算法的创新和改进,使得深度学习的性能和速度得到保障
训练大规模深层神经网络,需要强大的计算资源
机器学习中的非极大值抑制原理
[TOC]
概述文章参考:https://www.cnblogs.com/makefile/p/nms.html
文章参考:https://blog.csdn.net/lz867422770/article/details/100019587
文章参考:https://zhuanlan.zhihu.com/p/37489043
非极大值抑制,简称为NMS算法,英文为Non-Maximum Suppression。顾名思义就是抑制不是极大值的元素,可以理解为局部最大搜索。其思想是搜素局部最大值,抑制非极大值。这个局部代表的是一个邻域,邻域有两个参数可变,一是邻域的维数,二是邻域的大小。这里不讨论通用的NMS算法(参考论文《Efficient Non-Maximum Suppression》对1维和2维数据的NMS实现),而是用于目标检测中提取分数最高的窗口的。例如在行人检测中,滑动窗口经提取特征,经分类器分类识别后,每个窗口都会得到一个分数。但是滑动窗口会导致很多窗口与其他窗口存在包含或者大部分交叉的情况。这时就需要用到NMS来选取那些邻域里分数最高(是行人的概率最大),并且抑制那些分数 ...