Skip to content

Latest commit

 

History

History
244 lines (149 loc) · 10.8 KB

学习笔记:神经网络与深度学习.md

File metadata and controls

244 lines (149 loc) · 10.8 KB

目录

学习笔记:神经网络与深度学习

学习笔记:神经网络与深度学习

摘要 目录

第一周:深度学习概论 目录

什么是神经网络 目录

用神经网络进行监督学习 目录

深度学习兴起的原因 目录

第二周:神经网络基础 目录

二分分类及符号约定 目录

logistic回归 目录

logistic回归损失函数 目录

损失函数优化方法:梯度下降法 目录

导数基础知识 目录

计数图与计数图导数 目录

微积分链式法则

logistic回归中的梯度下降法 目录

只考虑一个样本时

考虑m个样本时

向量化技术 目录

用向量化方法优化logistic回归中的第二个for循环

向量化 logistic 回归 目录

Python/numpy 向量的说明 目录

logistic 回归成本函数证明 目录

第三周:浅层神经网络 目录

神经网络概览 目录

神经网络表示 目录

计算神经网络的输出 目录

多个例子的向量化 目录

激活函数 目录

为什么需要非线性激活函数 目录

只有一个地方可以使用线性激活函数,就是如果你要机器学习的是回归问题,在输出层可以使用线性激活函数。

激活函数的导数 目录

神经网络的梯度下降法 目录

随机初始化 目录

第四周:深层神经网络 目录

深层神经网络与符号约定 目录

深层网络中的前向传播 目录

使用深层网络的原因 目录

前向和反向传播模块 目录

超参数 目录

补充笔记 目录

*1. logistic regression的梯度/导数推导 目录

*2. tanh函数表达式的由来 目录