1. 深度学习导论

导论和简介的基础知识和路径。
在这里插入图片描述
深度学习的各项涵盖范围:深度学习MLPs,然后是机器学习、逻辑回归,知识基础等等
在这里插入图片描述
1)连结+神经网络等等:Cybernetics控制论,Connectionism连结主义,Neural Networks神经网络等
其中,控制论是研究动态系统如何通过反馈机制实现自我调节和控制的跨学科领域,核心关注信息、控制和通信在生物、机器和社会系统中的流动。
Connectionism(联结主义)是一种基于神经网络模拟智能的理论框架,认为认知功能源于简单单元(神经元)之间的连接权重调整。关键思想分布式表征、学习即权重调整、受生物启发。
与Cybernetics的关系。控制论提供系统层面的框架(如反馈),联结主义是其具体实现之一。
两者都关注适应性,但联结主义更侧重可学习的网络结构。
神经网络:神经网络是联结主义的具体计算模型,由多层互联的“神经元”组成,通过数学运算模拟信息处理。
关键特点
层级结构:输入层、隐藏层、输出层
激活函数:决定神经元是否激活(如ReLU、Sigmoid)
训练算法:如反向传播(Backpropagation)
在这里插入图片描述

1.1 数学基础

  1. 线性代数
    1) L p L_p Lp距离( L p d i s t a n c e L_p distance Lpdistance对于两个向量 x = ( x 1 , . . . , x n ) x=(x_1, ...,x_n) x=(x1,...,xn) y = ( ) y=() y=()
    L_p距离衡量的是两个点在n维空间中的“距离”,不同的 p 值对应不同的距离衡量方式。
    L p ( x i , x j ) = ∥ m n ∥ p = ( ∑ i = 1 n ∣ x i ( l ) − x j ( i ) ∣ p ) 1 / p L_p(x_i, x_j)=\begin{Vmatrix} m & n\end{Vmatrix}_p=(\sum^n_{i=1}|x^{(l)}_i-x^{(i)}_j|^p)^{1/p} Lp(xi,xj)=mnp=(i=1nxi(l)xj(i)p)1/p$
    其中, x i ∈ R n x_i\in\mathbb{R^n} xiRn x j ∈ R n x_j\in\mathbb{R^n} xjRn,其中 L ∞ L_\infty L定义为: L ∞ ( x i , x j ) = m a x l ∣ x i ( l ) − x j ( l ) ∣ L\infty(x_i, x_j)=max_l|x^{(l)}_i-x^{(l)}_j| L(xi,xj)=maxlxi(l)xj(l)
    2) L 1 L_1 L1范数(Manhattan Distance / 曼哈顿距离)
    特点:计算的是各维度差值绝对值的和。
    几何意义:在网格状道路(如曼哈顿街区)中,从A点到B点需要走过的实际路径长度(只能横平竖直走)
    当p=1时,L_p距离变为 L_1范数(也叫曼哈顿距离)
    ∥ m n ∥ 1 = \begin{Vmatrix} m & n\end{Vmatrix}_1 = mn1=
    应用场景:
    a. 鲁棒性要求高的场景:数据中存在异常值(离群值)
    3) L 2 L_2 L2范数
    特点 L 2 d e f i n e s a s s u m i n ( x i ) 2 L_2\, defines \, as \sqrt {sum^n_i(x_i)^2} L2definesassumin(xi)2 ,其中 x = [ x 1 , x 2 . . . , x n ] T , x ∈ R x=[x_1,x_2...,x_n]^T, x\in\mathbb{R} x=[x1,x2...,xn]T,xR
    几何意义
    在这里插入图片描述
    4)PCA(Principal component analysis;主成分分析技术)
    数据降维方式,将n维数据降低到指定的K维。数据降维有以下优点:
    假设在 R n \mathbb{R}^n Rn中有 m m m个点{ x ( 1 ) , . . . , x ( n ) x^{(1)}, ..., x^{(n)} x(1),...,x(n)},希望对点进行有损压缩-使用更少的内存但损失精度去存储这些点。
    在这里插入图片描述
    编码这些点的方式是用低维表示,则对于每个点 x ( i ) ∈ R l x^{(i)}\in\mathbb{R^l} x(i)Rl,若 l l l n n n小,则使用了更少的内存来存储原来的数据。希望找到一个编码函数,根据输入返回编码, f ( x ) = c f(x)=c f(x)=c;也希望找到解码函数,给定编码重构输入, x ≈ g ( f ( x ) ) x≈g(f(x)) xg(f(x))
    PCA由选择的解码函数而定,为了简化解码器,使用矩阵乘法映射回 R n \mathbb{R}^n Rn,即 g ( c ) = D c g(c)=Dc g(c)=Dc,其中 D ∈ R n x 1 D\in\mathbb{R}^{nx1} DRnx1是定义解码的矩阵。
    5)特征分解(eigendecomposition)是使用最广的矩阵分解之一,即将矩阵分解成一组特征向量和特征值
    方阵A的特征向量(eigenvector)是值与A相乘后对该向量进行压缩的非零向量 v v v A v = λ v Av=\lambda v Av=λv
    标量 λ \lambda λ被成为这个特征向量的特征值(evgenvalue,类似定义左特征向量(left eigenvector),有 v T A = λ v T v^{T}A=\lambda v^{T} vTA=λvT
    v v v A A A的特征向量,那么缩放后的向量 s v ( s ∈ R , s ) sv(s\in\mathbb{R},s) sv(sR,s)
  2. 概率论和信息理论基础
    1)概率论是用于表示不确定性声明的数学框架,不仅提供了量化不确定性的方法,也提供了用于导出新的不确定声明(statement)的公理
    2)联合概率:包含多个条件且所有条件同时成立的概率,记作$P{X=a}$
    3)基础概率论知识:
    KaTeX parse error: Expected 'EOF', got '}' at position 18: …x;\mu, \sigma^2}̲ = \sqrt1/()
    4)
  3. 机器学习基础
  4. 数据计算

1.2 深度学习基础

分类基础:包括分类(决策树Decision Tree,K近邻)、集群、回归(逻辑回归logistic Regression、SVM)、降维
1)决策树
2)K近邻
T = ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) T = {(x_1, y_1),(x_2, y_2), ..., (x_N, y_N)} T=(x1,y1),(x2,y2),...,(xN,yN)
其中, x i x_i xi
3)
在这里插入图片描述

  1. 深度前馈神经网络
    在这里插入图片描述其中,常用的激活函数有 Sigmoid函数、双曲正切激活函数(tanh)、修正线性单元(ReLU)等。
    梯度消失指在神经网络反向传播过程中梯度值逐渐减小趋近于零,导致靠近输入层的参数更新缓慢或停滞;梯度爆炸则指梯度值迅速增大呈指数级增长,导致参数更新剧烈震荡甚至训练失败。
    1)Sigmoid函数
    单调增函数: Sigmoid函数是单调增函数,输出范围在[0,1]之间,且越是负向增大,越接近于0
    Sigmoid函数会造成梯度消失问题,从图像中我们也可以得知,当输入特别大或是特别小时,神经元的梯度几乎接近于0,这就导致神经网络不收敛
    由于输出不以0为均值,导致转入下一层的输入非0。导致了若 Sigmoid函数的输出全部为正数,那么传入下一层神经网络的值永远大于0,这时参数无论怎么更新梯度都为正。正是基于上述的缺点, Sigmoid函数近年来的使用频率也在渐渐减弱。
    2)Tanh函数又名双曲正切激活函数
    是 Sigmoid函数的变形,其数学表达式为: t a n h ( x ) = s i n h ( x ) / c o s h ( x ) = ( e x − e ( − x ) ) / ( e x + e ( − x ) ) tanh(x)=sinh(x)/cosh(x)=(e^x-e^(-x))/(e^x+e^(-x)) tanh(x)=sinh(x)/cosh(x)=(exe(x))/(ex+e(x)),函数图像如图3-9所示:
    在这里插入图片描述
    3)修正线性单元ReLU
    ReLU激活函数又名修正线性单元,是目前深层神经网络中越来越受欢迎的一种激活函数,其数学表达式为:f(x) = max(0,x),函数图像如下图所示
    在这里插入图片描述
    相比于上述的 Sigmoid和tanh两种激活函数,ReLU激活函数完美的解决了梯度消失的问题,因为它的线性的、非饱和的
    但是ReLU激活函数也有一些缺陷:训练的时候不适合大梯度的输入数据,因为在参数更新之后,ReLU的神经元不会再任何数据节点被激活,这就会导致梯度永远为0。比如:输入的数据小于0时,梯度就会为0,这就导致了负的梯度被置0,而且今后也可能不会被任何数据所激活,也就是说ReLU的神经元“坏死”了。
    所以针对ReLU函数上述的缺点,又出现了带泄露的ReLU(Leaky ReLU)和带参数的ReLU(Parametric ReLU)
    Leaky ReLU是ReLU激活函数的变形,主要是针对ReLU函数中神经元容易坏死的缺陷,将原点左侧小于0的部分,赋予一个很小的斜率。其效果通常要好于ReLU激活函数,但实践中使用的频率并没有那么高。数据公式为:f(x) = max(0, x) + γmin(0, x)。通常,γ是一个很小的常数,如:0.01。
    4)其他激活函数: Leaky ReLU是ReLU激活函数的变形,主要是针对ReLU函数中神经元容易坏死的缺陷,将原点左侧小于0的部分,赋予一个很小的斜率。其效果通常要好于ReLU激活函数,但实践中使用的频率并没有那么高。数据公式为:f(x) = max(0, x) + γmin(0, x)。通常,γ是一个很小的常数,如:0.01
    在这里插入图片描述
  2. 正则化
    1)神经网络的正则化是通过在模型训练过程中添加约束或惩罚项来防止过拟合,提高模型泛化能力的技术
    2)
  3. 优化
  4. CNN
  5. RNN
  6. 粒子算法
  7. 应用相关

1.3 深度学习研究

  1. 线性工厂模型Linear Factor Models
  2. 自动代码AutoCodes

参考文献:
[1] 深度学习“花书”啃书指导视频!
[2]一文带你读懂激活函数

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/pingmian/87901.shtml
繁体地址,请注明出处:http://hk.pswp.cn/pingmian/87901.shtml
英文地址,请注明出处:http://en.pswp.cn/pingmian/87901.shtml

如若内容造成侵权/违法违规/事实不符,请联系英文站点网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

sql-labs(11-12)-万能密码登录

sql-labs(11-12)万能密码登录 第十一关: 这关是一个登陆口,也是一个sql注入的漏洞,也就是常说的万能密码。 在输入框账号密码种分别输入 1’ 和1’ 页面会报错。后台使用的单引符号进行的拼接。账号输入1’ or ‘1’‘1 密码输入 1’ or …

MsSql 其他(2)

✨✨✨✨✨✨✨✨✨✨✨✨✨✨✨Mysql中的MVCC 一、MVCC 的核心目标与设计背景 MVCC(Multi-Version Concurrency Control,多版本并发控制) 是 InnoDB 存储引擎为实现高并发事务处理而设计的核心机制。其核心目标是:在不牺牲事务隔…

解决本地部署n8n,域名访问为什么一直有connection lost的报错

问题:本地部署的n8n服务用IP访问一切都正常,但是使用域名后报错connection lost思路:首先怀疑是ngnix配置问题或者是docker中的环境问题查看docker logsOrigin header does NOT match the expected origin. (Origin: "nxxx.online:1181&…

传统架构开发VS PREEvision:一场效率与可靠性的降维打击

当前,整车功能数量激增,意味着需要更庞大的整车数据库、更复杂的硬件传感器与执行器网络、更密集的跨系统交互接口以及更难以预测的耦合效应。这样一来,单一功能的微小改动,可能会因复杂的依赖关系而引发意想不到的连锁反应&#…

深度学习基础1

一、张量 张量其实就是数组,不过是在深度学习中是这样的叫法 1.张量的创建 (1)基本创建方式 torch.tensor():根据指定数据创建张量 import torch import numpy as np """创建张量标量""" data to…

力扣网编程274题:H指数之普通解法(中等)

一. 简介 本文记录力扣网上涉及数组,排序方面的编程题:H指数。 二. 力扣网编程274题:H指数(中等) 给你一个整数数组 citations ,其中 citations[i] 表示研究者的第 i 篇论文被引用的次数。计算并返回该研…

iptables防火墙,多IP环境下, 指定某个目的IP地址通过某个本地IP访问,策略路由!

需求在CentOS 7.9中,若需从特定源IP(10.0.0.3)访问目标网段 1.1.1.0/24方法一:策略路由(支持网段)1. 创建自定义路由表# 添加名为custom_table的路由表(ID200) echo "200 custo…

数字孪生技术引领UI前端设计新趋势:数据可视化与交互设计的深度融合

hello宝子们...我们是艾斯视觉擅长ui设计、前端开发、数字孪生、大数据、三维建模、三维动画10年经验!希望我的分享能帮助到您!如需帮助可以评论关注私信我们一起探讨!致敬感谢感恩!一、引言:数字孪生驱动 UI 设计的范式革新在大数据与三维可视化技术爆发的今天&…

【机器学习笔记 Ⅱ】6 激活函数

激活函数是神经网络的核心组件,其作用远不止“引入非线性”。以下是系统化的解析:1. 核心作用 (1) 引入非线性没有激活函数:多层神经网络等价于单层线性变换(矩阵连乘仍是线性)。加入激活函数:每层通过非线…

AI无标记动捕如何结合VR大空间技术打造沉浸式游戏体验

随着数字科技的迅猛发展,VR大空间技术正逐步成为各行业探索沉浸式体验的重要方向。在VR游戏领域,市场对于高度沉浸式体验的需求日益增长,而传统VR游戏主要依赖手柄和基础体感进行交互,而在VR大空间中,用户可以通过全身…

Qt智能指针

在 Qt 框架中,智能指针用于自动管理对象的生命周期,防止内存泄漏。以下是 Qt 中主要的智能指针及其用法详解:1. QScopedPointer作用:独占所有权,超出作用域时自动释放对象(类似 std::unique_ptr&#xff09…

408第三季part2 - 计算机网络 - 信道利用率

理解t1是发送帧的传输时间t2是确认帧的传输时间中间是传播过程这整个过程就是发送周期任何题目会有以下几种情况题目这里数据帧和确认帧长度是一样的t1 t2然后把t1的传输数据算出来然后传播是0.2sd停止等待 k1确认帧忽略t2 0t1算好后,求数据帧的长度下面是速率&…

Android framework 开发者模式下,如何修改动画过度模式

Android framework 开发者模式下, 如何修改动画过度模式 开发者模式下,动画过度 模式1.0→0.5,按如下方式修改。 开发云 - 一站式云服务平台 .../core/java/com/android/server/wm/WindowManagerService.java | 8 ---- 1 file changed, …

win11安装paddlelabel并创建目标检测项目

创建虚拟环境 conda create -n paddlelabel python3.11.11 conda activate paddlelabel通过以下命令安装 pip install --upgrade paddlelabel输入命令pdlabel运行paddlelabel,发现报错: ModuleNotFoundError: Please install connexion using the flask …

关于Novatek B/G-R/G白平衡色温坐标系再探究

目录 一、准备知识 二、色温坐标系的构建 三、Novatek白平衡色温坐标系的再探究 2.1 直线白点框 2.2双曲线白点框 四、仿真代码 之前写的一篇博文关于联咏(Novatek )白平衡色温坐标系探究-CSDN博客感觉逻辑上有些混乱,这个周末我又好好思考了下,以…

基于路径质量的AI负载均衡异常路径检测与恢复策略

AI流量往往具有突发性、大象流(大规模数据流)占比高的特点,极易造成网络拥塞热点。一条质量不佳(如高延迟、高丢包、带宽受限)的路径,不仅自身无法有效传输数据,如果ECMP继续向其分发流量&#…

ubuntu22.04 安装cuda cudnn

1.输入nvidia-smi查看可以支持安装的cuda最大版本 2.cuda与cudnn版本的选择 核心原则 向下兼容性:较新的 cuDNN 通常兼容旧版 CUDA,但反之不成立 框架依赖:优先考虑深度学习框架(TensorFlow/PyTorch)的版本要求 硬件…

5、Receiving Messages:Message Listener Containers

提供了两个MessageListenerContainer实现: KafkaMessageListenerContainer ConcurrentMessageListener容器 KafkaMessageListenerContainer在单个线程上接收来自所有主题或分区的所有消息。ConcurrentMessageListenerContainer委托给一个或多个KafkaMessageListe…

JDBC 注册驱动的常用方法详解

JDBC 注册驱动的常用方法详解 在 JDBC 中,注册驱动是建立数据库连接的第一步。以下是几种常用的驱动注册方式: 1. 显式类加载(传统方式) // 通过 Class.forName() 加载驱动类 Class.forName("com.mysql.cj.jdbc.Driver&qu…

插入数据优化

目录 一.插入数据优化 1.insert语句优化 ①批量插入 ②手动提交事务 ③主键顺序插入 2.大批量插入数据(100万条) 举例 第一步:连接数据库时,加上--local-infile属性 第二步:查看全局参数local_infile的值&…