【简博士统计学习方法】第1章:4. 模型的评估与选择
4. 模型的评估与选择
4.1 训练误差与测试误差
假如存在样本容量为 N N N的训练集,将训练集送入学习系统可以训练学习得到一个模型,我们将这么模型用决策函数的形式表达,也就是 y = f ^ ( x ) y=\hat{f}(x) y=f^(x),关于模型的拟合是否好坏,可以通过训练集计算训练误差进行衡量。而关于模型的预测效果也就是对未知数据预测效果的好坏,可以通过测试集来衡量,我们将测试集里所有的输入都放到预测系统里面,通过训练所得到的模型,就可以计算出一些列的预测值 y ^ i = f ^ ( x i ) \hat{y}_i=\hat{f}(x_i) y^i=f^(xi),这些预测值与真实值的差异就是测试误差,测试误差可以衡量模型它的预测效果。
根据上节课,损失函数符号形式为 L ( Y , f ( X ) ) L(Y,f(X)) L(Y,f(X)).
4.1.1 训练误差
- 学习到的模型: Y = f ^ ( X ) Y=\hat{f}(X) Y=f^(X)
- 训练集(Training Set):
T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) ⋯ , ( x N , y N ) } T=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right) \cdots,\left(x_{N}, y_{N}\right)\right\} T={(x1,y1),(x2,y2)⋯,(xN,yN)}
(即有 N N N个样本) - 训练误差(Training Error):
R e m p ( f ^ ) = 1 N ∑ i = 1 N L ( y i , f ^ ( x i ) ) R_{e m p}(\hat{f})=\frac{1}{N} \sum\limits_{i=1}^{N} L\left(y_{i}, \hat{f}\left(x_{i}\right)\right) Remp(f^)=N1i=1∑NL(yi,f^(xi))
计算了每个样本的损失取平均值(经验损失)
4.1.2 测试误差
- 学习到的模型: Y = f ^ ( X ) Y=\hat{f}(X) Y=f^(X);
- 测试集(Test Set):
T ′ = { ( x 1 ′ , y 1 ′ ) , ( x 2 ′ , y 2 ′ ) ⋯ , ( x N ′ , y N ′ ) } T^{\prime}=\left\{\left(x_{1^{\prime}}, y_{1^{\prime}}\right),\left(x_{2^{\prime}}, y_{2^{\prime}}\right) \cdots,\left(x_{N^{\prime}}, y_{N^{\prime}}\right)\right\} T′={(x1′,y1′),(x2′,y2′)⋯,(xN′,yN′)} - 测试误差(Test Error):
e test = 1 N ′ ∑ i ′ = 1 N ′ L ( y i ′ , f ^ ( x i ′ ) ) e_{\text {test }}=\frac{1}{N^{\prime}} \sum\limits_{i^{\prime}=1}^{N^{\prime}} L\left(y_{i^{\prime}}, \hat{f}\left(x_{i^{\prime}}\right)\right) etest =N′1i′=1∑N′L(yi′,f^(xi′))
测试误差就是对每个样本点计算损失,然后计算损失的平均值。
测试误差的每个样本点都来自于测试集,训练误差的每个样本点都来自于训练集。
4.1.3 误差率与准确率
误差率与准确率是测试误差的两个特例,
- 误差率(Error Rate):
e test = 1 N ′ ∑ i ′ = 1 N ′ I ( y i ′ ≠ f ^ ( x i ′ ) ) e_{\text {test }}=\frac{1}{N^{\prime}} \sum\limits_{i^{\prime}=1}^{N^{\prime}} I\left(y_{i^{\prime}} \neq \hat{f}\left(x_{i^{\prime}}\right)\right) etest =N′1i′=1∑N′I(yi′=f^(xi′))
误差率所采用的损失函数是示性函数,也就是 y i ′ ≠ y_{i^{\prime}}\ne yi′=预测值 f ^ ( x i ′ ) \hat{f}\left(x_{i^{\prime}}\right) f^(xi′)的时候即为1, y i ′ = y_{i^{\prime}}= yi′=预测值 f ^ ( x i ′ ) \hat{f}\left(x_{i^{\prime}}\right) f^(xi′)的时候即为0. 误差率实际上体现的是预测值和真实值不相等的样本点的个数占测试集里样本总个数的比例。 - 准确率(Accuracy):
r test = 1 N ′ ∑ i ′ = 1 N ′ I ( y i ′ = f ^ ( x i ′ ) ) r_{\text {test }}=\frac{1}{N^{\prime}} \sum\limits_{i^{\prime}=1}^{N^{\prime}} I\left(y_{i^{\prime}}=\hat{f}\left(x_{i^{\prime}}\right)\right) rtest =N′1i′=1∑N′I(yi′=f^(xi′))
准确率是真实值与预测值完全相等的样本点占测试集中所有样本点的比例。
【注】 r test + e test = 1 r_{\text {test }}+e_{\text {test }}=1 rtest +etest =1
4.2 过拟合与模型选择
训练误差主要是衡量模型对已知数据的预测能力,而测试误差主要是衡量模型对未知数据的预测能力,在模型选择的时候我们都希望训练误差和测试误差都很小,有的时候训练误差很小,测试误差并不是很小(这也就是过拟合),这里就需要一个平衡。
多项式拟合案例:
生成样本的时候在真实函数的基础上加了一个噪声 ε i \varepsilon_i εi,样本为 y i = sin ( 2 π x i ) + ε i y_i=\sin (2\pi x_i)+\varepsilon_i yi=sin(2πxi)+εi,假设 ε i \varepsilon_i εi是来自于一个正态分布的。将 x i x_i xi取来自 ( 0 , 1 ) (0,1) (0,1)上的10个均匀的点,然后加上噪声 ε i \varepsilon_i εi得到输出 y i y_i yi,图中黑色曲线是真实函数,蓝色的点是10个样本点用来做训练集的。
【注】正态分布:
正态分布(Normal Distribution),也叫高斯分布(Gaussian Distribution),是最常见的一种概率分布,它在自然界和社会现象中广泛存在。正态分布的数学形式非常重要,它不仅在统计学、机器学习中起到基础性作用,还在很多其他领域,如物理学、经济学、工程学等都有广泛应用。
- 正态分布的定义
正态分布是指一种连续型概率分布,其概率密度函数(PDF)具有钟形曲线的形状。它的数学公式为:
f ( x ∣ μ , σ ) = 1 σ 2 π exp ( − ( x − μ ) 2 2 σ 2 ) f(x \mid \mu, \sigma)=\frac{1}{\sigma \sqrt{2 \pi}} \exp \left(-\frac{(x-\mu)^{2}}{2 \sigma^{2}}\right) f(x∣μ,σ)=σ2π1exp(−2σ2(x−μ)2)
其中:
- μ \mu μ是正态分布的均值(Mean),表示数据的中心位置。
- σ \sigma σ是正态分布的标准差(Standard Deviation),表示数据的分散程度(或波动范围)。
- σ 2 \sigma ^2 σ2是正态分布的方差(Variance),表示数据的变异度。
- x x x是变量,它遵循正态分布。
- 正态分布的特征
- 对称性:正态分布是完全对称的,左右两边的形状和概率完全相同,均值 μ \mu μ就是对称中心。
- 钟形曲线:它的概率密度函数呈现出钟形曲线的形状,数据集中在均值附近,随着远离均值,概率密度逐渐减小。
- 均值、中位数、众数相等:在正态分布中,均值、众数和中位数都重合在同一个位置上。
- 68-95-99.7法则:对于一个正态分布:
约68%的数据落在均值 ± 1 个标准差的范围内。
约95%的数据落在均值 ± 2 个标准差的范围内。
约99.7%的数据落在均值 ± 3 个标准差的范围内。
- 正态分布的参数
- 均值 μ \mu μ:均值是正态分布的中心位置,表示数据的集中趋势。它是分布的对称点。
- 标准差 σ \sigma σ:标准差衡量数据的离散程度,也就是说,数据的分布范围。标准差越大,表示数据的分布越广,波动越大;标准差越小,数据越集中。
- 方差 σ 2 \sigma ^2 σ2:方差是标准差的平方,也是衡量数据离散程度的度量,但通常我们更关注标准差。
- 标准正态分布
当均值 μ = 0 \mu=0 μ=0且标准差 σ = 1 \sigma = 1 σ=1时,正态分布被称为标准正态分布。其概率密度函数简化为:
f ( x ) = 1 2 π exp ( − x 2 2 ) f(x)=\frac{1}{\sqrt{2 \pi}} \exp \left(-\frac{x^{2}}{2}\right) f(x)=2π1exp(−2x2)
标准正态分布的特点:
- 均值为0,标准差为1。
- 其形状与普通正态分布一样,但标准差较小,分布更集中。
- 正态分布的应用
正态分布在实际中有着广泛的应用,以下是几个重要的领域:
- 自然界现象:许多自然现象,比如人的身高、体重、考试成绩等,往往都接近于正态分布。换句话说,在这些现象中,大多数数据点都集中在均值附近,极端的高或低值较少。
统计学:正态分布是许多统计推断方法(如假设检验、置信区间估计等)的基础。根据大数定律,很多随机变量的样本均值会逐渐趋近于正态分布。
中心极限定理:中心极限定理指出,很多独立同分布(i.i.d.)的随机变量的和(或平均值)将趋近于正态分布,无论原始数据的分布是什么。这使得正态分布在统计学中具有非常重要的地位。
- 正态分布的性质
- 线性组合:如果 X 1 , X 2 , ⋯ , X n X_1,X_2,\cdots,X_n X1,X2,⋯,Xn是互相独立的正态分布随机变量,那么它们的线性组合 a 1 X 1 + a 2 X 2 + … + a n X n a_{1} X_{1}+a_{2} X_{2}+\ldots+a_{n} X_{n} a1X1+a2X2+…+anXn也服从正态分布。
最小方差性质:在所有具有相同均值和方差的分布中,正态分布具有最小的方差,也就是说,它的分布最紧密。
- 正态分布的图形表示
正态分布的概率密度函数图形通常呈现一个钟形曲线,具有以下特点:
- 曲线在均值 μ \mu μ处达到最高点,表示概率密度最大。
- 曲线的两端渐近于 x x x轴,表示概率逐渐减小,但始终不为零。
- 曲线的形状由标准差 σ \sigma σ决定,标准差越大,曲线越平坦;标准差越小,曲线越尖锐。
下面,我们通过 M M M次多项式对之前的数据进行拟合:
- 假设给定的数据是由 m m m次多项式生成的:
f M ( x , w ) = w 0 + w 1 x + w 2 x 2 + ⋯ + w M x M = ∑ j = 0 M w j x j f_{M}(x, w)=w_{0}+w_{1} x+w_{2} x^{2}+\cdots+w_{M} x^{M}=\sum\limits_{j=0}^{M} w_{j} x^{j} fM(x,w)=w0+w1x+w2x2+⋯+wMxM=j=0∑Mwjxj
其中 M M M是最高次数, x x x是输入, w w w是参数向量。 - 经验风险:
L ( w ) = 1 2 ∑ i = 1 N ( f M ( x i , w ) − y i ) 2 L(w)=\frac{1}{2} \sum\limits_{i=1}^{N}\left(f_{M}\left(x_{i}, w\right)-y_{i}\right)^{2} L(w)=21i=1∑N(fM(xi,w)−yi)2
我们在拟合的时候采取使经验风险最小化的策略,这里经验风险中的损失函数用的是平方损失,也就是预测值与真实值差的平方,那么经验风险就可以写成每个样本点的平方损失的和,多了一个系数 1 2 \frac{1}{2} 21下面会解释。 - 代入多项式:
L ( w ) = 1 2 ∑ i = 1 N ( ∑ j = 0 M w j x i j − y i ) 2 L(w)=\frac{1}{2} \sum\limits_{i=1}^{N}\left(\sum\limits_{j=0}^{M} w_{j} x_{i}^{j}-y_{i}\right)^{2} L(w)=21i=1∑N(j=0∑Mwjxij−yi)2
通过最小二乘法求解参数,求解参数的时候,可以通过对经验风险中的参数 w w w求导,然后使导数等于0得到参数的表达式,求导的时候,平方损失函数会多出一个系数2,这样就能和前面的系数 1 2 \frac{1}{2} 21把系数约掉,所以系数变成 1 2 \frac{1}{2} 21只是为了计算方便,加不加这个系数 1 2 \frac{1}{2} 21都不会影响最终结果。
【注】最小二乘法
最小二乘法(Least Squares Method)是一种数学优化方法,主要用于回归分析中,目的是通过最小化误差的平方和来找到最优的拟合模型。最小二乘法的核心思想是,寻找一个函数模型,使得实际观察值与该模型预测值之间的差异(误差)的平方和最小化。
- 最小二乘法的基本原理
在数据分析或回归分析中,我们通常希望找到一个数学函数(如直线、曲线等),使得它能够尽可能地接近数据点。假设我们有一组数据点 ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x n , y n ) \left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \ldots,\left(x_{n}, y_{n}\right) (x1,y1),(x2,y2),…,(xn,yn),目标是找到一个函数 f ( x ) f(x) f(x)来拟合这些数据点。
最小二乘法的基本步骤如下:
- 拟合函数与数据点之间的误差:对于每个数据点 ( x i , y i ) (x_i,y_i) (xi,yi),拟合函数的预测值为 f ( x i ) f(x_i) f(xi),误差为 y i − f ( x i ) y_i-f(x_i) yi−f(xi).
- 计算误差的平方和:
为了避免误差的正负相抵消,我们对每个误差进行平方,得到每个数据点的误差平方值 ( y i − f ( x i ) ) 2 (y_i-f(x_i))^2 (yi−f(xi))2,然后将所有数据点的误差平方值加和,得到总的误差平方和:
S = ∑ i = 1 n ( y i − f ( x i ) ) 2 S=\sum\limits_{i=1}^{n}\left(y_{i}-f\left(x_{i}\right)\right)^{2} S=i=1∑n(yi−f(xi))2- 最小化误差平方和:
最小二乘法的目标就是找到使得误差平方和 S S S最小的函数模型 f ( x ) f(x) f(x).
- 线性回归中的最小二乘法
对于线性回归模型 y = β 0 + β 1 x y=\beta_0+\beta_1x y=β0+β1x,我们需要通过最小化误差平方和 S S S来得到最优参数。首先,误差平方和可以表示为:
S ( β 0 , β 1 ) = ∑ i = 1 n ( y i − ( β 0 + β 1 x i ) ) 2 S\left(\beta_{0}, \beta_{1}\right)=\sum\limits_{i=1}^{n}\left(y_{i}-\left(\beta_{0}+\beta_{1} x_{i}\right)\right)^{2} S(β0,β1)=i=1∑n(yi−(β0+β1xi))2
为求得最小值,我们对 β 0 \beta_0 β0和 β 1 \beta_1 β1求偏导数,并令其为零,得到以下正态方程:
- 对 β 0 \beta_0 β0求偏导:
∂ S ∂ β 0 = − 2 ∑ i = 1 n ( y i − β 0 − β 1 x i ) = 0 \frac{\partial S}{\partial \beta_{0}}=-2 \sum\limits_{i=1}^{n}\left(y_{i}-\beta_{0}-\beta_{1} x_{i}\right)=0 ∂β0∂S=−2i=1∑n(yi−β0−β1xi)=0- 对 β 1 \beta_1 β1求偏导:
∂ S ∂ β 1 = − 2 ∑ i = 1 n ( y i − β 0 − β 1 x i ) x i = 0 \frac{\partial S}{\partial \beta_{1}}=-2 \sum\limits_{i=1}^{n}\left(y_{i}-\beta_{0}-\beta_{1} x_{i}\right) x_{i}=0 ∂β1∂S=−2i=1∑n(yi−β0−β1xi)xi=0
通过求解这两个方程,可以得到 β 0 \beta_0 β0和 β 1 \beta_1 β1的最优解。最终,最小二乘法得到的回归直线方程为:
β ^ 1 = n ∑ x i y i − ∑ x i ∑ y i n ∑ x i 2 − ( ∑ x i ) 2 β ^ 0 = ∑ y i − β 1 ^ ∑ x i n \begin{array}{l} \hat{\beta}_{1}=\frac{n \sum x_{i} y_{i}-\sum x_{i} \sum y_{i}}{n \sum x_{i}^{2}-\left(\sum x_{i}\right)^{2}}\\ \hat{\beta}_{0}=\frac{\sum y_{i}-\hat{\beta_{1}} \sum x_{i}}{n} \end{array} β^1=n∑xi2−(∑xi)2n∑xiyi−∑xi∑yiβ^0=n∑yi−β1^∑xi
其中 β ^ 0 \hat{\beta}_0 β^0最优截距, β ^ 1 \hat{\beta}_1 β^1是最优斜率。
- 最小二乘法的应用
最小二乘法被广泛应用于各种统计建模和数据分析任务中,特别是在回归分析中。以下是一些常见的应用场景:
- 线性回归分析:最小二乘法是线性回归的核心方法,用于估计数据中自变量与因变量之间的关系。
- 多项式回归:通过对数据进行多项式拟合,可以使用最小二乘法来找到最佳的多项式系数。
- 曲线拟合:不仅可以用于直线拟合,最小二乘法还可以用于任意曲线(例如指数曲线、对数曲线等)的拟合。
图像处理与信号处理:在图像处理、图像压缩、信号处理等领域,最小二乘法用于数据拟合、去噪声等任务。
机器学习:在机器学习中,尤其是在回归模型中,最小二乘法用于训练模型(如线性回归)。
- 最小二乘法的优缺点
优点:
- 简单有效:最小二乘法计算简单,易于理解和实现,尤其适用于线性模型。
- 计算效率高:对于大多数问题,最小二乘法的计算可以通过解析解得到,效率较高。
- 良好的统计性质:在一些条件下,最小二乘法估计是无偏的、有效的。
缺点:- 对异常值敏感:最小二乘法对离群点(异常值)非常敏感,少数的异常值可能会严重影响模型的拟合效果。
- 假设数据线性:最小二乘法通常假设数据之间存在线性关系,如果数据呈现非线性特征,最小二乘法可能效果不好。
- 计算复杂度:对于大量数据和高维度问题,最小二乘法的计算可能会变得比较复杂,尤其是当数据不满足某些条件时,可能需要迭代求解。
刚才的多项式拟合结果:
M = 0 M=0 M=0拟合曲线就是平行于 x x x轴的直线,此时与真实曲线差距较大, M = 1 M=1 M=1是一条直线,稍微接近真实曲线, M = 3 M=3 M=3的时候,拟合曲线和真实曲线非常接近, M = 9 M=9 M=9的时候,拟合曲线通过了所有的样本点, M = 9 M=9 M=9的时候,参数有10个,样本点也有10个,所以这时候的拟合曲线恰好穿过所有样本点,训练误差几乎为0,但是 M = 9 M=9 M=9是一个过拟合的现象。
4.2.1 过拟合
过拟合(Over-Fitting):学习所得模型包含参数过多,出现对已知数据预测很好,但对未知数据预测很差的现象。
这是 M M M的值与误差值的关系图,没有给出 M = 9 M=9 M=9的情况,因为当 M = 9 M=9 M=9的时候,训练误差几乎为0,但是测试误差会非常大,远远超出了这个图,用横轴 M M M代表了模型的复杂度, M M M越大模型越复杂,而橙色的折线代表的是测试误差,也就是模型对未知数据的训练能力,而蓝色的线代表的是训练误差,也就是模型对已知数据的预测能力。当 M = 3 M=3 M=3的时候,训练误差和测试误差都达到了最小点。
上图中,横轴代表模型复杂度,纵轴代表预测误差,随着模型复杂度的增加,训练误差会越来越小,但是测试误差会先减小达到一个最小值再增大,所以选择模型的时候一定要注意防止过拟合的现象出现,
相关文章:

【简博士统计学习方法】第1章:4. 模型的评估与选择
4. 模型的评估与选择 4.1 训练误差与测试误差 假如存在样本容量为 N N N的训练集,将训练集送入学习系统可以训练学习得到一个模型,我们将这么模型用决策函数的形式表达,也就是 y f ^ ( x ) y\hat{f}(x) yf^(x),关于模型的拟合…...
解密Navicat密码(Java)
最近从Navicat换到了DBeaver,导出配置文件发现配置文件里的密码都是加密的,看网上的都是给的PHP代码,因为环境问题,就算是在线上运行的PHP代码也会报错,所以就把这段代码改成Java了。 package com.unicdata.system.con…...

某聘__zp_stoken__参数逆向还原
声明 本文章中所有内容仅供学习交流,严禁用于商业用途和非法用途,否则由此产生的一切后果均与作者无关,若有侵权,请联系我立即删除! 目标网站 aHR0cHM6Ly93d3cuemhpcGluLmNvbS93ZWIvZ2Vlay9qb2I/cXVlcnk9cHl0aG9uJm…...

【数据可视化-11】全国大学数据可视化分析
🧑 博主简介:曾任某智慧城市类企业算法总监,目前在美国市场的物流公司从事高级算法工程师一职,深耕人工智能领域,精通python数据挖掘、可视化、机器学习等,发表过AI相关的专利并多次在AI类比赛中获奖。CSDN…...

声音是如何产生的
一、音频概述 RTMP中一般音频采用aac编码,采样率为44100HZ, 每帧1024采样,帧率43,23.2ms一帧 RTC中一般音频采用opus编码,采样率为48000HZ,每帧480采样,帧率100,10ms一帧 通道数(c…...

梯度下降方法
2.5 梯度下降方法介绍 学习目标 掌握梯度下降法的推导过程知道全梯度下降算法的原理知道随机梯度下降算法的原理知道随机平均梯度下降算法的原理知道小批量梯度下降算法的原理 上一节中给大家介绍了最基本的梯度下降法实现流程,本节我们将进一步介绍梯度下降法的详细…...

web3与AI结合-Sahara AI 项目介绍
背景介绍 Sahara AI 于 2023 年创立,是一个 "区块链AI" 领域的项目。其项目愿景是,利用区块链和隐私技术将现有的 AI 商业模式去中心化,打造公平、透明、低门槛的 “协作 AI 经济” 体系,旨在重构新的利益分配机制以及…...

Nginx——反向代理(三/五)
目录 1.Nginx 反向代理1.1.Nginx 反向代理概述1.2.Nginx 反向代理的配置语法1.2.1.proxy_pass1.2.2.proxy_set_header1.2.3.proxy_redirect 1.3.Nginx 反向代理实战1.4.Nginx 的安全控制1.4.1.如何使用 SSL 对流量进行加密1.4.2.Nginx 添加 SSL 的支持1.4.3.Nginx 的 SSL 相关指…...

环动科技平均售价波动下滑:大客户依赖明显,应收账款周转率骤降
《港湾商业观察》施子夫 2024年12月18日,浙江环动机器人关节科技股份有限公司(以下简称,环动科技)的上市审核状态变更为“已问询”,公司在11月25日科创板IPO获上交所受理,独家保荐机构为广发证券。 此次环…...

源网荷储:构建智慧能源生态的关键方案设计
一、技术融合基石 多元能源采集技术:在 “源” 端,除了常见的光伏、风电、火电,生物质能发电、地热能利用技术也应纳入考量。例如在有丰富生物质原料的农村地区,小型生物质发电厂可实现废物利用与供电双赢;地热资源丰…...

进程间通讯
简介: 进程间通讯方式有: 1.内存映射(mmap): 使用mmap函数将磁盘空间映射到内存 2.管道 3.信号 4.套接字(socket) 5.信号机制 通过进程中kill函数,去给另一个函数发送信号&a…...

STM32-笔记33-OLED实验
实验目的 驱动 OLED 屏幕,显示点、线、字符、字符串、汉字、图片等内容。 项目实现-OLED通讯协议 复制项目文件19-串口打印功能 重命名为47-OLED实验 打开项目文件 加载文件 代码书写顺序: oled.c #include "oled.h"//初始化oled的gpio …...

低空管控技术-无人机云监视技术详解!
一、无人机监听技术的原理 无人机监听技术主要依赖于射频(RF)探测、光学和红外传感器等技术手段。这些技术通过被动监听和监测无人机与飞行员(或控制器)之间的通信链路传输,以确定无人机的位置,甚至在某些…...

RedisTemplate执行lua脚本及Lua 脚本语言详解
使用RedisTemplate执行lua脚本 在开发中,我们经常需要与Redis数据库进行交互,而Redis是一个基于内存的高性能键值存储数据库,它支持多种数据结构,并提供了丰富的命令接口。在某些情况下,我们可能需要执行一些复杂的逻…...

基于springboot的网上商城购物系统
作者:学姐 开发技术:SpringBoot、SSM、Vue、MySQL、JSP、ElementUI、Python、小程序等 文末获取“源码数据库万字文档PPT”,支持远程部署调试、运行安装。 目录 项目包含: 开发说明: 系统功能: 项目截图…...

服务器攻击方式有哪几种?
随着互联网的快速发展,网络攻击事件频发,已泛滥成互联网行业的重病,受到了各个行业的关注与重视,因为它对网络安全乃至国家安全都形成了严重的威胁。面对复杂多样的网络攻击,想要有效防御就必须了解网络攻击的相关内容…...

【Unity3D】AB包加密(AssetBundle加密)
加密前: 加密后,直接无法加载ab,所以无法正常看到ab内容。 using UnityEngine; using UnityEditor; using System.IO; public static class AssetBundleDemoTest {[MenuItem("Tools/打包!")]public static void Build(){//注意:St…...

【FTP 协议】FTP主动模式
一、测试工具 服务器:FileZilla_Server-cn-0_9_60_2.exe 中文版本 客户端:FileZilla_3.66.5_win64 客户端IP: 192.168.9.186 服务端 IP: 192.168.9.161 在客户端请求PORT之前,抓包测试的结果跟被动模式流程相同。 二、客户端主动模式命令…...

十五、Vue 响应接口
文章目录 一、响应式系统基础什么是响应式系统响应式数据的声明与使用二、响应式原理深入Object.defineProperty () 方法的应用(Vue2)Proxy 对象的应用(Vue3)三、响应式接口之 ref 和 reactive(Vue3)ref 函数的使用reactive 函数的使用四、计算属性(computed)作为响应式…...

至强6搭配美光CZ122,证明CXL可以提高生成式AI的性能表现
最近发现了英特尔官网公布的一项最新测试报告,报告显示,将美光的CZ122 CXL内存模块放到英特尔至强6平台上,显著提升了HPC和AI工作负载的内存带宽,特别是在采用基于软件的交错配置(interleave configuration)…...
浏览器访问 AWS ECS 上部署的 Docker 容器(监听 80 端口)
✅ 一、ECS 服务配置 Dockerfile 确保监听 80 端口 EXPOSE 80 CMD ["nginx", "-g", "daemon off;"]或 EXPOSE 80 CMD ["python3", "-m", "http.server", "80"]任务定义(Task Definition&…...
vscode里如何用git
打开vs终端执行如下: 1 初始化 Git 仓库(如果尚未初始化) git init 2 添加文件到 Git 仓库 git add . 3 使用 git commit 命令来提交你的更改。确保在提交时加上一个有用的消息。 git commit -m "备注信息" 4 …...

使用VSCode开发Django指南
使用VSCode开发Django指南 一、概述 Django 是一个高级 Python 框架,专为快速、安全和可扩展的 Web 开发而设计。Django 包含对 URL 路由、页面模板和数据处理的丰富支持。 本文将创建一个简单的 Django 应用,其中包含三个使用通用基本模板的页面。在此…...

Prompt Tuning、P-Tuning、Prefix Tuning的区别
一、Prompt Tuning、P-Tuning、Prefix Tuning的区别 1. Prompt Tuning(提示调优) 核心思想:固定预训练模型参数,仅学习额外的连续提示向量(通常是嵌入层的一部分)。实现方式:在输入文本前添加可训练的连续向量(软提示),模型只更新这些提示参数。优势:参数量少(仅提…...

第 86 场周赛:矩阵中的幻方、钥匙和房间、将数组拆分成斐波那契序列、猜猜这个单词
Q1、[中等] 矩阵中的幻方 1、题目描述 3 x 3 的幻方是一个填充有 从 1 到 9 的不同数字的 3 x 3 矩阵,其中每行,每列以及两条对角线上的各数之和都相等。 给定一个由整数组成的row x col 的 grid,其中有多少个 3 3 的 “幻方” 子矩阵&am…...

Redis数据倾斜问题解决
Redis 数据倾斜问题解析与解决方案 什么是 Redis 数据倾斜 Redis 数据倾斜指的是在 Redis 集群中,部分节点存储的数据量或访问量远高于其他节点,导致这些节点负载过高,影响整体性能。 数据倾斜的主要表现 部分节点内存使用率远高于其他节…...
大语言模型(LLM)中的KV缓存压缩与动态稀疏注意力机制设计
随着大语言模型(LLM)参数规模的增长,推理阶段的内存占用和计算复杂度成为核心挑战。传统注意力机制的计算复杂度随序列长度呈二次方增长,而KV缓存的内存消耗可能高达数十GB(例如Llama2-7B处理100K token时需50GB内存&a…...

Unsafe Fileupload篇补充-木马的详细教程与木马分享(中国蚁剑方式)
在之前的皮卡丘靶场第九期Unsafe Fileupload篇中我们学习了木马的原理并且学了一个简单的木马文件 本期内容是为了更好的为大家解释木马(服务器方面的)的原理,连接,以及各种木马及连接工具的分享 文件木马:https://w…...
重启Eureka集群中的节点,对已经注册的服务有什么影响
先看答案,如果正确地操作,重启Eureka集群中的节点,对已经注册的服务影响非常小,甚至可以做到无感知。 但如果操作不当,可能会引发短暂的服务发现问题。 下面我们从Eureka的核心工作原理来详细分析这个问题。 Eureka的…...

10-Oracle 23 ai Vector Search 概述和参数
一、Oracle AI Vector Search 概述 企业和个人都在尝试各种AI,使用客户端或是内部自己搭建集成大模型的终端,加速与大型语言模型(LLM)的结合,同时使用检索增强生成(Retrieval Augmented Generation &#…...