当前位置: 首页 > news >正文

牛客网算法八股刷题系列(七)正则化(软间隔SVM再回首)

牛客网算法八股刷题系列——正则化[软间隔SVM再回首]

题目描述

关于支持向量机(Support Vector Machine,SVM)(\text{Support Vector Machine,SVM})(Support Vector Machine,SVM),下列说法错误的是()(\quad)()

AL2\mathcal A \quad L_2AL2正则项,作用是最大化分类间隔,使得分类器拥有更强的泛化能力

BHinge\mathcal B \quad \text{Hinge}BHinge损失函数,作用是最小化经验风险错误

C\mathcal C \quadC分类间隔1∣∣W∣∣\begin{aligned}\frac{1}{||\mathcal W||}\end{aligned}∣∣W∣∣1,其中∣∣W∣∣||\mathcal W||∣∣W∣∣代表向量的

DL1\mathcal D \quad L_1DL1正则化对所有参数的惩罚力度都一样,可以让一部分权重变为,因此产生稀疏模型,能够去除某些特征

正确答案:C\mathcal CC

题目解析

开端:关于函数间隔问题解释的补充

该部分对照支持向量机——模型构建思路进行阅读。

这里依然以二分类任务为例。已知数据集合D\mathcal DD以集合内的标签集合表示如下:
D={(x(i),y(i))}i=1Ny(i)∈{+1,−1}\mathcal D = \{(x^{(i)},y^{(i)})\}_{i=1}^N \quad y^{(i)} \in \{+1,-1\}D={(x(i),y(i))}i=1Ny(i){+1,1}

在支持向量机——模型构建思路介绍了分类正确的标志:模型输出结果WTx(i)+b\mathcal W^Tx^{(i)} + bWTx(i)+b与对应标签结果y(i)y^{(i)}y(i)同号
{WTx(i)+b>0y(i)=+1WTx(i)+b<0y(i)=−1\begin{cases} \mathcal W^Tx^{(i)} + b > 0 \quad y^{(i)} = +1 \\ \mathcal W^T x^{(i)} + b < 0 \quad y^{(i)} = -1 \end{cases}{WTx(i)+b>0y(i)=+1WTx(i)+b<0y(i)=1
从而确定模型的决策边界(超平面):
WTx+b=0\mathcal W^Tx + b = 0WTx+b=0
虽然找到了决策边界,但出现了新的问题:决策边界不唯一。我们可以对上述决策边界进行任意缩放 ⇒\Rightarrow 等式两侧同时乘以常数kkk,决策边界并不发生影响。
k⋅(WTx+b)=k⋅0=0k \cdot (\mathcal W^Tx + b) = k \cdot 0 = 0k(WTx+b)=k0=0
但是对应的函数间隔(Functional Margin)H(i)=y(i)(WTx(i)+b)(x(i),y(i)∈D)(\text{Functional Margin}) \mathcal H^{(i)} = y^{(i)}(\mathcal W^Tx^{(i)} + b) \quad (x^{(i)},y^{(i)} \in \mathcal D)(Functional Margin)H(i)=y(i)(WTx(i)+b)(x(i),y(i)D)发生了变化:
{Original : H(i)=y(i)(WTx(i)+b)Expand/Reduce : k⋅H(i)=y(i)[k⋅(WTx(i)+b)]\begin{cases} \text{Original : } \mathcal H^{(i)} = y^{(i)}(\mathcal W^Tx^{(i)} + b) \\ \text{Expand/Reduce : } k \cdot \mathcal H^{(i)} = y^{(i)} \left[k \cdot (\mathcal W^Tx^{(i)} + b)\right] \end{cases}{Original : H(i)=y(i)(WTx(i)+b)Expand/Reduce : kH(i)=y(i)[k(WTx(i)+b)]
不同的决策边界,会导致某个样本点会存在多个函数间隔的判别结果。这意味着:仅通过WTx(i)+b\mathcal W^Tx^{(i)} + bWTx(i)+by(i)y^{(i)}y(i)同号这个约束,没有办法让模型收敛。通过对函数间隔的描述,可以通过公式对该描述进行表达
∃γ>0⇒min⁡x(i),y(i)∈Dy(i)(WTx(i)+b)=min⁡x(i),y(i)DH(i)=γ\exist \gamma > 0 \Rightarrow \mathop{\min}\limits_{x^{(i)},y^{(i)} \in \mathcal D} y^{(i)}(\mathcal W^Tx^{(i)} + b) = \mathop{\min}\limits_{x^{(i)},y^{(i)}\mathcal D} \mathcal H^{(i)} = \gammaγ>0x(i),y(i)Dminy(i)(WTx(i)+b)=x(i),y(i)DminH(i)=γ
为了方便计算,设定γ=1\gamma = 1γ=1。也就是说,无论对决策边界扩张还是收缩,都可以通过对W,b\mathcal W,bW,b进行相应的缩放,使得等式成立:

  • 由于W,b\mathcal W,bW,b都是向量,缩放变换后的W′,b′\mathcal W',b'W,b必然和原结果线性相关。并没有影响对权重特征的描述。
  • 该部分见《机器学习(周志华著)》P122 左侧小字解释部分
    min⁡x(i),y(i)∈Dy(i)(WTx(i)+b)=1⇔y(i)(WTx(i)+b)≥1\mathop{\min}\limits_{x^{(i)},y^{(i)} \in \mathcal D} y^{(i)}(\mathcal W^Tx^{(i)} + b) = 1 \Leftrightarrow y^{(i)} (\mathcal W^Tx^{(i)} + b) \geq 1x(i),y(i)Dminy(i)(WTx(i)+b)=1y(i)(WTx(i)+b)1

最终可将支持向量机——最大间隔分类器表示为如下基本型:
{min⁡W,b12∣∣W∣∣2s.t.y(i)(WTx(i)+b)≥1(x(i),y(i))∈D\begin{cases} \begin{aligned}\mathop{\min}\limits_{\mathcal W,b} \frac{1}{2} ||\mathcal W||^2\end{aligned} \\ s.t. \quad y^{(i)}(\mathcal W^Tx^{(i)} + b) \geq 1 \quad (x^{(i)},y^{(i)}) \in \mathcal D \end{cases}W,bmin21∣∣W2s.t.y(i)(WTx(i)+b)1(x(i),y(i))D

软间隔SVM\text{SVM}SVM

该部分对照支持向量机——软间隔SVM\text{SVM}SVM进行阅读。

关于软间隔构建损失函数的动机 可描述为:

  • 假设损失函数L\mathcal LL,如果某样本被划分正确,那么对应的L=0\mathcal L = 0L=0
  • 相反,如果某样本没有被划分正确,意味着y(i)(WTx(i)+b)<1y^{(i)}(\mathcal W^Tx^{(i)} + b) < 1y(i)(WTx(i)+b)<1,那么对应的函数结果为:
    可以看出,该结果是一个≤1\leq 11的正值。
    (x(i),y(i))⇒L(i)=1−y(i)(WTx(i)+b)(x^{(i)},y^{(i)}) \Rightarrow \mathcal L^{(i)} = 1 - y^{(i)}(\mathcal W^Tx^{(i)} + b)(x(i),y(i))L(i)=1y(i)(WTx(i)+b)

可以看出,该损失函数大于等于000恒成立,并且这些正值是由划分错误的样本累积起来产生的。

基于上述动机,我们尝试使用0/10/10/1损失函数描述上述两种情况:
该函数的特点:无论划分错误的偏差有多大,都被一视同仁为数值111.
L0/1[y(i)(WTx(i)+b)−1]={1y(i)(WTx(i)+b)−1<00Otherwise\mathcal L_{0/1}\left[y^{(i)}(\mathcal W^Tx^{(i)} + b) - 1\right] = \begin{cases} 1 \quad y^{(i)}(\mathcal W^Tx^{(i)} + b) - 1 < 0 \\ 0 \quad \text{Otherwise} \end{cases}L0/1[y(i)(WTx(i)+b)1]={1y(i)(WTx(i)+b)1<00Otherwise
从而对应拉格朗日函数可描述为如下形式:
依然是‘拉格朗日乘数法’。
min⁡W,b12∣∣W∣∣2+C∑x(i),y(i)∈DL0/1[y(i)(WTx(i)+b)−1]\mathop{\min}\limits_{\mathcal W,b} \frac{1}{2} ||\mathcal W||^2 + \mathcal C\sum_{x^{(i)},y^{(i)} \in \mathcal D}\mathcal L_{0/1} \left[y^{(i)}(\mathcal W^Tx^{(i)} + b) - 1\right]W,bmin21∣∣W2+Cx(i),y(i)DL0/1[y(i)(WTx(i)+b)1]

Hinge\text{Hinge}Hinge损失函数

由于0/10/10/1损失函数在定义域内并非处处连续,在优化过程中因无法处处可导导致无法求解出迭代最优解;并且∑x(i),y(i)∈DL0/1[y(i)(WTx(i)+b)−1]\sum_{x^{(i)},y^{(i)} \in \mathcal D}\mathcal L_{0/1} \left[y^{(i)}(\mathcal W^Tx^{(i)} + b) - 1\right]x(i),y(i)DL0/1[y(i)(WTx(i)+b)1]的结果是一个正整数,对于划分错误的样本偏差描述得不够细致

因此,另一种方法是将偏差值直接作为损失函数的一部分,具体数学描述表示如下:
L={0y(i)(WTx(i)+b)≥11−y(i)(WTx(i)+b)Otherwise\mathcal L = \begin{cases} 0 \quad y^{(i)}(\mathcal W^Tx^{(i)} + b) \geq 1 \\ 1 - y^{(i)}(\mathcal W^Tx^{(i)} + b) \quad \text{Otherwise} \end{cases}L={0y(i)(WTx(i)+b)11y(i)(WTx(i)+b)Otherwise

和上述0/10/10/1损失函数的动机相比,该函数在以y(i)(WTx(i)+b)y^{(i)}(\mathcal W^Tx^{(i)} + b)y(i)(WTx(i)+b)定义域内处处连续,并且该方法累积的偏差是真实的偏差结果。将上述两种情况使用一个公式进行表达
LHinge=max⁡{0,1−y(i)(WTx(i)+b)}\mathcal L_{Hinge} = \max \left\{0,1 - y^{(i)}(\mathcal W^Tx^{(i)} + b)\right\}LHinge=max{0,1y(i)(WTx(i)+b)}
该函数的图像表示为如下形式:
合页损失函数
该函数由于形似一个开合的书页,也被称作合页损失函数(Hinge Loss Function\text{Hinge Loss Function}Hinge Loss Function),记作LHinge\mathcal L_{Hinge}LHinge。最终,基于该函数的拉格朗日函数可描述为如下形式:
min⁡W,b12∣∣W∣∣2+C∑x(i),y(i)∈Dmax⁡{0,1−y(i)(WTx(i)+b)}\mathop{\min}\limits_{\mathcal W,b} \frac{1}{2}||\mathcal W||^2 + \mathcal C \sum_{x^{(i)},y^{(i)} \in \mathcal D} \max \left\{0,1 - y^{(i)}(\mathcal W^Tx^{(i)} + b) \right\}W,bmin21∣∣W2+Cx(i),y(i)Dmax{0,1y(i)(WTx(i)+b)}

支持向量机的正则化

上面介绍了两种损失函数:0/10/10/1损失函数合页损失函数。实际上,无论是哪种损失函数,我们关注的是它们整体的优化目标,也就是拉格朗日函数
{min⁡W,b12∣∣W∣∣2+C∑x(i),y(i)∈DL0/1[y(i)(WTx(i)+b)−1]min⁡W,b12∣∣W∣∣2+C∑x(i),y(i)∈Dmax⁡{0,1−y(i)(WTx(i)+b)}\begin{cases} \begin{aligned}\mathop{\min}\limits_{\mathcal W,b} \frac{1}{2} ||\mathcal W||^2 + \mathcal C\sum_{x^{(i)},y^{(i)} \in \mathcal D}\mathcal L_{0/1} \left[y^{(i)}(\mathcal W^Tx^{(i)} + b) - 1\right] \end{aligned}\\ \begin{aligned} \mathop{\min}\limits_{\mathcal W,b} \frac{1}{2}||\mathcal W||^2 + \mathcal C \sum_{x^{(i)},y^{(i)} \in \mathcal D} \max \left\{0,1 - y^{(i)}(\mathcal W^Tx^{(i)} + b) \right\} \end{aligned} \end{cases}W,bmin21∣∣W2+Cx(i),y(i)DL0/1[y(i)(WTx(i)+b)1]W,bmin21∣∣W2+Cx(i),y(i)Dmax{0,1y(i)(WTx(i)+b)}
观察上述两个函数,它们存在共性

  • 第一项:都是通过调整合适的参数W∗\mathcal W^*W,并尽可能使最大间隔∣∣W∣∣2||\mathcal W||^2∣∣W2达到最小
  • 第二项:针对划分错误样本产生的误差(L0/1,LHinge)(\mathcal L_{0/1},\mathcal L_{Hinge})(L0/1,LHinge)达到最小

关于上述拉格朗日函数的通式表示如下:
详见《机器学习》(周志华著) P133 6.5 支持向量回归 公式6.42
min⁡fΩ(f)+C∑x(i),y(i)∈DL[f(x(i)),y(i)]\mathop{\min}\limits_{f} \Omega(f) + \mathcal C \sum_{x^{(i)},y^{(i)} \in \mathcal D} \mathcal L[f(x^{(i)}),y^{(i)}]fminΩ(f)+Cx(i),y(i)DL[f(x(i)),y(i)]

  • 我们通常称第一项Ω(f)\Omega(f)Ω(f)结构风险(Structual Risk\text{Structual Risk}Structual Risk),在支持向量机中结构风险是指对模型fff的结构——最大间隔逻辑进行优化;
  • 第二项被称为经验风险(Empirical Risk\text{Empirical Risk}Empirical Risk),具体描述模型与数据之间的契合程度Hinge\text{Hinge}Hinge函数作为减小经验风险的损失函数B\mathcal B \quadB 选项正确。

至此,我们要纠正两个误区

  • 真正的损失函数指的是经验风险。通过观察,结构风险∣∣W∣∣2||\mathcal W||^2∣∣W2自身 就是正则化的表达形式。因此,正则化的功能都能在结构风险中进行表达。

    这里关于 A\mathcal A \quadA 选项中选择L2L_2L2正则化项描述最大间隔的逻辑正确。

  • 关于结构风险∣∣W∣∣2||\mathcal W||^2∣∣W2,它并不是∣∣W∣∣2||\mathcal W||_2∣∣W2,在之前关于∣∣W∣∣2=WTW||\mathcal W||^2 = \mathcal W^T\mathcal W∣∣W2=WTW只是选择了L2L_2L2正则化进行示例。实际上,在描述最大间隔的时候,不一定仅使用欧氏距离。在K-Means\text{K-Means}K-Means算法介绍中提到过明可夫斯基距离,比较有代表性的是曼哈顿距离,对应的L1L_1L1正则化;以及欧式距离,对应L2L_2L2正则化。

在正则化——权重衰减角度(直观现象)中补充了L1L_1L1正则化稀疏权重特征的过程。在迭代过程中,L1L_1L1正则化产生的权重点仅让一部分权重分量描述,而剩余的权重分量没有参与,从而导致权重分量尽量稀疏
一部分权重分量没有发挥作用,对应的权重结果就是000

并且L1L_1L1正则化对应所有权重分量均是一次项,对应的权重分量不会出现非线性的提高/打压,因而L1L_1L1对权重的惩罚力度相同D\mathcal D \quadD 选项正确。

相反,L2L_2L2正则化会倾向于将迭代的权重分摊在各个权重分量 上使各分量取值尽量平衡。从而使非零分量的数量更加稠密

C\mathcal C \quadC 选项中的1∣∣W∣∣\begin{aligned}\frac{1}{||\mathcal W||}\end{aligned}∣∣W∣∣1描述的是支持向量最优决策边界的距离;而分类间隔表示最优决策边界两侧支持向量之间的距离。即2×1∣∣W∣∣=2∣∣W∣∣\begin{aligned}2 \times \frac{1}{||\mathcal W||}= \frac{2}{||\mathcal W||}\end{aligned}2×∣∣W∣∣1=∣∣W∣∣2。因此 C\mathcal C \quadC 选项错误。
求解过程详见支持向量机——模型求解.

相关参考:
《机器学习》(周志华著)

相关文章:

牛客网算法八股刷题系列(七)正则化(软间隔SVM再回首)

牛客网算法八股刷题系列——正则化[软间隔SVM再回首]题目描述正确答案&#xff1a;C\mathcal CC题目解析开端&#xff1a;关于函数间隔问题解释的补充软间隔SVM\text{SVM}SVMHinge\text{Hinge}Hinge损失函数支持向量机的正则化题目描述 关于支持向量机(Support Vector Machine…...

开源即时通讯IM框架MobileIMSDK的微信小程序端开发快速入门

一、理论知识准备 您需要对微信小程序开发有所了解&#xff1a; 1&#xff09;真正零基础入门学习笔记系列2&#xff09;从零开始的微信小程序入门教程3&#xff09;最全教程&#xff1a;微信小程序开发入门详解 您需要对WebSocket技术有所了解&#xff1a; 1&#xff09;新…...

【C++从0到1】11、C++中赋值运算

C从0到1全系列教程 1、赋值运算 运算符示例描述c a b;将把a b的值赋给c。 把右边操作数的值赋给左边操作数。c a;相当于 c c a; 加且赋值运算符&#xff0c;把右边操作数加上左边操作数的结果赋值给左边操作数。-c - a;相当于 c c - a; 减且赋值运算符&#xff0c;把左…...

GaussDB数据库事务介绍

目录 一、前言 二、GaussDB事务的定义及应用场景 三、GaussDB事务的管理 四、GaussDB事务语句 五、GaussDB事务隔离 六、GaussDB事务监控 七、总结 一、前言 随着大数据和互联网技术的不断发展&#xff0c;数据库管理系统的作用越来越重要&#xff0c;实现数据的快速读…...

MYSQL——美团面试题

MYSQL——美团面试题 2023/3/27 美团二面 题目描述 Create table If Not Exists courses (student varchar(255), class varchar(255));insert into courses (student, class) values (A, Math); insert into courses (student, class) values (B, English); insert into co…...

Python 小型项目大全 16~20

#16 钻石 原文&#xff1a;http://inventwithpython.com/bigbookpython/project16.html 这个程序的特点是一个小算法&#xff0c;用于绘制各种尺寸的 ASCII 艺术画钻石。它包含绘制轮廓或你指定大小的填充式菱形的功能。这些功能对于初学者来说是很好的练习&#xff1b;试着理解…...

UE4/5C++之SubSystem的了解与创建

目录 了解生命周期 为什么用他&#xff0c;简单讲解&#xff1f; SubSystems创建和使用 创建SubSystems中的UGamelnstanceSubsystem类&#xff1a; 写基本的3个函数&#xff1a; 在蓝图中的样子&#xff1a; 创建SubSystems中的UEditorSubsystem类&#xff1a; SubSyste…...

牛客网在线编程SQL篇非技术快速入门题解(二)

大家好&#xff0c;我是RecordLiu。 初学SQL,有哪些合适的练习网站推荐呢? 如果你有编程基础&#xff0c;那么我推荐你到Leetcode这样的专业算法刷题网站&#xff0c;如果没有&#xff0c;也不要紧&#xff0c;你也可以到像牛客网一样的编程网站去练习。 牛客网有很多面向非技…...

航天器轨道六要素和TLE两行轨道数据格式

航天器轨道要素 椭圆轨道六根数指的是&#xff1a;半长轴aaa&#xff0c;离心率e&#xff0c;轨道倾角iii、升交点赤经Ω\OmegaΩ、近地点辐角ω\omegaω、和过近地点时刻t0t_0t0​&#xff08;或真近点角φ&#xff09;。 决定轨道形状&#xff1a; 轨道半长轴aaa&#xff1…...

【Spring Cloud Alibaba】第01节 - 课程介绍

一、Spring Cloud Alibaba 阿里巴巴公司 以Spring Cloud的衍生微服务一站式解决方案 二、学习Spring Cloud Alibaba的原因 Spring Cloud 多项组件宣布闭源或停止维护Spring Cloud Alibaba 性能优于Spring Cloud 三、适应群体 有Java编程和SpringBoot基础&#xff0c;最好有Sp…...

iOS和Android手机浏览器链接打开app store或应用市场下载软件讲解

引言当开发一个app出来后&#xff0c;通过分享引流用户去打开/下载该app软件&#xff0c;不同手机下载的地方不一样&#xff0c;比如&#xff1a;ios需要到苹果商店去下载&#xff0c;Android手机需要到各个不同的应用商店去下载(华为手机需要到华为应用商店下载&#xff0c;vi…...

2023第十四届蓝桥杯省赛java B组

试题 A: 阶乘求和 本题总分&#xff1a;5 分 【问题描述】 令 S 1! 2! 3! ... 202320232023!&#xff0c;求 S 的末尾 9 位数字。 提示&#xff1a;答案首位不为 0。 【答案提交】 这是一道结果填空的题&#xff0c;你只需要算出结果后提交即可。本题的结果为一 个整数…...

windows下如何快速搜索文件内容

安装git&#xff0c;使用linux命令 grep 这里不再多说 windows版本的命令 Windows提供find/findstr类似命令&#xff0c;其中findstr要比find功能更多一些&#xff0c;可以/?查看帮助。...

Redis集群分片

文章目录1、Redis集群的基本概念2、浅析集群算法-分片-槽位slot2.1 Redis集群的槽位slot2.2 Redis集群的分片2.3 两大优势2.4 如何进行slot槽位映射2.5 为什么redis集群的最大槽数是16384个&#xff1f;2.6 Redis集群不保证强一致性3、集群环境搭建3.1 主从容错切换迁移3.2 主从…...

ISP-AF相关-聚焦区域选择-清晰度评价-1(待补充)

1、镜头相关 镜头类型 变焦类型&#xff1a; 定焦、手动变焦、自动变焦 光圈&#xff1a; 固定光圈、手动光圈、自动光圈 视场角&#xff1a; 鱼眼镜头、超广角镜头、广角镜头、标准镜头、长焦镜头、超长焦镜头&#xff08;由大至小&#xff09; 光圈&#xff1a; 超星…...

[element-ui] el-table行添加阴影悬浮效果

问题: 在el-table每一行获得焦点与鼠标经过时&#xff0c;显示一个整行的阴影悬浮效果 /*其中&#xff0c;table-row-checkd是我自定义的焦点行添加类名&#xff0c;大家可以自己起名*/ .el-table tbody tr:hover,.el-table tbody tr.table-row-checked{box-shadow: 0px 3px …...

分布式存储技术(上):HDFS 与 Ceph的架构原理、特性、优缺点解析

面对企业级数据量&#xff0c;单机容量太小&#xff0c;无法存储海量的数据&#xff0c;这时候就需要用到多台机器存储&#xff0c;并统一管理分布在集群上的文件&#xff0c;这样就形成了分布式文件系统。HDFS是Hadoop下的分布式文件系统技术&#xff0c;Ceph是能处理海量非结…...

【python设计模式】20、解释器模式

哲学思想&#xff1a; 解释器模式&#xff08;Interpreter Pattern&#xff09;是一种行为型设计模式&#xff0c;它提供了一种方式来解释和执行特定语言的语法或表达式。该模式中&#xff0c;解释器通过将表达式转换为可以执行的对象来实现对表达式的解释和执行。通常&#xf…...

【PostgreSQL】通过docker的方式运行部署PostgreSQL与go操作数据库

目录 1、docker的方式运行部署PostgreSQL 2、控制台命令 3、go操作增删改查 1、docker的方式运行部署PostgreSQL docker pull postgres docker run --name learn_postgres -e POSTGRES_PASSWORDdocker_user -e POSTGRES_USERdocker_user -p 5433:5432 -d postgres进入容器&am…...

Kotlin协程序列:

1: 使用方式一 &#xff0c;callback和coroutine相互转化。 import kotlinx.coroutines.* import java.lang.Exception class MyCallback {fun doSomething(callback: (String?, Exception?) -> Unit) {// 模拟异步操作GlobalScope.launch {try {delay(1000) // 延迟 1 秒…...

大数据学习栈记——Neo4j的安装与使用

本文介绍图数据库Neofj的安装与使用&#xff0c;操作系统&#xff1a;Ubuntu24.04&#xff0c;Neofj版本&#xff1a;2025.04.0。 Apt安装 Neofj可以进行官网安装&#xff1a;Neo4j Deployment Center - Graph Database & Analytics 我这里安装是添加软件源的方法 最新版…...

【论文笔记】若干矿井粉尘检测算法概述

总的来说&#xff0c;传统机器学习、传统机器学习与深度学习的结合、LSTM等算法所需要的数据集来源于矿井传感器测量的粉尘浓度&#xff0c;通过建立回归模型来预测未来矿井的粉尘浓度。传统机器学习算法性能易受数据中极端值的影响。YOLO等计算机视觉算法所需要的数据集来源于…...

python爬虫:Newspaper3k 的详细使用(好用的新闻网站文章抓取和解析的Python库)

更多内容请见: 爬虫和逆向教程-专栏介绍和目录 文章目录 一、Newspaper3k 概述1.1 Newspaper3k 介绍1.2 主要功能1.3 典型应用场景1.4 安装二、基本用法2.2 提取单篇文章的内容2.2 处理多篇文档三、高级选项3.1 自定义配置3.2 分析文章情感四、实战案例4.1 构建新闻摘要聚合器…...

C++中string流知识详解和示例

一、概览与类体系 C 提供三种基于内存字符串的流&#xff0c;定义在 <sstream> 中&#xff1a; std::istringstream&#xff1a;输入流&#xff0c;从已有字符串中读取并解析。std::ostringstream&#xff1a;输出流&#xff0c;向内部缓冲区写入内容&#xff0c;最终取…...

3403. 从盒子中找出字典序最大的字符串 I

3403. 从盒子中找出字典序最大的字符串 I 题目链接&#xff1a;3403. 从盒子中找出字典序最大的字符串 I 代码如下&#xff1a; class Solution { public:string answerString(string word, int numFriends) {if (numFriends 1) {return word;}string res;for (int i 0;i &…...

Java面试专项一-准备篇

一、企业简历筛选规则 一般企业的简历筛选流程&#xff1a;首先由HR先筛选一部分简历后&#xff0c;在将简历给到对应的项目负责人后再进行下一步的操作。 HR如何筛选简历 例如&#xff1a;Boss直聘&#xff08;招聘方平台&#xff09; 直接按照条件进行筛选 例如&#xff1a…...

Device Mapper 机制

Device Mapper 机制详解 Device Mapper&#xff08;简称 DM&#xff09;是 Linux 内核中的一套通用块设备映射框架&#xff0c;为 LVM、加密磁盘、RAID 等提供底层支持。本文将详细介绍 Device Mapper 的原理、实现、内核配置、常用工具、操作测试流程&#xff0c;并配以详细的…...

论文笔记——相干体技术在裂缝预测中的应用研究

目录 相关地震知识补充地震数据的认识地震几何属性 相干体算法定义基本原理第一代相干体技术&#xff1a;基于互相关的相干体技术&#xff08;Correlation&#xff09;第二代相干体技术&#xff1a;基于相似的相干体技术&#xff08;Semblance&#xff09;基于多道相似的相干体…...

动态 Web 开发技术入门篇

一、HTTP 协议核心 1.1 HTTP 基础 协议全称 &#xff1a;HyperText Transfer Protocol&#xff08;超文本传输协议&#xff09; 默认端口 &#xff1a;HTTP 使用 80 端口&#xff0c;HTTPS 使用 443 端口。 请求方法 &#xff1a; GET &#xff1a;用于获取资源&#xff0c;…...

AI+无人机如何守护濒危物种?YOLOv8实现95%精准识别

【导读】 野生动物监测在理解和保护生态系统中发挥着至关重要的作用。然而&#xff0c;传统的野生动物观察方法往往耗时耗力、成本高昂且范围有限。无人机的出现为野生动物监测提供了有前景的替代方案&#xff0c;能够实现大范围覆盖并远程采集数据。尽管具备这些优势&#xf…...