Cramér-Rao界:参数估计精度的“理论底线”
Cramér-Rao界:参数估计精度的“理论底线”
在统计学中,当我们用数据估计一个模型的参数时,总希望估计结果尽可能精确。但精度有没有一个理论上的“底线”呢?答案是有的,这就是Cramér-Rao界(Cramér-Rao Lower Bound, CRLB)。它通过Fisher信息矩阵的正定性,给出了无偏估计协方差的最低下限。简单来说,它告诉我们:再怎么努力,你的估计精度也超不过这个界限。今天我们就来聊聊Cramér-Rao界的由来、意义和应用。
什么是Cramér-Rao界?
Cramér-Rao界是一个统计定理,用来衡量无偏估计器(unbiased estimator)的精度。假设我们有一个参数 ( θ \theta θ )(可以是向量),用数据 ( x x x ) 估计它,得到估计量 ( θ ^ \hat{\theta} θ^ )。如果 ( θ ^ \hat{\theta} θ^ ) 是无偏的(即 ( E [ θ ^ ] = θ E[\hat{\theta}] = \theta E[θ^]=θ )),它的协方差矩阵满足:
Cov ( θ ^ ) ≥ I ( θ ) − 1 \text{Cov}(\hat{\theta}) \geq I(\theta)^{-1} Cov(θ^)≥I(θ)−1
- ( Cov ( θ ^ ) \text{Cov}(\hat{\theta}) Cov(θ^) ):估计量 ( θ ^ \hat{\theta} θ^ ) 的协方差矩阵,反映估计的分散程度。
- ( I ( θ ) I(\theta) I(θ) ):Fisher信息矩阵,衡量数据提供的参数信息。
- ( ≥ \geq ≥ ):表示矩阵意义上的不等式(即 ( Cov ( θ ^ ) − I ( θ ) − 1 \text{Cov}(\hat{\theta}) - I(\theta)^{-1} Cov(θ^)−I(θ)−1 ) 是半正定的)。
如果 ( θ \theta θ ) 是标量,方差形式更简单:
Var ( θ ^ ) ≥ 1 I ( θ ) \text{Var}(\hat{\theta}) \geq \frac{1}{I(\theta)} Var(θ^)≥I(θ)1
通俗比喻
想象你在射箭,想尽可能靠近靶心(真实参数 ( θ \theta θ ))。Cramér-Rao界就像一个“靶环”,告诉你箭的散布范围(方差或协方差)不可能小于这个环。Fisher信息矩阵 ( I ( θ ) I(\theta) I(θ) ) 则像弓箭的质量,信息越多(( I ( θ ) I(\theta) I(θ) ) 越大),靶环越小,精度越高。
Fisher信息矩阵与正定性
Fisher信息矩阵定义为:
I ( θ ) i j = E [ ∂ log p ( x ∣ θ ) ∂ θ i ∂ log p ( x ∣ θ ) ∂ θ j ∣ θ ] I(\theta)_{ij} = E\left[ \frac{\partial \log p(x|\theta)}{\partial \theta_i} \frac{\partial \log p(x|\theta)}{\partial \theta_j} \bigg| \theta \right] I(θ)ij=E[∂θi∂logp(x∣θ)∂θj∂logp(x∣θ) θ]
或等价地:
I ( θ ) i j = − E [ ∂ 2 log p ( x ∣ θ ) ∂ θ i ∂ θ j ∣ θ ] I(\theta)_{ij} = -E\left[ \frac{\partial^2 \log p(x|\theta)}{\partial \theta_i \partial \theta_j} \bigg| \theta \right] I(θ)ij=−E[∂θi∂θj∂2logp(x∣θ) θ]
如果模型是可识别的(不同 ( θ \theta θ ) 对应不同分布),( I ( θ ) I(\theta) I(θ) ) 通常是正定的,即对任意非零向量 ( v v v ):
v T I ( θ ) v > 0 v^T I(\theta) v > 0 vTI(θ)v>0
正定性的作用
- 逆矩阵存在:正定保证 ( I ( θ ) I(\theta) I(θ) ) 可逆,( I ( θ ) − 1 I(\theta)^{-1} I(θ)−1 ) 存在。
- 正定逆矩阵:( I ( θ ) − 1 I(\theta)^{-1} I(θ)−1 ) 也是正定的,意味着它是一个有效的协方差矩阵(对角元素非负)。
- 精度量化:( I ( θ ) − 1 I(\theta)^{-1} I(θ)−1 ) 提供了估计精度的理论下界。
Cramér-Rao界的推导(简要版)
为什么协方差有这个下界?我们用一个直观的推导来说明(以标量为例,多参数类似)。
假设
- ( θ ^ \hat{\theta} θ^ ) 是 ( θ \theta θ ) 的无偏估计:( E [ θ ^ ] = θ E[\hat{\theta}] = \theta E[θ^]=θ )。
- 得分函数 ( s ( θ ) = ∂ log p ( x ∣ θ ) ∂ θ s(\theta) = \frac{\partial \log p(x|\theta)}{\partial \theta} s(θ)=∂θ∂logp(x∣θ) ),( E [ s ( θ ) ] = 0 E[s(\theta)] = 0 E[s(θ)]=0 )。
关键步骤
由于 ( E [ θ ^ ] = θ E[\hat{\theta}] = \theta E[θ^]=θ ),对 ( θ \theta θ ) 求导:
∂ ∂ θ E [ θ ^ ] = ∫ θ ^ ( x ) ∂ p ( x ∣ θ ) ∂ θ d x = 1 \frac{\partial}{\partial \theta} E[\hat{\theta}] = \int \hat{\theta}(x) \frac{\partial p(x|\theta)}{\partial \theta} \, dx = 1 ∂θ∂E[θ^]=∫θ^(x)∂θ∂p(x∣θ)dx=1 (分别左右两边求导,左边求导是积分这一项,右边 θ \theta θ对自己求导是1, 具体请看后文推导)
因为 ( ∂ p ∂ θ = p ⋅ ∂ log p ∂ θ = p ⋅ s \frac{\partial p}{\partial \theta} = p \cdot \frac{\partial \log p}{\partial \theta} = p \cdot s ∂θ∂p=p⋅∂θ∂logp=p⋅s ),所以:
∫ θ ^ ( x ) p ( x ∣ θ ) s ( x ∣ θ ) d x = 1 \int \hat{\theta}(x) p(x|\theta) s(x|\theta) \, dx = 1 ∫θ^(x)p(x∣θ)s(x∣θ)dx=1
改写:
E [ θ ^ s ] = 1 E[\hat{\theta} s] = 1 E[θ^s]=1
考虑 ( θ ^ − θ \hat{\theta} - \theta θ^−θ )(估计误差),因为 ( E [ θ ^ ] = θ E[\hat{\theta}] = \theta E[θ^]=θ ):
E [ ( θ ^ − θ ) s ] = E [ θ ^ s ] − E [ θ s ] = 1 − 0 = 1 E[(\hat{\theta} - \theta) s] = E[\hat{\theta} s] - E[\theta s] = 1 - 0 = 1 E[(θ^−θ)s]=E[θ^s]−E[θs]=1−0=1
这是因为:
E [ θ s ] = θ E [ s ] = θ ⋅ 0 = 0 E[\theta s] = \theta E[s] = \theta \cdot 0 = 0 E[θs]=θE[s]=θ⋅0=0
其中 ( θ \theta θ ) 是常数(真实参数),可以提出来,而 ( E [ s ] = 0 E[s] = 0 E[s]=0 ),所以 ( E [ θ s ] = 0 E[\theta s] = 0 E[θs]=0 )。
应用柯西-施瓦茨不等式
对于随机变量 ( X = θ ^ − θ X = \hat{\theta} - \theta X=θ^−θ ) 和 ( Y = s Y = s Y=s ):
( E [ X Y ] ) 2 ≤ E [ X 2 ] E [ Y 2 ] (E[XY])^2 \leq E[X^2] E[Y^2] (E[XY])2≤E[X2]E[Y2]
代入:
1 2 ≤ E [ ( θ ^ − θ ) 2 ] E [ s 2 ] 1^2 \leq E[(\hat{\theta} - \theta)^2] E[s^2] 12≤E[(θ^−θ)2]E[s2]
- ( E [ ( θ ^ − θ ) 2 ] = Var ( θ ^ ) E[(\hat{\theta} - \theta)^2] = \text{Var}(\hat{\theta}) E[(θ^−θ)2]=Var(θ^) )(无偏估计的方差)。
- ( E [ s 2 ] = I ( θ ) E[s^2] = I(\theta) E[s2]=I(θ) )(Fisher信息)。
于是:
1 ≤ Var ( θ ^ ) ⋅ I ( θ ) 1 \leq \text{Var}(\hat{\theta}) \cdot I(\theta) 1≤Var(θ^)⋅I(θ)
Var ( θ ^ ) ≥ 1 I ( θ ) \text{Var}(\hat{\theta}) \geq \frac{1}{I(\theta)} Var(θ^)≥I(θ)1
多参数情况下,协方差矩阵的不等式通过类似方法(矩阵形式的柯西-施瓦茨)得出:
Cov ( θ ^ ) ≥ I ( θ ) − 1 \text{Cov}(\hat{\theta}) \geq I(\theta)^{-1} Cov(θ^)≥I(θ)−1
Cramér-Rao界的意义
1. 精度下限
CRLB告诉我们,无论用什么方法,只要估计是无偏的,其协方差(或方差)都不可能低于 ( I ( θ ) − 1 I(\theta)^{-1} I(θ)−1 )。这为估计器的性能设定了“理论底线”。
2. 有效估计(Efficient Estimator)
如果某个估计 ( θ ^ \hat{\theta} θ^ ) 的协方差恰好等于 ( I ( θ ) − 1 I(\theta)^{-1} I(θ)−1 )(达到CRLB),它被称为“有效估计”。例如,最大似然估计(MLE)在大样本下常达到此界。
3. Fisher信息的角色
( I ( θ ) I(\theta) I(θ) ) 越大(信息越多),( I ( θ ) − 1 I(\theta)^{-1} I(θ)−1 ) 越小,估计精度越高。反之,信息少时,精度受限。
例子:正态分布
对于 ( x ∼ N ( μ , σ 2 ) x \sim N(\mu, \sigma^2) x∼N(μ,σ2) ),已知 ( σ 2 \sigma^2 σ2 ):
- ( I ( μ ) = 1 σ 2 I(\mu) = \frac{1}{\sigma^2} I(μ)=σ21 )
- ( Var ( μ ^ ) ≥ σ 2 n \text{Var}(\hat{\mu}) \geq \frac{\sigma^2}{n} Var(μ^)≥nσ2 )(( n n n ) 是样本量)。
- 样本均值 ( μ ^ = 1 n ∑ x i \hat{\mu} = \frac{1}{n} \sum x_i μ^=n1∑xi ) 的方差正好是 ( σ 2 n \frac{\sigma^2}{n} nσ2 ),达到CRLB,是有效估计。
实际应用
1. 评估估计器性能
设计一个估计器后,拿它的协方差与CRLB对比:
- 如果接近,说明很优秀。
- 如果远超,可能是偏倚或效率低。
2. 实验设计
CRLB帮助优化数据采集。例如,增大样本量 ( n n n ) 或减少噪声 ( σ 2 \sigma^2 σ2 ),使 ( I ( θ ) I(\theta) I(θ) ) 变大,提升精度。
3. 机器学习
在深度学习中,Fisher信息矩阵用于优化(如自然梯度下降)。CRLB启发我们通过信息最大化改进模型。
总结
Cramér-Rao界是参数估计的“金标准”,通过Fisher信息矩阵的正定性,设定了一个协方差下界。正定保证 ( I ( θ ) − 1 I(\theta)^{-1} I(θ)−1 ) 有效,量化了估计精度的极限。它不仅告诉我们“能有多准”,还指导我们如何设计更好的估计器。下次做估计时,不妨算算CRLB,看看你的方法离“完美”有多远!
补充:为什么 ( ∂ ∂ θ E [ θ ^ ] = 1 \frac{\partial}{\partial \theta} E[\hat{\theta}] = 1 ∂θ∂E[θ^]=1 )?
在Cramér-Rao界的推导中,我们假设 ( θ ^ \hat{\theta} θ^ ) 是 ( θ \theta θ ) 的无偏估计,即:
E [ θ ^ ] = θ E[\hat{\theta}] = \theta E[θ^]=θ
这意味着对于任意真实的参数值 ( θ \theta θ ),估计量 ( θ ^ \hat{\theta} θ^ ) 的期望始终等于 ( θ \theta θ )。现在,我们对这个等式两边对 ( θ \theta θ ) 求导,看看会发生什么。
推导步骤
-
左侧求导:
∂ ∂ θ E [ θ ^ ] = ∂ ∂ θ θ \frac{\partial}{\partial \theta} E[\hat{\theta}] = \frac{\partial}{\partial \theta} \theta ∂θ∂E[θ^]=∂θ∂θ
因为 ( E [ θ ^ ] = θ E[\hat{\theta}] = \theta E[θ^]=θ ) 是一个恒等式,( θ \theta θ ) 对 ( θ \theta θ ) 的导数显然是:
∂ θ ∂ θ = 1 \frac{\partial \theta}{\partial \theta} = 1 ∂θ∂θ=1
所以左侧等于1。 -
右侧求导:
( E [ θ ^ ] E[\hat{\theta}] E[θ^] ) 是期望,表示为积分形式:
E [ θ ^ ] = ∫ θ ^ ( x ) p ( x ∣ θ ) d x E[\hat{\theta}] = \int \hat{\theta}(x) p(x|\theta) \, dx E[θ^]=∫θ^(x)p(x∣θ)dx
现在对 ( θ \theta θ ) 求导:
∂ ∂ θ E [ θ ^ ] = ∂ ∂ θ ∫ θ ^ ( x ) p ( x ∣ θ ) d x \frac{\partial}{\partial \theta} E[\hat{\theta}] = \frac{\partial}{\partial \theta} \int \hat{\theta}(x) p(x|\theta) \, dx ∂θ∂E[θ^]=∂θ∂∫θ^(x)p(x∣θ)dx
在正则条件下(积分和导数可以交换顺序),导数可以移到积分内部:
= ∫ θ ^ ( x ) ∂ p ( x ∣ θ ) ∂ θ d x = \int \hat{\theta}(x) \frac{\partial p(x|\theta)}{\partial \theta} \, dx =∫θ^(x)∂θ∂p(x∣θ)dx
(注意 ( θ ^ ( x ) \hat{\theta}(x) θ^(x)) 是 ( x x x ) 的函数,不依赖 ( θ \theta θ ),所以导数只作用于 ( p ( x ∣ θ ) p(x|\theta) p(x∣θ) ))。 -
得分函数的引入:
我们知道:
∂ p ( x ∣ θ ) ∂ θ = p ( x ∣ θ ) ∂ log p ( x ∣ θ ) ∂ θ = p ( x ∣ θ ) s ( x ∣ θ ) \frac{\partial p(x|\theta)}{\partial \theta} = p(x|\theta) \frac{\partial \log p(x|\theta)}{\partial \theta} = p(x|\theta) s(x|\theta) ∂θ∂p(x∣θ)=p(x∣θ)∂θ∂logp(x∣θ)=p(x∣θ)s(x∣θ)
其中 ( s ( x ∣ θ ) = ∂ log p ( x ∣ θ ) ∂ θ s(x|\theta) = \frac{\partial \log p(x|\theta)}{\partial \theta} s(x∣θ)=∂θ∂logp(x∣θ) ) 是得分函数。所以:
∂ ∂ θ E [ θ ^ ] = ∫ θ ^ ( x ) p ( x ∣ θ ) s ( x ∣ θ ) d x = E [ θ ^ s ] \frac{\partial}{\partial \theta} E[\hat{\theta}] = \int \hat{\theta}(x) p(x|\theta) s(x|\theta) \, dx = E[\hat{\theta} s] ∂θ∂E[θ^]=∫θ^(x)p(x∣θ)s(x∣θ)dx=E[θ^s] -
等于1的原因:
从步骤1我们知道左侧是1,因此:
E [ θ ^ s ] = 1 E[\hat{\theta} s] = 1 E[θ^s]=1
这表明无偏估计 ( θ ^ \hat{\theta} θ^ ) 和得分函数 ( s s s ) 的乘积期望恒等于1。这是一个关键性质,反映了 ( θ ^ \hat{\theta} θ^ ) 的无偏性如何与似然函数的梯度关联起来。
为什么是1?
直观上,( E [ θ ^ ] = θ E[\hat{\theta}] = \theta E[θ^]=θ ) 是一个关于 ( θ \theta θ ) 的恒等式,它的“变化率”是1。而右侧积分 ( E [ θ ^ s ] E[\hat{\theta} s] E[θ^s] ) 是这种变化率的统计表达,等于1是因为得分函数 ( s ) 捕捉了似然对 ( θ \theta θ ) 的敏感度,而 ( θ ^ \hat{\theta} θ^ ) 的无偏性保证了这种敏感度的期望恰好平衡为1。
后记
2025年2月25日13点24分于上海,在Grok3大模型辅助下完成。
相关文章:
Cramér-Rao界:参数估计精度的“理论底线”
Cramr-Rao界:参数估计精度的“理论底线” 在统计学中,当我们用数据估计一个模型的参数时,总希望估计结果尽可能精确。但精度有没有一个理论上的“底线”呢?答案是有的,这就是Cramr-Rao界(Cramr-Rao Lower …...
ClickHouse 的分区、分桶和分片详解
在大数据场景下,数据的存储和查询效率至关重要。ClickHouse 作为一款高性能的列式存储数据库,提供了多种数据组织方式来优化存储和查询,其中最常见的就是 分区(Partition)、分桶(Sampling)、分片…...
【操作系统、数学】什么是排队论?如何理解排队论?排队论有什么用处?Queueing Theory?什么是 Little’s Law?
排队论(Queueing Theory)是研究系统中排队现象的数学理论,旨在分析资源分配、服务效率及等待时间等问题。它广泛应用于计算机科学、通信网络、交通规划、工业工程等领域。 【下文会通过搜集的资料,从各方面了解排队论,…...
2209. 用地毯覆盖后的最少白色砖块
2209. 用地毯覆盖后的最少白色砖块 题目链接:2209. 用地毯覆盖后的最少白色砖块 代码如下: class Solution { public:int minimumWhiteTiles(string floor, int numCarpets, int carpetLen) {vector<vector<int>>memo (numCarpets 1, vec…...
DeepSeek赋能大模型内容安全,网易易盾AIGC内容风控解决方案三大升级
在近两年由AI引发的生产力革命的背后,一场关乎数字世界秩序的攻防战正在上演:AI生成的深度伪造视频导致企业品牌声誉损失日均超千万,批量生成的侵权内容使版权纠纷量与日俱增,黑灰产利用AI技术持续发起欺诈攻击。 与此同时&#…...
(0)阿里云大模型ACP-考试回忆
这两天通过了阿里云大模型ACP考试,由于之前在网上没有找到真题,导致第一次考试没有过,后面又重新学习了一遍文档才顺利通过考试,这两次考试内容感觉考试题目90%内容是覆盖的,后面准备分享一下每一章的考题,…...
0.【深度学习YOLOV11项目实战-项目安装教程】(图文教程,超级详细)
目录 前言一、安装Pycharm(安装过Pycharm的跳过这一步)1.1 点击下述链接直接跳转到教程页面进行安装 二、安装Anaconda(安装过Anaconda的跳过这一步)2.1 点击下述链接直接跳转到教程页面进行安装 三、后续安装教程(有N…...
Docker 部署 Jenkins持续集成(CI)工具
[TOC](Docker 部署 Jenkins持续集成(CI)工具) 前言 Jenkins 是一个流行的开源自动化工具,广泛应用于持续集成(CI)和持续交付(CD)的环境中。通过 Docker 部署 Jenkins,可以简化安装和配置过程,并…...
布署elfk-准备工作
建议申请5台机器部署elfk: filebeat(每台app)--> logstash(2台keepalived)--> elasticsearch(3台)--> kibana(部署es上)采集输出 处理转发 分布式存储 展示 ELK中文社区: 搜索客,搜索人自己的社区 官方…...
uniapp 小程序如何实现大模型流式交互?前端SSE技术完整实现解析
文章目录 一、背景概述二、核心流程图解三、代码模块详解1. UTF-8解码器(处理二进制流)2. 请求控制器(核心通信模块)3. 流式请求处理器(分块接收)4. 数据解析器(处理SSE格式)5. 回调…...
微软推出Office免费版,限制诸多,只能编辑不能保存到本地
易采游戏网2月25日独家消息:微软宣布推出一款免费的Office版本,允许用户进行基础文档编辑操作,但限制颇多,其中最引人关注的是用户无法将文件保存到本地。这一举措引发了广泛讨论,业界人士对其背后的商业策略和用户体验…...
《ArkTS鸿蒙应用开发入门到实战》—新手小白学习鸿蒙的推荐工具书!
《ArkTS鸿蒙应用开发入门到实战》—新手小白学习鸿蒙的推荐工具书! 在科技日新月异的今天,鸿蒙操作系统(HarmonyOS)作为华为推出的全新操作系统,正迅速进入越来越多的智能设备,成为物联网和智能硬件领域的…...
销售成交九步思维魔方
销售成交九步思维魔方 点 一、确定需求 原则1:问题是需求的前身原则2:基于问题才做决定原则3:人只解决大的问题 二、塑造价值 USP 利益 快乐 痛苦 价值 线 三、销售准备 精神上的准备 体能上的准备 产品知识准备 彻底了解顾客背景 …...
橄榄球、棒球项目排名·棒球1号位
美国四大体育联盟按照规模、影响力等因素综合排名,通常认为是: 1. NFL(国家橄榄球联盟):成立于1920年,是北美四大职业体育运动联盟之首,也是世界上最大的职业美式橄榄球联盟。由32支球队组成&am…...
DeepSeek 提示词:高效的提示词设计
🧑 博主简介:CSDN博客专家,历代文学网(PC端可以访问:https://literature.sinhy.com/#/?__c1000,移动端可微信小程序搜索“历代文学”)总架构师,15年工作经验,精通Java编…...
AI硬件加速的核心:深入探讨AI加速芯片模组的设计与应用
随着人工智能应用的普及,传统的计算架构已无法满足大规模深度学习模型训练和推理的需求。为了加速计算过程并提高能效,AI加速芯片应运而生。本文将介绍AI加速芯片模组的关键技术、发展趋势以及在各类应用中的重要性。 AI加速芯片模组的定义与构成 AI加速…...
LangChain:Models、Prompts、Indexes、Memory、Chains、Agents。MaxKB
LangChain:Models、Prompts、Indexes、Memory、Chains、Agents 在LangChain框架中,Models、Prompts、Indexes、Memory、Chains、Agents是六大核心抽象概念,它们各自承担独特功能,相互协作以助力开发者基于大语言模型构建高效智能应用。 Models(模型):指代各类大语言模型…...
html中的css
css (cascading style sheets,串联样式表,也叫层叠样式表) css规范一般约定: 1.存放CSS样式文件的目录一般命名为style或css。 2.在项目初期,会把不同类别的样式放于不同的CSS文件,是为了CSS编…...
JAVA面试常见题_基础部分_Dubbo面试题(上)
Dubbo 支持哪些协议,每种协议的应用场景,优缺点? • dubbo: 单一长连接和 NIO 异步通讯,适合大并发小数据量的服务调用,以及消费者远大于提供者。传输协议 TCP,异步,Hessian 序列化…...
Binder通信协议
目录 一,整体架构 二,Binder通信协议 一,整体架构 二,Binder通信协议...
解决应用程序 0xc00000142 错误:完整修复指南
💥 0xc00000142 错误出现的场景 你是不是遇到这样的情况: 🔹 点击某个软件,突然弹出“应用程序无法正确启动(0xc00000142)” ? 🔹 明明安装了所有必要组件,软件却始终打不开? &…...
游戏引擎学习第125天
仓库:https://gitee.com/mrxiao_com/2d_game_3 回顾并为今天的内容做准备。 昨天,当我们离开时,工作队列已经完成了基本的功能。这个队列虽然简单,但它能够执行任务,并且我们已经为各种操作编写了测试。字符串也能够正常推送到队…...
[免单统计]
免单统计 真题目录: 点击去查看 E 卷 100分题型 题目描述 华为商城举办了一个促销活动,如果某顾客是某一秒内最早时刻下单的顾客(可能是多个人),则可以获取免单。 请你编程计算有多少顾客可以获取免单。 输入描述 输入为 n 行数据,每一行表示一位顾客的下单时间 以(…...
DeepSeek R1满血+火山引擎详细教程
DeepSeek R1满血火山引擎详细教程 一、安装Cherry Studio。 Cherry Studio AI 是一款强大的多模型 AI 助手,支持 iOS、macOS 和 Windows 平台。可以快速切换多个先进的 LLM 模型,提升工作学习效率。下载地址 https://cherry-ai.com/ 认准官网,无强制注册。 这…...
前端依赖nrm镜像管理工具
npm 默认镜像 :https://registry.npmjs.org/ 1、安装 nrm npm install nrm --global2、查看镜像源列表 nrm ls3、测试当前环境下,哪个镜像源速度最快。 nrm test4、 切换镜像源 npm config get registry # 查看当前镜像源 nrm use taobao # 等价于 npm…...
【前端】Axios AJAX Fetch
不定期更新,建议关注收藏点赞。 目录 AxiosAJAXCORS 允许跨域请求 Fetch Axios axios 是一个基于 Promise 的 JavaScript HTTP 客户端,用于浏览器和 Node.js 中发送 HTTP 请求。它提供了一个简单的 API 来发起请求,并处理请求的结果。axios …...
【爬虫】request库
文章目录 发送请求响应对象响应数据的方式中文乱码问题响应对象的其他属性或方法 发送带参数的请求headers和查询参数 Requests——发送http请求,获取响应数据 首先,请确保: 已安装 RequestsRequests 是最新的 让我们从一些简单的示例开始…...
ES的简单讲解
功能 : 文档存储 与 文档搜索 特点:比如有一个文档名 “你好” 可以用‘你‘,好,你好都可以搜索到这个文档 ES核心概念 类似于数据库中表的概念,在表的概念下又对数据集合进行了细分 ES_Client查询接口 cpr::R…...
进程间通信(一)
1.进程间通信介绍 数组传输:一个进程需要将它的数据发送给另一个进程 资源共享:多个进程之间共享同样的资源 通知事件:一个进程需要向另一个或者一组进程发送信息,通知发送了某种事件(如进程终止时要通知父进程) 进程控制&…...
人工智能中的特征是什么?
什么是人工智能中的特征? 在人工智能中,特征(feature)是指从原始数据中提取出的、能够代表数据关键信息并用于模型训练的属性或变量。特征通常是对原始数据的抽象或转换,目的是捕捉数据中的模式、结构或相关性&#x…...
