当前位置: 首页 > news >正文

【AI算法岗面试八股面经【超全整理】——概率论】

AI算法岗面试八股面经【超全整理】

  • 概率论
  • 信息论
  • 机器学习
  • CV
  • NLP

目录

    • 1、古典概型、几何概型
    • 2、条件概率、全概率公式、贝叶斯公式
    • 3、先验概率、后验概率
    • 4、离散型随机变量的常见分布
    • 5、连续型随机变量的常见分别
    • 6、数学期望、方差
    • 7、协方差、相关系数
    • 8、独立、互斥、不相关
    • 9.大数定理
    • 10、中心极限定理
    • 11、最大似然估计(极大似然估计)

1、古典概型、几何概型

古典概型:(有限等可能)

  • 样本空间的数量是有限的
  • 每个样本点的发生是等可能性的

几何概型:(无限等可能)

  • 样本空间的样本点有无限个
  • 每个样本点发生的可能性是均等的

2、条件概率、全概率公式、贝叶斯公式

条件概率
设A、B是两个时间,且 P ( A ) > 1 P(A)>1 P(A)>1代表关节位置,则称 P ( B ∣ A ) = P ( A B ) P ( A ) P(B|A)=\frac{P(AB)}{P(A)} P(BA)=P(A)P(AB)为事件A发生条件下B的条件概率。

  • P ( A ) > 0 P(A)>0 P(A)>0时, P ( A B ) = P ( A ) P ( B ∣ A ) P(AB)=P(A)P(B|A) P(AB)=P(A)P(BA)
  • P ( B ) > 0 P(B)>0 P(B)>0时, P ( A B ) = P ( B ) P ( A ∣ B ) P(AB)=P(B)P(A|B) P(AB)=P(B)P(AB)

全概率公式
若事件 A 1 , A 2 , A 3 , ⋯ , A n A_1,A_2, A_3,\cdots,A_n A1,A2,A3,,An满足以下条件:

  • ∀ i ≠ j , A i A j = ∅ \forall{i\not=j},A_iAj=\emptyset i=j,AiAj=
  • A 1 ⋃ A 2 ⋃ A 3 ⋃ ⋯ ⋃ A n = Ω A_1\bigcup A_2\bigcup A_3\bigcup\cdots\bigcup A_n=\Omega A1A2A3An=Ω

则称 A 1 , A 2 , A 3 , ⋯ , A n A_1,A_2, A_3,\cdots,A_n A1,A2,A3,,An为完备事件组
全概率公式为:
P ( B ) = ∑ i = 1 n P ( A i ) P ( B ∣ A i ) \begin{aligned} P(B)=\sum_{i=1}^{n}P(A_i)P(B|A_i) \\ \end{aligned} P(B)=i=1nP(Ai)P(BAi)

贝叶斯公式
已知结果找原因,发生了结果B, A k A_k Ak被视作导致B发生的原因
A 1 , A 2 , A 3 , ⋯ , A n A_1,A_2, A_3,\cdots,A_n A1,A2,A3,,An为完备事件组,且 P ( A i ) > 0 ( i = 1 , 2 , ⋯ , n ) P(A_i)>0(i=1,2,\cdots,n) P(Ai)>0(i=1,2,,n),B为任意事件, P ( B ) > 0 P(B)>0 P(B)>0,则
P ( A k ∣ B ) = P ( A k ) P ( B ∣ A k ) P ( B ) = P ( A k ) P ( B ∣ A k ) ∑ i = 1 n P ( A i ) P ( B ∣ A i ) \begin{aligned} P(A_k|B)=\frac{P(A_k)P(B|A_k)}{P(B)}= \frac{P(A_k)P(B|A_k)}{\sum_{i=1}^{n}P(A_i)P(B|A_i)}\\ \end{aligned} P(AkB)=P(B)P(Ak)P(BAk)=i=1nP(Ai)P(BAi)P(Ak)P(BAk)
通常把 P ( A 1 ) , P ( A 2 ) , … , P ( A n ) P(A_1),P(A_2),\dots,P(A_n) P(A1),P(A2),,P(An)叫做先验概率,就是在做试验前的概率,而把 P ( A k ∣ B ) ( k = 1 , 2 , … , n ) P(A_k|B)(k=1,2,\dots, n) P(AkB)(k=1,2,,n)
叫做后验概率。

3、先验概率、后验概率

先验概率

  • 由原因推结果
  • 事情未发生,只根据以往数据统计,分析事情发生的可能性,即先验概率。
  • 先验概率是指根据以往经验和分析得到的概率,如全概率公司,它往往作为“由因求果”问题中的“因”出现。

后验概率

  • 由结果推原因
  • 事情已发生,已有结果,求引起这件事情发生的因素的可能性,“由果求因”,即后验概率。
  • 后验概率是指一句得到的结果信息所计算出的最有可能是哪种事件发生,如贝叶斯公式,是“由因求果”中的因。

全概率公式、贝叶斯公式与先验、后验概率的关系?

  • 全概率公式,总结几种因素,事件发生的概率的并集,由因求果
  • 贝叶斯公式,事情已经发生,计算引起结果的各因素的概率,由因求果,同后验概率
  • 全概率是用原因推结果,贝叶斯是用结果推原因
  • 后验概率的计算,是一先验概率为前提条件的,如果只知道事情结果,而不知道先验概率(没有以往数据统计),是无法计算后验概率的。后验概率需要应用到贝叶斯公式。

4、离散型随机变量的常见分布

0-1分布(伯努利分布)

  • 随机变量只取0或1两种值(概率分布是p和1-p)
  • 随机试验只做一次
    X ∼ B ( 1 , p ) \begin{aligned} X\sim B(1,p)\\ \end{aligned} XB(1,p)

二项分布(伯努利概型)

  • 设试验E只有两种可能结果: A A A A ‾ \overline{A} A,则称E为伯努利试验
  • 将E独立重复地进行n次,则称这一连串独立的重复试验为n重伯努利分布

随机变量依然也是两种0或1(概率分布是p和1-p),但是此时随机试验做了n次,其中事件X发生了k次

X ∼ B ( n , p ) \begin{aligned} X\sim B(n,p)\\ \end{aligned} XB(n,p)
P ( A = k ) P(A=k) P(A=k)表示在n次试验里面,事件A发生了k次的概率:
P ( A = k ) = C n k p k ( 1 − p ) n − k \begin{aligned} P(A=k)=C_n^kp^k{(1-p)}^{n-k}\\ \end{aligned} P(A=k)=Cnkpk(1p)nk
泊松分布
X ∼ P ( λ ) \begin{aligned} X\sim P(\lambda)\\ \end{aligned} XP(λ)

P ( A = k ) = λ k k ! e − λ \begin{aligned} P(A=k)=\frac{\lambda^k }{k!}e^{-\lambda}\\ \end{aligned} P(A=k)=k!λkeλ

几何分布
X ∼ G ( p ) \begin{aligned} X\sim G(p)\\ \end{aligned} XG(p)
在伯努利试验中,记每次试验中事件A发生的概率为0,试验进行到时间A出现为止,此时所进行的试验次数为X,其分布律为

P ( A = k ) = ( 1 − p ) k − 1 p ( k = 0 , 1 , 2 , … ) \begin{aligned} P(A=k)={(1-p)}^{k-1}p ~~~~~~ (k=0,1,2,\dots )\\ \end{aligned} P(A=k)=(1p)k1p      (k=0,1,2,)

5、连续型随机变量的常见分别

均匀分布
X ∼ U ( a , b ) \begin{aligned} X\sim U(a,b)\\ \end{aligned} XU(a,b)
f ( n ) = { 1 b − a , a < x < b 0 other \begin{aligned} f(n)= \begin{cases} \frac{1}{b-a}, & \text {$a<x<b$} \\ 0 & \text{other} \end{cases}\\ \end{aligned} f(n)={ba1,0a<x<bother

指数分布
X ∼ E ( λ ) \begin{aligned} X\sim E(\lambda)\\ \end{aligned} XE(λ)
f ( n ) = { λ e − λ x , x > 0 0 other \begin{aligned} f(n)= \begin{cases}\lambda e^{-\lambda x}, & \text {$x>0$} \\ 0 & \text{other} \end{cases}\\ \end{aligned} f(n)={λeλx,0x>0other

正态分布/高斯分布
X ∼ N ( μ , σ 2 ) \begin{aligned} X\sim N(\mu, \sigma ^2)\\ \end{aligned} XN(μ,σ2)

f ( x ) = 1 2 π σ e − ( x − μ ) 2 2 σ 2 \begin{aligned} f(x)=\frac{1 }{\sqrt{2\pi}\sigma}e^{-\frac{{(x-\mu)^2} }{2\sigma^2}}\\ \end{aligned} f(x)=2π σ1e2σ2(xμ)2

特别地,当 μ = 0 , σ = 1 \mu=0,\sigma=1 μ=0,σ=1时为标准正态分布, X ∼ N ( 0 , 1 ) X\sim N(0, 1) XN(0,1)

6、数学期望、方差

数学期望
数学期望(或均值、简称期望)是试验中每次可能结果的概率乘以其结果的总和。
方差
方差是衡量源数据与期望值相差的度量值。(平方的期望-期望的平方)
D ( X ) = E ( ( X − E ( X ) ) 2 ) = E ( X 2 ) − E 2 ( X ) D(X)=E({(X-E(X))}^2)=E(X^2)-E^2(X) D(X)=E((XE(X))2)=E(X2)E2(X)

7、协方差、相关系数

协方差
期望值分别为 E ( X ) E(X) E(X) E ( Y ) E(Y) E(Y)的两个实随机变量X与Y之间的协方差 C o v ( A , Y ) Cov(A,Y) Cov(A,Y)定义为:
C o v ( X , Y ) = E [ ( X − E [ X ] ) ( Y − E [ Y ] ) ] = E [ X Y ] − 2 E [ Y ] E [ X ] + E [ X ] E [ Y ] = E [ X Y ] − E [ X ] E [ Y ] Cov(X,Y)=E[(X-E[X])(Y-E[Y])]\\=E[XY]-2E[Y]E[X]+E[X]E[Y]\\=E[XY]-E[X]E[Y] Cov(X,Y)=E[(XE[X])(YE[Y])]=E[XY]2E[Y]E[X]+E[X]E[Y]=E[XY]E[X]E[Y]
即X,Y的协方差等于每一个X减去X的平均值乘上每一个Y减去Y的平均值的乘积的和的平均值。

相关系数
(皮尔逊相关系数)
p x y = C o v ( X , Y D ( X ) D ( Y ) p_{xy}=\frac{Cov(X,Y}{\sqrt{D(X)}\sqrt{D(Y)}} pxy=D(X) D(Y) Cov(X,Y
即,用X,Y的协方差除以X的标准差和Y的标准差

8、独立、互斥、不相关

独立
事件A与事件B独立的定义是:
P ( A B ) = P ( A ) P ( B ) P(AB)=P(A)P(B) P(AB)=P(A)P(B)

互斥
事件A与事件B互斥的定义是:
集合A与集合B没有相同的样本点,即 A ⋂ B = ∅ A\bigcap B =\empty AB=

不相关
事件A与事件B不相关的定义是:
C o v ( A , B ) = E [ A B ] − E [ A ] E [ B ] = 0 Cov(A,B)=E[AB]-E[A]E[B]=0 Cov(A,B)=E[AB]E[A]E[B]=0

  • 如果事件A和事件B发生的概率都不为0,那么独立和互斥有这样一层关系:互斥不独立,独立不互斥
  • 在数学期望存在的情况下:独立必不相关,不相关未必独立

9.大数定理

通俗一点来讲,就是样本数量很大的时候,样本均值和数学期望充分接近,也就是说当我们大量重复某一相同的实验的时候,其最后的实验结果可能会稳定在某一数值附近。
如果有一个随机变量X,不断地观察并且采样这个随机变量,得到了n个采样值, X 1 , X 2 , … , X n X_1,X_2,\dots,X_n X1,X2,,Xn,然后求得这n个采样值的平均值 X ‾ n \overline{X}_n Xn,当n趋于正无穷的时候,这个平均值就收敛于这个随机变量X的期望。
lim ⁡ n → + ∞ 1 n ∑ i = 1 n x i = μ \lim_{n \to +\infty} \frac{1}{n}\sum_{i=1}^{n}x_i=\mu n+limn1i=1nxi=μ

10、中心极限定理

设随机变量 X 1 , X 2 , … , X n X_1,X_2,\dots,X_n X1,X2,,Xn相互独立,服从同一分布,且具有数学期望和方差: E ( X k ) = μ E(X_k)=\mu E(Xk)=μ D ( X k ) = θ 2 ( k = 0 , 1 , 2 , … ) D(X_k)=\theta^2(k=0,1,2,\dots) D(Xk)=θ2(k=0,1,2,),则随机变量之和 ∑ k = 1 n X k \sum_{k=1}^{n}X_k k=1nXk的标准化变量:
Y n = ∑ k = 1 n X k − E ( ∑ k = 1 n X k ) D ( ∑ k = 1 n X k ) = ∑ k = 1 n X k − n μ n θ Y_n=\frac{\sum_{k=1}^{n}X_k-E(\sum_{k=1}^{n}X_k)}{\sqrt{D(\sum_{k=1}^{n}X_k)}}=\frac{\sum_{k=1}^{n}X_k-n\mu}{\sqrt{n}\theta} Yn=D(k=1nXk) k=1nXkE(k=1nXk)=n θk=1nXknμ
对于均值为 μ \mu μ,方差为 θ 2 \theta^2 θ2的独立同分布的随机变量 X 1 , X 2 , … , X n X_1,X_2,\dots,X_n X1,X2,,Xn之和 ∑ k = 1 n X k \sum_{k=1}^{n}X_k k=1nXk,当n足够大时,有:
1 n ∑ k = 1 n X k − μ θ n ∼ N ( 0 , 1 ) \frac{\frac{1}{n}{\sum_{k=1}^{n}X_k}-\mu}{\frac{\theta}{\sqrt{n}}}\sim N(0,1) n θn1k=1nXkμN(0,1)
N个独立同分布的随机变量,当N充分大时,其均值服从正态分布。
大数定律和中心极限定理的区别

  • 大数定理更关注的是样本均值,后者关注的是样本均值的分布。
  • 比如掷骰子,假设一轮掷骰子n次,重复了m轮,当n足够大时,大数定理指出这n次的均值等于随机变量的数学期望,而中心极限定理指出这m轮的均值分布符合数学期望的正态分布。

11、最大似然估计(极大似然估计)

一个简单的 n 重伯努利模型(二项分布):事件 A 发生的概率为 p,不发生的概率为 1-p,独立验概 n 次,事件 A 发生 k 次的概率为:
P ( A = k ) = C n k p k ( 1 − p ) n − k P(A=k)=C_n^kp^k{(1-p)}^{n-k} P(A=k)=Cnkpk(1p)nk
这是一个概率模型,即已知概率p,求另一些概率,即由因求果
而一个数理统计模型是由果溯因,即求解一下问题,p是多大时,事件A发生k次的概率最大,实际上就是一个求参数问题。

  • 概率质量函数(Probability Mass Function,PMF)是离散型随机变量在个特定取值上的概率
  • 概率密度函数(Probability Density Function,PDF)是统计学中常用的参数估计方法

最大似然估计(Maximum Likelihood Estimation,MLE)是统计学中常用的参数估计方法,用于根据已观测到的样本数据,选择使得观测数据出现概率最大的参数值。

  • 对于离散型随机变量,似然函数是概率质量函数的乘积:

L ( θ ) = P ( X = x 1 ) × P ( X = x 2 ) × ⋯ × P ( X = x n ) L(\theta)=P(X=x_1)\times P(X=x_2)\times \cdots \times P(X=x_n) L(θ)=P(X=x1)×P(X=x2)××P(X=xn)

  • 对于连续型随机变量,似然函数是概率密度函数的乘积:

L ( θ ) = f ( x 1 ∣ θ ) × f ( x 2 ∣ θ ) × ⋯ × f ( x n ∣ θ ) L(\theta)=f(x_1|\theta)\times f(x_2|\theta)\times \cdots \times f(x_n|\theta) L(θ)=f(x1θ)×f(x2θ)××f(xnθ)

最大似然估计的目标是找到使得似然函数最大化的参数值。

概率、似然
1、概率(发生前推测)

  • 某件事情发生的可能性,在结果没有产生之前依据环境所对应的参数来预测某件事情发生的可能性
  • 例如抛硬币之前,推测正面朝上的概率为50%

2、似然(发生后推测,参数)

  • 是在确定的结果之后推测产生这个结果的可能环境(参数)
  • 例如抛一枚硬币1000次,其中500次正面朝上,推测这是一枚标准硬币,正面吵上的概率为50%

统计学两大学派
1、频率学派

  • 认为样本信息来自总体,通过对样本信息的研究可以合理地推断、估计总体信息,并且随着样本的增加,推断结果更加准确
  • 极大似然估计

2、贝叶斯学派

  • 将先验信息和后验信息相结合,通过贝叶斯公式将先验信息与样本数据结合起来,得到后验分布,并以此作为对未知参数的推断(先验分布具有主观性)

相关文章:

【AI算法岗面试八股面经【超全整理】——概率论】

AI算法岗面试八股面经【超全整理】 概率论信息论机器学习CVNLP 目录 1、古典概型、几何概型2、条件概率、全概率公式、贝叶斯公式3、先验概率、后验概率4、离散型随机变量的常见分布5、连续型随机变量的常见分别6、数学期望、方差7、协方差、相关系数8、独立、互斥、不相关9.大…...

vue3 使用vant

使用前提&#xff1a; vite创建的vue3项目 vanthttps://vant-ui.github.io/vant/#/zh-CN/home npm i vant 引入样式&#xff1a; main.js import vant/lib/index.css vant封装 import { showLoadingToast,closeToast,showDialog,showConfirmDialog } from vant;export func…...

网络请求客户端WebClient的使用

在 Spring 5 之前&#xff0c;如果我们想要调用其他系统提供的 HTTP 服务&#xff0c;通常可以使用 Spring 提供的 RestTemplate 来访问&#xff0c;不过由于 RestTemplate 是 Spring 3 中引入的同步阻塞式 HTTP 客户端&#xff0c;因此存在一定性能瓶颈。根据 Spring 官方文档…...

unity制作app(9)--拍照 相册 上传照片

1.传输照片&#xff08;任何较大的数据&#xff09;都需要扩展服务器的内存空间。 2.还需要base64编码 2.1客户端发送位置的编码 2.2服务器接收部分的代码...

【busybox记录】【shell指令】mkfifo

目录 内容来源&#xff1a; 【GUN】【mkfifo】指令介绍 【busybox】【mkfifo】指令介绍 【linux】【mkfifo】指令介绍 使用示例&#xff1a; 创建管道文件 - 创建的时候同时指定文件权限 常用组合指令&#xff1a; 指令不常用/组合用法还需继续挖掘&#xff1a; 内容来…...

使用Jmeter进行性能测试的基本操作方法

&#x1f525; 交流讨论&#xff1a;欢迎加入我们一起学习&#xff01; &#x1f525; 资源分享&#xff1a;耗时200小时精选的「软件测试」资料包 &#x1f525; 教程推荐&#xff1a;火遍全网的《软件测试》教程 &#x1f4e2;欢迎点赞 &#x1f44d; 收藏 ⭐留言 &#x1…...

Linux学习笔记(epoll,IO多路复用)

Linux learning note 1、epoll的使用场景2、epoll的使用方法和内部原理2.1、创建epoll2.2、使用epoll监听和处理事件 3、示例 1、epoll的使用场景 epoll的英文全称是extend poll&#xff0c;顾名思义是poll的升级版。常见的IO复用技术有select&#xff0c;poll&#xff0c;epo…...

STM32定时器及输出PWM完成呼吸灯

文章目录 一、STM32定时器原理1、基本定时器2、通用定时器&#xff08;1&#xff09;时钟源&#xff08;2&#xff09;预分频器PSC&#xff08;3&#xff09;计数器CNT&#xff08;4&#xff09;自动装载寄存器ARR 3、高级定时器 二、PWM工作原理三、控制LED以2s的频率周期性地…...

海外仓管理系统费用解析:如何选择高性价比的海外仓系统

海外仓作为链接国内商家和海外市场的重要环节&#xff0c;其重要性自然是不言而喻的。 对于众多中小型海外仓来说&#xff0c;如何在保证服务质量的同时降低运营成本&#xff0c;就成了大家关注的焦点。今天我们就从海外仓管理系统的费用这个角度&#xff0c;来帮助大家分析一…...

深度学习之学习率调度器Scheduler介绍

调度器是深度学习训练过程中非常重要的一部分,它用于动态调整模型的学习率,从而提高训练效率和最终性能。 1. 为什么需要学习率调度器? 深度学习训练中,学习率是一个非常关键的超参数。合适的学习率可以确保模型快速收敛并获得良好的性能。 但是在训练过程中,最优的学习率会随…...

蓝桥杯-AB路线(详细原创)

问题描述&#xff1a; 有一个由 N M 个方格组成的迷宫&#xff0c;每个方格写有一个字母 A 或者 B。小蓝站在迷宫左上角的方格&#xff0c;目标是走到右下角的方格。他每一步可以移动到上下左右相邻的方格去。 由于特殊的原因&#xff0c;小蓝的路线必须先走 K 个 A 格子、再…...

计算机字符编码的发展

目录 背景 发展 第一阶段&#xff1a;ASCII编码 第二阶段&#xff1a;扩展ASCII编码 第三阶段&#xff1a;各国编码 第四阶段&#xff1a;Unicode编码 第五阶段&#xff1a;UTF系列编码方式 相关扩展 背景 在计算机诞生初期&#xff0c;所有的数据都是基于二进制数&am…...

Java(六)——抽象类与接口

文章目录 抽象类和接口抽象类抽象类的概念抽象类的语法抽象类的特性抽象类的意义 接口接口的概念接口的语法接口的特性接口的使用实现多个接口接口与多态接口间的继承抽象类和接口的区别 抽象类和接口 抽象类 抽象类的概念 Java使用类实例化对象来描述现实生活中的实体&…...

【4.vi编辑器使用(下)】

一、vi编辑器的光标移动 二、vi编辑器查找命令 1、命令&#xff1a;:/string 查找字符串 n&#xff1a;继续查找 N&#xff1a;反向继续查找 /^the 查找以the开头的行 /end 查找以 查找以 查找以结尾的行 三、vi编辑器替换命令 1、语法: : s[范围,范围]str1/str2[g] g表示全…...

【数据结构】探索树中的奇妙世界

专栏介绍&#xff1a; 哈喽大家好&#xff0c;我是野生的编程萌新&#xff0c;首先感谢大家的观看。数据结构的学习者大多有这样的想法&#xff1a;数据结构很重要&#xff0c;一定要学好&#xff0c;但数据结构比较抽象&#xff0c;有些算法理解起来很困难&#xff0c;学的很累…...

搭建YOLOv10环境 训练+推理+模型评估

文章目录 前言一、环境搭建必要环境1. 创建yolov10虚拟环境2. 下载pytorch (pytorch版本>1.8)3. 下载YOLOv10源码4. 安装所需要的依赖包 二、推理测试1. 将如下代码复制到ultralytics文件夹同级目录下并运行 即可得到推理结果2. 关键参数 三、训练及评估1. 数据结构介绍2. 配…...

c++(一)

c&#xff08;一&#xff09; C与C有什么区别命名空间使用 输入输出流引用指针和引用的区别定义拓展 函数重载例子测试函数重载原理 参数默认值什么是参数默认值注意 在c中如何引入c的库动态内存分配new、delete与malloc、free的区别&#xff1f; C与C有什么区别 <1>都是…...

java面试中高频问题----1

一、乐观锁和悲观锁定义、场景怎么判断用什么&#xff1f; 1.乐观锁&#xff1a; 定义&#xff1a;乐观锁假设大多数情况下&#xff0c;资源不会发生冲突。因此&#xff0c;允许多个线程同时访问资源。 场景&#xff1a;读操作多&#xff0c;写操作少&#xff0c;数据冲突概率…...

ABB 控制柜

1&#xff0c;主计算机&#xff1a;相当于电脑的主机&#xff0c;用于存放系统和数据&#xff0c;需要24V直流电才能工作。执行用户编写的程序&#xff0c;控制机器人进行响应的动作。主计算机有很多接口&#xff0c;比如与编程PC连接的服务网口、用于连接示教器的网口、连接轴…...

【错误记录】HarmonyOS 运行报错 ( Failure INSTALL_PARSE_FAILED_USESDK_ERROR )

文章目录 一、报错信息二、问题分析三、解决方案 一、报错信息 在 DevEco Studio 中 , 使用 远程设备 , 向 P40 Failure[INSTALL_PARSE_FAILED_USESDK_ERROR] compileSdkVersion and releaseType of the app do not match the apiVersion and releaseType on the device. 二、…...

盘古信息PCB行业解决方案:以全域场景重构,激活智造新未来

一、破局&#xff1a;PCB行业的时代之问 在数字经济蓬勃发展的浪潮中&#xff0c;PCB&#xff08;印制电路板&#xff09;作为 “电子产品之母”&#xff0c;其重要性愈发凸显。随着 5G、人工智能等新兴技术的加速渗透&#xff0c;PCB行业面临着前所未有的挑战与机遇。产品迭代…...

渗透实战PortSwigger靶场-XSS Lab 14:大多数标签和属性被阻止

<script>标签被拦截 我们需要把全部可用的 tag 和 event 进行暴力破解 XSS cheat sheet&#xff1a; https://portswigger.net/web-security/cross-site-scripting/cheat-sheet 通过爆破发现body可以用 再把全部 events 放进去爆破 这些 event 全部可用 <body onres…...

LeetCode - 394. 字符串解码

题目 394. 字符串解码 - 力扣&#xff08;LeetCode&#xff09; 思路 使用两个栈&#xff1a;一个存储重复次数&#xff0c;一个存储字符串 遍历输入字符串&#xff1a; 数字处理&#xff1a;遇到数字时&#xff0c;累积计算重复次数左括号处理&#xff1a;保存当前状态&a…...

C# 求圆面积的程序(Program to find area of a circle)

给定半径r&#xff0c;求圆的面积。圆的面积应精确到小数点后5位。 例子&#xff1a; 输入&#xff1a;r 5 输出&#xff1a;78.53982 解释&#xff1a;由于面积 PI * r * r 3.14159265358979323846 * 5 * 5 78.53982&#xff0c;因为我们只保留小数点后 5 位数字。 输…...

HashMap中的put方法执行流程(流程图)

1 put操作整体流程 HashMap 的 put 操作是其最核心的功能之一。在 JDK 1.8 及以后版本中&#xff0c;其主要逻辑封装在 putVal 这个内部方法中。整个过程大致如下&#xff1a; 初始判断与哈希计算&#xff1a; 首先&#xff0c;putVal 方法会检查当前的 table&#xff08;也就…...

安宝特方案丨船舶智造的“AR+AI+作业标准化管理解决方案”(装配)

船舶制造装配管理现状&#xff1a;装配工作依赖人工经验&#xff0c;装配工人凭借长期实践积累的操作技巧完成零部件组装。企业通常制定了装配作业指导书&#xff0c;但在实际执行中&#xff0c;工人对指导书的理解和遵循程度参差不齐。 船舶装配过程中的挑战与需求 挑战 (1…...

Ubuntu Cursor升级成v1.0

0. 当前版本低 使用当前 Cursor v0.50时 GitHub Copilot Chat 打不开&#xff0c;快捷键也不好用&#xff0c;当看到 Cursor 升级后&#xff0c;还是蛮高兴的 1. 下载 Cursor 下载地址&#xff1a;https://www.cursor.com/cn/downloads 点击下载 Linux (x64) &#xff0c;…...

go 里面的指针

指针 在 Go 中&#xff0c;指针&#xff08;pointer&#xff09;是一个变量的内存地址&#xff0c;就像 C 语言那样&#xff1a; a : 10 p : &a // p 是一个指向 a 的指针 fmt.Println(*p) // 输出 10&#xff0c;通过指针解引用• &a 表示获取变量 a 的地址 p 表示…...

[USACO23FEB] Bakery S

题目描述 Bessie 开了一家面包店! 在她的面包店里&#xff0c;Bessie 有一个烤箱&#xff0c;可以在 t C t_C tC​ 的时间内生产一块饼干或在 t M t_M tM​ 单位时间内生产一块松糕。 ( 1 ≤ t C , t M ≤ 10 9 ) (1 \le t_C,t_M \le 10^9) (1≤tC​,tM​≤109)。由于空间…...

车载诊断架构 --- ZEVonUDS(J1979-3)简介第一篇

我是穿拖鞋的汉子,魔都中坚持长期主义的汽车电子工程师。 老规矩,分享一段喜欢的文字,避免自己成为高知识低文化的工程师: 做到欲望极简,了解自己的真实欲望,不受外在潮流的影响,不盲从,不跟风。把自己的精力全部用在自己。一是去掉多余,凡事找规律,基础是诚信;二是…...