当前位置: 首页 > news >正文

【Python机器学习实战】 | 基于PCA主成分分析技术读入空气质量监测数据进行数据预处理并计算空气质量综合评测结果

🎩 欢迎来到技术探索的奇幻世界👨‍💻

📜 个人主页:@一伦明悦-CSDN博客

✍🏻 作者简介 C++软件开发、Python机器学习爱好者

🗣️ 互动与支持💬评论      👍🏻点赞      📂收藏     👀关注+

如果文章有所帮助,欢迎留下您宝贵的评论,

点赞加收藏支持我,点击关注,一起进步!

引言

主成分分析(Principal Component Analysis, PCA)是一种常用的机器学习和数据分析技术,用于降低数据维度、识别数据中的模式、发现变量之间的关系等。以下是PCA技术的详细介绍:

  1. 基本概念

    • PCA旨在通过线性变换将原始数据投影到一个新的坐标系中,新坐标系中的坐标轴称为主成分。这些主成分按照方差大小递减的顺序排列,第一主成分具有最大的方差,第二主成分具有第二大的方差,依此类推。
  2. 数学原理

    • PCA通过计算数据的协方差矩阵或相关矩阵,然后对其进行特征值分解(或奇异值分解),以获得主成分和对应的特征向量。这些特征向量定义了新的坐标系,而数据投影到这些特征向量上形成的新坐标即为主成分。
  3. 应用步骤

    • 数据标准化:对原始数据进行标准化处理,使得不同维度的数据具有相同的尺度。
    • 计算协方差矩阵:计算标准化后的数据的协方差矩阵。
    • 特征值分解:对协方差矩阵进行特征值分解或奇异值分解,得到特征值和特征向量。
    • 选择主成分:按照特征值的大小选择前k个主成分,这些主成分对应的特征向量构成了新的特征空间。
  4. 降维和数据压缩

    • PCA通过保留最重要的主成分(即方差较大的主成分)来实现数据的降维,从而减少数据的复杂度和存储空间,同时保留数据中的关键信息。
  5. PCA的应用领域

    • 数据可视化:通过降维将高维数据可视化到二维或三维空间,帮助分析人员理解数据的结构。
    • 特征提取:在机器学习中,PCA可以用来提取数据中最重要的特征,以便于后续的分类、回归或聚类任务。
    • 噪声过滤:PCA可以过滤掉数据中的噪声成分,提高数据的质量和后续分析的准确性。

正文

01-对数据集进行主成分分析并计算各主成分的方差贡献率

这段代码主要进行了以下操作:

  1. 导入所需的模块

    • 导入了numpy(np)、pandas(pd)和matplotlib.pyplot(plt)等常用的数据处理和可视化模块。
    • 导入了Axes3D和cm模块用于创建3D图形和设置颜色映射。
    • 使用warnings模块过滤警告信息,避免在程序运行过程中输出警告。
    • 设置matplotlib绘图显示中文字符的字体和解决负号显示问题。
    • 导入了make_regression、make_circles、make_s_curve等数据集生成函数,以及train_test_split等模型选择相关函数。
    • 导入FactorAnalyzer用于因子分析。
  2. 创建子图及设置图形参数

    • 使用plt.subplots创建1行2列的子图,设置子图的大小为15x6。
  3. 生成数据并进行可视化

    • 对于noise取30和10两种情况,分别生成包含50个样本观测点的数据集。
    • 使用make_regression生成具有线性关系的数据集,其中包括一个特征和一个目标变量,同时受到指定程度的噪声干扰。
    • 将生成的数据集绘制为散点图分布在两个子图中。
    • 设置子图标题、横纵坐标标签、显示网格线,并在图中添加标注显示各特征的离散程度。
  4. 保存图形

    • 使用plt.savefig将绘制的图形保存为文件,文件名为"…/4.png",分辨率为500dpi。

总体来说,这段代码通过生成具有线性关系的带有噪声的数据集,并通过散点图可视化展示了各个特征的分布情况,同时对数据的离散程度进行了说明。并最终将绘制的图形保存为文件。

#本章需导入的模块
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
from pylab import *
import matplotlib.cm as cm
import warnings
warnings.filterwarnings(action = 'ignore')
%matplotlib inline
plt.rcParams['font.sans-serif']=['SimHei']  #解决中文显示乱码问题
plt.rcParams['axes.unicode_minus']=False
from sklearn.datasets import make_regression,make_circles,make_s_curve
from sklearn.model_selection import train_test_split
from scipy.stats import multivariate_normal
from sklearn import decomposition
from factor_analyzer import FactorAnalyzerfig,axes=plt.subplots(nrows=1,ncols=2,figsize=(15,6))
N=50
for i,noise in enumerate([30,10]): X,Y=make_regression(n_samples=N,n_features=1,random_state=123,noise=noise,bias=0)X=np.hstack((X,Y.reshape(len(X),1)))axes[i].scatter(X[:,0],X[:,1],marker="o",s=50)axes[i].set_title("%d个样本观测点的分布"%N)axes[i].set_xlabel("X1")axes[i].set_ylabel("X2")axes[i].grid(True,linestyle='-.')axes[i].text(-3,75,"离散程度:X1=%.2f;\n         X2=%.2f;"%(np.std(X[:,0])/np.mean(X[:,0]),np.std(X[:,1])/np.mean(X[:,1])),fontdict={'size':'12','color':'b'})  plt.savefig("../4.png", dpi=500)   

运行结果如下图所示: 

这段代码的作用是使用主成分分析(PCA)对生成的带有噪声的数据集进行降维,并可视化降维后的结果。

具体解释如下:

  1. 创建子图及设置图形参数

    • fig, axes = plt.subplots(nrows=1, ncols=2, figsize=(15, 6)):创建包含1行2列的子图,每个子图的大小为15x6英寸。
  2. PCA模型的应用

    • pca = decomposition.PCA(n_components=2, random_state=1):初始化PCA对象,指定降维后保留的主成分数量为2,并设置随机种子以确保结果的可重复性。
  3. 生成数据并进行降维

    • for i, noise in enumerate([30, 10])::循环两次,分别处理噪声为30和10的情况。
    • X, Y = make_regression(n_samples=N, n_features=1, random_state=123, noise=noise, bias=0):生成包含50个样本观测点的数据集,其中特征数为1,同时受指定程度的噪声影响。
    • X = np.hstack((X, Y.reshape(len(X), 1))):将生成的特征X和目标变量Y合并成一个数组。
    • pca.fit(X):对数据集X进行PCA拟合,计算主成分和其它相关参数。
  4. 获取PCA结果并绘图

    • pca.singular_values_:获取PCA模型中的奇异值,即主成分的特征值。
    • pca.components_:获取PCA模型的主成分(特征向量)。
    • y = pca.transform(X):将原始数据集X转换到主成分空间,得到降维后的数据y。
    • axes[i].scatter(y[:, 0], y[:, 1], marker="o", s=50):在第i个子图中绘制降维后的数据y的散点图,x轴为第一个主成分,y轴为第二个主成分。
    • axes[i].set_title("%d个样本观测点的分布(方差贡献率:y1=%.3f,y2=%.3f)\n系数:%s"%(N, p1, p2, a)):设置子图标题,显示样本数量、每个主成分的方差贡献率、以及主成分系数。
    • axes[i].set_xlabel("y1") 和 axes[i].set_ylabel("y2"):设置子图的x轴和y轴标签。
    • axes[i].grid(True, linestyle='-.'):显示子图的网格线。
  5. 保存图形

    • plt.savefig("../4.png", dpi=500):将绘制的子图保存为文件,文件名为"…/4.png",分辨率为500dpi。

总体来说,这段代码通过PCA将高维数据降至二维,并展示降维后的数据分布情况及主成分的贡献率和系数,最后将结果保存为图片文件。

fig,axes=plt.subplots(nrows=1,ncols=2,figsize=(15,6))
pca=decomposition.PCA(n_components=2,random_state=1)
for i,noise in enumerate([30,10]): X,Y=make_regression(n_samples=N,n_features=1,random_state=123,noise=noise,bias=0)X=np.hstack((X,Y.reshape(len(X),1)))pca.fit(X)    p1=pca.singular_values_[0]/sum(pca.singular_values_) #p1=pca.explained_variance_ratio_[0]p2=pca.singular_values_[1]/sum(pca.singular_values_) #p2=pca.explained_variance_ratio_[1] a=pca.components_y=pca.transform(X)axes[i].scatter(y[:,0],y[:,1],marker="o",s=50)axes[i].set_title("%d个样本观测点的分布(方差贡献率:y1=%.3f,y2=%.3f)\n系数:%s"%(N,p1,p2,a))axes[i].set_xlabel("y1")axes[i].set_ylabel("y2")axes[i].grid(True,linestyle='-.')      
plt.savefig("../4.png", dpi=500)   

运行结果如下图所示:

02-核主成分分析

这段代码的作用是生成并可视化两个不同维度的数据集,包括二维平面和三维空间的样本分布。

具体解释如下:

  1. 导入必要的库

    • import numpy as np: 导入数值计算库numpy。
    • import pandas as pd: 导入数据处理库pandas(未在代码中使用)。
    • import matplotlib.pyplot as plt: 导入绘图库matplotlib。
    • from mpl_toolkits.mplot3d import Axes3D: 导入用于绘制3D图形的模块。
    • from pylab import *: 导入pylab模块中的所有内容(未在代码中使用)。
    • import matplotlib.cm as cm: 导入颜色映射模块。
    • import warnings: 导入警告处理模块。
    • warnings.filterwarnings(action='ignore'): 设置忽略警告。
    • %matplotlib inline: 在Jupyter Notebook中使用matplotlib绘图时需要的魔法命令,用于在输出单元格中显示图形。
    • plt.rcParams['font.sans-serif']=['SimHei'] 和 plt.rcParams['axes.unicode_minus']=False:设置matplotlib以显示中文和解决负号显示问题。
    • from sklearn.datasets import make_regression, make_circles, make_s_curve: 导入生成数据集的模块。
    • from sklearn.model_selection import train_test_split: 导入数据集划分模块。
    • from scipy.stats import multivariate_normal: 导入多元正态分布模块。
    • from sklearn import decomposition: 导入降维算法PCA的模块。
    • from factor_analyzer import FactorAnalyzer: 导入因子分析模块(未在代码中使用)。
  2. 设置常量和生成二维数据

    • N = 100: 设置生成数据集的样本数量为100。
    • X, Y = make_circles(n_samples=N, noise=0.2, factor=0.5, random_state=123): 生成包含100个样本观测点的圆环形数据集,噪声为0.2,因子为0.5。
  3. 绘制二维数据分布

    • fig = plt.figure(figsize=(18, 6)): 创建图形对象,设置图形大小为18x6英寸。
    • markers = ['^', 'o']: 定义两种不同的标记样式。
    • ax = fig.add_subplot(121): 创建第一个子图,将其添加到图形中。
    • 循环绘制两个类别的数据点,根据类别使用不同的标记样式。
    • ax.set_title("100个样本观测点在二维空间中的分布"): 设置子图标题。
    • ax.set_xlabel("y1") 和 ax.set_ylabel("y2"): 设置x轴和y轴标签。
    • ax.grid(True, linestyle='-.'): 显示子图的网格线。
  4. 生成三维数据并绘制分布

    • ax = fig.add_subplot(122, projection='3d'): 创建第二个子图,使用3D投影。
    • var = multivariate_normal(mean=[0,0], cov=[[1,0],[0,1]]): 定义二维正态分布的参数。
    • 将二维数据与正态分布的概率密度函数值结合,形成一个包含三个特征的数据集。
    • 使用循环绘制两个类别的数据点,根据类别使用不同的标记样式。
    • ax.set_xlabel('X1')ax.set_ylabel('X2')ax.set_zlabel('X3'): 设置三维坐标轴的标签。
    • ax.set_title('三维空间下100个样本观测点的分布'): 设置子图标题。
  5. 保存图形

    • plt.savefig("../4.png", dpi=500): 将绘制的整个图形保存为文件,文件名为"…/4.png",分辨率为500dpi。

总体来说,这段代码通过使用make_circles生成二维数据和multivariate_normal生成三维数据,展示了不同维度空间下数据分布的可视化效果,并保存为图片文件。

#本章需导入的模块
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
from pylab import *
import matplotlib.cm as cm
import warnings
warnings.filterwarnings(action = 'ignore')
%matplotlib inline
plt.rcParams['font.sans-serif']=['SimHei']  #解决中文显示乱码问题
plt.rcParams['axes.unicode_minus']=False
from sklearn.datasets import make_regression,make_circles,make_s_curve
from sklearn.model_selection import train_test_split
from scipy.stats import multivariate_normal
from sklearn import decomposition
from factor_analyzer import FactorAnalyzerN=100
X,Y=make_circles(n_samples=N,noise=0.2,factor=0.5,random_state=123)
fig = plt.figure(figsize=(18,6))
markers=['^','o']
ax = fig.add_subplot(121)
for k,m in zip([1,0],markers):ax.scatter(X[Y==k,0],X[Y==k,1],marker=m,s=50)
ax.set_title("100个样本观测点在二维空间中的分布")
ax.set_xlabel("y1")
ax.set_ylabel("y2")
ax.grid(True,linestyle='-.')
ax = fig.add_subplot(122, projection='3d')
var = multivariate_normal(mean=[0,0], cov=[[1,0],[0,1]])Z=np.zeros((len(X),))
for i,x in enumerate(X):Z[i]=var.pdf(x)
X=np.hstack((X,Z.reshape(len(X),1)))
for k,m in zip([1,0],markers):ax.scatter(X[Y==k,0],X[Y==k,1],X[Y==k,2],marker=m,s=40)
ax.set_xlabel('X1')
ax.set_ylabel('X2')
ax.set_zlabel('X3')
ax.set_title('三维空间下100个样本观测点的分布')  
plt.savefig("../4.png", dpi=500) 

运行结果如下图所示:

这段代码实现了核主成分分析(Kernel PCA),并将结果可视化。下面是详细解释:

  1. 设置图形大小

    • plt.figure(figsize=(15, 6)): 创建一个新的图形对象,并设置图形大小为15x6英寸。
  2. 定义核函数类型

    • kernels = ['linear', 'rbf']: 定义了两种核函数类型,线性核和径向基函数(RBF)核。
  3. 进行核主成分分析和可视化

    • for i, kernel in enumerate(kernels):: 循环处理每种核函数类型。
      • kpca = decomposition.KernelPCA(n_components=2, kernel=kernel): 创建一个核主成分分析对象,指定将数据映射到2维空间,并选择当前循环的核函数类型。
      • kpca.fit(X): 对原始数据 X 进行核主成分分析拟合。
      • y = kpca.transform(X): 将原始数据映射到降维后的2维空间。
  4. 输出方差贡献率

    • print('方差贡献率(%s):%s'%(kernel,kpca.lambdas_/sum(kpca.lambdas_))): 输出每种核函数类型下,每个主成分的方差贡献率。
  5. 绘制子图

    • plt.subplot(1, 2, i+1): 在1x2的子图中,选择第i+1个子图进行绘制。
    • for k, m in zip([1, 0], markers):: 循环绘制两个类别的数据点。
      • plt.scatter(y[Y==k, 0], y[Y==k, 1], marker=m, s=50): 根据降维后的数据 y 和类别 Y,绘制散点图,使用不同的标记样式 m 表示不同的类别。
      • plt.grid(True, linestyle='-.'): 显示子图的网格线。
      • plt.title('核主成分分析结果(核函数:%s)' % kernel): 设置子图的标题,指明当前使用的核函数类型。
  6. 保存图形

    • plt.savefig("../4.png", dpi=500): 将绘制的整个图形保存为文件,文件名为"…/4.png",分辨率为500dpi。

这段代码通过核主成分分析对原始数据 X 进行降维,并利用不同核函数类型(线性和RBF)展示了降维后的数据分布情况。每个子图显示了相应核函数下的数据点分布,同时保存整个图形为文件。

plt.figure(figsize=(15,6))
kernels=['linear','rbf']
for i,kernel in enumerate(kernels):kpca=decomposition.KernelPCA(n_components=2,kernel=kernel)kpca.fit(X)y=kpca.transform(X)print('方差贡献率(%s):%s'%(kernel,kpca.lambdas_/sum(kpca.lambdas_)))plt.subplot(1,2,i+1)for k,m in zip([1,0],markers):plt.scatter(y[Y==k,0],y[Y==k,1],marker=m,s=50)plt.grid(True,linestyle='-.')plt.title('核主成分分析结果(核函数:%s)'%kernel)
plt.savefig("../4.png", dpi=500) 

 运行结果如下图所示:

这段代码用于生成一个三维 S 形曲面数据集,并将其可视化为三维散点图,并保存为图片。

  1. 生成 S 形曲面数据集

    • X, t = make_s_curve(n_samples=8000, noise=0, random_state=123): 使用 make_s_curve 函数生成一个包含8000个样本的 S 形曲面数据集。X 是特征数据,t 是对应的颜色标签(在此处用来绘制不同颜色的数据点)。
  2. 创建图形对象

    • fig = plt.figure(figsize=(12, 6)): 创建一个新的图形对象,设置图形大小为12x6英寸。
  3. 添加三维子图

    • ax = fig.add_subplot(111, projection='3d'): 在图形对象中添加一个三维子图,使用投影类型为3D。
  4. 绘制三维散点图

    • color = np.array(t): 将颜色标签 t 转换为numpy数组,用于散点的颜色映射。
    • ax.scatter(X[:, 0], X[:, 1], X[:, 2], s=8, color=plt.cm.Spectral(color)): 绘制三维散点图。X[:, 0]X[:, 1]X[:, 2] 分别表示数据集中的三个特征维度,s=8 指定散点的大小,color=plt.cm.Spectral(color) 根据颜色标签 t 使用彩色映射来绘制不同颜色的数据点。
  5. 设置坐标轴标签

    • ax.set_xlabel("X1")ax.set_ylabel("X2")ax.set_zlabel("X3"): 设置三维子图的 x、y、z 轴标签为 “X1”、“X2”、“X3”。
  6. 保存图形

    • plt.savefig("../4.png", dpi=500): 将绘制的三维散点图保存为文件,文件名为"…/4.png",分辨率为500dpi。

这段代码通过使用 make_s_curve 函数生成的 S 形曲面数据集,利用三维散点图展示了数据点的分布情况,并将图形保存为文件。

X,t=make_s_curve(n_samples=8000, noise=0, random_state=123)
fig = plt.figure(figsize=(12,6))
#ax = Axes3D(fig)
ax = fig.add_subplot(111, projection='3d')
color=np.array(t)
ax.scatter(X[:,0],X[:,1],X[:,2],s=8,color=plt.cm.Spectral(color))
ax.set_xlabel("X1")
ax.set_ylabel("X2")
ax.set_zlabel("X3")
plt.savefig("../4.png", dpi=500)

  运行结果如下图所示:

这段代码创建了一个包含三个子图的图形,并在每个子图中绘制了二维散点图,展示了数据集在不同维度的投影关系。最终将整个图形保存为文件。

  1. 创建包含三个子图的图形

    • fig, axes = plt.subplots(nrows=1, ncols=3, figsize=(20, 6)): 创建一个具有一行三列的子图布局,总共包含三个子图,设置图形大小为20x6英寸。fig 是整个图形对象,axes 是包含三个子图的数组。
  2. 在第一个子图绘制 X1-X2 的散点图

    • axes[0].scatter(X[:, 0], X[:, 1], s=8, color=plt.cm.Spectral(color)): 在第一个子图中绘制 X1-X2 的二维散点图。数据集的第一列作为X轴,第二列作为Y轴,s=8 指定散点的大小,color=plt.cm.Spectral(color) 根据颜色标签 t 使用彩色映射来绘制不同颜色的数据点。
    • axes[0].set_xlabel("X1"): 设置第一个子图的 x 轴标签为 “X1”。
    • axes[0].set_ylabel("X2"): 设置第一个子图的 y 轴标签为 “X2”。
  3. 在第二个子图绘制 X1-X3 的散点图

    • axes[1].scatter(X[:, 0], X[:, 2], s=8, color=plt.cm.Spectral(color)): 在第二个子图中绘制 X1-X3 的二维散点图。数据集的第一列作为X轴,第三列作为Y轴,s=8 指定散点的大小,color=plt.cm.Spectral(color) 使用彩色映射来绘制不同颜色的数据点。
    • axes[1].set_xlabel("X1"): 设置第二个子图的 x 轴标签为 “X1”。
    • axes[1].set_ylabel("X3"): 设置第二个子图的 y 轴标签为 “X3”。
  4. 在第三个子图绘制 X2-X3 的散点图

    • axes[2].scatter(X[:, 1], X[:, 2], s=8, color=plt.cm.Spectral(color)): 在第三个子图中绘制 X2-X3 的二维散点图。数据集的第二列作为X轴,第三列作为Y轴,s=8 指定散点的大小,color=plt.cm.Spectral(color) 使用彩色映射来绘制不同颜色的数据点。
    • axes[2].set_xlabel("X2"): 设置第三个子图的 x 轴标签为 “X2”。
    • axes[2].set_ylabel("X3"): 设置第三个子图的 y 轴标签为 “X3”。
  5. 保存图形

    • plt.savefig("../4.png", dpi=500): 将包含三个子图的图形保存为文件,文件名为"…/4.png",分辨率为500dpi。

这段代码将数据集在不同维度的投影关系通过三个二维散点图展示了出来,并将整个图形保存为文件。

fig,axes=plt.subplots(nrows=1,ncols=3,figsize=(20,6))
axes[0].scatter(X[:,0],X[:,1],s=8,color=plt.cm.Spectral(color))
axes[0].set_xlabel("X1")
axes[0].set_ylabel("X2")
axes[1].scatter(X[:,0],X[:,2],s=8,color=plt.cm.Spectral(color))
axes[1].set_xlabel("X1")
axes[1].set_ylabel("X3")
axes[2].scatter(X[:,1],X[:,2],s=8,color=plt.cm.Spectral(color))
axes[2].set_xlabel("X2")
axes[2].set_ylabel("X3")
plt.savefig("../4.png", dpi=500) 

运行结果如下图所示 :

这段代码执行了核主成分分析(Kernel PCA),并将结果可视化在三个不同的子图中,每个子图使用不同的核函数进行分析。

  1. 数据准备

    • tmp = X[:, [0, 2]]: 从原始数据集 X 中选择第1列和第3列特征作为新的数据集 tmp,用于后续的主成分分析。
  2. 定义核函数列表

    • kernels = ['linear', 'rbf', 'poly']: 定义了三种核函数类型,分别是线性核(linear)、高斯径向基函数核(rbf)、多项式核(poly)。
  3. 创建图形对象

    • plt.figure(figsize=(15, 4)): 创建一个图形对象,设置图形大小为15x4英寸。
  4. 循环执行主成分分析和可视化

    • for i, kernel in enumerate(kernels)::遍历三种核函数类型。
  5. 核主成分分析

    • kpca = decomposition.KernelPCA(n_components=2, kernel=kernel): 使用当前循环的核函数类型 kernel 创建一个 KernelPCA 对象,指定将数据降至二维。
    • kpca.fit(tmp): 对数据集 tmp 进行核主成分分析,拟合模型。
    • y = kpca.transform(tmp): 将数据集 tmp 转换到降维后的二维空间,结果存储在 y 中。
  6. 绘制子图

    • plt.subplot(1, 3, i+1): 在图形对象中创建一个一行三列的子图布局,并定位到当前循环的位置。
    • plt.scatter(y[:, 0], y[:, 1], s=8, color=plt.cm.Spectral(color)): 在当前子图中绘制主成分分析后的二维散点图。y[:, 0] 和 y[:, 1] 分别表示降维后的第一和第二主成分,s=8 指定散点的大小,color=plt.cm.Spectral(color) 根据颜色标签 t 使用彩色映射来绘制不同颜色的数据点。
    • plt.title("核主成分分析(核函数=%s)" % kernel): 设置当前子图的标题,显示当前使用的核函数类型。
    • plt.xlabel("第1主成分"): 设置当前子图的 x 轴标签。
    • plt.ylabel("第2主成分"): 设置当前子图的 y 轴标签。
  7. 打印方差贡献率

    • print('方差贡献率(%s):%s' % (kernel, kpca.lambdas_ / sum(kpca.lambdas_))):计算并打印出当前核函数下每个主成分的方差贡献率,kpca.lambdas_ 包含了每个主成分的方差。

这段代码的目的是比较不同核函数在核主成分分析下的效果,通过降维后的二维散点图展示数据在主成分空间的分布情况,并输出每个主成分的方差贡献率。

tmp=X[:,[0,2]]
kernels=['linear','rbf','poly']  
plt.figure(figsize=(15,4))
for i,kernel in enumerate(kernels):kpca=decomposition.KernelPCA(n_components=2,kernel=kernel)kpca.fit(tmp)y=kpca.transform(tmp)plt.subplot(1,3,i+1)plt.scatter(y[:,0],y[:,1],s=8,color=plt.cm.Spectral(color))plt.title("核主成分分析(核函数=%s)"%kernel)plt.xlabel("第1主成分")plt.ylabel("第2主成分")    print('方差贡献率(%s):%s'%(kernel,kpca.lambdas_/sum(kpca.lambdas_)))

运行结果如下图所示 :

这段代码是进行不同核函数下的核主成分分析(Kernel PCA),并将结果可视化在一个包含四个子图的图形中。

  1. 设置图形大小

    • plt.figure(figsize=(12, 8)): 创建一个图形对象,设置图形大小为12x8英寸。
  2. 定义核函数列表

    • kernels = ['linear', 'rbf', 'poly', 'sigmoid']: 定义了四种核函数类型,包括线性核(linear)、高斯径向基函数核(rbf)、多项式核(poly)和sigmoid核。
  3. 循环执行主成分分析和可视化

    • for i, kernel in enumerate(kernels)::遍历四种核函数类型。
  4. 核主成分分析

    • kpca = decomposition.KernelPCA(n_components=2, kernel=kernel): 使用当前循环的核函数类型 kernel 创建一个 KernelPCA 对象,指定将数据降至二维。
    • kpca.fit(X): 对完整的原始数据集 X 进行核主成分分析,拟合模型。
    • y = kpca.transform(X): 将整个数据集 X 转换到降维后的二维空间,结果存储在 y 中。
  5. 绘制子图

    • plt.subplot(2, 2, i+1): 在图形对象中创建一个两行两列的子图布局,并定位到当前循环的位置。
    • plt.scatter(y[:, 0], y[:, 1], s=8, color=plt.cm.Spectral(color)): 在当前子图中绘制主成分分析后的二维散点图。y[:, 0] 和 y[:, 1] 分别表示降维后的第一和第二主成分,s=8 指定散点的大小,color=plt.cm.Spectral(color) 根据颜色标签 t 使用彩色映射来绘制不同颜色的数据点。
    • plt.title("不同核函数下的主成分分析(核函数:%s)\n方差贡献率%s:" % (kernel, kpca.lambdas_ / sum(kpca.lambdas_))): 设置当前子图的标题,显示当前使用的核函数类型以及每个主成分的方差贡献率。
    • plt.subplots_adjust(hspace=0.5): 调整子图之间的垂直间距,增加可读性。

通过这段代码,可以直观地比较不同核函数在核主成分分析下的效果,了解数据在主成分空间中的分布情况以及各主成分的贡献率。

plt.figure(figsize=(12,8))
kernels=['linear','rbf','poly','sigmoid']  
for i,kernel in enumerate(kernels):kpca=decomposition.KernelPCA(n_components=2,kernel=kernel)kpca.fit(X)y=kpca.transform(X)plt.subplot(2,2,i+1)plt.scatter(y[:,0],y[:,1],s=8,color=plt.cm.Spectral(color))plt.title("不同核函数下的主成分分析(核函数:%s)\n方差贡献率%s:"%(kernel,kpca.lambdas_/sum(kpca.lambdas_)))plt.subplots_adjust(hspace=0.5)

运行结果如下图所示 :

03-基于主成分分析的因子分析

这段代码执行了基于主成分分析的因子分析,并进行了可视化。让我来详细解释每个步骤:

  1. 导入必要的模块

    • 导入了用于数学计算和数据操作的模块,如NumPy和Pandas。
    • 导入了用于绘图的Matplotlib模块和其子模块,以及设置中文显示的相关配置。
    • 导入了生成数据和模型选择所需的模块,如make_s_curve用于生成S形曲线样本数据。
    • 导入了用于因子分析的FactorAnalyzer类。
  2. 生成数据集

    • X, t = make_s_curve(n_samples=8000, noise=0, random_state=123): 生成了包含8000个样本的S形曲线数据集,t是每个样本的颜色标签。
  3. 数据预处理

    • color = np.array(t): 将颜色标签转换为NumPy数组。
    • X = pd.DataFrame(X): 将数据集转换为DataFrame格式(可选)。
    • R = X.corr(): 计算数据集的样本相关性矩阵R
  4. 计算因子载荷矩阵

    • eig_value, eigvector = np.linalg.eig(R): 计算样本相关性矩阵R的特征值和特征向量。
    • 对特征值进行排序和处理,得到因子载荷矩阵factorM,它是特征向量与特征值开平方的乘积。
  5. 计算因子值系数

    • score = np.linalg.inv(R) * factorM: 计算因子值系数,即特征值的逆乘以因子载荷矩阵。
  6. 因子分析

    • fa = FactorAnalyzer(method='principal', n_factors=2, rotation=None): 使用主成分法进行因子分析,设定因子数量为2。
    • fa.fit(X): 拟合因子分析模型,获取因子载荷矩阵和相关统计信息。
    • 输出因子载荷矩阵、变量共同度以及因子的方差贡献率等。
  7. 可视化

    • y = fa.transform(X): 将原始数据集X转换到由两个主成分构成的因子空间中。
    • plt.scatter(y.T[0], y.T[1], s=8, color=plt.cm.Spectral(color)): 绘制因子空间中的散点图,其中每个点的颜色根据color数组确定。
    • 添加标题和轴标签,并保存图像到文件中。

这段代码的主要目的是展示如何通过主成分分析进行因子分析,分析数据集中变量之间的关系,并将结果可视化以便观察数据在因子空间中的分布情况。

#本章需导入的模块
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
from pylab import *
import matplotlib.cm as cm
import warnings
warnings.filterwarnings(action = 'ignore')
%matplotlib inline
plt.rcParams['font.sans-serif']=['SimHei']  #解决中文显示乱码问题
plt.rcParams['axes.unicode_minus']=False
from sklearn.datasets import make_regression,make_circles,make_s_curve
from sklearn.model_selection import train_test_split
from scipy.stats import multivariate_normal
from sklearn import decomposition
from factor_analyzer import FactorAnalyzerX,t=make_s_curve(n_samples=8000, noise=0, random_state=123)
color=np.array(t)
X=pd.DataFrame(X) 
R=X.corr()  #样本相关性矩阵
eig_value, eigvector = np.linalg.eig(R)#求矩阵R的全部特征值,特征向量。
sortkey,eig=list(eig_value.argsort()),list(eig_value)  #按升序排序
eig.sort()
eig.reverse()
sortkey.reverse()A = np.zeros((eigvector.shape[1],eigvector.shape[1]))
for i,e in enumerate(eig):A[i,:]=np.sqrt(e)*eigvector[:,sortkey[i]]
factorM=A.T
print("因子载荷矩阵:\n{0}".format(factorM)) score=np.linalg.inv(R)*factorM
print("因子值系数:\n{0}".format(score))fa = FactorAnalyzer(method='principal',n_factors=2,rotation=None)
fa.fit(X)
print("因子载荷矩阵:\n", fa.loadings_)
print("\n变量共同度:\n", fa.get_communalities())
tmp=fa.get_factor_variance()
print("因子的方差贡献:{0}".format(tmp[0]))
print("因子的方差贡献率:{0}".format(tmp[1]))
print("因子的累计方差贡献率:{0}".format(tmp[2]))
y=fa.transform(X)
plt.scatter(y.T[0],y.T[1],s=8,color=plt.cm.Spectral(color))
plt.title("基于主成分分析的因子分析")
plt.xlabel("因子f1")
plt.ylabel("因子f2")
plt.savefig("../4.png", dpi=500) 
plt.show()

 运行结果如下图所示:

这段代码是在之前基于主成分分析的因子分析基础上,进行了旋转后的因子分析,并对结果进行了可视化。让我来详细解释每个步骤:

  1. 旋转后的因子分析设置

    • fa = FactorAnalyzer(method='principal', n_factors=2, rotation='varimax'): 创建一个因子分析对象 fa,使用主成分法进行因子分析,设定因子数量为2,并选择了Varimax旋转方法 (rotation='varimax'),用于旋转因子载荷矩阵以提高解释性。
  2. 拟合模型

    • fa.fit(X): 将数据集 X 应用于因子分析模型,拟合模型以获取旋转后的因子载荷矩阵和相关统计信息。
  3. 输出结果

    • print("\n变量共同度:\n", fa.get_communalities()): 打印出变量的共同度,即每个变量与所有因子的相关性的平方和。
    • print("旋转后的因子载荷矩阵:\n", fa.loadings_): 打印旋转后的因子载荷矩阵,显示了每个变量与每个因子的载荷(相关性)。
  4. 因子方差贡献分析

    • tmp = fa.get_factor_variance(): 计算因子的方差贡献率相关统计信息。
    • print("因子的方差贡献:{0}".format(tmp[0])): 打印因子的方差贡献。
    • print("因子的方差贡献率:{0}".format(tmp[1])): 打印因子的方差贡献率,即每个因子解释的总方差的百分比。
    • print("因子的累计方差贡献率:{0}".format(tmp[2])): 打印因子的累计方差贡献率,即所有因子累计解释的总方差的百分比。
  5. 数据转换和可视化

    • y = fa.transform(X): 将原始数据集 X 转换为因子空间中的坐标,即每个样本在新的因子空间中的位置。
    • plt.scatter(y.T[0], y.T[1], s=8, color=plt.cm.Spectral(color)): 绘制因子空间中的散点图,其中每个点的颜色由 color 数组确定。
    • plt.title("基于主成分分析的因子分析(旋转)"): 设置图像标题。
    • plt.xlabel("因子f1"): 设置X轴标签。
    • plt.ylabel("因子f2"): 设置Y轴标签。
    • plt.savefig("../4.png", dpi=500): 将图像保存为文件,分辨率为500dpi。
    • plt.show(): 显示图像。

这段代码的主要目的是展示在应用Varimax旋转后的因子分析中,如何解释数据集中变量之间的结构,并通过可视化观察数据在旋转后因子空间中的分布情况。

fa = FactorAnalyzer(method='principal',n_factors=2,rotation='varimax')
fa.fit(X)
print("\n变量共同度:\n", fa.get_communalities())
print("旋转后的因子载荷矩阵:\n", fa.loadings_)
tmp=fa.get_factor_variance()
print("因子的方差贡献:{0}".format(tmp[0]))
print("因子的方差贡献率:{0}".format(tmp[1]))
print("因子的累计方差贡献率:{0}".format(tmp[2]))
y=fa.transform(X)
plt.scatter(y.T[0],y.T[1],s=8,color=plt.cm.Spectral(color))
plt.title("基于主成分分析的因子分析(旋转)")
plt.xlabel("因子f1")
plt.ylabel("因子f2")
plt.savefig("../4.png", dpi=500) 
plt.show()

  运行结果如下图所示:

 

04-基于主成分分析对空气质量监测数据进行分析

这段代码的作用是进行因子分析(Factor Analysis)并输出相关统计结果。下面是详细解释:

  1. 数据导入和预处理:

    • import 语句导入所需的库和模块,包括数据处理、可视化和警告管理的工具。
    • 从Excel文件中读取数据,并进行一些预处理步骤,如将0值替换为NaN,然后删除包含NaN的行,确保数据的完整性和质量。
  2. 数据准备和因子分析:

    • X = data.iloc[:, 3:-1]:选择数据中的特征变量列,通常排除了非预测变量和目标变量。
    • fa = FactorAnalyzer(method='principal', n_factors=2, rotation='varimax'):创建一个因子分析对象,指定使用主成分方法、2个因子,并应用Varimax旋转以促进因子的解释性。
  3. 因子分析模型拟合和结果输出:

    • fa.fit(X):对选择的数据进行因子分析拟合。
    • 打印输出以下统计量:
      • 因子载荷矩阵 (fa.loadings_):显示每个变量与每个因子之间的相关性强度。
      • 变量共同度 (fa.get_communalities()):给出每个变量的共同度,即它们可以通过公共因子解释的方差比例。
      • 因子的方差贡献 (tmp[0]):描述因子解释的总方差。
      • 因子的方差贡献率 (tmp[1]):各个因子解释的方差比例。
      • 因子的累计方差贡献率 (tmp[2]):前几个因子累计解释的总方差比例,用于评估模型解释数据变异程度的能力。

综上所述,这段代码的目的是利用因子分析技术来探索数据集中潜在的因子结构,并提供关于每个因子及其解释能力的详细统计信息。

#本章需导入的模块
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
from pylab import *
import matplotlib.cm as cm
import warnings
warnings.filterwarnings(action = 'ignore')
%matplotlib inline
plt.rcParams['font.sans-serif']=['SimHei']  #解决中文显示乱码问题
plt.rcParams['axes.unicode_minus']=False
from sklearn.datasets import make_regression,make_circles,make_s_curve
from sklearn.model_selection import train_test_split
from scipy.stats import multivariate_normal
from sklearn import decomposition
from factor_analyzer import FactorAnalyzerdata=pd.read_excel('北京市空气质量数据.xlsx')
data=data.replace(0,np.NaN)
data=data.dropna()
X=data.iloc[:,3:-1]
print(X.columns)
fa = FactorAnalyzer(method='principal',n_factors=2,rotation='varimax')
fa.fit(X)
print("因子载荷矩阵\n",fa.loadings_)
print("变量共同度:\n", fa.get_communalities())
tmp=fa.get_factor_variance()
print("因子的方差贡献:{0}".format(tmp[0]))
print("因子的方差贡献率:{0}".format(tmp[1]))
print("因子的累计方差贡献率:{0}".format(tmp[2]))

运行结果如下图所示: 

总结

PCA作为一种无监督学习方法,广泛应用于数据预处理、特征选择、模式识别和数据压缩等领域,是理解和分析高维数据的重要工具之一。

相关文章:

【Python机器学习实战】 | 基于PCA主成分分析技术读入空气质量监测数据进行数据预处理并计算空气质量综合评测结果

🎩 欢迎来到技术探索的奇幻世界👨‍💻 📜 个人主页:一伦明悦-CSDN博客 ✍🏻 作者简介: C软件开发、Python机器学习爱好者 🗣️ 互动与支持:💬评论 &…...

学习java第一百零八天

Spring的AOP理解: OOP面向对象,允许开发者定义纵向的关系,但并不适用于定义横向的关系,会导致大量代码的重复,而不利于各个模块的重用。 AOP,一般称为面向切面,作为面向对象的一种补充&#xff…...

Linux通配符总结

Linux通配符总结 大家好,我是免费搭建查券返利机器人省钱赚佣金就用微赚淘客系统3.0的小编,也是冬天不穿秋裤,天冷也要风度的程序猿! 在Linux系统中,通配符是一种用于匹配文件名或路径名的特殊字符。通过使用通配符&a…...

ffmpeg的安装教程

1.官网下载ffmpeg 进入Download FFmpeg网址,点击下载windows版ffmpeg(点击左下第一个绿色的行) 在release builds第一个绿框里面选择一个版本下载。 2.配置 下载完成后解压该压缩包单击进入ffmpeg\bin,会出现如下界面&#xff1…...

禅道身份认证绕过漏洞(QVD-2024-15263)复现

禅道项目管理系统在开源版、企业版、旗舰版的部分版本中都存在此安全漏洞。攻击者可利用该漏洞创建任意账号实现未授权登录。 1.漏洞级别 高危 2.漏洞搜索 fofa: title"禅道"3.影响范围 v16.x < 禅道 < v18.12 &#xff08;开源版&#xff09; v6.x <…...

深入分析 Android BroadcastReceiver (六)

文章目录 深入分析 Android BroadcastReceiver (六)1. 广播机制的高级优化策略1.1 使用 Sticky Broadcast&#xff08;粘性广播&#xff09;示例&#xff1a;粘性广播&#xff08;过时&#xff0c;不推荐&#xff09; 1.2 使用 LiveData 和 ViewModel 进行组件通信示例&#xf…...

mysql 查询的一般思路

能用单表优先用单表&#xff0c;即便是需要用group by、order by、limit等&#xff0c;效率一般也比多表高 不能用单表时优先用连接&#xff0c;连接是SQL中非常强大的用法&#xff0c;小表驱动大表建立合适索引合理运用连接条件&#xff0c;基本上连接可以解决绝大部分问题。…...

【Web APIs】DOM 文档对象模型 ⑤ ( 获取特殊元素 | 获取 html 元素 | 获取 body 元素 )

文章目录 一、获取特殊元素1、获取 html 元素2、获取 body 元素3、完整代码示例 本博客相关参考文档 : WebAPIs 参考文档 : https://developer.mozilla.org/zh-CN/docs/Web/APIgetElementById 函数参考文档 : https://developer.mozilla.org/zh-CN/docs/Web/API/Document/getE…...

Android11 以Window的视角来看FallbackHome的启动

在WMS中&#xff0c;使用WindowState代表着一个Window并维护着一个Window的"层级树"&#xff0c;每个Window需要按照"层级"的规则进行排列。对于FallbackHome&#xff0c;其Window是挂载在home task上&#xff0c;而home task挂载在DefaultTaskDisplayArea…...

9 RestClient客户端操作文档

1. match_all GetMapping("matchAll")public void matchAll() throws IOException {//1. 准备requestSearchRequest request new SearchRequest("hotel");//2. 组织DSL参数request.source().query(QueryBuilders.matchAllQuery());SearchResponse respon…...

『Z-Weekly Feed 08』加密资产观 | FHE应用前景 | OPAL协议

一位机构投资者的加密资产观 作者&#xff1a;Hongbo 01 &#x1f4a1;TL;DR 在加密投资领域如何找到真正的“价值”&#xff1a;Crypto 作为一种新兴资产&#xff0c;应该找到一种区别于传统公司股票资产的估值方法&#xff0c;本文重点阐述了加密货币作为新的资产类型与传统资…...

酒店预定系统

酒店预定系统本身设计过程中会遇到售卖系统两个常见问题&#xff0c;第一个同一个房间同一日期被多个订单预定&#xff0c;或者预定和库存数据不一致&#xff0c;这些都会涉及到金钱&#xff0c;需要在系统涉及是被重点考虑。 问题1:同一个房间同一个日期被多个订单预定 酒店…...

Redis的实战常用一、验证码登录(解决session共享问题)(思路、意识)

一、基于session实现登录功能 第一步&#xff1a;发送验证码&#xff1a; 用户在提交手机号后&#xff0c;会校验手机号是否合法&#xff1a; 如果不合法&#xff0c;则要求用户重新输入手机号如果手机号合法&#xff0c;后台此时生成对应的验证码&#xff0c;同时将验证码进行…...

基于Spring Boot的智能分析平台

项目介绍&#xff1a; 智能分析平台实现了用户导入需要分析的原始数据集后&#xff0c;利用AI自动生成可视化图表和分析结论&#xff0c;改善了传统BI系统需要用户具备相关数据分析技能的问题。该项目使用到的技术是SSMSpring Boot、redis、rabbitMq、mysql等。在项目中&#…...

HTML(13)——显示模式

目录 显示模式 块级元素 行内元素 行内块元素 转换显示模式 显示模式&#xff1a;标签的显示方式 作用&#xff1a;布局网页时&#xff0c;根据标签的显示模式选择合适的标签摆放内容 显示模式 块级元素 独占一行宽度默认为父级的100%添加宽高属性生效 行内元素 …...

【Spring】Spring Boot 快速入门

&#x1f4da;博客主页&#xff1a;爱敲代码的小杨. ✨专栏&#xff1a;《Java SE语法》 | 《数据结构与算法》 | 《C生万物》 |《MySQL探索之旅》 |《Web世界探险家》 ❤️感谢大家点赞&#x1f44d;&#x1f3fb;收藏⭐评论✍&#x1f3fb;&#xff0c;您的三连就是我持续更…...

Go自定义数据的序列化流程

&#x1f49d;&#x1f49d;&#x1f49d;欢迎莅临我的博客&#xff0c;很高兴能够在这里和您见面&#xff01;希望您在这里可以感受到一份轻松愉快的氛围&#xff0c;不仅可以获得有趣的内容和知识&#xff0c;也可以畅所欲言、分享您的想法和见解。 推荐:「stormsha的主页」…...

贪心算法练习题(2024/6/18)

什么是贪心 贪心的本质是选择每一阶段的局部最优&#xff0c;从而达到全局最优。 贪心算法一般分为如下四步&#xff1a; 将问题分解为若干个子问题找出适合的贪心策略求解每一个子问题的最优解将局部最优解堆叠成全局最优解 1分发饼干 假设你是一位很棒的家长&#xff0c…...

4.1 四个子空间的正交性

一、四个子空间的正交性 如果两个向量的点积为零&#xff0c;则两个向量正交&#xff1a; v ⋅ w v T w 0 \boldsymbol v\cdot\boldsymbol w\boldsymbol v^T\boldsymbol w0 v⋅wvTw0。本章着眼于正交子空间、正交基和正交矩阵。两个子空间的中的向量&#xff0c;一组基中的向…...

RabbitMQ实践——使用WebFlux响应式方式实时返回队列中消息

大纲 Pom.xml监听队列实时返回消息测试完整代码工程代码 在之前的案例中&#xff0c;我们在管理后台收发消息都是通过短连接的形式。本文我们将探索对队列中消息的实时读取&#xff0c;并通过流式数据返回给客户端。 webflux是反应式Web框架&#xff0c;客户端可以通过一个长连…...

SpringBoot前后端传递数据时常用的JSON格式数据是什么?【讲解JSON概念、语法、以及Java对象互转】

SpringBoot前后端传递数据时常用的JSON格式数据是什么&#xff1f; JSON概念JSON语法JSON的两种结构&#xff1a;JSON字符串和Java对象互转&#xff1a;objectMapper.writeValueAsString(person);objectMapper.readValue(jsonStr,Person.class); 在SpringMVC框架中&#xff0c;…...

mysql学习——SQL中的DQL和DCL

SQL中的DQL和DCL DQL基本查询条件查询聚合函数分组查询排序查询分页查询 DCL管理用户权限控制 学习黑马MySQL课程&#xff0c;记录笔记&#xff0c;用于复习。 DQL DQL英文全称是Data Query Language(数据查询语言)&#xff0c;数据查询语言&#xff0c;用来查询数据库中表的记…...

windows系统上nginx搭建文件共享

1、下载windows版nginx 下载地址 2、配置nginx 编辑nginx.conf配置文件 在http模块下添加这个参数 underscores_in_headers on;#修改location内容&#xff0c;共享哪个文件夹&#xff0c;就写哪个文件夹&#xff0c;最后一定要跟上/&#xff0c;否则无法访问 location / {…...

星闪指向遥控,做家电交互的破壁人

“面壁者罗辑&#xff0c;我是你的破壁人。” 科幻小说《三体》中&#xff0c;当人类的基础科学被三体人封锁&#xff0c;变得停步不前&#xff0c;人类启动了自救的面壁计划&#xff0c;通过一次又一次破壁&#xff0c;找到战胜三体人的办法。 现实中&#xff0c;有一点已经成…...

SpringBoot使用AutoConfigure实现依赖库自动导入配置

我们知道导入配置有两种&#xff0c;一种是Value&#xff0c;一种是ConfigurationProperties&#xff0c;将对应的类标记为Component即可导入。但是被注解标识的类创建Bean有一个前提&#xff0c;只对启动类所在的包路径下的所有带有Component等注解的类才会创建Bean。如果我们…...

QT中利用动画弄一个侧边栏窗口,以及贴条效果

1、效果 2、关键代码 void Widget::on_sliderBtn_clicked() {m_sliderWidget->show();QPropertyAnimation* animation = new QPropertyAnimation(m...

win10免安装配置MySQL8.4.0

注&#xff1a;此教程基于win10 22H2 版本 1、下载最新版本MySQL压缩包 下载链接&#xff1a;MySQL官网下载地址 点击第二行的 ZIP Archive 后面的Download&#xff08;当前时间2024-06-19最新版本是8.4.0&#xff09; 2、解压并添加配置文件 下载完毕后&#xff0c;解压缩…...

VS Code安装及环境配置(超详细)

VS Code简介 Visual Studio Code&#xff08;简称 VS Code &#xff09;是 Microsoft 于2015年4月发布的一款代码编辑器&#xff0c;以界面简洁、轻量著称。 它是一款免费开源的现代化轻量级代码编辑器&#xff0c;支持几乎所有主流开发语言的语法高亮、智能代码补全、自定义…...

shell脚本通过解析日志使用串口开关屏知识点整理

#!/bin/bash #logPath 写日志的存放路径 #logPath/home/workspace/tvs/trainborne logPath/home/firefly tmpFile$$ function getLogName() { #echo "$logPath/LCDController_"date "%Y%m%d000000.log" echo "LCDController_20240424000000.log&quo…...

速盾:视频cdn和网站cdn的相同点与不同点

CDN&#xff08;Content Delivery Network&#xff09;是一种分布式网络架构&#xff0c;旨在为用户提供高效、高质量的内容传送服务。CDN主要通过将内容分发到全球各地的边缘节点&#xff0c;并根据用户的地理位置选择最近的节点来提供内容&#xff0c;从而加速内容的传输并降…...