【机器学习】使用决策树分类器预测汽车安全性的研究与分析
文章目录
- 一、决策树算法简介
- 决策树的结构
- 分类和回归树 (CART)
- 决策树算法术语
- 决策树算法直觉
- 二、属性选择度量
- 信息增益
- 熵
- 基尼指数
- 计算分割基尼指数的步骤
- 三、决策树算法中的过度拟合
- 避免过度拟合的方法
- 四、导入库和数据可视化
- 探索性数据分析
- 重命名列名
- 查看数据集的总结信息
- 变量值的频率分布
- 五、处理特征向量和目标变量
- 六、特征工程
- 编码分类变量
- 七、使用基尼系数的决策树分类器
- 比较训练集和测试集的准确性
- 可视化决策树
- 八、使用熵的决策树分类器
- 比较训练集和测试集的准确性
- 可视化决策树
- 九、混淆矩阵
- 十、分类报告
- 十一、结果和结论
一、决策树算法简介
决策树算法是最流行的机器学习算法之一。它使用树状结构及其可能的组合来解决特定问题。它属于监督学习算法类,可用于分类和回归任务。
决策树的结构
决策树是一种包含根节点、分支和叶节点的结构。每个内部节点表示对属性的测试,每个分支表示测试的结果,每个叶节点都包含一个类标签。树中最顶端的节点是根节点。
在实施决策树算法时,我们做出了一些假设:
- 整个训练集一开始被视为根。
- 特征值需要是分类的。如果值是连续的,则在构建模型之前将它们离散化。
- 记录根据属性值递归分布。
- 使用某种统计方法将属性放置为树的根或内部节点。
后面的部分将描述决策树的术语。
分类和回归树 (CART)
如今,决策树算法以其现代名称 CART 而闻名,代表分类和回归树。分类和回归树或 CART 是 Leo Breiman 引入的一个术语,指的是可用于分类和回归建模问题的决策树算法。
CART 算法为其他重要算法(如袋装决策树、随机森林和增强决策树)提供了基础。在本文中,我们将解决一个分类问题,因此称该算法为决策树分类问题。
决策树算法术语
在决策树算法中,有一个树状结构,其中每个内部节点代表对属性的测试,每个分支代表测试的结果,每个叶节点代表类标签。从根节点到叶节点的路径代表分类规则。
以下是决策树算法中涉及的一些术语:
根节点:它代表整个总体或样本。这进一步分为两个或多个同质集。
分裂:这是将节点分为两个或多个子节点的过程。
决策节点:当子节点分裂成进一步的子节点时,它被称为决策节点。
叶节点/终端节点:不分裂的节点称为叶节点或终端节点。
修剪:当我们删除决策节点的子节点时,此过程称为修剪。它是分裂的反过程。
分支/子树:整个树的子部分称为分支或子树。
父节点和子节点:分为子节点的节点称为子节点的父节点,子节点是父节点的子节点。
决策树算法直觉
对于数据集中的每个属性,决策树算法形成一个节点。最重要的属性放在根节点。
为了评估手头的任务,我们从根节点开始,然后按照符合条件或决策的相应节点沿着树向下工作。
此过程持续到到达叶节点。叶节点包含决策树的预测或结果。
二、属性选择度量
决策树实施中的主要挑战是确定我们认为是根节点和每个级别的属性。此过程称为属性选择。有不同的属性选择度量来识别可被视为每个级别的根节点的属性。
有两种流行的属性选择度量:信息增益和基尼指数。
信息增益
我们以信息增益为标准,尝试估计每个属性所包含的信息。要理解信息增益的概念,我们需要了解另一个概念,即熵。
熵
熵衡量给定数据集中的杂质。在物理学和数学中,熵是指随机变量 X \mathbf{X} X 的随机性或不确定性。在信息论中,它指的是一组示例中的杂质。信息增益是熵的减少。信息增益根据给定的属性值计算数据集分割前的熵与分割后的平均熵之间的差值。
熵由以下公式表示:
H ( X ) = − ∑ i = 1 c p i log 2 ( p i ) \mathbf{H}(\mathbf{X}) = - \sum_{i=1}^{c} \mathbf{p_i} \log_2 (\mathbf{p_i}) H(X)=−i=1∑cpilog2(pi)
其中, c \mathbf{c} c 是类别的数量, p i \mathbf{p_i} pi是与第 i 个类别相关的概率。
ID3(迭代二分法)决策树算法使用熵来计算信息增益。因此,通过计算每个属性的熵度量的减少,我们可以计算它们的信息增益。信息增益最高的属性被选为节点的分割属性。
基尼指数
CART(分类和回归树)使用的另一个属性选择度量是基尼指数。它使用基尼方法创建分割点。
基尼指数可以用下图表示:
G i n i ( X ) = 1 − ∑ i = 1 c p i 2 \mathbf{Gini}(\mathbf{X}) = 1 - \sum_{i=1}^{c} \mathbf{p_i}^2 Gini(X)=1−i=1∑cpi2
其中, c \mathbf{c} c 是类别的数量, p i \mathbf{p_i} pi是与第 i 个类别相关的概率。
基尼指数表示,如果我们从总体中随机选择两个项目,它们必须属于同一类,如果总体是纯的,则概率为 1。
基尼指数适用于分类目标变量“成功”或“失败”。它仅执行二元分割。基尼值越高,同质性越高。CART(分类和回归树)使用基尼方法来创建二元分割。
计算分割基尼指数的步骤
- 使用成功和失败概率平方和公式 p 2 + q 2 \mathbf{p}^2 + \mathbf{q}^2 p2+q2计算子节点的基尼指数。
- 使用分割的每个节点的加权基尼分数计算分割的基尼指数。
- 对于离散值属性,选择具有最小基尼指数的子集作为分割属性。对于连续值属性,策略是选择每对相邻值作为可能的分割点,并选择基尼指数较小的点作为分割点。选择基尼指数最小的属性作为分裂属性。
三、决策树算法中的过度拟合
过度拟合是构建决策树模型时的一个实际问题。当算法继续深入以减少训练集误差但导致测试集误差增加时,就会考虑过度拟合问题。因此,我们模型的预测准确性会下降。这通常发生在我们由于数据中的异常值和不规则性而构建许多分支时。
避免过度拟合的方法
可用于避免过度拟合的两种方法如下:
预修剪:在预修剪中,我们会提前停止树的构建。如果节点的优度测量低于阈值,我们宁愿不拆分节点。但很难选择合适的停止点。
后修剪:在后修剪中,我们深入树的深处以构建完整的树。如果树显示出过度拟合问题,则修剪将作为后修剪步骤进行。我们使用交叉验证数据来检查修剪的效果。使用交叉验证数据,我们测试扩展节点是否会导致改进。如果它显示出改进,那么我们可以继续扩展该节点。但如果它显示准确度降低,则不应扩展它。因此,应将节点转换为叶节点。
四、导入库和数据可视化
在Python环境中导入必要的库以进行数据分析和可视化。
import numpy as np # 线性代数
import pandas as pd # 数据处理,CSV文件输入输出(例如 pd.read_csv)
import matplotlib.pyplot as plt # 数据可视化
import seaborn as sns # 统计数据可视化
%matplotlib inline
处理警告信息,以保持输出的整洁:
import warnings
warnings.filterwarnings('ignore')
导入数据集
data = './car_evaluation.csv'
df = pd.read_csv(data, header=None)
探索性数据分析
对数据集进行初步探索,以获得数据的基本信息。
查看数据集的维度
df.shape # (1728, 7)
数据集包含1728个实例和7个变量。
查看数据集的前5行
df.head()
输出结果为:
重命名列名
数据集当前的列名为0, 1, 2等。我们需要为这些列指定有意义的名称:
col_names = ['buying', 'maint', 'doors', 'persons', 'lug_boot', 'safety', 'class']
df.columns = col_names
再次查看数据集的前5行,以确认列名已正确更新:
df.head()
输出结果为:
查看数据集的总结信息
df.info()
输出结果为:
变量值的频率分布
for col in col_names:print(df[col].value_counts())
输出结果显示,各个分类变量的频数分布如下:
buying
和maint
:每个类别(vhigh, high, med, low)都有432个实例。doors
:类别为2、3、4和5more,每个类别都有432个实例。persons
:类别为2、4和more,每个类别有576个实例。lug_boot
:类别为small、med和big,每个类别有576个实例。safety
:类别为low、med和high,每个类别有576个实例。class
:类别为unacc(1210个实例)、acc(384个实例)、good(69个实例)和vgood(65个实例)。
五、处理特征向量和目标变量
将特征向量X
和目标变量y
从数据集中分离:
X = df.drop(['class'], axis=1)
y = df['class']
将数据集划分为训练集和测试集
使用train_test_split
将特征向量和目标变量划分为训练集和测试集:
from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=42)
查看训练集和测试集的形状:
X_train.shape, X_test.shape # ((1157, 6), (571, 6))
六、特征工程
特征工程是将原始数据转换为有用特征的过程,这些特征有助于我们更好地理解模型并提高其预测能力。我将对不同类型的变量进行特征工程。
首先,我将再次检查变量的数据类型。
# 检查 X_train 中变量的数据类型
X_train.dtypes
编码分类变量
# 导入类别编码器
import category_encoders as ce# 使用序数编码对变量进行编码
encoder = ce.OrdinalEncoder(cols=['buying', 'maint', 'doors', 'persons', 'lug_boot', 'safety'])
X_train = encoder.fit_transform(X_train)
X_test = encoder.transform(X_test)X_train.head()
现在已经准备好用于模型构建的训练集和测试集。
七、使用基尼系数的决策树分类器
# 导入 DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier# 使用标准基尼系数实例化 DecisionTreeClassifier 模型
clf_gini = DecisionTreeClassifier(criterion='gini', max_depth=3, random_state=0)# 训练模型
clf_gini.fit(X_train, y_train)
# 预测测试集结果
y_pred_gini = clf_gini.predict(X_test)# 检查使用基尼系数的准确性评分
from sklearn.metrics import accuracy_score
print('Model accuracy score with criterion gini index: {0:0.4f}'.format(accuracy_score(y_test, y_pred_gini)))# Model accuracy score with criterion gini index: 0.8021
这里,y_test 是测试集中真实的类别标签, y_pred_gini是预测的类别标签。
比较训练集和测试集的准确性
y_pred_train_gini = clf_gini.predict(X_train)
print('Training-set accuracy score: {0:0.4f}'.format(accuracy_score(y_train, y_pred_train_gini)))# Training-set accuracy score: 0.7865
检查是否存在过拟合或欠拟合
# 打印训练集和测试集的得分
print('Training set score: {:.4f}'.format(clf_gini.score(X_train, y_train)))
print('Test set score: {:.4f}'.format(clf_gini.score(X_test, y_test)))
Training set score: 0.7865
Test set score: 0.8021
这里,训练集准确度得分为 0.7865,而测试集准确度得分为 0.8021。这两个值相当。因此没有过度拟合的迹象。
可视化决策树
plt.figure(figsize=(12,8))
from sklearn import tree
tree.plot_tree(clf_gini.fit(X_train, y_train))
八、使用熵的决策树分类器
# 使用熵标准实例化 DecisionTreeClassifier 模型
clf_en = DecisionTreeClassifier(criterion='entropy', max_depth=3, random_state=0)# 训练模型
clf_en.fit(X_train, y_train)
# 预测测试集结果
y_pred_en = clf_en.predict(X_test)# 检查使用熵标准的准确性评分
from sklearn.metrics import accuracy_score
print('Model accuracy score with criterion entropy: {0:0.4f}'.format(accuracy_score(y_test, y_pred_en)))# Model accuracy score with criterion entropy: 0.8021
比较训练集和测试集的准确性
y_pred_train_en = clf_en.predict(X_train)
print('Training-set accuracy score: {0:0.4f}'.format(accuracy_score(y_train, y_pred_train_en)))# Training-set accuracy score: 0.7865
检查是否存在过拟合或欠拟合
# 打印训练集和测试集的得分
print('Training set score: {:.4f}'.format(clf_en.score(X_train, y_train)))
print('Test set score: {:.4f}'.format(clf_en.score(X_test, y_test)))
Training set score: 0.7865
Test set score: 0.8021
可以看到,训练集和测试集得分与使用基尼系数的情况相同。训练集准确度得分为 0.7865,而测试集准确度得分为 0.8021。这两个值相当。因此,没有过度拟合的迹象。
可视化决策树
plt.figure(figsize=(12,8))
from sklearn import tree
tree.plot_tree(clf_en.fit(X_train, y_train))
九、混淆矩阵
混淆矩阵是一种总结分类算法性能的工具。混淆矩阵将为我们清晰地展示分类模型的性能以及模型产生的错误类型。它为我们提供了按每个类别细分的正确和错误预测的摘要。摘要以表格形式表示。
在评估分类模型性能时,可能出现四种类型的结果。这四种结果如下所述:
- 真阳性 (TP) – 当我们预测观察结果属于某个类别并且观察结果实际上属于该类别时,就会出现真阳性。
- 真阴性 (TN) – 当我们预测观察结果不属于某个类别并且观察结果实际上不属于该类别时,就会出现真阴性。
- 假阳性 (FP) – 当我们预测某个观察结果属于某个类别,但该观察结果实际上并不属于该类别时,就会出现假阳性。这种类型的错误称为 I 类错误。
- 假阴性 (FN) – 当我们预测某个观察结果不属于某个类别,但该观察结果实际上属于该类别时,就会出现假阴性。这是一种非常严重的错误,称为 II 类错误。
下面给出的混淆矩阵总结了这四种结果。
# 打印混淆矩阵并将其分成四部分
from sklearn.metrics import confusion_matrix
cm = confusion_matrix(y_test, y_pred_en)
print('Confusion matrix\n\n', cm)# [[ 73 0 56 0]# [ 20 0 0 0]# [ 12 0 385 0]# [ 25 0 0 0]]
十、分类报告
分类报告是评估分类模型性能的另一种方法。它显示模型的准确率、召回率、f1 和支持率分数。我们可以按如下方式打印分类报告:
from sklearn.metrics import classification_report
print(classification_report(y_test, y_pred_en))
我们可以看到,模型的分类报告显示了四个类别(acc、good、unacc、vgood)中每个类别的准确率、召回率、f1-score 和支持率。
在这种情况下,类 “good” 和 “vgood” 的准确率、召回率和 f1-score 都为 0。这意味着模型无法正确预测这些类别。这可能是由于类别样本不均衡导致的。类 “unacc” 的准确率和召回率都很高,表明模型在预测这个类别时表现得相对较好。
十一、结果和结论
在这个项目中,我建立了一个决策树分类器模型来预测汽车的安全性。模型分为两种:一种使用标准“基尼指数”,另一种使用标准“熵”。两种模型的性能都非常出色,准确率均为 0.8021。
标准“基尼指数”模型
在使用“基尼指数”标准的模型中,训练集的准确率得分为 0.7865,而测试集的准确率得分为 0.8021。这两个值相当接近,没有过度拟合的迹象。
标准“熵”模型
类似地,在使用“熵”标准的模型中,训练集的准确度得分为 0.7865,而测试集的准确度得分为 0.8021。这与使用“基尼指数”标准的模型结果相同,因此也没有过度拟合的迹象。
数据集大小的影响
在这两种情况下,训练集和测试集的准确度得分相同,这可能是由于数据集较小导致的结果。
混淆矩阵和分类报告
模型的混淆矩阵和分类报告显示了非常好的性能。以下是模型的混淆矩阵:
# [[ 73 0 56 0]# [ 20 0 0 0]# [ 12 0 385 0]# [ 25 0 0 0]]
从混淆矩阵中可以看到:
- 对于类别 a c c \mathbf{acc} acc,模型正确预测了 73 个样本,但有 56 个样本被错误预测为 u n a c c \mathbf{unacc} unacc。
- 对于类别 g o o d \mathbf{good} good,没有样本被正确预测,所有样本被错误预测为其他类别。
- 对于类别 u n a c c \mathbf{unacc} unacc,模型正确预测了 385 个样本,但有 12 个样本被错误预测为 a c c \mathbf{acc} acc。
- 对于类别 v g o o d \mathbf{vgood} vgood,没有样本被正确预测,所有样本被错误预测为 a c c \mathbf{acc} acc。
这些结果表明模型在预测某些类别时有较高的准确性,但在某些类别上有改进空间。
总结
总体而言,本项目中的决策树分类器在使用“基尼指数”和“熵”标准时均表现出了良好的性能。尽管数据集较小可能影响了模型的泛化能力,但模型的准确率和混淆矩阵表明其具有较好的分类能力。未来的工作可以考虑扩大数据集规模,以进一步提升模型的性能和泛化能力。
参考:Decision-Tree Classifier Tutorial
中文版代码放在我的github,欢迎follow
相关文章:

【机器学习】使用决策树分类器预测汽车安全性的研究与分析
文章目录 一、决策树算法简介决策树的结构分类和回归树 (CART)决策树算法术语决策树算法直觉 二、属性选择度量信息增益熵 基尼指数计算分割基尼指数的步骤 三、决策树算法中的过度拟合避免过度拟合的方法 四、导入库和数据可视化探索性数据分析重命名列名查看数据集的总结信息…...

【香橙派 Orange pi AIpro】| 开发板深入使用体验
目录 一. 🦁 写在前面二. 🦁 愉快的安装流程2.1 安装前准备2.2 流程准备2.2.1 烧录镜像2.2.2 开机2.2.3 连网2.2.4 SSH远程连接开发板 2.3 体验 AI 应用样例 三. 🦁 写在最后 一. 🦁 写在前面 大家好,我是狮子呀&…...

初识Laravel(Laravel的项目搭建)
初识Laravel(Laravel的项目搭建) 一、项目简单搭建(laravel)1.首先我们确保使用国内的 Composer 加速镜像([加速原理](https://learnku.com/php/wikis/30594)):2.新建一个名为 Laravel 的项目&a…...

RequestContextHolder多线程获取不到request对象
RequestContextHolder多线程获取不到request对象,调用feign接口时,在Feign中的RequestInterceptor也获取不到HttpServletRequest问题解决方案。 1.RequestContextHolder多线程获取不到request对象 异常信息,报错如下: 2024-07-0…...

打造高效工作与生活质量的完美平衡
在快节奏的编程行业中,保持健康的工作与生活平衡是至关重要的。长时间坐在电脑前、面对紧凑的项目截止日期和频繁的加班文化,很容易导致身心健康问题,如眼睛疲劳、颈部和背部疼痛、压力累积、睡眠障碍乃至慢性疾病。因此,采取积极…...

【零基础】学JS之APIS第四天
💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。 非常期待和您一起在这个小…...

走进linux
1、为什么要使用linux 稳定性和可靠性: Linux内核以其稳定性而闻名,能够持续运行数月甚至数年而不需要重新启动。这对于服务器来说至关重要,因为它们需要保持长时间的稳定运行,以提供持续的服务 安全性: Linux系统…...

智能家居开发新进展:乐鑫 ESP-ZeroCode 与亚马逊 ACK for Matter 实现集成
日前,乐鑫 ESP-ZeroCode 与亚马逊 Alexa Connect Kit (ACK) for Matter 实现了集成。这对智能家居设备制造商来说是一项重大进展。开发人员无需编写固件或开发移动应用程序,即可轻松设计符合 Matter 标准的产品。不仅如此,开发者还可以在短短…...

本地事务和分布式事务
一、本地事务 1、事务的基本特性 数据库事务的几个基本特性:原子性、一致性、隔离性、持久性。 原子性:一系列的操作整体不可拆分,要么同时成功,要么同时失败。 一致性:数据在事务的前后,业务整体一…...

昇思25天学习打卡营第14天|基于MindNLP的文本解码原理
基于MindNLP的文本解码原理 文本解码 文本解码是自然语言处理中的一个关键步骤,特别是在任务如机器翻译、文本摘要、自动回复生成等领域。解码过程涉及将编码器(如语言模型、翻译模型等)的输出转换为可读的文本序列。以下是一些常见的文本解码方法和原理: 1. 自回归解码:…...

Base64文件流查看下载PDF方法-CSDN
问题描述 数票通等接口返回的PDF类型发票是以Base64文件流的方式返回的,无法直接查看预览PDF发票, 处理方法 使用第三方在线工具:https://www.jyshare.com/front-end/61/ 在Html代码框中粘贴如下代码 <embed type"application/pd…...
基于TCP的在线词典系统(分阶段实现)(阻塞io和多路io复用(select)实现)
1.功能说明 一共四个功能: 注册 登录 查询单词 查询历史记录 单词和解释保存在文件中,单词和解释只占一行, 一行最多300个字节,单词和解释之间至少有一个空格。 2.功能演示 3、分阶段完成各个功能 3.1 完成服务器和客户端的连接 servic…...

设置DepthBufferBits和设置DepthStencilFormat的区别
1)设置DepthBufferBits和设置DepthStencilFormat的区别 2)Unity打包exe后,游戏内拉不起Steam的内购 3)Unity 2022以上Profiler.FlushMemoryCounters耗时要怎么关掉 4)用GoodSky资产包如何实现昼夜播发不同音乐功能 这是…...

MySQL零散拾遗
mysql中大小写敏感吗? MySQL数据库默认情况下是不区分大小写的,这意味着在查询时,字段名和值的大小写不会影响结果。然而,这种默认行为可能会根据操作系统和配置的不同而有所变化。 在某些操作系统上,比如Linux&…...

kali安装vulhub遇到的问题及解决方法(docker及docker镜像源更换)
kali安装vulhub: 提示:项目地址 https://github.com/vulhub/vulhub 项目安装: git clone https://github.com/vulhub/vulhub.git 安装docker 提示:普通用户请使用sudo: 首先安装 https 协议、CA 证书 apt-get in…...

开源数字人项目Hallo
硬件条件: gpu最低12G 软件: cuda需支持 Python选择3.10吧,我的版本3.11 源码: GitHub - fudan-generative-vision/hallo: Hallo: Hierarchical Audio-Driven Visual Synthesis for Portrait Image Animation models文件&…...

Linux 命令集
修改主机名/关机/重启 1)hostnamectl 命令 $ hostnamectl # 查看操作系统信息(内核、操作系统发行版本、主机名等) $ hostnamectl set-hostname redhatu8 # 修改主机名2)shutdown 关机 $ shutdown -h now # 马上关机3&#…...

QML 鼠标和键盘事件
学习目标:Qml 鼠标和键盘事件 学习内容 1、QML 鼠标事件处理QML 直接提供 MouseArea 来捕获鼠标事件,该操作必须配合Rectangle 获取指定区域内的鼠标事件, 2、QML 键盘事件处理,并且获取对OML直接通过键盘事件 Keys 监控键盘任意按键应的消…...

WPF引入多个控件库使用
目的 设计开发时有的控件库的一部分符合我们想要的UI样式,另一部分来自另一个控件库,想把两种库的样式做一个整合在同一个控件资源上。单纯通过引用的方式会导致原有样式被覆盖。这里通过设置全局样式的方式来实现。 1.安装控件库nuget包:H…...

【Linux】1w详解如何实现一个简单的shell
目录 实现思路 1. 交互 获取命令行 2. 子串分割 解析命令行 3. 指令的判断 内建命令 4. 普通命令的执行 补充:vim 文本替换 整体代码 重点思考 1.getenv和putenv是什么意思 2.代码extern char **environ; 3.内建命令是什么 4.lastcode WEXITSTATUS(sta…...

单目测距 单目相机测距 图片像素坐标转实际坐标的一种转换方案
需要相机位置固定 原图 红色的点是我们标注的像素点,这些红色的点我们知道它的像素坐标,以及以右下角相机位置为原点的x y 实际坐标数值 通过转换,可以得到整个图片内部其余像素点的实际坐标, 这些红色的点是通过转换关系生成的&…...

ensp防火墙综合实验作业+实验报告
实验目的要求及拓扑图: 我的拓扑: 更改防火墙和交换机: [USG6000V1-GigabitEthernet0/0/0]ip address 192.168.110.5 24 [USG6000V1-GigabitEthernet0/0/0]service-manage all permit [Huawei]vlan batch 10 20 [Huawei]int g0/0/2 [Huawei-…...

【大模型LLM面试合集】大语言模型基础_Word2Vec
Word2Vec 文章来源:Word2Vec详解 - 知乎 (zhihu.com) 1.Word2Vec概述 Word2Vec是google在2013年推出的一个NLP工具,它的特点是能够将单词转化为向量来表示,这样词与词之间就可以定量的去度量他们之间的关系,挖掘词之间的联系。 …...

图论基础概念(详细讲解)
今天,我们讲解一下图论的概念,首先我们知道图是一个什么东西。 图你可以理解成一个网络系统,两个节点之间可能会有边,边链接两个节点,可能是有向(就比如说a只能往b,或者b只能往c),可能是无向&a…...

未在本地计算机上注册“microsoft.ACE.oledb.12.0”提供程序报错的解决办法
今天在免费云服务器,三丰云上运行c#或python程序,都提示:未在本地计算机上注册“microsoft.ACE.oledb.12.0”提供程序,PHP程序就直接乱码,odbc_connect(): SQL error: [Microsoft][ODBC ���&…...

《从零开始学习Linux》——开篇
前言 近日笔者新开专栏,《从零开始学习Linux》,Linux水深而且大,学了一圈之后,有懂得有不懂的,一直没有机会整体的全部重新捋一遍,本专栏的目的是,带着大家包括我自己重新学习Linux一遍这些知识…...

3D工艺大师快速生成装配动画,驱动汽车工业装配流程革新
在现代制造业的一般生产流程中,车间装配环节是产品由蓝图迈向市场前至关重要的一道工序。随着产品结构的日益复杂化和个性化需求的不断增长,车间装配工作面临着前所未有的挑战。高精密度的装配要求、错综复杂的组件关系以及频繁变更的生产计划࿰…...

gateway
gateway核心概念 1. 路由(route) 路由是网关中最基础的部分,路由信息包括一个ID、一个目的URI、一组断言工厂、一组Filter组成。如果断言为真,则说明请求的URL 和 配置的路由匹配。 2. 断言(predicates) 断言函数允许开发者去定义匹配Htt…...

第一个ffmpeg程序
在进行使用ffmpeg进行编写程序时,首先要记得进行注册设备(avdevice_register_all ),程序运行时,只需要注册一次就可以 avdevice_register_all 是 FFmpeg 多媒体处理库中的一个函数,其作用是注册所有可用的音…...

论文翻译:Large Language Models for Education: A Survey and Outlook
https://arxiv.org/abs/2403.18105 目录 教育领域的大型语言模型:一项调查和展望摘要1. 引言2. 教育应用中的LLM2.1 概述2.2 学习辅助2.2.1 问题解决(QS) 2.2.2 错误纠正(EC)2.2.3 困惑助手(CH)…...