当前位置: 首页 > article >正文

sklearn中的决策树-分类树:实例-分类树在合成数据集上的表现

分类树实例:分类树在合成数据集上的表现

代码分解
  • 在不同结构的据集上测试一下决策树的效果(二分型,月亮形,环形)

  • 导入

    import numpy as np
    from matplotlib import pyplot as plt
    from matplotlib.colors import ListedColormap
    from sklearn.model_selection import train_test_split
    from sklearn.preprocessing import StandardScaler
    from sklearn.datasets import make_moons,make_circles,make_classification
    from sklearn.tree import DecisionTreeClassifier
    from sklearn.model_selection import cross_val_score
    
  • 生成三种数据集(月亮形、环形、二分型)

    X,y = make_classification(n_samples=100 # 生成100个样本,n_features=2 # 包含两个特征,n_redundant=0 # 添加冗余特征0个,n_informative=2 # 包含信息的特征是2个,random_state=1 # 随机数种子,n_clusters_per_class=1 # 每个簇内包含的标签类别有2个)
    plt.scatter(X[:,0],X[:,1])
    

    20211206Sw3qqx

    图上可以看出,生成的二分型数据的两个簇离彼此很远,可能分类边界过于明显,使用交叉验证尝试看一下是否分类效果特别好

    for i in range(1,11):clf = DecisionTreeClassifier()cross_val = cross_val_score(clf,X,y,cv=10).mean()print(cross_val)"""输出"""
    1.0
    1.0
    1.0
    1.0
    1.0
    1.0
    1.0
    1.0
    1.0
    1.0
    

    交叉验证看,效果太好,这样不利于我们测试分类器的效果,因此我们使用np生成 随机数组通过让已经生成的二分型数据点加减0~1之间的随机数使数据分布变得更散更稀疏 注意,这个过程只能够运行一次,因为多次运行之后X会变得非常稀疏,两个簇的数据会混合在一起,分类器的效应会 继续下降。

    rng = np.random.RandomState(2) # 生成一种随机模式
    X += 2*rng.uniform(size=X.shape)# 加减0-1之间的随机数
    Linearly_separable = (X,y)
    plt.figure(figsize=(12,8))
    plt.scatter(X[:,0],X[:,1])
    

    202112065QEFAm

    依次生成月亮型环形数据,并并入datasets中

    # 用make_moons创建月亮型数据
    X,y = make_moons(noise=0.3,random_state=0)
    Moons_data = (X,y)# 用make_circles创建环形数据
    X,y = make_circles(noise=0.2,factor=0.5,random_state=1)
    Circle_data = (X,y)datasets = (Moons_data,Circle_data,Linearly_separable)
    
  • 画出三种数据集和三颗决策树的分类效应图像

    """画出三种数据集和三颗决策树的分类效应图像"""
    figure = plt.figure(figsize=(12,18))
    i = 1 # 设置用来安排图像显示位置的全局变量i# 开始迭代数据,对datasets中的数据进行for循环for ds_index,ds in enumerate(datasets):X,y = dsX = StandardScaler().fit_transform(X)X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=.4,random_state=42)# 找出数据集中两个特征的最大值和最小值,让最大值+0.5,最小值-0.5,创造一个比两个特征的区间本身更大 一点的区间x1_min,x1_max = X[:,0].min() - .5,X[:,0].max() + .5x2_min,x2_max = X[:,1].min() - .5,X[:,1].max() + .5#用特征向量生成网格数据,网格数据,其实就相当于坐标轴上无数个点 #函数np.arange在给定的两个数之间返回均匀间隔的值,0.2为步长 #函数meshgrid用以生成网格数据,能够将两个一维数组生成两个二维矩阵。 #如果第一个数组是narray,维度是n,第二个参数是marray,维度是m。那么生成的第一个二维数组是以narray为行,m行的矩阵,而第二个二维数组是以marray的转置为列,n列的矩阵 #生成的网格数据,是用来绘制决策边界的,因为绘制决策边界的函数contourf要求输入的两个特征都必须是二维的array1,array2 = np.meshgrid(np.arange(x1_min, x1_max, 0.2),np.arange(x2_min, x2_max, 0.2))#接下来生成彩色画布 #用ListedColormap为画布创建颜色,#FF0000正红,#0000FF正蓝 cm = plt.cm.RdBucm_bright = ListedColormap(['#FF0000', '#0000FF'])#在画布上加上一个子图,数据为len(datasets)行,2列,放在位置i上 ax = plt.subplot(len(datasets), 2, i)#到这里为止,已经生成了0~1之间的坐标系3个了,接下来为我们的坐标系放上标题 #我们有三个坐标系,但我们只需要在第一个坐标系上有标题,因此设定if ds_index==0这个条件 if ds_index == 0:ax.set_title("Input data")#将数据集的分布放到我们的坐标系上#先放训练集ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train,cmap=cm_bright,edgecolors='k')# 放测试集ax.scatter(X_test[:, 0], X_test[:,1],c=y_test,cmap=cm_bright,alpha=0.6,edgecolors='k')#为图设置坐标轴的最大值和最小值,并设定没有坐标轴 ax.set_xlim(array1.min(), array1.max()) ax.set_ylim(array2.min(), array2.max()) ax.set_xticks(())ax.set_yticks(())#每次循环之后,改变i的取值让图每次位列不同的位置i+=1#至此为止,数据集本身的图像已经布置完毕,运行以上的代码,可以看见三个已经处理好的数据集 #############################从这里开始是决策树模型###########################在这里,len(datasets)其实就是3,2是两列 #在函数最开始,我们定义了i=1,并且在上边建立数据集的图像的时候,已经让i+1,所以i在每次循环中的取值是2,4,6ax = plt.subplot(len(datasets),2,i)#决策树的建模过程:实例化 → fit训练 → score接口得到预测的准确率 clf = DecisionTreeClassifier(max_depth=5) clf.fit(X_train, y_train)score = clf.score(X_test, y_test)#绘制决策边界,为此,我们将为网格中的每个点指定一种颜色[x1_min,x1_max] x [x2_min,x2_max] #分类树的接口,predict_proba,返回每一个输入的数据点所对应的标签类概率 #类概率是数据点所在的叶节点中相同类的样本数量/叶节点中的样本总数量 #由于决策树在训练的时候导入的训练集X_train里面包含两个特征,所以我们在计算类概率的时候,也必须导入结构相同的数组,即是说,必须有两个特征 #ravel()能够将一个多维数组转换成一维数组 #np.c_是能够将两个数组组合起来的函数#在这里,我们先将两个网格数据降维降维成一维数组,再将两个数组链接变成含有两个特征的数据,再带入决策 树模型,生成的Z包含数据的索引和每个样本点对应的类概率,再切片,切出类概率Z = clf.predict_proba(np.c_[array1.ravel(),array2.ravel()])[:, 1]#np.c_[np.array([1,2,3]), np.array([4,5,6])]#将返回的类概率作为数据,放到contourf里面绘制去绘制轮廓Z = Z.reshape(array1.shape)ax.contourf(array1, array2, Z, cmap=cm, alpha=.8)#将数据集的分布放到我们的坐标系上# 将训练集放到图中去ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright,edgecolors='k') # 将测试集放到图中去ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright,edgecolors='k', alpha=0.6)#为图设置坐标轴的最大值和最小值 ax.set_xlim(array1.min(), array1.max()) ax.set_ylim(array2.min(), array2.max()) #设定坐标轴不显示标尺也不显示数字 ax.set_xticks(())ax.set_yticks(())#我们有三个坐标系,但我们只需要在第一个坐标系上有标题,因此设定if ds_index==0这个条件 if ds_index == 0:ax.set_title("Decision Tree")#写在右下角的数字ax.text(array1.max() - .3, array2.min() + .3, ('{:.1f}%'.format(score*100)),size=15, horizontalalignment='right') #让i继续加一i += 1plt.tight_layout()
    plt.show()

    20211206CLVzAn

  • 从图上来看,每一条线都是决策树在二维平面上画出的一条决策边界,每当决策树分枝一次,就有一条线出现。当数据的维度更高的时候,这条决策边界就会由线变成面,甚至变成我们想象不出的多维图形。

    同时,很容易看得出,分类树天生不擅长环形数据。每个模型都有自己的决策上限,所以一个怎样调整都无法提升 表现的可能性也是有的。当一个模型怎么调整都不行的时候,我们可以选择换其他的模型使用,不要在一棵树上吊 死。顺便一说:

    1. 最擅长月亮型数据的是最近邻算法,RBF支持向量机和高斯过程;
    2. 最擅长环形数据的是最近邻算法 和高斯过程;
    3. 最擅长对半分的数据的是朴素贝叶斯,神经网络和随机森林。
所有代码
  • 所有代码

    import numpy as np
    from matplotlib import pyplot as plt
    from matplotlib.colors import ListedColormap
    from sklearn.model_selection import train_test_split
    from sklearn.preprocessing import StandardScaler
    from sklearn.datasets import make_moons,make_circles,make_classification
    from sklearn.tree import DecisionTreeClassifier
    from sklearn.model_selection import cross_val_score"""生成三种数据集(月亮形、环形、二分型)"""
    #make_classification生成二分型数据
    X,y = make_classification(n_samples=100 # 生成100个样本,n_features=2 # 包含两个特征,n_redundant=0 # 添加冗余特征0个,n_informative=2 # 包含信息的特征是2个,random_state=1 # 随机数种子,n_clusters_per_class=1 # 每个簇内包含的标签类别有2个)for i in range(1,11):clf = DecisionTreeClassifier()cross_val = cross_val_score(clf,X,y,cv=10).mean()print(cross_val)
    plt.figure(figsize=(12,8))
    plt.scatter(X[:,0],X[:,1])
    plt.title('make_classification')
    plt.show()##从交叉验证和图上可以看出,生成的二分型数据的两个簇离彼此很远
    # ,这样不利于我们测试分类器的效果,因此我们使用np生成 随机数组
    # ,通过让已经生成的二分型数据点加减0~1之间的随机数
    # ,使数据分布变得更散更稀疏 
    #注意,这个过程只能够运行一次,因为多次运行之后X会变得非常稀疏,两个簇的数据会混合在一起,分类器的效应会 继续下降
    rng = np.random.RandomState(2) # 生成一种随机模式
    X += 2*rng.uniform(size=X.shape)# 加减0-1之间的随机数
    Linearly_separable = (X,y)
    plt.figure(figsize=(12,8))
    plt.scatter(X[:,0],X[:,1])# 用make_moons创建月亮型数据
    X,y = make_moons(noise=0.3,random_state=0)
    Moons_data = (X,y)# 用make_circles创建环形数据
    X,y = make_circles(noise=0.2,factor=0.5,random_state=1)
    Circle_data = (X,y)datasets = (Moons_data,Circle_data,Linearly_separable)"""画出三种数据集和三颗决策树的分类效应图像"""
    figure = plt.figure(figsize=(12,18))
    i = 1 # 设置用来安排图像显示位置的全局变量i# 开始迭代数据,对datasets中的数据进行for循环for ds_index,ds in enumerate(datasets):X,y = dsX = StandardScaler().fit_transform(X)X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=.4,random_state=42)# 找出数据集中两个特征的最大值和最小值,让最大值+0.5,最小值-0.5,创造一个比两个特征的区间本身更大 一点的区间x1_min,x1_max = X[:,0].min() - .5,X[:,0].max() + .5x2_min,x2_max = X[:,1].min() - .5,X[:,1].max() + .5#用特征向量生成网格数据,网格数据,其实就相当于坐标轴上无数个点 #函数np.arange在给定的两个数之间返回均匀间隔的值,0.2为步长 #函数meshgrid用以生成网格数据,能够将两个一维数组生成两个二维矩阵。 #如果第一个数组是narray,维度是n,第二个参数是marray,维度是m。那么生成的第一个二维数组是以narray为行,m行的矩阵,而第二个二维数组是以marray的转置为列,n列的矩阵 #生成的网格数据,是用来绘制决策边界的,因为绘制决策边界的函数contourf要求输入的两个特征都必须是二维的array1,array2 = np.meshgrid(np.arange(x1_min, x1_max, 0.2),np.arange(x2_min, x2_max, 0.2))#接下来生成彩色画布 #用ListedColormap为画布创建颜色,#FF0000正红,#0000FF正蓝 cm = plt.cm.RdBucm_bright = ListedColormap(['#FF0000', '#0000FF'])#在画布上加上一个子图,数据为len(datasets)行,2列,放在位置i上 ax = plt.subplot(len(datasets), 2, i)#到这里为止,已经生成了0~1之间的坐标系3个了,接下来为我们的坐标系放上标题 #我们有三个坐标系,但我们只需要在第一个坐标系上有标题,因此设定if ds_index==0这个条件 if ds_index == 0:ax.set_title("Input data")#将数据集的分布放到我们的坐标系上#先放训练集ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train,cmap=cm_bright,edgecolors='k')# 放测试集ax.scatter(X_test[:, 0], X_test[:,1],c=y_test,cmap=cm_bright,alpha=0.6,edgecolors='k')#为图设置坐标轴的最大值和最小值,并设定没有坐标轴 ax.set_xlim(array1.min(), array1.max()) ax.set_ylim(array2.min(), array2.max()) ax.set_xticks(())ax.set_yticks(())#每次循环之后,改变i的取值让图每次位列不同的位置i+=1#至此为止,数据集本身的图像已经布置完毕,运行以上的代码,可以看见三个已经处理好的数据集 #############################从这里开始是决策树模型###########################在这里,len(datasets)其实就是3,2是两列 #在函数最开始,我们定义了i=1,并且在上边建立数据集的图像的时候,已经让i+1,所以i在每次循环中的取值是2,4,6ax = plt.subplot(len(datasets),2,i)#决策树的建模过程:实例化 → fit训练 → score接口得到预测的准确率 clf = DecisionTreeClassifier(max_depth=5) clf.fit(X_train, y_train)score = clf.score(X_test, y_test)#绘制决策边界,为此,我们将为网格中的每个点指定一种颜色[x1_min,x1_max] x [x2_min,x2_max] #分类树的接口,predict_proba,返回每一个输入的数据点所对应的标签类概率 #类概率是数据点所在的叶节点中相同类的样本数量/叶节点中的样本总数量 #由于决策树在训练的时候导入的训练集X_train里面包含两个特征,所以我们在计算类概率的时候,也必须导入结构相同的数组,即是说,必须有两个特征 #ravel()能够将一个多维数组转换成一维数组 #np.c_是能够将两个数组组合起来的函数#在这里,我们先将两个网格数据降维降维成一维数组,再将两个数组链接变成含有两个特征的数据,再带入决策 树模型,生成的Z包含数据的索引和每个样本点对应的类概率,再切片,切出类概率Z = clf.predict_proba(np.c_[array1.ravel(),array2.ravel()])[:, 1]#np.c_[np.array([1,2,3]), np.array([4,5,6])]#将返回的类概率作为数据,放到contourf里面绘制去绘制轮廓Z = Z.reshape(array1.shape)ax.contourf(array1, array2, Z, cmap=cm, alpha=.8)#将数据集的分布放到我们的坐标系上# 将训练集放到图中去ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright,edgecolors='k') # 将测试集放到图中去ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright,edgecolors='k', alpha=0.6)#为图设置坐标轴的最大值和最小值 ax.set_xlim(array1.min(), array1.max()) ax.set_ylim(array2.min(), array2.max()) #设定坐标轴不显示标尺也不显示数字 ax.set_xticks(())ax.set_yticks(())#我们有三个坐标系,但我们只需要在第一个坐标系上有标题,因此设定if ds_index==0这个条件 if ds_index == 0:ax.set_title("Decision Tree")#写在右下角的数字ax.text(array1.max() - .3, array2.min() + .3, ('{:.1f}%'.format(score*100)),size=15, horizontalalignment='right') #让i继续加一i += 1plt.tight_layout()
    plt.show()
    

相关文章:

sklearn中的决策树-分类树:实例-分类树在合成数据集上的表现

分类树实例:分类树在合成数据集上的表现 代码分解 在不同结构的据集上测试一下决策树的效果(二分型,月亮形,环形) 导入 import numpy as np from matplotlib import pyplot as plt from matplotlib.colors import Li…...

给小米/红米手机root(工具基本为官方工具)——KernelSU篇

目录 前言准备工作下载刷机包xiaomirom下载刷机包【适用于MIUI和hyperOS】“hyper更新”微信小程序【只适用于hyperOS】 下载KernelSU刷机所需程序和驱动文件 开始刷机设置手机第一种刷机方式【KMI】推荐提取boot或init_boot分区 第二种刷机方式【GKI】不推荐 结语 前言 刷机需…...

棒球和垒球区别·棒球1号位

棒球运动和垒球运动的区别主要体现在以下几个方面: 1. 用球差异:垒球比棒球大且重。棒球的直径大约是7.3厘米,重量通常在145克左右,外皮由皮革制成,质地较硬。而垒球的直径为9.7厘米,重量大约为180克左右&a…...

Redis|持久化

文章目录 总体介绍RDB(Redis DataBase)官网介绍案例演示优势劣势如何检查修复 dump.rdb 文件哪些情况下会触发 RDB 快照如何禁用快照RDB 优化配置项详解小总结 AOF(Append Only File)官网介绍是什么能干嘛AOF 持久化工作流程AOF 缓…...

UE5销毁Actor,移动Actor,简单的空气墙的制作

1.销毁Actor 1.Actor中存在Destory()函数和Destoryed()函数 Destory()函数是成员函数,它会立即标记 Actor 为销毁状态,并且会从场景中移除该 Actor。它会触发生命周期中的销毁过程,调用 Destroy() 后,Actor 立即进入销毁过程。具体…...

蓝桥杯备赛-迷宫-BFS

这是一个关于二维迷宫的题目。我们要从迷宫的起点 S 走到终点 E,每一步我们只能选择上下左右四个方向中的一个前进一格。 W 代表墙壁,是不能进入的位置,除了墙壁以外的地方都可以走。迷宫内的 D 代表一道上锁的门,只有在持有钥匙的…...

设计模式 之 工厂模式(简单工厂模式、工厂方法模式、抽象工厂模式)(C++)

文章目录 C 工厂模式引言一、简单工厂模式概念实现步骤示例代码优缺点 二、工厂方法模式概念实现步骤示例代码优缺点 三、抽象工厂模式概念实现步骤示例代码优缺点 C 工厂模式 引言 在 C 编程中,对象的创建是一个常见且基础的操作。然而,当项目规模逐渐…...

Windows前端开发IDE选型全攻略

Windows前端开发IDE选型全攻略 一、核心IDE对比矩阵 工具名称最新版本核心优势适用场景推荐指数引用来源VS Code2.3.5轻量级/海量插件/跨平台/Git深度集成全栈开发/中小型项目⭐⭐⭐⭐⭐14WebStorm2025.1智能提示/框架深度支持/企业级调试工具大型项目/专业前端团队⭐⭐⭐⭐47…...

大模型训练中的数据不平衡问题及其解决策略

目录 大模型训练中的数据不平衡问题及其解决策略 一、数据不平衡问题的影响 二、处理数据不平衡问题的方法 1. 过采样(Oversampling) 2. 欠采样(Undersampling) 3. 代价敏感学习(Cost-Sensitive Learning&#xf…...

Flask应用实战经验总结:使用工厂函数创建app与uWSGI服务部署启动失败解决方案

在 Flask 应用开发中,使用工厂函数创建应用实例,并借助 uWSGI 服务进行部署,是常见且高效的组合。 然而,在实际操作过程中,uWSGI 配置文件与应用启动函数之间的关系复杂,容易引发各种问题。 本文将详细探…...

基于Spring Boot的党员学习交流平台设计与实现(LW+源码+讲解)

专注于大学生项目实战开发,讲解,毕业答疑辅导,欢迎高校老师/同行前辈交流合作✌。 技术范围:SpringBoot、Vue、SSM、HLMT、小程序、Jsp、PHP、Nodejs、Python、爬虫、数据可视化、安卓app、大数据、物联网、机器学习等设计与开发。 主要内容:…...

TCP/IP的分层结构、各层的典型协议,以及与ISO七层模型的差别

1. TCP/IP的分层结构 TCP/IP模型是一个四层模型,主要用于网络通信的设计和实现。它的分层结构如下: (1) 应用层(Application Layer) 功能:提供应用程序之间的通信服务,处理特定的应用细节。 典型协议&am…...

【2025-02-25】基础算法:二分查找(一)

📝前言说明: ●本专栏主要记录本人的基础算法学习以及LeetCode刷题记录,主要跟随B站博主灵茶山的视频进行学习,专栏中的每一篇文章对应B站博主灵茶山的一个视频 ●题目主要为B站视频内涉及的题目以及B站视频中提到的“课后作业”。…...

WebRTC解析

一、WebRTC 协议概述 WebRTC(Web Real-Time Communication)是由 Google 发起并成为 W3C 标准的实时音视频通信技术,核心特点: 零插件:浏览器原生支持端到端加密(SRTP DTLS)P2P 优先架构&…...

BERT模型详解及代码复现

架构设计 BERT模型的架构设计是其成功的关键之一,它巧妙地融合了Transformer架构的优势,并针对自然语言处理任务进行了优化。具体来说,BERT的架构主要由三个模块组成: Embedding模块 :负责将输入的文本转换为模型可处理的向量表示。该模块由三种Embedding组成: Token Em…...

如何在 SpringBoot 项目使用 Redis 的 Pipeline 功能

本文是博主在批量存储聊天中用户状态和登陆信息到 Redis 缓存中时,使用到了 Pipeline 功能,并对此做出了整理。 一、Redis Pipeline 是什么 Redis 的 Pipeline 功能可以显著提升 Redis 操作的性能,性能提升的原因在于可以批量执行命令。当我…...

Python Django系列—入门实例

我们假定你已经阅读了​ 安装 Django。你能知道 Django 已被安装,且安装的是哪个版本,通过在命令提示行输入命令(由 $ 前缀)。 $ python -m django --version 如果这行命令输出了一个版本号,证明你已经安装了此版本的…...

2024年第十五届蓝桥杯青少 图形化编程(Scratch)省赛中级组真题——截取递增数

截取递增数 背景信息 递增数:如果一个大于9的正整数各个数位上的数,从左到右是逐渐变大的,那么就称这个数为递增数。 例如124、248 是递增数。 给你一个不含0的九位数,请找出从这个九位数中能截取出的所有递增数。例如:115367…...

【ECMAScript6】

【ECMAScript6】 01. ES6介绍02. let和const命令03. 模板字符串04. 函数之默认值、剩余参数05. 函数之扩展运算符、箭头函数06. 箭头函数this指向和注意事项07. 解构赋值08. 扩展的对象的功能(简写)09. Symbol类型10. Set集合数据类型11. Map数据类型12.…...

WebUI 部署 Ollama 可视化对话界面

文章目录 一、Node.js 安装1.系统环境查询2.官网下载nodejs 安装包3.安装 Node.js 并配置环境变量4.验证安装是否正确 二、ollama-webui 安装与配置1.代码库下载2.依赖安装3.运行 三、遇到问题与解决 一、Node.js 安装 1.系统环境查询 ubuntu20.04 系统,x86-64架构…...

BMS应用软件开发 — 17 上下电控制与诊断开发 (Simulink)

目录 17.1 上下电控制流程 17.1.1 上下电流程 17.1.2 下电过程的电机放电 17.1.3 继电器状态检测 17.2 预充继电器状态判断 17.1 上下电控制流程 17.1.1 上下电流程 高压上电是指动力电池为车辆提供高压,使高压回路导通,为车辆的各个高压部件供电&…...

UE5 Gameplay框架及继承关系详解

文章目录 前言一、核心类及其继承关系二、核心类的职责与协作2.1 Actor & Pawn2.2 Controller2.3 GameMode & GameState2.4 PlayerState2.5 HUD & UI 三、协作流程示例总结 前言 Unreal Engine 5(UE5)的 Gameplay 框架 是一个高度模块化的系…...

html - 手工添加上次阅读的位置, 方便下次阅读

文章目录 html - 手工添加上次阅读的位置, 方便下次阅读概述笔记END html - 手工添加上次阅读的位置, 方便下次阅读 概述 在看一本电子书,有pdf格式的,但是比较喜欢看html格式的(复制比较方便)。 但是有个缺点,如果看到一半,关掉…...

JavaSE学习笔记26-集合(Collection)

集合 Java 中的集合(Collection)是 Java 标准库中非常重要的一部分,用于存储和操作一组对象。Java 集合框架(Java Collections Framework)提供了一套丰富的接口和类,用于处理各种数据结构,如列…...

使用Open WebUI下载的模型文件(Model)默认存放在哪里?

🏡作者主页:点击! 🤖Ollama部署LLM专栏:点击! ⏰️创作时间:2025年2月21日21点21分 🀄️文章质量:95分 文章目录 使用CMD安装存放位置 默认存放路径 Open WebUI下…...

Django数据库操作

1、ORM 创建、删除、修改数据库的表中的数据,但不能创建数据库往数据库表中写入数据 表名:app名称_类名的小写 2、操作表数据 from django.db import modelsclass Department(models.Model):title models.CharField(verbose_name"部门", …...

005:Cesium.viewer 知识详解、示例代码

查看本专栏目录 - 本文是第 005个API内容详解 vue+cesium 示例教程200+目录 文章目录 一、Cesium.Viewer 知识详解1. 主要用途2. 构造函数与参数3. 常用属性(1)`viewer.scene`(2)`viewer.camera`(3)`viewer.entities`(4)`viewer.clock`4. 常用方法(1)`viewer.zoomTo(…...

蓝桥杯单片机组第十二届省赛第二批次

前言 第十二届省赛涉及知识点:NE555频率数据读取,NE555频率转换周期,PCF8591同时测量光敏电阻和电位器的电压、按键长短按判断。 本试题涉及模块较少,题目不难,基本上准备充分的都能完整的实现每一个功能,并…...

AI客服-接入deepseek大模型到微信(本地部署deepseek集成微信自动收发消息)

1.本地部署 1.1 ollama Ollama软件通过其高度优化的推理引擎和先进的内存管理机制,显著提升了大型语言模型在本地设备上的运行效率。其核心采用了量化技术(Quantization)以降低模型的计算复杂度和存储需求,同时结合张量并行计算&…...

Git 常用指令及其说明

配置相关 # 配置全局用户名 git config --global user.name "YourUsername"# 配置全局邮箱 git config --global user.email "your.emailexample.com"说明:这两条命令用于设置 Git 全局的用户名和邮箱,在提交代码时,这些…...