当前位置: 首页 > article >正文

AI系统-7Pytorch数字识别实战及算子介绍

之前铺垫了神经网络的基础知识这里使用编程工具Pytorch进行一个实战讲解。首先变成一个看得见、摸得着的程序和代码然后再说后续怎么使用GPU/NPU硬件去优化。本文主要参考ZOMI酱《AI系统》https://chenzomi12.github.io/01Introduction/04Sample.html1. Pytorch介绍参考https://zhuanlan.zhihu.com/p/101799677当前深度学习的框架有很多其中较为出名的是Google的TensorFlow、Facebook的PyTorch还有就是百度的paddlepaddle。今天我们拿比较简单的PyTorch来进行入门的学习。PyTorch是一个基于Torch的Python开源机器学习库用于自然语言处理等应用程序。 它主要由Facebook的人工智能研究小组开发。PyTorch是一个Python包提供两个高级功能具有强大的GPU加速的张量计算如NumPy包含自动求导系统的的深度神经网络 * 您可以重用您最喜欢的Python包如NumPy、SciPy和Cython以便在需要时扩展PyTorch。 PyTorch的安装十分简单根据PyTorch官网对系统选择和安装方式等灵活选择即可。这里以anaconda为例Windows10 下 Anaconda和 PyCharm 的详细的安装教程图文并茂简单的说一下步骤和要点。1.1 安装PytorchAnaconda安装完成后开始创建环境这里以win10 系统为例。打开Anaconda Prompt# pytorch为环境名这里创建python3.6版。conda create - n pytorch python3.6# 切换到pytorch环境activate pytorch# ***以下为1.0版本安装***# 安装GPU版本根据cuda版本选择cuda80cuda92如果cuda是9.0版则不需要# 直接conda install pytorch -c pytorch即可# win下查看cuda版本命令nvcc -Vcondainstallpytorch cuda92 - c pytorch# cpu版本使用condainstallpytorch-cpu-cpytorch# torchvision 是torch提供的计算机视觉工具包后面介绍pipinstalltorchvision# *** 官方更新了1.01 所以安装方式也有小的变更# torchversion提供了conda的安装包可以用conda直接安装了# cuda支持也升级到了10.0# 安装方式如下# cpu版本condainstallpytorch - cpu torchvision - cpu - c pytorch# GPU版condainstallpytorch torchvision cudatoolkit10.0- c pytorch# cudatoolkit后跟着相应的cuda版本# 目前测试 8.0、9.0、9.1、9.2、10.0都可安装成功验证输入python 进入importtorch torch.__version__# 得到结果1.1.01.2 配置 Jupyter Notebook新建的环境是没有安装ipykernel的所以无法注册到Jupyter Notebook中所以先要准备下环境# 安装ipykernelcondainstallipykernel# 写入环境python-mipykernelinstall--namepytorch --display-namePytorch for Deeplearning下一步就是定制 Jupyter Notebook# 切换回基础环境activate base# 创建jupyter notebook配置文件jupyter notebook --generate-config## 这里会显示创建jupyter_notebook_config.py的具体位置打开文件修改c.NotebookApp.notebook_dir默认目录位置 c.NotebookApp.iopub_data_rate_limit100000000这个改大一些否则有可能报错1.3 测试至此 Pytorch 的开发环境安装完成可以在开始菜单中打开Jupyter Notebook在New 菜单中创建文件时选择Pytorch for Deeplearning创建PyTorch的相关开发环境了2. MNIST数据集参考https://github.com/RedstoneWill/CNN_PyTorch_Beginner/blob/main/LeNet-5/LeNet-5.ipynbMNIST是一个非常有名的手写体数字识别数据集训练样本共60000个其中55000个用于训练另外5000个用于验证测试样本共10000个。MNIST数据集每张图片是单通道的大小为28x28.Pytorch支持自动下载这个数据集在Jupyter Notebook里面输入下面的代码 In [1]:importtorchimporttorch.nn as nnimporttorch.nn.functional as Fimporttorch.optim as optim from torchvisionimportdatasets, transformsimporttimefrom matplotlibimportpyplot as plt上面先加载需要用到的库然后就是处理数据集如下 In [2]:pipline_traintransforms.Compose([#随机旋转图片transforms.RandomHorizontalFlip(),#将图片尺寸resize到32x32transforms.Resize((32,32)),#将图片转化为Tensor格式transforms.ToTensor(),#正则化(当模型出现过拟合的情况时用来降低模型的复杂度)transforms.Normalize((0.1307,),(0.3081,))])pipline_testtransforms.Compose([#将图片尺寸resize到32x32transforms.Resize((32,32)), transforms.ToTensor(), transforms.Normalize((0.1307,),(0.3081,))])#下载数据集train_setdatasets.MNIST(root./data,trainTrue,downloadTrue,transformpipline_train)test_setdatasets.MNIST(root./data,trainFalse,downloadTrue,transformpipline_test)#加载数据集trainloadertorch.utils.data.DataLoader(train_set,batch_size64,shuffleTrue)testloadertorch.utils.data.DataLoader(test_set,batch_size32,shuffleFalse)这里要解释一下Pytorch MNIST数据集标准化为什么是transforms.Normalize((0.1307,), (0.3081,))标准化Normalization是神经网络对数据的一种经常性操作。标准化处理指的是样本减去它的均值再除以它的标准差最终样本将呈现均值为0方差为1的数据分布。神经网络模型偏爱标准化数据原因是均值为0方差为1的数据在sigmoid、tanh经过激活函数后求导得到的导数很大反之原始数据不仅分布不均噪声大而且数值通常都很大本例中数值范围是0~255激活函数后求导得到的导数则接近与0这也被称为梯度消失。前文已经分析神经网络是根据函数对权值求导的导数来调整权值导数越大调整幅度越大越快逼近目标函数反之导数越小调整幅度越小所以说数据的标准化有利于加快神经网络的训练。除此之外还需要保持train_set、val_set和test_set标准化系数的一致性。标准化系数就是计算要用到的均值和标准差在本例中是((0.1307,), (0.3081,))均值是0.1307标准差是0.3081这些系数都是数据集提供方计算好的数据。不同数据集就有不同的标准化系数例如([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])就是ImageNet dataset的标准化系数RGB三个通道对应三组系数当需要将imagenet预训练的参数迁移到另一神经网络时被迁移的神经网络就需要使用imagenet的系数否则预训练不仅无法起到应有的作用甚至还会帮倒忙例如我们想要用神经网络来识别夜空中的星星因为黑色是夜空的主旋律从像素上看黑色就是数据集的均值标准化操作时所有图像会减去均值黑色如此Imagenet预训练的神经网络很难识别出这些数据是夜空图像3. LeNet-5神经网络实现手写字符算法3.1 训练过程首先就要对MNIST书籍进行训练就是前向传播的过程。回忆下之前讲的神经学习知识Loss就是损失函数就是预测值跟真实值的差距要让这个损失函数越小模型就越好。预测值是根据算法f得来的算法f例如这里的LeNet5其由参数θ和输入x决定那我们可以调节的就是这个参数θ训练过程就是找这个参数θ让损失函数最小需要用到梯度下降等高数的方法。模型定义 LeNet5 网络模型包含有卷积Conv2D层最大池化层MaxPool2D全连接Linear层。3.1.1搭建LeNet-5神经网络结构并定义前向传播的过程此为核心算法In [3]:class LeNet(nn.Module): def __init__(self): super(LeNet, self).__init__()self.conv1nn.Conv2d(1,6,5)# 输入通道1灰度图输出通道6卷积核5x5self.relunn.ReLU()# ReLU激活函数self.maxpool1nn.MaxPool2d(2,2)# 池化层窗口2x2步长2self.conv2nn.Conv2d(6,16,5)# 输入通道6输出通道16卷积核5x5self.maxpool2nn.MaxPool2d(2,2)self.fc1nn.Linear(16*5*5,120)# 全连接层经过两次卷积核池化后输入维度16*5*5原本是32*32的图片输出120self.fc2nn.Linear(120,84)self.fc3nn.Linear(84,10)# 输出10类如MNIST数字0-9def forward(self, x): xself.conv1(x)xself.relu(x)xself.maxpool1(x)xself.conv2(x)#卷积xself.maxpool2(x)#池化xx.view(-1,16*5*5)# 展平多维特征图为一维向量xF.relu(self.fc1(x))xF.relu(self.fc2(x))xself.fc3(x)outputF.log_softmax(x,dim1)# 对数Softmax适用于NLLLoss损失函数returnoutput卷积→激活→池化‌重复两次逐步压缩空间维度并增强特征抽象能力。‌展平操作‌将16x5x5特征图转换为16*5*5400维向量输入全连接层。‌分类输出‌通过log_softmax计算对数概率优化时需搭配NLLLoss损失函数3.1.2 将定义好的网络结构搭载到GPU/CPU并定义优化器In [4]:#创建模型部署gpudevicetorch.device(cudaiftorch.cuda.is_available()elsecpu)modelLeNet().to(device)#定义优化器optimizeroptim.Adam(model.parameters(),lr0.001)3.1.3 定义训练过程训练过程 遍历一个批大小Batch Size的数据设置计算的 NPU/GPU 资源数量执行前向传播计算计算损失值Loss通过反向传播实现优化器计算从而更新权重。In [5]:def train_runner(model, device, trainloader, optimizer, epoch):#训练模型, 启用 BatchNormalization 和 Dropout, 将BatchNormalization和Dropout置为Truemodel.train()total0correct0.0#enumerate迭代已加载的数据集,同时获取数据和数据下标fori, datainenumerate(trainloader,0): inputs, labelsdata#把模型部署到device上inputs, labelsinputs.to(device), labels.to(device)#初始化梯度optimizer.zero_grad()#保存训练结果outputsmodel(inputs)#计算损失和#多分类情况通常使用cross_entropy(交叉熵损失函数), 而对于二分类问题, 通常使用sigmodlossF.cross_entropy(outputs, labels)#获取最大概率的预测结果#dim1表示返回每一行的最大值对应的列下标predictoutputs.argmax(dim1)totallabels.size(0)correct(predictlabels).sum().item()#反向传播loss.backward()#更新参数optimizer.step()ifi %10000:#loss.item()表示当前loss的数值print(Train Epoch{}\tLoss: {:.6f}, accuracy: {:.6f}%.format(epoch, loss.item(),100*(correct/total)))Loss.append(loss.item())Accuracy.append(correct/total)returnloss.item(), correct/total3.1.4 定义测试过程In [6]:def test_runner(model, device, testloader):#模型验证, 必须要写, 否则只要有输入数据, 即使不训练, 它也会改变权值#因为调用eval()将不启用 BatchNormalization 和 Dropout, BatchNormalization和Dropout置为Falsemodel.eval()#统计模型正确率, 设置初始值correct0.0test_loss0.0total0#torch.no_grad将不会计算梯度, 也不会进行反向传播with torch.no_grad():fordata, labelintestloader: data, labeldata.to(device), label.to(device)outputmodel(data)test_lossF.cross_entropy(output, label).item()predictoutput.argmax(dim1)#计算正确数量totallabel.size(0)correct(predictlabel).sum().item()#计算损失值print(test_avarage_loss: {:.6f}, accuracy: {:.6f}%.format(test_loss/total,100*(correct/total)))3.1.5 运行In [7]:#调用epoch5Loss[]Accuracy[]forepochinrange(1, epoch1): print(start_time,time.strftime(%Y-%m-%d %H:%M:%S,time.localtime(time.time())))loss, acctrain_runner(model, device, trainloader, optimizer, epoch)Loss.append(loss)Accuracy.append(acc)test_runner(model, device, testloader)print(end_time: ,time.strftime(%Y-%m-%d %H:%M:%S,time.localtime(time.time())),\n)print(Finished Training)plt.subplot(2,1,1)plt.plot(Loss)plt.title(Loss)plt.show()plt.subplot(2,1,2)plt.plot(Accuracy)plt.title(Accuracy)plt.show()start_time2021-11-2722:15:09 Train Epoch1 Loss:2.312757, accuracy:12.500000% test_avarage_loss:0.003749, accuracy:96.100000% end_time:2021-11-2722:15:45 start_time2021-11-2722:15:45 Train Epoch2 Loss:0.069703, accuracy:100.000000% test_avarage_loss:0.002672, accuracy:97.300000% end_time:2021-11-2722:16:20 start_time2021-11-2722:16:20 Train Epoch3 Loss:0.025734, accuracy:100.000000% test_avarage_loss:0.002858, accuracy:97.130000% end_time:2021-11-2722:16:55 start_time2021-11-2722:16:55 Train Epoch4 Loss:0.155763, accuracy:93.750000% test_avarage_loss:0.002237, accuracy:97.670000% end_time:2021-11-2722:17:31 start_time2021-11-2722:17:31 Train Epoch5 Loss:0.020248, accuracy:100.000000% test_avarage_loss:0.002280, accuracy:97.720000% end_time:2021-11-2722:18:07 Finished Training3.1.6 保存模型In [8]:print(model)torch.save(model,./models/model-mnist.pth)#保存模型LeNet((conv1): Conv2d(1,6,kernel_size(5,5),stride(1,1))(relu): ReLU()(maxpool1): MaxPool2d(kernel_size2,stride2,padding0,dilation1,ceil_modeFalse)(conv2): Conv2d(6,16,kernel_size(5,5),stride(1,1))(maxpool2): MaxPool2d(kernel_size2,stride2,padding0,dilation1,ceil_modeFalse)(fc1): Linear(in_features400,out_features120,biasTrue)(fc2): Linear(in_features120,out_features84,biasTrue)(fc3): Linear(in_features84,out_features10,biasTrue))C:\Users\Administrator.conda\envs\pytorch\lib\site-packages\torch\serialization.py:360: UserWarning: Couldnt retrieve source code for container of type LeNet. It wont be checkedforcorrectness upon loading.type obj.__name__ . It wont be checked 3.2 推理过程利用刚刚训练的模型进行手写图片的测试。In [9]:importcv2if__name____main__:devicetorch.device(cudaiftorch.cuda.is_available()elsecpu)modeltorch.load(./models/model-mnist.pth)#加载模型modelmodel.to(device)model.eval()#把模型转为test模式#读取要预测的图片imgcv2.imread(./images/test_mnist.jpg)imgcv2.resize(img,dsize(32,32),interpolationcv2.INTER_NEAREST)plt.imshow(img,cmapgray)# 显示图片plt.axis(off)# 不显示坐标轴plt.show()# 导入图片图片扩展后为[113232]transtransforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,),(0.3081,))])imgcv2.cvtColor(img, cv2.COLOR_BGR2GRAY)#图片转为灰度图因为mnist数据集都是灰度图imgtrans(img)imgimg.to(device)imgimg.unsqueeze(0)#图片扩展多一维,因为输入到保存的模型中是4维的[batch_size,通道,长宽]而普通图片只有三维[通道,长宽]# 预测#output model(img)#predict output.argmax(dim1)#print(predict.item())# 预测outputmodel(img)probF.softmax(output,dim1)#prob是10个分类的概率print(概率,prob)value, predictedtorch.max(output.data,1)predictoutput.argmax(dim1)print(预测类别,predict.item())概率 tensor([[2.0888e-07,1.1599e-07,6.1852e-05,1.5797e-04,1.4975e-09,9.9977e-01,1.9271e-06,3.1589e-06,1.2186e-07,4.3405e-07]],grad_fnSoftmaxBackward)预测类别54. 算子介绍参考https://chenzomi12.github.io/01Introduction/04Sample.html上面是整个神经网络的实战其实核心的部分都被Pytorch的库给实现了例如importtorch class LeNet(nn.Module): def __init__(self): super(LeNet, self).__init__()... self.conv2nn.Conv2d(3,2,5)#卷积算法参数定义... def forward(self, x): outself.conv1(x)#卷积算法...我们在PC上执行这个conv1卷积算法可以使用GPU进行加速。那么这个算法内部是怎么运行呢首先卷积运算之前讲过每次选取输入数据一层的一个窗口和卷积核一样的宽高然后和对应的卷积核5×5 卷积核代表高 5 维宽 5 维的矩阵进行 矩阵内积Dot Product 运算最后将所有的计算结果与偏置项 b 相加后输出。首先一次沿着行进行滑动一定的步长 Step再进行下次矩阵内积计算直到滑到边界后再沿着一定步长跳到下一列重复刚才的滑动窗口。最终把每一步的结果组合成输出矩阵即产生特征图Feature Map。图中输入张量形状Tensor Shape为 3×32×323 代表通道数32 代表张量高度和宽度经过 2×3×5×5 的卷积2 代表输出通道数3 代表输入通道数5 代表卷积核高度和宽度后输出张量形状为 2×28×282 代表通道28 代表高度和宽度。示例的卷积计算最终在程序上表达为多层嵌套循环为简化计算过程循环展开中没有呈现维度Dimension的形状推导Shape Inference。以 Conv2D 转换为如下 7 层循环进行 Kerenl 计算的代码# 批尺寸维度 batch_sizeforninrange(batch_size):# 输出张量通道维度 output_channelforocinrange(output_channel):# 输入张量通道维度 input_channelforicinrange(input_channel):# 输出张量高度维度 out_heightforhinrange(out_height):# 输出张量宽度维度 out_widthforwinrange(out_width):# 卷积核高度维度 filter_heightforfhinrange(filter_height):# 卷积核宽度维度 filter_widthforfwinrange(filter_width):# 乘加Multiply Add运算output[h, w, oc]input[h fw, w fh, ic]\* kernel[fw, fh, c, oc]其实Conv2D就可以成为一个算子在软件硬化的NPU开发中算子就是软件硬件化的基本单位。当前AI发展的一个核心技术就是把这些嵌套且是矩阵的软件运行使用硬件来实现这个就是NPU出现的意义和AI科技进步的一个核心。算子深度学习算法由一个个计算单元组成称这些计算单元为算子OperatorOp。AI 框架中对张量计算的种类有很多比如加法、乘法、矩阵相乘、矩阵转置等这些计算被称为算子Operator。为了更加方便的描述计算图中的算子现在来对算子这一概念进行定义数学上定义的算子一个函数空间到函数空间上的映射 OX→X对任何函数进行某一项操作都可以认为是一个算子。狭义的算子Kernel对张量 Tensor 执行的基本操作集合包括四则运算数学函数甚至是对张量元数据的修改如维度压缩Squeeze维度修改reshape等。广义的算子FunctionAI 框架中对算子模块的具体实现涉及到调度模块Kernel 模块求导模块以及代码自动生成模块。对于神经网络模型而言算子是网络模型中涉及到的计算函数。在 PyTorch 中算子对应层中的计算逻辑例如卷积层Convolution Layer中的卷积算法是一个算子全连接层Fully-connected LayerFC layer中的权值求和过程也是一个算子。AI算法计算过程中有很多有趣的问题硬件加速 通用矩阵乘是计算机视觉和自然语言处理模型中的主要的计算方式同时 NPU/GPU如 TPU 脉动阵列的矩阵乘单元等其他专用人工智能芯片 ASIC 是否会针对矩阵乘作为底层支持第二章 AI 芯片体系结构相关内容片上内存其中参与计算的输入、权重和输出张量能否完全放入 NPU/GPU 缓存L1、L2、Cache如果不能放入则需要通过循环块Loop Tile编译优化进行切片。第二章 AI 芯片体系结构相关内容局部性循环执行的主要计算语句是否有局部性可以利用空间局部性缓存线内相邻的空间是否会被连续访问以及时间局部性同一块内存多久后还会被继续访问这样我们可以通过预估后尽可能的通过编译调度循环执行。第三章 AI 编译器相关内容内存管理与扩展Scale OutAI 系统工程师或者 AI 编译器会提前计算每一层的输出Output、输入Input和内核Kernel张量大小进而评估需要多少计算资源、内存管理策略设计以及换入换出策略等。第三章 AI 编译器相关内容运行时调度当算子与算子在运行时按一定调度次序执行框架如何进行运行时管理第四章推理引擎相关内容算法变换从算法来说当前多层循环的执行效率无疑是很低的是否可以转换为更加易于优化和高效的矩阵计算第四章推理引擎相关内容编程方式通过哪种编程方式可以让神经网络模型的程序开发更快如何才能减少或者降低算法工程师的开发难度让其更加聚焦 AI 算法的创新第五章 AI 框架相关内容怎么在NPU上部署AI算法之前我们使用的Python语言在PyTorch实现了AI算法那就是把Python编译成二进制程序给了CPU或者GPU执行。一个核心就是Python写的算子拆分出来然后编译的时候用硬件去实现。对于新开发的算子GPU就需要使用CUDA语言把这个算子给写出来NPU上也差不多的操作。5. AI编译器介绍参考https://chenzomi12.github.io/01Introduction/04Sample.htmlAI框架多硬件也变多进行适配就需要有一个IR中间层。随着深度学习的快速发展以及在工业界的不断拓展不断有新的 AI 框架被提出以满足不同场景的应用。但是随着 AI 技术应用的全面发展各厂家根据自身业务场景的需求在 AI 硬件和算法上不断优化和探索AI 系统的体系结构越来越复杂更多新的 AI 加速芯片被提出来其设计变得更加多样化AI 框架运行的硬件环境和算法也趋于更多样和复杂单一 AI 框架已经无法满足和平衡所有特性。所以为了提供不同框架和硬件体系结构之间的迁移性ONNX 等中间 IR 被提出其定义了表示神经网络模型的统一格式以促进不同 AI 框架之间的模型转换。为了实现硬件的多样性需要将神经网络模型计算映射到不同架构的硬件中执行。在通用硬件上高度优化的线性代数库为神经网络模型计算提供了基础加速库。此外大多数硬件供应商还发布了专属的神经网络模型计算优化库如MKL-DNN 和 cuDNN 等但基于基础加速库的优化往往落后于深度学习算法模型的更新且大多数情况下需要针对不同的平台进行定制化的开发。为了解决多硬件平台上的性能优化的问题AI 编译器以神经网络模型作为输入将 AI 计算任务通过一层或多层中间表达 IR 进行翻译和优化最后转化为目标硬件上可执行的代码与传统的编译器LLVM类似AI 编译器也采用前端、中间表示和后端分层设计的方式。目前业界主流的芯片公司和大型互联网公司等都在 AI 编译器进行了大量的投入来推进相关技术的发展。与传统编译器相比AI 编译器是一个领域特定的编译器有四个明显的特征1. Python 为主前端语言与传统编译器不同AI 编译器通常不需要 Lexer/Parser而是基于前端高级编程语言如 Python的 AST 将神经网络模型解析并构造为计算图 IR侧重于保留 shape、layout 等张量计算特征信息当然部分编译器还能保留控制流的信息。其中 Python 主要是以动态解释器为执行方式。2. 多层 IR 设计多层 IR 设计为的是满足易用性与高性能这两种类型需求1为了让开发者使用方便AI 框架会尽量对张量的计算进行抽象封装成具体的 API 或者函数算法开发者只要关注神网络模型定义上的逻辑意义模型和算子2在底层算子性能优化时可以打破算子的边界从更细粒度的循环调度等维度结合不同的硬件特点完成优化。3. 面向神经网络优化面向神经网络模型特殊的数据类型进行定义。AI 领域网络模型层的具体计算被抽象成张量的计算这就意味着 AI 编译器中主要处理的数据类型也是张量。而在反向传播过程中是深度学习最为具有有代表的特性基于计算图构建的网络模型需要具有自动微分功能。4. DSA 芯片架构支持AI 训练和推理对性能和时延都非常敏感所以大量使用专用的 AI 加速芯片进行计算而 AI 编译器其实是以 DSA 架构的 AI 加速芯片作为为中心的编译器这也是区别于通用编译器的一个特征。如果没有 AI 框架、AI 编译器和算子库的支持算法工程师进行简单的神经网络模型设计与开发都会举步维艰所以应该看到 AI 算法本身飞速发展的同时也要看到底层系统对提升整个算法研发的生产力起到了不可或缺的作用。公众号“那路谈OS与SoC嵌入式软件”欢迎关注个人文章汇总https://thatway1989.github.io

相关文章:

AI系统-7Pytorch数字识别实战及算子介绍

之前铺垫了神经网络的基础知识,这里使用编程工具Pytorch进行一个实战讲解。首先变成一个看得见、摸得着的程序和代码,然后再说后续怎么使用GPU/NPU硬件去优化。 本文主要参考ZOMI酱《AI系统》:https://chenzomi12.github.io/01Introduction/0…...

零基础养龙虾:OpenClaw部署从入门到上手,一篇讲透!

2026年,OpenClaw(昵称 “龙虾”)凭借 “能真正动手干活” 的核心能力,成为开源AI Agent领域的顶流。它不仅能像ChatGPT一样聊天,更能自主操作电脑——整理文件、控制浏览器、发送邮件、甚至调用硬件设备。因其图标酷似…...

若依框架单点登录!!!

一、不分离版在application.yml设置maxSession为1即可。修改shiro的配置shiro:session:# 同一个用户最大会话数,比如2的意思是同一个账号允许最多同时两个人登录(默认-1不限制)maxSession: 1# 踢出之前登录的/之后登录的用户,默认…...

美国是如何对GEO进行监管的?

一、GEO投毒并不是中国独有 2026年央视“315”晚会首次把“GEO投毒”这一灰色产业链推到台前。所谓“投毒”,说白了,就是有人通过批量制造虚假信息、污染训练或检索数据,去干扰AI的推荐和回答结果,最后把一些虚假、低质甚至根本不…...

FreeRTOS实战指南:从消息队列到内存管理,手把手解决嵌入式多任务难题

FreeRTOS实战指南:从消息队列到内存管理,手把手解决嵌入式多任务难题 1. 为什么嵌入式开发者需要FreeRTOS 在资源受限的嵌入式系统中,开发者常常面临这样的困境:既要处理实时性要求高的传感器数据采集,又要兼顾用户界面…...

Wireshark抓包实战:DHCP协议交互全流程解析(附常见问题排查)

Wireshark深度解析:DHCP协议交互全流程与实战排错指南 从零开始理解DHCP协议的本质 想象一下,当你带着笔记本电脑走进一家咖啡馆,连接Wi-Fi的瞬间,设备就自动获得了上网所需的所有配置——IP地址、子网掩码、默认网关、DNS服务器。…...

拯救大模型“幻觉”?Python RAG九大架构全解析

别让你的AI助手,从“得力员工”变成“职场骗子” 你是否也曾被大模型的“一本正经胡说八道”气到无语? 你精心部署的客服机器人,自信地告诉客户:“我们的退货政策是90天!”——而实际上,公司的规定是30天…...

如何用stressapptest进行高效内存和磁盘压力测试?实战案例分享

如何用stressapptest进行高效内存和磁盘压力测试?实战案例分享 在服务器运维和硬件性能评估中,内存和磁盘的稳定性直接关系到系统的可靠性。想象一下,当你的服务器在凌晨三点突然因为内存错误崩溃,或者磁盘在高峰期出现读写异常&a…...

智能文献管理全面指南:从学术研究痛点到高效解决方案

智能文献管理全面指南:从学术研究痛点到高效解决方案 【免费下载链接】zotero Zotero is a free, easy-to-use tool to help you collect, organize, annotate, cite, and share your research sources. 项目地址: https://gitcode.com/gh_mirrors/zo/zotero …...

PySceneDetect终极指南:5分钟掌握智能视频场景检测与分割

PySceneDetect终极指南:5分钟掌握智能视频场景检测与分割 【免费下载链接】PySceneDetect :movie_camera: Python and OpenCV-based scene cut/transition detection program & library. 项目地址: https://gitcode.com/gh_mirrors/py/PySceneDetect PyS…...

智慧生鲜配送:揭秘生鲜配送商城APP功能版块设计

在数字化消费浪潮中,生鲜配送商城APP成为居民采购食材的重要渠道。其功能版块设计聚焦用户需求,通过智能化、便捷化的操作体验,打造高效生鲜购物场景。以下揭秘其核心功能玩法,解析如何实现“从指尖到餐桌”的流畅服务。一、首页&…...

流程可视化引擎定制指南:从技术实现到业务价值转化

流程可视化引擎定制指南:从技术实现到业务价值转化 【免费下载链接】Drawflow Simple flow library 🖥️🖱️ 项目地址: https://gitcode.com/gh_mirrors/dr/Drawflow 在数字化转型过程中,企业面临着业务流程可视化与实际业…...

OpCore Simplify:零基础黑苹果配置的智能助手

OpCore Simplify:零基础黑苹果配置的智能助手 【免费下载链接】OpCore-Simplify A tool designed to simplify the creation of OpenCore EFI 项目地址: https://gitcode.com/GitHub_Trending/op/OpCore-Simplify 对于许多电脑爱好者来说,安装黑苹…...

NaViL-9B开源模型实战:媒体内容审核平台图文敏感信息识别案例

NaViL-9B开源模型实战:媒体内容审核平台图文敏感信息识别案例 1. 模型与平台介绍 NaViL-9B是上海人工智能实验室研发的原生多模态大语言模型,能够同时处理文本和图像信息。这个开源模型特别适合构建智能内容审核系统,因为它具备以下核心能力…...

NPU vs GPU:为什么你的AI项目需要专用神经网络处理器?

NPU vs GPU:为什么你的AI项目需要专用神经网络处理器? 当你在深夜调试一个实时人脸识别模型时,GPU风扇的轰鸣声是否让你担心电费账单?当部署在边缘设备的图像分类服务因为响应延迟被客户投诉时,是否考虑过硬件选型可能…...

科研加速器:GLM-4.7-Flash驱动OpenClaw自动整理文献综述

科研加速器:GLM-4.7-Flash驱动OpenClaw自动整理文献综述 1. 为什么需要自动化文献整理 作为每天需要阅读十几篇论文的科研工作者,我发现自己至少有30%的时间花在了机械性劳动上——下载PDF、重命名文件、提取关键结论、整理参考文献格式。这些工作虽然…...

《其他 W3C 活动》

《其他 W3C 活动》 引言 W3C(World Wide Web Consortium,万维网联盟)是全球领先的互联网技术标准制定机构。自1994年成立以来,W3C致力于推动互联网技术的标准化,为全球的互联网发展做出了重要贡献。除了核心的HTML、CS…...

效率飙升:用快马平台一键生成项目模板,告别重复的vscode环境配置

作为一个经常需要在新设备上配置开发环境的前端开发者,我深刻体会到重复搭建项目的痛苦。每次换电脑或者开新项目,都要从头安装VSCode插件、配置构建工具、集成UI库……这些琐碎工作至少会浪费半小时。最近发现InsCode(快马)平台能完美解决这个问题&…...

FastAdmin+PHPStudy保姆级安装教程:从下载到配置数据库的完整流程

FastAdminPHPStudy极速开发环境搭建实战指南 作为一名长期使用FastAdmin框架的开发者,我深知一个顺畅的本地开发环境对项目效率的影响。本文将带你从零开始,用最简洁的方式完成FastAdmin与PHPStudy的完美搭配,避开那些新手常踩的"坑&quo…...

如何快速使用OpCore Simplify:零基础黑苹果的终极配置指南

如何快速使用OpCore Simplify:零基础黑苹果的终极配置指南 【免费下载链接】OpCore-Simplify A tool designed to simplify the creation of OpenCore EFI 项目地址: https://gitcode.com/GitHub_Trending/op/OpCore-Simplify 还在为复杂的OpenCore配置而烦恼…...

DbGate数据库管理工具:Docker一键部署与跨平台远程访问实战

1. 为什么选择DbGateDocker组合 第一次接触DbGate是在一个需要同时管理MySQL和MongoDB的项目中。当时团队里有人用Navicat,有人用DBeaver,数据库类型切换时总要重新适应界面。直到发现这个支持多数据库的开源工具,才真正体会到什么叫"一…...

Burp Suite实战进阶:用LingJing内置的burp-labs靶机打通从入门到专家22关(含解题思路)

Burp Suite实战进阶:用LingJing内置的burp-labs靶机打通从入门到专家22关(含解题思路) 在网络安全领域,Burp Suite无疑是渗透测试工程师最得力的工具之一。然而,很多学习者在掌握了基础操作后,往往会陷入&q…...

DAMOYOLO-S效果展示:低光照、模糊、遮挡图像下的鲁棒检测能力

DAMOYOLO-S效果展示:低光照、模糊、遮挡图像下的鲁棒检测能力 1. 引言:当目标检测遇上“坏天气” 想象一下,你正在开发一个智能安防摄像头系统,或者一个自动驾驶的视觉模块。白天光线充足、画面清晰的时候,一切都很完…...

Xenium空间原位转录组:从数据到生物学发现的实战解析

1. Xenium平台与空间原位转录组技术初探 第一次接触Xenium平台的数据时,我被它呈现的空间基因表达图谱震撼到了。想象一下,这就像给组织切片拍了一张"基因表达照片",每个像素点都记录着成百上千个基因的活动状态。10x Genomics推出…...

BiliTools:跨平台资源管理与高效解析的哔哩哔哩工具箱

BiliTools:跨平台资源管理与高效解析的哔哩哔哩工具箱 【免费下载链接】BiliTools A cross-platform bilibili toolbox. 跨平台哔哩哔哩工具箱,支持视频、音乐、番剧、课程下载……持续更新 项目地址: https://gitcode.com/GitHub_Trending/bilit/Bili…...

掌握 AgentScope 与 Spring AI Alibaba:大模型多智能体实践指南(收藏版)

本文深入探讨了 AgentScope 与 Spring AI Alibaba 在大模型应用中的多智能体实践。从单智能体优先原则出发,详细解析了 Pipeline、Routing、Skills、Subagents、Supervisor、Handoffs 及 Custom Workflow 等多种多智能体模式,并提供了实用的架构选型指南…...

智能突破2048:AI助手如何让数字合成不再依赖运气

智能突破2048:AI助手如何让数字合成不再依赖运气 【免费下载链接】2048-ai AI for the 2048 game 项目地址: https://gitcode.com/gh_mirrors/20/2048-ai 你是否曾在2048游戏中陷入数字迷宫?眼看着屏幕上散落的方块无从下手,移动一步就…...

SDXL-Turbo快速上手:AutoDL开箱即用,零配置体验实时AI绘画

SDXL-Turbo快速上手:AutoDL开箱即用,零配置体验实时AI绘画 1. 什么是SDXL-Turbo SDXL-Turbo是StabilityAI推出的新一代实时AI绘画模型,它彻底改变了传统AI绘画需要等待数秒甚至数十秒才能看到结果的工作方式。基于创新的对抗扩散蒸馏技术(A…...

zotero-style:提升文献管理效率的3个核心方案

zotero-style:提升文献管理效率的3个核心方案 【免费下载链接】zotero-style zotero-style - 一个 Zotero 插件,提供了一系列功能来增强 Zotero 的用户体验,如阅读进度可视化和标签管理,适合研究人员和学者。 项目地址: https:/…...

嵌入式软件发中AI技术及工具的应用

嵌入式软件开发中的人工智能技术应用与辅助方法详述及未来展望 引言 人工智能正从“被嵌入到终端设备”的单向角色,逐步演变为“赋能开发过程本身”的双向驱动力。在嵌入式软件开发领域,AI不仅让设备更智能,更在深刻改变着开发者的工作方式—…...