当前位置: 首页 > article >正文

计算机视觉基石:6大CNN模型的创新与突破

计算机视觉基石6大CNN模型的创新与突破本文详细解析了计算机视觉基石6大CNN模型的创新与突破内容如下​目录1. LeNet90/98诞生于1990年在手写体字符识别领域创造性的引入了卷积神经网络的基本操作意义重大可以说是现代卷积神经网络的发展起点。1.1思路引入卷积层池化层等结构1.2 网络结构输入图像分辨率28x28结构1卷积层15x5 ---输出4个24×24大小的特征图2池化层1平均池化层 2x23卷积层25x5 ---输出12个8x8大小的特征图4池化层22x25全连接层 ----输出1.3 LeNet-5诞生于1998年在LeNet初期版本上迭代进化而来。卷积核大小为5x5。输入是32X32像素的图像利用CNN提取特征并进行分类输出0~9个类别。层数7层不含输入包括3层卷积层2层池化层2层全连接层输入图片大小32x32代码# # 创建Reshape层class Reshape(torch.nn.Module):def forward(self, x):return x.view(-1, 1, 28, 28) # 批量数不变通道数变为1尺寸为28*28方法2nn.SequentialLeNet nn.Sequential(Reshape(),nn.Conv2d(1, 6, kernel_size5, padding2), nn.Sigmoid(),nn.AvgPool2d(kernel_size2, stride2),nn.Conv2d(6, 16, kernel_size5), nn.Sigmoid(),nn.AvgPool2d(kernel_size2, stride2),nn.Flatten(),nn.Linear(16 * 5 * 5, 120), nn.Sigmoid(),nn.Linear(120, 84), nn.Sigmoid(),nn.Linear(84, 10))用于测试方法2每一层输出格式的代码X torch.rand(size(1, 1, 28, 28), dtypetorch.float32)for layer in LeNet:X layer(X)print(layer.class.name, output shape: \t, X.shape)2. AlexNet (63.3% - 2012) 论文ImageNet Classification with Deep Convolutional Neural Networks效果ImageNet top-1 accuracy 63.3%AlexNet是第一个深度学习架构它是由深度学习先锋之一——Geoffrey Hinton和他的同事们共同研究并引入的。AlexNet是一个看似简单但功能非常强大的网络架构它为现在深度学习的突破性研究铺平了道路。下图是AlexNet架构从分解图中我们可以看出AlexNet其实就是一个简单的架构其中的卷积层和聚积层相互叠加最顶部的是全连接层。早在二十世纪八十年代AlexNet模型就已经被概念化描述了。AlexNet区别于其他模型的关键在于它的任务规模以及它用于训练的GPU规模。在八十年代用于训练神经网络的是CPU。而AlexNet率先使用GPU将训练的速度提高了十倍左右。虽然AlexNet现在有些过时了但它仍然是运用神经网络完成各种任务的起点。不管是完成计算机视觉任务还是语音识别任务都仍然需要AlexNet。代码class AlexNet(nn.Module):def __init__(self, num_classes: int 1000) - None: super(AlexNet, self).__init__() self.features nn.Sequential( nn.Conv2d(3, 64, kernel_size11, stride4, padding2), nn.ReLU(inplaceTrue), nn.MaxPool2d(kernel_size3, stride2), nn.Conv2d(64, 192, kernel_size5, padding2), nn.ReLU(inplaceTrue), nn.MaxPool2d(kernel_size3, stride2), nn.Conv2d(192, 384, kernel_size3, padding1), nn.ReLU(inplaceTrue), nn.Conv2d(384, 256, kernel_size3, padding1), nn.ReLU(inplaceTrue), nn.Conv2d(256, 256, kernel_size3, padding1), nn.ReLU(inplaceTrue), nn.MaxPool2d(kernel_size3, stride2), ) self.avgpool nn.AdaptiveAvgPool2d((6, 6)) self.classifier nn.Sequential( nn.Dropout(), nn.Linear(256 * 6 * 6, 4096), nn.ReLU(inplaceTrue), nn.Dropout(), nn.Linear(4096, 4096), nn.ReLU(inplaceTrue), nn.Linear(4096, num_classes), ) def forward(self, x: torch.Tensor) - torch.Tensor: x self.features(x) x self.avgpool(x) x torch.flatten(x, 1) x self.classifier(x) return x3. VGG Net (74.5% - 2014)“VGG Net”是由牛津大学“视觉图像研究组”的研究人员引入的。VGG网络的最大特点是它的金字塔状靠近图像的底部比较宽阔而顶部的层相对窄且深。如图所示VGG Net包含了连续的卷积层卷积层后紧接着聚积层。聚积层负责让各个层变得更窄。在这篇由组内研究人员共同完成的论文中他们提出了各种类型的网络这些网络架构的主要差异是深度不同。VGG网络的优势在于1.这是对一个特定任务进行基准测试非常有效的网络架构。2.同时网上有大量免费的VGG预训练网络因此VGG通常会被用于各种各样的应用程序。而另一方面VGG主要的缺陷在于如果从头开始训练的话其训练速度会非常慢。即使是用一个相当不错的GPU它还是需要超过一周的时间才能正常运行。代码import torch.nn as nncfg {vgg11: [64, M, 128, M, 256, 256, M, 512, 512, M, 512, 512, M],vgg13: [64, 64, M, 128, 128, M, 256, 256, M, 512, 512, M, 512, 512, M],vgg16: [64, 64, M, 128, 128, M, 256, 256, 256, M, 512, 512, 512, M, 512, 512, 512, M],vgg19: [64, 64, M, 128, 128, M, 256, 256, 256, 256, M, 512, 512, 512, 512, M, 512, 512, 512, 512, M],}class VGG(nn.Module):definit(self, vgg_name, num_outputs10):super().init()self.features self._make_layers(cfg[vgg_name])self.classifier nn.Linear(512, num_outputs)def forward(self, x): out self.features(x) out out.view(out.size(0), -1) out self.classifier(out) return out def _make_layers(self, cfg): layers [] in_channels 3 for x in cfg: if x M: layers [nn.MaxPool2d(kernel_size2, stride2)] else: layers [ nn.Conv2d(in_channels, x, kernel_size3, padding1), nn.BatchNorm2d(x), nn.ReLU(inplaceTrue), ] in_channels x layers [nn.AvgPool2d(kernel_size1, stride1)] return nn.Sequential(*layers)广告深度学习(异步图书出品)京东¥84.00去购买​4. GoogleNet(80.0% - 2016)论文Inception V1Inception V23Inception V4Blog : A Simple Guide to the Versions of the Inception Network效果ImageNet top-1 accuracy 80.00%GoogleNet又称“InceptionNet”是由谷歌的研究人员们设计的一个网络架构。GoogleNet在2014年的 ImageNet大赛中获得了冠军证明了它是一个功能强大的模型。在这个网络架构中研究人员们不仅加深了网络深度GoogleNet包含22个层而VGG网络只有19个层还研究出了一个叫做“Inception模块”的新方法。如上图所示这个架构与我们之前看到的有序性架构相比发生了巨大的改变。在单个层中出现了各种各样的“特征提取器”。这间接地提高了网络的性能因为当处理任务时网络在自我训练过程中的选择非常广泛。它既可以选择卷积输入也可以选择直接将输入聚积起来。最终的架构包含了许多一个个相互叠加的Inception模块。大部分最上面的层都有它们自己的输出层所以GoogleNet的训练与其他模型有细微的差别。但这些差别能够帮助模型更快地完成卷积因为这些层不仅有共同的训练还有各自独立的训练。GoogleNet的优势有1.GoogleNet的训练速度比VGGNet要快。2.与预训练的VGG网络相比预训练的GoogleNet所占规模更小。一个VGG模型所占空间可以超过500MB而GoogleNet只占96MB。目前为止GoogleNet还没有直接的缺陷但是文章中提出了一些有助于GoogleNet进一步完善的改变方案。其中有一个改变方案被称作“XceptionNet”在这个网络中“初始模块”的散度限制被提高了。理论上来说其散度现在可以是无限的了。在GoogLeNet中基本的卷积块被称为Inception块Inception block。这很可能得名于电影《盗梦空间》Inception因为电影中的一句话“我们需要走得更深”“We need to go deeper”。Inception块由四条并行路径组成。 前三条路径使用窗口大小为 1\times 11\times 1、3\times 33\times 3 和 5\times 55\times 5 的卷积层从不同空间大小中提取信息。 中间的两条路径在输入上执行 1\times 11\times 1 卷积以减少通道数从而降低模型的复杂性。 第四条路径使用 3\times 33\times 3 最大汇聚层然后使用 1\times 11\times 1 卷积层来改变通道数。 这四条路径都使用合适的填充来使输入与输出的高和宽一致最后我们将每条线路的输出在通道维度上连结并构成Inception块的输出。在Inception块中通常调整的超参数是每层输出通道的数量。import torchfrom torch import nnfrom torch.nn import functional as Ffrom d2l import torch as d2lclass Inception(nn.Module):#c1--c4是每条路径的输出通道数definit(self, in_channels, c1, c2, c3, c4,kwargs):super(Inception, self).init(kwargs)# 线路1单1 x 1卷积层self.p1_1 nn.Conv2d(in_channels, c1, kernel_size1)# 线路21 x 1卷积层后接3 x 3卷积层self.p2_1 nn.Conv2d(in_channels, c2[0], kernel_size1)self.p2_2 nn.Conv2d(c2[0], c2[1], kernel_size3, padding1)# 线路31 x 1卷积层后接5 x 5卷积层self.p3_1 nn.Conv2d(in_channels, c3[0], kernel_size1)self.p3_2 nn.Conv2d(c3[0], c3[1], kernel_size5, padding2)# 线路43 x 3最大汇聚层后接1 x 1卷积层self.p4_1 nn.MaxPool2d(kernel_size3, stride1, padding1)self.p4_2 nn.Conv2d(in_channels, c4, kernel_size1)def forward(self, x): p1 F.relu(self.p1_1(x)) p2 F.relu(self.p2_2(F.relu(self.p2_1(x)))) p3 F.relu(self.p3_2(F.relu(self.p3_1(x)))) p4 F.relu(self.p4_2(self.p4_1(x))) # 在通道维度上连结输出 return torch.cat((p1, p2, p3, p4), dim1)5. ResNet (78.6% - 2015)4.1 ResNet论文Deep Residual Learning for Image Recognition效果ImageNet top-1 accuracy 78.2% or 82.4%(ResNet strikes back: An improved training procedure in timm)ResNet是一个真正地定义了深度学习架构深度的网络架构。“残差网络”也就是我们所说的ResNet包含了许多连续的“残差模块”这些“残差模块”构成了ResNet架构的基础。“残差模块”如下图所示简单来说一个“残差模块”有两个选择——它可以选择在输入上执行一组函数也可以选择跳过这些步骤。与GoogleNet类似这些“残差模块”相互叠加从而形成一个完整的网络的。由ResNet引入的一些新技术有1.使用标准的SGD而不是花哨的“自适应学习”技术。这是通过一个能够保持正常训练的初始化函数来完成的。2.改变输入预处理的方式先将输入分批然后再输入至网络。ResNet的主要优势在于成千上万的残差层都能用于建立一个网络而且都能被用于训练。这与平常“时序网络创新残差网络代码class ResNetBasicBlock(nn.Module): expansion 1 def __init__(self, in_planes, out_planes, stride1): super().__init__() self.conv1 nn.Conv2d(in_planes, out_planes, kernel_size3, stridestride, padding1, biasFalse) self.bn1 nn.BatchNorm2d(out_planes) self.conv2 nn.Conv2d(out_planes, out_planes, kernel_size3, stride1, padding1, biasFalse) self.bn2 nn.BatchNorm2d(out_planes) self.shortcut nn.Sequential() # print(fin_planes : {in_planes} | self.expansion * out_planes : {self.expansion * out_planes}) if stride ! 1 or in_planes ! self.expansion * out_planes: self.shortcut nn.Sequential( nn.Conv2d(in_planes, self.expansion * out_planes, kernel_size1, stridestride, biasFalse), nn.BatchNorm2d(self.expansion * out_planes), ) def forward(self, x): out F.relu(self.bn1(self.conv1(x))) # print(f conv 1: {out.shape}) out self.bn2(self.conv2(out)) # print(f conv 2: {out.shape}) out self.shortcut(x) #! key # print(fshortcut: {out.shape}) out F.relu(out) # 然后一起relu # print( * 10) return out4.2 ResNeXt(80.9% - 2016)据称ResNeXt是目前为止最先进的物体识别技术。ResNeXt建立于inception和ResNet的基础之上是一个全新的、改良的网络架构。下图总结了ResNeXt的一个残差模块论文ResNext : Aggregated Residual Transformations for Deep Neural Networks效果ImageNet top-1 accuracy 80.9%结构图成就利用残差结构使得网络达到了前所未有的深度同时性能继续提升、同时使损失函数平面更加光滑看过很多解释这个个人觉得比较靠谱创新提出Group的概念、利用Group增加特征的丰富度和多样性类似multi-head attention。代码import torch.nn as nnimport torch.nn.functional as Fclass Block(nn.Module):Grouped convolution block.expansion 2 def __init__(self, in_planes, cardinality32, bottleneck_width4, stride1): super(Block, self).__init__() group_width cardinality * bottleneck_width self.conv1 nn.Conv2d(in_planes, group_width, kernel_size1, biasFalse) self.bn1 nn.BatchNorm2d(group_width) self.conv2 nn.Conv2d( group_width, group_width, kernel_size3, stridestride, padding1, groupscardinality, biasFalse ) #! key self.bn2 nn.BatchNorm2d(group_width) self.conv3 nn.Conv2d(group_width, self.expansion * group_width, kernel_size1, biasFalse) self.bn3 nn.BatchNorm2d(self.expansion * group_width) self.shortcut nn.Sequential() if stride ! 1 or in_planes ! self.expansion * group_width: self.shortcut nn.Sequential( nn.Conv2d(in_planes, self.expansion * group_width, kernel_size1, stridestride, biasFalse), nn.BatchNorm2d(self.expansion * group_width), ) def forward(self, x): out F.relu(self.bn1(self.conv1(x))) out F.relu(self.bn2(self.conv2(out))) out self.bn3(self.conv3(out)) out self.shortcut(x) out F.relu(out) return out6. EfficientNet (86.8% - 2021) 论文EfficientNet: Rethinking Model Scaling for Convolutional Neural NetworksEfficientNetV2: Smaller Models and Faster Training效果ImageNet top-1 accuracy 86.8%创新是AutoDL在深度学习上一次非常成功的尝试EfficientNet V1 uniformly scales all three dimensions(width, depth, resolution) with a fixed ratio。EfficientNet V1 加入一些新block扩大了搜索空间并且不是equally scaling up every stage。代码from torchvision.models import efficientnet_b0model efficientnet_b0()包含大模型学习路线图、核心知识点笔记、CV面试题合集...只针对真正想学的同学扫码备注领资料即可大家好我是资深AI讲师与学习规划师。专注计算机视觉教学与算法研发过去三年我帮超过2500名有Python 基础的入门者从像素是什么到独立跑通CV项目。今天这篇长文完全按零基础实战体系撰写从图像本质到经典算法、再到OpenCV工具链和完整项目一条龙给你讲透可直接复现的CV专业指南。适合人群大学生、转行者、开发者只要会Python基础就能跟上。读完你就能掌握图像处理4大经典算法并拥有一个可直接写进简历的实战项目为方便大家学习 这里给大家整理了一份系统学习资料包 需要的同学 根据下图指示自取就可以

相关文章:

计算机视觉基石:6大CNN模型的创新与突破

计算机视觉基石:6大CNN模型的创新与突破 本文详细解析了计算机视觉基石:6大CNN模型的创新与突破,内容如下: ​目录1. LeNet(90/98)诞生于1990年,在手写体字符识别领域创造性的引入了卷积神经网…...

零基础玩转MiniCPM-V-2_6:Ollama一键部署,图片视频都能看懂

零基础玩转MiniCPM-V-2_6:Ollama一键部署,图片视频都能看懂 1. 为什么选择MiniCPM-V-2_6? MiniCPM-V-2_6是目前视觉多模态领域的一颗新星,它能让你的电脑像人一样"看懂"图片和视频内容。想象一下,你上传一…...

告别Gazebo/Rviz模型‘隐身术’:一个虚拟关节(dummy link)如何解决URDF惯性参数报错

机械臂仿真进阶:巧用虚拟关节解决URDF惯性参数兼容性问题 在机械臂开发过程中,URDF(Unified Robot Description Format)作为ROS生态中的标准机器人描述格式,承载着模型结构、运动学和动力学参数等重要信息。然而&#…...

从“相爱相杀”到“黄金三角”——将协同能力打造为个人与团队的核心竞争力

该文章同步至OneChan ——在芯片开发的复杂系统中,成为不可替代的连接者与放大器 当单个技术专家的个人英雄主义让位于系统性的团队协同,你所在的团队就具备了征服最复杂芯片挑战的终极武器。 引言:那个“全明星”团队的溃败 我曾见证过一个…...

Folcolor:用14种色彩重新定义Windows文件管理的艺术

Folcolor:用14种色彩重新定义Windows文件管理的艺术 【免费下载链接】Folcolor Windows explorer folder coloring utility 项目地址: https://gitcode.com/gh_mirrors/fo/Folcolor 你是否曾在成百上千个黄色文件夹中迷失方向?是否曾花费宝贵时间…...

掌握AI专著写作技巧,搭配优质工具,轻松搞定专业学术专著

学术专著创作难题与AI工具解决方案 对于很多学者来说,撰写学术专著的最大难题就是“有限的精力”与“无限的需求”之间的矛盾。专著的写作通常需要花费3到5年,甚至更长的时间,而研究人员日常还要面对教学、项目研究、学术交流等多重任务&…...

不用装软件!这款MicroPython浏览器 IDE :让你在手机上也能调试树莓派 Pico酉

1、普通的insert into 如果(主键/唯一建)存在,则会报错 新需求:就算冲突也不报错,用其他处理逻辑 回到顶部 2、基本语法(INSERT INTO ... ON CONFLICT (...) DO (UPDATE SET ...)/(NOTHING)) 语…...

手把手教你:在Ubuntu 22.04上从源码编译安装GMP库(解决NTL依赖)

在Ubuntu 22.04上从源码构建GMP库:解决数学计算依赖的完整指南 当你在Linux环境下开发需要高性能数学运算的应用时,GMP(GNU Multiple Precision Arithmetic Library)往往是绕不开的基础设施。这个开源库为任意精度数学运算提供了…...

PCB板材核心技术解析:从材料特性到高速信号设计

1. PCB板材基础:从树脂到铜箔的进化史 第一次拆开手机后盖时,你可能注意过那块绿色的电路板——它就是PCB(Printed Circuit Board)。但你可能不知道,这块看似简单的板子,其实藏着材料科学的精妙设计。让我用…...

15分钟搞定黑苹果EFI配置:OpCore-Simplify如何解决传统方案98%的技术难题?

15分钟搞定黑苹果EFI配置:OpCore-Simplify如何解决传统方案98%的技术难题? 【免费下载链接】OpCore-Simplify A tool designed to simplify the creation of OpenCore EFI 项目地址: https://gitcode.com/GitHub_Trending/op/OpCore-Simplify 黑苹…...

Java-RPG-Maker-MV-Decrypter:5步轻松解密RPG游戏资源的完整教程

Java-RPG-Maker-MV-Decrypter:5步轻松解密RPG游戏资源的完整教程 【免费下载链接】Java-RPG-Maker-MV-Decrypter You can decrypt whole RPG-Maker MV Directories with this Program, it also has a GUI. 项目地址: https://gitcode.com/gh_mirrors/ja/Java-RPG-…...

VOICEVOX完全指南:免费开源日语语音合成软件的5大核心功能详解

VOICEVOX完全指南:免费开源日语语音合成软件的5大核心功能详解 【免费下载链接】voicevox 無料で使える中品質なテキスト読み上げソフトウェア、VOICEVOXのエディター 项目地址: https://gitcode.com/gh_mirrors/vo/voicevox VOICEVOX是一款免费开源的中品质…...

如何轻松实现跨设备控制:Barrier跨平台KVM软件完全指南

如何轻松实现跨设备控制:Barrier跨平台KVM软件完全指南 【免费下载链接】barrier Open-source KVM software 项目地址: https://gitcode.com/gh_mirrors/ba/barrier 你是否厌倦了在多台电脑之间来回切换键盘鼠标?Barrier作为一款强大的开源KVM软件…...

IDEA开发效率提升:南北阁Nanbeige4.1-3B智能插件开发

IDEA开发效率提升:南北阁Nanbeige4.1-3B智能插件开发 告别重复劳动,让AI成为你的编程搭档 作为一名常年使用IDEA的开发者,我深知编码过程中那些琐碎却耗时的环节:写模板代码、寻找重构机会、分析依赖关系...直到尝试了南北阁Nanbe…...

企业超自动化落地,如何实现端到端的全流程闭环?2026企业级智能体架构与全景选型深度解析丨Agent产品测评局

站在2026年的技术节点回望,企业数字化转型已从单纯的“工具替代”演进到“原生智能”阶段。超自动化(Hyperautomation)不再是多种技术的简单堆砌,而是以企业级智能体为核心,通过深度融合AGI、计算机视觉与超自动化全栈…...

如何用猫抓扩展轻松下载网页视频:从零开始的完整指南

如何用猫抓扩展轻松下载网页视频:从零开始的完整指南 【免费下载链接】cat-catch 猫抓 浏览器资源嗅探扩展 / cat-catch Browser Resource Sniffing Extension 项目地址: https://gitcode.com/GitHub_Trending/ca/cat-catch 还在为无法下载网页视频而烦恼吗&…...

同花顺_策略解码_五彩K线实战指南

1. 五彩K线入门:从代码看市场语言 第一次打开同花顺的五彩K线功能时,我盯着屏幕上突然变得花花绿绿的走势图愣了半天。这些红红绿绿的标记背后,其实藏着程序员用代码翻译的市场密码。就像交通信号灯用颜色指挥车辆通行,五彩K线用颜…...

易语言串口通讯源码:掌握工业控制与通讯的关键

易语言 串口通讯 源码 串口通讯写好了 ,就可以轻松地控制电力仪表 信号采集 单片机等 信号 。 本源码为串口调试助手源码 此源码对了解以下知识非常重要 工业控制, 232通讯, 485通讯, MODbus协议, CRC16检验算法&am…...

Nomic-Embed-Text-V2-MoE快速上手:Python安装与环境配置全攻略

Nomic-Embed-Text-V2-MoE快速上手:Python安装与环境配置全攻略 你是不是也对最近火热的文本嵌入模型感兴趣,想亲手试试那个号称性能很强的Nomic-Embed-Text-V2-MoE?但一看到要配置Python环境、安装各种库,就觉得头大,…...

AIAgent内容冷启动失败率下降86%的密钥:奇点大会闭门工作坊流出的「意图-结构-信噪比」三维校准法

第一章:AIAgent内容冷启动失败率下降86%的密钥:从现象到范式跃迁 2026奇点智能技术大会(https://ml-summit.org) 传统AIAgent冷启动阶段常因初始知识稀疏、意图建模失准与上下文锚定漂移,导致首周任务失败率高达73.5%。2025年Q2多家头部Agen…...

【奇点大会内部纪要】:为什么92%的视觉导航Agent在动态场景中失效?3类被忽视的传感器-语义耦合漏洞

第一章:【奇点大会内部纪要】:为什么92%的视觉导航Agent在动态场景中失效?3类被忽视的传感器-语义耦合漏洞 2026奇点智能技术大会(https://ml-summit.org) 在2026奇点大会闭门技术纪要中,来自MIT、ETH Zurich与大疆研究院的联合…...

从理论到代码:手把手复现李航《统计学习方法》第2版经典算法(附习题思路)

从理论到代码:手把手复现李航《统计学习方法》第2版经典算法 统计学习作为机器学习的重要分支,其理论体系严谨而深厚。李航教授的《统计学习方法》第2版堪称该领域的经典教材,但许多读者在从理论理解到代码实现的跨越中常遇到障碍。本文将带你…...

AIAgent架构中通信协议设计的7个致命误区(2024年生产环境真实故障复盘)

第一章:AIAgent架构中通信协议设计的演进与挑战 2026奇点智能技术大会(https://ml-summit.org) 现代AIAgent系统已从单体推理服务演进为多角色协同的分布式智能体网络,其核心依赖于高效、语义明确且可扩展的通信协议。早期基于HTTP/REST的轻量交互难以支…...

【无标题】第1章 分布式认知雷达网络与多智能体协同

目录 1.1 异构网络化感知架构 1.1.1 分布式相参阵列与频谱共生 1.1.2 频谱共享的势博弈模型 1.2 去中心化部分可观测马尔可夫决策过程(Dec-POMDP) 1.2.1 数学形式化 1.2.2 值分解网络(VDN)的可加性验证 1.3 MultiAgentRadarSim 仿真框架 1.4 验证与批判性分析 1.4.…...

Ostrakon-VL-8B参数详解:BFloat16精度下8B参数量对零售场景的针对性优化

Ostrakon-VL-8B参数详解:BFloat16精度下8B参数量对零售场景的针对性优化 1. 为什么零售场景需要专门的视觉大模型? 如果你在零售行业工作过,或者自己开过店,一定遇到过这样的问题:每天要花大量时间检查货架、盘点库存…...

从一次‘路由翻车’事故讲起:手把手调试你的RIP网络(Wireshark抓包分析)

当RIP协议突然罢工:一次真实网络故障的深度解剖 凌晨三点,整个数据中心只剩下服务器指示灯在黑暗中闪烁。突然,监控系统发出刺耳的警报声——核心业务网络的流量曲线断崖式下跌。值班工程师小张的睡意瞬间消散,他面前的拓扑图上&a…...

网络型AIS接收机R400N 产品说明书

目录 产品概述产品特点应用场景相关产品技术规格标准配件 1. 产品概述 R400N(原型号 SLR350N)是工业级双通道 AIS 接收机,可接收 VHF 通信范围内船舶的 AIS 信号,解析船舶位置、航速、航向等信息。该设备采用高灵敏度双通道并行接…...

VsionPro经典PatMax_Demo.idb图片分析

VsionPro自带数据集,位置:C:\Program Files\Cognex\VisionPro\Images(默认位置)PatMax_Demo.idb 是 VisionPro 最经典的高精度几何模板匹配教学案例,用一个复杂机械零件直观展示 PatMax 在旋转、缩放、遮挡、光照变化下…...

通义千问1.5-1.8B-Chat-GPTQ-Int4在STM32开发中的妙用:嵌入式C代码分析与调试建议生成

通义千问1.5-1.8B-Chat-GPTQ-Int4在STM32开发中的妙用:嵌入式C代码分析与调试建议生成 1. 引言:当嵌入式开发遇上轻量化大模型 如果你是一位嵌入式工程师,特别是和STM32这类MCU打交道的朋友,下面这个场景你一定不陌生&#xff1…...

nomic-embed-text-v2-moe效果对比:在低资源语言(如尼泊尔语)上的零样本迁移能力

nomic-embed-text-v2-moe效果对比:在低资源语言(如尼泊尔语)上的零样本迁移能力 1. 引言:当AI遇到“小众”语言 想象一下,你正在开发一个面向全球用户的智能搜索应用。对于英语、中文这类主流语言,市面上…...