TensorRT中的自定义层
TensorRT中的自定义层

文章目录
- TensorRT中的自定义层
- 9.1. Adding Custom Layers Using The C++ API
- 9.1.1. Example: Adding A Custom Layer With Dynamic Shape Support Using C++
- 重要提示:覆盖检查索引小于`pos`的连接的格式/类型,但绝不能检查索引大于`pos`的连接的格式/类型。该示例使用case 3来检查连接 3 和连接 0,而不是使用case 0来检查连接 0 和连接 3。
- 9.1.2. Example: Adding A Custom Layer With INT8 I/O Support Using C++
- 重要的:
- 9.2. Adding Custom Layers Using The Python API
- 9.2.1. Example: Adding A Custom Layer To A TensorRT Network Using Python
- 9.3. Using Custom Layers When Importing A Model With A Parser
- 9.4. Plugin API Description
- 9.4.1. Migrating Plugins From TensorRT 6.x Or 7.x To TensorRT 8.x.x
- 9.4.2. IPluginV2 API Description
- 注意:基于`IPluginV2`的插件在引擎级别共享,而不是在执行上下文级别共享,因此这些可能被多个线程同时使用的插件需要以线程安全的方式管理它们的资源。创建`ExecutionContext`时会克隆基于`IPluginV2Ext`和派生接口的插件,因此这不是必需的。
- 9.4.3. IPluginCreator API Description
- 注意:传递给`createPlugin`函数的数据应该由调用者分配,并在程序被销毁时最终由调用者释放。 `createPlugin`函数返回的插件对象的所有权被传递给调用者,并且也必须被销毁。
- 9.5. Best Practices For Custom Layers Plugin
点击此处加入NVIDIA开发者计划
NVIDIA TensorRT 支持多种类型的层,其功能不断扩展;但是,在某些情况下,支持的层不能满足模型的特定需求。
您可以通过实现自定义层(通常称为插件)来扩展 TensorRT。
9.1. Adding Custom Layers Using The C++ API
您可以通过从 TensorRT 的插件基类之一派生来实现自定义层。
| Introduced in TensorRT version? | Mixed input/output formats/types | Dynamic shapes? | Supports implicit/explicit batch mode? | |
|---|---|---|---|---|
| IPluginV2Ext | 5.1 | Limited | No | Implicit batch mode only |
| IPluginV2IOExt | 6.0.1 | General | No | Implicit batch mode only |
| IPluginV2DynamicExt | 6.0.1 | General | Yes | Explicit batch mode only |
为了在网络中使用插件,您必须首先将其注册到 TensorRT 的PluginRegistry ( C++ 、 Python )。不是直接注册插件,而是为插件注册一个工厂类的实例,派生自PluginCreator ( C++ , Python )。插件创建者类还提供有关插件的其他信息:它的名称、版本和插件字段参数。
您必须从插件的基类之一派生插件类。在支持具有不同类型/格式的输入/输出或具有动态形状的网络方面,它们具有不同的表达能力。下表总结了基类,按从最不具表现力到最具表现力的顺序排列。
注意:如果插件用于一般用途,请提供 FP32 实现,以使其能够在任何网络上正常运行。
TensorRT 提供了一个宏REGISTER_TENSORRT_PLUGIN ,它将插件创建者静态注册到注册表中。
TensorRT 库包含可以加载到您的应用程序中的插件。有关开源插件的列表,请参阅GitHub:TensorRT 插件。
注意:
- 要在应用程序中使用 TensorRT 插件,必须加载
libnvinfer_plugin.so库,并且必须通过在应用程序代码中调用initLibNvInferPlugins来注册所有插件。 - 如果您有自己的插件库,则可以包含一个类似的入口点,以便在唯一命名空间下的注册表中注册所有插件。这确保了在构建期间跨不同插件库的插件名称没有冲突。
有关这些插件的更多信息,请参阅NvInferPlugin.h文件以供参考。
调用IPluginCreator::createPlugin()返回IPluginV2类型的插件对象。您可以使用addPluginV2()将插件添加到 TensorRT 网络,该插件使用给定插件创建网络层。
例如,您可以将插件层添加到您的网络,如下所示:
// Look up the plugin in the registry
auto creator = getPluginRegistry()->getPluginCreator(pluginName, pluginVersion);
const PluginFieldCollection* pluginFC = creator->getFieldNames();
// Populate the fields parameters for the plugin layer
PluginFieldCollection *pluginData = parseAndFillFields(pluginFC, layerFields);
// Create the plugin object using the layerName and the plugin meta data
IPluginV2 *pluginObj = creator->createPlugin(layerName, pluginData);
// Add the plugin to the TensorRT network
auto layer = network.addPluginV2(&inputs[0], int(inputs.size()), pluginObj);
… (build rest of the network and serialize engine)
// Destroy the plugin object
pluginObj->destroy()
… (destroy network, engine, builder)
… (free allocated pluginData)
注意:
pluginData必须在传递给createPlugin之前在堆上分配PluginField条目。- 前面描述的
createPlugin方法在堆上创建一个新的插件对象并返回一个指向它的指针。如前所示,确保销毁pluginObj以避免内存泄漏。
IPluginV2类型插件的插件类型、插件版本和命名空间(如果存在) 。在反序列化期间,TensorRT 从插件注册表中查找插件创建者并调用IPluginCreator::deserializePlugin() 。在反序列化过程中创建的插件对象由 TensorRT 引擎通过调用IPluginV2::destroy()方法在内部销毁。
IPluginV2类型插件的插件类型、插件版本和命名空间(如果存在), 在反序列化期间,TensorRT 从插件注册表中查找插件创建者并调用IPluginCreator::deserializePlugin() 。在反序列化期间创建的插件对象由 TensorRT 引擎通过调用IPluginV2::destroy()方法在内部销毁。
9.1.1. Example: Adding A Custom Layer With Dynamic Shape Support Using C++
要支持动态形状,您的插件必须从IPluginV2DynamicExt派生。
关于这个任务
BarPlugin是一个有两个输入和两个输出的插件,其中:
• 第一个输出是第二个输入的拷贝
• 第二个输出是两个输入的串联,沿着第一个维度,所有类型/格式必须相同并且是线性格式
BarPlugin需要按如下方式派生:
class BarPlugin : public IPluginV2DynamicExt
{...override virtual methods inherited from IPluginV2DynamicExt.
};
继承的方法都是纯虚方法,所以如果你忘记了,编译器会提醒你。
受动态形状影响的四种方法是:
- 获取输出维度
- 支持格式组合
- 配置插件
- 队列
getOutputDimensions的覆盖根据输入维度返回输出维度的符号表达式。您可以使用传递给getOutputDimensions的IExprBuilder从输入的表达式构建表达式。在示例中,不必为案例 1 构建新表达式,因为第二个输出的维度与第一个输入的维度相同。
DimsExprs BarPlugin::getOutputDimensions(int outputIndex, const DimsExprs* inputs, int nbInputs, IExprBuilder& exprBuilder)
{switch (outputIndex){case 0: {// First dimension of output is sum of input // first dimensions.DimsExprs output(inputs[0]);output.d[0] = exprBuilder.operation(DimensionOperation::kSUM, inputs[0].d[0], inputs[1].d[0]);return output;}case 1:return inputs[0];default:throw std::invalid_argument(“invalid output”);
}
supportsFormatCombination的覆盖必须指示是否允许格式组合。接口将输入/输出统一索引为“connections”,从第一个输入的 0 开始,然后依次为其余输入,然后为输出编号。在示例中,输入是connections 0 和 1,输出是connections 2 和 3。
TensorRT 使用supportsFormatCombination来询问给定的格式/类型组合是否适用于连接,给定的格式/类型用于索引较少的连接。因此,覆盖可以假设较少索引的连接已经过审查,并专注于与索引pos的连接。
bool BarPlugin::supportsFormatCombination(int pos, const PluginTensorDesc* inOut, int nbInputs, int nbOutputs) override
{assert(0 <= pos && pos < 4);const auto* in = inOut;const auto* out = inOut + nbInputs;switch (pos){case 0: return in[0].format == TensorFormat::kLINEAR;case 1: return in[1].type == in[0].type &&in[0].format == TensorFormat::kLINEAR;case 2: return out[0].type == in[0].type &&out[0].format == TensorFormat::kLINEAR;case 3: return out[1].type == in[0].type &&out[1].format == TensorFormat::kLINEAR;}throw std::invalid_argument(“invalid connection number”);
}
这里的局部变量in和out允许通过输入或输出编号而不是连接编号检查inOut 。
重要提示:覆盖检查索引小于pos的连接的格式/类型,但绝不能检查索引大于pos的连接的格式/类型。该示例使用case 3来检查连接 3 和连接 0,而不是使用case 0来检查连接 0 和连接 3。
TensorRT 使用configurePlugin在运行时设置插件。这个插件不需要configurePlugin来做任何事情,所以它是一个空操作:
void BarPlugin::configurePlugin(const DynamicPluginTensorDesc* in, int nbInputs, const DynamicPluginTensorDesc* out, int nbOutputs) override
{
}
如果插件需要知道它可能遇到的最小或最大尺寸,它可以检查字段DynamicPluginTensorDesc::min或DynamicPluginTensorDesc::max的任何输入或输出。格式和构建时维度信息可以在DynamicPluginTensorDesc::desc中找到。任何运行时维度都显示为 -1。实际维度提供给BarPlugin::enqueue 。
最后,重写BarPlugin::enqueue必须完成这项工作。由于形状是动态的,因此 enqueue 会收到一个PluginTensorDesc ,它描述了每个输入和输出的实际尺寸、类型和格式。
9.1.2. Example: Adding A Custom Layer With INT8 I/O Support Using C++
PoolPlugin是一个插件,用于演示如何为自定义池层扩展 INT8 I/O。推导如下:
class PoolPlugin : public IPluginV2IOExt
{...override virtual methods inherited from IPluginV2IOExt.
};
大多数纯虚方法对插件来说都是通用的。影响INT8 I/O的主要方法有:
- 支持格式组合
- 配置插件
- enqueue
supportsFormatCombination的覆盖必须指示允许哪个 INT8 I/O 组合。此接口的用法类似于示例:使用 C++ 添加具有动态形状支持的自定义层。在本例中,支持的 I/O 张量格式为线性 CHW,数据类型为 FP32、FP16 或 INT8,但 I/O 张量必须具有相同的数据类型。
bool PoolPlugin::supportsFormatCombination(int pos, const PluginTensorDesc* inOut, int nbInputs, int nbOutputs) const override
{assert(nbInputs == 1 && nbOutputs == 1 && pos < nbInputs + nbOutputs);bool condition = inOut[pos].format == TensorFormat::kLINEAR;condition &= ((inOut[pos].type == DataType::kFLOAT) ||(inOut[pos].type == DataType::kHALF) ||(inOut[pos].type == DataType::kINT8));condition &= inOut[pos].type == inOut[0].type;return condition;
}
重要的:
- 如果 INT8 校准必须与具有 INT8 I/O 插件的网络一起使用,则该插件必须支持 FP32 I/O,因为它被 FP32 校准图使用。
- 如果不支持 FP32 I/O 变体或未使用 INT8 校准,则必须明确设置所有必需的 INT8 I/O 张量尺度。
- 校准无法确定插件内部张量的动态范围。对量化数据进行操作的插件必须为内部张量计算自己的动态范围。
TensorRT 调用configurePlugin方法通过PluginTensorDesc将信息传递给插件,这些信息存储为成员变量,序列化和反序列化。
void PoolPlugin::configurePlugin(const PluginTensorDesc* in, int nbInput, const PluginTensorDesc* out, int nbOutput)
{...mPoolingParams.mC = mInputDims.d[0];mPoolingParams.mH = mInputDims.d[1];mPoolingParams.mW = mInputDims.d[2];mPoolingParams.mP = mOutputDims.d[1];mPoolingParams.mQ = mOutputDims.d[2];mInHostScale = in[0].scale >= 0.0f ? in[0].scale : -1.0f;mOutHostScale = out[0].scale >= 0.0f ? out[0].scale : -1.0f;
}
每个张量的 INT8 I/O 比例可以从PluginTensorDesc::scale获得。
最后,重写UffPoolPluginV2::enqueue必须完成这项工作。它包括一组核心算法,可在运行时通过使用实际批量大小、输入、输出、cuDNN 流和配置的信息来执行自定义层。
int PoolPlugin::enqueue(int batchSize, const void* const* inputs, void** outputs, void* workspace, cudaStream_t stream)
{...CHECK(cudnnPoolingForward(mCudnn, mPoolingDesc, &kONE, mSrcDescriptor, input, &kZERO, mDstDescriptor, output));...return 0;
}
9.2. Adding Custom Layers Using The Python API
尽管 C++ API 是实现自定义层的首选语言,但由于可以访问 CUDA 和 cuDNN 等库,您还可以在 Python 应用程序中使用自定义层。
您可以使用 C++ API 创建自定义层,在 Python 中使用pybind11打包层,然后将插件加载到 Python 应用程序中。有关更多信息,请参阅在 Python 中创建网络定义。
相同的自定义层实现可用于 C++ 和 Python。
9.2.1. Example: Adding A Custom Layer To A TensorRT Network Using Python
可以使用插件节点将自定义层添加到 Python 中的任何 TensorRT 网络。
Python API 有一个名为add_plugin_v2的函数,可让您将插件节点添加到网络。以下示例说明了这一点。它创建了一个简单的TensorRT网络,并通过查找TensorRT插件注册表来添加一个 Leaky ReLU 插件节点。
import tensorrt as trt
import numpy as npTRT_LOGGER = trt.Logger()trt.init_libnvinfer_plugins(TRT_LOGGER, '')
PLUGIN_CREATORS = trt.get_plugin_registry().plugin_creator_listdef get_trt_plugin(plugin_name):plugin = Nonefor plugin_creator in PLUGIN_CREATORS:if plugin_creator.name == plugin_name:lrelu_slope_field = trt.PluginField("neg_slope", np.array([0.1], dtype=np.float32), trt.PluginFieldType.FLOAT32)field_collection = trt.PluginFieldCollection([lrelu_slope_field])plugin = plugin_creator.create_plugin(name=plugin_name, field_collection=field_collection)return plugindef main():builder = trt.Builder(TRT_LOGGER) network = builder.create_network()config = builder.create_builder_config()config.max_workspace_size = 2**20input_layer = network.add_input(name="input_layer", dtype=trt.float32, shape=(1, 1))lrelu = network.add_plugin_v2(inputs=[input_layer], plugin=get_trt_plugin("LReLU_TRT"))lrelu.get_output(0).name = "outputs"network.mark_output(lrelu.get_output(0))
9.3. Using Custom Layers When Importing A Model With A Parser
ONNX 解析器会自动尝试将无法识别的节点作为插件导入。如果在插件注册表中找到与节点具有相同op_type的插件,则解析器将节点的属性作为插件字段参数转发给插件创建者,以创建插件。默认情况下,解析器使用“1”作为插件版本, “”作为插件命名空间。可以通过在相应的 ONNX 节点中设置plugin_version或plugin_namespace字符串属性来覆盖此行为。
在某些情况下,您可能希望在将 ONNX 图导入 TensorRT 之前对其进行修改。例如,用插件节点替换一组操作。为此,您可以使用ONNX GraphSurgeon 实用程序。有关如何使用 ONNX-GraphSurgeon 替换子图的详细信息,请参阅此示例。
有关更多示例,请参阅onnx_packnet示例。
9.4. Plugin API Description
所有新插件都应从IPluginCreator和使用 C++ API 添加自定义层中描述的插件基类之一派生类。此外,新插件还应调用REGISTER_TENSORRT_PLUGIN(...)宏以将插件注册到 TensorRT 插件注册表或创建等效于initLibNvInferPlugins()的init函数。
9.4.1. Migrating Plugins From TensorRT 6.x Or 7.x To TensorRT 8.x.x
IPluginV2和IPluginV2Ext以分别向后兼容 TensorRT 5.1 和 6.0.x。但是,新插件应针对IPluginV2DynamicExt或IPluginV2IOExt接口,而旧插件应重构以使用这些接口。
IPluginV2DynamicExt中的新特性如下:
virtual DimsExprs getOutputDimensions(int outputIndex, const DimsExprs* inputs, int nbInputs, IExprBuilder& exprBuilder) = 0;virtual bool supportsFormatCombination(int pos, const PluginTensorDesc* inOut, int nbInputs, int nbOutputs) = 0;virtual void configurePlugin(const DynamicPluginTensorDesc* in, int nbInputs, const DynamicPluginTensorDesc* out, int nbOutputs) = 0;virtual size_t getWorkspaceSize(const PluginTensorDesc* inputs, int nbInputs, const PluginTensorDesc* outputs, int nbOutputs) const = 0;virtual int enqueue(const PluginTensorDesc* inputDesc, const PluginTensorDesc* outputDesc, const void* const* inputs, void* const* outputs, void* workspace, cudaStream_t stream) = 0;
IPluginV2IOExt中的新特性如下:
virtual void configurePlugin(const PluginTensorDesc* in, int nbInput, const PluginTensorDesc* out, int nbOutput) = 0;virtual bool supportsFormatCombination(int pos, const PluginTensorDesc* inOut, int nbInputs, int nbOutputs) const = 0;
迁移到IPluginV2DynamicExt或IPluginV2IOExt的指南:
getOutputDimensions实现给定输入的输出张量维度的表达式。supportsFormatCombination检查插件是否支持指定输入/输出的格式和数据类型。configurePlugin模仿IPluginV2Ext中等效的configurePlugin的行为,但接受张量描述符。getWorkspaceSize和enqueue模仿IPluginV2Ext中等效 API 的行为,但接受张量描述符。
更多详细信息,请参阅IPluginV2 API 说明中的 API 说明。
9.4.2. IPluginV2 API Description
以下部分介绍IPluginV2类的功能。要将插件层连接到相邻层并设置输入和输出数据结构,构建器通过调用以下插件方法检查输出的数量及其维度。
getNbOutputs
用于指定输出张量的数量。
getOutputDimensions
用于将输出的维度指定为输入维度的函数。
supportsFormat
用于检查插件是否支持给定的数据格式。
getOutputDataType
用于获取给定索引处输出的数据类型。返回的数据类型必须具有插件支持的格式。
插件层可以支持四种数据格式,例如:
- NCHW单精度 (FP32)、半精度 (FP16) 和整型 (INT32) 张量
- NC / 2HW2和NHWC8半精度 (FP16) 张量
格式由PluginFormatType枚举。
除了输入和输出张量之外,不计算所有数据并且需要内存空间的插件可以使用getWorkspaceSize方法指定额外的内存需求,该方法由构建器调用以确定和预分配暂存空间。
在构建和推理期间,可能会多次配置和执行插件层。在构建时,为了发现最佳配置,层被配置、初始化、执行和终止。为插件选择最佳格式后,再次配置插件,然后在推理应用程序的生命周期内初始化一次并执行多次,最后在引擎销毁时终止。这些步骤由构建器和引擎使用以下插件方法控制:
configurePlugin(配置插件)
传达输入和输出的数量、所有输入和输出的维度和数据类型、所有输入和输出的广播信息、选择的插件格式和最大批量大小。此时,插件设置其内部状态并为给定配置选择最合适的算法和数据结构。
initialize(初始化)
此时配置是已知的,并且正在创建推理引擎,因此插件可以设置其内部数据结构并准备执行。
enqueue(排队)
封装插件的实际算法和内核调用,并提供运行时批处理大小、指向输入、输出和暂存空间的指针,以及用于内核执行的CUDA流。
terminate(终止)
引擎上下文被销毁,插件持有的所有资源必须被释放。
clone(克隆)
每次创建包含此插件层的新构建器、网络或引擎时都会调用它。它必须返回一个带有正确参数的新插件对象。
destroy(销毁)
用于销毁插件对象和/或每次创建新插件对象时分配的其他内存。每当构建器或网络或引擎被破坏时都会调用它。
```set/getPluginNamespace`(设置/获取插件命名空间)``
该方法用于设置该插件对象所属的库命名空间(默认可以是“”)。来自同一个插件库的所有插件对象都应该具有相同的命名空间。
IPluginV2Ext支持可以处理广播输入和输出的插件。此功能需要实现以下方法:
canBroadcastInputAcrossBatch
对每个输入调用此方法,其张量在批次中进行语义广播。如果canBroadcastInputAcrossBatch返回true (意味着插件可以支持广播),则 TensorRT 不会复制输入张量。插件应该在批处理中共享一个副本。如果它返回false ,则 TensorRT 会复制输入张量,使其看起来像一个非广播张量。
isOutputBroadcastAcrossBatch
这为每个输出索引调用。该插件应在给定索引处返回 true 输出,并在整个批次中广播。
IPluginV2IOExt
这由构建器在initialize()之前调用。它为层提供了基于 I/O PluginTensorDesc和最大批量大小进行算法选择的机会。
注意:基于IPluginV2的插件在引擎级别共享,而不是在执行上下文级别共享,因此这些可能被多个线程同时使用的插件需要以线程安全的方式管理它们的资源。创建ExecutionContext时会克隆基于IPluginV2Ext和派生接口的插件,因此这不是必需的。
9.4.3. IPluginCreator API Description
IPluginCreator类中的以下方法用于从插件注册表中查找和创建适当的插件:
getPluginName
IPluginExt::getPluginType的返回值。
getPluginVersion
返回插件版本。对于所有内部 TensorRT 插件,默认为1 。
getFieldNames
要成功创建插件,需要了解插件的所有字段参数。此方法返回PluginFieldCollection结构,其中填充了PluginField条目以反映字段名称和PluginFieldType (数据应指向nullptr )。
createPlugin
此方法用于使用PluginFieldCollection参数创建插件。应填充PluginField条目的数据字段以指向每个插件字段条目的实际数据。
注意:传递给createPlugin函数的数据应该由调用者分配,并在程序被销毁时最终由调用者释放。 createPlugin函数返回的插件对象的所有权被传递给调用者,并且也必须被销毁。
deserializePlugin
此方法由 TensorRT 引擎根据插件名称和版本在内部调用。它应该返回要用于推理的插件对象。在该函数中创建的插件对象在引擎被销毁时被 TensorRT 引擎销毁。
set/getPluginNamespace
该方法用于设置此创建者实例所属的命名空间(默认可以是“”)。
9.5. Best Practices For Custom Layers Plugin
调试自定义层问题
必须释放插件中分配的内存以确保没有内存泄漏。如果在initialize()函数中获取资源,则需要在terminate()函数中释放它们。应该释放所有其他内存分配,最好在插件类析构函数中或在destroy()方法中。使用 C++ API 添加自定义层详细概述了这一点,并提供了一些使用插件时的最佳实践说明。
相关文章:
TensorRT中的自定义层
TensorRT中的自定义层 文章目录TensorRT中的自定义层9.1. Adding Custom Layers Using The C API9.1.1. Example: Adding A Custom Layer With Dynamic Shape Support Using C重要提示:覆盖检查索引小于pos的连接的格式/类型,但绝不能检查索引大于pos的连…...
部署智能合约到公链
🍁博主简介: 🏅云计算领域优质创作者 🏅2022年CSDN新星计划python赛道第一名 🏅2022年CSDN原力计划优质作者 🏅阿里云ACE认证高级工程师 🏅阿里云开发者社区专…...
Windows server——部署DNS服务(3)
作者简介:一名云计算网络运维人员、每天分享网络与运维的技术与干货。 座右铭:低头赶路,敬事如仪 个人主页:网络豆的主页 目录 前言 一.管理DNS服务 1.子域 案例 2. 委派 案例 1)添加主机记录 …...
9. QML_OpenGL--2. 在QQuick中搭建加载OpenGL框架
1. 说明: OPenGL一般在 QtWidget 中使用,但目前使用 QML 做界面开发是一种趋势,同时在QML中使用OPenGL进行渲染也是十分必要,文章简单介绍如何在QML中使用 OPenGL,搭建了一种基本的框架。整体思路和在 QtWidget 中类似…...
亚马逊云科技携手滴普科技,打造数据智能新标杆
随着企业数字化转型的不断深入,数据对于业务的价值和重要性也逐渐凸显。越来越多企业意识到,只有不断提升底层数据基础平台的性能和能力,才能构建数据驱动的业务,增强企业核心竞争力。作为湖仓一体数据智能基础软件独角兽企业&…...
CGO 跨平台静态编译
什么是跨平台编译? 跨平台编译:即交叉编译,是在一个平台上生成另一个平台上的可执行文件。所谓平台,实际上包含两个概念:体系架构(Architecture)、操作系统 (Operating System)。同一个体系架构可以运行不同…...
股票买卖接口怎么来的?
现在股票买卖接口主要是在线上研发,有专业的开发团队进行源码开发和完善,但是,常常会在开发过程中出现问题,也就是遇到一些特殊的情况需要及时处理,那么股票买卖接口怎么开发实现出来的?一、股票买卖接口开…...
【Python学习笔记】29.Python3 面向对象
前言 Python从设计之初就已经是一门面向对象的语言,正因为如此,在Python中创建一个类和对象是很容易的。本章节我们将详细介绍Python的面向对象编程。 Python3 面向对象 如果你以前没有接触过面向对象的编程语言,那你可能需要先了解一些面…...
MySQL 索引
索引 索引是一种用于快速查询和检查数据的数据结构,其本质可以看成是一种排好序的数据结构。理解:索引的作用就相当于书的目录📚,可以根据目录快速定位到想要查看的位置。常见的索引结构:B Tree、B Tree、Hash、红黑树…...
学会使用LoadRunner录制脚本
1.LoadRunner安装 https://blog.csdn.net/weixin_48584088/article/details/129012469 2.Loadrunner的基本概念 LoadRunner是一种适用于许多软件体系架构的自动负载测试工具,从用户关注的响应时间、吞吐量, 并发用户和性能计数器等方面来衡量系统的性…...
产品经理必看的高效产品文档撰写指南
对于企业来说,如何推广自己的产品是一个非常重要的话题,而其中必要的就是创建企业产品宣传册,这对于产品宣传非常重要,尤其是一些大公司,非常重视这种产品展示方式。因为它可以更完整地展现产品,撰写一份合…...
Prometheus 的介绍和安装
介绍 Prometheus 是一个开源的监控和报警系统,最初由SoundCloud于2012年创建,随着越来越多的公司采用Prometheus以及非常活跃的社区,Prometheus于2016年加入云原生基金会,成为Kubernetes之后的第二个托管项目,并于2018年毕业。 特点 通过PromQL来对基于指标名称和键值对…...
ViewModel快速上手1-原生kotlin
ViewModel 原生支持 kotlin 案例 基本案例 viewmodel 是为了保存当当前 activity 切出或者销毁时,如何保存数据,以便下一次创建新的 activity 时进行调用 首先引入 lifecycle 依赖 implementation androidx.lifecycle:lifecycle-extensions:2.2.0 之后…...
Flutter(一)介绍、Dart语言简介
Flutter介绍 纯原生开发主要面临动态化更新和开发成本两个问题,而针对这两个问题,诞生了一些跨平台的动态化框架 跨平台技术简介 Flutter 是 Google 推出并开源的移动应用开发框架,主打跨平台、高保真、高性能。开发者可以通过 Dart 语言开…...
【数据结构】---顺序表的实现
最近学校开始学习数据结构了,没事就手搓一个顺序表。🌈线性表线性表是n个具有相同特性的数据元素的有限序列,是一种实际中广泛使用的数据结构,常见的线性表有顺序表、链表、栈、队列、字符串。线性表在逻辑上是线性结构࿰…...
JavaScript刷LeetCode拿offer-经典高频40题vaScript刷LeetCode拿offer-经典高频40题
工作太忙没有时间刷算法题,面试的时候好心虚。这里双手奉上40道LeetCode上经典面试算法题,整理的内容有点长,建议先收藏,慢慢消化,在来年顺利拿到满意的offer。 1、[LeetCode] 两数之和 给定一个整数数组和一个目标值…...
动态规划,这将是你见过最详细的讲解
文章目录一、为什么要讲动态规划呢?二、什么是动态规划三、感受一下递归算法、备忘录算法、动态规划递归算法带备忘录的递归解法(自定向下)自底向上的动态规划四、动态规划的解题套路1. 穷举分析2. 确定边界3. 确定最优子结构4. 写出状态转移…...
【服务器数据恢复】FreeNAS层UFS2文件系统数据恢复案例
服务器数据恢复环境: Dell存储服务器,采用esxi虚拟化系统,esxi虚拟化系统里有3台虚拟机;上层iSCSI使用FreeNAS构建,通过iSCSI方式实现FCSAN功能;FreeNAS层采用UFS2文件系统。 esxi虚拟化系统里有3台虚拟机中…...
Zookeeper安装和基本使用
目录标题一、下载二、安装三、启动客户端测试四、使用zk一、下载 注意:自zk3.5.5版本以后,已编译的jar包,尾部有bin,应该使用的是apache-zookeeper-3.8.0-bin.tar.gz。,因此在下载高版本时,因该下载后缀带b…...
字节面试惨败,闭关修炼再战美团(Android 面经~)
作者:王旭 前言 本人从事Android 开发已经有5年了,受末日寒气影响,被迫在家休整,事后第一家选择字节跳动面试,无奈的被面试官虐得“体无完肤”,好在自己并未气馁,于是回家开始回家进行闭关修炼…...
终极指南:如何在Quarkus中配置和使用JVM系统属性
终极指南:如何在Quarkus中配置和使用JVM系统属性 【免费下载链接】quarkus Quarkus: Supersonic Subatomic Java. 项目地址: https://gitcode.com/GitHub_Trending/qu/quarkus Quarkus作为一款针对Java优化的现代框架,提供了灵活且高效的系统属性…...
Qwen3-VL-8B-Instruct-GGUF模型安全部署最佳实践
Qwen3-VL-8B-Instruct-GGUF模型安全部署最佳实践 1. 引言 在企业环境中部署AI模型时,安全性往往是首要考虑的因素。Qwen3-VL-8B-Instruct-GGUF作为一款强大的多模态视觉语言模型,能够处理图像和文本的复杂任务,但如果部署不当,可…...
文档权限验证API:ONLYOFFICE Docs检查用户访问权限的完整指南
文档权限验证API:ONLYOFFICE Docs检查用户访问权限的完整指南 【免费下载链接】DocumentServer ONLYOFFICE Docs is a free collaborative online office suite comprising viewers and editors for texts, spreadsheets and presentations, forms and PDF, fully c…...
信息安全保障模型
信息安全保障模型是指导组织构建安全体系的理论框架。信息安全领域发展出了多个经典且广泛应用的安全模型。这些模型从不同维度阐述了如何实现“保护信息资产的机密性、完整性和可用性(CIA)”的目标。1. P2DR / PPDR 模型全称:Policy, Protec…...
OpenClaw调试技巧:百川2-13B任务失败时的6种排查方法
OpenClaw调试技巧:百川2-13B任务失败时的6种排查方法 1. 为什么需要专门的调试方法? 上周我让OpenClaw自动整理一批会议录音转文字稿,结果凌晨3点收到飞书报警——任务卡在"正在分析关键内容"阶段。第二天检查发现,百…...
PlayIntegrityFix终极指南:2025年Android设备完整性修复完整解决方案
PlayIntegrityFix终极指南:2025年Android设备完整性修复完整解决方案 【免费下载链接】PlayIntegrityFix Fix Play Integrity (and SafetyNet) verdicts. 项目地址: https://gitcode.com/GitHub_Trending/pl/PlayIntegrityFix 还在为Root设备无法通过Google …...
ollama-QwQ-32B微调实践:优化OpenClaw技术文档理解能力
ollama-QwQ-32B微调实践:优化OpenClaw技术文档理解能力 1. 为什么需要微调大模型理解技术文档? 去年冬天,我在用OpenClaw自动化处理技术文档时遇到了一个尴尬场景:当我让AI助手"整理OpenClaw的403错误解决方案"时&…...
如何快速修复ROG游戏本色彩异常:G-Helper完整配置恢复终极指南
如何快速修复ROG游戏本色彩异常:G-Helper完整配置恢复终极指南 【免费下载链接】g-helper Lightweight Armoury Crate alternative for Asus laptops. Control tool for ROG Zephyrus G14, G15, G16, M16, Flow X13, Flow X16, TUF, Strix, Scar and other models …...
推挽电路与图腾柱结构技术解析与应用
图腾柱与互补推挽电路的技术解析1. 推挽电路基础概念1.1 推挽电路基本原理推挽电路(Push-Pull)是一种功率放大电路结构,其核心设计思想是通过两个互补工作的晶体管交替导通,实现对输入信号的功率放大。典型推挽电路具有以下两个关键特性:强大…...
扶梯安全开关硬件抽象库:轻量级嵌入式状态识别方案
1. 项目概述EscalatorSwitch 是一个面向自动扶梯安全控制场景的轻量级嵌入式硬件抽象库,其核心定位并非通用IO驱动,而是针对电梯/扶梯行业特有的“扶梯运行状态切换开关”(Escalator Switch)这一专用机电装置提供标准化、可复用的…...
