当前位置: 首页 > news >正文

mysql8 C++源码中创建表函数,表字段最大数量限制,表行最大存储限制

在 MySQL 8 的 C++ 源码中,表的最大字段数量限制体现在 MAX_FIELDS 宏定义中。这个宏定义了表中可以拥有的最大字段数量。

代码中的体现

mysql_prepare_create_table 函数中,有以下代码段检查表的字段数量是否超过最大限制:

cpp

if (alter_info->create_list.elements > MAX_FIELDS) {my_error(ER_TOO_MANY_FIELDS, MYF(0));return true;
}

这里,alter_info->create_list.elements 表示表中字段的数量,MAX_FIELDS 是最大允许的字段数量。

MAX_FIELDS 的定义

MAX_FIELDS 的定义通常在 MySQL 的头文件中,例如 include/mysql_com.h 或其他相关头文件。在 MySQL 8 中,MAX_FIELDS 的值为 4096

源码位置

在 MySQL 8 的源码中,mysql_prepare_create_table 函数位于 sql/sql_table.cc 文件中。这个文件包含了与表创建和修改相关的许多函数。

总结

  • 最大字段数量:MySQL 8 中表的最大字段数量为 4096

  • 代码中的体现:在 mysql_prepare_create_table 函数中通过 MAX_FIELDS 宏检查表的字段数量。

MySQL 中,每行记录的最大长度限制为 65,535 字节。这个限制是由 MySQL 的内部实现决定的,而不是由某个特定的源码文件或函数直接定义的。这个限制适用于所有存储引擎,包括 InnoDB 和 MyISAM。

限制的体现

在 MySQL 8 的源码中,这个限制通常在多个地方体现,特别是在处理表的创建和数据插入时。以下是一些关键点:

  1. 表创建时的验证: 在 mysql_prepare_create_table 函数中,虽然没有直接的代码检查每行记录的长度,但这个限制会在表创建时通过存储引擎的接口进行验证。

  2. 存储引擎的限制: 每个存储引擎都有自己的限制。例如,InnoDB 存储引擎在处理表创建时会检查每行记录的长度是否超过最大限制。

  3. 数据插入时的验证: 在插入数据时,MySQL 会检查每行记录的长度是否超过 65,535 字节。如果超过,会报错。

示例代码

以下是一个简化的示例,展示如何在插入数据时检查每行记录的长度:

cpp

if (reclength > file->max_record_length()) {my_error(ER_TOO_BIG_ROWSIZE, MYF(0),static_cast<long>(file->max_record_length()));return true;
}

在这个代码片段中,reclength 是计算的每行记录的长度,file->max_record_length() 是存储引擎允许的最大记录长度。如果 reclength 超过 file->max_record_length(),则报错。

具体实现

在 MySQL 源码中,file->max_record_length() 通常由存储引擎的实现提供。例如,在 InnoDB 存储引擎中,这个值被定义为 65,535 字节

C++源码

// Prepares the table and key structures for table creation.
bool mysql_prepare_create_table(THD *thd, const char *error_schema_name, const char *error_table_name,HA_CREATE_INFO *create_info, Alter_info *alter_info, handler *file,bool is_partitioned, KEY **key_info_buffer, uint *key_count,FOREIGN_KEY **fk_key_info_buffer, uint *fk_key_count,FOREIGN_KEY *existing_fks, uint existing_fks_count,const dd::Table *existing_fks_table, uint fk_max_generated_name_number,int select_field_count, bool find_parent_keys) {DBUG_TRACE;/*Validation of table properties.*/LEX_STRING *connect_string = &create_info->connect_string;if (connect_string->length != 0 &&connect_string->length > CONNECT_STRING_MAXLEN &&(system_charset_info->cset->charpos(system_charset_info, connect_string->str,(connect_string->str + connect_string->length),CONNECT_STRING_MAXLEN) < connect_string->length)) {my_error(ER_WRONG_STRING_LENGTH, MYF(0), connect_string->str, "CONNECTION",CONNECT_STRING_MAXLEN);return true;}LEX_STRING *compress = &create_info->compress;if (compress->length != 0 && compress->length > TABLE_COMMENT_MAXLEN &&system_charset_info->cset->charpos(system_charset_info, compress->str, compress->str + compress->length,TABLE_COMMENT_MAXLEN) < compress->length) {my_error(ER_WRONG_STRING_LENGTH, MYF(0), compress->str, "COMPRESSION",TABLE_COMMENT_MAXLEN);return true;}LEX_STRING *encrypt_type = &create_info->encrypt_type;if (encrypt_type->length != 0 &&encrypt_type->length > TABLE_COMMENT_MAXLEN &&system_charset_info->cset->charpos(system_charset_info, encrypt_type->str,encrypt_type->str + encrypt_type->length,TABLE_COMMENT_MAXLEN) < encrypt_type->length) {my_error(ER_WRONG_STRING_LENGTH, MYF(0), encrypt_type->str, "ENCRYPTION",TABLE_COMMENT_MAXLEN);return true;}// Validate table comment stringstd::string invalid_sub_str;if (is_invalid_string({create_info->comment.str, create_info->comment.length},system_charset_info, invalid_sub_str)) {my_error(ER_COMMENT_CONTAINS_INVALID_STRING, MYF(0), "table",(std::string(error_schema_name) + "." + std::string(error_table_name)).c_str(),system_charset_info->csname, invalid_sub_str.c_str());return true;}if (validate_comment_length(thd, create_info->comment.str, &create_info->comment.length,TABLE_COMMENT_MAXLEN, ER_TOO_LONG_TABLE_COMMENT, error_table_name)) {return true;}if (alter_info->create_list.elements > MAX_FIELDS) {my_error(ER_TOO_MANY_FIELDS, MYF(0));return true;}/*Checks which previously were done during .FRM creation.TODO: Check if the old .FRM limitations still make sensewith the new DD.*//* Fix this when we have new .frm files;  Current limit is 4G rows (QQ) */constexpr ulonglong u32max = UINT_MAX32;if (create_info->max_rows > UINT_MAX32) {// Values larger than uint32_max are capped to uint32_max.// Emit a warning about this.push_warning_printf(thd, Sql_condition::SL_WARNING, ER_VALUE_OUT_OF_RANGE,ER_THD(thd, ER_VALUE_OUT_OF_RANGE), "max_rows",create_info->max_rows, 0ULL, u32max, u32max);create_info->max_rows = UINT_MAX32;}if (create_info->min_rows > UINT_MAX32) {// Values larger than uint32_max are capped to uint32_max.// Emit a warning about this.push_warning_printf(thd, Sql_condition::SL_WARNING, ER_VALUE_OUT_OF_RANGE,ER_THD(thd, ER_VALUE_OUT_OF_RANGE), "min_rows",create_info->min_rows, 0ULL, u32max, u32max);create_info->min_rows = UINT_MAX32;}if (create_info->row_type == ROW_TYPE_DYNAMIC)create_info->table_options |= HA_OPTION_PACK_RECORD;/*Prepare fields, which must be done before callingadd_functional_index_to_create_list(). The reason is thatprepare_create_field() sets several properties of all Create_fields, such ascharacter set. We need the character set in order to get the correctdisplay width for each Create_field, which is in turn needed to resolve thecorrect data type/length for each hidden generated column added byadd_functional_index_to_create_list().*/int select_field_pos = alter_info->create_list.elements - select_field_count;create_info->null_bits = 0;int field_no = 0;Create_field *sql_field;List_iterator<Create_field> it(alter_info->create_list);for (; (sql_field = it++); field_no++) {if (prepare_create_field(thd, error_schema_name, error_table_name,create_info, &alter_info->create_list,&select_field_pos, file, sql_field, field_no))return true;}// Go through all functional key parts. For each functional key part, resolve// the expression and add a hidden generated column to the create list.for (Key_spec *key : alter_info->key_list) {if (key->type == KEYTYPE_FOREIGN) continue;for (size_t j = 0; j < key->columns.size(); ++j) {Key_part_spec *key_part_spec = key->columns[j];// In the case of procedures, the Key_part_spec may both have an// expression and a field name assigned to it. But the hidden generated// will not exist in the create list, so we will have to add it.if (!key_part_spec->has_expression() ||(key_part_spec->get_field_name() != nullptr &&column_exists_in_create_list(key_part_spec->get_field_name(),alter_info->create_list))) {continue;}Create_field *new_create_field = add_functional_index_to_create_list(thd, key, alter_info, key_part_spec, j, create_info);if (new_create_field == nullptr) {return true;}// Call prepare_create_field on the Create_field that was added by// add_functional_index_to_create_list().assert(is_field_for_functional_index(new_create_field));if (prepare_create_field(thd, error_schema_name, error_table_name,create_info, &alter_info->create_list,&select_field_pos, file, new_create_field,++field_no)) {return true;}}}// Now that we have all the Create_fields available, calculate the offsets// for each column.calculate_field_offsets(&alter_info->create_list);/*Auto increment and blob checks.*/int auto_increment = 0;int blob_columns = 0;it.rewind();while ((sql_field = it++)) {if (sql_field->auto_flags & Field::NEXT_NUMBER) auto_increment++;switch (sql_field->sql_type) {case MYSQL_TYPE_GEOMETRY:case MYSQL_TYPE_BLOB:case MYSQL_TYPE_MEDIUM_BLOB:case MYSQL_TYPE_TINY_BLOB:case MYSQL_TYPE_LONG_BLOB:case MYSQL_TYPE_JSON:blob_columns++;break;default:if (sql_field->is_array) blob_columns++;break;}}if (auto_increment > 1) {my_error(ER_WRONG_AUTO_KEY, MYF(0));return true;}if (auto_increment && (file->ha_table_flags() & HA_NO_AUTO_INCREMENT)) {my_error(ER_TABLE_CANT_HANDLE_AUTO_INCREMENT, MYF(0));return true;}if (blob_columns && (file->ha_table_flags() & HA_NO_BLOBS)) {my_error(ER_TABLE_CANT_HANDLE_BLOB, MYF(0));return true;}/*CREATE TABLE[with auto_increment column] SELECT is unsafe as the rowsinserted in the created table depends on the order of the rows fetchedfrom the select tables. This order may differ on master and slave. Wetherefore mark it as unsafe.*/if (select_field_count > 0 && auto_increment)thd->lex->set_stmt_unsafe(LEX::BINLOG_STMT_UNSAFE_CREATE_SELECT_AUTOINC);/*Count keys and key segments.Also mark redundant keys to be ignored.*/uint key_parts;Mem_root_array<bool> redundant_keys(thd->mem_root,alter_info->key_list.size(), false);if (count_keys(alter_info->key_list, key_count, &key_parts, fk_key_count,&redundant_keys, file->ha_table_flags()))return true;if (*key_count > file->max_keys()) {my_error(ER_TOO_MANY_KEYS, MYF(0), file->max_keys());return true;}/*Make KEY objects for the keys in the new table.*/KEY *key_info;(*key_info_buffer) = key_info = (KEY *)sql_calloc(sizeof(KEY) * (*key_count));KEY_PART_INFO *key_part_info =(KEY_PART_INFO *)sql_calloc(sizeof(KEY_PART_INFO) * key_parts);if (!*key_info_buffer || !key_part_info) return true;  // Out of memoryMem_root_array<const KEY *> keys_to_check(thd->mem_root);if (keys_to_check.reserve(*key_count)) return true;  // Out of memoryuint key_number = 0;bool primary_key = false;// First prepare non-foreign keys so that they are ready when// we prepare foreign keys.for (size_t i = 0; i < alter_info->key_list.size(); i++) {if (redundant_keys[i]) continue;  // Skip redundant keysconst Key_spec *key = alter_info->key_list[i];if (key->type == KEYTYPE_PRIMARY) {if (primary_key) {my_error(ER_MULTIPLE_PRI_KEY, MYF(0));return true;}primary_key = true;}if (key->type != KEYTYPE_FOREIGN) {if (prepare_key(thd, error_schema_name, error_table_name, create_info,&alter_info->create_list, key, key_info_buffer, key_info,&key_part_info, keys_to_check, key_number, file,&auto_increment))return true;key_info++;key_number++;}}// If the table is created without PK, we must check if this has// been disabled and return error. Limit the effect of sql_require_primary_key// to only those SEs that can participate in replication.if (!primary_key && !thd->is_dd_system_thread() &&!thd->is_initialize_system_thread() &&(file->ha_table_flags() &(HA_BINLOG_ROW_CAPABLE | HA_BINLOG_STMT_CAPABLE)) != 0 &&thd->variables.sql_require_primary_key) {my_error(ER_TABLE_WITHOUT_PK, MYF(0));return true;}/*At this point all KEY objects are for indexes are fully constructed.So we can check for duplicate indexes for keys for which it was requested.*/const KEY **dup_check_key;for (dup_check_key = keys_to_check.begin();dup_check_key != keys_to_check.end(); dup_check_key++) {if (check_duplicate_key(thd, error_schema_name, error_table_name,*dup_check_key, *key_info_buffer, *key_count,alter_info))return true;}if (!primary_key && check_promoted_index(file, *key_info_buffer, *key_count))return true;/*Any auto increment columns not found during prepare_key?*/if (auto_increment > 0) {my_error(ER_WRONG_AUTO_KEY, MYF(0));return true;}/* Sort keys in optimized order */std::sort(*key_info_buffer, *key_info_buffer + *key_count, sort_keys());/*Normal keys are done, now prepare foreign keys.We do this after sorting normal keys to get predictable behaviorwhen searching for parent keys for self-referencing foreign keys.*/bool se_supports_fks =(create_info->db_type->flags & HTON_SUPPORTS_FOREIGN_KEYS);assert(se_supports_fks || existing_fks_count == 0);(*fk_key_count) += existing_fks_count;FOREIGN_KEY *fk_key_info;(*fk_key_info_buffer) = fk_key_info =(FOREIGN_KEY *)sql_calloc(sizeof(FOREIGN_KEY) * (*fk_key_count));if (!fk_key_info) return true;  // Out of memory// Copy pre-existing foreign keys.if (existing_fks_count > 0)memcpy(*fk_key_info_buffer, existing_fks,existing_fks_count * sizeof(FOREIGN_KEY));uint fk_number = existing_fks_count;fk_key_info += existing_fks_count;/*Check if we are trying to add partitioning to the table with existingforeign keys and table's storage engine doesn't support foreign keysover partitioned tables.*/if (is_partitioned && existing_fks_count > 0 &&(!create_info->db_type->partition_flags ||create_info->db_type->partition_flags() & HA_CANNOT_PARTITION_FK)) {my_error(ER_FOREIGN_KEY_ON_PARTITIONED, MYF(0));return true;}/*Check that definitions of existing foreign keys are not broken by thisALTER TABLE. Update FOREIGN_KEY::unique_constraint_name if necessary.*/for (FOREIGN_KEY *fk = *fk_key_info_buffer;fk < (*fk_key_info_buffer) + existing_fks_count; fk++) {if (prepare_preexisting_foreign_key(thd, create_info, alter_info, error_schema_name, error_table_name,*key_info_buffer, *key_count, existing_fks_table, fk))return true;}// Prepare new foreign keys.for (size_t i = 0; i < alter_info->key_list.size(); i++) {if (redundant_keys[i]) continue;  // Skip redundant keysKey_spec *key = alter_info->key_list[i];if (key->type == KEYTYPE_FOREIGN) {if (prepare_foreign_key(thd, create_info, alter_info, error_schema_name,error_table_name, is_partitioned,*key_info_buffer, *key_count, *fk_key_info_buffer,fk_number, se_supports_fks, find_parent_keys,down_cast<Foreign_key_spec *>(key),&fk_max_generated_name_number, fk_key_info))return true;if (se_supports_fks) {fk_key_info++;fk_number++;}}}/*Check if  STRICT SQL mode is active and server is not started with--explicit-defaults-for-timestamp. Below check was added to prevent implicitdefault 0 value of timestamp. When explicit-defaults-for-timestamp serveroption is removed, whole set of check can be removed.Note that this check must be after KEYs have been created as thiscan cause the NOT_NULL_FLAG to be set.*/if (thd->variables.sql_mode & MODE_NO_ZERO_DATE &&!thd->variables.explicit_defaults_for_timestamp) {it.rewind();while ((sql_field = it++)) {if (!sql_field->constant_default && !sql_field->gcol_info &&is_timestamp_type(sql_field->sql_type) &&(sql_field->flags & NOT_NULL_FLAG) &&!(sql_field->auto_flags & Field::DEFAULT_NOW)) {/*An error should be reported if:- there is no explicit DEFAULT clause (default column value);- this is a TIMESTAMP column;- the column is not NULL;- this is not the DEFAULT CURRENT_TIMESTAMP column.And from checks before while loop,- STRICT SQL mode is active;- server is not started with --explicit-defaults-for-timestampIn other words, an error should be reported if- STRICT SQL mode is active;- the column definition is equivalent to'column_name TIMESTAMP DEFAULT 0'.*/my_error(ER_INVALID_DEFAULT, MYF(0), sql_field->field_name);return true;}}}/* If fixed row records, we need one bit to check for deleted rows */if (!(create_info->table_options & HA_OPTION_PACK_RECORD))create_info->null_bits++;const ulong data_offset = (create_info->null_bits + 7) / 8;size_t reclength = data_offset;it.rewind();while ((sql_field = it++)) {const size_t length = sql_field->pack_length();if (sql_field->offset + data_offset + length > reclength)reclength = sql_field->offset + data_offset + length;}if (reclength > file->max_record_length()) {my_error(ER_TOO_BIG_ROWSIZE, MYF(0),static_cast<long>(file->max_record_length()));return true;}return false;
}

相关文章:

mysql8 C++源码中创建表函数,表字段最大数量限制,表行最大存储限制

在 MySQL 8 的 C 源码中&#xff0c;表的最大字段数量限制体现在 MAX_FIELDS 宏定义中。这个宏定义了表中可以拥有的最大字段数量。 代码中的体现 在 mysql_prepare_create_table 函数中&#xff0c;有以下代码段检查表的字段数量是否超过最大限制&#xff1a; cpp if (alt…...

胜任力冰山模型:深入探索职业能力的多维结构

目录 1、序言 2、什么是胜任力&#xff1f; 3、任职资格和胜任力的区别 4、胜任力冰山模型&#xff1a;职场能力的多维展现 4.1、冰山水面上的部分 4.2、冰山水面下的部分 4.3、深层的个人特质与价值观 5、如何平衡任职资格与胜任能力 6、结语 1、序言 在快速发展的I…...

什么是三层交换技术?与二层有什么区别?

什么是三层交换技术&#xff1f;让你的网络飞起来&#xff01; 一. 什么是三层交换技术&#xff1f;二. 工作原理三. 优点四. 应用场景五. 总结 前言 点个免费的赞和关注&#xff0c;有错误的地方请指出&#xff0c;看个人主页有惊喜。 作者&#xff1a;神的孩子都在歌唱 大家好…...

Linux+Docer 容器化部署之 Shell 语法入门篇 【Shell 替代】

&#x1f380;&#x1f380;Shell语法入门篇 系列篇 &#x1f380;&#x1f380; LinuxDocer 容器化部署之 Shell 语法入门篇 【准备阶段】LinuxDocer 容器化部署之 Shell 语法入门篇 【Shell变量】LinuxDocer 容器化部署之 Shell 语法入门篇 【Shell数组与函数】LinuxDocer 容…...

DeepSeek LLM(初代)阅读报告

概况 这个是deepseek发布的第一版模型对应的技术报告&#xff0c;模型发布于23年11月&#xff0c;本报告发布于24年1月。 模型有7B和67B两个版本。 虽然本报告中还没有用上后面V2/V3和R1中的关键技术例如MLA、MTP、GRPO&#xff0c;但是报告中已经指明了MoE、强化学习等未来…...

JAVA异步的TCP 通讯-服务端

一、服务端代码示例 import java.io.IOException; import java.net.InetSocketAddress; import java.nio.ByteBuffer; import java.nio.channels.AsynchronousServerSocketChannel; import java.nio.channels.AsynchronousSocketChannel; import java.nio.channels.Completion…...

高效协同,Tita 助力项目管理场景革新

在当今快节奏、高度竞争的商业环境中&#xff0c;企业面临着前所未有的挑战&#xff1a;如何在有限资源下迅速响应市场变化&#xff0c;确保多个项目的高效执行并达成战略目标&#xff1f;答案就在于优化项目集程管理。而在这个过程中&#xff0c;Tita项目管理产品以其独特的优…...

【AIGC魔童】DeepSeek v3提示词Prompt书写技巧

【AIGC魔童】DeepSeek v3提示词Prompt书写技巧 &#xff08;1&#xff09;基础通用公式&#xff08;适用80%场景&#xff09;&#xff08;2&#xff09;问题解决公式&#xff08;决策支持&#xff09;&#xff08;3&#xff09;创意生成公式&#xff08;4&#xff09;学习提升公…...

Vue | 透传 Attributes(非 prop 的 attribute )

文章目录 引言I Attribute 继承II 禁用 attribute 继承禁用 attribute 继承的常见场景通过将 inheritAttrs 选项设置为 false从 3.3 开始可在 `<script setup>` 中使用defineOptions例子引言 “透传 attribute”指的是传递给一个组件,却没有被该组件声明为 props 或 emi…...

启明星辰发布MAF大模型应用防火墙产品,提升DeepSeek类企业用户安全

2月7日&#xff0c;启明星辰面向DeepSeek等企业级大模型业务服务者提供的安全防护产品——天清MAF&#xff08;Model Application Firewall&#xff09;大模型应用防火墙产品正式发布。 一个新赛道将被开启…… DeepSeek的低成本引爆赛道规模 随着DeepSeek成为当前最热的现象级…...

Vuex 解析:从 Vue 2 到 Vue 3 的演变与最佳实践

Vuex 是 Vue.js 中的状态管理模式&#xff0c;广泛应用于 Vue 2 和 Vue 3 中&#xff0c;其内部实现存在一些差异。 1. 什么是 Vuex &#xff1f; Vuex 是 Vue.js 官方提供的状态管理库&#xff0c;用于集中管理应用的所有组件的状态。主要是通过一种集中化的方式来管理共享状…...

一文解释nn、nn.Module与nn.functional的用法与区别

&#x1f308; 个人主页&#xff1a;十二月的猫-CSDN博客 &#x1f525; 系列专栏&#xff1a; &#x1f3c0;零基础入门PyTorch框架_十二月的猫的博客-CSDN博客 &#x1f4aa;&#x1f3fb; 十二月的寒冬阻挡不了春天的脚步&#xff0c;十二点的黑夜遮蔽不住黎明的曙光 目录 …...

日志统计(acWing,蓝桥杯)

题目&#xff1a; 1238. 日志统计 题目 提交记录 讨论 题解 视频讲解 小明维护着一个程序员论坛。现在他收集了一份”点赞”日志&#xff0c;日志共有 NN 行。 其中每一行的格式是&#xff1a; ts id 表示在 tsts 时刻编号 idid 的帖子收到一个”赞”。 现在小明想…...

3个DeepSeek隐藏玩法

大家最近是不是都被DeepSeek-R1刷屏了 这款号称“中国版O1”的模型&#xff0c;不仅在数学和编程领域表现出色&#xff0c;中文写作能力也很强。 最重要的是&#xff0c;它在理解提示词方面有了很大突破&#xff0c;只要你能打字&#xff0c;它就能理解你的意思。 不过&…...

部署LLM模型到云端

文章目录 1 ECS 云服务器部署2 函数计算FC3 人工智能平台PAI-EAS4 大模型服务平台百炼压测实验结果显示,由于本地设备算力有限,本地部署的模型服务无法满足低延迟和高并发的需求。针对这类线上业务,可以考虑云端部署。 下面先来看看本地部署和云端部署的特点对比。 由上可…...

Python连接不同数据库的总结

Python连接不同数据库的总结 在数据驱动的现代应用开发中&#xff0c;Python凭借其丰富的库和强大的生态系统&#xff0c;成为连接各种数据库的理想编程语言。本文将深入探讨Python连接不同类型数据库的方法、常用库以及关键注意事项。 一、连接MySQL数据库 MySQL是广泛使用…...

web直播弹幕抓取分析 signature

声明: 本文章中所有内容仅供学习交流使用&#xff0c;不用于其他任何目的&#xff0c;抓包内容、敏感网址、数据接口等均已做脱敏处理&#xff0c;严禁用于商业用途和非法用途&#xff0c;否则由此产生的一切后果均与作者无关&#xff01; 前言 最近遇到太多难点了卡了很久&am…...

Linux ftrace 内核跟踪入门

文章目录 ftrace介绍开启ftraceftrace使用ftrace跟踪指定内核函数ftrace跟踪指定pid ftrace原理ftrace与stracetrace-cmd 工具KernelShark参考 ftrace介绍 Ftrace is an internal tracer designed to help out developers and designers of systems to find what is going on i…...

1Panel应用推荐:WordPress开源博客软件和内容管理系统

1Panel&#xff08;github.com/1Panel-dev/1Panel&#xff09;是一款现代化、开源的Linux服务器运维管理面板&#xff0c;它致力于通过开源的方式&#xff0c;帮助用户简化建站与运维管理流程。为了方便广大用户快捷安装部署相关软件应用&#xff0c;1Panel特别开通应用商店&am…...

【数据结构-C语言】绪论

文章目录 一、前言二、基本概念和术语2.1 数据元素、数据项和数据对象2.2 数据结构2.2.1 逻辑结构2.2.2 存储结构 2.3 时间复杂度 一、前言 数据结构部分是根据严蔚敏老师的《数据结构-C语言版第2版》书中内容整理的。 二、基本概念和术语 2.1 数据元素、数据项和数据对象 …...

台式电脑CPU天梯图_2025年台式电脑CPU天梯图

CPU的选择绝对是重中之重,它关乎了一台电脑性能好坏。相信不少用户,在挑选CPU的时候不知道谁强谁弱,尤其是intel和AMD两款CPU之间。下面通过2025年台式电脑CPU天梯图来了解下这两款cpu. 2025年台式电脑CPU天梯图 2025年台式电脑CPU天梯图包含了老旧型号以及12代、13代、14代…...

前端面经 get和post区别

get获取数据 post提交资源&#xff0c;引起服务器状态变化或者副作用 区别 1get会比post更不安全 get参数写在url中 post在请求体内 2get报文 head和body一起发 响应200 post报文 先发head 100 再发 body 200 3 get请求url有长度限制 4 默认缓存get 请求...

基于DFT码本的波束方向图生成MATLAB实现

基于DFT码本的波束方向图生成MATLAB实现&#xff0c;包含参数配置、方向图生成和可视化模块&#xff1a; %% 基于DFT码本的波束方向图生成 clc; clear; close all;%% 参数配置 params struct(...N, 8, % 阵元数d, 0.5, % 阵元间距(λ/2)theta_sc…...

UDP组播套接字与URI/URL/URN技术详解

UDP组播套接字基础 Java通过MulticastSocket类提供对UDP组播通信的支持,该机制允许单个数据报同时发送给多个接收者。组播套接字的工作机制与标准DatagramSocket类似,但核心区别在于其基于组播组成员关系的通信模型。 组播组成员管理 创建并绑定组播套接字后,必须调用joi…...

mac 下安装Rust Toolchain(Nightly)

你可以用 Homebrew 安装 rustup&#xff0c;这是推荐的管理 Rust toolchain的 brew install rustup-init安装 Rust&#xff08;包含 rustup&#xff09; rustup-init安装过程中会让你选择安装那个&#xff0c;直接回车选择默认的即可 安装完成后&#xff0c;cargo, rustc, r…...

安全帽目标检测

安全帽数据集 这里我们使用的安全帽数据集是HelmentDetection&#xff0c;这是一个公开数据集&#xff0c;里面包含5000张voc标注格式的图像&#xff0c;分为三个类别&#xff0c;分别是 0: head 1: helmet 2: person 安全帽数据集下载地址、 我们将数据集下载后&#xff0c…...

机器人--里程计

教程 轮式里程计视频讲解 里程计分类 ros--odometry 什么是里程计 里程计是一种利用从移动传感器获得的数据来估计物体位置随时间的变化而改变的方法。该方法被用在许多机器人系统来估计机器人相对于初始位置移动的距离。 注意&#xff1a;里程计是一套算法&#xff0c;不…...

讲述我的plc自学之路 第十二章

“老k&#xff0c;你没想过自己以后怎么过吗&#xff1f;”lora听我夸他漂亮&#xff0c;开始鼓起勇气追问我的过往。 “我还能怎样呢&#xff0c;说实话&#xff0c;家里介绍过几次相亲了&#xff0c;上来就问车问房的&#xff0c;大多数不了了之。”我解释道。 “老k这你就…...

【笔记】Windows 成功部署 Suna 开源的通用人工智能代理项目部署日志

#工作记录 本地部署运行截图 kortix-ai/suna&#xff1a; Suna - 开源通用 AI 代理 项目概述 Suna 是一个完全开源的 AI 助手&#xff0c;通过自然对话帮助用户轻松完成研究、数据分析等日常任务。它结合了强大的功能和直观的界面&#xff0c;能够理解用户需求并提供结果。其强…...

Nacos 配置文件总结

Nacos 配置文件总结 文章目录 Nacos 配置文件总结1 、在 Nacos 服务端添加配置文件1. 启动Nacos Server。2. 新建配置文件。3. 发布配置集后&#xff0c;我们便可以在配置列表中查看相应的配置文件。4. 配置nacos数据库5. 运行 Nacos 容器6. 验证安装结果7. 配置验证 2 、在 Na…...