【个人开发】deepseed+Llama-factory 本地数据多卡Lora微调
文章目录
- 1.背景
- 2.微调方式
- 2.1 关键环境版本信息
- 2.2 步骤
- 2.2.1 下载llama-factory
- 2.2.2 准备数据集
- 2.2.3 微调模式
- 2.2.4 微调脚本
- 2.3 踩坑经验
- 2.3.1 问题一:ValueError: Undefined dataset xxxx in dataset_info.json.
- 2.3.2 问题二: ValueError: Target modules {'c_attn'} not found in the base model. Please check the target modules and try again.
- 2.3.3 问题三: RuntimeError: The size of tensor a (1060864) must match the size of tensor b (315392) at non-singleton dimension 0。
- 2.4 实验
- 2.4.1 实验1:多GPU微调
1.背景
上一篇文件写到,macbook微调Lora,该微调方式,同样适用于GPU,只不过在train.py脚本中,针对device,调整为cuda即可。
但如果数据量过大的话,单卡微调会存在瓶颈,因此考虑多GPU进行微调。网上找了一圈,多卡微调的常用方式采用deepseed+Llama-factory。
本文主要记录该方式的微调情况,仅为个人学习记录
2.微调方式
2.1 关键环境版本信息
| 模块 | 版本 |
|---|---|
| python | 3.10 |
| CUDA | 12.6 |
| torch | 2.5.1 |
| peft | 0.12.0 |
| transformers | 4.46.2 |
| accelerate | 1.1.1 |
| trl | 0.9.6 |
| deepspeed | 0.15.4 |
2.2 步骤
2.2.1 下载llama-factory
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
2.2.2 准备数据集
数据集采用网上流传的《甄嬛传》,数据集结构如下,数据集命名【huanhuan.json】
[{"instruction": "小姐,别的秀女都在求中选,唯有咱们小姐想被撂牌子,菩萨一定记得真真儿的——","input": "","output": "嘘——都说许愿说破是不灵的。"},...
]
其次,还得准备数据集信息【dataset_info.json】,因为是本地微调,所以微调时现访问dataset_info,再指定到具体的数据集中。
{"identity": {"file_name": "test_data.json"}
}
注意文本的数据集的格式必须为,json,不然会报错。
2.2.3 微调模式
本次微调采用zero-3的方式,因此在LLaMa-Factory目录下,新增配置文件【ds_config_zero3.json】。
{"fp16": {"enabled": "auto","loss_scale": 0,"loss_scale_window": 1000,"initial_scale_power": 16,"hysteresis": 2,"min_loss_scale": 1},"bf16": {"enabled": "auto"},"optimizer": {"type": "AdamW","params": {"lr": "auto","betas": "auto","eps": "auto","weight_decay": "auto"}},"scheduler": {"type": "WarmupLR","params": {"warmup_min_lr": "auto","warmup_max_lr": "auto","warmup_num_steps": "auto"}},"zero_optimization": {"stage": 3,"offload_optimizer": {"device": "none","pin_memory": true},"offload_param": {"device": "none","pin_memory": true},"overlap_comm": true,"contiguous_gradients": true,"sub_group_size": 1e9,"reduce_bucket_size": "auto","stage3_prefetch_bucket_size": "auto","stage3_param_persistence_threshold": "auto","stage3_max_live_parameters": 1e9,"stage3_max_reuse_distance": 1e9,"stage3_gather_16bit_weights_on_model_save": true},"gradient_accumulation_steps": "auto","gradient_clipping": "auto","steps_per_print": 100,"train_batch_size": "auto","train_micro_batch_size_per_gpu": "auto","wall_clock_breakdown": false
}
2.2.4 微调脚本
# run_train_bash.sh
#!/bin/bash
# 记录开始时间
START=$(date +%s.%N)CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 accelerate launch src/train.py \--deepspeed ds_config_zero3.json \--stage sft \--do_train True \--model_name_or_path /root/ai_project/fine-tuning-by-lora/models/model/qwen/Qwen2___5-7B-Instruct \--finetuning_type lora \--template qwen \--dataset_dir /root/ai_project/fine-tuning-by-lora/dataset/ \--dataset identity \--cutoff_len 1024 \--learning_rate 5e-04 \--num_train_epochs 10 \--max_samples 100000 \--per_device_train_batch_size 4 \--gradient_accumulation_steps 4 \--lr_scheduler_type cosine \--max_grad_norm 1.0 \--logging_steps 5 \--save_steps 100 \--warmup_steps 0 \--neftune_noise_alpha 0 \--lora_rank 8 \--lora_dropout 0.1 \--lora_alpha 32 \--lora_target q_proj,v_proj,k_proj,gate_proj,up_proj,o_proj,down_proj \--output_dir ./output/qwen_7b_ds/train_2024_02_27 \--bf16 True \--plot_loss True
# 记录结束时间
END=$(date +%s.%N)
# 计算运行时间
DUR=$(echo "$END - $START" | bc)
# 输出运行时间
printf "Execution time: %.6f seconds\n" $DUR
说明一下上述一些关键参数:
| 参数 | 版本 |
|---|---|
| –deepspeed | 指定deepspeed加速微调方式 |
| –model_name_or_path | 微调模型路径 |
| –finetuning_type | 微调方式,这里用lora微调 |
| –template | 训练和推理时构造 prompt 的模板,不同大语言模型的模板不一样,这里用的是qwen |
| –dataset_dir | 本地的数据集路径 |
| –dataset | 指定dataset_info.json中哪个数据集 |
| –lora_target | 应用 LoRA 方法的模块名称。 |
| –output_dir | 模型输出路径。 |
模型微调参数可以参考:Llama-Factory参数介绍
其他参数,其实就是常规使用peft进行lora微调的常见参数,以及常见的微调参数,可以对照如下。
lora_config = LoraConfig(task_type=TaskType.CAUSAL_LM,target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"],inference_mode=False,r=8,lora_alpha=32,lora_dropout=0.1
)
2.3 踩坑经验
2.3.1 问题一:ValueError: Undefined dataset xxxx in dataset_info.json.
如果你脚本的启动参数,–dataset identity。而dataset_info.json中的数据信息,没有“identity”这个key,则会出现这个报错,只要确保你dataset_info.json中存在该key即可。
2.3.2 问题二: ValueError: Target modules {‘c_attn’} not found in the base model. Please check the target modules and try again.
如果你脚本的启动参数,–lora_target参数设为常见的c_attn参数,则会报此错。处理方式还是调整参数,使用Lora微调时的常见参数,q_proj,v_proj,k_proj,gate_proj,up_proj,o_proj,down_proj。注意格式,如果格式不对,还是会报错。
2.3.3 问题三: RuntimeError: The size of tensor a (1060864) must match the size of tensor b (315392) at non-singleton dimension 0。
这种tensor的问题,很可能是模型冲突的问题,比如调到一半,然后重新提调,指到相同的路径。重新指定output路径即可。
2.4 实验
本次测试使用多GPU微调,测试多GPU微调跟单GPU微调的性能对比。实验2后续补充。。。
2.4.1 实验1:多GPU微调
使用3630条数据,8卡微调,微调参数如下,总共280步,耗时
--learning_rate 5e-04
--num_train_epochs 10
--per_device_train_batch_size 4
--gradient_accumulation_steps 4
计算方式
280(step)=3630[数据集]/(4[梯度]*4[每次训练采样batch数据])/8[8GPU]*10[轮次]
训练结果

[INFO|trainer.py:2314] 2025-02-13 08:05:51,986 >> ***** Running training *****
[INFO|trainer.py:2315] 2025-02-13 08:05:51,986 >> Num examples = 3,630
[INFO|trainer.py:2316] 2025-02-13 08:05:51,986 >> Num Epochs = 10
[INFO|trainer.py:2317] 2025-02-13 08:05:51,986 >> Instantaneous batch size per device = 4
[INFO|trainer.py:2320] 2025-02-13 08:05:51,986 >> Total train batch size (w. parallel, distributed & accumulation) = 128
[INFO|trainer.py:2321] 2025-02-13 08:05:51,986 >> Gradient Accumulation steps = 4
[INFO|trainer.py:2322] 2025-02-13 08:05:51,986 >> Total optimization steps = 280
.....{'loss': 4.9293, 'grad_norm': 0.2562304304292013, 'learning_rate': 0.0005, 'epoch': 0.18}
{'loss': 3.1626, 'grad_norm': 0.19361592540369985, 'learning_rate': 0.0005, 'epoch': 0.35}
{'loss': 2.9427, 'grad_norm': 0.20313623353647364, 'learning_rate': 0.0005, 'epoch': 0.53}
{'loss': 2.9178, 'grad_norm': 0.1633448296719697, 'learning_rate': 0.0005, 'epoch': 0.7}
{'loss': 2.9116, 'grad_norm': 0.17241006366450623, 'learning_rate': 0.0005, 'epoch': 0.88}
{'loss': 3.0758, 'grad_norm': 0.1853092845879873, 'learning_rate': 0.0005, 'epoch': 1.05}
{'loss': 2.5562, 'grad_norm': 0.25384200353297537, 'learning_rate': 0.0005, 'epoch': 1.23}
{'loss': 2.6158, 'grad_norm': 0.2876837326269363, 'learning_rate': 0.0005, 'epoch': 1.4}
{'loss': 2.512, 'grad_norm': 0.2837102971247916, 'learning_rate': 0.0005, 'epoch': 1.58}
{'loss': 2.5483, 'grad_norm': 0.30202190399292755, 'learning_rate': 0.0005, 'epoch': 1.75}
{'loss': 2.5193, 'grad_norm': 0.3233037587534178, 'learning_rate': 0.0005, 'epoch': 1.93}
{'loss': 2.513, 'grad_norm': 0.3515238818579015, 'learning_rate': 0.0005, 'epoch': 2.11}
{'loss': 1.9465, 'grad_norm': 0.36555535286863944, 'learning_rate': 0.0005, 'epoch': 2.28}
{'loss': 1.9132, 'grad_norm': 0.44229627583386516, 'learning_rate': 0.0005, 'epoch': 2.46}
{'loss': 1.9235, 'grad_norm': 0.40111643921780515, 'learning_rate': 0.0005, 'epoch': 2.63}
{'loss': 1.9685, 'grad_norm': 0.38583421690959196, 'learning_rate': 0.0005, 'epoch': 2.81}
{'loss': 1.985, 'grad_norm': 0.3777334046946069, 'learning_rate': 0.0005, 'epoch': 2.98}
{'loss': 1.538, 'grad_norm': 0.5845252817927833, 'learning_rate': 0.0005, 'epoch': 3.16}
{'loss': 1.1791, 'grad_norm': 0.49414752481138235, 'learning_rate': 0.0005, 'epoch': 3.33}
{'loss': 1.1892, 'grad_norm': 0.5207790387399577, 'learning_rate': 0.0005, 'epoch': 3.51}
{'loss': 1.1712, 'grad_norm': 0.5654238235933979, 'learning_rate': 0.0005, 'epoch': 3.68}
{'loss': 1.2197, 'grad_norm': 0.5001492538398, 'learning_rate': 0.0005, 'epoch': 3.86}
{'loss': 1.2771, 'grad_norm': 0.4000143395083798, 'learning_rate': 0.0005, 'epoch': 4.04}
{'loss': 0.6298, 'grad_norm': 0.5240283431664541, 'learning_rate': 0.0005, 'epoch': 4.21}
{'loss': 0.5911, 'grad_norm': 0.47002369192531646, 'learning_rate': 0.0005, 'epoch': 4.39}
{'loss': 0.5958, 'grad_norm': 0.5061747301822586, 'learning_rate': 0.0005, 'epoch': 4.56}
{'loss': 0.6624, 'grad_norm': 0.5320579836394266, 'learning_rate': 0.0005, 'epoch': 4.74}
{'loss': 0.6724, 'grad_norm': 0.517103117110723, 'learning_rate': 0.0005, 'epoch': 4.91}
{'loss': 0.5444, 'grad_norm': 0.3714622914636231, 'learning_rate': 0.0005, 'epoch': 5.09}
{'loss': 0.2655, 'grad_norm': 0.4465471808710968, 'learning_rate': 0.0005, 'epoch': 5.26}
{'loss': 0.2743, 'grad_norm': 0.41505929687508386, 'learning_rate': 0.0005, 'epoch': 5.44}
{'loss': 0.2786, 'grad_norm': 0.43996251312895884, 'learning_rate': 0.0005, 'epoch': 5.61}
{'loss': 0.2785, 'grad_norm': 0.4471303138465939, 'learning_rate': 0.0005, 'epoch': 5.79}
{'loss': 0.2788, 'grad_norm': 0.48705340679487363, 'learning_rate': 0.0005, 'epoch': 5.96}
{'loss': 0.162, 'grad_norm': 0.2921252791608401, 'learning_rate': 0.0005, 'epoch': 6.14}
{'loss': 0.1149, 'grad_norm': 0.30941692561321993, 'learning_rate': 0.0005, 'epoch': 6.32}
{'loss': 0.1173, 'grad_norm': 0.29967155968778664, 'learning_rate': 0.0005, 'epoch': 6.49}
{'loss': 0.13, 'grad_norm': 0.3630332521647509, 'learning_rate': 0.0005, 'epoch': 6.67}
{'loss': 0.1344, 'grad_norm': 0.3125941281688891, 'learning_rate': 0.0005, 'epoch': 6.84}
{'loss': 0.1441, 'grad_norm': 0.5404481434654501, 'learning_rate': 0.0005, 'epoch': 7.02}
{'loss': 0.0567, 'grad_norm': 0.1855727739202254, 'learning_rate': 0.0005, 'epoch': 7.19}
{'loss': 0.0702, 'grad_norm': 0.23380098002732216, 'learning_rate': 0.0005, 'epoch': 7.37}
{'loss': 0.068, 'grad_norm': 0.23202593567669585, 'learning_rate': 0.0005, 'epoch': 7.54}
{'loss': 0.0829, 'grad_norm': 0.23115965023606377, 'learning_rate': 0.0005, 'epoch': 7.72}
{'loss': 0.0766, 'grad_norm': 0.23135481635275945, 'learning_rate': 0.0005, 'epoch': 7.89}
{'loss': 0.067, 'grad_norm': 0.13494924636148561, 'learning_rate': 0.0005, 'epoch': 8.07}
{'loss': 0.0396, 'grad_norm': 0.18481019773823124, 'learning_rate': 0.0005, 'epoch': 8.25}
{'loss': 0.0429, 'grad_norm': 0.19484298588581364, 'learning_rate': 0.0005, 'epoch': 8.42}
{'loss': 0.0416, 'grad_norm': 0.17873844875438857, 'learning_rate': 0.0005, 'epoch': 8.6}
{'loss': 0.0454, 'grad_norm': 0.17303531479845663, 'learning_rate': 0.0005, 'epoch': 8.77}
{'loss': 0.0485, 'grad_norm': 0.17425356837750286, 'learning_rate': 0.0005, 'epoch': 8.95}
{'loss': 0.0334, 'grad_norm': 0.0869599535276032, 'learning_rate': 0.0005, 'epoch': 9.12}
{'loss': 0.0255, 'grad_norm': 0.163465911292555, 'learning_rate': 0.0005, 'epoch': 9.3}
{'loss': 0.0293, 'grad_norm': 0.16522989964282914, 'learning_rate': 0.0005, 'epoch': 9.47}
{'loss': 0.0265, 'grad_norm': 0.15019554228481286, 'learning_rate': 0.0005, 'epoch': 9.65}
{'loss': 0.0326, 'grad_norm': 0.14628796123788834, 'learning_rate': 0.0005, 'epoch': 9.82}.....***** train metrics *****epoch = 9.8246total_flos = 153160GFtrain_loss = 1.0567train_runtime = 1:01:16.28train_samples_per_second = 9.874train_steps_per_second = 0.076
Figure saved at: ./output/qwen_7b_ds/train_2024_02_27/training_loss.pngExecution time: 3717.986219 seconds
相关文章:
【个人开发】deepseed+Llama-factory 本地数据多卡Lora微调
文章目录 1.背景2.微调方式2.1 关键环境版本信息2.2 步骤2.2.1 下载llama-factory2.2.2 准备数据集2.2.3 微调模式2.2.4 微调脚本 2.3 踩坑经验2.3.1 问题一:ValueError: Undefined dataset xxxx in dataset_info.json.2.3.2 问题二: ValueError: Target…...
Redis7.0八种数据结构底层原理
导读 本文介绍redis应用数据结构与物理存储结构,共八种应用数据结构和 一. 内部数据结构 1. sds sds是redis自己设计的字符串结构有以下特点: jemalloc内存管理预分配冗余空间二进制安全(c原生使用\0作为结尾标识,所以无法直接存储\0)动态计数类型(根据字符串长度动态选择…...
Kafka 高吞吐量的底层技术原理
Kafka 之所以能够实现高吞吐量(每秒百万级消息处理),主要依赖于其底层设计和多项优化技术。以下是 Kafka 实现高吞吐量的关键技术原理: 1. 顺序读写磁盘 Kafka 利用磁盘的顺序读写特性,避免了随机读写的性能瓶颈。 顺…...
CCFCSP第34次认证第一题——矩阵重塑(其一)
第34次认证第一题——矩阵重塑(其一) 官网链接 时间限制: 1.0 秒 空间限制: 512 MiB 相关文件: 题目目录(样例文件) 题目背景 矩阵(二维)的重塑(reshap…...
网络工程师 (35)以太网通道
一、概念与原理 以太网通道,也称为以太端口捆绑、端口聚集或以太链路聚集,是一种将多个物理以太网端口组合成一个逻辑通道的技术。这一技术使得多个端口能够并行工作,共同承担数据传输任务,从而提高了网络的传输能力和可靠性。 二…...
O1、R1和V3模型
O1、R1和V3模型分别是不同团队或公司开发的人工智能模型,它们在定位、能力和应用场景上存在显著区别。以下是它们的详细对比: 1. 模型归属 O1模型:由OpenAI开发,属于其高性能推理模型系列。 R1和V3模型:由DeepSeek&a…...
Linux 安装 Ollama
1、下载地址 Download Ollama on Linux 2、有网络直接执行 curl -fsSL https://ollama.com/install.sh | sh 命令 3、下载慢的解决方法 1、curl -fsSL https://ollama.com/install.sh -o ollama_install.sh 2、sed -i s|https://ollama.com/download/ollama-linux|https://…...
docker配置国内源
配置Docker使用国内源(也称为镜像加速器)可以显著提高拉取Docker镜像的速度,特别是在中国地区。以下是如何配置Docker使用国内源的步骤: 1. 修改Docker配置文件 Docker的配置文件通常位于/etc/docker/daemon.json。如果该文件不…...
【leetcode】关于循环数组的深入分析
原题:https://leetcode.cn/problems/rotate-array/description/ 给定一个整数数组 nums,将数组中的元素向右轮转 k 个位置,其中 k 是非负数。 示例 1: 输入: nums [1,2,3,4,5,6,7], k 3 输出: [5,6,7,1,2,3,4] 解释: 向右轮转 1 步: [7,1…...
DeepSeek 指导手册(入门到精通)
第⼀章:准备篇(三分钟上手)1.1 三分钟创建你的 AI 伙伴1.2 认识你的 AI 控制台 第二章:基础对话篇(像交朋友⼀样学交流)2.1 有效提问的五个黄金法则2.2 新手必学魔法指令 第三章:效率飞跃篇&…...
【力扣题解】【76. 最小覆盖子串】容易理解版
76. 最小覆盖子串 总结和复盘 这是时隔1年4个月之后,再次写的题解,比第一次要清晰很多。 我刚开始,就是用方法一做的,提交之后报超出内存限制; 对方法一进行优化,得到方法二,提交之后就AC了。…...
Android10 音频参数导出合并
A10 设备录音时底噪过大,让音频同事校准了下,然后把校准好的参数需要导出来,集成到项目中,然后出包,导出方式在此记录 设备安装debug系统版本调试好后, adb root adb remount adb shell 进入设备目录 导…...
在 Windows 系统中如何快速进入安全模式的两种方法
在使用电脑的过程中,有时我们可能会遇到一些需要进入“安全模式”来解决的问题。安全模式是一种特殊的启动选项,它以最小化配置启动操作系统,仅加载最基本的驱动程序和服务,从而帮助用户诊断和修复系统问题。本文中简鹿办公将详细…...
计算机网络(1)基础篇
目录 1.TCP/IP 网络模型 2.键入网址--->网页显示 2.1 生成HTTP数据包 2.2 DNS服务器进行域名与IP转换 2.3 建立TCP连接 2.4 生成IP头部和MAC头部 2.5 网卡、交换机、路由器 3 Linux系统收发网络包 1.TCP/IP 网络模型 首先,为什么要有 TCP/IP 网络模型&a…...
自然语言处理NLP入门 -- 第四节文本分类
目标 本章的目标是帮助你理解文本分类的基本概念,并通过具体示例学习如何使用 scikit-learn 训练文本分类模型,以及如何利用 OpenAI API 进行文本分类。 5.1 什么是文本分类? 文本分类(Text Classification)是自然语…...
【redis】数据类型之bitmaps
Redis的Bitmaps是一种基于字符串的数据结构,用于处理位级别的操作。虽然Bitmaps在Redis中并不是一种独立的数据类型,而是基于字符串实现的,但它们提供了高效的位操作功能,适用于需要处理大量布尔值或二进制数据的场景。 基本概念…...
计算机网络-MPLS转发原理
在上一篇关于 MPLS 基础的文章中,我们了解了 MPLS 的基本概念、术语以及它在网络中的重要性。今天,我们将深入探讨 MPLS 转发的原理与流程,帮助大家更好地理解 MPLS 是如何在实际网络中工作的。 一、MPLS 转发概述 MPLS 转发的本质是将数据…...
5. 【.NET 8 实战--孢子记账--从单体到微服务--转向微服务】--微服务基础工具与技术--Nacos
一、什么是Nacos Nacos 是阿里巴巴开源的一款云原生应用基础设施,它旨在简化微服务架构中服务治理和配置管理的复杂性。通过 Nacos,服务在启动时可以自动注册,而其他服务则可以通过名称来查找并访问这些注册好的实例。同时,Nacos…...
【每日关注】科技圈重要动态
时代新动态 2025 年 2 月 12 日科技圈重要动态总结全球 AI 治理新进展巴黎 AI 宣言签署,美英缺席 科技巨头合作与竞争苹果联姻阿里开发中国版AI功能DeepSeek生态持续扩展OpenAI拒绝马斯克收购,矛盾公开化 汽车行业动态小米汽车销量跃居新势力第二比亚迪智…...
【算法】用C++实现A*算法
A*算法的背景与原理 A*(A-Star)算法是一种广泛应用于路径规划和图搜索问题中的启发式搜索算法。它结合了Dijkstra算法的广度优先搜索和贪心最佳优先搜索的优点,通过引入启发式函数来估计从当前节点到目标节点的成本,从而有效地减少搜索空间。A*算法的核心思想是使用一个评…...
Chapter03-Authentication vulnerabilities
文章目录 1. 身份验证简介1.1 What is authentication1.2 difference between authentication and authorization1.3 身份验证机制失效的原因1.4 身份验证机制失效的影响 2. 基于登录功能的漏洞2.1 密码爆破2.2 用户名枚举2.3 有缺陷的暴力破解防护2.3.1 如果用户登录尝试失败次…...
使用VSCode开发Django指南
使用VSCode开发Django指南 一、概述 Django 是一个高级 Python 框架,专为快速、安全和可扩展的 Web 开发而设计。Django 包含对 URL 路由、页面模板和数据处理的丰富支持。 本文将创建一个简单的 Django 应用,其中包含三个使用通用基本模板的页面。在此…...
在鸿蒙HarmonyOS 5中实现抖音风格的点赞功能
下面我将详细介绍如何使用HarmonyOS SDK在HarmonyOS 5中实现类似抖音的点赞功能,包括动画效果、数据同步和交互优化。 1. 基础点赞功能实现 1.1 创建数据模型 // VideoModel.ets export class VideoModel {id: string "";title: string ""…...
vscode(仍待补充)
写于2025 6.9 主包将加入vscode这个更权威的圈子 vscode的基本使用 侧边栏 vscode还能连接ssh? debug时使用的launch文件 1.task.json {"tasks": [{"type": "cppbuild","label": "C/C: gcc.exe 生成活动文件"…...
LeetCode - 394. 字符串解码
题目 394. 字符串解码 - 力扣(LeetCode) 思路 使用两个栈:一个存储重复次数,一个存储字符串 遍历输入字符串: 数字处理:遇到数字时,累积计算重复次数左括号处理:保存当前状态&a…...
2024年赣州旅游投资集团社会招聘笔试真
2024年赣州旅游投资集团社会招聘笔试真 题 ( 满 分 1 0 0 分 时 间 1 2 0 分 钟 ) 一、单选题(每题只有一个正确答案,答错、不答或多答均不得分) 1.纪要的特点不包括()。 A.概括重点 B.指导传达 C. 客观纪实 D.有言必录 【答案】: D 2.1864年,()预言了电磁波的存在,并指出…...
React19源码系列之 事件插件系统
事件类别 事件类型 定义 文档 Event Event 接口表示在 EventTarget 上出现的事件。 Event - Web API | MDN UIEvent UIEvent 接口表示简单的用户界面事件。 UIEvent - Web API | MDN KeyboardEvent KeyboardEvent 对象描述了用户与键盘的交互。 KeyboardEvent - Web…...
P3 QT项目----记事本(3.8)
3.8 记事本项目总结 项目源码 1.main.cpp #include "widget.h" #include <QApplication> int main(int argc, char *argv[]) {QApplication a(argc, argv);Widget w;w.show();return a.exec(); } 2.widget.cpp #include "widget.h" #include &q…...
Python爬虫(二):爬虫完整流程
爬虫完整流程详解(7大核心步骤实战技巧) 一、爬虫完整工作流程 以下是爬虫开发的完整流程,我将结合具体技术点和实战经验展开说明: 1. 目标分析与前期准备 网站技术分析: 使用浏览器开发者工具(F12&…...
【HTML-16】深入理解HTML中的块元素与行内元素
HTML元素根据其显示特性可以分为两大类:块元素(Block-level Elements)和行内元素(Inline Elements)。理解这两者的区别对于构建良好的网页布局至关重要。本文将全面解析这两种元素的特性、区别以及实际应用场景。 1. 块元素(Block-level Elements) 1.1 基本特性 …...
