当前位置: 首页 > article >正文

Granite TimeSeries FlowState R1模型数据预处理保姆级教程:从原始数据到模型输入

Granite TimeSeries FlowState R1模型数据预处理保姆级教程从原始数据到模型输入你是不是也遇到过这种情况好不容易拿到一份时间序列数据比如工厂设备的传感器读数、网站的每日访问量或者股票的收盘价兴冲冲地准备丢给模型去预测结果模型要么报错要么给出的结果完全没法看。问题往往就出在第一步——数据预处理。对于像Granite TimeSeries FlowState R1这样的专业时序模型来说它就像一位挑剔的大厨你给的食材数据不新鲜、不干净、切得不对它就没法做出一道好菜。很多人模型跑不起来预测不准第一步就卡在了数据准备上。今天这篇教程我们就来彻底解决这个问题。我会手把手带你把一份原始的、可能乱七八糟的时间序列数据一步步处理成模型能“吃”得下、并且“消化”得好的标准格式。跟着走一遍你就能掌握这套流程以后遇到任何时序数据都知道该怎么“收拾”它了。1. 准备工作认识你的数据和工具在动手处理数据之前我们得先搞清楚两件事我们要处理的数据长什么样以及我们需要用什么工具。1.1 理解时间序列数据时间序列数据简单说就是按时间顺序排列的一系列数据点。它通常包含两个核心部分时间戳数据点发生的时间比如2023-10-01 08:00:00。观测值在那个时间点记录下的数值比如温度是25.3度销售额是12000元。一份原始数据可能是一个CSV文件、一个Excel表格或者从数据库里导出来的一堆记录。它可能有很多列比如多个传感器的读数也可能有缺失、有异常值时间间隔还不一定均匀。1.2 搭建你的工作环境我们主要使用Python来完成所有处理因为它有丰富且强大的数据处理库。请确保你的电脑上已经安装了Python建议3.8及以上版本。然后我们需要几个核心的“帮手”打开你的终端或命令提示符安装这些库pip install pandas numpy scikit-learn matplotlibpandas数据处理的“瑞士军刀”读取、清洗、转换数据都靠它。numpy进行高效的数值计算比如数组运算。scikit-learn提供数据标准化、归一化等预处理工具。matplotlib用来可视化数据帮助我们直观地发现问题。安装好后我们就可以在Python脚本或Jupyter Notebook里导入它们了import pandas as pd import numpy as np from sklearn.preprocessing import StandardScaler, MinMaxScaler import matplotlib.pyplot as plt # 设置图表显示中文如果需要 plt.rcParams[font.sans-serif] [SimHei] # 用来正常显示中文标签 plt.rcParams[axes.unicode_minus] False # 用来正常显示负号环境准备好了接下来我们找一份数据开始实战。为了演示我们这里用pandas生成一份简单的模拟销售数据它包含了真实数据中常见的各种问题。# 生成一份有问题的模拟时序数据 np.random.seed(42) # 固定随机种子确保每次生成的数据一样 date_rng pd.date_range(start2023-01-01, end2023-01-31, freqD) # 生成1月份每天的日期 # 创建数据基本趋势 季节性波动 随机噪声 故意制造的问题 trend np.linspace(100, 150, len(date_rng)) seasonality 20 * np.sin(2 * np.pi * np.arange(len(date_rng)) / 7) # 每周周期 noise np.random.normal(0, 5, len(date_rng)) values trend seasonality noise # 创建DataFrame df_raw pd.DataFrame(date_rng, columns[timestamp]) df_raw[sales] values # 故意制造一些数据问题 # 1. 插入几个缺失值 (NaN) df_raw.loc[[5, 12, 20], sales] np.nan # 2. 插入几个明显的异常值 df_raw.loc[[8, 18], sales] [300, -10] # 3. 打乱顺序模拟原始数据乱序的情况 df_raw df_raw.sample(frac1, random_state42).reset_index(dropTrue) print(原始数据预览已打乱并有缺失、异常) print(df_raw.head(10)) print(f\n数据形状{df_raw.shape}) print(f‘sales’列缺失值数量{df_raw[sales].isnull().sum()})运行上面的代码你会得到一份看起来有点“糟糕”的数据顺序是乱的里面有些值是空的NaN还有两个数字300和-10明显和其他值不在一个量级。我们的任务就是把它变“漂亮”。2. 第一步数据清洗与规整拿到数据后别急着分析先给它“洗个澡”把明显的脏东西去掉并整理成标准的时序格式。2.1 排序与时间索引设置时间序列分析的前提是数据按时间顺序排列。我们首先要把数据按时间戳排序。# 确保‘timestamp’列是日期时间格式 df_raw[timestamp] pd.to_datetime(df_raw[timestamp]) # 按时间戳排序 df_cleaned df_raw.sort_values(bytimestamp).reset_index(dropTrue) print(按时间排序后的数据) print(df_cleaned.head())更关键的一步是把timestamp这一列设置为数据的索引。这样做的好处是pandas会知道这是一个时间序列后续的很多操作比如重采样、滑窗都会变得非常方便。df_cleaned.set_index(timestamp, inplaceTrue) print(设置时间索引后的数据前5行) print(df_cleaned.head()) print(f\n索引类型{type(df_cleaned.index)})2.2 处理缺失值数据中的“空洞”缺失值是时序分析的大敌。Granite TimeSeries FlowState R1模型通常要求输入是连续、完整的序列。我们有几种方法来填补这些空洞前向填充用缺失值前面的那个值来填充。适用于数据变化缓慢的场景。后向填充用缺失值后面的那个值来填充。线性插值用缺失值前后两个已知点连成一条直线用直线上的值来填充。这对具有趋势的数据比较友好。均值/中位数填充用整个序列的均值或中位数来填充。简单但可能引入偏差。对于我们的销售数据它有一定的趋势和周期性使用线性插值是个不错的选择。# 检查缺失值 print(f处理前缺失值数量{df_cleaned[sales].isnull().sum()}) # 使用线性插值法填充缺失值 df_cleaned[sales_filled] df_cleaned[sales].interpolate(methodlinear) # 如果序列开头或结尾有缺失interpolate可能填不了可以用邻近值填一下 df_cleaned[sales_filled] df_cleaned[sales_filled].fillna(methodbfill).fillna(methodffill) print(f处理后缺失值数量{df_cleaned[sales_filled].isnull().sum()}) print(df_cleaned[[sales, sales_filled]].head(15)) # 对比看下填充效果2.3 处理异常值异常值就是那些“不合群”的、远远偏离正常范围的数据点。比如我们数据里的300和-10。它们会严重扭曲数据的统计特性如均值、标准差进而影响模型学习到的规律。一个常用的简单方法是使用四分位距法来检测异常值。# 计算四分位数和IQR Q1 df_cleaned[sales_filled].quantile(0.25) Q3 df_cleaned[sales_filled].quantile(0.75) IQR Q3 - Q1 # 定义异常值的边界 lower_bound Q1 - 1.5 * IQR upper_bound Q3 1.5 * IQR print(fQ1 (25分位): {Q1:.2f}) print(fQ3 (75分位): {Q3:.2f}) print(fIQR: {IQR:.2f}) print(f正常值范围: [{lower_bound:.2f}, {upper_bound:.2f}]) # 识别异常值 outliers df_cleaned[(df_cleaned[sales_filled] lower_bound) | (df_cleaned[sales_filled] upper_bound)] print(f\n检测到的异常值数量{len(outliers)}) print(outliers[[sales_filled]])检测到异常值后我们同样需要处理它们。可以用中位数、前后值的均值或者直接用插值法来替换。# 将异常值标记为NaN然后用插值法替换一种处理方式 df_cleaned[sales_cleaned] df_cleaned[sales_filled].copy() df_cleaned.loc[outliers.index, sales_cleaned] np.nan df_cleaned[sales_cleaned] df_cleaned[sales_cleaned].interpolate(methodlinear) # 可视化对比 plt.figure(figsize(12, 6)) plt.plot(df_cleaned.index, df_cleaned[sales_filled], b-, alpha0.5, label填充后 (含异常)) plt.plot(df_cleaned.index, df_cleaned[sales_cleaned], r-, linewidth2, label清洗后) plt.scatter(outliers.index, outliers[sales_filled], colororange, s100, zorder5, label检测到的异常值) plt.axhline(yupper_bound, colorg, linestyle--, alpha0.7, label异常值边界) plt.axhline(ylower_bound, colorg, linestyle--, alpha0.7) plt.title(数据清洗前后对比) plt.xlabel(日期) plt.ylabel(销售额) plt.legend() plt.grid(True, alpha0.3) plt.show()现在我们的数据df_cleaned[‘sales_cleaned’]已经是一份干净、完整、按时间排序的序列了。可以进入下一步。3. 第二步特征工程与标准化干净的原始数据直接给模型用效果往往不好。我们需要做一些变换让数据更适合模型学习。3.1 数据标准化/归一化这是至关重要的一步。时间序列数据特别是多变量序列不同特征比如温度、压力、转速的量纲和数值范围可能差异巨大。标准化就是将数据按特征缩放到一个特定的区间如均值为0标准差为1可以加速模型收敛并提高预测稳定性。常用方法Z-Score标准化(x - mean) / std。适用于数据分布近似正态的情况。Min-Max归一化(x - min) / (max - min)。将数据缩放到[0, 1]区间。对于时序数据要特别注意我们不能用未来的数据信息比如整个序列的最大值来标准化过去的数据这会导致信息泄露。正确的做法是用训练集的数据计算标准化参数均值和标准差或最小最大值然后用这些参数去转换训练集和测试集。我们先演示对整个序列进行标准化假设这是训练集# 使用Z-Score标准化 scaler StandardScaler() # 注意fit_transform接受二维数组所以要用.values.reshape(-1, 1) scaled_values scaler.fit_transform(df_cleaned[[sales_cleaned]]) df_cleaned[sales_scaled] scaled_values # 或者使用Min-Max归一化 # scaler MinMaxScaler() # scaled_values scaler.fit_transform(df_cleaned[[sales_cleaned]]) # df_cleaned[sales_scaled] scaled_values print(标准化后的数据统计) print(f均值{df_cleaned[sales_scaled].mean():.6f}) print(f标准差{df_cleaned[sales_scaled].std():.6f}) print(df_cleaned[[sales_cleaned, sales_scaled]].head())3.2 构建时序特征可选但推荐除了原始数值我们还可以从时间戳中提取出有意义的特征帮助模型捕捉周期性规律。比如小时、星期几、月份捕捉日、周、年周期。是否周末、是否节假日捕捉特殊日期的模式。距离某个参考点的时间如距离序列开始的天数。# 从时间索引中提取特征 df_cleaned[hour] df_cleaned.index.hour # 本例是日数据小时都是0 df_cleaned[day_of_week] df_cleaned.index.dayofweek # 周一0, 周日6 df_cleaned[day_of_month] df_cleaned.index.day df_cleaned[month] df_cleaned.index.month df_cleaned[is_weekend] df_cleaned[day_of_week].apply(lambda x: 1 if x 5 else 0) print(添加了时间特征后的数据) print(df_cleaned[[sales_scaled, day_of_week, is_weekend]].head(10))如果你的数据是多元的多个传感器那么每个序列都需要单独进行清洗和标准化。最终所有特征标准化后的主序列和提取的时间特征会合并成一个多维特征矩阵作为模型的输入。4. 第三步构建模型输入序列滑窗采样Granite TimeSeries FlowState R1这类模型通常不是用一个单点数据做预测而是用过去连续一段时间的数据称为“历史窗口”或“lookback window”来预测未来一个或多个时间点的数据称为“预测窗口”或“forecast horizon”。这就需要我们把一条长的时间序列切成许多个连续的、有重叠的小片段。这个过程叫做滑窗采样。假设我们想用过去7天的数据历史窗口7来预测下1天的数据预测窗口1。def create_sliding_windows(data, window_size, horizon1): 为单变量时间序列创建滑窗样本。 参数: data: 一维数组标准化后的时间序列。 window_size: 历史窗口大小用多少个过去点。 horizon: 预测窗口大小预测未来几个点。 返回: X: 模型输入特征形状为 (样本数, window_size) y: 模型预测目标形状为 (样本数, horizon) X, y [], [] for i in range(len(data) - window_size - horizon 1): # 取过去window_size个点作为特征 X.append(data[i:(i window_size)]) # 取未来horizon个点作为目标 y.append(data[(i window_size):(i window_size horizon)]) return np.array(X), np.array(y) # 使用我们标准化后的销售额数据 series_data df_cleaned[sales_scaled].values window_size 7 # 看过去7天 horizon 1 # 预测未来1天 X, y create_sliding_windows(series_data, window_size, horizon) print(f原始序列长度: {len(series_data)}) print(f生成的样本数: {len(X)}) print(f每个样本X的形状历史窗口: {X.shape}) # 应该是 (样本数, 7) print(f每个样本y的形状预测目标: {y.shape}) # 应该是 (样本数, 1) # 查看第一个样本 print(\n第一个样本) print(f历史窗口 (X[0]): {X[0]}) print(f预测目标 (y[0]): {y[0]})对于多变量预测用多个特征预测一个或多个目标或者多步预测预测未来多个点y的构建方式会有所不同但滑窗的思想是一样的。X的维度会变成(样本数, 窗口大小, 特征数)。5. 第四步划分训练集与验证集我们不能用所有数据来训练必须留出一部分不参与训练用来评估模型在“没见过”的数据上的表现防止过拟合。对于时间序列绝对不能随机划分因为时间顺序是重要的因果关系。我们必须按时间顺序划分通常用前面的大部分数据做训练最后一部分数据做验证/测试。# 按时间顺序划分假设用80%的数据训练20%的数据验证 split_idx int(len(X) * 0.8) X_train, X_val X[:split_idx], X[split_idx:] y_train, y_val y[:split_idx], y[split_idx:] print(f训练集样本数: {X_train.shape[0]}) print(f验证集样本数: {X_val.shape[0]}) print(f特征维度: {X_train.shape[1:]})现在X_train和y_train就是可以喂给Granite TimeSeries FlowState R1模型的训练数据了X_val和y_val则用来验证模型效果。6. 总结与回顾走完这一整套流程我们再回头看其实时间序列数据预处理的核心逻辑非常清晰就像一条流水线原始杂乱数据 - 排序清洗 - 处理缺失异常 - 标准化 - 构建时序特征 - 滑窗切片 - 训练/验证集每一步都是为了解决一个具体问题排序是为了恢复时间因果清洗是为了保证数据质量标准化是为了让模型更好学滑窗是为了构建监督学习的样本。实际操作中有几个点需要特别留意 第一处理缺失值和异常值没有绝对最好的方法选择哪种方法取决于你的数据特性和业务背景。比如股票数据突然的暴涨暴跌可能不是异常值而是重要信号就不能简单剔除。 第二标准化一定要按正确的时间顺序进行用训练集的信息去转换验证集和测试集这是很多新手容易犯错的地方。 第三滑窗的窗口大小和预测步长是需要根据你的预测任务来调整的超参数。预测明天和预测下个月需要的窗口长度很可能不同。这套流程是一个坚实的基础模板。当你面对更复杂的数据比如多变量序列、不规则的采样频率、或者需要加入外部特征如天气、促销活动时都是在这个模板上进行扩展和调整。把数据预处理好了模型训练就成功了一大半。希望这篇保姆级的教程能帮你理顺思路下次再遇到时间序列数据可以自信地动手“收拾”它了。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

相关文章:

Granite TimeSeries FlowState R1模型数据预处理保姆级教程:从原始数据到模型输入

Granite TimeSeries FlowState R1模型数据预处理保姆级教程:从原始数据到模型输入 你是不是也遇到过这种情况?好不容易拿到一份时间序列数据,比如工厂设备的传感器读数、网站的每日访问量,或者股票的收盘价,兴冲冲地准…...

FLUX.2-klein-base-9b-nvfp4在网络安全中的应用:恶意图像样本的识别与净化转换

FLUX.2-klein-base-9b-nvfp4在网络安全中的应用:恶意图像样本的识别与净化转换 1. 引言 你有没有想过,一张看起来普普通通的图片,可能藏着不为人知的秘密?在网络安全的世界里,攻击者的手段越来越隐蔽,他们…...

Vue3并发请求Promise.allSettled的结果处理优化示例

原来的代码:// 发送网络请求获取数据 const fetchData async (id: number, workflowInstanceId: number, activityId: number) > {const currentId requestId;loading.value true;try {// 并发请求const [detailResult, fieldResult, auditResult] await Pro…...

保姆级SAM 3入门指南:上传图片输入英文,轻松实现物体识别分割

保姆级SAM 3入门指南:上传图片输入英文,轻松实现物体识别分割 你是不是经常遇到这样的场景?看到一张精美的图片,想单独提取出里面的某个物体,比如一只可爱的猫、一本书,或者一个特别的Logo。手动抠图&…...

音频信号处理核心算法解析:从AEC到DOA的技术全景

1. 音频算法:从“听清”到“听懂”的智能进化 你有没有遇到过这样的尴尬场景?开视频会议时,自己的声音从对方音箱里传出来,又回到自己耳机,形成刺耳的回声循环,逼得大家只能轮流发言。或者,在嘈…...

NB-IoT模组QS100开发环境搭建与SDK实战指南

1. 从零开始:认识你的QS100 NB-IoT模组 大家好,我是老张,在物联网这行摸爬滚打十来年了,从早期的2G模块玩到现在各种NB-IoT、Cat.1,踩过的坑比走过的路还多。今天咱们不聊虚的,就手把手带你搞定QS100这个模…...

C++刷题实战:如何高效解决卡片配对问题(附完整代码解析)

从双指针到问题抽象:C实战中的“配对求和”思维跃迁 最近在辅导几位准备技术面试的朋友时,我发现一个有趣的现象:很多人对“双指针”这个经典技巧的理解,还停留在“知道有这么个方法”的层面。当遇到像“找出数组中所有和为特定值…...

DeOldify多模型效果对比:与原版及主流上色工具横向评测

DeOldify多模型效果对比:与原版及主流上色工具横向评测 老照片承载着记忆,但褪色的黑白影像总让人觉得少了些什么。过去,给老照片上色是件专业且耗时的工作,需要艺术家凭借经验和想象。如今,借助AI技术,我…...

Mish激活函数改进YOLOv26平滑非线性映射与自正则化特性双重突破

Mish激活函数改进YOLOv26平滑非线性映射与自正则化特性双重突破 摘要 在深度学习目标检测领域,激活函数作为神经网络的核心非线性组件,直接影响模型的表达能力和收敛性能。本文提出基于Mish激活函数的YOLOv26改进方案,通过引入平滑、无上界…...

91行代码创意赛技术文章大纲

比赛背景与意义91行代码创意赛的起源与目标,强调简洁性与创新性比赛对开发者技能提升的促进作用往届优秀作品的启发与参考价值参赛准备明确比赛规则与提交要求,确保代码不超过91行选择适合的编程语言与开发环境构思项目创意,平衡功能性与代码…...

HY-MT1.5-1.8B效果展示:1.8B小模型翻译质量媲美大模型

HY-MT1.5-1.8B效果展示:1.8B小模型翻译质量媲美大模型 1. 引言:小身材,大能量 在机器翻译的世界里,大家似乎形成了一个共识:模型越大,翻译质量越好。为了追求那一点点分数的提升,模型的参数量…...

CH549/CH548硬件设计避坑指南:Type-C接口与电源电路实战解析

CH549/CH548硬件设计避坑指南:Type-C接口与电源电路实战解析 最近在几个基于CH549和CH548的项目中,我遇到了不少关于Type-C接口和电源设计的“坑”。这些微控制器本身功能强大,性价比高,但在硬件设计上,尤其是围绕USB …...

StarRocks Stream Load 事务接口:两阶段提交机制深度解析

1. 为什么你需要关心Stream Load事务接口? 如果你正在用StarRocks做实时数仓,或者想把Kafka、Flink里的数据稳定高效地灌进StarRocks,那你肯定遇到过这样的头疼事:数据怎么老重复?导入性能上不去怎么办?任务…...

C语言实战:变位词统计的高效算法与函数设计

1. 从一道OJ题说起:变位词统计的“暴力”解法与性能陷阱 很多C语言初学者,包括当年刚接触编程的我,在拿到类似NWAFU-OJ上这道“变位词统计”的题目时,第一反应往往是“这不难”。题目要求很明确:给你一个文本字符串和一…...

JQ8400语音播报模块实战:从硬件连接到自定义语音(附Arduino示例代码)

JQ8400语音播报模块实战:从硬件连接到自定义语音(附Arduino示例代码) 你是否曾想过,让一个简单的电子项目“开口说话”?无论是制作一个会报时的智能闹钟,一个在传感器触发时发出语音警告的安防设备&#xf…...

ChatGPT VSCode 插件开发实战:从零构建你的AI编程助手

最近在尝试各种AI编程工具时,我萌生了一个想法:为什么不自己动手,在每天最熟悉的VSCode编辑器里,打造一个专属的AI编程助手呢?这样既能深度定制功能,又能把ChatGPT的能力无缝嵌入到编码工作流中。经过一番摸…...

scrapy-docs-l10n

Scrapy 文档的本地化🎉 scrapy-docs-l10n 已发布! 🚀 预览翻译:https://projects.localizethedocs.org/scrapy-docs-l10n 🌐 Crowdin:https://localizethedocs.crowdin.com/scrapy-docs-l10n &#x1f4…...

告别“古典加密时代”:2026价值共识重构,Cber携CMC以“随心而易,资产无界”破局

时间推移至2026年,当我们翻开加密货币市场的最新数据时,一种强烈的“割裂感”扑面而来:一方面,比特币和以太坊的ETF在华尔街的推波助澜下屡创新高,机构资金如潮水般涌入,加密市场总市值突破了前所未有的天际…...

Flutter 组件 build_cli_annotations 的适配 鸿蒙Harmony 实战 - 驾驭注解驱动 CLI 生成、实现鸿蒙端参数自动化审计与命令行交互效能方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.csdn.net Flutter 组件 build_cli_annotations 的适配 鸿蒙Harmony 实战 - 驾驭注解驱动 CLI 生成、实现鸿蒙端参数自动化审计与命令行交互效能方案 前言 在鸿蒙(OpenHarmony&#xff0…...

Java从入门到精通(四):异常处理实战(Exception体系、全局处理与日志落地)

Java从入门到精通(四):异常处理实战(Exception体系、全局处理与日志落地)这是“Java从入门到精通”系列第4篇。前面我们讲了语法、面向对象、集合,这篇进入工程开发中最容易被忽略却最关键的一环&#xff1…...

工业软件中粗暴滤波 + 防漂移 + 防传感器突变的策略概述

工业软件中粗暴滤波 防漂移 防传感器突变的策略概述 在工业软件(如过程控制、传感器数据处理、自动化系统)中,传感器数据往往受到噪声、漂移(长期缓慢变化)和突变(尖峰或瞬变异常)的影响。这些…...

SpringBoot分层概念澄清 DTO、BO、VO

spring boot项目中: DTO就是前端到控制层 BO就是数据库到服务层 VO就是服务层到前端这样理解是否正确?在Spring Boot项目中,关于DTO、BO和VO的划分确实存在一些常见约定,但你的理解中有些地方需要进一步澄清。下面是对这些概念在典型分层架构…...

计算机毕业设计springboot汽车租赁系统 SpringBoot框架下智能车辆分时租赁与调度服务平台 基于Java Web的共享汽车在线预约与运维管理系统

计算机毕业设计springboot汽车租赁系统m9112h75(配套有源码 程序 mysql数据库 论文) 本套源码可以在文本联xi,先看具体系统功能演示视频领取,可分享源码参考。随着居民出行需求的多元化与共享经济的蓬勃发展,汽车租赁行业正从传统…...

【effective C++】条款四十四:将与参数无关的代码抽离 templates

文章目录Effective C 条款44:将与参数无关的代码抽离templates核心思想:对抗"代码膨胀"规则详解与示例规则1:不与造成膨胀的参数相依规则2:处理非类型参数造成的膨胀规则3:处理类型参数造成的膨胀优化带来的…...

【第二周】论文精读:REPLUG: Retrieval-Augmented Black-Box Language Models

前言:随着大语言模型(LLM)规模的爆炸式增长(如 GPT-3, Codex 等参数量超千亿的模型),它们大多以“黑盒”API 的形式提供服务,用户无法访问其内部参数或进行微调。这使得传统的检索增强方法&…...

Mybatis进阶(一)

一、MyBatis 基于接口代理方式实现 Dao 层开发1.1 介绍采用 Mybatis 的基于接口代理方式实现 持久层 的开发,这种方式是我们后面进入企业的主流。 基于接口代理方式的开发只需要程序员编写 Mapper 接口,Mybatis 框架会为我们动态生成实现类的对象。1.2 开…...

[协程]-[详解]-launch与async

launch作用构建一个协程, 直接返回Job使用// lifecycleScope 协程作用域 lifecycleScope.launch { // 启动一个父协程delay(10000) // 模拟任务耗时 }源码解析public fun CoroutineScope.launch(context: CoroutineContext EmptyCoroutineContext,start: CoroutineStart Coro…...

开发者在 CSDN 的“修行”过程

目录 第一阶段:踩坑与复盘(底层输出) 第二阶段:CSDN 发帖逻辑(流量密码) 第三阶段:高阶答疑(建立信任) 第四阶段:涨粉与影响力变现(全链路总结…...

采购报销-发票预制及过账 增强供应商应付按订单行

1、术语发票校验:采购发票是供应商开给购货单位,据以付款、记账、纳税的依据。参照采购订单和采购入库单,按内容、价格进行发票正确性检查。一张发票过帐时,系统在供货商帐中创建一个未清项目,然后由财务会计在支付中结…...

OpenClaw 小龙虾保姆级安装教程

OpenClaw 小龙虾保姆级安装教程 小白 10 分钟搞定本地部署(Windows 系统 - 接入飞书) 引言 OpenClaw 最近实在是太火了,很多人已经做起了上门安装 500 块一次的生意,甚至有人计算下来说,靠这门手艺有机会年收入百万…...