当前位置: 首页 > article >正文

腾讯版「龙虾」Workbuddy上线当天,我用它搭了一套行业情报日报系统

写在前面最近 AI 圈最火的词大概是「龙虾」。OpenClaw 掀起了一波桌面 AI Agent 的热潮——不再是聊天窗口里你一句我一句的问答而是让 AI 直接在你的电脑上干活操作文件、执行脚本、联网搜索、交付结果。3 月 9 日腾讯发布了 WorkBuddy被称为「腾讯版龙虾」。完全兼容 OpenClaw 的 Skills 技能体系但有一个关键差异不需要自己买服务器部署不需要自己购买 API token安装即用。如果你用企微1 分钟就能连上手机发条消息就能远程让它在办公电脑上干活。当晚我就下载试了。不是因为想写评测而是因为我手上正好有一个真实需求我需要一套系统每天自动帮我搜集全球数据平台行业的最新动态整理成一份结构化的情报简报推送到企微群。这个需求我已经用手动方式做了很久——每天花 30-40 分钟刷 Twitter、LinkedIn、各厂商博客和分析师报告再整理成笔记分享。WorkBuddy 上线当天我决定试试看用桌面 AI Agent 能不能把这件事自动化。结果是1 小时跑通了第一个可用版本1 天反复优化3 天后稳定运行。这篇文章完整记录整个搭建过程——怎么设计、怎么实现、踩了哪些坑、怎么解的。如果你也想用 AI Agent 搭一套自己行业的信息自动化系统这篇可以当一个实操参考。一、先看效果这份日报长什么样在讲怎么做之前先看产出物。每天早上 8 点一份《DataAI 全球日报》准时出现在我们的企微群里覆盖全球 10 大数据平台厂商、5 个板块、8-12 条高质量情报。推送方式推送分两步先发一条精简摘要Markdown 格式控制在 4096 字节内在企微内直接可读再发一份 HTML 完整版打开后是一份带精美排版、可点击来源链接的完整报告 为什么分两步企微 Webhook 单条消息限制 4096 字节注意是字节一个中文 3 字节但完整日报通常 8000 字符。这个限制在 Day 1 就把我教做人了后面会讲。内容结构每份日报严格按 5 个板块组织板块内容示例A. Top Signals当天最重大的 3 条行业动态 影响分析Gartner 峰会定调 AI FinOpsB. Product Tech4-6 条产品/技术更新只取一手信源Databricks Asset Bundles GAC. People Views关键人物的原始发言Snowflake CEO 谈 AI Agent 战略D. Analyst InsightsGartner/Forrester/IDC 研报核心数据44% 组织缺乏 AI FinOpsE. Watchlist值得持续跟踪但尚未定论的信号GTC 2026 推理加速每条信息都标注了一手信源链接。公开版除了企微群每期日报同时部署到 GitHub Pages https://haiyangchenbj.github.io/data-ai-daily/HTML 版本有蓝色渐变头部、卡片式板块布局和可点击的来源超链接阅读体验比企微内的 Markdown 好得多。二、为什么选 WorkBuddy搭这套系统需要 AI 工具同时具备三个能力。我来拆解一下选型逻辑也顺便说说 WorkBuddy 作为「腾讯版龙虾」和 OpenClaw 的异同。能力 1联网搜索 结构化输出日报的本质是信息搜集和整理。AI 必须能实时联网搜索而不是只靠训练数据回答问题。每次生成日报WorkBuddy 会执行 10 次搜索——中英文双语覆盖厂商官方博客、GitHub 仓库、分析师报告等信源——然后按我定义的模板结构化输出。能力 2本地文件操作整个系统涉及大量文件操作读取 JSON 配置文件、生成 MD 和 HTML 两种格式的日报、调用 Python 脚本推送。这要求 AI 能直接操作本地文件系统。WorkBuddy 作为桌面智能体可以读取授权文件夹、生成文件、执行脚本。能力 3多步骤任务链生成今日日报是一句话但实际包含 5 个步骤读取配置 → 联网搜索 → 生成内容 → 推送企微 → 部署 GitHub Pages。WorkBuddy 可以自主拆解和执行这个任务链。和 OpenClaw 的关系WorkBuddy 完全兼容 OpenClaw 的 Skills 技能体系。如果你之前给 OpenClaw 写过 Skill可以直接导入使用。不同的是部署门槛OpenClaw 需要自建服务器或购买 API tokenWorkBuddy 安装即用免费额度覆盖日常使用企业连接WorkBuddy 原生支持企微、飞书、钉钉1 分钟连上模型切换国内版支持混元、DeepSeek、Kimi 等模型无缝切换, 国外版基本上主流模型都在。对于我的场景来说安装即用 企微原生连接是决定性的。我不想为一个每天跑一次的日报系统维护一台服务器。三、核心设计一份 3000 字的「情报宪法」这套系统最核心的部分不是代码是一份 Prompt 配置文件。我把它叫做「情报宪法」daily-brief-config.json——它定义了 AI Agent 的所有行为准则。在做数据平台产品时我有一个强烈的认知系统的产出质量不取决于引擎多强大取决于规则定义得多清晰。同样的逻辑放到 AI Agent 上——模型是底座但产出取决于你给它的约束。下面展开说这份配置的几个关键设计。3.1 核心过滤原则core_filter: 每条信息必须能明确回答这会影响企业数据平台的 产品路线、架构设计、成本结构、治理方式、运维效率或 Agent 在 数据场景的落地吗如果不能明确回答是一律不纳入。这是整份配置里最重要的一条。没有它AI 会把每天铺天盖地的 AI 新闻全塞进来——大模型刷新 benchmark、创业公司融资——这些跟「数据平台」这个垂直领域无关。AI 不缺生成能力缺的是判断力。你的判断力需要通过 Prompt 注入 AI。3.2 排除规则光说数据平台优先不够必须明确告诉 AI 什么不碰exclusions: [ 纯 AI 新闻纯模型发布、纯 benchmark、纯消费级 AI 产品, 财经媒体的二手报道Bloomberg、36氪、虎嗅的转述和评论, 搬运号、标题党、无来源转述、无法验证的爆料 ]为什么排除财经媒体因为我只要一手信源。Databricks 发了什么我去看 Databricks 官方博客原文不看科技媒体的二手解读。这和做数据产品的逻辑一样——你宁可要一条干净的一手数据也不要十条加工过的二手数据。3.3 厂商优先级tier_1: [AWS, Google Cloud, Azure, Databricks, Snowflake, 阿里云, 腾讯云, 华为云, 火山引擎], tier_2: [Confluent, MongoDB, ClickHouse, dbt Labs, Fivetran], conditional: [NVIDIA, Intel, AMD]每次生成日报约执行 10 次联网搜索。不设优先级搜索资源会被分散到太多方向。分层之后确保头部厂商的重要动态不会被遗漏。3.4 信源标准accepted_sources: [ 官网、官方博客、Release Notes、GitHub 仓库, 论文原文、官方 Keynote, 创始人/CEO/CTO/核心开源 Maintainer 的原始发言, Gartner、Forrester、IDC 官方报告, PR Newswire/Business Wire 官方新闻稿 ], rejected_sources: [财经媒体、大众媒体的二手分析和转述]这套信源标准让同事说比付费信息服务都好用——因为很多付费服务也在搬运二手信息。3.5 时间窗口time_window: 严格只覆盖过去 24 小时内首次公开的信息。 原始发布日期早于窗口的即使刚被搜索引擎收录也不纳入。这条是踩坑后加的——Day 1 的日报混入了一周前的旧闻因为搜索引擎刚重新收录。加了这条规则后「新鲜度」大幅提升。四、技术实现完整搭建教程这一节是实操教程可以直接照着做。整个系统只需要2 个 Python 脚本 0 个第三方依赖。4.1 系统架构WorkBuddy │ ├── 读取 daily-brief-config.json情报宪法 │ ├── 执行 10 次联网搜索 │ ├── 厂商官方博客中英文双语 │ ├── GitHub 仓库 │ └── 分析师报告 │ ├── 生成文件 │ ├── DataAI全球日报_YYYY-MM-DD.md │ └── DataAI全球日报_YYYY-MM-DD.html │ └── 分发 ├── send_daily_v3.py → 企微群 └── deploy_to_github.py → GitHub Pages4.2 Step 1编写情报宪法创建daily-brief-config.json内容就是上一节讲的过滤规则、厂商分层、信源标准、输出模板。这是整个系统的灵魂花多少时间打磨都不过分。4.3 Step 2企微推送脚本send_daily_v3.py222 行全部用 Python 标准库urllib、json、re不需要pip install任何东西。核心逻辑 1——智能摘要提取def extract_summary_from_md(md_path): 保留日报骨架去掉详细内容控制在 4096 字节内 lines content.split(\n) summary_lines [] for line in lines: stripped line.strip() # 保留标题行 if stripped.startswith(# ): summary_lines.append(stripped) # 保留今日变化和总判断 if stripped.startswith(## 今日) or stripped.startswith( 总判断): summary_lines.append(stripped) # 保留板块标题 ## A. ~ ## E. if re.match(r^## [A-E]\., stripped): summary_lines.append(stripped) # 保留事件标题### 1. xxx if re.match(r^###\s\d\., stripped): summary_lines.append(stripped) # 硬性限制 summary \n.join(summary_lines) if len(summary.encode(utf-8)) 3900: summary summary[:3850] \n... (完整版见 HTML 文档) return summary这段代码的设计思路保留日报的「骨架」标题、板块名、事件标题去掉「肉」来源链接、详细分析确保精简版在企微字节限制内。核心逻辑 2——文件上传纯标准库实现def upload_file_to_wecom(filepath): 不用 requests用 urllib 手工构建 multipart/form-data boundary ----PythonBoundary7MA4YWxk filename os.path.basename(filepath) with open(filepath, rb) as f: file_data f.read() body ( f--{boundary}\r\n fContent-Disposition: form-data; namemedia; ffilename{filename}\r\n fContent-Type: application/octet-stream\r\n\r\n ).encode(utf-8) file_data f\r\n--{boundary}--\r\n.encode(utf-8) req urllib.request.Request(upload_url, databody) req.add_header(Content-Type, fmultipart/form-data; boundary{boundary}) resp urllib.request.urlopen(req) return json.loads(resp.read())[media_id]为什么不用requests因为这个脚本每天只跑一次生命周期可能很长。零依赖意味着在任何有 Python 的环境里都能直接跑——不用装包不用配环境不用担心版本冲突。对于「每天跑一次 长期运行」的脚本零依赖就是零维护。核心逻辑 3——两步推送# Step 1: 推送精简摘要 summary extract_summary_from_md(md_path) send_markdown_to_wecom(summary) # Step 2: 推送完整版 HTML 文件 media_id upload_file_to_wecom(html_path) send_file_to_wecom(media_id)4.4 Step 3GitHub Pages 部署脚本deploy_to_github.py198 行通过 GitHub API 将 HTML 日报部署到 GitHub Pages# 1. 读取 HTML 并 Base64 编码 encoded base64.b64encode(html_content.encode(utf-8)).decode(ascii) # 2. 上传到 index.html最新版覆盖写入 api_request(PUT, file_url, { message: fDeploy: DataAI daily {date_str}, content: encoded, sha: existing_sha, # 幂等更新先获取旧文件 SHA }) # 3. 同时归档到 archive/{date}.html历史版本 api_request(PUT, archive_url, { message: fArchive: {date_str}, content: encoded, }) # 4. 启用 GitHub Pages api_request(POST, pages_url, { source: {branch: main, path: /} })几个工程细节安全GitHub Token 从环境变量GITHUB_TOKEN读取不硬编码在脚本里幂等上传前先 GET 获取文件 SHA有则更新、无则创建重复执行不报错双重存储index.html始终是最新版archive/目录保留全部历史4.5 Step 4写一条 SOP 规则最后一步把完整流程写成一条 WorkBuddy 的 SOP 规则文件。以后只需要说一句生成今日报告AI 就会按标准流程执行全部 5 步。五、迭代实录1 小时 → 1 天 → 3 天这套系统不是规划出来的是跑出来的。第 1 小时跑通最小可用版WorkBuddy 上线当晚我把之前手动整理日报时积累的过滤规则写成了一份 JSON 配置文件也就是「情报宪法」的初版然后让 WorkBuddy 联网搜索并生成了第一份日报。Markdown 格式的日报生成出来后直接扔到企微——报错了。超过 4096 字节限制。临时方案手动截取前 3000 字符发送。虽然粗暴但至少跑通了「配置 → 搜索 → 生成 → 推送」的完整链路。这一步的意义不是产出有多好而是验证了「用桌面 AI Agent 搭日报系统」这条路走得通。Day 1解决三个阻塞性问题问题 1PowerShell 中文乱码最开始用 PowerShell 调企微 Webhook群里收到的全是乱码。原因PowerShell 默认编码不是 UTF-8。折腾半小时后切换 Python一行# -*- coding: utf-8 -*-解决。问题 2消息长度限制这个问题倒逼出了后来被证明体验更好的方案——「摘要 完整版」双推策略。先发精简摘要企微内直接可读再传 HTML 完整版精美排版 超链接。实际使用中发现大多数人只看摘要就够了想深入了解的再打开 HTML。问题 3过旧信息混入第一版日报混进了一周前的 Databricks 旧闻——搜索引擎会重新收录旧页面。在 Prompt 里加了严格的 24 小时时间窗口后解决。Day 2从「能用」到「有用」新增 D 板块分析师洞察把 Gartner、Forrester 的数据单独成板块日报从搬运新闻升级成情报分析写了自动摘要提取函数替代 Day 1 的手动截取保证摘要保留所有事件标题GitHub Pages 上线写了deploy_to_github.py一行命令部署到公开网站方便分享给外部同行Day 3从「有用」到「稳定可复用」修复摘要提取 Bug函数不识别### 数字.格式的三级标题导致摘要丢失事件标题。排查后补了一条正则流程标准化把五步操作写成 SOP 规则文件以后一句生成今日报告触发全流程质量稳定连续推送 3 天同事反馈信息覆盖度和信源质量稳定没有再出现过旧信息混入的问题六、几点设计思考做完这套系统技术层面其实没什么难的——代码总共不到 600 行。但过程中有几个认知层面的收获觉得值得分享。1. 定义问题 解决问题整个系统里我花最多时间的不是写代码是打磨那份 3000 字的 Prompt 配置。什么值得关注什么要排除信源标准怎么定时间窗口怎么设这些「定义问题」的工作才是核心。如果你做过数据产品对这一点会有共鸣平台的价值不在引擎多快在规则定义得多好。2. AI 擅长执行判断力需要你来注入AI 可以在 3 分钟内搜索 10 个信源、生成 8000 字结构化报告。但如果你不设过滤规则它会把搜到的东西全塞进来。排除规则写得越细产出质量越高。这不是 AI 的缺陷这是协作方式。你提供判断力AI 提供执行力。3. 桌面 Agent 的真正价值缩短从「想法」到「跑通」的路径过去做类似的自动化项目光是搭建环境、调试 API、处理依赖就要花半天。WorkBuddy 这类桌面 Agent 工具把这个过程压缩到了小时级——我从动手到跑通第一个版本只花了 1 小时。不是因为技术变简单了而是因为大量中间步骤被 Agent 代劳了。你只需要描述意图、定义规则、审核产出。在我之前的文章里讨论过 AI Agent 如何重塑企业数据平台。那篇是从行业视角看趋势。这次是亲自下场用一个具体项目验证了一个判断Agent 改变的不是能力边界而是人与系统的协作方式。七、复用指南搭你自己行业的日报这套方案的技术门槛不高核心逻辑可以迁移到任何垂直领域。你需要一个支持联网搜索 本地文件操作的 AI Agent我用的 WorkBuddyOpenClaw 或其他类似工具也行一份 Prompt 配置文件你的行业版「情报宪法」两个 Python 脚本推送 部署总共不到 400 行全部在本文中给出了核心代码把数据平台替换成你关心的领域——AI 基础设施、半导体、新能源、生物医药——方法论是一样的明确覆盖范围你关心哪些厂商/信源 ↓ 定义排除规则什么不要 ↓ 规定信源标准只要一手 ↓ 设定输出模板结构化、可行动 ↓ 自动化分发推送到你的消费场景可以先从最简单的开始——写一份你所在行业的「情报宪法」让 AI 每天帮你搜索和整理发到你的群里或笔记里。有了初版再迭代比从零规划要快得多。八、下一步目前系统还是半自动——每天需要手动说一句生成今日报告来触发。接下来计划接入 Windows 任务计划程序实现全自动定时触发3月12日更新后在Automation已实现增加日报质量评分信息覆盖率、信源多样性、时效性开发周报自动汇总——把 5 天日报聚合成一份周度趋势分析探索语音版日报通勤路上听如果你有类似的想法或已经在做了欢迎交流。写在最后回看整个过程真正花时间的不是写代码——代码不到 600 行。而是想清楚「什么值得关注、什么不值得关注」——这个判断力是 AI 替代不了的也是行业认知的一部分。桌面 AI Agent 正在成为一种新的生产力工具。OpenClaw 开了头WorkBuddy 降低了门槛。但工具本身不是壁垒你对自己所在领域的理解才是。 日报公开地址https://haiyangchenbj.github.io/data-ai-daily/欢迎围观也欢迎提建议。WorkBuddy 由腾讯于 2026 年 3 月 9 日正式发布目前可在官网免费下载使用。新用户注册送 5000 Credits无门槛https://www.codebuddy.cn/profile/usage也可直接到GitHub下载使用https://github.com/haiyangchenbj/data-ai-daily-brief-skill本文仅为基于个人使用经验的记录分享。✍️ 科里笔记 Coralyx NotesWritten by 科里Coralyx发表于「边界层」

相关文章:

腾讯版「龙虾」Workbuddy上线当天,我用它搭了一套行业情报日报系统

写在前面最近 AI 圈最火的词大概是「龙虾」。OpenClaw 掀起了一波桌面 AI Agent 的热潮——不再是聊天窗口里你一句我一句的问答,而是让 AI 直接在你的电脑上干活:操作文件、执行脚本、联网搜索、交付结果。3 月 9 日,腾讯发布了 WorkBuddy&a…...

论文AI痕迹怎么消除?2026年最值得用的降AI率软件推荐

论文AI痕迹怎么消除?2026年最值得用的降AI率软件推荐 论文中的AI痕迹怎么才能消除干净?本文从AIGC检测原理出发,推荐2026年最值得使用的降AI率软件,附详细使用教程和效果对比。 论文AI痕迹怎么消除?2026年最值得用的降…...

数字临终关怀测试:临终病人AI陪伴系统的伦理边界‌

AI临终关怀系统的测试伦理新边疆随着人工智能技术在临终关怀领域的加速渗透,AI陪伴系统通过模拟逝者语音、分析患者情绪,提供情感支持,成为医疗数字化的重要应用。然而,这类系统涉及敏感生命数据与伦理决策,对软件测试…...

苹果公司称其即将到来的50周年庆典献礼是用户

就在苹果公司上周重大产品发布后不久,苹果公司CEO蒂姆库克分享了一封信函,纪念苹果公司成立50周年(1976年4月1日)这一即将到来的里程碑。看到苹果公司努力应对周年纪念这一概念确实很奇怪。这通常不是该公司的做法,因为…...

拒绝“镜像裸奔”:深度剖析 ACR 私有仓库鉴权机制与本地排障实战

🛡️ 拒绝“镜像裸奔”:深度剖析 ACR 私有仓库鉴权机制与本地排障实战 在云原生开发中,容器镜像仓库(如阿里云 ACR)是我们存放核心业务代码的“金库”。然而,很多开发者在将仓库状态改为 【私有 (Private)…...

2026年热门降AI率工具推荐!一键消除AI痕迹+稳过检测

2026年热门降AI率工具推荐!一键消除AI痕迹稳过检测 又到论文集中提交、自媒体内容批量产出的时间段,不少同学和创作者都在为一件事头疼:AI生成痕迹太重,内容被平台判定为低质量,要么论文打回修改,要么自媒体…...

图表替代文字降AI率不会?看完这篇5分钟学会

图表替代文字降AI率,这个思路我用了快三个月才真正摸清楚门道。一开始只知道「AI率高了」,然后满篇改词换句,改完检测还是62%。后来有人告诉我,先把能换成图表的内容换掉,再上工具处理剩下的文字,AI率一次就…...

JS中的Set 核心认知

1. Set基础用法Set 是 ES6 新增的集合类型,核心特点是:存储唯一值(无重复元素),元素可以是任意类型(基本类型 / 引用类型),且遍历顺序与插入顺序一致。你可以把它理解为:…...

xtuoj矩形

这道题的思路是:1.将数据排序、去重、统计次数2.分为正方形和普通矩形处理,其中普通矩形处理运用了二分求解的思想,通过枚举每一条边x,找到其对应的上值maxy与下值miny,则对这一x满足条件的y也就是矩形个数有right-lef…...

大数据管理与应用如何结合?做好大数据管理与应用五大步骤

面对电脑里堆积如山的销售记录、用户反馈,你是不是觉得头疼,不知从哪里看起?心里清楚这些数字有用,却不知道怎么让它发挥作用? 大数据管理与应用脱节,是很多企业实际遇到的问题。大数据管理是基础工作&…...

结合之前对 **SSE流式输出** 和 **多智能体编排** 的探索,现在我们来深入 **异步任务处理**

结合你之前对 SSE流式输出 和 多智能体编排 的探索,现在我们来深入 异步任务处理。这是构建高性能AI应用的关键技术,特别是在处理长时间运行的代码生成任务时。 一、为什么需要异步任务处理? 同步 vs 异步对比 #mermaid-svg-ZNiJHP02TGpa4eEa{font-family:"trebuchet…...

【独家原创】基于(BO)Bayes-Transformer多变量时序预测(多输入单输出)附Matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长毕业设计辅导、数学建模、数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。🍎 往期回顾关注个人主页:Matlab科研工作室👇 关注我领取海量matlab电子书和…...

python-flask大学生二手电子数码产品交易平台设计与实现 _39qu9

目录实现计划概述需求分析技术选型功能模块设计数据库设计前后端开发测试与部署扩展功能建议项目技术支持可定制开发之功能创新亮点源码获取详细视频演示 :文章底部获取博主联系方式!同行可合作实现计划概述 开发一个基于Python-Flask的大学生二手电子数…...

复杂三维山地环境下小龙虾优化算法COA求解多无人机动态避障路径规划研究,MATLAB代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长毕业设计辅导、数学建模、数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。🍎 往期回顾关注个人主页:Matlab科研工作室👇 关注我领取海量matlab电子书和…...

动静态库原理与ELF文件详解

1. 什么是库 所有的库,本质都是源文件对应的 .o 文件动静态库中不要包含 main 函数静态库: .a[linux]、.lib[windows]动态库:.so[linux]、.dll[windows] 2. 静态库 静态库(.a):程序在链接的时候把代码链接到可执行文件中&#xff…...

【路径规划】基于时空A星算法求解带时间约束的多机器人路径规划问题附matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长毕业设计辅导、数学建模、数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。🍎 往期回顾关注个人主页:Matlab科研工作室👇 关注我领取海量matlab电子书和…...

server.impl.ts 文件分析

server.impl.ts 文件分析 文件概述 server.impl.ts 是 OpenClaw 项目的网关服务器实现文件,负责启动和管理整个网关服务。它包含了网关服务器的核心功能,如配置加载、认证授权、通道管理、WebSocket 服务器、插件系统、健康监控等。 文件结构与功能分析 详细注释 import…...

[测试] Phase 1 Notion Draft

新一轮技术发布潮已然到来,工程团队在实际落地过程中遇到的事故与挑战成为关注焦点。近期多个新框架和开源工具陆续上线,开发者们在真实环境下进行了深度实测,结果令人深思。 技术发布背后的工程事故 在某次新框架发布后,团队迅速…...

Spring Boot 3.x 集成 AI 智能体实战

Spring Boot 3.x 集成 AI 智能体实战 本文介绍如何使用 Spring Boot 3.x 构建 AI 智能体应用,涵盖核心概念和详细实战步骤,帮助开发者快速上手智能体开发。 核心概念 Spring Boot 3.x:最新的 Spring Boot 版本,支持现代化开发特性…...

【第10篇】Mamba 100篇合集 · 从入门到天花板

【第10篇】Mamba 100篇合集 从入门到天花板 副标题:从技术到战略:Mamba 为何能成为 AI 换道超车的核心? 作者:华夏之光永存 专栏:Mamba 100篇全集 从入门到道级天花板 卷属:第一卷 入门篇(第…...

TCL发布会解析:Q9M Pro领衔,T7M系列双星登场,163吋Micro LED双曜压轴

3月17日,“当技术站上巅峰 普惠才有力量”2026 TCL SQD-Mini LED电视春季新品发布会隆重举行,TCL重磅推出Q9M Pro、T7M Pro、T7M Ultra、Max163M Pro、Max163M等一系列王炸级电视新品。其中,Q9M Pro、T7M Pro以及T7M Ultra系列的上市&#xf…...

某国赛CTF逆向题目Writeup:re2

目录脱壳第一层EXE第二层EXEFLAG脱壳 010打开 UPX改了特征码,版本5.1.0 直接拖到ida分析不出来 这里我们选择动态调试脱壳,先找OEP,f9运行到入口 触发TLS回调函数断点,停在了ret上 64位UPX壳中不会用一个明显的跨段jmp指令跳…...

深度拆解DeFi经典漏洞案例,Sonne Finance Exploit

在 DeFi 安全事件中,发生在 Sonne Finance上的漏洞非常具有研究价值。攻击者并没有利用传统的重入漏洞或闪电贷操纵,而是利用 借贷协议中“利率与份额计算的精度错误”,最终在几笔交易中抽走约 2000 万美元资产。这类漏洞本质属于 share acco…...

百度文库免vip下载文档_百度文库vip兑换码

这个还是我朋友给我说的一个工具,可以直接下载文档。也不需要登录会员。给大家看一下。方法在这:点我去下载 这个就是测试下载的文档,还是不错的。大家有需要可以去试试看 今日密码在这...

DevSecOps平台建设之Vue3可视化和代码示例

这是我们结合的一份关于Vue3基础理论知识和代码案例的开发教程 Vue2 和 Vue3 最根本的区别在于响应式系统的实现方式,这一变化解决了 Vue2 在数据监听方面的诸多局限性。 Vue2 的 Object.defineProperty 实现 Vue2 使用 Object.defineProperty 来实现响应式系统&…...

免费查AI率的网站有哪些?这3个亲测靠谱

免费查AI率的网站有哪些?这3个亲测靠谱 上周帮室友改论文,她用DeepSeek写了一章文献综述,结果学校预检AI率直接飙到60%多。她问我有没有免费查AI率的地方,想先自己测一下到底哪些段落被标红了。 说实话,现在网上搜&quo…...

南昌本地靠谱的整木定制公司

在南昌,随着人们生活品质的提高,对于家居装修的要求也越来越高,整木定制成为了许多别墅、大平层和高端住宅业主的首选。然而,市场上的整木定制公司众多,如何选择一家靠谱的公司成为了一个难题。今天,就为大…...

记忆函数 II 题解

题目链接 2630. 记忆函数 II - 力扣(LeetCode) 思路 题目所提到 相等才给出缓存的结果,那么我们用 hash 的想法,给每个参数记录下来 对于简单数据类型 —— 值相等 ,类型相等即可 对于复杂数据类型 —— 需要是指…...

2026年,绿壳蛋为何成为餐桌新宠?揭秘专业生产背后的品质坚守

清晨,当你敲开一枚温润如玉的绿壳蛋,看着橙黄透亮的蛋黄在平锅中慢慢凝固,或许不会想到,这枚小小的鸡蛋背后,是一场从田间到餐桌的现代农业品质革命。近年来,绿壳蛋以其独特的营养价值与生态概念&#xff0…...

【MinerU】技术深度解析:开源PDF文档智能提取的利器

文章目录MinerU技术深度解析:开源PDF文档智能提取的利器一、引言二、核心功能特性2.1 智能内容提取2.2 高精度识别能力2.3 技术优势三、技术架构解析3.1 整体架构3.2 核心技术栈3.2.1 PDF-Extract-Kit3.2.2 多后端支持3.3 处理流程详解步骤1:文档类型检测…...