当前位置: 首页 > article >正文

小红书数据采集终极指南:Python实战与完整解决方案

小红书数据采集终极指南Python实战与完整解决方案【免费下载链接】xhs基于小红书 Web 端进行的请求封装。https://reajason.github.io/xhs/项目地址: https://gitcode.com/gh_mirrors/xh/xhs在小红书内容运营和数据分析领域获取高质量数据是优化策略的关键。xhs是一个基于小红书Web端请求封装的Python库为开发者提供了高效、稳定的数据采集能力。本文将深度解析如何利用xhs库进行小红书数据采集涵盖从环境搭建到实战应用的完整流程帮助您构建专业的数据采集系统。 核心功能概览xhs库能做什么xhs库提供了丰富的小红书数据接口主要功能包括笔记数据获取获取笔记详情、评论、点赞等互动数据用户信息采集获取用户资料、发布笔记、收藏和点赞记录搜索功能支持关键词搜索、话题搜索等创作者中心获取创作者相关的数据统计反爬虫处理内置签名机制应对平台反爬策略 技术架构对比功能维度xhs库方案传统爬虫方案官方API方案开发成本中等Python库高需从头开发低但申请复杂稳定性高持续维护低易被封禁最高数据完整性高覆盖主要接口视开发能力而定有限有调用限制合规性中等需注意频率低易违规最高更新频率及时社区维护需自行维护官方更新 快速开始环境搭建与基础使用安装与配置首先安装xhs库及其依赖# 安装xhs库 pip install xhs # 安装playwright用于签名 pip install playwright playwright install # 下载反检测脚本 curl -O https://cdn.jsdelivr.net/gh/requireCool/stealth.min.js/stealth.min.js基础示例获取笔记详情from xhs import XhsClient, help import datetime import json # 初始化客户端需要有效的cookie cookie your_cookie_here xhs_client XhsClient(cookie) # 获取笔记详情 note_id 6505318c000000001f03c5a6 xsec_token your_xsec_token note xhs_client.get_note_by_id(note_id, xsec_token) # 提取图片URL image_urls help.get_imgs_url_from_note(note) print(f笔记标题{note.get(title)}) print(f图片数量{len(image_urls)})️ 签名机制应对反爬的核心技术小红书采用了复杂的签名机制来防止自动化请求xhs库通过playwright模拟浏览器环境来获取有效签名。签名服务部署方案对于生产环境建议部署独立的签名服务# 签名服务端示例 from flask import Flask, request from playwright.sync_api import sync_playwright import time app Flask(__name__) def init_browser(): playwright sync_playwright().start() browser playwright.chromium.launch(headlessTrue) context browser.new_context() page context.new_page() page.goto(https://www.xiaohongshu.com) return page app.route(/sign, methods[POST]) def sign_endpoint(): data request.json # 调用浏览器环境进行签名 result page.evaluate(([url, data]) window._webmsxyw(url, data), [data[uri], data[data]]) return {x-s: result[X-s], x-t: str(result[X-t])}多账号签名管理# 多账号签名管理策略 class SignManager: def __init__(self): self.sign_services { account1: http://localhost:5001/sign, account2: http://localhost:5002/sign } def get_signature(self, account, uri, data): # 轮询使用不同签名服务 service_url self.sign_services[account] response requests.post(service_url, json{uri: uri, data: data}) return response.json() 实战应用构建完整的数据采集系统1. 用户数据采集系统class UserDataCollector: def __init__(self, xhs_client): self.client xhs_client def collect_user_profile(self, user_id): 采集用户基本信息 profile self.client.get_user_info(user_id) return { user_id: user_id, nickname: profile.get(nickname), fans_count: profile.get(fans_count), notes_count: profile.get(notes_count), likes_count: profile.get(likes_count) } def collect_user_notes(self, user_id, limit100): 采集用户发布的所有笔记 all_notes [] cursor while len(all_notes) limit: notes_data self.client.get_user_notes(user_id, cursorcursor) notes notes_data.get(notes, []) all_notes.extend(notes) if not notes_data.get(has_more, False): break cursor notes_data.get(cursor, ) # 控制请求频率 time.sleep(1) return all_notes[:limit]2. 竞品监控系统class CompetitorMonitor: def __init__(self, competitor_ids): self.competitors competitor_ids self.data_store {} def daily_monitoring(self): 每日竞品数据监控 daily_report {} for competitor_id in self.competitors: # 获取基础数据 profile self.client.get_user_info(competitor_id) notes self.client.get_user_all_notes(competitor_id) # 计算关键指标 metrics self.calculate_metrics(notes) daily_report[competitor_id] { profile: profile, metrics: metrics, timestamp: datetime.now().isoformat() } # 存储到数据库 self.save_to_database(competitor_id, daily_report[competitor_id]) return daily_report def calculate_metrics(self, notes): 计算互动指标 total_likes sum(note.get(likes, 0) for note in notes) total_collects sum(note.get(collects, 0) for note in notes) total_comments sum(note.get(comments, 0) for note in notes) return { avg_likes: total_likes / len(notes) if notes else 0, avg_collects: total_collects / len(notes) if notes else 0, avg_comments: total_comments / len(notes) if notes else 0, engagement_rate: (total_likes total_collects total_comments) / len(notes) if notes else 0 }3. 内容趋势分析系统class ContentTrendAnalyzer: def analyze_trends_by_keyword(self, keyword, days7): 分析关键词趋势 trends_data [] for i in range(days): date datetime.now() - timedelta(daysi) notes self.client.get_note_by_keyword( keywordkeyword, sortgeneral, page1 ) daily_stats { date: date.strftime(%Y-%m-%d), total_notes: len(notes), avg_likes: self.calculate_avg(notes, likes), avg_comments: self.calculate_avg(notes, comments), hot_topics: self.extract_topics(notes) } trends_data.append(daily_stats) return trends_data def extract_topics(self, notes): 提取热门话题标签 from collections import Counter all_tags [] for note in notes: tags note.get(tag_list, []) all_tags.extend([tag.get(name) for tag in tags if tag.get(name)]) return Counter(all_tags).most_common(10) 高级配置与优化策略请求频率控制class RateLimitedClient: def __init__(self, xhs_client, requests_per_minute30): self.client xhs_client self.rate_limit requests_per_minute self.request_times [] def make_request(self, method, *args, **kwargs): # 控制请求频率 self.wait_if_needed() # 记录请求时间 self.request_times.append(time.time()) # 清理过期记录 current_time time.time() self.request_times [t for t in self.request_times if current_time - t 60] return method(*args, **kwargs) def wait_if_needed(self): if len(self.request_times) self.rate_limit: oldest_time self.request_times[0] wait_time 60 - (time.time() - oldest_time) if wait_time 0: time.sleep(wait_time)错误处理与重试机制class ResilientDataCollector: def __init__(self, max_retries3, backoff_factor2): self.max_retries max_retries self.backoff_factor backoff_factor def collect_with_retry(self, collect_func, *args, **kwargs): 带重试机制的数据采集 for attempt in range(self.max_retries): try: return collect_func(*args, **kwargs) except Exception as e: if attempt self.max_retries - 1: raise # 指数退避 wait_time self.backoff_factor ** attempt print(f请求失败{wait_time}秒后重试... 错误: {str(e)}) time.sleep(wait_time) 数据存储与处理流程数据存储方案import sqlite3 import json from datetime import datetime class DataStorage: def __init__(self, db_pathxhs_data.db): self.conn sqlite3.connect(db_path) self.create_tables() def create_tables(self): 创建数据表 tables [ CREATE TABLE IF NOT EXISTS notes ( note_id TEXT PRIMARY KEY, user_id TEXT, title TEXT, content TEXT, likes INTEGER, collects INTEGER, comments INTEGER, create_time TIMESTAMP, raw_data TEXT, created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP ) , CREATE TABLE IF NOT EXISTS users ( user_id TEXT PRIMARY KEY, nickname TEXT, fans_count INTEGER, notes_count INTEGER, collected_at TIMESTAMP ) ] for table_sql in tables: self.conn.execute(table_sql) self.conn.commit() def save_note(self, note_data): 保存笔记数据 sql INSERT OR REPLACE INTO notes (note_id, user_id, title, content, likes, collects, comments, create_time, raw_data) VALUES (?, ?, ?, ?, ?, ?, ?, ?, ?) self.conn.execute(sql, ( note_data.get(id), note_data.get(user_id), note_data.get(title), note_data.get(desc), note_data.get(likes, 0), note_data.get(collects, 0), note_data.get(comments, 0), datetime.fromtimestamp(note_data.get(time, 0)), json.dumps(note_data, ensure_asciiFalse) )) self.conn.commit()数据清洗与标准化class DataProcessor: def clean_note_data(self, raw_note): 清洗笔记数据 cleaned { note_id: raw_note.get(id), title: self.clean_text(raw_note.get(title, )), content: self.clean_text(raw_note.get(desc, )), user_info: self.extract_user_info(raw_note), interaction: self.calculate_interaction_score(raw_note), tags: self.extract_tags(raw_note), media_info: self.extract_media_info(raw_note) } return cleaned def clean_text(self, text): 清理文本内容 import re # 移除多余空格和换行 text re.sub(r\s, , text).strip() # 移除特殊字符但保留中文和基本标点 text re.sub(r[^\w\u4e00-\u9fff\s.,!?;:。], , text) return text 合规指南与最佳实践合规采集原则尊重robots协议遵守小红书的robots.txt规定控制请求频率建议每秒不超过1个请求每日总量控制在合理范围避免隐私数据不采集用户手机号、邮箱等隐私信息明确使用目的数据仅用于个人学习或研究分析设置User-Agent使用合理的User-Agent标识风险规避策略class SafeCollector: def __init__(self): self.request_count 0 self.last_request_time time.time() def safe_request(self, request_func): 安全请求包装器 # 检查请求频率 current_time time.time() if current_time - self.last_request_time 1.0: time.sleep(1.0 - (current_time - self.last_request_time)) # 限制每日请求量 if self.request_count 10000: print(已达到每日请求限制暂停采集) return None try: result request_func() self.request_count 1 self.last_request_time time.time() return result except Exception as e: print(f请求失败: {str(e)}) # 遇到错误时增加等待时间 time.sleep(5) return None 性能优化建议1. 并发处理优化import concurrent.futures from typing import List class ConcurrentCollector: def collect_multiple_notes(self, note_ids: List[str], max_workers5): 并发采集多个笔记 results {} with concurrent.futures.ThreadPoolExecutor(max_workersmax_workers) as executor: future_to_note { executor.submit(self.client.get_note_by_id, note_id, xsec_token): note_id for note_id in note_ids } for future in concurrent.futures.as_completed(future_to_note): note_id future_to_note[future] try: results[note_id] future.result() except Exception as e: print(f采集笔记 {note_id} 失败: {str(e)}) results[note_id] None return results2. 缓存策略import hashlib import pickle from functools import lru_cache class CachedClient: def __init__(self, cache_dir.cache): self.cache_dir cache_dir os.makedirs(cache_dir, exist_okTrue) lru_cache(maxsize1000) def get_note_with_cache(self, note_id, xsec_token): 带缓存的笔记获取 cache_key self.generate_cache_key(note, note_id) cache_file os.path.join(self.cache_dir, cache_key) # 检查缓存是否存在且未过期1小时 if os.path.exists(cache_file): file_age time.time() - os.path.getmtime(cache_file) if file_age 3600: # 1小时缓存 with open(cache_file, rb) as f: return pickle.load(f) # 获取新数据 note self.client.get_note_by_id(note_id, xsec_token) # 保存到缓存 with open(cache_file, wb) as f: pickle.dump(note, f) return note def generate_cache_key(self, data_type, identifier): 生成缓存键 return hashlib.md5(f{data_type}_{identifier}.encode()).hexdigest() 实际应用场景示例场景一内容运营分析class ContentOperationAnalyzer: def analyze_content_performance(self, user_id, days30): 分析内容运营效果 notes self.get_recent_notes(user_id, days) analysis { total_notes: len(notes), total_interactions: self.sum_interactions(notes), avg_engagement_rate: self.calculate_engagement_rate(notes), best_performing_notes: self.get_top_notes(notes, limit5), content_categories: self.analyze_content_categories(notes), publishing_pattern: self.analyze_publishing_pattern(notes) } return analysis def get_recent_notes(self, user_id, days): 获取最近发布的笔记 all_notes self.client.get_user_all_notes(user_id) cutoff_date datetime.now() - timedelta(daysdays) recent_notes [] for note in all_notes: note_time datetime.fromtimestamp(note.get(time, 0)) if note_time cutoff_date: recent_notes.append(note) return recent_notes场景二竞品对标分析class CompetitorBenchmark: def benchmark_against_competitors(self, main_account, competitors): 与竞品对标分析 benchmark_data {} # 获取主账号数据 main_data self.get_account_metrics(main_account) benchmark_data[main_account] main_data # 获取竞品数据 for competitor in competitors: competitor_data self.get_account_metrics(competitor) benchmark_data[competitor] competitor_data # 计算差距 gap_analysis self.calculate_gap(main_data, competitor_data) benchmark_data[f{competitor}_gap] gap_analysis return benchmark_data def get_account_metrics(self, user_id): 获取账号核心指标 profile self.client.get_user_info(user_id) notes self.client.get_user_all_notes(user_id) return { fans_growth_rate: self.calculate_growth_rate(profile), content_engagement: self.calculate_engagement(notes), content_consistency: self.calculate_consistency(notes), top_content_performance: self.get_top_content(notes) } 总结与建议实施建议分阶段实施从小规模测试开始逐步扩大采集范围监控与调整实时监控采集效果及时调整策略数据质量优先确保数据准确性比数据量更重要合规性检查定期检查采集行为是否符合平台政策常见问题解决签名失败检查cookie有效性确保a1字段正确请求频率限制增加请求间隔使用多IP轮换数据不完整检查网络连接确认参数正确性性能问题优化代码结构使用缓存和并发处理通过本文介绍的完整方案您可以构建一个稳定、高效、合规的小红书数据采集系统。xhs库提供了强大的基础功能结合合理的架构设计和优化策略可以满足从个人研究到企业级应用的各种需求。核心要点回顾xhs库提供了完整的小红书数据接口签名机制是关键建议部署独立签名服务控制请求频率遵守平台规则数据清洗和存储是价值提取的关键环节结合实际业务需求设计采集策略通过合理使用xhs库您可以高效获取小红书数据为内容运营、竞品分析、市场研究等场景提供有力支持。【免费下载链接】xhs基于小红书 Web 端进行的请求封装。https://reajason.github.io/xhs/项目地址: https://gitcode.com/gh_mirrors/xh/xhs创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

相关文章:

小红书数据采集终极指南:Python实战与完整解决方案

小红书数据采集终极指南:Python实战与完整解决方案 【免费下载链接】xhs 基于小红书 Web 端进行的请求封装。https://reajason.github.io/xhs/ 项目地址: https://gitcode.com/gh_mirrors/xh/xhs 在小红书内容运营和数据分析领域,获取高质量数据是…...

KromHC技术:基于Kronecker积的深度学习参数优化方法

1. 技术背景与核心价值 在深度学习模型架构设计中,参数连接方式直接影响模型的表达能力和计算效率。传统全连接层虽然具有强大的特征组合能力,但存在参数量爆炸、容易过拟合等问题。KromHC技术通过引入Kronecker积和流形约束,在保持模型表达能…...

2026全国专精特新小巨人画像

导读:报告由北京上奇产业研究院发布,截至 2026 年 3 月 31 日,全国专精特新小巨人企业共 17578 家,报告从成长、融资、科创三大维度全面刻画企业特征,揭示其发展规律与核心价值。关注公众号:【互联互通社区…...

别再手动切数据源了!用Dynamic-Datasource轻松管理MySQL多库与Druid连接池

告别手动切换:Dynamic-Datasource与Druid的高效多数据源管理实战 每次在多个数据库间反复横跳时,你是否也受够了那些冗长的配置和繁琐的切换逻辑?想象一下,当你的系统需要同时对接交易库、日志库和第三方数据时,传统方…...

拆解 Warp AI Agent(二):风险分级执行——Agent 如何做到安全并行、危险排队

系列第二篇。上篇讲了 Action 的类型安全设计,本篇看这些 Action 怎么被调度执行——Warp 的 BlocklistAIActionModel 实现了一个精巧的风险分级执行引擎:只读操作并行跑,危险操作串行排队等用户确认。 一、问题:AI 一次返回多个 …...

实战揭秘:微信机器人如何接入主流AI大模型

实战揭秘:微信机器人如何接入主流AI大模型 【免费下载链接】WeChatFerry 微信机器人,可接入DeepSeek、Gemini、ChatGPT、ChatGLM、讯飞星火、Tigerbot等大模型。微信 hook WeChat Robot Hook. 项目地址: https://gitcode.com/GitHub_Trending/we/WeCha…...

在 Taotoken 控制台中设置访问控制与审计日志保障 API 调用安全

在 Taotoken 控制台中设置访问控制与审计日志保障 API 调用安全 1. 访问控制基础配置 Taotoken 控制台提供了细粒度的 API Key 访问控制功能,企业开发者可通过以下步骤增强调用安全性。登录控制台后,进入「API 密钥管理」页面,选择需要配置…...

微信聊天记录永久备份终极指南:开源工具WeChatExporter让你轻松掌控珍贵数据

微信聊天记录永久备份终极指南:开源工具WeChatExporter让你轻松掌控珍贵数据 【免费下载链接】WeChatExporter 一个可以快速导出、查看你的微信聊天记录的工具 项目地址: https://gitcode.com/gh_mirrors/wec/WeChatExporter 你是否曾担心手机丢失、系统升级…...

如何用SMUDebugTool精准调控AMD Ryzen处理器:免费开源硬件调试终极指南

如何用SMUDebugTool精准调控AMD Ryzen处理器:免费开源硬件调试终极指南 【免费下载链接】SMUDebugTool A dedicated tool to help write/read various parameters of Ryzen-based systems, such as manual overclock, SMU, PCI, CPUID, MSR and Power Table. 项目…...

保姆级教程:用Altium Designer 23搞定STM32F407核心板的四层板叠层与阻抗计算

从零到精通:Altium Designer 23四层PCB设计实战手册 第一次接触四层板设计时,面对层叠结构、阻抗匹配这些专业术语,很多工程师都会感到无从下手。本文将手把手带你完成STM32F407核心板的四层PCB设计全过程,重点解决三个核心问题&a…...

保姆级教程:在RT-AC86U上刷Nexmon固件,解锁WiFi信号自定义发送(附常见错误解决)

极客改造指南:将RT-AC86U路由器变身WiFi信号实验室 在智能家居设备泛滥的今天,大多数家庭路由器退役后往往被束之高阁。但如果你手头恰好有一台华硕RT-AC86U路由器,它完全可以焕发第二春——通过刷入Nexmon开源固件,这台曾经的网络…...

W25N01G NAND Flash硬件写保护与软件配置全解析:从寄存器到实战

W25N01G NAND Flash硬件写保护与软件配置全解析:从寄存器到实战 在嵌入式系统开发中,数据安全始终是开发者面临的核心挑战之一。W25N01G作为一款广泛应用于工业控制、物联网设备等高可靠性场景的NAND Flash存储器,其丰富的写保护机制为固件安…...

蓝桥杯嵌入式备赛:用STM32的TIM输入捕获测信号频率(附CubeMX配置避坑点)

蓝桥杯嵌入式竞赛实战:TIM输入捕获测频技巧与CubeMX避坑指南 去年带队参加蓝桥杯时,有个学生在调试环节卡了整整两小时——他的信号频率测量值始终比实际值小一半。最后发现是CubeMX里一个复选框没勾选。这种细节在平时练习中可能无关紧要,但…...

在 OpenClaw Agent 工作流中集成 Taotoken 统一模型调用

在 OpenClaw Agent 工作流中集成 Taotoken 统一模型调用 1. OpenClaw 与 Taotoken 的集成价值 OpenClaw 作为流行的自动化工作流构建工具,其 Agent 能力依赖于大模型接口完成复杂任务编排。传统方案需要开发者自行管理多个模型供应商的 API Key 和接入点&#xff…...

如何让单人游戏变身多人派对?解密Nucleus Co-Op的分屏魔法

如何让单人游戏变身多人派对?解密Nucleus Co-Op的分屏魔法 【免费下载链接】nucleuscoop Starts multiple instances of a game for split-screen multiplayer gaming! 项目地址: https://gitcode.com/gh_mirrors/nu/nucleuscoop 你是否曾想过,为…...

别再死磕公差了!从乐高到汽车,聊聊四种装配方法如何帮你又快又好地搞定产品

别再死磕公差了!从乐高到汽车,聊聊四种装配方法如何帮你又快又好地搞定产品 装配精度是制造业永恒的话题,但很多人一提到装配就想到死磕公差,仿佛只有把每个零件的加工精度做到极致才能保证最终产品的质量。这种思维不仅成本高昂&…...

2026届毕业生推荐的十大AI辅助论文平台推荐

Ai论文网站排名(开题报告、文献综述、降aigc率、降重综合对比) TOP1. 千笔AI TOP2. aipasspaper TOP3. 清北论文 TOP4. 豆包 TOP5. kimi TOP6. deepseek 伴随人工智能技术一下就快速发展起来,“论文一键生成”渐渐变成学术写作范围里的…...

电力电子仿真避坑指南:Simulink三相可编程电压源Y型联结的相电压与线电压设置误区

电力电子仿真避坑指南:三相可编程电压源Y型联结的相电压与线电压设置误区 在电力电子仿真中,三相可编程电压源是最基础的模块之一,但也是最容易设置错误的环节。许多初学者在搭建逆变器、变频器或并网仿真时,常常因为对Y型联结的相…...

专业酒水包装设计公司哪家靠谱_权威推荐:哲仕酒水包装设计

专业酒水包装设计公司哪家靠谱_权威推荐:哲仕酒水包装设计酒水行业市场竞争极度内卷,白酒、酱酒、黄酒、果酒、养生酒、礼盒酒品类繁多,产品口感同质化严重、酒体差异消费者难分辨、品牌记忆度低、送礼宴请需求讲究面子质感,终端靠…...

Higress路由配置避坑指南:从本地K8s到NodePort访问,一次讲清网络连通性问题

Higress路由配置避坑指南:从本地K8s到NodePort访问全解析 在本地Kubernetes环境中部署Higress时,很多开发者都会遇到一个共同的问题:明明按照教程一步步配置了路由,但通过NodePort访问时却总是遇到"404"或"连接被拒…...

如何用WaveTools解锁鸣潮120FPS:四步突破帧率限制的完整指南

如何用WaveTools解锁鸣潮120FPS:四步突破帧率限制的完整指南 【免费下载链接】WaveTools 🧰鸣潮工具箱 项目地址: https://gitcode.com/gh_mirrors/wa/WaveTools 你是否在鸣潮1.2版本后发现游戏帧率被锁定在60FPS?明明显卡性能充足&am…...

将Hermes Agent智能体框架无缝接入Taotoken多模型服务

将Hermes Agent智能体框架无缝接入Taotoken多模型服务 1. 准备工作 在开始配置前,请确保已安装Hermes Agent并拥有Taotoken账户。访问Taotoken控制台创建API Key,并在模型广场查看支持的模型ID。Hermes Agent需要Node.js环境(建议v16&#…...

自动化RPG游戏资源解密方案:浏览器端一站式解密与重新加密工具

自动化RPG游戏资源解密方案:浏览器端一站式解密与重新加密工具 【免费下载链接】RPG-Maker-MV-Decrypter You can decrypt RPG-Maker-MV Resource Files with this project ~ If you dont wanna download it, you can use the Script on my HP: 项目地址: https:/…...

WaveTools完整指南:解锁《鸣潮》120FPS帧率限制与深度优化

WaveTools完整指南:解锁《鸣潮》120FPS帧率限制与深度优化 【免费下载链接】WaveTools 🧰鸣潮工具箱 项目地址: https://gitcode.com/gh_mirrors/wa/WaveTools 你是否曾为《鸣潮》的60FPS帧率限制而感到困扰?明明拥有强大的硬件配置&a…...

低轨卫星在轨功耗突增故障复盘(含真实遥测曲线+源码片段):C语言中这11行看似无害的代码,让整星续航缩短23天

更多请点击: https://intelliparadigm.com 第一章:低轨卫星在轨功耗突增故障全景复盘 2023年Q4,某型LEO遥感星座中三颗在轨运行超18个月的卫星(编号SAT-7B、SAT-12D、SAT-19F)连续触发星载电源管理单元(P…...

微信防撤回终极指南:WeChatIntercept macOS插件完整使用教程

微信防撤回终极指南:WeChatIntercept macOS插件完整使用教程 【免费下载链接】WeChatIntercept 微信防撤回插件,一键安装,仅MAC可用,支持v3.7.0微信 项目地址: https://gitcode.com/gh_mirrors/we/WeChatIntercept 还在为微…...

ok-wuthering-waves:揭秘鸣潮自动化助手的惊人效率提升方案

ok-wuthering-waves:揭秘鸣潮自动化助手的惊人效率提升方案 【免费下载链接】ok-wuthering-waves 鸣潮 后台自动战斗 自动刷声骸 一键日常 Automation for Wuthering Waves 项目地址: https://gitcode.com/GitHub_Trending/ok/ok-wuthering-waves 你是否厌倦…...

终极DOL游戏汉化美化整合包:一站式游戏体验优化指南

终极DOL游戏汉化美化整合包:一站式游戏体验优化指南 【免费下载链接】DOL-CHS-MODS Degrees of Lewdity 整合 项目地址: https://gitcode.com/gh_mirrors/do/DOL-CHS-MODS 你是否曾经因为游戏界面全是英文而感到困扰?是否希望游戏角色拥有更精美的…...

终极指南:三分钟掌握WaveTools,让你的鸣潮游戏体验飙升120FPS

终极指南:三分钟掌握WaveTools,让你的鸣潮游戏体验飙升120FPS 【免费下载链接】WaveTools 🧰鸣潮工具箱 项目地址: https://gitcode.com/gh_mirrors/wa/WaveTools 还在为《鸣潮》的60FPS帧率限制而烦恼吗?想要让高端显卡火…...

从ChatGLM到Stable Diffusion:一个Conda环境如何通吃你的AI项目?

从ChatGLM到Stable Diffusion:一个Conda环境如何通吃你的AI项目? 在AI项目开发中,最令人头疼的莫过于环境配置问题。想象一下这样的场景:你正在调试一个基于ChatGLM-6B的大语言模型项目,突然接到需求要开发Stable Diff…...