当前位置: 首页 > article >正文

GNN实战:Cora、Citeseer、PubMed三大文献数据集保姆级使用指南(附代码)

GNN实战Cora、Citeseer、PubMed三大文献数据集深度解析与工程实践引言为什么这三个数据集成为GNN研究的黄金标准在探索图神经网络GNN的浩瀚宇宙中Cora、Citeseer和PubMed如同三颗璀璨的恒星照亮了无数研究者的探索之路。这三个文献引用网络数据集之所以被奉为经典绝非偶然——它们完美平衡了现实世界的复杂性与研究可控性为算法验证提供了理想试验场。想象你面前有三座知识宝库Cora收录了2708篇机器学习论文划分为7个细分领域Citeseer包含3312篇计算机科学文献覆盖6大学科方向PubMed则聚焦生物医学拥有19717篇糖尿病相关研究论文分为3大类别。这些论文间的引用关系构成了天然的图结构节点是论文边是引用关系节点特征则是经过处理的词向量标签对应学科分类。这种结构化的知识网络正是GNN发挥威力的最佳舞台。核心价值矩阵维度CoraCiteseerPubMed论文数量2,7083,31219,717类别数763词向量维度1,4333,703500平均节点度数2.742.464.50数据特点学科划分细致特征维度高规模大、类别不平衡对于刚踏入GNN领域的研究者掌握这三个数据集的高效使用方法就如同获得了打开图学习大门的金钥匙。本文将带你深入数据集的内部构造手把手演示从数据获取到模型训练的全流程并分享处理实际问题的工程技巧——这些正是原始论文和教科书很少涉及的实战智慧。1. 环境配置与数据获取1.1 工具链选择PyG vs DGL工欲善其事必先利其器。PyTorch GeometricPyG和Deep Graph LibraryDGL是目前最主流的两个GNN框架它们在数据处理方式上各有特色# PyG安装命令需先安装对应版本的PyTorch pip install torch-scatter torch-sparse torch-cluster torch-spline-conv -f https://data.pyg.org/whl/torch-1.10.0cu113.html pip install torch-geometric # DGL安装命令以CUDA 11.3为例 pip install dgl-cu113 dglgo -f https://data.dgl.ai/wheels/repo.html框架特性对比表特性PyGDGL数据加载方式内置Dataset类通用DGLGraph对象消息传递范式消息-聚合-更新三阶段发送-接收原语稀疏矩阵处理专用COO格式多种稀疏格式支持多GPU支持通过DataParallel实现原生DistributedDataParallel社区生态论文复现多工业界应用广1.2 数据下载与预处理实战三大数据集在PyG中可通过统一接口获取但原始数据需要特殊处理from torch_geometric.datasets import Planetoid # 自动下载并解压数据集 dataset Planetoid(root/tmp/Cora, nameCora) # 查看数据结构 print(f数据集: {dataset}) print(f图数量: {len(dataset)}) print(f类别数: {dataset.num_classes}) print(f节点特征维度: {dataset.num_node_features}) # 获取第一张图 data dataset[0] print(f\n图结构:) print(节点数:, data.num_nodes) print(边数:, data.num_edges) print(训练集样本:, sum(data.train_mask).item()) print(验证集样本:, sum(data.val_mask).item()) print(测试集样本:, sum(data.test_mask).item())常见下载问题解决方案证书验证失败在代码前添加import ssl; ssl._create_default_https_context ssl._create_unverified_context连接超时手动下载https://github.com/kimiyoung/planetoid/raw/master/data下的对应文件放置到/tmp/Cora/raw/特征矩阵归一化使用F.normalize(data.x, p1, dim1)对词袋特征做L1归一化注意PubMed的原始文件较大约1.1GB下载时建议使用断点续传工具。首次加载时会进行预处理可能需要5-10分钟完成。2. 数据深度解析与特征工程2.1 解剖数据集内部结构这三个数据集虽然同属引文网络但在细节上各有特点Cora数据集.content文件格式paper_id word_attributes class_label.cites文件格式cited_paper_id citing_paper_id特征处理去除停用词后保留1433个高频词二进制词袋表示# 查看Cora数据的特征和标签分布 import matplotlib.pyplot as plt labels data.y.numpy() unique, counts np.unique(labels, return_countsTrue) plt.figure(figsize(10,5)) plt.bar(unique, counts, tick_label[ Case Based, Genetic Algorithms, Neural Networks, Probabilistic Methods, Reinforcement Learning, Rule Learning, Theory ]) plt.title(Cora数据集类别分布) plt.xlabel(研究领域) plt.ylabel(论文数量) plt.show()Citeseer的特殊处理存在孤立节点约5%的论文未被引用需要添加自环edge_index torch.cat([data.edge_index, torch.arange(data.num_nodes).repeat(2,1)], dim1)部分论文标题包含非ASCII字符读取时需指定编码with open(citeseer.content, r, encodinglatin1) as f: content f.readlines()2.2 特征增强技巧原始词袋特征可能不足以捕捉论文的深层语义可以考虑TF-IDF加权from sklearn.feature_extraction.text import TfidfTransformer tfidf TfidfTransformer(norml2) data.x torch.FloatTensor(tfidf.fit_transform(data.x.numpy()).toarray())元路径特征 通过构建论文-作者-论文、论文-期刊-论文等元路径丰富特征# 伪代码示例 - 需要真实的作者/期刊信息 def build_meta_path_features(paper_author_dict): coauthor_adj np.zeros((num_papers, num_papers)) for paper1, authors1 in paper_author_dict.items(): for paper2, authors2 in paper_author_dict.items(): if len(set(authors1) set(authors2)) 0: coauthor_adj[paper1][paper2] 1 return coauthor_adj结构特征注入# 添加节点度数作为额外特征 from torch_geometric.utils import degree deg degree(data.edge_index[0], dtypetorch.float) data.x torch.cat([data.x, deg.view(-1, 1)], dim1) # 添加PageRank分数 from torch_geometric.utils import scatter pagerank torch.ones(data.num_nodes) / data.num_nodes for _ in range(20): deg_inv 1.0 / degree(data.edge_index[1]) msg pagerank[data.edge_index[0]] * deg_inv[data.edge_index[1]] pagerank scatter(msg, data.edge_index[1], dim_sizedata.num_nodes, reducesum) data.x torch.cat([data.x, pagerank.view(-1, 1)], dim1)3. 模型构建与训练技巧3.1 基准模型实现以GCN为例演示如何在PyG中实现import torch.nn.functional as F from torch_geometric.nn import GCNConv class GCN(torch.nn.Module): def __init__(self, num_features, hidden_dim, num_classes): super().__init__() self.conv1 GCNConv(num_features, hidden_dim) self.conv2 GCNConv(hidden_dim, num_classes) def forward(self, data): x, edge_index data.x, data.edge_index x self.conv1(x, edge_index) x F.relu(x) x F.dropout(x, p0.5, trainingself.training) x self.conv2(x, edge_index) return F.log_softmax(x, dim1)超参数配置参考device torch.device(cuda if torch.cuda.is_available() else cpu) model GCN( num_featuresdataset.num_features, hidden_dim16, num_classesdataset.num_classes ).to(device) optimizer torch.optim.Adam(model.parameters(), lr0.01, weight_decay5e-4) data data.to(device)3.2 训练流程优化标准训练流程需要针对图数据特点进行优化def train(model, data, optimizer): model.train() optimizer.zero_grad() out model(data) loss F.nll_loss(out[data.train_mask], data.y[data.train_mask]) loss.backward() optimizer.step() return loss.item() def test(model, data): model.eval() out model(data) pred out.argmax(dim1) accs [] for mask in [data.train_mask, data.val_mask, data.test_mask]: correct pred[mask] data.y[mask] accs.append(int(correct.sum()) / int(mask.sum())) return accs best_val_acc 0 patience 20 current_patience 0 for epoch in range(1, 501): loss train(model, data, optimizer) train_acc, val_acc, test_acc test(model, data) if val_acc best_val_acc: best_val_acc val_acc current_patience 0 torch.save(model.state_dict(), best_model.pt) else: current_patience 1 if current_patience patience: print(fEarly stopping at epoch {epoch}) break if epoch % 20 0: print(fEpoch: {epoch:03d}, Loss: {loss:.4f}, fTrain: {train_acc:.4f}, Val: {val_acc:.4f}, fTest: {test_acc:.4f}) # 加载最佳模型 model.load_state_dict(torch.load(best_model.pt)) final_train, final_val, final_test test(model, data) print(f\nFinal results: Train: {final_train:.4f}, fVal: {final_val:.4f}, Test: {final_test:.4f})性能提升技巧邻域采样对于PubMed等大数据集使用NeighborSampler进行分批训练from torch_geometric.loader import NeighborSampler train_loader NeighborSampler(data.edge_index, node_idxdata.train_mask, sizes[10, 5], batch_size256, shuffleTrue)标签平滑缓解类别不平衡def smooth_labels(labels, alpha0.1): num_classes labels.max() 1 return (1 - alpha) * F.one_hot(labels, num_classes) alpha / num_classes图增强通过边丢弃(Edge Dropout)增加鲁棒性def random_edge_dropout(edge_index, p0.2): mask torch.rand(edge_index.size(1)) p return edge_index[:, mask]4. 常见问题与解决方案4.1 典型报错与排查问题1维度不匹配RuntimeError: size mismatch, m1: [2708 x 1433], m2: [16 x 64]检查点确保num_features与输入维度匹配隐藏层维度一致问题2内存不足CUDA out of memory. Tried to allocate...解决方案使用NeighborSampler进行分批训练减小隐藏层维度启用梯度检查点from torch.utils.checkpoint import checkpoint x checkpoint(self.conv1, x, edge_index)问题3梯度爆炸/消失诊断方法for name, param in model.named_parameters(): if param.grad is not None: print(name, param.grad.data.norm())应对措施添加梯度裁剪torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm1.0)使用残差连接self.conv1 GCNConv(num_features, hidden_dim) self.conv2 GCNConv(hidden_dim, hidden_dim) self.conv3 GCNConv(hidden_dim, num_classes) def forward(self, data): x0 data.x x1 F.relu(self.conv1(x0, data.edge_index)) x2 F.relu(self.conv2(x1, data.edge_index) x1) # 残差连接 x3 self.conv3(x2, data.edge_index) return F.log_softmax(x3, dim1)4.2 性能调优路线图基线建立原始GCNCora (81.5%), Citeseer (71.2%), PubMed (79.0%)加入自注意力1.5~3%添加残差连接0.5~1.5%高级优化策略课程学习先训练简单样本逐步增加难度def get_curriculum_mask(epoch, total_epochs): # 随训练进度逐渐增加训练样本 ratio min(epoch / (total_epochs * 0.3), 1.0) return torch.rand(data.num_nodes) ratio对抗训练增强模型鲁棒性def adversarial_perturb(model, data, epsilon0.01): data.x.requires_grad True out model(data) loss F.nll_loss(out[data.train_mask], data.y[data.train_mask]) loss.backward() perturb epsilon * data.x.grad / torch.norm(data.x.grad, p2) return perturb.detach()模型解释工具GNNExplainer识别重要节点和边from torch_geometric.nn import GNNExplainer explainer GNNExplainer(model, epochs200) node_idx 10 # 待解释的节点索引 feat_mask, edge_mask explainer.explain_node(node_idx, data.x, data.edge_index)5. 超越基准前沿探索方向5.1 异构图处理真实文献网络包含作者、期刊等多类型节点可用异构图神经网络建模from torch_geometric.nn import HeteroConv, GCNConv, SAGEConv class HeteroGNN(torch.nn.Module): def __init__(self, metadata, hidden_dim): super().__init__() self.conv1 HeteroConv({ (paper, cites, paper): GCNConv(-1, hidden_dim), (paper, written_by, author): SAGEConv((-1, -1), hidden_dim), (author, writes, paper): SAGEConv((-1, -1), hidden_dim) }) self.conv2 HeteroConv({ (paper, cites, paper): GCNConv(-1, hidden_dim), (paper, written_by, author): SAGEConv((-1, -1), hidden_dim), (author, writes, paper): SAGEConv((-1, -1), hidden_dim) }) def forward(self, x_dict, edge_index_dict): x_dict self.conv1(x_dict, edge_index_dict) x_dict {key: F.leaky_relu(x) for key, x in x_dict.items()} x_dict self.conv2(x_dict, edge_index_dict) return x_dict[paper] # 返回论文节点表示5.2 自监督学习当标注数据有限时自监督预训练能显著提升性能from torch_geometric.nn import Node2Vec # 节点级预训练 def pretrain_node2vec(data, embedding_dim128): device cuda if torch.cuda.is_available() else cpu model Node2Vec(data.edge_index, embedding_dimembedding_dim, walk_length20, context_size10, walks_per_node10).to(device) loader model.loader(batch_size128, shuffleTrue) optimizer torch.optim.Adam(model.parameters(), lr0.01) for epoch in range(1, 101): model.train() total_loss 0 for pos_rw, neg_rw in loader: optimizer.zero_grad() loss model.loss(pos_rw.to(device), neg_rw.to(device)) loss.backward() optimizer.step() total_loss loss.item() if epoch % 10 0: print(fEpoch: {epoch:02d}, Loss: {total_loss / len(loader):.4f}) return model.embedding.weight.data # 将预训练嵌入作为初始特征 pretrain_emb pretrain_node2vec(data) data.x torch.cat([data.x, pretrain_emb], dim1)5.3 动态图建模文献网络随时间演化动态GNN能捕捉这种变化from torch_geometric.nn import TGCN class DynamicGNN(torch.nn.Module): def __init__(self, num_features, hidden_dim, num_classes): super().__init__() self.tgcn TGCN(num_features, hidden_dim) self.linear torch.nn.Linear(hidden_dim, num_classes) def forward(self, x, edge_index, edge_weight, timestamps): h self.tgcn(x, edge_index, edge_weight, timestamps) return F.log_softmax(self.linear(h), dim1) # 假设每个边有时间戳 timestamps torch.randint(0, 10, (data.edge_index.size(1),)) model DynamicGNN(data.num_features, 16, dataset.num_classes)

相关文章:

GNN实战:Cora、Citeseer、PubMed三大文献数据集保姆级使用指南(附代码)

GNN实战:Cora、Citeseer、PubMed三大文献数据集深度解析与工程实践 引言:为什么这三个数据集成为GNN研究的"黄金标准"? 在探索图神经网络(GNN)的浩瀚宇宙中,Cora、Citeseer和PubMed如同三颗璀璨的…...

SGLang-v0.5.6实战体验:5种预装镜像,哪个最适合你的项目?

SGLang-v0.5.6实战体验:5种预装镜像,哪个最适合你的项目? 选型会上,技术负责人又抛出了那个经典问题:“我们到底用哪个环境来部署SGLang?” 会议室里立刻热闹起来。有人坚持用PyTorch 2.1,说它…...

DALL-E2-pytorch训练日志完全解读指南:如何从loss曲线判断模型健康状态

DALL-E2-pytorch训练日志完全解读指南:如何从loss曲线判断模型健康状态 【免费下载链接】DALLE2-pytorch Implementation of DALL-E 2, OpenAIs updated text-to-image synthesis neural network, in Pytorch 项目地址: https://gitcode.com/gh_mirrors/da/DALLE2…...

Boss-Key老板键:如何用3分钟掌握一键隐藏窗口的终极技巧

Boss-Key老板键:如何用3分钟掌握一键隐藏窗口的终极技巧 【免费下载链接】Boss-Key 老板来了?快用Boss-Key老板键一键隐藏静音当前窗口!上班摸鱼必备神器 项目地址: https://gitcode.com/gh_mirrors/bo/Boss-Key 你是否经历过这样的时…...

Eclipse Mraa多平台支持:从树莓派到Intel Joule的无缝移植教程

Eclipse Mraa多平台支持:从树莓派到Intel Joule的无缝移植教程 Eclipse Mraa是一款开源的嵌入式Linux库,专为简化Raspberry Pi、Intel Joule等嵌入式设备上的GPIO、I2C、SPI和UART等硬件接口访问而设计。通过统一的API和跨平台兼容性,开发者…...

实测2-5分钟:CogVideoX-2b生成速度与画质平衡的真实体验报告

实测2-5分钟:CogVideoX-2b生成速度与画质平衡的真实体验报告 1. 从文字到视频:CogVideoX-2b能做什么? 想象一下,你只需要输入一段文字描述,就能在几分钟内获得一段6秒的高清视频。这不是科幻电影里的场景&#xff0c…...

前端性能优化终极指南:使用Javalin实现静态资源压缩与智能缓存

前端性能优化终极指南:使用Javalin实现静态资源压缩与智能缓存 【免费下载链接】javalin 项目地址: https://gitcode.com/gh_mirrors/jav/javalin 在现代Web应用开发中,前端资源的加载速度直接影响用户体验和搜索引擎排名。Javalin作为一款轻量级…...

利用快马平台快速构建高清乱码生成器:编码错误可视化原型开发指南

最近在调试一个多语言网站时,遇到了各种编码问题导致的乱码现象。为了更直观地理解不同编码错误的表现形式,我尝试用InsCode(快马)平台快速搭建了一个高清乱码生成器,效果出乎意料地好。下面分享下这个项目的实现思路和具体操作: …...

小红书笔记API避坑指南:数据结构解析与常见错误排查

小红书笔记API避坑指南:数据结构解析与常见错误排查 在小红书生态中,API作为连接开发者与平台数据的桥梁,其重要性不言而喻。但许多开发者在实际调用过程中,常常陷入数据结构理解不透、错误排查效率低下的困境。本文将从小红书笔记…...

Uvicorn连接池配置:优化数据库连接性能的完整指南

Uvicorn连接池配置:优化数据库连接性能的完整指南 【免费下载链接】uvicorn An ASGI web server, for Python. 🦄 项目地址: https://gitcode.com/GitHub_Trending/uv/uvicorn Uvicorn作为一款高性能的ASGI web服务器,在Python Web应用…...

揭秘League Akari:如何通过LCU API革新英雄联盟游戏体验?

揭秘League Akari:如何通过LCU API革新英雄联盟游戏体验? 【免费下载链接】League-Toolkit 兴趣使然的、简单易用的英雄联盟工具集。支持战绩查询、自动秒选等功能。基于 LCU API。 项目地址: https://gitcode.com/gh_mirrors/le/League-Toolkit …...

英雄联盟智能助手:5个核心功能彻底改变你的游戏体验

英雄联盟智能助手:5个核心功能彻底改变你的游戏体验 【免费下载链接】League-Toolkit 兴趣使然的、简单易用的英雄联盟工具集。支持战绩查询、自动秒选等功能。基于 LCU API。 项目地址: https://gitcode.com/gh_mirrors/le/League-Toolkit 还在为繁琐的游戏…...

手把手教你用深信服备份系统做整机恢复:从PXE到U盘启动的保姆级避坑指南

深信服整机恢复实战:PXE与U盘启动的深度避坑手册 当服务器突然宕机,硬盘彻底损坏时,整机恢复能力就是IT工程师的救命稻草。深信服备份系统的裸机恢复功能,能在没有操作系统的"裸机"上直接还原整个系统环境——但实际操作…...

英雄联盟智能辅助套件:重新定义MOBA游戏体验的开源工具集

英雄联盟智能辅助套件:重新定义MOBA游戏体验的开源工具集 【免费下载链接】League-Toolkit 兴趣使然的、简单易用的英雄联盟工具集。支持战绩查询、自动秒选等功能。基于 LCU API。 项目地址: https://gitcode.com/gh_mirrors/le/League-Toolkit League-Tool…...

FastJson内存泄漏实战:我是如何用MAT工具定位到IdentityHashMap这个坑的

FastJson内存泄漏深度剖析:从MAT工具实战到IdentityHashMap陷阱破解 凌晨三点,手机突然响起刺耳的告警声——生产环境某核心服务的堆内存使用率突破95%。作为值班工程师,我瞬间清醒过来。这不是普通的OOM,而是一场持续增长的内存…...

自然语言处理助力法律领域AI架构,提升司法服务质量

自然语言处理助力法律领域AI架构:从技术落地到司法服务升级的全链路实践 1. 引言:法律行业的“效率痛点”与NLP的破局之路 1.1 痛点引入:当法律遇到“信息过载”与“专业门槛” 深夜十点的律师办公室里,张律师还在揉着太阳穴核对第三份合同的条款——密密麻麻的法条引用…...

如何使用Compiler Explorer实时编译原理:揭秘代码到汇编的转换过程

如何使用Compiler Explorer实时编译原理:揭秘代码到汇编的转换过程 【免费下载链接】compiler-explorer Run compilers interactively from your web browser and interact with the assembly 项目地址: https://gitcode.com/gh_mirrors/co/compiler-explorer …...

JVM中的各种垃圾回收算法

什么情况下JVM内存中的一个对象被垃圾回收被哪些变量引用的对象是不能回收的?JVM使用了一种可达性算法来判断哪些对象可以被回收哪些对象不可以被回收。这个算法的意思,就是说对每个对象,都分析一下有谁在引用他,然后一层一层去判…...

so-vits-svc声压级标准化技术解析:从原理到实践的7个关键维度

so-vits-svc声压级标准化技术解析:从原理到实践的7个关键维度 【免费下载链接】so-vits-svc SoftVC VITS Singing Voice Conversion 项目地址: https://gitcode.com/gh_mirrors/so/so-vits-svc 声压级标准化是so-vits-svc(SoftVC VITS Singing Vo…...

FSCalendar终极指南:打造完美iOS日历体验的完整教程

FSCalendar终极指南:打造完美iOS日历体验的完整教程 【免费下载链接】FSCalendar A fully customizable iOS calendar library, compatible with Objective-C and Swift 项目地址: https://gitcode.com/gh_mirrors/fs/FSCalendar FSCalendar是一款功能强大且…...

告别低效苦读!研一新生文献阅读全流程AI工具选择指南(6款工具实战对比)

研一开学第一个月,导师丢来20篇英文文献让你"先看看"。你打开第一篇Nature子刊,密密麻麻的专业术语让你头皮发麻。用翻译软件逐句翻译?格式全乱了,图表公式看不懂。硬着头皮啃原文?一个下午只看完3页&#x…...

Qwen3-ASR-1.7B部署案例:AI初创公司低成本构建ASR SaaS服务

Qwen3-ASR-1.7B部署案例:AI初创公司低成本构建ASR SaaS服务 想象一下,你是一家AI初创公司的技术负责人,老板给你下了个任务:两周内,为公司的新产品上线一个语音转文字(ASR)功能。要求是识别要准…...

魔兽世界游戏插件开发从入门到实战:工具详解与效率提升指南

魔兽世界游戏插件开发从入门到实战:工具详解与效率提升指南 【免费下载链接】wow_api Documents of wow API -- 魔兽世界API资料以及宏工具 项目地址: https://gitcode.com/gh_mirrors/wo/wow_api 作为魔兽世界玩家,你是否曾想过通过自定义插件提…...

终极MangoHud配置文件备份工具:轻松打造图形化管理界面

终极MangoHud配置文件备份工具:轻松打造图形化管理界面 【免费下载链接】MangoHud A Vulkan and OpenGL overlay for monitoring FPS, temperatures, CPU/GPU load and more. Discord: https://discordapp.com/invite/Gj5YmBb 项目地址: https://gitcode.com/gh_m…...

新手入门:用快马平台生成第一个labelimg式图像标注demo

今天想和大家分享一个特别适合计算机视觉新手的小项目——用InsCode(快马)平台快速搭建一个简易版的图像标注工具。这个工具类似labelimg的核心功能,但更轻量级,能帮助理解数据标注的基本流程。 项目背景理解 图像标注是计算机视觉的基础环节&#xff0c…...

Kook Zimage真实幻想Turbo部署教程:OpenStack私有云中幻想图生成服务弹性伸缩方案

Kook Zimage真实幻想Turbo部署教程:OpenStack私有云中幻想图生成服务弹性伸缩方案 1. 项目概述 Kook Zimage真实幻想Turbo是一款专为个人GPU环境优化的幻想风格文生图系统。基于Z-Image-Turbo极速推理架构,通过深度整合专属幻想模型权重,实…...

实战应用:从git安装到项目初始化,用快马生成数据分析项目版本控制模板

今天想和大家分享一个数据分析项目中经常被忽视但极其重要的环节——Git版本控制的初始化配置。作为一个经常用Python做数据分析的开发者,我发现很多人在项目初期就忽略了版本控制的重要性,导致后期协作时出现各种混乱。下面我就结合InsCode(快马)平台&a…...

如何快速部署Uvicorn ASGI服务器到AWS Lightsail:终极云服务器配置指南 [特殊字符]

如何快速部署Uvicorn ASGI服务器到AWS Lightsail:终极云服务器配置指南 🚀 【免费下载链接】uvicorn An ASGI web server, for Python. 🦄 项目地址: https://gitcode.com/GitHub_Trending/uv/uvicorn Uvicorn是一个轻量级、高性能的A…...

swoole方案 实时监控大盘推送中心

业务服务 --写--> Kafka ---> Swoole消费 --WebSocket推--> 浏览器ECharts实时刷新Kafka 当缓冲层&#xff0c;业务打点不管推送快不快&#xff0c;Swoole 从 Kafka 拉数据&#xff0c;有新数据就推给所有看板页面。---代码<?php// composer require longlang/php…...

高效实现Windows任务栏个性化的5个极简方案:轻量级透明化工具TranslucentTB全指南

高效实现Windows任务栏个性化的5个极简方案&#xff1a;轻量级透明化工具TranslucentTB全指南 【免费下载链接】TranslucentTB A lightweight utility that makes the Windows taskbar translucent/transparent. 项目地址: https://gitcode.com/gh_mirrors/tr/TranslucentTB …...