当前位置: 首页 > article >正文

精简数据管道:如何使用 PySpark 和 WhyLogs 进行高效的数据分析和验证

原文towardsdatascience.com/streamline-data-pipelines-how-to-use-whylogs-with-pyspark-for-data-profiling-and-validation-544efa36c5ad?sourcecollection_archive---------3-----------------------#2024-01-07https://medium.com/sarbahi.sarthak?sourcepost_page---byline--544efa36c5ad--------------------------------https://towardsdatascience.com/?sourcepost_page---byline--544efa36c5ad-------------------------------- Sarthak Sarbahi·发表于Towards Data Science ·阅读时间9 分钟·2024 年 1 月 7 日–https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/30d8f37b895178790b25f83e1ab4662b.png图片来自Evan Dennis提供的Unsplash数据管道由数据工程师或机器学习工程师创建不仅仅是为了准备报告数据或训练模型。确保数据的质量同样至关重要。如果数据随着时间变化你可能会得到意料之外的结果这样是不好的。为了避免这种情况我们常常使用数据分析和数据验证技术。数据分析为我们提供关于数据集中不同列的统计信息。数据验证检查是否存在错误将实际数据与预期数据进行比较。一个很棒的工具是whylogs。它可以让你记录各种数据。记录后你可以创建whylogs 配置文件。这些配置文件帮助你跟踪数据的变化设置规则以确保数据的正确性并以简便的方式展示汇总统计数据。在这篇博客中你将学习如何将 whylogs 与 PySpark 配合使用。我们将通过一个实践指南来讲解如何进行数据分析和验证。让我们开始吧目录whylogs 的组件环境设置理解数据集开始使用 PySpark使用 whylogs 进行数据分析使用 whylogs 进行数据验证whylogs 的组件让我们首先理解 whylogs 的重要特性。数据记录whylogs 的核心是其记录数据的功能。可以把它想象成记录数据特征的详细日记。它会记录数据的各个方面比如有多少行、每列的值范围以及其他统计细节。Whylogs 简介一旦数据被记录whylogs 会创建“简介”。这些简介就像是数据的快照概括了数据的情况。它们包括诸如平均值、计数和分布等统计信息。这对于快速理解数据并追踪数据随时间的变化非常有用。数据追踪使用 whylogs你可以追踪数据随时间的变化。这一点非常重要因为数据通常会发生变化上个月的情况可能今天就不再适用。追踪有助于你捕捉到这些变化并理解它们的影响。数据验证Whylogs 允许你设置规则或约束以确保数据符合预期。例如如果你知道某一列应该只有正数你可以为此设置规则。如果某些数据不符合你的规则你将能够发现可能存在的问题。数据可视化通过可视化方式理解数据更加容易。Whylogs 可以创建图形和图表帮助你更清楚地看到数据的动态特别是对于那些不是数据专家的人来说这使得数据更加易于访问。集成Whylogs 支持与多种工具、框架和语言的集成——如 Spark、Kafka、Pandas、MLFlow、GitHub actions、RAPIDS、Java、Docker、AWS S3 等。这些就是我们需要了解的关于 whylogs 的所有信息。如果你想了解更多我鼓励你查看文档。接下来让我们开始为教程设置环境。环境设置我们将在本教程中使用 Jupyter notebook。为了让我们的代码在任何地方都能运行我们将在 Docker 中使用 JupyterLab。这个设置会安装所有所需的库并准备好示例数据。如果你是 Docker 新手并想学习如何设置 Docker请查看这个链接。[## GitHub - sarthak-sarbahi/whylogs-pyspark通过在 GitHub 上创建账户贡献于 sarthak-sarbahi/whylogs-pyspark 的开发。github.com](https://github.com/sarthak-sarbahi/whylogs-pyspark/tree/main?sourcepost_page-----544efa36c5ad--------------------------------)从这里下载示例数据CSV。这些数据将用于数据简介和验证。创建一个data文件夹在项目的根目录下并将 CSV 文件保存到该文件夹中。接下来在相同的根目录下创建一个Dockerfile。本教程的 Dockerfile图片来自作者这个 Dockerfile 是一组创建特定环境的指令用于本教程。我们来逐步解析它第一行FROM quay.io/jupyter/pyspark-notebook告诉 Docker 使用一个现有镜像作为起点。这个镜像是一个已经配置了 PySpark 的 Jupyter notebook。RUN pip install whylogs whylogs[viz] whylogs[spark]这一行是为了向环境中添加必要的库。它使用pip安装whylogs以及其附加功能用于可视化的 (viz) 和用于处理 Spark 的 (spark)。最后一行COPY data/patient_data.csv /home/patient_data.csv是将数据文件移入该环境。它将项目目录中data文件夹下的 CSV 文件patient_data.csv复制到 Docker 环境中的/home/目录下。到目前为止你的项目目录应该是这样的。https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/d46865880372332c87ffd2efd2e6fc44.png在 VS Code 中的项目目录图源作者太棒了现在让我们构建一个 Docker 镜像。为此请在终端中输入以下命令确保你位于项目的根文件夹中。docker build-t pyspark-whylogs.这个命令创建了一个名为pyspark-whylogs的 Docker 镜像。你可以在Docker Desktop应用的“镜像”标签中看到它。https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/b227c143a7d68aa6f704308ea8bb051f.png构建的 Docker 镜像图源作者下一步让我们运行这个镜像来启动 JupyterLab。请在终端中输入另一个命令。docker run-p8888:8888pyspark-whylogs这个命令从pyspark-whylogs镜像启动一个容器。它确保你可以通过计算机的 8888 端口访问 JupyterLab。运行这个命令后你会在日志中看到一个类似于这样的 URLhttp://127.0.0.1:8888/lab?tokenyour_token。点击该链接以打开 JupyterLab Web 界面。https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/a6b6590371d0150b205222e6f1e10cf7.pngDocker 容器日志图源作者太棒了一切已经为使用 whylogs 设置好了。现在让我们了解一下我们将要处理的数据集。理解数据集我们将使用一个关于医院患者的数据集。该文件名为patient_data.csv包含 100k 行数据列包括patient_id每个患者的唯一 ID。记住数据集中可能会出现相同的患者 ID 多次。patient_name患者的姓名。不同的患者可能有相同的名字。height患者的身高单位为厘米。每次就诊时患者的身高都是相同的。weight患者的体重单位为千克。体重总是大于零。visit_date患者就诊的日期格式为YYYY-MM-DD。关于这个数据集的来源别担心。它是由 ChatGPT 创建的。接下来让我们开始编写一些代码。开始使用 PySpark首先在 JupyterLab 中打开一个新的 notebook。记得在开始工作之前保存它。[## whylogs-pyspark/whylogs_pyspark.ipynb at main · sarthak-sarbahi/whylogs-pyspark通过在 GitHub 上创建账户为 sarthak-sarbahi/whylogs-pyspark 项目的开发做出贡献。github.com我们将首先导入所需的库。# Import librariesfromtypingimportAnyimportpysparkfrompyspark.sqlimportSparkSessionimportpyspark.sql.functionsasFfromwhylogs.api.pyspark.experimentalimportcollect_column_profile_viewsfromwhylogs.api.pyspark.experimentalimportcollect_dataset_profile_viewfromwhylogs.core.metrics.condition_count_metricimportConditionfromwhylogs.core.relationsimportPredicatefromwhylogs.core.schemaimportDeclarativeSchemafromwhylogs.core.resolversimportSTANDARD_RESOLVERfromwhylogs.core.specialized_resolversimportConditionCountMetricSpecfromwhylogs.core.constraints.factoriesimportcondition_meetsfromwhylogs.core.constraintsimportConstraintsBuilderfromwhylogs.core.constraints.factoriesimportno_missing_valuesfromwhylogs.core.constraints.factoriesimportgreater_than_numberfromwhylogs.vizimportNotebookProfileVisualizerimportpandasaspdimportdatetime然后我们将设置一个 SparkSession。这让我们能够运行 PySpark 代码。# Initialize a SparkSessionsparkSparkSession.builder.appName(whylogs).getOrCreate()spark.conf.set(spark.sql.execution.arrow.pyspark.enabled,true)之后我们将通过读取 CSV 文件来创建一个 Spark 数据框。我们还会检查它的架构。# Create a dataframe from CSV filedfspark.read.option(header,True).option(inferSchema,True).csv(/home/patient_data.csv)df.printSchema()接下来让我们先看一下数据。我们将查看数据框中的第一行。# First row from dataframedf.show(n1,verticalTrue)既然我们已经查看了数据现在是时候开始使用 whylogs 进行数据分析了。使用 whylogs 进行数据分析为了对数据进行分析我们将使用两个函数。首先是collect_column_profile_views。这个函数为数据框中的每一列收集详细的分析配置。这些配置为我们提供统计信息比如计数、分布等具体取决于我们如何设置 whylogs。# Profile the data with whylogsdf_profilecollect_column_profile_views(df)print(df_profile)数据集中的每一列都会在字典中获取一个ColumnProfileView对象。我们可以检查每列的各种指标比如它们的均值。whylogs 会查看每个数据点并通过统计方式决定该数据点是否与最终计算相关。例如让我们看看height的平均值。df_profile[height].get_metric(distribution).mean.value接下来我们还将直接从数据框中计算均值以进行对比。# Compare with mean from dataframedf.select(F.mean(F.col(height))).show()然而仅仅逐列进行数据分析并不总是足够的。因此我们使用另一个函数collect_dataset_profile_view。这个函数对整个数据集进行分析而不仅仅是单列。我们可以将其与 Pandas 结合分析所有分析指标。# Putting everything togetherdf_profile_viewcollect_dataset_profile_view(input_dfdf)df_profile_view.to_pandas().head()我们还可以将这个分析结果保存为 CSV 文件以备后用。# Persist profile as a filedf_profile_view.to_pandas().reset_index().to_csv(/home/jovyan/patint_profile.csv,headerTrue,indexFalse)/home/jovyan文件夹位于我们的 Docker 容器中来自Jupyter 的 Docker 镜像堆栈包含 Jupyter 应用程序的现成 Docker 镜像。在这些 Docker 设置中‘jovyan’ 是运行 Jupyter 的默认用户。/home/jovyan文件夹是 Jupyter 笔记本通常启动的位置也是您应将文件放置在其中以便在 Jupyter 中访问的地方。就这样我们使用 whylogs 对数据进行分析。接下来我们将探索数据验证。使用 whylogs 进行数据验证对于我们的数据验证我们将执行以下检查patient_id确保没有缺失值。weight确保每个值都大于零。visit_date检查日期是否采用YYYY-MM-DD格式。现在让我们开始吧。whylogs 中的数据验证从数据分析开始。我们可以使用collect_dataset_profile_view函数来创建分析配置就像我们之前看到的那样。然而这个函数通常会创建一个带有标准指标的分析配置比如均值和计数。但如果我们需要检查列中的单个值而不是对比其他约束条件这时就可以使用条件计数指标。它就像是向我们的分析配置中添加了一个自定义的指标。让我们为visit_date列创建一个检查验证每一行。defcheck_date_format(date_value:Any)-bool:date_format%Y-%m-%dtry:datetime.datetime.strptime(date_value,date_format)returnTrueexceptValueError:returnFalsevisit_date_condition{is_date_format:Condition(Predicate().is_(check_date_format))}一旦我们有了条件就将其添加到分析配置中。我们使用标准架构并添加自定义检查。# Create condition count metricschemaDeclarativeSchema(STANDARD_RESOLVER)schema.add_resolver_spec(column_namevisit_date,metrics[ConditionCountMetricSpec(visit_date_condition)])然后我们使用标准指标和我们为visit_date列创建的自定义新指标重新创建了配置文件。# Use the schema to pass to logger with collect_dataset_profile_view# This creates profile with standard metrics as well as condition count metricsdf_profile_view_v2collect_dataset_profile_view(input_dfdf,schemaschema)在我们的配置文件准备好之后我们可以为每一列设置验证检查。builderConstraintsBuilder(dataset_profile_viewdf_profile_view_v2)builder.add_constraint(no_missing_values(column_namepatient_id))builder.add_constraint(condition_meets(column_namevisit_date,condition_nameis_date_format))builder.add_constraint(greater_than_number(column_nameweight,number0))constraintsbuilder.build()constraints.generate_constraints_report()我们还可以使用 whylogs 生成这些检查的报告。# Visualize constraints report using Notebook Profile VisualizervisualizationNotebookProfileVisualizer()visualization.constraints_report(constraints,cell_height300)它将生成一个 HTML 报告显示哪些检查通过哪些失败。https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/92e9b55579654c4f34af3e2310e9ad42.pngwhylogs 约束报告图片来源作者这是我们发现的内容patient_id列没有缺失值。很好一些visit_date值不符合YYYY-MM-DD格式。一些weight值为零。让我们再次检查数据框中的这些发现。首先我们用 PySpark 代码检查visit_date格式。# Validate visit_date columndf \.withColumn(check_visit_date,F.to_date(F.col(visit_date),yyyy-MM-dd))\.withColumn(null_check,F.when(F.col(check_visit_date).isNull(),null).otherwise(not_null))\.groupBy(null_check)\.count()\.show(truncateFalse)---------------|null_check|count|---------------|not_null|98977||null|1023|---------------它显示100,000 行中有 1023 行不符合我们的日期格式。接下来是weight列。# Validate weight columndf \.select(weight)\.groupBy(weight)\.count()\.orderBy(F.col(weight))\.limit(1)\.show(truncateFalse)-----------|weight|count|-----------|0|2039|-----------再次我们的发现与 whylogs 一致。几乎有 2,000 行的权重为零。这也结束了我们的教程。你可以在这里找到本教程的笔记本。结论在本教程中我们介绍了如何在 PySpark 中使用 whylogs。我们首先使用 Docker 准备了环境然后对我们的数据集进行了数据分析和验证。记住这只是开始。Whylogs 提供了更多功能从机器学习中的数据变化数据漂移追踪到实时流中的数据质量检查。我真诚地希望这篇指南对你有所帮助。如果你有任何问题请随时在下面的评论中提出。参考文献本教程的 GitHub 仓库:github.com/sarthak-sarbahi/whylogs-pyspark/tree/mainWhylogs 文档:docs.whylabs.ai/docs/whylogs-overview/GitHub for whylogs:github.com/whylabs/whylogs/tree/mainlinePySpark 中的数据分析:github.com/whylabs/whylogs/blob/mainline/python/examples/integrations/Pyspark_Profiling.ipynbWhylogs 约束在 PySpark 中的使用:github.com/whylabs/whylogs/blob/mainline/python/examples/tutorials/Pyspark_and_Constraints.ipynb

相关文章:

精简数据管道:如何使用 PySpark 和 WhyLogs 进行高效的数据分析和验证

原文:towardsdatascience.com/streamline-data-pipelines-how-to-use-whylogs-with-pyspark-for-data-profiling-and-validation-544efa36c5ad?sourcecollection_archive---------3-----------------------#2024-01-07 https://medium.com/sarbahi.sarthak?source…...

开源技能库构建指南:从个人工具箱到团队知识中枢

1. 项目概述:一个开源技能库的诞生与价值 在技术社区里,我们常常会看到这样的现象:一位开发者分享了一个精巧的工具脚本,另一位设计师上传了一套实用的图标模板,但这些宝贵的“技能”往往散落在个人仓库、博客文章或论…...

使用 Python、Kafka 和 Faust 进行流处理

原文:towardsdatascience.com/stream-processing-with-python-kafka-faust-a11740d0910c?sourcecollection_archive---------2-----------------------#2024-02-18 如何在高吞吐量时间序列数据上进行流处理并应用实时预测模型 https://medium.com/aliosia?source…...

保姆级教程:在Ubuntu上为RK3588开发板配置交叉编译环境(含完整脚本)

保姆级教程:在Ubuntu上为RK3588开发板配置交叉编译环境(含完整脚本) 刚拿到RK3588开发板时,最让人头疼的就是如何快速搭建开发环境。不同于x86平台的直接编译,嵌入式开发需要面对处理器架构差异、工具链配置、库依赖等…...

实战指南:通达信缠论量化分析插件的智能化解决方案

实战指南:通达信缠论量化分析插件的智能化解决方案 【免费下载链接】Indicator 通达信缠论可视化分析插件 项目地址: https://gitcode.com/gh_mirrors/ind/Indicator 在金融市场技术分析领域,缠论以其严谨的数学结构和完整的理论体系而备受推崇。…...

WarcraftHelper:5大核心优化功能让魔兽争霸3重获新生

WarcraftHelper:5大核心优化功能让魔兽争霸3重获新生 【免费下载链接】WarcraftHelper Warcraft III Helper , support 1.20e, 1.24e, 1.26a, 1.27a, 1.27b 项目地址: https://gitcode.com/gh_mirrors/wa/WarcraftHelper 你是否还记得当年在网吧鏖战魔兽争霸…...

Depth Anything深度估计:ComfyUI中AI图像处理的终极指南

Depth Anything深度估计:ComfyUI中AI图像处理的终极指南 【免费下载链接】comfyui_controlnet_aux ComfyUIs ControlNet Auxiliary Preprocessors 项目地址: https://gitcode.com/gh_mirrors/co/comfyui_controlnet_aux 在AI图像生成的世界中,深度…...

Tiny11Builder终极指南:如何快速构建精简版Windows 11系统镜像

Tiny11Builder终极指南:如何快速构建精简版Windows 11系统镜像 【免费下载链接】tiny11builder Scripts to build a trimmed-down Windows 11 image. 项目地址: https://gitcode.com/GitHub_Trending/ti/tiny11builder Tiny11Builder是一个开源的PowerShell脚…...

B站CC字幕高效提取工具:3分钟掌握免费下载与格式转换

B站CC字幕高效提取工具:3分钟掌握免费下载与格式转换 【免费下载链接】BiliBiliCCSubtitle 一个用于下载B站(哔哩哔哩)CC字幕及转换的工具; 项目地址: https://gitcode.com/gh_mirrors/bi/BiliBiliCCSubtitle 还在为B站视频中的精彩内容无法保存为文字而烦恼…...

用GPT-4当老师,手把手教你复现LLaVA多模态模型(附代码与数据集)

从零构建LLaVA多模态助手:GPT-4数据生成与模型训练全流程实战 在人工智能领域,多模态模型正迅速成为技术前沿的焦点。当ChatGPT展现强大文本理解能力时,研究者们开始思考:如何让AI同时理解图像和语言?LLaVA&#xff08…...

告别数据跳动!用STM32F103驱动ADS1220进行精密电压测量的5个关键配置与调试技巧

告别数据跳动!用STM32F103驱动ADS1220进行精密电压测量的5个关键配置与调试技巧 在工业测量和传感器信号采集领域,ADS1220作为TI推出的24位精密ADC,凭借其低噪声PGA和灵活的配置选项,成为许多工程师的首选。但实际应用中&#xff…...

PHP订单幂等性设计失效全复盘(2024真实生产事故溯源)

更多请点击: https://intelliparadigm.com 第一章:PHP订单幂等性设计失效全复盘(2024真实生产事故溯源) 某电商平台在 2024 年“618”大促期间突发重复扣款与订单爆炸式生成,核心支付服务 3 小时内创建超 17 万笔状态…...

【PHP 8.9错误处理终极指南】:5大精准管控机制+3个生产环境避坑实战案例

更多请点击: https://intelliparadigm.com 第一章:PHP 8.9错误处理演进与核心理念 PHP 8.9(当前为前瞻规范草案)在错误处理机制上引入了“可恢复类型错误协议”(Recoverable Type Error Protocol, RTEP)&a…...

生信分析实战:用MetaPhlAn4处理完测序数据后,这些结果文件怎么用?(附常用脚本)

MetaPhlAn4结果文件深度解析:从数据提取到高级可视化的完整指南 当你第一次拿到MetaPhlAn4生成的.txt结果文件时,可能会被那些看似晦涩的clade_name和relative_abundance搞得一头雾水。别担心,这篇文章将带你从零开始理解这些数据&#xff0…...

手把手教你用51单片机和ADC0832做个CO2监测仪(附Proteus仿真和Keil源码)

51单片机实战:从零搭建高精度CO2监测仪(含仿真与源码解析) 在空气质量日益受到关注的今天,二氧化碳浓度监测已成为智能家居、农业大棚和工业环境中的重要需求。本文将带您完整实现一个基于51单片机的CO2监测系统,不仅…...

FanControl终极指南:5分钟学会Windows风扇精准控制,告别噪音烦恼

FanControl终极指南:5分钟学会Windows风扇精准控制,告别噪音烦恼 【免费下载链接】FanControl.Releases This is the release repository for Fan Control, a highly customizable fan controlling software for Windows. 项目地址: https://gitcode.c…...

Go语言高效开发实战:并发模式、性能优化与工程化实践

1. 项目概述与核心价值最近在GitHub上看到一个挺有意思的项目,叫cxuu/golang-skids。乍一看标题,可能会让人联想到“技能”或者“技巧”,但点进去你会发现,它其实是一个精心整理的Go语言(Golang)学习资源与…...

多核处理器与高速互连技术在雷达信号处理中的应用

1. 现代雷达系统的计算挑战与架构演进 雷达信号处理领域正经历着前所未有的计算需求增长。十年前,单通道雷达系统可能只需要单个处理器就能完成所有实时处理任务。但如今,即使是基础型号的雷达系统,也需要多个处理器协同工作才能满足实时性要…...

终极Windows清理方案:用Windows Cleaner彻底告别C盘爆红困扰

终极Windows清理方案:用Windows Cleaner彻底告别C盘爆红困扰 【免费下载链接】WindowsCleaner Windows Cleaner——专治C盘爆红及各种不服! 项目地址: https://gitcode.com/gh_mirrors/wi/WindowsCleaner 你是否经常遇到C盘空间不足的警告&#x…...

别再手动算权重了!用SPSSAU搞定面板数据财务排名(熵权TOPSIS保姆级教程)

财务分析新范式:如何用SPSSAU实现面板数据的智能排名决策 财务分析领域正在经历一场静默的革命。当大多数分析师还在Excel中手动计算权重、反复核对公式时,前沿的数据处理工具已经能够将原本需要数天的工作压缩到几分钟内完成。本文将揭示如何利用SPSSAU…...

ChatGPT Adapter:统一AI接口网关,轻松集成多模型服务

1. 项目概述与核心价值最近在折腾AI应用开发,发现一个挺头疼的问题:市面上的AI模型和API接口五花八门,OpenAI有它的标准,Coze有它的玩法,DeepSeek、Cursor、Bing Copilot又各自为政。想在自己的项目里灵活切换或者同时…...

ROS机器人Web控制面板:从架构设计到安全部署的完整实践

1. 项目概述:一个为机器人打造的“驾驶舱”如果你玩过机器人,或者接触过自动化设备,你肯定知道,让机器人动起来只是第一步。真正让人头疼的,往往是后续的“驾驶”和“管理”。代码写好了,硬件连上了&#x…...

日本麻将助手HTTPS配置终极指南:安全连接与本地证书完整教程

日本麻将助手HTTPS配置终极指南:安全连接与本地证书完整教程 【免费下载链接】mahjong-helper 日本麻将助手:牌效防守记牌(支持雀魂、天凤) 项目地址: https://gitcode.com/gh_mirrors/ma/mahjong-helper 日本麻将助手&…...

APKMirror:安全高效的安卓应用管理开源解决方案

APKMirror:安全高效的安卓应用管理开源解决方案 【免费下载链接】APKMirror 项目地址: https://gitcode.com/gh_mirrors/ap/APKMirror 在安卓生态系统中,应用版本管理、安全下载和历史版本追溯一直是普通用户和开发者面临的三大核心痛点。APKMir…...

如何零基础掌握SVG在线编辑器:告别专业软件的高门槛创作

如何零基础掌握SVG在线编辑器:告别专业软件的高门槛创作 【免费下载链接】svgedit Powerful SVG-Editor for your browser 项目地址: https://gitcode.com/gh_mirrors/sv/svgedit 你是否曾经因为复杂的矢量图形软件而望而却步?是否在寻找一款简单…...

别再只调阈值了!用OpenCV的Sobel梯度法提升低对比度图像缺陷检出率

别再只调阈值了!用OpenCV的Sobel梯度法提升低对比度图像缺陷检出率 在工业质检和医学影像领域,低对比度图像中的缺陷检测一直是令人头疼的难题。许多开发者第一反应是反复调整二值化阈值参数,却常常陷入"调高漏检、调低误报"的死循…...

从飞控模拟到游戏UI:Qt姿态仪(ADI)的二次开发与数据接入指南(附源码)

从飞控模拟到科幻游戏:Qt姿态仪组件的跨领域开发实战 在无人机地面站软件中,姿态仪(Attitude Director Indicator)是飞行员判断飞行状态的核心仪表;而在科幻游戏里,类似的仪表盘却可能成为太空舱控制台的视…...

重庆大学LaTeX论文模板终极指南:3步完成专业论文排版

重庆大学LaTeX论文模板终极指南:3步完成专业论文排版 【免费下载链接】CQUThesis :pencil: 重庆大学毕业论文LaTeX模板---LaTeX Thesis Template for Chongqing University 项目地址: https://gitcode.com/gh_mirrors/cq/CQUThesis CQUThesis是专为重庆大学学…...

别再只会拖模块了!用MATLAB Function模块在Simulink里写自定义逻辑(附if/for/persistent实战)

从图形化到代码化:MATLAB Function模块在Simulink中的高阶应用 当Simulink的图形化模块无法满足复杂算法需求时,MATLAB Function模块就像一把瑞士军刀,让工程师能够直接在仿真模型中嵌入自定义代码逻辑。这种从拖拽模块到编写代码的思维转变&…...

基于Next.js的多模型AI聊天界面:统一集成OpenAI、Claude、Gemini与Ollama

1. 项目概述:一个统一的多模型AI聊天界面 如果你和我一样,经常需要在OpenAI的GPT、Anthropic的Claude、Google的Gemini,甚至本地运行的Ollama模型之间来回切换,那你一定体会过那种在多个浏览器标签页、不同风格的界面和API控制台…...