当前位置: 首页 > article >正文

2.Pandas在电商数据处理中的核心价值

第1章 Pandas在电商数据处理中应用1.1 为什么Excel不够用需要PandasPandas是Python里的数据分析核心库。它的名字来自“Panel Data”面板数据专门处理表格型数据。电商数据分析里Pandas主要解决三类问题百万级数据快速处理Excel打不开的文件Pandas轻松读复杂数据清洗缺失值、重复值、异常值一行代码搞定灵活的数据聚合按店铺、类目、时间任意分组统计学Pandas不需要懂底层原理把它当成“Excel的Python版”就行。你会的筛选、排序、透视表Pandas都能做而且快得多。1.2 学习前的准备工作1.2.1 安装Pandas在上一章你已经装了Python现在安装Pandas和配套库。步骤1打开命令行Windows按Win R输入cmd回车Mac打开“终端”步骤2执行安装命令pip install pandas numpy openpyxlpandas核心数据处理库numpyPandas依赖的数值计算库openpyxl用于读写Excel文件步骤3验证安装在命令行输入python进入Python交互环境然后输入importpandasaspdprint(pd.__version__)如果输出版本号如2.0.3说明安装成功。[图1-1 命令行安装Pandas成功截图]我第一次装Pandas时直接用pip install pandas结果报错“pip不是内部命令”。后来发现是Python安装时没勾选“Add to PATH”。如果你也遇到这个问题可以回到第一章重装Python或者用python -m pip install pandas。1.2.2 准备电商测试数据为了本教程的实操你需要一份订单CSV文件。我建议生成一份10万行的模拟数据这样能真实感受Pandas的速度。生成模拟数据的代码复制到Jupyter运行importpandasaspdimportnumpyasnp np.random.seed(42)n100000dfpd.DataFrame({order_id:[ORDstr(i).zfill(8)foriinrange(1,n1)],user_id:np.random.randint(10000,99999,n),shop_name:np.random.choice([时尚女装旗舰店,潮流男装专营店,美妆优选,数码极客],n),category:np.random.choice([连衣裙,上衣,裤子,护肤品,手机],n),amount:np.random.uniform(10,2000,n).round(2),status:np.random.choice([已支付,已取消,已完成],n,p[0.7,0.1,0.2]),order_date:pd.date_range(2025-01-01,periodsn,freqmin)})df.to_csv(orders_100k.csv,indexFalse)print(已生成 orders_100k.csv共10万行)运行后当前目录下会生成orders_100k.csv文件约5-10MB。模拟数据不涉及真实用户可以放心使用。如果是公司真实数据必须先脱敏用户ID随机化、金额去掉尾数、时间模糊处理。第2章 Pandas核心数据结构Series与DataFrame2.1 DataFrameExcel表格的Python版Pandas最核心的概念是DataFrame你可以把它理解成一张Excel表格。它由行和列组成每列可以有不同的数据类型。创建一个简单的DataFrameimportpandasaspd data{订单号:[ORD001,ORD002,ORD003],金额:[299,599,89],状态:[已支付,已支付,已取消]}dfpd.DataFrame(data)print(df)输出订单号 金额 状态 0 ORD001 299 已支付 1 ORD002 599 已支付 2 ORD003 89 已取消2.2 SeriesDataFrame的一列Series是DataFrame的一列可以单独操作。提取一列amount_seriesdf[金额]print(amount_series)print(type(amount_series))# class pandas.core.series.SeriesSeries的常用操作print(amount_series.mean())# 平均值print(amount_series.sum())# 总和print(amount_series.max())# 最大值⚠️ 实操避坑提醒DataFrame的列名是大小写敏感的。df[金额]和df[金额 ]多一个空格是不同的。我遇到过因为Excel列名有不可见空格导致筛选失败的情况。建议用df.columns查看所有列名确认准确写法。第3章 数据读取read_csv与read_excel3.1 读取CSV文件电商场景读取上一节生成的orders_100k.csv。步骤1读取文件importpandasaspd dfpd.read_csv(orders_100k.csv)print(f数据形状{df.shape})# (100000, 7)print(f列名{df.columns.tolist()})步骤2查看前几行确认读取正确df.head()常用参数encoding指定编码中文CSV常用encodingutf-8或gbkdtype指定列的数据类型如dtype{user_id: str}parse_dates自动解析日期列如parse_dates[order_date]完整示例dfpd.read_csv(orders_100k.csv,encodingutf-8,parse_dates[order_date])3.2 读取Excel文件电商场景运营发来的报表可能是Excel格式。df_excelpd.read_excel(店铺报表.xlsx,sheet_nameSheet1)需要安装openpyxlpip install openpyxl3.3 读取多个文件并合并电商场景多个店铺的订单文件需要合并成一个DataFrame。importglob# 获取所有CSV文件filesglob.glob(orders_*.csv)df_list[]forfinfiles:temppd.read_csv(f)df_list.append(temp)df_allpd.concat(df_list,ignore_indexTrue)print(f合并后总行数{len(df_all)})我的踩坑经历有一次合并12个月的报表直接用pd.concat结果发现数据行数比预期少了很多。排查后发现其中一个月报表的列名末尾多了个空格导致Pandas没匹配上把该月数据单独成了一列。从那以后我合并前会统一用df.columns df.columns.str.strip()清理列名空格。第4章 数据概览快速了解订单数据质量拿到数据后第一件事不是马上分析而是先“把脉”——了解数据有多少行、有哪些列、有没有空值、各列是什么类型。4.1 head()与tail()看头看尾df.head(10)# 前10行df.tail(5)# 后5行4.2 shape数据维度rows,colsdf.shapeprint(f{rows}行{cols}列)# 输出100000行7列4.3 info()列类型与非空值df.info()输出示例class pandas.core.frame.DataFrame RangeIndex: 100000 entries, 0 to 99999 Data columns (total 7 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 order_id 100000 non-null object 1 user_id 100000 non-null int64 2 shop_name 100000 non-null object 3 category 99950 non-null object # 有50个空值 4 amount 100000 non-null float64 5 status 100000 non-null object 6 order_date 100000 non-null datetime64[ns] dtypes: datetime64[ns](1), float64(1), int64(1), object(4) memory usage: 5.3 MB关键信息解读Non-Null Count非空值数量如果小于总行数说明该列有缺失值Dtype数据类型object通常表示文本int64/float64是数字datetime64是日期上例中category列有50个空值需要后续处理4.4 describe()数值列的统计摘要df.describe()输出user_id amount count 100000.000000 100000.000000 mean 54923.456789 987.65 std 25987.123456 567.89 min 10000.000000 10.12 25% 32456.000000 498.00 50% 54923.000000 987.00 75% 77456.000000 1489.00 max 99999.000000 1999.99解读count非空数量如果少于总行数说明有缺失mean平均值std标准差越大说明数据越分散min/max最小/最大值可以快速发现异常值比如金额为负数4.5 检查缺失值的更直接方法df.isnull().sum()输出order_id 0 user_id 0 shop_name 0 category 50 amount 0 status 0 order_date 0 dtype: int64⚠️ 实操避坑提醒describe()默认只统计数值列。如果想看所有列包括文本的统计可以用df.describe(includeall)。我当初不知道这个参数以为文本列统计不了后来才发现。第5章 数据筛选与选择5.1 按列名选择选择单列返回Seriesdf[amount]# 推荐写法df.amount# 也可以但列名有空格或特殊字符时会报错选择多列返回DataFramedf[[order_id,amount,status]]5.2 按行索引选择前5行df[:5]# 相当于df.head()指定行范围df[10:20]# 第11行到第20行0索引5.3 loc与iloc更强大的选择方式loc按标签行名、列名选择iloc按位置行号、列号选择loc示例# 选择第0行到第4行以及order_id和amount列df.loc[0:4,[order_id,amount]]iloc示例# 选择前5行前2列df.iloc[0:5,0:2]5.4 条件筛选最常用电商场景筛选出“已支付”且金额大于500的订单。filtereddf[(df[status]已支付)(df[amount]500)]print(f符合条件的订单数{len(filtered)})多个条件# 已支付 或 已完成df[df[status].isin([已支付,已完成])]# 金额在100到500之间df[(df[amount]100)(df[amount]500)]电商场景筛选出“时尚女装旗舰店”的订单并只保留订单号、金额、日期三列。df_shopdf[df[shop_name]时尚女装旗舰店][[order_id,amount,order_date]]我的踩坑经历写多个条件时我经常忘记用括号把每个条件括起来比如df[df[amount] 100 df[status] 已支付]结果报错。正确写法是df[(df[amount] 100) (df[status] 已支付)]。每个条件独立括号条件之间用且或|或。第6章 综合实操案例10万行订单数据快速探查6.1 案例背景你拿到了orders_100k.csv需要在10分钟内完成数据质量检查并筛选出高价值订单已支付且金额≥500元供运营同事分析。6.2 分步操作步骤1读取数据并快速预览importpandasaspd dfpd.read_csv(orders_100k.csv,parse_dates[order_date])print(df.shape)df.head()步骤2检查数据质量# 1. 查看列类型和缺失值df.info()# 2. 查看数值列统计df.describe()# 3. 专门检查缺失值数量df.isnull().sum()# 4. 检查是否有重复订单号print(f重复订单数{df[order_id].duplicated().sum()})步骤3筛选高价值订单high_valuedf[(df[status]已支付)(df[amount]500)]print(f高价值订单数{len(high_value)})print(f高价值订单总金额{high_value[amount].sum():.2f})步骤4按店铺统计高价值订单的GMVgmv_by_shophigh_value.groupby(shop_name)[amount].sum().sort_values(ascendingFalse)print(gmv_by_shop)步骤5保存筛选结果high_value.to_csv(high_value_orders.csv,indexFalse)print(已保存到 high_value_orders.csv)6.3 预期结果示例数据形状(100000, 7) 重复订单数0 高价值订单数28340 高价值订单总金额18765432.50 shop_name 时尚女装旗舰店 5876543.20 潮流男装专营店 5123456.80 美妆优选 4321098.50 数码极客 3454321.00 Name: amount, dtype: float64第7章 本章踩坑清单与合规总结7.1 新手常见踩坑场景错误操作正确做法读取CSV中文乱码指定encodingutf-8或gbk列名访问df.订单号有空格或中文用df[订单号]条件筛选多个条件不用括号(条件1) (条件2)查看缺失值用肉眼扫df.isnull().sum()重复值没检查就直接用df.duplicated().sum()[图7-1 踩坑汇总表格图]第8章 结语Pandas的read_csv、info、describe、条件筛选是电商数据分析最常用的操作。掌握它们你就能快速了解任何一份订单数据的质量并筛选出需要重点分析的部分。下一章我会讲「Pandas数据清洗——缺失值、重复值、异常值处理」教你如何处理真实订单数据中的脏数据。有问题的评论区留言我看到会回复。

相关文章:

2.Pandas在电商数据处理中的核心价值

第1章 Pandas在电商数据处理中应用 1.1 为什么Excel不够用,需要Pandas Pandas是Python里的数据分析核心库。它的名字来自“Panel Data”(面板数据),专门处理表格型数据。电商数据分析里,Pandas主要解决三类问题&#x…...

JAVA重点基础、进阶知识及易错点总结(15)缓冲流 + 转换流

🚀 Java 巩固进阶 第15天 主题:缓冲流 转换流 —— 高效 IO 与编码安全的终极方案📅 进度概览:今天学习 生产环境真正在用的流组合!掌握缓冲流 转换流,你的文件操作代码才能达到"标准、高效、不乱码…...

北海穷游必吃的美食哪家好

在北海,海鲜饮食是城市风味的底色。从侨港风情街到南湾夜市,从海鲜大排档到连锁餐饮店,消费者对海鲜的期待始终围绕着“鲜活”“原味”“实惠”三个关键词。近年来,随着游客结构的变化——年轻群体、学生党、自驾家庭及宠物出行者…...

JAVA重点基础、进阶知识及易错点总结(14)字节流 字符流

🚀 Java 巩固进阶 第14天 主题:字节流 & 字符流 —— 文件读写的核心引擎📅 进度概览:今天进入 IO 流的灵魂章节!掌握这 4 个核心类,你就能打通文件读写的任督二脉。 💡 核心价值&#xff…...

OpenClaw压力测试:Phi-3-mini-128k-instruct持续运行24小时稳定性报告

OpenClaw压力测试:Phi-3-mini-128k-instruct持续运行24小时稳定性报告 1. 测试背景与目标 上周在本地部署了OpenClawPhi-3-mini组合后,我一直在思考这套方案的稳定性边界。作为个人自动化助手,它能否胜任724小时不间断工作?当我…...

【Java低代码组件调试黄金法则】:20年架构师亲授5大高频故障定位技巧,90%开发者从未听说

第一章:Java低代码组件调试的本质与认知跃迁Java低代码平台并非屏蔽复杂性,而是将复杂性重新封装、可视化与可追溯化。调试低代码组件的本质,是穿透表层拖拽逻辑,定位其背后生成的Java字节码、Spring Bean生命周期行为、以及运行时…...

快速验证限流策略:用快马一键生成rate limit exceeded处理原型

快速验证限流策略:用快马一键生成rate limit exceeded处理原型 最近在开发一个需要调用第三方API的项目时,遇到了经典的"rate limit exceeded"问题。作为开发者我们都知道,API调用频率超限是系统设计中必须考虑的场景。传统从零搭…...

【限时开源】Polars 2.0清洗模板库V1.0发布:含金融时序对齐、电商ID映射、日志正则归一化等9大高复用Pipeline

第一章:Polars 2.0大规模数据清洗技巧入门到精通教程 Polars 2.0 是专为高性能、内存安全与并行计算设计的 DataFrame 库,其惰性执行引擎与零拷贝语义使其在处理 GB 级别结构化数据时显著优于 Pandas。本章聚焦真实场景下的数据清洗实践,涵盖…...

《B3845 [GESP样题 二级] 勾股数》

题目背景 对应的选择、判断题:https://ti.luogu.com.cn/problemset/1102 题目描述 勾股数是很有趣的数学概念。如果三个正整数 a,b,c,满足 a2b2c2,而且 1≤a≤b≤c,我们就将 a,b,c 组成的三元组 (a,b,c) 称为勾股数。你能通过编…...

气象数据可视化实战:从雷达图到三维风场,前端技术栈全解析

气象数据可视化实战:从雷达图到三维风场,前端技术栈全解析 气象数据的可视化一直是前端开发领域最具挑战性的方向之一。想象一下,当你需要将每小时更新的全球气象数据转化为直观的动态图像,让气象学家一眼就能看出台风路径、让飞行…...

构建企业级抓取服务:基于快马平台的openclaw生产环境部署实战

今天想和大家分享一个实战经验:如何用InsCode(快马)平台快速搭建企业级的openclaw分布式抓取服务。这个方案特别适合需要处理大规模数据采集的业务场景,比如电商价格监控、舆情分析或者竞品追踪。 分布式架构设计 生产环境最怕单点故障,所以我…...

学生信息管理系统--Python进阶项目

1.需求分析: ​需求:根据操作流程以及系统需求,完成面向对象版学生管理系统项目开发 ​a.可以显示基本的版本信息和操作界面; ​b.可以通过键盘输入信息来完成基本功能,例如选择序号、确认退出、添加学生、修改信息等; ​c.学生属性信息有姓名、性别、年…...

Mojo调用PyTorch模型推理却遭遇内存泄漏?——国家级实验室验证的4层内存隔离架构首次公开

第一章:Mojo调用PyTorch模型推理却遭遇内存泄漏?——国家级实验室验证的4层内存隔离架构首次公开在高性能AI边缘部署场景中,Mojo语言通过其零开销FFI机制调用PyTorch C前端(LibTorch)实现低延迟推理,但实测…...

告别‘空树’!用UIAutomation Client伪装无障碍工具,搞定新版微信自动化(附完整C#项目)

深度解析Windows UIAutomation在微信自动化中的高阶应用 微信作为国民级通讯工具,其PC端自动化一直是企业RPA和开发者关注的热点。随着微信4.1版本的更新,传统的UI自动化方案遭遇了重大挑战——UI树变得"空空如也"。这背后隐藏着怎样的技术原理…...

数字IC时序约束实战:深入解析clock_uncertainty的设置策略与后端影响

1. 时钟不确定度的本质与组成 刚入行数字IC设计时,我最头疼的就是时序约束里那些看似相似却又微妙差别的概念。记得第一次看到clock_uncertainty这个参数,我盯着综合报告里的红色违例发了半小时呆。后来才明白,这个参数就像给时钟信号加了&qu…...

多层PCB内部结构与HDI技术深度解析

1. 多层PCB内部结构全解析作为一名硬件工程师,第一次拆解十层PCB板时,那种震撼感至今难忘。密密麻麻的过孔像微型城市的地下管网,精密排布的走线如同错综复杂的立体交通网。今天我就用最直观的立体解剖图,带你看透各种叠层结构的P…...

Qt多线程数据库操作:安全分离连接,彻底解决段错误

在 Qt 开发中,数据库操作与多线程的搭配是一个经典难题。许多开发者都曾遇到过这样的诡异现象:程序运行一段时间后突然崩溃,堆栈指向数据库操作,但代码逻辑明明正确。真相只有一个——数据库连接被多个线程共享了。本文结合真实项…...

SecGPT-14B开源大模型部署:CSDN平台内开箱即用,省去HuggingFace下载环节

SecGPT-14B开源大模型部署:CSDN平台内开箱即用,省去HuggingFace下载环节 想快速体验一个专注于网络安全问答的14B大模型,但又不想经历从HuggingFace下载几十GB模型文件的漫长等待和复杂配置?现在,在CSDN星图平台上&am…...

Flash Memory技术解析与应用实践

1. Flash Memory技术全景解析作为一名嵌入式系统开发工程师,我使用Flash Memory已有十余年经验。从早期的NOR Flash烧录到现在的TLC NAND优化,这项技术始终是存储领域的核心支柱。让我们抛开教科书式的定义,从实际工程角度重新认识这项既熟悉…...

C++ 性能评测工程:基于 Google Benchmark 的 C++ 函数级性能基准测试方法论

各位技术同仁,下午好!今天,我们将深入探讨一个在C开发中至关重要的话题:C 函数级性能基准测试。尤其是在追求极致性能的C世界里,仅仅依靠经验和直觉来优化代码是远远不够的。我们需要一套科学、严谨的方法论来量化和评…...

【WEB模型】CS架构BS架构HTMLCSSJS

一、CS架构 - Client/Server 客户端/服务器pc安装软件:安卓应用、ios应用需要安装专门软件才能用,软件直接跟服务器通信开发成本高,各个平台都有对应的开发工程师好处:功能强大二、BS架构 - Browser/Server 浏览器/服务器不需要安…...

Windows平台OpenClaw部署:百川2-13B-4bits量化版调用详解

Windows平台OpenClaw部署:百川2-13B-4bits量化版调用详解 1. 为什么选择这个组合? 去年冬天,当我第一次尝试在Windows笔记本上部署本地AI助手时,遇到了显存不足的难题。我的GTX 3060显卡根本无法承载常规的13B模型,直…...

从STFT到ISTFT:窗函数、填充与流式处理的实战指南

1. 窗函数一致性:信号重建的隐形守护者 第一次用STFT处理语音信号时,我踩过一个典型坑:用汉宁窗做分析,却忘了在重建时指定相同窗函数。结果重建后的语音像被掐着脖子说话,高频部分全是毛刺。这个教训让我明白&#xf…...

基于vue的非遗文化传承平台[vue]-计算机毕业设计源码+LW文档

摘要:非物质文化遗产(非遗)作为民族文化的重要组成部分,承载着人类社会的文明和历史记忆。随着现代社会的快速发展,非遗文化的传承面临着诸多挑战。为了更好地保护和传承非遗文化,本文设计并实现了一个基于…...

DNMSI2C轻量级声级计驱动库:IEC标准SPL数据采集

1. 项目概述DNMSI2C 是一款专为 DNMS Teensy 声音传感器模块设计的轻量级 IC 驱动库,面向嵌入式音频监测场景提供标准化、低开销的声压级(SPL)数据采集能力。该库不依赖浮点运算或动态内存分配,完全适配资源受限的微控制器平台&am…...

为什么99%的Python团队还没用上AOT?2026年官方方案的3大硬伤与2个绕过技巧(含patch diff与CI集成脚本)

第一章:Python 原生 AOT 编译方案 2026 概览与演进脉络Python 长期以来以解释执行和 JIT 辅助(如 PyPy)为主流运行范式,而原生 Ahead-of-Time(AOT)编译在 2026 年迎来实质性突破:CPython 官方正…...

Ryzen SDT调试工具:解锁AMD处理器隐藏性能的终极指南

Ryzen SDT调试工具:解锁AMD处理器隐藏性能的终极指南 【免费下载链接】SMUDebugTool A dedicated tool to help write/read various parameters of Ryzen-based systems, such as manual overclock, SMU, PCI, CPUID, MSR and Power Table. 项目地址: https://git…...

Java应用等保三级合规改造:3天完成代码层、配置层、运维层全栈优化(附Checklist)

第一章:Java应用等保三级合规改造全景图等保三级是国家网络安全等级保护制度中面向重要信息系统的核心要求,对Java应用而言,合规改造不是单一技术点的修补,而是一套覆盖开发、运行、运维全生命周期的安全治理工程。其核心目标在于…...

2026顶空气体分析仪TOP5|权威评测与选购指南

顶空气体分析仪,又叫顶空残氧仪,主要用于测量封闭容器中顶部空间氧气与二氧化碳的浓度。随着市场需求越来越大,市面上品牌五花八门,新手选购易踩雷、难抉择。本次榜单严格遵循客观数据真实口碑原则,综合公司背景、技术…...

GTE-Base-ZH一键部署教程:3步在Ubuntu上搭建语义检索服务

GTE-Base-ZH一键部署教程:3步在Ubuntu上搭建语义检索服务 想给自己的应用加个智能搜索功能,但一看到复杂的模型部署就头疼?别担心,今天咱们就来聊聊怎么用最简单的方法,在Ubuntu系统上把GTE-Base-ZH这个强大的中文语义…...