当前位置: 首页 > article >正文

计算机视觉——疲劳检测、基于DNN的年龄性别预测

一、疲劳检测基于 dlib 的人脸检测与 68 点关键点定位1.1摘要疲劳检测是一类通过分析人体行为如眼睛闭合、头部姿态、打哈欠等来判断个体是否处于疲劳或注意力不集中的技术。它在驾驶员监控、驾驶安全、课堂学员状态检测、远程办公督导等场景中具有重要应用价值。本文以基于人脸关键点的眼睛纵横比EAR, Eye Aspect Ratio方法为基础详细介绍原理、代码实现、参数调优等。1.2方法介绍眼睛纵横比EAR由Soukupová 和 Čech 提出基于眼睛的 6 个关键点位置计算。EAR 的优点在于计算量小、对头部轻微转动具有鲁棒性、实时性好。其计算公式为其中p1,p2,p3,p4,p5,p6是眼睛轮廓上的6个特征点∣∣p2-p6∣∣∣∣p3-p5∣∣||p1-p4|| 表示两点之间的欧氏距离。1.3优缺点介绍优点无需训练复杂模型简单高效适合资源受限场景。局限对遮挡手、眼镜的强反光、极端侧脸与光照变化敏感单纯使用 EAR 无法区分打瞌睡与短暂低头等情况通常需要结合头部姿态与 yaw/pitch/roll 或面部表情如打哈欠来提升准确率。1.4代码说明含讲解下面的示例代码实现了基于 dlib 的人脸检测与 68 点关键点定位计算左右眼 EAR绘制眼睛凸包并在疲劳连续闭眼超过阈值时给出中文报警提示。import numpy as np import dlib from sklearn.metrics.pairwise import euclidean_distances # 计算欧式距离 from PIL import Image, ImageDraw, ImageFont # pip install pillow -i https://pypi.tuna.tsinghua.edu.cn/simple import cv2 def eye_aspect_ratio(eye): # 计算眼睛纵横比 -------------计算眼睛纵横比------------- # 1 2 # 0 3 ----这是眼睛的6个关键点 # 5 4 A euclidean_distances(eye[1].reshape(1, 2), eye[5].reshape(1, 2)) B euclidean_distances(eye[2].reshape(1, 2), eye[4].reshape(1, 2)) C euclidean_distances(eye[0].reshape(1, 2), eye[3].reshape(1, 2)) ear ((A B) / 2.0) / C # EAR 纵横比 return ear def cv2AddChineseText(img, text, position, textColor(0, 255, 0), textSize30): 向图片中添加中文 if isinstance(img, np.ndarray): # 判断是否OpenCV图片类型 img Image.fromarray(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))#实现array到image的转换 draw ImageDraw.Draw(img) #在img图片上创建一个绘图的对象 # 字体的格式 fontStyle ImageFont.truetype( simsun.ttc, textSize, encodingutf-8) draw.text(position, text, textColor, fontfontStyle) # 绘制文本 return cv2.cvtColor(np.asarray(img), cv2.COLOR_RGB2BGR)# 转换回OpenCV格式 def drawEye(eye): # 绘制眼眶 eyeHull cv2.convexHull(eye) cv2.drawContours(frame, [eyeHull], -1, color(0, 255, 0), thickness-1) COUNTER 0 # 初始化检测器 detector dlib.get_frontal_face_detector() # 构造脸部检测器 predictor dlib.shape_predictor(shape_predictor_68_face_landmarks.dat) # 获取人脸关键点定位模型 cap cv2.VideoCapture(0) while True: ret, frame cap.read() # 获取帧 if not ret: break faces detector(frame, 0) # 检测每一个人脸 for face in faces: # 循环遍历每一个人脸 shape predictor(frame, face) # 获取关键点 # 将关键点转为坐标(x,y)的形式 shape np.array([[p.x, p.y] for p in shape.parts()]) rightEye shape[36:42] # 右眼关键点索引从36到41不包含42 leftEye shape[42:48] # 左眼关键点索引从42到47不包含48 rightEAR eye_aspect_ratio(rightEye) # 计算右眼纵横比 leftEAR eye_aspect_ratio(leftEye) # 计算左眼纵横比 ear (leftEAR rightEAR) / 2.0 # 均值 if ear 0.3: # 小于0.3认为闭眼很可能是犯困 COUNTER 1 if COUNTER 50: # 持续50帧则报警 frame cv2AddChineseText(frame, text!!!危险!!!, position(250, 250)) # 若连续N50则计数清零并重置解除疲劳标志 else: COUNTER 0 # 闭眼次数清零 drawEye(leftEye) # 绘制左眼 drawEye(rightEye) # 绘制右眼 info EAR:{:.2f}.format(ear[0][0]) frame cv2AddChineseText(frame, info, position(0, 30)) # 显示眼睛闭合程度 cv2.imshow(name, frame) if cv2.waitKey(1) 27: break cv2.destroyAllWindows() cap.release()1.5参数调整建议EAR 阈值示例中为 0.3该值与拍摄角度、相机分辨率、被检测者眼型有关。可通过离线标注数据集含张眼、闭眼样本计算ROC 曲线以选取最优阈值。连续帧数阈值示例中为 50 帧与摄像头帧率相关。若帧率为 30 FPS50 帧约为 1.6 秒对于疲劳检测通常选择 1–2 秒范围来区分眨眼短于 0.4s与长时间闭眼。二、基于DNN的年龄性别预测这里导入DNN模块中的年龄、性别、人脸的模型faceProto ./dlib_model/opencv_face_detector.pbtxt faceModel ./dlib_model/opencv_face_detector_uint8.pb ageProto ./dlib_model/deploy_age.prototxt ageModel ./dlib_model/age_net.caffemodel genderProto ./dlib_model/deploy_gender.prototxt genderModel ./dlib_model/gender_net.caffemodel2.1重要函数2.1.1 绘制人脸函数def getBoxes(net, frame): frameHeight, frameWidth frame.shape[:2] # 获取高度、宽度 blob cv2.dnn.blobFromImage(frame, 1.0, (300, 300),[104, 117, 123], True, False) net.setInput(blob)# 调用网络模型输入图片进行人脸检测 detections net.forward() # 四维批次第一个表格行数列数 faceBoxes [] # faceBoxes存储检测到的人脸 xxdetections.shape[2] for i in range(detections.shape[2]): # detections中每一行保存了7个数据第3个数据表示置信度第4567分别表示人脸归一化后的坐标位置 confidence detections[0, 0, i, 2] if confidence 0.7: # 筛选一下将置信度大于0.7侧保留其余不要了 x1 int(detections[0, 0, i, 3] * frameWidth) y1 int(detections[0, 0, i, 4] * frameHeight) x2 int(detections[0, 0, i, 5] * frameWidth) y2 int(detections[0, 0, i, 6] * frameHeight) faceBoxes.append((x1, y1, x2, y2)) # 人脸框的坐标 # 绘制人脸框 cv2.rectangle(frame,(x1, y1), (x2, y2), (0, 255, 0), int(round(frameHeight / 150)), 6) # 返回绘制了人脸框的frame、人脸包围框faceBoxes return frame, faceBoxes这里的detections时四维detections net.forward()detections.shape为四维数据对于此案例分别表示(批次, 类别, 目标数量, 每个目标7个数据)2.1.2 图片中添加中文字符def cv2AddChineseText(img, text, position, textColor(0, 255, 0), textSize30): 向图片中添加中文 if isinstance(img, np.ndarray): # 判断是否OpenCV图片类型 img Image.fromarray(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))#实现array到image的转换 draw ImageDraw.Draw(img) #在img图片上创建一个绘图的对象 # 字体的格式 fontStyle ImageFont.truetype( simsun.ttc, textSize, encodingutf-8) draw.text(position, text, textColor, fontfontStyle) # 绘制文本 return cv2.cvtColor(np.asarray(img), cv2.COLOR_RGB2BGR)# 转换回OpenCV格式完整代码import cv2 from PIL import Image, ImageDraw, ImageFont # pip install pillow import numpy as np # 模型初始化 # 模型(网络模型/预训练模型):face/age/gender(脸、年龄、性别) faceProto ./dlib_model/opencv_face_detector.pbtxt faceModel ./dlib_model/opencv_face_detector_uint8.pb ageProto ./dlib_model/deploy_age.prototxt ageModel ./dlib_model/age_net.caffemodel genderProto ./dlib_model/deploy_gender.prototxt genderModel ./dlib_model/gender_net.caffemodel # 加载网络 ageNet cv2.dnn.readNet(ageModel, ageProto) # 模型的权重参数、模型的配置。年龄 genderNet cv2.dnn.readNet(genderModel, genderProto) # 性别 faceNet cv2.dnn.readNet(faceModel, faceProto) # 人脸 # 变量初始化 # 年龄段和性别 ageList [0-2岁, 4-6岁, 8-12岁, 15-20岁, 25-32岁, 38-43岁, 48-53岁, 60-100岁] genderList [男性, 女性] mean (78.4263377603, 87.7689143744, 114.895847746) # 模型均值 # 自定义函数获取人脸包围框 def getBoxes(net, frame): frameHeight, frameWidth frame.shape[:2] # 获取高度、宽度 blob cv2.dnn.blobFromImage(frame, 1.0, (300, 300),[104, 117, 123], True, False) net.setInput(blob)# 调用网络模型输入图片进行人脸检测 detections net.forward() # 四维批次第一个表格行数列数 faceBoxes [] # faceBoxes存储检测到的人脸 xxdetections.shape[2] for i in range(detections.shape[2]): # detections中每一行保存了7个数据第3个数据表示置信度第4567分别表示人脸归一化后的坐标位置 confidence detections[0, 0, i, 2] if confidence 0.7: # 筛选一下将置信度大于0.7侧保留其余不要了 x1 int(detections[0, 0, i, 3] * frameWidth) y1 int(detections[0, 0, i, 4] * frameHeight) x2 int(detections[0, 0, i, 5] * frameWidth) y2 int(detections[0, 0, i, 6] * frameHeight) faceBoxes.append((x1, y1, x2, y2)) # 人脸框的坐标 # 绘制人脸框 cv2.rectangle(frame,(x1, y1), (x2, y2), (0, 255, 0), int(round(frameHeight / 150)), 6) # 返回绘制了人脸框的frame、人脸包围框faceBoxes return frame, faceBoxes def cv2AddChineseText(img, text, position, textColor(0, 255, 0), textSize30): 向图片中添加中文 if isinstance(img, np.ndarray): # 判断是否OpenCV图片类型 img Image.fromarray(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))#实现array到image的转换 draw ImageDraw.Draw(img) #在img图片上创建一个绘图的对象 # 字体的格式 fontStyle ImageFont.truetype( simsun.ttc, textSize, encodingutf-8) draw.text(position, text, textColor, fontfontStyle) # 绘制文本 return cv2.cvtColor(np.asarray(img), cv2.COLOR_RGB2BGR)# 转换回OpenCV格式 打开摄像头将每一帧画面传入神经网络中 cap cv2.VideoCapture(0) # 装载摄像头 while True: _, frame cap.read() frame cv2.flip(frame, 1) #镜像处理 # 获取人脸包围框、绘制人脸包围框可能多个 frame, faceBoxes getBoxes(faceNet, frame) if not faceBoxes: # 没有人脸时检测下一帧后续循环操作不再继续。 print(当前镜头中没有人) continue # 遍历每一个人脸包围框 for faceBox in faceBoxes: # 处理frame将其处理为符合DNN输入的格式 x1,y1,x2,y2faceBox faceframe[y1:y2,x1:x2] blob cv2.dnn.blobFromImage(face, 1.0, (227, 227),mean)#模型输入为227*277参考论文 # 调用模型预测性别 genderNet.setInput(blob) genderOuts genderNet.forward() gender genderList[genderOuts[0].argmax()] # 调用模型预测年龄 ageNet.setInput(blob) ageOuts ageNet.forward() age ageList[ageOuts[0].argmax()] result {},{}.format( gender, age)# 格式化文本年龄、性别 frame cv2AddChineseText(frame, result, (x1, y1-30)) #输出中文性别和年龄 cv2.imshow( result, frame) # if cv2.imshow(face, face) if cv2.waitKey(1) 27:# 按下Esc键退出程序 break cv2.destroyAllWindows() cap.release()

相关文章:

计算机视觉——疲劳检测、基于DNN的年龄性别预测

一、疲劳检测(基于 dlib 的人脸检测与 68 点关键点定位)1.1摘要疲劳检测是一类通过分析人体行为(如眼睛闭合、头部姿态、打哈欠等)来判断个体是否处于疲劳或注意力不集中的技术。它在驾驶员监控、驾驶安全、课堂学员状态检测、远程…...

MusePublic画质增强教程:后处理超分+色彩分级提升艺术表现力

MusePublic画质增强教程:后处理超分色彩分级提升艺术表现力 1. 项目简介 MusePublic是一款专门为艺术感时尚人像创作设计的轻量化文本生成图像系统。这个项目的核心基于MusePublic专属大模型,采用安全高效的safetensors格式封装,特别针对艺…...

公众号流量分成大涨!后公众号时代如何运营?流量商店旗下的互粉平台成增粉利器!

“上个月流量主收入终于突破5000元了!”深夜,运营“职场进化论”公众号的小林在朋友圈晒出后台截图。一年前,这个只有几百粉丝的账号月收入还不到100元。而如今,像小林这样依靠公众号流量分成实现可观收入的创作者正越来越多。 20…...

云容笔谈·东方红颜影像生成系统数据库课程设计案例:构建一个AI绘画作品社交平台

云容笔谈东方红颜影像生成系统数据库课程设计案例:构建一个AI绘画作品社交平台 最近几年,AI绘画技术发展得特别快,从最开始生成一些模糊的涂鸦,到现在能画出细节丰富、风格多样的精美作品,也就短短几年时间。很多同学…...

卡客车选胎别只看价格!这套判断逻辑让你少花冤枉钱

在商用车运输领域,轮胎选型是绕不开的话题,而绝大多数卡友在选胎时,都会陷入 “唯价格论” 的误区,认为单条轮胎越便宜,运营成本越低。但实际运营中,无数案例证明:价格从来不是决定轮胎价值的核…...

NaViL-9B开箱即用:无需下载权重,一键体验图片理解和文本对话

NaViL-9B开箱即用:无需下载权重,一键体验图片理解和文本对话 1. NaViL-9B镜像概述 NaViL-9B是上海人工智能实验室研发的原生多模态大语言模型,支持纯文本问答和图片理解双重能力。这个预置镜像的最大特点是开箱即用——所有模型权重文件已内…...

C++ 安全删除协议:在 C++ 关键对象析构时利用强制指令清空内存敏感数据以防御物理内存读取

C 安全删除协议:在关键对象析构时利用强制指令清空内存敏感数据以防御物理内存读取内存残留的无声威胁:数字世界中的物理漏洞在现代软件开发中,我们通常将注意力集中在网络安全、代码漏洞和逻辑错误上。然而,即便应用程序看似安全…...

示波器 | 光收发模块眼图测试

前言数字通信与光网络技术高速发展,光收发模块作为光电信号转换的核心器件,已成为数据中心、5G 通信、光纤传输等领域的关键基础组件,其信号质量、传输稳定性与可靠性影响着整个通信系统的运行效率与安全。眼图与误码率作为评估光模块性能的重…...

保姆级教程:用Python复现DMP动态运动基元,手把手验证收敛性(附完整代码)

从零实现DMP动态运动基元:Python代码实战与收敛性可视化分析 在机器人运动控制领域,动态运动基元(Dynamic Movement Primitives, DMP)因其出色的轨迹生成能力和稳定的收敛特性,已成为模仿学习的核心算法之一。本文将带您用Python完整实现DMP…...

DeepSeek-OCR-2效果展示:识别结果支持复制、搜索、跳转原文档位置

DeepSeek-OCR-2效果展示:识别结果支持复制、搜索、跳转原文档位置 DeepSeek-OCR-2 是一款先进的文档识别模型,它不仅能准确识别文档中的文字内容,还提供了丰富的交互功能,让文档处理变得更加高效便捷。通过创新的 DeepEncoder V2…...

调参不再玄学:手把手教你优化智能车(电磁组)舵机PD控制参数,告别‘画龙’

智能车电磁组舵机控制实战:从参数原理到赛道调优的完整指南 当你的智能车在直道上像喝醉一样左右摇摆,或者在弯道犹豫不决时,大多数问题都指向同一个核心——舵机控制参数设置不当。这不是魔法,而是一门可以通过系统方法掌握的科学…...

OpenClaw + Ollama 超时 500 错误排查与解决:调整上下文窗口与最大生成长度

一次因为模型参数配置不当引发的“跨设备推理慢如蜗牛”问题,最终通过降低 contextWindow 和 maxTokens 轻松搞定。背景 最近在一台轻薄本做测验, Windows 环境下折腾 OpenClaw 对接本地 Ollama 的 Qwen2.5:1.5B 模型。本以为小参数量模型跑起来毫无压力…...

Mac开发环境神器:OpenClaw+千问3.5-27B调试日志分析

Mac开发环境神器:OpenClaw千问3.5-27B调试日志分析 1. 为什么开发者需要日志分析助手 作为一个长期在Mac上折腾各种开发环境的程序员,我经历过太多深夜调试的痛苦时刻。那些密密麻麻的终端日志输出,往往包含着关键错误线索,但要…...

电源环路分析仪不会用?2026年硬件工程师的必备技能该补上了

电源环路分析仪不会用?2026年硬件工程师的必备技能该补上了实验室里,Buck电源刚调通,输出纹波看着也不错,但一上动态负载,输出电压就开始剧烈振荡。换了几组补偿参数,还是没找到症结所在。这时候,旁边有经验的前辈说了一句:"你测过环路稳定性吗?"说实话,…...

想做市场品牌策划?这3大秘诀让你的品牌脱颖而出!

行业痛点分析当前品牌策划领域面临诸多技术挑战。许多企业有产品无品牌,产品品质过硬、技术领先,但缺乏清晰的品牌定位与价值表达,陷入 “酒香也怕巷子深” 的困境,只能靠低价竞争。数据表明,约 60%的企业因品牌定位不…...

Claude Code交互体验对比:轻量级Phi-3-mini在代码任务上的表现

Claude Code交互体验对比:轻量级Phi-3-mini在代码任务上的表现 1. 开篇:小身材也有大能量 当提到代码生成模型,很多人首先想到的是Claude Code这类云端大模型。但今天我们要测试的Phi-3-mini-4k-instruct-gguf,这个只有3.8B参数…...

translategemma-27b-it部署教程:Ollama模型缓存路径迁移与多用户共享配置

translategemma-27b-it部署教程:Ollama模型缓存路径迁移与多用户共享配置 1. 快速了解translategemma-27b-it translategemma-27b-it是一个基于Gemma 3架构的先进翻译模型,专门处理55种语言之间的翻译任务。这个模型不仅能翻译文字,还能看懂…...

东莞故意伤害罪律师在线咨询

在东莞遇到故意伤害罪相关法律问题,别慌!广东秦仪律师团队为您提供专业且贴心的在线咨询服务。我们拥有经验丰富的律师,他们不仅是广东省律师协会会员,还在法律领域深耕多年,有着扎实的法律知识和丰富的实战经验。曾在…...

Qwen2.5-7B-Instruct作品分享:法律条款比对、合同风险点识别结果

Qwen2.5-7B-Instruct作品分享:法律条款比对、合同风险点识别结果 1. 项目背景与模型能力 Qwen2.5-7B-Instruct是阿里通义千问推出的旗舰版大模型,相比轻量级的1.5B/3B版本,7B参数规模带来了质的飞跃。在专业文本处理领域,特别是…...

Qwen3-Embedding-4B vs text-embedding-3-small成本对比评测

Qwen3-Embedding-4B vs text-embedding-3-small成本对比评测 想搭建一个智能知识库,但被OpenAI的API调用费用吓退了?或者担心数据隐私,想把一切都部署在自己服务器上?如果你正在寻找一个既强大又实惠的文本向量化方案&#xff0c…...

投资于人如何落地?红海云数字化重构国有企业人才价值链

2025年底,中央经济工作会议以“五个必须”概括了新形势下经济工作的规律性认识。其中,“必须坚持投资于物和投资于人紧密结合”这一论断,首次将“投资于人”提升到与“投资于物”同等重要的战略高度。这不仅是对传统增长模式的深刻反思&#…...

DeOldify在档案修复中的应用:老照片数字化上色企业落地实战案例

DeOldify在档案修复中的应用:老照片数字化上色企业落地实战案例 1. 引言:当黑白记忆遇见彩色未来 想象一下,你手里有一张泛黄的黑白老照片,那是你爷爷年轻时的样子。照片里的他意气风发,但黑白影像总让人觉得少了点什…...

大型机械作业险碰高压线?这款智能警示球及时预警保安全

去年12月,湖北武汉蔡甸区发生一起揪心的电力外破事故:一辆水泥泵车作业时,臂架不慎触碰110千伏输电导线,引发线路跳闸、导线断股,周边大面积停电,涉事司机被依法处罚,一场疏忽酿成严重损失。当前…...

外贸 SEO 中如何进行跨境关键词研究

外贸 SEO 中如何进行跨境关键词研究 在当今全球化的商业环境中,外贸 SEO(搜索引擎优化)已成为跨境电商企业提升品牌知名度和销售额的重要手段。而在外贸 SEO 中,跨境关键词研究是关键步骤。如何进行有效的跨境关键词研究呢&#…...

5分钟学会lychee-rerank-mm:图文混合内容排序不再难

5分钟学会lychee-rerank-mm:图文混合内容排序不再难 1. 为什么需要多模态重排序 在日常工作和生活中,我们经常遇到需要从大量图文内容中找出最相关结果的情况。比如: 电商平台需要为用户搜索"猫咪玩具"展示最匹配的商品图片和描…...

从理论到实践:深度解析永磁同步电机内模控制的实现与调优

1. 永磁同步电机控制技术概述 第一次接触永磁同步电机(PMSM)控制时,我被各种控制策略搞得晕头转向。直到真正在产线上调试电机时才发现,控制算法直接决定了电机的"性格"——有的响应迅猛但容易"暴躁"&#xf…...

Wireshark过滤规则、OSI模型与TCP三次握手详解

本文内容有以下三个部分: wireshark过滤规则osi模型简述tcp三次握手 一、wireshark过滤规则 wireshark只是一个抓包工具,用其他抓包工具同样能够分析tcp三次握手协议。例如,Sniffmaster是一款全平台抓包工具,支持HTTPS、TCP和UDP协…...

OpenClaw技能推荐:百川2-13B-4bits最适合的5个办公自动化技能

OpenClaw技能推荐:百川2-13B-4bits最适合的5个办公自动化技能 1. 为什么选择百川2-13B-4bits作为办公自动化引擎 去年冬天,当我第一次尝试用OpenClaw对接各种开源模型时,发现大多数13B参数级别的模型都需要至少24GB显存。直到遇到百川2-13B…...

启程代码学习之旅

文章目录一.自我介绍二.编程目标三.怎么样学习编程四.每周花费多少时间学习编程五.我最想进入的IT公司总结一.自我介绍 本人是一个二本院校大一的学生,专业是机械专业,智能制造工程,因为大二要学单片机51和stm32,所以开始跟老师学…...

OpenClaw极简配置法:1条命令启动Qwen3.5-9B-AWQ-4bit沙盒体验

OpenClaw极简配置法:1条命令启动Qwen3.5-9B-AWQ-4bit沙盒体验 1. 为什么选择沙盒体验 第一次接触OpenClaw时,我被它强大的本地自动化能力吸引,但复杂的本地安装过程让我望而却步。直到发现平台提供的预置镜像方案,才真正体会到&…...