摘要:随着智能手机在课堂环境中的普及,学生课堂手机使用行为对教学秩序和学习效果产生了一定影响,传统人工监管方式存在效率低、主观性强等问题。针对上述问题,本文设计并实现了一种基于知识蒸馏的轻量化 YOLO 课堂手机使用行为实时检测与预警系统,为课堂管理提供智能化技术支持。
项目简介
基于 YOLOv12 的考试作弊异常行为检测与分析系统,实现对考场视频中多类异常/作弊行为的实时识别、标注、统计分析与记录留存。
系统概述
随着教育信息化的不断发展,传统人工监考方式在实际考试过程中逐渐暴露出人力成本高、监控效率低以及主观性强等问题。为提升考试监考的智能化与规范化水平,本文设计并实现了一种基于 YOLOv12 深度学习算法的考试异常行为检测与分析系统。
系统以最新的 YOLOv12 目标检测算法作为核心检测引擎,相较于前代模型,在检测精度和推理速度方面均有显著提升,能够满足实时监控需求。系统可对考场视频中的 12 种典型异常行为进行自动识别与分析,包括提前作答、左右偏头、向后偏头、考试站立、传递可疑物品、捡拾可疑物品、携带可疑物品、手放桌下并埋头、考生中途出入考场、举手、销毁试卷以及考后继续作答等行为。
在系统实现方面,基于 PySide6 框架开发了可视化图形用户界面,支持视频文件检测、实时摄像头检测和静态图片检测等多种工作模式,并结合 SQLite 数据库实现检测结果的持久化存储与管理。系统主要功能包括:多源视频输入与处理、实时异常行为检测与标注、考试时间管理与违规检测、考场与监考信息配置、检测结果统计分析以及异常行为检测视频的自动录制与保存。
实验与测试结果表明,该系统在实际应用场景下能够较为准确地识别考场中的各类异常行为,检测准确率较高,平均帧率稳定在 30 FPS 以上,系统响应速度能够满足实时监控要求。整体系统界面友好、操作便捷,具有较强的实用性和推广价值,可为考试监考工作提供有效的技术支持,减轻监考人员工作负担,提高考试的公平性与规范性。
系统架构
本系统采用经典的四层架构设计:

图1 考试作弊异常行为检测系统四层架构图
核心亮点
本章节将快速概览系统的核心技术价值和应用亮点,帮助您快速了解项目的独特优势。无论您是技术人员、研究者还是决策者,都能从中快速获取关键信息,判断本系统是否符合您的需求。
算法特点
本系统采用 YOLOv12n 官方基线模型作为核心检测算法,该模型具有以下特点:
– 注意力中心:Area Attention,低开销+大感受野,提升复杂场景表征。
– 特征聚合:R-ELAN 增强融合与梯度传递,兼顾精度与稳定性。
– 多尺度检测:多尺度预测,小目标/遮挡目标更友好。
– 轻量部署:YOLOv12n≈2.6M 参数,≈6.5 GFLOPs(B),适合实时与边缘部署。
性能突破
通过在考试异常行为识别数据集(3,824张训练集 + 1,092张验证集)上进行150轮完整训练,YOLOv12基线模型取得了卓越的识别性能:

图2 基线模型性能分析图
系统特色
本系统基于YOLOv12深度学习架构,在高精度识别的基础上,注重实用性和易用性,提供完整的功能模块和友好的用户体验。

技术价值
本项目的技术创新不仅具有学术意义,更具有广泛的应用价值和教育价值。

核心技术
基于 YOLO12 实时目标检测框架,构建融合轻量化特征提取、注意力增强机制、多尺度特征融合与优化回归损失的检测模型,实现对 12 类考试异常行为的高精度实时识别。
算法详解
本系统采用 Ultralytics 最新发布的 YOLOv12n(Nano)模型 作为核心检测算法。YOLOv12 采用经典的 Backbone–Neck–Head 三段式架构(见图)。Backbone 以 640×640 输入图像为基础,通过两层初始卷积完成下采样,并利用 2 个 C3k2 轻量化模块 逐步降低特征图分辨率、提升通道维度(64 → 512),实现从低层纹理到高层语义的多尺度特征提取。中后段引入 2 个 A2C2f 注意力增强模块(通道维度 512 → 1024),通过自适应注意力机制强化考生异常动作、可疑物品等关键区域特征,相比传统模块具有更强的特征表达能力和上下文建模能力。最终输出 P3/8、P4/16、P5/32 三个尺度特征图,分别对应小、中、大目标。

图3 YOLO12网络架构图
Neck 部分采用 FPN+PAN 双向特征金字塔实现多尺度特征融合:FPN自顶向下将高层语义信息逐级传递至低层,提升小目标(如手部动作、小型可疑物品)检测能力;PAN自底向上将低层细节与定位信息反馈至高层特征,增强大目标(如站立、离座等全身动作)检测精度。Neck 中大量使用 A2C2f模块替代传统特征融合模块,显著提升了特征融合质量和检测性能。
Head 由三个独立的解耦检测头组成,分别对三种尺度特征进行预测,输出目标边界框坐标、12类异常行为概率(提前作答、左右偏头、向后偏头、考试站立、传递可疑物品、捡可疑物品、携带可疑物品、手放桌下并埋头、考生中途出入考场、举手、销毁试卷、考后继续作答)及置信度。系统采用 Anchor-Free 检测机制,边界框回归使用DFL(Distribution Focal Loss)提升定位精度,分类分支采用 Varifocal Loss 缓解类别不平衡,并结合 Task-AlignedAssignment 动态分配正负样本以对齐分类与定位任务。
该模型参数量仅 2.6M(2,602,288 参数),计算量 6.7 GFLOPs,模型大小约 5.5 MB;在 GPU 环境下推理速度可达 50+ FPS,在保证检测精度的同时具备良好的轻量化与实时性。经过 150轮训练后,模型在考试异常行为检测数据集上取得了卓越性能:mAP@0.5 达 99.50%,mAP@0.5:0.95 达 99.48%,精确率99.86%,召回率 99.69%,适用于考场实时监控与异常行为识别场景。
技术优势分析
YOLO12n 在 YOLO11、YOLOv10 与 YOLOv8 的基础上进行了系统性优化,通过融合 A2C2f 注意力增强模块 与 C3k2 轻量化模块,在保证检测精度的同时提升特征表达能力,并结合 2×2 卷积下采样 有效降低参数量与计算复杂度。相较于 YOLO11 中的 C2PSA 与 SPPF 模块,A2C2f 采用自适应注意力机制,增强全局建模与多尺度特征融合能力,并在 Neck 部分得到广泛应用。检测头采用 解耦设计,引入 DFL 与 TAA 优化回归与样本分配策略,进一步提升小目标及复杂场景下的检测性能。实验结果表明,YOLO12n 在参数效率、推理速度与检测精度之间实现了更优平衡,在考试异常行为检测任务中取得 mAP@0.5:0.95 为 99.48% 的性能表现。
性能表现
YOLO12n基线模型以2.6M参数量、6.7 GFLOPs计算量实现高效推理,在考试异常行为检测任务上达到99.50% mAP@0.5和99.48% mAP@0.5:0.95的卓越精度,精确率99.86%,召回率99.69%,支持GPU加速和CPU部署,兼顾轻量化、高精度与实时性的完美平衡。
模型性能分析
YOLO12n 基线模型以 2.6M 参数量、6.7 GFLOPs 计算量实现高效推理,在 考试异常行为检测任务 上达到 99.50% mAP@0.5 和 99.48% mAP@0.5:0.95 的卓越精度,精确率 99.86%,召回率 99.69%,支持 GPU 加速 和 CPU 部署,兼顾轻量化、高精度与实时性的完美平衡。

该模型采用轻量化设计,仅包含 2.6M 参数和 6.7 GFLOPs 计算量,模型文件大小约 5.5MB,适合在资源受限的边缘设备上部署。在保持高精度的同时,模型具备良好的实时性能,支持 CPU 和 GPU 多种硬件平台,为考试异常行为智能检测系统提供了高效可靠的技术支撑。
关键指标(注:真实数据)
YOLO12基线模型在150轮训练过程中,mAP@0.5:0.95指标从初始的51.87%稳步提升至最终的99.48%,提升幅度达47.61%。训练过程呈现明显的三阶段特征:快速上升阶段(Epoch 1-20)实现从51.87%到97.07%的跃升,稳定收敛阶段(Epoch20-100)从97.07%提升至99.44%,精细调优阶段(Epoch 100-150)最终达到99.48%并趋于稳定。

图4 YOLO12训练过程mAP50-95曲线图
该曲线充分展示了模型在考试异常行为检测任务上的学习能力和收敛特性,验证了训练策略的有效性。最终,99.48% mAP@0.5:0.95 和 99.50% mAP@0.5 的表现证明了模型在严格评估标准下依然保持卓越的性能。
性能优势总结
YOLO12 基线模型在考试异常行为检测任务上展现出卓越的综合性能。通过 2.6M 参数量和 6.7 GFLOPs 的轻量化设计,模型实现了 99.50% mAP@0.5 和 99.48% mAP@0.5:0.95 的高精度识别,精确率达到 99.86%,召回率达到 99.69%,误识别率和漏检率均控制在 0.5% 以内。经过 150 轮充分训练,模型在训练集和验证集上稳定收敛,mAP@0.5:0.95 从初始的 51.87% 提升至 99.48%,提升幅度达 47.61%,充分验证了模型的学习能力和泛化性能。该模型不仅精度高,而且支持 CPU/GPU 多平台部署,适合实时视频流处理和边缘设备应用,为考试异常行为智能检测系统提供了高效、可靠、易部署的技术解决方案
系统功能
本系统提供视频检测、实时检测、数据分析、参数配置四大核心功能,实现考试异常行为的智能识别、实时监控、数据统计与可视化分析。
功能概述
本系统基于YOLO12深度学习模型,实现了考试异常行为的智能识别与分析。系统采用现代化的图形用户界面(GUI),提供视频识别、实时摄像头识别两种工作模式,并集成了数据统计分析、识别记录管理、结果可视化等功能,为考场监控、异常行为检测、考试管理等应用场景提供高效、便捷的技术支撑。

视频检测功能
视频识别模式支持对录制的视频文件(MP4、AVI、MOV 格式)进行逐帧识别,用户点击”视频检测”按钮选择视频文件后,系统自动读取视频流并对每一帧进行实时目标识别,在界面中显示标注后的视频画面、当前识别帧率(FPS)和累计统计信息,采用DetectWorker 多线程异步处理技术避免界面卡顿,支持自动保存识别后的视频文件(带标注),并记录视频中出现的异常行为类型和分布情况,检测到异常行为时自动抓拍并保存图片
实时检测功能
实时检测模式支持连接本地摄像头或网络摄像头进行实时考试异常行为识别,系统启动时自动扫描并检测可用摄像头设备(索引0-9),用户点击”实时检测”按钮并选择指定摄像头后,系统进行实时视频流识别(支持GPU加速实现流畅处理),实时显示识别结果和置信度,当检测到异常行为时自动触发告警(状态指示灯显示、自动抓拍保存),实时更新识别统计信息和异常行为类型分布,所有检测结果自动保存到数据库。
数据统计与分析
数据分析模块提供识别数据的可视化展示和统计分析功能,用户点击”数据分析”按钮打开独立的分析窗口,可查看检测总次数、异常行为种类、检测频次、平均置信度等关键指标,通过条形图、饼图、统计卡片等形式直观展示数据分布,包含数据概览、异常行为分析、详细统计三个标签页,支持查询历史识别记录(存储在 SQLite数据库)、查看检测来源分布(视频/摄像头)、异常行为类型分布统计(Top12)、清空当前用户记录等操作,实现识别数据的持久化存储和全面分析。
记录管理功能
记录管理模块集成了识别结果的存储和查询功能,系统自动保存每次识别的时间、图像、异常行为类型、置信度、边界框坐标、检测来源等详细数据到 SQLite 数据库,用户可通过数据分析模块查询历史统计数据,支持按用户查询、查看异常行为分布、检测来源统计等功能,识别图像和抓拍图片自动保存到 save_data 目录便于追溯查询,检测视频自动保存带标注的结果,实现从识别到数据管理的全流程自动化处理。
系统架构
本系统采用 Python 3.12 开发,基于 Ultralytics YOLO12 深度学习框架实现目标检测,使用 PySide6 (Qt for Python)构建现代化图形用户界面,通过 OpenCV 进行图像和视频处理,采用 DetectWorker 多线程异步处理技术保证界面流畅性,并使用SQLite 数据库实现数据持久化存储和查询,系统架构清晰、模块化设计,便于功能扩展和维护。

图5 考试作弊异常行为检测与分析系统总流程图
系统优势
本系统基于YOLO12深度学习模型,实现了考试异常行为的智能识别与分析。系统采用YOLO12n轻量化检测网络,在验证集上达到mAP@0.5 = 99.50%、mAP@0.5:0.95 = 99.48%的识别精度,精确率99.86%、召回率99.69%,模型参数量仅2.6M、计算量6.7 GFLOPs、模型文件5.5MB,适合边缘设备部署。支持实时视频流处理,内置FPS监控和推理时间统计功能,支持GPU加速实现流畅响应。提供视频文件、实时摄像头两种识别模式,配备数据统计分析和可视化功能,满足考场监控应用场景需求。
运行展示
系统界面分为左侧功能按钮和参数设置、中央识别画面显示、右侧统计信息和记录管理三个区域,提供视频/实时识别、数据分析、结果展示、记录查询等完整功能,界面简洁直观、操作便捷。
检测效果展示
登录界面:

图6 登录主界面
用户登录界面,展示系统入口

图7 注册主界面
用户注册界面,新用户创建账号
系统运行模块:

图8 系统主界面

图9 视频检测:提前作答

图10 视频检测:传递可疑物品

图11 视频检测:捡可疑物品

图12 视频检测:举手(需要老师现场确定行为的合规)

图13 视频检测:考生中途出入考场

图14 视频检测:考试站立

图15 视频检测:手放桌下并埋头

图16 视频检测:向后偏头

图17 视频检测:销毁试卷

图18 视频检测:携带可疑物品

图19 视频检测:左右偏头

图20 视频检测:考后继续作答

图21 实时检测:传递可以物品

图22 实时检测:捡可疑物品

图23 实时检测:考生中途出入考场

图24 实时检测:考试站立

图25 实时检测:手放桌下并埋头

图26 实时检测:销毁试卷

图27 实时检测:携带可疑物品

图28 实时检测:左右偏头
数据分析模块:

图29 数据分析概览

图30 数据分析:异常行为分析

图31 数据分析:详细统计

图32 数据分析:清空记录
参数配置:

图32 参数配置:基本信息

图32 参数配置:时间设置

图32 参数配置:考试规则

图32 参数配置:监考管理

图32 参数配置:防作弊设置

图32 参数配置:语音提醒设置

图32 参数配置:邮件配置及告警

图32 参数配置:保存配置

图33 退出系统

图34 邮件告警
数据集与训练
本章介绍了考试异常行为检测数据集的构建过程、模型训练流程与配置,以及YOLO12基线模型在验证集上达到99.50%的mAP@0.5和99.48%的mAP@0.5:0.95的卓越性能。数据集包含5,463张高质量标注图像(训练集3,824张、验证集1,092张、测试集547张),涵盖12个异常行为类别(提前作答、左右偏头、向后偏头、考试站立、传递可疑物品、捡可疑物品、携带可疑物品、手放桌下并埋头、考生中途出入考场、举手、销毁试卷、考后继续作答),经过150轮充分训练,模型精确率达99.86%、召回率达99.69%,展现出卓越的识别能力和实用价值。
数据集构建
本研究使用的是考试异常行为检测数据集,该数据集专门针对考场环境中的考生异常行为进行标注。数据集包含多种考场场景下的图像,涵盖不同光照条件、不同拍摄角度和距离,包含12个异常行为类别(提前作答、左右偏头、向后偏头、考试站立、传递可疑物品、捡可疑物品、携带可疑物品、手放桌下并埋头、考生中途出入考场、举手、销毁试卷、考后继续作答),具有较强的场景多样性和实用价值。数据集共包含5,463张高质量标注图像,按照约7:2:1的比例划分为训练集(3,824张)、验证集(1,092张)和测试集(547张),为模型训练和评估提供了充足的数据支撑。

图35 数据集划分及类别信息统计示意图
数据集特点:
本研究使用的是考试异常行为检测数据集,该数据集专门针对考场环境中的考生异常行为进行标注。数据集包含多种考场场景下的图像,涵盖不同光照条件、不同拍摄角度和距离,包含12个异常行为类别(提前作答、左右偏头、向后偏头、考试站立、传递可疑物品、捡可疑物品、携带可疑物品、手放桌下并埋头、考生中途出入考场、举手、销毁试卷、考后继续作答),具有较强的场景多样性和实用价值。数据集共包含5,463张高质量标注图像,按照约7:2:1的比例划分为训练集(3,824张)、验证集(1,092张)和测试集(547张),为模型训练和评估提供了充足的数据支撑。
数据集划分:
数据集按照约 70:20:10 的比例划分为训练集、验证集和测试集:

表1 数据集划分及用途说明
训练集用于模型的参数学习和特征提取能力训练。验证集用于训练过程中的性能监控和超参数调优,帮助选择最优模型。测试集用于最终的性能评估,确保模型在未见过的数据上具有良好的泛化能力。

图36 数据集在训练、验证和测试集上的分布
数据预处理:
所有输入图像统一调整为 640×640 分辨率,采用letterbox填充方式保持原始长宽比,避免图像拉伸变形导致车辆特征失真,确保模型能够准确识别车辆品牌和类型特征。
数据增强策略:
训练过程中采用多种数据增强方法提升模型鲁棒性

图37 数据集图像增强方法
Mosaic关闭策略:diyizh在训练的最后 10 个 epoch 关闭 Mosaic 增强(close_mosaic=10),使模型在原始图像分布上精修检测框,提升边界定位精度。这意味着在第1-140轮使用Mosaic数据增强,在第141-150轮使用原始图像进行训练。
数据集质量保证:
为了确保实验数据的可靠性和有效性,本研究的数据集经过严格的质量控制。所有图像均无损坏或无效背景,保证了数据的完整性。标注工作经过多轮人工审核,确保边界框定位精确,类别标注一致且符合定义标准。这些措施有效提升了数据集的质量,为模型训练和性能评估提供了可靠保障。
训练流程
模型训练采用端到端的方式,首先加载训练集和验证集进行数据预处理,然后加载YOLOv12n预训练权重进行模型初始化,接着使用SGD优化器进行150轮迭代训练,每轮训练后在验证集上评估性能指标,系统自动保存验证集上性能最佳的模型权重,最终输出完整的性能指标和训练曲线。

图38 模型训练流程
训练流程:
1. 开始训练 → 加载训练集和验证集进行数据预处理
2. 模型初始化 → 加载YOLOv12预训练权重(yolo12n.pt),使用标准YOLOv12架构
3. 模型训练 → 使用SGD优化器进行150轮迭代训练,应用数据增强技术
4. 模型验证 → 每轮训练后在验证集上评估性能指标(Precision, Recall, mAP@0.5, mAP@0.5:0.95)
5. 最佳模型保存 → 系统自动监控验证性能,保存验证集上性能最佳的模型权重(best.pt)
6. 训练完成 → 输出完整的性能指标报告和训练曲线图
训练配置
硬件环境:

软件环境

训练超参数

数据增强策略
为提高模型泛化能力,训练过程中采用以下数据增强方法:Mosaic增强将4张图像拼接成一张以增加小目标检测能力;随机翻转以50%的概率对图像进行水平翻转;随机缩放在0.5-1.5倍范围内调整图像尺寸;色彩抖动在HSV色彩空间进行随机调整,其中色调(Hue)调整范围为±0.015、饱和度(Saturation)为±0.7、明度(Value)为±0.4;随机平移在±10%范围内对图像进行位置偏移。
学习率调度策略
学习率调度策略采用线性衰减方式,前3个epoch进行warmup预热,学习率从0线性增长到初始学习率0.01,之后按线性方式从0.01逐步衰减到最终学习率0.0001。
训练结果
性能指标:
经过150轮训练,YOLO12n 基线模型在考试作弊异常行为验证集上取得了优异的性能:

训练曲线分析:
下图展示了模型在150轮训练过程中的完整性能变化,包括损失函数曲线和精度指标曲线:

图39 训练曲线分析
图中展示了10个关键指标的训练过程:训练损失(box/cls/dfl)、验证损失(box/cls/dfl)、精确率、召回率、mAP@50和mAP@50-95
(1)损失函数曲线
训练过程中各项损失函数呈现稳定下降趋势。训练集边界框损失(train/box_loss)从初始的0.48快速下降,经过前3轮学习率预热后加速收敛,在第50轮后趋于稳定(降至0.27),最终收敛至约0.09;训练集分类损失(train/cls_loss)从初始的2.87快速下降,在第30轮后基本稳定在0.34左右,最终收敛至0.07,表明模型分类能力持续提升;训练集DFL损失(train/dfl_loss)从初始的0.95稳步下降至约0.76,分布焦点损失的降低反映了边界框预测精度的提高。验证集损失方面,验证集的box_loss从0.31降至0.09,cls_loss从2.09降至0.06,dfl_loss从0.81降至0.76,均呈现与训练集相似的下降趋势,且曲线平滑无明显波动,表明模型具有良好的泛化能力,未出现过拟合现象。
(2)精度指标曲线
模型性能指标在训练过程中持续提升。Precision(精确率)曲线从初始的47.1%快速上升,在第20轮达到96.3%,在第50轮达到99.2%,随后继续稳步提升,最终稳定在99.86%的卓越水平;Recall(召回率)曲线从初始的62.6%稳步提升,在第20轮达到98.4%,在第50轮达到98.7%,最终达到99.69%,表明模型对目标的检测能力优异;mAP@50指标从初始的54.5%快速上升,在第20轮达到97.7%,在第50轮达到99.3%,最终稳定在99.50%,显示模型在IoU阈值为0.5时具有极高的检测精度;mAP@50-95指标从初始的51.9%持续上升,在第20轮达到97.1%,在第50轮达到99.0%,在整个150轮训练过程中保持稳定增长态势,最终达到99.48%,表明模型在严格的IoU阈值范围(0.5至0.95)下仍能保持卓越的检测性能,证明了模型定位精度的准确性。
(3)Precision-Recall 曲线

图40 Precision-Recall 曲线
展示模型在不同置信度阈值下的精确率和召回率关系,all classes mAP@0.5达到0.995
(4)混淆矩阵(归一化)

图41 归一化混淆矩阵
归一化混淆矩阵展示模型的分类准确性
最佳模型选择
训练过程中,系统自动保存验证集上性能最佳的模型,最佳模型出现在第150轮,保存路径为runs/train/yolo12/weights/best.pt,选择标准为验证集mAP@50:0.95指标最高。。
训练稳定性分析
- 收敛速度:模型在前20轮快速收敛,第20-100轮稳定提升,第100-150轮精细调优
- 过拟合控制:训练集和验证集损失曲线走势一致,三类损失函数均平稳下降,无明显过拟合现象
- 训练稳定性:损失曲线平滑无剧烈波动,学习率逐步衰减,训练过程稳定可控
- 最终状态:模型在第150轮达到最佳性能,mAP50-95达到99.48%,训练过程稳定收敛
项目资源
我们提供项目的完整技术资源,包括源代码、训练脚本、配置文件、数据集和模型权重等全部内容。代码采用模块化设计,结构清晰,注释完善,支持完全复现论文中的所有实验结果。项目提供详细的文件清单和技术架构说明(网页已经提供),帮助用户快速理解项目结构,便于二次开发和功能扩展。所有资源均已开源,遵循AGPL-3.0协议,用户可自由使用、修改和分发。

关于项目
本项目基于YOLO12n(Nano)算法,实现在自定义12类异常行为数据集上的高精度检测。数据集包含5,463张标注图像,涵盖提前作答、偏头、站立等行为。经过150轮训练,模型在验证集上达到99.50% mAP@0.5和99.48% mAP@0.5:0.95,精确率99.86%、召回率99.69%,误识别和漏检率均低于0.5%。模型大小5.5MB,参数量2.6M,计算量6.7 GFLOPs,NVIDIA RTX 4070 GPU推理速度50+ FPS,满足实时检测需求。
项目背景
随着教育信息化和考试管理智能化的发展,精准识别考试异常行为成为考场监控和考试公平性保障的核心需求。传统人工监考效率低、成本高,难以满足大规模实时监控需求。近年来,深度学习在目标检测领域的突破为解决此问题提供了新思路。本项目基于YOLO12n轻量级智能检测方案,针对复杂考场环境中的异常行为识别,自动识别12类异常行为(如提前作答、偏头、站立等),实现实时预警。项目旨在提升考试管理智能化水平,降低监考成本,确保考试公平公正。
作者信息
作者:Bob (张家梁)
项目编号:YOLO_2 & Datasets-3
原创声明:本项目为原创作品

开源协议
本项目采用AGPL-3.0开源协议,允许个人和组织自由使用、修改和分发代码,但基于本项目的衍生作品必须同样开源,且用于提供网络服务时需向用户提供完整源代码。本项目仅供学习研究使用,作者不对使用本项目产生的任何后果承担责任,使用者应遵守当地法律法规,合理合法使用本项目。如本项目对您的研究或工作有所帮助,欢迎引用并注明出处。


评论(0)