深度学习后门攻击训练与评估实验数据集

深度学习后门攻击训练与评估实验数据集_Deep_Learning_Backdoor_Attack_Training_and_Evaluation_Experiment_Dataset

数据来源:互联网公开数据

标签:深度学习, 后门攻击, 对抗样本, 模型安全, 图像分类, CIFAR-10, 模型评估, 实验数据

数据概述: 该数据集包含用于深度学习模型后门攻击的训练和评估实验数据,主要记录了在CIFAR-10数据集上,针对ViT-B/16模型进行后门攻击的实验结果。主要特征如下: 时间跨度:数据未明确标注时间,通常视作实验结果的快照。 地理范围:数据源于针对CIFAR-10数据集的实验,该数据集是图像分类的常用基准。 数据维度:数据集包含训练过程中的损失、准确率等指标,以及测试集上的准确率、攻击成功率(ASR)和鲁棒性(RA)等关键性能指标。数据集中包含attack_df.csv和attack_df_summary.csv,记录了不同epoch和batch下的模型性能数据。 数据格式:CSV格式,包含训练和测试过程中的多项指标,便于进行数据分析和可视化。数据文件存储在BackdoorBench/record/目录中。 来源信息:数据来源于针对深度学习模型后门攻击的实验,具体来源信息需参考原始实验报告或项目。 该数据集适用于深度学习模型安全领域的研究,以及后门攻击的防御策略研究。

数据用途概述: 该数据集具有广泛的应用潜力,特别适用于以下场景: 研究与分析:适用于深度学习模型安全、对抗攻击、后门攻击等相关研究,可以用于分析后门攻击的有效性、鲁棒性,以及不同攻击方法的比较。 行业应用:为人工智能安全领域提供数据支持,可用于构建后门攻击检测系统、评估模型安全性,以及开发防御策略。 决策支持:支持人工智能模型安全领域的决策制定,如模型选择、安全评估、风险管理等。 教育和培训:作为深度学习安全课程的实训素材,帮助学生和研究人员深入理解后门攻击的原理和影响,并进行实验验证。 此数据集特别适合用于研究后门攻击对模型性能的影响,评估不同攻击策略的有效性,以及探索有效的防御手段,帮助用户提升对深度学习模型安全性的认识和保障能力。

packageimg

数据与资源

附加信息

字段
作者 Maxj
版本 1.0
数据集大小 738.31 MiB
最后更新 2026年2月21日
创建于 2026年2月21日
声明 当前数据集部分源数据来源于公开互联网,如果有侵权,请24小时联系删除(400-600-6816)。