深度学习后门攻击训练与评估实验数据集_Deep_Learning_Backdoor_Attack_Training_and_Evaluation_Experiment_Dataset
数据来源:互联网公开数据
标签:深度学习, 后门攻击, 对抗样本, 模型安全, 图像分类, CIFAR-10, 模型评估, 实验数据
数据概述:
该数据集包含用于深度学习模型后门攻击的训练和评估实验数据,主要记录了在CIFAR-10数据集上,针对ViT-B/16模型进行后门攻击的实验结果。主要特征如下:
时间跨度:数据未明确标注时间,通常视作实验结果的快照。
地理范围:数据源于针对CIFAR-10数据集的实验,该数据集是图像分类的常用基准。
数据维度:数据集包含训练过程中的损失、准确率等指标,以及测试集上的准确率、攻击成功率(ASR)和鲁棒性(RA)等关键性能指标。数据集中包含attack_df.csv和attack_df_summary.csv,记录了不同epoch和batch下的模型性能数据。
数据格式:CSV格式,包含训练和测试过程中的多项指标,便于进行数据分析和可视化。数据文件存储在BackdoorBench/record/目录中。
来源信息:数据来源于针对深度学习模型后门攻击的实验,具体来源信息需参考原始实验报告或项目。
该数据集适用于深度学习模型安全领域的研究,以及后门攻击的防御策略研究。
数据用途概述:
该数据集具有广泛的应用潜力,特别适用于以下场景:
研究与分析:适用于深度学习模型安全、对抗攻击、后门攻击等相关研究,可以用于分析后门攻击的有效性、鲁棒性,以及不同攻击方法的比较。
行业应用:为人工智能安全领域提供数据支持,可用于构建后门攻击检测系统、评估模型安全性,以及开发防御策略。
决策支持:支持人工智能模型安全领域的决策制定,如模型选择、安全评估、风险管理等。
教育和培训:作为深度学习安全课程的实训素材,帮助学生和研究人员深入理解后门攻击的原理和影响,并进行实验验证。
此数据集特别适合用于研究后门攻击对模型性能的影响,评估不同攻击策略的有效性,以及探索有效的防御手段,帮助用户提升对深度学习模型安全性的认识和保障能力。