音乐风格描述脑电信号数据集-音乐风格描述文本集-nishimotolab
数据来源:互联网公开数据
标签:音乐,脑电信号,音乐风格,文本描述,GTZAN,多模态,脑机接口,神经科学,认知,语言,人工智能
数据概述:
本数据集包含540条由音乐家标注的音乐片段描述文本,用于描述来自10种不同音乐风格的音乐片段。音乐片段源自GTZAN音乐流派数据集,涵盖布鲁斯、古典、乡村、迪斯科、嘻哈、爵士、金属、流行、雷鬼和摇滚。每个音乐片段时长15秒,从GTZAN数据集中随机选取。原始描述文本为日语,使用DeepL翻译成英语。
参考文献:
Timo I. Denk, Yu Takagi, Takuya Matsuyama, Andrea Agostinelli, Tomoya Nakai, Christian Frank, Shinji Nishimoto (2023). Brain2Music: Reconstructing Music from Human Brain Activity. arXiv. https://arxiv.org/abs/2307.11078
Nakai, Koide-Majima, and Nishimoto (2021). Correspondence of categorical and feature-based representations of music in the human brain. Brain and Behavior. 11(1), e01936. https://doi.org/10.1002/brb3.1936
数据用途概述:
该数据集主要用于脑机接口(BCI)研究、音乐理解和生成、多模态学习等领域。研究人员可以利用该数据集探索大脑活动与音乐风格描述之间的关系,开发音乐重建模型,以及研究人类对音乐的认知过程。此外,该数据集也可用于训练音乐描述生成模型、音乐推荐系统,以及用于教育和科普目的。