汉语多模态语言处理与交互数据集-muhammadfaizan65
数据来源:互联网公开数据
标签:语言学,认知科学,心理语言学,多模态,交互,眼动追踪,听觉刺激,视觉刺激,语言理解,语言生成,人工智能
数据概述:
本数据集深入研究了以汉语为母语者的语言处理动态,考察了听觉和视觉刺激对语言行为的影响。它包含了关于注视模式、交互序列、环境条件和认知指标的综合数据,从而细致地理解这些因素如何共同影响语言理解和产生。
字段描述:
language:指定研究语言,主要关注汉语作为交互的主要语言。
TS_sequence, TS_aud, TS_vis, TS_par:变量详细描述了语言任务期间遇到的刺激类型,包括序列、听觉线索、视觉刺激和参与者参数。
vis_gazeAB, vis_gazeBA:度量在语言交互会话期间观察到的视觉注视模式和眼球运动。
seq_part, seq_intervene:类别指标,区分交互序列的不同阶段以及应用的任何干预方案。
first, recording:记录初始交互实例以及与记录过程相关的具体信息。
previous_RI_target2, oirs.per.minute:与先前的实验条件和每分钟交互速率相关的数据点。
modality, language.family:描述语言处理的模态(例如,听觉线索)和更广泛的语言家族背景(例如,汉藏语系)的属性。
soundproof, ID.sequence:布尔值,指示在数据收集期间是否实施隔音条件以及分配给每个交互序列的唯一标识符。
RI_identity, TS_RS_levC.norm:标识实验设置中的特定参考或身份,并提供与语言处理指标相关的标准化分数。
RI_target2.Restricted, TS_aud.bin:指示应用于目标条件的任何限制以及遇到的听觉刺激的二项分类。
CostB.rel, p4:提供与数据收集过程相关的相对成本考虑因素以及对于上下文化数据集至关重要的附加参数特征。
数据用途概述:
促进语言学、认知科学和心理语言学领域的高级研究,深入了解语言处理机制的复杂性。
支持旨在增强语言学习策略和针对语言障碍的临床干预的教育工具的开发。
推动多模态交互系统以及人工智能应用的设计和实施创新,利用关于听觉和视觉语言线索的细微数据。