基于视觉的航天器场景神经网络表示合成数据集

数据集概述

本数据集是基于Unity 3D引擎生成的航天器合成图像数据集,包含CubeSat和SMOS两种卫星模型的图像及元数据。通过可控环境生成大量标注数据,解决真实空间数据稀缺问题,支持航天器视觉神经场景表示学习算法的训练与评估。

文件详解

  • 文件名称:Dataset.zip
  • 文件格式:ZIP
  • 字段映射介绍:压缩包内包含基于CubeSat和SMOS卫星模型生成的图像数据,每个图像附带距离相机的距离、方位角、高度角等元数据及深度图;数据分为训练集、验证集(含5、10、50、100张图像)和测试集(100张图像,视角与训练/验证集不同)。

适用场景

  • 航天器视觉神经场景表示模型训练: 用于训练基于视觉的航天器场景表示学习算法,解决真实空间数据稀缺问题。
  • 航天器图像识别与定位研究: 利用合成图像及元数据,研究航天器的视觉识别、位姿估计等任务。
  • 深度估计模型测试: 通过深度图数据,测试航天器场景深度预测模型的性能。
  • 小样本学习算法评估: 利用不同规模的训练集(5、10、50、100张图像),评估小样本学习算法在航天器视觉任务中的表现。
packageimg

数据与资源

附加信息

字段
作者 Maxj
版本 1
数据集大小 157.27 MiB
最后更新 2026年2月1日
创建于 2026年2月1日
声明 当前数据集部分源数据来源于公开互联网,如果有侵权,请24小时联系删除(400-600-6816)。