NVIDIA开放3.3TB智能空间追踪数据集:多场景2D/3D检测
【免费下载链接】PhysicalAI-SmartSpaces项目地址: https://ai.gitcode.com/hf_mirrors/nvidia/PhysicalAI-SmartSpaces
NVIDIA近日宣布开放PhysicalAI-SmartSpaces数据集,这是一个包含3.3TB数据的大规模智能空间追踪数据集,涵盖多场景下的2D和3D物体检测与追踪信息,旨在推动物理空间人工智能(Physical AI)领域的技术发展。
行业现状:智能空间感知的数据集瓶颈
随着物联网、自动驾驶和智能机器人技术的快速发展,对物理空间的精准感知与理解已成为人工智能领域的关键挑战。当前,多摄像头协同追踪、跨场景物体识别和3D空间定位等技术的突破,高度依赖大规模、高质量标注数据的支持。然而,现有数据集普遍存在场景单一、标注维度有限或数据规模不足等问题,制约了相关算法的训练与优化。特别是在工业仓储、医疗设施和零售空间等复杂环境中,对多类物体的精准追踪数据需求尤为迫切。
数据集核心亮点:规模、维度与场景多样性
PhysicalAI-SmartSpaces数据集通过NVIDIA Omniverse平台 synthetically生成(人工合成),展现出三大显著优势:
1. 超大规模与多维度标注
该数据集包含两个主要版本:2024版和2025版,总数据量达3.3TB。其中2025版涵盖23个场景、42小时视频和504个摄像头视角,标注了363个物体(包括292个人体和71个各类设备),包含8.9M个3D边界框和73M个2D边界框。值得注意的是,2025版新增深度图(Depth Maps)数据,为3D空间感知提供更丰富的几何信息。
2. 多场景覆盖与时间同步
数据集覆盖仓库、医院、实验室等多种室内场景,其中仓库场景占比最高(如Warehouse_000至Warehouse_020)。所有摄像头数据均实现时间同步,支持跨摄像头的多目标追踪(MTMC),且通过全局坐标系统确保物体ID在不同摄像头间的一致性,解决了传统多摄像头数据关联性差的问题。
3. 精细标注与标准化格式
数据标注采用MOTChallenge格式和JSON格式,包含2D/3D边界框、全局坐标、物体类型和追踪ID等信息。校准文件(calibration.json)提供了摄像头内参、外参和同态矩阵等关键参数,确保数据的准确性和可用性。例如,3D标注不仅包含位置信息(x,y,z),还包括边界框尺度(w,l,h)和旋转角度(pitch, roll, yaw),为复杂场景下的算法训练提供了精细数据支持。
行业影响:加速智能空间应用落地
PhysicalAI-SmartSpaces数据集的开放将对多个领域产生深远影响:
1. 推动多模态感知算法发展
数据集同时提供2D图像、3D点云和深度信息,支持多模态融合算法的训练,有望提升物体检测、定位和追踪的精度。特别是在遮挡处理、视角变化和动态场景适应等难点问题上,丰富的数据维度将为算法创新提供基础。
2. 赋能工业与服务机器人应用
在仓储场景中,数据集包含叉车(Forklift)、Transporter等工业设备的标注数据,可直接用于物流机器人的路径规划和协作控制算法训练。医疗场景的数据则为医院机器人导航、患者监护等应用提供了场景化训练资源。
3. 标准化评估体系的建立
数据集提供了基于3D位置和3D边界框的HOTA评分评估标准,并与AI City Challenge竞赛平台结合,为算法性能的客观比较提供了统一基准,有助于推动行业技术标准化。
结论与前瞻:物理空间AI的新起点
PhysicalAI-SmartSpaces数据集的开放标志着NVIDIA在推动Physical AI领域发展的重要一步。其3.3TB的海量数据、多场景覆盖和精细标注,将为学术界和工业界提供强大的研发支持。未来,随着数据集的持续更新(如2025版新增的测试场景和深度图数据),预计将加速智能空间感知技术在工业自动化、智能安防、机器人导航等领域的实际应用落地。对于开发者而言,这一数据集不仅是算法训练的优质资源,更是探索物理世界与数字智能融合的关键工具。
【免费下载链接】PhysicalAI-SmartSpaces项目地址: https://ai.gitcode.com/hf_mirrors/nvidia/PhysicalAI-SmartSpaces
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考