机器人 AI 上嵌入式平台:数据集录制与 VLA 微调
指南Hugging Face2026年3月5日5 分钟阅读
NXP 工程师分享在 i.MX95 上部署视觉-语言-动作(VLA)模型的经验。高质量数据集比数量更重要,他们用三摄像头录制了 120 个‘放茶包’任务片段。
本文编译自 Bringing Robotics AI to Embedded Platforms: Dataset Recording, VLA Fine‑Tuning, and On‑Device Optimizations,版权归原作者所有。
觉得有用?分享给更多人