一、柔性物体操作的技术挑战与行业现状
在工业自动化领域,刚性物体的抓取与装配已形成成熟解决方案,但柔性物体(如衣物、线缆)的操作仍面临三大技术瓶颈:
- 形变不可预测性:布料在抓取过程中会产生褶皱、扭转等复杂形变,传统基于固定几何模型的轨迹规划算法失效
- 多模态感知需求:需同时融合视觉定位、力觉反馈、触觉感知等多维度信息,对传感器融合算法提出高要求
- 动态决策能力:操作过程中需实时调整抓取策略,例如当检测到布料打结时需切换解结动作
当前行业解决方案主要分为两类:一是采用专用夹具限制布料形变,但缺乏通用性;二是通过深度强化学习训练端到端模型,但需要海量标注数据且训练周期长。某研发团队提出的双臂协作方案,通过解耦感知与决策模块,在保持系统灵活性的同时降低了训练复杂度。
二、双臂协作系统架构设计
1. 硬件层:轻量化机械臂与传感器配置
系统采用双6自由度协作机械臂,单臂负载能力3kg,重复定位精度±0.1mm。末端执行器集成三大传感器:
- 力/力矩传感器:量程±20N,分辨率0.01N,用于检测布料拉伸力
- 触觉阵列传感器:16×16压阻式单元,采样频率1kHz,识别抓取接触状态
- RGB-D相机:120fps帧率,0.5ms延迟,提供实时深度信息
2. 软件层:分层控制架构
graph TDA[任务规划层] --> B[运动控制层]B --> C[执行驱动层]A --> D[感知融合层]D --> B
- 任务规划层:将折叠任务分解为”抓取-平铺-对齐-折叠”子任务,每个子任务配置对应的状态机
- 感知融合层:采用卡尔曼滤波融合视觉定位数据与力觉反馈,输出布料当前位姿估计
- 运动控制层:基于DMP(动态运动基元)生成平滑轨迹,通过阻抗控制实现柔顺操作
三、核心算法实现解析
1. 基于深度学习的布料关键点检测
采用HRNet-W48骨干网络,在COCO+自定义布料数据集上训练,实现以下功能:
- 识别衣领、袖口、下摆等12个关键点
- 输出布料掩膜与姿态估计
- 推理速度15ms/帧(NVIDIA Jetson AGX Xavier)
关键代码片段:
class ClothKeypointDetector:def __init__(self, model_path):self.model = torch.load(model_path)self.transform = T.Compose([T.Resize((512,512)),T.ToTensor(),T.Normalize(mean=[0.485,0.456,0.406], std=[0.229,0.224,0.225])])def detect(self, image):input_tensor = self.transform(image).unsqueeze(0)with torch.no_grad():output = self.model(input_tensor)keypoints = post_process(output) # 自定义后处理函数return keypoints
2. 双臂协同轨迹规划
采用基于采样优化的RRT*算法,在C-space中搜索无碰撞路径,关键改进点:
- 引入布料形变约束:在路径代价函数中增加形变惩罚项
- 动态时间规整(DTW):同步两臂运动时序,避免动作冲突
- 实时重规划:当检测到操作偏差>5mm时触发局部重规划
3. 力反馈柔顺控制
通过阻抗控制实现力/位置混合控制,核心参数配置:
| 参数 | 抓取阶段 | 平铺阶段 | 折叠阶段 |
|——————-|—————|—————|—————|
| 目标刚度 | 800N/m | 300N/m | 500N/m |
| 目标阻尼 | 20Ns/m | 10Ns/m | 15Ns/m |
| 力阈值 | 15N | 8N | 12N |
四、系统优化与测试验证
1. 延迟优化策略
通过三方面降低系统延迟:
- 感知层:采用ROI提取减少数据处理量,视觉处理延迟从80ms降至35ms
- 控制层:将PID控制周期从20ms缩短至5ms
- 通信层:使用EtherCAT总线替代传统Modbus,通信延迟<1ms
2. 实验测试数据
在200次折叠测试中取得以下结果:
| 指标 | 成功率 | 平均耗时 | 最大力偏差 |
|——————————|————|—————|——————|
| 单件T恤折叠 | 98.2% | 42s | ±1.8N |
| 三件混叠衣物分离 | 91.5% | 87s | ±2.5N |
| 异常状态恢复 | 85.3% | - | - |
五、技术延伸与行业应用
该方案可扩展至三大应用场景:
- 医疗护理:辅助病人穿衣/换药,要求更高的安全阈值(力限制<5N)
- 纺织工业:布料分拣与质量检测,需增加光谱分析模块
- 家庭服务:与语音交互系统集成,支持自然语言指令控制
未来技术演进方向包括:
- 引入数字孪生技术实现虚拟调试
- 开发轻量化边缘计算架构
- 探索触觉-视觉跨模态学习框架
这种将传统运动控制与现代AI技术深度融合的方案,为柔性物体操作提供了新的解决路径。通过模块化设计,开发者可基于本文架构快速构建自定义场景的机器人应用,在降低研发成本的同时提升系统可靠性。