Cnbeta 07月28日 08:16
机器人也能有触觉 复旦AI“电子皮肤”首次公开亮相
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

复旦大学团队自主研发的“自适应视触觉AI传感器”在2025世界人工智能大会上亮相。该传感器旨在解决具身机器人触觉技术欠缺的问题,通过内置微小摄像仪捕捉受力形变信息,并利用AI算力将触觉信号转化为高维视觉数据,最终实现力的多维精确解耦。该传感器灵敏度极高,感知点密度达到每平方厘米4万个,灵敏极限是人体的10倍,在精密加工、电子装配等领域具有广泛应用前景。

💡 **突破触觉瓶颈,赋能具身智能**:该传感器针对当前具身机器人触觉技术滞后于视觉通道的现状,旨在解决操作精度上的“最后一公里”问题。通过模拟人体皮肤的多维触觉感知能力,为具身机器人提供了关键的非视觉交互通道,有望突破现有操作能力的瓶颈。

📸 **“视觉”赋能触觉,实现精准解耦**:传感器内置微小摄像仪,通过捕捉接触力引起的表面粒子位移,将触觉信号转化为高维视觉数据。借助AI算力,该技术能够精准地将视觉信号翻译为力的分布信息,从而实现复杂的力触觉信号的多维精确解耦,这是具身智能行业的关键技术难点。

🚀 **超高灵敏度与分辨率,超越人体极限**:该传感器拥有极高的空间分辨率,每平方厘米高达4万个感知点。其感知灵敏极限达到了人体的10倍,能够感知到微小的力变化,这使得它在需要精细操作的场景下具有显著优势。

🛠️ **广泛应用潜力,赋能多行业**:凭借其高精度、低成本的特点和卓越的触觉感知能力,该传感器在精密加工、电子装配、高精度分拣等对操作精度要求极高的行业展现出巨大的应用潜力,能够胜任拿起豆腐、夹薯片等精细操作任务。

日前,复旦大学宣布,由复旦大学可信具身智能研究院团队自主研发的高精度、低成本“自适应视触觉AI传感器”,在2025世界人工智能大会(WAIC)上首次公开亮相。

复旦大学表示,随着视触觉技术的出现,正在让机器人拥有触觉成为可能,解决操作精度上“最后一公里”的问题。

据了解,国内的具身机器人研发,已有较完善的视觉通道,但在具身智能的触觉技术仍较为欠缺。

以往以压力信号为指标的传感技术是单一的感官通道,而下一代具身机器人要突破操作能力瓶颈,必须具备类似人体皮肤的多维触觉感知能力。

多维力解耦是经典的力学问题,更是具身智能行业的难点。

力触觉是机器和环境交互里最重要的一个感官通道,而具身机器人在感官层次上,目前还缺乏非视觉的力触觉通道。

面对复杂的环境交互,对矢量进行分解运算,则是一个有挑战的技术性问题。

为破解这一问题,团队在传感层内置的微小摄像仪起到关键作用。

表面接触到力后,传感层的粒子会发生位移,进而被摄像头捕捉到受力形变的信息,再借助AI算力,能将复杂的触觉信号转化为高维视觉数据,并把这些视觉信号精准翻译为力的分布信息,实现力的多维精确解耦。

该传感器灵敏度极高,达到每平方厘米4万个感知点,具备超高的空间分辨率。

据介绍,人类指尖皮肤的最小感知阈值大概在0.1牛到0.2牛之间。

相比之下,复旦大学团队研发的“自适应视触觉AI传感器”的感知灵敏极限已达到人体的10倍。

由此,该技术在精密加工、电子装配、高精度分拣等行业具备应用潜能。

根据演示,复旦大学研发的自适应视触觉AI传感器可以拿起豆腐、夹薯片、抓果冻。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

自适应视触觉AI传感器 具身智能 机器人触觉 人工智能传感器 复旦大学
相关文章