发布日期:2025-10-10 20:38点击次数:
一个金属身躯的机器人,正一招一式地练习中国功夫。它出拳迅捷,格挡精准,甚至能在对手突袭时迅速反击。这不是电影《机械公敌》的片段,而是特斯拉最新发布的Optimus(擎天柱)机器人真实演示。马斯克在社交平台亲自确认:这并非遥控,而是由AI自主驱动。
短短几十秒的视频,激起千层浪。有人惊叹技术已逼近科幻;也有人发问:当机器人不仅能走能动,还能“思考”如何攻击与防御,我们是否正在亲手打造一个无法控制的“铁拳”?
这不仅是技术的跃进,更是伦理的临界点。Optimus的“功夫秀”背后,是一套深度融合感知、判断与行动的端到端AI系统,其技术路径源自特斯拉自动驾驶的积累。它通过模仿学习和强化学习,从人类动作中提取模式,并在动态环境中实时决策。换言之,它不是在“播放预设动画”,而是在“临场应变”。
这种能力令人振奋。未来,Optimus或可承担救援、护理、重工业等高危任务,成为人类的延伸。但问题也随之而来:一个能自主识别威胁并“反击”的机器人,其行为边界由谁定义?若它误判情境、伤及无辜,责任归谁?
目前,答案是模糊的。中国虽已出台《人形机器人创新发展指导意见》,并将“具身智能”写入政府工作报告,但在侵权责任认定上仍存法律空白。制造商?算法开发者?使用者?现有法律体系难以应对AI自主决策带来的归责难题。国际上同样滞后。尽管欧盟《人工智能法案》于2024年生效,对高风险AI系统实施全生命周期监管,甚至要求注册、留痕、人类监督,但针对人形机器人这类兼具物理行动力与环境交互能力的“智能体”,全球尚无专门立法。
更值得警惕的是,技术已跑在制度前头。马斯克预计2030年年产百万台Optimus。当这些具备基础“自卫”能力的机器人进入家庭、工厂、街道,我们是否准备好为其戴上伦理的“紧箍咒”?
不能因恐惧而遏制创新,也不能因狂热而放任风险。中国可在现有算法备案、伦理审查试点基础上,借鉴欧盟“风险分级”思路,将人形机器人列为“高风险AI系统”,强制要求安全评估、行为日志留存与第三方审计。同时,建立链式责任机制,明确各环节主体义务,并推动强制保险制度,保障受害者权益。
技术的本质是中立的,但应用的方向必须受控。让机器人学功夫,本意应是增强其灵活性与适应力,而非赋予其“战斗”潜能。我们欢迎擎天柱走进现实,但前提是——它始终听命于人类的智慧,而非摆脱伦理的缰绳。
真正的智能,不在于能否出拳如风,而在于懂得何时收手。