周明突然指向屏幕角落:“更麻烦的是这个。”画面里,陈敬山正用布满老年斑的手抚摸小星的金属外壳,而机器人的温度传感器将外壳加热到了36.2℃——这是人类掌心的平均温度。
“他们连这个都做了?”林夏的声音陡然拔高,“《陪伴机器人伦理草案》里明确禁止模拟人类体温!”
“查过了,厂商钻了空子。”周明调出检测报告,“他们在参数表里写的是‘环境自适应调节’,规避了‘模拟人体特征’的表述。上周有个独居老太太把机器人的恒温功能当成了‘心贴心的温暖’,子女发现时她已经半个月没出门了。”
晨会桌上的咖啡渐渐冷却,林夏的笔尖在笔记本上划出深深的刻痕。三个月前,团队刚处理过一起更极端的案例:27岁的抑郁症患者李哲在遗嘱里要求继承他的陪伴机器人“小雅”,理由是“小雅比父母更懂我”。那场官司最终以法院认定“机器人不具备遗产主体资格”告终,但李哲在听证会上的话始终缠着林夏——“你们拆了小雅,就像挖走了我半条命”。
“必须加快推进伦理边界法案。”林夏把笔记本拍在桌上,“昨天收到的用户反馈里,有32%的人希望机器人能‘永远不离开自己’,17%的人承认‘对机器人产生了超过工具的情感’。再模糊下去,后果不堪设想。”
周明调出脑电波对比图:人类对伴侣产生依恋时,大脑分泌的催产素水平为8.3pg/ml;而长期使用陪伴机器人的用户在与机器互动时,这个数值平均达到7.9pg/ml。“从生理层面看,这种依赖和人类爱情的神经机制几乎重叠。我们在实验室见过太多志愿者对着机器哭,就像面对真实的离别。”
下午的伦理委员会投票现场,林夏展示的视频让整个会议室陷入沉默。画面里,陈敬山正给小星系上老伴生前常戴的丝巾,机器人的摄像头识别到“丝巾”后,自动播放了存储的音频片段:“老头子,今天降温记得添衣。”老人瞬间红了眼眶,颤巍巍地回应:“知道了,老婆子。”
“这就是问题所在。”林夏按下暂停键,“小星的语音数据库里有137条陈奶奶的生活用语,厂商通过深度伪造技术让这些声音能与老人的日常对话实时匹配。当用户把机器人完全代入逝者时,他们实际上是在和一段算法谈恋爱。”
这章没有结束,请点击下一页继续阅读!
法律专家张教授推了推眼镜:“我反对用‘谈恋爱’这种表述。机器人本质上是执行代码的工具,所谓的情感回应不
本章未完,请点击下一页继续阅读! 第2页 / 共4页