最近,人工智能(ai)“复活”逝者的话题颇受关注。从技术上看,“复活”逝者其实是ai技术的一个具体应用场景——以逝者的特征为人设,通过某种算法生成虚拟数字人。然而,当ai“复活”逝者成为一门生意,当“复活”对象超出一定关系范围,就可能触及伦理底线和法律红线。
人们常说,技术就如一柄双刃剑,本身或许并无好坏之分,关键要看如何使用。每当一种新技术进入人类社会,都必须经历一番磨合,形成一定的使用和运作规范,才能真正融入其中,最终成为推动经济发展、社会进步、提升生活质量的一股新兴动力。
ai“复活”逝者的初衷大多源于生者内心对于留住过往美好记忆的强烈愿望。但有法律专家指出,逝者的人格权益仍然受到法律保护。若无逝者生前授权,也无逝者家属同意,擅自使用ai技术“复活”逝者,服务提供者可能存在承担民事责任的风险,情节严重的,还有可能构成刑事犯罪。而且,即便ai“复活”逝者的要求来自亲属,也需注意相关数据的隐私保护。
虽然利用ai技术“复活”逝者,可在一定程度上为亲属带来精神支持与心灵慰藉,但从脑科学与心理学角度来看,也可能干扰大脑固有的悲伤处理模式,使人难以走出丧亲之痛。更进一步思考,它甚至会改变人们对于死亡的认知,某种程度上模糊了生与死在记忆中的界限。
其实,通过ai技术与逝者“对话”,最令人担心的是人在社群中用机器代替了自己,从而丧失了作为人存在的自主意识。
那么,究竟如何才能用好ai,让技术应用在保障人类价值和尊严的界限内规范发展?目前,世界各国都在积极为ai技术发展划定红线和底线。
3月中旬,欧洲议会议员以压倒性多数支持通过了《人工智能法》。这是世界上第一部人工智能全面监管法律,旨在建立一套统一的规范和监管框架,以确保人工智能技术的发展和应用能够遵循公平、透明和可信的原则,同时它根据人工智能的潜在风险和影响程度规定了人工智能的义务。
几天后,包括图灵奖得主约书亚·本吉奥、杰弗里·辛顿、姚期智等在内的数十位中外专家,在北京联合签署了《北京ai安全国际共识》,提出人工智能风险红线及安全治理路线,防止ai自主复制、寻求权力、协助不良行为、欺骗人类。与会者一致认为,避免人工智能导致的灾难性全球后果需要我们采取果断的行动。
3月21日,联合国大会通过首个关于人工智能的全球决议,呼吁推动开发“安全、可靠和值得信赖的”人工智能系统,以促进可持续发展。决议强调,必须在人工智能系统的全生命周期内尊重、保护和增进人权和基本自由。
总而言之,无论是人工智能,还是生命科技,任何一种新技术都应以人为本,而人类始终是新技术发展的边界设定者。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负米乐app官网下载的版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。