科技伦理是科技活动需要遵循的价值理念与行为规范,对于科技发展来说至关重要。7月28日,为加强人工智能伦理道德治理,推动人工智能更加规范发展,我国科技部公开征求了对《关于加强科技伦理治理的指导意见(征求意见稿)》的意见,为我国人工智能伦理法治建设打下基础。
人工智能陷入伦理困境
近年来,人工智能发展是愈发的火热,除了人工智能产业本身,由其技术所加持的如自动驾驶、人脸识别、机器人、智能音箱等也十分蓬勃。人工智能的发展为人们的生产生活带来利好,但与此同时,繁荣景象背后也暗藏风险。作为双刃剑,人工智能当前不仅给人类的生存带来冲击,同时也在伦理道德方面带来挑战。
日常应用中,我们便时常能够听闻关于人工智能的各种不好消息。例如2018年,一款名为“诺曼”的人工智能便由于其变态的“思想和认知”,给人们留下了可怕印象,该人工智能甚至一度被称为“精神病患者”。此外2019年,英国也曾出现教唆人类自己刺自己心脏的AI语音助手,不寒而栗的回答让人毛骨悚然。
由于人工智能主要基于数据学习而进化,人类的一些负面情绪、负面数据不可避免的能对人工智能产生影响。如果放任这些负面东西打造人工智能,出来的技术必然对人类也会产生极大负面影响。而这,正是人工智能伦理道德挑战出现的一大原因。当然,除了研发者的道德会影响人工智能道德外,技术本身也是另一原因。
在自动驾驶领域,有一个十分知名的“电车难题”,讲的是一个疯子把五个无辜的人绑在电车轨道上,一辆失控的电车朝这五个人驶来,并且片刻后就要碾压到他们。此时你可以拉一个控制杆,让电车开到另一条轨道上,但那个轨道上也绑着一个人。这种情况下,问你是否应该拉控制杆。
显而易见,对于现有的自动驾驶或者人工智能技术来说,这是一个无法给出答案的伦理难题。对于技术发展来说,伦理道德有时就像一道牢牢套在身上的枷锁,除了找到那个关键性的钥匙,基本很难逃脱。但想要“自由的舞蹈”,又不得不解开枷锁释放双手,在此背景下,就需要通过法治建设来打造出那把“钥匙”。
法治建设挣脱伦理枷锁
目前,面对人工智能带来的伦理道德挑战,各国政府已经愈发的重视。从2017年以来,全球已有多各国家和地区陆续出台或准备出台系列政策,加强对于人工智能伦理道德法治建设。如2017年美国颁布了人工智能14条政策准则;2018年欧盟出台《通用数据保护条例》;以及韩国也推出了《机器人道德宪章》……
而在我国,对于人工智能的伦理道德建设也在有条不紊开展。2017年7月,我国政府发布了《新一代人工智能发展规划》,其中明确到2025年,要初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。
同时,之后工信部也发布了《人工智能创新发展道德伦理宣言》,规定人工智能的发展应当始终以造福人类为宗旨,不能将人工智能的自主意识等同于人类特有的自由意志,不能改变人工智能由人类创造的事实等。以及不少领域内企业也积极加强伦理道德关注,提升责任和意识,增强规范与治理。
当然,近日我国科技部再次公开征求对于《加强科技伦理治理的指导意见(征求意见稿)》意见,无疑更是为“健全科技伦理治理体制”、“健全科技伦理体系”正式迈出了最为坚实的一步。《意见》从基本要求、治理原则、治理体制、治理制度、审查监管、教育宣传等方面对科技伦理治理进行了全面规范,为未来成熟、健康、良好发展打下基础。
不以规矩,不成方圆。只有为人工智能的研发与应用制定完善的、合乎人类利益与道德标准的相关伦理规范与法律制度,才能确保人工智能的可持续发展,确保人类的生存权利与安全。各种负面的人工智能已经一再证明,人类的影响对于人工智能向善还是向恶至关重要,管住人远比管住工具更为重要。
原标题:人工智能遭遇伦理困境,未来发展需法治先行