对此,上海交通大学电子系特别研究员倪冰冰持乐观态度。“我们目前大部分的AI技术是任务驱动型,AI的功能输出、输入都是研究者、工程师事先规定好的。”倪冰冰解释说,绝大多数的AI技术远远不具备反人类的能力,至少目前不用担心。
张平表示,当AI发展到强人工智能阶段时,机器自动化的能力提高了,它能够自我学习、自我升级,会拥有很强大的功能。比如人的大脑和计算机无法比拟时,这样的强人工智能就会对我们构成威胁。
“人类给AI注入什么样的智慧和价值观至关重要,但若AI达到了人类无法控制的顶级作恶——‘反人类罪’,就要按照现行人类法律进行处理。”张平说,除了法律之外,还需有立即“处死”这类AI的机制,及时制止其对人类造成的更大伤害。“这要求在AI研发中必须考虑‘一键瘫痪’的技术处理,如果这样的技术预设做不到,这类AI就该停止投资与研发,像人类对待毒品般全球诛之。”
作恶案底渐增 预防机制要跟上
事实上,人们的担忧并非空穴来风。人工智能作恶的事件早在前两年就初见端倪,比如职场偏见、政治操纵、种族歧视等。此前,德国也曾发生人工智能机器人把管理人员杀死在流水线的事件。
可以预见,AI作恶的案例会日渐增多,人类又该如何应对?
“如果我们把AI当作工具、产品,从法律上来说应该有一种预防的功能。科学家要从道德的约束、技术标准的角度来进行价值观的干预。”张平强调,研发人员不能给AI灌输错误的价值观。毕竟,对于技术的发展,从来都是先发展再有法律约束。
在倪冰冰看来,目前不管是AI算法还是技术,都是人类在进行操控,我们总归有一些很强的控制手段,控制AI在最高层次上不会对人产生一些负面影响。“如果没有这样一个操控或者后门的话,那意味着不是AI在作恶,而是发明这个AI工具的人在作恶。”
凡是技术,就会有两面性。为什么我们会觉得人工智能的作恶让人更加恐惧?与会专家直言,是因为AI的不可控性,在黑箱的情况下,人对不可控东西的恐惧感更加强烈。
目前最火的领域——“深度学习”就是如此,行业者将其戏谑地称为“当代炼金术”,输入各类数据训练AI,“炼”出一堆我们也不知道为啥会成这样的玩意儿。人类能信任自己都无法理解的决策对象吗?
显然,技术开发的边界有必要明晰,比尔·盖茨也表示担忧。他认为,现阶段人类除了要进一步发展AI技术,同时也应该开始处理AI造成的风险。然而,“这些人中的大多数都没有研究AI风险,只是在不断加速AI发展。”
业界专家呼吁,我们必须清楚地知道人工智能会做出什么样的决策,对人工智能的应用范围和应用结果的预期,一定要有约束。
AI会不会进化,未来可能会形成一个AI社会吗?“AI也许会为了争取资源来消灭人类,这完全有可能,所以我们还是要重视AI作恶的程度和风险。”现场一位嘉宾建议,我们现在要根据人工智能的不同阶段,比如弱智能、强智能和超智能,明确哪些人工智能应该研究,哪些应该谨慎研究,而哪些又是绝对不能研究的。
如何防范AI在极速前进的道路上跑偏?“要从技术、法律、道德、自律等多方面预防。”张平说,AI研发首先考虑道德约束,在人类不可预见其后果的情况下,研发应当慎重。同时,还需从法律上进行规制,比如联合建立国际秩序,就像原子弹一样,不能任其无限制地发展。
来源:科技日报 记者 刘 垠 共2页 上一页 [1] [2] 外媒称编程课成中国家长新宠:人工智能从娃娃抓起 好邻居获旷视千万美元投资 人工智能加持便利店 喜推人工智能名片独创免打扰功能,让销售更舒心 强势启用新域名,喜推引领“人工智能名片”新趋势 家政行业营销攻略:喜推人工智能名片破解获客难、转化低 搜索更多: 人工智能 |