法律规制和伦理问题待完善
“目前的智能算法还存在给出的决策不符合伦理道德要求的问题。”姜育刚指出,在应用中已发现,智能算法的决策没有从改善人类生活、服务人类社会的角度来进行。如智能音响在对话中出现“劝主人自杀”的内容,聊天机器人学会了骂脏话和种族歧视等。而这些不友好的决策都是模型从数据中学来的,并不是研发者对人工智能模型设置的目标。
同时,人工智能算法需要海量的数据驱动,训练数据可以被算法恢复,个人隐私存在泄露和被侵犯的风险,而大量的数据也存在共享壁垒。在人工智能赋能金融的过程中,这一问题尤被关注。最新报告显示,近年来,每年发生金融隐私泄露事件以大约35%的速度在增长。加之近年来人工智能技术在金融行业的广泛应用,由此带来的银行数据、保险数据、网贷业务及大数据等个人信息保护问题日益凸显。
在2020年抗击新冠肺炎疫情期间,人工智能技术在我国响应速度快、介入力度大,帮助推出了CT影像的辅助诊断系统,提升了医生诊断的速度和信心。然而,医疗影像智能诊断发展也面临着法律规制问题。与其他人工智能赋能行业的大数据相比,获取高质量的医疗影像数据相对困难。不同医疗机构的数据,目前还很少互通、共享。而单个医疗机构积累的数据往往不足以训练出有效的深度学习模型。此外,使用医疗影像数据进行人工智能算法的训练还涉及保护病人隐私等非技术问题。
此外,近年来,随着人工智能技术的深入探索,科学界有人提出研发“人工生命”,成为又一个伦理话题。对此,中国工程院院士李德毅表示,生命不仅有智能,更要有意识。从伦理角度上,生命是人类的底线,触碰底线要慎之又慎。“所以,我们可以通过计算机技术继续研发没有意识、但有智能的高阶机器。让人类的智能在体外延伸,保持它的工具性,而非人工创造意识。”
深圳云天励飞技术股份有限公司副总裁郑文先同时提醒,“人工智能的技术进步可以给社会带来非常正向的效益,不应因为对隐私保护机制等方面的忧虑而将人工智能的问题妖魔化。”他认为,当前人工智能的法律法规尚不健全,亟待有关部门进一步科学制定和完善,这样才能引导公众更加健康地看待这一新技术应用于产业。
亟待技术进步 发展新一代人工智能
面对技术落地所遇到的种种“痛点”,许多专家给出了这样的比喻:“人工智能相当于一个锤子,不能哪一个钉子都能砸。”
“我觉得,人工智能发展的第一步是辅助,让重复复杂的劳动量由机器完成,在这个基础上,我们再创造条件逐渐向智能决策的方向发展。”郑州大学教授蒋慧琴表示,对于业界有人提出“人工智能超越甚至取代人类”的期待和预计,应保持冷静,“只有沿着这样的方向坚持下来,才有可能达到我们的目标”。
中国科学技术发展战略研究院研究员李修全认为,在重复性操作的生产环节和基于海量数据的高强度计算优化求解上,人工智能具有明显优势,应当是当前应用于产业的主要方向。
华为云人工智能领域首席科学家田奇则认为,加速人工智能赋能产业落地,其与科学计算的深度融合应是显著趋势,在工业、气象、能源、生物、医学等领域,需要大量科学计算,人工智能技术能为传统科学计算带来新的思路、方法和工具,同时由于传统科学计算具有严密性,人工智能也可以提高它本身的可解释性。
“推动人工智能进入新的阶段,有赖于与数学、脑科学等结合实现底层理论的突破。”中国科学院院士、清华大学人工智能研究院院长张钹说,未来所需要的第三代人工智能应是实现可解释的、鲁棒的、可信安全的智能系统,依靠知识、数据、算法和算力四个要素,将实现从不带认知的人工智能转变为带认知的人工智能。
如何解释新一代人工智能?李德毅认为,传统人工智能是计算机智能,属于封闭型人工智能。新一代人工智能应该是开放性人工智能。当前,所有的计算机都是对软件工程师的智能编程代码进行一次又一次简单执行,“但我们希望这个机器在学习过程中能够解决新的问题,学习应成为新一代人工智能解决现实问题的基础”。
清华大学智能技术与系统国家重点实验室教授邓志东建议,数据和算力的增加总有天花板,要推动人工智能技术深度赋能更多行业,需要的是核心关键技术突破,特别是认知智能的进步,同时,还要依靠智能高端芯片、传感器等零部件的硬件支撑,再借助我国5G信息技术的优势,形成合力支撑产业落地和商业化应用。
此外,人工智能标准化工作也应加速展开。薛云志表示:“建立可信赖的人工智能需要标准化,一方面要从开发者训练、测试与实验、部署运营和监管的角度来做,另一方面则要从芯片等硬件、算法、产品系统出发,来制定标准和规范,同时对人工智能的风险、伦理、管理等标准研究也要尽快启动,这些都只是第一步。”
来源:北京日报客户端 共2页 上一页 [1] [2] 搜索更多: 人工智能 |