科技巨头也在商讨AI开发使用标准
通常情况下,政府收紧监管意味着大型科技企业自由发展的空间和力量被遏制,会招致行业的反对,然而这一次,许多科技公司却发声呼吁政府制定监管规定,甚至在一些企业内部,限制使用人工智能的规定已经实施。
据韩国《国民日报》报道,包括三星、SK海力士在内的多家韩企正在采取限制使用相关人工智能工具的措施,严防员工泄密。LG电子公司也要求员工进行“人工智能及数据使用”方面的培训。在日本,出于对信息泄露的担忧,包括软银、日立、富士通和三井住友银行在内的日本公司已开始限制在业务运营中使用交互式人工智能服务。
一些人工智能企业也主动寻求制定新的监管规定。据《华尔街日报》11日报道,“我们认为,强大的人工智能系统应该接受严格的安全评估”,OpenAI在最近的一篇文章中表示:“需要监管来确保安全评估得到采用,我们积极与各国政府接触,探讨可能采取的最佳监管形式。”
美国福克斯新闻网报道称,12日,微软、谷歌、苹果、英伟达等人工智能开发领域的头部企业将商议制定AI技术开发使用标准,讨论如何以最负责任的态度继续开发人工智能。
“要在发展与安全之间找到平衡点”
其实,人工智能监管的“火苗”并不是最近才被点燃。早在2021年4月,欧盟委员会就提出了《人工智能法案》条例草案,这被视为欧盟在人工智能以及更广泛的欧盟数字战略领域的里程碑事件。只不过提案的推进并没有想象中顺利,欧洲议会议员们尚未就提案基本原则达成一致。
美国国家标准与技术研究院也于今年1月发布了《人工智能风险管理框架》(AI RMF)1.0版,旨在指导机构组织在开发和部署人工智能系统时降低安全风险,避免产生偏见和其他负面后果,提高人工智能可信度。
清华大学新闻与传播学院教授、清华大学元宇宙文化实验室主任沈阳12日接受《环球时报》记者采访时表示,各国都高度重视人工智能的监管问题,因为人工智能技术存在着较大的不确定性和不可控性。目前有必要将人工智能的行业发展引导到安全的、正确的道路上,防止重大黑天鹅事件出现,造成不可挽回的损失。
对于未来人工智能方面的监管前景,浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林告诉《环球时报》记者,在立法方面,中国目前走在前列,《征求意见稿》内容还将在实践过程中继续完善。他同时也表示,未来监管要在生成式AI发展和安全有序推进之间找到平衡点,一是要给予人工智能生成内容适当包容;二是继续细化规则,这会让企业行为的确定性大大增强,更有利于生成式AI产业的发展。
来源:环球时报综合报道 共2页 上一页 [1] [2]
红商网优质内容还将同步分发到公众号、视频号、头条号、西瓜抖音、网易号、搜狐号、企鹅号、百家号、好看视频、新浪微博等国内主力流量平台。
|