您所在的位置:红商网 >> 人能弘道频道 >> 正文
OpenAI称超级人工智能可能在这个十年出现,或导致人类灭绝

  人工智能聊天工具ChatGPT的开发商OpenAI周三表示,该公司计划投入大量资源,创建一个新的研究团队,以确保其人工智能对人类来说是安全的,最终使用人工智能来监督自身。

  OpenAI联合创始人伊利亚·苏斯克维尔(Ilya Sutskever)和对齐团队负责人简·莱克(Jan Leike)在一篇博客文章中写道:“超级智能的巨大力量可能……导致人类被剥夺权力,甚至人类灭绝。目前,我们还没有一个解决方案来操纵或控制一个潜在的超智能人工智能,并防止它失控。”

  他们预测,超智能人工智能——比人类更聪明的系统——可能在这个十年到来。人类将需要比目前更好的技术来控制超智能人工智能,因此需要在所谓的“对齐研究”(alignment research)方面取得突破,该研究的重点是确保人工智能对人类有益。

  他们写道,由微软支持的OpenAI将在未来四年中将其获得的计算能力的20%用于解决这个问题。此外,该公司正在组建一个新的团队来组织这项工作,称为超级对齐团队。

  该团队的目标是创建一个“人类水平”的AI对齐研究者,然后通过大量的计算能力进行扩展。OpenAI表示,这意味着他们将使用人类反馈来训练AI系统,训练AI系统辅助人类评估,然后最终训练AI系统进行实际的对齐研究。

  但人工智能安全倡导者康纳·莱希(Connor Leahy)对OpenAI的这一计划提出了异议,认为该计划从根本上存在缺陷,因为最初的人类水平的人工智能可能会在被迫解决人工智能安全问题之前失控并造成严重破坏。

  他在接受采访时说:“在构建人类水平的智能之前,你必须先解决对齐问题,否则默认情况下你无法控制它。我个人认为这不是一个特别好的或安全的计划。”

  人工智能的潜在危险一直是人工智能研究人员和公众最关心的问题。今年4月,一群人工智能行业领袖和专家签署了一封公开信,呼吁暂停六个月开发比OpenAI的GPT-4更强大的系统,理由是对社会存在潜在风险。益普索今年5月的一项民意调查发现,超过三分之二的美国人担心人工智能可能产生的负面影响,61%的人认为人工智能可能威胁到人类文明。

  来源:新浪财经 环球市场播报

       红商网优质内容还将同步分发到公众号、视频号、头条号、西瓜抖音、网易号、搜狐号、企鹅号、百家号、好看视频、新浪微博等国内主力流量平台。

      东治书院2024级易学文士班(第二届)报名者必读
      『独贾参考』:独特视角,洞悉商业世相。
      【耕菑草堂】巴山杂花土蜂蜜,爱家人,送亲友,助养生
      解惑 | “格物致知”的“格”到底是什么意思?
      ❤❤❤【拙话】儒学之流变❤❤❤
      易经 | 艮卦究竟在讲什么?兼斥《翦商》之荒谬
      大风水,小风水,风水人
      ❤❤❤人的一生拜一位好老师太重要了❤❤❤
      如何成为一个受人尊敬的易学家?
      成功一定有道,跟着成功的人,学习成功之道。
      关注『书仙笙』:结茅深山读仙经,擅闯人间迷烟火。
      研究报告、榜单收录、高管收录、品牌收录、企业通稿、行业会务
      ★★★你有买点,我有流量,势必点石成金!★★★