您所在的位置:红商网 >> 人能弘道频道 >> 正文
《人类简史》作者:人工智能可能灭绝人类,我们可能还有几年时间

  《人类简史》的作者尤瓦尔·赫拉利周二警告称,人工智能是一种可能消灭人类的外来威胁:“它不是来自外太空,而是来自加州。”

  人工智能技术被广泛誉为一场“革命”,但以色列历史学家和哲学家赫拉利认为,这是一种可能导致人类灭绝的“外来物种”。会引起。

  赫拉利周二在伦敦的一次活动上对观众说:“人工智能与我们在历史上看到的任何其他发明,无论是核武器还是印刷机,都有着根本的不同。”

  “这是历史上第一个可以自己做决定的设备。原子弹不能做出决定。在广岛投下原子弹的决定是由一个人做出的。”

  赫拉利说,这种独立思考能力带来的风险是,超级智能机器最终可能会取代人类成为世界的主导力量。

  他警告称:“我们可能在谈论人类历史的终结——人类统治时代的终结。很有可能在未来几年内,它将消耗掉所有的人类文化,(我们自石器时代以来取得的一切成就),并开始萌芽一种来自外来智慧的新文化。”

  根据赫拉利的说法,这提出了一个问题,即技术不仅会对我们周围的物质世界产生什么影响,还会对心理学和宗教等事物产生什么影响。

  他辩称:“在某些方面,人工智能(比人类)更有创造力。最终,我们的创造力受到生物生物学的限制。而它是一种无机智能,真的很像外星智慧。”

  “如果我说外来物种将在五年内到来,也许他们会很好,也许他们会治愈癌症,但他们会夺走我们控制世界的能力,人们会感到害怕。

  “这就是我们所处的情况,但威胁不是来自外太空,而是来自加州。”

  OpenAI的生成式人工智能聊天机器人ChatGPT在过去一年中取得了惊人的增长,成为该领域重大投资的催化剂,大型科技公司也加入了开发世界上最尖端人工智能系统的竞赛。

  赫拉利的著作考察了人类的过去和未来,但他认为,人工智能领域的发展速度“让它变得如此可怕”。

  “如果你将其与生物进化进行比较,人工智能现在就像阿米巴变形虫——在生物进化中,它们花了数十万年的时间才变成恐龙。而有了人工智能,变形虫可以在10到20年内变成霸王龙。问题的一部分是我们没有时间去适应。人类是一种适应能力极强的生物……但这需要时间,而我们没有那么多时间。”

  人类的下一个“巨大而可怕的实验”?

  赫拉利承认,之前的技术创新,如蒸汽机和飞机,都提出了类似的人类安全警告,“最终还可以”,但谈到人工智能时,他坚称,“最终还不够好。”

  他说:“我们不擅长新技术,我们会犯大错误,我们会尝试。”

  例如,在工业革命期间,人类“犯了一些可怕的错误”,他说:“我们花了一个世纪,一个半世纪,才把这些失败的实验弄对。”“也许这次我们逃不掉了。即使我们这样做了,想想在这个过程中会有多少人的生命被摧毁。”

  “时间至关重要”

  尽管赫拉利对人工智能发出了可怕的警告,但他表示,我们仍有时间采取行动,防止最坏的预测成为现实。

  他说:“我们还有几年,我不知道有多少年——5年、10年、30年——在人工智能把我们推到后座之前,我们仍然坐在驾驶座上。我们必须非常小心地利用这几年。”

  他还敦促那些在人工智能领域工作的人考虑一下,在世界上释放他们的创新是否真的符合地球的最佳利益。

  “我们不能只是停止技术的发展,但我们需要区分开发和部署,”他说,“仅仅因为你开发了它,并不意味着你必须部署它。”

  来源:新浪财经 环球市场播报

       红商网优质内容还将同步分发到公众号、视频号、头条号、西瓜抖音、网易号、搜狐号、企鹅号、百家号、好看视频、新浪微博等国内主力流量平台。
      东治书院2024级易学文士班(第二届)报名者必读
      『独贾参考』:独特视角,洞悉商业世相。
      【耕菑草堂】巴山杂花土蜂蜜,爱家人,送亲友,助养生
      解惑 | “格物致知”的“格”到底是什么意思?
      ❤❤❤【拙话】儒学之流变❤❤❤
      易经 | 艮卦究竟在讲什么?兼斥《翦商》之荒谬
      大风水,小风水,风水人
      ❤❤❤人的一生拜一位好老师太重要了❤❤❤
      如何成为一个受人尊敬的易学家?
      成功一定有道,跟着成功的人,学习成功之道。
      关注『书仙笙』:结茅深山读仙经,擅闯人间迷烟火。
      研究报告、榜单收录、高管收录、品牌收录、企业通稿、行业会务
      ★★★你有买点,我有流量,势必点石成金!★★★