北京时间7月6日上午,当地时间周三,开发者表示,计划投入更多资源,成立新的研究团队,研究如何保证人工智能对人类的安全,最终实现利用人工智能来监督人工智能。
联合创始人伊利亚·苏茨克弗(Ilya)和AI 负责人扬·雷克(Jan Leike)在官方博客中表示:“超级智能的巨大能力可能会导致人类失去力量甚至灭绝。目前我们还没有操纵或控制未来的超级人工智能并防止其变得流氓的解决方案。”
该博客文章预测,超级智能人工智能(比人类更聪明的系统)可能会在未来 10 年内出现。 人类将需要比目前更强大的技术来控制超级智能人工智能,因此需要在“人工智能对齐研究”方面取得突破,以确保人类人工智能持续为人类带来好处。 AI对齐是AI控制的一大问题,这要求AI的目标与人类的价值观和意图保持一致。
作者写道,未来4年将有20%的计算能力专门用于解决这个问题。 此外,公司将组建新的“超对齐”团队来组织这项工作。
该团队的目标是开发“人类水平”的人工智能驱动的对齐研究人员,然后由巨大的计算能力提供支持。 他说,这意味着利用人类的反馈来训练人工智能系统,通过训练人工智能系统来辅助人类评估,最后训练人工智能系统进行实际的比对研究。
不过,人工智能安全倡导者康纳·莱希(Leahy)表示,美国的计划从根本上来说是有缺陷的,因为最初的人类水平的人工智能可能会失控并造成严重破坏,这将迫使研究人员解决人工智能安全问题。 。 “在构建人类水平的智能之前,你必须解决对齐问题,否则你无法默认控制它。我个人认为这不是一个特别好的、安全的计划,”他在接受采访时表示。
人工智能的潜在危险长期以来一直是人工智能研究人员和公众最关心的问题。 今年4月,一群人工智能行业领袖和专家签署了一封公开信,呼吁由于潜在的社会风险,暂停开发比GPT-4更强大的系统六个月。 今年5月的益普索调查发现,超过三分之二的美国人担心人工智能可能带来的负面影响,61%的人认为人工智能可能威胁人类文明。
广告声明:本文所包含的外部跳转链接(包括但不限于超链接、二维码、密码等)用于传达更多信息并节省选择时间,结果仅供参考。 IT之家所有文章均包含此声明。