图灵奖得主Yann LeCun:人工智能未来安全可控

发布日期:2023-06-12 07:35:07来源:欧洲时报作者:陈辉
6月9日,人工智能领域专家Yann LeCun在法国的家中连线2023北京智源大会现场,发表了主题为《走向能够学习、推理和规划的大模型》的演讲。

【欧洲时报特约记者6月10日报道】2023年即将过半,AI风起云涌。

6月9日,Yann LeCun在法国的家中连线2023北京智源大会现场,发表了主题为《走向能够学习、推理和规划的大模型》的演讲。

身为人工智能领域的专家,Yann LeCun与Geoffrey Hinton、Yoshua Bengio被业内称为人工智能领域“神一样的存在”。他们三位是2018年的图灵奖得主,其中两位来自加拿大,Yann LeCun来自法国。

如今,OpenAI的生成式人工智能风头正盛,不少人认为大语言模型将通为AGI(Artificial General Intelligence的缩写,中文翻译为“通用人工智能”),LeCun却持不同观点:需要放弃生成式模型、强化学习方法这样的主流路线。

演讲中,Yann LeCun谈到了人工智能的未来。他认为,要弥补人类和动物与目前我们能够生产的人工智能之间的差距,不仅仅需要学习,还需要推理和规划。

Yann LeCun提到这样的观点,与人类和动物相比,机器的学习能力并不能及,它们并不真正推理或计划。

“当前机器学习系统在输入和输出之间基本上只有固定数量的计算步骤。这就是为什么它们不能像人类和某些动物那样进行推理和规划。”Yann LeCun认为,基于自监督的语言模型无法获得关于真实世界的知识。

“就像我们在演讲时,如何从一个观点表达到另一个观点,如何解释事物,大脑里是有计划的,而不是一字一句的即兴发挥。在高层次上,我们一定是在规划。所以规划的必要性是非常明显的。”Yann LeCun说。

为了让语言模型真正理解真实世界的知识,需要一个新的架构来取代,而该架构就是他在一年前所发表的论文中提出的架构,“自主智能(Autonomous Intelligence)”。

据介绍,这是由一个配置模块控制整个系统,基于输入信息,进行预测、推理、决策的架构。其中的“世界模块”具备估计缺失信息、预测未来外界状态的能力。

值得一提的是,此前,在马斯克等人签署联名信并提出人工智能发展将给人类文明造成重大风险时,Yann LeCun公开反驳,认为人工智能尚未发展到对人类构成威胁的程度。

Yann LeCun还分享了他对人工智能未来发展方向的看法,重申人工智能是可控的。

他认为,“恐惧是由对潜在负面结果的预期引起的,而乐观是由对积极结果的预测产生的,像这样由目标驱动的系统,我将之称为‘目标驱动的人工智能’,它是可控的,因为我们可以通过成本函数为它设定目标,确保这些系统不会想要接管世界,相反,它会屈从于人类和安全。”

免责声明:文章为转载,版权归原作者所有。如涉及作品版权问题,请与我们联系(010-67800234)删除。文章内容仅供参考,不构成投资建议。投资者据此操作风险自担。
分享到

公告

热门文章