脸书母公司Meta的首席人工智能科学家恩雅·勒昆认为,目前的大多数人工智能方法永远不会带来真正的智能他对当今深度学习领域许多最成功的研究方法持怀疑态度
图灵奖得主说,追求同龄人是必要的,但远远不够包括大型语言模型的研究,比如基于Transformer的GPT—3正如乐昆描述的那样,《变形金刚》的支持者认为:我们标记一切,训练巨型模型进行离散预测,所以AI脱颖而出
乐昆解释说:他们没有错从这个意义上说,这可能是未来智能系统的重要组成部分,但我认为它缺乏必要的部分乐昆完善了卷积神经网络的使用,在深度学习项目中取得了不可思议的成绩
乐昆也看到了这一学科许多其他高度成功领域的缺陷和局限他坚持认为强化学习永远不够像DeepMind的大卫·西尔弗这样的研究人员,虽然他们开发了AlphaZero程序,掌握了国际象棋和围棋,但他们专注于非常注重行动的程序,而乐昆观察到我们的大部分学习不是通过采取实际行动,而是通过观察完成的
62岁的乐昆有着强烈的紧迫感他必须正视他认为很多人可能走向的死胡同,并努力引导他的领域朝着他认为应该走的方向前进乐昆说:我们看到了很多关于我们应该做些什么来促进AI达到人类智能水平的意见我认为有些想法是错误的我们的智能机器甚至还没有达到猫的智力水平那么,我们为什么不从这里开始呢
乐昆认为,不仅是学术界,AI行业也需要深刻反思他表示,自动驾驶汽车集团,如Wayve这样的初创公司,认为只要将数据扔进大型神经网络,他们就可以学习几乎任何东西,这似乎有点过于乐观
乐昆说,你知道,我觉得我们完全有可能拥有L5级别的自动驾驶汽车,没有常识,但你必须在设计上做出努力他认为这种过度设计的自动驾驶技术会变得像所有被深度学习淘汰的计算机视觉程序一样脆弱他说,归根结底,会有一个更令人满意,可能更好的解决方案,其中涉及一个更好地理解世界运行方式的系统
乐昆希望能促使人们重新思考AI的基本概念他说,你必须退后一步说,‘好吧,我们造了一架梯子,但我们想去月球,而这架梯子不能带我们去’我想说的是,这就像做火箭一样我不能告诉你我们如何制造火箭的细节,但我可以提供基本原则
乐昆认为,AI系统需要能够推理,他提倡的过程是尽量减少一些潜在的变量这使得系统能够进行计划和推理此外,乐昆认为,概率框架应该被抛弃,因为当我们想要做一些事情的时候,比如捕捉高维连续变量之间的依赖关系,是很难处理的乐昆也主张放弃世代模型,因为系统要预测难以预测的事情,将不得不投入太多的资源,而且可能会消耗太多的资源
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。