当前位置:商业频道首页 > 财讯 > 正文

上海布局“类脑大模型”颠覆性创新项目,交大教授挑战大模型主流架构

近日,上海交通大学长聘教授、通用人工智能研究所所长赵海收到两个好消息:一是他带领团队研发的“脑启发大语言模型”入选了“交大2030”计划B类,获得500万元经费支持;二是他的研究方向列入了上海市科委“类脑智能”项目申报指南,这份指南设立“颠覆性技术研究”专题,支持科学家探索脑启发类脑智能的新原理和新方法,研究新型非Transformer架构的类脑大模型通用架构。

Transformer是谷歌在2017年提出的一种深度学习架构,此后经OpenAI持续开发,彻底改变了自然语言处理、计算机视觉等领域的技术格局,成为人工智能大模型普遍采用的架构。那么,上海为何要布局颠覆这种架构的科技项目?类脑大模型的研发进展如何?记者在采访中了解到值得关注的阶段性成果。

从脑科学成果中获得灵感

ChatGPT风靡全球后不久,就有一些人工智能知名专家质疑Transformer架构的发展潜力。比如,图灵奖得主杨立昆认为,这种架构面临计算成本高、缺乏对复杂世界的理解、决策过程“黑箱化”等瓶颈,未来无法实现科学家梦寐以求的通用人工智能——智能体具有高效的学习和泛化能力,能根据所处的复杂环境自主提出并完成任务,且符合人类伦理规范。

今年1月,诺贝尔化学奖得主哈萨比斯谈及通用人工智能时说:“也许我们还需要1—2个类似Transformer的突破。”这意味着,Transformer很可能不是大模型架构的最终方案,在探索通用人工智能的道路上,还需要有大的创新突破。

上海布局“类脑大模型”颠覆性创新项目,交大教授挑战大模型主流架构

Transformer很可能不是实现通用人工智能(AGI)的最终方案。

热点推送

本周关注

MORE