中国经济周刊-经济网讯 (记者 孙冰)6月9日-6月10日,“2023北京智源大会”在京举行。
此次大会邀请到了全球范围内超过200位人工智能领域的顶尖专家,不仅图灵奖得主就有Geoffrey Hinton、Yann LeCun、Joseph Sifakis和姚期智四位,还有张钹、郑南宁、谢晓亮、张宏江、张亚勤等多位院士,以及加州大学伯克利分校人工智能系统中心创始人Stuart Russell、麻省理工学院未来生命研究所创始人Max Tegmark以及备受关注的OpenAI联合创始人兼首席执行官Sam Altman等嘉宾,他们以国际视角探讨了通用人工智能发展所面临的机遇与挑战。
(相关资料图)
记者 孙冰摄
全球顶级AI专家共话通用人工智能发展的机遇与挑战
“我们距离AGI(ArtificialGeneral Intelligence,通用人工智能)时代还有多远很难预测,仍然需要不断地研究才能得到结论,并且这条路不会一帆风顺。但在未来的10年内,我们可能会拥有超强的AI系统。”
6月10日,OpenAI联合创始人兼CEO萨姆·奥特曼(Sam Altman)以视频连线的方式现身2023北京智源大会的“AI安全与对齐”专题论坛,并发表演讲,这是奥特曼在中国的演讲首秀。随后,他还回答了智源研究院理事长张宏江的一系列提问。
当天的论坛聚焦于“AI安全与对齐(Alignment)”,着重讨论如何确保愈发强大的通用人工智能系统安全可控,并符合人类意图和价值观。
智源研究院理事长张宏江
“如何使AI系统成为一个有益和安全的助手,这对应的是如何训练模型,使其在没有安全威胁的前提下发挥积极作用。不过,随着AGI时代的接近,其带来的潜在影响和问题将呈指数级增长,所以,我们需要通过主动应对AGI带来的潜在挑战,将未来发生灾难性后果的风险降至最低。”奥特曼表示。
奥特曼强调,随着越来越强大的人工智能系统的出现,全球合作变得前所未有地重要。“当然,全球合作始终是困难的,但我认为这种机遇和威胁能够让世界走到一起,我们可以共同为AI系统制定一个框架和安全标准。”他说。
奥特曼还引用了中国《道德经》中的名句:“千里之行,始于足下”。他建议,目前最有建设性的第一步是国际科技界先展开合作,推动和增加AGI安全技术进展的透明度,鼓励发现紧急问题的研究人员与更多人共享研究成果。
“悟道3.0”系列大模型发布并全面开源,打造“大模型进化流水线”
除了全球顶级专家共话AI,在此次大会上,智源研究院也展示了其在大模型领域的最新研究成果。实际上,智源研究院作为国内最早进行大模型研究的科研机构之一,自2020年10月启动大模型研发工作,发展至今已实现了多项领先成就。
Sam Altam发推感谢智源大会的邀请
继2021年悟道大模型项目连创“中国首个+世界最大”纪录之后,智源研究院在此次大会上正式发布了全面开源的“悟道3.0”系列大模型及算法,同时,也报告了在高精度生命模拟和有机大分子建模方面的最新进展。
据介绍,智源“悟道3.0”带来一系列领先成果:“悟道·天鹰”(Aquila)语言大模型系列、天秤(FlagEval)开源大模型评测体系与开放平台,“悟道 · 视界”视觉大模型系列,以及一系列多模态模型成果。
此外,为推动大模型在产业落地和技术创新,智源研究院还发布了“开源商用许可语言大模型系列+开放评测平台”两大成果。
“智源希望打造出一条‘大模型进化流水线’,持续迭代并持续开源开放。”智源研究院副院长、总工程师林咏华表示。
智源研究院院长黄铁军在接受包括《中国经济周刊》在内的媒体采访时表示,大模型需要具备三个条件:一是规模要大,参数达百亿规模以上;二是涌现性,能够产生预料之外的新能力;三是通用性,不限于专门问题或领域,能够处理多种不同的任务。
智源研究院院长黄铁军
“但从技术的判断来说,现在大模型的‘大’远远没有达到天花板,未来,模型规模的放大和智能水平的提高一定会继续发生。”黄铁军说。
而对于各方热议的人工智能的安全和伦理问题,黄铁军表示,随着人工智能大模型出现了“涌现”能力,其不可预知性确实带来了巨大的挑战。
智源研究院总工程师林咏华发布智源最新成果
“以前核武器、化学武器的系统挑战也很大,但仍是可预测的。那么,预料之外的东西就管不了?我并不这样认为,因为人也是不可预测的,每个人都可能灵感一闪,冒出很多新想法。既然AI是智能系统,人和动物也是智能系统,所以可以把人类社会的道德伦理、社会归制、法律规则等,作为借鉴用于探索AI的管理。”黄铁军表示。
据悉,作为国际性人工智能高端专业交流活动,由智源研究院主办的智源大会已经连续举办了五届。在过去的四年间,先后有500余位以图灵奖得主为代表的顶尖AI专家在这里激扬思想,数万名专业人士注册参会,覆盖30多个国家和地区。
一审:郑扬波 二审:王新景 三审:周琦
关键词:
责任编辑:Rex_26