首页 > 宏观 >

“人工智能教父”离开谷歌!

在业内有“人工智能教父”之称的计算机科学家杰弗里·辛顿(geoffrey hinton)周一在社交媒体上证实,他上周已经离开谷歌。辛顿在过去的十多年里帮助谷歌开发ai技术,但他现在成为了人工智能最新的“末日预言者”。

辛顿在twitter上澄清,离开谷歌并不是为了批评谷歌。“实际上,我离开是为了谈论人工智能的危险,而不用去考虑这对谷歌有何影响。”他写道,“谷歌的行为非常负责任。”

无法防止坏人利用ai做坏事


(资料图)

辛顿坦言他对人工智能的担忧,并说道:“现在似乎还很难看到如何能够防止坏人利用人工智能来做坏事。”

辛顿在神经网络方面的开创性工作塑造了为当今许多产品提供动力的人工智能系统。由于对神经网路研究的贡献,辛顿与法国计算机科学家杨立昆(yann lecun)、加拿大计算机科学家约书亚·本希奥(yoshua bengio)共同获得了2018年的图灵奖。

去年年底,以微软、谷歌为代表的科技巨头公司围绕ai大模型展开了新一轮的“军备竞赛”,ibm、亚马逊、百度和腾讯等企业也在研究类似的技术。

随着辛顿的离职,他以更明确的态度加入了ai批评者的行列。批评人士认为,这些科技公司积极开展基于生成式人工智能(aigc)的产品开发活动,“这是在与危险赛跑”。

辛顿表示,他现在甚至有些后悔一生从事ai的开发工作。“我经常这样安慰自己,就算我没有从事这些工作,也会有别人去做。”他说道。

现年75岁的辛顿终身从事学术研究,他对人工智能的信仰推动了他的职业生涯。辛顿曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助而离开大学前往加拿大。美国大多数ai项目都由国防部资助,而辛顿强烈反对在战场上使用人工智能。

2012年,辛顿与他在多伦多的两名学生建立了一个神经网络公司,可以分析数千张照片并自学识别常见物体,例如花、狗和汽车。谷歌后来斥资4400万美元收购了该公司,其中一名学生ilya sutskever后来成为了openai的首席科学家。

辛顿长期坚信,神经网络是机器理解和生成语言的一种强大方式,但它不如人类处理语言的方式。然而,随着去年谷歌和openai使用大量数据构建系统,诞生了bard和chatgpt这样的ai聊天系统,辛顿的观点发生了变化。尽管他仍然认为这些系统在某些方面不如人脑,但它们在其他方面可以使人类智能黯然失色。

巨头的ai“危险游戏”可能无法停止

从ai的开创者到“末日预言者”,辛顿的离职标志着科技行业在几十年来最重要的转折点。人工智能行业领导者相信新的ai系统可能与上世纪90年代初引入的网络浏览器一样重要,并可以引发从药物研究到教育等领域的颠覆式突破。

但困扰许多业内人士的是,他们担心人工智能正在向“恶的一面”释放“危险信号”,生成式人工智能已经可以成为散播错误信息的工具,并对一些工作构成威胁。而科技界最大的反对声音则认为,ai可能在未来的某个时间点对人类构成威胁。

随着科技巨头公司不断改进他们的ai系统,辛顿认为,这些系统正在变得越来越危险。“直到去年,谷歌一直被视为是人工智能技术的’管家’,小心翼翼地不发布可能造成伤害的东西。”辛顿表示,“但现在微软已经通过聊天机器人增强了bing搜索引擎,并挑战谷歌的核心业务,科技巨头陷入了一场可能无法停止的竞争。”

今年3月,亿万富豪马斯克联合上千名技术领袖和研究人员签署了一封公开信,呼吁暂停gpt模型新系统的开发,并认为ai技术将给“社会和人类带来深远的风险”。

辛顿并不在联名者之列,他当时仍为谷歌供职。上个月,辛顿通知公司他要辞职,并在周四与谷歌ceo桑达尔·皮查伊(sundar pichai)通了电话,不过他拒绝公开讨论他与皮查伊谈话的细节。

皮查伊近期也在美国哥伦比亚广播公司“60分钟”的采访中公开谈论人工智能的伦理问题。他说道:“社会尚未为人工智能的快速发展做好准备。”他还警告称,人工智能的后果将影响“每家公司的每一种产品”。

“所有公司的产品都将受到人工智能快速发展的影响,社会需要为已经推出的技术做好准备。”皮查伊说道,“我们的适应速度与技术发展的速度相比,似乎还不太匹配。”

他强调虚假信息、假新闻和图像带来的问题远比人们想象的要大得多,它可能造成伤害。他还称,聊天机器人有一个“黑匣子”,“在那里,你不完全理解它为什么或如何做出某些回应。”皮查伊说道。

但谷歌负责技术和社会业务的高级副总裁james manyika回应称:“bard没有知觉,也没有自我意识,但它可以表现得很像有意识的人。”

对于辛顿的离职,谷歌首席科学家杰夫·迪恩在一份声明中表示:“我们仍然致力于对人工智能采取负责任的态度。我们不断学习并了解ai新出现的风险,同时也大胆创新。”

ai超过人类已不再遥远

辛顿最担心的是,互联网上将充斥着虚假的照片、视频和文字,普通人将“无法再辨别真假”。此外,辛顿还担心人工智能技术的“未来版本”会对人类构成威胁,因为“它们经常从分析的大量数据中学习到意想不到的行为”。

“这会成为一个问题,因为如果ai系统被允许不仅可以生成自己的计算机代码,而且实际上可以自己运行该代码,这就会变得非常可怕。”辛顿表示。他甚至担心有一天真正的“自主武器”会成为现实,这些“武器”就好像是战场上的“机器人士兵”。

“这种东西实际上可以拥有比人类更聪明的想法。”他说道,“但大多数人认为这还很遥远,我也曾认为这是30年到50年甚至更长的时间才会发生的,但显然,我不再这么想了。”

谷歌与微软和其他公司之间的竞争将升级为一场全球竞争,如果没有全球的监管,这种竞争将不会停止。“最好的情况是世界领先的科学家在控制技术的方法上进行合作。我认为他们在了解人类是否能够控制ai之前,不应该继续扩大规模。”辛顿表示。

美国参议院多数党领袖舒默近期发起一项针对人工智能的治理框架,并聘请了顶尖的人工智能专家进行咨询。该计划将侧重于建立人工智能系统的透明度,并要求独立专家在公开发布之前测试人工智能技术,并要求披露参与技术开发的人员、地点和方式。

谷歌也已经发布了一份概述“监管人工智能建议”的文件,并提出“社会必须迅速适应监管、建立起惩罚滥用人工智能行为的法律和各国之间的条约,以确保人工智能对世界安全,并确保与人类价值观保持一致的规则”。

栏目主编:秦红

文字编辑:杨蓉

本文作者:第一财经

题图来源:IC photo

图片编辑:邵竞

关键词:

责任编辑:Rex_25

推荐阅读

SHEIN变慢,快时尚“消亡”

· 2023-06-25 15:28:43

6月25日周末复盘选股教学

· 2023-06-25 14:45:16

关于我们  联系我们  商务合作  诚聘英才  网站地图

Copyright @ 2008-2020 ac.rexun.cn Corporation, All Rights Reserved

热讯财经网 版权所有 豫ICP备20005723号-6
文章投诉邮箱:2 9 5 9 1 1 5 7 8@qq.com违法信息举报邮箱:jubao@123777.net.cn

营业执照公示信息