《科创板日报》3月30日讯(编辑 田箫)当Chat-GPT迅速拉近了人对强人工智能的无限想象后,对这一强大工具的忧虑也随之而来。
近日,包括马斯克、苹果联合创始人斯蒂夫·沃兹尼亚克、蒙特利尔学习算法研究所所长约书亚·本吉奥等业界大佬在内的数千名科技界专家,共同签署了一份由生命未来研究所(Future of Life)发起的“暂停巨型人工智能实验”的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月,并建议如果不暂停,应该由政府强制暂停。
(资料图)
公开信称:AI实验室和独立专家应该利用这个暂停期共同制定和实施一套共享的AI设计和开发安全协议,这些协议应由独立的外部专家严格审核和监督。
就在AI监管已经刻不容缓的关键时期,部分国家已经有所行动,而部分海外科技巨头则出现了背道而驰的迹象。
监管落后,AI需要遵守哪些道德规范?
给人类带来无限惊喜之后,Chat-GPT也正在逐渐暴露自身缺陷。
上周, Chat-GPT首次遭遇了重大个人数据泄露,为此,OpenAI于3月24日发布声明向用户致歉。OpenAI称,由于开源库中的一个错误,一些用户能够看到另一个活跃用户的聊天记录中的标题、第一条消息,以及姓名、电子邮件地址、支付地址、信用卡号的后四位数字以及信用卡到期时间。
目前,OpenAI已修补了该漏洞,并报告了该问题的技术细节。该公司声称,数据被泄露给他人的用户数量“非常少”,他们已经联系了所有据信在宕机期间受到影响的用户。
几乎同时,Chat-GPT的版权侵犯问题也遭到了质疑。据华尔街日报称,拥有《纽约邮报》、《巴伦周刊》、《华尔街日报》等的美国新闻集团正准备通过法律程序向技术制造商如OpenAI、微软和谷歌要求赔偿。
《科创板日报》记者向Chat-GPT询问AI发展可能为当前社会带来哪些风险,其回答称,人工智能可能会导致不公平的结果,从而加剧社会不平等;人工智能可能会被用于监视和追踪人类行为,侵犯隐私;人工智能可能会被用于制造虚假信息和误导性内容,从而影响公众舆论;人工智能可能会被用于攻击和破坏网络安全,从而危及社会稳定。
生命未来研究所在公开信中表示,AI开发人员必须与政策制定者合作,大力加速AI治理系统的发展。目前,英国政府首先行动起来了。
3月29日,英国政府发布针对人工智能产业监管的白皮书,概述了针对ChatGPT等人工智能治理的五项原则。它们分别是:安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性。在接下来的12个月里,监管机构将向相关组织发布实用指南,以及风险评估模板等其他工具,制定基于五项原则的一些具体规则。也将在议会推动立法,制定具体的人工智能法案。企业应该解释何时以及如何使用人工智能,并透露系统的决策过程,以“暴露”使用人工智能所带来的风险。
30日,OpenAI CEO Sam Altman亦在社交媒体上表示,一个美好的AGI未来需要以下条件:1)联合超级智能的技术能力;2)大多数主要AGI工作之间的充分协调;3)包括民主治理在内的有效全球监管框架。
大型科技公司裁减AI 道德人员
似乎有点雪上加霜,就在AI技术日新月异迅猛发展的同时,受困于经济环境波动的海外科技巨头们,却纷纷开始裁撤AI道德监管团队。
今年以来,微软于1月份解散了其所有的伦理和社会团队;Twitter在马斯克的领导下裁员超过一半,包括其小型伦理AI团队;亚马逊旗下的流媒体平台Twitch裁员了其道德人工智能团队;Meta解散了约20名工程师和伦理学家组成的负责任创新团队;谷歌部分负责道德人工智能监督团队的员工也遭到裁撤。
此前,这些伦理或负责任团队的主要工作内容,包括修复算法中的偏见、推动公平性的技术干预等。
前Facebook AI伦理研究员Josh Simons表示:“负责任人工智能团队是大型科技公司唯一的内部堡垒,可以确保受人工智能系统在建造时能做到以人为本。“
对于负责人部门的裁撤,微软与谷歌都已做出回应。微软表示,针对该部门的裁员不到 10 个,微软仍有数百人在负责任AI 团队工作。微软首席人工智能负责官娜塔莎·克兰普顿称,“我们在负责任AI领域取得了显著进展,并努力在整个公司范围内将其制度化。”
谷歌则表示,负责任AI仍然是“公司的首要任务,我们将继续投资于这些团队”。
然而,在AI技术的发展与伦理安全的探索之间,似乎始终存在着一定的紧张关系。2020年、2021年,两位任职于谷歌的AI 伦理研究负责人 Timnit Gebru 与 Margaret Mitchell先后离职,据《纽约时报》报道,在离开之前,他们与该公司发生了争吵。
《ESG Weekly》:财联社及科创板日报旗下专注ESG领域的领先新媒体平台,包括新闻、数据、资源、服务等,覆盖一、二级市场投资,拥有ESG这些事、ESG测评、ESG产业联盟等栏目和产品。
关键词:
责任编辑:Rex_30