OpenAI事件后续:Q*,组建多元化董事会的算法有争议

日期:2023-12-05 11:04:49 / 人气:104

OpenAI事件后续:Q*,组建多元化董事会的算法有争议。我们的记者曲在北京报道。
OpenAI的“龚都”大戏随着萨姆·奥特曼重回CEO位置而落下帷幕,但关于“龚都”起因的猜测却一直没有停止,尤其是一个只有名字没有产品的所谓超智能算法Q*在业界引起轩然大波。
在这样的背景下,11月30日,OpenAI在官网更新了博客,发布了两条分别以CEO奥特曼和董事会主席布雷特·泰勒为订阅者的消息。核心信息包括OpenAI领导团队继续沿着研究路线推进工作,进一步投入全栈安全工作;将成立由优秀人士组成的合格多元化董事会,强化OpenAI的治理结构。值得注意的是,OpenAI的董事会将包括一名没有投票权的微软观察员。
关于在OpenAI“龚都”事件中扮演重要角色的核心人物、首席科学家伊利亚·苏茨基弗(Ilya Sutskever),奥特曼表示“对他的恶意为零”。虽然Sutskever不再是董事会成员,但Altman“希望继续与他的合作关系,并正在讨论如何继续他在OpenAI的工作”。
对于Sutzkopf是否会留在OpenAI,微软以“无投票权观察员”身份加入董事会是否只是一种过渡,《第一财经日报》记者通过邮件和社交平台联系OpenAI进行求证,但截至发稿,尚未得到回应。
首席科学家的去留与微软的角色
在社交平台X上,处于舆论焦点的Sutzkoff第一时间转发了OpenAI的官方公告,但并未置评。Sutzkoff在业内有着良好的口碑和顶尖的专业水平,主导和引领了GPT的重大技术迭代,可谓是今年最火的ChatGPT的“创造者”。在OpenAI董事会罢免奥特曼CEO职务的事件中,苏兹科夫被认为是“领导者”,很快他态度180度大转变,加入了支持奥特曼回归的势力。
值得一提的是,就在今年7月,Sutzkoff在接受美国媒体采访时透露,ChatGPT成功后,他的工作重心转移到了防止AI失控上,成立了一个新的研究团队,并计划在未来4年投入20%的资金来解决超智能AI比对问题。所谓“对齐”,简单理解就是用AI来监督AI,建立一套超级人工智能的安全程序,保证未来超越人类智能的超级AI能够与人类的世界观、价值观和整体利益保持一致。
从OpenAI的更新公告来看,显然Sutzkopf是否会继续留在OpenAI还存在一些变数。
除了Sutzkoff的去留问题,OpenAI最新公布的另一件趣事无疑是微软。作为OpenAI的投资者和OpenAI“龚都”事件的活跃分子,微软将以无投票权观察员的身份加入董事会。对此,奥特曼表示:“我们显然做出了与微软合作的正确选择。我很高兴新董事会将把微软视为无投票权的观察员。”
需要指出的是,新董事会的初始成员有三位,分别是Salesforce前联席CEO布雷特·泰勒(Brett Taylor)、美国著名经济学家劳伦斯·萨默斯(lawrence summers)和问答社区Quora的联合创始人亚当·德安吉罗。泰勒表示,OpenAI的新董事会成员将专注于建立一个合格和多元化的董事会。不过,OpenAI没有说明董事会将增加多少个席位和哪些成员。
泰勒还表示,OpenAI将进一步稳定其组织结构,以便继续履行其“建设一个有益的AGI”的使命。稳定措施包括召集董事会独立委员会,监督对近期事件的审查。与此同时,OpenAI还将加强治理结构,“让所有利益相关者——用户、客户、员工、合作伙伴、社区开发者等。可以相信OpenAI会继续蓬勃发展”。
记者注意到,OpenAI的最新声明似乎达成了“大团圆结局”——奥特曼向之前召回事件涉及的各方致敬。但事实上,对于事件真正原因的猜测和质疑依然充斥着舆论。
围绕超级人工智能观点的斗争
“在我研究人工智能的十年里,我从来没有见过一个算法让这么多人幻想。只有名字,没有论文,没有统计,没有产品。”11月25日,英伟达高级AI科学家吉姆·范(Jim Fan)在社交媒体上这样写道。他提到的“让这么多人幻想的算法”指的是Q*,最早由路透社和The Information等美国媒体报道,称一些OpenAI员工警告董事会,Q *可能预示着通用人工智能的出现,从而成为召回事件的导火索。
美国人工智能培训公司Tromero的联合创始人索菲亚·卡拉诺夫(Sophia Caranove)提出了一个观点,即Q*很可能是两种人工智能算法的结合,即Q-learning和A* Search。前者是深度学习中的一种强化学习,通过奖励理想结果来训练AI做出更好的决策,比如已经在2014年风靡全球的AlphaGo中得到应用;后者是经典的启发式搜索。当规划从一点到另一点的路线时,通过高效的计算找到到达目的地的最佳路径。根据Caranove Skar的分析,如果大语言模型GPT将这两种算法结合起来,将提高数学推理和规划的能力,从而当前生成式人工智能所批评的“幻觉”问题(指AI对生成的内容极其自信,甚至是不合逻辑和错误的内容)有望得到解决,更接近于一般的人工智能。这个观点已经被很多业内人士接受。
不过,业内也有另一种声音,即质疑Q*是否只是炒作和危言耸听。很多业内专家都提出了自己的看法。2018年图灵奖得主之一、Meta首席AI科学家Yann LeCun在社交平台上直言:“请忽略来自Q*的一大堆废话。提高大语言模型可靠性的主要挑战之一是用规划代替自回归预测。几乎每个顶级AI实验室都致力于这项研究。”他还介绍,从2016年开始,他就一直在倡导构建深度学习架构。此外,纽约大学心理学和神经科学教授加里·马库斯(Gary Marcus)也对所谓的Q*提出了质疑,认为其表现可能被严重夸大了。
事实上,记者观察到,关于人工智能的安全性、意识觉醒和独立人格的讨论已经持续了很长时间,在各种观点上也出现了很多派别,比如传统的乐观主义者和悲观主义者、“末日论”以及新兴的“有效加速”、“超对齐”等支持者。就在2022年年中,OpenAI的ChatGPT还没有公开发布的时候,谷歌AI伦理部门的一名员工说谷歌的LaMDA已经产生了意识,引起了业界的热议。ChatGPT诞生的那一年,大语言模型加速了生成式人工智能的飞跃,渗透到社会生产生活中,由此引发的关于AI安全的讨论更是高涨。
如何保证AI加速发展的安全性?这成了摆在包括OpenAI在内的所有AI玩家面前的拷问。OpenAI在公告中也提到,OpenAI现在比以往任何时候都重要。ChatGPT让人工智能成为数亿人日常生活的一部分,它的普及让人工智能——无论机遇还是风险——成为未来几乎所有政府、企业和社会对话的核心。
最新消息,11月30日晚,据美国媒体The Verge报道,奥特曼在最新的采访中首次对Q*做出回应。他说:“对这一不幸的泄露事件没有特别的评论,但我们一直在说,这项技术将继续取得快速进展,我们希望继续努力,找出如何使其安全和有益。”"

作者:天美娱乐




现在致电 5243865 OR 查看更多联系方式 →

COPYRIGHT 天美娱乐 版权所有