12月4日,国际创新转化学院副研究员高杰在《经济观察报》第19版“数字化与人工智能”板块刊发署名文章《复盘OpenAI“五日事变”:分歧与对齐》,主要就世界顶级人工智能超新星公司OpenAI的管理层动荡事件展开复盘,探讨人工智能技术快速发展背景下的公司治理架构、创新转化与理念融合问题。
文章认为,这次事件势必会成为人工智能及其治理发展史中的一个里程碑事件,通过此次“事变”重新调整了OpenAI的权力架构与治理结构,管理者、董事会、投资人、资本与各方利益集团实现了“利益公约数”的博弈,该组织通过跌宕起伏的迭代与重塑,继续向着推进人工智能发展与惠及全人类的目标使命前进。
不管OpenAI是否如部分传言所说已经开发出威胁到人类的技术,或者发现AGI技术已经具有意识等内容,根据已知的确切消息与证据,我们可以确定AGI技术在快速发展,ChatGPT也在快速迭代,比如奥特曼被OpenAI董事会解雇前一天在旧金山出席亚太经合组织(APEC)首席执行官峰会时,表示OpenAI最近取得的一项历史性技术进步与前沿突破令人振奋。而今年六七月份,苏茨克维成为了OpenAI内部面对更深层次AI安全挑战的核心团队“超级对齐”,未来四年内希望使用20%现有算力研发更多上游AI安全技术,他表示,OpenAI首要任务不是制造下一代GPT,而是研究如何阻止超级AI失控;10月接受《麻省理工科技评论》采访时,苏茨克维表示和GPT对话时,能感受到“意识”的涌现。随着奥特曼加速GPT研发迭代、不断融资支撑算力与公司发展,以及苏茨克维强调风险防范并推动超级“爱”对齐项目,双方对于OpenAI的发展路线之争与理念分歧就不可避免了。
有关科技与人类关系的发展,在近年的硅谷与全球科技界,有两种理念与主义的分野:“有效加速”(effective acceleration)与“有效利他”(effective altruism)主义之间对于科技进步与人类影响的看法不同。简单来说,有效加速主义主张无条件地加速技术创新并快速推出,颠覆社会结构,而这种对社会的颠覆风险,本质上对人类有利,过去三百年人类随着技术的颠覆而进化的结果,已经证明;而有效利他主义有着一套复杂的全新的世界观体系,核心可以用哲学家Peter Singer的思想来概括,即“在维持基本生存以外你花的任何一笔钱,都是以另外一个人的死亡为代价”,该运动的领袖、牛津大学哲学系助理教授MacAskill将其进一步归纳为:如果有人因极度贫困而死去,就相当于你亲手杀死了他们。这两种理念与主义在硅谷与科技界、创投界都分别有着不少拥趸,比如人们可能更多会认为作为特斯拉与Space X的创始人马斯克更侧重有效加速主义,但他公开表示MacAskill的理念“非常符合他的哲学观”,而且在OpenAI初创期与奥特曼的分歧,以及现在“五日事变”前后对于苏茨克维的关心,都表明马斯克在科技价值观与发展理念方面,更侧重于关注技术风险与人类福祉。
具体到AI技术与AGI应用的快速发展,两种理念的分歧与对立在OpenAI这里则表征为,以奥特曼一方为代表的促进GPT快速发展迭代、公开推广、不断融资的“有效加速主义”(effective acceleration),与以苏茨克维一方为代表的关注AI技术风险并“要求AI系统的目标要和人类的价值观与利益相对齐”的“超级对齐”(Superalignment)的理念分歧。
苏茨克维作为“深度学习之父”Geoffrey Hinton的学生,作为技术大牛一直以来保持着和“打开潘多拉魔盒”的老师相似的观点,担心AI不受控制危害人类,自己所主导推动的超级对齐理念与项目,本质是“Super-LOVE-alignment”,超级“爱”对齐,希望把对人类的爱注入到AI发展的基因与价值观塑造之中。当然,随着事变的相对平稳落幕,代表着OpenAI在权力重塑与自我进化的路途中,奥特曼的有效加速主义与苏茨克维的超级对齐,也在磨合前进。相信OpenAI未来发展的速度快慢与产品技术的具体呈现,会让我们进一步了解OpenAI的治理架构调整与理念主义融合的最新情况。
本报道参考“经济观察网”相关文章,http://www.eeo.com.cn/2023/1202/616690.shtml;该文章也受到了腾讯新闻、凤凰网、搜狐网、网易、壹元、雪球等综合网站与商业科技资讯媒体平台的转载。