原文链接:www.theverge.com/2023/4/14/2…
在一次关于人工智能系统威胁的讨论中,OpenAI的CEO兼联合创始人Sam Altman确认公司目前并未在培训GPT-5,这是其AI语言模型GPT-4的预期继任者,该模型于今年3月发布。
Altman在麻省理工学院的一个活动上发言时被问及最近在科技界流传开来的一封公开信,要求像OpenAI这样的实验室暂停开发“比GPT-4更强大”的人工智能系统。该信强调了对未来系统安全性的担忧,但已经受到业内许多人士(包括一些签署者)批评。专家们对于人工智能带来威胁(是存在性问题还是更平凡?)以及行业如何首先“暂停”开发存在分歧。
在麻省理工学院演讲时,Altman表示该信“缺少我们需要暂停开发方面大部分技术细节”,并指出早期版本声称OpenAI正在培训GPT-5。“我们现在没有也不会有相应计划。”Altman说,“所以从那个意义上说它有点愚蠢。”
然而,并非因为OpenAI没有研究GPT-5就意味着他们不会扩展GPT-4的能力——或者,正如Altman强调的那样,考虑这项工作的安全性问题。“我们正在对GPT-4进行其他事情,我认为这些都有各种重要的安全问题需要解决,并且完全被信中忽略了。
您可以在下面观看交流视频:
视频链接:www.youtube.com/watch?v=4yk…
GPT炒作和版本号谬误
Altman的评论很有趣,但并不一定是因为它们揭示了OpenAI未来计划的内容。相反,它们突显了AI安全辩论中一个重要挑战:衡量和跟踪进展的困难。Altman可能会说OpenAI目前没有在训练GPT-5,但这并不是一个特别有意义的声明。
一些混淆可以归因于我所谓的版本号谬论:即编号技术更新反映了明确和线性的能力提升的想法。这是一个误解,多年来一直在消费者科技领域中滋生,其中分配给新手机或操作系统的数字渴望版本控制的严格性,但实际上只是营销工具。“当然iPhone 35比iPhone 34更好”,这个系统的逻辑如此,“数字更大,因此电话更好。”
由于消费者科技和人工智能世界之间存在重叠,在OpenAI语言模型等系统中现在经常应用同样的逻辑。不仅那些发布夸张🤯Twitter帖子🤯预测超级智能AI将在几年内到来而数字不断增加的骗子们如此说道,而且对于更有见识、复杂化评论员也是如此。由于关于AI超级智能所做出的许多声明本质上无法证伪,这些个体依赖类似修辞手段来表达自己观点。他们画出标记为“进步”和“时间”的模糊图形,并绘制向右上方延伸线条,并毫无批判地呈现它作为证据。
这并不是要否认对AI安全的担忧或忽视这些系统正在迅速改进且不完全受我们控制的事实。但是,这也意味着有好的和坏的论点,而仅仅因为我们给某物(无论是新手机还是智能概念)一个数字并不意味着我们已经完全了解它。
相反,我认为在这些讨论中应该关注能力:展示这些系统可以做什么和不能做什么以及预测随时间变化可能会发生怎样的变化。
这就是为什么Altman确认OpenAI目前没有开发GPT-5对于担心AI安全问题的人们来说并没有任何安慰作用。公司仍在扩大GPT-4的潜力(例如通过将其连接到互联网),行业内其他人正在构建类似雄心勃勃的工具,让AI系统代表用户行动。毫无疑问还有各种优化GPT-4所做出努力,并且OpenAI可能首先发布GPT-4.5(就像它发布了GPT-3.5一样)——版本号误导人们另一种方式。
即使世界各国政府设法强制禁止新型人工智能技术开发,很明显社会已经手头上有足够的可用系统。当然,GPT-5还没有到来,但是当GPT-4仍未被完全理解时,这是否重要呢?