存在大规模风险?技术领袖呼吁暂停 GPT-4.5 和 GPT-5 开发
最近几个月,生成式人工智能的发展速度惊人,出现了各种工具和机器人,如 OpenAI 的 ChatGPT、Google 的 Bard 等等。然而,这种快速发展引起了人工智能领域的资深专家严重关注,以至于他们发起了一封公开信,呼吁人工智能开发者刹车。
这封信发布在未来生命研究所网站上,该组织的宣称使命是“将转型技术引导到造福生命的方向,远离极端大规模风险”。签署人中有几位知名学者和科技领袖,包括苹果联合创始人史蒂夫·沃兹尼亚克、Twitter CEO 埃隆·马斯克等人。
该文章呼吁所有正在研发比最近发布的GPT-4更强大的AI模型的公司立即停止至少六个月的工作。这种停止应该是“公开和可验证的”,并且应该留出时间“共同开发和实施一组共享的高级AI设计和开发安全协议,这些协议受到独立外部专家的严格审计和监督。”
该信件称之为此举必要的原因是,“拥有人类竞争智能的 AI 系统可能对社会和人类构成深刻的风险。” 这些风险包括传播宣传、破坏就业机会、潜在的取代和淘汰人类生命以及“失去对我们文明的控制”。作者补充说,是否继续前进进入这个未来应该不留给“未经选举的技术领袖”。
这篇文章呼吁所有正在研发比最近发布的GPT-4更为强大的AI模型的公司立即停止六个月以上的工作。这个停工期应该是“公开和可验证的”,这将为“联合开发和实施一套共享的安全协议,用于严格审核和由独立外部专家监督的高级AI设计和开发”腾出时间。
这封信表示这是必要的,因为“具有人类竞争智能的AI系统可能对社会和人类造成深刻的风险。” 这些风险包括宣传的传播,工作的破坏,潜在的取代和人类生命的过时,以及“对我们文明的控制失去。” 作者还补充说,决定是否继续朝这个未来迈进不应该留给“未经选举的技术领袖们”。
AI“明显有益于所有人”
该信件发布后不久,有人声称,下一版本 ChatGPT 所使用的技术 GPT-5 能够实现人工通用智能。如果正确,这意味着它将能够理解和学习任何人类可以理解的事物。这可能使它在尚未完全探索的方面具有令人难以置信的强大力量。
此外,信件声称,AI系统的负责规划和管理并没有得到充分的重视,“即使最近几个月,AI实验室都在进行着一个失控的竞赛,旨在开发和部署比以往更为强大的数字思维,而没有人——甚至是它们的创建者——能够理解、预测或可靠地控制。”
相反,信件强调必须创建新的治理体系,以规范AI的发展,帮助人们区分AI创造和人类创造的内容,使像OpenAI这样的AI实验室对其造成的任何损害负责,使社会能够应对AI的破坏(尤其是对民主的破坏)等等。
作者以积极的态度结束文章,声称“人类可以享有与 AI 一起繁荣的未来……在这个未来中,我们将为了所有人的明确利益而设计这些系统,并给予社会适应的机会。”他们指出,暂停比 GPT-4 更强大的 AI 系统的开发可以实现这一目标。
这封公开信会起到预期的效果吗?很难说。OpenAI 显然有继续开发先进模型的动机,无论是金融还是声誉上的。但由于存在如此多的潜在风险,而又很少能够真正了解这些风险,这封公开信的作者们显然认为这些动机是太危险而不予追求的。
The post 存在大规模风险?技术领袖呼吁暂停 GPT-4.5 和 GPT-5 开发 first appeared on Linux迷.
共有 0 条评论