优亿链收录网_自动秒收录外链

OpenAI发布安全指南:董事会有权阻止CEO发布新款AI模型|openai|人工智能|首席执行官


文章编号:637 / 更新时间:2024-04-22 15:13:34 / 浏览:

用微信扫码二维码

OpenAI发布安全指南董事会有权阻止CE

分享至好友和朋友圈

12月19日消息,美国当地时间周一,研究公司表示,即使公司领导层认为人工智能(AI)模型足够安全,其董事会也可以选择推迟发布。这是该公司授权其董事加强尖端技术开发安全保障措施的另一个明显迹象。

周一发布的一套指导方针详细说明了这一决策流程,并解释了OpenAI计划如何应对其最强大人工智能系统可能带来的极端风险。该指导方针发布前,OpenAI萨姆·奥特曼(SamAltman)曾被董事会短暂罢免,公司经历了一段动荡时期,这使得董事和公司高管之间的权力平衡成为人们关注的焦点。

OpenAI最近组建的“准备”(Preparedness)团队表示,它将继续评估公司的人工智能系统,以确定它们在四个不同类别中的表现,包括潜在的网络安全问题以及化学武器、核武器以及生物武器威胁,并努力减少该技术可能造成的任何危害。具体来说,OpenAI正在监控所谓的“灾难性”风险,它在指导方针中将其定义为“任何可能导致数千亿美元经济损失或导致许多人受到严重伤害或死亡的风险”。

OpenAI在10月份宣布成立“准备”团队,使其成为该公司监督人工智能安全的三个独立团队之一。另外两个团队分别是“安全系统”团队,着眼于当前的产品,如GPT-4,以及“超级对齐”(Superalignment)团队,专注于未来可能存在的极其强大的人工智能系统。

马德里表示,他的团队将反复评估OpenAI最先进的、尚未发布的人工智能模型,根据不同类型的感知风险将它们评为“低等”、“中等”、“高等”或“关键”。该团队还将做出改变,希望减少他们在人工智能中发现的潜在危险,并衡量其有效性。根据新的指导方针,OpenAI将只推出危险评级为“中等”或“低等”的模型。

马德里还希望其他公司也能使用OpenAI的指导方针来评估其人工智能模型的潜在风险。他说,这些指导方针是OpenAI之前在评估已发布人工智能技术时遵循的许多流程的正规化。他和他的团队在过去几个月里提出了许多细节,并从OpenAI内部其他人那里得到了反馈。(小小)

上海市外国投资促进中心2023-12-2110:01:26

北京日报客户端-长安街知事2023-12-2114:59:51

全球奇趣娱乐八卦2023-12-2100:18:40

北京青年报客户端2023-12-2113:14:40


相关标签: openai人工智能ai首席执行官

本文地址:https://www.uel.cc/article/561a8d2f000bc0008114.html

上一篇:罗永浩东方甄选一定会继续推进去董宇辉化俞...
下一篇:调查58%受访者支持特斯拉瑞典机械工程师罢...

发表评论

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="https://www.uel.cc/" target="_blank">优亿链收录网_自动秒收录外链</a>