美国开放人工智能研究中心(OpenAI)和谷歌旗下“深层思维”公司的13名现职员及前员工4日发表联名公开信,对人工智能行业在缺乏对“吹哨人”法律保护的背景下快速发展表达担忧。
据多家外媒援引信件报道,这些员工认为,人工智能企业受利益驱使缺乏有效监管,现有企业治理架构不足以改变这一点。而不受监管的人工智能会触发虚假信息传播、人工智能系统丧失独立性和社会阶层不平等深化等多重风险。
信件指出,外部人士对上述风险中的大部分不知情,因为人工智能企业“目前只承担与政府分享部分相关信息的微弱义务,也没有义务与公民社会分享信息”,“我们不认为能全然依靠企业自愿分享信息”。
信件还指出,一般的法律保护对人工智能行业“吹哨人”而言“不够”,因为不少引人担忧的风险在法律监管方面仍属空白。另外,人工智能企业员工受制于保密协议,通常不得对外实质性披露企业所掌握的人工智能实力。
联名信签署人中,2人与“深层思维”有关,4名OpenAI现员工要求匿名。组织者包括OpenAI前工程师丹尼尔·齐格勒和前员工丹尼尔·科科塔耶罗。
齐格勒4日告诉美联社记者,他2018年至2021年在OpenAI工作时参与聊天机器人ChatGPT部分技术研发,当时不担心在企业内部讲出他发现的问题,但他现在担心,行业内企业竞相将相关技术迅速商业化会让它们承受忽视风险的压力。“相较于责备OpenAI,我更感兴趣的是借此机会让全部人工智能前沿企业切实投入,强化监管和透明度,增进公众信任。”
科科塔耶罗则发表书面声明说,他今年早些时候离职,是对OpenAI“能采取负责任行为丧失希望”,特别是在企业尝试打造通用人工智能系统之后。对于这类功能强大、却又鲜为人熟知的技术,企业“快速出手、打破常规”,行事方式与所需“恰恰相反”。
OpenAI同一天回应联名信时强调,已设立匿名举报热线和安全委员会保护“吹哨人”,相信能以科学方法应对风险。
举报 相关阅读 OpenAI成立新的安全委员会,对AI安全的关注点转向了吗?解散“超级智能对齐”团队并成立新安全委员会,OpenAI可能有多种考虑。此前的安全团队占用了不少计算资源。
05-30 12:33 奥尔特曼领衔成立新安全委员会,OpenAI安全文化警报解除了吗莱克在其离职声明中写道:“在过去的几年里,安全文化和流程已经被闪亮的产品所取代。”
05-29 19:04 OpenAI再陷“宫斗”:理想主义者是如何被击碎的?随着OpenAI彻底告别伊利亚时代,奥特曼将继续完成当年未竟的野心。
05-28 19:39 OpenAI首席科学家伊尔亚宣布离职,奥尔特曼:没有他就没有今天的OpenAI奥尔特曼同时宣布,雅库布将接替伊尔亚,成为OpenAI的首席科学家。
05-15 09:59 李开复谈大模型布局,十年内不套现李开复表示,创立零一万物时便向投资人承诺,10年内不套现,且最好的套现方式是“赶快上市”。
项目名称:杭州市临安区卫生健康局机房机柜租赁项目如何加杠杆证券
05-13 19:10 一财最热 点击关闭