AI应该如何被监管?业内辩论升级,谷歌和OpenAI存严重分歧

2023-06-14 06:38:55 来源:华尔街见闻

随着ChatGPT大火带来的AI热潮,如今,如何监管AI技术成为市场热议的话题。

一份最新的文件显示,谷歌和OpenAI这两大AI领域的领导者对政府应如何监管人工智能持有相反的看法。

OpenAI首席执行官Sam Altman最近一直在鼓吹由政府来监管AI技术,甚至提到要建立一个类似国际原子能机构的政府间组织来监管AI,而且他认为,该机构应该专注于监管AI技术,以及为使用该技术的实体颁发许可。但谷歌则不希望AI监管一切都由政府统领,该公司更倾向于“多层次、多利益相关者的AI治理方法”。


(资料图)

AI领域的其他人,包括研究人员,也表达了和谷歌类似的观点,称政府部门对AI进行监管可能是保护边缘化社区的更好方式——尽管OpenAI认为技术进步太快无法采用这种方法。

谷歌称:

在国家层面,我们支持中心辐射式方法——由美国国家标准与技术研究院(NIST)等中央机构通知部门监管机构监督AI实施——而不是一个“人工智能部门”。AI将在金融服务、医疗保健和其他受监管的行业带来前所未有的挑战,这些挑战将由具有这些行业经验的监管机构来应对,而不是一个新的、独立的部门来监管。

华盛顿大学计算语言学实验室教授兼主任Emily M. Bender说:

我完全同意所谓的AI系统不应该在没有某种认证程序的情况下部署。但是这个过程应该取决于系统的用途。现有的监管机构应保持其管辖权和决定权。

谷歌的这一观点与OpenAI和微软偏爱更集中的监管模式形成鲜明对比。微软总裁Brad Smith表示,他支持组建一个新的政府机构来监管人工智能,而OpenAI 的创始人们也公开表达了他们的愿景,即组建一个类似国际原子能机构的组织来监管AI。

谷歌全球事务总裁Kent Walker表示,他“不反对”由新监管机构监督大型语言模型许可的想法,但表示政府应该“更全面地”看待这项技术。

谷歌和微软在监管方面看似相反的观点表明人工智能领域的争论越来越多,争论远远超出了技术应该受到多少监管的范畴。

今年5月,美国副总统哈里斯在会见了AI界重要公司的领导人后称,这项技术“有可能极大地增加对安全和安保的威胁,侵犯公民权利和隐私,并侵蚀公众对民主的信任和信心”。

她补充说,企业有责任遵守现有的法律,以及“伦理、道德和法律责任,以确保其产品的安全和保障”。

风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
标签:
x 广告
x 广告

Copyright ©  2015-2022 每日云南网版权所有  备案号:京ICP备12018864号-37   联系邮箱:291 323 6@qq.com