收藏 分享(赏)

“ChatGPT之父”提出未来人工智能监管框架.pdf

上传人:哎呦****中 文档编号:2752936 上传时间:2023-11-29 格式:PDF 页数:4 大小:791.57KB
下载 相关 举报
“ChatGPT之父”提出未来人工智能监管框架.pdf_第1页
第1页 / 共4页
“ChatGPT之父”提出未来人工智能监管框架.pdf_第2页
第2页 / 共4页
“ChatGPT之父”提出未来人工智能监管框架.pdf_第3页
第3页 / 共4页
亲,该文档总共4页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、科技中国 2023年8月 第8期97“ChatGPT 之父”提出未来人工智能监管框架文/黄宁燕(中国科学技术信息研究所)也许是恐怕阻碍技术发展,美国迟迟未在人工智能监管方面采取立法措施。由于ChatGPT的出现,人工智能的先锋们似乎使人类走向了原子能的“奥本海默时刻”,美国开始密集行动,国会就人工智能监管召开一系列听证会。2023年5月16日,“ChatGPT之 父”O p e n A I 首 席 执 行 官 山姆阿尔特曼在美国参议院司法机构隐私、技术和法律小组委员会举行的第一次关于人工智能监管的国会听证会上提出了人工智能监管的未来框架。阿尔特曼对人工智能存在的风险层次认识清晰,认为人工智能风

2、险主要在于大型人工智能模型,人工智能监管主要应当针对大企业。政府和行业需要共同努力来管理风险,同时确保人们能够享受到技术带来的福祉。人工智能监管将关系到美国能否持续保持在AI领域的领导地位。为此,他为美国政府规划了未来人工智能监管治理的前景框架。一、政府监管对人工智能未来发展至关重要阿尔特曼认为,人工智能技术对未来社会发展的影响力有如历史上曾广泛促进了知识传播的“印刷机”,但如果不能及时识别和管理其潜在风险,不但可能不会带来繁荣,未来该领域的技术突破还意味着人工智能将产生如原子弹般困扰人类的严重而可怕的后果。目前生成式人工智能令人们担心的问题主要是生成内容的准确性、被生成内容欺骗、虚假信息、隐

3、私和影响就业等,可是一旦某一天超级强大的系统出现,人们所面对的风险层次就会完全不一样。他认为,如果功能超级强大的人工智能系统一旦出错,就可能错得非常严重,人工智能这个领域、这个技术和这个行业就会对世界造成重大伤害。因此,政府的监管干预对预防重大风险和促进人工智能未来发展都极为关键。与所有的技术革命一样,人工智能将对就业产生重大影响。GPT-4和其他类似的人工智能系统只是擅长完成任务,而不是像人类一样工作。现在是发展人工智能的绝佳时机。技术历史实际上是一场长期的技术革命。技术革命一直在连续地发生。人类创造的机器和工具一直在帮助人们过上更美好的生活,同时提高了人们的工作标准。技术革命之后往往会有更

4、多的工作,而且工作会变得更好。人们在借助GPT-4以完科技中国 2023年8月 第8期98全自动化的方式高效完成工作的同时,还将创建一些更好的新工作。因此,政府和行业必须共同努力使人工智能的各种风险都能得到管理。OpenAI渴望帮助政策制定者决定如何促进监管,帮助政府在实施安全措施和确保人民获得技术福祉之间取得平衡。这还将关系到美国能否保持在AI领域的领导地位。二、人工智能技术需要一个新的治理框架对于人工智能这样一项全新的技术,必须创造一个新的框架进行治理。首先,在这个新框架中,人工智能公司、用户及相关企业都要为人工智能工具承担责任。美国于1996年颁布的第230条法律保护提供商和个人免于因他

5、人在线发布非法内容承担重大法律责任,但230条并不适用于生成式人工智能。像OpenAI这样的人工智能公司必须为其在世界上发布的工具承担很大责任,同时使用工具的用户也要承担责任,以及处于人工智能公司和最终消费者之间的企业也要承担责任。其次,需要为内容创作者和内容所有者找到从AI技术中获益的新方式。应当使内容创作者和内容所有者对他们的创作如何被AI工具使用具有控制权。最后,法律监管框架的原则是在实施安全监管与确保人民获得技术福祉之间取得平衡。此外,要防止监管减慢美国人工智能产业发展的速度,以至于被中国或其他国家超过。美国必须继续领导AI技术。通过开展人工智能安全国际合作,考虑如何在全球范围内实施许

6、可法规,促进国与国间开展人工智能安全的有效合作,如建立审查政府间疏漏监督机制以及制定标准等。三、设立AI监管计划一是建立许可制度。组建一个新的政府机构,负责给在关键阈值能力范围内的大型人工智能模型颁发许可,并可以收回许可。确定阈值最简单的方法是根据计算量进行定义,可随更高效算法的出现不断改变。还可采用一种虽然更难实现但更准确的方式,即定义一些能力阈值,并由立法者决定能够执行X、Y或Z等操作的能力模型是否符合该许可管理制度。二 是 创 建 大 型 语 言 模 型(LLM)安全标准。重点关注危险能力评估。LLM模型对外发布部署之前必须通过内部和外部安全测试,确保不能自我复制以及自行渗透到外部等。三

7、是要求对模型安全状况进行独立审查。除了要求公司或机构提交自我审查,主要还需要由外部专家评定其模型是否符合所声明的安全阈值,以及涉及X或Y的性能比率等。政府可以考虑把颁发许可与安全测试要求结合起来,并采取一些措施激励企业遵守这些针对人工智能的专门安全要求。四、重点对掌握最前沿能力的大企业严格监管一是建立灵活的适应新技术发展要求的治理制度。由于人工智能是个复杂而又快速发展的领域,人工智能需要足够灵活的治理机制以适应新技术发展。为有效防范人工智能的风险并同时保证美国人工智能领域的创新活力,应对所要监管的活动、技术、工具和产品的范围设置不同的层次。在法律监管框架中,设置任何监管方法或法律的原则都应基于

8、不会阻碍较小公司、开源模型和从事较小规模工作的研究人员的创新活动,因为这是美国科技创新生态系统的魅力所在。二是监管的大方向应是针对OpenAI和谷歌这样规模的大公司进行超级严格的审查。人工智能的主要风险在于大型人工智能模型。大模型的特点是集中化,而这对政府监管是有利的。由于所需资源巨大,能够训练真正前沿模型的公司数量并不多。政府需要真正密切关注的具有绝对前沿能力的公司数量越少,则控制风险的难度就越小。不过,具有绝对前沿能力的公司数量也需要足够多,以使用户可以按照自己意愿选择。三是要避免监管法规阻碍到较小公司、开源模型和从事较小规模工作的研究人员的创新活科技中国 2023年8月 第8期99动。必

9、须为新的想法、新的公司以及独立研究人员留出余地和发挥空间从事他们想要做的事情,不能给他们施加像大公司那样大的监管负担。当然小公司也必须遵守相应规定,因为使用较小的模型也会造成巨大的伤害。五、人工智能监管需要政府、企业和公众三方结合人工智能监管需要通过三方结合共同推动:即企业正确行事、政府法律监管以及公众普及教育。从企业方面,无论政府的措施是怎样的,公司都应履行自身的责任。首先是确保模型安全。每次模型发布之前必须尽可能充分测试,实施安全和监控系统构建风险缓解措施,以应对现实世界中的滥用行为。其次是部署安全。要采取小心谨慎并且逐步的方式发布新的人工智能模型。实际上OpenAI的GPT-4模型在20

10、22年10月之前就已经开发出来了,但公司没有直接发布,而是于11月首先发布了已经完成测试的低版本ChatGPT,然后花了6个多月时间对GPT-4进行安全评估测试和系统改进,并针对每个风险领域都开发了提高安全性的缓解手段,最后于2023年3月份才对外发布。从公众方面,监管系统的设计需要全社会的广泛参与和创新,每个受技术影响的人都应该对人工智能如何进一步发展拥有发言权。然而人们需要时间来了解这项技术,以实现个人的知识更新。自2022年11月以来人们通过使用ChatGPT和GPT-4模型,在全球范围内掀起了关于生成式人工智能的一个空前的公开大讨论。新模型的使用使很多人开始真正了解这项新技术,获得关于

11、人工智能技术的普及性教育,从而能够参与到深入讨论的热潮当中。而由于拥有了使用生成式人工智能模型工具的第一手经验,人们在进行相关讨论时再也不会像之前那样仅仅是“纸上谈兵”。由于人工智能的复杂以及快速发展特性,立法者应尽可能使所有利益相关者都能参与到对人工智能的监管治理进程中,以便于在制定和更新规则过程中尽可能广泛吸纳不同意见,以为需要许可或注册的人工智能系统制定和定期更新特定的安全标准、评估要求、披露做法和外部验证机制。从政府方面,由于监管制度的更新需要时间,要求企业对生成式人工智能大模型的发布部署采用渐进迭代的方式应当成为一项重要法规。因为只有这样规定才能使专业人员和立法者有时间面对新的模型技

12、术,理解它,发现它的局限性,从而知道围绕它需要什么样的法规,以及需要制定什么规则来确保它的安全使用。如果允许企业一下子就构建一个功能超级强大的人工智能系统,不对外公开,在完成后立即投放到世界上,则法规一定会跟不上监管的需求。要求企业渐进迭代发布部署的好处是:当一个人工智能系统仍然相对较弱尚且科技中国 2023年8月 第8期100极不完善时,就让人们有机会体验到它们,接触到现实发生的情况,弄清楚从立法角度到底需要做什么才能使其更安全、更好用。AI实施许可证制度具有长远意义,因为它将不仅仅针对今天大模型能够做的事情。阿尔特曼称,这是在历史上所见到的政府对像人工智能这样规模的新技术和产品进行监管能取

13、得好的成效的唯一途径。因此,强制要求人工智能模型与现实世界产生渐进的互动非常必要。政府监管在逐步解决因人工智能造成的一些新问题的同时,也可能造成其他一些管理者不希望看到的影响。例如,可能阻碍人工智能产业发展,可能阻碍小型初创企业和开源社区的发展等。六、美国人工智能监管的分析与展望作为人工智能顶级专家,阿尔特曼提出的治理思路对美国政策走向具有较大的影响力。2023年5月18日,美国会参议员迈克尔贝内特即提出立法提案,要为IT行业平台公司和人工智能建立一个新的监管机构。2023年6月20日,美众议院两党议员提出国家人工智能委员会法案,支持组建国家人工智能委员会,帮助制定人工智能监管战略。然而与欧盟

14、人工智能法的进程相比,美国人工智能监管政策或立法的出台仍需时日。目前美国人工智能监管还是在具体政府部门层面。美国白宫和一些联邦机构提出了一系列与人工智能相关的倡议和政策,包括美国联邦贸易委员会(FTC)、美国消费者金融保护局(CFPB)和美国国家标准与技术研究院(NIST)等。如2022年10月,白宫科技政策办公室(OSTP)发布人工智能权利法案蓝图,提出五项原则。从社会舆论看,持不同观点的美国科技与政策界在人工智能监管议题上仍在进行激烈辩论。2023年5月26日,白宫科技政策办公室(OSTP)发布信息征询书,向社会征求关于美国人工智能监管方法的意见。2023年7月7日美国国家纳税人联盟基金会(NTUF)在向白宫书面建议中提出:国会和政府应避免过早通过全面的人工智能治理法规,因为从长远来看,这可能会阻碍人工智能创新,美国需要灵活创新的人工智能框架。从立法角度看,美国国会尚未就人工智能监管的联邦立法达成广泛共识,在具体的监管框架、委员会设置等方面也尚未统一意见。但是,美国却可能会因此受益于对欧盟、英国、日本和瑞士等司法管辖区人工智能治理监管策略实际效果的评估,从而了解如何更好地设计灵活、平衡的人工智能监管方法。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 专业资料 > 其它

copyright@ 2008-2023 wnwk.com网站版权所有

经营许可证编号:浙ICP备2024059924号-2