“AI教母”李飞飞亲自撰文:加州 AI 安全法案将损害美国生态系统|钛媒体AGI

要闻 2024-08-07 14:50:19
导读 钛媒体App 8月7日消息,“AI教母”、美国国家工程院院士、美国国家医学院院士、美国艺术与科学院院士、美国斯坦福大学首位红杉讲席教授,...
2024-08-07 14:50:19

钛媒体App 8月7日消息,“AI教母”、美国国家工程院院士、美国国家医学院院士、美国艺术与科学院院士、美国斯坦福大学首位红杉讲席教授,斯坦福以人为本人工智能研究院(HAI)院长李飞飞(Feifei Li)今晨在《Fortune》撰文指出,美国加州即将实施 AI 安全法案将损害开发者、学术界,甚至对整个美国 AI 生态系统造成伤害,但同时并不能解决 AI 潜在危害。

“如今, AI 比以往任何时候都更加先进。然而,能力越大,责任越大。政策制定者、公民社会和行业人士都在寻求一种治理方式,以最大限度地减少潜在危害,并塑造一个安全、以人为本的 AI 社会。我赞扬其中一些努力,但也对其他努力持谨慎态度;加州的《前沿人工智能模型安全创新法案》(以下名字是 SB-1047)就属于后一类。这项善意的立法将产生重大的意想不到的后果,不仅对加州,而且对整个国家。”李飞飞表示。

据悉,今年7月,美国加利福尼亚参议院已经批准SB-1047法案的一个版本,它要求开发者证明其 AI 模型不会被用于造成伤害,这比今年美国各州议员提出的600多项 AI 法案添加更多限制,引发关注。而这个极具破坏性的提案可能会在今年8月会被加州州长加文·纽森(Gavin Newsom)签署成法案。

根据该法案的定义,Meta的Llama-3被定义为超过1亿美元训练成本的“前沿模型”。如果有人将该模型用于非法用途,Meta也会受到严重处罚。同时,该法案中的22603(a)(3)(4)条要求"有限职责豁免"向政府部门提交证明,并在有错误时停止模型的运行,而第22603(b)条要求开发者需要报告任何模型的潜在的AI安全事故。如果开发者无法完全掌控基于其模型的各种衍生版本,若发生安全事故,责任将归属于第一开发者——这相当于是一个连带责任。

此外,该法案中的22604(a)(b)规定,当用户使用其“前沿模型”和算力资源时,开发者需要提交客户的所有资料,包括客户的身份、信用卡号、账号、客户标识符、交易标识符、电子邮件、电话号码。而且,每年都要提交一次资料,并对用户的行为、意图进行评估。用户的所有资料会被备份7年,也会在海关、边境总署备案。

美国加州的地理位置非常特殊,这里既有斯坦福、加州理工、南加州大学等名校,也是谷歌、苹果、OpenAI、Meta等科技巨头总部的所在地。所以对此,图灵奖得主、Meta的首席 AI 科学家杨立昆(Yann LeCun),李飞飞,投资机构a16z创始合伙人安德里森·霍洛维茨(Andreessen Horowitz)、斯坦福大学计算机科学系和电气工程系的客座教授吴恩达(Andrew Ng)等人均表达反对意见。

其中,杨立昆警告称,该法案的“连带责任条款将使开源 AI 平台面临巨大风险……Meta不会受影响,但 AI 初创公司将会倒闭。”据悉,如果这些模型被他人恶意使用时,该法案要求AI开发者对其开发的模型承担民事甚至刑事责任。

霍洛维茨认为,加利福尼亚的反 AI 法案虽出于好意,但因误导可能会削弱美国科技产业,正当技术未来正处于关键十字路口之时。美国需要领导者认识到,现在是采取明智且统一的 AI 监管行动的关键时刻。

吴恩达发文指出,美国加州SB-1047法案将扼杀开源大模型发展。他进一步指出,应该监管的是AI应用程序而不是大模型本身。

而李飞飞认为,AI 政策必须鼓励创新,设置适当的限制,并减轻这些限制的影响。不这样做的政策在最好的情况下无法实现其目标,在最坏的情况下会导致意想不到的严重后果。如果 SB-1047 法案通过成为法律,它将损害美国刚刚起步的 AI 生态系统,尤其是那些已经对当今科技巨头不利的部分:公共部门、学术界和“小科技”。SB-1047 法案将不必要地惩罚开发人员,扼杀我们的开源社区,并阻碍学术 AI 研究,同时无法解决它旨在解决的实际问题。

李飞飞给出了四点理由:

首先,SB-1047 将过度惩罚开发者并扼杀创新。如果 AI 模型被滥用,SB-1047 将追究责任方和该模型的原始开发者的责任。每个 AI 开发者(尤其是初出茅庐的程序员和企业家)都不可能预测其模型的所有可能用途。SB-1047 将迫使开发者退缩并采取防御措施——这正是我们试图避免的。

其次,SB-1047将束缚开源开发。SB-1047 要求所有超过一定阈值的模型都包含一个“终止开关”,这是一种可以随时关闭程序的机制。如果开发人员担心他们下载和构建的程序会被删除,他们将更加不愿意编写代码和协作。这个终止开关将摧毁开源社区——它是无数创新的源泉,不仅在AI领域,而且在各个领域,从 GPS 到 MRI 再到互联网本身。

第三,SB-1047 将削弱公共部门和学术界的AI研究。开源开发对私营部门很重要,但 对学术界来说也至关重要 ,因为如果没有合作和模型数据,学术界就无法进步。以研究开放式AI模型的计算机科学专业学生为例。如果我们的机构无法获得适当的模型和数据,我们将如何培养下一代AI领导者?与大型科技公司相比,终止开关将进一步削弱这些学生和研究人员的努力,他们已经在数据和计算方面处于劣势。SB-1047将给学术界、本应加倍投资公共部门AI敲响“丧钟”。

最令人担忧的是,该法案并未解决AI发展的潜在危害,包括偏见和深度伪造。相反,SB-1047 设定了一个任意的门槛,对使用一定计算能力或花费 1 亿美元进行训练的模型进行监管。这项措施非但不能提供保障,反而只会限制包括学术界在内的各个领域的创新。

李飞飞指出,今天,学术界的 AI 模型低于这个门槛,但如果美国重新平衡私营和公共部门AI的投资,学术界就会受到 SB-1047 的监管,美国的AI生态系统将因此变得更糟。因此,美国必须采取相反的做法。

“在过去一年与拜登总统的多次对话中,我都表达了需要‘登月心态’来推动我国的AI教育、研究和发展。然而,SB-1047 的限制过于武断,不仅会打击加州的AI生态系统,还会对全国的AI产生令人不安的下游影响。”李飞飞指出,她并不反对AI治理。立法对于 AI 的安全有效发展至关重要。但 AI 政策必须促进开源开发,提出统一且合理的规则,并建立消费者信心。SB-1047 未达到这些标准。

李飞飞强调,她向该法案的起草人、参议员斯科特·维纳 (Scott Wiener) 提出合作建议:让我们共同制定 AI 立法,真正建设以技术为主导、以人为本的未来社会。

“事实上,AI的未来取决于它。加州——作为一个先驱实体,也是我们国家最强大 AI 生态系统的所在地——是AI运动的心脏,而加州的发展将影响整个国家的其他地方。”李飞飞在结尾表示。

(作者|林志佳,编辑|胡润峰)

免责声明:本文由用户上传,如有侵权请联系删除!