首页
下载应用
提交文章
关于我们
问卷:你怎么看自由微信?
🔥 热搜 🔥
1
百度
2
今日热点
3
微信公众平台
4
贴吧
5
opgg
6
dnf私服
7
百度贴吧
8
知乎
9
dnf公益服
10
百度傻逼
分类
社会
娱乐
国际
人权
科技
经济
其它
首页
下载应用
提交文章
关于我们
问卷:你怎么看自由微信?
🔥
热搜
🔥
1
百度
2
今日热点
3
微信公众平台
4
贴吧
5
opgg
6
dnf私服
7
百度贴吧
8
知乎
9
dnf公益服
10
百度傻逼
分类
社会
娱乐
国际
人权
科技
经济
其它
一把短刀,怎么就让他连捅18人?!
黄晓菁,这位杭州泰隆银行女员工自爆视频火了,带给我们那些思考?
这一刻,快乐被具象化了
海南省拟任干部人选公
女高管与男下属上班约会开房,男方妻子闹到单位!被开除后她辩称:一直保持0.46-1.22米“个人距离”
生成图片,分享到微信朋友圈
查看原文
其他
AI只要开源了,就可以“开绿灯”么?
肖潇
明说开源
2024-08-28
点击卡片关注一下,感谢您的支持!
1997年,一位程序员写下名为
《大教堂与集市》
的文章(
编者注:本文要聚焦讲开源AI的合规治理话题,所以这里没有提及一些关键开源人物的姓名,这里的程序员即Eric S. Raymond
),
首次
提出了开放源代码(Open Soure)的概念,提倡软件源代码能被任何人查看、修改、分发。开源自此深刻影响了互联网行业的每一个角落。
在生成式AI崛起的当下,开源再次成为话题焦点:Meta的开源大模型Llama 2公开商用,几乎一夜之间重塑了大模型的发展路线;开源社区GitHub上的生成式AI项目,一年同比增加248%;Hugging Face预言,2024年开源大模型的能力会与闭源持平。
但就和开源软件诞生时一样,开源AI的安全性备受争议。不同的是,它还面临着定义模糊、巨头游戏等新生问题。
要不要对开源AI“开绿灯”?不同开放程度的AI都算开源吗?如何理解它们的价值和风险?
PART/
1
现状:开源豁免
尽管生成式AI的风险一直处于风口浪尖,但不管是从业者还是监管者,目前都对开源AI更为包容。
以欧盟为例,即将发布的两部法律为开源AI明确亮了“绿灯”。
同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员朱悦
介绍,一部是接近全文定稿的欧盟
《人工智能法》
,
目前的版本将不会监管免费、开源的AI系统
;另一部则是《产品责任指令》。这一指令将AI产品纳入了适用范围,也就是当AI系统里的软件、硬件作为产品投向市场时,需要遵守相应条款,
但“在商业活动之外研发、提供自由且开源的软件”除外。
中美也有类似的探索。比如
中国社科院
与
南财合规科技研究院
共同起草的《人工智能示范法(专家建议稿)》拟定,“免费且开源提供人工智能的个人、组织能证明已经采取足够安全措施的,可以减轻或不承担责任。”最近两位美国议员的《人工智能基础模型透明度法案》提案备受关注,当中开源模型也享有豁免权。
这种普遍宽松的态度,朱悦认为主要目的是鼓励创新、促进技术交流。
从整条人工智能产业链来看,无论是框架性的代码,还是数据、预训练模型、评估基准,开源都发挥了难以替代的作用。以评估基准为例,“如果做出了AI大模型,要看它达到了怎样的性能水平,就需要跟其他大模型的基准比较。但这种评估基准存在于哪里?很多时候离不开开源平台,比如Hugging Face。可以说,大部分AI组件都是在开源的生态里发生的。”朱悦说。
中国信息通信研究院的人工智能研究中心高级业务主管呼娜英
同样表示,相比于工业时代的封闭产业模式,开源的分工效率更高。开源AI在建设一个开放的产业生态上有重要作用,在产业经济的贡献上,它的作用也是显而易见的。
而更直接的原因是,开源本身就意味着更透明。朱悦指出,在GitHub、Hugging Face这些开源社区上传AI组件时,开发者需要披露权重、参数、架构等详细信息,来帮助其他人更好地使用,实际上已经履行了监管者期待的大部分义务。所以,“已经有很好的自我监督、社群监督,还有没有必要再施加硬性监管?需要考虑。”
PART/
2
难题:开源“留一手”
更透明、更创新是开源的固有优势,但碰上生成式AI,开源有新的问题要面对。
多位专家都提到,要警惕AI“假开源”的现象:
目前的开源AI往往是“有限的开放”,只公开模型架构,很少公开训练数据和过程。
除此之外,它可以限制使用者身份,限制核心功能的使用,还可以选择旧版本开源、新版本闭源。
比如开源界的明星Llama2大模型,其实就限制了月活跃用户超过7亿的公司使用。
究其原因,21世纪经济报道合规科技部副主任王俊指出,开源站在法律、技术、商业的交叉口,开源AI更多时候是一种商业选择。
星纪魅族集团数据合规执行总监朱玲凤
进一步解释,目前有些开源AI由头部公司主导,“
越多人使用,就越能强化网格效应,而且不是真正的开放,后续需要使用它们的配套工具、配套服务。头部公司还可能利用监管豁免的方式,获得寻租空间。
”
换言之,以开源为噱头的巨头游戏,可能会进一步强化大公司的垄断地位,反而不利于产业竞争。
呼娜英还提到,国际科技巨头在用开源AI扩大影响力的同时,潜移默化地推行了一套自己的规则。产业自主性、国际依赖性的问题必须要谨慎考虑,国内应当尝试发展自己的开源生态。
不过限制竞争的隐忧,已经得到了一定缓解。朱悦表示,上文提到的欧盟两部法律,都强调公益性的、社群性的、自律性的开源。
具体来说,它们明确限定了“开源”的附加条件,如果是通过开源换取货币对价,绑定额外的服务,或者出于安全、兼容之外的目的获得个人信息,进行商业变现,那就不能享受豁免。
此外,法规还鼓励通过数据卡、模型卡、系统卡等信息披露的方式,进一步促进行业互助。
因此,朱悦认为更重要的问题可能是:如何运用立法技术厘清开源AI的边界?需不需要设定,如何设定最基本的义务?
PART/3
治理:定义与安全风险评估难
是否要对开源豁免,与会专家们有了基本共识:有必要给予支持。但具体如何支持,难点主要来自两个方面:怎么定义开源AI,以及如何看待开源AI的安全风险。
朱玲凤发现,对于开源软件,通过读取源代码和技术文档,基本能够复现软件。
但对于开源AI,只是开放源代码没办法复现能力,因为AI是由代码、模型、数据、算力等多个组件构成的复杂系统,传统的开源定义没法沿用。
作为参照,可以看看开源鼻祖是如何理解这一问题的。写下《大教堂与集市》、掀起开源运动的程序员,后来创立了著名的开放源代码促进会(OSI)(
编者注:OSI(Open Source Initiative)即开放源代码促进会,于1998年2月成立,创始人为大名鼎鼎的Bruce Perens和首段提到的黑客界长老Eric S. Raymond
)。该组织正在召集全球专家讨论开源AI的定义,其最新报告认为开源AI需要提供四种自由:一,为任何目的使用该系统,无需征得许可;二,研究系统如何工作,并检查其组件;三,出于任何目的修改系统,包括改变其输出;四,为任何目的共享系统供他人使用,无论修改与否。(
编者注:OSI对这个“开源AI”的定义持续更新中,还在广泛征集意见,目前已经到了0.0.8版本,感兴趣可以关注:https://opensource.org/blog/open-source-ai-definition-on-the-road-looking-back-and-forward
)
朱玲凤分析,OSI的定义明确了开源AI不仅仅指公开模型的源代码。
但仍然不清楚的是,具体开源的对象是什么,是否会设计不同的开源许可证。
“在完全封闭和完全开放之间,AI有很多可选路径,可以有使用限制、完全没有使用限制,也可以完全封闭、完全不封闭。”
安远 AI 资深研究经理方亮
补充。在他看来,开源AI需要有更精确的定义,这样才能理解不同层次的风险。
值得思考的是,开源是否会放大AI的固有安全风险。
朱玲凤注意到,OSI认为“如何开发符合道德规范、值得信赖或负责任的人工智能系统”不属于定义的讨论范围。她担忧的是,尽管开源社群的创新价值一再被强调,但社群、协会并不保证能安全使用开源AI,因此需要同时考虑开放与可信。
开源的安全性确实一直饱受争议。《大教堂与集市》一书曾提出名言:
“如果有足够多的眼睛,错误将无处遁形。”
简单来说,就是开源可以利用集体的力量审查技术、发现漏洞、修复缺陷。许多AI科学家也因此认为,
长远来看,开
源是保障AI安全的唯一办法。
但呼娜英也指出,不能忽视“目前AI开源的安全风险依然非常高,而且与日俱增。我们看到大型的网络安全事件基本都与开源有关,对于高风险行业,尤其要注意安全和发展问题。”
针对开源AI的定义,
中国人民公安大学教授、数据法学研究院院长苏宇
认为,可以先豁免完全免费、允许所有人自由访问和利用的开源AI组件。苏宇指出,这样的开源AI组件对人工智能的研发有着基础性作用,而且被大量使用者反复打磨和完善,相对于信息不对称、不透明的闭源组件和应用更安全。
“这种情况下,坚持完善透明度义务就好。其他带商业性质的开源、不完全开源组件及软件等的豁免条件,可以待制度实践更成熟之后逐步确定。”
保持透明度的基础义务,分层治理开源AI
,也是专家们的共识。比如属于通用目的、高风险,或者基础模型的开源AI,专家认为仍然需要规制安全风险。
“对于开源AI,要认清哪些是固有风险,哪些是因为开源而增减、缩放的风险。尽可能用精准敏捷的治理措施,代替一刀切。”苏宇总结。
本文系“清华伍舜德楼行政法学工作坊·人工智能立法之开源发展与法律规制”会议总结,该会议主要讨论开源AI的规制问题。本次会议由
清华大学科技发展与治理研究中心
及
清华大学公共管理学院政府法制研究中心
共同举办,
清华大学公共管理学院院长朱旭峰
教授、
清华大学公共管理学院于安
教授致欢迎辞。
亲爱的读者们,不
星标《明说开源》公众号
,不仅会收不到
最新推送
,还会看不到主理人
精心挑选的封面大图
!
星标
《明说开源》,不错过每一篇最值得阅读的开源文章。
作者:肖潇
原文标题:人工智能“真假”开源,如何负起责任?
编注:李小明
@明说开源
素材来源官方媒体/网络新闻
继续滑动看下一个
轻触阅读原文
明说开源
向上滑动看下一个
您可能也对以下帖子感兴趣
{{{title}}}
文章有问题?点此查看未经处理的缓存