近来,生成式AI大火,自动写文章、画图片甚至做视频,在很多工作中都极大地提高了工作效率。不过,也有令人担心的事——我们信奉的“眼见为实”这条法则,好像已经不再成立了。
之所以这么说,是那些以假乱真的内容越来越多了。去年大家就看到过,有一组美国军警逮捕特朗普扭打在一起的新闻照片,当然人家说了,这是AI生成的。但是如果不说的话,相信多数人是看不出来的。试想,如果美国选情激烈的时刻来这么一组照片,谁赢谁输,还真不一定!
别以为这只是少数人的恶作剧,实际上,换做明星面孔的成人内容,也已经在某些网站上大量出现,蔚然形成一个新的黑产行业。实际上,有些公众人物的肖像和名誉,正在新技术下被严重侵犯。
不光以假乱真,还有以真乱假的。既然视频本身都不可信了,有些犯罪分子干脆就在手上戴个六指的指套,这样哪怕是监控拍到他了,他也可以狡辩说:你看,这是AI生成的视频,指头都多出一根儿来了!
除了图片和视频作为新闻线索和事件证据的根据在动摇,在正常的AI辅助生产中,生成、抄袭和借鉴的模糊边界,也让传统的知识产权体系焦头烂额。为什么这么说?咱们要先知道大模型在干啥?实际上它就是把人类已经创造和积累的大量语料、图片视频这些素材都给喂进去,把规律摸清楚,当人类给它出一个新题目时,它就会按照规律对素材进行编写。
如此一来问题就出现了:编和抄的边界在哪儿?当然,这取决于你跟它聊什么事儿?比如你要让它畅想一下1万年以后的工人福利问题,它海阔天空怎么编都没事;可是你要问它很具体的事,比方,怎么证明根号2是无理数?笔者问过很多产品,出来的结果都差不了两个字儿,再对照原来网页上的答案看,如果是笔者回答的,必定就被认定是抄袭的。
当然,抄这个证明并不打紧,但是其他新闻、小说、知识里的内容,你抄完了有没有给原作者分钱?要知道,好多大模型可是收费的。如果不给作者分,“你凭什么拿我的语料?”
绘画也一样。今天如果你让AI给画一幅梵高风格的狗尾巴草,画出来一看还真像,可是它要是没看过梵高的画,打死它也像不了!虽然说,梵高老先生不会再计较,是不是也应该给人家坟头上烧点纸呢?
因此,无论是内容的来源还是生产过程,新兴的AI技术对传统的法律秩序体系都带来了巨大的冲击。而这些冲击仅仅靠法律本身,似乎还不那么好解决。就拿上面大模型语料来源的问题说吧,即使法律想制定个给语料方分成的办法,都无法计算该给人家分多少——谁知道你那批语料对最终的模型质量,或者某一条具体的回答,起了多大的作用呢?如果就按贡献的语料多来分账,AI干脆搞一大堆语料进去,不管有用没用,先多占点份额再说。
为什么会出现这些难解的问题?根本原因在于,过去法律解决的是人与人之间的问题;可如今,我们面对的是人与算法之间的问题。而算法的特征和规律,跟人的差别太大了,刻舟求剑地在原来的框架上修修补补,只怕是“按下葫芦起来瓢”。
怎么办?笔者的看法是,要解决这些问题,越来越需要法律和技术互相配合,探索出一条新路。
比方说,图片、视频“眼见不为实”这事儿,是不是可以尝试一下这样的思路:制定法律,要求所有AI生成和加工的内容,都要有明确的标识。可能有人会反驳,“这有啥用,人家给你P掉不就得了!”是的,这种情况下,就需要技术帮忙了:加进去的标识得是肉眼瞧不见的数字水印,而且就算是裁掉一部分,也得能把水印恢复出来。如果哪个AI不加水印,就要受到法律的制裁。如此互相配合,是不是个值得探索的方向?
当然,需要解决的法律和技术问题还有很多。就拿数字水印来说,埋到图片和视频里并不难,可要埋在文本的生成内容中怕就不那么简单了,这恐怕还得科学家们进一步研究。
技术帮助法律解决人与算法打交道过程中的新问题,其实已有先例。如在隐私保护和数据安全领域,科学家们研究出的“联邦学习”技术,就能让多个数据所有者在不交换数据的前提下,完成一个联合建模的任务。
解铃还须系铃人。笔者相信,在AI这个日新月异的领域中,要解决对原有法律体系产生冲击的许多新问题,离不开技术进步的力量。