第11版:聚焦

如何AI而无忧?

本报融媒体记者 周佳佳 徐康辉

《 人民政协报 》 ( 2024年06月07日   第 11 版)

本报记者 齐波 摄

4月23日,北京互联网法院一审开庭宣判全国首例AI生成声音人格权侵权案,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。此案提示我们,在数字时代,AI技术飞速发展,为我们的生活带来前所未有的便利。然而,“AI换脸”诈骗、AI生成声音侵犯他人声音权益等案件不断出现,关于AI的规范使用和管理引发社会各界广泛关注。

当心被“盗脸”“偷声音”!

“你好,请看这边摄像头,‘刷脸’办理入住!”近年来,随着信息技术特别是AI技术飞速发展,人脸识别逐步渗透到人们生活的方方面面。

十三届全国政协委员、第五空间信息科技研究院院长谈剑锋表示,“人脸”这类生物特征数据,具有唯一性、不可更改性,属于重要的个人隐私数据。“当前,个人隐私数据存在滥采、过度使用问题,甚至还有冒用和不公正应用等现象,同时,存在数据处理与存储相关的风险。此外,技术自身也存在一定的安全漏洞,容易被攻击和破解。”

谈剑锋介绍,针对“刷脸”技术存在的风险,各国主要通过立法监管与行业自律来应对,“无论国外还是国内,均强调在‘人脸数据’采集时需要得到个人同意。但实践中,由于知识水平差异,使得‘知情权’容易被忽略,还有不给‘脸’就不提供服务的情况,作为个人信息保护的立法基础之一的‘知情同意原则’就形同虚设。”

对此,全国政协委员、高锋集团董事局主席吴杰庄也同样指出,使用人脸识别技术处理人脸信息,需要有特定的目的和充分的必要性,还必须经过个人授权同意,同时,还应客观评估使用后对个人权益的影响以及可能存在的风险。

“因此,要想管好个人隐私数据,除了切实把好技术安全关外,还要完善相关法律法规,在加强技术标准制定、提高监管水平等方面着手构建风险治理体系,让科技创新应用与个人信息保护之间取得平衡。”吴杰庄建议。

随着“AI+”门槛越来越低、运用范围愈加广泛,现在只要提取一个人足够的声音样本,就能“克隆”出这个人的声音。这也让人们开始担心,自己的声音有没有被AI化?又该如何保护自己的声音权益?

谈剑锋表示,自从我国民法典首次将自然人的声音参照肖像权纳入保护对象后,本次“偷声音”案件的审理引起社会的普遍关注,最后法院以侵犯人格权益来进行司法保护,极具典型意义,展现了对新技术应用适用法律的尝试。

“但也要看到,实践中这类案件通常面临‘维权难’问题,存在‘取证难’‘举证难’‘认定难’等问题,可在后续相关案件处理中进一步解决。”谈剑锋还补充说,声音与人脸数据一样,具有人身专属特性,同时声纹也是一项重要的生物特征数据,能够被用于身份识别,因此也属于个人敏感数据。“因此,这一案件可能不仅只是侵犯人格权益,也适用于个人信息保护范畴。”

运用技术手段应对AI技术风险

随着人工智能技术蓬勃发展,大语言模型(LLM)和扩散模型等AI模型不断取得突破,展现出在各行业变革的巨大潜力。随之而来,“AI复活”、“数字永生”、ChatGPT、Sora等技术被广泛热议。

“大模型具有工具属性,既可以成为好人的帮手,也可能成为坏人的帮凶。”在全国政协委员、360集团创始人周鸿祎看来,应对AI应用可能带来的风险,除了加强监管,也要运用合适的技术手段。“比如,如何在Sora生成的视频里加入不可更改、不可替换的内部水印,再设计一种配合读水印的程序,经查询就可得知是否为有水印的生成视频。”

“正视AI,才能拥抱AI。”在谈剑锋看来,目前,深度合成技术已经能够穿透网络虚拟空间与现实物理世界,将虚拟形象与实际生活场景相融合,应用效果直观易见,商业化路径清晰。“但这类技术潜藏不少技术风险,还会因擅自使用自然人形象或者相关生物特征数据来创设虚拟人物从而构成侵权。另外,由于虚拟形象或者数字人存在使得信息的真实与虚假边界模糊,带来社会认知失调,当前不仅有着伦理争议,还有不少法律监管盲区。”

那么,又该如何防止AI技术被滥用?对此,谈剑锋表示,加快人工智能发展的同时,做好系统性风险防控,可从供需两面以及监管方面着手落实。如在应用需求方面,合理进行用户教育和引导,对使用对象和用途进行合理规范和约束。技术供应方应当重视技术伦理问题,一方面达成要有统一的技术标准和规范,另一方面相关从业企业也要注重自律,确保技术应用有底线。在法律监管方面,提升防控措施的精准性、透明性和稳定性。

谈及人工智能的监管和治理,广东省政协委员、广东省人工智能产业协会会长杜兰提到了三种力量——制度的力量、产业的力量、技术的力量。

“首先,在精确定义各种问题的基础上,明确责任主体,这样制度才会生效。其次,要有效平衡人工智能产业发展和治理之间的关系,科技企业应主动把AI安全和伦理治理能力当作企业竞争力的一部分,当作企业高质量可持续发展的推动力。”杜兰进一步表示,大量的安全和伦理问题都要通过技术手段来解决,首先需要技术人员在技术开发时就充分考虑到安全和伦理问题;其次,要专门针对利用人工智能的网络犯罪开发防卫工具。

AI发展需更多关注安全与伦理

“当前诸多大模型技术主要依赖于大数据投喂,因此最大的风险点还在于数据管控。”谈剑锋说。

如何规避?谈剑锋表示,需要制订合理的监管措施,加强相关应用的管理。首先确保算法透明可解释;其次加强数据安全管理。这不仅要确保数据来源的合法合规,对数据进行及时更新并修正不合规的内容,尤其是保护输入数据,防止数据泄露。还要做好知识产权保护,确保生成内容不侵权,更要对输出内容画定红线,进行严格的监督和审核,遵守适用的法律规定。

“虽然国家已经相继出台了《中华人民共和国网络安全法》《生成式人工智能服务管理办法》等,但是面对不断‘翻新’的AI技术,相应的配套措施也应及时更新。”谈剑锋建议,一是治理目标要从单一的产品管控思维,转向技术体系规制思路,另外适当将风险防范前移,监管技术应用要在前端技术研发立项阶段就进行源头管理。二是适当整合监管手段,对于生成式人工智能技术的发展,不仅需要在各个分领域做相应调整,同时还要做好系统的整合,用好技术和法律的合力,健全适用性高的人工智能技术法律体系。

发展和治理“两手抓”

“我们在推进人工智能创新发展的同时,也要关注它的治理,这两个轮子需要同时推进。”在周鸿祎看来,实现大模型“可靠、向善、可信、可控”发展,将成为我国提升网络空间影响力和竞争力的关键。

如何实现这个目标?周鸿祎建议:第一,有关部门采用揭榜挂帅等方式,鼓励并扶持兼具“安全和AI”能力的企业,更好发挥其解决通用大模型安全问题的重要作用。第二,国家研究制定保障通用大模型安全的标准体系,推动通用大模型开展安全评测、接入安全服务,降低通用大模型安全风险。第三,政府、央国企与兼具“安全和AI”能力的企业在大模型安全领域展开深入合作,发挥此类企业在人工智能安全领域的优势作用。

“有效的人工智能治理,离不开各方参与支持。要建立上下一体的科学监管体系,让监管政策更具针对性、有效性;要鼓励各类创新主体主动参与到人工智能治理过程中来,一方面让人工智能风险的识别与测评统一化、透明化,另一方面强化技术标准、市场准入、数据监管等手段,积极防范技术应用风险。此外,加强国际协作也很重要。”谈剑锋建议。

在谈剑锋看来,对于AI治理,应当遵循产业的发展规律,把握AI技术的本质特征,面向未来画好六条线——研究要有“视线”,要勇于创新与突破;厂商要有“底线”,有所为有所不为;应用要有“界线”,技术应用要有规矩;监管要有“高压线”,对安全威胁要积极作为;发展要有“等高线”,要平衡多方利益;治理要有“平行线”,照顾广泛的社会群体。

多位政协委员在接受采访时表示,对AI监管过严可能抑制创新,寻找强力监管和行业创新的平衡点显得尤为重要。

那么,如何构建一个既能适应AI不断变化的特性,又能满足社会发展和治理需求的监管机制?委员们普遍认为,监管措施需要张严有度。

“实际上互联网初起时,我国就已经提出过‘包容审慎’原则,总体上就是激励创新但又考虑风险规制,长期以来这一原则相对行之有效。”吴杰庄表示。

“相信在智能网络阶段,监管将能够引领技术创新,落实到监管上来看,秉持谨慎干预原则,守牢法律底线、维护人身安全底线,推行科学合理的适当监管,应当可以适应智能技术的发展。”谈剑锋说道。

2024-06-07 本报融媒体记者 周佳佳 徐康辉 1 1 人民政协报 content_63098.html 1 如何AI而无忧? 63,098 /enpproperty-->