本报记者 徐艳红
算法,无处不在。自动驾驶汽车飞机、定向推送广告、外卖快递单的派送、网约车呼叫……可以说,伴随互联网应运而生的算法已成为生活中的一部分。算法应用给政治、经济、社会发展注入了新动能,但与此同时,算法歧视、算法黑箱、算法合谋等新型隐患也随之而来。
置身算法社会,被算法裹挟前行,现代人急切地想了解算法,让算法为我所用。日前,国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局联合发布了将于3月1日施行的《互联网信息服务算法推荐管理规定》(以下简称《规定》),一些老百姓的生活关切在《规定》中有了答案。
算法就是能完成特定任务的计算机编程
段雯(化名)跟闺蜜在微信上聊起某品牌的衣服,想让闺蜜陪她一起去商场。之后段雯发现,她再刷视频或是浏览新闻网站时,网页上推送的服装类广告明显增多。聊天记录被偷窥?这种感觉让她很不舒服。
到底什么是算法?算法应用在哪些领域?北京师范大学法学院教授、亚太人工智能法治研究院院长刘德良介绍,简单来说,算法就是为了完成某种或某类任务而设计出的计算机编程。“但有了编程还不够,还要让它真正拥有智慧,这就需要对它进行训练,训练方式是通过‘喂养’大数据来完成。”刘德良说,目前流行的基于机器学习的算法,是归纳思维和方法在自动化技术领域的应用,即先从无限丰富多样的数据(案例)中找出规律性,进而指导其后续实践。因此,算法运行的结果取决于两个方面:一是算法开发设计的技术先进程度以及它是否遵循公认的技术伦理规范,二是算法训练时“喂养”的数据是否符合“数据数量足够大、种类无线丰富多、来源渠道足够广泛”的大数据思维。
刘德良表示,目前大家对算法的理解比较狭隘,以为就是推送广告及新闻,其实,算法的应用领域非常广泛。比如著名的“世纪人机大战”,2016年和2017年,人工智能AlphaGo先后战胜韩国围棋选手李世石和中国棋手柯洁,人类大脑完败于人工智能。“人工智能可以在短时间内完成人类几千年都不能完成的事情,所以,运用好人工智能,对人类社会的推动作用是过去无法想象的。”刘德良说。
如今,算法已经运用在各行各业,如农业领域的农作物病虫害检测算法;借助AI视觉算法,全方位监测城市垃圾堆放、河道漂浮物等,实现高效一体化的城市精细化管理;智能机器人代替人工作业……“算法就是一系列指令,告诉计算机该做什么,是一套通过‘确定性’保证解决问题的工具。”对外经济贸易大学法学院副教授、院长助理张欣强调,算法是人工智能技术的基础。
算法有利也有弊
随着人工智能时代的到来,算法越来越多地支配着生活,便捷的同时,也给人们的权益带来了一定的影响。“算法歧视也是不应忽视的一种典型算法风险。”张欣说,除了大家熟悉的“大数据杀熟”外,在就业领域,虽然我国还没有曝出案例,但国外已有不少的报道。2021年10月,亚马逊送货司机斯蒂芬·诺曼丁像往常一样打开软件查看送货路线时,却发现无法登录。打开邮箱,看到邮件中赫然写道:你已经被Amazon终止合作,原因是:“由算法给出的个人评分已经低于Amazon的规定分数。”
张欣表示,在技术与算法不断演进的基础上,就业领域运用算法挑选人才已不再奇怪。很多人的简历都是通过互联网招聘平台和应聘企业提供的电子化格式填写提交。用人单位在筛选的过程中,完全可以在算法模型中设置一些门槛条件如性别、年龄、地域等,从而形成算法歧视。此外,通过大数据“杀熟”实施不合理差别的价格待遇,利用算法诱导用户沉迷网络、过度消费等都是算法存在的风险。
平台企业承担算法安全的主体责任是《规定》的最大亮点
“《规定》一个最大的亮点,也是中国算法治理的一大特点,就是它首次明确提出了平台企业要承担算法安全的主体责任。”张欣从三个方面解释了“算法安全”:一是平台企业确保算法模型的设计和运行是安全可靠的,是按照设计的初衷稳健运行的。二是算法应用在部署和运行层面所产生的影响是可控的。例如,具有舆论属性或者社会动员能力较强的算法应用就不能通过流量造假和控制热搜等方式影响网络舆论,引发网络公共事件,使得传播秩序失控。三是算法应当安全可信,即算法设计及其应用应当符合技术伦理的要求。例如,算法设计应当防止未成年人沉迷,不能引导用户过度消费。平台如果通过算法形成了对用户的数据画像,在知道该用户已经债台高筑的情况下,还一再推送高息贷款,可能对其产生诱导,导致其负债进一步加重的行为就是不合理的算法推送。
目前经国外媒体报出的案例中,很多企业在推卸算法责任时的重要辩由就是称,“算法是技术,技术是中立的,其设计出来的解决方案也是完全客观、不夹杂任何主观因素的。算法在运行中产生了某些不良后果,平台是没有责任的。”此次《规定》则表明了态度,算法不管有多么复杂,在设计和运行过程中都嵌入了人的主观偏好,因而,出了问题平台需要承担主体责任。
此次《规定》在维护消费者权益方面赋予用户两个重要权利:一个是选择退出权。比如,登录某电商App时,该App应当在非常显著的位置询问用户是否选择个性化推荐功能。第二个是用户享有删除数据标签的权利。一旦删除,平台就没有办法按照用户的喜好进行个性化推荐了。
算法的分级分类管理也是中国算法治理的一个亮点。张欣称,在此之前,网信办等九部门印发过《关于加强互联网信息服务算法综合治理的指导意见》的通知,提出要对算法进行分级分类管理。张欣表示,同样的算法模型应用在不同的场景,对用户的影响是不同的,所以,不能采用“一刀切”式的治理方式。比如,给爱购物的女性推送的商品广告,推荐得精准与否对个人影响并不大;而算法对人进行信用评估就不同了,人的信用等级会影响个人贷款审批、合同签订、就业甚至未来发展。再者,国外还运用算法对社会保障的福利名额进行分配,这个结果对人的影响不言而喻,需要施加较为严格的监管。
算法治理要从分散走向统一
2021年可谓是中国算法治理元年,网信办出台了一系列的治理规则。中国的算法治理未来该向何处去?张欣表示未来将会有三个趋势:一是算法治理要从分散走向统一。监管机关会建立健全综合的算法治理规则体系,包括实施细则、算法评估标准等配套性规则。由于以往的治理多是碎片化的,又鉴于算法对人们工作生活影响越来越大,以点带面地对算法进行统一的、系统化的治理就成为必然。
其次,算法治理会呈现“软”法与“硬”法兼顾的趋势。《规定》是正式的、有效的规范性文件,是所谓的“硬法”,具有强制约束力。但对于算法治理而言,如果只靠硬法,效果也是非常有限的。当下的国际算法治理趋势是“软硬兼施”。所谓“软法”包括一系列不具有法律约束力但仍然具有间接影响力的规则,例如推荐标准、行业指南、监管建议、技术伦理规范等等。张欣举例说,比如,《规定》要求用户可以关闭个性化的推荐标签,那么对于企业而言,是为用户提供一键关闭所有个性化推荐选项还是赋予其选择的权利,可以选择关闭部分推荐功能而保留另一部分推荐功能,这在执行层面就有很多可讨论的空间。所以,在这个层面上,可能行业通过形成推荐标准、达成自律公约等形式来操作实现。而这种方式就是软法治理的体现。
三是个体赋权和系统治理相结合。无论是此次《规定》还是个人信息保护法,都对用户赋予了一系列权利对抗算法的操控。百姓虽然拥有了一些权利,但在高深的算法技术面前,依然是渺小甚至无力的,他们在强大的品牌企业面前根本无法形成很有力的对抗。因此,张欣建议监管层面应该兼采赋予用户权利和系统问责治理的路径,组织行业专家、法律专家及技术专家,对算法设计者、算法服务提供者在高风险应用场景下定期进行系统安全评估和审核,这样才能让百姓放心。
对于算法的治理,刘德良表示,要为发布《规定》的做法点赞,说明政府主管部门在人工智能算法的时代大背景下,已经意识到算法推荐信息服务出现的问题,从而有针对性地作出规定。然而,对于算法本身的认识,刘德良的某些观点则有些与众不同。
他认为算法不只是技术本身的问题,更多的是社会及市场问题。比如,现实中真实存在的“杀熟”大家能够接受,为什么接受不了技术杀熟呢?至于商品广告的推送,刘德良说,正如置身城市的商业街道,周围环伺橱窗、大屏幕或是广告牌,大家都能够接受,因为这是市场行为,但为什么这种行为移至网络就成众矢之的?当人们只看到算法的结果,却忽视了导致结果的两个前提,即算法的开发设计是由人完成的、算法如此智慧靠的是习惯养成,也就是后天训练。因此,算法监管要从算法的开发设计和算法训练两个方面入手。
算法涉及技术和商业秘密,企业自然不愿意公开,对此,刘德良表示,算法公开透明是有条件地公开,而不是对所有人公开。此次《规定》提到的备案制度是个好办法,但如何备案,要出台配套举措。备案并不代表算法一定要公开,而是在该算法出现故障或问题时,可由具备权限的部门进行审查。
“算法开发设计应根据不同场景、不同行业、不同技术领域而设定不同的技术伦理。从最初的技术设计开始,就为防止后期出现偏差做出准备,采取源头治理的思维。再者,算法训练非常重要,最初的算法如刚出生的婴儿是一张白纸,后天的训练才决定着它的未来走向。”
刘德良认为,算法运行的结果虽然会攸关到某个人,但算法其实并不针对个人,而是不特定的社会公众,因此,从法理上讲,算法监管与治理属于社会法问题,不属于民法或私法层面的问题,不宜有个人直接面向商家主张“可解释性”或“歧视”,而应该适用类似于劳动法、消费者权益保护法等社会法的思维,由主管机构监管或检察机关提起公益诉讼。