平台经济消费者权益保护新挑战:算法运营者必须承担责任,约束单方面操控交易
21世纪经济报道 2021-03-16 09:03

智联招聘等平台简历给钱就可随意下载,个人信息大量流向黑市;万店掌、悠络客、雅量科技、瑞为信息等门店监控技术公司擅自抓取人脸信息;手机清理类软件将老人推向诈骗深渊……今年的央视“3·15”晚会曝光了这些侵害消费者权益行为。

这些案例表明,进入数字化时代,消费者权益保护面临新命题和新挑战。

3月15日召开的中央财经委员会第九次会议研究了促进平台经济健康发展问题。会议强调,要加强平台各市场主体权益保护,督促平台企业承担商品质量、食品安全保障等责任,维护好用户数据权益及隐私权,明确平台企业劳动保护责任。

当晚,由国家市场监督管理总局制定出台的《网络交易监督管理办法》,也在“3·15”晚会现场正式发布。该《办法》是贯彻落实《电子商务法》的重要部门规章,对相关法律规定进行细化完善,制定了一系列规范交易行为、压实平台主体责任、保障消费权益的具体制度规范。

一方面,直播带货、社交电商等新类型电子商务层出不穷,电子商务经营者的身份界定和责任义务的合理边界变得模糊,甚至出现了一些电子商务商业模式的合法非法界限也不清晰的问题。另一方面,大数据、人工智能等新技术带来了侵害消费者权益的新手段,亟需补足监管规制的短板。

21世纪经济报道记者专访了北京大学法学院副院长、北京大学电子商务法研究中心主任、国家市场监督管理总局法律顾问薛军教授,请他谈了对新型电商消费者权益保护义务,为何需要防止人脸信息被滥用,如何规制大数据杀熟、算法歧视等问题的观点。

数字化时代要“数字无障碍”

《21世纪》:社交电商是一个体量庞大但却颇为模糊的电子商务业态,由于强烈的社交属性,这种商业模式与传销的界限并不清晰,对消费者权益保护来说有什么挑战?

薛军:借助对各类熟人关系链中所蕴含的商业价值的挖掘,社交电商以分散的私域流量,借助于口碑推荐的模式,赋能中小商家获得商业机会。

然而国内关于传销的相关立法,特别是2005年制定的《禁止传销条例》所采取的规范模式,在实践中通常被做出带有明显形式主义特征的解读,也就是说,只要相关行为在客观上表现出所谓的“拉人头”、收取入门费以及团队计酬的特征,就被认为构成应该被处罚的传销行为。至于说具有相关特征的行为究竟会有什么具体的社会危害性,则往往不受关注。

这就导致近年来不少社交电商企业被认定涉传销而遭受处罚。比如最近,广州花生日记网络科技有限公司被没收其违法所得754万元,罚款150万元。实际上在2019年,“花生日记”曾被拟罚没7456.58万元。这两个决定之间的差距很大,处罚金额接近“打一折”,在某种程度上折射出监管部门在把握社交电商模式合法性问题上存在的困惑。

我认为,应该从形式特征与实质社会危害性两个角度,来界定正常的社交电商模式与传销之间的合理界限。是否合理保护了消费者权益,就是其中的重要区别。如果终端购买者所购买的都是正常价格的商品,用户端的退换货等消费者权益得到充分保障,在这样的情况下,采取什么模式来分配相应的销售佣金,都不太可能产生社会问题,更不会出现受害人群体。

《21世纪》:用户评价是电子商务重要的信用机制,有利于保护消费者权益,但一些平台故意“隐藏”差评,让很多消费者在购物时感到无所适从,对此应如何规制?

薛军:电商信用评价机制要能够发挥作用,就必须确保充分有效地传达用户评价。任何对用户评价内容的不当干预,无论是在展示方式上做手脚,还是以内涵模糊不清的所谓“感觉不佳”取代内涵清晰的中差评,都不是合格的信用评价制度。国家市场监管总局公布的《网络交易监督管理办法》(下称“办法”)第14条中也规定,网络交易经营者不得采用误导性展示等方式,将好评前置,差评后置,或者不显著区分不同商品或服务的评价。

当然,现实中情况非常复杂,伴随着信用评价制度的建立,出现了所谓的职业差评师,以给商家差评为要挟、敲诈勒索平台内商家。对于这种行为也需要予以打击。对于不属于用户评价,也无助于增加潜在消费者对相关商品或服务了解的信息,都可以采取屏蔽等技术处理。这样做当然具有合理性。上述办法中也提到,如果消费者评价中包含法律、行政法规、规章禁止发布或者传输的信息的,网络交易经营者可以依法予以技术处理。

总的来说,能否充分有效地传达用户评价,是评价电商信用评价机制是否合格和妥当的唯一标准。在满足这一标准的基础之上,筛除不合法的杂音,也是让这一制度得以有效运行的保障。

《21世纪》:不久前,有媒体报道,一些城市的老年人在搭乘公交车、地铁等公共交通工具时,因为不会使用智能手机,无法按照要求出示防疫健康码,被拒绝乘车,引发了智能化、数字化时代“适老”的话题,你认为进入电子商务时代应该如何保障老年人权益?

薛军:我国《老年人权益保障法》第三条明确规定:“国家保障老年人依法享有的权益。老年人有从国家和社会获得物质帮助的权利,有享受社会服务和社会优待的权利,有参与社会发展和共享发展成果的权利。”数字化技术的发展,不应该成为一道变相的门禁,将老年人屏蔽在社会生活之外。数字化时代,同样需要高度关注“数字无障碍”这一现实问题。

数字无障碍的要求,应该作为数字化时代的一项技术伦理准则,融合到产品以及软件的设计中去。更醒目的字体、更简易的安装、更便捷的操作,这些适应老年人身体及认知状态的设计理念,应该在数字化产品中得到体现。对数字无障碍的要求,无论是作为互联网企业主动追求的企业社会责任,还是作为强制性的技术标准,在提供面向大众的App应用服务时,都应该得到认真考虑。

《21世纪》:最近一段时间,特别是疫情发生以来,在线教育迎来了爆炸性的增长。但这一领域的消费者权益被侵害的问题也非常突出。你认为应该如何加强监管?

薛军:目前这一领域虚假宣传问题比较突出,一些根本不具有相应能力和资质的老师,被包装成教学名师,学生和家长发现之后,无法有效维权。另外,还有课程的过度营销,一次销售上百节课,以打折来吸引学生家长,收取了预付款之后,却屡屡发生机构倒闭无法退款的问题。

由于中国的家长特别重视子女教育,也愿意省吃俭用,在子女教育上投入,所以一旦发生在线教育机构倒闭卷款跑路的情况,很容易引发群体性事件。

为了解决这一问题,还是需要在线教育平台做好培训人员的资质审核,杜绝弄虚作假。相应的培训人员需要公示其教师资质以及相应的文凭证书。相关主管部门也应该建设相应的后台数据库,使得用户能够查验核实相关证书资质的真实性。

关于培训费用的收取,可以采取类似于第三方担保交易的模式,相应的培训费用进入第三方的监管账号,根据课程进程及学生家长的确认支付指令,划转到培训机构的账号之中,这样避免在线培训机构通过集中课程营销,在短时期内获取大量的培训费用,后续一旦发生问题,也便于及时止损。

在线教育行业也需要建立规范的行业标准,就在线教育运行过程的主要问题,如何规范化运营等提出要求,这样便于优胜劣汰,避免出现劣币驱逐良币的情况发生。

人脸信息泄露的后果更严重

《21世纪》:目前人脸信息被不当收集、过度滥用已经引起社会普遍担忧,你认为应该秉持怎样的规制原则?

薛军:在诸多个人信息中,为什么要特别关注人脸信息呢?这与人脸信息的特征有密切关系。首先,人脸信息作为生物识别信息,一般来说伴随着人的一生,是不可更改的,一旦泄露很难救济。其次,即使同为生物识别信息,人脸信息与指纹、虹膜、基因之类的生物识别信息相比,也存在重要差别。人脸信息不具有私密性。隐藏在任何一个角落的高清摄像头都可以毫不费劲地抓拍到他人清晰的脸部照片,然后即时上传到人脸信息数据库中进行比对,从而快速识别出相关主体的身份。而这一切,可以在相关当事人毫不知情的情况下发生。从这个角度看,人脸信息泄露的后果可能更加严重。

我认为,如果一定要利用人脸识别进行身份验证,那么必须要满足必要性的条件。比如进入高度机密、特别重要的场合,需要绝对杜绝冒名顶替者时,运用人脸识别具有一定的合理性。但进入自己的小区或者其他营业场所,动用人脸识别的必要性与可能存在的风险就不成比例。从法律上来说,将来可能要规定一个可选择性机制,让相关的个人可以选择不采用人脸识别的方法进行身份验证。

《21世纪》:当一些App过度收集个人信息时,将“已经过用户同意”作为“挡箭牌”,这合理吗?

薛军:在收集个人信息方面,用户的“同意”,并不是运营者可以包打天下的挡箭牌,更非其可以恣意妄为的借口。

第一,个人信息保护在性质上是属于自然人基本人格权益保护,因此涉及个人信息保护的法律规则,有相当多的内容具有强行法的特征。这些规则不会因为当事人的合意而改变,必须得到遵守。我国《消费者权益保护法》《网络安全法》均强调经营者、网络运营者“收集、 使用个人信息,应当遵循合法、正当、必要的原则”。这一规则就是强制性规则。对于过度收集个人信息的违法行为,即使用户在安装App的时候点击过“同意”,相关的个人信息收集行为仍然不具有正当性。

第二,即使用户在安装App的时候点击了“同意”,也并非可以一概解释为对App运营者所有的个人信息收集行为都进行了有效授权。在个人信息保护领域所讲的用户同意,是一种具有严格意义的“知情同意”,也就是基于App运营者一方,对个人信息收集条款的意图、目的和范围之类的要素,作出明确解释和清晰告知基础之上,用户一方给出的同意,才是有效的同意。如果运营者给出的相关表述含糊不清,一般用户根本理解不了其含义,就不属于合格的告知。这种所谓的一揽子授权同意,在很多情况下,是没有法律效力的。

《21世纪》:你怎么评价基于收集用户个人信息的大数据杀熟问题?

薛军:如果用相对中性的词汇来描述所谓的大数据杀熟,其实就是交易中的一方利用其充分掌握的交易相对方的信息,来进行个别化的、差异化的定价。随着互联网信息技术的发展,消费者数据被大量收集以及商家数据处理、运用能力的飞跃,使得差异化定价不再是困难的事情。因此从理论和逻辑上看,在未来的商业实践中,商家采取差异化定价的策略会越来越普遍。

那么这种做法是否构成对消费者权益的侵害?对此学界有完全不同的认识。我认为,大数据杀熟,如果说可能存在某些法律层面上的问题,那就在于商家收集用户个人信息,并且利用这些信息对用户进行数据画像的行为是否合法合规。我国相关立法和标准,都明确规定收集、存储、利用消费者个人信息需要获得用户的同意。此外对于数据画像的使用也设置了严格的限制性条件。无论如何,采用大数据技术来分析特定用户的消费习惯,从而进行差异化定价,应该被限制于用户知情同意以及法律允许的范围之内。否则,相关行为就涉嫌违法违规。

建立算法社会评议机制

《21世纪》:与对大数据杀熟的担忧类似,人们同样担忧算法会不会带来歧视,在电子商务领域应该如何规制算法?

薛军:由于信息技术的发展,人们已经可以通过收集和处理大数据,来规划和安排社会生活中的很多事项,这样不仅能提高效率且让判断更加精准。例如,电商平台可以根据商业大数据,来决定商家在搜索结果中的排序,以此追求最高的用户点击率购买率,实现平台GMV(成交总额)的最大化。因此,伴随大数据技术不断进步,算法的使用必将越来越广泛。在带来各种福利的同时,算法的运用也催生诸多问题。数字时代应高度关注算法规制。

《电子商务法》第18条第一款规定:电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。也就是说,在搜索结果的呈现方式上,平台要同时披露自然搜索结果以及定制化搜索结果,以此来保护消费者合法权益。

该规定的落脚点就在于一种特定的算法规制,也就是通过法定强制的不同算法结果的披露,来提示消费者其获得的搜索结果具有“定制化”属性。通过这种方式可以间接地约束经营者一方,降低其单方面操控交易的可能性。这样也就相当于保障了消费者的知情权与选择权。

《21世纪》:应该如何确立算法规制的原则?

薛军:算法本身是一种技术,算法运营者赋予其灵魂与价值选择,所以算法问责与规制的基础仍在于将算法运营者置于规制的中心。具体来说,算法运营者必须为算法所导致的实际问题承担责任。

作为一个初步框架,算法规制可能需要包括以下要素:第一,对可以运用算法的场景建立审慎评估制度。对于涉及公民重大权益的场合,例如刑事诉讼程序、量刑等领域,如要运用算法来作出决策,需有更加严格的控制与审查机制。

第二,对于算法运用是否产生不良后果,要建立一种社会性的评议机制进行持续性的跟踪研究。如果社会评议机制有充分的理由,认定特定算法的运用,导致不良后果,就应该启动问责机制,要求相应的算法运营者予以解释与说明并作出优化。

第三,将责任机制覆盖至算法领域。在司法以及行政理念上,需要将算法的运用作为算法运营者行为的延伸。无论运营者是否存在过错,是否存在行政违法等,算法因素都应被纳入追责的考量范围内。

来源/21世纪经济报道

编辑/樊宏伟

最新评论