据美国媒体Axios消息,近日,一个由众议院两党立法者组成的小组提出了一项法案,该法案要求在线平台向用户更好的提供不使用个性化算法推荐的选项。该法案在众议院和参议院得到了两党的支持,但尚不清楚它是否会通过。
南都记者查阅文件发现,该法案最早在2019年就曾被参议员提出,此次是在Facebook的算法操纵危机的背景下被重提。大型平台的个性化推荐算法很长时间以来都被质疑会加剧社会两极分化和极端主义,在美国,大型平台的算法推荐正引起日益激烈的争论,但目前没有相关的法律文件出台。
南都记者比较美国、欧洲、中国关于算法推荐的一些提案和法规后发现,平台给用户更好的提供不使用个性化推荐算法的选项,已慢慢的变成为这些国家的共识。其中,中国的个人隐私信息保护法已经对此做出明确规定。
这项法案名为《过滤气泡透明度法案》(Filter Bubble Transparency Act),其内容是对网络站点平台的算法推荐进行规制,其中,搜索出来的结果排序、个性化内容推荐、社会化媒体帖子呈现等都被包含在内。
该法案针对的核心问题是“算法是否使用了用户的特定数据”,如果平台基于用户的特定数据,如历史浏览记录、身体活动数据、转账记录等来向用户进行个性化内容推荐,而这一些信息不是用户为实现特定目的主动提供给平台的,这样的算法在这份文件中被定义为“不透明算法”。与“不透明算法”相对应的是“输入透明算法”,指的是除了用户主动输入和提供的信息外,不利用用户的特定个人隐私信息来进行个性化推荐的算法。
法案规定,使用“不透明算法”的平台,必须用户第一次使用时,以清晰、显著的方式告知用户,平台正在通过用户特定的个人数据来向其展示内容,并且,平台必须同时提供“输入透明算法”的版本,并在内容页面上给用户一个显著的按钮,让用户都能够自己选择切换“输入透明算法”或“不透明算法”。
也就是说,平台必须给用户更好的提供关闭个性化推荐的选项,而且用户每一次使用个性化推荐时,都可以在页面上一键切换到非个性化推荐算法。
对于提出该法案的原因,参与提出该法案的众议员Cicilline说:“Facebook 和其他占主导地位的平台通过不透明的算法操纵用户,这些算法将增长和利润置于其他一切之上。而且由于这一些平台的垄断力量和支配地位,用户基本上没有办法替代这种剥削性的商业模式,无论是在社会化媒体、广告还是搜索出来的结果中。”
值得注意的是,法案考虑到了未成年人的问题。如果平台收集用户个人隐私信息是为了判断其是不是达到一定年龄,从而过滤掉具有年龄限制的内容,这样的算法虽然收集了用户的特定数据,但是不属于“不透明算法”。
此外,该法案主要是针对大型平台,而过去半年雇员少于500人、过去三年公司年均收入低于5000万美元、每年收集或处理少于100万用户的个人数据的公司不受该法案限制。
过滤气泡这一术语最初由美国活动家帕里泽在2010年提出。与“回声室效应”类似,过滤气泡同样指一些意见相近的声音不断重复,于是信息或想法在封闭的小圈子里得到加强。不过,回声室效应侧重于新闻媒体或社会化媒体的负面效应,而过滤气泡这一概念直指算法——算法按照每个用户过去的浏览行为对内容做过滤,推荐用户产生兴趣的内容,其结果是将人们隔离在自己的文化或意识形态泡沫中。
奥巴马在2017年卸任时的告别演讲中也曾引用这一概念,他说:“尤其是我们的社会化媒体,周围是看起来和我们相像的人,拥有相同的政治观点,从不挑战我们的假设……而且我们越来越在自己的泡沫中感到安全,以至于我们开始只接受符合我们观点的信息……”
帕里泽在提出这一概念时提到的典型例子是谷歌的个性化搜索和Facebook的个性化新闻。不同的用户在谷歌上搜索同一个词语,呈现给他们的是不同的内容;用户在Facebook首页刷到什么内容,根据Facebook的说法,很大程度上取决于“您过去如何与类似帖子进行互动”。
大型平台的个性化推荐算法很长时间以来都被质疑会加剧社会两极分化和极端主义,但目前美国仍未有相关立法来限制算法。不过,立法者做出了持续努力。今年1月6日,美国国会大厦遭遇,事件发生后,一些立法者认为,大型网络站点平台在该暴力事件中负有不可推卸的责任——它们的算法强化了一些人的政治偏见甚至煽动了暴力。当时,30多名立法者分别给Facebook、Twitter和YouTube三家平台的CEO致信,表示这三家公司都尚未解决其推荐算法固有的“基本”缺陷,他们还推荐了每家公司应采取的几项措施,敦促平台做更大范围的变革。
实际立法层面,限制推荐算法的《过滤气泡透明度法案》并不是首次被提出。此次众议院提出《过滤气泡透明度法案》,是参议院在今年6月提出的法案的配套立法。实际上,再往前推一年半,2019年11月,约翰·图恩等参议员就首次提出该法案,但并未得到落实。
南都记者观察到,在美国,与个性化推荐算法相关的立法实践并非只有“过滤气泡法”。2020年10月,众议员马林诺夫斯基等提出了《保护美国人免受危险算法侵害法案》,详细的细节内容是对美国《通信规范法》第230条的修改。《通信规范法》第230条将Facebook 和谷歌这样的网络公司定位为分销商而不是出版商,公司对用户发布的内容的不负有责任。
但随着社会化媒体对民意的影响力慢慢的变大,修改第230条的声音也随之而来。今年1月,在美国大选前夕,拜登就在接受《》采访时表示,应该立刻废除《通信规范法》第230条。当时,特朗普团队在Facebook上发布的竞选广告暗示拜登贿赂乌克兰政府,这段视频广告被大规模传播。随后,拜登竞选团队声明,已与Facebook的事实核查团队合作证明那是一则虚假广告,要求Facebook删除该内容,但Facebook的回应是不干涉政客的帖子。
《保护美国人免受危险算法侵害法案》与大多数改革第230条的提案不同,它直接针对算法,要求大型社会化媒体平台对放大暴力、激进、有害的内容的算法负责,该法案仅适用于拥有1000万以上用户的平台。
今年10月,Facebook前雇员豪根向《华尔街日报》泄露了多份内部文件,这些文件表明Facebook明知算法会煽动仇恨言论、造成社会分裂,却置之不理。这一消息引起了立法机构重视,例如,此次《过滤气泡透明度法案》被众议院提出也被认为有Facebook事件的推动。《保护美国人免受危险算法侵害法案》在众议院被提出一年之后,参议员Luján在参议院又提出该法案。“社会化媒体可以从危及美国人生命和福祉的极端主义和误导性内容中获利,这是危险的。社会化媒体算法推广的内容在制造分裂、兜售阴谋和谣言,并导致暴力。”他说。
豪根本人在10月参加参议院听证会时,也建议对社会化媒体进行一系列改革,包括对《通信规范法》第230条进行大修。她认为,一旦平台的算法开始决定人们看到哪些内容,它就应该承担相应的责任。不过,豪根也强调,改革第230条是不够的,要解决Facebook问题带来的危机,需要打破之前的监管框架。
不只是美国,欧洲和中国也在加强对平台算法推荐服务的监管,共同点是都要求给用户更好的提供关闭个性化推荐的选项。
欧洲对AI应用的限制更为严格。在算法决策方面,2018年出台的《通用数据保护条例》(GDPR)规定了个人有权不受到完全自动化决策的重大影响。而一般的算法推荐内容很难被联系到“重大决策”,在GDPR里也没有相关联的内容明确提到推荐算法。
2020年12月,欧盟发布了《数字服务法案》草案,第29条为“推荐系统”,专门对算法推荐做了规定。与美国提出的“过滤气泡法”类似,欧洲对算法推荐的限制也聚焦超大平台。该条规定,超大网络站点平台必须以清晰的方式向用户说明其推荐系统使用的主要参数(即影响推荐内容的因素),并给用户一些选项来修改这些参数。该条规定,平台至少要给用户一个不基于用户画像推荐的选项。
欧盟这项草案中的“超大平台”指的是拥有 4500 万(欧洲人口的 10%)以上用户的在线平台。除推荐系统的透明度要求外,草案还要求超大平台必须履行风险管理义务、外部风险审计和公共问责制,以及与当局和研究人员共享数据。
在我国,今年11月生效的《中华人民共和国个人隐私信息保护法》第24条规定,通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。
今年8月,网信办发布了关于《互联网信息服务算法推荐管理规定(征求意见稿)》,对诱导用户沉迷的算法模型、流量造假、舆论引导等问题做了规定。
南都记者发现,美国和欧洲法规主要是针对一定规模以上的大平台做更强监管,而我国的《互联网信息服务算法推荐管理规定(征求意见稿)》则并未说明平台规模,而是强调对“具有舆论属性或社会动员能力”的平台采取更严的监管措施。对此,社科院研究员段伟文认为,《规定》强调“舆论属性和社会组织动员能力”,主要是从社会安全与稳定的方面出发,防止社会化媒体造成舆论撕裂。清华大学公共管理学院教授梁正也向南都记者表示,算法推荐带来的网络沉迷、信息茧房、社会撕裂、偏见等社会问题显现,算法新闻、个性化推荐服务已成为现在内容生态治理的重点。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
主力卖出超2300亿!一天超40家公司减持,A股暴跌超6%,空头是内鬼
博主“山取”进哀牢山采集矿石后被要求返还 律师:个人无权私自进山“取”矿
3岁女童在上海失踪,母亲崩溃到精神失常!警方最近传来消息!关键线索披露→
新消费日报 胖东来国庆期间接待游客超300多万;Moose Knuckles获得波司登战略投资;拼多多百亿补贴真正开始启动双十一……
《编码物候》展览开幕 北京时代美术馆以科学艺术解读数字与生物交织的宇宙节律