中国青年报社社会调查中心:75.3%受访者曾被算法推荐服务困扰 53.8%有意向关闭

算法歧视、“大数据杀熟”、诱导沉迷……针对这些算法不合理应用导致的问题,国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局联合发布《互联网信息服务算法推荐管理规定》,并于3月1日起施行。

日前,中国青年报社社会调查中心联合问卷网(wenjuan.com),对1144名受访者进行的一项调查显示,75.3%的受访者曾被算法推荐服务困扰过。56.1%的受访者关注《互联网信息服务算法推荐管理规定》。

受访者中,00后占27.2%,90后占51.7%,80后占21.2%。

中国青年报社社会调查中心:75.3%受访者曾被算法推荐服务困扰 53.8%有意向关闭

75.3%受访者曾被算法推荐服务困扰

东南大学大三学生王琦认为,智能算法虽然可以在一定程度上使生活更便捷,但由于算法的用途未必是符合消费者利益的,如果不加以管制,一定会产生许多问题。“当商家只想着牟利而忽视了消费者权益时,就会造成侵权。更不用说那些不告知消费者、直接盗取消费者信息的行为了”。

调查中,75.3%的受访者曾被算法推荐服务困扰。

北京某机构新媒体编辑孙彦说,在未经用户许可的情况下,后台自动获取用户数据的情况很普遍,这是很明显的过度收集信息的行为。“我之前在某购物平台浏览过家用乒乓球台的商品信息,紧接着在使用某社区网站时,就被广告推荐乒乓球台,很明显是自己的浏览记录被获取了”。

调查中,62.2%的受访者觉得生活中“大数据杀熟”普遍,32.4%的受访者觉得一般,仅5.3%的受访者觉得不太多。

孙彦表示,经常会碰到被算法“杀熟”的情况,“我习惯用某款地图软件叫车,打车的车型分为经济型、豪华型等不同类别,我一般都打经济型,去年暑假有几次受极端天气影响不好打车,就打了几次豪华型的车。之后明显感觉基础打车费抬高了”。

北京某公司电气工程师张腾认为,要在用户隐私和产品使用上做平衡。“基于用户主动行为进行的数据获取是比较合理的。但许多软件跳过用户决策,暗中搜集用户信息,这就不合理了,比如App在后台运转时,甚至手机黑屏时,都在暗地里获取用户信息,甚至是获取用户使用其他软件的情况,这就是对用户隐私的侵犯”。

56.1%受访者关注《互联网信息服务算法推荐管理规定》

中国传媒大学网络法与知识产权研究中心主任王四新说,不管是出于提升服务的目的,还是想实现精准营销,甚至去预判商业发展,都离不开基于算法产生的数据收集与判断,所以企业动力十足、能力强大。政策和法律的限制就显得尤为重要。

调查中,56.1%的受访者关注《互联网信息服务算法推荐管理规定》,其中15.7%的受访者非常关注。

中国政法大学传播法研究中心副主任朱巍认为,对于四部委新出台的管理规定,不能单独去看,要结合个人信息保护法、电子商务法一起理解,这是一个体系。电子商务法主要侧重给消费者选择的权利,个人信息保护法侧重于从算法基础、数据分析上来保护个人隐私。而目前的《互联网信息服务算法推荐管理规定》则着重聚焦于算法技术的相关规制,这是我国第一部专门针对算法出台的规章,这部新的法规,进一步明确了法律责任。这样一部专门性法规,再结合其他法律中关于算法的一些规制,实际上就能对算法引起的问题起到很好的治理效果。

朱巍介绍,新规针对两类特殊人群有特殊保护,一个是未成年人,一个是老年人。同时要求算法不能把用户的不良嗜好作为推荐的标签标记,比如涉黄、涉暴,要求算法要遵守公序良俗,趋利避害,坚守法律和道德底线。“这些规定其实在其他的法律里也有体现,比如网络安全法第十二条,还有网信办出台落实的《网络信息内容生态治理规定》,都对禁止算法传播的内容进行了规定。所以四部委此次出台的新规,是在一个已有的法律网络基础之上,进一步总结凝练来制定的,是在算法规制方面的一次进步”。

王四新说,规定从外围要求企业不利用算法作恶,很容易做到,但是想让算法公开透明,这对企业而言是一种挑战。综合来讲,政府作为公共服务的机构,应该以监管者的身份,来对企业进行实时监管,避免算法成为监管黑洞。

“算法歧视,不光是大数据杀熟产生的价格歧视,还有些标签化的歧视。比如电商平台会判定你的价值,觉得你价值高就推荐好的白酒,认为你价值低就总推荐九块九包邮,这对消费者的人格也是一种侵犯,先把人分成三六九等,再推荐商品。”朱巍说,这可能是我们国家之后要完善的立法方向。

算法新规施行 53.8%受访者表示会选择关闭算法推荐

3月1日起,国家网信办等四部门联合发布的《互联网信息服务算法推荐管理规定》(以下简称“规定”)正式施行。规定明确了用户可以选择关闭算法推荐,也可以拒绝使用其个人的特征数据的算法推荐服务。你会选择关闭算法推荐吗?

日前,中国青年报社社会调查中心联合问卷网(wenjuan.com),对1144名受访者进行的一项调查显示,规定落地后,53.8%的受访者表示会选择关闭算法推荐功能。受访者期待规定能遏制诱导过度消费(68.2%)、大数据杀熟(61.9%)、诱导沉迷(57.5%)、过度收集个人信息(46.0%)等方面的不良之风。

受访者中,00后占27.2%,90后占51.7%,80后占21.2%。

中国青年报社社会调查中心:75.3%受访者曾被算法推荐服务困扰 53.8%有意向关闭

受访者期待规定能遏制诱导过度消费、大数据杀熟、诱导沉迷等

东南大学大三学生王琦,是某打车软件的老用户。最开始,他只使用这一款软件,从去年开始,他也开始使用其他打车软件。这时他发现,在使用了其他打车软件后,原来打车软件的价格明显有所下调。同样的路程他的费用要比同学低不少。对此王琦很生气,“这既是‘杀熟’,谁粘性大、用得多,价格反而贵,也是在侵犯我的个人隐私,为什么我使用别的打车软件的情况会被收集到?”

中国政法大学传播法研究中心副主任朱巍认为,舆论导向一定不能让技术完全控制,比如,如果全按算法数据搜集的个人喜好进行热搜排序,那饭圈这种很热烈的文化会不会经常占据热搜?信息茧房会不会产生?信息的鸿沟会不会因此加大?

调查中,大家期待规定遏制诱导过度消费(68.2%)、大数据杀熟(61.9%)、诱导沉迷(57.5%)、过度收集个人信息(46.0%)等方面的不良之风。还有通过算法推荐影响网络舆论(40.4%)和算法歧视(37.3%)等。

中国传媒大学网络法与知识产权研究中心主任王四新说,对于在算法上诱导沉迷、诱导消费的恶意行为,法律上的界定方法,是要从具体场景出发,看宣传是否具备误导性,能否直接满足消费者的需要。比如用户利用搜索引擎去搜索某个医院,那呈现出的搜索结果是不是真实面貌,还是说会故意安排一些与搜索无关的内容,诱导消费者去点击,甚至是表面上符合消费者预期,但点击后又会跳转到其他页面,挂羊头卖狗肉,这里边就可能存在诱导消费的问题。诱导沉迷则可能是利用一些夸大、虚假的信息,甚至直接使用色情图片,来诱导关注,包括一些新闻类的App,看标题很吸引人,点进去却进入了购物平台,这都属于明显的恶意引流、恶意误导,是在利用用户的心理预期牟利。

对于一些短视频平台的诱导沉迷算法,王琦也很无奈。“很多时候你未必打算浏览短视频,但由于它的内容推送投你所好,就会吸引你不自觉地沉溺其中,等到反应过来时已经看了很久了。我喜欢在短视频平台上浏览新闻,就经常被推荐大量的负面新闻、交通事故等,同时穿插一些科普、时尚的内容,看起来营造了一个多元的信息氛围,但其实主要内容全是负面新闻,内容粗糙,看完后除了产生情绪波动,没有实际收获,浪费大量时间精力”。

规定落地后,53.8%受访者表示会选择关闭算法推荐功能

王琦表示,人们不应该被算法覆盖,如果算法太强大,对用户太了解,那用户的选择就会受到很大限制,看似有选择,实际都是被设置好的。“希望算法越来越公开透明,算法关闭选项能够尽快落实,从根本上解决算法带来的问题”。

规定落地后,53.8%的受访者表示会选择关闭算法推荐功能,18.2%的受访者不会,28.0%的受访者表示不好说。

王四新说,规定通过要求企业设置“算法推荐服务功能”的开关选项,给予用户自主选择权,来保护消费者利益,确实可以在一定程度上遏制乱象。“让消费者拥有更多选择,要求企业提供更多元的服务,实际上是在构建消费者与企业间的理想平衡模式。个别企业会制造陷阱,但政策的导向就是在提醒消费者,哪些陷阱不要踩,给群众创造一个选择的条件”。

自 中国青年报

本文来自互联网,不代表前途科技立场,如若转载,请注明出处:https://accesspath.com/report/5730172/

(0)
NEXTECH的头像NEXTECH
上一篇 2022年3月25日 上午12:30
下一篇 2022年3月25日 上午12:30

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注