【资料图】
用户希望得到个性化推送却不信任算法,背后啥原因?
人民政协报 本报记者 崔吕萍
随着算法普遍应用于互联网服务的各个领域,规范算法应用、防范风险成为各方期待。日前,浙江金融科技伦理委员会发布了《算法应用的用户感知调查与分析报告》(以下简称《报告》)。《报告》显示,八成受访者希望得到个性化推送却不信任算法,对算法透明有着更高的期待。
去年以来,《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》《人工智能算法金融应用评价规范》等陆续出台。大型金融机构及头部互联网平台也纷纷采取行动,积极探索算法治理和伦理建设。成立于2021年3月的浙江省金融科技伦理委员会,是全国首个省级金融科技伦理委员会,由浙江互联网金融联合会牵头,蚂蚁集团、浙商银行、连连支付等企业代表共同参与发起,旨在充分结合学界理论智慧和业界实战经验,探索加强金融科技伦理标准与规范建设。
《报告》调研发现,八成受访者希望得到个性化推送却不信任算法,其背后大致分为三方面原因:首先,用户对算法的排斥实质上是对企业过度利用算法行为的排斥,并非排斥算法技术和算法应用本身;其次,信息不对称导致用户对算法应用存在错误认知和抵触倾向;最后,由于学历背景、成长环境、收入水平等存在差异,用户对待算法的感受分化明显,防范相关风险的能力也存在差异。
《报告》同时认为,绝大多数受访者对算法透明有着更高的期待。调研中,超半数受访者不清楚企业是否使用了算法;60%的受访者不了解企业使用算法的内容和目的;7.22%的受访者认为企业不需要对算法进行解释,54.28%的受访者认为企业需要对用户详尽解释算法,38.49%的受访者认为只要简单解释即可。
算法安全方面,受访者对算法表现出普遍的“不信任”,希望在规范中促进算法的合理应用和健康发展,期待多维度加强算法风险治理。在各项治理举措中,受访者认为最有效的还是强化自我主动管理。
算法公平方面,受访者对以“大数据杀熟”为代表的差别定价态度差异较大,22.16%的受访者表示没有经历过差别化定价,51.46%的受访者表示偶尔经历差别定价,26.38%的受访者表示经常经历差别定价。绝大多数受访者表示,在感觉到差别定价后会坚定维护自身权益,并将规则是否透明作为判断差别定价的重要影响因素。
算法向善方面,受访者认为算法推荐下的过度消费问题并不突出,但信息茧房(即指人们关注的信息领域会习惯性地被自己的兴趣所引导,从而将自己的生活桎梏住的现象)、不良信息等问题在一定程度上存在。
基于用户调研结果,《报告》对互联网企业提出了多项建议:在个人信息保护法、互联网信息服务算法推荐管理规定基础上,分层次进行算法解释,提高算法透明度;加强算法公平评测、信息安全框架建设,防范算法风险;加强“规则透明”等规范,保障用户享有平等的知情权、选择权;加强内容治理,积极响应用户诉求;畅通不良信息的投诉、举报、反馈机制。
关键词: 金融科技