风险一:应用内存在低俗色情内容
①低俗挑逗性聊天内容
用户收到低俗挑逗性的聊天内容,包括充斥性暗示的文字、语音或是图片。
②社区内存在低俗色情内容
有些社交交友类应用具有用户社区或论坛模块,本意是为了增强应用的社交性,但部分社交交友应用缺少对社区论坛内用户发布内容的监管及审核,导致社区内出现低俗色情内容。
③用户个人简介中存在低俗色情内容
部分社交交友类应用对用户提交的个人简介等资料审核不严,在用户个人简介中存在低俗色情内容,包括但不限于使用含性暗示的图片或文字等,有些应用还存在为色情平台引流的情况。
风险二:应用内存在诱导付费行为
交友类应用常见产品模式是限制用户的发言次数或视频通话功能,需要用户付费充值使用。然而,部分交友应用在用户注册或登录后发送大量交友信息,或发送视频聊天等,通过一些不合规行为诱导用户付费。
①应用内的概率性游戏公示不合规
用户使用应用内代币参与游戏,最终能否获得更高代币价值的奖品,存在一定概率。按照规定,这类游戏需公示虚拟服务的名称、性能、内容、数量及抽取概率。但是一些应用没有公示明确的奖品抽取概率,诱导用户进行不理智的充值抽奖。
②主动弹出视频通话诱导用户付费
部分应用会主动弹出视频通话邀请,这些邀请往往来自于用户没有主动交流过的对象,在邀请页面会放上提前录制好的女性用户视频,诱导用户付费接听。更有甚者,在应用后台频繁弹出视频通话邀请。
③频繁发送定制化消息诱导用户付费
部分交友类应用还会限制用户发送消息,用户想要聊天需要付费充值。此类交友应用中存在给用户频繁发送大量聊天消息的现象,这类聊天信息有明显的话术痕迹,通过这种方式增加用户的留存率,诱导用户充值发言。
风险三:应用内存在擦边博彩的游戏玩法
一些交友类应用在应用内设置概率性游戏,比如,抽奖、砸金蛋、盲盒机等。这种游戏玩法跟博彩趋同,充当赌注的虚拟道具或货币最终会与现实货币挂钩。
①用户通过充值获得代币参与概率性游戏
部分社交交友类应用存在转盘抽奖等概率性游戏。用户通过充值获得代币,如积分、钻石一类的应用内货币,可以用于参与此类概率性游戏。
有部分应用设置了只能用于参与概率性游戏的代币,应用内的代币目的是为了购买娱乐性、表演性服务,但当代币只用于概率性游戏时,其目的已经偏离了代币的初衷。
②应用存在将概率性游戏奖品变现的途径
在用户参与概率性游戏获得更高价值的奖品后,擦边博彩的游戏玩法还会存在用户能将此类奖品变现的途径,使得当赌注的虚拟道具或货币最终与现实货币挂钩。
比如,用户通过将代币、虚拟道具等打赏赠送给自己账号,最终可以将参与游戏获得的奖品折换成现实货币。
风险四:应用的青少年模式不合规
部分交友类应用提供了直播服务,按照相关规定应设置青少年模式,禁止未成年人观看直播和充值打赏。然而,这类应用的青少年模式大多形同虚设。
①没有提供青少年模式
部分应用提供直播服务,有打赏功能,但是这类应用以未成年身份注册时能正常使用,且不会对用户进行限制和提示用户开启青少年模式。应用内也找不到青少年模式的开关。
②青少年模式无效
部分应用虽然有青少年模式的开关,但在青少年模式下应用内容和功能都没有明显变化,同样可以观看直播,进行充值付费打赏等。
风险五:应用的实名认证功能不合规
交友类应用通过实名认证:一是可以确保用户的真实性,更有利于平台监管;二是可以有效预防网络诈骗;三是严格的实名认证机制能起到保护青少年,为未成年人提供良好网络环境的作用。
然而,有部分交友类应用的实名认证并没有验证审核,用户提交虚假资料也可以通过认证,还有部分应用没有实名认证机制。
专家提醒
内容安全是互联网企业的生命线,也是互联网行业的行为底线。网络社交平台在为用户提供人际互动良好体验的同时,也容易助长一些违法犯罪和社会不良现象。对于用户来说,要以健康的心态参与网络平台社交互动,切忌抱着“猎奇”“猎艳”等不良心态,避免落入犯罪分子编织的“陷阱”。与此同时,平台应加强监管治理,切实担负起主体责任,维护行业良好秩序。(部分内容综合自人民日报)
监制:张宁 策划:李政葳 制作:姚坤森
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
(文图:赵筱尘 巫邓炎)