互联网平台如何提升应对内容风险的自查自纠能力 内容审核

最新文章

2022年6月6日,《未成年人文身治理工作办法》出台,对加强未成年人文身治理提出系列工作举措,引发家长热议和共鸣。
禁止刊登、传播诱导未成年人文身内容
《办法》指出:
任何企业、组织和个人出版、发布、传播的图书、报刊、电影、广播电视节目、舞台艺术作品、音像制品、电子出版物或者网络信息,不得含有诱导未成年人文身的内容。
任何企业、组织和个人不得刊登、播放、张贴或者散发含有诱导未成年人文身、危害未成年人身心健康内容的广告;不得在学校、幼儿园播放、张贴或者散发文身商业广告。


文身对未成年人百害无益


近年来,文身出现低龄化现象。然而,对于身体和心智发展都尚未成熟的未成年人来说,盲目跟风文身,存在诸多隐患和风险。文身一旦形成,极难清除,现有激光、手术等处理手段也会留下疤痕和印记。


未成年人文身,还会对个人发展有不同程度的限制,对其学习、生活、就业产生较大影响,甚至会毁了孩子前程。文身被学校开除或警告、不被聘用、无法参军、不能报考警察、无法参与大型文体活动的案例比比皆是。有的还因文身在家庭关系、交友、婚恋等方面遭遇困难,工作生活都受到影响。

给未成年人文身可追责


《办法》规定,任何企业、组织和个人不得向未成年人提供文身服务,不得胁迫、引诱、教唆未成年人文身。专业文身机构以及提供文身服务的医疗卫生机构(含医疗美容机构)、美容美发机构、社会组织应当在显著位置标明不向未成年人提供文身服务,对难以判明是否是未成年人的,应当要求其出示证件。卫生健康部门不得审批同意医疗卫生机构(含医疗美容机构)开展未成年人文身服务项目。


《办法》明确,对文身服务提供者违反规定向未成年人提供文身服务的,有关部门依照有关规定予以处理;其他市场主体未依法取得营业执照向未成年人提供文身服务的,要依照《无证无照经营查处办法》等规定进行查处;对个人违反规定擅自向未成年人提供文身服务的,要依法追究其法律责任。


互联网平台内容审核新要求


《未成年人文身治理工作办法》出台后,一方面是对互联网平台的内容审核规则、审核策略,特别是在图片、视频审核的技术提出新的要求;另一方面对平台的增量数据和存量数据也是一个极大的风险考验。


法规出台之前,互联网平台对文身相关内容的审核是不够重视和严苛的,势必在平台已积累有大量的诱导未成年人文身的文字、图片、视频等内容。


随着治理法规出台,互联网平台内容审核机制也应该紧跟步伐。特别是图片、视频、内容平台需要定期对文身相关进行内容巡查、专项巡查、数据清洗工作,确保平台没有诱导未成年人文身的文本、图片、音频、视频等内容。


为保护原创,引用微信公众号“内容安全”素材,建议各类互联网平台在内容审核以及存量数据的自查自纠、内容巡查上做到以下6点:


1、互联网平台的广告、海报、banner图、娱乐、体育明星宣传应减少或避免含有文身内容的呈现;
2、对互联网平台上的文艺作品、视频、图文内容,不能含有引导、教唆未成年人文身的内容;
3、对出现在互联网平台上的综艺相关内容、体育明星、嘉宾、艺人出镜,禁止含有文身画面,如有文身应予以处理或遮盖;
4、互联网视频垂直平台上对网络电影、网络剧,非必要不展现文身画面,如剧情需要,则需考虑将对未成年人影响降至最低或有文字提醒;
5、互联网电商、团购平台不能针对低龄学生、未成年人销售、团购文身相关服务以及在平台活动宣传中使用有诱导未成年文身的文字或图案;
6、各类文身类视频、节目、图文内容,应添加未成年人禁止文身安全提示;

如何提升对内容风险的自查自纠能力

1、加强发现问题的能力

当事后惩戒成为常态,就会弱化事前发现问题的能力,根源在于没有好的顶层制度设计。流程的漏洞、培训的弱化、意识的淡薄以及缺乏智能工具的辅助,仅靠员工的人工肉眼只能疲于应付海量内容风险,反复漏放也成了平台内容风险的出口。

每个内容平台企业都应该审视自身是否建章立制,思想意识是否懈怠,问题向上反馈机制是否畅通,责任是否明确,发现问题的激励机制是否公平、有吸引力……

第一,强化内容风险安全意识。第二,堵住制度流程的漏洞。第三,问题经验不断总结。

2、加强解决问题的能力

第一,将多发频发的高危内容风险问题制度化解决。梳理薄弱环节和漏洞短板,从机制、队伍、产品、技术等不同维度发力,关注重点应该是问题的解决方案,而不是单纯的问题本身。

第二,加大技术资源的投入。当自身能力不具备对大量违规内容数据的处理时,需要及时寻找第三方专业机构进行问题的快速诊断与处理。

第三,提升内容风控领域人工智能设备的应用力度、频次,使用机器进行规模化清理,可有效提升对风险内容的处理效率。

3、加强内容巡查的能力

文本、图片、音频、视频、直播的自媒体时代,人人皆可发声,大量高危内容风险藏在评论、帖子、文章、动态之中,隐秘性极强,而且不断在变化形式,在规避与反规避的较量中,难免有违规的“漏网之鱼”流向内容平台。

这也给所有内容平台企业延伸出另一个思考,在做好增量内容数据审核的同时,如何能够对存量内容进行定时、定期、定向的检测、清理,从而让平台变得更干净?

针对平台多发频发的高危内容风险问题,网站平台应集中开展专项整治工作,成立网络生态治理专项小组,明确生态治理负责人,明晰人员责任、强化部门联动,定期开展不同类型的内容风险开展监测、清理工作的制度化约束,提前规避业务风险,达到合规要求。

此外,还应建设内容风险主动监测系统,打造多层级的内容风控闸门。在对文本、图片、音频、视频、直播的巡查过程中,主动监测系统更具有后发优势,在机器、人工都漏掉时,内容巡查系统依然能实时发现风险并前置处理。

4、加强审核评估的能力

目前单一的机器审核体系,无法完全满足企业防范和规避内容风险的需要,传统的人工审核体系,又无法跟上企业快速发展、内容数据指数级上涨的趋势,企业海量的新增数据长期存在内容风险隐患。

人机协同的内容审核解决方案,可以帮助企业完美解决了这个困局,通过AI与人工的无缝衔接与互相配合,在确保审核效果的基础上,极大的提升了审核效率,并且审核数据将会反哺AI智能体系,在完成企业审核任务的同时,使算法模型也能够得到不断地优化与提升。

第一,加强队伍建设。丰富风险数据库资料,将培训常态化、深入化,并不断根据内容风险的变化,不断加强培训知识面的宽度与深度。

第二,提升技术手段。不断优化算法模型,运用人工智能技术手段,加大对拼接,变异图片、视频,语义变化,打擦边球的文本、语音违规内容的审核评估效率与准确率。

第三,专人专项,持续化、常态化建设低俗模型识别系统、敏感词系统。

总而言之,企业在提升自身内容平台自查自纠能力方面主要集中在两大方向,一方面是制度流程的约束能力(涉及培训、分工、突发应对等),另一方面是技术保障的灵活能力,(涉及资源、策略、算法模型、数据等)

 

APP内容巡查 X 内容审核系统


博特智能APP内容巡查,是博特智能研发的移动应用端不良信息巡查的SaaS产品,可有效帮助企业持续开展自纠自查和专项内容治理。


在面向动态的违规信息和实时更新的UGC内容监控中,可以实现24小时对页面进行抓取,进行抽样专项巡查或者全量巡查,批量清理违规数据,并生成巡查报告,及时向企业发出漏审风险预警,制定下一阶段的内容风控工作计划。


在APP端,则无需让企业推送数据,内容巡查系统采用自动化控制技术与检测能力,对移动应用前端进行违规信息的精准挖掘。

内容审核系统,是基于人工AI智能技术,结合内容审核团队的专业筛查及智能内容审核系统全面管理,精准识别文本、图片、视频、音频四大类内容中的涉政、色情、低俗、骚扰、谩骂、灌水、广告、导流、诈骗等多类垃圾信息、敏感词及变种形态。

可提高各类场景下的审核效率和审核准确性,实时动态维护企业的内容安全,规避业务风险,节省内容审核的人力及管理成本,有效降低网络内容安全风险。