游戏论坛利用AI审核的高效应用 内容审核

最新文章

与传统的社交渠道相比,网络游戏社交平台的媒体内容制作模式、沟通模式和组织合作模式有很大的不同,最明显的区别是信息制作和信息传播的分离。

目前,主流聚合平台主要负责信息的传播和运营。游戏论坛上的内容种类繁多,内容质量参差不齐,一切混淆视听的负面评论同样也会带来内容风险,也有可能影响游戏子文化的生产。

因而上传的论坛内容必须经过审核才能传播,平台的功能内容审计团队对人工智能算法也因此有很大的需求。

人工智能审计可以通过机器人文本识别技术标记论坛帖子与评论中可疑的非法内容。结合过滤、召回和删除的手段去除一些明显的错误内容(或标记一些可疑的错误和模型内容,之后与人工审计团队合作判断)。

当标题、关键词或基本语义词错误时,机器算法将对这些数据进行评分,评分超过一定阈值,将标记不同颜色的错误或分组。


1. 文本识别标记

文本识别技术主要基于算法,操作和审计人员不断更新关键字库,输入相关非法内容,通过算法技术不断培训,提高机器判断的准确性。

这一步主要是在论坛内容发布前后通过风险模型对信息进行监控和过滤,并根据不同类别的低质量模型等技术检查内容中可能出现的失范问题。

2. 风险内容识别

与文本识别技术不同,风险内容识别不仅基于对内容本身的分析和判断,还包括一系列后续行为,如论坛媒体传播后用户的反馈、赞、踩、分享、报告等。

风险内容识别不仅会在论坛帖子发布前判断内容,还会在发布后实时进行监控。因为如果没有风险内容识别技术对发布的信息内容进行二次识别和监控,导致内容广泛传播,可能会对平台本身产生不良影响,甚至被要求平台整顿等问题。

因而风险内容识别技术是可以支持内容传播过程中的反馈,删除不良内容和言论,抑制和减少低质量内容,以确保内容在审计和发布后是合规和合法的。

利用算法审计技术,可以基本判断和识别平台每天生产的数百万信息内容,确保所有论坛中的内容都经过审计流程。

如果算法审计技术没有发现内容异常,且发布帖子的账户级别权益较高(在过去,没有非法历史),帖子所发布的内容可以跳过人工审计阶段,直接由游戏论坛平台发布。

一般来说,随着算法技术和培训模型的不断优化、培训文本的不断增加,人工智能算法内容审计技术将不断提高准确性,场景的应用也将不断增加。

算法审计技术的发展简化了审计从业人员对新闻内容的判断,有效提高了审计效率,减少了内容的积压,确保了内容的快速发布和传播,降低了人工审计的成本和压力。

凭借多年的审计产品运营经验,国内优质内容安全平台谛听安全积累了大量的数据,具有更全面的审计维度和行业领先的过滤能力,为游戏厂商获取内容提供更可靠、更高质量的内容审查与风控管理。