人工智能算法下不同内容审核机制能遏制虚假信息的发布吗?

最新文章

社会法规明确了虚假信息的发布是应当被遏制的行为,将这个责任落实到具体的发布者本身十分重要。考虑到网络信息的发布具有复杂性,目前各大网络媒体平台都被要求建立内部信息审核审核机制,平台管理者有责任对其用户发布的内容进行管控。

一方面,多数平台采用实名注册的方式推动其用户进一步完善身份信息认证,并以此作为开放平台服务的基础。平台用户信息的录入是建立信息确认关系网的基础,保证遇到相关内容问题时能够将责任落实精确到具体对象。

另一方面,对于网络媒体平台用户生产内容的发布未经核实的信息严禁转发。尚未证实的UGC内容,甚至是媒体同行发布的内容都存在虚假消息的可能,因此必须经过再次核实之后才可转发,带有强烈观点的内容也要谨慎转发。


1、智能审核系统的必要性
庞大内容产生的数据单独依靠人工审核无法筛选出有价值的新闻内容,目前我国成熟的网络媒体内容平台普遍在人工审核的基础上采用了人工智能内容审核系统,这种双层审核的方式对在线信息验证技术也提出了更高的要求。

网络媒体平台开发信息对核心验证方式有两种,分别是使用智能内容审核系统和通过大众协作的方法来验证信息真假。单一依靠技术要达到有效把关,可以高效过滤虚假信息,但人工审核作为对算法的补充就显得尤为重要,尤其涉及语句、语义等问题需要借助人工审核。

用户发布内容后,媒体发现有新闻价值的信息时人工智能对其进行技术层面的审核,审核通过的内容再由人工编辑对其文本内容的意义进行审核。人工审核团队的优势在于能对语义进行分析,在确认内容符合规范并且适宜传播后,平台相关内容才能够公之于众。由于网络海量信息要对其内容进行逐一核实,对人工来说是一项不可能完成的任务,这就需要技术的不断完善弥补人工。此外,信息的核实过程需要时间,一定程度上影响信息的时效性,因此要不断完善技术来提高审核效率。


2、智能审核系统的功能性
出于对内容审核时间成本的考虑,包括 
@图普科技
 在内的一流技术服务平台的智能内容审核系统提供图片识别功能。用户只需要将图片照片上传平台,智能审核系统将自动启动检索技术分析该图片是否存在包括文本识别在内,含广告、色情、暴力元素,在海量数据库的基础上提供出色的审核能力。

在新闻图片验证方面,部分海外在线验证平台可通过图片的拍摄时间、光圈大小等信息来判断图片是否真实存在,再通过验证工具检测图片是否经过处理,大幅度减少网络上新闻图片与真实图片不符的情