Twitter测试全新审核工具 告诉用户使用攻击性语言回复前需三思

  据外媒 The Verge 报道,Twitter 正在尝试使用一种新的审核工具,在用户发布包含该公司所说的“有害”语言的回帖之前,将警告用户。Twitter 将其描述为一个有限的实验,而且只针对 iOS 用户。Twitter 官方支持频道的一条消息称,现在应该是在某些情况下会弹出的提示,“如果你的回复中使用了可能有害的语言,你可以选择在发布之前修改你的回复”。

G[LT{AYD{7$VDUPSG`9.png

  这个方法并不是全新的,之前已经被不少其他社交平台使用过,最突出的是 Instagram。这款由 Facebook 拥有的应用现在在用户发布标题前会警告用户,并附上一条消息,称该标题 “看起来与其他被报道的标题相似”。在这一变化之前,Instagram 在去年夏天推出了针对评论的警告系统。

  目前还不清楚 Twitter 是如何给有害语言贴上标签的,但该公司确实有仇恨言论政策和一份更广泛的 Twitter 规则文件,其中列出了它对从暴力威胁、恐怖主义相关内容、以及虐待和骚扰等一切内容的立场。Twitter 表示,它不会仅仅因为一些内容具有攻击性就将其删除:“人们可以发布内容,包括可能具有煽动性的内容,只要不违反 Twitter 规则。”但该公司确实拥有允许它对其广泛的言论政策进行例外处理的规则。

  尽管如此,这个新的实验似乎并不那么关注于遏制那些更极端的内容形式,而 Twitter 通常会对这些内容进行删除、暂停或禁止用户。相反,它似乎更多的是为了告诉用户避免使用不必要的和煽动性的语言,因为这些语言会使矛盾升级并可能导致账户被关停。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注