智能生活

您现在的位置: 首页 > 智能生活

为什么AI不能解决Facebook的虚假新闻问题

作者:灯塔大数据    来源:灯塔大数据   发布时间:2018-04-11 09:37:52

  【流媒体网】摘要:Facebook现在面临着许多问题,但其中有一个需要长时间面对——虚假新闻。


 

  Facebook现在面临着许多问题,但其中有一个需要长时间面对——虚假新闻。当公司的用户群成长到超过地球人口的四分之一,它就要努力控制用户的发表和分享。对于Facebook来说,不受欢迎的内容可以是轻微的裸露,也可以是严重的暴力,但事实证明,对公司来说最敏感和最具破坏性的是恶作剧和错误信息,尤其是当它具有政治倾向时就更为严重。

  那么Facebook将如何应对?目前,公司似乎还没有一个明确的战略。Facebook实验了很多方法——雇佣更多的人类版主(截至今年二月约7500人左右)、为用户提供更多关于新闻来源的信息,而在最近的采访中,Mark Zuckerberg表示公司可能建立某种独立部门来决定哪些内容是符合犹太教规的。专家称,Facebook若想把所有工作交给人工智能,则需要非常小心。

  在纽约时报采访剑桥分析丑闻时,Zuckerberg透露,去年阿拉巴马州的特别选举,公司“部署了新的AI工具来识别假户口、假信息”。他指出,这些是马其顿账户(假新闻营利业务中建立的中心),公司后来澄清说,已经部署机器学习来发现“可疑行为而无需评估内容本身”。

  这是一个明智之选,因为当涉及到假新闻时,人工智能也并没有那么“智能”。

  1、AI不理解假新闻,因为AI不理解人类的写作方式

  应用人工智能来自动过滤假新闻其实很难。从技术角度来看,AI根本无法理解人类写作的方式,因此屡屡碰壁。它可以提取某些事实并进行粗略的情绪分析(比如根据关键词猜测某段内容是“快乐”还是“愤怒”),但它考虑不到语气的细微差别、文化背景,更不能联系到新闻牵涉的人员以证实信息。退一步讲,即使这些它都能做到,也只能消除最明显的错误信息以及规避恶作剧,但最终还是会遇到一些混淆视听的边缘案例。如果人类都不能对“假新闻”作出判断,那么我们就更无法教导机器判断。

  过去,使用人工智能处理假新闻很快就遇到了问题,比如去年举办的“虚假新闻挑战赛”——众包机器学习解决方案的竞赛(众包指的是一个公司或机构把过去由员工执行的工作任务,以自由自愿的形式外包给非特定的(而且通常是大型的)大众网络的做法)。卡耐基梅隆大学的院长Pomerleau帮助组织挑战,但他和他的团队很快意识到,AI无法独自解决这个问题。

  “实际上,我们制定了一个更宏伟的目标,即创建一个系统,让它可以回答‘这是不是一条假新闻?’,但我们很快意识到,机器学习无法完成这个任务。”

  Pomerleau强调,理解力是关键,语言表达非常微妙,特别是在线上,我们可以转向Tide pod(汰渍洗衣球)这个例子。康奈尔大学教授James Grimmelmann在最近关于假新闻和平台节制的文章中讲到,互联网的反讽使人很难判断真诚和意图。 Facebook和YouTube也在今年1月试图删除Tide Pod挑战视频时发现了这一点(Tide Pod挑战:人们发现Tide Pod长得特别像一种美味的小吃,但它其实只是一种洗涤产品,不可食用)。

 

  一个YouTube视频的缩略图,它想表达得可能是赞成Tide Pod挑战,也可能是反对,还有可能是二者兼有。

  Grimmelmann讲到,在决定删除哪些视频时,公司会面临两难的境地。“很容易就能找到人们拿着Tide Pod的视频,他们摆出很想吃的表情,然后又告诉大家不能食用Tide Pod,很危险。但这些视频是真的告诉大家不要食用Tide Pod吗?还是他们表面上声称要抵制食用,只是以此来激起对食物的兴趣?又或者是两种意思都有?”

  用AI处理这个问题太过复杂,最终,Pomerleau在“虚假新闻挑战赛”中只要求团队完成一项简单的任务:制作一种算法,只需找出涵盖相同主题的文章即可,这是他们非常擅长的。

  有了这个工具,人类可以将一个事件标记为假新闻(例如,声称某个名人已经死亡),然后AI将删除该假新闻的所有相关消息。Pomerleau说,“机器学习能做的最好的事情就是帮助审核人员完成工作。”

  2

  即使事实核查员在岗,Facebook仍然依赖算法

  这似乎是Facebook的首选方法。例如,在今年的意大利选举中,公司聘请了独立的审核人员来标记虚假新闻和骗局。若有问题的链接没有被删除,当用户分享时,链接会被贴上了“第三方事实核查员存在争议”的标签。不幸的是,即使这种方法也存在问题,最近哥伦比亚新闻评论的一篇报道强调了事实核查员对Facebook的许多不满。参与调查的记者说,他们经常不清楚为什么Facebook的算法会要求他们检查某些事件,而以散布谎言和阴谋论而闻名的网站却根本没有被检查过。

  然而,在这些方面的确有算法的一席之地。虽然人工智能不能在清除假新闻上做复杂的工作,但它可以做类似于过滤垃圾邮件一样的重复工作。例如,任何拼写和语法不好的东西都会被删掉,或者是那些依靠抄袭来吸引读者的网站。在阿拉巴马州举行的特别选举中,Facebook的目标是“试图散布假消息”的假新闻,而当它来自已知的虚假信息时,就能相对容易地锁定假新闻。

  不过专家说,这是人工智能目前能力的极限。康奈尔科技大学信息科学副教授Mor Naaman讲到,即使是这些简单的过滤器也会产生问题,“分类通常基于语言模式和其他简单的信号,这很可能会把诚信可靠的出版商和虚假新闻的发布者混淆在一起”。

  另外,Facebook还面临着一个潜在的困境。为了避免受到审查的指责,社交网络都会公开其用来识别假新闻的算法。但如果太开放的话,人们就可以避开算法过滤违规操作。

  对于纽约大学法学院的教学研究员Amanda Levendowski来说,这就是她所说的“硅谷谬论”。在谈到Facebook的人工智能时,她认为这是一个常见的错误,“公司开始说,‘我们存在问题,我们必须做点什么’,而不是仔细考虑这是否会产生新的问题。”Levendowski补充说,尽管存在这些问题,科技公司追求人工智能仍有很多理由,比如改善用户体验,甚至是减轻法律责任风险。

  Facebook现在面临着许多问题,但其中有一个需要长时间面对——虚假新闻。当公司的用户群成长到超过地球人口的四分之一,它就要努力控制用户的发表和分享。对于Facebook来说,不受欢迎的内容可以是轻微的裸露,也可以是严重的暴力,但事实证明,对公司来说最敏感和最具破坏性的是恶作剧和错误信息,尤其是当它具有政治倾向时就更为严重。

  那么Facebook将如何应对?目前,公司似乎还没有一个明确的战略。Facebook实验了很多方法——雇佣更多的人类版主(截至今年二月约7500人左右)、为用户提供更多关于新闻来源的信息,而在最近的采访中,Mark Zuckerberg表示公司可能建立某种独立部门来决定哪些内容是符合犹太教规的。专家称,Facebook若想把所有工作交给人工智能,则需要非常小心。

  在纽约时报采访剑桥分析丑闻时,Zuckerberg透露,去年阿拉巴马州的特别选举,公司“部署了新的AI工具来识别假户口、假信息”。他指出,这些是马其顿账户(假新闻营利业务中建立的中心),公司后来澄清说,已经部署机器学习来发现“可疑行为而无需评估内容本身”。

  这是一个明智之选,因为当涉及到假新闻时,人工智能也并没有那么“智能”。

  1、AI不理解假新闻,因为AI不理解人类的写作方式

  应用人工智能来自动过滤假新闻其实很难。从技术角度来看,AI根本无法理解人类写作的方式,因此屡屡碰壁。它可以提取某些事实并进行粗略的情绪分析(比如根据关键词猜测某段内容是“快乐”还是“愤怒”),但它考虑不到语气的细微差别、文化背景,更不能联系到新闻牵涉的人员以证实信息。退一步讲,即使这些它都能做到,也只能消除最明显的错误信息以及规避恶作剧,但最终还是会遇到一些混淆视听的边缘案例。如果人类都不能对“假新闻”作出判断,那么我们就更无法教导机器判断。

  过去,使用人工智能处理假新闻很快就遇到了问题,比如去年举办的“虚假新闻挑战赛”——众包机器学习解决方案的竞赛(众包指的是一个公司或机构把过去由员工执行的工作任务,以自由自愿的形式外包给非特定的(而且通常是大型的)大众网络的做法)。卡耐基梅隆大学的院长Pomerleau帮助组织挑战,但他和他的团队很快意识到,AI无法独自解决这个问题。

  “实际上,我们制定了一个更宏伟的目标,即创建一个系统,让它可以回答‘这是不是一条假新闻?’,但我们很快意识到,机器学习无法完成这个任务。”

  Pomerleau强调,理解力是关键,语言表达非常微妙,特别是在线上,我们可以转向Tide pod(汰渍洗衣球)这个例子。康奈尔大学教授James Grimmelmann在最近关于假新闻和平台节制的文章中讲到,互联网的反讽使人很难判断真诚和意图。 Facebook和YouTube也在今年1月试图删除Tide Pod挑战视频时发现了这一点(Tide Pod挑战:人们发现Tide Pod长得特别像一种美味的小吃,但它其实只是一种洗涤产品,不可食用)。

  

微信图片_20180411094236.jpg

 

  一个YouTube视频的缩略图,它想表达得可能是赞成Tide Pod挑战,也可能是反对,还有可能是二者兼有。

  Grimmelmann讲到,在决定删除哪些视频时,公司会面临两难的境地。“很容易就能找到人们拿着Tide Pod的视频,他们摆出很想吃的表情,然后又告诉大家不能食用Tide Pod,很危险。但这些视频是真的告诉大家不要食用Tide Pod吗?还是他们表面上声称要抵制食用,只是以此来激起对食物的兴趣?又或者是两种意思都有?”

  用AI处理这个问题太过复杂,最终,Pomerleau在“虚假新闻挑战赛”中只要求团队完成一项简单的任务:制作一种算法,只需找出涵盖相同主题的文章即可,这是他们非常擅长的。

  有了这个工具,人类可以将一个事件标记为假新闻(例如,声称某个名人已经死亡),然后AI将删除该假新闻的所有相关消息。Pomerleau说,“机器学习能做的最好的事情就是帮助审核人员完成工作。”

  2、即使事实核查员在岗,Facebook仍然依赖算法

  这似乎是Facebook的首选方法。例如,在今年的意大利选举中,公司聘请了独立的审核人员来标记虚假新闻和骗局。若有问题的链接没有被删除,当用户分享时,链接会被贴上了“第三方事实核查员存在争议”的标签。不幸的是,即使这种方法也存在问题,最近哥伦比亚新闻评论的一篇报道强调了事实核查员对Facebook的许多不满。参与调查的记者说,他们经常不清楚为什么Facebook的算法会要求他们检查某些事件,而以散布谎言和阴谋论而闻名的网站却根本没有被检查过。

  然而,在这些方面的确有算法的一席之地。虽然人工智能不能在清除假新闻上做复杂的工作,但它可以做类似于过滤垃圾邮件一样的重复工作。例如,任何拼写和语法不好的东西都会被删掉,或者是那些依靠抄袭来吸引读者的网站。在阿拉巴马州举行的特别选举中,Facebook的目标是“试图散布假消息”的假新闻,而当它来自已知的虚假信息时,就能相对容易地锁定假新闻。

  不过专家说,这是人工智能目前能力的极限。康奈尔科技大学信息科学副教授Mor Naaman讲到,即使是这些简单的过滤器也会产生问题,“分类通常基于语言模式和其他简单的信号,这很可能会把诚信可靠的出版商和虚假新闻的发布者混淆在一起”。

  另外,Facebook还面临着一个潜在的困境。为了避免受到审查的指责,社交网络都会公开其用来识别假新闻的算法。但如果太开放的话,人们就可以避开算法过滤违规操作。

  对于纽约大学法学院的教学研究员Amanda Levendowski来说,这就是她所说的“硅谷谬论”。在谈到Facebook的人工智能时,她认为这是一个常见的错误,“公司开始说,‘我们存在问题,我们必须做点什么’,而不是仔细考虑这是否会产生新的问题。”Levendowski补充说,尽管存在这些问题,科技公司追求人工智能仍有很多理由,比如改善用户体验,甚至是减轻法律责任风险。

责任编辑:侯亚丽
版权声明:凡来源标注有“流媒体网”字样的文章,版权均属流媒体网站,如需转载,请注明出处“流媒体网”。非本站出处的文章为本站转载,观点供业内参考,不代表本站观点。

相关新闻

{$Hits}