基于CUBI模型内容审核平台用户体验度量指标构建研究外文翻译资料

 2023-03-16 17:15:11

基于CUBI模型内容审核平台用户体验度量指标构建研究

摘要:当代互联网社会关于治理大量在线内容的辩论重新引起关注。通常,政策制定者和互联网内容行业参与者将人工智能作为解决围绕在线内容的复杂挑战的解决方案,然而,当前主动识别和自动删除用户生成的内容的解决方案会引发超出“准确性”和过宽问题的问题——更复杂的人工智能无法解决这些问题。在参考的外文文献中,我结合国外社交媒体审查的人工智能应用在facebook、twitter的经验,探索当今在内容审核平台中使用 AI 的可能性。同时还研究了企业可以从这些国外社交媒体巨头身上学到哪些可借鉴的经验教训。

关键词:人工智能,内容审核,机器学习

引用文献一:

用于社交媒体审查的人工智能——它如何在 Facebook、YouTube 和 Twitter 上运作

原文作者 Raghav Bharadwaj

单位 Frost amp; Sullivan

皮尤研究中心2017 年的一份报告发现,69% 的美国公民使用某种类型的社交媒体,如 Facebook、Twitter、Instagram 等。

根据 Hootsuite 的2018 年社交媒体趋势报告,社交媒体品牌将继续使用人工智能策略来“优先考虑大规模个性化服务”。这将涉及使用人工智能来利用社交数据作为客户洞察的来源。

随着最近关于俄罗斯干涉美国总统选举的指控和英国政治咨询公司剑桥分公司的下台,社交媒体审查和数据隐私已成为全球范围内事实上的讨论焦点。

本文介绍了 人工智能在 Facebook、Twitter 和 YouTube 等社交媒体平台上的实际应用。今天我们就来探讨一下人工智能在社交媒体应用中的应用,以及社交媒体平台是如何将人工智能应用于动态审查应用的。 我们还研究了企业高管可以从这些社交媒体巨头身上学到哪些可借鉴的经验。

Facebook

该公司正在使用人工智能为 Live 和 Messenger 提供自杀预防功能。除了在官方网页上指导用户发布自杀或自残信息时该怎么办外,该公司还在非营利组织的帮助下于 2015 年推出了另一种基于人工智能的工具倡导自杀预防和心理健康的组织。

根据华盛顿大学社会工作学院的说法,每当用户发现有人在社交媒体网站上发布令人不安的内容时,他们可以向 Facebook 报告。然后,该公司会审查帖子,并为遇险者提供选项,例如视频,例如展示从斗争中恢复过来的人们真实生活经历的视频。

举报该帖子的用户还可以选择联系遇险朋友、联系另一位朋友寻求额外支持,或拨打自杀求助热线。除了提供有关将他们的注意力转移到艺术、阅读和烹饪等生产活动上的建议外,Facebook 还会在需要时为该人寻找自我保健顾问。

根据Facebook 产品经理Vanessa Callison-Burch 的说法,人工智能工具是使用来自匿名历史 Facebook 帖子和 Facebook 实时视频的数据配置的,具有模式识别的底层,以预测某些人何时可能表达自杀或自残的想法。当系统使用预定义的预测输出触发值将帖子或Facebook直播标记为红色信号时,这些帖子将被路由到Facebook的内部审查员,由他们做出与第一反应者联系的最终决定。

Facebook 声称,他们的主动检测工具平均会在一个月内向德克萨斯州奥斯汀的当地急救人员发出大约 100 次警报。

Facebook 最近还在加拿大蒙特利尔开设了一个人工智能研究中心,作为其Facebook人工智能研究的一部分 (公平). 该实验室将由Joelle Pineau教授领导,他以前的工作包括为机器人、医疗、游戏和聊天机器人等对话代理的规划和学习开发新的算法。

人工智能总监Yann LeCun 表示,“人类孩子很快就能学会人类的对话和对世界的常识。我们认为有些东西我们还没有发现——一些我们还没有弄清楚的学习范式。我个人认为能够破解这个难题是人工智能取得真正进步的主要障碍之一。”

例如,Facebook 已经利用盲人或视障受众群体通过自动替代文本体验社交媒体平台。这项技术的工作原理是允许任何人在 Facebook 照片上滑动,并在ios设备上使用屏幕阅读器来收听图像包含的项目列表。

根据 Facebook 的新闻稿,“这是可能的,因为 Facebook 的对象识别技术基于具有数十亿个参数并经过数百万个示例训练的神经网络。物体识别技术的每一次进步都意味着 Facebook 无障碍团队将能够让更多人更容易使用该技术。”

YouTube

推荐系统提供了一种推荐类似产品的方法 (如亚马逊)、新闻文章和电视节目 给用户。 就YouTube而言,保罗·科温顿(Paul Covington)和他的谷歌(Google)数据挖掘专家团队将这家全球最大的视频共享网站描述为 “规模最大、技术最先进的行业推荐系统。”

该系统是基于深度学习人工智能的谷歌大脑驱动的。 它有一个收集用户信息的神经网络 (例如手表历史和用户反馈) 以及另一个神经网络,用于对所显示的所选视频进行排序

推荐技术负责人Jim McFadden描述了 Google Brain 为他的团队带来的解决方案:它的一个关键功能是它的推广能力。 而以前,如果我看了一个喜剧演员的视频,我们的推荐很擅长说,这里还有一个和它一样的。 但是谷歌大脑模型计算出了其他相似但不完全相同的喜剧演员——甚至更接近的关系。 它能看到不那么明显的图案。”

YouTube 最近还主动打击含有不符合其网站上发布的条款的“恐怖主义相关”内容的视频。在 2017 年 6 月谷歌总法律顾问 Kent Walker 的一篇博文中,谷歌有数千名用户和工程师负责审查和阻止恐怖主义相关内容的上传。 同时,它推出了一个机器学习工具,标记暴力极端主义视频,并将其报告给审查员核查。

该网站声称,自实施以来,该团队已经审查了超过100多万个视频,以提供数据来训练系统的标记能力。2017 年 9 月,人工智能团队在审核了每一次上传的视频后,就删除了83%的暴力极端主义视频。

YouTube利用其团队提供的解决有争议内容的历史数据,并在专家的人为指导下,声称他们能够利用机器学习实现内容最初红色标记的自动化。 在他们的博客中,他们还补充说,尽管该平台仍然不完美,但它已达到人类水平的准确性或在某些设置中更好。

在此之前,YouTube在 2017 年初面临来自广告商的巨大威胁,当时英国政府和 Havas 等广告公司发现他们的广告被放置在与极端主义相关的视频的旁边。一些从 YouTube 上撤下广告的品牌包括沃尔玛、强生和百事可乐。作为回应,YouTube 在其博客页面上表示,他们将继续提高技术的准确性,同时雇佣更多的人来帮助审查和执行政策。

总结性思考

在对待社交媒体审查的态度上,似乎大部分大型社交媒体平台都在遵循类似的人工智能应用曲线。 人工引导的人工智能培训似乎是这里的一个共同主题,事实上,内容审查已经是大多数这类公司的一个关键业务功能,这是配置ML平台以更准确、更快地运行的一个关键优势。

这些人工智能平台在社交媒体审查应用中的表现似乎也有共同之处,因为它们仍在进行中。 尽管有一些挫折 (例如YouTube) 而且应用程序已经被证明有一个陡峭的学习曲线,有一种感觉,就是在将来朝着使这些系统更有效率的方向前进。

外文文献出处:

Raghav Bharadwaj.AI for Social Media Censorship – How it Works at Facebook, YouTube, and Twitter[EB/OL]

https://emerj.com/ai-sector-overviews/ai-social-media-censorship-works-facebook-youtube-twitter/ ,2019/2/10.

引用文献二:

Facebook正在训练其人工智能审查“厌恶的模因”

原文作者 Tom Parker

单位 reclaimthenet

Facebook 最近承认,它对在德国国会大厦升起的苏联国旗标志性照片的审查是“算法错误”的结果,这种错误在大型科技平台使用人工智能 (AI) 时变得越来越普遍。

但是,尽管此类错误普遍存在,但大多数大型科技平台仍在继续加大对人工智能和自动化系统的使用以删除内容。

今天,Facebook 更新了其在该领域的努力,并透露其在 2020 年第一季度删除的“仇恨言论”内容中有 89% 被他们的“主动检测技术”删除,该技术使用人工智能来查找和审查“仇恨模因”和仇恨言论。

Facebook 还透露,用户上诉与仇恨言论相关的删除大多是徒劳的,用户上诉了 130 万条删除的内容中,仅恢复了 63600 条内容——成功率仅为 0.05%。

为了应对这一挑战,Facebook 创建了一个包含 10000 多个仇恨模因的数据集,并要求参与者开发“一种识别互联网模因中多模态仇恨言论的算法”。

Facebook 提供了三种它认为“刻薄”的模因样本,Facebook 认为,诸如此类挑战将加速检测多模态仇恨言论的工作。Facebook 越来越依赖人工智能来解决仇恨模因和仇恨言论,此前该公司因其过去的一些仇恨言论执法决定而受到批评。

今年 1 月, 剩余内容已隐藏,支付完成后下载完整资料


基于CUBI模型内容审核平台用户体验度量指标构建研究

摘要:当代互联网社会关于治理大量在线内容的辩论重新引起关注。通常,政策制定者和互联网内容行业参与者将人工智能作为解决围绕在线内容的复杂挑战的解决方案,然而,当前主动识别和自动删除用户生成的内容的解决方案会引发超出“准确性”和过宽问题的问题——更复杂的人工智能无法解决这些问题。在参考的外文文献中,我结合国外社交媒体审查的人工智能应用在facebook、twitter的经验,探索当今在内容审核平台中使用 AI 的可能性。同时还研究了企业可以从这些国外社交媒体巨头身上学到哪些可借鉴的经验教训。

关键词:人工智能,内容审核,机器学习

引用文献一:

AI for Social Media Censorship – How it Works at Facebook, YouTube, and Twitter

Keywords: social media , AI, dynamic censorship

A 2017 report by the Pew Research Center found that 69 percent of the American public use some type of social media, like Facebook, Twitter, Instagram, and others.

According to Hootsuitersquo;s 2018 Social Media Trends Report, social media brands will continue to use AI strategies to “prioritize personalization at scale.” This will involve using AI to leverage social data as a source of customer insights.

With the recent allegations of Russian interference in the American presidential elections and the ouster of Cambridge Analytica, British political consulting firm in the saga, social media censorship and data privacy have become de facto points of discussion in a global context.

This article presents real-world applications of AI for social media platforms like Facebook, Twitter and YouTube. We explore what is possible today with AI in social media applications and how social media platforms are using AI in dynamic censorship applications. We also look at what transferable lessons business executives can learn from these social media giants.

Facebook

The company is using AI to bring suicide prevention to Live and Messenger. Aside from its official page guiding users on what to do when someone posts about suicide or self-injury, the company launched another AI-based tools (which function through integration with Facebook posts and Facebook Live) in 2015 with the help of non-profit organizations advocating suicide prevention and mental health.

According to the University of Washingtonrsquo;s School of Social Work (which Facebook has also worked with to develop the tool), whenever users find someone posting something troubling on the social media site, they can report it to Facebook. The company then reviews the post and offer options for the person in distress such as videos featuring real-life accounts of people who have recovered from their struggles.

The user who reported the post will also be given the option to contact the friend in distress, contact another friend for additional support, or call a suicide helpline. Aside from offering recommendations on diverting their attention to productive activities such as art, reading and cooking, Facebook will also find a self-care advisor for the person when needed.

According to Vanessa Callison-Burch, Product Manager, Facebook, the AI tool was configured using data from anonymous historical facebook posts and facebook live videos with an underlying layer of pattern recognition to predict when some may be expressing thoughts of suicide or self harm. when the system identifies a post or Facebook Live broadcast as lsquo;red flaggedrsquo; by using a predefined trigger value for the prediction output, those posts are routed to Facebookrsquo;s In-house reviewers who, they make the final decision of contacting first responders.

The 1 minute video below shows how real Facebook posts are read aloud by the AI system, describing the content of individual images used in posts:

Facebook claims that their proactive detection tools on average results in around 100 instances where Facebook alerted local first responders in Austin, Texas over the course of a month currently.

Facebook has also recently opened an AI research center in Montreal, Canada as a part of their As part of Facebook AI Research (FAIR). the lab will be led by Professor Joelle Pineau, whorsquo;s previous work includes developing new algorithms for planning and learning in robotics, healthcare, games, and conversational agents like chatbots.

According to Yann LeCun, Director of AI, “Human children are quick at learning human dialogue and learning common sense about the world. We think there is something we havenrsquo;t discovered yet—some learning paradigm that we havenrsquo;t figured out. I personally think being able to crack this nut is one of the main obstacles to making real progress in AI.”

For example, Facebook has tapped the blind or visually impaired audiencesrsquo; community to experience the social media platform through automatic alternative text. This technology works by allowing anyone to swipe on Facebook photos and use screen readers on iOS devices to hear a list of the items that an image contains.

According to Facebookrsquo;s press release, “This is possible because of Facebookrsquo;s object recognition technology, based on a neural network that has billions of parameters and is trained with millions of examples. Each advancement in object recognition technology means that the Facebook Accessibility team will be able to make technology even more accessible for more people.”

Herersquo;s a short video demonstration of Facebookrsquo;s object recognition technology being used as a screen reader to enable persons with sight deficiencies to listen to descriptions of images:

For more examples of Facebookrsquo;s AI tools, you can read our previous article. Our interview with Facebookrsquo;s Hussein Mehanna, Director of Engineering of the core Machine Learning group, provides insights on how the tech giant is working to overcome tech barriers to implement personalization.

YouTube

Recommendation systems provide a way to suggest similar products (such as in Amazon), news articles (Huffington Post) and TV shows (Netflix) to users. In the case of YouTube, Paul Covington and his team of data mining experts at Google describe the worldrsquo;s largest video-sharing webs

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[595741],资料为PDF文档或Word文档,PDF文档可免费转换为Word

您需要先支付 30元 才能查看全部内容!立即支付

发小红书推广免费获取该资料资格。点击链接进入获取推广文案即可: Ai一键组稿 | 降AI率 | 降重复率 | 论文一键排版