验证码测试的范式转换:在规则中添加不确定性外文翻译资料

 2022-12-18 16:07:06

英语原文共 6 页,剩余内容已隐藏,支付完成后下载完整资料


验证码测试的范式转换:在规则中添加不确定性

Shinil Kwon, Member, IEEE, and Sungdeok Cha, Member, IEEE

Abstract:验证码测试通常会被软件正确解决,而人类却越来越难以通过。如果对测试的正确反应保持不变,机器人可以从意外的成功中收集宝贵的信息,并通过基于启发式的学习轻松地战胜未来的挑战。我们建议通过在挑战中引入不确定性来从根本上改变基于图像的验证码系统的规则。在加入中立角色时,某些图像会在决策过程中被暂时排除。但是,相同的图像可能会在未来的挑战中出现作为投票成员。因此,即使使用相同的图像,两个挑战的成功响应也可能是不同的,从而有效地消除了启发式攻击的威胁。为了进一步降低机器人意外通过挑战的机会,分析了对中性图像做出的决策。如果作为投票成员参与的中性图像结果会有所不同,我们会将它们添加到“陷阱”数据库中,并将其包含在未来的挑战中。实验评估表明,所提出的方案几乎总能击败强大的机器人(例如,由搜索引擎辅助并配备启发式学习算法的机器人)并且人类依然能够容易地通过挑战。

Keywords: 自动图灵测试;验证码;基于启发式的攻击;

一、简介

基于文本的验证码(完全自动化的公共图灵测试)技术,由于它的广泛使用,变得不再好用。正如Chellapilla等人所感叹。 [1],识别文本验证码对计算机来说比人类更容易。已部署的验证码系统(例如,Gmails CAPTCHA [2],Yahoo EZGimpy [3],[4],[5]或Microsofts Live服务[6],[7])已受到损害。随着更多的扭曲被应用,当文本过于扭曲而无法正确识别时,人类会越来越感到沮丧。

基于图像的验证码是一种很有前途的替代方案。虽然计算机视觉算法很强大,但它们在回答语义问题时仍然很弱(例如,点击比尔盖茨出现的所有图像)。为了使基于图像的验证码系统在实践中变得有效,在防止机器人发起的攻击时,人类也必须容易解决这些挑战。全球互联网公司报告称,每天都有数百万次机器人创建帐户。必须假设机器人配备了启发式学习算法,提供“无限的永不失效的记忆”。如果机器人幸运地通过挑战,它可以记录所有相关信息,以便在未来的攻击中使用。此外,机器人可以使用商业搜索引擎来检索图像标签或类似图像。

在本文中,我们提出了一种保护基于图像的验证码系统以免受启发式攻击威胁的方案。 在第2节中,我们简要回顾了目前基于图像的验证码系统的局限性。 第3节描述了我们方法的主要贡献:1)“中性”图像为决策过程带来了不确定性; 2)陷阱图像提供定制的保护机制。 我们在“http://dependable.korea.ac.kr/captcha/”上实现了我们作为基于Web的应用程序的想法,并使用我们可以想象的最复杂的机器人进行了实验。 我们使用没有计算机科学或安全专业知识的26人进行了另一项实验。结果令人信服地证明,我们的技术几乎总能击败机器人,而人类可以轻松应对挑战。 第5节总结了论文并讨论了值得进一步研究的主题。

二、相关研究

基于图像的验证码,由Von Ahn等人首先提出。 [8]通常属于语义或模式方法。 Asirra [9]是前者的一个例子,其中显示了猫和狗的图像。用户应该从12个随机选择的图像中单击符合的图像。但是这种方法的可伸缩性是有问题的,因为必须手动验证和标记数据库中的所有映像。它也容易受到启发式学习攻击。只要随机猜测成功,机器人就可以维护自己的图像数据库。迟早机器人可以收集足够的数据,然后根据过去成功收集的信息通过挑战。如果使用商业搜索引擎提取和单独分析组件图像,则通过率将更高。

Rui和Liu [10]开发了一种名为ARTiFACIAL的基于模式的系统,以排除手动标记过程。要求用户从3D面部图像阵列中点击六个面部角点(例如,四个用于眼睛,两个用于嘴)。不幸的是,由于在图像上施加的变形(例如,阴影或照明),用户经常发现难以通过的挑战。对于配备有先进视觉算法的机器人来说,这些挑战可能并不困难。朱等人[11]报告了18%的渗透率,且使用测量候选面部组件之间距离的机器学习算法使ARTiFACIAL系统几乎无用。

朱等人提出Cortcha系统作为替代方案。它会裁剪图像的一部分并用诱饵图像填充该区域。要求用户在八个候选者中正确定位裁剪后的图像并将其拖动到正确的位置。虽然Cortcha系统可以自动生成独特的挑战,但它对于强大的模式匹配算法或搜索引擎辅助的机器人来说还不够强大。如果可以在Internet上检索挑战中使用的原始图像,那么击败Cortcha系统非常容易。

除了应用失真技术(例如,对象缩放,网格扭曲,局部色移和半规则对象杂乱)之外,还存在其他生成挑战的建议,最好是从图像的语义理解可以得到成功的响应。 IMAGINATION系统[12]引入了两步过程。动态生成具有八个组件的合成图像,并且要求用户选择一个。在选择时,应用失真机制,并且用户必须在失真图像上提供期望的标签名称(例如,“tiger”)以通过。不幸的是,过度扭曲可能导致人类频繁失败。语义解释引起的失败是另一个需要考虑的因素。例如,区分狼和狐狸很难。

决策过程的静态性质是当前验证码系统中最严重的漏洞。例如,如图1所示,可能会要求用户选择Bill Gates出现的所有图像。传统的基于图像的验证码技术只有一个正确的响应,它永远不会改变。也就是说,在下文中仅存在两种类型的图像,称为Must(M)或Must-Not(MN)。必须选择所有M个图像,并且不得包含MN图像。如果每个图像在所有挑战中只扮演一个角色,机器人可以通过随机猜测和简单的启发式学习轻松击败CAPTCHA系统,因为所有参与图像的身份会在意外通过时完全显露出来。

三、应对基于启发式攻击的建议方法

我们提出的方法,如图2所示,使用“中性”图像的概念将随机和临时不确定性引入决策过程。中性图像随机地位于合成图像中。相对于给定的挑战,每个图像在内部标记为M或MN。作为成员参与时,其选择或不选择将对结果产生直接和直接的影响。

当这些图像中的一些被秘密和临时的视为中性图像(例如,图1中标记为a和b的图像)时,忽略对它们做出的决定。机器人可以选择具有MN标签的图像(例如,图像b),并且当被视为中性图像时仍然意外地通过挑战。即使具有M标签(例如,图像a)的图像在用作中性图像时未被选择,也可能发生意外通过。理念类似于陪审团成员,其身份只有法官才知道(例如,验证码系统)。虽然陪审员投下的所有选票似乎都很重要,但法官会暗中无视无表决权成员的投票。

图1. 挑战样例: “选择所有比尔盖茨可能出现的图片”

图2. 提出具有陷阱的中性验证码

关键的想法是这种角色切换是随机发生的。也就是说,给定图像的任何组合,每个图像所扮演的角色,成功的响应在不同的挑战中是不同的。由于没有关于每个组件图像将扮演哪个角色的预先信息,因此机器人无法从随机的成功中学习。中性图像消除了启发式攻击的威胁。

陷阱图像数据库是另一种强大的机制,可进一步降低机器人通过挑战的机会。陷阱图像系统监视成功响应的响应模式,并维护最有可能有效击败机器人攻击的图像列表。陷阱数据库最初是空的,并且在简单的实现中,它将记录关于源IP的信息以及如果他们没有作为中性图像参与则会导致失败的图像列表。它包括具有未选择的M个标签的图像以及在成功响应中选择了MN标签的图像。人类有时会犯错误,但这种错误不太可能重演。然而,机器人极有可能重复相同的决定,特别是如果他们得到启发式学习算法或搜索引擎的辅助。因此,从陷阱数据库中获取一个或两个图像可能足以击败机器人,因此陷阱图像可用作有效的,自我实现的和永久性的陷阱。

我们仅在通过挑战时更新陷阱数据库,以便最小化我们的机制受到机器人软件启动的会话间接影响的可能性。必须注意的是,保留在陷阱数据库中的图像决不会相对于挑战改变图像的内部标签(例如,M或MN)。使用DHCP((动态主机配置协议)或NAT(网络地址转换)时,多个IP可能会出现类似的模式。可以使用决策树机制来识别它们并将它们组合在一起。对陷阱数据库的正确管理也是一个关键问题。在检测到某些陷阱图像来自相同IP的冲突行为后,可以从陷阱数据库中删除它们。

验证码挑战的难度可以很容易地调整。每个挑战必须分别包括来自M和MN数据库的至少一个图像。否则,暴力攻击就会成功。在挑战中包含更多图像将降低机器人通过猜测通过挑战的可能性。

四、实验评估

验证码技术的实验评估分两个阶段进行。首先,模拟由启发式学习算法或搜索引擎辅助的机器人的穿透率。通过Google搜索引擎检索的12,388张图片被手动验证,并分配了M或MN标签。比尔盖茨有4,033张图片,而8,355张图片则没有。每个验证码挑战包括22个图像,并且至少14个图像作为成员参与。最多八个图像被随机地暂时处理为中性图像。部署陷阱方案时,从陷阱数据库中随机抽取1或2个图像。

另一项实验涉及26名不被视为计算机科学专家的人。但是,所有人都知道比尔盖茨是谁。对于该实验,我们使用17,356个图像(即分别具有M和MN标签的5,191和12,165个图像),其包括在机器人模拟实验中使用的所有图像。我们将参与者分成两组,每组按不同顺序进行验证码测试。 11名参与者从一开始就激活了陷阱数据库,开始进行验证码测试。虽然最初是空的,但每个参与者误认的图像与用户IP地址一起被添加到陷阱数据库中。在验证码挑战会话中途,陷阱机制被禁用,从而使验证码挑战更容易通过。对于其余部分,陷阱机制最初被禁用,但在验证码会话的后半部分被激活。我们想研究陷阱机制对不同环境中人类成功率的影响。

  1. 机器人

基于启发式学习算法辅助的机器人行为模拟如下:1)如果显示以前看不见的图像,机器人随机选择是否点击; 2)每当机器人通过挑战时,所有选择的图像分别存储在M图像的“盗版”数据库中。其余的保存在盗版MN数据库中; 3)当挑战失败时,M和MN的盗版数据库不会更新。

虽然随机猜测成功的可能性非常小,但每次成功都会导致学习多达22个图像的真实身份。当所有22个图像都参与决策时,需要启发式算法24,510,000次尝试来学习池中12,388个图像的身份。当多达8个图像暂时被指定为中性图像以引入不确定性时,机器人在重复2,250,000次之后实现并保持约2.3%的穿透率。机器人减少了尝试次数,因为作为投票成员参与的图像较少。成功率保持在约2.3%,因为中性图像不断向启发式学习算法提供可能的混淆和不正确的信息。

M和MN图像的盗版数据库存在一定程度的不准确性,机器人从未有机会纠正其错误。我们的分析显示,在由机器人维护的盗版数据库中,2,465(或约19.9%)图像被错误地标记。例如,带有M标签的图像作为MN标签存储在盗版数据库中,因为它被设置为中性图像,机器人幸运地通过了挑战而没有点击它,反之亦然。当“可信”信息被证明不正确时,可能会更新M和MN的海盗数据库。然而,确定22个图像中的哪一个导致拒绝似乎很难弄清楚。详细信息请参见图3。

通过部署陷阱图像,机器人很少(如果不是永远的话)可以穿透建议的CAPTCHA系统。机器人的模拟成功率仍然可以忽略不计,几乎为零。我们的系统永远不会错过机器人造成的错误,未来的挑战中肯定会包含一两个这样的图像。

当搜索引擎协助机器人时,我们假设可以检索与每个组件图像相关联的标签。仅当标记包含挑战中使用的关键字时,机器人才会单击图像。我们对使用比尔盖茨作为关键字的Google图像搜索引擎的初步分析报告了大约80.5%的准确率。所有检索到的图像肯定是相关的(例如,他的豪宅或女儿的照片),但有些图像显然是不正确的。我们的模拟显示,如果所有22张图像都参与决策,则渗透率约为0.82%。成功率略有不同,具体取决于挑战中随机选择的图像。

当一些图像被视为中性图像时,成功率增加到并保持在2.71%左右。 由于假设启发式学习算法不是同时进行的,因此中性图像不会引起混淆。 中性图像仅导致参与决策的图像数量减少,并且导致了略高的成功率。 然而,陷阱机制在击败机器人方面同样有效。 在我们的分析中,使用包含比尔盖茨作为关键字的标签包含了1,379个不正确的图像,并且测试中包含这些图像总是可以完美地击败机器人。

图3.启发式算法辅助机器人攻击的成功率

图 4. 搜索引擎辅助机器人攻击的成功率

B.人类

为了避免潜在的偏见,我们排除了从计算机科学专业的4个人中获得的早期结果。 26名参与者参加了4,266次CAPTCHA测试。当中性图像被随机插入并且陷阱机制被禁用时,我们观察到平均成功率约为79.3%。尽管所有参与者都知道比尔盖茨是谁,但有些人在30年前的照片中未能认出他。在一些照片中,比尔盖茨在合影中并没有在视觉上明显的显示出来。在某些情况下,比尔盖茨的卡通形象被参与者弄错了。

随着陷阱机制的部署,平均成功率从79.3%下降到64.5%。特别是当最初激活陷阱机构时,成功率低至57.3%。然而,人们开始从早期的失败中学习并理解他们失败的原因。随后的验证码会话通常比较早的会话更成功,平均成功率最终回升至70.7%。学习曲线的效果在图5中是视觉上明显的,其显示了记录的验证码会话的每个季度的平均成功率。

五、结论

在本文中,我们提出结束永不停止的人类与复杂的机器人之间的竞争。目前的验证码系统无法有效应对机器人且难以用于人类。随着决策算法中不确定性规则的引入,我们可以证明,机器人无论其复杂程度如何,都可以被有效地强制进行猜谜游戏,其中随机成功的机会可以保持在可忽略的水平。对挑战的正确反应很少是静态的,机器人被迫继续玩猜谜游戏。通过改变挑战中使用的投票(例

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[20081],资料为PDF文档或Word文档,PDF文档可免费转换为Word

您需要先支付 30元 才能查看全部内容!立即支付

发小红书推广免费获取该资料资格。点击链接进入获取推广文案即可: Ai一键组稿 | 降AI率 | 降重复率 | 论文一键排版