用人工智能打击人工智能

原作者: 人工智能 收藏 分享 邀请

人工智能图片

动画《成龙历险记》中“老爹”这一脚色曾有一句名言:“要用魔法击败魔法。”跟着AI手艺的成长以及部门滥用,这句话也被使用在了人工智能上,一场新的武备比赛最先了:人工智能vs人工智能。

人工智能在冲击得逞信誉卡讹诈方面获得了严重停顿:我们年夜大都人都收到过信誉卡发卡机构发来的动静,以确认收集立功分子的得逞采办行动。操纵机械进修来编译“分解身份”(Synthetic identities),显示其信誉卡持有人的凡是行动形式,金融机构可以及时发明异常行动。但是不幸的是,收集罪犯异样也操纵人工智能建立本身的分解身份,发生的成果也足够真实,足以捉弄发明异常行动的人工智能。

这场人工智能之战——也是冲击收集平安讹诈者,正在假旧事、假视频和假音频的战壕中睁开。就如许,一场新的武备比赛最先了:人工智能vs人工智能。

Jupiter Research的Steffen Sorrell暗示,分解身份是信誉卡讹诈“轻易完成的方针”。按照Jupiter Research最新的在线付出讹诈陈述,到2024年,分解身份鞭策在线付出讹诈给坏天然成2000亿美元的丧失。对大好人来说,这也将鞭策讹诈检测市场同期到达100亿美元,高于本年的85亿美元。

“在线讹诈发作在高度发财的、存在分工的生态零碎中,”位于美国爱达荷州博伊西的基于ID的反讹诈企业Kount Inc的人工智能迷信主管Josh Johnston说,收集立功分子专门从事分歧类型的立功,从手动“刷卡”到用人工智能建立分解身份。Johnston说:“还有一些人针对慈悲机构和数字商品商户等软方针测试被盗的卡号和凭证,以确保它们没有被打消。”他宣称,在暗网的收集暗盘中,用不了一美元就可以买到具有正确姓名、地址和CVV(卡片验证值)的年夜额信誉卡卡号。

Johnston说:“讹诈者可以采办这些验证卡的清单,并经由过程肆意数目的在线打算从中获利。“这些立功分子年夜量利用人工智能,他们也像正当开辟者一样,在互联网论坛上分享软件东西和技能。”

按照Johnston的说法,这些年夜量Fake利用了一切类型的人工智能和其他主动化手艺,从经由过程组合真实姓名和随机数字来天生并注册真实的电子邮件地址的小法式,到经由过程连系多个真实人物的信息来建立分解身份的年夜型机械进修法式。假如讹诈检测器查抄一个分解身份,它们凡是会发明一个子虚的电子邮件账户、Facebook页面、以及其他显示分解身份细节的互联网抽象曾经被讹诈者记实上去。

是以,收集平安法式员的讹诈检测技术和黑帽黑客的讹诈缔造技术构成了比武。

这些讹诈缔造技术不只用于信誉卡欺骗,还扩大到图像和语音辨认范畴,在这些范畴中,这些东西被反过去用于制作假旧事、假视频和假音频。现实上,据Juniper Research的Nick Maynard称,利用假音频的汇款讹诈比在线付出讹诈增加得更快。他暗示,到2024年,这一范畴的丧失估计将增加130%。

Maynard说:“机械进修关于遏制讹诈越来越主要。”

Deepfake是一场打地鼠游戏,由于每一种人工智能(无论是好的仍是坏的)城市临时占有优势。“这是一场猫捉老鼠的游戏,”Johnston说,他用一个变量来权衡成败,该变量他称之为“摩擦”,这种变量会减缓一方或另一方的速度,直到一种新方式的“光滑”可以让一方抢先于另一方。

“讹诈者会对摩擦做出反映,就像互联网上的正当用户一样。当我们占了优势,给讹诈者形成太多摩擦时,他们就会转向一个不受讹诈检测器庇护的软方针。一个好的讹诈处理计划会增添坏人的摩擦,削减好客户的摩擦。但是,一方的前进,会招致另一方面的战略发作改变。”

Johnston说,当互联网方才呈现的时辰,网上就没有什么值得偷盗的工具,是以讹诈者年夜多在网上测试信誉卡,然后经由过程亲身采办商品来变现而获利。现在,在线买卖对坏人来说,和对我们其别人一样便利。信誉卡内置平安芯片的遍及采取,使得面临面买卖成为讹诈者的一年夜风险,其成果是,讹诈勾当越来越多地转移到网上。是以,Johnston暗示,讹诈检测人工智能正在利用更具体的阐发。

Johnston称:“在不抛却农场的环境下,我们在2020年景功防讹诈的方式依靠于跨越年夜型数据集来寻觅讹诈的固有形式。坏人可以窃取你一切的奥秘,但他们无法模拟你的咀嚼、行动和汗青。回根结底,讹诈者不得欠亨过讹诈手腕才干拿到有价值的工具,只需有准确的数据,我们就能分辩出讹诈者和洽客户。”

假旧事/假视频/假音频

人工智能曾经被用来主动建立假旧事故事。例如,OpenAI的原型GPT-2文本天生零碎利用机械进修来翻译文本、回覆成绩和编写假旧事。当“唐纳德·特朗普不测地……俄罗斯已向美国宣战”这句话被输出GPT-2后,它就缔造了上面这则假旧事故事:

在唐纳德·特朗普不测向空中发射导弹后,俄罗斯向美国宣战。俄罗斯暗示,曾经“断定导弹的弹道,并将采纳需要办法,确保俄罗斯公众和该国计谋核力气的平安。”白宫方面称,它对俄罗斯违背《中程导弹公约》的行动暗示“极为关心”。

更多关于GPT-2发生假旧事的细节,可以在OpenAI网站上的样本中找到。

纽约州立年夜学水牛城分校(University at Buffalo)迷信与工程学传授David Doermann说,“像OpenAI如许的开源同盟正在向我们展现将来的讹诈行动能够是什么样子的:利用主动化东西可以扩大到年夜范围进犯。今朝,Fake占有了优势,可是我们需求减少差距,以便我们可以或许敏捷逾越它们。这种环境变得很像歹意软件,黑客操纵的每个新缝隙,都由收集平安法式员来修补。有朝一日,关于造假者来说,能够会由于本钱过分昂扬而无法持续寻求下往,但更有能够的是,这将是一场拉锯战,没有明白的赢家。”

同时,按照Doermann的说法,大好人需求教导公家,对互联网上的一切要持保存立场;假如听起来太好(或太坏)而不像是真的,那么它能够就是真的。Doermann说,“这并不是一项不成能完成的使命。例如,此刻年夜大都人都晓得,不要点击来历不明的附件,媒体也晓得若何在渣滓邮件达到收件箱之前辨认出来并过滤失落它们,”异样,已知的假货甚至能够的假货也可以贴上如许的标签,以提示人们不要太认真。在某些环境下,好比儿童色情成品,假货可以完整被过滤失落,而不会加害第一批改案的权力。

结合国区域间立功和司法研讨所(United Nations International Crime and Justice Research Institute,UNICRI)人工智能和机械人中间担任人Irakli Beridze对此暗示附和。“Deepfake只是‘被操控’旧事成绩的一个新维度。”Beridze说,“这项手艺一向存在,但直到比来才被‘平易近主化’,经由过程浩繁的使用法式变得更轻易利用,使那些没有什么手艺窍门的人,也能缔造出本身的Deepfake。Deepfake的舒展带来了影响深远的应战,它有能够会要挟到国度平安,包罗要挟到选举和公共平安,以及粉碎交际教、平易近主、公共话语和旧事业。”

据Beridze称,很多组织都在尽力开辟软件,以便更轻易辨认出Deepfake。她和Doermann宣称,辨认Deepfake的手艺东西已存在,只需进一步开辟即可成为“交钥匙”的处理计划。与此同时,两边都以为,需求做更多的任务来下降通俗花费者的轻信率。正如渣滓邮件成绩在公家认识中提到进步一样,对Deepfake的熟悉也需求进步。Beridze称之为“抵消费者资深的批评性阐发”。

就在客岁,结合国区域间立功和司法研讨地点海牙进行的“战争、公理与平安”黑客松(Hackathon for Peace,Justice and Security)会议上提出了一个Deepfake的应战。角逐请求参赛者建立用于检测被把持视频的东西,这些东西可用于撑持法律、平安机构、司法、媒体和公家。

Beridze说:“获胜团队提出了一个用于图像分类的神经收集架构和一个简化用户交互的Web使用法式。这个处理计划作为概念的手艺证实,随后在2019年的手艺钻研会上获得了完美。到2020年,我们将积极尽力,将这项手艺从概念验证推行到周全使用。”

可是,Beridze正告说,关于Deepfake这个成绩还没有疾速的处理法子。他注释说,手艺转变的程序越来越快,需求更周全的的处理计划来监控手艺前进和利用手艺的Deepfake,从而经由过程猜测来岁的更进步前辈手艺来抢先于看不见的成绩。

Beridze称,“这是一个需求多方好处相干者和跨部分协作的轮回进程。在这方面,结合国中间的方针之一是增添和增进与全部公共部分、产业界、学术界以及相干平安实体、谍报机构和反恐机构等好处相干者的常识共享和关系扶植,以帮忙政府跟上程序。在如许做的时辰,我们为制订、摆设和利用正当、可托、尊敬人权、平易近主、公理和法治的处理计划供给指点。”

假视频和假音频是由不良的人工智能驱动的最新讹诈立异。可以说,公家对这类假旧事的熟悉始于2016年年夜选年,那时“假旧事”成为一个风行词。年夜大都政治视频都是较着的Deepfake,常识一次性的模拟,只不外是用“哲人节”版的演讲代替了政客们的嘴唇。但是,经由过程利用机械进修从头操纵人工智能面部辨认东西,法式员缔造了即便是最纯熟的不雅众也能捉弄的Deepfake假视频。

Doermann已经是美国国防高档研讨打算署(Defense Advance Research Project Agency,DARPA)MediFor(媒体取证,Media Forensics)打算的项目司理,他暗示,DARPA曾经为当局机构取得的图像开辟了主动取证东西,这些东西已经是手动的,需求专家级别才干利用,但后来被装置到了履行认证的人工智能中。

“早在Deepfake成为公家成绩之前,我们就开辟出了检测Deepfake的人工智能东西。我们担忧可骇分子和本国当局的假谍报来历,我们的方针是将人类专家用来辨认Deepfake的方式完整主动化。如许,抱负环境下,当局搜集的每一种基于图像的媒体都可以天经地义的经由过程我们的判定器来判定。”Doermann说。

MediFor正在停止中,但曾经进进将其根本研讨成果整合到终极主动化东西中的阶段。与此同时,一个名为SemaFor(语义取证)的新项目接过了根本研讨的接力棒。SemaFor的方针是获取被辨认为假图像,并使用人工智能回因算法来揣度媒体的来历,同时利用特点算法来断定Deepfake是出于歹意目标(好比辟谣勾当)仍是处于良性目标(如文娱)。

对公家而言,第一批与真正的总统竞选视频难以区分的Deepfake视频很能够会在2020年美国总统年夜选时代浮出水面。假音频曾经被收集立功分子胜利用于汇款讹诈。例如,《华尔街日报》(The Wall Street Journal)报道称,一通模拟公司首席履行官声响的Deepfake德律风棍骗了该公司,拐骗该公司将24.3万美元汇给了收集罪犯。Deepfake终极被发明,但这些钱早已经由过程电汇收集消逝,政府无法清查。

用于讹诈检测的“年夜铜铃”是一种验证器,可以实时辨认并及时标注“Fake”。但不幸的是,其成果很能够招来讹诈者的人工智能报复,旨在及时捉弄验证者。


鲜花

握手

雷人

路过

鸡蛋
该文章已有0人参与评论

请发表评论

全部评论

本文作者2020-6-29 06:00 PM
人工智能
粉丝1 阅读9 回复0

精彩阅读

排行榜

人工智能公众号

扫码微信公众号
我陪你畅想未来

最智能的人工智能网!
QQ:162057003
周一至周五 9:00-18:00
意见反馈:162057003@qq.com

扫一扫关注我们

Powered by Discuz! X3.4   © 2020 ( 鲁ICP备18055727号 )  |  |网站地图