更糟糕的。
如果不法之徒掌握了某些重要人士的形象,他们完全可以躲在背后,以这些重要人士的身份去发言很多重要言论,来引导舆论,重塑规则。
感觉世界都要乱套了。
还可以多想一层。
万一有人用魔法来对抗魔法呢?
比如故意露出破绽,让人以为视频是AI做出来的效果,好显得自己是被陷害的无辜。
但其实,根本就是本人的千层套路?
而且,现在的技术肯定不是AI的巅峰,再这么发展下去,搞不好还能结合全息,搞出那种肉眼都分辨不出来的效果,一个人眨眼就变另一个。
那时候,别说影像了,眼见都不一定为实。
我站在我妈面前,我妈可能还得和我对上八百个暗号,才能分辨出来我到底是我,还是骗子。
光是想想,就觉得更毛骨悚然了。
说这么多,不是我危言耸听,更没有杞人忧天,现在国内外都已经有很多案例了。
有的仅仅依靠AI配音,就能大骗特骗。
美国CBS电视台做过一期节目,现场展示黑客通过克隆声音来窃取信息的过程。
整个过程可谓是迅雷不及掩耳之势。
仅用了5分钟,对方就通过AI克隆的当事人的声音,并且通过工具替换了手机来电显示,从而成功骗过了身边的人,获取了相当多私人信息。
国内的“靳东”骗局也一直存在。
很多直播间循环播放着明星的视频,再加上后期配音的旁边,就吸引了很多阿姨的关注。
阿姨们听到声音误以为这就是真的明星,没想到都是骗子利用AI软件模拟出来的声线。
目的当然只有一个——骗钱。
有人胃口更大,不甘心只骗普通人的小钱,还要骗公司的大额投资。
于是伪装出男明星的声音去谈合作,好在公司比较警惕,才没能让对方得逞。
现在又有了AI在视频方面的辅助,骗子更是如鱼得水,让人防不胜防。
前几天看综艺,黄晓明说曾经发现自己在不知情的情况下,给某个品牌代言了。
不仅有自己和刘亦菲参加品牌活动的视频,还在现场讲了很多品牌相关的内容。
但他本人对此却毫无印象,就很恍惚。
后来才知道,这视频是用AI做出来的,发言也都是AI操作的结果。
连本人都差点被忽悠,何况看视频的其他人呢?
现在某些直播间,开始用AI换脸明星搞带货。
不知情的人看了又怎么能区分呢?
国外也一样。
斯嘉丽前几天告了一名AI程序开发者,因为对方直接用她的形象和声音来打广告。
明明是《黑寡妇》的幕后花絮,摇身一变,就成了AI程序的宣传广告。
好一个偷天换日。
网络上本来就很容易出现那种看图说话的假消息,经常一张图下去八百个故事就编出来了。
如今有了AI技术,你想编什么故事,它就给你凭空造出什么,真与假、是与否的边界更加模糊。
反倒更方便了造谣传谣的人,
也给了不法之徒发挥空间。
有人分享过更恶劣的被骗经历。
骗子截取到他的人脸识别视频,然后利用AI换脸技术,拼接出一段裸聊视频,然后威胁当事人要把这视频群发给他的通讯录好友们。
即使当事人知道自己并没做过这样的事,也会在一瞬间陷入恐慌,然后被骗子榨干价值。
或许你会说不要相信网上那些人就好,但是万一AI伪装成你熟悉的人来寻求帮助呢?
福州的郭先生就遇到过。
一位好友打来微信视频,请求帮助。虽然对方一开口就是430万这样的巨款,但微信视频已经打消了他的怀疑,他二话不说转了钱。
哪知道,这年头视频也能造假。
视频对面的也不是真朋友,而是披着AI外皮的骗子,只是用了换脸和拟声的手段。
说起现在这些套路,就连年轻人都难分辨,每每看到都要感慨一句,学无止境。
要是那些本就对网络科技知之甚少的老年人碰到,就更容易上当受骗了。
反倒是骗子,总是走在学习新技术的前沿。
虽然都说互联网是虚拟的,但很多时候构建起互联网的底层逻辑却是真实和信任。
这下可好,人与人的信任岌岌可危。
名人会被deep fake出自己从没讲过的话,喜提鲁迅同款待遇。
上班族会被deep fake出的老板骗得云里雾里。
之前就有个公司财务,被拉进一个视频通话群组里,里面每个董事会的老板都在。
然后财务就被“换脸”老板们,骗走了2亿多港币。
老人会被deep fake出的子女骗到倾家荡产。
普通人会被deep fake出的莫须有视频弄得百口莫辩。
……
所有“真相”都可以被伪造。
所有人都可以被技术玩弄于股掌之间。
AI时代,没有真相。
这时候我们又该怎么办呢?
“科学技术是第一生产力”,这当然是事实,毕竟我们直白地享受着科技发展带来的好处。
与此同时,我们不该忽略科技可能带来的破坏性。伴随着高速的科技发展,社会结构迎接着巨大冲击,固有的生产模式更频繁地遭遇被淘汰的命运,无法及时跟上发展的人经历着动荡。
我们总说科技的发展是双刃剑。但它的剑刃究竟指向哪方,是由人来决定的,而非由技术。
所以,比担心AI技术的失控与风险更重要的是,加强对AI生成内容的监管,增加限制。
总好过让它不受约束地自由发展。
毕竟现实中,开锁的师傅都得去公安局备案,更何况是这些更不受控的内容呢?