这几天,微博首页被这群韩国女生的求助刷屏了。 先给不了解情况的朋友,捋一下来龙去脉。 8月初,有韩国网友惊讶地发现“N号房”卷土重来了。 在Telegram上,一个通过AI Deep fake(深度伪造)制作、传播色情图像的聊天室聚集了20多万男性受众。 他们偷拍身边的女性,把她们的脸或躯体合成到H片里。 再把这些淫秽图像传到群组,找兄弟们一起品鉴、意淫。 被deep fake的女性,有女兵、女教师、女护士、女大学生,还有未成年的小女孩。 而犯罪者大多是青少年。 志愿者卧底发现,几乎每所学校都有一个秘密的男性聊天室。 于是,一些男孩把偷拍神功用到了自己的姐妹,甚至妈妈身上。 更过份的人,趁着自己的妹妹睡觉,去掀了她的裙子。 这件事情在韩国造成了极其恶劣的影响。 500多所学校被牵扯其中,就连延世大学、首尔国立大学和高丽大学这种名校有师生参与其中。 年轻学生深爱这种深度伪造的“游戏”。 他们并不觉得这是龌龊的犯罪行为,反而责怪举报者小题大做,不懂幽默。 记者问他们为什么要用熟人照片? 他们说:“这样更真实。” 记者追问:“你们不怕被抓吗?” 他们直接回怼:“只有傻瓜才会被被警察逮住。” 境外网站的隐蔽性让他们有恃无恐,而这种心态让韩国女性相当愤怒。所以一群韩国女生注册微博,呼吁外国人关注韩国正在发生的事情。 这种下作的犯罪,不是应该找韩国总统、韩国警察处理吗? 为啥跑来中国求救? 这是因为韩国女性对公权力失望透顶。 她们深知,无论是韩国警方,还是尹锡悦政府,都无法铲除这种恶劣且隐蔽的性剥削。 一方面,现在的韩国总统尹锡悦,本来就是靠着“反女权”言论被选上去的。另一方面,李胜利的所作所为只受到很轻的处罚。 知情人士透露,韩国青年(15-29岁)男性人口有430万,而Deepfake Room的用户有22万。 也就是说,差不多20个男性里,就有一个“房中人”。 法不责众。 警方处理案件只抓主谋,很难惩处每一个用户。 鸡贼的人趁机钻空子跑路,躲避法律的制裁。 与此同时,考虑到事件的影响面实在太广,就连韩媒都开始对这件丑闻做冷处理。 女士们直言: “我们生活在一个无法有效惩罚或预防针对女性犯罪和暴力的社会中,失去了日常生活的安全感,仿佛生活在一个没有国家的状态中。这样的社会还有存在的必要?” 除了中国,她们也去了其他国家的社交平台发帖求救,希望借此得到全世界女性的声援。 为什么我们要关注这件事? 因为,被换脸的恐怖故事不仅会发生在韩国女性身上,还可能发生在我们每一个人身上。 没有管制的deep fake可以轻松毁掉每个人的生活。 把女性的脸换到色情片上,显然不止出现在韩国。中国、美国、欧洲,全世界的女性都遭遇过类似的事情。 2017年,有人在reddit上开了换脸版块,专门和“志同道合”的网友一起,。 它甚至成了一门产业链。 有人收钱定制这些女明星的换脸淫秽视频牟利。 这甚至不止和性有关。 我们不妨设想一些场景。 现在年轻人都在外工作,留下父母在老家,平时沟通全靠网络一线牵,最常用的就是视频通话。 要是这视频被伪造了呢? 当父母远在千里之外,突然接到你的求助电话,紧张不安地说自己遇到了麻烦,缺钱花,希望他们能帮帮你,父母会是什么反应呢? 着急之下,他们除了先打钱还能做什么呢? 你看,联系方式是平时的联系方式,视频对面的人是他们熟悉的你,说话的声音也没有区别,他们除了担心, 毕竟父母对这些科技知之甚少,很难防备啊。 还有很多可能。 如果有不安好心的犯罪分子掌握了你的形象,以及更多的身份信息呢? 他们完全可以拿着你的身份去网恋,去裸聊,去当做杀猪盘的素材,去搞诈骗,去犯罪。 反正这些事现在都可以通过网络来完成的, 而且这AI都可以做任何表情和动作了,直接解锁什么银行卡的面部识别信息,恐怕也不在话下吧。 要是直接以你的名义去贷款,然后把钱卷走后,留下一屁股债。 你又该如何应对呢? 恐怕要等某天突然有人敲开大门来讨债,才知道真相吧。 你看现在电视上那么多明星代言卖货直播的,好多人趋之若鹜,可万一那些视频背后不是本人,而是AI伪造出来的呢? 反正输入什么,AI就能说什么。那某些三无产品啦金融产品啦,岂不是想让谁站台就能让谁站台,谁更有号召力就让谁来代言。 主打一个无法无天。 搞不好还有人趁机打着某些公众人物的旗号,去到处寻求合作,让人家先交定金。 或者私下搞些传销传教之类的违法活动。 反正这种大名鼎鼎的重要人物肯定是见不到面的,只有视频让大家沟通也很合理啊。 更糟糕的。 如果不法之徒掌握了某些重要人士的形象,他们完全可以躲在背后,以这些重要人士的身份去发言很多重要言论,来引导舆论,重塑规则。 感觉世界都要乱套了。 还可以多想一层。 比如故意露出破绽,让人以为视频是AI做出来的效果,好显得自己是被陷害的无辜。 但其实,根本就是本人的千层套路? 而且,现在的技术肯定不是AI的巅峰,再这么发展下去,搞不好还能结合全息,搞出那种肉眼都分辨不出来的效果,一个人眨眼就变另一个。 我站在我妈面前,我妈可能还得和我对上八百个暗号,才能分辨出来我到底是我,还是骗子。 光是想想,就觉得更毛骨悚然了。 说这么多,不是我危言耸听,更没有杞人忧天,现在国内外都已经有很多案例了。 有的仅仅依靠AI配音,就能大骗特骗。 美国CBS电视台做过一期节目,现场展示黑客通过克隆声音来窃取信息的过程。 整个过程可谓是迅雷不及掩耳之势。 仅用了5分钟,对方就通过AI克隆的当事人的声音,并且通过工具替换了手机来电显示,从而成功骗过了身边的人,获取了相当多私人信息。 国内的“靳东”骗局也一直存在。 很多直播间循环播放着明星的视频,再加上后期配音的旁边,就吸引了很多阿姨的关注。 阿姨们听到声音误以为这就是真的明星,没想到都是骗子利用AI软件模拟出来的声线。 目的当然只有一个——骗钱。 有人胃口更大,不甘心只骗普通人的小钱,还要骗公司的大额投资。 于是伪装出男明星的声音去谈合作,好在公司比较警惕,才没能让对方得逞。 前几天看综艺,黄晓明说曾经发现自己在不知情的情况下,给某个品牌代言了。 不仅有自己和刘亦菲参加品牌活动的视频,还在现场讲了很多品牌相关的内容。 但他本人对此却毫无印象,就很恍惚。 后来才知道,这视频是用AI做出来的,发言也都是AI操作的结果。 现在某些直播间,开始用AI换脸明星搞带货。 不知情的人看了又怎么能区分呢? 国外也一样。 斯嘉丽前几天告了一名AI程序开发者,因为对方直接用她的形象和声音来打广告。 明明是《黑寡妇》的幕后花絮,摇身一变,就成了AI程序的宣传广告。 好一个偷天换日。 网络上本来就很容易出现那种看图说话的假消息,经常一张图下去八百个故事就编出来了。 有人分享过更恶劣的被骗经历。 骗子截取到他的人脸识别视频,然后,然后威胁当事人要把这视频群发给他的通讯录好友们。 即使当事人知道自己并没做过这样的事,也会在一瞬间陷入恐慌,然后被骗子榨干价值。 或许你会说不要相信网上那些人就好,但是万一AI伪装成你熟悉的人来寻求帮助呢? 福州的郭先生就遇到过。 一位好友打来微信视频,请求帮助。虽然对方一开口就是430万这样的巨款,但微信视频已经打消了他的怀疑,他二话不说转了钱。 哪知道,这年头视频也能造假。 说起现在这些套路,就连年轻人都难分辨,每每看到都要感慨一句,学无止境。 要是那些本就对网络科技知之甚少的老年人碰到,就更容易上当受骗了。 虽然都说互联网是虚拟的,但很多时候构建起互联网的底层逻辑却是真实和信任。 这下可好,人与人的信任岌岌可危。 名人会被deep fake出自己从没讲过的话,喜提鲁迅同款待遇。 上班族会被deep fake出的老板骗得云里雾里。 之前就有个公司财务,被拉进一个视频通话群组里,里面每个董事会的老板都在。 然后财务就被“换脸”老板们,骗走了2亿多港币。 老人会被deep fake出的子女骗到倾家荡产。 普通人会被deep fake出的莫须有视频弄得百口莫辩。 …… 所有“真相”都可以被伪造。 所有人都可以被技术玩弄于股掌之间。 AI时代,没有真相。 这时候我们又该怎么办呢? “科学技术是第一生产力”,这当然是事实,毕竟我们直白地享受着科技发展带来的好处。 与此同时,我们不该忽略科技可能带来的破坏性。伴随着高速的科技发展,社会结构迎接着巨大冲击,固有的生产模式更频繁地遭遇被淘汰的命运,无法及时跟上发展的人经历着动荡。 所以,比担心AI技术的失控与风险更重要的是,加强对AI生成内容的监管,增加限制。 总好过让它不受约束地自由发展。 毕竟现实中,开锁的师傅都得去公安局备案,更何况是这些更不受控的内容呢? |
电话:647-830-8888|www.66.ca 多伦多六六网
GMT-4, 2025-9-23 08:07 AM , Processed in 0.044624 second(s), 23 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.