他们把女性「喂」给AI,生成色图泄欲

  ▲图片来源:Giphy

  当AI开始画画

  在现在最流行的AI绘画平台Midjourney上,你只需要输入提示词,研发者们称之为「魔咒」,因为作画的过程就像施法术一样,我们给出词语,AI「施展魔法」。

  比如我们输入星空、河流、风车、草垛、村庄、梵高风格,就会得到一张和梵高作品非常像的风景画。这些光靠输入文字就能做到,不需要动一笔一画。

  使用者还可以通过增减符号来调整画面上物体的比重以及细节,如果想要AI输出更精准、更接近自己想法的图片,可以先向它输入几张参考图,AI会抓取其中的元素,这被叫作「喂图」。

  如果掌握熟练,AI将是非常称手的绘画工具,能创造出令人仰望的作品。

  就像最开始引发人们对AI绘画激烈讨论的作品——《太空歌剧院》,它是游戏设计师Jason Allen用Midjourney生成的,参加了2022年美国科罗拉多州举办的艺术博览会,获得了数字艺术类别冠军。这幅画的表现力和想象力令许多人类画家震惊。

  ▲图片来源:google

  除了玩艺术,AI在写实上也进化到了人肉眼真假难辨的阶段。当人们在Midjourney上输入下面这串魔咒:

  「一对年轻的中国情侣,穿着夹克和牛仔裤,坐在屋顶上,背景是20世纪90年代的北京,可以看到对面的建筑—v 5 —s 250 —q 2」

  ▲图片来源:google

  AI瞬间变出了一组充满浓浓年代感的情侣写真,说是爸妈年轻时拍的照片也不会有人怀疑。

  如果把时代改成2023年,AI又生成了下面的图片:

  ▲图片来源:google

  和前面相比,无论是人物的服饰、发型,还是图片质感都大有改变,非常符合时代特征。

  这实在让人叹服又恐慌。如果AI绘图的逼真程度更上一层楼,以后我们在网上看到的图片中,到底哪些是真,哪些是假?有图也无真相的时代或许要来了……

  以假乱真给了人们的欲望一个暗黑出口。当人们拿到这样的工具,他们的第一反应是用来生成色情制品,会引发什么样的后果呢?

  以下几张性感照,你能看出是真人拍摄还是AI绘制的吗?

  上下滑动查看

  ▲图片来源:google

  答案是,它们都是AI绘制的。

  其实目前市面上主流的、大公司出品的AI绘画平台,比如Midjourney、Stable Diffusion、Disco Diffusion,它们被禁止生成色情图片,因为如果不进行管制,那么大概率很多使用者都会用它生成色情图片,很快社区就会被色情图片占满,而这违背了AI绘画研发的初衷。

  但是,由于它们都是开源软件,任何人都可以获取源代码进行共享和修改,少不了有人要拿这项技术开发专门生成色图的网站。

  这不是猜想,而是已经成为了现实。一键生成女生大尺度图片的网站已经被开发了出来,该网站月活跃用户数已经突破一百万,累计生成上千万张色情图片。

  网站管理者不仅售卖使用教程,还贩卖已经做好的成套裸图。一条灰色的色情产业链已经悄然生成。

  它或许是更好的,毕竟如果不是AI绘图,那么这几千万张图片,将是真实的女性被偷拍和盗用的照片;但它也是更坏的,已经有不少女性成为了AI绘图滥用的受害者。

  用AI画色图,会更好吗?

  有这样的神器,人们当然不会满足于看随机生成的色图,还想看特定的性幻想对象。他们通过不断给AI「喂图」,训练出了针对个人出图的模型。

  于是在AI绘画社区,可以看到不少性感照片的主角是女明星:新垣结衣、石原里美、鞠婧祎、Lisa等等,上述作品的作者,从民事侵权的角度看,已经涉及侵犯相关人员的肖像权等人格权利,而从刑事犯罪的角度来说,也可能已经涉嫌触犯侮辱罪以及制作、贩卖、传播淫秽物品罪等刑事犯罪。

  更可怕的地方在于,它和AI换脸不一样,只是换脸就意味着有原图,有原图就可以证伪;但AI生成的图片是没有原图的,女性要如何证明一张逼真的大尺度照片上的人不是自己呢?

  如果说女明星的照片基本都是公开的,有没见过的性感图流出,大家很容易辨认是假的,那么,普通女孩呢?

  ▲图片来源:Giphy

  微博博主@余车台Alex 就发博称,有不少人委托AI画师用他们现实中认识的女生训练模型,目的是生产和女生们尽可能相似的大尺度图片。

  这些委托人要拿图片做什么?不难想象,轻则是私底下意淫,重则有可能到处散播、造谣,给女生造成严重的伤害。

  有多少变态正搜集身边女生发在朋友圈的生活照,拿给AI生成色图后用来泄欲;又有多少卑鄙下流的人正想用AI生成的裸照打击报复女性,光是想想就已经脊背发凉。

  而有时候,甚至不需要是认识的人,不需要出于报复或泄欲的目的,造黄谣对于本身有恶意的人来说轻而易举,他们追求的是意淫和荡妇羞辱带来的快感。

  前段时间,一位小红书博主发布了一张自己坐地铁的照片,这张图被人盗走,放进了一个叫「一键脱衣」的AI软件里,输出的便是女生的裸图。随后造谣者将图传播到群聊里,又造出女生自己在地铁上脱了衣服、有金主、玩SM等谣言。谣言很快传播出去,女生不得不进行维权。

  ▲图片来源:微博截图

  从被造谣和快递小哥偷情的吴女士,到被骂「陪酒女」而抑郁轻生的粉发女孩郑灵华,再到把女生日常照片涂抹后发到色情网站上的苏州大学赵尚峰,造黄谣的低成本和威力已经显而易见。

  即便罪犯最终受到法律制裁,女生们付出的时间、金钱、精力成本,精神受到的压力和生活受到的影响都是不可估计的。

  她们会遭到洪水一般的辱骂,可能会丢工作,确诊精神疾病,身边亲密的家人、朋友的工作和生活也会受到影响;创伤可能会持续,她们可能会害怕在网上分享生活;最糟的情况是,她们会像郑灵华一样失去生命。

  上下滑动查看

  ▲图片来源:网络

  而她们本可以不经历这一切。女孩们只是在网上分享自己的生活,凭什么就要遭到如此无妄之灾?造谣者必须受到最严厉的惩罚。

  但可惜的是,目前这类制造色图的小网站似乎是法外狂徒,即便一个被封禁,网络上也很快会出现替代品。

  不被限制的技术滥用会进一步放大作恶者的恶意,他们不仅把肮脏的手伸向女性,甚至伸向了儿童。

  未成年女孩的脸被嫁接到成人的身体上,虚假的「童颜巨乳」让无数变态高潮不已。尽管目前看来好像没有任何儿童在这个过程中受到伤害,但对儿童的性化无论在现实世界还是虚拟世界都不能容忍。

  ▲图片来源:Giphy

  当人们在某个次元里可以合法把儿童当作性幻想对象,也就给现实世界对儿童的保护划开一道口子,犯罪和伤害将络绎不绝地到来。

  对于这种情况,有博主认为,从今往后只要在网上看到女性的裸图,我们应该无一例外认为是AI绘制,与其争论真假,不如把注意力从图片的内容转移到「谁制造了这张图?谁传播了这张图?」上面来,这是我们能做的对女生们最直接的保护。

  烂的不是技术,而是人

  尽管AI绘画目前仍存在很多问题,比如版权边界不清,大家对于AI到底是创作还是剽窃众说纷纭,但毋庸置疑这是一项十分有潜力的技术,使用得当将会对人有助益,使用不当就会变成犯罪。说到底,有问题的不是技术本身,而是使用技术的人。

  那么,随着AI技术越来越成熟,法律也应该跟上步伐,对人们如何使用AI进行规定,并处罚使用不当的人。

  2019年,欧盟议会发布了《可信赖人工智慧伦理准则》(Ethics Guidelines for Trustworthy AI),提出了对于AI的要求:行善(do good)、不作恶(do no harm)、保护人类(preserve human Agency)、公平(be fair)与公开透明(operate transparency)等。

  更具体一点说: 符合伦理道德的AI应该要为强化人类的能力而存在; AI应有相关监控机制来确保AI系统不会侵害人类自主性或是引发其他负面效果; AI应该充分尊重隐私和资料保护; AI应该设计为所有人皆能使用,避免加重对弱势群体的偏见和歧视; 应该建立机制来妥当处理AI导致的结果的责任归属问题。

  ▲图片来源:Giphy

  之前,我国国家网信办就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,如果大家有好的想法和建议,也欢迎通过正规路径提交。

  ▲图片来源:微博截图

  用AI制作色情图片,或许真的避免了许多真实的女性照片被传播,但这不应该是真正解决问题的办法,真正杜绝问题发生的办法是惩罚盗图、造谣、传播和侵犯他人权利的人。

  我们应该治理犯罪的人,而不是仅仅将他们观看的东西从真的变成假的。真实的女性的确免于了伤害,但剥削者从未受到惩罚,也无需做出任何反思和改变,他们那伤害人的欲望仍然得到了满足。

  只要造谣、传谣和消费儿童色情的人,仍然将欲望抒发建立在他人的失权和痛苦上,不管他们面对的对象是真还是假,对于女性来说这个世界都没有变得更安全。

  何况AI绘画已经不再只生成随机的人像,真实的女性已经成为了恶人们滥用技术的靶子,在荡妇羞辱仍未完全消除的社会里,她们随时可能陷入危险中。

  要解决这个问题,不仅需要法律的跟进,还需要开发AI的企业承担起社会责任,制定完善的监管和惩罚机制。

  AI绘图不一定是女性的噩梦,但它一定不是女性的救赎。希望至少在一个次元里,女性能够得到应有的尊重。