艺术源于生活,这是我们都知道的。但如果艺术模仿了你的生活和个人兴趣,并且做得很好,以至于现实与想象之间的界限不再清晰呢?
我们可能不知道,但我们已经成为现代人工智能技术的模型,这些技术使用从网络上抓取的数TB数据进行训练,几乎没有进行任何过滤。这些数据包括个人照片、医学图像,甚至受版权保护的内容。换句话说,它包括在线提供的任何图像。
DALLE-E 2、Midjourney 和 Stable Diffusion 等文本到图像深度学习模型在识别、解释和重新表示这些数据方面每天都在进步。当输入文本时,它们会根据所学内容生成详细的图像。虽然这些图像仍然不是完美的照片,但它们正变得越来越真实。尽管这看起来不太合理,但算法可以随时显示它想要的内容,并且在未来,这可能无法控制。
这种情况发生的可能性很小。然而,公众人 法国电报数据库 物的形象很可能会被利用,并用它来欺骗粗心的人。人工智能已经获得了您的公开数据,并且已经可以立即识别您。因此,恶意者所需要的只是创建一个足够聪明的文本条目。
AI让你精准复制公众人物形象埃隆·马斯克 (Elon Musk) 最纯粹的莫奈风格和比尔·盖茨 (Bill Gates) 在汽车旁边拿着步枪的图片,由 Stable Diffusion 制作。图片由 Stability AI 提供。
目前无法将自己从人工智能数据源中拯救出来。您只能在将数据用作 AI 的训练样本后才能从此类目录中删除数据。为此,您可以使用Have I Been Training等网站。确保您符合要求,提出索赔并祝愿一切顺利。
技术现状:鼓舞人心和令人困惑
人工智能图像生成器是每个人都在谈论的新鲜事物。这解释了为什么他们迄今为止一直逃避监管。DALL-E是根据描述创建图像的最先进的工具之一。该文本到图像编码器于去年 1 月通过候补名单推出,并于 9 月向公众开放。据该工具背后的公司 OpenAI 称,大约 150 万人已经在使用该服务,“每天创建超过 200 万张图像”。
除了候补名单之外,OpenAI并没有限制人脸编辑。但与竞争对手不同的是,OpenAI 采取了一些安全措施:该公司表示,它已经改进了该工具的过滤算法,以阻止性、政治、暴力和仇恨内容。 DALLE-E的政策还禁止用户上传“未经其同意的任何人的图像”以及用户无权的图像。
DALLE-E 似乎没有实际方法来确保遵守这一特定政策。为了尽量减少潜在误用的风险,开发人员此前表示,他们已经改进了 DALL-E 的训练过程,“限制”了它记住面孔的能力。这样做主要是为了让人工智能不会产生公众人物的图像或最终将他们置于误导的环境中。 OpenAI 的内容政策明确禁止“政客、投票箱或任何其他可用于影响政治进程或竞选活动的内容”的图像,并对试图创建公众人物图像的行为发出警告。用户报告称,DALL-E 似乎不会回应提及名人和政客的条目。
尽管名称如此,OpenAI 并不是开源的,这是有充分理由的。 OpenAI 认为,“免费提供系统的核心组件会导致恶意人员训练它显示不适当的内容,例如色情和暴力画面。”
然而,其他人则利用了 OpenAI 留下的漏洞。受 DALL-E 的启发,一群人工智能爱好者创建了Crayion(以前称为 DALLE-E mini),一个开源的基于文本的图像生成器。但由于它是在相对较小的未经过滤的互联网数据样本(大约 1500 万对图像和相应文本)上进行训练的,因此生成的绘图(尤其是涉及人物的绘图)明显不太真实。