在人工智能(AI)的时代,AI已经能够生成越来越像人类的写作、图片、音乐和视频。有报道称学生使用AI作弊,甚至有一整个行业围绕AI创作的书籍涌现,这些书籍被人们声称为自己的作品。然而,也有至少一个报道的案例,一位老师(显然技术不佳)使用AI错误地“证明”他的学生作弊,导致他让所有学生都不及格。
近期还有一个摄影师通过提交AI生成的图片而不是他自己拍摄的图片赢得了比赛。在这个案例中,摄影师有良好的意图,并在揭示了他所做的事情后退还了他的奖项。
幸运的是,目前存在一些相当准确的方法,可以检测出作品是否在AI的帮助下创建。在这篇文章中,我将探讨哪些工具存在,它们是如何工作的,以及为什么它们对于保护安全和维护学术和艺术的完整性至关重要。
随着AI创作的内容变得越来越普遍,其可能引发的破坏性和潜在的有害后果也在增加。一个很好的例子就是深度伪造(deepfakes),这是真实人物的逼真图像或视频,看起来他们在做或说他们从未做过的事情。已经有这种技术被用来伪造未经他们同意的人的色情内容,以及将话语放在政治家,包括巴拉克·奥巴马的嘴里。你可以找到特朗普被逮捕的视频(甚至在他被逮捕之前)和乔·拜登唱《Baby Shark》的视频(据我所知,他从未做过这件事)。
有些可能看起来很有趣,但它有可能对涉及的人或如果它影响民主过程,对整个社会产生破坏性的后果。
AI已经被用来克隆人类的声音来进行欺诈。在一个案例中,它被用来试图欺骗一个家庭相信他们的女儿已经被绑架,以便勒索赎金。在另一个案例中,一位公司高管被深度伪造的声音说服,他认为那是他的老板的声音,于是转账了超过24万美元。
如果学生使用它在论文和考试中作弊,它可能会破坏教育系统的完整性和学校和学院的声誉。这可能导致学生对他们希望进入的职业准备不足,以及文凭和证书的贬值。
所有这些都突显出教育公众了解AI的危险,以及在可能的情况下,检测甚至防止AI的重要性。如果不解决这个问题,AI可能导致广泛的假信息,操纵和损害。那么,我们究竟可以做些什么呢?
检测AI生成内容的方法
幸运的是,我们有一些方法可以检测AI生成的内容。
首先,有一些数字工具使用自己的AI算法来尝试确定一段文本、一张图片或一个视频是否使用AI创建。
你可以在网上找到几个免费的AI文本检测器。AI内容检测器声称其可靠性达到97.8%,可以检查任何文本是否存在非人类编写的迹象。这是通过训练检测器了解像ChatGPT和其他大型语言模型在创建文本时使用的方法和模式,然后将这些信息与提交的文本进行匹配,以尝试确定它是自然的人类写作还是AI创建的文本。
这是可能的,因为对于计算机来说,AI内容相对可预测,基于概率。这意味着可以使用一个称为“困惑度”的概念来计算文本是否使用了高概率的语言。如果它一直使用最可能的语言,那么它被AI创建的可能性就更大。
如果你需要高度的保证,你可以将它与多个AI检测器进行对比。其他有用的工具包括Writer AI内容检测器和Crossplag。
对于检测深度伪造,包括Meta和Microsoft在内的公司正在合作进行深度伪造检测挑战。这个项目定期发布可以用来训练检测算法的数据集。它还在协作数据科学门户网站Kaggle上启发了一个竞赛,用户竞相寻找最有效的算法。
认识到AI生成的视频和图像可能对国家安全构成威胁,军事组织也加入了这场战斗。美国国防部高级研究项目局(DARPA)已经创建了一些工具,旨在确定图像是否已经被AI创建或操纵。其中一个工具,称为MediFor,通过将AI生成的图像与现实世界的图像进行比较,寻找明显的迹象,如照明和着色的效果变化,这些变化与现实不符。另一个工具,称为SemaFor,分析图片和文本标题或新闻故事之间的上下文关系。
最后,我们不应忽视人类判断和批判性思维在AI内容检测中的作用。人类有一种“直觉”,虽然肯定不是万无一失,但在确定真实性时可以帮助我们。投以批判的眼光并应用我们所知——乔·拜登真的可能会制作一段他自己唱《Baby Shark》的视频吗?——是必要的,而不是将所有责任都委托给机器。
AI检测的未来——军备竞赛?
我们可能只是在目睹这将是一个“军备竞赛”情况的非常早期阶段,因为AI在创建逼真内容方面变得更加高效,而检测工具的创建者则在努力跟上。
这不仅仅是技术人员之间的战斗。随着对社会的影响变得更加明显,政府和公民团体将发现他们在立法者、教育者和“真理”的保护者方面有重要的角色。如果我们发现我们再也无法信任我们读到、观看到、看到和听到的内容,我们在生活的每个方面,从政治到科学,做出明智决定的能力将受到威胁。
将技术解决方案、人类判断以及知情的监督和干预(必要时)结合起来,将是我们对抗这些新兴挑战的最佳防线。