当前位置:首页  新闻

新闻

乔·罗根 由这个人工智能生成 假装被听到相信

2021-08-30 10:19:57
导读人工智能不会创造假的照片和视频——它还能发出假的声音。到目前为止,这些声音显然已经被践踏和机器人,但来自AI初创公司Dessa的研究人员

人工智能不会创造假的照片和视频——它还能发出假的声音。到目前为止,这些声音显然已经被践踏和机器人,但来自AI初创公司Dessa的研究人员创造了迄今为止我们听到的最令人信服的声音克隆——完全模仿MMA评论员转向播音员Joe Rogan的声音。

听听下面德萨的AI罗根剪辑,或者在公司网站上做个测试,看看能不能找到真罗根和人工罗根的区别。(这太难了!)

Dessa在制造令人信服的假货方面很好地选择了目标。罗根可能是世界上最受欢迎的播客,到目前为止,《乔罗根的经历》已经录制了近1300集。这为任何人工智能系统提供了足够的训练数据。

很明显,公司的工程师熟悉罗根最喜欢的谈话要点不会有什么坏处。猜猜我们是生活在计算机模拟中还是欣赏黑猩猩的上半身力量——这些都是洛根的主要材料。

但是,当然,能够可信地伪造某人的声音也会产生令人不安的效果。正如Dessa工程师在他们的博客文章中指出的,恶意使用虚假声音的案例包括冒充你亲人的垃圾邮件;用虚假的声音欺凌或骚扰他人;并通过虚假的政治记录制造虚假信息。

“显然,语音合成和其他技术的社会影响是巨大的,”Dessa写道。“它的影响会影响到每一个人。穷消费者和富消费者。企业和政府。”

虚假的人工智能声音可以用于错误信息,但它们也可以改进技术

公司也指出有优势。这包括创建更逼真的AI助手;电视电影配音更快更准;为有语言障碍的人设计逼真的个性化合成语音。

我们已经联系了Dessa,以获得更多关于其工作的信息,但该公司表示,由于存在恶意使用的可能性,它不会完全公布其研究成果或公开其AI模型。(我们看到了来自大型AI实验室的立场,比如OpenAI,它有争议地保留了其文本生成AI系统的最终版本。)

虽然有一个很好的论据可以说,对于被技术缠住的担心被夸大了(这种技术已经存在了很多年,但假货还没有影响到主流政治),但很明显,这种技术只会改进,将来还会改进。

该公司表示:“现在,需要技术专长、原创性、计算能力和数据才能让像RealTalk这样的模型表现出色。“但在未来几年(甚至更早),我们将看到这项技术已经发展到只需几秒钟的音频,就能在这个星球上创造出任何人声音的生命复制品。”

听AI Joe Rogan讲黑猩猩撕你的球很奇怪,只是开始。

版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。