美国《纽约时报》9月23日文章,原题:互联网将变得更糟 英国配音演员格雷格·马斯顿最近在网上发现了一个模仿他声音的人工智能机器人。它根据马斯顿2003年录制的一段音频训练而成,并用他的声音讲出了他从未说过的话。
信任被侵蚀的时代
当年,马斯顿曾为国际商业机器公司(IBM)录制了一段音频,并允许该公司以多种方式使用这份录音。那时候,马斯顿觉得IBM只会使用他的录音内容。然而,随着人工智能出现,IBM将马斯顿这份20年前的录音卖给一些网站,后者用它制作出一个什么都说的人造声音。马斯顿最近发现,他的声音出现在温布尔顿网球锦标赛的网站上。
马斯顿的困境解释了为何大量知名创作者都在奋起反抗。我们正处在一个信任被侵蚀的时代,大家意识到自己对公共空间的贡献可能被滥用、被货币化,并可能被用来与自己竞争。一旦这种情况多起来,我们的数字公共空间可能会被不可信的内容污染得更乌七八糟。
在社交平台X(原推特)表示将使用其平台上的数据来训练人工智能之后,艺术家们已经开始从该平台删除自己的作品。好莱坞作家和演员罢工的部分原因是,他们希望确保自己的作品不会被输入人工智能系统,因为公司可能会尝试用人工智能系统来取代他们。包括《纽约时报》和美国有线电视新闻网在内的新闻媒体已经在它们的网站上添加文件,以防止人工智能聊天机器人抓取它们的内容。作家们正在起诉人工智能机构,称他们的著作被纳入一些人工智能系统的训练数据中。而OpenAI在一项诉讼中辩称,他们根据版权法的“合理使用”条款,使用受版权保护的数据来训练人工智能系统的行为是合法的。
公共资源受到私利损害
当优质内容创作者在争论他们的作品被如何使用时,人工智能生成的内容正在涌入公共领域。一家监测机构称,截至目前,已经确定了14种语言的475个人工智能生成的新闻和信息网站。
这是一个典型的公地悲剧,即公共资源受到个人私利的损害。就好像一块供牛吃草的公共田地,如果没有任何限制,个体养牛人就会有过度放牧的动机,从而破坏公共田地对所有人的价值。我们在互联网上也有公地,互联网尽管有很多有毒的角落,但仍然充满了为公众服务的活力部分,比如志愿者们努力地在维基百科等平台分享知识,并阻止破坏分子的出现。但这些公地现在正被贪婪的科技公司过度侵占,它们试图向这里注入营利性的人工智能系统。现在,一些维基百科编辑正在抗争,因为他们认为自己有权依靠法律打击那些使用他们的内容却不引用来源的聊天机器人。
监管工作需要跟上
监管机构在试图解决这个问题。欧盟正在考虑出台针对人工智能的第一套普遍规范,要求生成式人工智能系统具有一定透明度,比如提供用于训练其系统的受版权保护数据的摘要。这将向前迈出一大步,因为许多人工智能系统并未完全披露它们用来训练的数据。美国《大西洋月刊》最近一项调查显示,Meta的人工智能聊天机器人Llama的训练数据中包含了超过17万本盗版书籍。此外,美国《华盛顿邮报》的一项调查显示,OpenAI的ChatGPT依赖于未经同意而抓取的数十万个网站数据。
目前,对所抓取数据使用的透明度不足以平衡数据所有者与利用数据赚钱的公司之间的权利。美国全国配音演员协会创始人兼主席蒂姆·弗里德兰德呼吁人工智能公司采用道德标准,使用相关数据需得到演员同意,并给予演员补偿。
马斯顿估计,对其声音的人工智能复制已经让他失去了工作。目前,马斯顿正在与律师合作寻求赔偿。即使是我们这些没有直接受到人工智能威胁的人,也会想在创作的时候受到保护。如果我们没有任何措施来防止人工智能数据过度掠夺,大家会觉得在公共平台进行创作没有任何意义,那将是真正的悲剧。(作者茱莉亚·安格温,陈欣译)