2022 年是生成式人工智能爆火的一年,我们看到了文本到图像模型 Stable Diffusion 和文本内容生成器 ChatGPT 的诞生。在这些模型的帮助下,许多不懂编程技术的人第一次体验到了人工智能系统的威力。
在放假的时候,我尝试不去思考人工智能,但我遇到的每个人似乎都想和我谈论它。我遇到了一个朋友的表弟,他大方地承认了自己用 ChatGPT 写了一篇大学论文,但当他听说我刚写了一篇关于如何检测人工智能生成文本的故事时,他脸色大变;
我在酒吧里偶遇的人,主动跟我聊起他们如何体验了流行的图像编辑应用 Lensa;我还遇到了一个对人工智能图像生成模型感到紧张的图像设计师。
(来源:ERICA SNYDER/MITTR | PIXABAY)
今年,我们将看到更多、更强的人工智能模型。我的一个预测是,随着欧盟的监管机构为人工智能技术敲定规则,联邦贸易委员会等美国政府机构正在考虑自己的规则,我们将从模糊的道德指导方针转向具体的监管规则和红线,我们将看到更具体的人工智能监管措施。
欧洲的立法者正在为可以生成图像和文本的人工智能模型制定规则,诸如 Stable Diffusion、LaMDA 和 ChatGPT 等等,这可能预示着公司任意发布人工智能模型的时代的终结。
这些模型越来越多地成为许多人工智能应用程序的支柱,但创造这些模型的公司对它们是如何构建和培训的经常守口如瓶。我们不太了解它们是如何工作的,这使得我们很难理解这些模型是如何产生有害的内容或有偏见的结果的,或者如何减轻这些问题。
欧盟正计划更新其即将出台的、全面的人工智能法规,即人工智能法案(AI Act),以迫使这些公司阐明其人工智能模型的内部运作原理。该法案可能会在今年下半年通过,在那之后,如果企业想在欧盟销售或使用人工智能产品,就不得不遵守这些规定,否则将面临高达其全球年应收 6% 的罚款。
欧盟称这些生成模型为“通用人工智能系统”,因为它们可以用于许多不同的事情(这不同于所谓的通用人工智能,即与人类智能相媲美的人工智能)。像 GPT-3 这样的大型语言模型可以被当作客服聊天机器人,也可以大规模地创建虚假信息,而 Stable Diffusion 则可以用于制作贺卡,或者深度伪造图像。
欧洲议会成员德拉戈·图多拉什(Dragoș Tudorache)认为,虽然这些模型的确切监管方式将仍未盖棺定论,但此类人工智能模型的创造者,如 、、,可能需要进一步公开其模型是如何建立和训练的。
布鲁金斯学会的人工智能治理研究员亚历克斯·恩格勒()表示,管理这些技术是很棘手的,因为管理生成式模型需要解决两种不同类型的问题,要分别采用非常不同的政策解决方案。一个是传播人工智能生成的有害内容,如仇恨言论和色情内容;另一个是,当公司将这些人工智能模型整合到招聘过程中或使用它们来审查法律文件时,可能会出现有偏见的结果。
分享更多关于模型的信息,可能会帮助那些在模型之上构建产品的第三方。但当人工智能生成的有害内容开始传播时,我们需要更严格的规则。一些人建议,应该要求生成模型的创建者采取技术手段限制模型产生的内容,监控它们的输出,并封禁滥用该技术的用户。但即便如此,也不一定会阻止人们传播有毒内容。
虽然科技公司不愿透露自己的“秘密武器”,但目前监管机构要求提高透明度并制定企业问责制度的努力可能会开启一个新时代,让人工智能的发展不被滥用,并且以尊重隐私等权利的方式进行。这让我对今年充满希望。
支持:Ren
原文:
https://www.technologyreview.com/2023/01/10/1066538/the-eu-wants-to-regulate-your-favorite-ai-tools/