两名立法者提出了一项法案,要求基础模型的创建者披露训练数据的来源,以便版权所有者知道他们的信息被盗用。这人工智能基金会模型透明度法案� 已提交作者:众议员 Anna Eshoo (D-CA) 和 Don Beyer (D-VA)– 将指示联邦贸易委员会 (FTC) 与美国国家标准与技术研究院 (NIST) 合作,制定报告培训数据透明度的规则。 

制作基础模型的公司将被要求报告训练数据的来源以及在推理过程中如何保留数据,描述模型的局限性或风险,模型如何与 NIST 计划的人工智能风险管理框架以及任何可能会建立其他联邦标准,并提供有关用于训练和运行模型的计算能力的信息。该法案还规定,人工智能开发人员必须向该模型的“红队”报告工作,以防止其在医疗或健康相关问题、生物合成、网络安全、选举、治安、金融贷款决策、教育、就业决策、公共服务和儿童等弱势群体。 

该法案强调了围绕版权进行数据透明度培训的重要性,因为已经有几起针对人工智能公司涉嫌侵犯版权的诉讼。其中特别提到了一个案例反对 Stability AI、Midjourney 和异常艺术的艺术家,(据报道,该提议在 10 月份基本被驳回)创业节拍), 和Getty Images 针对 Stability AI 的投诉。一个 

“随着公众使用人工智能的机会增加,诉讼和公众对版权侵权的担忧也随之增加,”该法案指出。“基础模型的公开使用导致无数次向公众提供不准确、不精确或有偏见的信息。”

该法案仍需要分配给一个委员会进行讨论,目前尚不清楚这是否会在繁忙的竞选季节开始之前发生。

Eshoo 和 Beyer 的法案补充了拜登政府的人工智能行政命令,这有助于建立人工智能模型的报告标准。然而,该行政命令不是法律,因此如果《人工智能基金会模型透明度法案》通过,它将把训练数据的透明度要求纳入联邦规则。