2024-08-30
8月29日消息,据The Verge报道,OpenAI和Anthropic已同意在发布前将其主要新AI模型共享给美国政府,以协助提升模型的安全性。此举旨在确保政府能够更好地评估这些模型可能带来的安全风险,并及时采取措施来缓解潜在问题。两家公司已与美国AI安全研究所签署了谅解备忘录,承诺在新模型发布前后向政府提供访问权限。
OpenAI和Anthropic的这一决定是为了响应美国政府对AI安全日益增长的关注。随着人工智能技术的快速发展,各种AI模型已经展现出极大的潜力,但同时也带来了前所未有的安全风险。例如,AI模型可能会被用于生成恶意内容、进行网络攻击,甚至可能出现难以预料的“黑天鹅事件”。因此,政府及相关机构需要提前评估这些风险,以确保AI技术在一个可控和安全的环境中发展。
与此同时,加利福尼亚州近日通过了《前沿人工智能模型安全创新法案》(SB 1047)。该法案要求AI公司在训练高级基础模型前采取特定的安全措施。具体而言,法案规定了几项关键要求,例如在模型训练过程中需要实施更加严格的数据管理政策和安全评估程序,以防止模型出现不受控制的行为。此外,法案还提议建立一个专门的监督委员会,对AI模型的开发和部署进行持续监督。
然而,这项法案的出台却引发了包括OpenAI和Anthropic在内的多家AI公司的反对。这些公司认为,该法案可能会对小型开源开发者造成不利影响。由于这些小型开发者通常缺乏足够的资源来满足法案中的严格要求,可能会导致创新受限,无法与大公司竞争。因此,OpenAI和Anthropic等公司呼吁加利福尼亚州政府在制定政策时更多考虑行业的多样性和开放性,以免阻碍技术的进一步创新和发展。
尽管如此,AI领域的监管和安全问题仍然是一个复杂且多变的议题。如何在促进技术创新的同时,确保其安全性和可控性,将是未来政策制定者和行业领导者必须共同面对的挑战。OpenAI和Anthropic与美国政府的合作无疑为行业树立了一个新的标杆,也为未来的AI监管和安全措施提供了新的思路。
动态 2024-02-01
新闻 2024-02-06
动态 2024-01-16
动态 2024-01-17
新闻 2024-02-01
新闻 2024-01-16
动态 2024-02-01
新闻 2024-01-17
新闻 2024-02-20
动态 2024-01-17