美国强化人工智能行业安全应用
美国白宫12日发布声明称,美国商务部长雷蒙多等政府官员将在白宫召集人工智能(AI)企业的高管,拟通过共享风险信息、引入第三方漏洞检测、使用限制指南等措施,加强这项新技术的安全应用。
根据声明,Adobe、Cohere、IBM、英伟达、Palantir、Salesforce、Scale AI和 Stability八家涉及人工智能的公司承诺采取自愿监管措施管理AI技术开发风险,包括在推出前展开安全测试、构建安全放在首位的系统、为AI生成内容添加数字水印等。
在确保产品安全方面,八家公司承诺在发布AI系统之前,将对其系统进行内部和外部安全测试。这项测试将部分由独立专家进行,旨在防范人工智能可能造成的风险,如生物安全和网络安全,以及其更广泛的社会影响。此外,公司还承诺在整个行业以及与政府、民间社会和学术界共享有关管理人工智能风险的信息,包括安全最佳实践和技术合作。
这些公司还承诺将安全放在系统构建的首位,承诺将资金用于网络安全和内部威胁保障措施,以保护专有和未发布的大模型。这些大模型是人工智能系统中最重要的部分,八家公司一致认为,在充分考虑安全风险后再发布大模型至关重要。此外,公司还致力于促进第三方发现和报告其人工智能系统中的漏洞,从而使这些问题能快速发现和修复。
在赢得公众信任方面,这些公司致力于开发强大的技术机制,以确保用户知道内容何时由人工智能生成,例如水印系统。这一行动使人工智能的创造力和生产力得以蓬勃发展,且减少了欺诈和欺骗的危险。此外,相关公司承诺公开报告其人工智能系统的功能、局限性以及适当和不当使用的领域。
加强人工智能的应用监管日益成为全球焦点。欧洲议会6月表决通过《人工智能法案》授权草案,该法案有望于今年年底获得最终批准。美国《外交》杂志日前刊文指出,人工智能在2035年可能无处不在:AI系统将管理医院,运营航空公司,并在法庭上较劲。届时,生产力将飙升至前所未有的水平,无数以前难以想象的企业以惊人的速度扩张,但在应用风险的防范方面需要随之升级。业界普遍认为,如何更好地平衡与衔接技术创新和制度创新,还需在实践中不断修正。