近日,来自30家组织的58位共同作者联合发布了一份关于提高人工智能(AI)系统可信度的多利益相关方报告。这份报告汇集了来自众多知名机构的观点和建议,如未来智能中心(Centre for the Future of Intelligence)、Mila研究所、Schwartz Reisman技术与社会研究所、行为科学高级研究学院以及安全与新兴技术研究中心等。
该报告详细介绍了10种机制,旨在提高对AI系统相关声明的验证性。这些工具将帮助开发者提供证据证明其AI系统的安全性、安全性、公平性和隐私保护措施;同时,也为用户、政策制定者和公民社会提供了评估AI开发流程的重要参考依据。
此报告的意义在于,它不仅为科技界提供了一套标准化的方法来确保AI系统的透明度与可靠性,同时也为政府监管机构及公众参与监督人工智能项目提供了有力支持。这将有助于构建一个更加开放、公平且安全的AI技术生态。
🔗 来源:Improving verifiability in AI development (AI 严选)
推荐意见