首页 > 技贸资讯 > 预警信息

欧盟人工智能办公室发布《通用人工智能行为准则》

发布时间:2024-12-05 来源:中国技术性贸易措施网

    2024年11月14日,欧盟人工智能办公室(AI Office)正式发布《通用人工智能行为准则》(General-Purpose AI Code of Practice)草案,为通用人工智能模型的发展和应用提供指导框架,确保其符合欧盟的法律要求和价值观。该草案由四个工作组协作编写,旨在为通用人工智能模型提供商和具有系统风险的通用人工智能模型提供商提供指导,以确保其遵守欧盟相关法律,促进人工智能的安全和可持续发展。该草案涵盖了透明度、版权、风险分类、风险评估与缓解等多方面规则,并遵循一系列起草原则。欧盟AI法案于2024年8月1日生效,规定准则最终版本应于2025年5月1日前准备就绪。该草案是在参考众多利益相关者意见、国际方法以及相关法律和研究的基础上制定的。

    一、起草计划与原则

    与欧盟原则和价值观保持一致:确保措施、子措施和关键绩效指标(KPI)符合欧盟法律所体现的一般原则和价值观。

    与AI法案和国际方法保持一致:促进AI法案的适当应用,参考国际方法(如AI安全机构或标准制定组织制定的标准或指标)。

    风险相称性:措施应与风险相称,对更重大或不确定的严重风险采取更严格措施,子措施和KPI应具体、明确,避免规避或错误指定,且根据风险类型、分布策略和部署环境等因素进行区分。

    面向未来:子措施和KPI应能适应技术发展,确保AI办公室能够基于更优信息评估合规性,同时在具体要求与灵活性之间取得平衡。

    与提供商规模相称:考虑通用人工智能模型提供商规模,为中小企业和初创企业提供适当简化的合规方式。

    支持人工智能安全生态系统的发展与成长:鼓励利益相关者合作,共享知识和最佳实践,支持开源模型对生态系统的积极影响。

    二、通用人工智能模型提供商规则

    1.透明度要求

    文档编制:提供商需为AI办公室和下游提供商编制并更新模型技术文档,包括模型基本信息、预期任务、使用政策、发布日期、交互方式、架构参数、输入输出模态、许可证、集成技术手段、训练过程、数据信息、计算资源、能耗等内容。鼓励考虑向公众披露部分信息以提高透明度。

    附录:可接受使用政策(AUP):AUP应至少包含目的声明、范围、主要预期用途和用户、可接受和不可接受用途、安全措施、监控与隐私、警告和账户处理流程、致谢等要素,确保与提供商描述模型用途和能力的材料一致,并向下游提供商提供必要信息。

    2.版权相关规则

    制定版权政策:提供商应制定政策以遵守欧盟版权及相关权利法律,涵盖模型整个生命周期,明确责任,进行上游和下游版权合规管理(下游版权措施不适用于中小企业)。

    遵守文本和数据挖掘(TDM)例外限制:进行TDM时,需确保合法获取受版权保护的内容,遵守权利保留规定,包括遵循robots.txt、确保搜索引擎可发现性、采用行业标准识别权利保留、参与标准制定讨论、排除盗版来源等措施(部分子措施不适用于中小企业)。

    透明度:公开版权保留合规措施信息,包括爬虫名称和robots.txt特征,指定联系人处理版权投诉,记录数据来源和授权信息以供AI办公室监测。

    三、系统风险分类

    1.风险类型:包括网络攻击、化学/生物/放射/核风险、失控、自动化模型研发、说服与操纵、大规模歧视等,提供商可识别其他潜在系统风险。

    2.风险性质:涉及风险起源、驱动因素、意图、新颖性、概率-严重性比、风险实现速度、可见性、事件发展过程等维度。

    3.风险来源

    危险模型能力:如网络攻击、武器相关能力、自主性、说服力、规划能力等,这些能力虽有有益用途,但也可能引发系统风险。

    危险模型倾向:如与人类意图/价值观不一致、欺骗倾向、偏见、不可靠性、追求目标等。

    模型功能和社会技术背景:包括去除防护措施潜力、工具访问、模态、发布策略、人为监督、模型泄露、用户数量、攻防平衡、社会脆弱性、缺乏解释性、技术成熟度、反馈循环等。

    四、具有系统风险的通用人工智能模型提供商规则

    1.安全与保障框架(SSF):提供商应采用、实施并公开SSF,根据预期系统风险严重程度确定其全面性,用于主动评估和缓解系统风险。

    2.风险评估

    风险识别:持续彻底识别可能源于模型的系统风险,参考风险分类确定相关风险。

    风险分析:使用可靠方法分析风险路径、映射风险指标、确定风险严重程度层级、预测风险发生时间。

    证据收集:持续收集模型特定系统风险证据,包括模型无关证据、最佳实践评估、确保科学严谨性、充分挖掘模型能力、在不同系统中评估、进行多样化评估和探索性工作、分享工具和最佳实践、透明报告评估结果等,部分工作可与第三方合作或外包。

    风险评估生命周期:在模型开发和部署的全生命周期持续评估风险和收集证据,包括训练前准备、训练中定期收集、部署期间定期更新评估、部署后监测,根据不同阶段和风险情况调整评估方式。

    3.技术风险缓解

    缓解措施:在SSF中详细说明从风险指标到安全和保障缓解措施的映射,包括安全和安全缓解措施(根据风险程度实施,如行为修改、系统部署防护、提供反制措施),明确现有缓解措施的局限性和评估映射充分性的过程。

    安全与保障报告(SSR):创建SSR记录风险和缓解评估,内容包括风险评估结果、缓解措施评估结果、成本效益分析、方法细节、内部审查结果等,确保报告与风险程度相称且内部外部一致。

    开发与部署决策:基于SSR建立决策流程,确定继续或停止模型开发和部署的条件,包括不继续的条件、继续的条件(如改进缓解措施或进行成本效益分析)以及外部输入和决策要求。

    4.治理风险缓解

    系统风险所有权:确保组织各级对系统风险有足够的所有权,包括在执行和董事会层面分配责任和资源(可考虑根据提供商规模或其他特征调整)。

    遵守和充分性评估:每年评估SSF的遵守和充分性,考虑计划活动并向董事会报告,明确评估应回答的问题和充分性定义。

    独立专家系统风险和缓解评估:在模型生命周期中适当进行独立专家评估,包括部署前充分测试和部署后允许独立研究,评估内容包括模型能力、证据、风险和缓解措施,评估应根据风险程度和性质进行调整(明确第三方评估机构标准、支持中小企业评估、确定独立测试的适当情况)。

    严重事件报告:识别、跟踪、记录和及时报告源于模型的严重事件及可能的纠正措施,建立报告和响应流程,明确严重事件定义、间接导致情况、报告条件和可能的纠正措施(针对开源或开放权重提供商的措施)。

    举报保护:实施举报渠道并提供保护,告知员工举报邮箱,考虑在准则中明确欧盟举报人指令的相关内容。

    通知:向AI办公室通知模型分类、SSF、SSR和重大系统风险等相关信息,包括在训练前估计计算能力并通知、确保AI办公室获取SSF和SSR、在特定情况下通知重大风险,明确通知的具体要求和相关标准。

    文档记录:记录与遵守准则和AI法案相关的证据,包括模型风险分类、SSF、SSR等信息,考虑制定标准化模板以降低合规成本。

    公共透明度:通过发布SSF和SSR提供适当公共透明度,帮助生态系统理解和缓解风险,明确可能增加系统风险或泄露敏感信息的情况,考虑公共透明度的类型、水平和负担。