1. 2024 年 8 月 1 日、AI に対する包括的な規制である EU AI 規則が発 効(下)
7 月号のニュースレターに続いて、本ニュースレターでは、AI 規則の規制と EU で事業を展開する すべての企業に対して予想される影響について詳述します。
(3) AI 規則の規制
高リスク AI システムに求められる要件
高リスク AI システムを提供する企業や、第三者が提供する高リスク AI システムを使用する企 業は、AI 規則の下で最も厳しい規制に直面することになります。高リスク AI システムに求められる 主要な要件には次のものがあります 1 。
- リスク管理システムを構築し維持すること 2
- 学習、検証及びテストのために高リスク AI の目的と関連があり( relevant)、代表的 (representative)なデータセットを使用すること 3
- 要件に適合していることを実証するために必要な詳細な技術文書を作成すること 4
- システムの耐用年数にわたってイベント(ログ)の自動記録を可能にすること 5
- 透明性を確保し、明確な使用方法に関する指示をデプロイヤーに提供すること 6
- 人間による監督を実施すること 7
- 適切なレベルの正確性、堅牢性(robustness)及びサイバーセキュリティの達成 8
これらの要件を遵守するため、事業者は、自社の AI システムを慎重に評価し、強固なコンプラ イアンスのためのプロセスを実施し、関連する規制の遵守を示す技術文書を準備する必要があり ます。また事業者は、自社の AI システムを使用する他の事業者に対して、関連する記録や情報 を提供する必要があります。AI 規則の要件は、業界に応じたスケジュールにより段階的に施行さ れる予定ですが、高リスク AI システムに求められる新たな要件の一部は、早ければ 2026 年 8 月 2 日に施行されることが公表されています 9。
NPO の Future of Life Institute は、企業が AI 規則を遵守するために満たすべき要件を確認 するためのオンラインツールをリリースしています 10。
一般目的(GP)AI モデルに求められる要件 11
すべての一般目的 AI モデルの提供者は、以下を含む新たな規制の対象となります。
- 規制当局の要請に応じて提供するために、設計仕様の詳細並びに学習、テスト及び検証に 使用されるデータを含んだ最新の技術文書を作成し保持すること 12
- 一般目的 AI モデルを自らの AI システムに統合しようとする AI システムの提供者に対し、一 定の情報及び文書を作成し提供すること。当該提供者が一般目的 AI モデルの能力及び限 界を十分に理解し、本法に基づく義務を遵守できるようにするための情報が含まれます 13。
- 著作権及び関連する権利に関して EU 法を遵守するための方針を導入すること 14
- 一般目的 AI モデルの学習に使用されるコンテンツに関する十分に詳細な要約を作成し、公 開すること15
特例として、オープンソースとしてリリースされる一般目的 AI モデルは、これらのモデルがシステ ミック・リスクを伴う一般目的 AI モデルに該当しない限り、一部の要件が免除されます。
システミック・リスクを伴う一般目的 AI モデルに求められる要件 16
システミック・リスクを伴う一般目的 AI モデルとは、適切な技術的ツールや方法論に基づいて 評価された高い影響力を有するモデル、又はモデルのパラメータ数、データセットの質若しくはサ イズ、入出力モダリティ、登録ユーザー数などの一定の基準を考慮して、欧州委員会によってシ ステミック・リスクを伴う能力又は影響力を有すると認定されたモデルを指します。浮動小数点演 算で測定される一般目的 AI モデルの学習に使用される計算能力が 10^25 を超える場合、一般 目的 AI モデルはシステミック・リスクを伴うものと推定されます 17。一般目的 AI モデルの提供事 業者は、モデルをシステミック・リスクを伴うものとして分類した欧州委員会の決定に異議を唱える ことができます18。
システミック・リスクを伴う一般目的 AI モデルの提供事業者は、上述の一般目的 AI モデルに 関する義務に加え、モデル評価の実施、予測されるシステミック・リスクの評価とその軽減、規制 当局への重大インシデントの報告、及び適切なレベルのサイバーセキュリティの確保を含む追加 的な義務を遵守することが求められます。
ディープフェイク
ディープフェイクとは、AI が生成又は処理した画像、音声、又は動画コンテンツで、既存の人物、 オブジェクト、場所、エンティティ、あるいはイベントに類似しており、本物又は真実であると人に誤 って認知され得るものと定義されます 19。
AI 規則の下では、AI システムを使用してディープフェイクを作成するデプロイヤーは、AI の出力 にディープフェイクであることを表示して、その人為的な起源(犯罪を発見し、防止し、捜査し、訴 追するための使用が法律によって認められている場合を除く)を明らかにすることによって、コンテ ンツが人工的に作成又は操作されたことを明確に開示する必要があります 20。コンテンツが明ら かに芸術的な作品の一部を形成している場合には、かかる透明性の義務は、そのように作成又 は操作されたコンテンツの存在を、作品の展示や楽しみを妨げない方法で開示することに限られ ます21。
Footnotes
1. Regulation (EU) 2024/1689 2 節:高リスク AI システムの要件及び 3 節:高リスク AI システムの提供事業者及びデプロ イヤーとその他の関係者の義務
2. Regulation (EU) 2024/1689 9 条:リスク管理システムの構築
3. Regulation (EU) 2024/1689 10 条:データガバナンス
4. Regulation (EU) 2024/1689 11 条:技術文書
5. Regulation (EU) 2024/1689 12 条:記録保持
6. Regulation (EU) 2024/1689 13 条:透明性及びデプロイヤーへの情報提供
7. Regulation (EU) 2024/1689 14 条:人的監視
8. Regulation (EU) 2024/1689 15 条:AIの正確性、堅牢性、サイバーセキュリティの確保
10. EU AI Act Compliance Checker | EU Artificial Intelligence Act
11. Regulation (EU) 2024/1689 53 条:一般目的 AI モデルの提供事業者の義務
12. Regulation (EU) 2024/1689 53 条 1 項(a):技術文書の当局への提供
13. Regulation (EU) 2024/1689 53 条 1 項(b):提供事業者への情報提供
14. Regulation (EU) 2024/1689 53 条 1 項(c):著作権の尊重
15. Regulation (EU) 2024/1689 53 条 1 項(d):学習用コンテンツの情報公開
16. Regulation (EU) 2024/1689 55 条:システミック・リスクを伴う一般目的 AI モデルの提供事業者の義務
17. Artificial Intelligence – Q&As (europa.eu)
18. Regulation (EU) 2024/1689 52 条 2 項
19. Regulation (EU) 2024/1689 3 条(60)号:ディープフェイク
20. Regulation (EU) 2024/1689 50 条 4 項
21. 同上
To view the full article, click here.
The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.