|EN

AI 事業者ガイドラインの概要

Filed under:

このブログ記事では AI 事業者ガイドラインについて、背景や立ち位置、概要を紹介します。

AI 事業者ガイドライン作成の背景

AI 事業者ガイドラインは総務省・経済産業省により作成された AI を事業に利用するためのガイドラインです。まずはこのガイドラインが策定された背景を確認しましょう。

このガイドラインは AI 戦略会議(座長:松尾豊 東京大学大学院工学研究科教授)が作成した「AIに関する暫定的な論点整理」を受けて作成されたものです。

この報告では生成 AI による新たなリスクに対して、法令やガイドラインの遵守を AI 開発者や AI サービス提供者に求めることの重要性と、既存の法令・ガイドラインで対応できない場合には必要な対応を検討することの必要性が強調されました。一方で、これまでに作成された主なガイドラインは生成 AI に対応していませんでした。たとえば、総務省・経済産業省により作成された次のガイドラインは生成 AI に触れられていません。

  • 「国際的な議論のためのAI開発ガイドライン案」 (総務省)
  • 「AI利活用ガイドライン~AI利活用のためのプラクティカルリファレンス~」 (総務省)
  • 「AI原則実践のためのガバナンス・ガイドライン Ver. 1.1」 (経済産業省)

このため、これまでのガイドラインを踏まえ、AI ガバナンスの統一的な指針を示すために策定されたのがAI事業者ガイドラインです。

https://www.meti.go.jp/press/2024/04/20240419004/20240419004-1.pdf p.3 図1 を引用

AI 事業者ガイドラインはこれまでに作成されているガイドラインに加えて、次の2つの事項を踏まえて作成されています。第一に、これは国際協調の中で作成されています。ガイドラインでは「広島 AI プロセス」などの国際的な取り組みについて言及されており、グローバルな観点が盛り込まれています。同時に、AI を巡る考え方には地域差がある点にも触れられており、現地の法令への対応が必要な旨も述べられています。

第二に、生成 AI を含む新技術への技術的な動向には深い注意が払われています。このガイドラインは 2024 年 4 月現在の生成 AI の技術に基づいて作成されましたが、生成 AI に関連した技術は急速な進歩を遂げ続けています。このため、このドキュメントは「アジャイル・ガバナンスの思想を参考にしながら、マルチステークホルダーの関与の下で、Living Document として適宜更新を行うことを予定」と適宜更新する運用が宣言されています。

このように、AI事業者ガイドラインは過去の経緯を踏まえたものとなっており、現在の生成 AI のリスクに対応しつつ、将来の技術的な進歩に対応できるものとなっています。

AI 事業者ガイドラインの及ぼす影響

AI 事業者ガイドラインの背景を確認したところで、次にその及ぼす影響を確認しましょう。

AI事業者ガイドラインはソフトロー

AI 事業者ガイドラインはあくまで「ガイドライン」であり、それ自体は拘束力を持ちません。このため、このガイドラインを採用するかどうかは自由ですし、ガイドラインに反したときの罰則規定もありません。AI 事業者ガイドラインはいわゆるソフトローとしての運用が想定されており、ガイドラインを参考とした個別契約 (サービスの開発時の業務委託契約、サービスの利用契約など) を締結することにより効力が発揮されます。これは具体的な罰則規定のある EU の AI Act とは対象的です。

このような性質のガイドラインであることから、いわゆるセキュリティガイドラインと似たような運用が想定されているものと思われます。このような運用を容易とできるような、ガイドラインへの準拠の度合いを確認するためのチェックリストワークシートも合わせて提供されます。一方で、チェックリストは個別サービスごとにカスタマイズして使う前提となっていることと、内容には判断基準が曖昧なものも多いことには注意が必要です。

ガイドラインの対象者

AI 事業者ガイドラインは AI に関連するステークホルダー全体を対象としています。このため、対象には AI サービスを開発する事業者だけではなく、AI サービスの提供者、AI サービスの利用者も含まれます。

AI 事業者ガイドラインでは AI の事業活動を担う主体として、AI 開発者、AI 提供者、AI 利用者の3つを定義しています。

https://www.meti.go.jp/press/2024/04/20240419004/20240419004-1.pdf p.5 図3を引用

AI 開発者は AI サービスを提供するためのシステムの開発を行う事業者です。また、AI に関する研究開発を行う事業者もここに含まれます。より具体的な役割は次の通り定義されます。

AI モデル・アルゴリズムの開発、データ収集(購入を含む)、前処理、AI モデル学習及び検証を通してAI モデル、AI モデルのシステム基盤、入出力機能等を含む AI システムを構築する役割を担う。

AI 提供者は AI システムをサービスに組み込み提供する事業者を指します。AI 提供者にはサービスを開発する事業者だけではなく、たとえば ChatGPT のような既存の AI を組み込んでいるサービスを提供している事業者も含まれます。また、役割も次のように定義され、広い範囲にわたって責任を果たすことが期待されています。

AI システム検証、AI システムの他システムとの連携の実装、AI システム・サービスの提供、正常稼働のための AI システムにおける AI 利用者(AI Business User)側の運用サポート又は AI サービスの運用自体を担う。AI サービスの提供に伴い、様々なステークホルダーとのコミュニケーションが求められることもある。

AI 利用者は AI サービスを利用する事業者を指します。AI 利用者については次の通り述べられています。

AI 提供者が意図している適正な利用を行い、環境変化等の情報を AI 提供者と共有し正常稼働を継続すること又は必要に応じて提供された AI システムを運用する役割を担う。また、AI の活用において業務外利用者に何らかの影響が考えられる場合は、当該者に対する AI による意図しない不利益の回避、AI による便益最大化の実現に努める役割を担う。

AI 開発者や AI 利用者だけではなく、AI サービスの利用者 にも及ぶ (ただし、個人利用者は除く) のは少し意外に感じられるかもしれません。一方で、たとえばタクシーの運転手やトラックのドライバーが、車の業務利用に関して適切に利用することを期待されるように、AI を業務利用する場合も適切に利用することが期待されるのは妥当かと思われます。

また、上記とは別に「高度な AI システムに関係する事業者」というカテゴリーも定義されています。これは「最先端の基盤モデル及び生成 AI システムを含む、最も高度な AI システム」に関係するステークホルダーを全体を指します。このため、AI 開発者のみではなく、定義上は AI 提供者や AI 利用者も含まれます。

このように、AI 事業者ガイドラインの対象者は幅広く、AI を事業利用するステークホルダーが広く対象となっています。

AI ガバナンス

AI ガバナンスは AI 事業者ガイドラインの中で、次のように定義されています。

AI の利活用によって生じるリスクをステークホルダーにとって受容可能な水準で管理しつつ、そこからもたらされる正のインパクト(便益)を最大化することを目的とする、ステークホルダーによる技術的、組織的、及び社会的システムの設計並びに運用。

AI ガバナンスとは、AI サービスのステークホルダーが一環となって、AI サービスのリスクを許容範囲内に収めつつ、そこから得られる便益を最大化する取り組み全体を指します。このため、AI システムを作って終わり、AI サービスを立ち上げて終わりということではなく、その後の継続的な運用や評価が必要となります。

AI ガバナンスは綿密に事前定義するというよりも、市場の変化に合わせて柔軟に対応する「アジャイル・ガバナンス」の実践が重要とされています。次の図に示すように、運用を行いながら評価を行いフィードバックループを回すことで、AI ガバナンス自体の改善を含めてサイクルを回すことが求められます。

https://www.soumu.go.jp/main_content/000943079.pdf p.25 図6 を引用

また、実際にシステムやサービスを運用する人だけでなく、経営層の責任についても触れられている点は特徴的です。AI ガバナンスを効果的な取り組みとするためには、経営層の責任は大きい旨が述べられています。このため、日本において AI に関連したサービスを事業として提供しようとしている場合、AI 事業者ガイドラインを経営層を含めて理解しておく必要があります。

AI 事業者ガイドラインの求める取組事項

「共通の指針」に加えて主体毎に重要となる事項

AI 事業者ガイドラインの求める取組事項は、次の表に端的にまとめられています。「高度な AI システムに関係する事業者」については追加の取り組み事項が追加されますが、それについては後ほど確認しましょう。

https://www.soumu.go.jp/main_content/000943079.pdf p.21 表1を引用

表から見て取れるとおり、取組事項は2部の「共通の指針」と3部以降の「主体ごとに重要となる事項」に分けて定義しています。共通の事項はすべてのステークホルダーに共通して重要となる事項が、10個の観点から述べられています。また、AI 開発者、AI 提供者、AI 利用者に特有な事項について、同じ10個の観点から個別に述べています。

10個の観点は次のとおりです。それぞれの観点について短いサマリーをつけています。

  1. 人間中心 : 人間の尊厳と個人の権利を尊重し、意思決定の不当な捜査や偽情報への対応を行い、持続的な取り組みとすること
  2. 安全性 : ステークホルダーの生命・身体・財産に危害を及ぼさないよう、適切なデータでの学習や適切な利用を行うこと
  3. 公平性 : 特定の集団への不当な差別を行わないよう注意し、バイアスを評価したうえで許容可能となるよう務めること
  4. プライバシー保護 : AI システムの開発・提供・利用においてプライバシー保護に務めること
  5. セキュリティ確保 : 不正な操作によって AI システムの振る舞いに意図せぬ変更や停止が生じないよう、セキュリティの確保に努めること
  6. 透明性 : AI サービスの検証可能性を確保しながら、必要かつ技術的に可能な範囲でステークホルダーに合理的に情報提供を行うこと
  7. アカウンタビリティ : AI サービスに関するリスクの程度を踏まえ、事実上・法律上の責任を果たせるよう体制などを整備すること
  8. 教育・リテラシー : AI システムの正しい理解や正しい利用ができるよう、必要な教育を行うこと
  9. 校正競争確保 : AI をめぐる公正な競争環境の維持に努めること
  10. イノベーション : 社会全体のイノベーションの促進に貢献するよう努めること

アカウンタビリティは AI 事業者ガイドライン独自の範疇となっている点には注意が必要です。AI 事業者ガイドラインにおけるアカウンタビリティは「責任者を明示する」「責任の所在を明確にする」「それらを文章化する」といった、責任の所在の明確化についての取組事項となっています。アカウンタビリティは「説明可能性」と定義されることがありますが、これは上記のうち「6. 透明性」に整理されます。

それぞれの観点について詳細に確認すると長くなりすぎてしまうためここでは避けますが、総じて広く AI サービスに適用できるよう抽象的な記述となっており、ベストプラクティスを抽象化したような記述となっています。とくに AI ガバナンスについては解釈の幅が広い記述となっています。

個々の AI サービスにおける具体的な実施事項を定義するためには、AI 事業者ガイドラインを理解した上で個別のサービスの事情を踏まえた具体化が必要です。

高度な AI システムに関係する事業者に共通の指針

高度な AI システムに関係者する事業者には、これまでの事項に加えて、次の事項を「遵守すべきである」と強い言葉で求めています。再掲ですが、「高度な AI システム」とは「最先端の基盤モデル及び生成 AI システムを含む、最も高度な AI システムを指す。」とされており、これは広島 AI プロセスでの定義を引用しています。

  1. AI ライフサイクル全体にわたるリスクを特定、評価、軽減するために、高度な AI システムの開発全体を通じて、その導入前及び市場投入前も含め、適切な措置を講じる
  2. 市場投入を含む導入後、脆弱性、及び必要に応じて悪用されたインシデントやパターンを特定し、緩和する
  3. 高度な AI システムの能力、限界、適切・不適切な使用領域を公表し、十分な透明性の確保を支援することで、アカウンタビリティの向上に貢献する
  4. 産業界、政府、市民社会、学界を含む、高度な AI システムを開発する組織間での責任ある情報共有とインシデントの報告に向けて取り組む
  5. 特に高度な AI システム開発者に向けた、個人情報保護方針及び緩和策を含む、リスクベースのアプローチにもとづく AI ガバナンス及びリスク管理方針を策定し、実施し、開示する
  6. AI のライフサイクル全体にわたり、物理的セキュリティ、サイバーセキュリティ、内部脅威に対する安全対策を含む、強固なセキュリティ管理に投資し、実施する
  7. 技術的に可能な場合は、電子透かしやその他の技術等、AI 利用者及び業務外利用者が、AI が生成したコンテンツを識別できるようにするための、信頼できるコンテンツ認証及び来歴のメカニズムを開発し、導入する
  8. 社会的、安全、セキュリティ上のリスクを軽減するための研究を優先し、効果的な軽減策への投資を優先する
  9. 世界の最大の課題、特に気候危機、世界保健、教育等(ただしこれらに限定されない)に対処するため、高度な AI システムの開発を優先する
  10. 国際的な技術規格の開発を推進し、適切な場合にはその採用を推進する
  11. 適切なデータインプット対策を実施し、個人データ及び知的財産を保護する
  12. 高度な AI システムの信頼でき責任ある利用を促進し、貢献する

「高度な AI システムに関係する事業者に共通の指針」は主に最先端の基盤モデルや生成 AI を作成する AI 開発者に向けたものとなっており、その開発時には十分な注意を払って検証を行うことを求めています。また、AI ガバナンスについても十分な体制を構築することを求めています。AI 提供者や AI 利用者には 12 を遵守するとともに、 他の事項については適切な範囲で遵守することが求められています。

市場の反応

AI 事業者ガイドラインはパブリックコメントを経て制定されています。ここでは市場の反応として、パブリックコメントとして寄せられた意見の中から公表されているものを抜粋し、市場の反応としてご紹介します。

AI 事業者ガイドラインは包括的ではある一方、 EU の AI Act とは異なり拘束力のないソフトローとして作成されていますが、このアプローチについては概ね好評です。パブリックコメントには日本マイクロソフトや Google といったガイドライン中では AI 開発者や AI 提供者と位置づけられる事業者とともに、全国消費生活相談員協会といったエンドユーザーの代表となるような団体も参加しています。反対意見もありますが、これらの団体がガイドラインそのものについて賛成していることは特筆すべきでしょう。

一方で、数々の問題も指摘されているので取り上げていきます。

まず、AI 事業者ガイドラインで取り上げられている取組事項には、開発者が実際には実行できないか、実行のために多大なリソースが必要になることが含まれている旨の指摘がなされています (p.26)。とくに、「高度な AI システムに関係する事業者に共通の指針」で述べられている事項すべてに対応するためには、大変な人的・金銭的リソースが必要となります。これは技術力で勝負したいスタートアップや、新たな事項に取り組む研究開発組織にとっては大変な参入障壁となりえます。

また、アプローチについては好評ではあったものの、AI サービスの開発者・提供者と、AI の作成に必要となるコンテンツの著作者の間では、スタンスに大きな開きがあります。

たとえば、機械学習モデルの訓練に用いられるデータについて『特定の条件を満たすもののみ許可する』といった、現状と比較してかなり強い制限を求めている箇所があります。このような提案を検討することは、著作者の権利保護の観点から重要ですが、十分に慎重な検討が必要です。たとえば、データを訓練のために利用することに強い制約を日本語でのみ設ける場合、生成 AI 分野での日本語の対応を阻害することに繋がりかねません。このように、AI サービスの開発者・提供者とコンテンツの著作者との間にはデータの扱いに関してスタンスに大きな違いがあります。

最後に、海外の法規制との整合性については注意が必要でしょう。たとえば、AI の定義や「高度なAIシステム」は日本独自の定義となっています。海外の法整備は現状進行中であり、整合性を議論するのはいささか時期尚早ではありますが、日本独自のガイドラインとなることは日本の事業者にとっても海外の事業者にとっても望ましくありません。現状でも別添9 として海外のガイドラインの参照先が示されていますが、相互運用性については今後のアップデートが期待されています。

AI 事業者ガイドラインへの対応

AI 事業者ガイドラインの発表を受けて、各事業者が対応すべきことについて検討します。とはいえ、過度に恐れる必要はありません。AI 事業者ガイドラインは総じて機械学習サービスの運営のために必要となる基本的なことを述べており、求められる取り組みの内容もサービスの性質に応じて柔軟に選択できます。

AI 事業者ガイドラインの発表を受けてできる短期的な取り組みと、中長期的な組織的な取り組みについて検討しましょう。ご自身が機械学習サービスを運営しているチームであれば「短期的な取り組み」から、経営メンバー・法務担当者・人事担当者であれば「中長期的な取り組み」からご覧ください。

短期的な取り組み

AI 事業者ガイドラインを受けてすぐにできる取り組みは、別添資料の「具体的なアプローチ検討のためのワークシート」を埋めてみることでしょう。

すでに述べていますが AI 事業者ガイドラインはソフトローであり、ガイドライン自体に強制力はありません。AI 事業者ガイドラインを基にした契約が締結されることで、効果を持つものとなります。たとえば AI 提供者の場合、サービスの提供先の事業者が利用契約の締結時に AI 提供者に「AI 事業者ガイドライン」に準拠していることのエビデンスを、チェックリストのような形で求めることが考えられます。AI 事業者ガイドラインへの対応状況について、ワークシートを用いて網羅的に確認しておくことで、このような場合に備えられます。

「具体的なアプローチ検討のためのワークシート」を埋めるためのより具体的な手順は次のようになるかと思います。

  1. 自組織が「AI 開発者」「AI 提供者」「AI 利用者」のどれに当てはまるのか確認する (以降は「AI 開発者」を例に記述します)
  2. 別添資料の「別添 3.AI 開発者向け」を参照しながら、「別添7C. 具体的なアプローチ検討のためのワークシート (「AI利用者」関連)」を記入する
  3. 「高度なAIシステムに関係する事業者」に当てはまるのか確認し、当てはまる場合は「別添7C. 具体的なアプローチ検討のためのワークシート (「高度なAIシステムに関係する事業者」関連)」を記入する
  4. 本編を参照しながら、「別添7C. 具体的なアプローチ検討のためのワークシート (共通の指針関連)」を可能な範囲で記入する
  5. 「別添7C. 具体的なアプローチ検討のためのワークシート (「ガバナンスの構築」関連)」を可能な範囲で記入する

AI 事業者ガイドラインを受けて、すぐに動き出せるのは現在機械学習サービスを運営しているチームでしょう。機械学習チーム単体で記入可能な範囲は、多くのケースで 2. までとなるので、まずここを目指すことになると思います。共通の指針関連や「ガバナンスの構築」関連は組織的な取り組みが必要となるため、すぐには埋めきれないかもしれません。その場合は現在明らかに記入できる箇所は埋めておき、確認が必要な箇所や今後の取組が必要な箇所を明らかにすると良いでしょう。

注意点として、「具体的なアプローチ検討のためのワークシート」を無理に埋めきろうとしない点が挙げられます。「具体的なアプローチ検討のためのワークシート」は、通常のチェックリストとは異なり、カスタマイズして活用することが前提となっているチェックリストです。個々のサービスの特性に合わせて、項目を具体化しつつ埋めていくとよいでしょう。

最期に、「別添 3.AI 開発者向け」で触れられている手法について、すべてを採用しなくても良い点にも注意しておくとよいでしょう。別添資料で「具体的な手法」として挙げられた手法は、一部の機械学習モデルにしか適応できないものも挙げられています。自分たちの採用する機械学習システムやサービスの特性に合わせて、採用を取捨選択しましょう。

AI サービスの発注側や、サービス利用者に向けた注意も述べておきます。開発の発注時や、AI サービスの利用契約締結時に、サービス開発者や提供者に「具体的なアプローチ検討のためのワークシート」のすべてに対応することを求めるのは、チェックリストとして想定していない利用法です。契約時に必要な項目だけに絞り込む、自分たちのユースケースに合わせて項目を具体化する、といった手法で合理的な範囲になるようカスタマイズする必要があります。

また、AI サービス開発の発注時や、利用契約の締結時に「別添3. AI 開発者向けで挙げられた「具体的な手法」について、すべて対応していること」のような一文をいれるのも避けるべきです。「具体的な手法」として挙げられたそれぞれの手法には制約事項があり、すべての手法を採用することは技術的に不可能です。具体的な手法を指定するのではなく、「検討にあたって必要な事項」の粒度で指定すべきでしょう。

中長期的な取り組み

AI 事業者ガイドラインによるもっとも大きな変化は、機械学習サービスのステークホルダーとして法務担当者、経営メンバー、人事担当者の重要度が上がったことでしょう。ガイドラインと個別開発契約や利用規約の整合性を保って運用すうるために法務担当者の、AI ガバナンスの実現と運用に関して経営メンバーの、AI システムの適切な理解と適切な利用のための教育について人事担当者の取り組みが必要となります。

法務担当者

法務担当者は AI 事業者ガイドラインと AI サービスについて深い理解を要求されます。AI 事業者ガイドラインはソフトローであり、個別契約によって効力を持つといった構図になっているため、実現したい AI サービスの運用を契約時の文面として織り込む必要があります。とくに、これまでと異なり、法務担当者は自組織が AI 開発者・提供者ではなくAI 利用者であったとしても、深い関与が必要となります。自組織で活用されている AI の詳細やそのリスクについて、機械学習チームと連携しながら情報をドキュメント化するとよいでしょう。

また、ハイリスクな業務に AI を用いている場合や生成 AI を用いている場合、状況が流動的である点には注意が必要です。これらの AI サービスについてはグローバルな法整備が現在進行中であり、また新技術の開発も急速度で進行中です。関連する法整備や ISO などの国際標準について、十分な情報収集が必要となるでしょう。

経営者

経営者は AI 事業者ガイドラインにおいて、AI ガバナンスの構築に大きな責任があるとされています。AI ガバナンスの実現のためにはにおいては、自社で提供している AI サービスや業務利用している AI サービスについて、利用によりもたらされる便益やリスクを把握して分析したうえで、責任範疇を明らかにし、適切なステークホルダーに合理的な範囲で情報提供できるような体制を構築する必要があります。また、AI ガバナンスのための体制を評価し、継続的に評価して適切に運用や体制の再設計を行う、アジャイル・ガバナンスが必要となります。

AI ガバナンスは組織内だけではなく、バリューチェーン全体を通じた取り組みであるため、社外のステークホルダーとの対話も必要となります。このため、AI ガバナンスのゴールは経営上のゴールと合致したものとなる必要があり、場合によっては組織の再設計も必要でしょう。

このように、経営層には AI ガバナンスについて非常に複雑かつ重大な期待が寄せられています。AI ガバナンスの構築の前に、以下の事項を推奨します。

  1. 自社で開発している・利用している AI サービスについて、機械学習チームから詳細な情報を把握すること
  2. 自社で開発している・利用している AI サービスの背景となる技術について、体系だったトレーニングを受けること
  3. AI ガバナンスのゴール設定や体制について、AI 事業者ガイドラインで触れられている事例を理解すること

1. について、AI サービスの技術的な詳細よりは、データの収集を含む業務フローや、その便益やリスクの把握に務めるのが良いでしょう。ここで得た知識は、バリューチェーンやリスクチェーンの分析に利用できます。AI は従来の情報処理システムと比較して、ステークホルダーが多岐にわたりがちです。関係者の把握には予想以上に時間がかかることも少なくありません。機械学習チームからはじめ、利害関係者全体の把握に努めましょう。

2. について、AI 技術はサービスによって採用されている技術が多岐にわたるため、自組織で実際に利用している技術に関する正確な理解を得ておくことは、AI サービスに関するコミュニケーションにおいて非常に重要です。聞きかじった知識だけで乗り切ろうとする場合、機械学習チームを含むステークホルダーからの情報収集が困難になり、円滑な意思決定が不可能になります。自組織で利用している技術について、経営層向けの半日から一日程度のトレーニングを受けることは、十分に検討の余地があるでしょう。

3. について、AI ガバナンスの実現形態は多様に渡ることが事業者ガイドラインの事例を確認することでわかります。事例としては NEC グループをはじめとして大規模な組織の事例が載っていますが、ABEJA のようなスタートアップの取り組みも掲載されています。また、グループ全体のポリシーを定める場合も、事業ごとに個別のポリシーを定める場合もあることが確認できます。このように、ビジネスの特性に合わせて AI ガバナンスを実現するための方法はさまざまにあります。自組織での取り組みについて検討する前に、実現形態にはさまざまな種類があることを踏まえておくと、より良い選択肢が検討できるでしょう。

一般に、経営層の関与や組織文化が AI の利活用になって鍵になることは、MLOps の文脈からよく知られています。加えて、AI 事業者ガイドラインで、AI ガバナンスの構築においての責任の大きさを指摘された今、経営層はこれまで以上に機械学習の活用における技量を問われるようになったと言えるでしょう。

人事担当者

人事担当者は、AI の活用において正しい理解のもと、正しく用いられるようにトレーニングを提供する必要があります。

AI や機械学習という技術は、背景となる理論の難しさも相まって、これまではごく一部の研究者や開発者のみが理解していれば良い技術でした。しかし、生成 AI の登場によって誰もが日常的に業務利用している今現在では、ほぼ全社員が AI についてのリテラシーが求められるようになりました。このため、全社員に向けた AI の利活用やリテラシー教育が必要となります。技術的な背景だけではなく、個人情報保護法や著作権法などの関連する法制度についても教育プログラムの展開が必要です。

AI の利活用やリテラシーに関するトレーニングプログラムは、しばらく見直しを続ける必要があるでしょう。何度か触れていますが AI の関連する法整備や国際標準、新技術の開発の状況は激しく流動的であり、1年後の状況を予測することも著しく困難です。世の中の動きや採用している技術をもとに、トレーニングプログラムを見直しましょう。

AI ガバナンスが組織内外を含めた広範囲な取り組みである以上、組織内の誰もが AI に関して責任を担う可能性があります。また、新技術の採用は市場に対して破壊的な影響を持ちえるため、AI の利用者として便益やリスクを把握できることは、組織にとって重要になります。このため、トレーニングプログラムを提供して便益を最大化し、リスクを最小することは重要となります。

まとめ

AI 事業者ガイドラインへの対応について、短期的な取り組みから中長期的な組織的な取り組みまで検討しました。冒頭で述べたように、これらの内容は突飛な内容というよりは、MLOps の文脈でよく知られてきたプラクティスを明文化したものに近く、過度に恐れる必要はありません。AI 事業者ガイドラインへ対応することで、AI サービスの運用の品質向上を図るだけでなく、品質向上の体外的なアピールにもつながるでしょう。

AI 事業者ガイドラインへの対応がコストとしてみなされるのではなく、提供する AI サービスの品質向上の組織的な取り組みとなることを願っています。


AI 事業者ガイドラインへの対応を進めるうえで、お客様が AI ガバナンスを推進し、「共通の取組事項」「主体毎に重要となる事項」への対応を行っていくために、Citadel AI の提供するサービスはお役に立てると思います。

ご興味のある方は是非お問い合わせください

ご質問・ご要望はこちらまで

デモのご要望やご質問は、こちらまでお寄せ下さい。

Related Articles