近年、AI関連技術は目覚ましい速さで発展しており、特に文章や画像、プログラムなどを生成できる「生成AI」の進化には目を見張るものがあります。この革新的な技術を、民間だけでなく政府でも活用しようという動きが急速に進んでいます。
一方で、生成AIの利用には、情報漏えいや誤情報の生成など、さまざまなリスクも伴います。安全かつ安心してAIを活用するためには、適切なルール作りが不可欠です。こうした背景から、日本の政府が生成AIの調達や利活用に関するガイドラインを策定されました。
この記事では、政府がなぜ生成AIを活用しようとしているのか、どんなメリットが期待できるのか、そしてどのようなリスクがあり、それをどのように管理していくのかについて、このガイドラインの内容を基に分かりやすく解説します。
なぜ政府が生成AIガイドラインを?背景と目的
AIの活用は、産業のイノベーション創出や社会課題の解決に繋がると期待されています。世界各国や国際的な枠組みでも、AIガバナンス(AIの利活用によって生じるリスクを管理しつつ、便益を最大化するための仕組みや運用)に関する議論が活発に行われ、ルールの整備が進んでいます。
日本でも、こうした技術や社会の変化に迅速に対応するため、事業者向けの「AI事業者ガイドライン」などが既に策定されています。さらに、「デジタル社会の実現に向けた重点計画」では、生成AIを含むAIのリスクを抑えつつ、イノベーションを加速する好循環の形成が目指されており、そのための「ガードレール」となるルールが必要とされました。
このような流れの中で、政府自身の業務への生成AI活用が進むことを踏まえ、政府職員等を対象とした本ガイドラインが策定されたのです。このガイドラインは、デジタル社会推進標準ガイドライン群の一部として位置付けられています。
ガイドラインの主な目的は、「行政の進化と革新のための生成 AI の調達・利活用に係るルール」を示すことです。
このガイドラインの対象者は?
本ガイドラインが対象とするのは、主に政府情報システムを構成要素とする生成AIです。そして、その利活用に関わる政府職員等が対象となります。具体的には、以下の役割を持つ人々が想定されています。
- AI統括責任者(CAIO): 府省庁全体の生成AI利活用推進、ガバナンス構築・実践の司令塔となる者。デジタル統括責任者または副デジタル統括責任者級の職員が想定されています。
- 企画者: 新たな生成AIの利活用を企画し、調達・開発・利活用を推進する者。
- 開発者: 企画に基づき、生成AIシステムを構築する者(内製する場合の政府職員)。
- 提供者: 生成AIモデルを組み込んだサービスを政府または国民に提供する者(政府職員)。
- 利用者: 行政において、生成AIシステムを利活用する者(一般事務や各行政分野の政府職員)。
なお、利用者はガイドラインの直接の対象者ではありませんが、CAIOや企画者が策定したルールを遵守することが求められます。
生成AIを行政で使うと、どんな良いことがある?(期待される便益)
政府は、生成AIの活用には情報漏えいなどのリスクがある一方、様々な事務作業や事務手続の効率化・高度化を実現し、行政の進化と革新を飛躍的に進める可能性があると考えています。また、日本のAI分野の国際競争力向上にも重要だとしています。
ガイドラインでは、生成AIの利活用により期待される便益の例をいくつか挙げています。
- 行政目的の効率的・効果的な実現:
- 指定した内容の文案作成(あいさつ文、メール等)
- 複雑な文章の要約(議事録等)
- 多言語翻訳(日本語↔英語等)
- 企画立案能力の向上: アイデア出し、企画案の深掘り
- 情報収集・分析能力の向上: 府省庁内の文書調査、問い合わせ回答
- 政府が作り出す政策・文書・分析等の質の向上: SNS記事案作成、作成文書の評価・分析、報告書の課題・対策案検討
- 既存政府情報システムの機能向上: 問い合わせ分類・検索精度の向上など
各府省庁は、こうした便益を理解し、積極的に業務での活用を検討する必要があります。
でも、無視できないリスクも…
生成AIの利活用には大きな便益がある一方で、考慮すべきさまざまなリスクが存在します。ガイドラインでは、AI事業者ガイドラインで例示される一般的なリスクに加え、政府固有のリスクについても言及しています。
一般的なリスクの例:
- 技術的リスク:
- 学習・入力段階: データ汚染攻撃、プロンプトを通した攻撃。
- 出力段階: バイアスのある出力、差別的出力、ハルシネーション(事実と異なる回答)。
- 事後対応段階: ブラックボックス化による説明責任の困難さ。
- 社会的リスク:
- 倫理・法: 個人情報の不適切な取扱い、生命等に関わる事故発生、トリアージにおける差別、過度な依存、悪用。
- 経済活動: 知的財産権侵害、金銭的損失、機密情報の流出(プロンプトや出力経由)、労働者の失業、データ・利益の集中、資格等の侵害。
- 情報空間: 偽・誤情報やディープフェイクの流通・拡散、民主主義への悪影響、フィルターバブル・エコーチェンバー現象、バイアス等の再生成。
- 環境: エネルギー使用量増加に伴う環境負荷。
政府固有のリスクの例:
- 政策に関わる業務で、政治的中立性から逸脱した情報や表現を生成するリスク。
- 単一のモデルに依存することによるコスト増やバイアスの定着リスク。
- 利用言語・文化・歴史的背景への考慮が不十分な出力により、誤った発信や国益に反する発信をしてしまうリスク。
- 行政上の判断根拠が不明瞭になり、国民への説明責任が果たせなくなるリスク。
- ベンダーロックインによる不要なコスト増加リスク。
- 法的拘束力を持つ業務(翻訳、問い合わせ対応等)で、誤回答により違法・有害情報を流布するリスク。
各府省庁は、こうしたリスクがあることを踏まえ、便益とリスク管理を両立させる必要があります。
安全・安心に進めるための「体制」と「ルール」
政府は、生成AIの利活用を促進しつつ、これらのリスクに対応するための体制とルールを構築しています。
政府全体の推進体制
- AIガバナンス強化・推進のための体制構築:
- 先進的AI利活用アドバイザリーボード: AIの制度、利活用、リスク管理等に高度な知見を持つ有識者(民間・政府職員)で構成。各府省庁の利活用状況把握、高リスク案件への助言、ベストプラクティス発信、リスクケースの把握・再発防止助言、ガイドライン見直し検討などを担います。デジタル庁が事務局機能を担います。
- AI相談窓口: デジタル庁が設置。ガイドラインの内容、活用手法、高リスク判断に迷う事案、リスク軽減策などに関する質問や相談を受け付け、技術的・専門的な支援や助言を行います。
- デジタル庁による統括監理: 国の情報システム整備の一環として、各府省庁の生成AIシステム導入予定やリスク対応状況を確認します。
各府省庁での体制と対応
- AI統括責任者(CAIO)の設置: 各府省庁に設置され、生成AIシステムの企画、調達、利活用、運用、リスクケース等、状況を一元的に把握し、適切な調活用・利活用に取り組みます。利活用推進とAIガバナンス構築・実践の司令塔となります。アドバイザリーボードへの報告要否の決定等も行います。CAIOは、府省庁内の生成AI利活用状況などを定期的に(四半期に一度程度)アドバイザリーボードへ報告します。
- 各府省庁内ルールの整備: CAIOは、生成AIシステムの利活用方針や、リスクケース発生時の対応方針を示すためのルールを策定します。「生成AIシステムの利活用ルール」(利用者が理解すべき知識、要機密情報等の取扱い、利用目的、説明責任、リスク回避、生成物の取扱い、リスクケース発生時の報告事項等) や、「リスクケース対応ルール」(リスクケース発生時の対応手順等) が含まれます。
高リスクな利活用への考え方
CAIOは、企画者と連携し、利活用ケースに合わせたリスク評価を行い、そのリスクレベル(高リスクの可能性が高いか)を判断します。判断にあたっては、「高リスク判定シート」(利用者範囲、業務性格、要機密情報や個人情報の学習等の有無、出力結果の政府職員による判断を経た利活用、といったリスク軸が示されています) を踏まえて最終判断を行います。
高リスクに該当する可能性が高いと判断した場合には、プロジェクトの内容、リスク軽減策などを先進的AI利活用アドバイザリーボードに報告することとされています。
リスクケースへの対応
リスク軽減策を講じてもリスクをゼロにすることはできないため、リスクが顕在化した場合の対応も準備しておく必要があります。生成AIシステム特有のリスクケース(偏見・差別出力、攻撃的コンテンツ、ハルシネーション、著作権侵害の可能性のある生成等)が発生する可能性があることに留意します。
- CAIOは、リスクケースへの対応手順を整備します。
- リスクケース発生時には、CAIOと生成AIの提供者が中心となり、重要度等に応じて適切な対応を行います。
- 政府全体の対応能力向上のため、リスクケースのナレッジはアドバイザリーボード事務局に集約されます。CAIOはリスクケース発生時及び対応後にアドバイザリーボードに報告します。
- 情報セキュリティインシデントや個人情報漏えい事案との連携対応も考慮されています。
- 対応のため、事業者からのデータ提出や必要な監査を実施することも検討されます(契約での合意も検討)。
調達・利活用に係るルール
生成AIシステムの調達や利活用にあたっては、各種法令や既存の政府情報システムに係るガイドライン(サイバーセキュリティ対策統一基準群、個人情報保護法ガイドライン等)を遵守することが必須です。
特に、要機密情報を取り扱うクラウドサービスを調達する場合、セキュリティ評価制度(ISMAP)のリストから選定することが原則ですが、ISMAPリストからの選定であっても、生成AIシステム特有のリスク等に関する本ガイドラインの対応は必要であることに注意が必要です。
また、不特定多数の利用者に提供され、定型約款等で利用可能なクラウドサービス型生成AIシステムでは、原則として要機密情報を取り扱うことはできません。要機密情報以外でも、利用可能な業務範囲を特定し、許可を得た上で利用状況を管理することが必要です。調達行為を伴わないサービスの利用でもリスク認識が必要です。
ガイドラインでは、生成AIシステムの導入類型(個別開発の有無、契約形態)やプロジェクトフェーズ、リスクレベル、ユースケースの性格に応じて、対応事項の要求レベルを調整することを検討する必要があるとしています。
各役割(企画者、開発者、提供者、利用者)ごとの対応事項が具体的に示されています。例えば、企画者は、システム導入の目的・目標設定、リスク分析、デジタル庁やアドバイザリーボードへの報告連携に加え、調達時や契約時に事業者へ求める事項を検討する際に、ガイドラインの「調達チェックシート(生成 AI システム用)」 や「契約チェックシート(生成 AI システム用)」** を参照することが求められています。
これらのチェックシートには、事業者のAIガバナンス、データの取扱い、品質確保、リスクケース対応、個人情報・知的財産保護、セキュリティ、説明可能性、環境配慮など、多岐にわたる観点からの要求事項や、契約における取り決め事項例が整理されています。
今後の展望
生成AI技術は日々進化しており、想定していなかったリスクが顕在化する可能性もあります。このため、政府による生成AI調達・利活用ルールは、随時見直しが行われることとなっています。
また、画像や動画などの生成AIに係る「来歴証明」(コンテンツの作成・変更履歴を検証可能にする技術)の導入や、府省庁間でのデータ連携や共同利用によるシステム最適化についても、今後検討が進められる予定です。
まとめ
行政における生成AIの利活用は、業務効率化や国民サービスの向上など、大きな可能性を秘めています。政府は、この可能性を最大限に引き出すため、各府省庁が積極的に生成AIを活用することを奨励しつつ、同時に情報漏えいや誤情報のリスクなどを適切に管理するための詳細なガイドラインを策定しました。
AI統括責任者(CAIO)の設置やアドバイザリーボードによる助言、リスクレベルに応じた対応方針、調達・契約時の具体的なチェック項目など、安全かつ責任ある形で生成AIを行政に取り入れるための仕組みが示されています。
このガイドラインは、行政のデジタルトランスフォーメーションを進める上で重要な一歩と言えるでしょう。今後も技術の進歩に合わせて見直しが行われ、より安全で効果的な政府の生成AI活用が推進されていくことが期待されます。
ITコーディネータとして生成AIの導入やチェックリストなどコンサルテーション資料として探求する必要があると思います。