責任あるAIのための
開発ガイドライン
責任あるAIのための開発ガイドライン
株式会社Works Human Intelligenceでは、生成AIを活用した機能の開発を進めています。生成AIは、業務効率の向上や新たなアイデアの創出に役立つ一方で、入力データや生成物の取り扱いによっては法令違反や他者の権利侵害のリスクも伴います。
そこで、AI提供者として責任あるAIシステム・サービスの提供と生成AIの利用を促進するための社内向け開発ガイドラインを策定し、社外にも公開しています。
株式会社Works Human Intelligenceは、本ガイドラインを遵守し、責任あるAIシステム・サービスの開発に努めてまいります。
Works Human Intelligenceにおける責任あるAIのための開発ガイドライン
0.はじめに
本ガイドラインの対象者
本ガイドラインはWorks Human Intelligence(以下WHI)において、生成AIを利用した機能を開発する人およびAI機能に関する内容を対象とする。
1.定義
本ガイドラインでは、生成AIモデル自体を開発する人をAI開発者、生成AIモデルを利用してAIシステム・サービスとして提供する人をAI提供者、生成AIモデルもしくは、AIシステム・サービスを利用する人をAI利用者として記載している。
AI開発者:AIモデルの開発を行う。
AI提供者:AIモデルを、製品・システム、ビジネスプロセスに組み込んでAIサービスとして提供する。
AI利用者:AI提供者が提供するサービスを利用する。アプリケーション上の運用も行う。
生成AI機能:AIモデルを組み込んで提供する機能のうち、生成AIを利用した機能を指す。
2.本ガイドラインの目的
生成AIは、急速な進化を遂げ、社会に大きな影響を与える可能性を秘めている。一方で、生成AIは、知的財産権の侵害、偽情報・誤情報の生成・発信、プライバシー侵害等、新たな社会的リスクをもたらす可能性も孕んでいる。このような状況を踏まえ、本ガイドラインは、WHIがAI提供者として、責任あるAIシステム・サービスの提供と生成AIの利用を促進するための指針を示すことを目的とする。
3.WHIのAI提供者としての責務
WHIは、WHIが提供する生成AI機能が社会に大きな影響を与える可能性を持つことを認識し、その責任ある提供・利用を促進する役割を担う。
WHIが提供する生成AI機能によって2.に示したような生じる可能性のある社会的リスクを最小限に抑え、社会全体にとって有益な技術となるよう努力する。
WHIは生成AI機能の提供にあたり、採用するAIモデルの性質も踏まえ、倫理的な側面、法的側面、社会的側面を常に考慮する。
4.提供における基本原則
WHIにおいて生成AI機能に携わる開発者は、下記基本原則に則り生成AI機能の開発に取り組む。
人間中心:人間の尊厳、多様性、公平性、プライバシー、安全性を尊重する。
安全性:安全に設計・開発され、意図しない出力や誤動作を防ぐための対策を講じる。
公平性と包括性:人種、性別、国籍、年齢、政治的信念、宗教等の多様な背景を理由とした不当な偏見や差別をなくす。生成AI機能はすべての人がその利点を享受できる。
プライバシーとセキュリティ:個人情報保護に関する関連法令を遵守し、プライバシーを侵害せず、不正アクセスや改ざんから保護され、安全な運用を確保する。
透明性とアカウンタビリティ:生成AI機能のしくみ、学習データ、アルゴリズム、予測結果、潜在的なリスク等を可能な範囲で公開し、その動作を説明可能にする。生成AI機能の開発プロセスが定義され、守られている。
5.提供プロセスにおける具体的な指針
本章では基本原則をもとにその具体的な指針を示す。
5-1.人間中心
5-1-1.人間の尊厳および個人の自律
生成AI機能が活用される際の文脈を踏まえ、人間の尊厳および個人の自律を尊重する必要がある。つまり、それらを疎外するような機能とならないよう注意して取り組む。
個人の権利・利益に重要な影響をおよぼす可能性がある分野において、生成AI機能によってプロファイリングを行う場合、個人の尊厳を尊重し、出力の正確性を可能な限り維持させつつ、AIの予測、推奨、判断等の限界を理解して組み込む。また、生じうる不利益等を慎重に検討したうえで、不適切な目的に利用しないこと。
5-1-2.生成AI機能による意思決定・感情の操作等への留意
人間の意思決定、認知、感情等を不当に操作することを目的とした生成AI機能の実装は禁止する。
生成AI機能の実装時には自動化バイアス1等により過度に依存するリスクに注意し、必要な機能を追加する。
生成AI機能の実装時にはフィルターバブル2等生成AI機能が利用者の情報・価値観の傾斜を助長してしまい、結果利用者の選択肢が不本意に制限されてしまわないよう注意する。
意思決定等に関連しうる場合は、その出力について、慎重に扱う。
5-1-3.偽情報等への対策
生成AI機能の出力においては偽情報・誤情報・偏向情報が入らないように務め、また出力には間違いがある可能性を考慮することをAI利用者に通知する。
5-2.安全性
5-2-1.人間の生命・身体・財産、精神および環境への配慮
信頼性3・堅牢性4を確保する。
権利侵害が発生してしまった時に備え、必要に応じて客観的なモニタリングが可能な機能および、人がコントロールできる制御可能性を確保する。(ex.ログ機能と生成AI機能自体のON/OFFの実装)
生成AI機能のリスク分析の実施とリスクの回避、低減、移転、容認等、必要に応じた対策を講じる。
サービス提供における障害発生時の対応を整える。
-----------------------------------------------------------------------------------
1人間はAIの提案を無批判に受け入れてしまう傾向があること。AIが提案したものに対して、人間が承認するような機能は特に影響を受けやすい。
2生成AI機能が利用者にとって都合のいい回答ばかりを提示し、利用者が提示された情報を無批判に受け入れてしまうようなこと。
3AIシステム・サービスの出力の正確性を含め、要求に対して十分に動作していること。
4様々な状況下でパフォーマンスレベルを維持し、無関係な事象に対して著しく誤った判断を発生させないようにすること。
5-2-2.適正利用
利用規約もしくは契約、マニュアルその他の方法で、AI利用者のコントロールがおよぶ範囲で本来の目的を逸脱した利用により危害が発生することを避けるよう通知する。
5-3.公平性
特定の個人、集団、人種、性別、国籍、年齢、政治的信念、宗教等を理由として公平性が損なわれないよう努めつつ、それでも回避できないバイアスが発生することを認識し、該当生成AI機能がそれらを踏まえて公平性の観点で許容可能かを評価して実装すること。
5-3-1.AIモデルの各構成技術に含まれるバイアスへの配慮
AI利用者の利用方法を含め公平性の問題となりうるバイアスの要因となるポイントを想定しておき、公平性が許容可能な実装となるよう配慮する。
5-3-2.人間の判断の介在
生成AI機能の出力結果が公平性を欠くことがないよう、生成AI機能単独で判断はさせず、適切なタイミングで人の判断を介在させるようにする。
バイアスが生じていないかを確認できるプロセス(機能)を導入する。(ex.生成AIの出力結果の元となるデータの参照を可能とする等)
生成AIは判断のもととなる出力をするもので、判断は利用者の責任であると利用規約等で定める。
5-4.プライバシー保護
個人情報保護法等の関連法令を遵守し、プライバシーにも配慮して対応する。
5-5.セキュリティ確保
5-5-1.AIシステム・サービスに影響するセキュリティ対策
プロンプトによって生成AIモデルの回答を制御するのに対して、プロンプトの一部をAI利用者の入力内容にすることはプログラムコードをAI利用者に一部委ねているに近い状態となる。特に生成AI機能が出力するデータは、根本的にプロンプトインジェクション攻撃に対して脆弱であることを認識して実装する。
5-6.透明性
生成AI機能の検証可能性を確保しつつ、ステークホルダーに合理的な範囲で情報を提供すること。
5-6-1.検証可能性の確保
生成AI機能の判断に関わる検証可能性を確保するため、データ量または内容に照らして合理的な範囲で、入出力等を記録・保存する。
ログの保存においては、記録方法、頻度、保存期間を検討の上決めること。
5-6-2.関連するステークホルダーへの情報提供
生成AI機能の性質、目的等に照らして情報提供・説明を行う。
情報提供・説明はたとえば以下のような項目が検討される。
• AIを利用している事実と活用の範囲
• (基盤モデルをファインチューニングしている場合)学習・評価の手法
• 基盤AIモデルに関する情報
• 生成AI機能の能力、限界および提供先における適切・不適正な利用方法
• 適用される関連法令
5-6-3.合理的かつ誠実な対応
5-6-2.の情報提供はアルゴリズム・ソースコードの提供ではなく、プライバシーおよび営業秘密を尊重して、合理的な範囲で実施する。
5-7.アカウンタビリティ
生成AI機能がもたらすリスクの程度を踏まえて、合理的な範囲でアカウンタビリティを果たす必要がある。
5-7-1.トレーサビリティの向上
生成AI機能も開発プロセスで管理の上リリースすること。
5-7-2.対応状況の説明
以下の各項に対する対応状況を、開発プロセス内で説明できる状態にすること。
• 全般 全体を踏まえたリスクの有無・程度の評価を実施する。
• 「人間中心」 偽情報等への留意、多様性・包摂性、利用者支援および持続可能性の確保の対応状況
• 「安全性」 AIシステム・サービスに関する既知のリスクおよび対応策、ならびに安全性確保のしくみ
• 「公平性」 AIモデルを構成する各技術要素(学習データ、AIモデルの学習過程、AI利用者または業務外利用者が入力すると想定するプロンプト、AIモデルの推論時に参照する情報、連携する外部サービス等)によってバイアスが含まれうること
• 「プライバシー保護」 AIシステム・サービスにより自己またはステークホルダーのプライバシーが侵害されるリスクおよび対応策、ならびにプライバシー侵害が発生した場合に講ずることが期待される措置
• 「セキュリティ確保」 AIシステム・サービスの相互間連携または他システムとの連携が発生する場合、その促進のために必要な標準準拠等AIシステム・サービスがインターネットを通じて他のAIシステム・サービス等と連携する場合に発生しうるリスクおよびその対応策
5-8.教育・リテラシー
生成AI機能の開発に関わる際にこのガイドラインに記載されたリスクに留意することが必要であるという教育を推進すること。
補足:基本原則と具体的な指針のマッピング
基本原則 |
具体的な指針 |
人間中心 |
5-1.人間中心 |
安全性 |
5-2.安全性 |
公平性と包括性 | 5-3.公平性 |
プライバシーとセキュリティ | 5-4.プライバシー保護 5-5.セキュリティ確保 |
透明性とアカウンタビリティ | 5-6.透明性 5-7.アカウンタビリティ |
全体 | 5-8.教育・リテラシー |
6.AI提供者とAI利用者との連携
AI利用者との協力関係を構築し、相互理解を深める。
AI利用者が生成AIを安全かつ倫理的に利用できるようサポートする。
AI利用者からのフィードバックを収集し、AIシステムの改善に活かす。
7.ガイドラインの更新
生成AI技術の進化や社会環境の変化を踏まえ、本ガイドラインを定期的に見直し更新する。