Boxは、責任あるAI開発の実施に努め、アクセス権限とデータセキュリティのプロトコルを遵守すると同時に、透明性を確保することを約束します。

発効日:2023年5月2日

AI(人工知能)は、コンテンツの管理、分析、作成と、それによる価値創出の方法に大きな変革をもたらす可能性を持っています。 特に、大規模言語モデルやその他の高度なモデルの新たな進歩により、AIは、非構造化コンテンツの処理において、かつてない能力を持つようになりました。 AIの活用によって、ワークフローが合理化され、意思決定プロセスが強化されることで、事業運営のあらゆる側面で可能性が解き放たれます。

しかし、AIの導入にはAI特有の課題とリスクを伴うため、責任ある対処が必要になります。 お客さまの重要なコンテンツについて、セキュリティとプライバシーとともに、AIの誠実な利用を保証することは、Boxのミッションの中核をなすものです。

このことを念頭に、Box AIの原則では、お客さまやユーザーの利益を優先し、コンテンツを保護すると同時にAIの能力を活用するというBoxのコミットメントについて規定しています。 Boxは、この原則によってBox内での責任ある安全なAI活用のためのフレームワークを規定し、規定に基づいて、BoxのAI利用法に関する透明性を確保します。 この原則とガイドラインを遵守することで、独自のデータや業務の完全性を損なうことなく、AIのメリットを享受できます。

 

Box AIのコミットメント

Boxは、Box製品内におけるAI機能の使用および提供において、以下の原則を遵守することを約束します。なお、原則の内容は、AIに関する経験が深まるにつれて進化する可能性があります。

  1. AIの使用に関する制御権は完全にお客さまが保持: Boxは、お客さまが自社のデータおよびデータの処理を完全に制御できることを約束します。 お客さまは、AIの使用を有効にするか無効にするか、コンテンツにAIを適用するか否かを決定できます。
  2. お客さまの明示的な承認なくお客さまのコンテンツをモデルのトレーニングに使用しません: Boxでは、お客さまの明示的な承諾を得ずにお客さまのコンテンツを使用してAIモデルをトレーニングすることはありません (例えば、お客さまが自社コンテンツの一部を利用したカスタムAIモデルの作成を希望する場合は、コンテンツへのAIの適用について、お客さまの明示的な同意が必要です)。
  3. AI出力に関する説明: BoxのAIシステムがどのように動作し、どのような根拠に基づいて結果を出力するのかについて、お客さまに適宜説明します。
  4. 厳格なアクセス権限の管理: Boxのコンテンツへのアクセスについては、厳格な管理と許可のポリシーが定められており、AIシステムもこのポリシーを遵守します。 データ漏えいや不正アクセスからは、Boxのアーキテクチャによって厳重に保護されます。
  5. データセキュリティ: 暗号化やデータセキュリティのベストプラクティスなどの堅牢なセキュリティプロトコルの導入により、高度な機密性とセキュリティを維持し、お客さまのデータを保護します。
  6. 透明性: Boxは、AIの活用方法、AIテクノロジーの導入、協力ベンダー、データの使用方法に関する透明性を維持することを約束します。
  7. ユーザーデータおよび企業データの保護: Boxは、プライバシー、セキュリティおよび該当する規制を遵守し、エンドユーザーデータと企業データの両方を常に保護することを約束します。
  8. 信頼の高いAIモデル: Boxは、AIソリューションの正確性、信頼性、安全性を確保すべく、信頼できるベンダーの高品質なAIモデルを使用することを重視しています。  

 

 

お客さまの責任と許容される使用方法

お客さまは、Box AIの使用にあたり、AIの限界を理解すること、違法な行為や安全でない行為を避けること、人によるレビューなしでは危害が発生するおそれがある場合にはAIによる自動意思決定を避けること、法律や規則を遵守することなど、AIの入力と出力を責任を持って使用する責任を負うものとします。 お客さまに負っていただく責任の内容について詳しくは、Box AI Acceptable Use Policy & Guiding Principlesをご覧ください。

 

BoxのAIガバナンス:イノベーションを安全に加速

お客さまのコンテンツのプライバシーとセキュリティを確保することは、Boxのコンテンツクラウドの基本的原則です。 そのため、米国国立標準技術研究所のAIリスク管理フレームワーク(NIST AI RMF)に沿って、徹底したAIガバナンスプログラムを構築しています。

大規模言語モデルを利用した生成AIなど、AIテクノロジーの統合にはリスクが伴います。NIST AI RMFは、このリスクを評価、管理、低減するための構造化された方法を提供しています。 NIST AI RMFは任意規定であり、企業の役割、ユースケース、規模、複雑さ、その他の条件に即した基準を定めています。 このフレームワークには4つの主軸があり、以下のような形でBoxのAIガバナンスプログラムに組み込まれています。

  • ガバナンス (Govern): Boxは、法律、規制、認定、業界標準に準拠したAIテクノロジーの利用を徹底するため、AIポリシーを作成し、その内容に基づいた運用を行っています。 Boxは、Boxの製品をAIテクノロジーのサービスパートナーと統合する際に、Boxの社員が従うべき明確な原則を定めています。 また、このポリシーでは、ベストプラクティスに関するフィードバックのプロセスも規定しています。
  • マップ (Map): Boxのお客さまとエンドユーザーがBox AIテクノロジーを利用する際の方法および責任や禁止事項などについては、Box AI Acceptable Use Policy and Guiding Principlesで詳しく規定しています。 これらの原則を守っていただくことで、リスクの最小化、該当する法的義務の遵守、AIによって得られるメリットの最大化が可能になります。
  • 測定 (Measure): Boxは、AIサービスパートナーが提供するAIテクノロジーとの統合結果について、Box AIによる生成物の実行可能性と信頼性を含め、継続的な監視を行っています。
  • 管理 (Manage): AIサービスパートナーのAIテクノロジーをBoxのシステムに統合する際には、部門横断的に編成されたBoxのAIガバナンスチームが監督を行います。 AIガバナンスチームには、法務、セキュリティ、コンプライアンス、製品、エンジニアリング、サプライヤー管理、人事部門の最高幹部が参加しており、Boxのポリシーや業界のベストプラクティスに沿ったAIサービスパートナーのテクノロジーのみを統合するよう努めています。

 

データを保護

個人アカウントから大企業ユーザーに至るまで、Boxでは、全てのユーザーコンテンツを保護するため、エンタープライズグレードのセキュリティ、コンプライアンス、プライバシー、信頼性を維持しています。 Boxにおけるデータ暗号化では、HIPAA/HITECH法、PCI DSS、ISO 27001などの標準規格に基づき、NISTが推奨するアルゴリズムや手法などを遵守しています。 BoxのWebサイトまたはBoxが提供するアプリケーションを介してBoxにアップロードされるコンテンツは、転送時に暗号化されます。 また、コンテンツは保存時にも暗号化されます。 Boxにおいて、セキュリティ、コンプライアンス、データプライバシー、信頼性がどのように確保されるかについて詳しくは、Box Trust Centerをご覧ください。

 

関連リソース

AIガバナンス
AIガバナンス:信頼とデータプライバシーの保護
ブログを読む
AI主導の世界におけるプライバシー保護
AI主導の世界におけるプライバシー保護
動画を見る
進化する状況
進化するAI規制の状況
動画を見る
確実なデータプライバシー
AIイノベーションにおけるデータプライバシーと信頼の確保
動画を見る
コンテンツを一元管理
コンテンツの一元管理がプライバシーの保護において重要な理由
ブログを読む

さっそく試してみませんか?