現在、米国連邦政府と欧州委員会は、2022年3月25日に発表した新たな環大西洋データプライバシーフレームワーク(プライバシーシールド2.0)(https://www.whitehouse.gov/briefing-room/statements-releases/2022/03/25/united-states-and-european-commission-joint-statement-on-trans-atlantic-data-privacy-framework/)に基づいて、米国・EU間の越境データ移転に係る十分性認定採択に向けた最終作業を行っている。バイオ/医療データの相互運用性を支える役割を果たすのがプライバシーエンジニアリング/プライバシー強化技術である。
米国NISTのプライバシーエンジニアリング標準化に向けた取組
米国立標準技術研究所(NIST)は、2010年4月6日、「SP 800-122 個人識別情報の機密性を保護するためのガイド」(https://csrc.nist.gov/publications/detail/sp/800-122/final)を公表している。そこでは、個人識別情報(PII)について、「(1) 名前、社会保障番号、生年月日・出生地、母親の旧姓、生体記録など、個人のアイデンティティを識別または追跡するために利用できるようなあらゆる情報、(2) 医療、教育、金融、雇用情報など、個人に紐づけしたまたは紐づけ可能なその他の情報を含む、機関が維持する固有に関するすべての情報」と定義している。
また経済協力開発機構(OECD)のプライバシー原則を参照した上で、PIIの機密性を保護する対策として、以下のようなものを挙げている。
- 運用上の保護策
- ポリシーと手順の構築
- 認識、トレーニング、教育
- プライバシー固有の保護策
- PIIの利用、収集、保持の最小化
- プライバシー影響度評価の実行
- 情報の非識別化
- 情報の匿名化
NISTは、プライバシーリスクへの取組を支援するフレームワークやリスクモデル、ガイドライン、ツール、標準規格を構築するために、計測科学やシステムエンジニアリングの原則を適用した「プライバシーエンジニアリングプログラム(PAP)」を展開している。その一環として、2017年1月4日に「連邦政府システムにおけるプライバシーエンジニアリングとリスクマネジメントの導入」(https://csrc.nist.gov/publications/detail/nistir/8062/final)を公表している。
そこでは、プライバシーエンジニアリングについて、「個人に個人識別情報(PII)を処理する際にシステムから生じる、受容できない結果をもたらす問題を起こし得る状況を免れることに焦点を当てた、システムエンジニアリングの専門分野を意味する」と定義している。そして、連邦政府システムにおけるプライバシーエンジニアリングの構成要素として、以下の5つを挙げている。
- 法律、規制、公正情報実務諸原則(FIPPs)
- プライバシー要求事項
- リスクモデル:
- リスク評価
- プライバシーエンジニアリングとセキュリティの目標
- システム機能/要求事項のマッピング
- システムが要求事項を満たし、リスクに取り組んでいることの評価
- リスクマネジメントフレームワーク
- コントロールの選定など
- プライバシー影響度評価
- 特定されたリスク
- 展開されたコントロール
- システムが要求事項を満たす方法
また、プライバシーエンジニアリングの目標として、以下の3つを挙げている。
- 予測可能性(Predictability):個人やオーナー、運用者による個人識別情報(PII)および情報システムによる処理についての信頼できる想定を可能にする
- 管理性(Manageability):PIIのきめの細かい管理(変更、削除、選択的解除など)のための機能を提供する
- 非関連性(Disassociability):システムの運用的要求事項を越えて個人やデバイスに関連付けることなく、PIIまたはイベントの処理を可能にする
さらにNISTは、2020年1月16日に公表した「NISTプライバシーフレームワーク1.0版」(https://www.nist.gov/news-events/news/2020/01/nist-releases-version-10-privacy-framework)の中で、上記の3つの目標と、プライバシーフレームワーク・コアの関連する機能を、以下のようにマッピングしている。
- 予測可能性(Predictability):特定(Identify-P)、統治(Govern-P)、制御(Control-P)、通知(Communicate-P)、防御(Protect-P)
- 管理性(Manageability):特定(Identify-P)、統治(Govern-P)、制御(Control-P)
- 非関連性(Disassociability):特定(Identify-P)、統治(Govern-P)、制御(Control-P)
なお、医療分野の匿名化に関連して、米国保健福祉省・公民権室(OCR)が、「医療保険の携行性と責任に関する法律(HIPAA)プライバシー規則に準拠した保護保健情報の非識別化方法に関するガイダンス」(2020年6月)(https://www.hhs.gov/guidance/document/guidance-regarding-methods-de-identification-protected-health-information-accordance-0)を公表している。
プライバシー強化技術は米国の国家戦略の柱
「プライバシーエンジニアリング」と類似した用語に「プライバシー強化技術」がある。2022年6月9日、米国大統領府科学技術政策局(OSTP)は、国家科学技術会議のネットワーキング・情報技術研究開発(NITRD)小委員会、国家人工知能イニシアティブ室、NITRD国家調整室の先進的プライバシー保護データ共有・分析ファストトラックアクション委員会を代表して、「プライバシー強化技術の進化に関する情報提供依頼書(RFI)(https://www.federalregister.gov/documents/2022/06/09/2022-12432/request-for-information-on-advancing-privacy-enhancing-technologies)を発出し、関連する政策イニシアティブと合わせて、国家プライバシー保護データ共有・分析戦略の構築を周知するのに役立つパブリックコメントの募集を開始した(募集期間:2022年7月8日まで)。
OSTPは、プライバシー強化技術(PETs)について、このRFIのスコープ内にある、プライバシーを保護する幅広い技術だとしている。特に、非関連性や機密性を維持しながら、参加主体の間でのデータ共有・分析を可能にする一連の技術やアプローチを説明したプライバシー保護データ共有・分析に関心があるとしている。このような技術には、秘匿マルチパーティ計算(MPC)、準同型暗号、ゼロ知識証明、連合学習、セキュアエンクレーブ、差分プライバシー、合成データ生成ツールなどが含まれる。
そして、PFIを通じて求める情報として、以下の10項目を挙げている。
- PETsを進化させるような特定の研究機会
- PETsに関する特定の技術的観点または限界
- 特にPETsの採用からの恩恵を受けるような分析に係る特定のセクター、適用またはタイプ
- PETsを進化させるために利用、修正または導入が可能な特定の規制または当局
- PETsを進化させるために利用、修正または導入が可能な特定の法律
- 上記以外で、PETsを進化させるために利用、修正または導入が可能な特定のメカニズム
- PETsの採用に関連するリスク
- PETsの採用に有益な既存のベストプラクティス
- 上記以外で、PETsの採用に対する既存の障壁
- PETsの採用に関連したその他の情報
2023年1月26日には、NISTが「人工知能リスクマネジメントフレームワーク(AI-RMF)第1.0版」(https://www.nist.gov/news-events/news/2023/01/nist-risk-management-framework-aims-improve-trustworthiness-artificial)を公表し、その中で、AIのリスクと信頼性の特徴として、以下のような点を挙げている。
- 妥当性があり信頼できる
- 安全性がある
- セキュアで強靭性がある
- 説明責任と透明性がある
- 説明可能であり翻訳可能である
- プライバシーが強化されている
- 公平性がある – 有害なバイアスが管理されている
このうち「4. プライバシーが強化されている」でプライバシー強化技術に言及しており、、AI向けのプライバシー強化技術が、特定のモデルのアウトプット向けの非識別化や集約のようなデータ最小化のテクニックと同様に、プライバシー強化型AIシステムの設計をサポートできる。ただし、少量のデータのような特別な状況下では、プライバシー強化技術が正確性の低下をもたらして、公平性およびその他の価値に関する判断に影響を及ぼす可能性があるとしている。
プライバシー強化技術をめぐる環大西洋連携の取組
国際連携の観点からみると、米国政府は、2022年7月20日、英国政府の間で、金融犯罪や公衆衛生上の緊急事態といったグローバルな社会課題に取組むために、プライバシー強化技術に関するイノベーション・プライズ・チャレンジで協力する計画を発表した(https://www.whitehouse.gov/ostp/news-updates/2022/07/20/u-s-and-u-k-launch-innovation-prize-challenges-in-privacy-enhancing-technologies-to-tackle-financial-crime-and-public-health-emergencies/)。この計画は、民主主義を支える技術の国際グランドチャレンジの一環として、「民主主義サミット」で発表されたものであり、米国側はOSTP、米国立科学財団(NSF)、NISTが省庁間イニシアティブを主導し、英国側はデータ倫理イノベーション・センターが主導している。
このチャレンジでは、各チームが、以下の2つのトラックのいずれかまたは双方を選択して参加する。
- トラック1:金融犯罪防止の変革
- トラック2:パンデミック対応機能強化のための予測
その後11月10日、第1フェーズの入賞者が発表された(https://www.nist.gov/news-events/news/2022/11/winners-announced-first-phase-uk-us-privacy-enhancing-technologies-prize)。入賞者は以下の12チームである
- [米国側]
- Team MusCAT
- Team IBM Research
- Team Secret Computers
- [英国側]
- Corvus Research Limited
- Diagonal Works
- GMV
- Faculty
- Featurespace Limited
- OpenMined and DeepMind
- Privitar Limited
- University of Cambridge
- University of Liverpool
現在、入賞チームは、第2フェーズにおけるプロトタイプ開発に取り組んでおり、今後の動向が注目される。
GDPR遵守を起点とする欧州のプライバシー保護技術
一方、英国を含む欧州地域においては、以下のような一般データ保護規則(GDPR)第25条に基づく「データ保護バイデザイン」および「データ保護バイデフォルト」の考え方が、プライバシーエンジニアリング/プライバシー保護技術を支える共通概念となっている(https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-general-data-protection-regulation-gdpr/accountability-and-governance/data-protection-by-design-and-default/)。
- 技術水準、実装費用、取扱いの性質、範囲、過程及び目的並びに取扱いによって引きこされる自然人の権利及び自由に対する様々な蓋然性と深刻度のリスクを考慮に入れた上で、管理者は、本規則の要件に適合するものとし、かつ、データ主体の権利を保護するため、取扱いの方法を決定する時点及び取扱いそれ自体の時点の両時点において、データの最小化のようなデータ保護の基本原則を効果的な態様で実装し、その取扱いの中に必要な保護措置を統合するために設計された、仮名化のような、適切な技術的措置及び組織的措置を実装する。
- 管理者は、その取扱いの個々の特定の目的のために必要な個人データのみが取扱われることをデフォルトで確保するための適切な技術的措置及び組織的措置を実装する。この義務は、収集される個人データの分量、その取扱いの範囲、その記録保存期間及びアクセス可能性に適用される。とりわけ、そのような措置は、個人データが、その個人の関与なく、不特定の自然人からアクセス可能なものとされないことをデフォルトで確保する。
3. 第42 条により承認された認証方法は、本条の第1 項及び第2 項に定める要件の充足を証明するための要素として用いることができる。
欧州連合サイバーセキュリティ庁(ENISA)は、2022年1月27日、「データ保護エンジニアリング – 理論から実践へ」(https://www.enisa.europa.eu/publications/data-protection-engineering)というレポートを公表している。本レポートの構成は以下のようになっている。
- イントロダクション
- データ保護バイデザイン
- スコープと目的
- 文書の構成
- データ保護エンジニアリング
- データ保護バイデザインからデータ保護エンジニアリングへ
- DPIAとの関係
- プライバシー強化技術
- 匿名化と仮名化
- 匿名化
- k-匿名化
- 差分プライバシー
- 匿名化スキームの選択
- データマスキングとプライバシー保護計算
- 準同型暗号
- 秘匿マルチパーティ計算
- 信頼できる実行環境
- プライベート情報検索
- 合成データ
- アクセス、通信とストレージ
- 通信チャネル
- プライバシー保護ストレージ
- プライバシー強化型アクセス制御、認証、認可
- 透明性、明瞭性とユーザー制御ツール
- プライバシーポリシー
- プライバシーアイコン
- 粘り強いポリシー
- プライバシープレファレンスシグナル
- プライバシーダッシュボード
- コンセント管理
- コンセント収集
- コンセント管理システム
- アクセスの権利の行使
- 消去の権利、訂正の権利の行使
- 結論
- 最も適用可能な技術の明確化
- 最先端の設定
- 法令遵守の明示と保証の提供
- 参考文献
本レポートでは、最初に、一般データ保護規則(GDPR)第25条に基づく「データ保護バイデザイン」および「データ保護バイデフォルト」を挙げている。その上で「データ保護エンジニアリング」と「プライバシー強化技術」について、以下のように定義している。
- データ保護エンジニアリング:
データ保護バイデザイン/バイデフォルトの一部として捉えられる。それは、特別なデータ保護原則を満たすために適切な技術的・組織的対策の選定、展開、構成をサポートすることを目的としており、最終的にはデータ主体の権利や自由の保護に寄与するものである。データ保護影響度評価(DPIA)は、GDPRに基づいて導入された要求事項の1つであり、データ保護バイデザイン/バイデフォルトアプローチの一部として捉えられる。 - プライバシー強化技術(PETs):
情報システムの機能性を失うことなく、個人データを消去または低減したり、個人データの不必要および/または望まれない処理を防止したりすることによって、プライバシーを保護するようなICT対策の首尾一貫したシステムである。PETsは、データ保護原則およびGDPR第25条の責務の充足に向けたビルディングブロックとして、またデータ保護エンジニアリングのビルディングブロックの要素として捉えることができる。
PETsは、コンテキストやスコープ、処理業務自体によって、単一の技術的ツールから全体の展開まで異なる可能性があるので、万能な方法は存在せず、異なるPETSに渡って分類する必要がある。そこで、処理されるデータに関連して利用される技術の特徴に基づいて、以下のようなカテゴリーを提示している。
- 真実保護(Truth-preserving):プライバシーエンジニアリングの目標は、識別力を低減しながらデータの正確性を保持することにある。この目標は、たとえば、データのきめの細かさ(例.生年月日から年齢まで)を薄めることによって達成できる。このようにして、データは依然として正確だが、最小化された方法であり、危機に瀕した時の目的には適切だ。暗号化は、逆方向に適用された場合、プロセスに不確実性をもたらすことなく、オリジナルデータを完全に保存するので、真実保護技術と見なされる場合がある。
- 明瞭性保護(Intelligibility-preserving):本当のデータ主体の属性を公開することなく、管理者にとって意味のあるフォーマットでデータが維持される。たとえば、入院日へのオフセットの導入は、年月日のフォーマットを維持するが、識別された患者の本当のデータとのリンクを破る。また、ノイズの付加は、データの外観や操作感を変えることなく、本当のデータに機密性の保護策を提供するので、明瞭性保護技術となる。
- 操作可能技術(Operable Technology):数学的・論理学的操作(例.総和、比較)は、アプリケーションの結果に実行可能である。暗号化されたドメインで正確に実行可能な操作を利用して、その結果が直接操作できるような暗号化技術群があるので、操作可能性は、必ずしも、明瞭性を伴わない。
本レポートでは、匿名化/仮名化、データマスキング/プライバシー保護計算など、データ保護エンジニアリングの具体的技術を紹介した上で、以下のような推奨事項を提示している。
- データ保護規制当局は、適切な技術やテクニックの最新ソリューションに関連するEU全体のグッドプラクティスについて議論し、促進すべきである。EUの機関は、適切な公に利用できる文書により、このようなグッドプラクティスを促進することが可能である。
- 研究コミュニティは、ポリシーガイダンスや研究資金調達に関するEU機関の支援を受けながら、データ保護原則の実用的な展開をサポートできるようなセキュリティのテクニックや技術の展開を継続的に探究すべきである。
- 規制当局や欧州委員会は、GDPR第42条の下で、適正なデータ保護エンジニアリングを保証するために、適切な認証スキームの創設を促進すべきである。
なおENISAは、匿名化に関連して「ビッグデータにおけるプライバシー・バイ・デザイン」(2015年12月)(https://www.enisa.europa.eu/publications/big-data-protection)、仮名化に関連して「仮名化のテクニックとベストプラクティス」(2019年12月)(https://www.enisa.europa.eu/publications/pseudonymisation-techniques-and-best-practices)および「仮名化テクニックの展開」(2022年3月)(https://www.enisa.europa.eu/publications/deploying-pseudonymisation-techniques)を公表している。
医療クラウド利用時のプライバシー・バイ・デザイン
医療分野のクラウド利用に関連して、ENISAは、2021年1月18日、「医療サービス向けクラウドセキュリティ」(https://www.enisa.europa.eu/publications/cloud-security-for-healthcare-services)と題するレポートを公表している。このレポートは、クラウドセキュリティのサイバーセキュリティ・リスクを評価し、欧州の医療セクターへのセキュアな統合のためのグッドプラクティスを提供することを目的としており、以下のようなユースケースを提示している。
- 電子健康記録(EHR):患者情報、医療検査結果など、健康データの収集、保存、管理、転送にフォーカスしたシステム
- 遠隔診療:遠隔による患者ー医師間の診療を支援する遠隔医療のサブセット
- 医療機器:医療機器データを異なるステークホルダー向けにまたは機器監視に利用できるようにするような、医療機器の運用を支援するクラウドサービス
そして、医療におけるクラウドセキュリティの課題として以下のような点を挙げている。
- クラウドソリューションの信頼性の欠如
- セキュリティや技術の専門知識の欠如
- サイバーセキュリティ投資の優先度が低い
- クラウドサービスプロバイダーの法令遵守の証明
- クラウドとレガシーシステムの統合の困難さ
また、クラウドにおけるデータ保護の課題として以下のような点を挙げている。
- プライバシー・バイ・デザインのテクニック
- データ管理
- データ削除
- データポータビリティ
- 暗号化
このうち、「プライバシー・バイ・デザインのテクニック」では、具体的な対策として、認証、属性ベース資格情報、セキュアなプライベート通信、匿名化/仮名化、統計的開示制御、プライバシー保護計算などを挙げている。
アプリケーションコンテナ、マイクロサービス、サーバーレスアーキテクチャに代表されるクラウドネイティブ環境が普及しても、プライバシーエンジニアリング/プライバシー保護技術の重要性は変わらない。また、クラウドコンピューティングを利用したプライバシー保護ソリューションの開発も進んでおり、米国・EU間のプライバシーシールド2.0の実現や、国境を越えたヘルスデータ利活用の波が、今後の投資促進要因となるか注目されている。
現在、クラウドセキュリティアライアンス(CSA)のDevSecOps WGでは、DevSecOpsプロセスにおけるプライバシー・バイ・デザインの導入・運用に関するドキュメントの策定作業を行っており、近日中に公開する予定である。
CSAジャパン関西支部メンバー
健康医療情報管理ユーザーワーキンググループリーダー
笹原英司