SHUCHU PUBLISHING

病院経営者のための会員制情報紙/集中出版株式会社

未来の会

「メディカルAIと法制度」の論点とは?

「メディカルAIと法制度」の論点とは?
患者情報を基にしたAI開発の進展とそこに内在する法律的課題

都内で1月に行われた日本メディカルAI学会の第2回学術集会で、シンポジウム「メディカルAIと法制度」が開かれた。医療と法律の専門家4人が登壇し、医療とAI(人工知能)の現状と課題を話し合った。

 まず、東京慈恵会医科大学の中田典生・ICT戦略室室長が発言、「AIは既に日本の医療現場で活用され始めている」と同大附属病院のケースを紹介した。3Dカメラを搭載したCTはAIと連携し、被検者の身体位置を最適化するようベッドを動かしているという。頭部を撮影というボタンを押せば、ベッドが動いて被験者の位置を調整するという具合だ。画像AIの専門誌での論文採択数で日本勢は世界2位と健闘しており、データホルダー大国である日本の潜在能力は大きいという。

 中田氏はAI活用の前提となる患者情報の取り扱いについて、「米国では『Patient-Centric Medicine』という動きがあり、そこには『患者の情報は全て、無条件に患者に渡す』という考え方が含まれている。この言葉は日本にも入ってきているが、患者の情報の扱いについて十分な議論は行われていない」と、課題認識を示した。

統計情報に近い学習済みモデル

 田辺総合法律事務所の吉峯耕平弁護士は医療AIの学習用データセットの法律問題について講演。画像等の個人情報(学習用データ)をAIに読み込ませることで、学習済みモデルを開発するが、その際に同意は必要か。

 「AIの判断が間違った場合の責任については、法律分野でよく議論されているが、学習済みモデルの開発過程の課題については議論が不足している」と吉峯氏。特に問題なのが、委託先での研究開発である。

 医療機関が委託先の提供するサービスに個人情報をアップし、医療機関のみがこれを利用する場合には、患者の同意は不要だ。しかし、委託先が、医療機関から預かった個人情報を学習用データとして、学習済みモデルを独自に開発する場合はどうだろうか。

 「個人情報から平均値等の統計情報を作成することは、個人情報保護法の制約を受けない。学習用データから学習済みモデルを生成する過程は一種の情報の変換だが、学習済みモデルは、個々の患者との繋がりが失われていることが多く、個人情報保護法の制約を受けない統計情報にすぎないと捉えることが出来るだろう。しかし、ここは議論の余地がある」(吉峯氏)。

 諸外国と日本との比較について報告したのは、国際基督教大学准教授で理化学研究所革新知能統合研究センター客員研究員の寺田麻佑氏である。

 「欧州では医療を含む様々な産業でビッグデータやAIを活用しようという動きが見られる一方で、個人情報の活用についてはEU一般データ保護規則(GDPR)で厳しい制限を設けている。このGDPRは各国で条件設定等が異なる場合があるが、例えばドイツでは電子カルテ等の情報を活用するためには、保険契約者の同意取得がルール化されており、データがどのように活用されているかチェックするシステムがある」

 米国ではグーグルやIBM等多くの民間企業が、医療機関等と連携して医療ビッグデータの解析を進めている。「米国には、遺伝子情報による差別的な扱いを禁じる法律がある。こうした倫理的な枠組みは政府レベルで用意されているが、それ以外については各社の規則で補っている部分が大きい」。

 2018年に次世代医療基盤法(医療ビッグデータ法)が施行された。匿名加工された個人情報を基に、認定事業者がこれを加工し医療の発展に資する知見を得ようとの狙いだ。ただ、その課題として「医療機関が匿名加工する前提としての、匿名加工についての共通理解が十分とはいえない」と寺田氏は指摘する。また、匿名加工し過ぎると活用出来ない、加工度が低いと個人を特定される恐れがあるというジレンマもある。

学術研究と営利事業の境目

 ひかり総合法律事務所の板倉陽一郎弁護士は、機械学習サービスの規約を例に課題認識を示した。「アマゾンとマイクロソフト、グーグルというAIベンダー3社の機械学習サービスに関する規約を見たところ、分かりやすく日本語で明示しているのはアマゾンのみ。アマゾンの場合、データを使われたくなければオプトアウト(個人データの第三者への提供を本人の求めに応じて停止すること)してください、そうでなければ品質向上のために使わせてください、という記載がある」。

 学習用データの取得、学習済みモデルの開発に関する規約は、AIベンダーによってバラバラだ。さらに、こうしたAIベンダーのサービスをインフラとして利用し、その上で独自サービスを展開する事業者もある。その場合、話はさらに複雑になる。

 「アマゾンのサービスを使って、その上に自分達のノウハウを加えて画像認識サービスを提供する事業者があった場合、これを活用する医療機関や医師は両方の規約を確認する必要がある」と板倉氏。規約の内容や開示の仕方等についても、一定のコンセンサスが必要かもしれない。

 4氏による議論も行われた。主要テーマは学術研究と営利事業。学術研究は基本的に個人情報保護法の適用除外とされている。しかし、学術研究の成果を広く社会に還元する上で、商業化のプロセスは欠かせない。医療AIに関する学術研究から営利事業へとフェーズが変わった時に、個人情報保護法が適用され市場投入に制限が加えられることはないのか。もしストップされるようなら、一連のプロセスが滞ってしまう。

 「出来上がった学習済みモデルには、個人情報は含まれない。従って、本人の同意は不要。ただ、本当にそれでいいのか。医療側にこのあたりの認識が十分ないまま、開発が進んでいるのではないか」と板倉氏。AIベンダーの規約を十分確認せず、医療機関のデータが吸い上げられるという事態も懸念される。

 医薬品の開発との比較という視点も提示された。医薬品の場合、製薬企業が医療機関に治験を依頼した後、申請や審査等の段階をへて新薬が市場に登場する。このような新薬開発の枠組みとAIモデルの開発は似ているが、異なるところもある。「薬機法は低分子製薬を想定した規制モデルで医療機器に適さないと、薬事法時代から言われていたが、学習により変化するAIの特性に十分対応出来るのか。日本では『これは統計情報だから個人情報保護法は関係ない』という理屈を採用すれば、医療分野でもAI開発を進めやすい環境といえるが、本当にそれでいいのか。学術研究と営利事業との線引きについても、議論を深める必要がある」と吉峯氏は話す。医療関係者とAI事業者、法律家、規制当局を交えた実践的な検討が必要だ。

LEAVE A REPLY

*
*
* (公開されません)

COMMENT ON FACEBOOK

Return Top