SHUCHU PUBLISHING

病院経営者のための会員制情報紙/集中出版株式会社

未来の会

日本初、AIに特化した法律が成立

日本初、AIに特化した法律が成立

AIの技術開発・普及と推進を目的とするソフトロー

AIに特化した初めての法律として人工知能関連技術の研究開発及び活用の推進に関する法律が施行された。この法律は、AIの技術革新と活用の促進による国民生活の向上及び国民経済の健全な発展を主目的としつつ、悪用リスクへの対策も含んでいる。この法律の特筆すべき点は、国がAI事業者に対して調査や指導を行う権限を持つ一方、罰則規定は設けず、ソフトロー的なアプローチを採用している点である。これは、EUのAI法の様な厳格な規制とは異なり、技術開発の推進とリスク管理のバランスを取ろうとする「日本型モデル」とされている。

 2023年5月のG7広島サミットで岸田文雄首相が提唱した「広島AIプロセス」で、生成AIを含む高度なAIシステムに関する国際的な指針と行動規範を含む包括的政策枠組みを閣僚級会合で取り纏め、G7首脳に承認された。その内容は「生成AIに関するG7の共通理解に向けたOECDレポート」「全てのAI関係者向け及びAI開発者向け広島プロセス国際指針」「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」「偽情報対策に資する研究の促進等のプロジェクトベースの協力」の4つで構成されている。

 G7後、国内に於けるAIガバナンスの統一的な指針として「AI事業者ガイドライン」が24年4月に公表された。ガイドラインでは、AIの開発・提供・利用に関係する事業者が連携して取り組むべき事項について、人間中心、安全性、公平性、プライバシー保護、セキュリティ確保、透明性、アカウンタビリティ、教育・リテラシー、公正競争確保、イノベーションの項目で指針を示している。

 日本政府はガイドラインを中心としたソフトロー的な対応を取ってきたが、AIに関して法整備を行うのは初めての試みである。基本理念として、国際競争力を高める事や適正な研究開発・活用の為透明性を確保する事等が挙げられる他、研究開発・活用の推進の為に政府が実施すべき施策の基本的な方針を盛り込んだAI基本計画を策定する。基本施策は研究開発の推進、施設等の整備・共用の促進、人材確保、教育振興、国際的な規範策定への参画、適正性の為の国際規範に即した指針の整備、情報収集、権利利益を侵害する事案の分析・対策検討、調査、事業者等への指導・助言・情報提供等である。事業者の責務として、国等の施策に協力しなければならない事が規定される。

 これ等の条項には罰則を設けておらず、事業者とコミュニケーションを取りながらAI法の在り方の検討を継続していく方向性である。本法は飽くまでAIの研究開発と適正な活用を推進する為の法律であって規制を目的としたものではない。

 一方、AIの提供者と活用者に対する法規制に関しては、人の生命・身体等に直接影響を及ぼす恐れの有る医療機器や自動運転車等には既存法が存在する。医療機器に関しては医薬品医療機器等法によって、構造、使用方法、性能等について、臨床試験データ等に基づいて審査された結果、厚生労働大臣によって承認されたものでなければ販売出来ない事になっている。医療機器の審査に関する基本的な考え方はAI活用の有無によって変わる事は無い。診断や治療を行う主体は飽くまで医師でありAIは補助ツールに過ぎない。

 自動車は道路運送車両法によって構造、装置及び性能について保安基準が定められており、保安基準適合性が確認されたものでなければ運行の用に供してはならないとされている。自動運転車は自動運行装置が走行環境条件に於いて、使用されると仮定した場合の保安基準適合性について審査を受け認可されたものでなければならないとされている。

 人事・採用に於けるAI活用の権利侵害や差別的対応に関するリスク面に於いては、AIによる面接をスクリーニングした結果がネガティブであっても、それを最終決断しているのは人である事からAI法で新たに規定する必要は無い。既存法として男女雇用機会均等法や労働基準法の規定を適用される。AI活用によってどの様な情報がもたらされようと、国籍や信条によって差別的扱いが出来ない事は既存法で定められている。但し、現在は人が行っている行為をAIが代替する様になった場合は、人が行う行為との異同等をどの様に評価するのかについての法的な検討が必要になる。

権利侵害や誤情報には既存法で対応

偽情報や詐欺情報の拡散のリスクも顕在化している。政府には被害発生の恐れの有る情報を調査して結果を公表する事で、国民や事業者に注意喚起する事が求められる。偽・誤情報の生成・拡散に対する技術的な対策として、AI生成物に電子透かしを発行し刻印する事で、受信者にAI生成物である事が容易に判別出来る様にする事、コンテンツの出所や来歴を付与する技術を普及する事で、正しい情報が偽情報に紛れてしまわない様にする事、オンラインプラットフォーマーがAI生成物を判別しラベリングする事等の方法が検討されている。

 インターネット上の違法・有害情報に対する対策として、25年に情報流通プラットフォーム対処法が施行された。同法によってプラットフォーム事業者に対し、対応の迅速化、運用状況の透明化の具体的措置を義務付けられたが、デジタル空間に於ける情報流通の健全性確保に関しては、引き続き総務省に於いて検討が進められている。現在もインターネット上のなりすまし広告等、真実でない情報による被害が多数発生している。AI技術の発展・普及により情報の改ざんや偽情報の生成が精緻化・巧妙化している事を踏まえる必要が有る。

 生成AIによる著作権等の知的財産権の侵害リスクについては、内閣府のAI時代の知的財産権検討会で議論が為されている。法、技術、契約の各手段は相互補完的に役割を果たす関係が有る事を前提として、AI技術の推進と知的財産権の保護の両立が適う制度を模索している。特に侵害リスクとして取り上げられるのは知的財産権としての保護の対象となっていない労力や作風、声、肖像等についてである。知的財産法だけでは解決出来ない複合的なリスクへの対応策についても検討する必要が有ろう。

 加えて、AI技術の急速な発展に伴う生成AIの一般への普及により、多くのクリエーターから著作権侵害を懸念する声が上がっている。文化審議会による取り纏めでは、各関係者が生成AIとの関係に於ける著作物等の利用に関する法的リスクを自ら把握し、著作権等の権利の実現を自ら図るべきものとし、その上で政府の取り組みと同時に、民間の当事者間でルール・ガイドラインの策定や、情報共有が図られる事が重要であるとした。つまり、法解釈では解決しない問題については相互の理解を促進するという、曖昧な答申となっているのである。

欧州は厳しく規制するが米国は規制を緩和

 EUは全ての加盟国を拘束するAI法を制定した。本法はリスクベースでアプローチする体系を取っている。規制区分は、許容出来ないリスクAI、ハイリスクAI、限定リスクAI、最小リスクAIの4つ。許容出来ないリスクAIに関する規定に反した場合は3500万ユーロ(約60億円)か全世界年間売上高の7%の内、どちらか高い金額という巨額の制裁金が課される。加えて、AIシステムの市場からの取り下げやリコール等の制約措置が為されEU内でのビジネス活動が困難となる。

 米国は、トランプ大統領がこれ迄の規制等を直ちに見直す事を宣言し、AIに関する規制緩和と開発奨励の方向に転換した。当事者の自主的な取り組みに委ねられる部分が大きくなっている。総じて日本も米国に近い対応と言える。規制を出来る限り行わず技術開発と普及を推進し、リスクに関しては既存法を解釈・適用するか、もしくは既存法の改正で対応するスタンスである。

 何か問題が起きてから事後救済する事は殊更に非難されるが、時代を動かす技術革新を抑制してはならない。法整備の速度以上の速さでAI技術は進歩している。今必要とされている事はAIと共に歩む為の法整備である事は言う迄も無い。

LEAVE A REPLY

*
*
* (公開されません)

Return Top