責任ある生成AIのガバナンス・デザインと産学の役割[シンポジウムレポート]

イベント

日本のAIガバナンスをどうデザインしていくべきか。AIの開発、提供、利用などがもたらす可能性があるリスクを、どのように扱っていけばよいのか——生成AIの登場により、各国で多角的な議論と法整備が急務となっています。

EUや米国では、産官学が連携した共同規制のアプローチで法整備が進められています。EUにおいては2024年5月にAI規制法案が成立。日本でも2024年2月、自民党内のワーキンググループが「責任あるAIの推進のための法的ガバナンスに関する素案」を公表しています。

2024年6月26日、国際大学GLOCOMの主催で、AIにまつわるガバナンス・デザインの課題や可能性を議論するシンポジウム「責任ある生成AIのガバナンス・デザインと産学の役割」が開催されました。

本記事ではシンポジウム内で提起された課題と、パネルディスカッションの模様を一部ダイジェストでご紹介します。

イベント概要

シンポジウム「責任ある生成AIのガバナンス・デザインと産学の役割」
2024年6月26日(水)10:00~13:00@都市センターホテル(東京都)https://www.glocom.ac.jp/events/information/9616

<登壇者>
工藤郁子氏(大阪大学社会技術共創研究センター 特任准教授)
Marcus Bartley Johns氏(マイクロソフト公共政策担当アジア地域シニアディレクター)
生貝 直人氏(一橋大学大学院法学研究科ビジネスロー専攻教授)
渡邊 昇治氏(内閣府 科学技術・イノベーション推進事務局統括官)

<モデレーター>
渡辺 智暁氏(国際大学GLOCOM 教授・主幹研究員)

主催 :国際大学GLOCOM
協賛 :日本マイクロソフト株式会社

生成AIのガバナンス・デザインをめぐる3つの論点

シンポジウム冒頭、モデレーターを務めた渡辺智暁氏(国際大学GLOCOM)より3つの論点が提示されました。概要は以下の通りです。

1)AIを巡る国際協調、国際的な議論に日本がどう関わるか
2)共同規制のアプローチに関する可能性と課題
3)AIの普及により想定されるリスクについて

渡辺 智暁氏(国際大学GLOCOM 主幹研究員・教授)
Ph.D.(インディアナ大学テレコミュニケーションズ学部)。2008年よりGLOCOMで専任研究員としてICT政策、米国の政策議論、オープンデータなどの研究に従事。途中、慶應義塾大学特任准教授を経て2019年よりGLOCOM専任研究員に復帰。AI関連では2016年から総務省情報通信政策研究所のAIネットワーク化検討会議などのAI関連会議の構成員を務めた。『人口知能と社会・人間』(勁草書房、2019年、共編・執筆分担)「異質な存在としてのAI とその社会的受容」『人工知能』32 巻 5 号(2017年、一般向け記事)などの執筆もおこなっている。

この前提を踏まえ、さらに4人の登壇者の方から、それぞれの専門領域に基づいた論点が提示されました。

各国の立場を踏まえ、国際的な連携をどう進めるか(工藤 郁子氏)

工藤 郁子氏(大阪大学社会技術共創研究センター 特任准教授)
世界経済フォーラム第四次産業革命日本センタープロジェクト戦略責任者などを経て現職。専門は情報法政策。データやAIのガバナンスに関する研究を行い、また、国際会合を企画運営することでグローバルなルール形成にも貢献。2023年にはG7公式官民イベント「デジタル・トランスフォーメーション・サミット」を主催し、G7デジタル・技術大臣会合閣僚宣言で参照された。共著に、山本龍彦 編著『AIと憲法』、弥永真生 ・宍戸常寿 編著『ロボット・AIと法』など。

工藤:2010年代後半からAI倫理原則(principle)の議論と合意形成が為されてきました。いわば「What」「Why」に関するものです。2020年代以降は、AIに関する倫理・法の実践(practice)についての議論が増加しています。これは「Who」「How」をめぐるものです。

ただ現在もprincipleの議論が鎮静化したわけではないことを、念のため注意喚起しておきたいと思います。その理由は、各国によってそれぞれ状況が異なるためです。

EUは基本権を非常に重視していて、デジタル立憲主義の立場であると評価できるでしょう。アメリカは企業の自主的規制を尊重しており、基本的にはデジタル自由主義の立場を取っている傾向が見られます。

日本として特に注目すべきは、中国の立場です。2023年に施行された「生成AIサービス管理暫定弁法」では、社会主義の核心的価値観を堅持することを義務付けており、デジタル権威主義的であると言えます。

このような各国の考え方や思想の違いを踏まえてどのように連携し、研究活動やビジネスを進めていくかが課題となっています。

工藤氏より提示されたその他の主な論点
・LLM/生成から見た、川上・川下の科学技術に関するガバナンスのあり方(電力供給などがボトルネックになる可能性/環境性能/データガバナンス/人材育成)
・AIガバナンス拠点の政策的形成
・生成AIとフェアネス(AIの開発・利用過程を通じた社会的不平等の再生産の回避)

グローバル・ガバナンス・アーキテクチャを構築する(Marcus Bartley Johns氏)

Marcus Bartley Johns氏(マイクロソフト公共政策担当アジア地域シニアディレクター)
プライバシーやデータ保護、人工知能の責任ある活用、サイバーセキュリティ、スキルと仕事の未来といった、アジア地域全体におけるテクノロジーと社会の幅広い課題について、信頼性が高く包括的なデジタル変革のための公共政策と規制を推進している。マイクロソフト入社以前は、シンガポールとジュネーブを拠点に、世界銀行で政府のデジタル経済と貿易のプロジェクトに従事し、東南アジアのデジタル経済、世界貿易と貧困といった主力報告書を作成したチームの共同リーダーを務めた。オーストラリアの外交官としてキャリアをスタート、ジュネーブでは世界貿易機関と国連に勤務、バンコクでは地域経済協力プログラムに取り組んだ実績がある。

Johns:AIを取り巻く規制に関する取り組みは世界中で行われていて、そのこと自体は非常にポジティブなものだと考えます。重要な課題は、それがどのような仕組みのもとで実行されていくかです。

マイクロソフトでは特にこの数ヶ月間、AI以外の特定の規制分野におけるグローバル・ガバナンス・アーキテクチャからさまざまなヒントを得てきました。

各領域で主導的な役割を担っている国際機関の専門家と議論を重ね、AIの分野にどのように適応すべきか、検討してきたのです。多くの国際機関と話をする中で、取り組みを成功させるための共通項がいくつかあることがわかりました。

例えばIPCC(Intergovernmental Panel on Climate Change/気候変動に関する政府間パネル)では、国家間、各国政府間、産業界、専門家と研究コミュニティ——つまり利害関係者グループ全体で情報共有が行われ、国境を超えた仕組みの中で気候変動の役割について検討されてきました。

国同士の協力体制の構築は非常に難しいものです。だからこそ、国際機関が重要な役割を担うのです。

Johns氏より提示されたその他の主な論点
・AIに関する世界的に重要なリスクの管理
・グローバル・ガバナンス・アーキテクチャが規制の相互運用性をどのように促進できるか
・国際標準化機構による規格設定と、情報を共有するための国際協力

どの規制強度を念頭において手法を選択するか(生貝 直人氏)

生貝 直人氏(一橋大学大学院法学研究科ビジネスロー専攻教授)
慶應義塾大学総合政策学部卒業、東京大学大学院学際情報学府博士課程修了。博士(社会情報学)。東京大学附属図書館新図書館計画推進室・大学院情報学環特任講師、株式会社情報通信総合研究所研究員、東洋大学経済学部総合政策学科准教授等を経て、2021年4月より一橋大学大学院法学研究科ビジネスロー専攻准教授。2022年9月同教授に就任。

生貝:生成AIが登場する以前(情報処理AI)と以後(情報生成AI)で大きなパラダイムシフトがあったと考えます。情報処理AIの規制において焦点となっていたリスクは、製品安全とプロファイリングの2点であったと整理できます。

情報生成AIの場合は、偽・誤情報と情報環境全般の問題が焦点になります。そうすると次に選択が必要となるのは、基盤モデル全般と巨大な基盤モデルのどちらを念頭に置くのか。

後者の場合、情報が流通するプラットフォームの責務の在り方についてどう考えるかが重要になり、まさにここでどのような規制の手法が有効かを検討する必要が出てくるでしょう。

巨大な基盤モデルを念頭に置いた場合の規制強度

・法に基づかない要請のみ(自主規制)
・技術情報やリスク軽減策の透明性義務(自主規制+透明性)
・リスク評価・軽減・体制整備義務(共同規制)
・具体的な行動規制やモデル承認義務(直接規制)

AI規制に関する議論はまだ始まったばかり(渡邊 昇治氏)

渡邊 昇治氏(内閣府 科学技術・イノベーション推進事務局統括官)
1990年東京大学大学院修士課程修了(工学修士)、通商産業省入省。新エネルギー対策課長、産業技術環境局研究開発課長、商務情報政策局情報処理振興課長、情報政策課長、総務課長、大臣官房審議官(産業技術環境局担当)、内閣官房審議官(新型コロナウイルス等感染症対策推進室)等を経て、2022年より、内閣府科学技術・イノベーション推進事務局事務局長補、[併]グローバル・スタートアップ・キャンパス構想推進室、[併] AI戦略チーム。2023年7月現職に就任。

渡邊:イノベーションとルールは決して対立する概念ではなく、むしろ安心できる環境の中で共に進めていくべきものだと思っています。基本的に我々としては法律を新たに作るのではなく、基本的にはガイドラインでリスクに対応していきたいと考えています。

しかし大規模な生成AIは兵器開発等に利用されるといった重大なリスクがあるため、日本でも慎重な検討が必要です。政府としては2024年夏から研究会を設置し、さまざまな専門家の方のご意見をうかがいながら、制度のあり方を検討していく予定です。

ガイドラインではなく規制法を定めるとなると、かなり慎重な議論が必要となります。そのため法律ありきで話を進めるのではなく、その法律が本当に必要かどうかという視点も含めた検討が必要だと考えています。

政府としてもまだまだ議論を始めたばかりですので、今日はさまざまな視点からご意見をいただきたいと思っています。

イノベーションと安心・安全の確保をどう両立するか

―― はじめに、イノベーションと安心や安全性の確保を両立していくための舵取りについて、みなさんのご意見をうかがいたいと思います。

工藤:イノベーションと安心・安全は両立すると思います。特に製品の安全や環境性能などに関しては、イノベーションとお互い促進し合う関係にあり、良い循環が回る場合もあるでしょう。

ただ、大規模な基盤モデルの場合は基盤モデルへのアクセスを確保しないと最先端の研究開発をできないのが現状であり、それを保持しているのは特定の国と企業です。そのアクセスをどう確保するのか、あるいは自国で育てるかは大きな判断の分かれ目であり、産業競争力や国際競争力、さらには経済安全保障などを考えていくうえで非常に重要なポイントになると考えています。

Johns:標準化や国際規格、認証プロセスの役割について考えることが重要だと思います。私たちはベースラインとなるセキュリティ、安全性、プライバシー、その他の事項が確保される方法が、イノベーションとの相互運用性を担保するために不可欠だと考えています。

ここ数年、国際標準化機構(ISO)では非常に重要な作業が行われています。例えば、AIリスク管理フレームワークに関する規格が発行されていますが、米国ではこれに匹敵する基準が採用されています。こうした標準化が進むにつれて適切なフレームワークが整備され、規制を補完するうえで重要な役割を果たすでしょう。

生貝:規制について考える際、社会全体に対するリスク、コンシューマーに対するリスクの他に、BtoBにおける利害対立的な部分の調整が挙げられます。例えば著作権などを考慮すると、利害についてどこで線を引くか、という話にならざるを得ません。

この点に関してはそれぞれの立場の主張があると思いますので、そうした利害や調整の種類を分けて考える必要があるでしょう。

渡邊:日本で国民に対してアンケート調査を実施し「なぜAIを使わないか」と質問すると、やはり「よくわからないから不安だ」という答えがすごく多いんです。

そのためリテラシー教育やAI領域の人材育成が非常に重要になるのですが、現状、AIについて教えられる人がいません。今の親世代や学校の先生が、AIについて子どもに何か教えられるかというと……かなり絶望的だと思います。

そうなるとやはり、マイクロソフトさんのような信頼できる専門家のみなさんにご協力いただきながら、リテラシー教育を実施し、AIに対する安心感を高めていくことが重要だと考えています。

一般市民に対するAI分野のリテラシー教育をどうするか

—— 日本は特に、市民が政府の責任において安心を確保しようとする傾向が強いですよね。国際的な協調を進めようとしても、他国より安全側に傾いてしまうとうまくいかないのではないかという気もします。そうした中でAI分野のリテラシー教育を実施していくにあたり、どのような論点が想定されるでしょうか。

またもう1点、マルチステークホルダーの議論をしていく際に、産官学民のうち産官学の専門家はどんどん入ってきたとしても、一般市民の声は反映されにくくなることが懸念されると思いますが、みなさんはどのようにお考えですか?

生貝:「安全なのかよくわからないから不安だ」というアンケート結果に対する最大の回答は、たぶんファクトとして示すことなんですよね。ただAIに関する技術のことは、専門家にもわからないことがまだまだ多い。さらに企業秘密の部分もあるので、表に出せないこともあります。そうした取り組みの透明性をどのように担保するかが、AI規制の一つの焦点なのだと思います。

また情報が出たとしても、客観的にそれが正しいかどうかを第三者がチェックする必要があります。まさしくAI OfficeやAI Safety Instituteのように、その信頼性を評価する人たちの存在が、説得力のある説明になり得るのではないでしょうか。

またマルチステークホルダープロセスにおいて、消費者の力が弱くなってしまう件についてはここ10〜15年来のテーマでもあります。待っているだけではコンシューマーの声は聞こえてこないので、さまざまな方法を使ってステークホルダーの意見を積極的に拾い上げていくことをしっかり考えていく必要があると思います。

中小規模の生成AIを取り巻くリスクをどう想定・対処するか

—— 次に、AIを取り巻くリスクに関してもお話をうかがっていきたいと思います。最大規模の生成AI活用、例えばテロ組織が化学兵器の開発方法を入手してしまう……などの問題に関しては何らかの形で介入し回避することが考えられます。一方で、中小規模の生成AIについてはどのようなリスクを想定し、対処していくべきでしょうか?

渡邊:確かに大規模モデルについては、誰が開発しているかがある程度わかるので、事前規制が可能だと思います。しかし小規模なものになると、すべてを把握することは難しいでしょう。そうするとやむを得ず、何か問題が発現したときに都度対処することになると思います。事前規制と事後規制を、適宜組み合わせていくしかないと考えています。

工藤:おそらくですがあと3年程は、AIの提案やサービスを受けて人間が最終的に判断する状況が続くはずだと思います。その中で、ヒューマンエラーをなるべく小さくするためのUIをどうしていくかなど、技術的な部分の解決方法を探っていった方が建設的ではないかと思います。

製品やサービスの安全を確保するための知見はすでに蓄積されていますので、他の産業や業界で取り組まれてきたことを学びながら、エラーを極力少なくするためのアイデアを、設計の段階でいかに組み込むかを考えることが重要だと考えます。

生貝:リスクの概念を法規制のシステムの中にどう落とし込んでいくかが、これから我々にとって非常に大きなテーマになっていくでしょう。今後は本格的に、テクノロジー規制の世界ではリスク評価に関することが論点になっていくのだろうと思います。

渡邊さんがおっしゃったように、事前と事後の規制をうまく使い分けていくことは全くその通りだと思います。全体としてはまだリスクが流動的な分野を扱っていくことになるので、事前のインパクトアセスメント義務に関しては、かなり広く薄く考えていく形でのルール体系になるのではないかと、個人的には考えています。

国際協調を進める中で、日本はどのような役割を果たせるか

―― 最後に今後、AI規制についての国際協調を進めていく中で日本がどういった役割を果たしていったらいいのか、みなさんのお考えを聞かせてください。

渡邊:欧米をはじめとする世界の動きを見て判断します、というと「日本は自主性がない」「他の国の真似ばかりして」というご意見をいただくのですが、国際的な整合性を保つことを我々のポリシーとするのであれば、それも一つの立派な意見だと私は思っています。

新たな技術を率いて世界の覇権を取る、世界最先端を目指すことではなく、むしろ世界のまとめ役を目指して、そのための解を探していくことが日本のポジションなのではないかと考えています。

工藤:おっしゃる通り、国際的整合性や相互運用性をもたせることこそが、実は真のリーダーシップであることを示したのがまさに「広島AIプロセス」だったのではないかというのが、私の見立てです。

G7の民主主義国の間ですらそれぞれの考え方が異なっていたところを、何とか第三者の立場で日本がリーダーシップを発揮し、一つの合意ポイントを形成できたことは非常に大きなベンチマークだったと考えます。こうした成果こそ、国際的なシーンで日本が貢献していけるポイントでもあると思っています。アジアの民主主義国であるという立場を、もっと生かしていくべきだと思います。

Johns:日本がG7の議長国を務めた期間に、各国が自国のAI規制について考える際に必要となる明確な枠組みを提供することで、すでに世界的に影響を及ぼしていると認識することが重要だと思います。

そして日本が、各国それぞれが異なる視点の間でコンセンサスを形成し、これらの問題について包括的な議論が行われるようにする役割を引き続き果たしていくというところに、大きなチャンスがあると考えます。

—–
制作:PublicAffairsJP編集部

タイトルとURLをコピーしました