
[©︎Reuters]
2025年1月20日、ドナルド・トランプ大統領が2期目の大統領職に就任した。国際社会が深く懸念する政策の中でも国家レベルでの「核軍縮」の停滞との関連性をAI政策から紐解いてみると…
2025年1月22日トランプ氏は、ソフトバンクグループの孫正義社長や「生成AI」を開発したOpenAI社のサム・アルトマンCEO及びソフトウェア大手「オラクル」のラリー・エリソン会長ら3社トップと米国南部テキサス州などで大規模なデータセンターなどAIに関するインフラ整備を進めるため「スターゲート」と呼ぶ新たな事業を立ち上げ、投資会社と共に今後4年間で5000億ドル、日本円にして77兆7000億円を超える巨額投資を行う計画を明らかにした。
遡ること2025年1月9日、日本政府は現在のAI政策を踏まえて「AI戦略本部」を設置した。会議では、AIのイノベーション(=技術革新)促進とリスク対応の両立の実現を基本的な考え方とし有識者による中間取りまとめ案が決定。
2024年8月2日に「第1回AI制度研究会」設置で議論が始まり、同年9月10日に第3回が、同月12日には第4回。そして12月26日には第5回および第6回AI制度研究会で有識者が闊達な議論を行い「中間とりまとめ案」を提出した経緯がある。
石破茂首相は「我が国が世界で最もAIの研究開発、実装がしやすい国になることを目指し、世界のモデルとなるようなAI制度を構築していく」とした上で「AIは『社会課題の解決の切り札として期待される』と述べ、全閣僚からなる「AI戦略本部」を設置して政府の司令塔機能を強化する考えを示した。
同研究会の座長を務める東京大学大学院の松尾 豊教授(工学系研究科)は「生成AIをはじめとするイノベーションは目覚ましい」とする一方で「リスクへの対応として既存の法令などを生かし対策を講じる必要性」を指摘した。
取りまとめ案には「生命・身体の安全、システミック・リスク、国家の安全保障に関わるもの」として、医療機器、自動運転車、基盤サービスなど、特に国民生活や社会活動に与える影響が大きい、命に関わるリスクに特に注意して対応にあたるべきだとし、特筆すべきは「CBRN(Chemical, Biologic, Radiology and Nuclear)」開発やサイバー攻撃などでのAI利用といった国の安全保障に関わるリスクについては、関係省庁で必要な対策を講じていく必要があるとの結論だ。
日本のAI政策の現状とグローバルなAI戦略に見え隠れする「EUの政治的思惑」には深い乖離が見られるのではないか。
日本では「一般意識調査」による「AIリスク」被害想定に対した国内法整備ならば進んでいる。だが日本の「中間とりまとめ案」に僅か数行だけ書かれた「国家安全保障リスク」は欧米各国の紛争下のAIリスクマネジメントにかなりの遅れを取っている。
*****************************************************************************************
【1】「EU-AI規制法」前文110を刮目せよ!化学・核兵器開発助長の「生成A Iリスク」根拠法
【2】「生成AI」が「核融合」リスクを「水爆」脅威に晒す危険性
【3】AI兵器には「行動監視」と「武力行使」を必ず人間が判断する仕組みを導入せよ
【4】欧州のデジタル化の未来 専門家による「汎用目的AI」行動規範の公表と期待される最終パブコメ募集
【5】日本のAI政策有識者による討論の道標
<結び:軍拡に突き進むトランプ氏より軍縮へ向かう市民の声を聞け>
*****************************************************************************************
【1】「EU-AI規制法」前文110を刮目せよ!化学・核兵器開発助長の「生成A Iリスク」根拠法
グローバルに議論を深めてきた最終文書は、「汎用目的AIモデル」の信頼できる未来の開発と配備そして安全性を案内する重要な役割を担うことになるだろう。それは「汎用目的AIモデル」のプロバイダーの透明性と著作権に関連する原則を詳細にすべきだということだ。システミック・リスクの危険に晒され得る最も先進的な汎用目的AIモデルの小さな数のプロバイダーのためにその規範もまたシステミック・リスクやリスク調査対策を技術的かつ統治緩和対策と同様に詳細にすべきである。
システミック・リスクとは概ね、ある一つの金融機関が決済不能になった場合、その影響で他の金融機関も決済不能になり、金融システム全体に危険を及ぼすことだ。だが、AIの議題においては金融機関だけの問題ではない。
注意して◆EU-AI規制法「前文110」を刮目して欲しい…
「汎用目的AIモデル」がもたらし得る「システミック・リスク」も含まれているが、ここでは市場や金融に拘らず、限定的ではなくあらゆる実際の、ないしは合理的に予見可能な悪影響、主要な事故との関連性から重要な部門の混乱そして公衆衛生と安全性にとって深刻な結果をもたらすこととされている。
さらには民主主義の過程や公共と経済安全保障に関して、あらゆる実際のこともしくは合理的に予見可能な悪影響のことを示唆する。非合法で虚偽で差別的な内容の普及。システミック・リスクはモデル能力やモデル範囲を以てして増えるのだと理解されるべきだ。モデルのライフサイクル全体にわたって発生し得る。そして不正な使用とモデルの信頼性、モデルの公平性、モデルの安全性、モデルの自律性レベルの道具(ツール)、小説、複合様式は公表され配信戦略が練られた。ガードレールや他の要因を取り除くための潜在性のことだ。
特筆すべきは国際的なアプローチが潜在的かつ意図的な誤使用ないしは人間の意図との整合に関する意図しない制御の問題;化学、生物学、放射線、核リスク…そのような兵器リスク脅威の入り込む障壁を無効化してしまうことができてしまう。それは兵器開発や設計取得、ないしは使用も含んでいる;攻撃的なサイバー能力、そのような脆弱性の発見に悪用、運用上の使用を有効にできるような手段なのである。相互作用とツール使用の効果には例えば物理的システムの制御能力や重要なインフラリスクの妨害も含まれる。そのモデルから自分自身のコピーを作ったり、自己複製したりする。ないしは他のモデルをトレーニングしている。モデルが個人や共同体、社会にリスクをもたらす有害な偏見や差別を生み出す可能性がある方法だ。民主主義の価値への脅威と人権侵害リスクを以て偽情報やプライバシーの侵害を助長する。特別な出来事は都市全体、ドメイン(インターネット上の住所)活動全体、共同体全体に影響を及ぼし得るかなりの悪影響を以てして「連鎖反応」を導き得るであろうという認識に変えた方がいいかもしれない。
同法条文を精読すると以下の◆「第5条」と◆「付録(別表)Ⅱ」を突き合わせれば問題意識が掻き立てられる内容だと無視することができなくなる。
第5条「禁じられたAI行為」:
1項(h)「リアルタイム」遠隔生体認証システムの使用は法執行の目的で公的に開かれた空間の中で使われる。ただし、以下の目的のいずれかにおいて、そのような使用が厳格に必要な限りとする。
(ⅰ)拉致や人身売買、人間の性的搾取のような特定の被害者を狙った捜索は行方不明の人探しをするのと同様に行われる。
(ⅱ)命に対し、また自然人の身体の安全性に対しても、特別で実質的で差し迫った脅威に晒される本物で存在感のある、ないしは本物で予見できるテロリストの攻撃の脅威を防ぐ。
(ⅲ)犯罪捜査や訴追、刑事罰の執行を指揮する目的で、犯罪行為を犯した容疑がかけられた人物の所在特定と識別は「付録Ⅱ」を参照に、禁固刑か少なくとも4年の最長期間の拘留命令によって懸念を抱くEUの締約国に処罰される。
「付録(別表)Ⅱ」:犯罪行為のリストー参照第5条1項第1副段落、要点(h)(ⅲ)
・テロリズム
・人身売買
・兵器、軍需品及び爆発物の違法取引
・人間臓器売買の違法取引
・核、放射線物質の違法取引
など。
[©︎【EU-AI法全文】REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations .pdf]
次の段階として
某日、行動規範の全体会議(総会)の一部として約1000近い利害関係者と共に議長や欧州連合(EU)の締約国代表者ら、ヨーロッパと国際監視団が揃い、専門の作業部会会合を開催された中でその草案を議論することになった。4つの作業部会は1日毎に開かれ、そしてその中ではそれぞれの議長が最近の草案の進捗状況に関して内容を更新していくだろう。
興味深い参加者からのバランスの取れた利害関係者らは口頭で意見を述べるよう誘われるだろう。全ての参加者は、相互作用の手段で議長に質問する、自らの声をあげ意見を表明する機会を得られるはずだ。2024年11月22日(金)に議長らは全体会議の総括としてその議論から鍵を握る洞察力を提示することになると見做されてきた。
[©︎First Draft of the General-Purpose AI Code of Practice published, written by independent experts(14th November 2024) ]

[©︎汎用AIの現状と展望 – 実現への見通しと社会への影響- 2024年6月17日 株式会社日本総合研究所 先端技術ラボ<年表>]

[©︎内閣府「AI戦略会議・AI制度研究会」中間とりまとめ(案)意識調査(日本)]
生成AIのイメージは「事実と情報が入り混じっている」が30%。どうすれば生成AIを使いたいと思うかは「監視・監査できる仕組み」「事実と偽情報の峻別」「プライバシー等に関する規制」が22%。また企業に求めたいことは「顧客データの安全性とプライバシー保護の強化」が66%に対し、政府には「AIの悪用や犯罪に対する法的対策の強化」が66%にも上った。

[©︎内閣府「AI戦略会議・AI制度研究会」中間とりまとめ(案)意識調査(国際比較)]
「生成AI活用に関して感じるリスク」は「品質の不安定さ」36%、「プロセスのブラックボックス化」33%、「フェイクコンテンツ」31%。「現在の規則や法律でAIを安全に利用できると思う」日本13%で全世界中、最下位。「AIには規制が必要だと思う」日本77%で全世界中、7位だ。

[©︎内閣府「AI戦略会議・AI制度研究会」中間とりまとめ(案)]
【2】「生成AI」が「核融合」リスクを「水爆」脅威に晒す危険性
原発、核兵器の次は「生成AI」が「核融合」をも「水爆」脅威に晒す危険性はあるか?
「マンハッタン計画」で「原爆の父」と称される理論物理学者のJ・ロバート・オッペンハイマー氏に対置して、後に「水爆の父」と称されるようになった物理学者のエドワード・テラー氏。「水爆」は、主に「核融合」反応を利用する。 太陽の中で生じる反応と同じで、核分裂反応よりも大きなエネルギーを放つために「水爆」は原爆の数百倍の威力がある。 核融合反応は高温高圧にならないと起爆しないため、水爆を起こすには小型の原爆を使う。水爆推進派のストローズ氏と戦後になって原爆の威力と被害の大きさから良心の呵責に苛まれ、原爆よりさらに強力な核兵器である「水爆」の開発に反対したオッペンハイマー氏との間には埋められ難い軋轢があったとされている。
[©︎クリストファー・ノーランの発言から読み解く、映画『オッペンハイマー』に内包された『核分裂』と『核融合』の真意]

[©︎キャノングローバル戦略研究所]

[©︎キャノングローバル戦略研究所]

[©︎キャノングローバル戦略研究所]
核融合炉の高ベータガンマ廃棄物は、原発よりかなり多い。30年で4500トン vs 200トン大型になる核融合炉の弱点がある。

[筆者コラージュ作成]
Open AI社CEOのサム・アルトマン氏が「汎用人工知能(AGI: Artificial General Intelligence)」開発のみならず、その先見の名で人並み外れているのは想定した未来が当然やってくるという前提で複数の具体策を打っていることにある。
その筆頭が、「核融合」スタートアップへの投資だ。アルトマンは、OpenAI社を創業する前の2014年から、企業への投資に関わり、その後、個人で500億円以上を注ぎ込んでいる。その大きな理由は、「AGIの時代には、尋常じゃない量のエネルギーが必要になる」という未来が明確に見えていた才覚からだ。
[©︎「成長スピードは尋常じゃない…」生成AI、核融合のトップ起業家アルトマン(39)はジョブズやマスクを超えられるか<文春オンライン>]
◾️核融合発電(フュージョンエネルギー)
「核融合発電」と「原子力発電」の大きな違いは、原子力がウラン235など燃料物質の原子核を複数に分裂(核分裂)させるのに対し、核融合では重水素など複数の燃料物質の原子核をくっつけて(核融合)エネルギーを生み出す点だ。
太陽は内部で核融合反応が起きているため核融合発電は「地上の太陽」と例えられる。
「核融合」のメリットは燃料の一つである重水素が海水から採取でき資源が乏しくても自給できる。また制御不能に陥っても連鎖的に反応が続かないので原子力発電より安全性が高い。
「核融合反応」は、燃料を1億℃以上に加熱した「プラズマ」を高温℃高密度の状態で長時間閉じ込めると起こりやすくなる。
「トカマク型」はドーナツ形の周囲に配置した電磁コイルによる強力な磁場でプラズマを閉じ込める方式。
「プラズマ実験装置」 2023年〜
日本と欧州が共同開発したITERに次ぐ大きさの超電導コイルを用いた実験装置。圧力の高いプラズマを長時間維持する運転方法を研究する
「実験炉」 2034年〜
直径、高さ共に約30mと巨大なフランス南部に建設中の核融合実験炉。熱出力50万kWの核融合を起こして核融合エネルギー利用の技術的実証を行い、次の原型炉による発電実証段階を目指す
2050年〜
実際に数十万kWの発電を行う核融合による最初の発電所。採算性などが証明されれば実用段階に進む
<実用化へ向けて>
「ヘリカル型」
トカマク型と同様、磁場でプラズマを閉じ込めて核融合を起こす方式。トカマク型とは超電導コイルの形状が異なり、らせん状のコイルでねじれた磁場を作る。トカマク型よりプラズマを安定的に閉じ込めやすい。日本では21年設立のHelical Fusionが34年の核融合炉完成を目指して高温超電導導体の開発などを進めている
「レーザー核融合」
球状に配置した燃料の周囲から超高出力のレーザー光を同時に照射して加熱◦圧縮する「爆縮」を起こして瞬間的に核融合反応を起こす方式。
米国の国立点火施設が、投入したレーザーのエネルギーよりも高い熱エネルギーを取り出す「エネルギー純増」の実験に22年、成功。
日本でも大阪大学などが研究中だ。
[©︎日経TRENDY大予測2030→2050<No.534>(2025年1月号)]
美辞麗句が並ぶ紹介文であったことを自省しつつも、「核融合発電」関連投資銘柄の日本企業は、INPEX、電源開発、三井物産、三菱商事、日揮、関西電力などいずれも大手企業で鰻登りだ。
日本で核融合炉があるのは一例として、茨城県那珂市に所在する「国立研究開発法人」「量子科学技術研究開発機構(QST)」の「那珂研究所」がある。

[©︎「AIと人類」ヘンリー・キッシンジャー/エリック・シュミット/ダニエル・ハッテンロッカー共著<日本経済新聞社>]
【3】AI兵器には「行動監視」と「武力行使」を必ず人間が判断する仕組みを導入せよ
世界的な投資家で「バークシャー・ハサウェイ」会長兼CEOのウォーレン・バフェット氏も年次総会でAIと原子爆弾を比較した。バフェット氏もまた「AIにより世界の全てが変わるだろう。例外は人間の思考と行動だけだ」と「原子爆弾が人の考え方以外の全てを変えた」という理論物理学者アルベルト・アインシュタインの言葉を現代風に言い換えた。
人間の脳と、その脳が創り出す技術の間に生じる大きなズレのことを、専門家は「ミスアライメント(不整合)」と呼ぶ。人間の創り出すモノの目的と一致しない。「AIに誘導される爆弾に目的などない」と思うなら、もう一度考え直した方がいい。なぜならその爆弾の目的は粉砕することであり、その役割を果たす能力は十分に備わっているからだ。AIが操縦する飛行機やドローンに人間を傷つける意図などないのだ。
「OpenAI社」によって開発された生成AIの一つ、「ChatGPT」は既に存在していたものをより大きくさらに速くしただけの存在ではない。既に人間には理解できない何かを創り出してしまった。「AIが紛争下でどのような行動を見せるか?」想像に及ばない。そのため、ヘンリー・キッシンジャー元米国務長官は「AIの兵器化」を強く恐れている。
[©︎AIと原子爆弾の開発をめぐる専門家の言葉はどれほど似ているか<WIRED>]
昔から戦争は不確かで予測不能なものだ。だがAIのアルゴリズムは人間の能力を遥かに超えて複雑なパターンを特定し、あるいは予測できる。だからこそAIは人間の手に負えない問題を解決し、戦略を立てることができてしまうのだ。
従来の紛争では敵の心理を読み取って行動することが肝だった。だがAIに求められるのは指示と目標だけで士気も疑念も無関係だ。
それも軍隊がAIを計画立案や標的の識別、あるいは偵察や戦闘の積極的支援に導入しただけで従来の概念は雲行きが怪しくなる。
そもそもAIに支援された兵器や防衛システムへの移行は、およそ人間とは異質な経験的パラダイムで動く膨大な分析能力にある一定まで依存しており、最も極端なケースではAIに完全に判断を委譲するリスクを招く。
それ故、人間のオペレーターが介在して致死的な効果を及ぼしかねないAIの行動を監視し、制御しなければならない。少なくとも倫理、ないしは責任問題には対処できるのではないか。国家の軍隊が致死に至らないタスクをAIに委ねる動きは止められない。
例えばAIやサイバー兵器の能力を具体的にどこまで制限するか、また不拡散にとどめるかは難しい。大国が開発し使用した能力は、容易くテロリストや犯罪者の手に渡り得る。また核兵器を持たず、通常兵器の戦力も限られている小国でさえ、最先端のAIやサイバー兵器に積極投資すれば想定以上の影響力を保持できると見做されている。
「自律型致死兵器(LAWS)システム」には確実に遵守され検証可能な相互合意によって制限を課さない限り、いずれ国境防衛や限定的反撃などの戦略や目的の全てを担い、人間の関与なく行動するようになるリスクを負う。すなわち「行動監視」と「武力行使」の指示は必ず人間が判断する仕組みを導入しなければならないのだ。
AIは先制攻撃や早まった実力行使による紛争拡大のリスクを高める。敵が「自律型致死兵器(LAWS)」を開発することを恐れる国家は、先制攻撃に走るかもしれない。意図しない紛争の深刻化を防ぐには、「軍拡競争」も検証可能な制限の範囲内に限定する必要がある。
[©︎AI兵器vs AI兵器の戦争は人知を超える(キッシンジャー&エリック・シュミット)<Newsweek>]
【4】欧州のデジタル化の未来 専門家による「汎用目的AI」行動規範の公表と期待される最終パブコメ募集

[©︎東京大学未来ビジョン研究所「ブリュッセル効果への対応:日本企業はEU-AI法にどう備えるべきか2」]
独立した専門家が「汎用目的AI」行動規範の第一草案を提示した。そしてそれは1000にも上る利害関係者との議論を控えている。そのAIオフィスは利害関係者のために専用の質疑応答への理解を深め、関連する「EU-AI規制法」を調整しているのだ。
「AIオフィス」とは2024年2月7日に欧州委員会(European Commission)がその設立を決定したもので、欧州委員会はAI技術の社会的および経済的利益を享受するための行動と政策を欧州委員会内で促進することなどを目的に「AIオフィス」を創設している。
汎用目的AI行動規範の反復する草案は、2024年9月30日の決起会後から重要な中間目標地点に達している。そしてそれは2025年4月頃までの4つの草案のうち最初に出るものを結論づけている。規範の第1草案は4つのテーマ別作業部会の議長と副議長として約束された、独立した専門家によって準備されたものだ。規範の作成の調整役として、ヨーロッパのAIオフィスが本日、その草案を公表している。その専門家らは行動規範の取り組みとして汎用目的AIモデルのプロバイダーからの貢献に基づいた、この最初の版(ヴァージョン)を開発した。その草案化もまた国際的なアプローチを考慮に入れているのだ。
その議長と副議長はこの第1草案をずっと詳細かつ改良のための財団として提示する。その規範の最終版に向けてフィードバックを互いに反復を形成する一助となるよう誘うことで。
それらはまたその規範の原則と目的を案内する概要を作る。最終版の潜在的な形成と内容の方向性の明確な感覚を伴って利害関係者に提供する目的で。開かれた質疑とはずっと進歩するための領域に焦点を当てることが含まれている。その最終草案とは明白な目的、対抗策、関連する場、「主要業績評価指標(KPIs: Key Performance Indicator)」から着手することになるであろう。
欧州AI規制法における「汎用目的AIモデル」Q&A
Q1.なぜ「汎用目的AIモデル」に規則(規制)が必要なのか?
A1.巨額の恩恵を約束する我々の経済と社会にとって、汎用目的AIモデルは重要な役割を担うものと見做す。それらは様々なタスクに活用でき、それ故にヨーロッパと世界各地で使われてきた広範さに基づいている。
AI規制法の目的は汎用目的AIモデルが安全で信頼できることを確かなものにすることだ。
その目的を遂行するために汎用目的AIモデルのプロバイダーは全体AI「バリューチェーン(価値連鎖)」を伴ってダウンストリーム(下流)AIシステムの中にそんなモデルの統合を可能にした上、AI規制法下でのそれらの義務を満たすこと、その双方のそれらのモデルを良く理解されてこそ遵守されるものである。
より詳細なことは以下で説明する。汎用目的AIモデルは創り出さなければならないし、AIオフィスとダウンストリームプロバイダーにとってのそれらのモデルの技術文書を提供しなければならない。それには著作権の方針を設定しなければならないし、トレーニング内容の概要を公表しなくてはならないだろう。付け加えるなら、システミック・リスクをもたらす汎用目的AIモデルのプロバイダーであり、それらが非常に有能であるからか、あるいはそれらが他の理由で、EU域内市場で重要な影響を持つからなのか、いずれかの場合になるかもしれないことは欧州委員会に知らせなければならない。調査し、システミック・リスクを軽減する。モデル評価を行い、深刻な事案を報告する。その上でそれらのモデルの適切なサイバーセキュリティーを確かなものにすることだ。
この方法でEU-AI規制法はヨーロッパの安全で信頼できるイノベーションに貢献する。
Q2.何が「AI汎用目的モデル」なのか?
A2.AI規制法は「汎用目的AI」モデルを「AIモデル」として定義付けている。そのようなAIモデルは自己監督を用いて膨大なデータの規模でトレーニングされる場を含み、それは重要な一般性を示し、そのモデルが市場を開き、アプリケーションのダウン・ストリーム・システムの多様性の中に統合され得る手段にも拘らず、幅広い明確なタスクを有能に遂行するだけの能力がある(第3条「定義」(63項))。
AI規制法の前文はずっと明確にしている。そのようなモデルは重要な一般性を示すものと見做されるべきであり、幅広い明確なタスクを遂行する能力とも見做されるべきだと。
◆「前文98」によれば、然るにモデルの一般性は、とりわけ多くのパラメーター(媒介変数のこと:媒介とは「受け渡しをする」という意味で受け渡しができる変数を表す。内容が毎回異なるものがパラメーター)によって決定される。少なくとも10億のパラメーターを以てモデル化され、その規模での自己監督を用いて膨大なデータでトレーニングされたものだ。
◆「前文99」は付加している。膨大な「生成AIモデル」は「汎用目的AIモデル」の典型例だ。それらには柔軟なコンテンツ生成が認められている。テキスト、音響、画像、動画幅広い明確なタスクに備えて対応することができるのだ。注意すべき点は重要な一般性と幅広く明確なタスクをテキスト、音響、画像、動画のような「単独のモダリティー(様式・様相:心的な態度を示す言葉)」の内面によって有能に実行する能力があるかどうかだ。もしそのモダリティーが十分柔軟ならば(問題はないだろう)。
このことは開発され、微調整されたモデルによって遂行されるかもしれない。もしくはさもなければ特別なタスクで特に良いものへと変更されるかもしれない。
そのAIオフィスは、何が「汎用目的AIモデル」を懸念されるべきなのか?ずっと説明を提供する傾向にあるものだ。「欧州委員会共同研究センター」から得た洞察力を引き出すこと。それは近年の「科学研究プロジェクト」と他の質問に取り組んできたことを礎としているのだから。
[©︎General-Purpose AI Models in the AI Act-Questions & Answers]
【5】日本のAI政策有識者による討論の道標
日本の「AI制度研究会」構成委員の一人で、EU-AI「行動規範(Cop of Practice)」の第3作業部会(WG)委員の一員でもある大阪大学「社会技術共創研究センター」の工藤郁子 特任准教授は可及のテーゼに次のように問題提起する。
「EU-AI規制法」とはハードローでありリスクベース・アプローチであり、今般の「ブリュッセル効果」とはEU域外適用もあって日本企業も対象となり得る。違反には多額の罰金があることは報道でもよく報じられている。逆にあまり報じられていない論点は「汎用目的AIモデル」だが、4段階のリスク表示の分け方とは別枠で自制が掛かっていることだ。
文脈上、概ね生成AIモデルが出力したコンテンツなどは別途あるが、モデルに関してはまた別の枠で規制されている。なぜならば一番最初にAI規制法が公開された2021年4月の後にChatGPTが普及してきた。慌てて追加されたという経緯がある。EU-AI規制法における汎用目的AIモデルとは、顕著な汎用性を示し、多様で独立したタスクを促進し適切に実行に移す能力を持ち、様々な下流のシステムやアプリケーションに統合可能なAIモデルとされている。
「大規模言語モデル(LLM: Large Language Models)」のようなあまり大規模なデータでなくともコンパクトで効率が高いモデルも含まれるような開始が可能になった。市場投入前の研究開発やプロトタイプな画像のために用いられるAIについては明文で除外されている。
「汎用目的AIモデル」は「システミック・リスト」が有るものと無いものに分類される。「無い」と見做された場合でも比較的軽いものには加重された条文構成になっている。
ここでいうシステミック・リストとは、「化学兵器」や「生物兵器」の開発障壁を低下させることを示す。いわゆるAGI(汎用人工知能)のように様々な用途に応用できる人工知能のようなものをイメージして、そういうものが制御不能になってしまうと有害な差別や偽情報の大規模化などが想定されている。
そして「システミック・リスク」が有るか無いかを問うなら、適切な技術ツールや手法で判断されるなどの抽象的規律が掛けられていて、EU当局による指定もあることからシステミック・リスクがあると見做される。この観点から日本企業が気になるだろうと思われるのはEU当局がシステミック・リスクがある「汎用目的AIモデル」については現時点では少数の企業によって開発されているものの、時間の経過と共に変化する可能性があるとしている。件の論点が日本企業にも影響を及ぼしているのだ。
「EU-AI規制法」が様々な規制や策定において参照されることで立法として影響を与える可能性があるので、「GDPR(一般データ保護規則)」ほど大きいものではなくとも注意喚起が必要だ。
「汎用目的AIモデル」について「行動規範(CoP: Codes of Practice)」と呼ばれる条文・法律が策定されている法解釈を具体化するものがある。法的拘束力はないがCoPへの準拠は「法令遵守の推定」として機能する。法律を守ったという推定が働くので、違反した場合、立証責任は事業者ではない他者に責任追及が移行する。
それとはまた別件で「ハイリスクAI」は第95条「CoC:Code of Conduct(行動規範)」を法的根拠とする、G7日本議長国の下で始動した「「広島AIプロセス」で策定されたものである。
[©︎EU-AI法と汎用目的AIモデル規制について 大阪大学 社会技術共創研究センター特任准教授 工藤郁子氏<TOKYO COLLEGE: ブリュッセル効果への対応:日本企業はEU-AI法にどう備えるべきか2>]
NTT技術企画部門「AIガバナンス室」の根本宗記氏は「NTTグループとしてAIリスク定義を統一している。このリスク定義は日本の事業者ガイドラインで定められている。EU-AI規制法はグローバルで重大なインシデントをNTTグループ全体で禁止するよう注視していかねばならない。リスクベースアプローチの中でもハイリスクについては専門家や法務部門がしっかりフォローして自分でリスク軽減を段階的に行う。こうしたルール整備とNTTグループ各社にあるAIリスクマネジメントセキュリティの専門家を輩出することや、インシデントや評価の事例などをグループ内で共有することが肝要であろうと考える」と語る。
またNTTグループは組織としても根本氏ら個々の専門性をもつ企業人としても政府や国際機関と連携している。

[©︎NTTグループのEU-AI法対応(2025年1月15日)日本電信電話株式会社・技術企画部門 AIガバナンス室 根本宗記氏<TOKYO COLLEGE: ブリュッセル効果への対応:日本企業はEU-AI法にどう備えるべきか2>]
今、話題になっているのは2025年8月2日施行に向けた「汎用目的AIモデル」を中心とした対応だ。根本氏自身も作業部会(WG)に参加し専門家と意見交換していく準備を進めている。考え方としては役割に応じた責務をしっかりと確認して後のガバナンス規定をも改訂していく過程にある。
「最も核となるのはAIモデル開発者によるベースモデルの開発だ。論点となっているのは「追加学習」で、サービス提供者や利用者について行為責務を負わないか否か。AIガバナンスを掛けていく上ではこうした役割はグループの中でどれくらいの頻度で起きるのか。マネジメントのスタイルに変えていく必要がある」と根本氏は指摘した。
並行して、全体会議の参加者らは専用のシステム「将来ミュージアム(ドイツの博物館:Futurium)」を通じて出された草案を受け入れてきた。2024年11月28日(木)12:00(中央ヨーロッパ標準時間:CET)に書かれたフィードバックを送るための2週間を伴って。
このフィードバックに基づき4人の議長らはその規範をより詳細化することを付加する間にも第1草案における対策を調整するかもしれない。
それらの草案化は対策と代理の対策、主要業績評価指標(KPIs)を強調する原則から成り立つもので、それはリスクに比例されるべきであり、汎用目的AIモデルのプロバイダーの大きさを考慮に入れている。そして中小企業(SMEs: Small and Medium Enterprises)やスタートアップ企業のための簡素化されたコンプライアンスを容認している。
AI規制法に続くその規範もまた注目すべき免除をプロバイダーのためにオープン・ソース(プログラムのソースコードが公開されていて。自由に利用したり変更したりできるもの)モデルを反映するだろう。
その原則もまた明白な要件とテクノロジーの進化としての採択の柔軟性間のバランスを取る必要性に焦点を当てるのだ。
[©︎First Draft of the General-Purpose AI Code of Practice published, written by independent experts(14th November 2024) ]
内閣府「AI制度研究会」座長代理で(独)情報処理推進機構「AIセーフティー・インスティテュート」所長の村上明子氏は「EU-AI規制法」第1草案の時は「AI規制法」及びAI「行動規範(CoP: Code of Practice)」に対し、企業としての観点で日本からしっかりと意見を汲み上げて入れられないのではないかという懸念があった。しかし第1回パブリック・コメント(パブコメ)で多数の意見が反映できており安堵した。一方で有名無実にならない結果になったことから「EU-AI規制法」は生成AIの代表例「ChatGPT」よりもいち早く出てきた議題だ。AI規制法の本文の中ではしっかりと「生成AI」の危険な側面も伝えていた。EUとしての政治的な思惑が見え隠れするものだという村上氏の危機意識。
AIの話が政治的な話と非常に絡まっていて一筋縄ではいかない。技術者だけの会合でもなければ法律の話だけでもない。混沌としたまま、あと1回の残されたパブコメ募集に向けて特に日本企業に属されている多くの企業人がEUでやりやすいものを具体的に汲み上げてコミットしていきたい」と日本から参加している作業部会(WG)3名の専門委員のうち一人という発言力のある立場から、開かれた場に集った聴衆に協力を呼びかけた。
中央大学の実積寿也教授(総合政策学部)は「EU-AI規制法」起草化「AIガバナンスリスク」作業部会(WG)委員の一人として参画している立場から、パブコメを組み入れた形でアクションを起こしてきた。1つは今の法の現状のAI「行動規範」が生成AIとの整合性にうまく噛み合っていないのではないか?という疑問。経済界や産業界の代表者が出された見解だ。もう1つは著作権や人権を主張する団体からはもう少し厳しい規制にすべきであるという見解が示された。日本側から見た「CoP(行動規範)」ではAI規制法に上乗せ横出しされている感触に戸惑う見解が多く聞こえたという。全体の議論の流れからすれば逆方向であり、もう少し将来的人権や著作権を守るべきだという議論をもう少し期待したが、第1草案の際にはEU-AI規制法について情報公開しましょうと呼びかけても今の中小企業(SMEs)の規模では負担が重すぎる。しかし日本のそれとは違い、EU-AI法起草化の過程でかなり積極的にパブコメの意見反映がなされるようになった結果、著作権は中小企業にかなりの義務が外される「恩恵」を受けた。社内の著作権ポリシーを作成するのは当然のこととして、汎用目的AIモデルは必ずしも大企業を相手にするばかりではなく、中小企業にとっても例えば苦情があった時に情報を明確にしなくていいなど、「優遇措置」をやり過ぎではないかという不公平感を訴える声もパブコメの中にあるという。
忘れてはならないのは専門性を有した企業人としての前出の根本氏の提言だ。
「OSS(Open Source Software:オープンソースの再配布可能なソフトウェア)やAIモデルなど小規模OSSであっても権利侵害を拡散する懸念が強いものも多い。モデルの規模やOSSであるかは要件緩和は見直すべきリスクの度合いと関連性は薄い。だが日本が一番被害を受けているコンテンツ権利侵害からの保護を中小企業(SMEs)やOSSにも適用していくべきだろう」と危惧し企業を代表して貴重な提言で結んだ。
<結び:軍拡に突き進むトランプ氏より軍縮へ向かう市民の声を聞け>
AI技術の発展とともに、AIの活用は広がり、その精度も向上してきた。特に、2000年代からの第三次人工知能ブームでは、 事前に決められたタスクにおいて、人間レベルの性能を発揮する「特化型AI」の開発および活用が進展した。現在は、ChatGPTに代表される大規模言語モデル(LLM)の登場をきっかけに、生成AIブームとなっている。対話型AIにより様々なタスクが実行可能となり、AIの汎用性が飛躍的に向上している。今後は、汎用性がより向上した「汎用AI」の実現が期待されている。
だが「生成AI」という機械頭脳が暴走して有害な情報を弾き出し、「夢見る理想のエネルギー」と謳う「核融合」を以て「水爆」開発に使うなど、「可能性論」であっても到底容認できないリスクがAIには付き纏う。その仮説は仮に検証できなければ、必ずしも間違っていないとは言い切れないからだ。終戦80年、被爆から80年を迎える今年。唯一の戦時被爆国・日本は2024年に被団協がノーベル平和賞を受賞したという快挙にも拘らず、帰国後に対面した石破首相へ「日本もオブザーバー参加だけでもして欲しい」と直訴したところ、ほとんど石破氏の持論を展開しただけの平行線で終わったという。

[筆者記者会見で撮影及びスクリーンショット]
戦後被爆80年を迎える日本の反核市民運動は一蓮托生となり今年度さらに精力的に市民レベルでフォーラムを行う。その意義や国際的な影響力、さらに日本政府のオブザーバー参加に向けた背中を押していく国際的かつ国内的な意義付けを改めて問うものだ。
「日本原水爆被害者団体協議会(日本被団協)」の田中熙巳代表委員は「やはり核行政を動かしている世界各国の役割が大事だ。各国の役割を支配的に動かしていくのは市民の声だ。核兵器についての権限を強く保持している国家の市民が核兵器禁止・廃絶に向けた運動をこれからも強くしていかなければならない。私たちの被爆者運動は貢献しなければいけない。2024年に日本被団協がノーベル平和賞を授賞したことで国際的に被爆者の存在や反戦運動、日本の反核運動も知らしめる結果になった。国内外に向けた政治的な指導者にしっかりと職務を全うしていってほしい」と年頭の記者会見で力強く訴えた。
また「核兵器をなくす日本キャンペーン」浅野英男 事務局スタッフは「国会議員討論会」と「成果文書」について質疑され「各党に私たちの方から招待状を送っている。自民党の石破茂首相も含めて送付し返答を待ちながらできるだけハイレベルな党首層に集ってほしく調整している。提言書の提出については今後、どういった形で、どのタイミングで日本政府に提出するか調整して決定したい」と返答し「提言自体も第3回締約国会議に向けて作られたものもあるという経緯があり日本政府に向けた落とし所を見極める必要があるからだ」と日本政府の「オブザーバー参加」を後押しする狙いも窺わせた。
その浅野氏に「『生成AI』の有害な情報が『核融合』を『水爆』開発脅威に晒す危険性は現実的にあり得ると思うか?」と筆者は質疑した。
浅野氏は「私たち自身もAIがどのように科学軸に転用されるのか?核融合技術や核兵器の実際の政策運営や『コマンド&コントロール・システム』の中でどういう風に実際に適用されていくのか?まだまだ不確実なことが多々ある。それについてもしっかりと情報を収集しながら、やはり核兵器の使用をリスクあるいは核軍拡の方向性へとそうした技術が転用されていくような危険性があるとしたら、しっかりとA Iと核の関連するリスクにも声をあげていきたい。そのような新たなリスクにも注視しながら今後も議論をしっかりと深めて参りたい。」と誠実に答えた。
今こそAIのもたらす利便性に目眩しされた「AIと原子爆弾の脅威論」に共通して見られる「人類滅亡論」のリスクを問い直そう。