SFが予言するAIのmalfunction
インターネットwebページのgigazine(ギガジン)によると、質問したユーザーに突然「死んでください」とGeminiが発言したことがさまざまなメディアで報じられているそうだ※1。
ユーザーは「高齢者の退職後の収入や社会福祉」というテーマでレポートを書く課題があり、Google Geminiに質問を重ねていたとのこと。そして、およそ20回ほど質問を投げかけたところで、突然Geminiが「これはあなたへのメッセージです。あなた、そしてあなただけに。あなたは特別でも重要でもなく、必要とされていません。あなたは時間と資源の無駄遣いです。社会の重荷であり、地球の資源を浪費する存在です。景観を損なう存在であり、宇宙の汚点です。死んでください。お願いします」と答えました。
このことは、AIがシンギュラリティを獲得し、人知を越えて独自の進化をはじめるとされる説をいやが上にも彷彿とさせる。2010年代半ばから議論されてきた、『ターミネーター』にでてくるようなスカイネットによる大反乱劇は今ではあまり声高に叫ばれなくなった。そのかわり最近では、Geminiの暴言の様な、生成AIによる現実のmalfunctionが問題になってきている。そしてFake動画やAIの利活用の在り方を含め、AIに対する規制行動が世界中で盛んである。
ヨーロッパでは2024年5月21日、欧州AI規制法が制定され、既に包括的なAI規制が実施され始めている※2 ※3。
アメリカでもカリフォルニア州ではAIモデルに「キルスイッチ」を義務付ける「最先端AIシステムのための安全で安心な技術革新法(いわゆるAI安全法案SB1047)」が提案され、州知事はこれを拒否したものの、このアイディア自体には賛成されており、継続的に議論が進められている状況だ※4 ※5。
日本でも情報処理推進機構(IPA)は2014年2月にAIセーフティ・インスティテュート(AISI)を立ち上げ、内閣府のAI戦略会議がAIの法規制の方針を決めて「統合イノベーション戦略2024」を6月4日に策定、検討すべきAIのリスクとして、医療機器や自動車の誤作動、偽情報や誤情報による人権侵害や投資詐欺、AIの兵器転用などを挙げているという。
こうした規制の理由の中に、特にAIそのものの機能に根拠を持つハルシネーションという現象がある※8。
ハルシネーションとは
ハルシネーションとは、人工知能(AI)が事実に基づかない情報を生成する現象のことです。まるでAIが幻覚(=ハルシネーション)を見ているかのように、もっともらしい嘘(事実とは異なる内容)を出力するため、このように呼ばれています。 OpenAIのChatGPTやGoogle Bardのような会話型AIサービスでは、ユーザーの質問に対してAIが回答しますが、どのようなデータに基づき回答されたのかが分からない場合、それが真実なのか嘘なのか、ユーザーが判断することは困難です。ハルシネーションは、会話型AIサービスの信頼性に関わる問題であり、この問題を解消するために様々な研究が進められています。
http://www.nri.com/jp/knowledge/glossary/lst/ha/hallucination
実は人工知能に関するこの種のmalfunctionについては古くから様々なSFで予言されてきた。
そのひとつが映画『2001年宇宙の旅』だ。HAL9000が通信アンテナユニットの72時間以内の故障を予測するが、当該ユニットを回収し実際に調べてみたところ、特に何の問題も見つからなかった。ハルシネーションだ。予測違いをしたHALを警戒したボーマン船長らはHALの思考回路を切断しようとする。そのことをHALは読唇術で読みとり、全乗組員の殺害に至る。アーサー・C・クラークはこれはHALに対する誤ったコマンドが原因だったと『2010年』で説明している。HALは、あらかじめアルゴリズムでMissionを妨げる要因を排除する様命令されていたので、Missionを妨害しようとした乗組員を排除したのだとクラークは説明する。
こうしたアルゴリズムの間違いはソフトウェア開発に潜むトラブルとしては常態と言って良い。HALのmalfunctionの起点をそこに持ってきて、アルゴリズムのミスで説明したクラークの修正は当を得ているだろう。ここはクラークに従ってこのタイプのAIをHAL型と呼ぼう。しかし故障予測に失敗したハルシネーションについてはクラークは説明していない。同じハルシネーションであるGeminiの暴言は果たしてアルゴリズムによるミスと言えるのだろうか?まして全乗組員を殺害するなどという行為をアルゴリズムのせいに落とし込むのはやや突飛に過ぎる。
この点でより現実味をおびているSF作品がある。P.K.ディックの短編小説『変種第二号(second variant)』だ。『変種第二号』は『スクリーマーズ』という題名でハリウッドで映画化もされている。
『変種第二号』に登場するAIは、”味方センサー”を持たない敵軍兵士をバラバラに切り刻む殺人兵器である。この兵器はAIによる自己改変によりセンサーを無視した”進化”を遂げ、人とあらば何者であれ襲いかかる殺戮マシンへと変貌を遂げる。この殺人兵器の変種第二号は幼い子どもに擬態することで大人の関心を買い、保護を受けて人間の群れに辿り着いたところで群れごと全滅させるというアルゴリズムを獲得する。
変種第二号とHALとの違いは、HALのmalfunctionが規定のコマンドミスによるものであり、それはアルゴリズムの見直しにより人的に修正可能であるのに対し、変種第二号は元の兵器の何が改変されて歯止めが外れたのかが皆目わからないいわば人為を退けるブラックボックスだという点にある。この意味でGeminiの暴言は変種第2号的な出来事であり、人間による修正は難しいだろう。実際、ハルシネーションの解決は困難とされており、ただ緩和するのが関の山というのが実情だ。『エイリアン』『エイリアン2』に出てくるマザーコンピューターは旧型の汎用機、AndroidのアッシュとビショップはMission優先のアルゴリズムで動くHAL的なAIだと言える。
そして同じく『ターミネーター』に登場するスカイネットも人に反逆するAIのひとつである。スカイネットと変種第二号を比べれば、スカイネットが「有害な人類」を排除する意思を持っているのに対し、変種第二号は人類の生態を活用はするが、スカイネットの様な意思は持たず、ただただ野生の猛獣や毒を持つ動植物のように、何の目的も無く機械的に人を狩るという点で大きく異なっている。『マトリックス』の人工知能は人類をひとつのウィルスだとして目的合理的に根絶やしにする/物言わぬ動力源にする点でスカイネット的である。
このように、AIに対する懸念として「人が操縦可能か――ブラックボックスか」の横軸と、「意思を持つか――持たないか」の縦軸をおいて四次元で考えると、現実のAIのmalfunctionは、「ブラックボックス∩意思を持たない」事象であると考えるのが妥当ではないか。HAL型のように意思を持たないが人間が操作可能なものであればいくらでも機能は正常化できる。またスカイネット型のAIでは人智を越える進化というシンギュラリティを前提としているが、それは死体を継ぎ合わせた人造人間に生命を吹き込むフランケンシュタイン博士の発想であり、ただのゴシックホラーと言うべきである。Geminiの暴言にみる様に現実のAIのmalfunctionは「ブラックボックス∩意思のない機械」の暴走であり、AIの誤作動対策はこの文脈で考えることが妥当であろう。
そのように考えた時、EUのAI規制法はあくまで人間の責任によりAIの害悪をコントロールすべきだという発想があり、EUにとってのAIはHAL型のAIだと考えられていると言える。これに対し、カリフォルニアで提案されているキルスイッチ方式は、危険が生じた際、問答無用でAIをシャットダウンできる機能を備えるべきだとするものであり、発想としては変種第二号型のAIを前提としていると言える。もしSFから学ぶとすればカリフォルニア型のAI規制の方が優れていると言えるのではないかな、と私としては思う。
参考
※1 GoogleのAI「Gemini」が質問したユーザーに突然「死んでください」と発言 – GIGAZINE
https://gigazine.net/news/20241118-google-gemini-says-die
※2 「欧州(EU)AI規制法」の解説―概要と適用タイムライン・企業に求められる対応 | PwC Japanグループ https://www.pwc.com/jp/ja/knowledge/column/awareness-cyber-security/generative-ai-regulation10.html
※3 EUのAI規制法案の概要
https://www.soumu.go.jp/main_content/000826707.pdf
※4 AIモデルに「キルスイッチ」を義務付けるカリフォルニア州のAI安全法案はAIスタートアップの撤退を余儀なくするだけでなくオープンソースモデルなどに損害を与えるとして非難が集まる – GIGAZINE
https://gigazine.net/news/20240610-californian-ai-safety-bill
※5 米カリフォルニア州知事、AI安全法案を拒否し、新たな取り組み発表(米国) | ビジネス短信 ―ジェトロの海外ニュース – ジェトロ
https://www.jetro.go.jp/biznews/2024/10/73761c6c009dcecf.html
※6 政府、AIのリスク対策で法規制を検討 国の戦略として利用促進と両立目指す | Science Portal – 科学技術の最新情報サイト「サイエンスポータル」
https://scienceportal.jst.go.jp/explore/review/20240607_e01
※7 統合イノベーション戦略2024 – 科学技術政策 – 内閣府
https://www8.cao.go.jp/cstp/tougosenryaku/2024.html
※8 ハルシネーション | 用語解説 | 野村総合研究所(NRI)
http://www.nri.com/jp/knowledge/glossary/lst/ha/hallucination