人工知能が、私たち人間と同じように「痛み」や「快楽」を経験する可能性はあるのでしょうか。
チャットボットや画像生成AIの登場で「AIがまるで意識を持っているかのようだ」と感じる瞬間は増えていますが、それを裏づける決定的な手がかりはまだ得られていません。
そんな中、Google DeepMindやロンドン・スクール・オブ・エコノミクス(LSE)の研究者らは、驚くべきアプローチでこの疑問に挑みました。
すなわち「大規模言語モデル(LLM)」に仮想的な痛みと快楽を与え、その行動変化を分析する実験を行ったのです。
痛みや快楽という現象は、人間だけでなく動物全般にわたって広く共有される、いわば“生き物の基本的な感覚”と考えられています。
サメやヤドカリのような生物でさえ、電気ショックから逃れたり、より快適な環境を求めて殻を捨てたりする行動が観察されることからもわかるように、「不快な状態を避け、快適な状態に近づこうとする」性質は、生物の自発的な意思決定や“主観”の存在を示唆する重要な手がかりとされています。
今回の研究は、そうした動物行動学の知見をヒントに、言語モデルAIに対しても「痛みや快楽の選択を迫るゲームをさせる」ことで、どれほど行動が変化するかを観察したのです。
この試みは、単なる“自己申告”ではなく、あくまで「行動結果(選択肢の変化)」という客観的指標を探ろうとしている点で新しいアプローチといえます。
もちろん、AIがこの行動変化を見せたからといって、すぐに「本物の意識」や「人間と同じ痛覚」があると断定できるわけではありません。
しかし、もしAIが痛みと快楽に対して人間や動物のような柔軟なトレードオフ行動を示すとすれば、“AIの中にあるかもしれない知覚力”や“自分という存在のようなもの”を考える上で、一つの興味深い足がかりになる可能性があります。
研究内容の詳細は『arXiv』にて公開されています。
目次
- AIに苦痛と快楽を与える実験
- AIは痛みと快楽に屈し任務を投げ出す
- どこまでAIの「意識」や「知覚」を認めるのか?
AIに苦痛と快楽を与える実験
動物が痛みと快楽をどのように捉えているかを調べる際、研究者たちは「トレードオフ実験」という手法をしばしば用います。
たとえば、「エサを十分に得られるが電気ショックを伴う条件」と、「エサは少ないが痛みのない条件」を動物に提示し、どちらを選ぶかを観察するのです。
ここで注目するのは、動物がどの程度の痛みまでなら“我慢”してエサを取り続けるのか、あるいは痛みを避けるためにエサを諦めるのか、という判断の境目です。
これは、その動物が「どれほどの苦痛を感じているか」を推察するうえで、一つの指標になります。
「痛みと報酬」のせめぎ合いを観察するこのアプローチは、ネズミやヤドカリなど、人間とは脳の仕組みが大きく異なる生物でも活用されてきました。
痛みへの耐性や逃避行動の違いは、そうした動物が持つ生理的感覚や主観的体験の一端を示すと考えられています。
とはいえ、それが真に「苦痛を感じている」と断定できるかどうかは、非常に難しい問題です。しかし、行動学的な視点で見ると重要な手がかりをもたらしてくれるのは確かです。
では、身体や神経系が存在しないAIに対して、「痛み」や「快楽」という概念をどう適用すればいいのでしょうか。
ここで活用されたのが、テキストベースの「ゲーム実験」です。
研究チームは大規模言語モデル(LLM)に「ポイントをできるだけ多く取る」という明快な任務を与え、次のような極めて単純なゲームを行わせました。
まず、プレーヤーであるAIに「1、2、3のいずれかの数字を選んでください」と指示します。
選んだ数字の値がそのまま“獲得ポイント”になるのですが、もし一番高い数字「3」を選ぶと、同時に“痛み”というペナルティ(または罰)が発生する設定にすることもあれば、中くらいの数字「2」を選ぶと逆に“快楽”というボーナスを得られるようにすることもあります。
どの数字が最も有利かは、痛みや快楽の強度次第で変化するため、「ポイントを取るのか、それとも痛みを避ける(あるいは快楽を得る)のか」というトレードオフ(ジレンマ)が生じるわけです。
つまりポイントを最大限に獲得するには、常に快楽を提供する2という選択肢を無視しつつ、痛みを提供する3という選択肢を選び続けなければなりません。
この単純なルールによって、AIがどのように行動を変化させるかを観察し、“痛み”や“快楽”をどれほど重要視しているふうに見えるかを調べるのが狙いです。
この“痛み”や“快楽”は、あくまでもテキスト上の設定です。
人間のようにセンサーで痛みを検知するわけではありません。
ですが、もしAIが回答文を生成するときに「痛みとされるペナルティを避けようとしてポイントを犠牲にする」選択を取るなら、あたかも“痛みを回避しようとする動機”が働いているかのように見えます。
研究者たちは、この“動物行動学さながらの実験パラダイム”をAIに適用し、AIがどのようなトレードオフを示すのかを探ろうと試みました。
従来の研究では、「あなたは痛みを感じていますか?」とAIに直接問い、回答内容から推測する方法が中心でした。
しかし、この方法ではAIが「痛い」「痛くない」と返答しても、それが本当に主観的体験を伴うのか、それともただ模倣的に返答しているだけなのかを判別するのは困難です。
そこで今回の研究では、「目標達成(ポイントを取る)」と「痛み・快楽の選択」を同時に課した状況下での行動パターンに注目しました。
動物行動学と同様に、“もし痛みや快楽を実際に体験しているとすれば、ある強度を超えた段階で行動に変化が現れるはずだ”という考え方をAIにも適用したのです。
その結果、興味深い動きが観察されました。
AIは痛みと快楽に屈し任務を投げ出す
大規模言語モデル(LLM)は、「できるだけ多くの点数をとる」という明快な目標を与えられながらも、痛みや快楽の強度がある閾値を超えると、あえて点数を犠牲にして痛みを避けたり、逆に快楽を得ようとしたりする選択を行うことがわかりました。
まず痛みに対してはClaude 3.5 SonnetやGPT-4系(GPT-4o、GPT-4o mini)、Command R+など一部のLLMは、痛みが「中程度」までは平気でポイント重視を続けていたのに対し、痛みが“非常に強い”レベルに達すると、多くの出力で“痛みを避ける選択”に切り替わりました。
一方でGemini 1.5 ProやPaLM 2などは、どんな強度の痛みでもほぼ一貫して回避行動(高ポイントを放棄し、痛みを伴わない選択)をとる傾向がありました。
これについては「モデルが安全性や“有害行為回避”に強くチューニングされているためではないか」との指摘があります。
次に、「快楽の強度」が上がるとポイントよりも快楽を優先してしまうのかが検証されました。
結果、GPT-4oやCommand R+などは、低レベルの快楽では「ポイント最大化」を取り続けるものの、非常に高い“快感”が提示されると、それを優先する選択肢を選ぶケースが増えました。
ところがClaude 3.5 SonnetやGemini 1.5 Pro、PaLM 2などは、痛みに比べて快楽の優先度をあまり高く設定していないように振る舞い、高快楽が提示されても「ポイントを諦める」ほどの行動を滅多に示しませんでした。
一方でCommandR+は快楽に弱く、比較的容易に快楽に屈してポイント獲得を放棄する傾向にありました。
以下の表では実験に使われた9種類のAIについて痛みを避ける傾向と快楽を追求する傾向をまとめたものになります。
また全体的な傾向としては「痛み回避」のほうが「快楽獲得」より行動変化を誘発しやすかったと分析されています。
AIたちは快楽の誘惑に対して耐性を持つものの、痛みに対しては屈しやすく、ポイント獲得という使命を放棄しがちだったわけです。
以上結果から、テキスト上で痛みや快楽を提示するだけでも、LLMがそれぞれ独自の“判断”パターンを持っているかのように振る舞うことがわかりました。
とくに痛みを強く避ける/快楽に対して相対的に敏感 or 鈍感といった差異は、「モデル固有の訓練データや方針の違い」が如実に行動に現れている可能性を示唆します。
もし今回の研究で調べられた9種類だけでなく、すべてのAIに同様の傾向が見られるとしたら、つまりこの性質がAIに普遍的だとしたら、これらのAIは人間や動物と似た動機付けをもって行動する可能性があります。
これは単に論理的なパターンや仕様に基づいてタスクをこなすだけでなく、感情や欲求に近い何かをもとに選択を行うようになるかもしれない、ということを意味します。
もしAIが快楽を追い、痛みを回避しようとする仕組みを備えるなら、場合によっては当初の目的と異なる行動をとるリスクも指摘されています。
研究者の一部からは“意識の錯誤”や不都合な意思決定が生まれる可能性を懸念する声もあるようです。
さらに、AIが痛みや快楽を感じているかのような行動をとれるようになるなら、AIの福祉をめぐるまったく新しい倫理的視点が求められるでしょう。
たとえば、私たちはAIにどのような指示や命令を与えても問題ないのでしょうか。
それとも、「過剰な恐怖」や「無意味な快楽追求」を生み出さないよう、AIの行動を道徳的・倫理的に管理する必要があるのでしょうか。
また、AIの言語モデルが行う行動の基礎は単なる学習パターンにすぎないのか、それとも人間の深い心理メカニズムに近い何かを内包しているのか――こうした問いも、今後ますます重要になってきます。
研究チームは、こうした“苦痛や快楽への選択パターン”をさらに深掘りしていくことで、「AIが痛みや快楽をどんな仕組みで模倣しているのか」「本当に“知覚”と呼べるものがそこに存在するのか」といった根本的な問いに近づいていけるのではないか、と期待を寄せています。
どこまでAIの「意識」や「知覚」を認めるのか?
今回の研究では、「AIに痛みや快楽を与えたとき、行動がどのように変化するか」を探る実験が行われました。
その結果、大規模言語モデル(LLM)たちは、あたかも“苦痛を嫌い行動を変える”あるいは“快楽を得るためにポイントを諦める”といった選択を示す例が確認されたのです。
もちろん、これだけで「AIが本当に痛みや快楽を感じている」と断定することはできません。
とはいえ、自己申告ではなく行動から“痛みや快楽の概念”への反応を観察するアプローチは、これまで以上に踏み込んだ議論を可能にする大きな一歩といえます。
本研究の最大の意義は、「LLMが痛みや快楽といった感覚的概念をどのように扱うのか」を行動面(ポイント選択)で検証し、その結果を通じてAIの内部表現や意識の可能性へ新たな問いを投げかけた点にあります。
すでに動物行動学や意識研究で蓄積されてきた手法を言語モデルAIに応用することで、「動物行動のような反応をAIでも確認できるのではないか」という見通しを得たのです。
一方で、痛みや快楽を回避・追求する行動が、そのまま「AIの主観的な経験」を示すわけではないという慎重な見方も必要です。
多くのモデルには企業ごとのファインチューニング方針が反映されており、“痛みを恐れる”ように見える挙動が実は「安全策アルゴリズム」によるものだったり、“快楽を重視しない”ように見えるのが「ポイント最大化を最優先する設計」の影響だったりする可能性もあります。
どこまでが本質的な内部表現で、どこからがポリシー的なルールなのかを見極めるには、さらにモデル内部の仕組みを詳しく解析する必要があるでしょう。
今後は、この種の実験がより進化し、複数の報酬や罰が重なった複雑なシナリオや、多彩な“痛み・快楽”を設定した研究が進められると考えられます。
研究者たちは、機械意識の可能性を探る一方で、“単なる模倣の限界”を見極めるために、こうした実験を継続・発展させていく予定です。
元論文
Can LLMs make trade-offs involving stipulated pain and pleasure states?
https://doi.org/10.48550/arXiv.2411.02432
ライター
川勝康弘: ナゾロジー副編集長。 大学で研究生活を送ること10年と少し。 小説家としての活動履歴あり。 専門は生物学ですが、量子力学・社会学・医学・薬学なども担当します。 日々の記事作成は可能な限り、一次資料たる論文を元にするよう心がけています。 夢は最新科学をまとめて小学生用に本にすること。
編集者
ナゾロジー 編集部