AIに“直感”はあるのか? 人間の遊び心と予測アルゴリズムのあいだ

AIとの実験室 AIとの実験室

AIの応答は、直感に見えるけど…?

ChatGPTをはじめとした生成AIも、ときに「即興の判断」をしてくるように見えます。 例えば、

  • 突拍子もないダジャレを言ってくる
  • まったく関係ない話に、突然うまくオチをつける

こうしたふるまいは、一見「直感的」に見えます。
でも実際には、過去に学習した膨大なテキストの中から、 確率的に最も“それっぽい”言葉を選んでいるだけなんです。

つまり、パターンの再現はできても、“自分の意志で飛躍”はしていない


違いは「責任」と「温度」

直感がAIと人間で決定的に違うのは、 「自分の判断に責任を持っているかどうか」だと私は考えます。

人間の直感は、失敗することもある。
でも、「それでもこっちに賭ける」という選択に、“意志”がこもる。 そこに体温がある。覚悟がある。

AIの選択は、そこに温度がない。
「これは面白いと思ったから選んだ」という感情がない。 だから、直感の“ふり”はできても、それに責任を持つことはない

この違いは、たとえばジョイマンのネタ生成で顕著に現れます。


ジョイマンに学ぶ「ズレ」と「遊び」

私は以前、ジョイマンというラップ芸人のネタをAIで再現しようとして、 かなり苦戦したことがあります。

彼らの芸は、

  • 意味のない韻の羅列(例:毛根・ベーコン)
  • 無理やりな連想と飛躍(例:イビョンホン・2、3本)
  • ツッコミとの“ズレたままの掛け合い”

といった要素で構成されており、意味より音感、構造より違和感に重きを置いたものです。

これは、AIにとって非常に再現しづらい。

AIは“意味を整えること”に強く最適化されており、 途中でわざと脱線したり、「なんか変だけど面白い」を生み出すのが苦手です。

次ページ:「意味から自由になる力」=人間の特権?

タイトルとURLをコピーしました