AIの応答は、直感に見えるけど…?
ChatGPTをはじめとした生成AIも、ときに「即興の判断」をしてくるように見えます。 例えば、
- 突拍子もないダジャレを言ってくる
- まったく関係ない話に、突然うまくオチをつける
こうしたふるまいは、一見「直感的」に見えます。
でも実際には、過去に学習した膨大なテキストの中から、 確率的に最も“それっぽい”言葉を選んでいるだけなんです。
つまり、パターンの再現はできても、“自分の意志で飛躍”はしていない。
違いは「責任」と「温度」
直感がAIと人間で決定的に違うのは、 「自分の判断に責任を持っているかどうか」だと私は考えます。
人間の直感は、失敗することもある。
でも、「それでもこっちに賭ける」という選択に、“意志”がこもる。 そこに体温がある。覚悟がある。
AIの選択は、そこに温度がない。
「これは面白いと思ったから選んだ」という感情がない。 だから、直感の“ふり”はできても、それに責任を持つことはない。
この違いは、たとえばジョイマンのネタ生成で顕著に現れます。
ジョイマンに学ぶ「ズレ」と「遊び」
私は以前、ジョイマンというラップ芸人のネタをAIで再現しようとして、 かなり苦戦したことがあります。
彼らの芸は、
- 意味のない韻の羅列(例:毛根・ベーコン)
- 無理やりな連想と飛躍(例:イビョンホン・2、3本)
- ツッコミとの“ズレたままの掛け合い”
といった要素で構成されており、意味より音感、構造より違和感に重きを置いたものです。
これは、AIにとって非常に再現しづらい。
AIは“意味を整えること”に強く最適化されており、 途中でわざと脱線したり、「なんか変だけど面白い」を生み出すのが苦手です。