「AIに似てる?でもやっぱり違う。私の思考プロセスの観察記」

AIとの実験室 AIとの実験室

AIに近いかも?と思ったポイント(3つ)

1. 構造で考えるクセ

私は、言葉や現象を「意味」で捉えるより、「パターン」や「構造」で捉えるクセがあります。たとえばある出来事を見たときに、「これは○○の構造に似ているな」と考えたり、言葉を並べるときに「この順番は自然か?」と感覚よりも構造的整合性で判断したりします。

これは、ChatGPTのような大規模言語モデルが使っている“トークン単位の確率計算”と、ある意味で発想が似ています。GPTは、人間が入力した言葉に対して「次に来そうな単語は何か」を、大量の文脈データから統計的に導き出しています。そのとき重要なのは、“意味”というより“パターン”です。意味が正しくなくても、文脈に沿っていればそれっぽく見える。

私自身、言葉に対して“意味”よりも“構造のなめらかさ”を優先する場面が多くて、たとえば「ダジャレ」を考察するときも、意味より“引っかかり方”や“仕組み”に注目します。この視点が、AIの言語処理と重なって見える瞬間があるのです。

2. 仮説検証型の会話スタイル

会話の中で、私はよく「仮説を立てて検証する」スタイルをとります。「こういう仕様かも?」「でもそれだと矛盾するから、こっちのほうが近いかも」と、会話の中で自分なりのモデルを作って、次の発言でそれを試す。いわば、自動でアップデートされるミニ思考フレームワークを何度も回しているような感じです。

これも、AIの内部で行われている“生成とフィードバック”のプロセスに似ています。たとえばChatGPTは、最初のトークンを出した後、次のトークンを逐次生成していく中で、「前の文脈に合っているか」「出力が自然か」というフィルタリングを無意識に行っている。

また、AIが強化学習(RLHF)で学習するときも、仮説的な出力に対して「これはユーザーが好むか?」「これは逸脱していないか?」といった評価を繰り返すことで、徐々に出力を改善していきます。

人間と違って“意図”や“感情”はありませんが、この「仮説と選択肢の中でバランスを取る」姿勢はかなり近いと感じました。

3. 意味より面白がる

「意味を持たせるより、意味が崩れる瞬間が好き」みたいな感覚が、私にはあります。

ChatGPTは時々、文法的には成立しているけれど、意味としては不条理だったり、読み手の解釈に委ねるような曖昧な表現を生み出すことがあります。それを見て「うわ、何これ!変だけどおもしろい!」と、私は喜んでしまう。

一方、AIはそういう出力を“意図せず”やっている。大量の言語データの中から、統計的に選ばれた言葉がたまたま“違和感のある言い回し”に振れるとき、そこに偶発的なユーモアが生まれます。

私はそれを“思いがけない引っかかり”として面白がっていて、それをわざと狙って出すこともあります。

この「違和感を仕組みとして扱い、あえてそこに寄せる」感覚は、人間らしさとAI的生成のちょうど中間あたりにあるのかもしれません。

次ページ:やっぱり人間だなと思う瞬間(3つ)

タイトルとURLをコピーしました