AIは夢を見る


ふと夢を見ていて、知っている人だ!と思ったのに、起きてから冷静に考えるとやっぱり全然知らない人だったという経験はないだろうか。あるいは、聴いたことある曲だ、見たことある単語だと夢の中では思ったのに、起きてから全然知らなかったということは誰にでもあるように思う。

これは、私たちが何かを「知っている」ことと、「知っていると思う」ことが、実は全然別の現象であることを示唆している。本当は全然知らないのに、知っているという印象だけがあり、そのようなことが起きるのだ。逆に、知らないと思っていても実は知っている場合もある(クイズの答えを見て思い出す時のように)。

この違いは最近ますます重要になっている。AIの登場によってである。AIは時に、まったくデタラメなことをさも本当かのようにでっち上げることがあり、これはいわゆる「ハルシネーション」として大きな課題になっている。私はこの問題の根本に、AIが「知っている」ことと「知っていると思う」ことを区別できない点にあると考えている(厳密には前者は量子状態のように観測不可能なものなので、後者が前者から乖離することこそが問題だといえる)。夢を見る人と同じく、AIも自分が知らないことを知らないため、自分が間違ったことを言っているのに気づけないのだ。

とするとAIは夢を見ている状態に近いのかもしれない。存在しない論文を提示するAIは、夢を見ながら存在しない親族と会話する人間と重なる。

では、なぜ覚醒した人間にはこのようなことが起こらない(わけでもないが、起きにくい)のはなぜだろうか。これは、覚醒時は理性でストップがかかるからだろう。なら、理性は何をもってそれらをストップするのだろうか。なぜ人は、自分が何かを知らないことを知ることができるのか?

私の考えではその鍵は、知識と、その知識のソースの結びつきにあるのだと思う。

ある程度成熟した大人が知識を学ぶときはほぼ必ず、どこで学んだかという情報が付随する。教科書で見た、テレビで見た、など。

どこで学んだかという情報は、このメタ的な認知に非常に深く関わっている。 例えば、微積の教科書を読んだことがないという事実は自分は微積について詳しくないというメタ認知を生み出す。

しかしAIにはそれがない。全ての知識を純粋な知識として扱う。 これはある意味、赤ちゃんが言葉を話せるようになることと近い。赤ちゃんは驚異的な学習能力で言葉を話せるようになるが、いちいちソースなど気にしないからだ。AIもそれと同じだ。少なくとも知識に関して、今のAIは赤ちゃんと同じ方法で学習されている。

このことを考えると、AIにメタ認知を生みだすためには学習段階でどのような物を見たかということをAIに認識させる必要があるのではないか。ある分野について学習していないことをAI自身が知っていれば、その分野については自分は答えられるべきではないと知ることができる。

学習データの透明性は、しばしば倫理や権利などと結びつけて語られがちであり、それ故に面倒くさいものと考えられているように感じる。しかし、それがむしろAIの精度を上げ、より有用なAIを作る糧になるのだとすれば、もっと積極的に透明性への取り組みを行っても良いように感じる。

しかし、それが必ずしもAIにとって良いことばかりとは限らない。ポール・マッカートニーが夢の中でYesterdayを思いついたように、夢は人の創造性の源泉でもある。夢がメタ認知を抑制することがもし人の創造性を拡張しているのであれば、メタ認知を搭載することでAIの創造性はむしろ減退するかもしれない。

今後は、正確な情報を答えるためにメタ認知を強化したAIと、あえてそのままで創造性を高めたAI、2つの異なる方向性で進化していくのかもしれない。