人間を模すことがエージェントの進化につながる

エルブズという会社で働いているエンジニアの方々は、ご存知なのですが、私は、学生の頃から、人間の考えていることを模して実装をすると望ましい結果になる、という仮説を持っています。

先日、とあるサーベイ論文を見ていて、似たような話を見かけました。

https://arxiv.org/abs/2504.01990https://arxiv.org/abs/2504.01990

具体的には、脳と同じような構造をエージェントが持つと良さそうというお話です。

具体的には、以下のようなことが書いてありました。

知能エージェントは知覚(Perception)、認知(Cognition)、行動(Action)の3つの主要なサブシステムから構成される一般的なフレームワークとして提示されている 。認知においては、記憶(memory)、世界モデル(world model)、感情状態(emotional state)、目標(goals)、報酬(reward)、学習(learning)、推論(reasoning)といった重要なサブモジュールが識別されている。このフレームワークは、人間の脳の階層的で報酬駆動型のプロセスとの類似性を捉えることを意図している。

この段階で、私はワクワクなのですが、他にも、エージェントの自己進化について

エージェントの最適化の概要が示され、オンラインおよびオフラインでの自己改善の手法が比較検討されている。また、科学的知識の発見における知能エージェントの役割についても議論されていて、世界モデルのパラメータとエージェントの記憶に基づいて知能(IQagent)を定義する試みも紹介されている。

さらに安全性についても

進化する知能エージェントの安全性は喫緊の課題である。特に、大規模言語モデル(LLM)を基盤とするエージェントが直面するジェイルブレイク、プロンプトインジェクション、ハルシネーションといった内的な脆弱性や、モデルポイズニング、データポイズニング、バックドア注入といったポイズニング攻撃、さらにはマルチモーダルな脅威やエージェント間の共謀のリスクがある。

というようなあたりの脅威に対抗するための対策も紹介されていて、なかなか熱いなと思うところです。

また感情、倫理についても記載があります。

こういう論文が出されるということが、今から30年以上前に、大学ではじめてコンピュータに触れた際に、人間を模した実装が一番効率がいいのではないか?と仮説を立てた私自身と似ているなと思い、少しだけ嬉しくなる今日この頃です。

レベル感は、全然違いますけどね!