2025/05/14 (WED)

自然言語処理のトップカンファレンス「NAACL 2025」で開催されるワークショップで論文を発表

キーワード:その他

OBJECTIVE.

人工知能科学研究科の石川真之介特任准教授が率いる研究チームによるAIエージェント関連論文が2025 Annual Conference of the Nations of the Americas Chapter of the Association for Computational Linguistics(NAACL 2025)で開催のワークショップThe 5th International Conference on Natural Language Processing for Digital Humanities(NLP4DH)に採択されました。

「NAACL」は、世界中の研究者によって定期開催される国際会議で、自然言語処理分野でもっとも権威ある国際会議のひとつです。研究チームは、米国ニューメキシコ州アルバカーキにて開催されたNAACL 2025にて、2025年5月3日に発表しました。

研究概要

大規模言語モデル(LLM)の発展により、これまでは人間しか行うことができなかった多くのタスクをAIに行わせることができるようになってきました。AIの能力はタスクを限定すれば人間を超えることもしばしばあります。その一方で、「自ら感じ、考え、行動する」ことができるAIはまだ実現しているとは言えません。LLMは人格や感情を持たず、目的意識がないため、人間のような振る舞いには今一歩及びません。
このギャップを埋める可能性がある考え方が、AIエージェントです。AIエージェントとは、AIに目的を与え、状況把握と行動選択を繰り返させることで目的の達成を目指す仕組みです。AI自身が目的意識を持たずとも、目的を持っている状態を仮想的に想定して「役割を演じる」(ロールプレイする)ことで、より多くのタスクに対応できる可能性を広げることができます。LLMを用いてこのコンセプトを実装する場合、LLMとAIエージェントの関係は脳と人格の関係のアナロジーで解釈することができます。脳それ自体は目的を持っているのではなく、脳をバックエンドとした人格が目的を持っているという捉え方ができるのと同じように、LLMは目的を持ちませんが、AIエージェントは目的を持ちうると捉えられます(図)。
本研究では、AIエージェントに「役割を演じさせる」コンセプトをもとに、指定した感情を持っているかのように振る舞わせ、その出力から読み取ることができる感情状態と、指定した感情とが一致するかどうかを評価しました。その結果、「役割を演じさせる」状況においては、LLMは感情を表現する十分な能力を持つということがわかりました。感情を表現することでLLMはより人間らしく振る舞うことができるようになれば、ユーザーにより親しみやすいシステムの実現が期待されます。

感情以外の面においても、今後AIエージェントの仕組みを応用した研究、例えばAIに意志に相当するものを持たせる研究等が発展していくことが期待されます。

論文情報

Shin-nosuke Ishikawa and Atsushi Yoshino. 2025. AI with Emotions: Exploring Emotional Expressions in Large Language Models. In Proceedings of the 5th International Conference on Natural Language Processing for Digital Humanities, pages 614–627, Albuquerque, USA. Association for Computational Linguistics.


お使いのブラウザ「Internet Explorer」は閲覧推奨環境ではありません。
ウェブサイトが正しく表示されない、動作しない等の現象が起こる場合がありますのであらかじめご了承ください。
ChromeまたはEdgeブラウザのご利用をおすすめいたします。