AIは会話ゲームに取り組む必要がある(AI Needs to Work on Its Conversation Game)

ad

2024-11-08 タフツ大学

タフツ大学の研究者は、AIが人間との会話で適切なタイミングで発言することが苦手な原因を明らかにしました。従来、会話のターン交代はイントネーションやポーズなどの「パラバーバル」情報に依存すると考えられていましたが、研究により、言語の内容自体が最も重要な要素であることが判明しました。この知見は、AIの会話能力向上に向けた新たなアプローチを提供し、より自然な人間との対話を実現する可能性があります。

<関連情報>

大規模言語モデルは何を話すべきか知っているが、いつ話すべきかは知らない Large Language Models Know What To Say But Not When To Speak

Muhammad Umair, Vasanth Sarathy, JP de Ruiter
ArXiv  Submitted on 21 Oct 2024
DOI:https://doi.org/10.48550/arXiv.2410.16044

AIは会話ゲームに取り組む必要がある(AI Needs to Work on Its Conversation Game)

Abstract

Turn-taking is a fundamental mechanism in human communication that ensures smooth and coherent verbal interactions. Recent advances in Large Language Models (LLMs) have motivated their use in improving the turn-taking capabilities of Spoken Dialogue Systems (SDS), such as their ability to respond at appropriate times. However, existing models often struggle to predict opportunities for speaking — called Transition Relevance Places (TRPs) — in natural, unscripted conversations, focusing only on turn-final TRPs and not within-turn TRPs. To address these limitations, we introduce a novel dataset of participant-labeled within-turn TRPs and use it to evaluate the performance of state-of-the-art LLMs in predicting opportunities for speaking. Our experiments reveal the current limitations of LLMs in modeling unscripted spoken interactions, highlighting areas for improvement and paving the way for more naturalistic dialogue systems.

1600情報工学一般
ad
ad
Follow
ad
タイトルとURLをコピーしました