Meta推出多模态对话图,助力识别社交状态

[复制链接]
周大 发表于 2024-6-10 15:46:36 | 显示全部楼层 |阅读模式
Meta、佐治亚理工和伊利诺伊大学的研究团队开发了一种多模态框架,名为AV-CONV,它能像人类一样识别第一人称视角下的复杂对话状态。该框架利用音视频信号,通过自注意力机制构建对话图,识别人们在社交互动中的倾听和讲话行为。实验结果显示,AV-CONV在处理多人对话时表现优越,尤其在利用跨时间注意力检测语音活动方面。这项工作不仅为理解和建模人类社交行为提供了新途径,也为未来分析更多人类行为如眼神交流打下了基础。
来源:https://mp.weixin.qq.com/s/nFDY0aKUKm93TukDl28rTQ

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-9-21 07:00 , Processed in 0.299929 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表