DIGIPUNK
去投稿
发表于:2025年04月14日

中国馆 AI 孙悟空大阪世博会首秀 科大讯飞大模型驱动多模态交互

数智朋克
发布者:数智朋克
阅读:1 分钟
我要投稿
核心要点👉
  • 🚀 98%语音识别准确率:环境自适应降噪算法在85分贝噪声环境保持高精度
  • 🤖 多模态交互架构:同步驱动口型/表情/动作的拟人化交互系统
  • 🌐 三语实时切换:支持中日英无缝转换及《大闹天宫》声纹复刻
  • ⏱️ 800ms低延迟:日语响应速度达专业级语音交互标准
  • 📈 2000+/日承载量:0.3%错误率的工业级服务稳定性

数智朋克讯,日本大阪·关西世博会正式启幕。中国馆携"嫦娥五号"月壤样本"蛟龙"号载人深潜器等硬核科技成果亮相,其"共同构建人与自然生命共同体"主题展区通过动态数字交互系统实现展品活化。作为中国馆唯一大模型展项,由科大讯飞自主研发的"AI孙悟空"完成全球首秀,该展项基于国产算力训练的讯飞星火大模型,集成多语种处理引擎强抗噪语音识别模块,在85分贝环境噪声下仍可精准捕捉语义。

这款三维虚拟角色搭载多情感语音合成系统,支持中文、日语、英语实时无缝切换,其声纹特征精准复刻经典动画《大闹天宫》原型。在智慧导览场景中,系统通过多模态交互架构实现自然对话,面对"中国美食推荐"的即兴提问,能够调用知识图谱生成个性化应答。现场实测显示,其日语响应延迟控制在800毫秒以内,语音自然度达到4.5MOS分(语音质量评估标准)。

技术架构层面,该展项创新融合跨语种意图理解引擎环境自适应降噪算法,在密集人流场景实现98%的语音识别准确率。其多模态输出系统可同步驱动三维形象口型微表情肢体动作,形成完整的拟人化交互链路。据实测数据,系统单日可承载2000+次交互请求,响应错误率低于0.3%

本文链接: https://www.shuzhipunk.com/articles/7hFaWr5UsDE
转载请注明文章出处

文章所属标签
AI 大模型
多模态交互