要点速达👈
- 🧐 OpenAI语音转写工具Whisper生成虚假内容问题频发。
- ⚠️ 医疗机构使用该工具记录咨询对话,或引发风险。
- 📊 工程师反馈大量转录中存在“AI幻觉”现象。
- 🔬 近期研究发现数万条录音中或有大量错误转录。
- 💡 OpenAI正积极改进工具,将在未来更新中优化。
数智朋克讯,超过十位来自软件工程、开发和学术界的专家警告称,OpenAI的语音转写工具Whisper存在显著缺陷,在转录时常生成不真实的虚构内容,甚至会凭空造出整句文本。业内人士将这种现象称为“AI幻觉”,而根据研究人员反馈,这种虚构内容可能包含种族性言论、暴力词语,甚至杜撰的医疗建议。
Whisper已被广泛应用于多个行业,成为全球用于语音转写、访谈翻译和视频字幕生成的主要工具之一。然而,这些潜在的错误特别令人担忧,因为一些高风险领域——尤其是医疗行业——已将其用于医生和患者间的咨询记录。尽管OpenAI多次提醒不应在敏感领域使用该工具,但该建议并未被广泛遵循。
据密歇根大学一位研究员透露,在研究公共会议记录时,所检查的十份音频转录中有八份包含虚构内容。他指出,即使尝试对模型进行优化,问题依旧显著。一位机器学习工程师进一步指出,在超过100小时的Whisper转录内容中,大约一半带有明显“幻觉”现象。此外,一名开发者透露,在Whisper生成的26000份转录中,几乎每一份都存在虚假内容。这种现象并非仅发生于音质较差的长篇音频,就连简短、清晰的音频样本也会受到影响。
近期的计算机科学研究进一步证实了这一问题的普遍性,数据显示在研究的13000多段清晰音频样本中,约187段出现了“幻觉”内容。这表明在数百万条录音中可能存在数以万计的错误转录。
OpenAI回应称,公司正在积极研究如何降低“AI幻觉”问题,并感谢研究人员的反馈,将在未来的模型更新中优化这些问题。然而,Whisper在医学等敏感领域的应用仍需慎重评估,以避免因虚假内容造成更严重的风险。