据报道,OpenAI的AI语音转写工具Whisper被发现存在“幻觉”问题,即无中生有地生成与原始语音不符的大段内容。这一缺陷引起了广泛关注,尤其是在医疗领域的应用上,许多医院和医生已将Whisper集成到会诊记录中,致使潜在风险倍受关注。
包括明尼苏达州曼卡托诊所、洛杉矶儿童医院等在内的多家医疗机构,已有超过30000名临床医生通过法国公司Nabla基于Whisper的系统进行语音记录。然而,OpenAI早前已发布警告,建议不要在“高风险领域”中使用Whisper。
有机器学习专家在对Whisper转录的100小时语音样本进行分析后发现,近一半内容与原始语音存在不符现象。开发者指出,这些虚构内容或与语音中的停顿、背景噪音等干扰因素有关。针对此问题,OpenAI方面回应称,正积极研究如何降低虚构内容的产生,并将在未来的模型更新中融入反馈机制,提升工具的准确性和可靠性。