据Odaily星球日报报道,软件工程师、开发人员和学术研究人员对 OpenAI 的 Whisper 转录工具可能造成的影响表示担忧。研究人员称,Whisper 将从种族评论到想象中的医疗治疗等所有内容都引入了转录中。这可能会带来特别严重的后果,因为 Whisper 被应用于医院和其他医疗环境。

密歇根大学的一名研究人员在研究公开会议时发现,每 10 个音频转录中就有 8 个出现幻觉。一位机器学习工程师研究了 100 多个小时的 Whisper 转录,发现其中一半以上出现幻觉。一位开发人员报告说,他用 Whisper 创建的 26,000 个转录中几乎都发现了幻觉。

OpenAI 的一位发言人表示,该公司“正在不断努力提高模型的准确性,包括减少幻觉”,并指出其使用政策禁止在“某些高风险决策环境中”使用 Whisper。