據Odaily星球日報報道,軟件工程師、開發人員和學術研究人員對 OpenAI 的 Whisper 轉錄工具可能造成的影響表示擔憂。研究人員稱,Whisper 將從種族評論到想象中的醫療治療等所有內容都引入了轉錄中。這可能會帶來特別嚴重的後果,因爲 Whisper 被應用於醫院和其他醫療環境。

密歇根大學的一名研究人員在研究公開會議時發現,每 10 個音頻轉錄中就有 8 個出現幻覺。一位機器學習工程師研究了 100 多個小時的 Whisper 轉錄,發現其中一半以上出現幻覺。一位開發人員報告說,他用 Whisper 創建的 26,000 個轉錄中幾乎都發現了幻覺。

OpenAI 的一位發言人表示,該公司“正在不斷努力提高模型的準確性,包括減少幻覺”,並指出其使用政策禁止在“某些高風險決策環境中”使用 Whisper。