Исследование: медицинский ИИ Whisper на основе модели OpenAI склонен к галлюцинациям
Исследователи обнаружили, что медицинский ИИ Whisper для транскрипции встреч с пациентами на основе модели OpenAI склонен к галлюцинациям и иногда полностью выдумывает информацию.Whisper используется компанией Nabla для транскрипции разговоров.
Система уже расшифровала 7 млн записей. Инструмент используют более 30 тысяч врачей и 40 систем здравоохранения. В Nabla знают, что Whisper может галлюцинировать, и «решают эту проблему».Проблему обнаружила группа исследователей из Корнелльского, Вашингтонского университета и других.