В мире

Медицинские ИИ могут стать ненадежными: опасность ошибок в данных обучения

Исследование показывает: даже мелкие неточности в данных могут критично повлиять на диагностику ИИ

Автор: Александр Кондратьев

14 января 2025

Фото: RusPhotoBank

Недавнее исследование специалистов из Нью-Йоркского университета раскрыло серьезные риски использования искусственного интеллекта в медицине. Согласно результатам, даже незначительные ошибки в данных, используемых для обучения медицинских нейросетей, могут привести к значительным искажениям в выводах ИИ, что особенно критично в контексте диагностических процессов, пишет PEPELAC.NEWS.

В ходе эксперимента исследователи модифицировали базу данных «The Pile», включающую медицинские сведения, добавив в неё небольшое количество ошибочной информации. Результаты показали, что даже 0,001% «загрязнения» данных может значительно увеличить число неверных медицинских выводов, сделанных моделью.

Применяя на практике моделирование сценариев использования вакцин, ученые демонстрировали, как малейшие неточности могут масштабировать ошибки, усиливая неправильные медицинские рекомендации. Это подчеркивает, насколько важно поддерживать высокий уровень точности данных при обучении медицинских приложений ИИ.

Результаты этого исследования поднимают важные вопросы о необходимости разработки и внедрения более строгих методов очистки и проверки данных перед их использованием для обучения искусственного интеллекта. Это станет ключевым для минимизации рисков и улучшения точности прогнозов ИИ в медицинской сфере.