Недостоверные данные могут компрометировать медицинские ИИ-системы

Минимальные ошибки в данных учебы приводят к критическим ошибкам в работе медицинских ИИ
Автор: Владислав Дегтярёв , Редактор Фото: RusPhotoBank
В мире

Новое исследование ученых из Нью-Йоркского университета раскрывает опасности использования искусственного интеллекта в медицинской сфере, подчеркивая, что даже минимальные неточности в обучающих данных могут серьезно искажать выводы ИИ. Особенно это касается применения крупных языковых моделей (LLM), которые все чаще используются для анализа медицинских данных и диагностических процессов, пишет PEPELAC.NEWS.

В рамках исследования анализировалась база данных «The Pile», содержащая обширный массив медицинской информации. Добавление в эту базу всего 0,001% ошибочных данных привело к значительному увеличению количества неверных медицинских диагнозов и заключений, сделанных ИИ. Это подтверждает, что даже незначительные искажения в исходных данных могут оказать деструктивное влияние на результаты работы ИИ.

Одним из проведенных тестов был анализ влияния ошибок в данных на прогнозы, связанные с вакцинацией. Неправильная информация в данном контексте приводила к увеличению количества ошибочных выводов модели, что подчеркивает критическую важность аккуратности данных при обучении медицинских ИИ-систем.

Результаты данного исследования выступают в качестве серьезного предостережения для медицинских учреждений и разработчиков ИИ, подчеркивая необходимость внедрения усовершенствованных методов верификации и очистки данных перед их использованием для обучения искусственного интеллекта. Это становится ключевым условием для предотвращения ошибочных медицинских диагнозов и повышения общей надежности медицинских ИИ-систем.