Рецепт применения генеративных моделей в медицине: какова оптимальная доза

08.04.2025

Согласно опросам, почти 80% врачей слышали и знают, что такое ИИ, но, как выяснилось, большинство медицинских работников не представляют, как работают генеративные модели ИИ и чем они отличаются от простых моделей, которые дают ответы только в определенной области (например, расшифровка рентгеновских снимков). Большие языковые модели (Large language modelsLLM) – это машины, которые в ответ на любой запрос генерируют ответ. К ним относятся ChatGPT от OpenAI, DeepSeek от китайских разработчиков, GPT5 от Яндекса, GigaChat от Сбербанка. Их возможности на первый взгляд необозримы: они могут не просто отредактировать, но и написать книгу, научную статью, сформировать презентацию и программный код, придумать мелодию. Если дообучить эти модели на медицинских данных, то цены им не будет. Они могут в ответ на данные обследования пациента (анамнез, результаты лабораторной и визуальной диагностики) выдать наиболее вероятный диагноз. Но все ли так радужно?

Приведет ли внедрение LLM к деградации клинического мышления и творческих способностей человека? Может ли LLM продуцировать новые знания? Может ли служить среднестатистический ответ большой языковой модели диагнозом “veritas”? Каковы доказанные примеры эффективного применения LLM в медицине и других областях? Вытеснят ли LLM узко специализированные модели ИИ? Если модель обучается на данных из историй болезней, значит ли, что она реплицирует в ответах ошибки врачей?

Полная программа конгресса по ссылке: https://congress.orgzdrav.com/orgzdrav#main-topic