Междоменное глубокое трансферное обучение для сегментации разветвленных структур
Сегментация тонких разветвленных структур в объемной визуализации является нетривиальной задачей компьютерного зрения из-за низкого контраста, выраженного дисбаланса классов и большой вариативности в масштабе и топологии. В данной работе исследуется подход междоменного глубокого трансферного обучения, использующий морфологическое сходство сосудистоподобных разветвленных структур в разных модальностях визуализации. Модели предварительно обучаются на богатом данными наборе FIVES для сегментации сосудов сетчатки, после чего дообучаются на подмножестве набора данных NSCLC-Radiogenomics с КТ-изображениями грудной клетки и аннотациями разветвленных структур. Оцениваются четыре архитектуры на основе U-Net (стандартная U-Net, Attention U-Net, R2 U-Net и Dense U-Net), а также модели DeepLabV3 с базовыми сетями ResNet50 и ResNet101. Применяется единый конвейер обучения, включающий многоэтапную нормализацию интенсивностей и контраста, а также 10-кратную стратифицированную перекрестную проверку. Качество сегментации измеряется метриками Accuracy, Precision, Dice (F1-мера) и площадью под ROC-кривой (AUC). Междоменное трансферное обучение приводит к существенному улучшению по сравнению с обучением «с нуля»: значения Dice увеличиваются с почти нулевых до 0,48 и более для лучших моделей. Модель Attention U-Net достигает максимального значения Dice 0,4814, тогда как DeepLabV3 (ResNet50) демонстрирует наивысшее значение AUC — 0,9621. Dense U-Net показывает сопоставимые результаты, в то время как R2 U-Net в меньшей степени выигрывает от предложенной схемы трансфера. Полученные результаты показывают, что использование междоменных морфологических априорных знаний является эффективным способом повышения качества сегментации разветвленных структур в условиях дефицита размеченных КТ-данных. Предложенная методология формирует воспроизводимую базу для дальнейших исследований в области трансферного обучения и сегментации тонких древовидных структур в объемной визуализации.