Недавно мы работали над исследовательским проектом, в котором изучаем влияние увеличения данных на выполнение сегментации сосудов сетчатки с помощью Enes Sadi Uysal, Şafak Bilici, Selin Zaza и Yiğit Özgenç в составе программа inzva AI Projects. В последние годы область медицинской визуализации привлекла большое внимание, и сегментация сосудов сетчатки является одной из областей, которые широко изучаются. В этом блоге мы стремимся объяснить, что такое сегментация сосудов сетчатки и почему методы увеличения данных влияют на производительность модели сегментации?

Входное изображение - это выходной сигнал с камеры глазного дна. Это камера, которую, возможно, все мы сидим перед ней, чтобы получить первоначальную диагностику наших глаз. Он делает снимок нашей сетчатки, как показано ниже.

Входное изображение нашего исследования имеет форму изображения, показанного на рисунке 1. Цель состоит в том, чтобы сегментировать сосуд внутри этого изображения. Это очень важно, потому что эти сосуды используются для диагностики нескольких заболеваний, таких как диабет, мигрень, сердечные заболевания, катаракта и т. Д. Сегментация толстых сосудов не представляет большой проблемы. Однако когда дело доходит до сегментации тонких сосудов, проблема становится довольно сложной. Это сложно, потому что:

  • Количество аннотированных изображений невелико, как и в любых других задачах медицинской визуализации.
  • Иногда тонкие сосуды представлены одним пикселем.
  • Расположение тонких сосудов может повлиять на модель глубокого обучения из-за операций объединения.

Чтобы решить вышеуказанные проблемы, нам нужна стратегия, которая заставит нашу модель учиться как можно больше из доступного набора изображений. В нашем исследовании мы используем набор данных DRIVE, который является наиболее распространенным эталоном в исследованиях сегментации сосудов сетчатки. В нем 20 обучающих и 20 тестовых изображений. Каждое изображение в обучающем наборе относится к разному типу проблемы сетчатки. Таким образом, каждое изображение дает нам новую информацию. Пример из набора данных DRIVE приведен ниже.

В литературе есть архитектуры, адаптированные для этой конкретной задачи. Эти архитектуры в основном являются более продвинутыми версиями архитектуры U-Net. На обучение этих моделей требуется больше времени (до 48 часов) по сравнению с U-Net, чтобы получить дополнительный прирост производительности.

В нашем исследовании мы использовали другой подход. Архитектура U-Net - очень удачная архитектура, которая хорошо подходит для решения проблемы сегментации сосудов сетчатки. Вместо того, чтобы усложнять модель, мы полагались на значительное увеличение объема данных. Чтобы сделать это с умом, нам нужно было решить проблемы с изображениями глазного дна. Такие изображения имеют определенные шумы из-за датчиков. Яркость входных изображений меняется, некоторые из них имеют очень низкую яркость. Чтобы решить эти проблемы, мы использовали следующие методы увеличения данных.

  • Белый шум
  • Упругие деформации
  • Вращение под разными углами
  • Смещение
  • Обрезка
  • Операции масштабирования

Приемы и комбинации этих приемов. Важная часть - знать, почему эти методы работают. Белый шум и упругие деформации позволяют модели U-Net хорошо работать, когда входное изображение зашумлено. Повернутые и смещенные изображения позволяют модели U-Net учиться по углам исходного ввода. Операции обрезки и масштабирования делают тонкие сосуды более доступными, и модели могут узнать больше из этих регионов.

С расширенными изображениями размер обучающего набора данных увеличился до более чем 1000. Модель U-Net обучается с использованием этих изображений, и на Рисунке 3 приведен пример предсказания модели вместе с достоверными данными.

Наша модель достигла 0,9855 площади под кривой (AUC) и 0,9712 балла точности. Он превосходит большинство моделей с более сложной архитектурой, описанных в литературе. Наша модель также превосходит другие литературные исследования, основанные на увеличении данных. Коды и детали реализации доступны по адресу https://github.com/onurboyar/Retinal-Vessel-Segmentation.