검색 상세

폐 병변 Segmentation을 위한 딥러닝 모델 비교 및 GAN 기반 구조 개선 연구

Comparative Study of Deep Learning Models and GAN-Based Architectural Enhancement for Lung Lesion Segmentation

초록 (요약문)

본 연구는 폐 병변의 CT 영상 분할 성능 향상을 위해 다양한 딥러닝 기반 모델의 성능을 정량·정성적으로 비교하고, 구조적 개선을 통한 성능 향상 가능성을 실험적으로 검증하고자 한다. 실험에는 공개 의료 영상 데이터셋인 MosMedData를 활용하였으며, Hounsfield Unit(HU) 정규화와 5-fold 교차 검증을 적용하여 신뢰도 높은 실험 환경을 구축하였다. 비교 대상으로는 CNN 기반의 U-Net, Transformer 기반의 TransUNet 및 SwinUNet, 그리고 Segment Anything Model(SAM)을 통합한 하이브리드 구조인 SAM2-UNet과 MedSAM까지 총 다섯 가지 모델을 선정하였다. 모든 모델은 동일한 학습 조건에서 Dice-Focal Loss를 적용하여 학습하였으며, 성능 평가는 Dice Score, IoU, 파라미터 수, 추론 시간 등의 지표를 활용하였다. 실험 결과, MedSAM은 ViT 기반의 전역 표현력과 의료 영상 특화 구조를 통해 가장 높은 정량적 성능을 보였으며, SAM2-UNet은 경량 구조에도 불구하고 효율성과 정확도를 모두 확보한 결과를 나타냈다. 이러한 비교 실험을 기반으로, 본 연구에서는 MedSAM의 Decoder 구조를 개선하기 위한 후속 실험으로 GAN 기반의 Discriminator 블록을 결합한 MedSAM-GAN 구조를 제안하였다. 제안된 MedSAM-GAN은 기존 MedSAM 대비 성능이 향상되었으며, 최종적으로 평균 Validation Dice Score 0.777, IoU 0.691을 기록하여 가장 우수한 정량적 성능을 나타냈다. 또한 정성적 분석에서도 병변 경계 인식의 선명도가 개선된 결과를 보였다. 이러한 결과는 단순 비교 분석에 그치지 않고, 기존 모델 구조에 대한 개선 가능성을 실험적으로 확인하였다는 점에서 의의가 있다. 본 연구는 향후 의료 영상 Segmentation 모델의 선택과 구조 설계에 실질적인 기초 자료로 활용될 수 있다.

more

초록 (요약문)

This study aims to evaluate and improve deep learning models for pulmonary lesion Segmentation in CT images. Experiments were conducted using the MosMedData dataset with Hounsfield Unit (HU) normalization and 5-fold cross-validation to ensure reliability. Five models were compared: CNN-based U-Net, Transformer-based TransUNet and SwinUNet, and SAM-integrated hybrid models, SAM2-UNet and MedSAM. All models were trained under the same conditions using Dice- Focal loss, and evaluated by Dice Score, IoU, parameter count, and inference time. MedSAM showed the best quantitative performance due to its ViT Encoder and medical-image-specific structure, while SAM2-UNet balanced accuracy and efficiency. Based on these findings, a modified version of MedSAM, named MedSAM-GAN, was proposed by incorporating a GAN-based discriminator into its Decoder. MedSAM-GAN achieved improved performance with an average Dice Score of 0.777 and IoU of 0.691. Qualitative results also showed clearer lesion boundaries. This study demonstrates not only comparative insights but also the impact of structural enhancements. The findings provide practical guidance for future medical image Segmentation model design.

more

목차

제 1 장 서론 1
제 1 절 연구의 배경 및 목적 1
제 2 절 논문의 구성 2
제 2 장 관련 연구 3
제 1 절 의료 영상 Segmentation 연구 동향 3
제 2 절 CNN 기반 Segmentation 모델: U-Net 4
(1) 구조 및 원리 4
(2) 응용 사례 및 한계 5
제 3 절 Transformer 기반 Segmentation 모델 6
(1) Vision Transformer (ViT) 개요 6
(2) TransUNet 7
(3) SwinUNet 8
제 4 절 SAM 기반 Segmentation 모델 9
(1) SAM2-UNet 9
(2) MedSAM 11
제 5 절 GAN 기반 Segmentation 모델 12
(1) GAN 개요 12
(2) MedSAM-GAN 14
제 3 장 연구 방법 16
제 1 절 데이터셋 구성 및 전처리 16
(1) MosMedData 데이터셋 소개 16
(2) 슬라이스 추출 및 데이터셋 분할 전략 17
(3) 데이터 증강 및 정규화 18
제 2 절 비교 모델 구성 19
(1) U-Net 19
(2) TransUNet 20
(3) SwinUNet 22
(4) SAM2-UNet 23
(5) MedSAM 25
(6) MedSAM-GAN 26
제 3 절 학습 설정 및 성능 평가 방법 29
(1) 하드웨어 및 라이브러리 환경 29
(2) 하이퍼파라미터 및 학습 전략 29
(3) 손실 함수 및 최적화 알고리즘 30
(4) 성능 평가 지표 (Dice Score, IoU) 31
제 4 장 연구 실험 및 결과 분석 33
제 1 절 실험 환경 및 설정 33
제 2 절 모델 별 실험 결과 및 분석 33
(1) 정량적 성능 비교: Dice Score 및 IoU 33
(2) 추론 시간 및 연산 효율성 비교 34
(3) 파라미터 수 및 모델 경량성 35
(4) 학습 시간 비교 및 성능 비교 요약 36
(5) 성능 향상 요인에 대한 분석: MedSAM vs MedSAM-GAN 37
(6) Test Set에 대한 일반화 성능 분석 38
제 3 절 모델 성능 종합 분석 및 Ablation Study 40
(1) Ablation Study 40
(2) 정성적 평가 41
제 5 장 결론 및 향후 연구 과제 44
제 1 절 연구 요약 및 결론 44
제 2 절 연구의 의의 및 한계 44
제 3 절 향후 연구 방향 45

more