YOLO는 이미 물체 감지의 최강 모델로 알려져 있지만, 여전히 학습과 개선이 가능한 모델입니다
YOLO가 물체 감지 분야에서 최고 수준의 성능을 보이는 것은 맞지만, “최강”이라는 표현은 과장일 수 있습니다. 실제로 YOLO는 계속해서 발전하고 있으며, 다양한 방향으로 성능 개선이 이루어지고 있습니다.
YOLO 모델의 지속적인 발전
최신 버전들의 성능 향상
YOLO11 (2024년 9월 출시)은 가장 최신 버전으로, 이전 버전들과 비교해 상당한 개선을 보여줍니다[1][2]. YOLO11은 향상된 특징 추출 능력, 효율성 및 속도 최적화, 더 적은 파라미터로 높은 정확도 달성 등의 특징을 갖습니다[1]. 특히 YOLO11m은 YOLOv8m에 비해 22% 적은 파라미터로 COCO 데이터셋에서 더 높은 평균 정밀도(mAP)를 달성했습니다[1].
YOLOv10 (2024년 5월 출시)은 NMS(비최대 억제) 후처리 과정을 제거하여 엔드투엔드 지연 시간을 최적화하는 데 중점을 두었습니다[2][3]. 이는 실시간 객체 감지에서 1.8배 빠른 속도와 2.8배 적은 연산량을 보여줍니다[4].
YOLO의 성능 개선 방법들
YOLO 모델의 성능은 여러 방향으로 개선이 가능합니다:
1. 아키텍처 개선
- Transformer 블록 추가: YOLOv8에 transformer 블록을 추가하여 성능을 향상시키는 연구가 활발합니다[5]
- CBAM(Convolutional Block Attention Module) 추가: ResNet 원리가 포함된 어텐션 메커니즘을 통한 성능 향상[5]
- 백본 구조 변경: C3k2, C2PSA 등 새로운 블록 구조 도입[1]
2. 데이터 전처리 및 증강
- 데이터의 특성을 살리는 전처리 방법 개발[5]
- 이미지 밝기, 대비, 채도 조절 및 노이즈 추가 등의 증강 기법[6]
3. 학습 과정 최적화
- Custom pretrained weight 사용[5]
- Pin memory, checkpoint interval 조정 등을 통한 학습 속도 개선[7]
YOLO의 한계와 차세대 기술들
YOLO의 현재 한계점
YOLO 모델은 여전히 몇 가지 한계를 가지고 있습니다[8]:
- 공간적 제약: 인접한 여러 객체를 예측하는 능력 부족
- 일반화의 어려움: 학습한 데이터셋의 Bounding Box 기반 예측 한계
- 작은 물체 감지: 물체가 작을수록 정확도 감소[9]
차세대 물체 감지 기술들
1. Transformer 기반 모델들
DETR (Detection Transformer)는 앵커 박스와 후처리 없이 End-to-End 객체 검출을 수행합니다[10][11]. RT-DETR은 YOLO보다 더 높은 정확도를 보이는 경우도 있습니다[12].
2. Foundation Model 기반 접근
SAM (Segment Anything Model)과 같은 foundation model들이 등장하면서 물체 감지 패러다임이 변화하고 있습니다[13][14]. 이러한 모델들은 텍스트 프롬프트나 클릭 지점을 기반으로 더 정교한 객체 분할을 수행할 수 있습니다.
3. Vision-Language Model (VLM)
최근 VLM 기반 객체 탐지 모델들이 등장하면서, 자연어 설명을 통한 객체 탐지가 가능해지고 있습니다[15][16].
미래 발전 방향
연구 동향의 변화
객체 탐지 분야는 현재 전환점에 있습니다. CVPR 2024에서 Recognition 분야가 6위를 차지할 정도로, 전통적인 객체 탐지 연구의 비중이 줄어들고 있습니다[4]. 이는 기존 방법론이 이미 높은 성과를 달성했기 때문입니다.
새로운 패러다임
1. 멀티모달 AI 통합
미래의 물체 감지는 이미지와 텍스트, 센서 데이터를 종합적으로 활용하는 방향으로 발전할 것입니다[17][18].
2. 범용 Foundation Model
YOLO와 같은 전용 모델에서 SAM, DINO와 같은 범용 foundation model로의 전환이 예상됩니다[19][20].
3. 실시간 다중 작업 처리
단순한 객체 감지를 넘어 분할, 추적, 자세 추정 등을 통합적으로 처리하는 모델들이 주목받고 있습니다[1][21].
결론
YOLO는 여전히 우수한 물체 감지 모델이지만 “최강”이라고 단정하기는 어렵습니다. 지속적인 개선이 가능하며, 실제로 매년 새로운 버전이 출시되어 성능이 향상되고 있습니다. 동시에 Transformer 기반 모델, Foundation Model, VLM 등 새로운 패러다임의 모델들이 등장하면서 물체 감지 분야 전체가 진화하고 있습니다. 따라서 YOLO는 현재 매우 강력한 모델이지만, 앞으로도 계속해서 학습과 개선이 필요하고 가능한 모델입니다.
출처
[1] [NEW] Ultralytics Yolov11 리뷰 – 딥러닝 탐구생활 – 티스토리 https://deeplearning-research.tistory.com/27
[2] Ultralytics YOLO11과 이전 YOLO 모델 비교 https://www.ultralytics.com/ko/blog/comparing-ultralytics-yolo11-vs-previous-yolo-models
[3] YOLOv10과 YOLO11: 객체 감지를 위한 기술 비교 – Ultralytics Docs https://docs.ultralytics.com/ko/compare/yolov10-vs-yolo11/
[4] 객체 탐지 모델은 왜 사라지고 있을까? – Weekly deep daiv. https://deepdaiv.stibee.com/p/60
[5] [YOLO] ##. YOLOv8 성능 향상 방안 – velog https://velog.io/@shhyunn/.-YOLOv8-%EC%84%B1%EB%8A%A5-%ED%96%A5%EC%83%81-%EB%B0%A9%EC%95%88
[6] Yolov5 성능 개선 agumentation – 파이토치 한국 사용자 모임 https://discuss.pytorch.kr/t/yolov5-agumentation/1910
[7] [study] YOLO 학습속도 개선 – 자 이제 시작이야 내 꿈을~ – 티스토리 https://iodi.tistory.com/12
[8] [논문 리뷰] YOLO: You Only Look Once – 기억보단 기록을 – 티스토리 https://haseong8012.tistory.com/46
[9] YOLO모델 및 버전별 차이점 분석 – velog https://velog.io/@juneten/YOLO-v1v9
[10] [Object Detection] DETR 모델 이해하기! | End-to-end 객체 검출 모델 https://mvje.tistory.com/245
[11] [논문 리뷰] End-to-end object detection with transformers – velog https://velog.io/@kbm970709/%EB%85%BC%EB%AC%B8-%EB%A6%AC%EB%B7%B0-End-to-end-object-detection-with-transformers
[12] 바이두( RT-DETR): 비전 트랜스포머 기반 실시간 물체 감지기 https://docs.ultralytics.com/ko/models/rtdetr/
[13] SAM, Segment Anything Model – gracefullight.dev https://gracefullight.dev/pe/algo/sam/
[14] 메타, 이미지 분할 AI 모델 ‘SAM’ 공개 – AI타임스 https://www.aitimes.com/news/articleView.html?idxno=150387
[15] [논문 리뷰] Vision-Language Model for Object Detection and … https://www.themoonlight.io/ko/review/vision-language-model-for-object-detection-and-segmentation-a-review-and-evaluation
[16] [논문리뷰] SpatialVLM: Endowing Vision-Language Models with … https://kimjy99.github.io/%EB%85%BC%EB%AC%B8%EB%A6%AC%EB%B7%B0/spatial-vlm/
[17] 자율 주행 차량의 물체 감지에 대한 상세 개요 – Sapien https://www.sapien.io/ko/blog/object-detection-in-autonomous-vehicles
[18] [강좌] 물리적(Physical) AI 시대를 여는 WFM(World Foundation Model) http://www.itdaily.kr/news/articleView.html?idxno=233906
[19] [Detection] Detection Foundation model 훑어보기 https://jaehoon-daddy.tistory.com/134
[20] 파운데이션 모델이란 무엇인가요? (플러스 유형 및 사용 사례) https://www.couchbase.com/blog/ko/what-are-foundation-models/
[21] YOLOE: 모든 객체를 실시간으로 탐지 & 분할하는 혁신 기술 https://blog.opsoai.com/posts/YOLOE/
[22] YOLO(You Only Look Once) 모델 소개 https://brunch.co.kr/@aischool/11
[23] 물체 감지: YOLOv8 사전 학습 모델 – Ultralytics https://www.ultralytics.com/ko/blog/object-detection-with-a-pre-trained-ultralytics-yolov8-model
[24] 객체 감지의 진화 및 Ultralytics의 YOLO 모델 https://www.ultralytics.com/ko/blog/the-evolution-of-object-detection-and-ultralytics-yolo-models
[25] 홈 – Ultralytics YOLO 문서 https://docs.ultralytics.com/ko/
[26] 머신 비전을 혁신하는 AI 트랜스포머 모델이 엣지 디바이스에 미치는 … https://kr.linkedin.com/posts/visionext-ai_%EB%A8%B8%EC%8B%A0-%EB%B9%84%EC%A0%84%EC%9D%84-%ED%98%81%EC%8B%A0%ED%95%98%EB%8A%94-ai-%ED%8A%B8%EB%9E%9C%EC%8A%A4%ED%8F%AC%EB%A8%B8-%EB%AA%A8%EB%8D%B8%EC%9D%B4-%EC%97%A3%EC%A7%80-%EB%94%94%EB%B0%94%EC%9D%B4%EC%8A%A4%EC%97%90-%EB%AF%B8%EC%B9%98%EB%8A%94-%EC%98%81%ED%96%A5-activity-7117319977560379392-fXx4
[27] 물체 감지: 정의, 모델 및 용도 – Ultralytics https://www.ultralytics.com/ko/glossary/object-detection
[28] 카메라 딥러닝 객체인식 [YOLO v5, YOLO X, CNN의 단점, SOTA] https://kau-deeperent.tistory.com/157
[29] [논문 리뷰] YOLOv12 to Its Genesis: A Decadal and Comprehensive … https://www.themoonlight.io/ko/review/yolov12-to-its-genesis-a-decadal-and-comprehensive-review-of-the-you-only-look-once-yolo-series
[30] YOLO11 YOLOv10: 자세한 기술 비교 – Ultralytics Docs https://docs.ultralytics.com/ko/compare/yolo11-vs-yolov10/
[31] 컴퓨터 비전의 미래를 바꾸는 제너레이티브 AI – Ultralytics https://www.ultralytics.com/ko/blog/generative-ai-is-changing-the-road-ahead-for-computer-vision
[32] YOLO 객체 탐지 모델의 구조 분석 및 발전 동향 – 한국학술지인용색인 https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003186767
[33] YOLO11: AI 비전의 미래 | 울트라 애널리틱스 – Ultralytics https://www.ultralytics.com/ko/blog/ultralytics-yolo11-has-arrived-redefine-whats-possible-in-ai
[34] YOLO11 vs. YOLOv10: Compared and Contrasted – Roboflow https://roboflow.com/compare/yolo11-vs-yolov10
[35] Intriguing properties of vision transformer 리뷰 – Yphy – 티스토리 https://yphy.tistory.com/21
[36] [논문 리뷰] Fractional Correspondence Framework in Detection … https://www.themoonlight.io/ko/review/fractional-correspondence-framework-in-detection-transformer
[37] U_01. Understanding of Vision Transformer – 위키독스 https://wikidocs.net/237623
[38] Transformer 기반의 첫 HOI detector – HOTR – 콥스랩 기술 블로그 https://cobslab.tistory.com/26
[39] DETR 논문(End-to-End Object Detection with Transformers) 리뷰 https://herbwood.tistory.com/26
[40] [논문 리뷰] SAM(Segment Anything) 요약, 코드, 구현 – David Kim https://davidlds.tistory.com/29
[41] YOLO v4 – 성능을 향상시켜보자! – 논문 리뷰 part2 – velog https://velog.io/@minyoungxi/YOLO-v4-%EC%84%B1%EB%8A%A5%EC%9D%84-%ED%96%A5%EC%83%81%EC%8B%9C%EC%BC%9C%EB%B3%B4%EC%9E%90-%EB%85%BC%EB%AC%B8-%EB%A6%AC%EB%B7%B0-part2
[42] YOLO로 이해하는 이미지 객체 감지(1) – Object Detection https://eair.tistory.com/40
[43] [논문 리뷰] ViT(Vision Transformer), An Image is Worth 16×16 Words https://kk-yy.tistory.com/132
[44] 02. Object Detection with Transformers – 위키독스 https://wikidocs.net/237415
[45] 비전 언어 모델(VLM)이란 무엇인가요? – IBM https://www.ibm.com/kr-ko/think/topics/vision-language-models
[46] 파운데이션 모델이란? – 생성형 AI – AWS https://aws.amazon.com/ko/what-is/foundation-models/
YOLO로 해양 쓰레기 분류 프로젝트 시작 가이드
YOLO를 활용한 해양 쓰레기 분류 프로젝트를 시작하기 위한 단계별 가이드를 제공합니다. 해양 환경에서의 쓰레기 검출 및 분류는 현재 매우 활발한 연구 분야이며, 실용적인 환경 보호 솔루션으로 주목받고 있습니다.
1. 프로젝트 계획 및 목표 설정
타겟 쓰레기 분류 정의
먼저 어떤 종류의 해양 쓰레기를 분류할지 결정해야 합니다. 기존 연구에서 주로 사용되는 카테고리는 다음과 같습니다:
수중 침적 쓰레기[1]:
- 타이어, 로프, 나무, 통발류, 어망류 등 9가지 종류
- 총 48,000건의 이미지 데이터 활용
해안 쓰레기[2]:
- 유리(Glass), 금속(Metal), 그물망(Net), PET병, 플라스틱 부이, 로프, 스티로폼 등 11가지 종류
부유 쓰레기[3]:
- 플라스틱, ROV, 수중 생물체 등 3가지 주요 클래스
성능 목표 설정
연구 결과에 따르면 해양 쓰레기 분류에서 달성 가능한 성능 지표는 다음과 같습니다:
- YOLOv8: mAP 79.9% (YOLOv5 대비 13% 향상)[4]
- YOLOv5: mAP 67-97% (모델 크기에 따라 변동)[1][5]
- YOLOv4: mAP 96.4% (채널 프루닝 적용 시)[6]
2. 개발 환경 구축
하드웨어 요구사항
최소 요구사항[7]:
- GPU: NVIDIA GTX 1070 8GB 이상
- RAM: 16GB 이상
- 저장공간: 50GB 이상
소프트웨어 환경 설정
Python 가상환경 생성[8]:
conda create -n yolov8 python=3.9
conda activate yolov8
필수 라이브러리 설치[8]:
pip install ultralytics
pip install opencv-python==4.6.0.66
pip install jupyter notebook
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117
YOLO 설치 확인[8]:
yolo segment predict model=yolov8n-seg.pt source=0 show=True
3. 데이터셋 수집 및 준비
공개 데이터셋 활용
AI Hub 해양 침적 쓰레기 데이터셋[9]:
- 48,000건의 이미지 (소나 조사 33,000건, 수중 촬영 15,000건)
- 9가지 카테고리의 라벨링 완료
- 무료 다운로드 가능
Trash-ICRA19 데이터셋[10]:
- 7,683개의 수중 쓰레기 이미지
- 480×320 픽셀 크기
- 바운딩 박스 라벨링 완료
연안 빅데이터 플랫폼 데이터셋[2]:
- 드론 기반 해안 쓰레기 이미지
- 1,200×800 픽셀 크기
- YOLO 포맷 라벨링 제공
데이터 전처리
이미지 전처리 과정[11]:
- 크기 조정: 모든 이미지를 동일한 크기로 리사이즈 (예: 640×640)
- 정규화: 픽셀 값을 [1] 범위로 정규화
- 데이터 증강: 랜덤 회전, 크롭, 색상 변환, Mosaic 증강 적용
라벨링 포맷[12]:
클래스_번호 x_center y_center width height
- 모든 좌표는 이미지 크기에 대한 상대적 비율 (0~1)
4. 모델 선택 및 구성
YOLO 버전 선택
성능 우선: YOLOv8 또는 YOLOv11 (최신 성능)[4][13]
속도 우선: YOLOv5 또는 YOLOv7 (실시간 처리)[14]
모바일 배포: YOLOv5 (TFLite 변환 지원)[15]
모델 크기 선택
YOLOv8 모델 크기별 특성[16]:
- YOLOv8n: 빠른 속도, 낮은 정확도
- YOLOv8s: 균형잡힌 성능
- YOLOv8m: 높은 정확도, 중간 속도
- YOLOv8l/x: 최고 정확도, 느린 속도
5. 학습 데이터 준비
데이터셋 구조
dataset/
├── train/
│ ├── images/
│ └── labels/
├── val/
│ ├── images/
│ └── labels/
└── test/
├── images/
└── labels/
라벨링 도구 활용
Roboflow 활용[17]:
- 웹 기반 라벨링 도구
- 자동 전처리 및 증강 기능
- YOLO 포맷 직접 지원
MakeSense.ai 활용[18]:
- 무료 웹 기반 라벨링
- 객체 탐지용 바운딩 박스 지원
- YOLO 포맷 내보내기
6. 모델 학습 및 최적화
학습 설정
기본 학습 코드:
from ultralytics import YOLO
model = YOLO('yolov8n.pt')
results = model.train(
data='dataset.yaml',
epochs=100,
imgsz=640,
batch=16
)
성능 향상 방법
아키텍처 개선[19]:
- Transformer 블록 추가
- CBAM(Convolutional Block Attention Module) 적용
- ResNet 원리 활용
학습 최적화[20]:
- pin_memory=True 설정
- checkpoint_interval 조정
- batch size 및 subdivisions 최적화
7. 성능 평가 및 검증
평가 지표
주요 메트릭[16]:
- mAP (mean Average Precision): 전체 성능 평가
- Precision: 오탐 최소화 정도
- Recall: 놓친 객체 최소화 정도
- F1-Score: Precision과 Recall의 조화평균
검증 방법
교차 검증: 학습/검증/테스트 데이터셋 분할 (7:2:1 비율 권장)
실제 환경 테스트: 다양한 해양 환경에서의 성능 검증
8. 배포 및 실제 적용
실시간 처리 시스템
드론 기반 모니터링[21]:
- 실시간 해양 쓰레기 탐지
- GPS 좌표와 함께 위치 정보 제공
수중 로봇 적용[6]:
- 자율무인잠수정(AUV)과 연동
- 실시간 객체 감지 및 수거
성능 최적화
모델 경량화[6]:
- 채널 프루닝 적용으로 속도 향상 (15.19 FPS → 19.4 FPS)
- 정확도 손실 최소화 (1.2% 감소)
시작을 위한 첫 단계
- 환경 구축: Python 가상환경 생성 및 YOLO 설치
- 데이터 수집: AI Hub에서 해양 침적 쓰레기 데이터셋 다운로드
- 기본 모델 테스트: YOLOv8n으로 기본 성능 확인
- 점진적 개선: 데이터 증강, 하이퍼파라미터 튜닝을 통한 성능 향상
해양 쓰레기 분류는 환경 보호와 AI 기술이 만나는 의미 있는 프로젝트입니다. 기존 연구들이 이미 상당한 성과를 보여주고 있어, 이를 바탕으로 실용적인 솔루션을 개발할 수 있는 좋은 기회입니다[1][4][6][5].
출처
[1] [PDF] YOLO기반 해양 침적 쓰레기 검출 방법에 관한 연구 – ManuscriptLink https://www.manuscriptlink.com/society/kips/conference/ack2024/file/downloadSoConfManuscript/abs/KIPS_C2024B0134
[2] 드론 기반 해안쓰레기 이미지 데이터셋 – 연안 빅데이터 플랫폼 https://www.bigdata-coast.kr/gdsInfo/gdsInfoDetail.do;jsessionid=8248809E1105AE2637B07D1FF269F292?gdsCd=CT11IRM001
[3] 해안 오염물질 데이터 – AI-Hub https://www.aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&dataSetSn=506
[4] YOLO 모델 기반 해양 쓰레기 탐지 및 성능 비교 – 한국학술지인용색인 https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003159007
[5] [PDF] Marine Debris Detection Using Optimized You Only Look Once … https://sensors.myu-group.co.jp/sm_pdf/SM3403.pdf
[6] Efficient Object Detection of Marine Debris using Pruned YOLO Model https://arxiv.org/abs/2501.16571
[7] [ YOLO ] Windows 버전 설치 환경 구성하기 – Hello, World! – 티스토리 https://swiftcam.tistory.com/344
[8] Yolov8_커스텀 데이터 학습(개발환경 구축)1 – 대장간 – 티스토리 https://qlalf-smithy.tistory.com/26 [9] 해양 침적 쓰레기 이미지 – AI-Hub https://aihub.or.kr/aihubdata/data/view.do?dataSetSn=236 [10] Trash-ICRA19: A Bounding Box Labeled Dataset of Underwater Trash https://conservancy.umn.edu/items/c34b2945-4052-48fa-b7e7-ce0fba2fe649 [11] YOLO 모델의 입력 데이터 전처리 과정 – ️ MMMSK https://note.mmmsk.myds.me/Projects/Object-Detection/(YOLO)-YOLO-%EB%AA%A8%EB%8D%B8%EC%9D%98-%EC%9E%85%EB%A0%A5-%EB%8D%B0%EC%9D%B4%ED%84%B0-%EC%A0%84%EC%B2%98%EB%A6%AC [12] [Yolov5] Custom Dataset으로 Yolov5 돌려보기 : 데이터셋 준비 https://minmiin.tistory.com/14 [13] YOLO11 AI로 폐기물 관리 개선 – Ultralytics https://www.ultralytics.com/ko/blog/enhancing-waste-management-with-ultralytics-yolo11 [14] [객체탐지] YOLO 모델 별 성능 평가 지표 정리 (논문 요약) https://captain-turtle.tistory.com/entry/%EA%B0%9D%EC%B2%B4%ED%83%90%EC%A7%80-YOLO-%EB%AA%A8%EB%8D%B8-%EB%B3%84-%EC%84%B1%EB%8A%A5-%ED%8F%89%EA%B0%80-%EC%A7%80%ED%91%9C-%EC%A0%95%EB%A6%AC-%EB%85%BC%EB%AC%B8-%EC%9A%94%EC%95%BD [15] YOLOv5 개발환경 구축하기 – IPS Master – 티스토리 https://ipsmaster.tistory.com/134 [16] 성능 메트릭 심층 분석 – Ultralytics YOLO 문서 https://docs.ultralytics.com/ko/guides/yolo-performance-metrics/ [17] [YOLO] Roboflow로 라벨링하기 (Multiclass Classification) – seulll https://seulow-down.tistory.com/342 [18] 2-01 YOLO 모델 학습 데이터 만들기 – 위키독스 https://wikidocs.net/215176 [19] [YOLO] ##. YOLOv8 성능 향상 방안 – velog https://velog.io/@shhyunn/.-YOLOv8-%EC%84%B1%EB%8A%A5-%ED%96%A5%EC%83%81-%EB%B0%A9%EC%95%88 [20] [study] YOLO 학습속도 개선 – 자 이제 시작이야 내 꿈을~ – 티스토리 https://iodi.tistory.com/12 [21] Monitoring plastic pollution with artificial intelligence https://research.csiro.au/marinedebris/projects-2/projects/monitoring-plastic-pollution-with-artificial-intelligence/ [22] [Literature Review] Efficient Object Detection of Marine Debris using … https://www.themoonlight.io/en/review/efficient-object-detection-of-marine-debris-using-pruned-yolo-model [23] Target Classification of Marine Debris Using Deep Learning https://www.techscience.com/iasc/v32n1/45294/html [24] A novel deep learning model for predicting marine pollution for … https://pmc.ncbi.nlm.nih.gov/articles/PMC11622943/ [25] YOLO 기반 해양 침적 쓰레기 검출 방법에 관한 연구 – Korea Science https://www.koreascience.kr/article/CFKO202433161613332.page?lang=ko [26] Marine debris detection with commercial satellite imagery and deep … https://github.com/NASA-IMPACT/marine_debris_ML [27] marine debris Object Detection Dataset and Pre-Trained Model by … https://universe.roboflow.com/marine-debris/marine-debris-i2ge3 [28] Optimized Custom Dataset for Efficient Detection of Underwater Trash https://openreview.net/forum?id=7BalVmeMQU [29] [Python] YOLO 모델 학습을 위한 오픈 데이터 셋 준비 (1) – 코딩 짐 https://coding-gym.tistory.com/entry/Python-YOLO-%EB%AA%A8%EB%8D%B8-%ED%95%99%EC%8A%B5%EC%9D%84-%EC%9C%84%ED%95%9C-%EC%98%A4%ED%94%88-%EB%8D%B0%EC%9D%B4%ED%84%B0-%EC%85%8B-%EC%A4%80%EB%B9%84-1 [30] [labeling] Yolo_mark로 라벨링 – 공부하자전거 – 티스토리 https://all-open.tistory.com/70 [31] [PDF] 해양 중대형 플라스틱 쓰레기 감시추적 및 생태계 영향 연구 기획 https://sciwatch.kiost.ac.kr/bitstream/2020.kiost/36569/1/%ED%95%B4%EC%96%91%EC%A4%91%EB%8C%80%ED%98%95_%ED%94%8C%EB%9D%BC%EC%8A%A4%ED%8B%B1_%EC%93%B0%EB%A0%88%EA%B8%B0_%EA%B0%90%EC%8B%9C%EC%B6%94%EC%A0%81_%EB%B0%8F_%EC%83%9D%ED%83%9C%EA%B3%84_%EC%98%81%ED%96%A5_%EC%97%B0%EA%B5%AC_%EA%B8%B0%ED%9A%8D.pdf
[32] [PDF] YOLO 모델 기반 해양 쓰레기 탐지 및 성능 비교 – Korea Science https://www.koreascience.kr/article/JAKO202416336003922.pdf
[33] Deep Learning Innovations for Underwater Waste Detection – arXiv https://arxiv.org/html/2405.18299v1
[34] YOLOv5와 YOLOv7 모델을 이용한 해양침적쓰레기 객체탐지 비교평가 https://koreascience.kr/article/JAKO202201253175356.page
[35] karanwxliaa/Underwater-Trash-Detection – GitHub https://github.com/karanwxliaa/Underwater-Trash-Detection
[36] 해양환경공단해양쓰레기모니터링 유형별 자료 – 공공데이터포털 https://www.data.go.kr/data/15044009/fileData.do?recommendDataYn=Y [37] Yolov5 성능 개선 agumentation – 파이토치 한국 사용자 모임 https://discuss.pytorch.kr/t/yolov5-agumentation/1910 [38] YOLO 모델 학습 위한 데이터셋 준비 작업 – velog https://velog.io/@panda1996/YOLO-%EB%AA%A8%EB%8D%B8-%ED%95%99%EC%8A%B5-%EC%9C%84%ED%95%9C-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%85%8B-%EC%A4%80%EB%B9%84-%EC%9E%91%EC%97%85 [39] Object Detection 성능 평가 지표 – 시나브로개발자 성장기 – 티스토리 https://developer-lionhong.tistory.com/46
[40] [논문]YOLOv5와 YOLOv7 모델을 이용한 해양침적쓰레기 객체탐지 … https://scienceon.kisti.re.kr/srch/selectPORSrchArticle.do?cn=JAKO202201253175356
왜 예전 YOLO 버전이 단일 임계치에서 더 높은 정밀도(AP₅₀)를 보이는가
핵심 결론:
예전 YOLO 모델(예: YOLOv4, YOLOv5)은 COCO 평가 시 단일 임계치 IoU=0.5에서의 평균정밀도(mAP₅₀)를 중점으로 최적화·보고했으나, 최신 버전(YOLOv8, YOLO11)은 보다 엄격한 다중 임계치(IoU 0.5:0.95) 평균화(mAP₅₀₋₉₅)를 기본 지표로 삼아 설계·평가하므로, 단일 임계치 성능이 상대적으로 낮아 보인다.
1. 평가 지표 변화: mAP₅₀ vs. mAP₅₀₋₉₅
- mAP₅₀: IoU≥0.5인 예측을 모두 정답으로 간주하여 계산한 평균정밀도(Precision).
- 예시: YOLOv4는 COCO에서 65.7% AP₅₀를 달성[1].
- 같은 데이터셋·하드웨어 기준이면, 낮은 임계치만 충족해도 정답을 인정하므로 수치가 높게 나옴.
- mAP₅₀₋₉₅: IoU 0.5부터 0.95까지 0.05 간격 임계치에서 각각 AP를 구해 평균화한 값[2].
- 엄격한 위치 예측(높은 IoU)까지 고려하므로, 모델이 더 미세한 경계 박스 조정 능력을 요구받아 수치가 낮아짐.
모델 버전 | mAP₅₀ (COCO) | mAP₅₀₋₉₅ (COCO) |
---|---|---|
YOLOv4 | 65.7%[1] | 43.5%[1] |
YOLOv5s | 56.8%[3] | 37.4%[3] |
YOLOv8m | 50.2%[4] | – (단일값만 언급) |
※ 최신 YOLOv8·YOLO11은 디폴트 보고 지표를 mAP₅₀₋₉₅로 변경[5].
2. 설계·아키텍처의 목적 및 최적화 전략 차이
- 임계치 전 범위 성능 향상 지향
- YOLOv8 이후 모델은 다양한 IoU 임계치에서 고른 성능을 내도록 훈련·튜닝
- 단일 IoU 0.5에서만 잘 맞추는 것보다, 전 구간에서 높은 mAP₅₀₋₉₅가 실제 응용에 유리
- 속도와 효율성 중시
- YOLOv5→YOLOv8 사이 아키텍처 간결화(C2f 블록, CSPNet 등)
- 연산량 감소를 위해 단일 임계치 성능 일부를 희생하고, 전체 IoU 구간 성능 균형을 강화
- 평가 방식 코드 차이
- YOLOv8는 mAP 계산 시 COCO API와 다른 보간(interpolation)·적분 방식 사용
- 이로 인해 동일 데이터라도 수치가 다소 낮게 보고될 수 있음[5]
3. 결론 및 시사점
- “예전 버전이 정밀도가 높다”는 주로 단일 IoU 0.5 기준의 mAP₅₀ 비교 결과에 따른 착시
- 실제 최신 모델은 임계치 전 구간에서의 일관된 위치 정확도(mAP₅₀₋₉₅)를 목표로 설계되어,
보다 엄격한 평가에서도 우수한 일반화 능력을 갖춤 - 프로젝트 목적에 따라 단일 임계치 성능이 중요하다면 구버전,
다양한 정확도 요구·세밀한 경계 검출이 필요하다면 신버전 선택을 권장
출처
[1] YOLOv4来了!COCO 43.5 AP,65FPS!实现速度与精度的最优平衡 https://blog.csdn.net/xjp_xujiping/article/details/106471645
[2] Object Detection result metric AP(Average Precision) https://koo209.tistory.com/13
[3] ultralytics/yolov5/README.md · nakamura196/yolov5-char at 0f967fc973c5b77dbe95cd0cba1d328b14c884a1 https://huggingface.co/spaces/nakamura196/yolov5-char/blob/0f967fc973c5b77dbe95cd0cba1d328b14c884a1/ultralytics/yolov5/README.md
[4] What is YOLOv8? A Complete Guide https://blog.roboflow.com/what-is-yolov8/
[5] Discrepency of mAP calculation between YOLOv8 and COCO API https://github.com/ultralytics/ultralytics/issues/14063
[6] Mean Average Precision (mAP) Using the COCO Evaluator https://pyimagesearch.com/2022/05/02/mean-average-precision-map-using-the-coco-evaluator/
[7] mAP@.5 COCO test-dev2017 · Issue #2790 · ultralytics/yolov5 · GitHub https://github.com/ultralytics/yolov5/issues/2790
[8] YOLOv7 https://docs.ultralytics.com/models/yolov7/
[9] data/train.txt | When finding the mAP value in yolov4 · Issue #2308 … https://github.com/pjreddie/darknet/issues/2308
[10] YOLO V5 Trained on MS-COCO Data https://resources.wolframcloud.com/NeuralNetRepository/resources/YOLO-V5-Trained-on-MS-COCO-Data/
[11] Spoiller: YOLOv8 Accuracy +21mAP / Speed Increases 4x https://www.youtube.com/watch?v=fH1t9fQ4faA
[12] Reproducing YoloV4 COCO mAP – NVIDIA Developer Forums https://forums.developer.nvidia.com/t/reproducing-yolov4-coco-map/202906
[13] What is YOLOv5? A Guide for Beginners. https://blog.roboflow.com/yolov5-improvements-and-evaluation/
[14] [PDF] Object Classification with YOLOv5 for Electric Utility Asset Inspection … https://www.manuscriptlink.com/society/kics/media?key=kics%2Fconference%2Ficaiic2024%2F1570976853.pdf
[15] mAP 0.5와 mAP 0.5-0.95의 차이 – 인프런 | 커뮤니티 질문&답변 https://www.inflearn.com/community/questions/637635/map-0-5%EC%99%80-map-0-5-0-95%EC%9D%98-%EC%B0%A8%EC%9D%B4
[16] YOLOv4: A Breakthrough in Real-Time Object Detection https://arxiv.org/html/2502.04161v1
[17] Why is map very high, but map50-95 is very low? #10311 – GitHub https://github.com/ultralytics/ultralytics/issues/10311
[18] YOLOV4: A BREAKTHROUGH IN REAL-TIME OBJECT https://arxiv.org/pdf/2502.04161.pdf
[19] High mAP50 (0.96) BUT Low mAP50:95 (0.58) in YOLOv8m-seg https://github.com/ultralytics/ultralytics/issues/10329
[20] jags/yolov8_model_segmentation-set · Hugging Face https://huggingface.co/jags/yolov8_model_segmentation-set
[21] Please tell me how to reproduce COCO mAP 50-95 #3821 – GitHub https://github.com/ultralytics/ultralytics/issues/3821
[22] YOLOv8 Classification Classification Model: What is, How to Use https://roboflow.com/model/yolov8-classification
[23] COCO Dataset – Ultralytics YOLO Docs https://docs.ultralytics.com/datasets/detect/coco/
[24] developer0hye/yolov8-vs-yolo11 – GitHub https://github.com/developer0hye/coco-pretrained-yolov8-ap-per-class
[25] Performance Metrics Deep Dive – Ultralytics YOLO Docs https://docs.ultralytics.com/guides/yolo-performance-metrics/
[26] YOLO V8 Pose Trained on MS-COCO Data https://resources.wolframcloud.com/NeuralNetRepository/resources/YOLO-V8-Pose-Trained-on-MS-COCO-Data/
[27] 성능 메트릭 심층 분석 – Ultralytics YOLO 문서 https://docs.ultralytics.com/ko/guides/yolo-performance-metrics/
[28] YOLOv8 Object Detection Model: What is, How to Use https://roboflow.com/model/yolov8
답글 남기기