Computer Vision 4

[논문 리뷰] Learning Efficient Convolution Networks through Network Slimming

안녕하세요 Learning Efficient Convolution Networks through Network Slimming 논문 리뷰 시작하겠습니다.https://arxiv.org/abs/1708.06519 Learning Efficient Convolutional Networks through Network SlimmingThe deployment of deep convolutional neural networks (CNNs) in many real world applications is largely hindered by their high computational cost. In this paper, we propose a novel learning scheme for CNNs to simult..

논문 리뷰 2024.10.04

[딥러닝 컴퓨터비전] Yolo v8에 IRFS 기법 적용하기

안녕하세요 저번 포스팅에서 Instance-Aware Repeat Factor Sampling (IRFS) 논문을 읽어보았는데요, 오늘은 이 기법을 활용하여 yolo v8 모델을 훈련시키는 방법을 알아보도록 하겠습니다. https://deep-learning00.tistory.com/21 [논문리뷰] Instance-Aware Repeat Factor Sampling for Long-Tailed Object Detection(IRhttps://arxiv.org/abs/2305.08069 Instance-Aware Repeat Factor Sampling for Long-Tailed Object DetectionWe propose an embarrassingly simple method -- instanc..

딥러닝 CV&LLM 2024.06.26

[논문리뷰] Instance-Aware Repeat Factor Sampling for Long-Tailed Object Detection(IR

https://arxiv.org/abs/2305.08069 Instance-Aware Repeat Factor Sampling for Long-Tailed Object DetectionWe propose an embarrassingly simple method -- instance-aware repeat factor sampling (IRFS) to address the problem of imbalanced data in long-tailed object detection. Imbalanced datasets in real-world object detection often suffer from a large disparity inarxiv.org 1.Introduction안녕하세요 저번 포스팅에서 W..

논문 리뷰 2024.05.26

[논문 리뷰] Decoupling representation and classifier for long-tailed recognition(롱테일 인식을 위한 특징 추출기와 분류기 디커플링)

1. Introduction ImageNet과 같은 거대한 데이터셋들을 주로 활용하면서, 딥 CNN신경망과 함께 이미지 분류 모델은 엄청난 속도로 발전해왔습니다. 이러한 데이터셋들은 모델 훈련시 준수한 성능을 낼 수 있게 하기 위해 각 클래스마다 샘플(이미지) 개수들이 균형을 이루고 있는데요, 하지만 항상 이렇게 균형잡힌 데이터셋을 활용하여 모델을 훈련시킬 수 있는 것은 아닙니다. 인터넷상에 충분한 양의 이미지 자료가 퍼져 있지 않은 물체를 학습시킬 때를 그 예로 들 수 있겠죠. long-tail 데이터셋이란 그림과 같이 샘플 수가 많은 클래스와 샘플 수가 적은 클래스간의 샘플 수 불균형이 큰 데이터셋을 뜻합니다. 논문에서는 클래스넘버가 클수록 샘플 수가 많은 클래스입니다. 샘플 수를 기준으로 내림차순 ..

논문 리뷰 2024.04.09