CV 6

[CV 논문] Swin Transformer: Hierarchical Vision Transformer using Shifted Windows

아래 글에서 이 블로그에서 리뷰한 논문들의 흐름과 분야별 분류를 한 눈에 볼 수 있다.읽은 논문들 정리 읽은 논문들 정리[목차]1. Computer Vision 분야 논문2. Natural Language Processing 분야 논문3. 유명한 딥러닝 논문들 지속적으로 업데이트 중1. Computer Vision1. AlexNet [2012년]대규모 CNN을 GPU로 학습해 ImageNet 성능을 크게 끌어올april2901.tistory.com 이번 논문은 Swin Transformer구조에 대한 논문이다.전체 논문은 여기를 눌러 볼 수 있다.1. Introduction컴퓨터 비전 분야는 AlexNet을 시작으로 CNN(Convolutional Neural Networks)에 의해 지배되어있었다.N..

[NLP 논문] Attention Is All You Need

아래 글에서 이 블로그에서 리뷰한 논문들의 흐름과 분야별 분류를 한 눈에 볼 수 있다.읽은 논문들 정리 읽은 논문들 정리[목차]1. Computer Vision 분야 논문2. Natural Language Processing 분야 논문3. 유명한 딥러닝 논문들 지속적으로 업데이트 중1. Computer Vision1. AlexNet [2012년]대규모 CNN을 GPU로 학습해 ImageNet 성능을 크게 끌어올april2901.tistory.com 이번 논문은 트랜스포머 구조를 처음 제시한 것으로 매우 유명한 논문이다.이 링크를 클릭하면 논문으로 넘어간다. CV 분야 공부를 위해 이 논문을 읽게 되었지만 근본은 NLP분야에서 쓰인 논문이라서 NLP로 카테고리를 설정했다.1. Introduction이 당..

[CV 논문] Squeeze-and-Excitation Networks

아래 글에서 이 블로그에서 리뷰한 논문들의 흐름과 분야별 분류를 한 눈에 볼 수 있다.읽은 논문들 정리 읽은 논문들 정리[목차]1. Computer Vision 분야 논문2. Natural Language Processing 분야 논문3. 유명한 딥러닝 논문들 지속적으로 업데이트 중1. Computer Vision1. AlexNet [2012년]대규모 CNN을 GPU로 학습해 ImageNet 성능을 크게 끌어올april2901.tistory.com 이번 논문은 SENet에 대한 논문이다.논문은 여기에서 볼 수 있다. 기존의 inception, ResNet같은 모델은 깊이나 넓이를 늘리는데 초점을 두었다. 우리가 사용했던 convolution연산은 공간정보와 채널정보를 융합한다.예를 들어 3x3필터라면, ..

[CV 논문] Deep Residual Learning for Image Recognition

아래 글에서 이 블로그에서 리뷰한 논문들의 흐름과 분야별 분류를 한 눈에 볼 수 있다.읽은 논문들 정리 이 논문은 ResNet에 대한 설명을 담고있다.전체논문1. Introduction이전 논문들에서 깊이를 키우는 것이 복잡한 특징 추출을 더 잘해서 성능을 높이는데 큰 도움이 되었다고 얘기를 했다.깊은 모델의 문제인 vanishing gradient같은 문제는 여러가지 방법을 통해 개선이 되었다.하지만 추가적인 문제가 있었다.Degradation라고 부르는 더 깊은 모델이 에러율이 더 높게 나오는 현상이 발생했다.저자들은 "20층짜리 모델이 풀 수 있는 문제는 55층짜리 모델도 당연히 풀어야 하는 것 아닌가?"라고 생각했지만 실험결과는 그렇지 않았다.여기서 20층 이후의 층들은 단순히 들어오는 입력만 그..

[CV 논문] Going Deeper with Convolutions

아래 글에서 이 블로그에서 리뷰한 논문들의 흐름과 분야별 분류를 한 눈에 볼 수 있다.읽은 논문들 정리 이번 논문은 Google에서 발표한 GoogLeNet이라는 모델에 대한 것이다.이 글 이전에 살펴봤던 AlexNet, VGGNet과 함께 현대 모델의 기틀을 마련했다고 할 수 있다. 가장 큰 특징은 성능을 높이면서 연산 효율도 높였다는 점이다. 논문은 아래 링크에서 볼 수 있다.https://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVPR_paper.pdf 1. Introduction네트워크를 넓거나 깊게 만드는 것은 정확도를 높이기에 가장 쉬운 방법이다.하지만 파라미터도 그만큼 증..

[CV 논문] Very Deep Convolutional Networks for Large-Scale Image Recognition

아래 글에서 이 블로그에서 리뷰한 논문들의 흐름과 분야별 분류를 한 눈에 볼 수 있다.읽은 논문들 정리 전체 논문은 아래 링크에서 볼 수 있다.https://arxiv.org/pdf/1409.1556 VGGNet이라고 불리는 모델에 대해 설명하는 논문이다. 3x3크기의 작은 합성곱 필터를 사용하면서 네트워크의 깊이를 키워가면서 관찰했을 때 16~19개의 층으로 구성한 것이 성능이 좋다는 것을 확인했다. 1. Introduction이전 글에서 알아봤었던 AlexNet이 출현 이후 CNN이 컴퓨터 비전 분야의 표준이 되었다.AlexNet 논문에 대한 블로그 글은 아래 링크에서 볼 수 있다. [CV 논문] ImageNet Classification with Deep ConvolutionalNeural Net..