KUBIG 2023-2 활동 블로그

고정 헤더 영역

글 제목

메뉴 레이어

KUBIG 2023-2 활동 블로그

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 분류 전체보기 (68)
    • KUBIG (0)
    • 2023 Summer Session (68)
      • ML (0)
      • DL (9)
      • CV Team 1 (19)
      • CV Team 2 (24)
      • CV Team 3 (16)
      • NLP (0)

검색 레이어

KUBIG 2023-2 활동 블로그

검색 영역

컨텐츠 검색

분류 전체보기

  • [5주차 / 김희준 / 논문리뷰] YOLO9000:Better, Faster, Stronger(YOLOv2)

    2023.08.03 by heestogram

  • [4주차 / DL 1팀 / 논문 리뷰 ] Deep Residual Learning for Image Recognition

    2023.08.03 by Martin Hoffman

  • [4주차/이서연/논문리뷰] Generative Adversarial Nets

    2023.08.01 by 쏘니냐

  • [4주차/강민채/논문리뷰] Generative Adversarial Nets

    2023.07.31 by eahcnim

  • [3주차/DL1팀/논문 리뷰] Batch Normalization

    2023.07.27 by 낭낭이

  • [3주차/논문리뷰/백서경] Visualizing and Understanding Convolutional Networks

    2023.07.26 by bravesk

  • [3주차/논문리뷰/김지윤] Image Style Transfer Using Convolutional Neural Networks

    2023.07.26 by Jiyoongee

  • [3주차/DL2팀/논문 리뷰] Layer Normalization

    2023.07.26 by 원준혁

[5주차 / 김희준 / 논문리뷰] YOLO9000:Better, Faster, Stronger(YOLOv2)

논문 제목: YOLO9000:Better, Faster, Stronger(YOLOv2) 작성자: 17기 김희준 1. Introduction 현재 object detection의 데이터셋은 classfication과 같은 여타 task에 쓰이는 데이터셋보다 양이 현저히 적다. 본 논문은 YOLO9000을 소개하며 classification에서 쓰이는 많은 양의 데이터셋(ImageNet)과 비교적 적은 양의 detection 데이터셋(COCO)을 함께 학습하는 방식을 사용한다. 이름에 붙은 9000은 9000개의 object를 detect할 수 있다는 의미이다. 논문에서는 3가지 파트로 나누어 모델을 설명하고 있다. Better: YOLOv1의 단점과 이를 개선한 내용 Faster: YOLOv2의 neura..

2023 Summer Session/CV Team 1 2023. 8. 3. 17:03

[4주차 / DL 1팀 / 논문 리뷰 ] Deep Residual Learning for Image Recognition

Abstract 깊은 neural network일수록 훈련이 어렵다는 단점을 보완하기 위해 residual learning framework를 제안한다. 이를 이용해 이전보다 더 깊은 Network를 가능하게 하며 훈련이 더 쉬워지게 하고, classification뿐만 아니라 detection, segmentation 등 다른 비전분야에서도 높은 성능을 보인다는 장점을 제시한다. 1. Introduction image classification과 backpropagation등은 이미지 분류에 큰 돌파구로 역할을 하며 여러 feature, level 등을 분류하게 되었다. 이 과정에서 layer의 depth에 관련해 더 많은 레이어를 쌓을수록 네트워크의 훈련이 쉬워질까라는 질문이 떠오르게 되었는데, 기울..

2023 Summer Session/DL 2023. 8. 3. 13:23

[4주차/이서연/논문리뷰] Generative Adversarial Nets

BackGround 0. 생성모델이란 - 생성모델 : 데이터를 생성해내는 모델, 주어진 데이터를 바탕으로, 해당 데이터의 분포를 따르는 유사하지만 기존에는 없던 새로운 데이터를 생성해내는 모델 데이터가 가지고 있는 latent(데이터가 가지고 있는 잠재적인 변수) space를 학습한다. Latent vector는 한 이미지가 가지고 있는 잠재적인 벡터 형태의 변수로 이런 latent vector들이 모여서 latent space가 형성된다. Latent space에는 우리가 학습시킬 이미지들이 latent vector의 분포 형태로 존재하게 되고 우리는 모델을 통해서 이미지가 가지고 있는 latent의 분포를 학습하는 것이다. → 그림과 같이 classification과 detection에서는 이미지에서..

2023 Summer Session/CV Team 1 2023. 8. 1. 23:18

[4주차/강민채/논문리뷰] Generative Adversarial Nets

각각의 역할을 가진 두 모델이 경쟁 과정을 통해 진짜에 가까운 가짜를 만들어 내도록 하는 프레임워크 1. Introduction 생성 모델의 경우 선형적인 단위의 이점을 활용하기 어려워, 이러한 어려움을 피할 수 있는 새로운 generative model을 소개하는 논문이다. GAN은 생성모델(G)과 구별모델(D) 두 가지 모델을 경쟁시켜 성능을 끌어올리는 구조로, 처음에는 G가 만들어 낸 결과를 D가 잘 구별하지만, 점점 진짜와 가짜가 비슷해지며 D가 이를 잘 구별해 낼 확률은 1/2이 된다. 따라서 G는 D가 실수할 확률을 높이는 방향으로 학습되며, 이는 2인용 minimax 게임과 비슷하다. GAN은 모델이 모두 다층퍼셉트론일 때 적용하기 쉬운데, 본 논문에서도 G가 다층 퍼셉트론을 통해 랜덤 노이..

2023 Summer Session/CV Team 1 2023. 7. 31. 17:53

[3주차/DL1팀/논문 리뷰] Batch Normalization

Abstract Internal Covariate Shift는 훈련을 저하시키는 주된 원인이다. internal covariate shift : 이전층의 파라미터 분포 변화에 따라 각 층의 input 분포가 달라지면서 네트워크 훈련이 복잡해지는 현상 lower learning rate, careful parameter initialize 등이 요구됨 하지만, 이는 normalizing layer inputs를 통해 해결할 수 있음 이를 해결할 두 가지 방법 normalization을 모델의 아키테처에 포함시킨다. 각 mini-batch 별로 normalization을 수행한다. Batch Normalization의 장점 higher learning rate less careful about initial..

2023 Summer Session/DL 2023. 7. 27. 15:37

[3주차/논문리뷰/백서경] Visualizing and Understanding Convolutional Networks

노션에서 작성된 페이지입니다. 이미지 포함 자세한 내용은 https://western-hortensia-8e0.notion.site/Visualizing-and-Understanding-Convolutional-Networks-2013-5ecf1486d2314dd1897a4389d2369425?pvs=4 를 참고해주세요! 1. Introduction [ 문제상황 ] covolution network의 발전, 그러나 internal operation에 대해서는 이해가 부족 내부 작동에 대한 이해가 부족하다면 convnet의 발전은 trial-and-error에 지나지 않을 것 [ 제안 ] model layer의 feature map에 대한 visualization technique [ 방법론 ] Decon..

2023 Summer Session/CV Team 2 2023. 7. 26. 23:59

[3주차/논문리뷰/김지윤] Image Style Transfer Using Convolutional Neural Networks

Abstract 이미지 처리 분야에서 이미지를 다른 스타일로 변환하는 작업의 어려움과 이를 해결하기 위한 접근 방법에 대해 다룬다. 기존의 방법은 이미지와 콘텐츠를 효과적으로 분류할 수 있는 표현(representations)의 부족으로 인해 어려움이 있었지만, 이 연구에서는 객체 검출(Object Detection)을 위한 CNN 기반 이미지 표현을 활용하여 높은 수준의 이미지 정보를 활용하는 방법을 제안한다. 이를 통해 유명 작가의 스타일과 이미지를 성공적으로 결합하여 새로운 이미지를 생성할 수 있다. Introduction 스타일 변환은 주어진 소스 이미지의 콘텐츠를 유지하면서 다른 텍스쳐를 합성하여 타겟 이미지를 생성하는 것을 목표로 한다. 이를 위해 소스 텍스쳐의 픽셀을 다시 샘플링하여 원본 사..

2023 Summer Session/CV Team 2 2023. 7. 26. 23:44

[3주차/DL2팀/논문 리뷰] Layer Normalization

ABSTRACT 고성능의 DNN(Deep Neural Network)은 학습에 상당한 시간이 소요되기 때문에 훈련 시간을 줄이는 방법으로 뉴런들을 정규화(Normalization)하는 방법이 있다. 그 중 하나인 Batch Normalization은 training case의 mini-batch에서 뉴런에 대한 총 input 분포를 사용하여 평균과 분산을 계산한다. 이 방법은 DNN의 훈련 시간을 대폭 줄일 수 있지만 mini-batch 사이즈에 영향을 받으며 RNN(Recurrent neural Network)에서의 활용 방안이 불명확하다. 이에 본 논문은 Layer Normalization을 제시하여, 단일 훈련 사례에서 layer의 summed input으로부터 normalization에 사용되는 ..

2023 Summer Session/DL 2023. 7. 26. 23:21

추가 정보

인기글

최신글

페이징

이전
1 ··· 3 4 5 6 7 8 9
다음
TISTORY
KUBIG 2023-2 활동 블로그 © Magazine Lab
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바