일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- JSON
- Generative Adversarial Nets
- PAPER
- horse2zebra
- 데이터 전처리
- CelebA
- music data
- Image Inpainting
- Coherent Semantic Attention for Image Inpainting
- 2D 이미지 높이 측정
- 이미지 특징
- Phase Map
- AI 대회
- json 파일로 image 라벨링
- 백준
- Phase Map 이미지
- 이미지 복원
- 논문리뷰
- gan
- 논문 리뷰
- json 파일 정보 csv파일로 저장
- 이미지파일 특성으로 폴더분류
- Python
- Moire 이미지
- C-RNN-GAN:Continuous recurrent neural networkswith adversarial training
- CT 영상에서 U-Net 기반 변형가능 컨볼루션 GAN을이용한 잡음제거
- mnist
- 자체 데이터 제작
- Generative Adversarial Networks
- labeling
- Today
- Total
목록Generative Adversarial Networks (3)
Deep Learning through deep learning

GAN에 대해 실습을 통해 어느정도 시각적으로 이해가 되었으리라 생각한다. 제목을 보고 갑작스럽게 넘어가는것에 대해 당황 할 수도 있으리라 생각하지만, DCGAN 이후 등장하는 CGAN > Pix2Pix 모델같은 경우에는 단순 조건 추가이거나, 한 쌍의 이미지가 필요하듯이 제한적인 요소가 많다. 자체적으로 데이터를 만들어 확실한 결과를 뽑기 위해선 이 두 단계의 모델을 건너뛰고자 한다. (물론 이 글을 읽는 분들은 이미 두 모델에 대한 이론적 지식이 충분할 것이라고 생각한다.) CycleGAN에서는 초기 GAN을 소개할 때 언급했던 이미지 복원이라는 목표를 가능하게 한다. 서론이 길었으니 일단 이론부터 살펴보자. Theory DCGAN 이후의 모델에 대한 세 줄 요약 들어가겠다. CGAN - 라벨 정보를..

GAN 에 대한 기본적인 훈련을 마쳤으니 이제는 좀 더 안정적이고 고품질의 이미지를 생성해보자. 사실상 이전의 모델은 돌려봤다는 느낌뿐이지 이게 이미지인지 그저 픽셀인지 긴가민가하다. 이 글의 전체적인 내용은 #2 이전 글의 GAN 모델의 이미지 품질 및 안정성 향상을 위한 Convolution Neural Network (CNN) 모델 구조 변경이다. 이전 코드와 데이터셋을 그대로 사용하면서 몇 가지 수정할 부분만 추가할 예정이다. Coding DCGAN CelebA 얼굴이미지 데이터 (이미지 데이터 형식)를 활용한 DCGAN 더보기 1. 기존의 코드에서 몇 가지 수정을 거치면 된다. class Discriminator(nn.Module): def __init__(self): super().__init..

본격적으로 GAN에 대해 알아가보자. 해당 글은 이미 널리다시피 널린 GAN에 대한 이론정보를 이미 어느정도 파악한 후 본격적으로 구현하고자 하는 의지를 가진 사람들을 위해 작성되었다. GAN 의 이론을 빠르게 훑자. 해당 글의 목적은 활용에 있지 구현에 있지 않다는 것을 명시하고 간다. Theory GAN은 당연하게도 기존의 인공신경망(ANN)의 구조에서 시작된다. Multi Layer Perceptron 을 예시로 들자면, MLP에서는 이미지를 입력으로 넣어 클래스에 대한 정보를 출력해냈다면, GAN에서는 출력된 정보를 입력으로 넣어 이미지를 뽑아내는 백쿼리 이론을 따른다. GAN 에서는 적대적 훈련이라고 부르는 Discriminator, Generator 두 신경망이 존재하는데, 쉽게 말해 G에서는..