목록전체 글 (408)
오답노트
형태소 분석 형태소란 언어학적으로 말을 분석할 때, 의미가 있는 가장 작은 말의 단위이다. 형태소 분석이란 형태소를 비롯하여, 어근, 접두사/접미사, 품사 등 다양한 언어적 속성의 구조를 파악하는 것 즉, 한 어절 내에 있는 모든 형태서(사전 표제어)를 분리하는 것이다. 하지만 형태소 분석은 동일한 표층형 어정이 여러가지 형태소 결합으로 분석 가능한 문제 또는 복합명사 분해 수준이 응용에 따라 달라져 모호성을 띠게 된다. 품사 태깅(Parts-of-Speech Tagging , POS Tagging) 품사란 단어를 그 문법적 성질에 따라 분류한 갈래이다. 품사 태그는 형태소 분석의 기준이 되는 세분화된 품사 체계라고 할 수 있다. 위에서 설명한 형태소 분석의 모호성을 품사 태깅을 통해 해결할 수 있다. ..
https://keras.io/ko/preprocessing/image/ Image Preprocessing - Keras Documentation 이미지 전처리 [source] ImageDataGenerator 클래스 keras.preprocessing.image.ImageDataGenerator(featurewise_center=False, samplewise_center=False, featurewise_std_normalization=False, samplewise_std_normalization=False, zca_whitening=False, zca_epsi keras.io ImageDataGenerator ImageDataGenerator는 케라스에서 지원하는 객체로 따로 이미지를 담을 변수..
시각지능 딥러닝 CNN 저번주에 이어서 케라스를 이어서 사용하고 있다. CNN을 사용하기 위해 새로운 레이어를 배우고 MNIST와 CIFAR-10 예제 이미지들을 통해 이미지를 분류하는 법을 배웠다. 하지만 너무 예제 이미지라서 실제로 사용할 수 있을지 어떨지는 잘 모르겠다.. 그리고 방법만 배운것 뿐이라 모델 아키텍쳐를 구성하는 방법이나 노하우를 배우지 못해 아쉬움이 있다. YOLO 욜로는 컴퓨터 비전에서 빠지지 않는 프레임워크라고 할 수 있다. 욜로의 결과물을 보면 엄청나게 어려울 것 같지만, 어려운건 훨씬 똑똑한 사람들이 이미 다 만들어 놨다. 나는 그걸 잘 가져다 쓰고, 어떻게 응용할지만 알면 된다. 근데 그게 어렵다. 이미지라서 처리하는 속도가 느리고 데이터 양도 많아야 좋은 성능을 나타낼 수 ..
딥러닝 이번주는 드디어 딥러닝을 배우기 시작했다! 나는 텐서플로우를 배우게 될거라 생각했지만, 아주 틀리지는 않았다. 왜냐면 케라스가 텐서플로우의 포함되어있는 프레임워크가 되었기 때문이다. 수업을 실습위주로 진행되었다. 딥러닝 모델링을 할 때 필요한 요소들을 간단하게 설명하고 바로 실습으로 넘어갔다. 바로 실습을 통해 프레임워크에 익숙해지는 것은 좋았지만, 이론은 조금 부족했던 느낌이 들었다. relu나 swish같은 것들은 어떤 알고리즘인지는 설명해주셨지만, 어떤 원리로 이렇게 만들어졌는지에 대한 설명은 부족했다는 생각이든다. 그리고 너무 실습에만 집중하다 보니, 이거를 어디에 쓰는지 좀 감을 잡을 수 없었다. 오히려 실습을 하면서 모델 아키텍쳐를 구성하는 방법이나, 다른 모델을 참고할 때의 팁 같은 ..
AI모델 해석/평가 저번주 너무 험난한 미니프로젝트 덕분에 오랜만에 수업이 너무 그리웠다.. 하지만 교육 내용은 내 그리운 감정을 다 날려버릴 정도로 어려웠다.. 미니프로젝트 때 잠깐 언급됐던 내용도 강의에 있었다. 그 때에는 간단하게 표만 보고가는 정도로 생각했는데, 깊게 배워보니 꽤 어려운 내용이라고 생각된다. 강사님께서 이번을 끝으로 11월에 만날 수 있다고 한다.. 항상 좋은 강의를 해주셨는데 오랫동안 뵐 수 없는 것이 아쉬웠다.. 1차 AIVLE Day 드디어 기다리던 1차 AIVLE Day가 시작했다. 오전과 오후 초반에는 특강, 나머지 시간은 분반 사람들과 소통하고, 1기 에이블러 선배님과 에이블러 튜터님의 간담회가 이루어 졌다. 특강은 대단하신 분들이 와서 좋은 말씀을 해주셨다. 조금 아쉬..
해당 포스트는 YOLOv3 를 기준으로 작성되었습니다. 참고바랍니다. YOLOv3 Github GitHub - ultralytics/yolov3: YOLOv3 in PyTorch > ONNX > CoreML > TFLite YOLOv3 in PyTorch > ONNX > CoreML > TFLite. Contribute to ultralytics/yolov3 development by creating an account on GitHub. github.com YOLOv3 Pretrained Releases · ultralytics/yolov3 YOLOv3 in PyTorch > ONNX > CoreML > TFLite. Contribute to ultralytics/yolov3 development by..
Object Detection ANN 또는 DNN으로 이미지를 예측하는 것은 기존의 자료구조를 파괴하여 예측했었다. 그래서 성능이 썩 좋지 않았다. CNN은 이미지의 자료구조를 최대한 살려서 예측했고, 성능도 괜찮았다. 하지만 CNN은 객체만 존재하는 iconic-image에서만 강점을 보이고 non-iconic-image에는 다소 실망스러운 모습을 보인다. non-iconic-image에는 사물이 한개가 아니라 여러 개가 포함되어 있다. 그렇기 때문에 CNN은 이를 제대로 예측할 수 없는 것이다. 그렇다면 사물이 여러 개 일 때는 어떻게 해야할까? 간단하다. 사물의 위치를 찾아내서 분류해내면 된다. 이것을 Object Detection이라고 한다. Object Detection은 Localization..
# 라이브러리 호출 import tensorflow as tf from tensorflow import keras from keras.layers import Input, Dense, Conv2D, MaxPool2D, BatchNormalization, Dropout, Flatten from keras.models import Model from keras.backend import clear_session from keras.callbacks import EarlyStopping import numpy as np # 데이터 불러오기 (x_train, y_train), (x_val, y_val) = tf.keras.datasets.mnist.load_data() # 데이터 전처리 x_val = x_val..
이미지 컴퓨터에서 표현하는 이미지는 픽셀 단위의 숫자로 되어 있다. 색이 없는 흑백은 1채널 색이 있는 RGB는 3채널로 이루어져 있다. CNN CNN 은 요약해서 말하자면 n*n 필터를 거쳐서 feature map을 만드는 것이다. Filter 위 gif는 5*5 이미지에 3*3 필터를 사용해서 합성곱을 하는 모습이다. 필터는 왼쪽 위에서 부터 시작하여, 1칸씩 움직이며 필터에 해당하는 영역에 대해 겹친 영역은 곱하고, 곱한 값들을 모두 더하여 1개의 픽셀로 출력한다. Stride stride는 필터가 움직이는 간격을 의미한다. 기본적으로는 1칸을 움직이지만 stride 값을 조절하면 1칸보다 더 크게 필터를 움직이게 할 수 있다. Padding stride는 간격을 잘못 설정하면 원본 이미지 밖으로 ..