목록Python (173)
오답노트
개체명 인식 어떤 이름을 의미하는 단어를 보고 그 단어가 어떤 유형인지를 인식하는 것이다. BIO(Beginning-Inside-Outside) 태깅 개체명 태깅 기법 중에 Beginning-Inside-Outside 태깅 기법이 있다. Beginning은 B-TERM으로 개체의 시작에 태깅한다. Inside는 I-TERM으로 B-TERM가 태깅된 개체에 포함되면 그 다음부터 태깅된다. Outside는 위에 해당하지 않는 개체에 태깅한다. 구문 분석 언어별 문법과 어휘의 품사나 속성 정보를 담은 사전에 기반하여 문장의 구문 구조를 분석하는 것이 구문 분석이라고한다. 자연어 문장을 SW가 처리 가능한 내부 형태로 표현하는 것이다. 구문 분석의 모호성 하나의 입력 문장이 여러가지 구조로 분석 가능한 문제가 ..
MeCab MeCab은 Vocab을 통해 형태소를 분석해주는 형태소 분석기이다. https://github.com/SOMJANG/Mecab-ko-for-Google-Colab GitHub - SOMJANG/Mecab-ko-for-Google-Colab: Use Mecab Library(NLP Library) in Google Colab Use Mecab Library(NLP Library) in Google Colab. Contribute to SOMJANG/Mecab-ko-for-Google-Colab development by creating an account on GitHub. github.com 실습 MeCab In [ ]: !git clone https://github.com/SOMJANG/M..
형태소 분석 형태소란 언어학적으로 말을 분석할 때, 의미가 있는 가장 작은 말의 단위이다. 형태소 분석이란 형태소를 비롯하여, 어근, 접두사/접미사, 품사 등 다양한 언어적 속성의 구조를 파악하는 것 즉, 한 어절 내에 있는 모든 형태서(사전 표제어)를 분리하는 것이다. 하지만 형태소 분석은 동일한 표층형 어정이 여러가지 형태소 결합으로 분석 가능한 문제 또는 복합명사 분해 수준이 응용에 따라 달라져 모호성을 띠게 된다. 품사 태깅(Parts-of-Speech Tagging , POS Tagging) 품사란 단어를 그 문법적 성질에 따라 분류한 갈래이다. 품사 태그는 형태소 분석의 기준이 되는 세분화된 품사 체계라고 할 수 있다. 위에서 설명한 형태소 분석의 모호성을 품사 태깅을 통해 해결할 수 있다. ..
https://keras.io/ko/preprocessing/image/ Image Preprocessing - Keras Documentation 이미지 전처리 [source] ImageDataGenerator 클래스 keras.preprocessing.image.ImageDataGenerator(featurewise_center=False, samplewise_center=False, featurewise_std_normalization=False, samplewise_std_normalization=False, zca_whitening=False, zca_epsi keras.io ImageDataGenerator ImageDataGenerator는 케라스에서 지원하는 객체로 따로 이미지를 담을 변수..
해당 포스트는 YOLOv3 를 기준으로 작성되었습니다. 참고바랍니다. YOLOv3 Github GitHub - ultralytics/yolov3: YOLOv3 in PyTorch > ONNX > CoreML > TFLite YOLOv3 in PyTorch > ONNX > CoreML > TFLite. Contribute to ultralytics/yolov3 development by creating an account on GitHub. github.com YOLOv3 Pretrained Releases · ultralytics/yolov3 YOLOv3 in PyTorch > ONNX > CoreML > TFLite. Contribute to ultralytics/yolov3 development by..
Object Detection ANN 또는 DNN으로 이미지를 예측하는 것은 기존의 자료구조를 파괴하여 예측했었다. 그래서 성능이 썩 좋지 않았다. CNN은 이미지의 자료구조를 최대한 살려서 예측했고, 성능도 괜찮았다. 하지만 CNN은 객체만 존재하는 iconic-image에서만 강점을 보이고 non-iconic-image에는 다소 실망스러운 모습을 보인다. non-iconic-image에는 사물이 한개가 아니라 여러 개가 포함되어 있다. 그렇기 때문에 CNN은 이를 제대로 예측할 수 없는 것이다. 그렇다면 사물이 여러 개 일 때는 어떻게 해야할까? 간단하다. 사물의 위치를 찾아내서 분류해내면 된다. 이것을 Object Detection이라고 한다. Object Detection은 Localization..
# 라이브러리 호출 import tensorflow as tf from tensorflow import keras from keras.layers import Input, Dense, Conv2D, MaxPool2D, BatchNormalization, Dropout, Flatten from keras.models import Model from keras.backend import clear_session from keras.callbacks import EarlyStopping import numpy as np # 데이터 불러오기 (x_train, y_train), (x_val, y_val) = tf.keras.datasets.mnist.load_data() # 데이터 전처리 x_val = x_val..
이미지 컴퓨터에서 표현하는 이미지는 픽셀 단위의 숫자로 되어 있다. 색이 없는 흑백은 1채널 색이 있는 RGB는 3채널로 이루어져 있다. CNN CNN 은 요약해서 말하자면 n*n 필터를 거쳐서 feature map을 만드는 것이다. Filter 위 gif는 5*5 이미지에 3*3 필터를 사용해서 합성곱을 하는 모습이다. 필터는 왼쪽 위에서 부터 시작하여, 1칸씩 움직이며 필터에 해당하는 영역에 대해 겹친 영역은 곱하고, 곱한 값들을 모두 더하여 1개의 픽셀로 출력한다. Stride stride는 필터가 움직이는 간격을 의미한다. 기본적으로는 1칸을 움직이지만 stride 값을 조절하면 1칸보다 더 크게 필터를 움직이게 할 수 있다. Padding stride는 간격을 잘못 설정하면 원본 이미지 밖으로 ..
#레이어 선언 il = keras.layers.Input(shape=(4,)) h1 = keras.layers.Dense(256,'swish')(il) bl = keras.layers.BatchNormalization()(h1) #
#라이브러리 호출 import tensorflow as tf from tensorflow import keras import numpy as np import pandas as pd #데이터 불러오기 from sklearn.datasets import load_iris iris = load_iris() #데이터 분리 from sklearn.model_selection import train_test_split x_train,x_val,y_train,y_val = train_test_split(x,y,test_size=0.3,random_state=2022) x_train = pd.DataFrame(x_train,columns=iris.feature_names) x_val = pd.DataFrame(x_v..