일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- yolo
- Loss Function
- react native
- skt fellowship 3기
- Spring Boot
- pandas
- 커스텀 데이터 학습
- 양방향 매핑
- idToken
- marksense.ai
- javascript
- google cloud
- 졸프
- oauth
- Expo
- YOLOv5
- google 로그인
- JPA
- html
- matplotlib
- AWS
- OG tag
- 순환참조
- 코드업
- STT
- Spring
- @Transactional
- 2021 제9회 문화공공데이터 활용경진대회
- google login
- C++
- Today
- Total
목록분류 전체보기 (168)
민팽로그

데이터셋은 아래 링크에서 구할 수 있음 https://archive.ics.uci.edu/ml/index.php UCI Machine Learning Repository Welcome to the UC Irvine Machine Learning Repository! We currently maintain 588 data sets as a service to the machine learning community. You may view all data sets through our searchable interface. For a general overview of the Repository, please visit ou archive.ics.uci.edu linear_regression: 직선으로 표현..
윈도우 환경에서 파이썬 프로그램을 실행하면서 SSL: CERTIFICATE_VERIFY_FAILED에러가 발생했고, 아래 링크에 명시된 해결 방법을 따라하여 해결하였음. 참고 링크: https://minimin2.tistory.com/138
'apple'이라는 단어는 문맥에 따라 사과가 되기도, 회사가 되기도 함. 사람은 이러한 차이를 쉽게 인식할 수 있지만 기계가 이해하기는 어려움. 따라서 단어를 수치적으로 표현하여 기계가 이해할 수 있도록 Word Embedding 해야 함. 쉽게 말해서 Word Embedding은 텍스트를 수로 표현한 것! 같은 문자라고 하더라도 의미에 따라 다른 수치로 표현할 수 있음. (단어를 사전을 사용하여 매핑하고 이를 벡터로 만드는 것) 자연어 처리 관련 용어 Document(문서) Corpus(말뭉치): 텍스트(문서)의 집합 Token(토큰): 단어처럼 의미를 가지는 요소 Morphemes(형태소): 언어에서 의미를 가지는 최소단위 POS(품사): 명사, 동사 등 Stopword(불용어): I, my, me..
알게 된 것 1. onCreate() -> onStart -> onResume() 순으로 호출됨 -> 필요에 따라 적절히 사용 가능 2. Thread 실행이 끝나기 전에 다른 작업 수행으로 인한 오류를 해결하기 위해서, sleep을 두거나 join()을 활용하여 실행 순서를 제어할 수 있음 3. 리사이클러뷰와 카드뷰를 사용하여 스크롤 기능을 갖춘 카드 리스트를 만들 수 있음: 리사이클러뷰를 담는 레이아웃, 데이터를 저장하기 위한 클래스, 카드의 뷰?를 다룰 수 있는 뷰홀더, 뷰홀더와 리사이클러뷰를 연결하는 어뎁터 등이 필요했음(추상클래스 상속받아 구현 필요) 4. rest api의 method 중 delete는 규칙상? body를 가질 수 없음! 기억에 남는 점 오류 발생 시 가장 힘들었던 쪽이 thre..

실습 내용 - 모델의 성능을 높이기 위해 adam 함수의 하이퍼파라미터 변경하기 - 임의의 input을 모델에 넣어 감정 분석 결과 확인하기 핵심 코드 1. accuracy 82% 이상으로 높이기(지난시간 모델 부분 수정) # 3-3 from sklearn.model_selection import train_test_split from tensorflow import keras from keras.preprocessing import sequence from keras import layers, models, optimizers import numpy as np # 3-1: sklearn를 사용하여 train과 test 분리 x_train, x_test , y_train , y_test = train_t..
1. GD(Gradient Descent) 2. SGD(Se /gradient Descent) 3. momentum : 관성을 적용하여 GD, SGD가 0에 수렴하는 부분에서 끊임없이 진동하는 문제점을 보완 4. adagrad(adaptive gradient) : 고정된 학습률 값으로 인한 문제점을 해결 5. adam(adagrad + momentum) Momentum momentum: 관성 $$ v_{t}x(상수:0.9정도)=v_{t-1}+lr\nabla_{w}L(w) $$ $$ w_{t}=w_{t-1}-v_{t} $$ https://ynebula.tistory.com/26 [Deep Learning-딥러닝]가중치 조정 - Momentum 모멘텀은 신경망의 학습 안정성과 속도를 높여 학습이 잘 하려고 ..
실습 내용 - 전 시간 실습 리뷰: 한글 데이터를 토큰으로 분리하여 train 데이터셋 만들기, 정수 인코딩 - sklearn : train, test split, 전처리한 train과 test로 분리 - 학습 진행 : vocab size, sequence 길이 조절 sklearn을 사용하여 train과 test로 분리 from sklearn.model_selection import train_test_split #sklearn를 사용하여 train과 test 분리 x = [0,1,2,3,4,5,6,7,8,9,10] y = [0,1,2,3,4,5,6,7,8,9,10] x_train, x_test , y_train , y_test = train_test_split(x,y,test_size = 0.2) - ..
연구과제 ✔ YOLO의 객체 인식 결과를 다른 시스템이나 학습에 입력하는 응용/논문/코드 조사 🔥 강화학습 이론, 코드, 응용 등 분석(책 빌렸음) 검색 키워드 object tracking yolo object tracking 강화학습 multi agent object tracking, yolo object tracking 이론 https://eehoeskrap.tistory.com/90 [Object Tracking] 객체 탐지 및 추적 방법 (1) 컴퓨터 비전 분야에서 관심영역 및 관심객체를 탐지하고 추적하는 일들은 오래전부터 시도되어왔던 일이다. 객체 추적 프로그램을 완성시키기 위해 Object Detection and Tracking 방법에 대한 간단한 eehoeskrap.tistory.com h..
실습 내용 - 한글 데이터를 토큰으로 분리하여 train 데이터셋 만들기 - 정수 인코딩: 토큰화된 train 데이터셋을 벡터로 변환 konlpy(코엔엘파이) 라이브러리 설치 - 한국어 정보처리를 위한 파이썬 패키지 pip install konlpy https://konlpy.org/ko/latest/ KoNLPy: 파이썬 한국어 NLP — KoNLPy 0.5.2 documentation KoNLPy: 파이썬 한국어 NLP KoNLPy("코엔엘파이"라고 읽습니다)는 한국어 정보처리를 위한 파이썬 패키지입니다. 설치법은 이 곳을 참고해주세요. NLP를 처음 시작하시는 분들은 시작하기 에서 가볍게 konlpy.org 과제 코드 from konlpy.tag import Komoran from collectio..
from keras.preprocessing import sequence from keras.datasets import imdb //불러올 데이터셋 from keras import layers, models max_features=20000 maxlen=80 (x_train, y_train), (x_test, y_test) = imdb.load_data(num_words=max_features) x_train = sequence.pad_sequences(x_train, maxlen=maxlen) x_test = sequence.pad_sequences(x_test, maxlen=maxlen) #functional 방식 (layer를 add하는 방식은 sequential) x = layers.Input(..