목록Deep Learning (3)
JuHyang

학습과정 이야기 같은 문제집이라도 사람마다 푸는 방식이 다르고 학습된 결과도 다릅니다. 딥러닝 모델의 학습도 비슷합니다. 케라스에서는 모델을 학습시킬 때 fit() 함수를 사용하는데, 그 인자에 따라 학습 과정 및 결과가 차이납니다. 학습과정이 어떤 방식으로 일어나는 지 살펴보도록 하겠습니다. 배치 사이즈와 에포크 케라스에서 만든 모델을 학습할 때는 fit() 함수를 사용합니다 model.fit(x, y, batch_size = 32, epochs = 10) x : 입럭 데이터 / y : 라벨 값 / batch_size : 몇 개의 샘플로 가중치를 갱신할 것인지 지정 / epochs : 학습 반복 횟수 학습에 관련된 인자이므로 시험 공부하는 것에 비유를 해보겠습니다. 먼저 모의고사 1회분을 가지고 학습해..

https://tykimos.github.io/lecture/ 가상 개발환경 만들기 conda create -n tf_gpu python=3.6 anaconda 가상 개발환경 실행 conda activatetf_gpu 텐서플로우 설치 pip install tensorflow 케라스 설치 pip install keras > deactivate #가상환경 접속종료하기 > conda remove -n tf_gpu –all #가상환경 삭제/제거하기 tensorlow-gpu 사용을 위해서 nvidia cuda 를 설치해야 한다 10.1 버전으로 설치하면 오류 디지게 남 >> 10.0 으로 바꾸셈 https://itchipmunk.tistory.com/104 교제 예제 소스 : https://github.com/g..

우리는 왜 확률을 배우는가? 머신 러닝의 정의는, 관측된 Data (Training Sample)로부터 Model을 설계하는것이다. 확률적 개념이 들어간다면, 관측된 Data는 진짜 Data가 아니라 진짜 Data로부터 Random하게 Smapling된 Data일 뿐이다. 진짜 Data는 무한하며, 연속적이다. 진짜 Data가 관측된 Data로 오기 위해서는 Sampling이; 필요하다. 즉, 관측된 Data는 임의의 확률 분표(=진짜 Data 분포)에서 Sampling 된 것이라고 가정한다. 이것이 우리가 확률을 배우는 이유이다. 그리고 많은 알고리즘에서 확률 모델을 사용한다. Deep Learning (Cross Entropy) ... 어떠한 확률 분포가 있을지 생각을 해보면, 데이터 자체의 분포 (..