
2.1 Introduction 1) MATLAB : Data analysis and visualization tool designed with powerful support for matrices and matrix operations 2) MATLAB's standard data type : Matrix - All data are considered to be matrices of some sort - Images are matrices whose elements are the grey values (or possibly the RGB values) of its pixels - Single values are considered to be 1x1 matrices, while a string is a 1..

1. Perceptron 1) 인공신경망 : 기계학습과 인지과학에서 생물학의 신경망에서 영감을 얻은 통계학적 학습 알고리즘 2) 퍼셉트론 : 프랑크 로젠블라트가 1957년에 제안한 초기 형태의 인공신경망 (1) 형태 : 입력값- 가중치 - 가중합 - 계단함수(활성화함수) - 출력값 ① Inputs ② Weights - 각 입력값에 대한 가중치 존재 - 가중치 값이 클수록 해당 입력값이 중요하다는 의미 ③ Weighted Sum - 가중합(net) : 각 입력과 그에 해당하는 가중치의 곱의 합 ④ Activation Function - Activation Function : net 값에 따라 뉴런의 활성화 여부를 결정하는 함수 - ReLU : net 이 threshold 보다 크면 1, 크지 않으면 0을 ..

1. Machine Learning 개요 1) 정의 (1) ML : 인공지능의 연구 분야 중 하나로, 인간의 학습 능력과 같은 기능을 컴퓨터에서 실현하고자 하는 기술 및 기법 (2) AI ⊃ ML ⊃ ANN ⊃ DL - AI : 사람이 해야 할 일을 기계가 대신할 수 있는 모든 자동화에 해당 - ML : 명시적으로 규칙을 프로그래밍하지 않고 데이터로부터 의사결정을 위한 패턴을 기계가 스스로 학습 - DL : 인공신경망(ANN) 기반의 모델로, 비정형 데이터로부터 특징 추출 및 판단까지 기계가 한 번에 수행 (3) ML은 경험(E)을 통해 특정한 작업(T)에 대한 성능(P)를 스스로 향상 2) 머신러닝 유형 (1) 지도학습 : 정답이 정해진 문제에 대해 학습. ex) 분류, 예측 문제의 정답을 모두 알려주..

1.1 Images and pictures Image : a single picture which represents something 1.2 What is Image Processing Image Processing involves changing the nature of an image in order to either 1) improve its pictorial information for human interpretation, 2) render it more suitable for autonomous machine perception. Digital Image Processing involves using a computer to change the nature of a digital image ..

8.1 Transfer learning 1) 전이학습 : 특정 조건에서 얻어진 어떤 지식을 다른 상황에 맞게 전이해서 활용하는 학습 방법 2) 전이되는 대상 : 학습한 필터 (ex. 이미지넷 데이터로 학습된 모델로 전이 학습 시, 범용적 형태를 구분할 수 있는 지식 전이) 3) 전이학습의 장점 (1) 데이터 부족 문제 해결 데이터가 적을 때 모델의 변수를 처음부터 학습하려고 하면 성능이 잘 나오지 X ① 왼쪽 합성곱 연산 부분 : 이미지넷 같은 작업으로 미리 학습된 모델에서 last FC 떼어낸 것 = 특성 추출기(Feature Extractor) : 미리 학습된 부분(변수 고정). 이미지 입력받아 미리 학습된 필터들로 특성 추출 ② 오른쪽 네트워크(입력층-은닉층-출력층) : 아직 학습 안 된 변수들로 ..

7.1 Underfitting, Overfitting 일반화 차이 = 테스트 오차 - 학습 오차 테스트 오차 = 학습오차 + 일반화 차이 평균제곱오차 = 편차의 제곱 + 분산 + 줄일 수 없는 오차 = Fixed → Bias와 Variance는 반비례 관계 학습 오차 ↑ 학습 오차 ↓ 일반화 차이 ↑ Underfitting Overfitting 일반화 차이 ↓ Underfitting Ideal state Underfitting : 학습 오차 ↑ = High Bias + Low Variance Overfitting : 학습 오차는 ↓ but 테스트 오차 ↑ = High Variance + Low bias 7.2 Regularization 1) Regularization(정형화) : 어떤 제약조건을 (주로 ..

1. 통계기초 1) ML : 지도학습(회귀, 분류) + 비지도학습(군집화, 변화, 연관) + 강화학습 독립변수, 종속변수가 존재할 때 - 회귀(Regression) : 예측하고 싶은 종속변수가 숫자(수치형 데이터)일 때 사용 - 분류(Classification): 예측하고 싶은 종속변수가 이름, 문자일 때 사용 2) 선형회귀 : 독립변수는 여러개 가능, 종속변수는 하나만 독립변수의 변화에 의한 종속변수의 변화를 설명하는 기준모델 만들고, 가중치 학습으로 fitted 모델 만듦 - X : 독립변수 = 예측변수(Predict) = 설명변수(Explanatory) = 특성(Feature) - y : 종속변수 = 반응변수(Response) = 레이블(Label) = 타겟(Target) ※ 두 변수 모두 연속형변..

6.1 RNN의 발달 과정 RNN : 순서가 있는 데이터에서 의미(패턴, 상관관계, 인과관계 등)를 찾아내기 위해 고안된 모델 시퀀스(sequence) 데이터 : 순서가 존재하는 데이터 (ex. 언어) 시계열(time series) 데이터 : 순서가 존재하며 시간에 따른 의미도 존재하는 데이터 (ex. 주가) Application 6.2 RNN의 작동 원리 1) RNN 도식화 은닉층의 node들은 어떤 초기값을 가지고 계산이 시작되며, t=0시점에서 입력값 + 각 node 초기값의 조합으로 t=0일 때 은닉층의 값들이 계산되어 결과값(출력값)이 도출됨 t=1시점에서 입력값 + t=0시점에서 계산된 은닉층 값들의 조합으로 t=1일 때 은닉층의 값과 결과값이 다시 계산됨 이러한 과정이 지정한 시간만큼 반복됨..