알파베타 방법으로 목표 찾기
- 알파 베타 가지치기: 깊이 우선 탐색으로 제한 깊이까지 탐색을 하면서 Max 와 min 노드의 값을 결정하고 검토해 볼 필요가 없는 부분을 탐색하지 않도록 하는 기법
몬테카를로 트리 탐색과 알파-베타 가지치기 차이점 & 공통점
- 몬테카를로 트리 탐색은 확률적이고 랜덤한 요소를 포함하며 트리를 동적으로 확장하는 방식으로 동작하지만 알파-베타 가지치기는 결정적이며 전체 게임 트리를 검색하고 가치 평가하는 방식이다.
- 공통점: 두 가지 방법 모두 현재 플레이어의 현재 상태에서 이길 수 있는 좋은 선택을 하기 위한 가능성을 휴리스틱으로 줄인다는 공통점이 있다.
UCB 정책
- 승률과 노드 방문 횟수를 고려하여 존재하는 행동의 선택지 중 가장 높은 upper bound를 가진 행동을 선택하는 것
- 선택 우선순위를 정할 때 부모의 방문 횟수에 비해 너무 적게 방문한 노드에게 기회를 주는 정책이다.
알파고의 머신러닝
- 기계학습 및 강화 학습
- 알파고의 탐색: 몬테카를로 트리 탐색
- 확률에 따라 몬테카를로 시뮬레이션을 반복하여 바둑판에 대한 형세 판단값 계산, 딥러닝 신경망인 가치망을 사용하여 형세판단값을 계산하여 함께 사용
의미망을 프레임으로 만들기
- frame-name 고양이
| frame-type | Class |
| is-a | 포유류 |
| can | 수영 |
| cannot | 날기 |
링크 - 노드
전향추론, 후향추론
- 후향추론: 역방향 추론으로 어떤 사실을 검증하거나 확인하고 싶은 경우에 관심 대상 사실을 결론부에 가지고 있는 규칙을 찾아서 조건부의 조건들이 모두 만족하는지 확인하는 것
- 전향추론: 순방향 추론으로 규칙의 조건부와 만족하는 사실이 있을 때 규칙의 결론부를 실행하거나 처리하는 것
유전 연산자
- 교차 연산자: 두 개의 부모 해를 바탕으로 자식 해를 만드는 연산을 한다.
- 필요성: 부모 개체의 조합을 통해 자식 개체를 생성하여 유전 다양성을 유지하면서 다양한 해를 탐색할 수 있다.
- 돌연변이 연산자: 만들어진 자식 해를 일부 수정하는 것으로 두 부모가 교차를 하더라도 두 부모와는 완전히 일치하지 않는 그런 특성을 만들기 위한 연산
- 필요성: 지역 최적 해에 빠져드는 경우를 방지할 수 있다.
지식기반 시스템 구성
- 규칙 기반 시스템 구조: 규칙베이스 + 작업 메모리 + 추론엔진
ROC 곡선 설명
- 이진 분류기의 성능 평가를 하는 기법으로 y축 민감도와 x축 위양성율 값에 따른 그래프이다. 즉, 성능 평가에 있어서 수치적인 기준이 될 수 있는 값으로, 1에 가까울수록 그래프가 좌상단에 근접하게 되므로 좋은 모델이라고 할 수 있다.
- AUC는 ROC curve의 밑면적을 말한다. AUC가 클수록 정확히 분류함을 뜻한다.
https://blog.naver.com/PostView.nhn?blogId=sw4r&logNo=221015817276
ROC (Receiver Operating Characteristic) Curve 완벽 정리!
이전에 스터디 하면서 작성해놓은 발표 자료를 다시 한번 정리해서 블로그에 기록해두고자 한다. 이 개념은...
blog.naver.com
점 좌표, 처음 랜덤 군집 중심 주어지고 처음으로 만들어진 군집 찾기
2차원 평면에 데이터가 (1,1), (1,2), (3,1), (4,3), (5, 3), (4, 6), (5, 6), (2, 5), (3, 6)에 위치하고 있다. 군집의 중심이 (2, 2)와 (4, 4)에 있다고 하자.
- 처음으로 만들어진 군집 결과 쓰기.
- 다음 단계의 군집의 중심을 구하라.
새로운 중심 → 군집 내 각 점들의 평균 좌표
초기 중심 좌표와의 거리 식으로 거리 구해서 군집 결과 구하기
루트(x - y)^2 + (z - w)^2
k-means 알고리즘을 적용하기 위해 필요한 조건 기술
군집의 유사도는 작게, 거리는 크게 | 군집 내의 유사도는 크게, 거리는 작게
클러스터 수 지정 (k 지정)
거리 측정 기준 선택
초기 클러스터 중심 설정
수렴 조건 정의
계층적 군집화
- 병합형 계층적 군집화: 하나의 군집에서 시작해 가까운 군집들을 반복 결합(bottom-up)
- 분리형 계층적 군집화: 모든 데이터 포함 군집에서 유사성을 바탕으로 분리(top-down)
계층적 군집화 덴드로그램으로도 표현 가능
분할 군집화
- 계층 X. 전체 데이터를 유사한 것들 끼리 나누어 묶는 것
- k-means 알고리즘
군집화 과정
- 임의로 k 개의 군집 중심 위치를 선정
- 군집 중심을 기준으로 군집을 재구성
- 군집 별로 평균 위치를 결정 - 군집 달라짐
- 군집 평균 위치로 군집 중심 조정
- 수렴할 때 까지 2-4 반복 = 더 이상 군집 변화 X
목표: 분산 값을 최소화하는 클러스터 집합을 찾는 것
동일 데이터에 k-means 알고리즘 적용할 때 마다 다른 결과 나올 수 있는 이유
K-means 알고리즘은 처음 초기 중심점을 무작위로 선택하고 이에 따라 클러스터가 형성되기 때문에 알고리즘을 적용할 때 마다 다른 결과가 나올 수 있다.
→ 처음부터 다시 진행한다.
결정트리 알고리즘 노드 분할 과정
분할 속성 선택
속성값에 따른 서브트리를 생성
데이터를 속성값에 따라 분배
모든 데이터를 포함한 하나의 노드로 구성된 트리에서 시작 O
분할 속성 선택 : 분할 결과가 동질적인 것으로 만드는 속성 선택
PlayTennis : 속성 - 바람, 기온, 습도.. 부류 - 테니스 여부
- PlayTennis 데이터에 대해서 Outlook을 분할 속성으로 하는 경우에 대한 정보 이득비 식 구하기

Gini - Gini(A)
- PlayTennis 데이터에 대해서 Outline을 분할 속성으로 하는 경우의 지니 이득
SDR(A) = SD - SD(A)
- PlayTennis 데이터에 대해서 Outlook에 대한 표준편차 축소 값
IG = I - Ires
- 정보 이득
(Ires : 자식 집합 엔트로피 평균 → 작아야 함)
I : 분할 속성의 엔트로피. Ires : 각 엔트로피 평균 구하기
정보 이득이 클수록 우수한 분할 속성
정보 이득 척도의 단점은 속성 값 많은 것 선호. 분할 많으면 작은 부분 집합은 동질적 경향을 가짐
→ 개선 : 정보이득비 : 속성 값이 많은 속성에 대해 불이익을 줌, 지니 지수
회귀 결정 트리 단말 노드는 수치 값으로 나옴
퍼셉트론 : 학습 가능한 신경망 모델
선형 분리불가 문제 : XOR 문제
다층 퍼셉트론의 학습 : 기대 출력과 MLP 출력이 최대한 비슷해 지도록 가중치를 변경하는 것 → 오차 줄이기
학습 알고리즘 : 오차 역전파 알고리즘. 계단 모양 전달 함수를 미분 가능한 시그모이드 함수로 대체
오차 최소화 : 최대 경사법, 경사 하강법
소프트맥스 층: 최종 출력을 분류 확률로 변환하는 층. 출력의 합 1. 확률로 표현되어 클래스 간의 상대적인 중요도를 알아 냄. 회귀에서 X
최대 가능도(우도) 추정(MLE) : 데이터의 가능도를 최대로 하는 파라미터를 추정하는 것
퍼셉트론에서 XOR 문제는 선형 분리가 불가능하다.
이를 해결하기 위해서 다층 퍼셉트론을 사용해서 분리 가능하도록 한다.
RBF망 : 어떤 함수를 RBF함수들의 선형 결합 형태로 근사시키는 모델
RBF망 오차 줄이기 : 경사 하강법 사용
시그모이드 함수 f(s) = 1/(1 + e^(-as))의 x에 대한 미분을 계산하고 시그모이드 함수가 다층 퍼셉트론에서 활성화 함수로 사용될 때의 장점
- 미분 : af(s)(1-f(s))
- 시그모이드 함수는 계단 모양 전달 함수를 미분 가능하게 한다.
경사 하강법
오차 함수의 낮은 지점을 찾아가는 최적화 방법으로 낮은 쪽의 방향을 찾기 위해 현재 위치에서 오차함수를 미분한다.
전통적인 신경망과 딥러닝 신경망의 차이
- 특징을 수동적으로 추출해서 만든 특징 벡터를 입력해서 사용
- 특징을 학습을 통해 자동적으로 추출
ReLu를 활성화 함수로 사용하면 기울기 소멸 문제가 완화되는 이유
- ReLu를 사용하면 입력이 양수인 경우에 계속 미분해도 미분 값이 0이 되지 않기 때문에 기울기 소멸 문제를 완화할 수 있다.
균등 분포
- 제이비어 초기화
- 허 초기화
- 볼츠만 머신 학습시킨 결과의 가중치 사용 : 개선된 초기화
과적합 문제 완화 기법
- 규제화
- 드롭아웃
- 배치 정규화
확률적 풀링 사용 이유
- 각각 선택확률 0은 아니도록 설정하여 랜덤 문제 방지
오차 함수에 규제화 항을 집어넣으면 어떤 효과가 있는가
- 가중치가 커지지 않게 규제하여 과적합을 완화한다.
학습할 때 드롭아웃을 사용하게 되면 어떤 효과가 있는가
- 과적합 문제를 완화하는데 도움을 준다.
미니배치 : 전체 학습 데이터를 일정 크기로 나누어 놓은 것
배치 정규화를 하는 이유
- 신경망의 각 층에서 미니 배치의 각 데이터에 가중치 연산을 적용한 결과인 분포를 정규화하여 과적합을 완화한다.
컨볼류션 신경망(CNN)의 구조
전반부에는 특징을 추출을 위한 컨볼루션 부분
- 컨볼루션 연산을 하는 Conv 층
- ReLU 연산을 하는 ReLU
- 풀링 연산 Pool
을 반복한다. 추출된 특징을 사용하여 후반부에는 분류 또는 회귀를 수행하는 다층 퍼셉트론 부분이다. 분류의 경우에는 마지막 층에 소프트맥스를 하는 SM 연산 추가한다.
Conv-ReLU-Pool…반복-FC-SM
컨볼루션 신경망에서 풀링 연산은 어떤 역할을 하는지 설명
중간 연산 과정에서 만들어지는 특징지도들의 크기를 축소하는 역할을 한다. 그래서 다음 단계에서 사용될 메모리 크기와 계산량을 감소시킨다.
컨볼루션 신경망 적용 가능 학습 알고리즘 : 경사 하강법 ..변형
- 모멘텀 고려 경사 하강법, NAG방법, AdaGrad 방법: 가중치별로 별도의 학습율 사용, AdaDelta 방법: 과거 그레디언트의 영향 점점 축소, ADAM 방법..SGD가 가장 느림
- 대표적인 컨볼루션 신경망 모델 : LeNet, AlexNet, VGGNet, GoogleNet, ResNet, DenseNet, DPN
GoogleNet : 1X1 컨볼루션 필터를 사용하여 특징 지도의 개수를 조정. 마지막 계층에 소프트맥스. 기울기 소멸 문제 완화 보조 분류기 추가
ResNet : 잔차 모듈 사용하여 기울기 소멸 완화. 가중치 수 증가 완화
DPN: ResNet, DenseNet의 결합
GoogleNet의 자료를 찾아서 같이 학습해야 할 가중치의 개수와 노드 개수
가중치 계산할 층 : 22개 층
전체 노드 층 : 27개 층
ResNet과 DenseNet의 비교
ResNet은 상대적으로 이전 단계의 특징들로부터 새로운 특징을 만드는 것에는 소극적이나 DenseNet은 새로운 특징이 추출될 가능성이 높다.
→ ResNet과 DenseNet의 결합 모델. 단점 보완 : DPN 모델
DenseNet에서의 1X1 컨볼루션(병목층)
차원을 감소시켜 깊은 신경망에서 많은 파라미터와 연산량을 줄여 계산 효율성을 높일 수 있다.
신경망을 구성할 때 잔차 모듈을 사용함으로써 여러 조합의 부분 신경망을 함께 사용하는 효과를 얻을 수 있다.
다양한 경로를 통해 복합적인 특징을 추출할 수 있다. 필요한 출력이 얻어지면 컨볼루션 층을 건너뛸 수 있다.
3X3 크기의 컨볼루션만을 사용해도 5X5 크기 및 7X7 크기의 컨볼루션 사용 효과를 낼 수 있는 이유와 5X5 크기와 7X7 크기 대신 3X3 크기를 사용할 때의 장점
필터의 중첩은 활성화 함수 ReLU를 더 많이 사용하도록 만들기 때문이다. 이는 정보를 분류하는 결정 함수가 더 잘 학습하도록 영향을 끼친다. 그리고 학습해야 할 파라미터의 수가 줄어들어 학습 속도에도 긍정적 영향을 끼친다.
기울기 소멸 문제 설명, 해결 방안
오류 역전파 과정에서 입력층으로 진행할수록 기울기가 작아지다가 거의 기울기가 0이 되어 하강법을 이용할 수 없게 되는 문제
→ 기울기 소멸 문제 완화: ReLU 함수 사용
ResNet 에서 잔차 모듈이 100개 이상의 층을 갖는 딥러닝 신경망을 구성할 수 있도록 하는데 도움이 되는 이유를 설명
- 층이 깊어질수록 그레이디언트 소실 문제가 발생된다. 이를 극복하기 위해 타겟 값과 입력 값의 차이를 최소화하는 방향으로 학습을 진행하는 잔차 모듈을 사용하는 ResNet 모델이 고안되었다.
ResNet 특징
기대하는 출력과 유사한 입력이 들어오면 영벡터에 가까운 값을 학습 : 입력의 작은 변화에 민감 : 잔차 학습
다양한 경로를 통해 복합적인 특징 추출
필요한 출력이 얻어지는 컨볼루션 층을 건너뛸 수 있음
자연어 처리(NLP) 분석 단계 : 형태소 분석 → 구문 분석 → 의미 분석 → 화용(상황적 맥락) 분석
- 형태소 분석
- 중의성 포함
- 품사 태깅 : 문장의 각 단어에 품사의 범주 및 문법적 기능에 대한 태그(말뭉치)를 붙이는 것
- 기법 : 규칙 기반 방법 - 개체명 인식, 기계학습 기반 방법
- 구문 분석
- 규칙 기반 구문 분석 : 구구조 문법 사용. 파싱을 위해 파서 또는 구문 분석기 사용 → 구문 분석 결과는 파스 트리 형태로 표현
- 파싱 기법 분류 : 하향식, 상향식
- 파싱 기법 : 확장 전이망, 차트 파싱
- 구조적 중의성 - 문장, 어휘적 중의성 - 품사
- 기계학습 기반 구문 분석 : 구구조 문법 X, 말뭉치 구축 필요
→ 말뭉치 : 트리 형태
- 의미 분석
- 단어 의미 중의성 해소
- 단어의 수치화 - one-hot 벡터 사용 - 단어 간의 유사도를 계산하기 곤란
- 단어 임베딩 : 유사한 의미의 단어가 벡터 공간상에서 근처에 위치
- CBOW 모델 : one-hot 벡터로 표현된 단어를 실수 벡터로 바꾸는 역할
- Skip-gram 모델 : CBOW와 대칭적인 구조
- 계층적 소프트맥스 - 계산 비용을 줄이기 위한 기법, 반례 표본 추출 - 임베딩 모델을 훈련
- 형식 언어 : 형식 문법에 따라 생성될 수 있는 모든 스트링의 집합
- 형식 문법 : 문맥 자유 문법, 문맥 의존 문법, 무제약 문법
텐서
shape. size. rank
reshape(텐서, [3,8])
squeeze(텐서) : 텐서에서 크기가 1인 축을 제거
1차원을 squeeze하면 그대로 나옴
expand_dims(텐서, 확장 축) : 지정 축 차원 추가
→ expand_dims([[1,2,3], [4,5,6]], 2) : [[[1],[2],[3],[[4],[5],[6]]]
slice(텐서, )
split(텐서, 텐서 분할 갯수, 축) : 지정 축 기준으로 텐서 분할
concat(텐서1, 텐서2, 차원) : 차원 기준으로 붙임
→ 두 개의 차원이 다르면 안됨
reverse(텐서, 축) : 축 기준으로 역순 배열
transpose(텐서, perm=축의 순열)
→ perm=축의 순열이 없으면 perm = [1,0]으로 간주 → 0축과 1축 바꿈
perm = [0,2,1] 이면 1과 2가 바뀜
gather(텐서, 첨자)
reduce_max(텐서, 축) : 행 또는 열 기준으로 큰 줄
reduce_min(텐서, 축) : 축 0 또는 1
reduce_sum(텐서, 축) 합
reduce_prod(텐서, 축) 곱
reduce_mean(텐서, 축) 평균
diag(텐서) 대각 행렬 [[1,0,0],[0,2,0],[0,0,3]]
stack([텐서,텐서,텐서], axis=축) 축 기준 텐서 붙이기
cast(텐서, int32) int형으로 반환(내림)
결정 트리 알고리즘
- 분할 속성 선택 2. 속성 값에 따라 서브 트리 생성 3. 데이터를 속성 값에 따라 분배
하나의 노드로 구성된 트리에서 시작
분할 속성의 결정 → 어떤 속성을 선택하는 것이 효율적인가. 결과를 동질적인 것으로 만드는 것 선택
엔트로피 = 불순도
비동질적인 정도. 정보량 측정 척도
섞인 정도가 클수록 엔트로피가 큼 = 가장 불순함
주체가 많을수록 커짐
정보 이득
부모, 자식 간의 차이. 자식 집합 엔트로피의 평균
부모에 비해 자식의 순도가 큰 것
정보 이득이 클 수록 우수한 분할 속성
단점
속성 값이 많은 것 선호 - 이름, 학번
개선 척도
- 정보 이득비
- 지니 지수
정보 이득비
데이터 집합 분할 → 부류 별 확률 이용 엔트로피 계산 → 정보 이득 → 최종 결정 트리
단순 베이즈 분류기
부류 결정 지식을 조건부 확률로 결정
- 베이즈 정리
사후 확률 = 가능도 * 사전 확률 / 증거
- 가능도의 조건부 독립 가정
신경망
인간 두뇌에 대한 계산적 모델로 인공지능을 구현 분야
= 신경세포(뉴런)
소프트맥스 층
최종 출력을 분류 확률로 변환하는 층 → 출력의 합 = 1
출력 노드의 값이 확률값을 해석되도록 하기 위해 사용
학습데이터
1 or 0(나머지)
최대 가능도(우도) 추정(MLE)
데이터 가능도를 최대로 하는 파라미터를 추정
오차 함수 - 교차 엔트로피 낮추자.
RBF 함수
기존 벡터와 입력 벡터의 유사도를 측정하는 함수
거리가 줄어들면 유사도는 커짐
RBF 망
RBF 함수들의 선형 결합 형태로 근사시키는 모델
학습: 경사 하강법 사용 - 가중치 결정
부류 별 군집화 결과를 사용한 기준 벡터와 파라미터(분산의 역수) 초기화
퍼셉트론
신경세포의 계산 모델 = 학습 가능한 신경망 모델
입력층*가중치 = 출력층
- OR 연산
- 선형 분리가능 문제
- 선형 분리불가 문제(XOR)
- 다층 퍼셉트론(MLP)
계단모양 전달함수를 미분 가능한 시그모이드 함수로 대체
다층 퍼셉트론 학습: 오차가 최소가 되도록 가중치 w를 결정하는 것
학습 알고리즘: 오차 역전파 알고리즘 → 경사 하강법 사용
가중치 변경(오차 최소화하는) → 최대경사법, 경사하강법
기대 출력과 MLP 출력이 최대한 비슷해 지도록 가중치 변경 - 오차 함수
딥러닝
심층 학습
퍼셉트론 = 일반 신경망: 소수의 은닉층 포함
원시 데이터에서 특징을 수동으로 추출해서 만든 특징 벡터를 입력으로 사용
딥러닝 신경망: 다수의 은닉층 포함
특징추출과 학습을 함께 수행(자동)
기울기 소멸 문제
오류역전파 과정에서 입력층으로 진행할수록 기울기가 작아지다가 거의 기울기의 변화가 없어 학습이 되지 않는 현상
계속 곱해지다 보면 가중치에 따른 결과값의 기울기가 0이 되어 버려 경사 하강법을 이용할 수 없게 되는 문제
→ 기울기 소멸 문제 완화: 시그모이드나 쌍곡탄젠트 대신 ReLU 함수 사용
ReLU 함수
입력과 가중치 행렬 곱으로 출력이 0이상인 것들에 의해 계산
변형 형태
Maxout
PReLU
과적합 문제
복잡도가 큼
학습되지 않는 데이터에 대해 성능 저하
문제 완화: 규제화, 드롭아웃, 배치 정규화
규제화
가중치 커지지 않게 규제하는 것
모델 복잡도를 추가 - 줄이자
오차 함수 = (오차 항) + a(모델 복잡도 항)
드롭아웃 기법
신경망의 일부를 사용하지 않는 방법
미니 배치
전체 학습 데이터를 일정 크기로 나누는 것
경사 하강법 적용 미니배치의 그레디언트는 평균 사용
배치 정규화
신경망의 각 층에서 미니배치의 각 데이터에 가중치 연산을 적용한 결과의 분포를 정규화하는 것
내부 공변량 이동 문제: 오차 역전파 알고리즘을 통한 학습
가중치 적용 → 평균, 표준편차 계산 → 크기 조정, 이동 파라미터 적용 → ReLu 적용
컨볼루션 신경망(CNN)
특징 추출(컨볼루션) → 분류(다층 퍼셉트론)
컨볼루션: 일정 영역의 값들에 가중치를 적용하여 하나의 값을 만드는 연산
특징 추출을 위한 컨볼루션 부분:
- 컨볼루션 연산 하는 Conv 층
- ReLU 연산하는 ReLU
- 풀링 연산 Pool
스트라이드(보폭): 커널을 다음 컨볼루션 연산을 위해 이동시키는 칸 수
패딩: 컨볼루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 연산
특징지도
컨볼루션 필터의 적용 결과로 만들어지는 n차원 배열
풀링
일정 크기의 블록을 통합하여 하나의 대푯값으로 대체하는 연산
중간 연산 과정에서 만들어지는 특징지도들의 크기 축소 - 특징 결합 → 다음 단계에 사용될 메모리 크기, 계산량 감소
가중치 X
최대값 풀링
평균값 풀링
확률적 풀링: 블록 내의 각 원소가 원소값의 크기에 비례하는 선택 확률을 갖도록 하고 이 확률에 따라 원소 하나를 선택. 랜덤 문제 방지

컨볼루션 신경망의 학습을 위한 목적함수
분류 문제 - 교차 엔트로피
회귀 문제
적용 가능 학습 알고리즘
경사 하강법
모멘텀을 고려한 경사 하강법
NAG 방법
AdaGrad 방법: 가중치별로 별도의 학습율 사용. 이미 많이 움직였던 가중치에는 작은 학습율 사용
AdaDelta 방법: AdaGrad 개선. 과거 그레디언트의 영향을 점점 축소
RMSprop 방법
ADAM 방법: 가중치 별 별도의 학습율 사용. 그레디언트 1차 및 2차 모멘텀 사용
SGD(확률적 경사 하강법)이 가장 느림
컨볼루션 신경망 모델
LeNet 모델
AlexNet 모델
8계층의 구조
Conv-Pool-Norm-Conv-Pool-Norm-Conv-Conv-Conv-Pool-FC-FC-FC(SM)
Norm: 인접한 여러 층의 출력 값을 이용하여 출력 값 조정
마지막층: FC(완전연결층), (SM)소프트맥스
ReLU 함수를 사용한 첫 모델
FC 층에 드롭아웃 기법 사용
최대값 풀링 사용
VGGNet 모델
GoogleNet 모델: 인셉션 모듈 사용
ResNet 모델
https://jarikki.tistory.com/26
[알고리즘] 컨볼루션 신경망(CNN, Convolution Neural Network)
CNN은 이미지(영상)를 분석하기 위한 패턴을 찾아 이를 직접 학습하고, 학습한 패턴을 이용하여 이미지를 분류한다. CNN은 Convolution Layer, Pooling Layer(Sub Sampling), Fully Connected Layer 를 사용하여 사람의
jarikki.tistory.com
입력 데이터 크기와 패딩, 스트라이드를 고려하여 출력 데이터의 크기를 계산하는 수식
