- 모든 인식 작업을 벡터 형태로 변환 처리
- 가장 간단한 [[Machine Learning|머신 러닝]] 모델
신경망은 인간 뇌를 모방한 알고리즘의 집합으로, 모든 인식 작업은 벡터 형태로 변환되어 처리됩니다.
이는 군집화와 분류를 보조하는 역할을 하며, 가장 간단한 머신 러닝 모델로 볼 수 있습니다.
신경망은 많은 다른 머신 러닝 모델의 기초가 됩니다.
가장 기본적인 신경망은 퍼셉트론이라 불리며, 이는 입력 데이터의 벡터를 받아 단일 이진 값을 출력하는 것입니다.
계층 (Layers)
신경망은 크게 세 가지 계층으로 구성됩니다.
- 입력 계층 (Input Layer)
- 데이터로 표시된 입력 벡터를 받습니다
- 각 뉴런은 데이터의 고유한 특징 열을 나타내며
- 이 계층의 크기는 데이터의 형태에 따라 결정됩니다.
- 은닉 계층 (Hidden Layer)
- 신경망의 계산 엔진입니다.
- 각 뉴런은 이전 계층의 값을 가중합과 비선형 활성화 함수를 통해 변환합니다.
- 출력 계층 (Output Layer)
- 마지막 은닉 계층의 값을 받아 출력 값으로 변환합니다.
- 출력 계층의 목적은 해결하려는 문제 유형에 적합한 형식의 값을 출력하는 것입니다.
뉴런 (Neurons)
뉴런은 신경망 계산의 기본 단위로, 다른 노드나 외부 소스에서 입력을 받아 출력을 계산합니다.
각 입력에는 중요도에 따라 가중치가 존재합니다.
활성화 함수 (Activation Functions)
- sigmoid 함수: 실수 값을 입력받아 0과 1 사이의 값으로 압축합니다.
- Tanh: 실수 값을 입력받아 -1과 1 사이의 값으로 압축합니다.
- ReLU (Rectified Linear Unit): 실수 값을 입력받아 0 이하는 0으로 대체합니다.
부족한 점이나 잘못 된 점을 알려주시면 시정하겠습니다 :>
'AI' 카테고리의 다른 글
ReLU (0) | 2023.07.20 |
---|---|
왜 딥러닝이 뜨고 있을까 (0) | 2023.07.20 |
역전파(Back-propagation) (0) | 2023.07.19 |
Back-propagation and Autograd (0) | 2023.07.18 |
평균 제곱 오차 (Mean Squared Error, MSE) (0) | 2023.07.17 |