AI

신경망

Beomsu Koh 2023. 7. 20.
- 모든 인식 작업을 벡터 형태로 변환 처리
- 가장 간단한 [[Machine Learning|머신 러닝]] 모델

쌓아올라가는 뉴런의 이미지
신경망은 인간 뇌를 모방한 알고리즘의 집합으로, 모든 인식 작업은 벡터 형태로 변환되어 처리됩니다.

이는 군집화와 분류를 보조하는 역할을 하며, 가장 간단한 머신 러닝 모델로 볼 수 있습니다.
신경망은 많은 다른 머신 러닝 모델의 기초가 됩니다.

가장 기본적인 신경망은 퍼셉트론이라 불리며, 이는 입력 데이터의 벡터를 받아 단일 이진 값을 출력하는 것입니다.

계층 (Layers)

신경망은 크게 세 가지 계층으로 구성됩니다.

  • 입력 계층 (Input Layer)
    • 데이터로 표시된 입력 벡터를 받습니다
    • 각 뉴런은 데이터의 고유한 특징 열을 나타내며
    • 이 계층의 크기는 데이터의 형태에 따라 결정됩니다.
  • 은닉 계층 (Hidden Layer)
    • 신경망의 계산 엔진입니다.
    • 각 뉴런은 이전 계층의 값을 가중합과 비선형 활성화 함수를 통해 변환합니다.
  • 출력 계층 (Output Layer)
    • 마지막 은닉 계층의 값을 받아 출력 값으로 변환합니다.
    • 출력 계층의 목적은 해결하려는 문제 유형에 적합한 형식의 값을 출력하는 것입니다.

뉴런 (Neurons)

뉴런은 신경망 계산의 기본 단위로, 다른 노드나 외부 소스에서 입력을 받아 출력을 계산합니다.
각 입력에는 중요도에 따라 가중치가 존재합니다.

활성화 함수 (Activation Functions)

  • sigmoid 함수: 실수 값을 입력받아 0과 1 사이의 값으로 압축합니다.
  • Tanh: 실수 값을 입력받아 -1과 1 사이의 값으로 압축합니다.
  • ReLU (Rectified Linear Unit): 실수 값을 입력받아 0 이하는 0으로 대체합니다.

부족한 점이나 잘못 된 점을 알려주시면 시정하겠습니다 :>

'AI' 카테고리의 다른 글

ReLU  (0) 2023.07.20
왜 딥러닝이 뜨고 있을까  (0) 2023.07.20
역전파(Back-propagation)  (0) 2023.07.19
Back-propagation and Autograd  (0) 2023.07.18
평균 제곱 오차 (Mean Squared Error, MSE)  (0) 2023.07.17

댓글