728x90

시그모이드 2

파이썬 교육 Day 41(+ 신경망 출력층 설계, 신경망의 사용처, 소프트맥스 함수 구현, softmax의 특징, 소프트맥스 함수 튜닝, 출력층의 뉴런 수 정하기, MNIST 손글씨 데이터셋 분류 추론 모델 만들기..

신경망의 사용처 모든 머신러닝에 사용될 수 있다. 분류와 회귀를 알아보자 출력층의 활성화 함수에 따라서 목적(사용처)이 달라진다. ( 분류를 할지, 회귀를 할지 ) 일반적으로 항등 함수( identity function )을 활용하면 회귀 softmax 또는 시그모이드(σ)를 활용하면 분류 시그모이드(σ) : 이진분류 소프트맥스 : 이진, 다중 분류 소프트맥스 함수 구현하기 k : k번째 출력 ( 클래스 번호 ) 0, 1, 2 .... z : 출력층에 있는 뉴런의 WX+b 연산 n : 전체 클래스의 개수 softmax의 특징 어떠한 실수 배열이 softmax를 지나게 되면 그 배열의 총합이 언제나 1.0이 된다. 총 합이 1.0 이라는 것의 특징 : 확률로써 설명이 가능하다 소프트맥스 함수 튜닝 소프트맥..

파이썬 교육 Day 39(+ 신경망, 활성화 함수, 퍼셉트론, 시그모이드, ReLU(Rectified Linear Unit), 하이퍼볼릭 탄젠트(tanh) 등)

신경망의 등장 다층 퍼셉트론은 단층 퍼셉트론으로는 계산 할 수 없는 복잡한 함수들을 표현할 수 있다. 다층 퍼셉트론을 층처럼 겹겹이 쌓은 것을 인공 신경망(Artificial Neural Network) 활성화 함수 인공 신경망의 퍼셉트론을 유닛, 노드, 뉴런이라고 표현 퍼셉트론의 결과물은 0 또는 1로만 출력 되는 것 0이나 1 뿐만이 아닌 유닛이 다양한 계산을 할 수 있게끔 값을 조정해 주는 것이 활성화 함수 함수 a를 활성화 함수(Activation Function)라고 하며, 각 입력값에 대한 활성화 함수를 적용시켜 최종적으로 y값이 결정지어지게 된다. 우리가 여기서 배울건?? 단순하게 0과 1로만 표현하는 계단 함수 u를 넘어서,다양한 값( 실숫값 )으로 표현이 가능한 활성화 함수를 배운다. 뉴..

728x90