Lucky Charms Rainbow > 'Coursera' 카테고리의 글 목록 — Hoon's Blog

Coursera

    Neural Networks and Deep Learning [4주차]

    Neural Networks and Deep Learning [4주차]

    강의 목차 심층신경망 심층 L 레이어 신경망 심층 네트우크에서의 순방향 전파 행렬 차원 계산 방법 왜 심층 표현인가? 심층 신경망의 빌딩 블록 순방향 및 역방향 전파 파라미터 vs 하이퍼파라미터 뇌와 어떤 관련이 있을까? 심층 L 레이어 신경망 로지스틱 회귀는 얕은 모델 뒤로 갈수록 5 hidden layers는 깊은 모델이라고 할 수 있습니다. L = 4 (L: 레이어 수, 레이어 수는 입력층을 제외한 나머지 은닉층 + 출력층) $n^{[l]}$은 layer $l$ 유닛 ex) $n^{[1]}$ = 5 $a^{[l]} = g^{[l]}(z^{[l]})$ $w^{[l]} = z^{[l]}$을 계산하기 위한 가중치 심층 네트워크에서의 순방향 전파 행렬 차원 계산 방법 $z^{[1]} = w^{[1]}*x ..

    Neural Networks and Deep Learning [3주차]

    Neural Networks and Deep Learning [3주차]

    강의 목차 얕은 신경망 신경망 개요 앞서 우리는 로지스틱 회귀에서 w, b값을 안다면 z값을 구할 수 있었고 z값을 sigmoid 함수에 넣으면 a값을 구할 수 있었습니다. 이 a는 ŷ이라고도 볼 수 있습니다. 따라서 최종 loss값도 구할 수 있습니다. 신경망에서는 레이어층이 여러개이므로 레이어 순서대로 a값을 구합니다. 단일 신경망 표현 신경망의 레이어는 입력층, 은닉층, 출력층으로 나뉩니다. $ a_{2}^{[1]}$에서 [1]은 두번째 레이어를 칭하고, 2값은 해당 레이어의 노드를 나타냅니다. 레이어의 순서는 index와 같이 0부터 시작합니다. 여러 예제에서 백터화하기 X에 대한 최종 ŷ값을 구하려면 순차적으로 구해나가야 합니다. 위 그림에서는 $a^{[2]}$값이 최종 ŷ값이 됩니다. 따..

    Neural Networks and Deep Learning [2주차]

    Neural Networks and Deep Learning [2주차]

    강의 목차 신경망으로서의 로지스틱 회귀 파이썬과 벡터화 1. 신경망으로서의 로지스틱 회귀 신경망을 구현할 때 중요한 몇 가지 기술 m개의 훈련 예제를 가진 훈련 세트가 있을 때 훈련 예제에 대해 for문을 돌리며 하나씩 훈련 세트를 처리해 왔을 것 하지만 신경망을 구현할 때 전체 훈련 세트를 for문 없이 처리해야함 순전파, 역전파 로지스틱 회귀 : 이진 분류를 위한 알고리즘 비용 함수 손실 함수(loss function)는 학습 모델(머신러닝 등)의 예측값(ŷ)이 실젯값(y)과의 차이 정도를 수치로 나타내는 함수 비용 함수(cost function)는 모든 입력에 대해 계산한 손실 함수의 평균값으로 계산 수식으로 나타내면 이렇습니다. 또한 로지스틱 회귀는 아주 작은 신경망으로도 볼 수 있다고 합니다...

    Neural Networks and Deep Learning [1주차]

    Neural Networks and Deep Learning [1주차]

    강의 소개 이 강의는 심화과정 5개 강의 중 첫 번째 강의 첫 번째 강의에서는 신경망과 딥러닝의 기본 개념을 학습합니다. 강의 목차 딥러닝 소개 1. 딥러닝 소개 신경망이란? - 집값 예측 예시 집 크기에 따라 가격이 오르는 모습 모양이 ReLU모양 몇 개의 뉴런을 거쳐 가격을 예측할 수 있다. -> 이게 실제 신경망 신경망을 사용한 지도학습 지금까지 신경망에 의해 창출된 거의 모든 경제적 가치는 지도 학습이라는 한가지 유형의 머신 러닝을 통해 만들어진 것 CNN : 이미지 애플리케이션의 경우 CNN으로 약칭되는 컨볼루션 신경망을 사용하는 경우가 많습니다. RNN : 오디오는 시간에 따라 재생되기 때문에 가장 자연스럽게 1차원 시계열 또는 1차원 시간 시퀀스로 표현 그러므로 시퀀스 데이터의 경우 RNN,..