본문 바로가기

딥러닝

(19)
2장 : 퍼셉트론 2.1 퍼셉트론이란? 다수의 신호를 입력으로 받아 하나의 신호를 출력 신호 : 흐름을 만들고 정보를 앞으로 전달 0 : 신호가 흐르지 않는다 /1: 신호가 흐른다 노드(뉴런), 가중치, 임계값으로 구성 임계값 : 뉴런에서 보내온 신호의 총합이 정해진 한계를 넘어설 때만 1을 출력 2.2 단순한 논리 회로 X1 X2 : 입력 신호 y : 출력 신호 2.2.1 AND 게이트 두 입력이 모두 1일 때만 1 출력, 그 외에는 0 출력 2.2.2 NAND 게이트와 OR 게이트 NAND : 두 입력이 모두 1일 때만 0 출력, 그 외에는 1 출력 OR : 입력 신호 중 하나 이상이 1이면 출력 1 2.3 퍼셉트론 구현하기 2.3.2 가중치와 편향 도입 b (편향) : 뉴런이 얼마나 쉽게 활성화되느냐를 제어 (-임계..
1장 : 헬로 파이썬 1.5.4 1차원 배열 : 벡터 2차원 배열 : 행렬 벡터와 행렬 일반화 : 텐서 1.5.5 브로드캐스트 : 형상이 다른 배열끼리의 계산 import numpy as np A = np.array([[1,2], [3,4]]) A * 10 -> 10 20 30 40 B = np.array([10,20]) A * B -> 10 40 30 80 1.5.6 원소 접근 X = np.array([[51,55], [14, 19], [0,4]]) for row in X: print(row) -> [51 55] [14 19] [0 4] X = X.flatten() #X를 1차원 배열로 변환(평탄화) print(X) -> [51 55 14 19 0 4] X[np.array([0,2,4])] #인덱스가 0,2,4인 원소 얻기..
[논문 리뷰] End-to-End Memory Networks 논문: https://arxiv.org/abs/1503.08895v5 Abstract 구조 : a form of Memory Network, trained ene-to-end, an extension of RNNsearch, multiple computational steps(hops)-> improved results task : question answering, language modeling * Memory network (1) 스토리 문장 Embedding C로 임베딩, 질문 문장 Embedding B로 임베딩 -> 내적을 통해 각 단어 간 유사도 -> 소프트맥스 함수 (2) 스토리 문장 Embedding A로 임베딩 -> 유사도와 덧셈 (어텐션 메커니즘) => 질문 문장과의 유사도를 반영한 스..