Lucky Charms Rainbow > '분류 전체보기' 카테고리의 글 목록 (8 Page) — Hoon's Blog

분류 전체보기

    Linux (22.11.1)

    Linux (22.11.1)

    1 day UNIX UNIX는 어셈블리어로 작성되어 새로운 CPU가 나올 때마다 거의 새로 작성되어야만 했다. Dennis Ritchie는 Brian Kernighan의 도움으로 B언어를 개량해서 C언얼 개발에 성공 C언어가 개발되며 하드웨어가 달라져도 rebuild 혹은 약간의 수정만으로도 포팅이 가능해졌고, 어셈블리어의 몰락을 가져왔다. 이 UNIX는 AT&T 에서 버클리 대학으로 전달되며 인기가 높아짐. SysV(System five) Unix 계열과 BSD(Berkeley Software Distributuin) UNIX 계열로 경쟁구도가 생김. 두 계열의 경쟁구도로 인해 호환성 문제가 커지게 되어 POSIX(Portable Operating System Interface)라는 UNIX 시스템의 ..

    [리뷰]Densecap: Fully Convolutional Localization Networks for Dense Captioning 번역

    [리뷰]Densecap: Fully Convolutional Localization Networks for Dense Captioning 번역

    Abstract(요약) 저희는 컴퓨터 비전 시스템이 이미지 안에 있는 핵심적인 부분을 자연어로 localize하고 설명해야 하는 고밀도 캡션 작업을 소개합니다. 고밀도 캡션 작업은 하나의 단어로만 이루어진 묘사를 하는 객체 감지와 예측된 영역 하나가 전체 이미지를 커버하는 이미지 캡션을 일반화합니다. Localization 및 설명 작업을 동시에 해결하기 위해 효율적인 포워드 패스(forward pass)로 하나의 이미지를 처리하고 , external regions proposals가 필요하지 않으며 최적화된 싱글 라운드로 end-to-end 학습이 가능한 FCLN(Fully Convolutional Localization Network) 아키텍처를 다룹니다. 이 아키텍처는 새로운 고밀도 localiza..

    신경망 학습 방법

    신경망 학습 방법

    본 글은 「밑바닥부터 시작하는 딥러닝」 책을 공부하고 정리한 내용입니다. 신경망의 학습은 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 얻는 것을 말합니다. 손실 함수는 신경망이 학습할 수 있도록 해주는데 이 손실 함수의 결과값을 가장 작게 만드는 가중치 매개변수를 찾는 것이 목표입니다. 기계학습엔 크게 세 가지의 접근법이 존재합니다. 사람이 생각한 알고리즘으로 결과를 창출 사람이 특징을 설계하고 기계학습 후 결과 창출 인간의 개입없이 딥러닝을 통해 결과 창출 딥러닝은 인간의 개입이 없으므로 종단 간 기계학습이라고도 한다. 기계학습 문제는 훈련 데이터와 시험 데이터로 나눠 학습과 실험을 수행하는 것이 일반적입니다. (먼저 훈련 데이터만 사용하여 학습하면서 최적의 매개변수를 찾고 그 후에 시험 데이..

    신경망, 인간의 두뇌

    신경망, 인간의 두뇌

    본 글은 「밑바닥부터 시작하는 딥러닝」 책을 공부하고 정리한 내용입니다. 이전 글(퍼셉트론)에 이어서 퍼셉트론과 공통점이 많은 신경망에 대해 소개해드리겠습니다. 신경망은 인간이 가중치값을 수동으로 설정해줘야 하는 퍼셉트론과 다르게 가중치값도 자동으로 기계가 학습할 수 있게 합니다. 신경망의 그림입니다. 구조는 입력층, 은닉층, 출력층으로 나눠져 있는데 은닉층의 뉴런(노드)은 사람 눈에 보이지 않습니다. 전 글에서 퍼셉트론 수식에 대해 설명드렸을 때 θ(세타)를 b(편향)으로 치환하여 수식을 나타냈었는데요. 이를 노드로 표현하면 다음과 같습니다. 가중치가 b이고 입력이 1인 뉴런(노드)이 추가됐습니다. 편향의 입력 신호는 항상 1입니다. 편향이 있는 수식인데 조건 분기 동작을 하나의 함수로 만들어 더 간단..

    퍼셉트론(Perceptron) : 딥러닝의 기원

    퍼셉트론(Perceptron) : 딥러닝의 기원

    본 글은 「밑바닥부터 시작하는 딥러닝」 책을 공부하고 정리한 내용입니다. 퍼셉트론이란? 퍼셉트론은 미국의 신경생물학자인 프랑크 로젠블라트가 1957년에 고안했습니다. 퍼셉트론은 초기 형태의 인공 신경망으로, 다수의 입력으로부터 하나의 출력을 내보내는 알고리즘 입니다. 퍼셉트론 알고리즘의 구조는 크게 입력, 가중치, 출력으로 나뉘어져 있습니다. 다음 사진은 n개의 입력을 받은 퍼셉트론의 예 입니다. x는 입력 신호, w는 가중치, y는 출력 신호입니다. 그림에 나와있는 원은 뉴런 혹은 노드라고 부릅니다. 입력 신호가 뉴런에 보내질 땐 각각의 가중치 w가 곱해집니다. 각 입력 신호와 그에 해당되는 가중치의 곱의 전체 합이 임계값(Threshold, θ)을 넘으면 1을 출력하고 그렇지 않으면 0을 출력합니다...

    Chainer: A Deep Learning Framework for Accelerating theResearch Cycle 리뷰

    Chainer: A Deep Learning Framework for Accelerating theResearch Cycle 리뷰

    딥러닝 프레임워크 중 하나인 Chainer에 대해 리뷰를 해보려고 합니다. Chainer 소개 Chainer는 이라는 일본 벤처 기업이 개발한 딥러닝 프레임워크입니다. 특징 ▒ "Define-and-run" vs "Define-by-run" Chainer는 무엇보다도 다른 딥러닝 프레임워크와는 다르게 "Define-by-run" 체계를 기반으로 합니다. Tensorflow, Caffe, Microsoft의 CNTK 모두 정적 그래프 프레임워크이며 "Define-and-run" 체계 기반입니다. "Define-and-run"은 네트워크(또는 계산 그래프)가 정의되고 고정된 후 미니 배치가 고정된 네트워크에 공급되는 형식이고, "Define-by-run"은 미니 배치가 공급되고 네트워크는 순방향 계산을 통..

    BFS(너비 우선 탐색) 알고리즘

    BFS(너비 우선 탐색) 알고리즘

    BFS(Breadth-First Search)란? 그래프 순회 방법이 대표적으로 DFS와 BFS가 있는데 이번 시간에는 BFS를 알아보도록 하겠다! BFS 알고리즘은 출발 노드로부터 가까운 정점을 먼저 방문하고 멀리 떨어져 있는 정점을 나중에 방문하는 순회 방법이다. 그래프 순회 문제 중 최단 경로를 구하는 문제에 많이 쓰이는 알고리즘이다. DFS 알고리즘은 다음 글을 참고하면 된다. https://yhoons.tistory.com/8 DFS(깊이 우선 탐색) 알고리즘 DFS(Depth-First Search)란?? DFS는 한 방향으로 갈 수 있을 때까지 가다가 더 이상 갈 수 없게 되면 가장 가까운 정점으로 되돌아와서 다른 방향으로 진행하는 그래프 순회 방법이다. 그래프 순회 방법 yhoons.ti..

    DFS(깊이 우선 탐색) 알고리즘

    DFS(깊이 우선 탐색) 알고리즘

    DFS(Depth-First Search)란?? DFS는 한 방향으로 갈 수 있을 때까지 가다가 더 이상 갈 수 없게 되면 가장 가까운 정점으로 되돌아와서 다른 방향으로 진행하는 그래프 순회 방법이다. 그래프 순회 방법에는 대표적으로 DFS와 BFS가 있다. DFS 이해하기 DFS 알고리즘을 구현하는 방법에는 인접 리스트를 이용하는 방법, 인접 행렬을 이용한 방법이 있는데 각각 장단점이 존재한다. 인접리스트를 이용했을 때 장점: 모든 노드를 순환하려 할 때 O(N)시간 밖에 걸리지 않는다. 빈 공간이 생기지 않는다. 단점: 인접한 특정 노드를 알고싶을 때 리스트 안에 일일이 찾아봐야한다. 인접 행렬을 이용했을 때 장점: 인접한 특정 노드를 알고싶을 때 2차원 배열에 정보가 저장돼있기 때문에 한 번에 찾..