rbm 예제

https://github.com/deeplearning4j/dl4j-examples/blob/master/dl4j-examples/src/main/java/org/deeplearning4j/examples/unsupervised/deepbelief/DeepAutoEncoderExample.java 그것은 사전에 주의해야한다 (에이 사실을 입증하기 전에 실제 예) RBM의 각 뉴런은 0 또는 1의 이진 상태로만 존재할 수 있습니다. 가장 흥미로운 요소는 숨겨진 또는 가시층 뉴런이 상태 1에 있을 확률입니다- 따라서 활성화됩니다. 입력 벡터 v가 활성화되는 단일 숨겨진 뉴런 j에 대한 확률은 다음과 같습니다 네트워크가 수렴될 때까지 계속(즉, 교육 예제와 재구성 사이의 오차가 일부 임계값 이하로 떨어짐) 또는 최대 수에 도달합니다. 신 기원. 에너지 기반 모델은 관심 있는 변수의 각 구성에 스칼라 에너지를 연결합니다. 학습은 그 모양이 바람직한 특성을 가지도록 에너지 함수를 수정하는 것에 해당합니다. 예를 들어, 우리는 낮은 에너지를 가지고 그럴듯하거나 바람직한 구성을 원하고 싶습니다. 에너지 기반 확률 모델은 다음과 같이 에너지 함수를 통해 확률 분포를 정의합니다: p(hj)는 숨겨진 단위의 확률입니다. 그리고 모든 값을 함께 확률 분포라고 합니다.

RBM은 입력 X를 사용하여 숨겨진 노드 활성화에 대한 예측을 합니다. 예를 들어 첫 번째 학습 항목에 대한 hp 값이 [0.51 0.84]라고 가정해 보겠습니다. 이 예제에서는 판타지 장르를 나타내는 숨겨진 뉴런만 활성화됩니다. 영화 등급을 감안할 때 제한된 Boltzmann 기계는 사용자가 판타지를 가장 좋아한다는 것을 올바르게 인식했습니다. 그렇다면 네트워크에서 연결 가중치를 어떻게 배울 수 있을까요? 각 학습 예제가 사용자의 동영상 기본 설정에 해당하는 6개의 요소가 있는 이진 벡터인 학습 예제가 있다고 가정해 보겠습니다. 그런 다음 각 시대에 대해 다음을 수행합니다: 참고 : RbM은 데이터의 기본 구조를 학습하는 스토커틱 접근 방식을 사용하는 반면, autoencoders는 결정적 접근 방식을 사용합니다. 여기서는 Markov 체인의 n번째 단계에서 숨겨진 모든 단위 집합을 나타냅니다. 즉, 예를 들어, 무작위로 1(대 0)으로 확률이 선택되고 마찬가지로 확률이 있는 1(대 0)으로 임의로 선택된다는 것입니다. 많은 사용자에게 0-100 규모의 영화 세트를 평가하도록 요청한다고 가정해 보세요.

고전적인 요인 분석에서는 잠재 요소 집합의 관점에서 각 영화와 사용자를 설명하려고 할 수 있습니다. 예를 들어, 스타워즈와 반지의 제왕 과 같은 영화는 잠재 공상 과학 소설 및 판타지 요소와 강한 연관성을 가질 수 있으며, Wall-E및 Toy Story를 좋아하는 사용자는 잠재 픽사 요소와 강한 연관성을 가질 수 있습니다. 이 예제에서는 5개의 제품과 5명의 고객이 있습니다.

Comments are closed.