2 augusti, 2019 Inopto_AB

pytorch 예제

로그 확률이 가장 높은 값은 입력 이미지를 고려할 때 네트워크가 가장 가능성이 높은 것으로 간주하는 숫자입니다. 위의 net_out.data의 예에서 최대값인 -5.9817e-04값은 숫자 ”7”에 해당합니다. 따라서 이 샘플의 경우 예측 된 숫자는 ”7”입니다. .max(1) 함수는 두 번째 차원에서 이 최대값을 결정합니다(첫 번째 차원에서 최대값을 원한다면 인수0을 제공함) 발견된 최대값과 이 최대값이 발견된 인덱스를 모두 반환합니다. 따라서 크기 (batch_size, 2)를 가지므로 이 경우 최대 값이 발견되는 인덱스에 관심이 있으므로 .max(1)[1]를 호출하여 이러한 값에 액세스합니다. 이것은 분명히 고안된 예이지만 유용한 것을 추가하지 않고 기본 모델을 거의 래핑하고 있으므로 개념을 잘 보여줍니다. 완전히 연결된 신경망 예제 아키텍처 이 예제에서는 ReLU 비선형을 수행하기 위한 사용자 지정 자동 그라드 함수를 정의하고 이를 사용하여 2계층 네트워크를 구현하는 데 사용합니다. 공식 문서에서 언급한 단계를 수행하고 시스템 사양에 따라 명령을 실행할 수 있습니다. 예를 들어, 이것은 내가 선택한 옵션에 기초하여 사용한 명령이었다 : PyTorch는 torch.nn 모듈에서 사용할 수있는 많은 표준 손실 함수와 함께 제공됩니다. 다음은 교차 엔트로피 손실을 계산하는 방법의 간단한 예입니다. 모델이 C 레이블을 사용하면 다중 클래스 분류 문제를 해결한다고 가정해 보겠습니다. 그런 다음 크기 N의 일괄 처리에 대해 모델을 통해 입력 배치를 전달하여 얻은 치수 NxC의 PyTorch 변수가 out입니다. 또한 크기 N의 대상 변수가 있는데, 여기서 각 요소는 해당 예제의 클래스인 [0,…,C-1]의 레이블입니다.

손실 함수를 정의하고 다음과 같이 손실을 계산할 수 있습니다. 그리고 네, 나는 계산 자체가 완전히 말도 안되는 것을 알고 … 이 전주곡은 당신에게 다가올 것들에 대한 감각을 주어야 합니다. PyTorch는 미니멀하고 직관적인 구문으로 우아함과 표현력을 담고 있습니다. 앞으로 나아가기 전에 리소스 섹션의 몇 가지 예제를 숙지하십시오. 다음은 PyTorch의 간단한 추가 작업의 예입니다: 이것은 우리 자신의 손실 함수를 작성하는 매우 간단한 예입니다. NLP의 섹션에서사용자 지정 손실 함수의 흥미로운 사용을 살펴보겠습니다. 딥 러닝 라이브러리에 대해 가장 먼저 이해해야 할 것은 계산 그래프의 아이디어입니다. 계산 그래프는 노드라고 하는 계산 집합이며 이러한 노드는 계산의 방향 순서로 연결됩니다. 즉, 일부 노드는 입력에 대한 다른 노드에 종속되며 이러한 노드는 차례로 계산 결과를 다른 노드로 출력합니다.

계산 $a 대한 계산 그래프의 간단한 예 = (b + c) * (c + 2)$는 아래에서 볼 수 있습니다 – 우리는 다음 단계 / 노드로이 계산을 깰 수 있습니다 : 나는 완전히 루이스에 동의합니다.

Kontakta oss!