반응형
1. Tensor 생성 및 변환
- torch.flatten(): 텐서를 1차원으로 평탄화
- torch.stack(): 텐서를 새로운 차원에 쌓기
- torch.cat(): 텐서들 연결
- torch.unsqueeze(): 텐서의 차원을 추가
- torch.squeeze(): 텐서에서 크기가 1인 차원을 제거
- torch.arange(): 지정한 범위의 값으로 텐서 생성
- torch.linspace(): 지정한 범위에서 동일 간격으로 값을 가지는 텐서 생성
- torch.ones(): 1로 채워진 텐서 생성
- torch.zeros(): 0으로 채워진 텐서 생성
- torch.tensor(): 주어진 데이터를 텐서로 변환
- torch.eye(): 단위행렬 생성
2. 난수 생성
- torch.randint(): 지정한 범위 내의 정수 난수로 텐서 생성
- torch.randn(): 표준 정규 분포에서 샘플링된 난수로 텐서 생성
- torch.rand(): 0과 1 사이의 균등 분포에서 난수로 텐서 생성
3. 수학 연산
- torch.add(): 두 텐서의 요소별 덧셈
- torch.sub(): 두 텐서의 요소별 뺄셈
- torch.mul(): 두 텐서의 요소별 곱셈
- torch.div(): 두 텐서의 요소별 나눗셈
- torch.exp(): 텐서의 각 요소에 대해 자연 지수 함수 계산
- torch.log(): 텐서의 각 요소에 대해 자연 로그 계산
- torch.sum(): 텐서의 합 계산
- torch.mean(): 텐서의 평균 계산
- torch.std(): 텐서의 표준 편차 계산
- torch.min(): 텐서의 최솟값 반환
- torch.max(): 텐서의 최댓값 반환
- torch.argmin(): 텐서에서 최솟값의 인덱스 반환
- torch.argmax(): 텐서에서 최댓값의 인덱스 반환
4. 행렬 연산
5. 신경망 계층
- torch.nn.Linear(): 선형 변환 계층
- torch.nn.Conv2d(): 2D 합성곱 계층
- torch.nn.MaxPool2d(): 2D 맥스 풀링 계층
- torch.nn.ReLU(): ReLU 활성화 함수
6. 손실 함수
7. 최적화 알고리즘
- torch.optim.SGD(): 확률적 경사 하강법(SGD) 최적화
- torch.optim.Adam(): Adam 최적화 알고리즘
- torch.optim.lr_scheduler.StepLR(): 학습률 스케줄러
8. 데이터 처리
9. CUDA 및 GPU 관련
반응형
'함수 설명 > 인공지능 (Pytorch)' 카테고리의 다른 글
[PyTorch] 텐서 요소의 합 계산: torch.sum() 설명 (0) | 2024.08.25 |
---|---|
[PyTorch] 텐서 요소의 평균 계산: torch.mean() 설명 (0) | 2024.08.25 |
[PyTorch] 텐서 요소의 표준 편차 계산: torch.std() 설명 (0) | 2024.08.25 |
[PyTorch] 텐서 요소의 최솟값 계산: torch.min() 설명 (0) | 2024.08.25 |
[PyTorch] 텐서 요소의 최댓값 계산: torch.max() 설명 (0) | 2024.08.25 |