이전 시간에 torch 에러 해결방법에 대해서 알아봤는데요
이때 CUDA 버전을 확인해야 하는데 그 방법을 알아봅니다.
먼저 cmd 창을 열고 아래 명령을 수행합니다.
nvidia-smi
결과
위 결과를 보면 알수알 수 있듯이 상단 우측에 CUDA Version 이 12.6 임을 알 수 있습니다.
각각 의미하는 바는 아래와 같습니다.
NVIDIA-SMI : nvidia-smi의 버전
Driver Version : nvidia driver 버전 = GPU 버전
CUDA Version : nvidia driver에 사용되기 권장되는 CUDA 버전(현재 버전이 아님)
GPU : GPU에 매겨지는 번호로 0부터 시작
Fan : GPU에 부착된 Fan이 가동되는 속도
Temp : GPU의 온도(섭씨로 표기됨)
Perf: GPU 성능 수준으로 P0부터 P12까지 존재, P0에 가까울수록 성능이 높아짐
Pwr Usage / Cap : GPU가 현재 사용중인 전력 / GPU가 최대로 사용할 수 있는 전력
Bud-Id : GPU가 장착된 PCIe 버스의 주소
Disp.A : 모니터 화면 출력을 해당 GPU로 하고 있는지
Memory-Usage : GPU 메모리 총 용량 대비 현재 사용량
Volatile Uncorr.ECC : GPU가 데이터를 처리하는 과정에서 발생하는 에러들을 나타낸 수치 GPU-Util : GPU 사용량
Compute M : Compute Mode, GPU의 공유 접근 방법. 총 4가지 모드(0~3) 존재 GPU : 특정 Process가 사용하고 있는 GPU 번호
PID : Process ID
Type
G : Graphics, NVIDIA GPU의 graphic-mode를 사용 중
C : Compute, GPU의 compute-mode를 사용함(주로 Tensor flow나 Pytorch 등을 사용하는 deep learning의 학습과 테스트할 때)
C+G : Compute+Graphic, compute-mode와 graphic-mode 함께 사용 Process name : Process 이름
GPU Memory Usage : 해당 Process가 점유하고 있는 GPU memory의 사용량
설치된 CUDA 버전을 아래의 명령으로 확인합니다.
nvcc --version
결과
12.3 버전이 설치된걸 알 수 있습니다.
BitNet - CPU에서 실행되는 LLM 테스트 하기 (0) | 2024.10.22 |
---|---|
로컬에 streamlit 로 llama 3.2 Vision 채팅창 만들기 (0) | 2024.10.15 |
Torch not compiled with CUDA enabled 에러 해결하기 (0) | 2024.10.15 |
로컬에서 Llama 3.2 Vision 돌려보기 (0) | 2024.10.15 |
llama 3.2 Vision 테스트 하기 - HuggingChat Assistants (0) | 2024.10.15 |