cuda 를 이용한 처리를 하려고 했는데 아래처럼 에러가 발생되었습니다.
raise AssertionError("Torch not compiled with CUDA enabled")
AssertionError: Torch not compiled with CUDA enabled
위 에러를 해결하는 방법을 알아봅니다.
1. torch 버전이 cpu 버전이 경우 발생됩니다.
기존 설치된 pytorch 를 제거합니다.
pip uninstall torch torchvision torchaudio
gpu 버전을 설치합니다.
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
2. torch 버전과 쿠다 버전이 맞지 않는 경우 발생됩니다.
버전은 아래 사이트로 가면 자신의 환경을 선택하면 알맞은 설치 명령을 알려줍니다.
https://pytorch.org/get-started/locally/
참고
로컬에 streamlit 로 llama 3.2 Vision 채팅창 만들기 (0) | 2024.10.15 |
---|---|
CUDA 버전 확인하기 (0) | 2024.10.15 |
로컬에서 Llama 3.2 Vision 돌려보기 (0) | 2024.10.15 |
llama 3.2 Vision 테스트 하기 - HuggingChat Assistants (0) | 2024.10.15 |
PySide6 를 이용해 100만건 데이터 바인딩 및 가상화 (0) | 2024.10.12 |