로운's 기술노트

딥러닝을 위한 GPU 세팅 (Window 기준) 본문

내배캠_데이터분석가_'24.04~08/파이썬

딥러닝을 위한 GPU 세팅 (Window 기준)

로운's 2024. 6. 20. 00:46

    <설치 순서>

  1. CUDA 다운로드 및 설치
  2. cuDNN 다운로드 및 설치
  3. Python 설치
  4. Tensor Flow 설치
  5. Tensor Flow GPU 인식 확인

ㅇ 적용 예시 (하위 4종의 버전 호환이 중요!)

CUDA Toolkit NVIDIA에서 제공하는 병렬 컴퓨팅 플랫폼 11.2 CUDA 다운로드
cuDNN 딥러닝을 위한 NVIDIA의 GPU 가속 라이브러리 8.1 cuDNN 다운로드
Python 범용 프로그래밍 언어 3.8.6 Python 다운로드
TensorFlow 오픈 소스 딥러닝 프레임워크(or PyTorch) 2.10.0 TensorFlow 설치 가이드

ㅇ 준비

  • 하드웨어 준비
    • GPU가 장착된 컴퓨터를 준비합니다. NVIDIA GPU
  • 드라이버 설치
    • NVIDIA 최신 드라이버를 설치합니다. 이는 GPU가 제대로 동작하기 위해 필수입니다.
    • NVIDIA 드라이버 다운로드 페이지에서 적절한 드라이버를 다운로드하고 설치합니다.
    •  

ㅇ 설치

1. pc에 호환되는 'CUDA ' 버전확인 및 설치 (1시 방향)

 - 최신버전의 호환성 이슈로 11.2 이상인 경우는 11.2로 진행!!

nvidia-smi

 

2. cuDNN 설치

  2-1. CUDA 에 맞는 버전의 cuDNN을 다운로드

  2-2. CUDA설치 경로에 설치(덮어쓰기)

  - 기본 경로 : C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v1x.x

  2-3. 환경 변수 설정

  • CUDA와 cuDNN이 설치된 경로를 환경 변수에 추가(Windows 기준)
    • "내 PC" -> "속성" -> "고급 시스템 설정" -> "환경 변수"에서 변수에 CUDA 및 cuDNN 경로를 추가합니다. PATH
# 시스템 환경 변수 설정
CUDA_PATH: CUDA 설치 경로 (C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v1x.x)

# PATH: 다음 경로를 포함
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v1x.x\bin
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v1x.x\libnvvp
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v1x.x\extras\CUPTI\lib64

 

3. 호환되는 Python 설치

 

4. Tensor Flow 설치 : 가상 환경을 생성할 디렉토리로 이동하여 명령 프롬프트에서 다음 명령어를 실행

# 4-1.파일 위치로 이동
cd C:\Users\XXX

# 4-2.가상 환경 생성(e.g. myvenv)
python -m venv myvenv

# 4-3.가상 환경 활성화(e.g. myvenv)
myvenv\Scripts\activate

# 4-4.가상 환경이 활성화된 상태에서 TensorFlow GPU 버전을 설치
pip install tensorflow-gpu

# 4-5. (4-4)TensorFlow GPU 설치가 안될 경우, 아래 명령어 실행 후 4-4 재실행
pip install --upgrade pip

# (참고) 특정 버전의 TensorFlow GPU 설치(e.g. 2.4.0)
pip install tensorflow-gpu==2.4.0

 

5. Tensor Flow GPU 인식 확인 

- Visual Studio Code와 같은 로컬 IDE의 터미널을 통해 확인

- 아래와 같이 GPU가 식별되면 성공, 식별되지 않으면 다시 CUDA 버전부터 확인!!

import tensorflow as tf
print("Num GPUs Available: ", len(tf.config.list_physical_devices('GPU')))

 

이러면 성공!!!!!

이렇게 장장 6시간짜리 경험이었다

 

# 각각 설치된 툴의 버전 확인 방법

# 1. CUDA 버전 확인
nvcc --version

# 2. cuDNN 버전 확인
cat /usr/include/cudnn_version.h | grep CUDNN_MAJOR -A 2

# 3. Python 버전 확인
python --version

# 4. TensorFlow 버전 확인
import tensorflow as tf
print(tf.__version__)

# 5. PyTorch 버전 확인
import torch
print(torch.__version__)
Comments