18.인공지능 훈련용 서버 구축하기, CUDA와 cuDNN 설치 인공지능 훈련에 필요한 CUDA Toolkit과 cuDNN 설치 방법

인공지능(AI)과 머신러닝(ML)은 현대 기술 발전의 핵심입니다. 이러한 기술들은 특히 GPU를 사용한 병렬 계산을 통해 그 성능이 크게 향상됩니다. CUDA와 cuDNN은 NVIDIA의 GPU에서 인공지능 모델을 보다 효율적으로 훈련시킬 수 있도록 지원하는 필수 소프트웨어입니다. 본 글에서는 Ubuntu 서버에 CUDA Toolkit과 cuDNN을 설치하는 방법에 대해 자세히 설명하겠습니다.

1. CUDA란?

CUDA(Compute Unified Device Architecture)는 NVIDIA가 개발한 병렬 컴퓨팅 플랫폼이자 프로그래밍 모델로, 개발자가 GPU의 성능을 활용하여 복잡한 계산 작업을 빠르게 수행할 수 있도록 해줍니다. CUDA를 통해 AI 모델의 학습 속도를 크게 향상시킬 수 있습니다.

2. cuDNN이란?

cuDNN은 NVIDIA에서 제공하는 GPU 가속화 라이브러리로, 딥러닝 프레임워크의 성능을 극대화하기 위해 최적화된 함수 집합입니다. TensorFlow, PyTorch, Caffe 등의 딥러닝 라이브러리가 cuDNN을 사용하여 훈련 및 추론 속도를 높일 수 있습니다.

3. 시스템 요구사항

  • 특히 NVIDIA GPU: CUDA를 지원하는 NVIDIA GPU가 필요합니다.
  • 운영 체제: Ubuntu 18.04 이상.
  • 충분한 메모리 및 저장 공간: AI 작업에는 충분한 메모리와 고속 SSD가 권장됩니다.

4. CUDA Toolkit 설치 방법

4.1 NVIDIA GPU 드라이버 설치

CUDA를 설치하기 전에 NVIDIA GPU 드라이버를 설치해야 합니다. 다음은 NVIDIA 드라이버 설치 과정입니다.

sudo apt update
sudo apt install nvidia-driver-

위 명령어에서 을 본인의 GPU 모델에 맞는 드라이버 버전으로 변경해야 합니다. 설치 후 시스템을 재부팅합니다.

4.2 CUDA Toolkit 다운로드

NVIDIA의 공식 웹사이트에서 CUDA Toolkit을 다운로드합니다. 여기를 방문하여 다운로드할 수 있습니다: NVIDIA CUDA Toolkit.

다운로드 페이지에서 ‘Linux’를 선택하고, Ubuntu 버전을 선택한 후 설치 파일을 다운로드합니다.

4.3 CUDA Toolkit 설치

다운로드한 CUDA Toolkit 설치 파일(.run 파일)을 실행합니다. 다음은 설치 과정입니다.

sudo sh cuda__linux.run

설치 중에 여러 옵션이 나오는데, 기본값을 수락하고 드라이버 설치를 건너뜁니다. 설치 후 PATH 환경 변수를 설정합니다.

echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
source ~/.bashrc

4.4 설치 확인

CUDA Toolkit 설치가 완료된 후, CUDA가 제대로 설치되었는지 확인합니다.

nvcc --version

위 명령어를 입력하여 CUDA 버전이 출력되면 설치가 성공적으로 완료된 것입니다.

5. cuDNN 설치 방법

5.1 cuDNN 다운로드

cuDNN을 사용하려면 먼저 NVIDIA 계정이 필요합니다. NVIDIA 개발자 웹사이트에 가입한 후 cuDNN을 다운로드합니다. 여기를 방문하여 다운로드할 수 있습니다: NVIDIA cuDNN.

5.2 cuDNN 설치

다운로드 후, 압축 파일을 풀고 있습니다. 이 후 시스템의 CUDA 디렉토리에 복사합니다. 다음은 설치 과정입니다.

tar -xzvf cudnn--linux-x64-v.tgz
sudo cp cuda/include/cudnn*.h /usr/local/cuda/include
sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*

이제 cuDNN이 CUDA와 함께 설치되었습니다.

6. 환경 변수 설정

cuDNN을 설치한 후, 환경 변수를 다시 설정해야 합니다. ~/.bashrc 파일에 다음 내용을 추가합니다.

echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

7. TensorFlow와 PyTorch 설치

CUDA와 cuDNN이 설치되면, TensorFlow 또는 PyTorch와 같은 딥러닝 프레임워크를 설치할 수 있습니다. 두 프레임워크는 CUDA를 활용하여 GPU 가속 연산을 수행합니다.

7.1 TensorFlow 설치

pip install tensorflow

7.2 PyTorch 설치

PyTorch의 경우, 아래의 명령을 통해 CUDA 버전에 맞는 설치를 진행합니다.

pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu

8. 테스트 및 검증

이제 CUDA와 cuDNN의 설치가 완료되었으니, 설치가 잘 되었는지 확인해야 합니다. TensorFlow 또는 PyTorch에서 GPU가 제대로 인식되는지 검증합니다.

8.1 TensorFlow 확인

import tensorflow as tf
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))

8.2 PyTorch 확인

import torch
print("Is CUDA available: ", torch.cuda.is_available())

9. 결론

이 글에서는 Ubuntu 서버에 인공지능 훈련을 위한 CUDA Toolkit과 cuDNN을 설치하는 방법을 자세히 설명했습니다. 적절히 설치하고 설정하면, 인공지능 모델의 훈련 속도를 크게 향상시킬 수 있습니다. 또한, GPU를 활용하여 대규모 데이터셋을 다루는 데 필요한 시간을 단축할 수 있습니다.

이제 여러분은 인공지능 모델을 훈련시키기 위한 준비가 완료되었습니다. CUDA와 cuDNN의 힘을 빌려 고성능 AI 모델을 구축해보세요!

참고: 모든 설치 과정에서 특정 오류가 발생할 수 있으며, 이를 해결하기 위한 추가적인 조사를 수행해야 할 수도 있습니다. 각 단계에서 제공된 링크와 문서를 참고하여 설치 과정을 최대한 원활하게 진행하시기 바랍니다.