ncloud에서 gpu 서버와 tensorflow


(f3wdekj5gb) #1

ncloud 크레딧이 있는데 사용할 이유가 별로 없었습니다


ncloud에서 gpu server를 쓸수있습니다

실제로 들어가보면
cuda 8버전
cudnn 5.1.10이 설치되어있습니다

사용할수있는 버전은 1.2.0입니다

현재 1.9 버전을 사용하고 있어서 API 차이가 많이 납니다.



tensorflow 서버를 제공하지만 월 요금제로 받고 있다

cuda를 재설치하면 될듯하지만 시간이 오래걸리고
문제가 생길수도 있습니다

nvidia-docker를 사용한다면?

image

쿠다 드라이버를 설치하고 docker로 실행하는 기능입니다

image

nvidia gpu cloud에 가입하면
tensorflow와 pytorch 이미지 모두 제공합니다

이미지를 받아서 실행하면 됩니다
docker 이미지가 있으니까 자신에게 맞게 Dockerfile을 build해서 사용해도 좋을듯합니다

docker run --runtime=nvidia --rm nvidia/cuda nvidia-smi

기존 docker처럼 실행하면서 runtime 옵션을 준다

1버전처럼 nvidia-docker해도 똑같이 동작하는듯하다.

실제 사용시에 버전 외에도 다른 차이가 있을까?


cuda 8 + tensorflow 1.2. 버전으로 실행


nvidia-docker + tensorflow 최신

모델과 데이터를 같은걸 사용했는데 성능 차이가 2배 정도 납니다
cuda와 tensorflow 모두 버전이 올라가서 성능이 더 좋아졌을수도 있습니다
nvidia에서 배포한 이미지라서 tensorflow에서 잘 돌아가게 최적화를 했을수도 있습니다.

앞으로 크레딧 50만 정도 남았는데 편안하게 사용할것같습니다


(sh) #2

도커런 하는걸로 보아, 쿠버네티스는 아닌가 보군요.


(f3wdekj5gb) #3

https://kubernetes.io/docs/tasks/manage-gpus/scheduling-gpus/

음 이런것도 있긴 한데 쿠베네티스는 안해봐서 잘 모르겠습니다

Tensorflow 쿠베네티스면 이런걸까요??


(sh) #4

이쪽 분야로는, 저 프로젝트가 거의 유일한 쿠버네티스를 사용하는 것으로 알고 있읍니다.