본문 바로가기

공부/컴퓨터

[Vultr] VPS Instance Type 별 CPU 속도 확인

Vultr

VPC Instance에서 CPU는 어떤것을 사용할까?

  • Vultr는 4가지 Type의 Instance를 지원해 준다. ( Cloud Compute, High Frequency, Bare Metal, Dedicated Cloud )

  • 당연히 High FrequencyCloud Compute보다는 빠르겠지... 하지만 얼마나 빠른지, 혹은 Cloud Compute에서 충분한 속도가 난다면 굳이 더 비싼 제품을 고를 필요가 있을까?
  • 그래서 각 제품의 /proc/cpuinfo 정보를 확인해 보았다.

Cloud Compute

  • 한국 리전에서 만들수 있어서, 1vCPU, 1GByte RAM으로 만들어서 확인했다.
  • CPU는 Cascadelake를 사용하고 있으며, 속도는 3GHz, 캐시는 16MByte 이다.
  • flags 쪽에 보면, avx512를 지원하는것을 알 수 있다.

High Frequency

  • 한국 리전에서 만들수 있어서, 1vCPU, 1GByte RAM으로 만들어서 확인했다.
  • CPU는 Skylake, IBRS를 사용하고 있으며, 속도는 3.7Ghz, 캐시는 16Mbyte 이다.
  • flag 쪽을 봐도 avx2까지만 지원하지, avx512를 지원하지 않는다.

Bare Metal

  • Bare Metal은 현재 몇군데의 리전에서만 지원하는데, 그것도 다 Sold out 상태라서 체크하지 못함

Dedicated Cloud

  • Dedicated Cloud는 아시아에 일본 밖에 없어서 일본에 있는 것으로 확인했다. 2vCPU, 8GByte RAM으로 만들어서 확인했다.
  • CPU는 Haswell, no TSX, IBRS를 사용하고 있으며, 속도는 3.6Ghz, 캐시는 16MByte이다.
  • flag 쪽을 봐도 avx2까지만 지원하지, avx512를 지원하지 않는다.

정리

  • 일반적인 상황이라면 Cloud Compute 를 사용하면 될 듯 하다. 우선 Cloud Compute를 사용해 봐라.
  • 더 빠른 속도가 필요하다면 High Frequncey를 사용하면 된다.
  • Dedicated Cloud 는 걍 쓰지 않아도 될 듯 하다.

참고 - AVX가 뭔데?

  • CPU 비교를 할 때, 속도나 캐시 같은것만 보면 되지 왜 자꾸 AVX 관련 이야기를 할까?
  • AVX(Advanced Vector Extensions)는 Intel에서 계산을 빨리 하도록 만들어둔, x86 확장 명령어 집합이다.
  • Intel에서 만든 확장 명령어 집합이니깐, AMD에는 지원하지 않는 명령어다.
  • AVX가 있으면 뭐가 좋냐면, 이름 그대로 Vector 연산을 빠르게 할 수 있도록 도움을 준다.
  • AVX2는256bit 단위로 빠르게 연산할 수 있고, AVX512는 512bit 단위로 빠르게 연산할 수 있다.
  • 아래 그림을 보면 이해가 빠를 것이다. 사진 아래에 있는 링크를 클릭해서 동영상을 보는것을 추천한다.

그럼 인공지능에는 어떤게 좋을까?

  • AVX는 Vector 연산에 효율적이라고 하니, 무언가 계산이 많은 인공지능에서도 도움이 될 듯 하다.
  • 그럼 인공지능 엔진을 돌릴때 AVX를 사용하면 좀 더 빠르지 않을까?

Tensorflow에서 Intel AVX 사용하기

  • 더 이상 알아 보는건 Vultr 속도 측정이랑 큰 상관이 없으므로, 여기서 멈춤. ㅎ.

또 참고

  • 네이버클라우드에서도 AVX512를 지원하는 CPU를 사용한다고 광고 ( 물론, Intel이랑 협약을 맺었으니 광고하는거겠지? ㅎ )
  • 관련링크 : https://www.ncloud.com/intel