AI Business

고객의 데이터 구축 목적에 따라 단일화된 관리 프로세스를 제공하는 서비스입니다.

NVIDIA A100 텐서 코어 GPU

아이튼이 보유한 NVIDIA A100 80GB GPU는 이전 모델 대비 2배 높아진 메모리와 전례 없는 속도와 성능을 제공해 인공지능 가공 및 품질관리를 안정적이고 효과적으로 진행하는데 기여합니다.

Multi-Instance GPU (MIG)

A100 GPU 8개는 56개의 GPU 인스턴스로 구성될 수 있으며, 각 GPU 인스턴스는 고유의 컴퓨팅으로 이용할 수 있습니다. 이는 여러 워크로드를 통해서 서비스의 GPU를 분할하여 사용할 수 있게 만들어 줍니다. 이를 통해서 안정적인 자원 할당을 가능하게 만들어줍니다.

베어메탈 클라우드

가상 머신을 이용하지 않고 직접적으로 서버에 연결할 수 있어 하이퍼바이저의 개입 및 클라우드 이용자 간 간섭으로 인한 성능 저하 없이 온전히 A100 자원을 이용 가능합니다. 대규모의 입출력이 발생하거나 고성능의 자원이 필요한 경우 베어메탈 클라우드가 효과적입니다.

고성능 컴퓨팅

다양한 데이터를 이용하기 위해 데이터에 대한 시뮬레이션이 필요합니다. 빠른 시간 안에 시뮬레이션을 위해서는 고성능 컴퓨터가 필요합니다. 아이튼이 보유한 A100은 배정밀도 텐서코어를 장착하여 HPC용 GPU에서 배정밀도 컴퓨팅을 통해 최대 이정표를 제공합니다. 기존 GPU인 NVIDIA V100텐서코어에서 실행하는 10시간 배정밀도 시뮬레이션을 A100에서는 4시간으로 단축 가능합니다.

딥러닝 트레이닝

빅데이터로 인해 AI모델이 처리해야할 데이터의 양이 증가하는 추세입니다. 빅데이터를 처리하기 위해서는 고사양 성능을 필요로 합니다. A100은 AI 트레이닝용 TF32를 통해 기존 NVIDIA GPU인 V100에 비해 최대 6배 향상된 성능을 제공할 수 있습니다. 이는 요구되는 다양한 스펙트럼(TF32, FP64, FP16, INT8)을 커버 할 수 있게 해주어 코드변경 없이 다양한 AI모델을 채택할 수 있게 해줍니다.

NVIDIA A100 텐서 코어 GPU

아이튼이 보유한 NVIDIA A100 80GB GPU는 이전 모델 대비 2배 높아진 메모리와 전례 없는 속도와 성능을 제공해 인공지능 가공 및 품질관리를 안정적이고 효과적으로 진행하는데 기여합니다.

Multi-Instance GPU (MIG)


A100 GPU 8개는 56개의 GPU 인스턴스로 구성될 수 있으며, 각 GPU 인스턴스는 고유의 컴퓨팅으로 이용할 수 있습니다. 이는 여러 워크로드를 통해서 서비스의 GPU를 분할하여 사용할 수 있게 만들어 줍니다. 이를 통해서 안정적인 자원 할당을 가능하게 만들어줍니다.

베어메탈 클라우드 

가상 머신을 이용하지 않고 직접적으로 서버에 연결할 수 있어 하이퍼바이저의 개입 및 클라우드 이용자 간 간섭으로 인한 성능 저하 없이 온전히 A100 자원을 이용 가능합니다. 대규모의 입출력이 발생하거나 고성능의 자원이 필요한 경우 베어메탈 클라우드가 효과적입니다. 

고성능 컴퓨팅


다양한 데이터를 이용하기 위해 데이터에 대한 시뮬레이션이 필요합니다. 빠른 시간 안에 시뮬레이션을 위해서는 고성능 컴퓨터가 필요합니다. 아이튼이 보유한 A100은 배정밀도 텐서코어를 장착하여 HPC용 GPU에서 배정밀도 컴퓨팅을 통해 최대 이정표를 제공합니다. 기존 GPU인 NVIDIA V100 텐서코어에서 실행하는 10시간 배정밀도 시뮬레이션을 A100에서는 4시간으로 단축 가능합니다.

딥러닝 트레이닝


빅데이터로 인해 AI모델이 처리해야할 데이터의 양이 증가하는 추세입니다. 빅데이터를 처리하기 위해서는 고사양 성능을 필요로 합니다. A100은 AI 트레이닝용 TF32를 통해 기존 NVIDIA GPU인 V100에 비해 최대 6배 향상된 성능을 제공할 수 있습니다. 이는 요구되는 다양한 스펙트럼(TF32, FP64, FP16, INT8)을 커버 할 수 있게 해주어 코드변경 없이 다양한 AI모델을 채택할 수 있게 해줍니다.