AI 시대의 필수품, GPU 그래픽 처리 장치에 대한 모든 것

전 세계가 최신 AI 기술을 활용하기 위해 서두르는 가운데, 그래픽 처리 장치(GPU)라는 첨단 하드웨어가 놀랍도록 인기 있는 상품으로 떠오르고 있습니다.

최고급 GPU는 수만 달러에 판매되고 있으며, 선도적인 제조업체인 엔비디아는 제품 수요가 급증하면서 시장 가치가 2조 달러를 넘어섰습니다.

GPU는 하이엔드 AI 제품에만 사용되는 것이 아닙니다. 휴대폰, 노트북, 게임 콘솔 등에도 덜 강력한 GPU가 탑재되어 있습니다.

AI 시대의 필수품, GPU 그래픽 처리 장치에 대한 모든 것

그래픽 처리 장치 GPU란?

GPU는 원래 비디오 게임이나 컴퓨터 지원 디자인 소프트웨어와 같은 복잡한 3D 장면과 물체를 빠르게 생성하고 표시하기 위해 설계되었습니다. 최신 GPU는 비디오 스트림 압축 해제와 같은 작업도 처리합니다.

대부분의 컴퓨터의 ‘두뇌’는 중앙 처리 장치(CPU)라는 칩입니다. CPU는 그래픽 장면을 생성하고 동영상 압축을 해제하는 데 사용할 수 있지만, 일반적으로 이러한 작업에서는 GPU에 비해 훨씬 느리고 효율성이 떨어집니다. CPU는 워드 프로세싱이나 웹 페이지 탐색과 같은 일반적인 연산 작업에 더 적합합니다.

GPU CPU 차이점

일반적인 최신 CPU는 8~16개의 ‘코어’로 구성되며, 각 코어는 복잡한 작업을 순차적으로 처리할 수 있습니다.

반면 GPU는 수천 개의 비교적 작은 코어가 있으며, 이 코어들은 모두 동시에(병렬) 작동하도록 설계되어 전체 처리 속도가 빠릅니다. 따라서 여러 개의 간단한 작업을 차례대로 수행하지 않고 동시에 수행할 수 있는 작업에 적합합니다.

기존 GPU는 크게 2가지 종류가 있습니다.

1. 대형 데스크톱 컴퓨터용 추가 슬롯에 카드로 제공되는 독립형 칩이 있습니다.
2. 동일한 칩 패키지에 CPU와 결합된 GPU로, 노트북이나 PlayStation 5와 같은 게임 콘솔에서 흔히 볼 수 있습니다.
두 경우 모두 CPU가 GPU의 기능을 제어합니다.

GPU가 AI에 유용한 이유?

GPU는 그래픽 장면을 생성하는 것 이상의 기능을 수행하도록 용도를 변경할 수 있는 것으로 밝혀졌습니다.

심층 신경망과 같은 인공지능의 기반이 되는 많은 머신 러닝 기술은 다양한 형태의 행렬 곱셈에 크게 의존합니다. 행렬 곱셈은 매우 큰 숫자 집합을 곱하고 합하는 수학적 연산입니다. 이러한 연산은 병렬 처리에 적합하므로 GPU를 통해 매우 빠르게 수행할 수 있습니다.

GPU 다음 단계는?

코어 수와 작동 속도의 증가로 인해 GPU의 연산 능력은 꾸준히 향상되고 있습니다. 이러한 개선은 주로 대만의 TSMC와 같은 회사의 칩 제조 기술 향상에 힙입은 바가 큽니다.

컴퓨터 칩의 기본 구성 요소인 개별 트랜지스터의 크기가 줄어들면서 동일한 물리적 공간에 더 많은 트랜지스터를 배치할 수 있게 되었습니다. 하지만 이것이 전부는 아닙니다. 기존 GPU는 AI 관련 연산 작업에는 유용하지만 최적이라고 할 수는 없습니다.

GPU가 원래 그래픽에 특화된 프로세싱을 제공하여 컴퓨터를 가속화하도록 설계된 것 처럼, 머신 러닝 작업의 속도를 높이도록 설계된 가속기가 있습니다. 이러한 가속기를 데이터 센터 GPU라고도 합니다.

가장 인기 있는 가속기 중 일부는 AMD 및 엔비디아와 같은 회사에서 만든 것으로, 처음에는 전통적인 GPU로 시작되었습니다. 시간이 지남에 따라 보다 효율적인 “브레인 플로트” 숫자 형식을 지원하는 등 다양한 머신 러닝 작업을 더 잘 처리하도록 설계가 발전했습니다.

구글의 텐서 처리 장치와 Tenstorrent의 텐식스 코어와 같은 다른 가속기는 개발 단계에서 심층 신경망의 속도를 높이도록 설계되었습니다.

데이터센터 GPU 및 기타 AI 가속기는 일반적으로 기존 GPU 추가 슬립 카드보다 훨씬 더 많은 메모리를 제공하며, 이는 대규모 AI 모델을 훈련하는 데 매우 중요합니다. AI 모델이 클수록 더 뛰어난 성능과 정확성을 제공합니다.

훈련 속도를 더욱 높이고 ChatGPT와 같은 더 큰 AI 모델을 처리하기 위해 많은 데이터 센터 GPU를 함께 풀링 하여 슈퍼컴퓨터를 구성할 수 있습니다. 이를 위해서는 사용 가능한 연산 능력을 제대로 활용하기 위해 더 복잡한 소프트웨어가 필요합니다. 또 다른 접근 방식은 Cetebras에서 생산한 ‘웨이퍼 스케일 프로세서’와 같은 단일 초대형 가속기를 만드는 것입니다.

특수 칩이 미래인가

CPU도 가만히 있지 않았습니다. AMD와 인텔의 최신 CPU에는 심층 신경망에 필요한 숫자 처리 속도를 높여주는 하위 수준 명령어가 내장되어 있습니다. 이 추가 기능은 주로 ‘추론’ 작업, 즉 이미 다른 곳에서 개발된 AI 모델을 사용하는 데 도움이 됩니다.

처음에 AI 모델을 훈련하려면 여전히 대형 GPU와 같은 가속기가 필요합니다.

특정 머신러닝 알고리즘을 위해 더욱 특화된 가속기를 만들 수도 있습니다. 예를 들어, 최근 Groq이라는 회사는 ChatGPT와 같은 대규모 언어 모델을 실행하기 위해 특별히 설계된 ‘언어 처리 장치(LPU)’를 생산했습니다.

하지만 이러한 특수 프로세서를 제작하려면 상당한 엔지니어링 리소스가 필요합니다. 역사적으로 볼 때 특정 머신러닝 알고리즘 사용량과 인기는 정점을 찍었다가 감소하는 경향이 있으므로 고가의 특수 하드웨어는 금방 구식이 될 수 있습니다.

하지만 일반 소비자에게는 문제가 되지 않을 것입니다. 여러분이 사용하는 제품의 GPU와 기타 칩은 조용히 계속 빨라질 가능성이 높습니다.

< 참고: What Is a GPU? The Chips Powering the AI Boom, and Why They’re Worth Trillions >

📌 관련된 글

Leave a Comment