광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

세계에서 가장 큰 AI 칩은 2조 6천억 개의 트랜지스터와 85 만 개의 코어로 구성된다. 세계에서 가장 큰 AI 칩은 1인치를 추가하지 않고도 사양을 두 배로 늘렸다.

https://singularityhub.com/2021/04/25/the-worlds-biggest-ai-chip-now-comes-stock-with-2-6-trillion-transistors/

JM Kim | 기사입력 2021/04/27 [00:00]

세계에서 가장 큰 AI 칩은 2조 6천억 개의 트랜지스터와 85 만 개의 코어로 구성된다. 세계에서 가장 큰 AI 칩은 1인치를 추가하지 않고도 사양을 두 배로 늘렸다.

https://singularityhub.com/2021/04/25/the-worlds-biggest-ai-chip-now-comes-stock-with-2-6-trillion-transistors/

JM Kim | 입력 : 2021/04/27 [00:00]

Cerebras Systems Wafer Scale Engine은 큰 디너 플레이트 크기이다. 이 모든 표면적은 프로세서에서 메모리에 이르기까지 훨씬 더 많은 모든 것을 가능하게 한다. 2019년에 출시된 첫 번째 WSE 칩에는 1 2천억 개의 트랜지스터와 400,000개의 프로세싱 코어가 있었다. 후속 제품은 물리적 크기를 제외하고 모든 것을 두 배로 늘린다.

WSE-2는 동일한 디너 플레이트에 2 6천억 개의 트랜지스터와 85 만 개의 코어로 구성된다. 온칩 메모리는 18기가 바이트에서 40기가 바이트로 증가했으며, 메모리와 정보를 주고받는 속도는 초당 9페타 바이트에서 20페타 바이트로 빨라졌다.

 

얇게 썰어 놓는 방식은 짐승이다.

WSE-2는 대만 반도체 제조 회사 (TSMC)에서 제조했으며, TSMC 16 나노 칩 제조 공정에서 7나노 공정으로 이동하여 10나노 노드를 건너 뛰고 대부분의 WSE-2 이득을 가능하게 했다.

이를 위해서는 칩의 물리적 설계를 변경해야 했지만 Cerebras는 새로운 프로세스를 작동하는 데 필요한 것 이상으로 각 코어를 개선했다고 말한다. 업데이트 된 메가 칩은 훨씬 빠르고 효율적이어야 한다.

 

왜 거대한 컴퓨터 칩을 만드는가?

그래픽 처리 장치(GPU)는 여전히 인공지능 분야에서 우위를 차지하고 있지만, 특히 AI를 위해 만들어진 것은 아니다. 오히려 GPU는 게임과 같이 그래픽이 많은 애플리케이션에 처음 개발되어 사용되었다.

그들은 AI와 슈퍼컴퓨팅을 위해 놀라운 일을 해왔지만 지난 몇 년 동안 AI를 위해 만들어진 특수 칩이 등장하고 있다.

Cerebras Graphcore SambaNova와 같은 다른 유망 기업과 Intel NVIDIA와 같은 친숙한 이름과 함께 경쟁자 중 하나이다.

이 회사는 WSE-2를 최고의 AI 프로세서 (NVIDIA A100)와 비교하여 경쟁 제품과 얼마나 다른지 강조한다. A100은 표면적의 2% 미만을 차지하는 트랜지스터 수(542억 개) 2%를 차지한다. 훨씬 작지만 더 큰 시스템에서 수백 또는 수천 개의 칩이 함께 연결될 때 A100이 더 완벽하게 실현될 수 있다.

대조적으로, WSE-2는 단일 실리콘 웨이퍼에 가능한 한 많은 처리와 메모리를 재밍하여 모든 칩을 함께 연결하는 비용과 복잡성을 줄인다. 동시에 여러 서버 랙에 분산된 많은 칩 간에 데이터를 이동할 필요가 없어 속도와 효율성이 크게 향상된다.

칩의 디자인은 작고 빠른 코어에 전용 메모리를 제공하고 코어 간의 빠른 통신을 용이하게 한다. 그리고 Cerebras의 컴파일 소프트웨어는 PyTorch TensorFlow와 같은 표준 프레임 워크를 사용하는 기계 학습 모델과 함께 작동하여 칩의 코어에 작업을 매우 쉽게 배포할 수 있다.

이 접근 방식은 웨이퍼 스케일 컴퓨팅이라고 한다. 칩이 일반적으로 많은 칩이 절단되는 표준 실리콘 웨이퍼 크기이기 때문이다. 웨이퍼 스케일 컴퓨팅은 수년 동안 레이더에 올라왔지만 Cerebras는 상업적으로 실행 가능한 칩을 만든 최초의 기업이다.

이 칩은 CS-2라는 컴퓨터 시스템에 패키지로 제공된다. 이 시스템에는 냉각 및 전원 공급 장치가 포함되어 있으며 표준 서버 랙의 약 1/3에 맞다.

스타트 업이 2019년에 칩을 발표한 후 점점 늘어나는 고객 목록과 협력하기 시작했다. Cerebras GlaxoSmithKline, Lawrence Livermore National Lab Argonne National을 제약, 생명 공학, 제조 및 군대의 이름없는 파트너와 함께 고객으로 간주한다. 많은 애플리케이션이 AI에 있었지만 전부는 아니다. 작년에 회사는 NTL(National Energy Technology Laboratory)이이 칩을 사용하여 유체 역학 시뮬레이션에서 슈퍼 컴퓨터를 능가했다고 밝혔다.

 

웨이퍼 스케일이 커질까?

웨이퍼 스케일 컴퓨팅이 따라잡는지는 아직 미지수다.

Cerebras는 자사의 칩이 머신러닝 작업의 속도를 크게 높이고 있으며, 일부는 상당한 이익을 얻었다고 주장하는 초기 고객의 증언이 이를 뒷받침한다고 말한다. 그러나 아직 독립적인 일대일 비교는 없다. 예를 들어 Cerebras나 대부분의 다른 AI 하드웨어 스타트 업은 AI 시스템의 최근 MLperf 벤치 마크 테스트에 참여하지 않았다. (상위 시스템은 거의 모든 알고리즘을 가속화하기 위해 NVIDIA GPU를 사용했다.)

IEEE Spectrum에 따르면 Cerebras는 더 일반적이고 잠재적으로 적용할 수 없는 벤치 마크에서 판매하는 대신 관심있는 구매자가 자신의 특정 신경망에서 시스템을 테스트하도록 허용한다고 말한다. AI 분석가 Karl Freund모든 사람이 자신의 비즈니스를 위해 개발한 자체 모델을 실행한다. 그것이 구매자에게 중요한 유일한 것이다."

WSE가 칩에 맞을 만큼 작은 작업만 처리할 수 ​​있다는 점도 주목할 가치가 있다. 회사는 직면한 가장 적합한 문제가 적합할 수 있으며 WSE-2는 더 많은 공간을 제공한다고 말한다. 하지만 머신러닝 알고리즘의 크기는 빠르게 증가하고 있다. 이것이 아마도 Cerebras가 두 개 또는 세 개의 CS-2가 하나의 서버 캐비닛에 들어갈 수 있다는 점에 주목하는 이유일 것이다.

궁극적으로 WSE-2는 하나 또는 몇 개의 GPU가 트릭을 수행하는 소규모 작업에는 적합하지 않다. 현재 이 칩은 과학 및 연구 분야의 컴퓨팅 집약적인 대규모 프로젝트에 사용되고 있다. 현재 응용 분야에는 암 연구 및 약물 발견, 중력파 감지 및 융합 시뮬레이션이 포함된다. Cerebras CEO이자 공동 창립자인 Andrew Feldman은 클라우드에서 단기적이고 덜 집중적인 요구를 가진 고객에게도 제공될 수 있다고 말한다.

칩 시장은 틈새 시장이지만 Feldman HPC Wire 2015년에 예상했던 것보다 더 크고 AI에 대한 새로운 접근 방식이 지속적으로 등장함에 따라 여전히 성장하고 있다고 말했다. “시장은 믿을 수 없을 정도로 빠르게 움직이고 있다.

AI 칩 간의 치열한 경쟁은 주목할 가치가 있다. 몇 가지 목적에 맞는 접근 방식이 있거나 최고로 올라갈 수 있다.

적어도 현재로서는 거대한 컴퓨터 칩을 아낌없이 지원하려는 욕구가있는 것 같다.

 

이미지 출처: Cerebras

 

 
인공지능, AI, 세계에서 가장 큰 AI 칩 관련기사목록
광고
광고
광고
광고
광고
광고
광고
많이 본 기사