일상/IT

FPGA에 텐서 코어를 구축할 수 있을까요? 그렇다면 현재 GPU 솔루션과 어떻게 비교될까요?

얇은생각 2019. 12. 31. 07:30
반응형

FPGA

인공 지능, 소프트웨어 학위를 가진 사람들은 Linkedin 프로필에서 “AI 전문가”라는 용어가 남용되었다고 지적했습니다. 그 이유는 전문가라고 생각하는 많은 사람들을 끌어 들이기 때문입니다.

다른 배경을 가진 더 많은 사람들이 AI 관련 프로젝트에 참여하고 있습니다. 어떤식으로든 AI 전문가라고 할 수 있습니다. 예를 들어, 사람들은 AI 알고리즘을 효율적으로 작동하도록 하드웨어를 명시적으로 구축합니다.

대부분의 사람들이 시스템 온 칩에 대해 알지 못하고 있습니다. 하드웨어 설계의 틈새는 너무 작아서 대부분 존재한다는 사실조차 모릅니다. HDL은 소프트웨어처럼 보이기 때문에 소프트웨어 엔지니어가 이러한 일을 할 수 있다고 생각하는 사람들이 있지만 소프트웨어라고 하기는 어렵다고 합니다.

FPGA는 라우팅을 전환하고 여러 게이트와 플립 플롭이있는 로직 블록을 포함하는 추가 기능이있는 ASIC입니다. 이는 오버 헤드로 디자인의 크기가 더 커지고 더 많은 소비 (모든 종류의 라우팅 오버 헤드, 디자인에는 정적이지만 여전히 소비 됨)를 의미합니다.

플레이스와 루트는 로직 블록의 일부를 사용하며, 때로는 모든 플롭이 아니거나 모든 게이트가 사용되는 것은 아닙니다 (이것은 FPGA 도구가 생성하는 보고서에 있습니다). 동일한 기술 노드에서 ASIC과 FPGA를 비교하면 ASIC은 항상 우수하지만 FPGA는 적합한 설계에 맞게 재구성 할 수 있습니다.

트레이드 오프 유연성은 지역, 속도 및 소비 측면에서 비용이 많이 듭니다. 동일한 기술 노드의 GPU는 ASIC이므로 동일한 기능을 위해 GPU는 항상 FPGA를 능가합니다. 차이점은 ASIC은 고정 마스크 세트이며 생산시 실리콘에 12 개월에서 24 개월이 걸린다는 것입니다. 보다 효율적이고 강력한 (TOPS, TFLOPS) 및 FPGA가 될 수 있는 최신 혁신은 이를 위한 프로토 타입이 될 수 있습니다. 그러나 FPGA는 항상 손실됩니다.

BTW, GPU는 그래픽 용으로 제작되었습니다. Turing (NVIDIA) 이후, 기계 학습을 사용하는 영리한 속임수인 레이트 레이싱 코어로 광선 추적을 업 스케일링합니다 (낮은 해상도로 계산 유지).

그러나 GPU는 그래픽 용이고 TPU는 기계 학습용입니다. GPU는 GPU의 대규모 병렬 데이터 처리에 적합한 픽셀을 병렬 처리 할 수 ​​있기 때문에 AI와 ML에서 사용되었습니다. 오늘날 AI 알고리즘은 정밀도가 낮으면 (FP16, 때로는 IBM과 같은 FP8의 일부) 동일한 정확도를 달성하려고 하며 그래픽은 정확도 (FP32-FP64)를 원합니다. GPU와 AI 칩은 미래에 다양할 것입니다.

반응형