AI Hardwares

AI chips, AI hardwares, Edge-AI, Benchrmarks, Frameworks


AI chips


Etched AI


Neuromorphic Computing


Paper: An overview of brain-like computing: Architecture, applications, and future trends


Top 10 AI Chip Makers of 2023: In-depth Guide

Groq

The Groq LPU™ Inference Engine

Paper: A Software-defined Tensor Streaming Multiprocessor for Large-scale Machine Learning


Rain AI

Digital In-Memory Compute

Numerics


Cerebras


Tesla

Dojo

Enter Dojo: Tesla Reveals Design for Modular Supercomputer & D1 Chip

Teslas will be ‘more intelligent’ than HUMANS by 2033 as their microchips already have 36% the capacity of the brain, study reveals


AI Hardwares

Google TPU Cloud

Google’s Cloud TPU v4 provides exaFLOPS-scale ML with industry-leading efficiency One eighth of a TPU v4 pod from Google’s world’s largest publicly available ML cluster located in Oklahoma, which runs on ~90% carbon-free energy.

TPU v4 is the first supercomputer to deploy a reconfigurable OCS. OCSes dynamically reconfigure their interconnect topology Much cheaper, lower power, and faster than Infiniband, OCSes and underlying optical components are <5% of TPU v4’s system cost and <5% of system power.


TAIDE cloud

Blog: 【LLM關鍵基礎建設:算力】因應大模型訓練需求,國網中心算力明年大擴充
國網中心臺灣杉2號,不論是對7B模型進行預訓練(搭配1,400億個Token訓練資料)還是對13B模型預訓練(搭配2,400億個Token資料量)的需求,都可以勝任。
Meta從無到有訓練Llama 2時,需要上千甚至上萬片A100 GPU,所需時間大約為6個月,
而臺灣杉2號採用相對低階的V100 GPU,效能約為1:3。若以臺灣杉2號進行70B模型預訓練,可能得花上9個月至1年。


Nvidia

CUDA & CuDNN


AI SuperComputer

DGX B200

DGX GH200


AI Data Center

DGX SuperPOD with DGX GB200 Systems

HGX H200

AI Workstatione/Server (for Enterprise)

DGX H100


AI HPC

HGX A100
搭配HGX A100模組,華碩發表首款搭配SXM形式GPU伺服器


GPU

GeForce RTX-4090


AMD Instinct GPUs

MI300

304 GPU CUs, 192GB HBM3 memory, 5.3 TB peark theoretical memory bandwidth


MI200

220 CUs, 128GB HBM2e memory, 3.2TB/s Peak Memory Bandwidth, 400GB/s Peark aggregate Infinity Fabric


Intel

Gaudi3

Intel® Gaudi® 3 accelerator with L2 cache for every 2 MME and 16 TPC unit


AI PC/Notebook

NPU: 三款AI PC筆電搶先看!英特爾首度在臺公開展示整合NPU的Core Ultra筆電,具備有支援70億參數Llama 2模型的推論能力
宏碁在現場展示用Core Ultra筆電執行圖像生成模型,可以在筆電桌面螢幕中自動生成動態立體的太空人桌布,還可以利用筆電前置鏡頭來追蹤使用者的臉部輪廓,讓桌布可以朝著使用者視角移動。此外,還可以利用工具將2D平面圖像轉為3D裸眼立體圖。


Edge AI

Nvidia Jetson


MediaTek

天璣 9300

  • 單核性能提升超過 15%
  • 多核性能提升超過 40%
  • 4 個 Cortex-X4 CPU 主頻最高可達 3.25GHz
  • 4 個 Cortex-A720 CPU 主頻為 2.0GHz
  • 內置 18MB 超大容量緩存組合,三級緩存(L3)+ 系統緩存(SLC)容量較上一代提升 29%

天璣 8300

  • 八核 CPU 包括 4 個 Cortex-A715 大核和 4 個 Cortex-A510 能效核心
  • Mali-G615 GPU
  • 支援 LPDDR5X 8533Mbps 記憶體
  • 支援 UFS 4.0 + 多循環隊列技術(Multi-Circular Queue,MCQ)
  • 高能效 4nm 製程

Kneron

KNEO300 EdgeGPT

KL720

L730晶片集成了最先進第三代KDP系列可重構NPU架構,可提供高達8TOPS的有效算力。

  • Quad ARM® Cortex™ A55 CPU。
  • 內建DSP,可以加速AI模型後處理,語音處理。
  • Linux和RTOS、TSMC 12 納米工藝。
  • 高達4K@60fps解析度,與主流感測器的無縫 RGB Bayer 接口,多達4通道影像接口。
  • 高達3.6eTOPS@int8 / 7.2eTops@int4。
  • 支持Cafee、Tensorflow、Tensorflowlite、Pytorch、Keras、ONNX框架。
  • 并兼容CNN、Transformer、RNN Hybrid等多種AI模型, 有更高的處理效率和精度。

KLM553 AI SoC

KLM5S3採用全新的NPU架構,在行業率先商用支持幾乎無損的INT4精度和Transformer,相比其他晶片具有更高的運算效率及更低功耗,可在多個複雜場景使用,例如ADAS和AIoT等場景應用。

  • 基於ARM® Cortex™ A5 CPU。
  • 耐能第三代可重構NPU,算力高達0.5eTOPS@int8/1eTOPS@int4,實際運算效率遠高於其他同等硬體規格晶片。
  • 支持Caffe、Tensorflow、Tensorflowlite、Pytorch、Keras、ONNX等多種AI框架。
  • 優秀的ISP性能,同時支持高達5M@30FPS,120db寬動態、星光級低照、電子防抖及硬體全景魚眼校正等功能。
  • 廣泛應用於城市安防、智能駕駛、終端設備、各類廣角鏡頭處理場景等諸多領域。

KL530

KL530是耐能新一代異構AI晶片,采用全新的NPU架構,在行業率先商用支持INT4精度和Transformer,相比其它晶片具有更高的運算能力及更低功耗,具備強大的圖像處理能力和豐富的接口,將進一步促進邊緣AI晶片在ADAS、AIoT等場景應用。

  • 基於ARM Cortex M4 CPU内核的低功耗性能和高能效設計。
  • 算力達1 TOPS INT 4,在同等硬件條件下比INT 8的處理效率提升高達70%。
  • 支持CNN,Transformer,RNN Hybrid等多種AI模型。
  • 智能ISP可基於AI優化圖像質量,強力Codec實現高效率多媒體壓縮。
  • 冷啟動時間低於500ms,平均功耗低於500mW。

Raspberry Pi 5

樹莓派 5 搭載一顆64位元四核心 Arm Cortex-A76 處理器,運行速度達2.4GHz,相對於樹莓派 4,CPU效能提升了2-3倍。搭配800MHz的VideoCore VII GPU,提供顯著提升的圖形效能;支援雙4Kp60 HDMI顯示輸出
Broadcom BCM2712 2.4GHz quad-core 64-bit Arm Cortex-A76 CPU, with Cryptographic Extension, 512KB per-core L2 caches, and a 2MB shared L3 cache

套件:樹莓派 8GB主板+外殼+原廠5A電源器+64GB記憶卡


Realtek

AMB82-MINI

  • MCU
    • Part Number: RTL8735B
    • 32-bit Arm v8M, up to 500MHz
  • MEMORY
    • 768KB ROM
    • 512KB RAM
    • 16MB Flash
    • Supports MCM embedded DDR2/DDR3L memory up to 128MB
  • KEY FEATURES
    • Integrated 802.11 a/b/g/n Wi-Fi, 2.4GHz/5GHz
    • Bluetooth Low Energy (BLE) 5.1
    • Integrated Intelligent Engine @ 0.4 TOPS

mlplatform.org

The machine learning platform is part of the Linaro Artificial Intelligence Initiative and is the home for Arm NN and Compute Library – open-source software libraries that optimise the execution of machine learning (ML) workloads on Arm-based processors.

ProjectRepository
Arm NN[https://github.com/ARM-software/armnn](https://github.com/ARM-software/armnn)
Compute Library[https://review.mlplatform.org/#/admin/projects/ml/ComputeLibrary](https://review.mlplatform.org/#/admin/projects/ml/ComputeLibrary)
Arm Android NN Driverhttps://github.com/ARM-software/android-nn-driver

ARM NN SDK

免費提供的 Arm NN (類神經網路) SDK,是一組開放原始碼的 Linux 軟體工具,可在節能裝置上實現機器學習工作負載。這項推論引擎可做為橋樑,連接現有神經網路框架與節能的 Arm Cortex-A CPU、Arm Mali 繪圖處理器及 Ethos NPU。

ARM NN
Arm NN is the most performant machine learning (ML) inference engine for Android and Linux, accelerating ML on Arm Cortex-A CPUs and Arm Mali GPUs.


Benchmark

ARM NN

MLPerf

MLPerf™ Inference Benchmark Suite


NVIDIA’s MLPerf Benchmark Results


Frameworks

PyTorch

Tensorflow

Keras 3.0


MLX

MLX is an array framework for machine learning on Apple silicon, brought to you by Apple machine learning research.
MLX documentation


TinyML

EloquentTinyML

Tensorflow.js

MediaPipe



This site was last updated December 15, 2024.