AI Hardwares
AI chips, AI hardwares, Edge-AI, Benchrmarks, Frameworks
AI chips
Etched AI
Neuromorphic Computing
Paper: An overview of brain-like computing: Architecture, applications, and future trends
Top 10 AI Chip Makers of 2023: In-depth Guide
Groq
The Groq LPU™ Inference Engine
Paper: A Software-defined Tensor Streaming Multiprocessor for Large-scale Machine Learning
Rain AI
Digital In-Memory Compute
Numerics
Cerebras
Tesla
Dojo
Enter Dojo: Tesla Reveals Design for Modular Supercomputer & D1 Chip
AI Hardwares
Google TPU Cloud
Google’s Cloud TPU v4 provides exaFLOPS-scale ML with industry-leading efficiency
One eighth of a TPU v4 pod from Google’s world’s largest publicly available ML cluster located in Oklahoma, which runs on ~90% carbon-free energy.
TPU v4 is the first supercomputer to deploy a reconfigurable OCS. OCSes dynamically reconfigure their interconnect topology Much cheaper, lower power, and faster than Infiniband, OCSes and underlying optical components are <5% of TPU v4’s system cost and <5% of system power.
TAIDE cloud
Blog: 【LLM關鍵基礎建設:算力】因應大模型訓練需求,國網中心算力明年大擴充
國網中心臺灣杉2號,不論是對7B模型進行預訓練(搭配1,400億個Token訓練資料)還是對13B模型預訓練(搭配2,400億個Token資料量)的需求,都可以勝任。
Meta從無到有訓練Llama 2時,需要上千甚至上萬片A100 GPU,所需時間大約為6個月,
而臺灣杉2號採用相對低階的V100 GPU,效能約為1:3。若以臺灣杉2號進行70B模型預訓練,可能得花上9個月至1年。
Nvidia
CUDA & CuDNN
AI SuperComputer
DGX GH200
AI Data Center
DGX SuperPOD with DGX GB200 Systems
HGX H200
AI Workstatione/Server (for Enterprise)
DGX H100
AI HPC
HGX A100
搭配HGX A100模組,華碩發表首款搭配SXM形式GPU伺服器
GPU
AMD Instinct GPUs
MI300
304 GPU CUs, 192GB HBM3 memory, 5.3 TB peark theoretical memory bandwidth
MI200
220 CUs, 128GB HBM2e memory, 3.2TB/s Peak Memory Bandwidth, 400GB/s Peark aggregate Infinity Fabric
Intel
Gaudi3
Intel® Gaudi® 3 accelerator with L2 cache for every 2 MME and 16 TPC unit
AI PC/Notebook
NPU: 三款AI PC筆電搶先看!英特爾首度在臺公開展示整合NPU的Core Ultra筆電,具備有支援70億參數Llama 2模型的推論能力
宏碁在現場展示用Core Ultra筆電執行圖像生成模型,可以在筆電桌面螢幕中自動生成動態立體的太空人桌布,還可以利用筆電前置鏡頭來追蹤使用者的臉部輪廓,讓桌布可以朝著使用者視角移動。此外,還可以利用工具將2D平面圖像轉為3D裸眼立體圖。
Edge AI
Nvidia Jetson
MediaTek
天璣 9300
- 單核性能提升超過 15%
- 多核性能提升超過 40%
- 4 個 Cortex-X4 CPU 主頻最高可達 3.25GHz
- 4 個 Cortex-A720 CPU 主頻為 2.0GHz
- 內置 18MB 超大容量緩存組合,三級緩存(L3)+ 系統緩存(SLC)容量較上一代提升 29%
天璣 8300
- 八核 CPU 包括 4 個 Cortex-A715 大核和 4 個 Cortex-A510 能效核心
- Mali-G615 GPU
- 支援 LPDDR5X 8533Mbps 記憶體
- 支援 UFS 4.0 + 多循環隊列技術(Multi-Circular Queue,MCQ)
- 高能效 4nm 製程
Kneron
KNEO300 EdgeGPT
KL720
L730晶片集成了最先進第三代KDP系列可重構NPU架構,可提供高達8TOPS的有效算力。
- Quad ARM® Cortex™ A55 CPU。
- 內建DSP,可以加速AI模型後處理,語音處理。
- Linux和RTOS、TSMC 12 納米工藝。
- 高達4K@60fps解析度,與主流感測器的無縫 RGB Bayer 接口,多達4通道影像接口。
- 高達3.6eTOPS@int8 / 7.2eTops@int4。
- 支持Cafee、Tensorflow、Tensorflowlite、Pytorch、Keras、ONNX框架。
- 并兼容CNN、Transformer、RNN Hybrid等多種AI模型, 有更高的處理效率和精度。
KLM553 AI SoC
KLM5S3採用全新的NPU架構,在行業率先商用支持幾乎無損的INT4精度和Transformer,相比其他晶片具有更高的運算效率及更低功耗,可在多個複雜場景使用,例如ADAS和AIoT等場景應用。
- 基於ARM® Cortex™ A5 CPU。
- 耐能第三代可重構NPU,算力高達0.5eTOPS@int8/1eTOPS@int4,實際運算效率遠高於其他同等硬體規格晶片。
- 支持Caffe、Tensorflow、Tensorflowlite、Pytorch、Keras、ONNX等多種AI框架。
- 優秀的ISP性能,同時支持高達5M@30FPS,120db寬動態、星光級低照、電子防抖及硬體全景魚眼校正等功能。
- 廣泛應用於城市安防、智能駕駛、終端設備、各類廣角鏡頭處理場景等諸多領域。
KL530
KL530是耐能新一代異構AI晶片,采用全新的NPU架構,在行業率先商用支持INT4精度和Transformer,相比其它晶片具有更高的運算能力及更低功耗,具備強大的圖像處理能力和豐富的接口,將進一步促進邊緣AI晶片在ADAS、AIoT等場景應用。
- 基於ARM Cortex M4 CPU内核的低功耗性能和高能效設計。
- 算力達1 TOPS INT 4,在同等硬件條件下比INT 8的處理效率提升高達70%。
- 支持CNN,Transformer,RNN Hybrid等多種AI模型。
- 智能ISP可基於AI優化圖像質量,強力Codec實現高效率多媒體壓縮。
- 冷啟動時間低於500ms,平均功耗低於500mW。
Raspberry Pi 5
樹莓派 5 搭載一顆64位元四核心 Arm Cortex-A76 處理器,運行速度達2.4GHz,相對於樹莓派 4,CPU效能提升了2-3倍。搭配800MHz的VideoCore VII GPU,提供顯著提升的圖形效能;支援雙4Kp60 HDMI顯示輸出
Broadcom BCM2712 2.4GHz quad-core 64-bit Arm Cortex-A76 CPU, with Cryptographic Extension, 512KB per-core L2 caches, and a 2MB shared L3 cache
套件:樹莓派 8GB主板+外殼+原廠5A電源器+64GB記憶卡
Realtek
AMB82-MINI
- MCU
- Part Number: RTL8735B
- 32-bit Arm v8M, up to 500MHz
- MEMORY
- 768KB ROM
- 512KB RAM
- 16MB Flash
- Supports MCM embedded DDR2/DDR3L memory up to 128MB
- KEY FEATURES
- Integrated 802.11 a/b/g/n Wi-Fi, 2.4GHz/5GHz
- Bluetooth Low Energy (BLE) 5.1
- Integrated Intelligent Engine @ 0.4 TOPS
mlplatform.org
The machine learning platform is part of the Linaro Artificial Intelligence Initiative and is the home for Arm NN and Compute Library – open-source software libraries that optimise the execution of machine learning (ML) workloads on Arm-based processors.
Project | Repository |
Arm NN | [https://github.com/ARM-software/armnn](https://github.com/ARM-software/armnn) |
Compute Library | [https://review.mlplatform.org/#/admin/projects/ml/ComputeLibrary](https://review.mlplatform.org/#/admin/projects/ml/ComputeLibrary) |
Arm Android NN Driver | https://github.com/ARM-software/android-nn-driver |
ARM NN SDK
免費提供的 Arm NN (類神經網路) SDK,是一組開放原始碼的 Linux 軟體工具,可在節能裝置上實現機器學習工作負載。這項推論引擎可做為橋樑,連接現有神經網路框架與節能的 Arm Cortex-A CPU、Arm Mali 繪圖處理器及 Ethos NPU。
ARM NN
Arm NN is the most performant machine learning (ML) inference engine for Android and Linux, accelerating ML on Arm Cortex-A CPUs and Arm Mali GPUs.
Benchmark
ARM NN
MLPerf
MLPerf™ Inference Benchmark Suite
NVIDIA’s MLPerf Benchmark Results
Frameworks
PyTorch
Tensorflow
Keras 3.0
MLX
MLX is an array framework for machine learning on Apple silicon, brought to you by Apple machine learning research.
MLX documentation
TinyML
Tensorflow.js
MediaPipe
This site was last updated November 15, 2024.