製品概要
AMD Ryzen™ AI Embedded X100 シリーズは、ハイエンド向け「Strix Halo」アーキテクチャを基盤としたAMDの組込みフラッグシップSoCです。最大16コア/32スレッドのZen 5 CPU、最大40 CUのRDNA 3.5 GPU、第2世代AIエンジン XDNA 2 NPU をチップレット構成で統合し、専用AI推論からHPC級の汎用演算までを単一プラットフォームで実行します。
最大の特徴は256-bit LPDDR5X-8000・最大128GB・256GB/sのユニファイドメモリです。従来の組込みSoCでは困難だったLLMやマルチモーダル基盤モデルのオンデバイス推論を外付けGPUなしで実行可能にし、次世代フィジカルAI市場をターゲットとしています。
- CPU: 最大16コア/32スレッドのZen 5 CPU、5.1GHz超
- GPU: 最大40 CUのRDNA 3.5 GPU (Radeon™ 8060S)
- NPU: XDNA™ 2 NPU、最大50 TOPS
- メモリ: 256-bit LPDDR5X-8000、最大128GB、256GB/s
3つのコア技術
- CPU (Zen 5): 2基のCCDをチップレット統合し、16コア/32スレッドを構成。32MBのMALLキャッシュにより低遅延と高スループットを両立します。
- GPU (RDNA 3.5): RDNA 3.5アーキテクチャに基づく最大40 CU GPUを内蔵し、AI生成画像、SLAM、物理シミュレーションを単一チップで処理します。
- ユニファイドメモリ: CPU・GPU・NPUが単一メモリプールを共有し、70BクラスLLMやVLMをコピーレスでロード可能です。
統合アーキテクチャ
本シリーズはチップレット設計のStrix Halo SoCです。2基のCCD (各8コア)と、GPU・NPU・I/Oを統合したIODをInfinity Fabric™で接続しています。
IODにはRDNA 3.5 GPU、XDNA 2 NPU、32MB MALL/LLCキャッシュを搭載。LPDDR5Xを8チャネル構成で接続し、256-bit幅・256GB/s帯域を実現します。
PCIe Gen 5、USB4×4、DP 2.1×4を備え、25×40mmのBGAパッケージとして提供されます。
SKUラインナップ
| モデル | 用途 | コア/スレッド | 最大ブースト | GPU CU | NPU TOPS | cTDP | メモリ |
|---|---|---|---|---|---|---|---|
| X185 / X185i | 商用/産業 (フラッグシップ) | 16 / 32 | 5.1 GHz | 40 | 50 | 45–120W | 最大128GB / 256GB/s |
| X174 / X174i | 商用 / 産業 | 12 / 24 | 5.0 GHz | 32 | 50 | 45–100W | 最大96GB / 256GB/s |
| X164 / X164i | 商用 / 産業 | 10 / 20 | 5.0 GHz | 24 | 50 | 45–85W | 最大64GB / 256GB/s |
| X132a | 車載 (Auto Q) | 8 / 16 | 4.6 GHz | 24 | 50 | 45–65W | 最大64GB / 256GB/s |
*SKU構成・TDPは公開資料時点のAMD暫定情報。最終仕様は変更される可能性があります。サンプル提供は2026年上半期、量産出荷は同年下半期以降予定。
性能向上ポイント
AMD公開データ (2026年)に基づく代表値では、メモリ帯域 2.0×、GPU演算性能 2.5×、LLM推論(30B) 2.3×、CPUマルチスレッド +45%、最大メモリ容量 2.7× の向上を示します。
代表的なユースケース
- ヒューマノイドロボット: マルチモーダルVLM+全身運動計画+音声対話を1チップで同時処理
- 自律モビリティ: Lv.4ドメインコントローラ、センサーフュージョン、オキュパンシー予測
- エッジ生成AI: 30〜70B LLMやSDXLクラス画像生成のオンデバイス推論
- 産業デジタルツイン: リアルタイム物理シミュレーション+3Dビジュアライゼーション
- 医療画像AI: 4K/8K映像のリアルタイム再構成と診断支援推論
- エッジ・データセンター: 5G MEC、コンパクト推論サーバ、クラウドオフロード
アヴネットのサポート
AMD公式ディストリビューターとして、サンプル提供、評価キット、リファレンスデザイン、OS BSP、FAE技術コンサルティング、長期供給・在庫プログラムまでワンストップで対応し、お客様の量産設計を加速します。