AI 半導体

MCP(Multi‑Chip Package)の最新動向とAI半導体へのインパクト(2024–2025)

MCPの定義・歴史・従来パッケージとの違い

MCP(マルチチップパッケージ)とは、一つの半導体パッケージ内に複数のチップ(ダイ)を統合する技術を指します。従来は1パッケージに1チップが原則でしたが、MCPでは複数のICを単一コンポーネントのように扱えるようにします​。これにより、システムとして必要な機能を一つのパッケージ内で実現でき、性能向上・小型化・コスト低減といったメリットがあります​。例えば、Boston Consulting Groupの分析によれば、MCPにより「一つのパッケージに多様な半導体チップを収容し、性能や製造コスト・消費電力の制約に直接対処できる」ようになるとされています​。

歴史的には、MCPに類する**マルチチップモジュール(MCM)の概念自体は以前から存在していました。1980~90年代には大型コンピュータ向けに複数のプロセッサやキャッシュメモリをセラミック基板上に配置したモジュール(例:IBMのPOWER5のMCMは4つのCPUダイと4つのL3キャッシュダイを統合)などが実用化されています​。2000年代後半には、Intelの「Core 2 Quad」が2つのデュアルコアCPUダイを1パッケージに収めるなど、複数ダイ構成のプロセッサも登場しました​。しかし従来はこうした特殊用途に限られており、一般的な半導体は単一ダイをパッケージングする手法が主流でした。

近年、ムーアの法則の鈍化に伴いチップの大型化によるスケーリングが限界に近づく中で、MCPをはじめとする「チップレット化」「異種積層(ヘテロ集積)」が改めて脚光を浴びています​。単一ダイを巨大化する従来手法では歩留まり悪化やコスト爆発を招くため、複数の小さなチップを組み合わせる新アプローチが必要となったのです。MCPはまさにこの課題に応えるもので、各チップ(ダイ)を最適なプロセス技術で製造し、一つにまとめることで、従来のモノリシックSoCにはない柔軟性と経済性を実現します。例えば、大規模集積SoCでは1チップに収めていた機能ブロックを、MCPでは複数ダイに分割してモジュール化できます。これにより歩留まりが向上し(小さいダイのほうが欠陥が発生しにくいため)、結果的にコスト低減につながる利点があります​。実際、ある分析では「モジュラーなチップレットを使いまわすことで設計資産の再利用が容易になり、個別設計のSoCよりも多用途に展開できる」と指摘されています​。

要約すると、従来型パッケージ vs MCPの違いは以下の通りです:

  • 従来: 1パッケージ=1ダイ。機能追加にはダイそのものを大型化・高密度化する必要があった。
  • MCP: 1パッケージに複数ダイ。異なるダイ同士を高密度配線で接続し、一体のシステムとして動作させる。​その結果、同じ基板面積で「複数階建てのビル」を建てるようなもので、高集積かつ高性能なデバイス実現が可能になる。

例えばAnsys社は、「従来は空き地に平屋を一棟建てるように1チップだけを配置していたが、先端パッケージでは小さな敷地に複数のビルを建て連絡橋で繋ぐように複数チップを集積できる」と表現しています​。この比喩が示す通り、MCPは限られたパッケージ基板上でシステム全体を凝縮する技術と言えます。

技術メカニズム:2.5D/3D実装・チップレット接合・TSV・熱拡散経路

MCPを実現する具体的な技術方式としては、大きく「2.5次元実装(2.5D)」と「3次元実装(3D)」に分類できます。また、チップ同士を接続する手法(接合技術)や、チップ間・基板間を垂直に貫通する配線(TSV: Through-Silicon Via)、発熱対策のための熱拡散経路設計なども重要な要素です。

  • 2.5D実装: 複数のダイをシリコンインターポーザ上に横に並べて配置する手法です。インターポーザとは薄い中間基板で、高密度配線層と多数のマイクロバンプを備えています。各ダイはインターポーザ上に実装され、インターポーザ内部の**TSV(シリコン貫通ビア)**を介して下のパッケージ基板と接続されます​。いわば「基板上に配置された小さな配線基板」に複数チップを載せるイメージで、これによりチップ間を数十μm程度の距離で高帯域接続できます。代表例として、TSMCのCoWoS(Chip-on-Wafer-on-Substrate)が挙げられ、GPUとHBM(高帯域メモリ)をシリコンインターポーザ上で隣接実装することで、きわめて広帯域なメモリ接続を実現しています。
  • 3D実装: 垂直スタッキング(積層)とも呼ばれ、複数のダイを縦方向に積み重ねて接続する手法です。上下のダイ間を貫通するTSVを各ダイ内に形成し、直接電気的に接続します​。3D実装ではチップ同士が物理的に重なるため、2.5Dよりもさらなる高集積・短距離の接続が可能になります。例えば高性能メモリHBMでは8~12枚ものDRAMダイを垂直に積み重ね、一つのメモリスタックとして動作させています。論理チップ同士の3D積層も研究・実用化が進みつつあり、IntelのFoveros技術(CPUロジックダイ同士の積層)や、SamsungのX-Cube(3D TSVによるロジック-ロジック/ロジック-SRAM積層)などが知られています。
  • チップレット接合技術: ダイ同士、あるいはダイと基板を接続・固定する実装技術です。従来はマイクロバンプ(μバンプ)を用いるフリップチップ接続が主流で、数十μmピッチのハンダバンプを格子状に配列し電気信号と機械的接合を同時に実現します。近年ではさらに接合密度を高めるため、ハイブリッドボンディング(直接接合)技術が注目されています​。ハイブリッドボンディングではダイ表面の配線層同士を直接圧着・結合し、配線ピッチ数μmオーダーのきわめて細密な接続が可能です​。TSMCはSoICとして提供し、IntelもFoveros Directとして実用化しています。Samsungも2024年にハイブリッドボンディング対応の生産ラインを整備し、次世代X-Cubeでの採用を計画しています。OSAT大手のASEも独自プラットフォームVIPack™で高密度接合に取り組んでおり、AI向けチップレット実装でバンプ間ピッチを従来40μmから20μmへ半減させる技術を開発しています​。
  • 熱拡散経路(熱設計): MCPは高性能ゆえに発熱も集中しやすく、熱を効率よく逃がす設計が重要です。2.5Dでは、大きなシリコンインターポーザがチップ全体の裏に存在するため放熱経路が複雑になります。3Dでは上下のチップ間で熱干渉が起き、下層の熱が上層ダイを通過しなければならない場合もあります。一般的な対策として、各ダイ間に熱伝導材(TIM)を挟んだり、ヒートスプレッダやヒートシンクをパッケージ上面に取り付けたりする手法が用いられます。加えて、将来的な解決策としてマイクロ流体冷却(冷却液をチップ内部に循環させる技術)も研究されています。例えばマイクロソフトの技術者は「マイクロ流体による埋込型冷却なら、発熱源であるシリコン内部に直接冷却液を流し込める」と述べており、3D集積における新たな冷却ソリューションとして期待されています。実際にシリコン基板に微小流路を刻んで液体を流す研究も進んでおり​、将来の超高密度MCPでは冷却機構のチップ内蔵が現実になる可能性があります。

以上のように、MCPを支える技術基盤には配線・接合・熱の各分野の最先端が結集しています。2.5D/3D集積技術と高度な接合作業により、チップ間距離を飛躍的に短縮し、従来基板上の実装では得られない高速・広帯域な相互接続が実現します。また、その反面として増大する熱密度に対処するため、新素材や新冷却技術の導入も不可欠になっています。これら要素技術の総合的な組み合わせにより、MCPは単なる「チップの寄せ集め」ではなく、一体集積されたシステムとして機能するのです。

2024–2025年の最新市場動向

2024年から2025年にかけてのMCP市場は、AIブームによるHPC(高性能計算)需要の爆発的な拡大を背景に急成長しています。先端パッケージ全体の市場規模は2023年に約391億ドルに達し、2024年には前年比21%増の473億ドルへ拡大すると予測されています​。この成長の主な原動力がまさにAI・HPC向け需要であり、「生成AIや高速データセンター向けの高性能パッケージが市場を牽引している」と分析されています​。Yole Groupのレポートでは、AIサーバ市場の拡大により2.5D/3Dパッケージの売上は2023年~2029年に年率37%という非常に高いCAGRで成長するとされています​。

供給側でも大規模な投資・設備拡張が相次いでいます。TSMC(台湾積体電路製造)は、同社の2.5D先端パッケージサービスであるCoWoS (Chip-on-Wafer-on-Substrate)の需要急増に対応するため、2024年末までにCoWoS生産能力を2022年比で2倍超に引き上げる計画を発表しました。さらに2026年まで年率60%以上のペースで増強を続け、2023年比で4倍超のキャパシティに拡大する計画です。実際、TSMCは2024年だけで8棟もの新規CoWoS製造施設建設を進めており、南部科学園区や嘉義などに大規模ラインを設置中と報じられています。これは、NVIDIAやAMDなど主要顧客からの注文が殺到し、現行設備では供給逼迫が顕在化しているためです。事実、TSMCのCC魏CEOも2024年1月の決算で「顧客需要に応えるため先端パッケージ能力の継続的な拡充に努めている」と述べており、同社の2024年の売上に占める先端パッケージ比率は8%程度から2025年には10%超へ高まる見通しです(先端パッケージはTSMCにとっても新たな収益源となっています)。

特にNVIDIA(エヌビディア)向けのCoWoS需要は突出しており、次世代GPU「Blackwell」向けパッケージングで2025年のTSMC CoWoS-L容量の70%以上をNVIDIAが事前確保したとの報道もあります​。Blackwell世代のGPUは強力な性能向上が見込まれ、その大量出荷に備えてTSMC側でも月産数万枚規模への能力増強が急務となっています。具体的な出荷見込みとして、2025年にはBlackwellパッケージが年200万個以上出荷されるとの推計も報じられています。このように、HPC/AI用途のMCP需要は数量ベースでも従来と桁違いの規模に達しつつあります。

他の主要プレイヤーも対抗動きを強めています。Samsung(サムスン電子)は韓国内に先端パッケージハブを整備し、ハイブリッドボンディング対応の3D実装ラインを新設中です​。2024年2月の報道によれば、SamsungはApplied Materials社やBesi社の装置を導入しており、自社の3D積層技術「X-Cube」の高度化(バンプレス接合化)を図っています。さらに同社はSAINT(Samsung Advanced Interconnect Technology)と称するプラットフォームで、ロジック上へのSRAM積層(SAINT S)・ロジック同士の積層(SAINT L)・ロジックとDRAMの積層(SAINT D)といった3種の3D実装技術を推進しています。Samsungの狙いは、TSMCに集中する先端パッケージ受託需要の一部を取り込み、将来的にNVIDIAやAMDといった大口顧客を獲得することにあります。事実、業界筋は「Samsungのハイブリッドボンディング設備投資はNVIDIAやAMDの関心を引きつけるだろう」としており、ファウンドリ各社間で先端パッケージ分野の競争が激化しています。

また、Intel(インテル)も自社のパッケージ技術を強化・開放しています。Intelは2023年に業界初のガラス基板を用いた次世代パッケージ技術を発表し、2026~2030年の量産化を計画しています。ガラス基板は有機基板に比べ高強度・低熱膨張で大面積化に適しており、データセンターやAIアクセラレータ向けの超大型MCPに活用される見通しです。加えてIntelは自社製造チップだけでなく、ファウンドリ顧客向けにもEMIBやFoverosといった先端パッケージ技術を提供し始めています。これら動きは米国政府の後押しもあり、先端パッケージング分野でのリーダーシップ確保を狙ったものです。

需要面では、AIモデルの大規模化に伴いMCP採用が急速に進んでいます。例えばデータセンター向けでは、2024年は従来型サーバ向けの需要低迷をAIサーバ向け需要が大きく上回る構図となりました​。従来サーバやネットワーク市場の伸び悩みを補って余りある勢いでAI関連投資が増えており、結果としてHPC/AI用途に特化した先端パッケージが供給逼迫を引き起こすほどの状況です。実際、NVIDIAのH100 GPUは2023年後半から慢性的な品薄となり、「2024年Q1までH100は完売状態」とも報じられました。この背景には、GPU本体の製造だけでなくCoWoSによるHBM統合パッケージ工程がボトルネックになったことも指摘されています​。各社はこうした状況を踏まえ、2025年以降の需要増に向けた先端パッケージ能力の積極的な前倒し投資を行っているわけです。

まとめると、2024~2025年のMCP市場は需要の爆発と供給網の拡充が同時進行しています。AIブームが牽引する形で先端パッケージ市場は二桁成長が続き​、TSMC・Samsung・Intelといった半導体大手は巨額投資で対応に乗り出しています。従来脇役と見られていたパッケージ技術が、いまや半導体産業の主戦場・ボトルネックとなりつつあるのが最新の動向です。

AI半導体におけるMCPの意義とメリット

AI半導体(AIアクセラレータやHPC向けプロセッサ)において、MCP技術の採用は性能面・効率面の課題解決に直結するメリットをもたらしています。以下、主要な意義を平易に整理します。

  • メモリ帯域の飛躍的向上: 大規模AI処理ではメモリ帯域(データの読み書き速度)がボトルネックとなりがちですが、MCPにより高帯域メモリを直接パッケージに統合できるため、この制約を大きく緩和できます。例えばGPUとHBMを同一パッケージに収める2.5D実装では、GPU⇔HBM間のデータ転送レートが従来の基板経由接続に比べ最大35倍高速になるとの報告があります​。実際、NVIDIAの最新GPUではパッケージ上に8スタックものHBM3Eメモリを搭載し、総帯域8TB/秒という驚異的な数字を実現しています(参考までに従来GPUのGDDR6メモリ帯域は数百GB/s程度でした)。同様に、AMDのMI300Xでは8基のHBM3からなる192GBメモリを搭載し5.3TB/秒の帯域を達成しています。このような桁違いのメモリ帯域は、大規模AIモデルの学習や推論においてデータ欠乏(メモリウォール)問題を解決し、性能向上に直結します。
  • 電力効率・低レイテンシ改善: MCPによりチップ間配線長が極端に短くなることで、信号伝送に伴う消費電力が削減され、レイテンシ(遅延)も低減されます。BCGの分析でも「単一パッケージ内に多機能を収めることで電力消費と通信遅延を大幅に削減できる」点が強調されています​。特にAI訓練ではGPUとメモリ間で巨量のデータを行き来させるため、これらを近接配置したMCP構造は省電力で高速なデータ往来を可能にします。実例として、従来GPUではボード上やシステム間通信に多くの電力を費やしていましたが、MCP化により同じ演算処理あたりのエネルギー消費を削減できると報告されています​。さらに、CPUとアクセラレータを1パッケージに収めたMCP(いわゆるAPU的構成)では、CPU-GPU間通信の遅延が著しく短縮され、システム全体の応答性が向上します。AMDのMI300AのようにCPUとGPUを3D積層で統合した例では、従来別チップ間通信に比べ大幅なレイテンシ低減が達成されています。
  • 歩留まり向上とコスト低減: 超大規模なモノリシックダイを製造する場合、欠陥発生率が高く歩留まり低下によるコスト増が深刻でした。MCPでは機能を複数ダイに分割できるため、各ダイを相対的に小さく保つことができます。小さいダイは製造上の歩留まりが良く、結果的にコスト効率が向上します​。例えば1,000㎟のダイ1個を作るより、250㎟のダイ4個を作る方が欠陥によるロスが少なく済むというイメージです。さらに、複数ダイに分ければ、それぞれ最適なプロセス技術を選択することも可能です。高速ロジック部分は最先端ノードで、小規模なアナログI/O部分は安価な成熟ノードで、といった具合に使い分けることで無駄なくコストを抑えられます。これは特にHPC用途で重要で、最新GPUではトランジスタ密度の限界に近い最先端ロジックと、微細化しても恩恵の少ないI/O回路を別ダイ化する設計が一般化しています。
  • モジュール化と設計再利用: MCP/チップレット化は、システム設計をレゴブロック的なモジュール設計に近づけます。一度設計したチップレット(例えばAI用演算コアダイやI/Oダイなど)は、別の製品でも再利用できるため開発効率が上がります​。これは、AIアクセラレータ市場での製品サイクル短縮にも寄与します。複数の用途向けに一から大規模SoCを作るのではなく、汎用チップレットを組み合わせることで迅速に新SKUを構成できるためです​。実際、AMDはCPU用の計算チップレットとI/Oチップレットを組み替えて様々なSKUを展開していますし、今後AIチップでも類似の戦略が一般化すると見られます。システム全体の設計生産性向上という点でもMCPは有利なのです。

以上のように、MCP採用はAI/HPC半導体が直面する「メモリ帯域の壁」「電力効率」「チップサイズとコスト」「開発生産性」といった主要課題に対する解決策を提供します。実際、OpenAIや各国の研究機関が指摘するように、大規模AIモデルのさらなる発展にはハードウェアの性能向上が不可欠であり​、ムーアの法則に替わるアプローチとしてMCP技術への期待が高まっています。MCPは“More than Moore”時代の基盤技術として、AI革命を下支えしていると言えるでしょう。

主要企業の製品戦略比較(TSMC・Samsung・Intel・ASE 他)

AI半導体向けMCP技術を巡っては、ファウンドリ/IDM各社やOSAT企業が独自の戦略を展開しています。以下に主要企業の先端パッケージ技術とAI向け戦略を表形式で整理します。

企業(カテゴリー)主な先端パッケージ技術AI/HPC向け戦略と実績
TSMC(ファウンドリ)- CoWoS (Chip-on-Wafer-on-Substrate):シリコンインターポーザ上2.5D実装(HBM統合で実績多数)
- InFO (Integrated Fan-Out):再配線層利用の2.5D/半導体上実装
- SoIC (3D積層):ダイ同士の直接3D接合(Chip-on-ChipやWoW)​
- NVIDIA・AMDなどHPC顧客向けCoWoSを大規模提供(需要逼迫に対応し2026年まで年60%超の設備拡張を公表​)
- 先端パッケージ売上が2024年に全体の8%、2025年は10%以上見込む​
- CoWoS-Lを開発(大型Siインターポーザで8個のレチクル大ダイ統合を可能にし将来世代に備え)
- SoIC技術も大口需要に対応すべく年率100%で能力増強中(2026年までに8倍規模)
Samsung(ファウンドリ)- I-Cube (Interposer-Cube):シリコンインターポーザ型2.5D実装サービス​
- X-Cube (eXtended-Cube):TSV利用3D積層(ロジック-ロジック、ロジック-SRAM等)​
- H-Cube 他:HBM統合向け高密度パッケージ(詳細非公開)
- Fan-Out Panel/Wafer Level:低消費電力用途の2D実装(スマホ等)​
- 2024年、韓国内にハイブリッドボンディング対応の先端パッケージライン新設​
- SAINTプラットフォーム発表(SRAM on LogicやLogic on Logic積層=X-Cube強化版、DRAM on Logic積層など3種)​
- AI/HPC顧客誘致に向け、TSMC追随の大型投資(Samsung幹部「NVIDIAやAMDの需要取り込みを期待」)
- 将来のガラス基板やパネルレベルPKGにも投資表明(Intelとの競争に備え)​
Intel(IDM/ファウンドリ)- EMIB (Embedded Multi-die Interconnect Bridge):シリコンブリッジ埋込型2.5D(ブリッジでチップ間接続)
- Foveros:高密度3D積層技術(μバンプ型およびDirect型)​
- ODI / AIB:有機基板上大帯域接続/チップレット標準IF(UCIe策定にも関与)
- Glass Substrate:次世代基板技術(2026年以降量産予定)
- 自社HPC製品で先端PKG活用(例:Xeon SPはEMIBでマルチタイル化、FPGA/アクセラレータでもEMIB採用)
- 2023年Meteor LakeでFoveros本格展開(CPUタイルを3D統合)
- **Intel Foundry Services (IFS)**で外部にもPKG提供開始。AWSなど一部顧客に自社PKG技術を適用検討。
- ガラス基板技術を世界初開発し発表​。大型AIパッケージ向けに2026–2030年に商用化予定​(大面積でも高精度な配線実現し、データセンター用途で優位性狙う)。
ASE(OSAT受託組立)- VIPack™プラットフォーム:高密度チップレット集積ソリューション(2.5D/3D統合)
↳ Chip-on-Wafer実装ピッチを40µm→20µmに微細化(先端μバンプ)​
- Fan-out (FO) 系列:Wafer LevelやPanel LevelのファンアウトPKG量産
- Si Bridge実装:Intel EMIB類似の埋込ブリッジ技術など
- AI分野のチップレット需要に対応しVIPack開発。「性能・電力・レイテンシの課題に応えるソリューション」とアピール。
- 2024年3月、20µmピッチ達成を発表(業界トップクラス密度)。
- NVIDIAの主要OSATパートナー(SPIL含め27年超供給)。H100量産にも寄与。
- 先端パッケージ&テスト売上が 2023年2.5億ドル → 2024年6億ドルに急増、2025年は16億ドルとさらに倍増見通し(AI需要による)

※その他、Amkorなど大手OSATも先端パッケージ能力を増強中。各社とも、AI/HPC用途で要求される2.5D・3D実装技術や高密度接続を自社プラットフォームに取り込み、顧客獲得を競っています。

上記のように、TSMC・Samsung・Intelのような垂直統合型メーカーは製造プロセスとパッケージ技術を組み合わせた包括戦略を展開し、ASEに代表されるOSAT企業は各社横断でパッケージングサービスを提供する立場から技術開発を進めています。それぞれアプローチは異なりますが、共通して言えるのは「先端パッケージ技術が今後のAI半導体競争力の鍵」という認識です。実際、TSMCのようにパッケージ分野で積極投資する動きや、Intelのように他社チップのパッケージ受託も視野に入れる動きは、先端パッケージを単なる付加サービスでなく中核ビジネスと捉えていることを示しています​。

実装事例とパフォーマンス評価(NVIDIA Blackwell、AMD MI300X、Google TPU v6)

ここでは、MCP技術が実際に採用された最新AI/HPCチップの事例を紹介し、そのパフォーマンス上の利点を概観します。

  • NVIDIA Blackwell GPU(2024年~2025年):NVIDIAの次世代GPUアーキテクチャ「Blackwell」は、MCP技術を駆使したHPC/AI向け製品です。ブラックウェル世代では従来のH100(ホッパー)に比べ大幅な性能・容量向上が図られています。2025年3月のGTC基調講演で発表された「Blackwell Ultra」GPUは、一個のGPUパッケージに8基のHBM3Eスタックで合計288GBものメモリを搭載すると明かされました​。各HBMスタックは従来8段積みから12段積みに高層化されており、容量50%増を実現しています。これによりブラックウェルUltraは、競合AMDが一時リードしていた192GBというメモリ容量を逆転し、単一GPUでより大きなAIモデルを格納できるようになりました。メモリ帯域は据え置きながらも業界トップの8TB/sに達し、FP16やFP8演算性能も世代比向上しています​。特に4ビット精度(FP4)の推論性能は15 PetaFLOPSに達し、前世代H100比で最大10倍のスループットを発揮するとされています。これらはTSMCのCoWoSパッケージ技術なくしては実現困難で、Blackwellは814㎟級の大型GPUダイと多数のHBMを2.5D統合した7ダイ・モジュールとなっています​。なお2024年末時点でBlackwellチップの量産出荷が始まっており、2025年半ばまでにH100世代からの本格置き換えが進む見通しです。総じて、BlackwellはMCPによるメモリ強化で大規模推論性能を飛躍させた例と言えます。
  • AMD Instinct MI300X(2023年末~2024年):AMDのInstinct MI300Xは、Generative AIやHPC向けのGPUアクセラレータで、MCP技術によって業界屈指の大容量メモリと高性能を実現した製品です。MI300Xのパッケージには8つの計算チップレット(XCD)と4つのI/Oダイ、そして8スタックのHBM3メモリが統合されています​。合計192GBのHBM3は当初業界最大で、帯域は最大5.3TB/sに達します。8つの計算ダイはそれぞれが38基のGPUコンピュートユニット(CU)と4MBのL2キャッシュを持ち、下層のベースダイ(256MBのInfinity Cache搭載)上に3D実装されています。つまり、8+1ダイの3D積層構造によりトータル304基のCUという非常に大規模なGPUを構成しているのです​。このアプローチによりAMDはNVIDIA H100に対抗し得るハードウェアスペックを獲得しました。実際、MI300Xは競合のH100(80GB)に対し2.4倍のメモリを搭載したことで、大規模言語モデルなどパラメータ数の多いAIモデルの単機搭載を可能にしました。演算性能面でも、理論性能はH100 700W版に匹敵する水準に達しており、複数ノードでのスケーラビリティも高いと評価されています。2024年にはMI300X搭載システムが主要クラウドや研究機関に導入され始め、NVIDIA独走のGPU計算市場において一定のシェアを獲得しつつあります。特筆すべきは、MI300シリーズ全体で見るとAMDがCPUとGPUを統合したAPU(MI300A)も展開している点で、こちらはCPUダイとGPUダイをスタックする異種3D集積を実現しています。いずれにせよMI300Xは、チップレット+HBMによるMCP設計でメモリ容量と演算を両立し、AI分野で競争力を発揮した好例です。
  • Google TPU v6(コードネーム:Trillium)(2023年~2024年):Googleの第6世代Tensor Processing UnitであるTPU v6もMCPの恩恵を受けた一つのケースです。TPU v6は前世代v5eに比べピーク演算性能4.7倍を達成し、HBMメモリ容量・帯域も2倍に拡大しました。具体的には、各TPU v6チップあたり32GBのHBMを搭載し、従来16GBから倍増しています​(HBMスタック数も増強されたと推測されます)。またチップ間高速接続であるICI(Inter-Chip Interconnect)帯域も2倍となり、TPU同士のスケーラビリティが向上しました​。Googleは詳細なアーキテクチャを公表していませんが、これらスペック向上はTSMCのCoWoS等によるHBM統合2.5Dパッケージなくして実現困難です。実際TPU v4以降、水冷を要する高性能アクセラレータとしてHBMを採用しており、v6でもマルチチップモジュール化が図られたと見られます。2024年10月のカンファレンス報告によれば、TPU v6はv5e比で大規模モデルのトレーニングを平均約4倍高速化し、性能あたりコストも大幅に改善したとのことです​。これはMCP技術で電力効率や帯域効率が向上した成果でもあります。
  • Google TPU v7 “Ironwood”(2025年発表・推論特化):番外的な最新情報として、2025年4月にGoogleが発表した第7世代TPU「Ironwood」は、初めてチップレット設計を採用したTPUとなりました。Ironwoodは大規模推論(推論の時代)向けに設計されたアクセラレータで、一つのパッケージに2つの計算チップレット8基のHBM3Eメモリを搭載しています​。各HBMスタックは24GB容量と推定され、合計192GBのメモリを持つ計算になります。これは前述のBlackwellやMI300Xに匹敵するメモリ規模であり、推論処理が主にメモリ容量に左右されることを踏まえた設計です。Ironwoodのアーキテクチャ詳細は限定的ですが、Google関係者によれば9,216チップものIronwood TPUを相互接続して42.5エクサフロップという性能を実現できるとされ、大規模推論クラスタ向けに最適化されています。チップレット化によって歩留まりやスケーラビリティのメリットを享受しつつ、HBMを大量搭載するというMCPの典型と言えるでしょう。まさに「AI推論のためのMCP」の一例として注目されます。

以上の事例からも明らかなように、最先端のAI/HPCチップは軒並みMCP技術を採用し、メモリ容量・帯域の拡大とコア数増大による演算性能向上を両立しています。NVIDIA、AMD、Googleとアプローチは異なりますが、共通してHBMなど高帯域メモリのパッケージ内統合が鍵となっており、MCPが性能ボトルネック打破に大きく寄与していることが分かります。

今後の技術展望(冷却技術・3Dチップレット・地政学リスク・政策動向)

最後に、MCP技術の今後について展望します。冷却・実装・産業構造・政策支援といった側面から、2025年以降に予想される動きを解説します。

  • 冷却技術の進化: 前述のように、MCP化によってチップ当たりの発熱密度は飛躍的に高まっています。特に3D積層では内部にこもる熱の除去が課題です。このため、液冷やマイクロ流体冷却の導入が今後重要になるでしょう。既にデータセンター向けにはコールドプレートや浸漬液冷が普及し始めていますが、その次の段階としてチップ内冷却が研究段階から実用段階に進みつつあります​。例えばStanford大学の研究では、TSVと共存可能なマイクロ流路をチップ内に形成し冷却液を循環させる試みが報告されています​。Microsoftも「マイクロフルイディクスでシリコン内部に冷却を届ける」として独自実験を行っており​、将来的にはHBMスタック間やチップ間インターポーザ内に液体を流す設計が登場する可能性があります。加えて、現在は個別に行われている放熱構造(ヒートシンク、TIM配置など)をパッケージレベルで統合する動きも考えられます。例えばTSMCは「Integrated Cooling」と称する技術コンセプトを発表しており、パッケージ基板に直接水冷用の構造を組み込む研究も進めています。総じて、**「熱との戦い」**が今後のMCP技術深化における重要テーマとなるでしょう。
  • さらなる3Dチップレット化: 現状では2.5D(横配置)と部分的な3D積層の組み合わせが主流ですが、今後はより踏み込んだ3Dチップレットアーキテクチャが登場すると予想されます。具体的には、ロジックダイ同士の大規模3D積層や、メモリダイとロジックダイの積層統合などです。Samsungが発表したSAINT D(CPU上にDRAMスタック)や、Intelが提唱するFoveros DirectによるSoC3D(論理ブロックの分割積層)はその方向性です​。将来的には、例えばGPUコアをいくつかの小ダイに分割し、それらを3D積層で一つのGPUとして動作させる「立体GPU」のような構成も考えられます。実際、NVIDIAの今後のロードマップにおいても、1パッケージに複数GPUチップを搭載する案が示唆されています​(TSMCのCoWoS拡張計画にも、2つのGPUと8つのHBMを1パッケージにまとめる構想が言及)。このようにチップレットの3D集積度が一層高まれば、事実上「一つのパッケージ=一つのスーパーコンピュータノード」というレベルの集積が可能になります。また、チップレット間インターフェースの標準化(例えばUCIeなど)も進み、異なるメーカーのチップレットを組み合わせるエコシステムが形成される可能性もあります。もっとも、こうした高度な3D化には技術的ハードル(熱、テスト、歩留まり等)が多いため、段階的な進展になるでしょう。まず2025年前後には2.5D上に複数ロジックダイを配置するMulti-GPUパッケージや、HBMをさらに多数配置した巨大パッケージが具体化し、その先に真の3D論理積層が見えてくると考えられます。
  • 地政学的リスクとサプライチェーン再編: MCP/先端パッケージ分野でも地政学リスクへの対応が重要になっています。現在、最先端パッケージ能力の多くが東アジア(台湾・韓国・中国)に集中しています。例えばCoWoSの供給はTSMC台湾拠点に依存し、主要OSATのASEやSPILも台湾に集中しています。米中対立や台湾海峡リスクが高まる中、先端パッケージ工程がボトルネックとなって西側企業のチップ生産が停滞するシナリオも懸念されています。そのため米国・欧州・日本など各国で先端パッケージの国内拠点構築が推進されています。米国ではCHIPS法の下、先端パッケージ製造プログラム(NAPMP)に約25億ドルが割り当てられ、2025年には14億ドルの助成金が実際に拠出されました​。ジョージア州のAbsolics社(SKグループ)によるガラス基板工場や、アリゾナ州立大・Applied Materialsによる先端素材研究などが支援を受けています​。またニューヨーク州には先端パッケージ試作拠点(PPF)を整備し、国内で高ボリュームのパッケージ生産が可能な自律産業基盤を作る目標です​。欧州でも2024年末にイタリアのSilicon Box社が13億ユーロの補助金承認を受け、2025年着工・2028年稼働予定でパネルレベルの先端パッケージ工場を建設すると報じられました。この工場は週1万枚の大型パネル処理能力を目指し、フル稼働は2033年と息の長い計画ですが、EUとして供給網強靱化を図る一環です。日本もまた官民協調で先端封止技術の開発を進めており、経産省主導のラピダスやSCRUMプロジェクト内で先端パッケージ研究が含まれています。総じて、**「パッケージ技術の地産地消」**が各国の半導体政策テーマとなりつつあり、地政学リスク分散と経済安全保障の観点から今後10年で生産地分散が進むでしょう。
  • 新素材・新基板(ガラス・パネル)への移行: 技術的展望として、現在主流のシリコンインターポーザ+有機基板という構造から、ガラス基板パネルレベルパッケージへの移行が進むと見られます。前述のIntelやSilicon Boxの計画が象徴するように、ガラスは寸法安定性と低誘電率に優れるため、より大きなパッケージ(例えば片手サイズに迫るAIモジュール)でも精密な配線を可能にします。これにより、8基以上のHBMや複数GPUを載せた超大型パッケージでも高い信号品質と歩留まりを確保できる可能性があります。またウェハではなく角形パネルで製造する**パネルレベルパッケージ(PLP)**は、生産効率向上と大面積対応に有利です。TSMCも研究段階ながら515×510mmの矩形パネルを用いたプロセスを実験中と報じられ、12インチ円形ウェハの有効面積を3倍以上にできるとされています。パネル化が実現すれば、1パッケージに占める面積が大きいAIチップでも一度に多数を製造でき、コストと生産性でメリットが出ます。ただし装置投資や標準化など課題も多く、本格的な産業移行は数年先と見られます。それでも将来の需要を見据え、TSMC・Samsung・Intelの3社が既に参入の意向を示しているため、2030年頃にはガラス基板+パネル量産ラインが立ち上がっている可能性があります。

以上、技術的・産業的な観点からMCPの未来を展望しました。要約すれば、「より立体的に、より大規模に、そしてより広く地理的に」が今後10年のキーワードと言えます。冷却と実装技術の進歩でMCPの集積度はさらに高まり、ガラスやパネルといった新基盤技術で物理的限界を拡張し、各国の投資でグローバルサプライチェーンも多極化していくでしょう。MCPは半導体技術のフロンティアとして進化を続け、AI半導体の性能向上と供給安定に欠かせない存在となっていくはずです。

Appendices

Appendix A: MCP導入チェックリスト(設計・開発用)

  1. システム要件分析 – モジュール化すべき機能ブロックの定義(演算ダイ、I/Oダイ、メモリダイなど)と、必要な帯域/レイテンシ目標の明確化。従来SoCとの性能・コスト比較評価。​bcg.combcg.com
  2. チップレット分割設計 – ダイ分割の粒度決定(Reticleサイズ制約や歩留まり改善効果の検討)。各チップレット間インターフェースの仕様策定(プロトコル、PHY、UCIe準拠可否)。
  3. パッケージ技術選定 – 2.5D vs 3D、インターポーザ材質(Si/有機/ガラス)、バンプ方式(マイクロバンプorハイブリッドボンド)など、要件に適した実装技術の選択。​trendforce.comaseglobal.com
  4. 熱設計と電力供給 – 熱シミュレーションによるホットスポット解析、必要なら液冷・TIM追加などの対策検討​datacenterdynamics.com。PDN設計も重要(シリコンブリッジやインターポーザ電源層の最適化)。
  5. サプライチェーン確保 – 製造委託先の選定(ファウンドリとOSATの連携確保)。CoWoSやEMIB等の量産キャパシティ確認​anandtech.com。また重要部材(高密度基板、HBMメモリ)の調達計画立案。​3dincites.com
  6. テスト計画 – Known Good Dieの確保、スタック後テスト手法(BISTやDFT回路の活用)。チップレット単体テストとパッケージ完成後テストのフロー設計。
  7. コスト試算と歩留まり分析 – チップレット化によるダイコスト/パッケージコストの見積もり。歩留まりモデルを構築し全体コストをSoC案と比較。必要に応じ設計フィードバック。
  8. 将来拡張性検討 – 次世代への再利用(IPモジュール化)や、製品バリエーション展開のシナリオ策定​bcg.com。インターフェース標準対応(UCIe等)も視野に。

Appendix B: MCP構造図テンプレート(構造イメージ作成用ガイド)

  • 層構成: 下から順に有機パッケージ基板(PCB)、はんだバンプ、シリコンインターポーザ/ブリッジ層(2.5Dの場合)、μバンプ、ロジックダイ層、および必要に応じてその上のHBMメモリ積層(3D)を描画する。ヒートスプレッダやヒートシンクも上部に配置。
  • 要素表記: ダイには名称と主要機能(例:「GPUコアダイ」「HBMスタック×8(each 16GB)」など)を記載。インターポーザ内のTSV位置や再配線層(RDL)は模式的に格子状パターンで示す。電源供給ネットやグランドも適宜層状に表現。
  • 寸法感: スケールバーを入れ、おおよその寸法感(例:HBMスタック高さやインターポーザ厚みなど)を表示。これにより3D構造のサイズイメージを把握しやすくする。
  • 熱経路: 熱の流れる方向を赤矢印等で示し、ヒートスプレッダから各ダイへの伝導、TIM界面などを注記。必要なら冷却液チャネル(将来的実装)を点線で示す。
  • 凡例: TSV、μバンプ、C4バンプ、RDL、シリコンダイ、インターポーザ、基板、ヒートシンクといった要素ごとに色分けし、凡例を付す。例えばTSV=緑、バンプ=オレンジ、シリコン=青など。

このテンプレートに従えば、自社開発中のMCP構造を関係者間で共有する際に活用できる分かりやすい断面図が作成可能です。

Appendix C: マルチチップパッケージ技術年表(インタラクティブ年表案)

  • 1990年代: MCM(Multi-Chip Module)技術、ハイエンド計算機に導入(IBM、DECなど)。複数プロセッサやキャッシュをセラミック基板上に実装。​en.wikipedia.org
  • 2006年: IntelがCore 2 Quad発売。2ダイ1パッケージのCPUでコンシューマ向け初のMCM採用。​en.wikipedia.org
  • 2014年: TSMC、CoWoSを本格量産(NVIDIA Tesla K80 GPUなどでHBM2搭載実現)。
  • 2015年: Xilinx、3D IC FPGA (Stacked Silicon Interconnect) 商用化。シリコンブリッジ(後のIntel EMIBに類似)も登場。
  • 2017年: Intel、EMIB技術をStratix 10 FPGAで実用化。同年、AMDがRyzenでCPUチップレット+IOダイのMCP設計採用を発表。
  • 2018年: NVIDIA、Tesla V100 GPUでHBM2 MCM採用(GPU+HBM×4)。
  • 2019年: Intel、Foveros採用のLakefield発表(ロジックダイ積層3D IC初)。
  • 2020年: AMD、CDNA2世代GPU(MI200)で2ダイMCM GPU実現。HBM2E 128GB搭載。
  • 2022年: NVIDIA、H100 GPU(Hopper)発売。CoWoS-SでHBM3統合、80GB/3TB/s達成。
  • 2023年: AMD、MI300X発表。GPUチップレット×8 + 192GB HBM3。​chipsandcheese.com
  • 2024年: NVIDIA、Blackwell世代GPU開始。HBM3E 192–288GB、FP4 15PFLOPS。​theregister.comtheregister.com
  • 2025年: Google、TPU v7 “Ironwood”発表。2チップレット+HBM8スタック構成採用。​substack.comsubstack.com
  • 2026年以降: Intel、ガラス基板パッケージ量産計画。​trendforce.comSamsung、X-Cubeハイブリッド実用化目標。TSMC、SoIC広範展開。

以上、MCPの定義から技術・市場・事例・展望までを包括的に解説しました。AI半導体におけるMCPのインパクトは今後ますます大きくなり、技術革新と業界構造の両面でイノベーションを促進すると期待されます。本記事が最新動向の理解にお役立ちましたら幸いです。​bcg.combcg.com

AI テクノロジー

2025/4/29

MCP(マルチチップパッケージ)とAI半導体の最新動向: AIブームが促すアドバンストパッケージング革命

はじめに: なぜ今MCPに注目か 近年のAIブームにより、データセンターやHPC(ハイパフォーマンスコンピューティング)向けサーバー市場が急速に拡大しています。その牽引役となっているのが大規模言語モデルなどのAIワークロードであり、従来低迷していた一般サーバー市場を尻目にAIサーバーの需要が旺盛です​。AI半導体(GPUやAIアクセラレータなど)では、演算性能とメモリ帯域幅への要求が飛躍的に高まっており、これに応えるためにMCP(Multi-Chip Package、マルチチップパッケージ)技術への注目が ...

AI 半導体

2025/4/29

MCP(Multi‑Chip Package)の最新動向とAI半導体へのインパクト(2024–2025)

MCPの定義・歴史・従来パッケージとの違い MCP(マルチチップパッケージ)とは、一つの半導体パッケージ内に複数のチップ(ダイ)を統合する技術を指します。従来は1パッケージに1チップが原則でしたが、MCPでは複数のICを単一コンポーネントのように扱えるようにします​。これにより、システムとして必要な機能を一つのパッケージ内で実現でき、性能向上・小型化・コスト低減といったメリットがあります​。例えば、Boston Consulting Groupの分析によれば、MCPにより「一つのパッケージに多様な半導体チ ...

AI DX 働き方

2025/4/26

AIエージェントが事務職を変革 – 最新動向と2030年への展望

導入 人工知能(AI)の進化により、これまで人が行ってきた事務作業の 事務自動化 が加速しています。特に対話型AIやRPAに代表される AI事務アシスタント(AIエージェント)の登場は、一般事務から専門事務まで幅広い職種の業務プロセスを大きく変えつつあります。近年発表された信頼性の高い研究や調査によれば、AIエージェントの導入によって 業務効率化(生産性向上)やコスト削減、人材不足の緩和など多くのメリットが報告されています。本稿では、2022年以降の最新動向に基づき、事務職5分野(一般事務・経理・人事・営 ...

AI テクノロジー

2025/4/16

ChatGPT-5.5がもたらす2025年日本の仕事環境と副業市場への影響

ChatGPT-5.5の技術的進化と予想されるリリース時期 ChatGPT-5.5(仮称)は、現行モデルをさらに強化した次世代AIとして注目されています。OpenAIのサム・アルトマンCEOは、GPT-5(ChatGPT-5相当)のリリースについて「近いうちに」と示唆しつつも具体的な日程は明言していません。一部のテックメディアでは2025年後半にChatGPT-5.5が発表される可能性も報じられており、現行のGPT-4を超える性能が期待されています​。技術的な進化としては、大規模言語モデルの持つ高度な言語 ...

AI キャリア

2025/4/10

AI時代の仕事と人間らしさ戦略:AIに代替されない職種とスキルとは

AI疲れと“人間味”価値の再評価 – なぜ今このテーマが重要か 近年、生成AIや自動化技術の急速な発展により、ビジネスから日常生活まであらゆる場面でAIの存在感が増しています。しかし同時に、「AI疲れ」とも呼ばれる現象も広がりつつあります。テレビCMやニュース、広告からSNSまで、いたる所にAIという言葉があふれ​、人々はAIの過剰な宣伝や情報にやや辟易し始めているのです。「AI搭載」が売り文句になっても多くの消費者はそれほど響かなくなっており、45%の人がAI機能の有料サービスに関心がないとの調査結果も ...

-AI, 半導体
-, , , , ,