AI関連銘柄を、AI売上(推定)・成長差分・依存度・確度で比較して、何を確認すべきかを分かりやすく整理します。
テーマで絞り込む
NVIDIA Corporation
AI向けGPUを設計・販売する半導体企業。H100・H200・Blackwell(B200)シリーズがデータセンター向けの主力製品で、AIサーバー投資の拡大が業績に反映されやすい構造にある。ソフトウェアプラットフォームCUDAと組み合わせた製品エコシステムが、AI開発インフラの標準として広く使われている。
生成AIの学習と推論で広く使われるGPUを供給する中核企業。AIデータセンター投資が増えるほど同社製品への需要増につながりやすい。CUDAエコシステムにより開発者が他社製品へ切り替えるコストが高く、AI需要への関与度が業界内でも高い水準にある。
Taiwan Semiconductor Manufacturing Co.
世界最大級の半導体受託製造企業。NVIDIAやAppleを始め主要チップ企業の先端半導体を受託製造し、3nm・2nm世代の最先端プロセスと先端パッケージング(CoWoS)に強みを持つ。AI関連の受注比率が事業全体の中で高まってきており、米国・日本・欧州への工場分散も進めている。
先端GPUやAI向けASICの製造を通じてAI需要に深く関わっている。CoWoSなど先端パッケージング需要の拡大が受注増加につながりやすく、AIチップ顧客の設備投資が同社の製造量に直結しやすい構造にある。
Broadcom Inc.
ネットワーク用半導体とカスタムAIチップ(ASIC)設計を手がける半導体・インフラソフトウェア企業。Google・Metaなど大手テクノロジー企業向けに専用AIプロセッサ(XPU)を受注設計している。VMwareを中心としたソフトウェア事業も収益の柱の一つとなっている。
カスタムAIチップ(XPU)の受注設計事業が主要顧客のAIインフラ拡大と連動しやすく、顧客の設備投資増加が同社の収益につながる構造がある。AIデータセンター内のネットワーク接続用Ethernetチップも高い需要を維持しており、AIインフラの複数領域に関わっている。
Palantir Technologies Inc.
ビッグデータ解析とAI意思決定プラットフォームを政府機関・民間企業向けに提供するソフトウェア企業。AIP(AI Platform)が主力製品で、米国防省や情報機関を主要顧客として持つ。
AIP(AI Platform)が業務システムにLLMを組み込む基盤として企業・政府機関向けに採用されており、AI需要の拡大が直接的に売上に反映されやすい事業構造を持つ。政府向けと商業向けの両部門でAI活用の案件が増えており、AI予算の拡大が同社の収益につながりやすい。
Alphabet Inc.
Google検索・YouTube・広告事業を中核とするAlphabetの持株会社。独自のTPUチップとGeminiモデルを開発し、Google CloudではAIサービスの提供を拡充している。AndroidやChromeなどのプラットフォームにもAI機能の統合が進んでいる。
Geminiモデルを通じてGoogle Cloud上での企業向けAIサービスを提供しており、既存クラウド顧客にAI機能が追加されるほど収益が積み上がりやすい。検索・広告へのAI統合も進んでおり、AI活用の広がりが複数事業に波及しやすい構造にある。
Microsoft Corporation
WindowsやOffice 365などのソフトウェアに加え、AzureクラウドでITインフラを提供する大手IT企業。OpenAIへの出資を機に、CopilotブランドでAI機能を自社製品全体に組み込む取り組みを本格化している。クラウド・ソフトウェア両面で大きな売上規模を持ち、AI移行期の事業構造を持つ。
OpenAIへの出資を通じてGPT技術をAzureおよびMicrosoft 365 Copilotに組み込み、企業のAI活用基盤として採用が広がっている。Azure AIサービスの収益成長がクラウド部門全体をけん引しており、企業向けAI需要の拡大がMicrosoft製品全体の利用拡大につながりやすい。
Super Micro Computer Inc.
AIサーバーおよびHPCシステムの設計・製造を主力とするサーバーメーカー。NVIDIAのGPUを搭載したフルラック型AIサーバーを顧客仕様に合わせて納品できる点に強みを持つ。液冷システムなどエネルギー効率を重視した設計にも力を入れている。
AIデータセンター向けGPUサーバーをフルラック単位で提供し、納期の速さと液冷対応が評価されている。AIサーバーへの設備投資が増えるほど同社への発注が増えやすい構造にあり、ハイパースケーラーと中規模企業の両方を顧客に持つ。
Advanced Micro Devices Inc.
CPUとGPUの両分野を手がける半導体企業。データセンター向けにはInstinctシリーズのAIアクセラレータを展開し、EPYCシリーズCPUはサーバー市場でシェアを拡大している。FPGAも製品ポートフォリオに持つ。
MI300X・MI350XなどのAIアクセラレータをHyperscalerや研究機関向けに提供し、GPU市場への参入実績を積み上げている。ROCmソフトウェア基盤の整備により、AIワークロードにおける選択肢として採用実績が増えている。
Arm Holdings plc
スマートフォンからサーバーまで幅広く使われるCPUアーキテクチャ(ARM)の設計・ライセンス企業。AIチップ設計の基盤として地位を高めている。
スマートフォン・IoT・データセンター向けCPUコア設計をライセンス提供し、AI推論チップの大部分がARMアーキテクチャを採用。Neoverse V3シリーズがAIデータセンター向けに急伸している。
Micron Technology Inc.
DRAMおよびNAND型フラッシュメモリを設計・製造する半導体メモリ企業。データセンター向けDRAMと、AI GPU専用の高帯域幅メモリ(HBM)の両方を展開している。サムスン電子・SKハイニックスと並ぶメモリ大手の一社。
HBM3EなどのAI GPU向け高帯域幅メモリをNVIDIAのGPUサーバー向けに供給しており、AIデータセンター投資の拡大が同社のHBM出荷増に直結しやすい。AI GPU向けメモリは通常のDRAMより単価が高く、HBMの販売比率が上がるほど収益性が改善しやすい構造がある。
AIアクセラレータ/プラットフォーム
AI向けGPUを設計・販売する半導体企業。H100・H200・Blackwell(B200)シリーズがデータセンター向けの主力製品で、AIサーバー投資の拡大が業績に反映されやすい構造にある。ソフトウェアプラットフォームCUDAと組み合わせた製品エコシステムが、AI開発インフラの標準として広く使われている。
生成AIの学習と推論で広く使われるGPUを供給する中核企業。AIデータセンター投資が増えるほど同社製品への需要増につながりやすい。CUDAエコシステムにより開発者が他社製品へ切り替えるコストが高く、AI需要への関与度が業界内でも高い水準にある。
AIファウンドリ/先端パッケージ
世界最大級の半導体受託製造企業。NVIDIAやAppleを始め主要チップ企業の先端半導体を受託製造し、3nm・2nm世代の最先端プロセスと先端パッケージング(CoWoS)に強みを持つ。AI関連の受注比率が事業全体の中で高まってきており、米国・日本・欧州への工場分散も進めている。
先端GPUやAI向けASICの製造を通じてAI需要に深く関わっている。CoWoSなど先端パッケージング需要の拡大が受注増加につながりやすく、AIチップ顧客の設備投資が同社の製造量に直結しやすい構造にある。
AIネットワーク/カスタム半導体
ネットワーク用半導体とカスタムAIチップ(ASIC)設計を手がける半導体・インフラソフトウェア企業。Google・Metaなど大手テクノロジー企業向けに専用AIプロセッサ(XPU)を受注設計している。VMwareを中心としたソフトウェア事業も収益の柱の一つとなっている。
カスタムAIチップ(XPU)の受注設計事業が主要顧客のAIインフラ拡大と連動しやすく、顧客の設備投資増加が同社の収益につながる構造がある。AIデータセンター内のネットワーク接続用Ethernetチップも高い需要を維持しており、AIインフラの複数領域に関わっている。
AIアプリケーション
ビッグデータ解析とAI意思決定プラットフォームを政府機関・民間企業向けに提供するソフトウェア企業。AIP(AI Platform)が主力製品で、米国防省や情報機関を主要顧客として持つ。
AIP(AI Platform)が業務システムにLLMを組み込む基盤として企業・政府機関向けに採用されており、AI需要の拡大が直接的に売上に反映されやすい事業構造を持つ。政府向けと商業向けの両部門でAI活用の案件が増えており、AI予算の拡大が同社の収益につながりやすい。
AIクラウド/プラットフォーム
Google検索・YouTube・広告事業を中核とするAlphabetの持株会社。独自のTPUチップとGeminiモデルを開発し、Google CloudではAIサービスの提供を拡充している。AndroidやChromeなどのプラットフォームにもAI機能の統合が進んでいる。
Geminiモデルを通じてGoogle Cloud上での企業向けAIサービスを提供しており、既存クラウド顧客にAI機能が追加されるほど収益が積み上がりやすい。検索・広告へのAI統合も進んでおり、AI活用の広がりが複数事業に波及しやすい構造にある。
AIクラウド/プラットフォーム
WindowsやOffice 365などのソフトウェアに加え、AzureクラウドでITインフラを提供する大手IT企業。OpenAIへの出資を機に、CopilotブランドでAI機能を自社製品全体に組み込む取り組みを本格化している。クラウド・ソフトウェア両面で大きな売上規模を持ち、AI移行期の事業構造を持つ。
OpenAIへの出資を通じてGPT技術をAzureおよびMicrosoft 365 Copilotに組み込み、企業のAI活用基盤として採用が広がっている。Azure AIサービスの収益成長がクラウド部門全体をけん引しており、企業向けAI需要の拡大がMicrosoft製品全体の利用拡大につながりやすい。
AIサーバー/HPC
AIサーバーおよびHPCシステムの設計・製造を主力とするサーバーメーカー。NVIDIAのGPUを搭載したフルラック型AIサーバーを顧客仕様に合わせて納品できる点に強みを持つ。液冷システムなどエネルギー効率を重視した設計にも力を入れている。
AIデータセンター向けGPUサーバーをフルラック単位で提供し、納期の速さと液冷対応が評価されている。AIサーバーへの設備投資が増えるほど同社への発注が増えやすい構造にあり、ハイパースケーラーと中規模企業の両方を顧客に持つ。
AIアクセラレータ/プラットフォーム
CPUとGPUの両分野を手がける半導体企業。データセンター向けにはInstinctシリーズのAIアクセラレータを展開し、EPYCシリーズCPUはサーバー市場でシェアを拡大している。FPGAも製品ポートフォリオに持つ。
MI300X・MI350XなどのAIアクセラレータをHyperscalerや研究機関向けに提供し、GPU市場への参入実績を積み上げている。ROCmソフトウェア基盤の整備により、AIワークロードにおける選択肢として採用実績が増えている。
半導体
スマートフォンからサーバーまで幅広く使われるCPUアーキテクチャ(ARM)の設計・ライセンス企業。AIチップ設計の基盤として地位を高めている。
スマートフォン・IoT・データセンター向けCPUコア設計をライセンス提供し、AI推論チップの大部分がARMアーキテクチャを採用。Neoverse V3シリーズがAIデータセンター向けに急伸している。
AIメモリ
DRAMおよびNAND型フラッシュメモリを設計・製造する半導体メモリ企業。データセンター向けDRAMと、AI GPU専用の高帯域幅メモリ(HBM)の両方を展開している。サムスン電子・SKハイニックスと並ぶメモリ大手の一社。
HBM3EなどのAI GPU向け高帯域幅メモリをNVIDIAのGPUサーバー向けに供給しており、AIデータセンター投資の拡大が同社のHBM出荷増に直結しやすい。AI GPU向けメモリは通常のDRAMより単価が高く、HBMの販売比率が上がるほど収益性が改善しやすい構造がある。
AI期待度
0〜100の参考スコア。AI関連の成長期待度を4軸で算出した目安値です。
AI売上(推定)
AI関連から生まれる売上規模の目安です(百万ドル単位)。
AI成長力
AI関連事業の成長がどれだけスコアを押し上げているかを見る指標です。
AI依存度
その企業の事業がAI需要とどれだけ強くつながっているかを示します。
確度
データの信頼性。高いほどスコアに自信があります(1〜10)。
本サイトは参考情報の整理を目的としており、投資助言ではありません。最終的な投資判断はご自身の責任で行ってください。掲載情報の正確性・完全性・最新性は保証しません。