2022年12月某日、AMDのエグゼクティブ・バイスプレジデントのリック・バーグマン氏(コンピューティング/グラフィックス事業部)と、同社シニア・バイスプレジデントのデビッド・ワン氏(エンジニアリング、Radeonテクノロジー部門)が来日した。

 肩書からも分かる通り、両氏は「Radeonシリーズ」を始めとする同社のGPU製品の企画/開発において重要な役割を果たしている。

 AMDのGPUに関する戦略について、筆者は日本滞在中の両氏から話を伺う機会を得た。この記事では、その模様をお伝えする。

●AMDはなぜ「超ハイエンドGPU」を発売しないのか?

 AMDは、先進のCPUとGPUを世に送り出している半導体メーカーである。そのことは、PC USER読者の皆さんに説明は不要だろう。同社が2022年12月にリリースしたRadeon RX 7900シリーズ(開発コード名:Navi31)が価格と性能のバランスに優れたGPUであることは、皆さんはもちろん世界中のゲームファンも理解しているはずだ。

 同社の競合であるNVIDIAは、Radeon RX 7900シリーズに少し先んじて新型GPU「GeForce RTX 40シリーズ」を発表している。そのフラグシップモデルである「GeForce RTX 4090」(開発コード名:AD102)は、ぶっちぎりの高性能である反面、一般ユーザーが購入するには厳しい価格設定で、グラフィックスカード自体もさらに巨大化し、消費電力も常識を超える高さとなってしまった。

 この事実は、一見するとRadeon RX 7900シリーズの“追い風”となっているようにも思える。

 良識的な高性能GPUを市場に投入する――AMDの方針は、ビジネス的な戦略として間違っていないと思う。一方で、AMDは随分と長い間、競合であるNVIDIAのGPUとの「絶対的な最高性能における勝負」を避けている。CPUでは競合のIntelに対して、クライアントとサーバ/データセンターの両分野で果敢に勝負を挑んでいるのとは対照的だ。

 なぜ、競争戦略においてこのような微妙な差があるのだろうか。バーグマン氏はこう語る。

バーグマン氏 技術的には、彼ら(NVIDIA)と拮抗(きっこう)するスペックのGPUを開発することは可能です。しかし、こうして開発したGPUを「TDP(熱設計電力)が600Wで、参考価格が1600ドル(約21万9000円)のグラフィックスカード」として市場に投入したとして、一般のPCゲーミングファンの皆さんに受け入れてもらえるのか――それを考えた上で、我々はそのような戦略を取らない選択をしたということです。

 ここでバーグマン氏が言及した「TDP(熱設計電力)が600Wで、参考価格が1600ドル(約21万9000円)のグラフィックスカード」は、「GeForce RTX 4090」のことを指していると思われる。GeForce RTX 4090は当初、目標TDPを600Wとして開発を進められていたが、最終製品版では450Wに引き下げられたという逸話がある。

 バーグマン氏はこう続ける。

バーグマン氏 今回リリースしたRDNA 3ベースのGPU「Radeon RX 7900XTX」は、一般のPCゲーミングファンのうち、ハイエンドユーザーが想定する“上限価格”と思われる999ドル(約13万6000円)をターゲットにして開発しました。その下の「Radeon RX 7900XT」は699ドル(約9万5000円)としています。 価格面での戦略は先代のRDNA 2(Radeon RX 6000シリーズ)でも同様で、最上位の「Radeon RX 6900XT」と「Radeon RX 6800XT」はそれぞれ999ドル、699ドルをターゲットとしています。ただし、ターゲット価格はGPU世代ごとに変えています。 我々がこうした戦略を取るのは、現在のPCゲーミングファンが活用している主流のインフラ(ハードウェア環境)に適合させるためです。高い性能を求めると同時に、「既存の“常識的な”電源ユニットで動かせること」「ケース内の冷却も“常識的な”もので行えること」「極端に大きなケースが必要なくても搭載できること」――これらを重視して設計したのが、Radeon RXのハイエンド製品群なのです。

●NVIDIAはなぜ「超ハイエンドGPU」を発売できる?

 確かに、AMD(バーグマン氏)の主張はよく分かる。競合のGeForce RTX 4090は、高性能であるがゆえに価格も高く、相当高出力な電源ユニットが必要な上、グラフィックスカードの全長も30cmオーバーで、搭載可能なPCケースが相当に限られる。

 そこで湧いてくる疑問が、なぜNVIDIAはAMDと逆の戦略、つまり消費電力やサイズを犠牲にしても、絶対的な高性能を備えるGPUを開発する戦略を取るのかという点である。端的に理由をいえば、極端な高性能追求型のGPUを世に出しても、ビジネス的な勝算を見込めるからだ。

 NVIDIAは、2006年の「GeForce 8800 GTX(開発コード名:Tesla)」から、GPUをグラフィックス描画以外の汎用(はんよう)演算に利用する「GPGPU(General Purpose GPU)」に注力している。その成果物が、最近は耳慣れた感もある「CUDA(Compute Unified Device Architecture)」というプラットフォーム基盤だ。

 現在のCUDAは、エコシステムといっても過言ではない。科学技術計算用の「HPC(High Performance Computing)」分野はもちろん、AI(人工知能)の技術開発など、GPGPUは学術分野において急速に浸透していったことはあまりにも有名である。

 20年前は意味不明な単語だっただろう「GPUサーバ」という言葉が、今ではありふれたキーワードにまでなったのも、このCUDAの成功と切り離すことはできない。

 CUDAの成功によって、NVIDIAは超ハイエンド級のGPUをHPC分野やGPGPU用途にも転用できる道筋を“開拓してしまった”。このことは、現在における同社の強みとなっている。

 直近の事例でいうと、最新のAda Lovelace(開発コード名)世代のGPUチップにおける最上位「AD102」は、1599ドル(日本では29万8000円)スタートのGeForce RTX 4090で使われている。しかし、このチップを搭載するHPC/GPGPU向けグラフィックスカード「NVIDIA RTX 6000 Ada」は、6600ドル(日本では120万円)からと4倍以上の値付けとなっている。

 極端な話、たとえGeForce RTX 4090の売り上げが“そこそこ”だったとしても、金に糸目をつけないHPC/GPGPU分野における顧客が、NVIDIA RTX 6000 Adaを買ってさえくれれば、商業的には“成功”なのである。

 AMDも、コンシューマー向けの「Radeon」、プロ向けの「Radeon PRO」以外に、HPC/GPGPU用途向けの「Radeon Instinct(インスティンクト)」というGPUブランドを持っている。ただし、「CDNA」というRadeon/Radeon PROとは異なるアーキテクチャを採用している(現在は第2世代の「CDNA 2」)。

 コンシューマー向けからHPC/GPGPU向けまで、同一アーキテクチャでカバーするNVIDIAと比べると、ビジネスモデル面における流麗さは薄い。GPGPU分野への進出が遅れてしまったことが、今になって響いているのかもしれない。

 いずれにせよ、現在のAMDのGPU戦略は、現在の彼らが取れる“最良の選択”ということではあるのだろう。

 一方で、CPUについてはどうか。先述の通り、あらゆる分野において競合のIntelに対して戦いに挑んでいる。常に頂点を目指しているようにも見える。

 この点をバーグマン氏に尋ねてみると、こんな答えが返ってきた。

バーグマン氏 CPUのRyzenシリーズでも、我々の考え方は同じです。「現在のPCゲーミングファンが活用している主流のインフラに適合させる」という点で一貫性があります。 2016年、登場したばかりの「Socket AM4」を生かして最高性能を発揮できる「初代Ryzen(Ryzen 1000シリーズ)」をリリースしました。当時のPCゲーミングファンにとって、適正な価格を実現できるように心掛けたCPUです。 EPYCシリーズも、当時のサーバ/データセンター向けCPUとしては劇的にコストパフォーマンスが良かったために、サーバー業界におけるAMDシェアを大きく拡大することに成功しました。

 確かにその通りかもしれない。ただ、Ryzenには超ハイエンドクラスの「Ryzen Threadripperシリーズ」というさらに上位の製品もある。一部のエンスージアストやハイエンドゲーマーは、GPU製品でも「強い上にもさらに強いRadeon」の登場を願っているのではないだろうか。

 この点について、バーグマン氏はこう答える。

バーグマン氏 確かに、Ryzen Threadripperはクレイジーなほどに高性能です(笑)。しかし、我々としては一般ユーザーやゲーマー向けのCPUとして開発したとは思っていません。CPUソケットも特殊ですし、メインストリームのSocket AM4ソケットには適合しないことからも分かるでしょう。 ただ、キャッシュメモリのダイをスタック実装している3D V-Cache技術を適用したRyzenシリーズは、そういった超ハイエンドゲーマー向けの受け皿にはなっていると考えています。

 ここでワン氏がつけ加える。

ワン氏 ひと言だけ言わせてもらうとすれば、私たちAMDも、超高性能GPUは開発しているし、リリースもしています。例えば今から2年前、世界初のマルチダイGPUとして「Instinct MI200シリーズ」を発表しました。 シリーズの最上位モデルである「Instinct MI250X」は、FP32(単精度浮動小数点数演算)の理論性能において当時世界最速の約48TFLOPSをマークしていました。これはInstinctシリーズなのでゲーミング向けGPUというわけではありません。ただ、Instinctシリーズを見て頂ければ、AMDもやろうと思えば(超ハイエンドGPUを)開発できることは分かるはずです。 私たちとしては、そのようなGPUはコンシューマー向けには適さないと判断しているだけです。

 日本のPCゲーミングファンには、AMDを応援しているユーザーもそれなりにいる。彼らは、NVIDIAのGPUに対してAMDが対等に“挑んでいた”時代のことをよく覚えている。直近(?)でいえば、約10年前の「GeForce GTX 580」と「Radeon HD 7970」の戦いあたりだろうか。その“再来”を望んでいるのだ。

 そんな思い出話をバーグマン氏にぶつけると、笑いながらこう答えた。

バーグマン氏  確かにあの時代は熱かったですね。ただ、昔と今では、ハイエンドGPUの性能レンジと開発コスト、製造コストがだいぶ違っています。 我々は近年、PCゲーミングファンに対して競合(NVIDIA)のような「1600ドルGPU」を企画していません。変わりに、性能とコストのバランスが取れた、1000ドルクラスに収まるGPUの企画に注力していいます。 彼らとは600ドルほどの“差”はありますが(笑)、その600ドルを使って他のパーツ調達――例えばCPUとか――に予算を回した方が、より良いゲーム体験につながると考えています。

●CPUでもGPUでも「チップレット」 しかし“使い方”が異なる

 Radeon RX 6900XT/6900 XTXで使われているRDNA 3アーキテクチャに基づくGPUチップ「NAVI31」では、GPUチップとしては初めて「チップレット」と呼ばれるアーキテクチャを採用した。

 チップレットは構成回路を幾つかのダイに分割し、必要な機能のダイを組み合わせて1枚のチップを構成する考え方で、AMDはZen 2アーキテクチャ以降のCPU(Ryzen 3000シリーズ/Ryzen 4000Gシリーズなど)から採用した。Zen 2以降のCPUでは、最大8コアを備える「CPUダイ(CCX:Core Complex)」と、CPUダイ同士の連結も担う「I/O(入出力)ダイ」を用意し、必要な性能に応じて連結するCPUダイの数を変更するという手法で多コアCPUを低コストで製造することに成功した。

 例えば通常のデスクトップ/ノートPC向けRyzenは最大2基(=16コア)、超ハイエンドのRyzen Threadripperシリーズなら最大8基(=64コア)、EPYCシリーズなら最大12基(=96コア)……といった感じである。

 RDNA 3アーキテクチャの場合は、中心に大きめの「GPUコア(GCD:Grapics Core Die)」を配し、その周辺部に「メモリ&キャッシュコントローラー(MCD)」を置いている。

 「RDNA 3アーキテクチャでチップレットが採用される」と判明した際、大方の予想では「Zen 2以降と同じように、GPUコアを必要に応じて増減できる設計では?」とされていた。しかし、少なくともNavi31が登場した段階においてGPUコアを増減できる設計を取る可能性は否定されている。

 より高性能なGPUとするために、GPUコアをチップレットで増減できるようにする――有効な手だてだと思えるのだが、なぜそれを見送ったのか。ワン氏に尋ねると、こう返ってきた。

ワン氏 チップレットアーキテクチャは、製造コストを削減しつつ高性能なプロセッサを実現させるために用いることで“真価”を発揮できます。 ご存じの通り、現在のハイエンドGPUコアには1万基以上の演算コア(浮動小数点演算器)が内包されています。これはCPUコアの1000倍以上の数です。この状態でGPUダイ同士をインターコネクト接続(連結)しようとすると、それだけで接続点が膨大になって、確実な電気信号の伝達を担保できません。なので、現時点ではCPUダイと同じノリでGPUダイを連結することは工数はもちろんコスト的にも困難です。やってできないことはないでしょうが……。 そうするくらいなら、現時点では大規模なGPU(コア)を作ってしまった方が効率が良く、コストも抑えられます。ゆえに、現世代(RDNA 3アーキテクチャ)では、「マルチGPUダイ」の実現は見送ることにしました。

 バーグマン氏はこう付け足す。

バーグマン氏 半導体ビジネスでは、常に「性能」と「製造コスト」のトレードオフを見極めなければなりません。この分野(マルチGPUダイ)への挑戦については、まだまだ続くし、将来に期待していただければと思います。

●「レイトレーシング時代」だからこそAMDが注力すること

 コンピューターグラフィックス業界では、「リアルタイムレイトレーシング」の実現は1つの大きな目標とされてきた。

 AMDもRDNA 2アーキテクチャ世代でようやくリアルタイムレイトレーシングの“土俵”に上がることができた。PlayStation 5やXbox Series X|Sに搭載されたAMD製のAPU(GPU統合型CPU)でも、GPUコアにリアルタイムレイトレーシングエンジンを搭載している。「ゲームにおけるレイトレ時代」は、既に幕が上がったと考えてもよいだろう。

 しかし、レイトレーシングという技術は、アルゴリズムがシンプルであるがゆえに、処理の負荷は大きい。筆者も連載で言及した通り、現在の処理能力では、ゲームグラフィックスの全要素にリアルタイムレイトレーシング処理を行うことは無理である。ラスタライズ法とレイトレーシング法を併用する「ハイブリッドの時代」が当面続くことになるだろう。

 そこで気になるのは、AMDがレイトレーシングというテーマにどのように取り組み、GPUの性能面においてどのような進化を与えるか、という一種の「ロードマップ」である。競合のNVIDIAは、2019年時点において「2035年に全てのゲームグラフィックスをレイトレーシングで賄いたい」と語っていた。AMDも同じ考え方なのだろうか。ワン氏とバーグマン氏に聞いてみよう。

ワン氏 西川さんがおっしゃる通り、我々は今、ラスタライズ法とレイトレーシング法のハイブリッド時代を生きています。この時代を駆け抜けてく上で、GPUのレイトレーシング性能の向上に注力することは間違いありません。 RDNA 3では、レイトレーシング性能をRDNA 2比で最大60%向上できました。今後の新世代GPUも、このペースを保って性能向上していくことになるでしょう。 このハイブリッド時代において、AMDはゲーム開発者を支援する取り組みにも力を入れています。その一例が、レイ予算(レイトレーシングの際、単位時間当たりに放てるレイの本数)が少ない場合に起こりがちなグラフィックスのノイズを軽減する「デノイザー」の提供です。

 この「デノイザー」は、「AMD FidelityFX Denoiser」のことである。AMDではオープンソースサイト「GPUOpen」において、影用デノイザー(Shadow Denoiser)や鏡像用デノイザー(Reflection Denoiser)を提供しているのだ。

バーグマン氏 FidelityFXというと、超解像技術である「FidelityFX SuperResolution(FSR)」は聞いたことがあるという人も多いと思います。FSRも、レイトレーシングを活用するでは有効な技術です。低解像度の映像に対してレイトレーシング処理をして、それを高解像度かつ高品位な映像に仕上げるのに貢献しますから。

ワン氏 影生成などにおいて、遠方の情景に対する影までレイトレーシングで作る意味はないでしょう。プレイヤーの近くに見える、近景の影生成のみをレイトレーシングに任せればいいはずです。閃光などのエフェクトも同様で、ラスタライズ法による「パーティクルエフェクト」で十分な場合が多いと思います。 このように、現在のハイブリッド時代では、ゲーム開発者が賢くレイトレーシング法とラスタライズ法を使い分ける、いうなれば「スマートレンダリング」を意識する必要があると考えています。当面、私たちはこれを支援する取り組みに力を入れて行くことになります。

 現在のGPUにおけるレイトレーシングのパイプラインは、長年に渡ってソフトウェアベースで実践されてきた概念を「ひとまずハードウェア化しました」というものに等しい。

 最近は「GPUがリアルタイムレイトレーシングに対応しました!」と、もてはやされることもあるが、そうしたGPUに搭載される「レイトレーシングユニット」と呼ばれるハードウェアが実際にやっているのは交差判定処理だけである。

 もう少し具体的にいえば、階層的な「AABB(Axis-Aligned Bounding Boxes:軸並行境界ボックス)」で表現した3D構造体に対して、入力されたレイが衝突しているか否かを判定し、衝突している場合は階層を潜っていき、ぶつかるべきポリゴンを探しているだけなのだ。

 一方、描画の“実務”に相当する陰影の計算は、従来通りプログラマブルシェーダーに“外注”している状況にある。

 先にも少し触れた通り、レイトレーシング処理はシンプルゆえに負荷が大きい。GPUのレイトレーシングユニットに視点を移すと、グラフィックスエンジン自体の演算負荷よりも、むしろグラフィックスメモリへのアクセスにおける負荷が大きくなる。ループ処理(あるいはそれに近いもの)を幾度となく課されるため、実務的にはメモリシステムへ相当に負荷の高い仕事を強いてしまうのだ。

 しかも、苦労の末、衝突先のポリゴンを突き止めたとしても、そこに貼られたテクスチャに透明部分があって、たまたまそこにレイが当たったとなると、「ご苦労様でした。そこにぶつかっても意味はありません」という感じで“骨折り損”になってしまう。

 気苦労(?)が絶えないレイトレーシングユニットだが、AMDはどのように進化させるつもりなのだろうか。ワン氏はこう語る。

ワン氏 我々は当面の間、現状のレイトレーシングパイプラインに対して緻密な改良を行っていく計画を持っています。RDNA 2からRDNA 3へのアップデートでは、「レイフラグのハードウェア処理」「ハードウェアによるBVH(Bounding Volume Hierarchy:データ階層)の並べ替え」「ハードウェアによる不要なテクスチャの読み出し破棄」といった仕組みを導入することでレイトレーシング処理のパフォーマンスを最大60%向上できました。 今後リリースされるであろう「RDNA 4アーキテクチャ(仮称)」でも、現在のレイトレーシングパイプラインに対して「実行効率の向上」と「柔軟性の高い処理系の実現」に向けて改良を施していきます。ただし、機能拡張において“専用のハードウェア”をどのくらい搭載するかは、当然ながらコストとのバランスを考えて検討します。何度も言っている通り、ハイエンドGPUであれば999ドルで販売できることを重視するということですね(笑)。

●まとめ:明らかに異なるAMDとNVIDIAの戦略

 インタビューの内容を簡単にまとめると、AMDはGPUの製品開発においてNVIDIAを競合として認めてはいる一方で、以前のように“頂上決戦”を挑むような開発を行う心づもりはないということだ。幅広いPCゲーミングファンに向けて、特に価格設定に重きを置いて製品開発を進める――そう考えているという手応えを感じた。

 一方のNVIDIAはNVIDIAで、AMDのことは競合として意識することなく最高性能のGPUを、価格レンジ度外視で開発し、コンシューマー向けGPUにおけるイメージリーダーたるGeForceブランドの地位を揺るぎないものにするという考えのようでもある。この方針の結果生まれた“モンスター級GPU”はコンシューマー向けでは大ヒットしなくとも、それをHPC/GPGPU分野では高く買ってもらえるからそれでいい――ある意味での「プランB」を持てることは、同社の強みといえる。

 意図的かどうかは分からないが、CPU製品は競合のIntelがAMDに勝負を挑んできている。そのため、AMDもガチンコ勝負を行っているだけ……ということのようだ。

 GPUのレイトレーシング技術において、AMDはNVIDIAに数年遅れた。しかし、その性能向上については精力的に続けていく姿勢が見て取れる。「レイトレを進化させる」という点ではNVIDIAも同様の姿勢を見せているのだが、筆者は、両社が考える「進化」の方向性が若干異なるように感じる。今回のインタビューで言及こそなかったが、筆者が「GeForce RTX 40シリーズ」と「Radeon RX 7000シリーズ」のレイトレーシング処理における性能向上ポイントに関して精査してみると、このことが確信に近づいた。

 まずAMD(Radeon RX 7000シリーズ)の方だが、レイトレーシングに対応する既存ゲームを特に改変せずともパフォーマンスの向上を見込めるような改善を行っている。

 対して、NVIDIA(GeForce RTX 40シリーズ)は、レイトレーシングの性能改善のために搭載された新機能を明示的に使わないと(≒ゲーム側の改修を行わないと)、その恩恵にあずかれない

 この違いは、今後の両社GPUに対するユーザーの評価に関して幾らかの“違い”を生んでいくことになるかもしれない。