ネットワーク向けSoCのベンダーである米Vitesse Semiconductor社でCE技術担当ディレクタを務めるMorteza Ghodrat氏は、「通信速度の増加に伴い、CEに変化が生じている。ますます高まるワイヤースピードにおいてCEの機能をサポートするために、ネットワークプロセッサ(NPU:Network Processing Unit)ではなく、FPGAでパケット処理を行う方向へと移行している。ただ、これは40Gbpsの通信速度に対しては適用可能な方法ではないかもしれない。将来的には、SoCに機能を集積し、バックプレーンやリンクドライバとして、あるいはレイヤー3サービス、DPI(Deep Packet Inspection:ネットワークトラフィックのデータを検査する機能)といった事業者独自の機能をオフロードする(肩代わりさせる)ためのものとして、小規模なFPGAを使用することになるだろう」と述べる。
SoCベンダーであるVitesse社は、この状況を一過性のことだと見なしている。一方、Altera社とXilinx社は、永続的な移行の始まりであると考えている。Altera社のIyengar氏は、「10Gbps以上の速度で動作するNPUでは、ワイヤースピードでのDPIはまず不可能だ。40Gbpsのシステムの設計者は、DPIのような検査機能をオフロードするために、Altera社の製品で言えば『Arria』相当のFPGAを採用することを検討している」と述べる。そうすると、「使用するFPGAの数を増やせば、それ以上の機能を実現できるのか」という疑問がわく。
この疑問に対してIyengar氏は、「かなりの機能を実現することができる」と答えている。「40nmプロセスで製造される今日の製品は、40Gbpsで4レーンを実装し、パケット処理や検査をワイヤースピードで処理するのに十分な速度と集積密度を持っている。従って、大規模なFPGAにより、1つの検査ステージだけでなく、一連のパケット処理を行うことができる」と同氏は説明した(図1)。この手法では、FPGAが、外部のTCAM(Ternary Content Addressable Memory)インターフェースと膨大な容量のDRAMの両方をサポートする必要がある。「TCAMの代わりに、アルゴリズム検索エンジンとDRAMを使用することもできる。しかし、一般的には、DPIとQoS(Quality of Service)の機能はFPGAで実現し、監視の機能はDDR(Double Data Rate)3 SDRAMで実現することになるだろう。この場合、DDR3 SDRAMのバンクは4つほど必要になると考えられる」(Iyengar氏)。
Xilinx社のビジネスグループディレクタを務めるGilles Garcia氏も、これに同調する。「短期的に見れば、FPGAは差異化要因の拡大のためにアーキテクチャに加えられるのかもしれないが、長期的な見方では、FPGAは、ASSPを不要にすることができるものだと言えよう。40Gbps/100Gbpsのすべての設計が、何らかの目的でFPGAを使用することになる」とGarcia氏は述べる。
一方で「FPGAが使われているのは、対応できる既製ICがまだ提供されていないからだ」という見方がある。Garcia氏も、ある程度はそれを認めている。100Gbps対応製品の試作は進んでおり、中には160Gbpsのデバイスを開発しているベンダーもある。しかし、同氏によると、「その速度に対応するフレーマ/マッパーチップは、(この取材の時点で)1つしか市場に供給されていない」という。同氏は、「パケット処理やトラフィック管理、QoS、セキュリティといった100Gbps対応製品の要件をすべて考慮すると、SoCではまったく見込みがない」との見解を示している(図2)。
米Linley Group社のアナリストであるBob Wheeler氏は、まだNPUが消えることはないと考えている。米Wintegra社や米LSI社など、アクセスネットワークにおける10Gbps以下の低速なアプリケーションを対象とする企業もあるが、イスラエルEZchip Technologies社、米Xelerated社、米Broadcom社らは、いずれもMANをめぐる競争に参入し、100Gbpsへの移行を進めている。NPUやSoCは、FPGAを使用するよりも開発サイクルは長いかもしれないが、動作速度、集積密度、消費電力の面でかなりのアドバンテージを持っている。
匿名を希望したある企業(以下、A社)は、FPGAベンダーの見解に同意している。A社は、FPGAを使用して、パケット単位の負荷の高い処理を、レイヤー3の高度なフロー制御システムで行っている。このシステムは、フロントエンドにASSPのスイッチ、フローの設定と削除にNPU、個々のパケットの検査にFPGAを使用している。この方法により、1Uサイズの機器で、40Gbpsに対応することができる。A社は、FPGAを暫定的なソリューションであるとは見なしていない。「100Gbpsのリンクが一般的になるころには、FPGAへのアクセスが、処理に十分なレベルまで高速になっていると期待している」(A社)という。
A社は、Vitesse社のGhodrat氏の説明と同じように、ヘテロジニアスなパイプラインにおける1つのコンポーネントとしてFPGAを使用している。しかし、製品ラインからASSPとNPUをなくすという、Xilinx社のGarcia氏が提案する方向へ向かう設計チームも存在する。デンマークのIP(Intellectual Property)ベンダーTPACK社は、その一例である。同社CTO(最高技術責任者)のLars Pedersen氏によると、「当社は、MANレベルにおけるOTN(Optical Transport Network)の進歩と高速イーサーネットの拡張に着目している」という。同氏は、「40Gbps/100Gbpsイーサーネットのほか、パケット転送を強化した新しいMPLS(Multiprotocol Label Switching)やOTNの規格が、2010年中に登場する」と考えている。同氏は、アクセス集約からMANルーティングに至るまで、ネットワーク全体には同じ問題が存在するとしている。動画などパケットベースのサービスが増加するに連れ、事業者は、すべてのパケットを、到着時と同じ順序、タイミングで配信したいと考え始めている。このレベルのサービスは、従来のイーサーネットスイッチングの能力をはるかに超えている。しかも、すべてのノードでQoSを実現しなければならない。「事業者は、5Gbpsから5テラビット/秒までのすべての機器に対し、同じ機能を求めている」と同氏は述べる。
TPACK社の手法は、ラインカードの機能をRTL(Register Transfer Level)で記述し、それを顧客が用いるFPGA向けに合成するというものである。Pedersen氏は、「Altera社の最新の40nm製品により、当社は、40Gbpsイーサーネットスイッチの機能全体を1つのFPGAに集積することができている。もちろん、事業者が要求するキャリアクラスの機能とともに実装できるということだ」と主張する。同氏は、「5Gbps向けであれば、価格が50米ドルの1個のFPGAで実装可能だ」と付け加えた。
TPACK社の構想はほかにもある。同社は2009年、100Gbpsイーサーネット向けに、2個のFPGAを使用する設計に取り組み始めた。2010年後半にリリースする予定である。1個目のFPGAはパケットプロセッサで、100GbpsイーサーネットのCAUI(100Gbps Attachment Unit Interface)ポートを介して光モジュールに接続する。このチップには、Ethernet/MPLS-TP(Transport Profile)スイッチング機能およびトンネリング機能、保護機能、タイミング機能のほか、Interlakenのインターフェースが実装されている。Interlakenは、通信システムのコンポーネント間でパケットを転送するための標準プロトコルである。2個目のFPGAはパケットマネジャで、フローごとのキューイングと監視を行う。このチップもInterlakenに対応している。さらに、両FPGAは専用のDRAM接続を備えている。これら2つのFPGAによって、100GbEのASSPと基本的には同等レベルで、CEのワイヤースピードの機能を提供する。
TPACK社の幹部らは、ラインカードのすべての機能がFPGAで実現されるようになると考えている。一方で、Altera社のIyengar氏は、それ以上の展開を予測している。「48個のトランシーバを搭載するFPGAについて検討し、それをスイッチファブリックの構築に使用できないだろうかと尋ねる設計者がいる。そのような設計は、より高い速度のものへと容易にアップグレード可能で、確かに意味があるかもしれない。しかし、実のところ、われわれにとっては新しい領域の話となる」(同氏)。
ラインカードの機能全体をFPGAに実装できるのは明らかである。100GbpsのCEや新世代のOTNに移行が進む市場においては、すべてをFPGAに実装して柔軟性を得ることが必須かもしれない。しかし、Brocade社のSkagen氏は、「1つの規格が市場で広く使われて成熟する時期が来ると、FPGAはその魅力を失う」と指摘している。CEスイッチングのすべての機能をFPGAに搭載することが可能だとしても、「そうしたいのか」と問われれば、答えは「Yes」であるとは限らない。Skagen氏は、「FPGAがSoCの能力に近づきつつあるという意見には同意できない。複雑な機能に対しては、FPGAよりも15〜16倍実装密度が高く、高速なセルベースの設計のほうが向いている。FPGAは、われわれのパイプラインに配置できるほど高速ではない。さらに、ASICはFPGAより数桁もエネルギー効率が高い」と述べる。
FPGAの役割は、今後もかなり限定されたものとなりそうだ。確かに、ワイヤースピードに対応する高速トランシーバとプログラマブルなロジックファブリックを持つFPGAは、今なおネットワーク機器メーカーにとって便利な存在である。しかし、ASIC/ASSPとファームウエアのプログラミングで実装できるところまで規格が確定すれば、直ちに競争力を失ってしまう可能性もある。つまり、FPGAがネットワーク市場で生き残るためには、新たな規格に対応可能な高速トランシーバとロジックファブリックをいかに迅速に用意できるかが鍵となる。また、ラインカードを実装する別の方法が登場してしまう前に、FPGAベンダーは、そうした機能を、より小型で低コストのFPGAデバイスに、できるだけ早く移行できるようにしなければならない。FPGAは、低コストのデバイスにおいてのみ、製品ラインから一掃されることなく、その特殊な役割を担い続けることができるからである。
こうした事情にかんがみると、Altera社とXilinx社が2010年2月に、実際の製品が登場するのはずっと先であるにもかかわらず、それぞれの28nm世代品について論じ始めた理由が見えてくる。ここでは、Altera社の例を見てみよう。
Altera社は、次のステップとして100GbE以降のネットワークハードウエアまでを見越しており、必要になるであろう処理に対する28nmプロセスの長所と短所を比較検討している。同社のコンポーネント製品担当シニアディレクタを務めるLuanne Schirrmeister氏は、「伝送速度は100Gbpsの後、すぐさま400Gbpsに移行すると考えている。現在、100GbEのフロントエンドブロックを実装するには、35万以上のロジックエレメントが必要だ。それにはMACとInterlakenが含まれる。その速度を400Gbpsまで上げるのは、40nmのFPGAでは不可能だ。だからと言って、28nmへ移行しただけで片付けられる問題でもない」と述べる。トランシーバについて、Schirrmeister氏は、「当社の28nm世代品では、400Gbpsのポートを十分にサポートできる28Gbpsのトランシーバを提供する」と述べている。問題は、プログラマブルなロジックファブリックの速度、密度、そして消費電力である。40nmから28nmへ移行したとしても、ロジック密度と速度はそれほど増加せず、消費電力もそれほど低下するわけではないからだ。
そこでAltera社は、微細化に頼る代わりに、「Embedded HardCopy Block」を提供するという方法にたどり着いた。Embedded HardCopy Blockとは、同社独自のストラクチャードASIC技術「HardCopy ASIC」を利用したカスタマイズ可能なハードIPブロックである。これは、プログラマブルなロジックファブリックでの実装と、完全なセルベースのASIC実装との、ほぼ中間に位置するものである。HardCopyに実装されたブロックは、密度や速度、消費電力の面で比較すると、プログラマブルロジックよりも優れている。とはいえ、FPGAのDSPブロックのようなセルベースの部分には及ばない。Altera社は、HardCopyブロックをFPGAチップ内に配置することで、ほかのリソースへの配線の最適化が図れるようにしようと考えている。
この動きは、ネットワーク業界の要求を満たすために必要なことである。また、エレクトロニクス業界のほかの分野におけるFPGAの位置付けにも影響を与えるだろう。アルゴリズム的に類似の問題を扱うほかの分野のユーザーにも、魅力的な選択肢となるに違いない。Embedded HardCopy Blockの設計フローが、すべての顧客に提供されるようになる可能性も十分にある。かつてDSPブロックや高速トランシーバがそうであったように、ネットワーク業界に必要な機能が、その他すべての分野向けに手ごろな価格で提供されるようになったとしたら、設計技術者は、それらをどうにかうまく活用しようと知恵を絞るはずだ。
Copyright © ITmedia, Inc. All Rights Reserved.