耐量子暗号(PQC)とは|NIST標準とTLS移行
耐量子暗号(PQC)とは|NIST標準とTLS移行
耐量子暗号への移行は、暗号を全部入れ替える話ではありません。量子計算の直撃を受ける中心はRSAやECCのような公開鍵暗号で、AES や SHA-2/3 は影響の受け方が異なるため、まず置き換えるべき場所を見極めることが出発点になります。
耐量子暗号への移行は、暗号を全部入れ替える話ではありません。
量子計算の直撃を受ける中心はRSAやECCのような公開鍵暗号で、AES や SHA-2/3 は影響の受け方が異なるため、まず置き換えるべき場所を見極めることが出発点になります。
筆者がステージング環境でX25519+ML-KEMのハイブリッド鍵共有を有効にしてログを比較した際は、最も目立ったのは ClientHello の肥大化でしたが、往復時間(RTT)の差や再送の出方はネットワーク条件、KEMパラメータ、実装バージョンによって大きく変わります。
ここで述べる観測は筆者の検証環境での事例であり、一般化する前に自組織での実測を行うべきだという点を明示しておきます。
現在地を時系列で押さえると、2016年に始まった標準化は、2024年8月13日の FIPS 203/204/205 公開で第1弾の土台が固まり、2025年3月11日に HQC が追加選定された流れにあります。
移行が進む理由の一つはHarvest now, decrypt laterへの備えです。
なお、NIST の IR 8547 は初版のドラフトであり、検討案として2035年を参照する方針案が示されている段階です。
ドラフトは最終文書ではなく今後変更される可能性があるため、これを確定的な規則として扱わないよう注意してください。
現実の導入は TLS 1.3 のハイブリッド鍵共有から始まり、鍵交換・証明書・ライブラリ依存を棚卸ししつつ、後で差し替え可能なクリプトアジリティ設計を整えることが核心になります.
耐量子暗号(PQC)とは何か
PQCの定義と対象
耐量子暗号(Post-Quantum Cryptography, PQC)は、量子計算機が現実の攻撃手段になった時代でも安全性を保つことを狙う暗号方式群です。
ここでいう「量子に強い」は、量子ビットを使う装置でしか動かないという意味ではありません。
PQCは、いまのサーバ、PC、スマートフォンのような古典計算機の上で実装し、既存の通信や署名の仕組みに組み込めることが前提です。
ここが暗号の美しいところなのですが、未来の攻撃者を見据えて中身の数学を差し替えつつ、運用の土台はなるべく保つという発想になっています。
対象の中心は公開鍵暗号です。
もう少し具体的に言うと、鍵共有に使うKEM、英語でKey Encapsulation Mechanismと呼ばれる鍵カプセル化と、認証や改ざん検知に使うDSA、英語でDigital Signature Algorithmと呼ばれる電子署名方式の置き換えが主戦場になります。
現在のインターネットでは、RSAやECDH、ECDSAのような公開鍵暗号が、TLS、VPN、ソフトウェア更新、コード署名、メッセージングの初期鍵交換などで土台を支えています。
PQCはこの部分を、格子ベース、ハッシュベース、符号ベースなど、量子計算に対して別の安全性根拠を持つ方式へ移していく流れです。
すでに標準の軸も見えています。
第1弾として、鍵共有向けのML-KEM、署名向けのML-DSA、別系統の署名としてSLH-DSAが定まり、さらに非格子系の候補としてHQCも加わりました。
実務上は、KEMと署名を分けて考えると全体像をつかみやすくなります。
TLSやVPNではまずKEMが前面に出てきますし、証明書、コード署名、ソフトウェア配布、ファームウェア更新では署名が主役になります。
筆者がこの話を説明するとき、よく思考実験として持ち出すのが、長期保管する設計図や医療記録です。
たとえば「10年以上秘匿したい」文書を今日暗号化して保管するとします。
このとき将来の解読にいちばん晒されやすいのは、文書本体を暗号化しているAESそのものより、そのAES鍵をどう共有したかという公開鍵の層です。
TLSで配送中にRSAやECC系の鍵共有を使っていたり、保管時の鍵配送や受け渡しで量子脆弱な公開鍵暗号に依存していたりすると、今は読めなくても後でまとめて破られる余地が残ります。
いわゆる Harvest now, decrypt later の脅威が現実味を持つのは、この「先に公開鍵が崩れる」という構図があるからです。
PQCと量子鍵配送(QKD)の違い
PQCと量子鍵配送(Quantum Key Distribution, QKD)は、名前が近いため混同されがちですが、守っている層が違います。
PQCは暗号アルゴリズムの話で、古典計算機上で動くソフトウェアやライブラリとして実装されます。
TLSの鍵共有をX25519からML-KEM系へ移す、証明書署名を将来ML-DSAやSLH-DSAへ広げる、といった形で既存システムに入っていきます。
安全性の考え方は計算量的安全性で、「既知の古典計算でも量子計算でも、現実的な計算資源では解けない問題に基づく」という整理です。
一方のQKDは、光ファイバや自由空間光通信などの物理層で鍵を配送する技術です。
量子状態の観測で盗聴が検知できる、という量子力学の性質を利用します。
こちらはネットワーク機器、伝送路、距離、装置コスト、運用形態まで含めて考える必要があり、ソフトウェア更新でそのまま導入できる種類の技術ではありません。
つまり、PQCは「今あるインターネット基盤の暗号部品を入れ替える技術」、QKDは「専用の通信基盤で鍵配送を実現する技術」です。
この違いを見落とすと、「量子暗号を入れれば全部解決する」という誤解が生まれます。
しかし実務で先に動くのはPQCです。
理由は単純で、TLS、VPN、証明書、コード署名、メッセージングといった既存の用途に、そのまま接続できるからです。
Javaでも TLS 1.3 向けのポスト量子ハイブリッド鍵交換が進んでいますし、AWS KMSやAkamai、Cloudflareのような現場に近いレイヤでも、古典方式とML-KEMを組み合わせるハイブリッド運用が広がっています。
これはQKDが不要という意味ではなく、適用できる場所と導入単位が違うということです。
直感に反するかもしれませんが、「量子」という言葉が付くから未来的なのはQKDで、現実の移行工程として先に効いてくるのはPQCです。
いま組織が棚卸しすべきなのは、どこに公開鍵暗号が埋まっていて、どこをKEMと署名に分けて更新するかという設計図のほうです。
公開鍵/共通鍵/ハッシュで何が変わるか
量子計算の影響は、暗号の種類によって質が異なります。
公開鍵暗号ではShorのアルゴリズムが決定的で、素因数分解や離散対数問題に依存するRSA、Diffie-Hellman、ECCは土台ごと崩れます。
これに対して、共通鍵暗号やハッシュ関数ではGroverのアルゴリズムが主に効き、探索を平方根程度に短縮する形になります。
ここで差が出ます。
公開鍵は「方式の置き換え」が必要ですが、共通鍵やハッシュは「安全余裕の見直し」や「鍵長・出力長の調整」で対応できる場面が多いのです。
図にすると、守備範囲は次のように整理できます。
[公開鍵暗号]
鍵共有: RSA / DH / ECDH → PQCでは KEM(ML-KEM など)へ移行する
電子署名: RSA署名 / ECDSA / EdDSA → PQCでは DSA(ML-DSA, SLH-DSA など)へ移行する
量子影響: Shor により根本的な置換が必要
[共通鍵暗号]
データ暗号化: AES など
量子影響: Grover による探索高速化
対応: 鍵長の安全余裕を確保して継続利用
[ハッシュ関数]
整合性確認・署名の部品: SHA-2 / SHA-3 など
量子影響: Grover 型の影響を見込んで出力長を評価
対応: 用途に応じて十分な長さを選ぶ
┌───────────────┐
│ PQCの主対象 │
│ 公開鍵の置換 │
└───────────────┘この整理を持つと、PQCの利用面も見通しやすくなります。
KEMは「相手と安全に共有鍵を作る」ために使われ、TLS、VPN、ゼロトラスト接続、メッセージングの初期セッション確立で中心的な役割を持ちます。
署名は「それが本物で、途中で改ざんされていない」ことを示すために使われ、証明書、コード署名、ソフトウェア配布、パッケージ署名、ファームウェア更新、文書署名に広がります。
実運用ではこの二つを混同しないことが肝心です。
TLSで先に目立つのはKEMですが、組織の信頼基盤全体を見ると署名の移行も同じくらい重いテーマになります。
筆者は公開鍵・共通鍵・ハッシュを一枚の図にして説明するとき、中央に「守りたいデータ」、外側に「鍵配送」「保存時暗号化」「完全性確認」を並べ、赤く塗るのは公開鍵の層だけにしています。
理由は、将来の量子攻撃が最初に穴を開けるのがそこだからです。
長期保管の設計図や医療記録でも、保存データ自体の暗号化にAESを使っているから即座に危ない、という話ではありません。
危ないのは、そのAES鍵を包んでいる公開鍵暗号や、その鍵を運ぶ通信路の鍵共有です。
PQCの守備範囲を正しく強調するとは、すべてを量子向けに塗り替えることではなく、先に崩れる層を見抜いて差し替えることを意味します。
なぜ今PQCが必要なのか——量子計算の脅威とHNDL
Shor/Groverの要点整理
PQCが急に現れた新潮流に見えるとしても、背景にある脅威は前から明確でした。
量子計算が暗号に与える影響は一枚岩ではなく、公開鍵暗号と共通鍵暗号で性質が違います。
ここが暗号の美しいところなのですが、同じ「量子に弱い」という言い方では整理が粗すぎます。
公開鍵暗号で決定打になるのがShorのアルゴリズムです。
RSAは素因数分解の困難さに、ECCやDiffie-Hellmanは離散対数問題の困難さに安全性を支えています。
Shorはこの土台を量子計算で崩せるため、実用的な量子コンピュータが成立した時点で、RSAやECCは「安全余裕が減る」のではなく、前提そのものが通用しなくなります。
TLSの証明書、鍵共有、VPNのハンドシェイク、コード署名、PKIの根幹まで影響が及ぶのはこのためです。
一方でAESのような共通鍵暗号やハッシュ関数に対しては、Groverのアルゴリズムが主な論点になります。
こちらは総当たり探索を平方根程度まで短縮するもので、公開鍵のような崩れ方ではありません。
直感的には、鍵長の安全余裕が半分になるイメージです。
だからPQC移行の中心が公開鍵暗号の置き換えになるわけです。
共通鍵は鍵長の見直しで継続利用できる場面が多いのに対し、RSAやECCは方式自体を入れ替えないと将来の耐性を確保できません。
問題は、量子コンピュータがいつこの脅威を実用レベルで持つかを誰も断定できないことです。
楽観的な見積もりもあれば、もっと先を見る立場もあります。
ただ、ここで考えるべきなのは「到来予測の当たり外れ」ではありません。
証明書基盤、認証基盤、HSM、VPN、ライブラリ、業務アプリ、組み込み機器まで含めると、暗号移行は年単位の仕事になるという事実です。
しかも標準化はすでに前進しており、PQCの第一弾標準は2024年8月13日にFIPS 203FIPS 204FIPS 205として公開され、公開鍵の移行先は概念論ではなく実装と運用の話に入りました。
HNDLの現実性
移行を急ぐ理由は「量子コンピュータが明日来るから」ではありません。
いま保存された暗号化通信が、将来まとめて読まれる可能性があるからです。
これがHarvest now, decrypt later、いわゆるHNDLです。
名前の通り、攻撃者は今すぐ復号できなくても、通信を収集して保存しておき、あとから量子計算で解読します。
現在のTLS通信がその場で守られて見えても、公開鍵部分が量子脆弱なら「将来読める形で保管される」ことになります。
この脅威は、短命なデータだけを見ていると実感しにくいかもしれません。
ですが、設計資料、契約書、KYC関連記録、医療情報、研究データ、外交文書のように、数年では価値が落ちない情報では話が変わります。
今月のセッション鍵が今日破られるかどうかより、今週やり取りした機密文書が10年後も秘匿である必要があるかのほうが、実務上は重い判断になります。
筆者がその感覚を強く持ったのは、監査対応で過去10年分のTLSログと鍵管理の履歴を追ったときでした。
現行構成としては整っていても、「この期間に通った通信のうち、将来まで秘匿したいものは何か」という観点で並べ直すと、保存済み通信の扱いが思った以上に脆いことが見えてきます。
通信中の安全性だけを見ていると見落としますが、ログ、アーカイブ、バックアップ、パケットキャプチャ、委託先保管データまで含めると、HNDLは机上の脅威ではなく、すでに始まっている収集型リスクとして理解したほうが自然です。
そのため、量子計算の実用時期が読みにくいという事実は、準備を遅らせる理由になりません。
むしろ逆で、時期が読みにくいからこそ、長いリードタイムを要する移行を先に進める合理性が生まれます。
現場ではML-KEMを組み込んだハイブリッド鍵共有が広がり始めており、古典方式とPQCを併用しながら段階的に守りを作る流れが現実的な選択肢になっています。
長期秘匿データの優先順位
PQC移行は、すべての資産を同じ速度で置き換える作業ではありません。
優先順位は「量子計算に弱い公開鍵を使っているか」だけでなく、「いま盗まれて将来読まれたとき、どれだけ被害が長く残るか」で決まります。
HNDLの観点では、長期秘匿性が必要なデータから手を付けるのが筋です。
典型例として優先度が高いのは、政府文書や防衛・外交関連情報です。
保存期間が長く、公開後の影響範囲も広いため、現在の暗号強度だけで判断できません。
金融ではKYCや本人確認資料、取引関連の保存記録、内部審査文書が該当します。
医療では診療記録、遺伝情報、画像データ、紹介状を含む連携情報が長く残ります。
産業分野では研究開発資料、製造条件、半導体設計、入札情報、M&A関連の文書が代表的です。
見落とされやすいのが、長寿命の機器です。
IoTや車載、産業制御の装置は、導入してから長く使われます。
装置そのものの寿命が長いだけでなく、現場では更新停止が許されない期間が続くため、いま組み込んだ公開鍵方式が将来の弱点として残ります。
ソフトウェアだけで完結するサービス基盤より、機器認証、ファームウェア署名、遠隔保守の経路は入れ替えに時間がかかるので、後回しにすると負債が固定化します。
優先順位を整理すると、基準は三つに絞れます。
ひとつは秘匿期間が長いこと。
もうひとつは保存済み通信や保存済みデータが後から価値を持つこと。
さらに、更新に時間がかかる基盤や機器であることです。
この三条件が重なる資産は、量子計算の実用時期を断定しなくても、現在進行形の移行対象として扱うのが自然です。
PQCは未来予測に賭けるための投資ではありません。
ShorがRSA/ECCに与える影響は構造的で、HNDLはすでに時間差のある脅威として成立しています。
だからこそ、「量子が来たら考える」ではなく、移行の長さとデータの寿命を見て今から準備する、という順序が実務に合っています。
NIST標準化の流れを時系列で整理する
2016–2019: 公募とラウンド開始
NISTの耐量子暗号標準化は、2016年12月の Call for Proposals から本格的に動き始めました。
ここが出発点です。
2017年の締切までに82方式が提案され、そのうち69方式が第1ラウンドの審査対象に入りました。
数だけ見ると一気に候補が出そろったように見えますが、実際の意味はもう少し重く、RSAやECCの次を担う公開鍵暗号を、世界規模で比較可能な土俵に乗せた段階と捉えると流れがつかみやすくなります。
この選定は、単に「強そうな方式を選ぶ」話ではありませんでした。
鍵共有向けの KEM(鍵カプセル化機構)と、電子署名向け方式を分けて見ながら、安全性、性能、実装可能性、解析の進み具合を何年もかけてふるいにかけていく作業でした。
ここが暗号の美しいところなのですが、標準化では理論上の安全性だけで決まりません。
実装のしやすさ、移行時の現実性、既存プロトコルへの組み込みやすさまで含めて判断されます。
第1ラウンドは候補の幅を確保する段階、第2ラウンドは有望方式を詳しく比べる段階、第3ラウンドは実際に標準へ載せる方式を絞り込む段階という理解で十分です。
細部の変遷を全部追わなくても、2016年に募集が始まり、複数年のラウンドを経て、2024年に第一弾標準へ到達したという一本の線が見えていれば混乱しません。
筆者はこの流れを追うとき、NISTのラウンド資料、候補一覧、最終的なFIPS文書を年ごとにブックマークで分けて整理していました。
標準化の記事は新旧情報が混ざると一気に読みにくくなるので、2016年の公募、各ラウンドの絞り込み、2024年の標準公開、2025年の追加選定という順番で並べると、頭の中で系譜がきれいにつながります。
2020–2023: 最終候補の絞り込み
2020年以降は、標準化の輪郭がぐっとはっきりした時期です。
第3ラウンドでは、KEMと署名それぞれで有力候補が絞られ、第一弾標準に入る方式と、継続評価する方式の区別が明確になっていきました。
読者が押さえるべき到達点は、鍵共有の主力として格子ベースのML-KEM系、署名の主力としてML-DSA、補完的な署名としてハッシュベースのSLH-DSAが前面に出てきたことです。
この構図は実務上も意味があります。
KEMではML-KEMが移行の中心になり、署名ではML-DSAが汎用候補、そこに数学的な系統が異なるSLH-DSAが保守的な選択肢として並ぶ形です。
直感に反するかもしれませんが、標準化は「最強の1方式を決める」作業ではなく、用途と安全性根拠のバランスを取って複数の軸を残す作業でもあります。
一方で、この時期に見えてきたのは、第一弾ですべてが終わるわけではないという点です。
署名の追加候補や、格子以外の系統をどう残すかという議論も継続しました。
そのため、2020年から2023年は「勝者決定」というより、第一弾標準の骨格が固まり、次の補完候補の扱いが整理された期間と捉えると理解しやすくなります。
2024–2025: FIPS 203-205公開とHQC追加選定
標準化の節目として最も明確なのは、2024年8月13日です。
この日にFIPS 203FIPS 204FIPS 205が公開され、第一弾のPQC標準が正式文書になりました。
対応関係は次の通りです。
| 公開日 | FIPS | 方式名 | 用途 |
|---|---|---|---|
| 2024年8月13日 | FIPS 203 | ML-KEM | 鍵カプセル化・鍵共有 |
| 2024年8月13日 | FIPS 205 | SLH-DSA | 電子署名 |
この3本がそろったことで、PQC移行は「研究候補の比較」から「どの標準番号を実装対象として追うか」という段階に入りました。
特に鍵共有ではML-KEMが中心で、TLSのハイブリッド移行でも軸になっています。
署名ではML-DSAが主力候補、SLH-DSAが別系統の安全性根拠を持つ補完策という位置づけです。
この時点で次に気になるのがFIPS 206ですが、これはFN-DSAに対応する文書として開発中です。
ここは公開時期を断定しないほうが正確で、現時点では「開発中」という理解に留めるのが適切です。
標準化の現場では、候補として有力であることと、最終文書が公開済みであることは別の段階だからです。
さらに流れを前に進めたのが、2025年3月11日のHQC追加選定です。
HQCはコードベースのKEMで、格子ベースのML-KEMとは異なる数学的基盤を持ちます。
2025年時点では選定済みですが、対応する最終FIPSはまだ確定していません。
つまり、標準化の地位としては「採用方針が固まった」段階であり、「最終標準文書が公開された」段階ではありません。
この差を分けて理解すると、ニュースを追うときに混乱しません。
年表にすると、流れは次の1枚で把握できます。
| 年 | 主な出来事 | 状態 |
|---|---|---|
| 2016 | 12月に公募開始 | 標準化プロセス開始 |
| 2017 | 82方式提案、69方式が第1ラウンド対象 | 候補群の確定 |
| 2024 | 8月13日にFIPS 203FIPS 204FIPS 205公開 | 第一弾標準が正式化 |
| 2025 | 3月11日にHQCを追加選定 | 追加KEMを選定、最終FIPSは未確定 |
| 今後 | FIPS 206の開発継続、HQC関連草案と最終化へ | 標準群を拡充中 |
HQCの草案化や最終化の時期については有力な見方はあるものの、公式日程としてはまだ固まっていません。
今後の見通し
制度面では、量子脆弱な公開鍵アルゴリズムをいつ退出させるかが焦点になっています。
NIST IR 8547 の初版ドラフトでは、検討案として2035年末以降に量子脆弱な公開鍵アルゴリズムを段階的に廃止する案が示されています(ドラフト段階であり最終決定ではありません。
参考: この先の論点は、どの方式が存在するか以上に、どの用途でどの順番に入れ替えるかへ移ります。
鍵共有はML-KEM中心、署名はML-DSAとSLH-DSAを軸に見ながら、FN-DSAとHQCの文書化を追う、という見取り図が現時点で最も整っています。
時系列で押さえる価値があるのは、ニュースの数を覚えることではなく、2016年に始まった選定が2024年に第一弾標準へ到達し、2025年以降は追加標準と退出計画の具体化へ移っているという連続した流れです。
標準化された主要アルゴリズムの役割
KEM: ML-KEMとHQCの位置づけ
ここでまず整理したいのは、鍵共有と署名は役割がまったく違うという点です。
ML-KEMとHQCはどちらも鍵カプセル化、つまりKEMです。
TLS 1.3 の文脈では、通信の最初に共有秘密を安全に作るための方式として使われます。
従来のECDHが担っていた場所を、量子耐性付きで置き換える中心候補がこの領域です。
ML-KEMはFIPS 203に対応する標準化済みのKEMで、格子ベースの方式です。
実装の現場では、TLS やハイブリッド鍵共有の主力候補として扱うのが自然です。
実際、移行設計を考えるときも「まずKEMはML-KEMを軸に置く」とすると全体像がまとまります。
公開鍵暗号の置き換えというと署名まで一度に考えたくなりますが、通信路の保護では最初に鍵共有から着手する場面が多く、その中心にあるのがML-KEMです。
一方のHQCも用途は同じくKEMです。
ただし位置づけはML-KEMの単純な代替ではありません。
HQCはコードベース、つまり符号理論に基づく方式で、格子ベースのML-KEMとは安全性の土台が異なります。
この「別系統であること」自体に意味があります。
暗号移行では、主力方式を一つ決めるだけでなく、異なる数学的基盤を持つ第二の選択肢を確保しておく設計が効いてきます。
そう見るとHQCは、格子系のバックアップ候補として読むのが適切です。
現時点での差は、標準化の進み具合にもあります。
ML-KEMはすでに標準番号まで固まっており、実装対象として名前を挙げやすい段階です。
対してHQCは追加選定済みではあるものの、最終FIPSはまだ確定していません。
つまり、採用方針は見えているが、正式な標準文書の番号で固定して語る段階には入っていない、ということです。
この違いは運用判断で効きます。
今日の設計書に「本命」として書く名前はML-KEMで、将来の拡張欄やバックアップ戦略に入れる名前がHQCです。
ここが暗号の美しいところなのですが、同じ「量子耐性あり」というラベルでも、役割まで同じとは限りません。
ML-KEMとHQCはどちらも鍵共有用であり、署名には使いません。
証明書やコード署名の話になると、登場する名前は別の系列に切り替わります。
署名: ML-DSA/SLH-DSA/FN-DSAの使い分け
署名の主役はML-DSAです。
FIPS 204に対応し、格子ベースの電子署名として、証明書、コード署名、ソフトウェア配布、文書署名など幅広い用途の第一候補に置かれます。
PQC移行を用途別に切ると、鍵共有ではML-KEM、署名ではML-DSAという並びが最も把握しやすいはずです。
SLH-DSAは同じ署名でも性格が異なります。
こちらはハッシュベース署名で、FIPS 205に対応します。
格子ベースではないため、安全性の根拠がML-DSAとは別系統です。
この「系統の独立性」が価値になります。
たとえば、ある組織が格子系だけに依存したくない場合、署名側でSLH-DSAを持っておく意味が出てきます。
その代わり、サイズや性能ではトレードオフがあります。
一般論として、ハッシュベース署名は保守的な選択肢として魅力がある一方、証明書や署名オブジェクトが重くなりやすく、検証や配布の体感にも差が出ます。
筆者が検証用スクリプトで証明書チェーンや署名検証の時間を見比べるときも、この差は数字以上に運用感覚として現れます。
単体の署名検証では誤差に見えても、チェーンを何枚もたどる処理や、更新のたびに多数の署名付き成果物を検査する流れに載せると、待ち時間の印象が変わります。
特に証明書チェーンは1枚だけで終わらないので、署名サイズが膨らむ方式では転送量と検証対象が積み重なります。
逆にML-DSA系は、汎用用途に置いたときのバランスがよく、証明書やコード配布の第一候補とされる理由がここにあります。
FN-DSAは追加の署名候補として注目すべき名前です。
FIPS 206として開発中で、FALCON由来の系統に位置づけられます。
用途は署名であり、KEMではありません。
現段階では主力標準として固定するというより、今後の選択肢を広げる存在として見ておくのが適切です。
標準群が拡張されるにつれて、署名アルゴリズムを一種類に固定せず、用途ごとに複数の選択肢を持てる構図が整ってきます。
整理すると、署名の使い分けはこうなります。
汎用の主力がML-DSA、別系統の安全性根拠を重視する補完策がSLH-DSA、将来の追加候補として追うべきものがFN-DSAです。
ここでSLH-DSAを「古い代替」や「二軍」と見るのは正確ではありません。
証明書サイズや検証負荷との引き換えに、ハッシュベースという独立した土台を得る方式だからです。
適材適所での配置が前提になります。
主要アルゴリズムの比較表
まずは、鍵共有で登場する方式を古典方式と並べて位置づけます。
| 項目 | ML-KEM | HQC | 古典的ECDH/RSA系 |
|---|---|---|---|
| 主用途 | 鍵カプセル化・鍵共有 | 鍵カプセル化・鍵共有 | 鍵共有・鍵配送・署名 |
| 数学的基盤 | 格子 | 符号 | 素因数分解・離散対数 |
| 量子耐性 | 想定あり | 想定あり | 想定なし |
| NISTでの状態 | FIPS 203として標準化済み | 選定済み、最終FIPSは未確定 | 段階的退出の対象 |
| 移行上の役割 | TLS等の主力KEM | 非格子系のバックアップ候補 | 移行期は互換性維持のためハイブリッドで併用 |
この表で見える通り、ML-KEMとHQCは同じKEM領域の候補であり、古典的なECDHやRSAは量子耐性のない旧世代の基盤です。
移行期に古典方式がすぐ消えるわけではなく、ハイブリッド構成で並走する場面が当面は続きますが、PQC側の名前として覚えるべき中心はML-KEM、その別系統候補がHQCです。
次に、署名方式の使い分けを整理します。
| 項目 | ML-DSA | SLH-DSA | FN-DSA |
|---|---|---|---|
| 主用途 | 電子署名 | 電子署名 | 電子署名 |
| 想定される主戦場 | 証明書、コード署名、ソフト配布 | 別系統根拠を重視する署名用途 | 追加署名候補としての将来選択肢 |
| サイズ傾向 | 汎用運用に載せやすいバランス型 | 署名や証明書が重くなりやすい | 小さい署名を狙う系統として注目される |
| 安全性の根拠 | 格子ベース | ハッシュベース | 格子ベース(FALCON由来) |
| NISTでの状態 | FIPS 204として標準化済み | FIPS 205として標準化済み | FIPS 206として開発中 |
| 適材適所 | 第一候補 | 補完的選択肢 | 今後の有力オプション |
署名の比較では、単に「どれが強いか」ではなく、何に載せる署名かで評価軸が変わります。
証明書チェーン、ソフト更新、ファームウェア配布、長期検証文書では、サイズ、検証回数、配布経路の違いが効くからです。
筆者の感覚では、署名アルゴリズムの違いはベンチマーク表だけ見ていると小さく見えますが、証明書チェーンの長さや更新処理のまとまりに乗せた途端、実務の手触りとして差が出ます。
そこで汎用の主力にML-DSAを置き、別系統の保険としてSLH-DSAを持ち、将来の改善余地としてFN-DSAを追う、という並びが自然になります。
アルゴリズム名と用途の対応だけを一行で言い切るなら、ML-KEMとHQCは鍵共有のためのKEM、ML-DSASLH-DSAFN-DSAは署名のための方式です。
この対応関係が頭に入ると、PQCのニュースを見たときに「これは通信路の話か、署名基盤の話か」をすぐ切り分けられます。
PQCはどう使われるのか——TLSとハイブリッド移行の考え方
TLS 1.3とハイブリッド鍵共有
PQCが実際の通信でどう載るのかを考えると、中心になるのはTLS 1.3です。
理由は明快で、現在のハイブリッド鍵共有はTLS 1.3の拡張として設計・実装される流れが主軸だからです。
古いTLS 1.2以前にも理屈の上では何かを足せますが、鍵共有、拡張、暗号スイートの整理がTLS 1.3のほうがはるかに整っており、実装の現実性が違います。
ここが暗号の美しいところなのですが、PQC移行は「新しい暗号を単独で差し替える」よりも、「既存の安全な骨格の上に移行用の層を足す」ほうが筋が通ります。
その代表例がハイブリッド鍵共有です。
考え方は、従来のX25519のような楕円曲線ベースの鍵共有と、ML-KEMのようなPQCのKEMを組み合わせ、両方から得た秘密を束ねてセッション鍵を作る、というものです。
IETFではTLS 1.3向けにECDHE-MLKEMやハイブリッド設計のドラフトが進んでおり、実装名としてはX25519MLKEM768のような形で現れます。
移行期にこの構成が支持されるのは、古典系だけに依存しない量子耐性を足しつつ、既存エコシステムとの接続性も残せるからです。
この構成は、完全PQC移行より一段現実寄りです。
サーバとクライアントがどちらもPQC対応ならハイブリッドで接続し、片方が未対応なら従来のTLS 1.3に戻す、という段階的運用が組めます。
つまり「互換性を守るために古典暗号を残す」のではなく、「移行中の接続失敗を抑えながらPQC保護を先に広げる」ために古典暗号を併用するわけです。
実務ではこの差が大きく、理想論の完全移行よりも、障害の少ないハイブリッドが先に進みます。
互換性の論点もTLS 1.3前提で見ると整理しやすくなります。
問題は暗号強度そのものより、古い終端装置、L4/L7ロードバランサ、TLSを途中で観測する機器、そしてクライアント実装の追随速度です。
ハイブリッドにするとHello系メッセージが大きくなり、従来より長い拡張を正しく処理できない実装が表面化します。
つまり移行で最初に詰まりやすいのは、数学ではなくプロトコル周辺の古い前提です。
ハンドシェイクの図解
TLS 1.3でのハイブリッド鍵共有は、概念的には次のように見るとつかみやすくなります。
Client Server
| |
| ClientHello |
| - supported_versions: TLS 1.3 |
| - key_share: X25519 |
| - key_share: ML-KEM 系要素 |
| - hybrid group 提案 |
|------------------------------------------------->|
| |
| ServerHello |
| - selected TLS 1.3 |
| - selected hybrid group |
| - server key/ciphertext |
|<-------------------------------------------------|
| |
| 以降、双方が古典系とPQC系の共有秘密を合成 |
| してハンドシェイク鍵・アプリケーション鍵生成 |
| |
要点は、1往復で鍵共有の材料をやり取りする TLS 1.3 の流れを壊さず、その中に古典系と PQC 系の両方を押し込むことです。
ML-KEM を足すとクライアント側で送るデータが増え、ハンドシェイク全体で数KB程度の増分が出ることが知られています。
ただし増分の具体値は実装・パラメータ・TLS 拡張の組み合わせによって大きく変わります。
報告例としてはハイブリッド導入でハンドシェイク増分がおおむね1–3KB程度になるケースがあるため、定量的な評価は自組織での実測に基づいて行ってください。
筆者がステージング環境でX25519+MLKEM768を有効化したときも、最初に目についたのは暗号処理時間ではなく、ハンドシェイクサイズの差分と再送ログでした。
通常構成では素直に流れていた最初のパケットが、ハイブリッド化した途端に分割され、経路上で再送が混じる記録が出ます。
通信そのものは成立しても、初回接続のばらつきが増えるので、ベンチマークだけ見て「処理は軽い」と判断すると実運用で足元をすくわれます。
PQC導入では、暗号ライブラリの性能試験と同じくらい、MTU・MSS・PMTUD周りの観察が効きます。
💡 Tip
ML-KEM を足すとクライアント側で送るデータが増え、ハンドシェイク全体で数KB程度の増分が出ることが報告されています。
ただし、この増分はアルゴリズム/パラメータ/TLS拡張の構成や実装によって大きく変わる点に注意が必要です。
報告例としてはハイブリッド導入でおおむね1–3KB程度の増分が観測されたケースがある。
定量的な評価は自組織の実測に基づいて行ってください。
例として X25519MLKEM768 の KEM 公開鍵は約1184バイトと報告されており、このような公開鍵長や証明書チェーンの増加が累積してハンドシェイク増分へ影響します。
運用で先にぶつかるのは、証明書そのものより鍵共有の肥大化ですが、証明書と署名の問題もすぐ後ろに控えています。
ML-DSAやSLH-DSAを証明書に載せると、サーバ証明書だけでなく中間CAを含むチェーン全体が重くなります。
TLSではこのチェーンをハンドシェイク中に送るため、Helloが太ったうえにCertificateも膨らみ、初回接続の転送量が積み上がります。
短いAPI呼び出しや小さなオブジェクト配信では、この数KBから数十KBの差が相対的に目立ちます。
さらに、証明書のサイズ増加はハンドシェイクだけの話で終わりません。
OCSPレスポンスには署名が付き、OCSP staplingを使えばその応答をTLSメッセージに載せて配ります。
CRLも失効エントリや署名方式で膨らみます。
つまりPQC署名化は、証明書チェーン、失効確認、CDNエッジへの配布、端末側の検証時間という複数の場所に波及します。
単体証明書のファイルサイズだけ見ていると、影響範囲を見誤ります。
筆者はこの点を確かめるために、証明書更新をML-DSA化したとき、CDN配信と端末検証時間がどう変わるかを小規模なA/Bテストで切り分ける計画を立てています。
見るべき指標は単純なハンドシェイク成功率だけではありません。
エッジへの証明書伝播、stapledな失効情報を含むレスポンスの重さ、モバイル端末の初回検証待ち、再接続時の差まで分けないと、どこが律速になっているのか判定できないからです。
経験上、証明書移行は「発行できたら終わり」ではなく、「どの配信面で待ち時間が増えたか」を追う工程に変わります。
落とし穴として見逃されがちなのが、中間機器の古い前提です。
ClientHelloが単一パケットに収まる想定でSNIを見ていた機器や、長い拡張を十分に試験していないTLS終端は、ハイブリッド導入で急に不安定になります。
ライブラリ本体がPQCに対応していても、その前段のロードバランサ、プロキシ、CDN設定、監視機器が追随していなければ、本番では「一部経路だけ失敗する」という最も切り分けにくい障害になります。
移行の難しさはアルゴリズム選定より、経路全体の連鎖にあります。
主要ライブラリ・クラウドの動向
実装面では、OpenJDKがJEP 527としてTLS 1.3向けポスト量子ハイブリッド鍵交換を前に進めており、Javaの業務システムではこれがひとつの節目になります。
JVMの標準スタックに近い場所で扱えるようになる意味は大きく、アプリケーションごとの独自実装に頼らず、プラットフォーム更新として取り込めるからです。
企業システムの移行はライブラリの有無より、標準サポートの形で降りてくるかどうかで速度が変わります。
クラウド側では、AWSがKMSまわりを含めてハイブリッドTLSの考え方を整理しており、鍵共有で転送量が増えること、ハンドシェイクでは処理コストよりネットワーク上のサイズ増分が効くことを前提に設計が進んでいます。
AkamaiもTLSでのPQC実装論点として、Hello肥大化、証明書チェーン増加、実運用の観測ポイントを具体化しています。
ここから見えてくるのは、PQC対応が「アルゴリズムを追加したら完了」ではなく、CDN・クラウド・Javaランタイムまで含めた面の移行として進んでいるという事実です。
OpenSSLをはじめとする主要ライブラリは対応が進行中という位置づけで捉えるのが適切です。
実験的実装、派生ディストリビューション、ベンダーパッチの組み合わせでは先行例が出ていますが、現場で重いのは「どの版で、どのグループ名が有効で、周辺ツールまで含めて安定して動くか」です。
PQC対応の有無だけを見ると実情を外します。
証明書ツールチェーン、プロキシ、言語ランタイム、パケット観測基盤までつながって初めて、実装されたと言えます。
エコシステムの温度感を示す指標として、Cloudflare や主要 CDN/クラウドが公表する導入報告は参考になります。
たとえば Cloudflare はポスト量子対応に関する公式ブログでフェーズ的な移行状況を報告しています。
同様に、各ベンダーの技術ブログやプレスリリースを参照して、実運用での到達度を確認してください(例: Cloudflare のポスト量子関連情報:
日本の最新動向——金融庁とCRYPTREC
金融庁の整理と2035年タイムライン
日本国内の実務文脈で押さえておきたい節目の一つに、2024年11月26日に公表された金融庁の検討会報告書があります。
ここでの整理は、PQCを研究テーマとして眺める段階から、金融機関の移行計画として扱う段階へ視点を切り替えたところに価値があります。
報告書はNISTのIR 8547ドラフトが示す2035年目線を参照しつつ、国内でも「まだ標準化を待つ」ではなく、「移行の準備を始める」ことを前提に据えています。
この2035年という年限は、単に古典暗号を一斉停止する日付として読むより、システム更新の逆算点として読むほうが実務に合います。
金融機関の基幹システム、勘定系に接続する周辺装置、ATM、HSM連携、認証基盤、スマホアプリ、法人向けAPIは、どれも更改周期が長く、証明書や鍵交換方式だけを単独で差し替えられる構造になっていないことが多いからです。
ここが暗号の美しいところなのですが、数学的には方式を置き換える話でも、現場では構成管理と更改計画の話に姿を変えます。
そのため、国内の移行計画は2030年と2035年の二段階で考えるのが自然です。
2030年までの視点では、新規調達や更改案件で古典暗号固定の設計を避け、ハイブリッド移行を受け止められる構成に寄せることが中心になります。
2035年の視点では、長期運用を前提にした装置や、長く秘匿性を保つ必要があるデータについて、古典公開鍵暗号への依存を計画的に外していくことが焦点になります。
特に金融・公共・医療・製造では、装置寿命とデータ寿命の両方が長いため、今動かないと更改タイミングを逃します。
優先度の付け方にも国内ならではの現実があります。
たとえば金融では、インターネット向けTLS終端だけでなく、行内ネットワークの相互認証、鍵配送、証明書発行基盤の順に見ると影響範囲が見えます。
公共では住民情報や長期保存文書、医療では診療情報や医療機器連携、製造では工場内の長寿命制御機器とサプライチェーン署名が先に浮かびます。
どの業種でも共通するのは、攻撃者が今は解読できなくても記録だけしておき、後から量子計算で読むというHNDLの観点です。
長く秘密を保つ情報ほど、後回しにすると移行の意味が薄れます。
CRYPTRECの技術ガイドライン要点
技術面で国内の拠り所になるのが、CRYPTRECの2024年度版ガイドラインです。
この文書の良いところは、PQCを単なる「新しい暗号方式の一覧」としてではなく、用途ごとの役割と移行上の考え方まで含めて整理している点です。
鍵共有に使う方式と電子署名に使う方式を分け、さらに単一の数学的系統に寄せ切らない設計まで視野に入れています。
整理の軸としては、鍵カプセル化ではML-KEMが主軸、署名ではML-DSAが汎用の主力候補、SLH-DSAが別系統の安全性根拠を持つ補完候補という見方がわかりやすいのが利点です。
直感に反するかもしれませんが、移行で問われるのは「最強の方式を一つ選ぶこと」ではありません。
用途に対してどの方式が主力で、どこに代替線を引くかを決めることです。
HQCのような非格子系KEMがバックアップ候補として意味を持つのも、この文脈で読むと腑に落ちます。
ガイドラインの読みどころは、推奨アルゴリズム名そのものより、保守的設計の発想です。
TLSやVPNのように広い相互接続性が必要な場面では、いきなり完全PQCへ飛ぶより、当面は古典方式とPQCを組み合わせたハイブリッドが現実的です。
証明書やコード署名も同様で、発行基盤、検証基盤、端末側実装の足並みを見ながら進める必要があります。
ここでは「理論上可能か」より「運用系全体が破綻なく回るか」が選定軸になります。
もうひとつ見逃せないのが、単一障害点を作らない設計思想です。
たとえば署名系では、ML-DSAを主力に置きつつ、SLH-DSAのように異なる系統の方式を補完線として認識しておくと、実装評価や将来の見直しに幅が出ます。
KEMでもML-KEMを中心にしながら、HQCの位置づけを把握しておくと、技術選定が「今動く一択」で固まらずに済みます。
国内のガイドラインが保守的なのは慎重すぎるからではなく、金融や公共のように失敗コストが高い領域では、その慎重さが設計品質に直結するからです。
棚卸しとクリプトアジリティの実務
現場で最初に着手すべきことは、暗号資産の棚卸しです。
ここでいう暗号資産は暗号資産交換業の資産ではなく、システムのどこでどの暗号を使っているかという資産台帳の意味です。
RSAやECCを使っている場所を洗い出さないまま「PQCへ移行する」と言っても、実際には影響範囲を把握できません。
TLS終端、アプリ間通信、電子署名、コード署名、ファームウェア更新、データベース暗号化の鍵配送、バックアップ保護、S/MIMEやVPNまで含めて見ていくと、想像以上に公開鍵暗号への依存が広がっています。
筆者が現場で役立つと感じているのは、棚卸し用スプレッドシートの列を最初から固定してしまう方法です。
最低限でも「プロトコル」「ライブラリ」「鍵種」「更新手段」「依存関係」の5列は外せません。
プロトコルの列にはTLS 1.3IPsecS/MIMEのような通信・署名の場面を書き、ライブラリにはOpenSSLBoringSSLJava系の実装基盤、鍵種にはRSAECDSAECDHのどれを使っているかを入れます。
更新手段には、設定変更で差し替えられるのか、ファーム更新が必要か、OS更改が必要かを書きます。
依存関係には、前段のロードバランサ、HSM、CA、モバイルSDK、取引先接続先を並べます。
この5列が埋まるだけで、どこが自分たちの裁量で直せて、どこが外部都合で止まるかが見えます。
管理のコツは、システム名を主語にしないことです。
たとえば「インターネットバンキング基盤」とだけ書くと抽象度が高すぎます。
実際には「スマホアプリのAPI終端」「法人向け証明書認証」「行内のメッセージキューTLS」「バッチ署名基盤」のように、暗号が動作する面で切ったほうが後から効きます。
もうひとつ効くのは、台帳をセキュリティ部門だけの資料にせず、運用・ネットワーク・アプリ・調達が同じ表を見られる形にすることです。
PQC移行で詰まる場所は、暗号理論より依存関係の隙間にあります。
この棚卸しの先にあるのが、クリプトアジリティです。
言い換えると、暗号方式の入れ替えに耐える設計です。
アルゴリズム名をコードへ直書きしない、証明書プロファイルや鍵長の前提を各所へ散らさない、ライブラリ更新で新方式を受け止められる境界を作る、ハイブリッドから完全PQCへ段階移行できるネゴシエーション余地を残す、といった設計がここに入ります。
暗号が固定値として埋め込まれているシステムは、PQC以前に運用寿命が尽きます。
2030年目線では、まず新規案件と更改案件にクリプトアジリティを組み込み、RSA/ECC依存箇所を棚卸し台帳で見える化して、ハイブリッド移行が可能な面から手を付ける形になります。
2035年目線では、長寿命機器と長期秘匿データの残存古典暗号をどこまで外せたかが勝負になります。
金融・公共・医療・製造のように更新が遅い業種ほど、この二段階管理が効きます。
PQC対応は新アルゴリズムの採用競争ではなく、更新できる構造をどこまで先に埋め込めるかの競争です。
まとめ——読者が今押さえるべき3つの論点
3つの論点の要約
押さえるべき論点は3つです。
優先順位の先頭に来るのは、量子計算の直撃を受けるRSAECCなど公開鍵部分の移行であり、共通鍵暗号やハッシュは同じ扱いではありません。
標準はもう観測段階ではなく、FIPS 203FIPS 204FIPS 205が出そろい、FN-DSAの整備も進み、HQCも追加選定されているので、前提知識ではなく実装計画の話として読む段階に入っています。
導入も一括置換ではなく、まず棚卸しを行い、互換性を保ちながらハイブリッド運用で切り替え面を増やしていく、という順番が現実的です。
次に取るべきアクション
筆者なら、まず社内の1サービスだけを対象に小さく始めます。評価、PoC、段階展開の3段で切ると、暗号方式の議論がそのまま運用計画に落ちます。
- RSAECCの利用箇所を棚卸しし、どこが鍵共有でどこが署名かを分ける
- FIPS 203FIPS 204FIPS 205の正式名称と用途対応を確認し、TLS 1.3と暗号ライブラリのPQC・ハイブリッド対応を点検する
判断に迷う場面では、NIST Post-Quantum Cryptography プロジェクトや金融庁 PQC検討会報告書のような一次情報に戻ると、製品名や実装名に引きずられず整理できます。
情報セキュリティ企業での暗号実装検証を経て、暗号理論の解説に専念。公開鍵暗号からポスト量子暗号まで、数学的原理をわかりやすく伝えます。
関連記事
共通鍵暗号と公開鍵暗号の違い|図解で仕組み比較
ブラウザでHTTPSのサイトを開いた瞬間、画面には見えないところで「いま誰と鍵を決めたのか」と「その後の本文をどの鍵で守るのか」が一気に走ります。この記事では、まず共通鍵暗号の仕組みと量子コンピュータ時代に何が変わるかの節を先に参照すると、以降の議論の流れがつかみやすくなります。
AES暗号とは?歴史・仕組み・GCMまで
WebをHTTPSで開き、Wi‑Fiに接続し、ノートPCのディスク暗号化を有効にする。ふだん何気なく触れているこの3つの動作の奥には、同じ名前の暗号がいます。
公開鍵暗号の仕組みとRSAの原理図解
ブラウザの錠前アイコンを開いて証明書の詳細をのぞくと、Public-Key: RSA 2048 と Exponent: 65537 が並んでいて、公開鍵暗号は教科書の中だけの話ではなく、いま目の前の通信を支える現役技術なのだと実感します。
RSA暗号とは?素因数分解と公開鍵の仕組み
1977年に公開されたRSAは、公開してよい鍵(n, e)と外に出してはいけない秘密鍵dを分けることで、暗号と署名の考え方を一段進めた方式です。公開鍵暗号を数式から理解したい人、仕組みは知っているのに実務での役割が曖昧な人に向けて、歴史的位置づけから手で追える計算例までを一本につなげます。