検証可能AI

検証可能AI

Verifiable AI

AI システムの判断・推論・引用を暗号で検証可能にする実装領域。出力だけでなく、入力データの来歴・モデルの同一性・推論経路の真正性を第三者が機械的に確認できる状態を指す。

定義

検証可能 AI は、AI の出力を「信じる」ことを前提にせず、「検証する」ことを前提にするための技術領域である。学術的には zkML (Zero-Knowledge Machine Learning) や cryptographic inference の総称的な位置づけにあたり、重みや入力を秘匿したまま「指定モデルが指定入力に対して指定出力を返した」事実を暗号で証明する系全体を指す。

技術的には三つの層で成立する。第一に 入力来歴: モデルが参照した文書・データの出所と完全性を固定する層。第二に モデル同一性: 推論に使われたモデルが宣言された重みハッシュと一致することを保証する層。第三に 推論一貫性: 入力と出力が指定モデルによる正規の計算結果であることを ZK 回路で示す層。

2025〜2026 年にかけて Lagrange DeepProve や JOLT、zkPyTorch などにより大規模モデルでの ZK 推論証明が実用化フェーズに入った。今後は「検証可能でない推論」が低信頼の市場区分に押し出され、規制適合や監査要件のあるドメインから先に検証可能 AI への移行が進む。

Lemma Oracle での実装

Lemma は、検証可能 AI のための汎用の暗号インフラを提供する。入力データは ゼロ知識証明 に直接食わせるのではなく、まず docHash でバイト列を固定し、属性レベルで 選択的開示 可能な構造に変換する。これにより、コンテンツや個人情報を相手に渡さず、必要な属性だけを証明できる。

推論側ではモデルハッシュを コミットメント として固定し、入力・出力・モデルを結ぶ証明を生成する。RAG パイプラインの場合は、引用文書の プロヴナンス と引用文・本文の一致を同時に証明する設計を採る。

結果として、Lemma が提供する検証可能 AI 向け信頼インフラは、規制対応 (EU AI Act の自動ログ・人間監督要件) と機密性 (GDPR・営業秘密) を同時に満たす経路となる。AI 判断を組織横断で監査するための、最も具体的なインフラ層がここにあたる。

始める

検証可能 AI を、組織の判断基盤に。