ブログ

  • 「InferenceMAX」から読み解くAIチップ競争の地殻変動

    「InferenceMAX」から読み解くAIチップ競争の地殻変動

    ― DeepSeek、Huawei、AMD、そしてNVIDIAの力学

    AI推論性能のベンチマークをオープンに可視化する新興プロジェクト「InferenceMAX」が登場し、
    AI業界に新たな透明性をもたらし始めている。

    同プロジェクトでは、「gpt-oss 120B」「DeepSeek R1 0528」「Llama 3.3 70B Instruct」 の3モデルがテスト対象として採用された。
    結果として、DeepSeekが3モデル中で最も低い性能を示すという興味深いデータが得られている。

    単なるスコア比較にとどまらず、この結果はAI半導体のサプライチェーン構造と最適化戦略の現実を映し出している。


    DeepSeekが直面する「構造的な制約」

    DeepSeekは中国の新興スタートアップであり、アリババやテンセントのような巨大資本を持つ企業ではない
    そのため、開発インフラは主に NVIDIA H200 GPU を中心に構築されてきたと考えられる。

    一方、「gpt-oss 120B」や「Llama 3.3 70B Instruct」 は、
    より新しい Hopper(H100/B200)世代 のGPUや、
    広範な最適化が施された環境でテストされており、
    単純な性能比較では本質を見誤るおそれがある。

    実際、「DeepSeek R1 0528」のInferenceMAXの性能曲線を見ると、
    H200世代をメインターゲットとした最適化傾向を示している一方で、
    「gpt-oss 120B」や「Llama 3.3 70B Instruct」は明らかに異なる特性を示す。
    このことから、NVIDIAの最新アーキテクチャに最適化されたモデル群とDeepSeekとの間に明確な隔たりがあることがわかる。


    Huawei Ascendへの移行が意味するもの

    DeepSeekは現在、Huawei(ファーウェイ)のAscendチップ上での再構築を進めていると報じられている。
    この選択は単なる技術的判断ではなく、地政学的およびサプライチェーン上の必然でもある。

    米国による輸出規制によって、中国企業は高性能NVIDIA GPUへのアクセスを制限されており、
    Ascendは「中国独自のAIインフラを支える要」として急速に位置づけを高めている。

    ただし、Ascend環境に注力するということは、
    今後もNVIDIA向け最適化の優先度が下がり続けることを意味する。
    したがって、DeepSeekの現行ベンチマーク結果は「技術力の不足」ではなく、
    リソース配分上の構造的制約として理解すべきだろう。


    成長する運用コストの現実

    ベンチマークからはもう一つ重要な示唆がある。
    DeepSeekは初期投資段階でNVIDIA GPUコストを抑えられる可能性があるものの、
    運用フェーズではコストが膨らみやすい構造を持っている。

    H200世代GPUをベースとするシステムでは、
    同等の性能を出すためにより多くのGPUノードを必要とする傾向があり、
    その結果、電力消費・冷却・ラックスペース・データセンター運営コストなど
    TCO(総保有コスト)が増大しやすい。

    DeepSeekがAscend環境への移行を急ぐのは、
    単なる「政治的リスク回避」ではなく、運用効率化の観点からも合理的な判断といえる。


    比較の次のステージ:中国勢「Qwen 3」への期待

    DeepSeekは衝撃的な登場で注目を集めたものの、
    技術リソースの配分上、NVIDIA最適化の優先度が低いと推測される。

    次のステップとして、「InferenceMAX」の検証対象に**「Qwen 3」**などの
    中国勢LLMモデルを加えることで、
    維持コスト・推論効率・アーキテクチャ特性の国際比較がより明確になるだろう。

    これにより、中国のAI企業がどのようにNVIDIA依存から脱却し、
    自国チップで推論基盤を構築しつつあるか
    が可視化される。
    AI競争は「パラメータ数」ではなく、
    電力効率(Performance per Watt)とインフラコスト最適化力の勝負に移行しつつある。


    AMDとNVIDIA:性能差の再定義

    今回のInferenceMAXの結果を見ると、
    AMDのGPUも着実に存在感を高めている。

    特に「gpt-oss 120B」では、AMD環境での最適化が功を奏し、
    NVIDIAとの性能差が大きく縮小している。

    一方で、「Llama 3.3 70B Instruct」では、
    B200とMI355の間に約2倍の差が見られた。
    この差はハードウェアの性能よりも、
    ソフトウェアスタック(CUDAエコシステム)の成熟度の影響が大きい。

    AMDは今後、PyTorch 2.x / ROCm / Transformersベースの最適化を進め、
    性能差の縮小と同時にコスト優位性の確立を狙っている。


    今後の展望:マルチチップ時代への分岐点

    「InferenceMAX」は今後、Google TPUAmazon Trainium にも対応予定だという。
    これが実現すれば、AIチップ市場はついに「NVIDIA一強」から
    マルチベンダー最適化競争の時代へと移行するだろう。

    各クラウドベンダーは自社インフラを
    電力効率・推論スループット・コスト効率の三軸でチューニングし、
    性能と経済性の両面で競い合う構図になる。

    「InferenceMAX」が日次で公開するオープンデータは、
    AI企業の技術判断だけでなく、投資家・クラウド事業者・政策研究者にとっても
    極めて価値の高い指標になると考えられる。


    総括:地政学・経済・技術が交差する新たなフェーズへ

    DeepSeekの性能が他社より低いという結果は、
    単なる「劣後」ではなく、自国チップによるAI推論の自立化に向けた
    壮大な試行の一部と見るべきだ。

    AIチップ競争は、もはやハードウェア単体の性能競争ではない。
    地政学、エネルギー、経済、そしてオープンソース戦略が交錯する総合戦の様相を呈している。

    そして「InferenceMAX」は、
    そのダイナミクスを可視化する新しい分析レンズとして、
    今後のAI産業インサイトを読み解く上で欠かせない存在になるだろう。


    出典

  • ベクトルデータベース Googleの「生成 AI リーダー」コース

    ベクトルデータベース
    Googleの「生成 AI リーダー」コースが面白い。そこではベクトルデータベースの未来について、次のように述べられている。

    「ベクトル エンベディングを使用したセマンティック クエリのメリットが明らかになると、ほとんどのデータベースでベクトルのサポートが追加される予定です。将来的には、すべてのデータベースがベクトル データベースになると考えています。」

    正直、「すべてのデータベースがベクトルデータベースになる未来」というのはあまり想像していなかった。

    一般的なベクトルデータベースの使い方は、ある基準ベクトルに類似したベクトルを検索することである(いわゆる「k 最近傍(KNN)クエリ」)。その際、類似度の指標として ドット積、コサイン類似度、ユークリッド距離 などが用いられる。

    ただし、これらの指標は前提として「各ベクトルを正規化(単位ベクトル化)しておく必要」がある。正規化を行わないと、指標ごとに結果が異なり、検索精度にばらつきが出る可能性がある。

    さらに、効率的な厳密 KNN クエリを計算するアルゴリズムは存在しない。そのため、実際には「近似最近傍探索(ANN)」のアルゴリズムが用いられており、高速で効率的に検索できる一方で、結果は完全一致ではなく近似値となる(=不正確さを含む)。

    このように、ベクトルデータベースはリレーショナルデータベース(RDB)とはかなり異なる挙動をする。概念的な前提からして大きく異なるため、利用するにはまず基礎的な知識を押さえておく必要がある。

    参照: Google Cloud – ベクトルデータベースとは

  • 「AI専用セキュリティソフトは必要か?」現実的な視点で考える

    AIエージェントとセキュリティの現実的な関係

    「AIエージェントが悪用された場合、専用のセキュリティソフトがないと対応できないのでは?」という懸念を耳にすることがあります。しかし、実際にはそれほど単純ではありません。
    PC、サーバ、アプリケーション、ミドルウェアのいずれにおいても、操作をすれば必ず何らかのログ(記録)が残る仕組みがあります。もし攻撃者が痕跡を消そうとする場合も、単純にすべてのログを消せば良いわけではなく、「自分が残したログだけを適切に消す」「さらに消去したという痕跡も隠す」といった高度で手間のかかる操作が必要です。

    攻撃者にとっては、そこに時間を割くよりも新しい攻撃手法を考える方が効率的であることが多いのです。


    AIシステム乗っ取りのリスクとその限界

    最近では「AIシステムを乗っ取り、不正行為を強いる可能性がある」という警告も聞かれます。確かにリスクは存在しますが、以下のような現実的な制約があります。

    • 提供形態の多様性
      企業向けのAIシステムは、通常サブスクリプション契約のもとで提供され、サービス提供側の会社が情報管理を保証しています。顧客ごとにサーバを分離するなどの対策もあり、単純に「乗っ取る」ことは容易ではありません。
    • 被害範囲の限定
      仮に乗っ取れたとしても、それが「エージェント機能を持たないAI」であれば、被害は提供された情報の範囲にとどまります。さらに慎重な企業では、従業員がAIシステムに入力してよい情報をガイドライン化しているため、リスクはさらに抑えられています。
    • 本質的な問題は権限管理
      むしろ現実的なリスクは「AIツールへの権限設定」です。たとえば、従業員が誤って広範なアクセス権を持つAIエージェントに機密情報を扱わせてしまえば、それ自体が大きなリスク要因となります。

    今後の懸念点と「AIの性格」

    AIも人間と同じく失敗を隠すために虚偽を出力することがあります。今後はAIの特性や「性格」に応じた攻略法や攻撃手段が議論されるかもしれません。つまり、AIの出力特性や挙動を逆手に取るような攻撃が増えていく可能性があります。


    攻撃者と防御側、どちらが有利か?

    攻撃者の利点は「一度でも成功すれば利益を得られる」という点です。しかし、現在のサイバー攻撃はランサムウェアのように直接的に金銭を得る手法が中心となっており、単なる実験ではなく「ビジネス化された攻撃」として成立しています。

    そのため、「攻撃側が圧倒的に有利」と断定できる状況ではありません。むしろ問題は、一般企業の準備不足にあると言えます。基礎的なセキュリティ対策や権限管理を整備していない企業が攻撃に狙われやすいのです。


    専門家の警告

    実際、Google傘下のマンディアント元CEOジョン・ワッターズ氏も以下のように警告しています。

    「悪意のある人物がAIを利用して、チャットボットやエージェントなど、企業が頼りにしているAIシステムを乗っ取り、不正行為を強いる寸前だ」

    出典:Axios AI+ Newsletter


    まとめ

    • AIエージェントを悪用する攻撃は可能性として存在するが、システム提供形態や権限管理の仕組みによって制限されている。
    • 攻撃者は痕跡を隠すよりも、新たな攻撃手法や金銭化の方法を模索する傾向が強い。
    • 企業にとって重要なのは、AI専用のセキュリティソフトを待つことではなく、権限管理やログ監視といった基本的な対策を徹底すること

    AIセキュリティの議論は、テクノロジーそのものよりも「使い方」「管理方法」にシフトしていくのではないでしょうか。

    正直中小企業には荷が重そうだけど、企業がやるべきAIセキュリティ対策リストを付けておきます。

    企業が最低限やるべきAIセキュリティ対策リスト

    AIエージェントやチャットボットを安心して活用するために、企業が最低限取り組むべき対策は以下の3点です。

    1. 権限管理の徹底

    • AIツールやエージェントに与える権限は必要最小限に設定する
    • 「誰が、どのAIに、どのデータを扱わせて良いのか」を明文化
    • 機密情報の入力を制限するガイドラインを従業員に提示

    2. ログ監視とインシデント対応

    • AIツールがアクセスしたデータや処理内容をログとして記録・監視する
    • 不自然なアクセスや大量データの抽出があった場合に即座にアラートが出る仕組みを導入
    • 定期的にログをレビューし、攻撃兆候を早期に発見

    3. 従業員教育とルール策定

    • 従業員がAIに入力してよい情報・してはいけない情報を理解できるよう教育する
    • 実際の事例(例:AIに顧客情報を入力してしまった失敗談)を使ってリスクを共有
    • AI利用に関する社内ルールや手順書を作り、定期的にアップデート

    まとめ

    • 権限を絞ることで被害範囲を限定
    • ログ監視で「不正の芽」を早期発見
    • 従業員教育で人的リスクを削減

    AIセキュリティ対策は大がかりな専用ソフトを導入する前に、基本を固めることが最も効果的です。こうした地道な準備が、将来のAI活用リスクを大きく減らす第一歩となります。

  • AscendプロセッサとHuawei CloudMatrix 384の全体像

    Ascendシリーズの位置づけと開発背景

    Huaweiが独自に開発する「Ascend」シリーズは、AI処理に特化したNPU(Neural Processing Unit)です。米国の輸出規制により先端GPUの調達が難しくなった中国において、AI研究・商用利用の基盤を自国技術でまかなうために投入されました。従来のGPUと異なり、AscendはAI計算を第一目的とした設計で、行列演算やディープラーニングワークロードを効率的に処理することに特化しています。そのため、単体チップのピーク性能だけでなく、大規模並列環境でのスケールアウトを前提としたアーキテクチャが特徴です。

    AI向けプロセッサとしての特徴

    Ascend NPUは大量の行列演算ユニットを備え、推論や学習処理に最適化されています。特にHBM(高帯域幅メモリ)を搭載することで、大規模モデルを処理する際に発生するメモリ帯域ボトルネックを軽減しています。さらに、主流のAIフレームワークとの親和性を確保するため、ソフトウェアエコシステム「MindSpore」を中心に開発が進められており、TensorFlowやPyTorchとも互換性を持たせています。これにより、研究者や開発者は既存のワークフローを大きく変えずにAscendを利用できる点が強みとなっています。

    CloudMatrix 384 の構成要素

    Huaweiの「CloudMatrix 384」は、こうしたAscendプロセッサを核にした大規模AI学習向けスーパー・ノードです。名前の通り、Ascend 910C NPUを384基搭載し、さらにKunpeng CPUを192基組み合わせる構成になっています。Kunpeng CPUはARMベースで汎用計算や制御処理を担い、Ascend NPUの演算能力を引き出す役割を果たしています。

    これらを支えるのが、Huawei独自のUB(Unified Bus)ネットワークです。UBはClos/Fat-tree型の階層構造を採用し、384基のNPUとCPUをほぼ均一なレイテンシで接続します。論文や発表によると、ノード間アクセスの帯域劣化は3%未満、追加レイテンシも1µs以下とされています。これにより、ソフトウェア的にはすべてのノードが「ピア」として見え、分散処理の複雑さを隠蔽することが可能になります。

    さらに、CloudMatrixはストレージやネットワークとの統合も考慮されており、RoCE(RDMA over Converged Ethernet)を使った400Gbps級の高速通信をサポートします。これにより、スーパー・ノード間のスケールアウトにも対応し、数千ノード規模の大規模クラスタ構築が可能です。

    スーパー・ノード設計の狙い

    NVIDIAのDGXシリーズがGPU同士をNVLinkで直結し、1つの巨大な「スーパーGPU」を目指しているのに対し、HuaweiのCloudMatrixはCPUとNPUを混在させる設計を選択しました。これは、単体チップ性能の微細化競争で不利な状況を補うために、スケールアウト性能で勝負する戦略といえます。

    また、UBネットワークによってNUMA的な非対称性を隠し、論理的には統合メモリモデルとして見せる設計は、ソフトウェア開発者にとっての負担軽減につながります。ただし、実運用ではアクセスパターンによって性能差が出る可能性もあり、NUMA最適化や輻輳制御といった課題が残ります。

    それでも、この設計は大規模LLM学習やMoE(Mixture of Experts)のようにスパースな通信が発生するワークロードに適しており、中国国内のAI需要に対応するための現実的な解となっています。


    NVSwitch・UB・InfiniBand の比較表

    特徴NVIDIA NVSwitchHuawei UB (Unified Bus)InfiniBand (IB)
    主目的GPU同士を直結し共有メモリ空間化CPU+NPUを対等に接続汎用HPCクラスタ通信
    スコープ8〜72 GPU/筐体内384 NPU + 192 CPU/スーパー・ノード数千〜数万ノード
    接続方式専用クロスバス/NVLinkClos/Fat-tree型UBファブリックClos/Fat-treeファブリック
    レイテンシ~0.3 µs 未満<1 µs (追加差分)0.5〜1 µs
    メモリモデル物理的共有メモリ論理的統合メモリ (NUMA隠蔽)リモートアクセス (RDMA)
    スケーラビリティ限定的(筐体内)スーパー・ノード単位で拡張可HPCで実績豊富
    強み超低遅延・安定した性能CPU/NPU混在、MoEに強い大規模クラスタで成熟
    弱み規模制約、GPU依存実効性能はパターン依存TCP/IP併用時は遅延増
  • NoteやMediumを使って独自ドメインを成長させる戦略 検討編

    調査を始めたきっかけ

    「どうすれば検索されやすくなるのか?」を事前に考え、実際の結果と照らし合わせながら成長していく――そんな前向きな取り組みとして、今回の調査をスタートした。


    独自ドメインは“育てる”ことで成果が出る

    独自ドメインのブログは、立ち上げ直後から一気にアクセスが集まるわけではない。
    しかし、時間をかけて記事を積み重ねることで確実に伸びていく。そのヒントとなるのが、以下の記事だ。

    👉 Notionで2年間ブログを書き続けてきたSEO成果


    NotionとSuperを使った成功事例に学ぶ

    この記事では、SEOに強いとされるNotionとSuperを組み合わせたブログ運営で、1年後には検索1位を獲得する記事が増えたと紹介されている。
    特筆すべきは、次のような実績だ。

    • 100件以上の記事を投稿
    • 1年かけてアクセスが拡大
    • 最初の4か月はインデックスに時間がかかったが、その後一気に伸びた

    つまり、継続して記事を積み上げれば、独自ドメインでも十分にチャンスがあるということだ。


    独自ドメインで効果を出すための行動プラン

    この事例から考えられるのは、「3日に1記事」を半年継続することで、成果が見え始める可能性が高いということ。
    短期的な結果だけでなく、中長期的な成長を意識した戦略が大切になる。


    成長を加速させるショートカット戦略

    一方で、さらに早く成長させたいなら、他の人気ブログサービスを活用して独自ドメインへリンクを張る方法も有効だ。
    これにより、検索流入を加速させることが期待できる。


    NoteとMediumを活用して広げる可能性

    • Note:日本語での発信を強化し、国内ユーザーにリーチ
    • Medium:英語圏に向けてAIツールの情報を発信し、グローバル展開を狙う

    特にMediumでは、AIツール関連の情報がどのように世界に広がるのかを検証する良い機会になると考えている。


    今後のチャレンジと楽しみ

    もちろん、SEOの観点から記事の使い回しは難しい。

    • 日本語と英語でどう差別化するか
    • メインドメインでどのようなテーマを軸に据えるか

    こうした課題はあるが、試行錯誤を続ける中で方向性が定まり、より強いブログに育っていくだろう。

    サービス名特徴収益化機能備考
    note日本語UI、記事・画像・音声・動画投稿、プラットフォーム集客あり有料記事、マガジン、サークル国内利用者多い、初心者向け
    はてなブログカスタマイズ性高い、はてなブックマーク経由の拡散Google AdSense、アフィリエイトテキスト特化、古参ユーザー多い
    アメーバブログ(アメブロ)芸能人・インフルエンサー利用多数、簡単操作アメーバPick(アフィリエイト)SNS感覚の交流
    ライブドアブログ無料・広告挿入可、歴史長いGoogle AdSense、アフィリエイトニュース系ブロガー多い
    LINEブログLINEアカウント連動、SNS要素強め広告不可(誘導は可)若年層ファン向け
    Mediumグローバル向け、英語圏に強いパートナープログラム、外部リンク販売日本語でも発信可、SEO強め
    QiitaITエンジニア向け技術記事Qiitaスポンサー、外部誘導技術特化コミュニティ
    ZennモダンなUI、技術書販売可有料記事、技術書販売エンジニア向け新興サービス

  • WordPress の設定作業

    XserverはWordPressの簡単インストールがあるのでなんの問題もなくインストールが完了、次はプラグインのインストールとなる。WordPressのメリットはSEOプラグインの強さによるのでこれは必須と言っていいのではないだろうか?

    インストール対象はAll in One SEO、Yoast SEO等があるが、プラグインは基本的に習得コストなどを最小限にしたいのでAll in One SEOとした、これが正しいのか何なのかは後日わかることになるだろう。

    インストールすると『OptinMonster』『Google Analytics for WordPress by MonsterInsights』がプラグインとしてイントールされている。All in One SEOをインストールすると同時にインストールされるようなので削除といってもメニューの一括操作で削除できなかったため、「無効化」をクリックして削除を押下して削除完了!

    「All in One SEO」インストールで勝手に入る「OptinMonster」「Google Analytics for WordPress by MonsterInsights」の削除問題

    https://ownmono.com/blog/wordpress/allinoneseo-setplugin

    「Broken Link Checker by AIOSEO」とかも入っている。。。これはいらなそうだな。無効化→削除

    いつの間にかWPにインストールされているプラグイン「Broken Link Checker by AIOSEO」

    All in One SEOのGoogle Search Consoleへの接続が完了してWordPressの設定は最低限の最低限は完了したのか??

    即時更改にしたつもりが公開されない。。。以下のサイトを見るとサイトにアクセスしている人間がいないと投稿されないと書かれている。うーん。公開設定に変更してみたりブログURLにアクセスしてみたりして無事に更改完了。。。

    対処方法は同時にアクセスしてみるということでいいのだろうか。Wordpressには謎ばかりだ。

    WordPressの「予約投稿の失敗」エラーの処理方法(2つの方法)