Windows MLがGAされたので試してみた!

-- Views

October 08, 25

スライド概要

KANSAI AI PUB(関西×人工知能×場)2025/10/08 #AIMTG (https://deep-learning-osaka.connpass.com/event/368696/)登壇資料。Windows MLがGAされたので実際に試してみた話を紹介。
実装に関する詳細は以下の記事でも公開
https://qiita.com/miyaura/items/81e5f66bce10d1718e76

profile-image

ICT業界でソフトウェアエンジニア/アプリケーションアーキテクトを担当。 社内ではXR関連技術に関する啓もう活動や技術支援に従事。 業務の傍ら、XR(特にMixed Reality領域)についての開発技術の調査、開発などを行っています。 また、「大阪駆動開発」コミュニティ所属しており、日々の調査で得た知見はコミュニティを通して情報発信を行っています。

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

ダウンロード

関連スライド

各ページのテキスト
1.

Windows MLがGAされたので試してみた! 2025/10 AI ミーティング @takabrz1 Takahiro Miyaura

2.

宮浦 恭弘 (Miyaura Takahiro) Microsoft MVP for M365 2018-2026 XRは趣味です.AI系も最近始めました。 大阪駆動開発コミュニティに生息 HoloLens日本販売してからxR系技術に取組む 新しい技術や、MRに使えそうな技術を調べる 技術Tips : https://qiita.com/miyaura https://zenn.dev/miyaura 最近興味があって取り組んでいるもの ○ Microsoft Mesh ○ Azure AI Foundry ○ Snapdragon Spaces @takabrz1 ※よかったらこれを機にお知り合いになってください

3.

Windows MLがついにGAされた話 2025/10/08 © 2025 Takahiro Miyaura 3

4.

Windows Blogsで2025/09/23に Windowブログ記事 Windows ML is generally available: Empowering developers to scale local AI across Windows devices https://blogs.windows.com/windowsdeveloper/2025/09/23/windows-ml-is-generally-available-empowering-developers-to-scale-local-ai-across-windows-devices/ ローカルでAIモデルを実行できる仕組み ○Windows App SDK 1.8以降 ○Windows 11 バージョン 24H2 (ビルド 26100) 以降 GA とても懐かしい響き。 2025/10/08 © 2025 Takahiro Miyaura 4

5.

なぜなつかしいかというと。。。 もう7年前に提供されていた機能(のはず) 当時、Microsoft Hololensでも利用できた https://qiita.com/miyaura/items/fcdf38622506b5 2f5080 2025/10/08 https://qiita.com/miyaura/items/f270d0c593a649 faafce © 2025 Takahiro Miyaura 5

6.

Windows MLとは onnxランタイムを活用したWindowsでオフライン推論を可能にする仕組み ○ Windows App SDKを使用 ○ 実行プロバイダ(EP)で推論に使う 演算装置を選択(自動/手動) Windows上で動く自身のアプリにonnx モデルを使った推論機能を導入できる。 サイトより引用:Microsoft, Windows ML とは,https://learn.microsoft.com/ja-jp/windows/ai/new-windows-ml/overview 2025/10/08 © 2025 Takahiro Miyaura 6

7.

実はほかにも Foundry Local Microsoft Build 2025でアナウンス 現在はパブリックプレビュー版 ○ 現在はいくつかのプリセットモデルが使える ○ 自分で用意したonnxモデルも利用可能 ○ Open API準拠のサービスとして起動 (ollama, LM Studioに近いかも) Buildでの解説を聞いてる限りは、 Azure AI Foundryで構築したモデルやエー ジェントを完全ローカルで実行できる形になるらし い話があった https://github.com/microsoft/Foundry-Local 2025/10/08 © 2025 Takahiro Miyaura 7

8.

ローカルで実行する事の重要性 業務活用での最大の懸念点 クラウドサービスなどに情報を投げると以下の懸念がある ○ 情報漏洩に繋がる可能性 ○ 学習情報として使われてしまう可能性 エンタープライズ向けでの生成AI活用において 漏洩の少ない閉域環境での利用が求められているというのが影響していそう 2025/10/08 © 2025 Takahiro Miyaura 8

9.

早速つかってみる 開発と利用環境 ○ Windows 11 24H2以降 ○ Windows APP SDK 1.8以降 ○ .NET 8.0(LTS) ○ なにかonnxモデル (Hugging faceやonnx Model Zooで探すと色々あると思います) 推論時の演算装置については、 CPU,GPU,NPU等なにかしらonnxがサポートしているモノであればOK サポートされるIP情報は以下 https://learn.microsoft.com/ja-jp/windows/ai/new-windows-ml/supported-execution-providers?wt.mc_id=WDIT-MVP-5003104 2025/10/08 © 2025 Takahiro Miyaura 9

10.
[beta]
実装:基本的な最小構成
CPUで推論する実装
実行プロバイダの登録
var catalog = ExecutionProviderCatalog.GetDefault( );
await catalog.EnsureAndRegisterCertifiedAsync( );

モデルの読込み
using var session = new InferenceSessi on ( "model.onnx" );

推論実行
using var results = session.Run(inputs) ;

using System;
using System.Collections.Generic;
using Microsoft.ML.OnnxRuntime;
using Microsoft.ML.OnnxRuntime.Tensors;
using Microsoft.Windows.AI.MachineLearning;

class Program
{
    static void Main()
    {
                
        //実行プロバイダの初期化。現在提供されているカタログを取得し、実行プロバイダのダウンロードや登録を実施
        //このプロジェクトの最初の実行時のみ必要
        var catalog = ExecutionProviderCatalog.GetDefault();
        await catalog.EnsureAndRegisterCertifiedAsync();

        //使用するonnxモデルのロード
        using var session = new InferenceSession("model.onnx");

        var inputTensor = new DenseTensor<float>(new[] {1, 3, 224, 224});
        var inputs = new List<NamedOnnxValue>
        {
            NamedOnnxValue.CreateFromTensor("input", inputTensor)
        };

        // 推論の実施
        using var results = session.Run(inputs);

        foreach (var result in results)
        {
            Console.WriteLine($"{result.Name}: {string.Join(", ", result.AsEnumerable<float>())}");
        }
    }
}

2025/10/08

© 2025 Takahiro Miyaura

10

11.

実行プロバイダ 機械学習操作のハードウェア固有の最適化を可能にするコンポーネント Windows ML に付属するもの ○ CPU ○ DirectML(GPUを直接使う.要DirectX 12サポートGPU) 各ベンター対応の実行プロバイダ ○ NvTensorRtRtxExecutionProvider : Nvidia製GPU ○ OpenVINOExecutionProvider : Intel製CPU,GPU,NPU ○ QNNExecutionProvider : Qualcomm製NPU(Snapdragon(R) X系) ○ VitisAIExecutionProvider : AMD系NPU 詳細:Microsoft, Windows ML でサポートされている実行プロバイダー, https://learn.microsoft.com/ja-jp/windows/ai/new-windows-ml/supported-execution-providers?wt.mc_id=WDIT-MVP-5003104 2025/10/08 © 2025 Takahiro Miyaura 11

12.

まとめ Windows ML 1. Windows 11 24H2以降 2. Windows上で動くアプリにonnxモデルの推論処理を 取り入れることができる 3. 実行プロバイダを利用することでCPU,GPU,NPUに使 用や優先度の制御ができる Ollama, LM Studio, Foundry Localのように 別途サービスを立てなくても生成AIを活用したアプリが作れる 2025/10/08 © 2025 Takahiro Miyaura 12

13.

今日の内容はQiitaにも詳細書いています 正式GAされたWindows MLを利用してローカルでONNXを動かす https://qiita.com/miyaura/items/81e5f66bce10d1718e76 2025/10/08 © 2025 Takahiro Miyaura 13

14.

大阪駆動開発 関西を中心に、IT系のおもしろそうなことを 楽しんでやるコミュニティ