Copilot+PCのNPUを使ってLLMを動作させる手順

Copilot+ PCは、最先端のAI機能とNPU(Neural Processing Unit)を搭載し、ローカル環境での大規模言語モデル(LLM)の高速かつ効率的な動作を実現します。

本記事では、AMD Ryzen™ AI 9 HX 370搭載したCopilot+PCのローカル環境で、大規模言語モデルを動作させる手順をご紹介します。

動作環境

個人的な購入で予算に限りがあったため、AI機能を搭載し、グラフィック性能も比較的高い「GMKtec EVO-X1」を選択しました。

このモデルには最大50TOPS(Tera Operations Per Second)の性能を持つNPUが搭載されており、軽量な大規模言語モデル(LLM)をローカルで動作させるには十分な処理能力を備えています。

また、Oculinkポートを搭載しているため、外部GPUの接続も可能であり、将来的にはGPUとNPUの性能比較なども試してみたいと考えています。

www.gmktec.com

Lemonade SDK

AMDのAI対応CPU上でLLMアプリケーションを効率的に動作させるために、Ryzen AI向けに最適化された推論サーバー「Lemonade SDK」を採用しました。

インストール

下記サイトにアクセスし、Lemonadeインストーラー(Lemonade_Server_Installer.exe
)をダウンロードして実行します。

https://github.com/onnx/turnkeyml/releases

コンポーネント選択画面で、実行したいモデルを選択します。

インストール終了画面で「Run Lemonade Server」にチェックをいれて「Finish」ボタンを押します。

Lemonadeサーバーの起動画面が表示されるので、ウィンドウを閉じずに最小化しておきます。

※ 次回以降はデスクトップのショートカットから起動が可能です。

AI Toolkit for Visual Studio Code

AI Toolkit for Visual Studio Codeを利用することで、フロントエンドの開発を行う必要がなく、ローカル環境でのAIモデルの実行・デバッグ・パラメータ設定などを直感的かつ簡易に行えるため、今回はこのツールを採用しました。

Visual Studio Codeのアクティビティバーから[拡張機能]を選択し、検索バーに「AI Toolkit」と入力します。

[AI Toolkit for Visual Studio Code] を選択し、[インストール] をクリックします。

インストールが完了すると、アクティビティ バーに AI Toolkit アイコンが表示されます。

カスタムモデル

モデルの追加を選択します。

「Add Custom Model」を選択します。

http://localhost:8000/api/v0/chat/completions」をインプットボックスに入力し、Enterキーを押します。

実行したいモデル名をインプットボックスに入力します。モデル名を入力後、Enterキーを押します。

今回は、Metaが開発したオープンソースのLLMモデル「Llama 3.2-3B-Instruct-Hybrid」を使用しました

この画面では、Enterキーを押します。

モデル名が表示されたら完了です。

 モデルの実行

「Playground」をクリックすると、プロンプト入力画面が表示されます。

プロンプトを入力すると、内部モデルを利用して回答が返ってきます。

ハイブリッドモデルを利用したため、NPUとGPUがバランスよく利用されています。

おわりに

本記事では、Copilot+ PCのローカル環境で大規模言語モデルを動作させる手順をご紹介しました。

セキュリティ的な観点からクラウド環境ではなくローカル環境で快適に生成AIを使いたいユーザー様もいると思いますので、今後はローカル生成AIをカスタムデータを利用して活用できるシステム開発も考えてみたいと思います。

執筆担当者プロフィール
神田 英樹

神田 英樹(日本ビジネスシステムズ株式会社)

西日本事業本部 クラウドサービス2部3グループに所属しています。主にAzureなどのクラウドサービスを取り扱っています。趣味は特にありませんが、愛犬のお世話をして過ごすことが多いです。

担当記事一覧