Llama 3.1 Swallow と Ollama・MCP・LangChain でローカルエージェントを動かす
Gemini 3.0 や ChatGPT 5.2 といった最新のクローズドモデルは、性能が年々向上し、多くのタスクで高い精度を発揮している。一方で、オープンウェイトの LLM も、商用 API には及ばないまでも、特定用途では十分に実用的な水準に達しつつある。とくに、データを外部に送らずにローカルだけで動かせる点は、セキュリティやコンプライアンスを重視する現場では大きなメリットになる。
ローカルで LLM を動かす方法として、Ollama は導入が簡単で、開発・検証用途でよく使われる。Meta の Llama 系モデルとの相性も良く、公式やコミュニティのモデルをそのまま利用しやすい。ただし、70B クラスなど大規模な Llama 系は個人環境ではメモリ負荷が重く、8B クラスの Llama 3 系は日本語タスクでまだ改善の余地がある。そこで本記事では、比較的軽量でありながら日本語能力が強化された Llama 3.1 Swallow に注目する。
また、LLM に外部ツール(計算・検索・API など)を安全に渡して使わせるための仕組みとして、MCP(Model Context Protocol) が普及しつつある。MCP は 2024 年 11 月に Anthropic が発表したオープンなプロトコルで、LLM とツール群の接続方法を標準化する。Ollama のようなローカル LLM と MCP を組み合わせることで、ツール呼び出し付きのエージェントをローカル環境で構築できる。
本記事では、Ollama・Llama 3.1 Swallow・MCP・LangChain を組み合わせて、ローカルでツール呼び出し可能なエージェントを動かす手順をまとめる。LangChain は 1 系以降で API が大きく変わっており、古いサンプルではそのまま動かないことが多いため、現行の API に沿った形で説明する。
【2025年版】自作のPythonライブラリを `pip install` できるようにする
Pythonプログラムを pip install できるようにする方法をリポジトリにまとめた。
KP41を解決した件
KP41を克服したときの備忘録
Cloudflare WARPをセットアップしてインターネット通信を保護する
WSL2内のUbuntuに外部PCからsshする【2. WAN編】
Windows 11にインストールしたWSL2のUbuntuに、外部PCからsshでアクセスできるようにするための方法をメモ。
今回は自宅外のネットワークからアクセスする方法について。