このチュートリアルでは、大規模言語モデル(LLM)がModel Context Protocol(MCP)を介してツールを使用できるようにするTypeScriptアプリケーションの構築方法を説明します。MCPは、アプリケーションがLLMにコンテキストを提供する方法を標準化し、外部ツールやデータソースとのインタラクションを可能にします。アプリケーションはホストとして機能し、ウェブ検索やファイル操作など、さまざまなツールを提供する複数のMCPサーバーにLLMを接続します。ツールは呼び出し可能な関数であり、リソースは副作用のないデータを提供します。プロンプトはLLMに指示するためのテンプレートとして機能します。このチュートリアルではAnthropicのClaudeモデルを使用し、Anthropic APIキーの設定と必要な依存関係のインストールが必要です。ホストは指定されたMCPサーバー(フェッチとファイルシステム)に接続し、それらのツールをLLMで使用できるようにします。その後、アプリケーションはLLMのリクエストを処理し、ツールを実行して結果を返します。LLMの応答は処理され、ツール呼び出しはクライアントサーバーマップを通じて管理されます。最後に、サンプルリクエストは、ウェブコンテンツの取得、要約、および要約のファイルへの書き込みを示しています。これにより、LLMの機能は単純な会話を超えて拡張されます。
dev.to
Powering up AI models by handing them tools
