対象者: Claris FileMaker Server の管理者
Claris FileMaker プラットフォームは大きな進化を遂げようとしています。 これまでクラウドサービスの利用が前提だった高度な AI、特に大規模言語モデル(LLM)が、オンプレミスやクラウド上の FileMaker Server で直接動かせる時代が到来しました。 さらにセットアップは非常に簡単で、Python などの知識がなくてもローカル LLM サーバーを構築できます。 今回はローカル LLM の概要をご紹介します。

各機能の詳細な設定内容は後日しっかり調査して書きたいと思っています!
ローカル LLM とは?クラウド AI との根本的な違い
まず、「ローカル LLM」とは何でしょうか? 一言で言えば、自社で管理するサーバー(オンプレミス環境や自社が契約する Google Cloud、Amazon AWS、Microsoft Azure などもこのケースはローカルのサーバー)上で動作する大規模言語モデルのことです。
これまで私たちが「AI」として触れてきた ChatGPT や Gemini などは、すべて開発元が管理するクラウドサーバー上で動作していました。 FileMaker からこれらの AI を利用する場合、必ずインターネット経由で外部にデータを送信する必要がありました。
ローカル LLM は、この常識を覆します。 FileMaker Server に LLM を直接インストールし、外部と通信することなく AI の能力を活用できるのです。
ローカル LLM(新機能) | クラウド AI | |
処理場所 | 自社の FileMaker Server 上 | 外部の AI サービス提供者のサーバー |
データ送信 | LAN 内のネットワークの範囲まで | インターネット経由で外部へ送信 |
接続環境 | FileMaker Server まで接続できればインターネット接続不要 | インターネット接続必須 |
カスタマイズ | モデル自体を柔軟に選択・調整可能 | サービス提供者の範囲内 |
セキュリティ | 非常に高い | 外部サービスのポリシーに依存 |
Claris FileMaker がもともと持っている「オンプレミスでもクラウドでも、環境に合わせて選べる」という強みが、AI の世界にも拡張されたと言えるでしょう。
ローカル LLM のメリットとデメリット
では、ローカル LLM を導入することで、開発者やユーザーにはどのような恩恵があるのでしょうか。
メリット
これが最大のメリットです。顧客情報、個人情報、財務データ、開発中の新製品情報など、機密性の高い情報を一切外部サーバーに送信することなく AI で処理できます。これまでセキュリティ要件でクラウド AI の利用を諦めていた多くのプロジェクトで、AI 活用の道が拓かれます。
インターネット接続が不安定な工場やイベント会場、インターネットへ接続できない医療現場や LGWAN 接続系などの自治体などでも、AI 機能を安定して利用できます。
デメリット
AI モデルを動かすには、相応のマシンパワーが必要です。「AI モデルサーバーの最小ハードウェア要件」が次のとおりです。
テキスト/画像の「埋め込み」(セマンティック検索専用)
OS | 最小要件 |
Windows / Linux | CPU: Intel Xeon or AMD, RAM: 16 GB |
macOS | CPU: Apple Silicon, RAM: 16 GB |
テキスト生成 / RAG / ファインチューニング
OS | 最小要件 |
Windows / Linux | CUDA 対応 GPU が必要, CPU: Intel Xeon or AMD, RAM: 32 GB or more, GPU: Nvidia RTX 4090 or Nvidia A10 with VRAM 32GB or more |
macOS | CPU: Apple Silicon Ultra, RAM: 64 GB |
特に、テキスト生成や後続記事で解説するファインチューニングを行うには、macOS では「Apple Silicon Ultra」、Windows/Linux では高性能な NVIDIA 製 GPU が最小要件とされています。これは決して低いハードルではありません。
- GPU のスペック的を比較( Perprexity による調査結果)
- Nvidia RTX 4090: この中では最上位
- Apple M3 Ultra: RTX 4090に迫る
- Nvidia A10 / L4: RTX 4090 の半分
- Apple M4 Max: Apple M3 Ultra の半分
- Apple M4 Pro: Apple M4 Max の半分
- Apple M4: Apple M4 Pro の半分
- Windows や Linux を Google Cloud で単純に動作させるだけで、Nvidia L4 搭載の G2 32GB は約 8 ヶ月で100万円を超えます。
- Mac では、最小スペック通りの Apple M3 Ultra 搭載の Mac Studio RAM 96GB で 668,800円、少し我慢して最小スペックのさらに半分の GPU性能である Apple M4 Max 搭載の Mac Studio RAM 64GBで 433,800円。Mac 本体は弊社から販売可能ですのでご相談いただければ幸いです。
FileMaker Server と ローカル LLMサーバー が必要とするハードウェアスペックとあまりにも違いがあるため、ローカル LLM サーバーは別のサーバーマシンで構築することが強く推奨されます。
クラウド AI サービスは常に最新のモデルにアップデートされますが、ローカル LLM は Hugging Face からモデルファイルをダウンロードし、管理・更新する必要があります。
基本操作とパフォーマンス
簡単なセットアップ
FileMaker Server Admin Console に新しく追加された「AI サービス」というタブから、利用したいオープンソースモデル(例:google/codegemma-7b-it)を選択し、ロードするだけ。ターミナルで黒い画面とにらめっこする必要はありません。この手軽さは、まさに FileMaker らしいです。

スクリプトからの実行
事前に「AI アカウント設定」スクリプトステップで接続先や使用するモデルを設定します。 その後、新しいスクリプトステップ「モデルから応答を生成」を使って質問(プロンプト)をモデルに送信するだけで、AI からの応答をフィールドに設定できます。
パフォーマンスについて
応答速度には注意が必要です。 最小ハードウェア要件を満たさないマシンでは、応答にかなりの時間がかかる可能性があります。 パワフルなハードウェアへの投資が重要になりそうです。
AI を利用するなら今は OpenAI や Gemini の Web API か、ローカル LLM なのか?
コスト面
OpenAI や Gemini のような Web API はリクエストごとに課金されるのに対し、ローカル LLM は初期投資だけですが高額ハードウェアが必要です。 AI の技術は急速に進化し、高性能化と低価格化が進んでいるため、本格的な利用を開始するまでは Web API の方がコストメリットが高いと考えられます。
性能面
性能面では、OpenAI や Gemini といった Web API が圧倒的に優位です。
セキュリティー
Web API はインターネットを経由しますが、SSL/TLS による通信が標準であり、有償サービスでは多くの場合、データが学習に再利用されないこと(オプトアウト)が規約で保証されています。 そのため、適切な事業者を選べばデータ漏洩のリスクは低いと言えます。
とはいえ、無償の Web API ではオプトアウト対象外だったり、規約に書いてあっても実は・・という話もチラホラでてくるので、ちゃんとした Web API 業者を選択することが非常に大切です。
一方、ローカル LLM はデータを外部に送信しない点で安全ですが、ローカル環境内の通信が http 通信など暗号化されていなければ傍受される可能性や、ログに機密情報が残るリスクも考慮する必要があり、ローカルでさえあれば万全なセキュリティを意味するわけではありません。
個人的なおすすめ
セキュリティポリシーとして「インターネットにデータを送信できない」という厳格な要件がある場合はローカル LLM が選択肢となります。 そうでない場合は、将来はどうなるかわかりませんが、現状では性能とコストの面から有償の Web API がおすすめです。
まとめ
ローカル LLM は FileMaker 開発の新たな選択肢
FileMaker プラットフォームにローカル LLM という新たな選択肢が登場しました。 これにより、これまでクラウドサービスの利用が前提だった高度な AI を、オンプレミス環境で直接実行できるようになります。
最大のメリットは、機密情報を外部に送信することなく AI 処理ができる圧倒的なセキュリティです。 これにより、厳しいセキュリティ要件を持つプロジェクトでも AI 活用の道が拓かれます。 また、インターネット接続のないオフライン環境でも安定して AI 機能を利用できる点も大きな利点です。
ローカル LLM は、すべての開発者にとって最適な解決策ではありませんが、FileMaker における AI 活用の可能性を大きく広げる、注目の技術であることは間違いありません。
当ブログでは、この他にも Claris FileMaker 2025 のリリースに関する様々な記事を公開しています。
ぜひ、以下の一覧ページから気になる記事を探してみてください。
▼関連記事の一覧はこちら
AI・Web 連携・開発効率が爆速進化!Claris FileMaker 2025 リリース特集ブログ一覧