1. なぜいま、新しいファイルが必要なのか
自社サイトを「探してもらう」「読んでもらう」相手は、長らくGoogle などの検索エンジンでした。検索結果の青いリンク 10 本に並ぶことを目標に、SEO に時間とお金を投じてきた。 この前提が、ここ数年で急速に崩れています。
ChatGPT や Claude、Perplexity に質問をすると、検索結果一覧ではなく「答え」そのものが返ってきます。その答えは 通常 2 〜 7 件のサイトを引用しており、引用元として表示されたサイトに アクセスが流れる ―― いわゆる「AI 検索」の時代です。
ここで起きているのは、サイト担当者にとって 2 つの変化です。
- 訪問者の入口が「Google の検索結果ページ」から「AI の回答」に 一部置き換わりつつある。
- AI に引用される / されないが、サイトへの 流入を直接左右するようになってきた。
問題は、AI がサイトを読むときに使っている方法が、Google の クローラーとはやや事情が違う点にあります。AI は HTML を すべて読み込み、ナビゲーション、スクリプト、Cookie バナー、 広告、フッターを かき分けて 重要な情報を抜き出す 必要がある。これは AI 側のコストが大きく、結果として 「面倒な構造のサイトは引用されにくい」状況が生まれます。
その問題を、サイト側からシンプルに解決するために提案された仕様が llms.txt です。提案者は Jeremy Howard 氏(Answer.AI の共同創業者、fast.ai の作者)。 2024 年 9 月の公開以降、海外の主要サイトを中心に普及が進んでいます。
2. 用語整理 ―― AIO・LLMO・GEO・llms.txt
日本国内では、AI 検索向けの最適化を指す呼び方がまだ定まっていません。 まず、よく見かける用語を整理しておきましょう。
- AIO(AI Optimization)
- もっとも広い意味で、AI に正しく理解・引用されるように Web コンテンツを整える取り組み全般を指します。日本の Web 業界では、この呼び方が比較的早く広まりました。
- LLMO(LLM Optimization)
- AIO のうち特に大規模言語モデル(ChatGPT・Claude・Gemini など)を念頭に置いた最適化。日本語圏で特に好んで使われる呼び方です。
- GEO(Generative Engine Optimization)
- 海外で広く使われている呼称。Perplexity や Google AI Overviews など「生成型検索エンジン」での露出を最適化する活動を指します。米系 SEO 企業の用語として定着しつつあります。
- llms.txt
- 上記いずれの取り組みでも基礎になる、具体的なファイル形式の仕様。サイトのルートに置く Markdown ファイルで、AI に対して「うちのサイトはこういう内容ですよ」と一目で伝えるのが役割です。
つまり AIO・LLMO・GEO は方針や活動の名前で、 llms.txt はその方針を実装するための具体的な手段の一つ ―― という関係です。本ガイドでは混乱を避けるため、以降は呼び方を 「AI 最適化」と統一します。
3. llms.txt が解決する具体的な問題
やや抽象的な話が続いたので、ここで具体例に降ります。 あなたのサイトが、たとえば「東京都内の社労士事務所」だとしましょう。
ユーザーが ChatGPT に「東京で助成金に強い社労士は?」と尋ねるとき、 ChatGPT はサイトを 1 件ずつ読みに行き、内容を要約して比較しようと します。このとき、AI が読まなければならないのは:
- サイト全体の HTML(数百 KB 〜 MB 単位)
- JavaScript で動的に生成される本文(取得自体が失敗することも多い)
- ナビゲーション、フッター、Cookie 同意バナー、広告枠
- 場合によっては、ログインが必要な領域(取得不能)
この負担は AI 側にとって無視できないため、結果として 「シンプルで読みやすいサイトしか引用されない」 という現象が起きます。逆に、llms.txt が 置かれているサイトは:
- 1 回のリクエストで「サイトの目次と概要」が手に入る
- AI が読み込むトークン量が、報告ベースで 1/10 程度 に減る
- 結果として、引用される確率が上がる
llms.txt がやっていることは、ものすごく単純化すれば「来客に名刺を渡す」ことに近いです。 初対面の相手に職業も連絡先も書かれていない手書きメモを渡すよりも、 きちんと整った名刺の方が記憶に残りやすい。それと同じ原理です。
4. ファイル構造を読み解く ―― 実例で理解する
llms.txt は、たった 4 つの要素でできています。 まず実物を見てみましょう。
# 山田社労士事務所 > 東京都内で 20 年、事業者の助成金申請と労務相談を行っている社労士事務所です。 ## サービス - [助成金申請代行](https://example.com/services/grant): 受給可能性の事前判定から申請までを一括代行。 - [就業規則の作成・改定](https://example.com/services/rules): 法改正に合わせた更新も対応。 - [労務相談(顧問契約)](https://example.com/services/consulting): 月額制の顧問契約。 ## 会社情報 - [会社概要](https://example.com/about): 設立、所在地、担当者一覧。 - [料金](https://example.com/pricing): 各サービスの料金表。 - [お問い合わせ](https://example.com/contact): 相談予約フォーム。 ## Optional - [助成金ブログ](https://example.com/blog): 制度改定情報や事例紹介。 - [導入事例](https://example.com/cases): 顧問先での具体的な成果。
4 つの要素はそれぞれ、明確な役割を持っています。
- 01
# H1 タイトル
サイト名(または会社名)を 1 行で。これが AI に「このサイトは誰のものか」を伝える唯一の場所です。必ずファイルの 1 行目に置きます。
- 02
> 概要(blockquote)
サイトを 1 〜 2 行で要約した文章。AI が引用する際、ここがそのまま「肩書き」のように使われます。「東京都内で 20 年」「事業者の助成金申請」のように、具体的で検索されやすい単語を入れるのが効果的です。
- 03
## セクション(複数可)
重要なページ群を、目的別にまとめます。「サービス」「会社情報」「Optional(任意で読んでほしい)」など、訪問者が知りたい順に並べます。「Optional」は仕様で定められた特別な見出しで、AI に「重要度は低いが、必要なら参照してよい」と伝えます。
- 04
- [リンク名](URL): 説明
各セクションの中身。重要なのは「説明」の部分。タイトルだけだと AI が中身を判断できないので、必ず一文を添えます。AI はこの説明文を見て、ユーザーの質問に対してどのページを引用するかを決めます。
細かなルール(改行、空行、文字コード、上限サイズ)は仕様で 定められていますが、覚える必要はありません。後述の検証ツールが 自動で指摘してくれます。
5. よくある誤解と不安への回答
ここからは、サイト担当者から実際によく寄せられる質問と不安に、 一つずつ答えていきます。
Q1. ファイルを 1 つ置くだけで、本当に効果があるんですか?
正直なところ、置いただけで 劇的に 流入が増えるとは 言えません。llms.txt は SEO における「sitemap.xml」と 似た立ち位置で、あくまで AI に対する 下地 です。下地が ないとどれだけ良いコンテンツがあっても伝わらない、という性質のもの。
ただし、設置のコストはほぼゼロ(数十分の作業)なのに対して、 AI 経由のアクセスが今後増えていくのはほぼ確実な流れです。 「やらない理由を探すコスト」の方が「やるコスト」を すぐに上回る、というのが正直な評価です。
実際の効果はサイトのコンテンツの質に大きく 依存します。llms.txt はあくまで通り道を整える作業で、 通り道の先に魅力的な内容がなければ AI は引用しません。
Q2. AI に勝手に学習されてしまうのでは?
ここは丁寧に区別する必要があります。llms.txt は 学習(training)のためのファイルではなく、引用(retrieval)のためのファイルです。
- 学習: AI モデルを作るときに、過去のテキストを 取り込む工程。これを止めたい場合は
robots.txtでGPTBotやClaudeBotを Disallow に します。 - 引用: ユーザーが質問した瞬間に、AI が リアルタイムでサイトを読みに行き、答えに使う工程。この用途で 訪れる AI に対して、効率よく内容を伝えるのが
llms.txtの役割。
つまり llms.txt を置いても、それ自体が 「学習データ提供」になることはありません。むしろ「引用は歓迎、 学習は嫌」という意思表示は、robots.txt 側で行うのが 正しい設計です。
具体的には、robots.txt に次のように書きます。
User-agent: GPTBot Disallow: / User-agent: ClaudeBot Disallow: / User-agent: PerplexityBot Allow: /
注意: ただし最近は、学習用と引用用の クローラーを分けない AI も出てきています。完全に「引用だけ 許可」する制御は、現状の標準仕様だけでは不可能だという 前提も知っておいてください。
Q3. 効果はいつ頃から出るの?
AI による引用は、Google のインデックスのように 「クローラー → 数日後に反映」という単純なサイクルではなく、 ユーザーが質問したタイミングで初めてサイトが読まれることが 多いです。つまり、公開した翌日には、誰かの質問の 回答に使われ得る、というのが現実です。
一方で「自社サイトが ChatGPT で実際に引用されているか」を 測るための統計値はまだ業界標準がありません。当面は次の方法で 間接的にウォッチします。
- 自社のアクセスログで
GPTBot、ClaudeBot、PerplexityBot等の User-Agent からのアクセス数を 月次で記録する - 主要 LLM(ChatGPT、Claude、Perplexity)で自社の業種・地域・ サービスに関する質問を実際にしてみて、引用元として表示されるかを 月 1 回確認する
- Google Search Console の「参照元」に、AI 系のドメインからの 流入が出てくるかをチェックする
Q4. SEO(Google 順位)に影響はある?
直接の順位には影響しません。Google の ランキングアルゴリズムは llms.txt を 使っていません(2026 年 5 月時点)。
ただし間接的な影響はあります。llms.txt を整える 過程で、サイト構造・主要ページの整理、タイトル・概要の見直しが 必要になります。これは結果として通常の SEO 上もプラスに働きます。 「sitemap.xml を整えると Google にも見つかりやすくなる」のと 同じ理屈です。
Q5. robots.txt や sitemap.xml と何が違う?
3 つはそれぞれ役割が違います。
- robots.txt: クローラーに「ここは見ないで」と伝えるファイル。アクセス制御。
- sitemap.xml: 検索エンジンに「こういう URL があります」とすべて教えるファイル。 網羅的。
- llms.txt: AI に「うちはこういうサイトで、特にここを見て」と要点を 伝えるファイル。編集された目次。
つまり、3 つは競合せず、補完し合います。 どれか 1 つを置けばいいというものではなく、すべて持っているのが 理想です。詳しい比較は別記事の 「llms.txt vs robots.txt vs sitemap.xml」 をご参照ください。
Q6. うちは小さなサイトだから関係ない?
むしろ 小規模サイトほど効果が出やすい 傾向が あります。理由は次の通り。
- 大規模サイトは構造が複雑で、AI が情報を抽出しにくい。一方、 小規模なサイトは構造がシンプルなので、
llms.txtを整えるだけで AI 視点では「読みやすいサイト」になりやすい。 - 特定の業種・地域で AI に質問された場合、競合数が少ないため 引用される確率が相対的に高い。
- 早く始めるほど先行者の利を取りやすい状況にあります。 2026 年時点で、約 30 万ドメインを対象にした SE Ranking の調査 では、Web サイト全体での導入率は約 10%、 トラフィック上位の主要サイトに限ればほぼゼロに留まっています。
Q7. 制作会社に依頼すべき? 自分でできる?
結論から言うと、自分でできます。ファイルを 1 つ作ってサーバーの所定の場所に置くだけで、HTML を編集する 作業よりずっと簡単です。
本ガイドの後半で、WordPress / Shopify / Wix / 静的 HTML の各 プラットフォームでの具体的な設置手順を説明します。もしすでに 「サイトの更新を自分でやっている」状態なら、必要な技術は 十分そろっています。
6. 自社で作って公開する ―― ステップ・バイ・ステップ
ここからは実作業です。所要時間は 30 〜 60 分。
ステップ 1. サイトの「主要ページ」を 5 〜 15 個選ぶ
まず、紙に書き出してください。AI に「うちのサイトを誰かに紹介して」 と頼まれたら、どのページを最初に見せたいですか?
- サービス・商品の一覧と、各サービスの個別ページ
- 会社概要(代表者・所在地・実績)
- 料金ページ
- 問い合わせフォーム
- 主要な事例・実績(あれば)
- よく読まれているブログ記事(あれば 2 〜 3 本)
15 ページを超えるなら絞ってください。llms.txt はサイトの全 URL を載せる場所ではなく、 「どうしても読んでほしい上位ページ」を厳選するための仕組みです。
ステップ 2. 各ページの「説明文」を 1 文で書く
これが一番大事な作業です。AI はこの説明文を見て、ユーザーの質問に どのページを引用するかを決めます。良い説明文の特徴:
- 具体的な単語が入っている(「業界最高のサービス」 ではなく「東京都内の事業者向け、月額 5 万円〜の助成金申請代行」)
- 1 文で完結している(長くても 60 文字程度)
- そのページにしか書かれていない情報を含む (他のページとの差別化)
- キャッチコピーよりも「事実」を優先する
ステップ 3. サイト全体の「概要(1 行サマリー)」を書く
> ◯◯ の部分(blockquote)に書く、サイト全体の 一文要約。これも AI が引用時に「ヘッダー」のように使う重要な箇所 です。業種・所在地・対象顧客・実績年数を意識的に 含めると効きます。
悪い例: 「お客様第一のサービスを心がけています」
良い例: 「東京都内で 20 年、事業者の助成金申請と労務相談を行っている 社労士事務所です」
ステップ 4. テキストファイルとして書き出す
メモ帳・Visual Studio Code・Google ドキュメントなど、 プレーンテキストが扱える環境ならどれでも構いません。前述の構造例を 参考に、llms.txt という名前で保存してください。 文字コードは UTF-8 を選んでください (Windows のメモ帳の場合、保存ダイアログで指定可)。
ステップ 5. 検証する
アップロード前に、書式が仕様に沿っているかを必ず確認します。 手作業のミス(H1 が抜けた、リンクの形式が違う、文字コードが 間違っているなど)は、放っておくと AI が読み込めません。
無料の検証ツールを使ってください。
ステップ 6. サーバーの所定の場所にアップロード
置き場所は必ずサイトのルートです。つまり、https://yoursite.com/llms.txt でアクセスできる場所。 サブディレクトリ(/docs/llms.txt や /.well-known/llms.txt)では認識されません。
プラットフォーム別の具体的な手順は次のセクションで説明します。
7. 主要プラットフォーム別・設置方法
ここでは、日本でよく使われているプラットフォームごとの 設置手順を要点だけ示します。画面遷移つきの詳細手順は、プラットフォーム別ガイドにあります。
WordPress(自社サーバー設置型)
- FTP クライアント(FileZilla など)または ConoHa・エックスサーバー等の管理画面の「ファイルマネージャー」を開く
- サイトのドキュメントルート(通常は public_html または htdocs)に移動する
- 作成した llms.txt をアップロードする
- ブラウザで https://yoursite.com/llms.txt にアクセスし、内容が表示されるのを確認
注: WordPress.com(レンタル版)では root にファイルを置けません。WordPress.org のセルフホスト型のみ対応可能です。
Shopify
- 管理画面 → コンテンツ → ファイル を開く
- llms.txt をアップロードする(ただし Shopify は通常、アップロードした /cdn/shop/files/ 配下のパスになるため、ルート直下に置けません)
- 代わりに、テーマの編集画面で /llms.txt のリダイレクトルールを設定する。または、ストア設定 → Apps から「LLMs.txt Generator」系の公式アプリを使うのがおすすめ
注: Shopify は標準ではルート直下のファイル配置に制約があるため、専用アプリを利用するのが現実的です。
Wix
- ダッシュボード → 設定 → SEO ツール → robots.txt のセクション付近にカスタムファイルアップロード機能あり
- ただし 2026 年 5 月時点で、Wix は標準では任意のテキストファイルをルートに置く機能を一般公開していない
- 暫定対応として、サイトに /llms.txt 専用の独立ページを作成し、本文に内容を貼り付ける(完全な仕様準拠ではないが、一部の AI クローラーには有効)
注: Wix は llms.txt 設置に最も難があるプラットフォームの一つ。Wix Studio への移行や、独立した Webflow / 静的サイトでサブドメイン運用を検討するケースもあります。
STUDIO / ペライチ など国内ノーコード
- プラットフォームの管理画面で「カスタムファイル」「robots.txt 編集」などの項目を確認
- 現状ほとんどの国内ノーコードサービスは llms.txt の直接アップロードに未対応
- 代替案として、独自ドメインを使っている場合は CDN(Cloudflare 等)を前段に挟み、Cloudflare Workers または Page Rules で /llms.txt を配信する構成にする
注: 国内ノーコードは llms.txt 対応がまだ進んでいません。サービス側のサポート追加を待つか、Cloudflare 等で迂回する選択になります。
静的 HTML(さくらインターネット・ロリポップ等のレンタルサーバー)
- FTP で接続(各社の管理画面でも可)
- ドキュメントルートに llms.txt をアップロード
- ブラウザで /llms.txt にアクセスして確認
注: 最もシンプル。所要 5 分。
8. 公開後にうまくいっているかを確認する
公開してすぐに「成果」を測るのは難しいですが、以下の 3 つは 必ずチェックしてください。
- 01
正しい URL で配信されているか
ブラウザで https://yoursite.com/llms.txt を直接叩き、内容が表示されることを確認します。404 や、ファイルダウンロードが始まる場合は配信設定の問題です。
- 02
Content-Type が text/plain または text/markdown か
ブラウザの開発者ツール(F12)→ Network タブでリロードし、レスポンスヘッダの Content-Type を確認します。application/octet-stream になっていると、一部の AI が読み込みに失敗します。サーバー設定での修正が必要。
- 03
12 項目の仕様準拠チェックがすべて通るか
本サイトの検証ツールで月に 1 回チェックします。サイト構造を変えたタイミングでも必ず再検証してください。
その上で、長期的なウォッチとしては:
- アクセスログで
GPTBot/ClaudeBot/PerplexityBot等の訪問数を月次で記録 - ChatGPT・Claude・Perplexity で自社の業種・地域に関する質問を 月 1 回行い、引用元として出てくるかを確認(出ていない場合は 何が足りていないかをコンテンツ側で見直す)
9. 続けるべきこと・続けなくていいこと
続けるべきこと
- 四半期に 1 回、内容の見直し: サービスの 追加・終了、料金改定、組織変更などがあったら反映する
- 月 1 回、引用状況の確認: 主要 AI で実際に 質問してみる
- 新しいページを作ったら、重要なら追記する: ただし上限 15 を意識し、既存のページと差し替える形で。
続けなくていいこと
- 毎日・毎週の更新。
llms.txtはサイト全体の 骨格 を伝えるファイルなので、日次で変える必要は ありません。 - 全ページを
llms.txtに列挙する作業。これは sitemap.xml の役割です。混同しないでください。 - AI 検索専用に新規記事を量産すること。AI が引用するのは結局人間にとって有益なコンテンツです。AI 向けに書くのではなく、 人間向けに書いた良いコンテンツを
llms.txtで正しく案内するのがこの仕組みの正しい使い方です。
10. 次の一歩
ここまで読んでいただいて、あとは手を動かすだけです。 最短コースは次の 2 ステップ。
- 01
下書きを 30 秒で作る
本サイトのジェネレーターに自社サイトの URL を入れてください。クロールして仕様準拠のドラフトを生成します。完成度は 60 〜 80 点ですが、ゼロから書くより圧倒的に早いです。
- 02
5 〜 15 分で手を入れて完成させる
ドラフトを開き、本ガイドの「ステップ 2(説明文)」「ステップ 3(概要)」のとおり、自分の言葉で書き直します。これで 100 点に近いものが完成します。
このガイドが、あなたの会社のサイトを、AI 時代に正しく届けるための 一助になれば幸いです。
続けて読む
- → llms.txt vs robots.txt vs sitemap.xml(サイトのルートにある 3 つのファイルの関係)
- → llms.txt と llms-full.txt の違い(本文バンドルを置くべきタイミング)
- → llms.txt と AI 検索の効果計測の仕方
- → AI 検索に拾われたかを確認する方法
- → 解説記事の一覧へ戻る