robots.txt・sitemap診断

robots.txt と sitemap.xml の貼り付け内容を診断し、危険設定や形式上の注意点を短い改善案つきで表示します。URL取得は行わず、入力テキストのみをブラウザ内で診断します。

入力データは原則ブラウザ内で処理します。機密情報は入力しないでください。

使い方

  1. robots.txt と sitemap.xml(またはURL一覧)を入力欄へ貼り付けます。
  2. 「診断レポートを作成」を実行し、危険度と改善案を確認します。
  3. 必要な修正を行ったら、生成ツールで再作成して反映します。

判断基準

まずは高リスク(全体遮断、URL形式不正)を先に解消し、その後に重複やhttp混在など中リスクを整える順で対応すると、 インデックス障害の切り分けがしやすくなります。

よくある失敗

  • ステージング用の `Disallow: /` を本番配信用ファイルに残してしまう。
  • sitemapに相対パスを混ぜ、検索エンジン側でURL解釈エラーを起こす。
  • 同一URLの重複登録を放置し、クロール効率の低下に気づきにくくなる。

境界条件

  • このツールは貼り付けテキストのみ診断し、実サイトのHTTP応答確認は行いません。
  • 一般的にはnoindex、canonical、内部リンク構造は別途クロール検証が必要です。
  • 検索エンジン仕様は更新されるため、最終運用は公式ドキュメントと照合してください。

注意点

  • 貼り付けた内容がURLクエリに含まれるため、共有時は公開してよい情報のみ扱ってください。

具体例

  • 入力: `User-agent: *` と `Disallow:` 空、`Sitemap` あり。出力: 高リスク0件の安全寄り診断結果。
  • 入力: `Disallow: /` を含む robots。出力: 全体遮断の高リスク警告と修正案を表示。

補足: 診断結果は初期チェック用途です。最終判断は実運用方針に沿って確認してください。

このツールは貼り付けテキストのみ診断します。外部URLのfetchは行いません。

失敗しやすい診断入力

  • robots.txtとsitemap.xmlの貼り付け先を逆にする

    診断観点が崩れ誤警告につながります。

    例: 判断ポイント: robots欄とsitemap欄を再確認して貼り付ける

  • 部分断片だけで全体診断とみなす

    抜粋入力では重要な競合ルールを見落とすことがあります。

    例: 入力例: Disallow行のみ貼付 / 出力: 限定診断

境界値・例外ケース

  • XML本文ではなくURL一覧を入力する

    sitemap形式とURLリストで診断ロジックが異なります。

    例: 入力例: 1行1URL / 出力: リストとして診断

  • 巨大sitemapの貼り付け

    入力サイズが大きいとブラウザ処理が重くなる場合があります。

    例: 判断ポイント: 分割して診断し、問題箇所を絞る

よくあるミス

  • 診断結果をそのまま正解とみなす

    実際の公開要件や運用方針との照合が必要です。

    例: 運用例: 指摘後に運用ルールと突合して修正

  • 修正後に再診断しない

    別の警告が残っていても気づきにくくなります。

    例: 判断ポイント: 変更後は再貼り付けで再診断

FAQ

  • 外部URLを指定して自動取得できますか?

    対応していません。入力データを外部送信しない設計のため、内容を貼り付けて診断してください。

  • 診断結果は絶対に正しいですか?

    運用上の初期チェックを目的とした診断です。最終判断は実サイト方針に沿って手動で確認してください。

  • 改善案の作成にも使えますか?

    はい。robots/sitemap生成ツールへの導線として使えるように設計しています。

  • 高/中/低の優先度はどう使い分ければよいですか?

    高は即時対応、中は公開前に解消、低は定期メンテで追う運用が目安です。公開障害の有無に応じてチーム内SLAに合わせてください。

基本FAQ

  • 入力データは外部へ送信されますか?

    原則として送信されません。入力内容はブラウザ内で処理します。例外がある場合は各ツールページ内に明記しています。

  • 入力内容は自動保存されますか?

    原則として自動保存しません。コピーやダウンロードで保存する場合は、ご利用端末内に保存されます。

現在の入力内容とあわせて確認しやすいツールです。