robots.txt・sitemap診断
robots.txt と sitemap.xml の貼り付け内容を診断し、危険設定や形式上の注意点を短い改善案つきで表示します。URL取得は行わず、入力テキストのみをブラウザ内で診断します。
入力データは原則ブラウザ内で処理します。機密情報は入力しないでください。
使い方
- robots.txt と sitemap.xml(またはURL一覧)を入力欄へ貼り付けます。
- 「診断レポートを作成」を実行し、危険度と改善案を確認します。
- 必要な修正を行ったら、生成ツールで再作成して反映します。
判断基準
まずは高リスク(全体遮断、URL形式不正)を先に解消し、その後に重複やhttp混在など中リスクを整える順で対応すると、 インデックス障害の切り分けがしやすくなります。
よくある失敗
- ステージング用の `Disallow: /` を本番配信用ファイルに残してしまう。
- sitemapに相対パスを混ぜ、検索エンジン側でURL解釈エラーを起こす。
- 同一URLの重複登録を放置し、クロール効率の低下に気づきにくくなる。
境界条件
- このツールは貼り付けテキストのみ診断し、実サイトのHTTP応答確認は行いません。
- 一般的にはnoindex、canonical、内部リンク構造は別途クロール検証が必要です。
- 検索エンジン仕様は更新されるため、最終運用は公式ドキュメントと照合してください。
注意点
- 貼り付けた内容がURLクエリに含まれるため、共有時は公開してよい情報のみ扱ってください。
具体例
- 入力: `User-agent: *` と `Disallow:` 空、`Sitemap` あり。出力: 高リスク0件の安全寄り診断結果。
- 入力: `Disallow: /` を含む robots。出力: 全体遮断の高リスク警告と修正案を表示。
補足: 診断結果は初期チェック用途です。最終判断は実運用方針に沿って確認してください。
このツールは貼り付けテキストのみ診断します。外部URLのfetchは行いません。
失敗しやすい診断入力
robots.txtとsitemap.xmlの貼り付け先を逆にする
診断観点が崩れ誤警告につながります。
例: 判断ポイント: robots欄とsitemap欄を再確認して貼り付ける
部分断片だけで全体診断とみなす
抜粋入力では重要な競合ルールを見落とすことがあります。
例: 入力例: Disallow行のみ貼付 / 出力: 限定診断
境界値・例外ケース
XML本文ではなくURL一覧を入力する
sitemap形式とURLリストで診断ロジックが異なります。
例: 入力例: 1行1URL / 出力: リストとして診断
巨大sitemapの貼り付け
入力サイズが大きいとブラウザ処理が重くなる場合があります。
例: 判断ポイント: 分割して診断し、問題箇所を絞る
よくあるミス
診断結果をそのまま正解とみなす
実際の公開要件や運用方針との照合が必要です。
例: 運用例: 指摘後に運用ルールと突合して修正
修正後に再診断しない
別の警告が残っていても気づきにくくなります。
例: 判断ポイント: 変更後は再貼り付けで再診断
FAQ
外部URLを指定して自動取得できますか?
対応していません。入力データを外部送信しない設計のため、内容を貼り付けて診断してください。
診断結果は絶対に正しいですか?
運用上の初期チェックを目的とした診断です。最終判断は実サイト方針に沿って手動で確認してください。
改善案の作成にも使えますか?
はい。robots/sitemap生成ツールへの導線として使えるように設計しています。
高/中/低の優先度はどう使い分ければよいですか?
高は即時対応、中は公開前に解消、低は定期メンテで追う運用が目安です。公開障害の有無に応じてチーム内SLAに合わせてください。
基本FAQ
入力データは外部へ送信されますか?
原則として送信されません。入力内容はブラウザ内で処理します。例外がある場合は各ツールページ内に明記しています。
入力内容は自動保存されますか?
原則として自動保存しません。コピーやダウンロードで保存する場合は、ご利用端末内に保存されます。
関連ツール
現在の入力内容とあわせて確認しやすいツールです。