robots.txt バリデータ Chrome OffiDocsで
Ad
DESCRIPTION
説明 ウェブマスターはロボットを作成します。
txt ファイルを使用して、検索エンジン ロボットに、Web サイトの一部であるページをクロールしてインデックスに登録するように指示します。
ロボット。
txt ファイルは、Web サイトに重大な問題を引き起こす可能性があります。
構文が間違っていると、検索エンジン ロボットにサイトをクロールしないように指示することになり、Web ページが検索結果に表示されなくなります。
ロボットの構文エラーを分析することの重要性。
txt ファイルに十分な負荷をかけることはできません。 このツールは、現在の /robots 内に存在する可能性があるエラーを特定するのに役立ちます。
txtファイル。
また、許可しないように指定したページも一覧表示されます。
主な機能と利点 • 検証済みでエラーのないロボット。
txt ファイルをルート ディレクトリに直接アップロードできます。
• 構文エラー、論理エラー、誤入力された単語を特定し、最適化のヒントを提供します。
• 検証プロセスでは、Robots Exclusion De-facto Standard ルールとスパイダー固有 (Google、Yandex など) の両方が考慮されます。
) 拡張機能 (新しい「サイトマップ」コマンドを含む)。
追加情報:
- lxrmarketplace.com 提供
- 平均評価 : 0 つ星 (大嫌い)
-開発者 このメールアドレスは、スパムロボットから保護されています。 アドレスを確認するにはJavaScriptを有効にする必要があります。
Robots.txt バリデータ ウェブ extension OffiDocsと統合 Chromium オンライン