Help > Forum > 検索エンジン > robots.txtファイルで一部のページがブロックされているのはなぜですか?

robots.txtファイルで一部のページがブロックされているのはなぜですか?

指定したrobots.txtファイルは、検索エンジンで可能な限り高いランキングを確保するために最適化されています。 これは、検索エンジンでの掲載に不適当な値となる特定のページを掲載しないように検索エンジンに指定します。 たとえば、コンテンツが非常に少ないページ([新しいトピックを作成]ページなど)、同じコンテンツを指すわずかに異なるURL(検索エンジンでは重複コンテンツとしてカウントされます)、トランザクションメンバー専用ページ(トピックのフォローやプロファイルの編集など)などです。 これにより、検索エンジンは主にフォーラムの関連性が高くコンテンツが豊富なページを表示し、検索結果でフォーラムが上位にランク付けされます。


If you still need help, please contact us.