当サイトは様々な環境から閲覧できるよう、CSS(カスケーティングスタイルシート)に対応したブラウザで最適に見えるように構築されております。
快適な閲覧のために最新のブラウザ(InternetExploler / Firefox / Google Chromeなど)へのアップデートをお勧めします。

ショッピングカート エクスカート

  • HOME
  • よくあるご質問

よくあるご質問

ショッピングカート『Xcart』に関するQ&Aです。導入前のご質問や、困ったときの解決方法などはこちらをご覧ください。

  • キーワードから探す方はこちら

「httpdocs」内の「robots.txt」は何のためにありますか?

「robots.txt」とは、Googleなどの検索エンジンが、ホームページのデータを得するためのプログラム(検索ロボット)に対して、アクセスできる範囲などを命令するファイルとなります。
Xcartでは検索ロボットからの無用な大量アクセス(※)の対策として、この「robots.txt」をレンタルサーバープランのレンタルサーバー側の「httpdocs」ディレクトリ直下に 設置しています。

(※) 検索エンジンでは、検索ロボット(クローラー)がWebページへアクセス(クロール)することでWebページの情報が登録され、検索結果として表示されるようになります。
通常は適度な間隔でこのクロール作業が行われるのですが、稀に検索エンジン側のバグで短い時間内にクローラーが何度もアクセスを行ったしまう場合があります。
このような検索ロボットから大量のアクセスがあった場合、サーバーが高負荷となり、サイト閲覧等のサーバーの利用に支障が発生する場合があります。

設置している「robots.txt」は、以下の検索エンジンの検索ロボットに対し、アクセス可能間隔を最短30秒間隔に制御しています。

・MSN
・bing
・百度(Baidu)
・Majestic-12

※1.上記検索ロボットからのアクセス自体は可能です。

※2.「robots.txt」はお客様側で編集可能です。


  • キーワードから探す方はこちら

このエントリーにコメントできません。