東京SEOサポート・北九州SEO倶楽部からの新着

2021年12月1日
What’s New

リンクにnofollow属性を活用しよう

コメントスパムにはnofollow属性で対処

リンクのrel属性の値にnofollowを設定すると、Googleに対し
てこのリンクをたどらないよう、そしてリンク先に自分のサイトの
ページ評価を渡さないように伝えられます。

東京SEOサポート30

これを設定するには、rel=”nofollow”をリンクのアンカータグの
中に追加します。

では、nofollow属性はどのようなときに便利なのでしょうか?
よくある例としては、ブログのコメント欄に投稿されるコメントが
挙げられます。

もしあなたのサイトに、誰でも自由にコメントできるブログがある
場合、投稿されたコメント内のリンクは、あなたがその価値を保証
できないサイトであっても、あなたのサイトの評価(PageRank™)
を渡してしまいます。ブログのコメント欄は、コメントスパム の標
的になりやすいものです。

このような、ユーザーによって勝手に追加されてしまうリンクに
nofollow属性を設定することにより、あなたが苦労して得たサイ
トの評価をスパムサイトに渡さないで済みます。

コメント欄や掲示板には自動でnofollowを追加しよう

多くのブログソフトウェアのパッケージでは、ユーザーが挿入し
たリンクに自動でnofollowが追加されるようになっています。そ
のような設定があらかじめ用意されていないものでも、多くの場合、
手動で設定することができます。

ゲストブックや掲示板、リファラーのリストなど、ユーザーによ
って生成されるコンテンツが他にある場合も、同様に対応すること
をおすすめします。

第三者によって追加されるリンクの質を保証する場合
(例えば自分のサイトへコメントを投稿するユーザーは、みな
信用できると考えている場合)は、リンクにnofollow属性を
追加する必要はありません。

しかし、リンク先にGoogleがスパムと考えるサイトが含
まれていると、あなたのサイトの評価に影響を及ぼすことが
あります。

ウェブマスターヘルプセンターでは、CAPTCHAの利用やコ
メントの設定の変更などのコメントスパムを防ぐ方法を紹介してい
ます。

東京SEOサポート31東京SEOサポート・北九州SEO倶楽部

SEO対策は実績が信用! YahooとGoogle検索にで
東京SEOサポートで 50%で上位独占表示
北九州SEO で検索で3ページまでに管理サイトで上位
70%で独占表示してます。

地域+キーワードで独占表示のサポートを致します。

SEO対策のノウハウを公開したブログです。

東京SEO・北九州SEOサポート倶楽部【本部】

フェイスブック倶楽部

東京SEOサポート・北九州SEO倶楽部からの新着

2021年11月30日
What’s New

robots.txtを効果的に設定しよう

“robots.txt”とは、検索エンジンにアクセスしクロールして
ほしい部分と、そうでない部分を伝えるためのファイルです。

このファイルは必ず“robots.txt”というファイル名でサイトの
ルートディレクトリに置く必要があります。

東京SEOサポート28

Googleウェブマスターツールをご利用いただくと、robots.txt
ファイルを簡単に作ることができます。

詳細は、ヘルプセンターのrobots.txtファイルを使用してページ
をブロックまたは削除するをご確認ください。

サブドメインを持つサイトで、ある特定のサブドメイン内の
ページをクロールさせないようにするには、そのサブドメイン
用に別のrobots.txtファイルを用意する必要があります。

検索結果にコンテンツを表示させない方法は他にも、“NOINDEX”
をrobotsメタタグに追加、.htaccessを使ってディレクトリにパス
ワードを設定、Googleウェブマスターツールを使ってすでにクロー
ルされたコンテンツを削除するなどがあります。

東京SEOサポート29

【ポイント】

慎重に扱うべきコンテンツにはより安全な方法を使用しよう
機密事項や慎重に扱うべきコンテンツがクロールされないように
するには、robots.txtの設置だけでは十分ではありません。

その理由の1つは、クロールできないように設定したURLであっても、
そのURLへのリンクがインターネット上のどこか(例えばリファラー
ログなど)に存在する場合、検索エンジンはそのURLを参照できる
からです。

また、Robots Exclusion Standardに準拠しない検索エ
ンジンや不正な検索エンジンなどは、robots.txtの指示に従わない
かもしれません。

そしてもう1つ、好奇心の強いユーザーの中には、robots.txtにある
ディレクトリやサブディレクトリを見て、見られたくないコンテンツ
のURLを推測する人がいるかもしれません。

コンテンツの暗号化や.htaccessを使ってパスワードをかけて保護
する方が、より確実で安全な手段だといえます。

●検索結果のようなページはクロールさせない
※検索結果のページから、さほど価値が変わらない別の検索結果の
ページへ飛んでも、ユーザーの利便性を損なうだけです

●同一か、ほとんど違いがない自動生成されたページを大量に
クロールさせないようにする
※「重複コンテンツに近いこれら100,000ものページはインデックス
されるべきだろうか?」と問い直してみましょう

●プロキシサービスによって生成されたURLはクロールさせないよう
にする

東京SEOサポート・北九州SEO倶楽部

SEO対策は実績が信用! YahooとGoogle検索にで
東京SEOサポートで 50%で上位独占表示
北九州SEO で検索で3ページまでに管理サイトで上位
70%で独占表示してます。

地域+キーワードで独占表示のサポートを致します。

SEO対策のノウハウを公開したブログです。

東京SEO・北九州SEOサポート倶楽部【本部】

フェイスブック倶楽部