2015年9月21日月曜日

DNSエラーの衝撃

 こんばんはnaoです。

 2015年の夏。サイト運営者の皆さんの間にちょっとした衝撃が走りました。


 具体的にどういうことかというと

 ムームードメイン、バリュードメイン、お名前.comなどで、「レジストラがお名前のドメイン」を使っている場合、メールアドレスの認証が必要となり、この夏認証作業をしないかったサイトには制限が加えられ、サイトにアクセスできなくなってしまったのです。

 簡単にいえば「弊社のサービスを利用している人は認証手続きをしないと貴方のサイトが見れなくなりますよ」というもの。
 この通知はたった一通のメールで済まされており、事の重要性に気がつかずスルーしたりメールを見落としたりしてしまった方が多くいたようです。

 こんな大事なことをメール一通で済ましてしまうのもどうかと思いますが、この後、「Search onsole ヘルプセンター」や各掲示板などに「認証手続きを怠った為にサイトにアクセスができなくなり検索順位が圏外になってしまった。どうすればいいか」などという質問が相次ぎました。

 結論としては「早々に認証手続きを行い正常な状態に戻す」。これが一番の解決方法なのですが、今回私が驚いたのがDNSエラー(今回のようなサーバー側に原因がありサイトが閲覧できなくなるエラー)が発生してから2~3日の間に多くのサイトが検索圏外に吹っ飛んでしまったという事実です。具体的な数は分かりませんがネット上の投稿件数をみるとかなりの人数になると思います。

 4年ほど前はサーバーの方で負荷を押さえるために利用者に内緒で勝手にグーグルボットのアクセスを制限する業者が数多くみられました。現在はそのようなことをするとグーグルの「Search onsole」などですぐに利用者にばれてしまうので意図的にアクセスを制限するような行為はなくなりました。
 筆者も何回か上記のような被害にあっているのですが、サーバー側に問い合わせをしても「知らぬ存ぜぬ」を繰り返すので泣き寝入りをするしかなかった記憶があります。
 それはさておき筆者が泣き寝入りをしていた(サーバー業者はすぐに変えました)2011年当時、色々記録を残しているのですが、当時は1ヶ月ほどグーグルボットがサイトにアクセスできなくなっても検索順位が圏外に吹っ飛ぶなんてことはありませんでした。

 それが今回はわずか数日で圏外に・・・・・。筆者の場合はグーグルボットのアクセス遮断、今回の場合はサーバーそのものにアクセスできないDNSエラーと違いはあると思いますが、エラーが発生してから数日で圏外へさようならというのもどうかと思います。

 筆者は今までサーバーの障害やエラーが生じても直ちに検索順位に影響は出ないと思っていました。つまりサイトへの接続エラーというのは第三者の悪意ある行為や自然災害、ちょっとしたイージーミスなどで普通に発生する現象であり、これらをリアルタイムに感知し検索順位に反映すれば逆に利用者にとってマイナスになると理解していましたし、実際エラーが発生しても検索順位に反映されるまでには月単位のタイムラグがありました(2012年頃までは)。しかし時は流れグーグルの対応も変わってきたようです。
 今回の出来事は今までの筆者の常識を覆す一件として本ブログに記録しておこうと思いUPしました。


追記:後日ネット上で追跡調査をしていたところ、DNSエラーで一度圏外に吹っ飛んだサイトもサーバーが復活し通常通りになると、またすぐ元の順位に復活しているそうです。実際筆者が確認したわけではないので、どのくらいの割合で復活しているのか不明ですが追記でUPしておきます。

 

2015年8月25日火曜日

検索順位にリンクはどれくらい重要なの?

 こんばんはnaoです。

 サイトを運営している人にとってもっとも気になるのが検索順位。筆者達のように趣味の延長線上でサイトを運営している者でも気になるのですから、通販サイトや企業PRのようにサイトの検索順位が企業の業績に影響を及ぼす場合の方などはよっぽどのことだと思います。

 ではこの検索順位を決定づけているものはなんでしょう?批判を恐れず声を大にして言えばズバリ「外部からのリンク」です。リンクが全てとまでは言いませんが、検索順位を決定づける指標のなかでもかなり大きなウェイトを占めているのは間違いありません。

 さらに突っ込んでお話すればリンクもドメインパワーが強いサイトからのリンクの方がより強力な効果を得ることができます。なお一般的にドメインパワーとは「ちゃんとした内容のあるサイトのページ数×優良サイトからのリンクの数」といわれています。


 具体的な実例をあげれば広告欄を設けている市役所や県庁のホームページに自社の広告を掲載したら検索順位が爆発的にUPした事例や、中身の無いスカスカのページなのに市役所や大手企業のサイトのページというだけで検索順位が一位に表示され、中身の濃く充実してあるページが検索順位下位の方に追いやられている事例などがあります。

 前者は市役所や県庁のホームページに広告を載せることにより行政サイドのHPから広告をのせた会社のHPへのリンクが得られます。行政のサイトというのはドメインパワーが非常に強力ですからリンクを一本得ただけなのにその会社の検索順位が大幅に上昇したと推測されます。もっともこの場合、広告を載せる会社がその地域で活動しているか、ちゃんと活動をしているか、行政のHPに掲載するにふさわしい会社かなど色々審査がありだれでも広告を載せれるわけではありません。

 後者は実例を挙げれば筆者が住む地域の「図書館」を検索したところ、「○○市立図書館」というタイトルの市役所のページがトップに表示され、そのページを見たところ「○○市立図書館のホームページはこちらです」とリンクが設置されているだけでした。なお本家本元のHPは4位前後をさまよってました。他にも旅行など地域情報を提供するサイトなどでも大手企業が運営する同じような内容のサイトが上位を独占しており個人が運営している中身の濃い充実した内容のサイトが30位前後に追いやられているのをよく見かけます。


 インターネット検索の時代をさかのぼれば検索技術黎明期のころは人力でサイトを検索結果に登録したり、ページに詰め込まれたキーワードの多さで検索順位を決定していたりと今では考えられないことをしていました。
 そんな時ある大学生が「優れた論文はより優れた論文を引用している」という事実をインターネットの世界にあてはめ、「優れたサイトはよりすぐれたサイトからリンクをもらっているはず」と考え、その考えを検索技術に用いたのです。この事により世界の検索技術は格段に向上し現在のように便利で私たちの生活になくてはならないライフラインのような存在へと変貌したわけです。
 なお前述の「ある大学生」の名はラリー・ペイジとセルゲイ・ブリン。つまりグーグルの創業者です。
 二人ははじめリンクを用いた検索技術を企業とライセンス契約しようとしていたのですが、どことも契約することができなかったので二人で会社を興します。これがグーグルの始まりです。

 少々話が逸れましたがリンクを活用することにより検索技術はまるで別物のレベルにまで向上し、今でも検索要素の根幹をなしていることは間違いありません。グーグルも2年ほど前にリンクを検索要素から外してみたところその結果は散々なものだったとコメントしています。もちろんリンク以外の指標でサイトを評価する試みも鋭意推進中ですし、昔に比べると検索順位を決定する指標におけるリンクが占める割合は少なくなってきていると何度もコメントしています。

 現在のSEOにおいてリンクは昔ほど重要ではないが、今でもSEOの根幹をなし検索順位を決定する重要な指標である。これが現状のようです。


2015年8月24日月曜日

canonical(カノニカル属性)の使い方・設定方法

こんばんはnaoです。

 今回はcanonical(カノニカル)属性についてご説明します。カノニカルとは「基準的な」とか「標準的な」という意味でURLを正規化する際に使用する属性です。
 たとえば通販サイトなどでは類似もしくは内容が重複するページが大量に発生します。これはサイトの性質上ある意味当然の結果ですが、似たようなページが沢山あると重複ページが多すぎるという理由でグーグルからマイナスの評価を受けてしまったり、本来優先して検索結果に表示されなくてはならないページが圏外で補足的な意味合いを持つページが検索結果に堂々と表示される事態などになってしまいます。そこでcanonical属性を使用して優先すべきページをグーグルに知らせると言うわけです。
 具体的に説明するとA,B,C,D,Eという似たようなページがありAのページを優先したい時に他のB,C,D,EのページからAに向けてcanonical属性を設定するとインデックスからB,C,D,Eのページが消えAのみが優先して表示されるようになります。


 なお一部のウェブマスターはcanonical属性は同じサイト内でのみ有効と勘違いされている方がいますが、実際は別のサイトに対しても有効に働きます
 実は筆者がcanonical属性を使用したのは別のサイト間で、この時は担当しているサイトが別のURLに引っ越しする際に、301リダイレクトが使用できなかったのでcanonical属性を利用してサイトの引っ越しをしました。結果は万事上手く行き、1ヶ月ほどで、ほぼ全ての検索結果が引っ越し先のURLで表示されるようになりました(これは2012年のお話で、これ以前にも別サイト間でcanonical属性が有効だったかは実際に試したことはないので不明です)。
 このようにcanonicalは属性の性質上301リダイレクトと似てはいますが、効力は301リダイレクトの方がはるかに強力となっています。
 
 
 では具体的な設置方法を見てみましょう。

 example.com/pageAというページが優先すべきページで、example.com/pageBが重複するページとしますとBのほうに

link rel="canonical" href="http://example.com/pageA.html"/ 
と記載します。これだけです。なお設置場所はHTMLドキュメントの<head>部分です。


 最後に注意すべき点ですが、canonicalは結構強力な属性でcanonicalで指定したページ(優先されるページ)以外は検索結果はおろかインデックスからも消えてしまうので間違って設定してしまうと少々面倒なことになってしまいます。
 またグーグルは公式の場で優先ページがAで重複ページがBの場合「AにはBの単語、内容がすべて網羅されていなければならない」とコメントしています。多分これは意図的に悪用されるのは嫌がっての発信だと思うのですが、筆者が実際に使用してみた結果、内容の一致度が8割ほどでもちゃんとURLは正規化されましたので、常識的な使用方法なら多少内容に不一致があっても問題はないと思います。

 以上。canonical(カノニカル)属性についてご説明してみました。
 

 

2015年版 アドセンス停止祭り急増中 

 こんばんはnaoです。
 
 今日はアボセンス。つまりGoogle Adsenseアカウント停止、非承認についてお話してみようと思います。
 この記事は過去に掲載していておしゃかになった記事ではなく、今回新規に書いてみた記事です。
 なぜ今になってこの記事を書いたかというと・・・・2015年8月中旬。アボセンスをくらった有名ブロガーさん達が何故か急増したからです(巷では通称「BAN祭り」と言われています)。


 有名ブロガーの皆さんにとってGoogle Adsenseは重要な収入源のひとつとなっていますから、アドセンス停止は死活問題です。それだけにアドセンス停止をくらうような行為には十分気をつけていると思うのですが何故今になってアドセンス停止をくらってしまったのでしょうか?

 アボセンスをくらう理由はただひとつ。アドセンスの利用規約に違反したときです。具体的には「自分自身でGoogle Adsenseをクリックして不当な収益」を得たり、「成人向けコンテンツ」だったり。そして時には悪意ある第三者が当人になりすましてアドセンスの利用規約に違反する行為をして、なんの落ち度もないサイトをアドセンス停止に追い込むこともあります。悪意ある第三者による嫌がらせは2010年頃までは被害が多発しており無実の罪で涙をながしたウェブマスターの皆さんも大勢いました。現在はグーグルの違反検知能力が向上してますし、悪意ある攻撃からの対応策も施されており以前に比べれば無実の被害もかなり減ってきてはいますが、被害者0ではないのが現状のようです。

 では今回のアドセンス停止急増現象も悪意ある第三者の嫌がらせによるものなのでしょうか?

 よくよく調べてみると今回の事件は「アドセンスの利用規約 9条」が原因のようです。
 アドセンス利用規約9条とは「秘密保持」のことで文章には具体的な項目は記されてはいませんが自らのGoogle AdsenseにおけるPV数やクリック率、単価なども含まれているのだそうです(直接確認したわけではないのですが文章中の「クリックスルー率その他の統計」の文言が該当・・・するのだと思います。多分)。ちゃんと文章を読んでも具体的に「PV数やクリック率、単価が駄目」などと記されてないので一昔前は自らのアドセンスのPV数やクリック率、単価を公表して人気を集めたブロガーさん達がアドセンス停止をくらいちょっとした騒動になりました。その後ネット上の口コミで「どうやらPV数やクリック率、単価なんかを公開するとやばいらしい」と広がり現在はGoogle AdsenseのPV数やクリック率、単価を公表することはアドセンスの利用規約 9条に抵触するということは周知のこととなっています。

 ところが数年たった昨今、他人のPV数やクリック率、単価というのは非常に気になるデータですから、ふたたび公開して公開してアクセス数を稼ぐ人たちが現れ始めたのです。そしてこの人達が今回アボセンスをくらった人たちというわけです。これはアドセンス停止をくらったブロガーの皆さん達がツイッターや自らのブログで「アドセンス停止をくらった事実とその違反内容がPV数やクリック率、単価内容を公開していた為であると記したグーグルからの通知文」を公表してますから間違いのない事実です。


 アボセンスをくらうということは違反者の皆さんが運営していた健全な他のサイトも一斉にGoogle Adsenseのコードが利用できなくなりますから、ある日気がついたら有名ブログにGoogle Adsenseが表示されなくなっており、それを見た一般の方々が「あの有名ブロガーどうやらアドセンス停止をくらったようだ?」「別のブロガーもアドセンス停止なっている!」「いったいなにがあったんだ?」と話題になり今回ちょっとした騒動となったいうわけです。


 ではなぜ今回「アドセンス利用規約9条」に違反しているサイトが一斉にアドセンス停止をくらったのでしょうか?正確な理由は分かりません。もしかしたら悪意ある第三者・・・とは云いませんがライバル関係にあるサイト運営者がグーグルに通報したのかもしれません。


 外国資本の企業は日本企業と異なり規約や契約事項を詳細までわざわざ説明しない傾向にあり、規約を詳細まで丁寧に説明する日本企業の対応に慣れてしまっている私たち日本人は、外国企業の曖昧な規約や契約事項をついつい自分たちの都合のよいように解釈してしまう傾向があります。おそらく今回の騒動もこの日本人と外国人の規約の正確さに対する認識の違いが一因となっていることは間違いないでしょう。そして数年後、今回の騒動の記憶が薄れた頃に再び同じような事が起こると思います。

 いずれにせよ今回の一件は「数年前に騒ぎとなったアドセンス停止祭り」の再来のようなもので、学ぶべき過去の事例として今回本ブログに記録しておくことにいたしました。


PS:2015年8月22日時点で「PV数やクリック率、単価」等を公表していたブログは軒並み修正もしくは閉鎖となっておりアドセンス停止をくらったブロガーの皆さん達も再びアドセンスが復活してきています。


2015年8月21日金曜日

nofollow(ノ-フォロウ)属性の使い方

 こんばんはnaoです。


 今日はnofollow(ノ-フォロウ)属性の使い方について紹介します。
 このnofollowタグ。「リンクをたどらせない」という効果があります。別の言い方をするとリンクパワーをリンク先のページに渡さないという働きをもってます。
 皆さんもご存じの通りグーグルの検索順位の評価にはリンクパワーが大きな影響力をもっています。この為、ある程度リンクパワーの操作が可能となるnofollowが発表された当時はいわゆる「SEOの権威」と位置づけられるような人たちから様々なテクニックが紹介されたのですが(たとえば極端な例ですが順位を上げたいページ以外のリンクにはnofollowを設置し順位を上げたいページにすべてリンクパワーが行くようにするとか・・・)ところが2013年頃だったと思いますが、グーグルが公式の場で「nofollowを設置してもリンクパワーはリンクの数だけ分散されると」発表したのでnofollowフィーバーも一気に冷めてしまったのです。


 さて前置きが長くなりましたがnofollow属性を実際どのような場面で使用するのか?具体的に紹介していきたいと思います。なお実は筆者はnofollowタグは実験で使用したことはありますが、担当しているHPでは未だ一度も使用したことはありませんので今回は他のサイトの事例を紹介し説明していきます。

 グーグルは公式の場でnofollowは「信用できないページへのリンクに使用するとよい」と公表しています。信用できないページと言われてもピンとこないのですが、一般的な使用事例としてはブログのコメント欄などは自分のサイトへのリンクを得るために悪用される場合がありますのでコメント欄にnofollowを設置したり、またアフィリエイトを設置したサイトもしくはページはグーグルからマイナスの評価を受けやすいと言われていますので(グーグルはアフィリエイトのサイトでも訪問者にとって有益なら評価すると言っていますが、実際はアフィリエイトを設置したページがビックキーワードで検索上位に表示されている事例はほとんど無いのが現状です)、アフィリエイトを貼り付けた専用のページを作り、そのようなページへ閲覧者を誘導する為のリンクにnofollowを設置し、グーグルがリンクをたどらないようにしている方もよく見かけます。つまりアフィリエイトのページをグーグルボットに見つからないようにするためnofollowを設置しているわけですが、けどこれならrobots.txtを設置した方がよいような気もします。

 いずれにせよ今のご時世まっとうなホームページを運営している人にとってnofollowはあまり使うことのなくなってしまった属性といえるかもしれません。


 では次はnofollow属性の具体的な設置方法を説明します。
 通常AのページからBのページへリンクを張る場合

href=”http://www.Bpage.html/”サイトBへのリンク

 となりますがnofollow属性をつける場合は

href=”http://www.Bpage.html/” rel=”nofollow”サイトBへのリンク

注:nofollow属性はページ単位で適用されるので仮にwww.Bpage.html/の下の階層にページがあってもnofollow属性が適用されるのはwww.Bpage.htmlのページだけで、下の階層はリンクがある限りはグーグルボットはそのリンクをたどって必要に応じインデックスしたり検索結果に表示されたりします。

 となります。もうひとつmetaタグに記載する方法もありますが、こちらはページ内にある全てのリンクに対しnofollowを指定する場合に使用します。記載方法は以下のとおり

meta name=”robots” content=”nofollow”


 最後に注意すべき点をいくつかご紹介します。
 まずnofollow属性がつけられたリンクもSearch Consoleの「サイトへのリンク」で表示されますので、自分のサイトにリンクが増えたと喜んでみたものの、相手先のサイトをよく見てみたらnofollow属性が張られておりぬか喜びに終わったという場合もよくあります(僕はリンクパワーがもらえなくても、リンクをたどってサイトを訪れる人がいれば十分価値のあるリンクだとは思いますが・・・・)。
 あと最近は市役所など行政のHPの広告欄に広告料を支払い自分のサイトを掲載しリンクパワーをもらうという施策もあります(行政のサイトなどのドメインパワーは最高クラスですのでリンクパワーも絶大なものとなり広告を載せたとたんに自分のサイトの検索順位が上がるということがざらにあります。このように効果てきめんなのですが、広告を掲載するには当然厳しい審査や条件をクリアーしなければなりません)。ところが行政サイトから自分のサイトへのリンクにnofollow属性がついていれば当然リンクパワーはもらえませんので、事前の確認やチェックが大事になってきます。

 以上今回はnofollow属性についてご説明してみました。





2015年8月18日火曜日

robots.txt(ロボットテキスト)の書き方・使い方

こんばんはnaoです。

 robots.txt(ロボットテキスト)はHP作成に携わっている方は誰でも知っている基本中の基本だと思いますが今回はこのrobots.txtについて私の経験談をまじえご紹介します。


 私がrobots.txtの存在を知ったのは2011年のことです。当時担当していたHPがグーグルのインデックスから消えていくという現象が発生し色々調べているうちにrobots.txtというものを知ったわけです。インデックスから消えていく原因がrobots.txtにあるのではと疑ったのですが結局原因はサーバーの方で勝手にグーグルボットのアクセスを利用者に無断で遮断していたことによるものでした。

 これを機にrobots.txtの使い方をおぼえた私は以後robots.txtをよく利用しています。


robots.txtはこれを設置することによりグーグルボットの巡回をシャットダウンするという機能をもってます。グーグルボットはrobots.txtで遮断されたページへは行くことができませんから当然のことながらページの中身も把握できずインデックスもされないというわけです。
 
 
 ではどういう場面で使用するのでしょうか?
 一般的には通販サイトなどで似たようなページが沢山ある場合、グーグルに重複ページが沢山あるとみなされるのを防ぐ為にrobots.txtを設置したり、まだ未完成のページをブラウザー上で確認したいときなどrobots.txtを設置したうえで未完成のページをウェブ上にアップしたりといった場合に使用されます。
 筆者は主に後者の場面で使用していますが、最近ではモバイル対応ページを作成する時にPC用のページを丸々コピーしrobots.txtを設置したうえでウェブ上にアップしモバイル対応が済んだページからrobots.txtを解除していくという利用のしかたをしたこともあります。


 なおrobots.txtを設置するさいの注意点としてはrobots.txtで遮断していた期間が長ければ長いほど、robots.txtを解除してもグーグルロボットが巡回しインデックスされるまでの期間も長くなるということです。これはグーグルが公式の場で発言しているから間違いない事実です。ただ筆者の経験上robots.txtを設置した期間が2~3ヶ月程度であればrobots.txtを解除した時点で順次問題なくインデックスされていきますので普通の使い方をしている限りは特に気にすることもないでしょう。


 では具体的な設置方法です。
 robots.txtの記述は .txtファイル。つまりウィンドウズの「メモ帳」で行います。
 仮にhttps://www.example.com/aaa/bbb/というページがありaaaを含めた下の階層をすべてシャットダウンしたい場合は

User-Agent: *
 Disallow: /aaa/

と記入します。特定のページをシャットダウンしたい場合は

User-Agent: *
 Disallow: /aaa/bbb.html

と直接ページのアドレスを記載します。

複数のページをシャットダウンする場合は
User-Agent: *
 Disallow: /aaa.html
 Disallow: /ccc.html
 Disallow: /ddd.html

と複数行を記載。

またあまり使用す機会はないと思いますがグーグルボットのアクセスを許可する場合は

User-Agent: *
 Disallow:

と「/」を削除するかもしくは

User-Agent: *
Allow: /

と記載します。

そしてrobots.txtを設置する場所はそのサイトの一番上の階層。上記の場合はhttps://www.example.com/の階層に設置します。


robots.txtはよく利用する機会がある反面、記載方法を間違ってしまうと重大なエラーが生じてしまう場合があります(簡潔に言うとインデックスから消えてしまう)。使用する場合はUPする前に間違いがないかよくチェックしてからウェブ上に設置しましょう。

なおrobots.txtがちゃんと狙い通りに作動しているかはグーグルのSearch Console(昔の「ウェブマスター」)でチェックすることができます。





追記
 2015年9月robots.txtを利用したページランクを渡さずページのみを転送する方法がグーグルより紹介されたので追記しておきます。

 通常ページを転送するときは301もしくは302リダイレクトをしようするのですが、この場合ページランクも転送されてしまいます(301は直ちに、302の場合は長期間続けていると転送されるようになる)。もしページランクを転送したくない場合は

「ページランクを転送したくないサイトの部分をrobots.txtでブロックして、そこ経由でリダイレクトすればいい。そうすれば、グーグルボットは完全にリダイレクトに従うことができなくなる。」

のだそうです。通販サイトなどで活用できそうなテクニックですね。