アカウント名:
パスワード:
昔の人は知らないかもしれませんが、今はWebサイトを作ったら必ず「サチコ」(Google Search Console)に登録するのが今の常識です。そこに登録すれば、robots.txt の文法やレスポンスコードに問題がある場合なども、メールとサチコサイト上で教えてくれます。誰にも見てもらえなくても構わないサイトを除ければ、使わないという選択肢は最早ありません。
その他にも、・Google セーフブラウジングがマルウェア配信サイトと認識した場合の通知・DMCA申請があった場合の通知・逆SEOによるスパムリンクを張られた場合の通知と、リンクの否認手続きにもサチコ登録が必須です。
つまり、サチコに登録していない場合、虚偽のDMCA申請をするだけで、そのサイトをGoogle 検索結果から除外することができるし、自動生成したスパムサイトから大量のリンクを張ってもそれが通知されることなく、スパム関連サイトとしてランクを下げられてしまいます。(サチコ登録の場合、被リンクを否認(ドメイン名列挙のテキストファイルなどで一部否認が可)してスパムリンクからプラスの評価もマイナスの評価も受けないという選択が可能)
セーフブラウジング関係の場合、Google利用者だけでなくGoogle ChromeとFirefox利用者も警告ページが表示される状態になるので、検索エンジンとしてGoogleを使っていない人のアクセスにも支障が出てしまいます。
サイトを作ったら特定のプラットフォーマーのアカウントと紐づけないといけないというのも問題だと思うのですが、現状はそうなっていて従わざるを得ない状況です。(登録しなかったら虚偽DMCA等で簡単にGoogle八分に出来てしまう)
俺は結構参考になったなぁ。(雑談サイトだし、話が発散するのはしゃーない)
Googleの検索に出ないという事象なのに、Google Search Consoleで確認していなかったってことだろうから、やっぱりベンダー担当者の技術力が著しく低かったんじゃないかと想像できる。新人さんが担当してるとかかな?
自分のサイトが同じ状況になった時に、まず何を調べれば良いかも理解できた。
>やっぱりベンダー担当者の技術力が著しく低かったんじゃないかと想像できる。
ふだん、悪く言われがちだけど、こういうことがあるから、基礎的な内容でいいから資格商売も必要なんだよ。まあ、お役所だから、畑違いのコンピュータ屋(サーバ屋)さんがやっていたりすると思う。(サーバ屋とWEB屋は別物なんですよね)
seach consoleはコンソールだからsitemapかな。作成や更新したら自動でこれやその他もろもろに登録飛ばすのが普通だと思うhttps://developers.google.com/search/docs/advanced/crawling/overview?hl=ja [google.com]
思い通りに生きてるんだと思います
このストーリーの「クローラの従うべき動作を定義したrobot.txtへのアクセスも500エラーとなり、Googlebotがサイトをクロールして検索結果に表示して構わないかどうかの判断が不可能になってしまった」の場合、サーチコンソールで通知を受けられるので、思いっきり関係あるのですが。ちなみに「robot.txt」は誤りで「robots.txt」ですね。
サチコ登録していたら原因がすぐ分かって修正できたわけですからね。
そうですね異を唱えている方は正しくサイト管理をしたことがない方なんじゃないでしょうかねGoogle Search Console [google.com]を踏まえずに管理してるとか有り得ない怠慢ですからGoogle Analytics [google.com]使っていればそのサジェストも入りますので恐らくそれすら使ったことないんじゃないでしょうか
# ついでにBing Webmaster Tools [bing.com]も抑えておかないとかな
伊万里市のホームページにGoogle Analyticsのコードは入ってる伊万里市のホームページがGoogle Search Consoleに登録されてるかどうかは定かではない仮に登録されていたとして、そこから担当者が原因を推察できなければ無意味ただ「500エラー出てますよ」ってだけならIISのログ見ても確認できる話そもそもホームページが改築された2020年3月からずっとこの状態だった [twitter.com]ので今になってそれが原因で検索結果から除外されたことに思い至らなかったのだと思うサチコ以前の問題
> 仮に登録されていたとして、そこから担当者が原因を推察できなければ無意味実際に robots.txt 関係のエラーを発生させれば分かりますが、「原因を推察」する必要もないほどはっきりとしたエラー送ってきますよ。
> ただ「500エラー出てますよ」ってだけならIISのログ見ても確認できる話それはそうでしょうけど、今時普通にサーバー運営していたら訳の分からんBOTの攻撃だらけでエラーログなんて1日数万行超えが当たり前です。cgiに不正なパラメーターが与えられたら500エラーになるのはよくあるわけで、それこそ気が付かないことも有り得る。
> 今になってそれが原因で検索結果から除外されたことに思い至らなかったのだと思う
今のドキュメント
(#4103753)の最初の3行以外関係ないよね?
自分には参考になりましたけどね。あなたのこの投稿(ノイズ)とは大違い。
出たな冷笑系反知性主義
GoogleにURLをpingで送るだけいいのでサーチコンソールすら要らんわそれに大抵のCMSは標準装備だからやる必要すらないこんなおにぎりの握り方を教えるだけで金取るお前みたいなクソコンサル屋がいるウヨウヨいる模様
robots.txt に500系(500~599のステータスコード)のエラー返すと、インデックスから外されるんですけど、そういう場合もサーチコンソールできちんと具体的に通知してくれます。
本件だと、URLをpingで送っても何の解決にもなりませんよ。
手動で強制的にURLを送って別のステータスやページ状態が変わったことを知らせることで、Googlebot待ちやサーチコンソール使わなくとも状態が変わりますが
robots.txt がエラーでbotを拒否していると判定されている状況ならばURLを送ってもそれがクロールされることはないてすよ
お前みたいな無知なバカほど自分が賢いと思いたがる定期。
#4103753 はお金取ってないぞ。クソコンサルと一緒にするな。例えるなら,おばあちゃんの知恵袋だろ。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
UNIXはただ死んだだけでなく、本当にひどい臭いを放ち始めている -- あるソフトウェアエンジニア
「サチコ」に登録するのが今の常識 (スコア:5, 参考になる)
昔の人は知らないかもしれませんが、今はWebサイトを作ったら必ず「サチコ」(Google Search Console)に登録するのが今の常識です。
そこに登録すれば、robots.txt の文法やレスポンスコードに問題がある場合なども、メールとサチコサイト上で教えてくれます。
誰にも見てもらえなくても構わないサイトを除ければ、使わないという選択肢は最早ありません。
その他にも、
・Google セーフブラウジングがマルウェア配信サイトと認識した場合の通知
・DMCA申請があった場合の通知
・逆SEOによるスパムリンクを張られた場合の通知と、リンクの否認手続き
にもサチコ登録が必須です。
つまり、サチコに登録していない場合、虚偽のDMCA申請をするだけで、そのサイトをGoogle 検索結果から除外することができるし、
自動生成したスパムサイトから大量のリンクを張ってもそれが通知されることなく、スパム関連サイトとしてランクを下げられてしまいます。
(サチコ登録の場合、被リンクを否認(ドメイン名列挙のテキストファイルなどで一部否認が可)してスパムリンクからプラスの評価もマイナスの評価も受けないという選択が可能)
セーフブラウジング関係の場合、Google利用者だけでなくGoogle ChromeとFirefox利用者も警告ページが表示される状態になるので、検索エンジンとしてGoogleを使っていない人のアクセスにも支障が出てしまいます。
サイトを作ったら特定のプラットフォーマーのアカウントと紐づけないといけないというのも問題だと思うのですが、現状はそうなっていて従わざるを得ない状況です。(登録しなかったら虚偽DMCA等で簡単にGoogle八分に出来てしまう)
Re: (スコア:0)
俺は結構参考になったなぁ。
(雑談サイトだし、話が発散するのはしゃーない)
Googleの検索に出ないという事象なのに、Google Search Consoleで確認していなかったってことだろうから、
やっぱりベンダー担当者の技術力が著しく低かったんじゃないかと想像できる。
新人さんが担当してるとかかな?
自分のサイトが同じ状況になった時に、まず何を調べれば良いかも理解できた。
Re: (スコア:0)
>やっぱりベンダー担当者の技術力が著しく低かったんじゃないかと想像できる。
ふだん、悪く言われがちだけど、こういうことがあるから、基礎的な内容でいいから資格商売も必要なんだよ。
まあ、お役所だから、畑違いのコンピュータ屋(サーバ屋)さんがやっていたりすると思う。(サーバ屋とWEB屋は別物なんですよね)
Re: (スコア:0)
seach consoleはコンソールだからsitemapかな。
作成や更新したら自動でこれやその他もろもろに登録飛ばすのが普通だと思う
https://developers.google.com/search/docs/advanced/crawling/overview?hl=ja [google.com]
Re: (スコア:0)
#オフトピにオフトピ
Re: (スコア:0)
思い通りに生きてるんだと思います
おもいっきり本質なのですが (スコア:0)
このストーリーの
「クローラの従うべき動作を定義したrobot.txtへのアクセスも500エラーとなり、Googlebotがサイトをクロールして検索結果に表示して構わないかどうかの判断が不可能になってしまった」
の場合、サーチコンソールで通知を受けられるので、思いっきり関係あるのですが。
ちなみに「robot.txt」は誤りで「robots.txt」ですね。
サチコ登録していたら原因がすぐ分かって修正できたわけですからね。
Re:おもいっきり本質なのですが (スコア:1)
そうですね
異を唱えている方は
正しくサイト管理をしたことがない方なんじゃないでしょうかね
Google Search Console [google.com]を踏まえずに管理してるとか有り得ない怠慢ですから
Google Analytics [google.com]使っていればそのサジェストも入りますので
恐らくそれすら使ったことないんじゃないでしょうか
# ついでにBing Webmaster Tools [bing.com]も抑えておかないとかな
Re: (スコア:0)
伊万里市のホームページにGoogle Analyticsのコードは入ってる
伊万里市のホームページがGoogle Search Consoleに登録されてるかどうかは定かではない
仮に登録されていたとして、そこから担当者が原因を推察できなければ無意味
ただ「500エラー出てますよ」ってだけならIISのログ見ても確認できる話
そもそもホームページが改築された2020年3月からずっとこの状態だった [twitter.com]ので
今になってそれが原因で検索結果から除外されたことに思い至らなかったのだと思う
サチコ以前の問題
Re: (スコア:0)
> 仮に登録されていたとして、そこから担当者が原因を推察できなければ無意味
実際に robots.txt 関係のエラーを発生させれば分かりますが、「原因を推察」する必要もないほどはっきりとしたエラー送ってきますよ。
> ただ「500エラー出てますよ」ってだけならIISのログ見ても確認できる話
それはそうでしょうけど、今時普通にサーバー運営していたら訳の分からんBOTの攻撃だらけでエラーログなんて1日数万行超えが当たり前です。
cgiに不正なパラメーターが与えられたら500エラーになるのはよくあるわけで、それこそ気が付かないことも有り得る。
> 今になってそれが原因で検索結果から除外されたことに思い至らなかったのだと思う
今のドキュメント
Re: (スコア:0)
(#4103753)の最初の3行以外関係ないよね?
Re: (スコア:0)
自分には参考になりましたけどね。
あなたのこの投稿(ノイズ)とは大違い。
Re: (スコア:0)
出たな冷笑系反知性主義
Re: (スコア:0)
GoogleにURLをpingで送るだけいいのでサーチコンソールすら要らんわ
それに大抵のCMSは標準装備だからやる必要すらない
こんなおにぎりの握り方を教えるだけで金取るお前みたいなクソコンサル屋がいるウヨウヨいる模様
robots.txt に500系(500~599のステータスコード)のエラー返すと、インデックスから外されるんですけど、そういう場合もサーチコンソールできちんと具体的に通知してくれます。
本件だと、URLをpingで送っても何の解決にもなりませんよ。
Re: (スコア:0)
手動で強制的にURLを送って別のステータスやページ状態が変わったことを知らせることで、
Googlebot待ちやサーチコンソール使わなくとも状態が変わりますが
Re: (スコア:0)
robots.txt がエラーでbotを拒否していると判定されている状況ならばURLを送ってもそれがクロールされることはないてすよ
Re: (スコア:0)
お前みたいな無知なバカほど自分が賢いと思いたがる定期。
Re: (スコア:0)
#4103753 はお金取ってないぞ。クソコンサルと一緒にするな。
例えるなら,おばあちゃんの知恵袋だろ。