読者です 読者をやめる 読者になる 読者になる

masalibの日記

システム開発、運用と猫の写真ブログです

大量のページのヘッダーの確認はwgetが便利

はじめに

いろいろダークサイドに落ちていて更新ができていませんでした
今後は更新していきます

経緯

とあるサイトの保守しています
それまでSEOなんてものを意識してきませんでした
検索から流入があまりにも低いので
SEO対策をおこないました
まずはタイトルとメタdescriptionとキーワードをおこないました
キーワードは対googleだといらないそうなのですが
yahooやbingだとまだ有効らしいので設定しました

作業内容

修正ページ数は約300ページに及びました
(プログラムは100本ぐらいとDBの変更など)

WGETって便利

目視で確認するのはミスがありそうなので
全ページをダウンロードして、ヘッダーを確認しました

下記のShellを作成する

wget "http:xxxx.jp/xxxx/xxx?ctg=0001&no=0202" -P /var/tmp/xxxx/001
wget "http:xxxx.jp/xxxx/xxx?ctg=0002&no=0202" -P /var/tmp/xxxx/002
  ・
  ・
wget "http:xxxx.jp/zzz/YYY?ctg=0003&no=0202" -P /var/tmp/xxxx/300

↑ URLはダブルコーテーションに囲わないと&が認識しません
  -pのオプションは保存さきです
  指摘しないとカレントディレクトリになります
  同じようなURLがあるとわかりづらいので別フォルダにしました

shを実行する
/var/tmp/xxxx/の内容をダウンロード(sftp)する

ローカルのPCで
title、meta name="description"、meta name="keywords"
grepして
確認しました

wgetでよかったこと

300ページもあるとミスが多発しました
・コピペミス
・そもそも指示された内容がまちがい
・非会員と会員でページがちがうなど

修正して確認するのも楽ですし
エビデンス(証拠)が残っていると安心します

もっと簡単にチェックできる方法があるなら教えてほしいです