カレンダー

<< April 2018 >>
SunMonTueWedThuFriSat
1234567
891011121314
15161718192021
22232425262728
2930     

comment

記事検索

favorite



にほんブログ村 IT技術ブログ ホームページ・サイト制作支援へ
にほんブログ村


★Yuu*Style〜フリーランスのあれこれブログ♪

facebook友達なりすまし対策

[ウェブサイト管理あれこれ]  2013.08.20 Tuesday
facebook友達なりすまし…最近は、日本語名(漢字)で
自分や友達の名前に似せたものが増えてきたしょぼ

名前の一部分を変えたものや、同じ読み方の漢字を変更して、
申請をしてくることが多いので、パッと見、勘違いしてしまうことも
あるかもしれないので、注意が必要〜びっくり

そういう、なりすましアカウント(偽アカウント)…
どうして注意しなければいけないかというと、、

自分のアカウントを乗っ取られてしまう可能性があるからびっくり

facebookの機能で、友達3人にセキュリティコードを送信することができる機能がある。
これは、いつもと違うPCや環境からfacebookにアクセスした時に、
アカウントロックされてしまうことがあり、
そういう場合、友達に本人かどうかを証明してもらう意味で、セキュリティコードを送信。
確認できたら、再度ログインできるようになるという(ちょっと怖いかも?な)仕組み…目

偽アカウントの友達に、もしもセキュリティコードを知られてしまったら…
登録メールアドレスやパスワードなども変更されてしまい〜
facebookも改ざんされ…
その後は、いろーんな事(省略)をされてしまう、可能性もあるということ。

対策としては、
プライバシー設定で友達リクエストの範囲を強化したり、
メールアドレスの公開範囲を制限したり、
友達リストを非公開にしたり…(リスト片っ端から申請されるので)
というような事があるけれど、

一番よいのは、やはり
安易に友達申請許可をしないこと。
許可する前に、よく確かめること。

女の人の名前なのに、プロフィール写真が初期設定の男のシャドウのままだったり、
基本データや投稿がまったく書かれていなかったり
という場合は、少し保留にしてみるのもよいかも?ニコ

今日もありがとう♪
スポンサーリンク

検索エンジンに検索されたくない時その3…metaタグ

[ウェブサイト管理あれこれ]  2013.06.27 Thursday
検索エンジンにクロールされたくない場合の3パターン目。
以前の記事:・検索エンジンに検索されたくない時その1…robots.txt
・検索エンジンに検索されたくない時その2…htaccess


html内にmetaタグを記入。

<meta name="ROBOTS" content="NOINDEX,NOFOLLOW">

これは、各ソース(ページ)ごとに記入することになるので、
入れる場合は、テンプレート化するのがお薦めウィンク

その1〜その3のどれか1つをやるとよいと思います〜

今日もありがとう♪

検索エンジンに検索されたくない時その2…htaccess

[ウェブサイト管理あれこれ]  2013.06.26 Wednesday
前回、検索エンジンにクロールされたくない場合、robots.txtを設置しました。

今回は、htaccessを使用する方法。
----------------------------------------------
SetEnvIf REFERER "http://yahoo.co.jp" stop
SetEnvIf REFERER "http://yahoo.com" stop
SetEnvIf REFERER "http://excite.co.jp" stop
SetEnvIf REFERER "http://infoseek.co.jp" stop
SetEnvIf User-Agent "Googlebot" stop
SetEnvIf User-Agent "Slurp" stop
SetEnvIf User-Agent "msnbot" stop
SetEnvIf User-Agent "bingbot" stop
Order Allow,Deny
Allow from all
Deny from env=stop(改行あり)
-----------------------------------------------

上記のように記入。
SetEnvIf REFERERのところで、外部サイトからの「リンク」を制限したい時指定
SetEnvIf User-Agentで、拒否したいロボットを指定

Order Allow,Deny…許可と拒否の順番を設定、この場合全てを許可してから特定のものを拒否
Allow…「許可」 Deny…拒否

Allow from all…全てのアクセスを許可
Deny from env=stop…「stop」で指定したものを拒否

このような感じになります〜ニコ

今日もありがとう♪

検索エンジンに検索されたくない時その1…robots.txt

[ウェブサイト管理あれこれ]  2013.06.25 Tuesday
作成途中のページであったり、
テスト的に作成しているページであったりする場合、
検索エンジンにサーチされちゃ困る〜〜;;
っていう時があると思います。

そういう場合は、
robots.txtを作成。

User-agent: *
Disallow: /test/

上記のように書くと、
testディレクトリがブロックされます。

サイト全体をブロックする時は、
Disallowの箇所を
Disallow: /
スラッシュのみに

特定のページだけの時は、
Disallow: /ファイル名.html
にします〜

robots.txtファイルは、
ドメインのルート(一番上)にアップします。

今日もありがとう♪

サーバとCMSの見直しは定期的に行いましょう〜

[ウェブサイト管理あれこれ]  2013.06.13 Thursday
定期的な更新作業はしているけれど、
サーバやCMS自体は、ず〜っとそのまま何年も同じものを使用している…
っていう会社さんが、意外に多い。

でも、できれば数年ごとに見直しは、検討した方がよいですニコ

何年もたっていると、
契約時のプランがもうすでに廃止されていて、
それよりもよいプランがたくさん出ているのに、
知らずに使用している…
ということや、
サーバ会社も、もっとよいところがある場合もある。

CMSは、バージョンなども、どんどん変わっていて、
かなり古〜い場合だと、サポートも終了していたりもするびっくり
こういうのは、セキュリティ面でもあまりよろしくないので、
やはり、あるタイミングでの見直しは必要びっくり

入れ替え時の、費用はかかるかもしれないけれど、
何か大きな更新の時と一緒に…とか、リニューアル時のタイミングで…
とかそういう時に、検討すると、多分安くすむかと思われます(わたしは、安くしている)。

それと、あまりにも年数がたち過ぎている場合や、
CMSのバージョンが古すぎたり、
ブログ記事が大量にありすぎたりで、
移行コストがかなりかかってしまう場合もあるので、
長くても5年以内に、一度検討だけでも、してみた方がよいと思います。

サーバの費用も、安いプランが出ていたりもするし、
使える機能も増えている可能性が大きかったりしマス笑い

なので、サーバとCMSの定期的な見直しは、した方がよいです〜ニコッ

→参考記事:「お薦めレンタルサーバ:小規模会社さんの場合

今日もありがとう♪