Védd magad! avagy a nagy Google Proxy Hack leszámolás

If you are a native speaker of English please follow this link in order to read this article in your language.

Kezdem az egészet egy gyors nyilatkozattal: a specifikált védelmi rendszert 4-5 napig teszteltem, a Google Webmaster Tools ezalatt hibát nem jelzett. Az implementálással kapcsolatosan minden esetlegesen fellépő negatív következményt elhárítok.

Akkor jöjjön az intró: a seo katalógusomat szétproxizták [több mint tíz különböző proxyról támadtak], és a galád dögök nem álltak meg a kezdőlapnál [a domain URL-jét a google nem fogja kiejteni, mert jól meg lett küldve], és deep proxy linkekkel kedveskedtek, ami sokkal jobban fájt. Azt eddig is tudtam, hogy a jó pár spammer ellen kell a harcomat vívni, de ez azért már durva szerintem [maradhattak volna a gov domaines blogok kommentspammolásánál is].

Amikor kibukott ez az egész proxy-s dolog gyorsan eljutottam egy leíráshoz, amelynek a magyar zanzásított fordítását itt találjátok. Az ott leírt reverse cloaking technikával csak az unreachable network hibáig jutottam el, és ott pillanatok alatt likvidáltam az ahhoz szükséges script arzenált.

Tovább keresgéltem miközben a napok csak teltek és a spammerek folytatták kitartó tevékenységüket. Végül aztán rátaláltam erre a linkre, amely a hamarosan bemutatott védelmi rendszer törzsét képezte [kódrészlettel egészítettem ki, csak hogy a Yahoo Slurp-öt is kipipálhassuk]. A megoldással kapcsolatban a legnagyobb credit IncrediBILL-nek jár.

Az egész védelem az úgynevezett reverse-forward DNS robot validáláson alapul [a technológiai részletekről, bár angol nyelven, de a ezen az oldalon írnak].

Szóval, nyisd meg a notepadot, vagy bármi más alkalmas programot és pakold bele ezt a kódot:

<?php
$ua = $_SERVER[‘HTTP_USER_AGENT’];
if(strstr($ua, ‘msnbot’) || stristr($ua, ‘Googlebot’) || stristr($ua, ‘Yahoo! Slurp’)){
$ip = $_SERVER[‘REMOTE_ADDR’];
$hostname = gethostbyaddr($ip);
if(!preg_match(“/\.googlebot\.com$/, $hostname) &&!preg_match(“/search\.live\.com$/”, $hostname) &&!preg_match(“/crawl\.yahoo\.net$/”, $hostname)) {
$block = TRUE;
header(“HTTP/1.0 403 Forbidden”);
exit;
} else
$real_ip = gethostbyname($hostname);>
if($ip!= $real_ip){
$block = TRUE;
header(“HTTP/1.0 403 Forbidden”);
exit;
} else {
$block = FALSE;
}
}
}
?>

majd mentsd el reversedns.php néven. Töltsd fel a szerveredre. Ha a védelem alá bevont oldal php nyelven írodott, akkor egy egyszerű include-dal gyorsan elintéheted

<?php include(”reversedns.php”);?>

Ha a weblapod statikus html, akkor a meglévő, vagy a most elészítendő .htaccess nevű fájlba másold ezt a kódot:

AddType application/x-httpd-php .html .htm .txt
php_value auto_prepend_file “/data/www/htdocs/users/sziget-conseils/i-connector/reversedns.php”

, természetesen a dokumentum elérési útját a sajátodéra igazítva. Ha erről az elérési útról semmilyen információval nem rendelkezel , kérlek vedd elő a notepadot ismét és dobd bele ezt a kódot:

<?php echo phpinfo();?>

[megfelelő php nyitó és záró tagokkal]

majd töltsd fel php_info.php-ként elmentve. Futtasd a fájlt böngészőből [domained.hu/php_info.php] és keresd meg a

_SERVER[“DOCUMENT_ROOT”]

mellett megjelenített értéket. Na ezzel írd felül az én path-omat.

Futtasd az oldalad. Ha minden oké, akkor minden pöccre indul. Nincs más hátra, mint a teszt. Jó lenne működik-e igaz? Ehhez elő kell kapnod a firefox böngésződet. A címsorba írd be ezt: about:config. Jobb klikk az egérrel, majd a megjelenő gyorsemnüből az Új/Karakterlánc opciót válaszd. A beállítás neve legyen “general.useragent.override”, értéke pedig “Googlebot/2.1 (+http://www.googlebot.com/bot.html)“. Ha ezzel kész vagy, fuss neki az oldaladnak. Jó mi? Na ezt fogja látni a robot is, ha proxy linkről fog érkezni.

A teszteléshez ezt a forrást használtam.

A védelemhez szükséges fájlok letöltéséhez kattints az ikonra!

google proxy hack pack letöltés

Mosquitonak hála, a WordPress blogok védelme mától még egyszerűbb!
Katt a a dobozra, és már telepítheted is a plugint.

google proxy hack pack letöltés

10 thoughts on “Védd magad! avagy a nagy Google Proxy Hack leszámolás

  1. Bagi Zoltán Post author

    A Yahoo! Site Explorer eléggé hatékony eszköz ebben a kérdésben. Mivel a proxizott link tárolt változatában a title megegyezik az eredti oldal title tagjával így én ezt a lekérdezést javaslom.:

    intitle:”oldalad title tagja” linkdomain:teoldalad.hu -site:teoldalad.hu

  2. Bidu

    Zoli. A .htaccess-es megoldás mindig működik? Tehát nem kell nekem include-olni a fájlt, ha tudok .htaccess fájlt használni?

  3. Bagi Zoltán Post author

    WordPressnél voltak problémáim az auto pretenddel, de arra ott a plugin, szóval nyugodtan teszteld meg az autopretendet szerintem.

  4. none

    Na megint én. 😀

    Ilyen hiba üzit kapok a fejlécben, ha megpróbálom beinclude-olni a “reversednss” file-t. (Szándékosan írtam 2 db “ss”-el.)

    Warning: include(/reversednss.php) [function.include]: failed to open stream: No such file or directory in /home/content/p/o/w/powered/html/index.php on line 1

    Warning: include() [function.include]: Failed opening ‘/reversednss.php’ for inclusion (include_path=’.:/usr/local/php5/lib/php’) in /home/content/p/o/w/powered/html/index.php on line 1

    Ha megpróbálom a másikat, a html félét, akkor 500 Internal Server Error-t kapok.

    Van valami ötleted Zoli?

  5. Norbi

    Szia!

    egy gyors kérdés: ezt a kódot minden php fájlba be kell másolni, vagy csak az index-be?

    Köszi.

  6. Bagi Zoltán Post author

    Szia Norbi! Azoknak a fájloknak az elejébe includold be, amelyiket védeni szeretnél. Leginkább a szkriptedtől függ, hogy hova kell tenni az include-ot. Az auto prepend htaccess bugí a legjobb tapasztalatom szerint.

  7. Fehér Attila

    Üdv,

    Az Awstats szerint

    Yahoo Slurp
    Googlebot
    MSNBot
    Unknown robot (identified by ‘bot*’)
    Unknown robot (identified by ‘spider’)
    Unknown robot (identified by ‘robot’)
    Unknown robot (identified by empty user agent string)
    Unknown robot (identified by hit on ‘robots.txt’)
    MSNBot-media
    Unknown robot (identified by ‘crawl’)
    The web archive (IA Archiver)
    Ask
    Alexa (IA Archiver)
    Google Sitemaps

    robotok látogatják az oldalam, kérdésem: hogyan tudom ezeket beleintegrálni a kódodba, mert így csak a Google, Yahoo, és az msn tudja beolvasni az oldalt.

    Köszönettel: Fehér Attila

Comments are closed.