Category Archives: védelem

Captcha Ashtor féle köntösben

Azt gonodolom, a webfejlesztéssel foglalkozó hölgyeknek és uraknak mindig a látogató érdekét kell a középpontba állítani. Ezen felbuzdulva írtam -már nem is tudom mikor- a fájdalommentes captcha vezérfonalát fejtegető erőlködésemet. Jöttek is szép számmal a hozzászólások, de a legkomolyabb javaslat fölött valamiért átsiklottam.

Ha nincsen kedved kattingatni, hát úgy is jó. Íme az idézet.

Ha egy kicsit belegondoltok, egyáltalán nincs is szükség a CAPTCHA-ra.

Miről szól a játék? Arről, hogy a botok ne tudjanak automatikusan bejegyzéseket küldeni. Ha ezt megoldod, akkor nem kell a júzereket kínlasztani.

Pedig erre a megoldás annyira egyszerű!

És a megoldás valóban nagyon egyszerű:

(FORM action=”suck_bot.php” id=”submitform”)
(INPUT ….
(/FORM)

(SCRIPT)
var cel1=”act”
var cel2=”ion”
var ext=”php”
id=”submit”+”form”
document.getElementById(id).action=cel1+cel2+”.”+ext
(/SCRIPT)

A megfelelő nyitó és záró tagokat kéretik normálisokkal helyettesíteni.

Erről a külső javascriptes botszivatásról volt szerencsém a későbbiekben egy NAGYON senior fejlesztővel beszélgetnem, és ő is elismerte, hogy ez aztán az ötlet.

Ashtornak mindeképpen járna innen egy afféle credit link, de a neten sajnos nem akadtam bele a weboldalába, pedig kétségkívül nagy tapsot érdemel, mert ezidáig ragyogóan működő védelmet adott a kezünkbe.

Click fraud, avagy védd az AdSense fiókodat stílusosan

Röviden összefoglalva a click fraud az a jelenség, amikor egy személy, vagy egy program rossz szándékkal egy fizetett hirdetésre kattint. A jelenség motiváló tényezőjének boncolgatását inkább a pszichológusokra bíznám, inkább valami másra koncentrálnék az elkövetkezőkben.

Egy-két oldalt és prezentációt átnézve egyre inkább úgy tűnik számomra, hogy az ipari méretű csalások mögött leginkább robot hálózatok állnak. Az oldalletöltések azonos IP-ről egyszerre akár több operációs rendszert azonosítva is érkezhetnek.

click fraud

forrás

A probléma ezzel a jelenséggel az, hogy vétlen hirdetés publikálók is áldozatául eshetnek a Google válaszának, az AdSense fiók felfüggesztésnek.

Pár óra alatt azonban sikerült valamiféle dögös megoldást összeeszkábálnom, amit így utólag végiggondolva nem sok teret fog engedni a click fraud kártékony jelenségének.

Első lépésként bemutatnék egy képzeletbeli AdSense kódot, hogy mindjárt bele is kezdhessünk hirdetői fiókunk biztonságosabbá tételébe.

<script type="text/javascript">
google_ad_client = "pub-xxxxxxxxxxxxxxxx";
google_ad_slot = "xxxxxx";
google_ad_width = 234;
google_ad_height = 60;
</script>
<script type="text/javascript" src="http://pagead2.googlesyndication.com/pagead/show_ads.js"></script>

Így néz(ne) ki a te oldaladban is egy Google hirdetés, és a forráskód megjelenítésével ez bárki számára hozzáférhető. Kimásoltam az erre a domainre dedikált kódot, majd beillesztettem egy másik oldalamba és ott is megjelent a hirdetés. Itt már kezdődnek is a gondok. Ha bárki rossz szándékkal kimásolja a javascriptet és bárhová beilleszti, szabadon kattingathat, anélkül, hogy ez neked bármilyen (webstatisztika) módon is feltűnhetne.

Ez a gondolatmenet elvisz minket a legfontosabb lépéshez. A javascript külső, védett fájlba való átmozgatásához.

<script type="text/javascript" src="adsense-kod.js">
</script>
<script type="text/javascript"
src="http://pagead2.googlesyndication.com/pagead/show_ads.js">
</script>

Ezt követően az adsense-kod.js-be helyezzük a kódnak ezen részletét:

google_ad_client = "pub-xxxxxxxxxxxxxxxx";
/* 234×60, létrehozva 2008.03.01. */
google_ad_slot = "xxxxxx";
google_ad_width = 234;
google_ad_height = 60;

Ezzel a lépéssel az AdSense kód külső fájlba került, de a javascript direkt elérését még nem akadályoztuk meg. Használjuk erre az hotlinking ellen is szükséges .htaccess kódot, a következő formában.

RewriteEngine On
RewriteCond %{HTTP_REFERER} !^http://(www\.)?seo.i-connector.com(/)?.*$ [NC]
RewriteRule .*\.(js)$ http://seo.i-connector.com/ [R,NC]

Ezáltal a .js kiterjesztésű fájlok csak a második sorban specifikált domain fájljai számára lesznek elérhetőek. Direkt eléréskor a harmadik sorban lévő URL lesz az átirányítás végállomása.

Következzék a második lépés, amely során aktív kattinós IP adatgyűjtésbe fogunk kezdeni. Az oldalad kódjában a Google hirdetést ilyen formán építsd be.

<form method="post" action="" id="ads">
<div class="ads">
<script type="text/javascript" src="adsense-code.js">
</script>
<script type="text/javascript"
src="http://pagead2.googlesyndication.com/pagead/show_ads.js">
</script>
</div>
</form>

Lesz tehát egy ajax posztoló form, amely tartalmazza a hirdetés kódját.

A hirdetést taralmazó oldal head részébe kérlek illeszd be ezt a három sort, és már majdnem készen is leszünk.

<script src="mootools.js" type="text/javascript"></script>
<script src="control.js" type="text/javascript"></script>
<?php require "ads-controller.php" >

Amint a három fájlon szépen végigmentünk, addigra a védelem össze is áll (tartalmuk lementésekor kérlek nagyon ügyelj arra, hogy azt a szükséges fájlkiterjeszés megadásával illeszd az oldaladba).

mootools.js
Mootools.net-ről szabadon letölthető javascript keretrendszer.

control.js
Az AdSense hirdetést tartalmazó ads class-szal azonosított div felett végrehajtott egérkattintás (mousedown esemény) válaszául a div-et 800 milisecundum alatt teljesen átlátszóvá transzformálja, valamint vezérli az ajax posztolást az ip-log.php fájl futtatásaként.

Az ip-log.php fájl fogja végezni a statisztikai adatgyűjtést gyűjtést. A benne meghatározott limit változóval ($limit=1000;) indirekt módon szabályozható, hogy hányadik kattintást követően kerüljön a logfájl törlésre, azaz ismét kattinthatóvá válnak a hirdetések a korábban már kattintók számára.

Az indirekt szabályozás abból áll, hogy a logfájl mérete kerül összehasonlításra a limit változóval. Egy IP körülbelül 13 byte. 1000 osztva 13-mal durván 75 kattintás. Azt gondolom a logfájl törlésésére olyan nagyon égető szükségünk nincs is, hiszen a visszatérő látogatóid jellemzően a tartalmadra kíváncsiak, nem is igazán a hirdetések érdeklik őket, de a szkripted futását a fájlméretének növekedésével arányosan lassítani fogja, tehát inkább a fájlméret alapján válassz limitet, mintsem a kattintások száma alapján.

ads-controller.php
Működése roppant mód egyszerű, ha a látogató hirdetési kattantása miatt a logfájlba került, akkor az oldal töltődésekor eszközli a hirdetés eltűnését.

<script type="text/javascript">
window.onload = function()
{ new Fx.Style( "ads", ‘opacity’, {duration: 1000} ).start(1,0);}</script>

A szkript működését ezen a demo oldalon megtekintheted.

Kérlek, hogy ne kattints a hirdetésre, helyette Google Ads képre kattintva ugyanazt a hatást éred el!

Nyilatkozat:

  • a Google AdSense felhasználási feltételeit nem ismerem, ha valamelyik pontjával meglátásod szerint a megoldás ütközik kérlek tudasd velem,
  • a mootools hajlamos szkript ütközésre,
  • semmiért semmilyen felelősséget nem vállalok.

Ha a posztomat végig bírtad olvasni és megértetted, javaslom, hogy nyiss egy sört és dőlj hátra, mert rászolgáltál. 🙂

További kellemes napot kívánok!

Hacker Trap

Úgy érzem eleget teszteltem már a védelmi szkriptemet, így már elérkezettnek látom az időt, hogy itt is közzétegyem. hacker protection

Előrebocsájtom, hogy használatáért semmilyen felelősséget nem vállalok, és programozó sem vagyok, de nagyon igyekeztem.

Egy kicsit azért visszacsévélem az időt, hogy a credit ne maradjon ki. Az egész bűvészkedésnek az alapját a CrawlerController script adta, amely a referrer spammerek ellen védelmezi az oldalunkat. Sajnos, nem voltam eléggé ügyes, hogy működésre bírjam, de nagyon sok részt használtam belőle így aztán jár neki az elismerés. Nem hagyhatom ki kow-t sem, aki birka türelemmel válaszolgatott a sokszor értelmetlen kérdéseimre.

Akkor most veszek ismét egy éles visszakanyart, és folytatom ott, ahol abbahagytam, de először egy bajuszhalmaz, amolyan felsorolás a funkciókról:

  • robot validálás
  • user agent kitiltási lehetőség
  • IP cím kitiltási lehetőség
  • URL string szűrés az adatbázis rosszindulatú manipulálása ellen
  • string logfájlnak köszönhetően ellenőrzött és testreszabhatóan agresszív IP bannolás

A telepítés rendkívül egyszerű, a csomag letöltését, kicsomagolását követően egy tetszőleges könyvtárba kell feltölteni a fájlokat majd a könyvtár security.php fájlját minden védelem alá helyezendő oldalba behívni a legelső sorban.

<?php require “/ide/jön/a/path/tetszolegeskonyvtarnev/security.php”; ?>

És akkor lássuk jelen esetben most mi is lapul a security.php fájlban

<?php
$ua = $_SERVER[‘HTTP_USER_AGENT’];
$webadress = $_SERVER[‘REQUEST_URI’];
$ip = $_SERVER[‘REMOTE_ADDR’];
$target = file(dirname(__FILE__).”/ip-logfile.txt”);
$sqltarget = file(dirname(__FILE__).”/sql-injection.txt”);
$ualist = file(dirname(__FILE__).”/banned-ua.txt”);
$loc = dirname(__FILE__);

//Indul a szkript
//ha a látogató azt mondja magáról, hogy robot
if(strstr($ua, ‘msnbot’) || stristr($ua, ‘Googlebot’) || stristr($ua, ‘Yahoo! Slurp’)){
//lefut a robot validálása
require “$loc/security-proxy-checker.php”;
}
else{

//bannolt user-agentek
foreach($ualist as $item){
$item = trim($item);
if(stristr($ua, $item)){
require “$loc/message.php”;
exit;}}
//IP ellenorzés követketik
foreach($target as $item){
$item = trim($item);
if(stristr($ip, $item)){
require “$loc/message.php”;
exit;
}}

//sql támadásának ellenorzése
foreach($sqltarget as $sqlitem){
$sqlitem = trim($sqlitem);
if(stristr($webadress, $sqlitem)){
require “$loc/index.php”;
exit;}}}
?>

Az sql injekciós támadások azonosításához ezen az oldalon megtalálható remek kis táblázatot használtam, valamint kiegészítettem ezekkel a szavakkal:

  • truncate
  • union
  • drop
  • delete
  • get
  • post

Szerintem az a legszerencsésebb, ha beszerelsz egy olyan statot, amely logolja a lekért url-eket és ennek megfelelően bővíted az sql-injection.txt-ben található tartalmat.

Ahogy, az az iménti kódból kiderült lesznek logfájljaink és lesz egy üzenet valamint egy index.php fájl is amely a kettővel korábbi posztom index fájljának felel meg, de egy kicsit okosabb lett azóta. Ezek a fájlok fognak a rosszalkodók ellen fellépni.

Az index.php tartalma a következő:

<?php

Hívhatnánk akár adatgyűjtő.php-nek is funkciója alapján. Elteszi biztos helyre a játékos kedvű próbálkozó IP címét, valamint egy ellenőrző logfájlba (requested-string.txt) bepakolja a lekért URL-t, a hozzátartozó IP-t és a lekérést időpontját. Ezt a fájlt mindenképpen érdemes időnként felülvizsgálni, hogy a véletlenül (?) bannolt népnek ismét hozzáférést biztosíthassunk.

A message.php-mat a csomagban megtalálhatod, ez már egy nagyon Úriemberhez méltó tartalommal rendelkezik. A legelső verzióban több volt a vulgáris szó, mint a felkiáltójel.
Jó ötlet lehet esetleg az ördögűző, vagy valamely egyéb paráztató film félelmetes jeleneténél készült printscreen megjelenítése…

Mit kellene még leírnom?

Ja igen, letölteni itt lehet

hacker-trap download

Szerintem semmi nem maradt ki, szóval védelemre fel!
További kellemes napot!

Mert Yahoo! Slurp a neve..

..és nem Yahoo Slurp.

Sajnálattal kellett ma felismernem, hogy a reversedns.php fájl nem validálta a Yahoo! robotot, hiszen a nevét rosszul szerkesztettem be, a ! jel elmaradt.

A helyes user agent vizsgáló feltétel így néz ki

if(strstr($ua, ‘msnbot’) || stristr($ua, ‘Googlebot’) || stristr($ua, ‘Yahoo! Slurp’))

Nem röhögtem hangosan, amikor megláttam a Yahoo!-ban egy proxy linket, most már legalább tudom az okát.
Javítottam a WordPress plugint és a többi blogon található szkriptet, így azokat már helyes formában lehet letölteni.

Terveim szerint hétvégén sikerül beszerelnem egy letöltésvezérlőt, mert új csomag lesz elérhető.

A tévedésért elnézéseteket kérem!

Bad robotok, lopjatok máshol

Mostanában nagyon ráálttam a weboldalak biztonságának erősítésére, aminek eredeti oka a katalógusom meghackelése volt. Majd megszakadt a szívem úgy látni azt a remek oldalt:)

None kívánsága szerint egy automata bad robot defender szkriptet fogok most itt prezentálni. Az összeállításához a metodikát innen szereztem. Ez az oldal részletesen bemutatja a bad robotok azon rossz tulajdonságát, hogy nem hallgatbak a jó szóra és a robots.txt-ben korlátozottként specifikált tartalmat is látni akarják a hackerekhez hasonlóan.

Pár poszttal korábban megismertettem egy módszert, amivel a robots.txt fájl-t az illetéktelenek elől elrejthetjük. Sajnos ezt most majd ki kell szerelni az oldalból, de azt gondolom megéri.

Hát akkor kezdem a védelem ismertetését.
1. Nyisd meg a robots.txt fájl-t és helyezd bele ezt a két sort

User-agent: *
Disallow: /core

A mappa neve bármi lehet, a lényeg az, hogy a rosszindulatú humanoidok is rákapjanak a nevére, mert amint megteszik vége a dalnak.

2. Hozd létre a robots.txt.-ben definiált mappát, és a könyvtárba másold fel az alábbi tartalmú index.php fájlt.

<?php
//gyujtsük össze az IP-t, vagy bármi mást, amit szeretnénk
$ip = $_SERVER[“REMOTE_ADDR”];
$logfile = ‘bannolnilog.txt’;
//logfájlba vele
$fp = fopen($logfile, ‘a’);
fputs($fp, “$ip
“);
fputs($fp, ” “);
fclose($fp);
// kézfogás közben ne felejtsünk el mosolyogni
echo “az IP biztonsági okokból rögzítésre került, sajnos a látogatásod itt véget ért”;
?>

3. A létrehozott mappába (példánál maradva core) másoljuk fel az imént logfile-ként definiált üres bannolnilog.txt-t (644-es attributúmmal működik nálam). Ő fogja majd gyűjteni a bűnösök neveit.

4. A györkérmappába, de oda tesszük, ahová csak szeretnénk töltsük fel az alábbi tartalmű validator.php fájlt.

<?php
$ip = $_SERVER[“REMOTE_ADDR”];
//fontos a target megfelelő elérése, a hibaüzenetek majd tudtunkra adják, ha elrontottunk valamit
$target = file(dirname(__FILE__). “/core/bannolnilog.txt”);
foreach($target as $item){
$item = trim($item);
if(stristr($ip, $item)){
//sima 403 hiba a válasz, de ha gondolod, mond meg nekik a magadét
header(“HTTP/1.0 403 Forbidden”);
exit;
}
}
?>

5. Nyisd meg a header.php fájlt, vagy bármi, ami elkezdi a szkriptet futtatni, és minden elé illeszd be

<?php require “/ide/jön/a/path/validator.php”;?>

6. A védelem felállt, ha véletlenül magadat sikerült kibannolod, ürítsd ki a logfájlt ftpvel és meg is vagy.

További kellemes napot!

A robots.txt tartalma magánügy

Jó pár órányi munkát követően összeállt egy újabb védelmi rendszer, amely lehetővé teszi a robots.txt fájl elrejtését a kiváncsiskodók elől és csak az fogja látja akinek az dedikálva lett.

Kár, hogy nem látom az arcod. Ha egymással szemben ülnénk lehet megkérdeznéd, hogy az egésznek mi értelme van?
A válaszom a következő: a robotok korlátozása csak rám és a rájuk tartozik. Úgy gondolom, hogy a benne rejlő tartalom ismerete harmadik fél által veszélyeztetheti a szkriptem épségét.

Hogyan kezdjünk bele? Akkor talán legjobb, ha vezetlek..

1. Első lépésként nyisd meg a .htaccess fájlodat, (ha nincsen, akkor készíts egyet) és tedd bele az alábbi kódot:
A domainedet ne felejetsd el behelyettesíteni!

RewriteEngine On
RewriteCond %{http_user_agent} !(googlebot|Msnbot|Slurp) [NC]
RewriteRule ^robots\.txt$ http://seo.i-connector.com/ [R,NE,L]
AddHandler application/x-httpd-php .txt

Az első sort nem magyarázom. A második és a negyedik sor lehetővé teszik, hogy ha a user agent string részleteiben nem tartalmazza a googlebot, msnbot, vagy slurp szavakat, a látogató a kódban specifikált fődomainen fog landolni, persze csak akkor, ha a robots.txt-mre volt kíváncsi. Népszerű gyakorlat, hogy egyedi 404-es hibaoldal helyett a nem található tartalom URL-jét a domainre irányítják, így hát ez nem fog gyanút kelteni senkiben. Úgy fog tűnni, hogy egyszerűen nincs robots.txt fájl a szerveren, pedig van.. Ja igen, a negyedik sor pedig php szerű viselkedést fog intézni a txt kiterjesztésű fájloknak.

2. Nyiss egy jegyzettömböt, vagy a kedvenc webszerkeztő programodban egy új lapot és illeszd be az alábbi kódot.

<?php
$ua = $_SERVER[‘HTTP_USER_AGENT’];
if(strstr($ua, ‘msnbot’) || stristr($ua, ‘Googlebot’) || stristr($ua, ‘Yahoo! Slurp’)){
$ip = $_SERVER[‘REMOTE_ADDR’];
$hostname = gethostbyaddr($ip);
if(!preg_match(“/\.googlebot\.com$/”, $hostname) &&!preg_match(“/search\.live\.com$/”, $hostname) &&!preg_match(“/crawl\.yahoo\.net$/”, $hostname)) {
$block = TRUE;
$URL=”/”;
header (“Location: $URL”);
exit;
} else {
$real_ip = gethostbyname($hostname);
if($ip!= $real_ip){
$block = TRUE;
$URL=”/”;
header (“Location: $URL”);
exit;
} else {
$block = FALSE;
}
}
}
?>

Ments el reversedns.php néven és töltsd fel a szervered gyökérkönyvtárába.

A szkript maga ismerős lehet neked, mivel a reversedns.php picit átalakított verzójáról van szó. A módosításnak megfelelően, ha a robot validálás során egy látogató megbukik akkor a fődomainen fog landolni pillanatokon belül. Ha a robot nem a három nagy bot egyike, akkor esélye sincs átjutni. Hiába állítod át a user agentedet botnak álcázva a kezdőlapon fogsz landolni a php által vezérelve, így aztán teljesen elhárítottam minden, a cloackingot leleplezni vágyó kísérletet.

Úgy gondolom, hogy mivel a google nem véd meg semmitől, így aztán az ilyen típusú önvédelem azért nem köszön a klasszikus black hat technikának…

3. Nyisd meg a védendő robots.txt fájlodat és illesz be az alábbi kódot a legelejére

<?php include(“reversedns.php”); ?>

A hack kész a védelem felállt!

További kellemes napot!

Védd magad! avagy a nagy Google Proxy Hack leszámolás

If you are a native speaker of English please follow this link in order to read this article in your language.

Kezdem az egészet egy gyors nyilatkozattal: a specifikált védelmi rendszert 4-5 napig teszteltem, a Google Webmaster Tools ezalatt hibát nem jelzett. Az implementálással kapcsolatosan minden esetlegesen fellépő negatív következményt elhárítok.

Akkor jöjjön az intró: a seo katalógusomat szétproxizták [több mint tíz különböző proxyról támadtak], és a galád dögök nem álltak meg a kezdőlapnál [a domain URL-jét a google nem fogja kiejteni, mert jól meg lett küldve], és deep proxy linkekkel kedveskedtek, ami sokkal jobban fájt. Azt eddig is tudtam, hogy a jó pár spammer ellen kell a harcomat vívni, de ez azért már durva szerintem [maradhattak volna a gov domaines blogok kommentspammolásánál is].

Amikor kibukott ez az egész proxy-s dolog gyorsan eljutottam egy leíráshoz, amelynek a magyar zanzásított fordítását itt találjátok. Az ott leírt reverse cloaking technikával csak az unreachable network hibáig jutottam el, és ott pillanatok alatt likvidáltam az ahhoz szükséges script arzenált.

Tovább keresgéltem miközben a napok csak teltek és a spammerek folytatták kitartó tevékenységüket. Végül aztán rátaláltam erre a linkre, amely a hamarosan bemutatott védelmi rendszer törzsét képezte [kódrészlettel egészítettem ki, csak hogy a Yahoo Slurp-öt is kipipálhassuk]. A megoldással kapcsolatban a legnagyobb credit IncrediBILL-nek jár.

Az egész védelem az úgynevezett reverse-forward DNS robot validáláson alapul [a technológiai részletekről, bár angol nyelven, de a ezen az oldalon írnak].

Szóval, nyisd meg a notepadot, vagy bármi más alkalmas programot és pakold bele ezt a kódot:

<?php
$ua = $_SERVER[‘HTTP_USER_AGENT’];
if(strstr($ua, ‘msnbot’) || stristr($ua, ‘Googlebot’) || stristr($ua, ‘Yahoo! Slurp’)){
$ip = $_SERVER[‘REMOTE_ADDR’];
$hostname = gethostbyaddr($ip);
if(!preg_match(“/\.googlebot\.com$/, $hostname) &&!preg_match(“/search\.live\.com$/”, $hostname) &&!preg_match(“/crawl\.yahoo\.net$/”, $hostname)) {
$block = TRUE;
header(“HTTP/1.0 403 Forbidden”);
exit;
} else
$real_ip = gethostbyname($hostname);>
if($ip!= $real_ip){
$block = TRUE;
header(“HTTP/1.0 403 Forbidden”);
exit;
} else {
$block = FALSE;
}
}
}
?>

majd mentsd el reversedns.php néven. Töltsd fel a szerveredre. Ha a védelem alá bevont oldal php nyelven írodott, akkor egy egyszerű include-dal gyorsan elintéheted

<?php include(”reversedns.php”);?>

Ha a weblapod statikus html, akkor a meglévő, vagy a most elészítendő .htaccess nevű fájlba másold ezt a kódot:

AddType application/x-httpd-php .html .htm .txt
php_value auto_prepend_file “/data/www/htdocs/users/sziget-conseils/i-connector/reversedns.php”

, természetesen a dokumentum elérési útját a sajátodéra igazítva. Ha erről az elérési útról semmilyen információval nem rendelkezel , kérlek vedd elő a notepadot ismét és dobd bele ezt a kódot:

<?php echo phpinfo();?>

[megfelelő php nyitó és záró tagokkal]

majd töltsd fel php_info.php-ként elmentve. Futtasd a fájlt böngészőből [domained.hu/php_info.php] és keresd meg a

_SERVER[“DOCUMENT_ROOT”]

mellett megjelenített értéket. Na ezzel írd felül az én path-omat.

Futtasd az oldalad. Ha minden oké, akkor minden pöccre indul. Nincs más hátra, mint a teszt. Jó lenne működik-e igaz? Ehhez elő kell kapnod a firefox böngésződet. A címsorba írd be ezt: about:config. Jobb klikk az egérrel, majd a megjelenő gyorsemnüből az Új/Karakterlánc opciót válaszd. A beállítás neve legyen “general.useragent.override”, értéke pedig “Googlebot/2.1 (+http://www.googlebot.com/bot.html)“. Ha ezzel kész vagy, fuss neki az oldaladnak. Jó mi? Na ezt fogja látni a robot is, ha proxy linkről fog érkezni.

A teszteléshez ezt a forrást használtam.

A védelemhez szükséges fájlok letöltéséhez kattints az ikonra!

google proxy hack pack letöltés

Mosquitonak hála, a WordPress blogok védelme mától még egyszerűbb!
Katt a a dobozra, és már telepítheted is a plugint.

google proxy hack pack letöltés