posztok

kommentek
google keresőoptimalizálás
Zoli kísérleti erőlködéseinek laboratóriuma a keresőoptimalizálás és webfejlesztés fáradalmait boncolgatva

Things categorized as 'védelem'

Captcha Ashtor féle köntösben


Azt gonodolom, a webfejlesztéssel foglalkozó hölgyeknek és uraknak mindig a látogató érdekét kell a középpontba állítani. Ezen felbuzdulva írtam -már nem is tudom mikor- a fájdalommentes captcha vezérfonalát fejtegető erőlködésemet. Jöttek is szép számmal a hozzászólások, de a legkomolyabb javaslat fölött valamiért átsiklottam. Ha nincsen kedved kattingatni, hát úgy is jó. Íme ...
elolvasom!
(preview-image)

Click fraud, avagy védd az AdSense fiókodat stílusosan


Röviden összefoglalva a click fraud az a jelenség, amikor egy személy, vagy egy program rossz szándékkal egy fizetett hirdetésre kattint. A jelenség motiváló tényezőjének boncolgatását inkább a pszichológusokra bíznám, inkább valami másra koncentrálnék az elkövetkezőkben. Egy-két oldalt és prezentációt átnézve egyre inkább úgy tűnik számomra, hogy az ipari méretű csalások mögött leginkább robot hálózatok állnak. Az ...
elolvasom!
(preview-image)

Hacker Trap


Úgy érzem eleget teszteltem már a védelmi szkriptemet, így már elérkezettnek látom az időt, hogy itt is közzétegyem. Előrebocsájtom, hogy használatáért semmilyen felelősséget nem vállalok, és programozó sem vagyok, de nagyon igyekeztem. Egy kicsit azért visszacsévélem az időt, hogy a credit ne maradjon ki. Az egész bűvészkedésnek az alapját a CrawlerController script adta, amely ...
elolvasom!

Mert Yahoo! Slurp a neve..


..és nem Yahoo Slurp. Sajnálattal kellett ma felismernem, hogy a reversedns.php fájl nem validálta a Yahoo! robotot, hiszen a nevét rosszul szerkesztettem be, a ! jel elmaradt. A helyes user agent vizsgáló feltétel így néz ki if(strstr($ua, 'msnbot') || stristr($ua, 'Googlebot') || stristr($ua, 'Yahoo! Slurp')) Nem röhögtem hangosan, amikor megláttam a Yahoo!-ban egy proxy linket, most már ...
elolvasom!

Bad robotok, lopjatok máshol


Mostanában nagyon ráálttam a weboldalak biztonságának erősítésére, aminek eredeti oka a katalógusom meghackelése volt. Majd megszakadt a szívem úgy látni azt a remek oldalt:) None kívánsága szerint egy automata bad robot defender szkriptet fogok most itt prezentálni. Az összeállításához a metodikát innen szereztem. Ez az oldal részletesen bemutatja a bad robotok azon rossz tulajdonságát, ...
elolvasom!

A robots.txt tartalma magánügy


Jó pár órányi munkát követően összeállt egy újabb védelmi rendszer, amely lehetővé teszi a robots.txt fájl elrejtését a kiváncsiskodók elől és csak az fogja látja akinek az dedikálva lett. Kár, hogy nem látom az arcod. Ha egymással szemben ülnénk lehet megkérdeznéd, hogy az egésznek mi értelme van? A válaszom a következő: a robotok korlátozása csak rám és ...
elolvasom!
(preview-image)

Védd magad! avagy a nagy Google Proxy Hack leszámolás


If you are a native speaker of English please follow this link in order to read this article in your language. Kezdem az egészet egy gyors nyilatkozattal: a specifikált védelmi rendszert 4-5 napig teszteltem, a Google Webmaster Tools ezalatt hibát nem jelzett. Az implementálással kapcsolatosan minden esetlegesen fellépő negatív következményt elhárítok. Akkor jöjjön az intró: ...
elolvasom!