Monthly Archives: January 2008

5 nap van hátra

és kezdetét veszi az UKWebmasterWorld keresőoptimalizálási versenye. Január 31-én éjfélkor kihirdetésre kerül az optimalizálás tárgyát képező kifejezés és indulhat a futam.

Mit kell tenned a nevezéshez?

  • A szabályokat nagyon komolyan kell venned , valamint
  • a pályamunkádba be kell illesztened az alábbi kódot:

    <a href="http://forums.ukwebmasterworld.com/" target="_blank" user="neved">UK webmaster forum seo contest</a>

A user tag a linkfelhő versenyhez hasonlóan az eredményjelző táblán való azonosításhoz szükséges, annak tartalma lesz megjelenítve helyezésed mellett.

Szabályok:

  • Használhatsz domain-t, egy létező domain aloldalát (almappáját), aldomain-t, amennyiben arra nem mutatnak linkek és nem rendelkezik indexben tárolt verzióval.
  • Minden optimalizálási technika megengedett az elrejtett szöveg és a cloaking kivételével. A Google cache-ben tárolt oldalt rendszeresen ellenőrizni fogjuk, annak érdekében, hogy a csaló szándékú versenyzőket a futamból kivonjuk. Mindezek értelmében minden noarchive meta tag használata tiltott.

Ki lesz a győztes?
A verseny győztesét április 1.-én délután 1 órakkor indított utolsó eredményjelző tábla frissítése fogja kihírdetni, amely az alábbi URL-t fogja lekérni:

http://google.com/search?q=kulcsszó

Lábjegyzetek:

  • Annak érdekében, hogy a nemzetközi versenyzőknek egyenlő esélyeket biztosítsunk a verseny során folyamatosan a fennt specifikált sztring alapján fogjuk frissíteni az eredményjelző táblát.
  • A nyereményeket PayPal-on keresztül kapják meg a helyezettek.

Frissítés: a célkeresztben álló kifejezés seocontest2008

Sok szerencsét minden kedves vállalkozó szellemű webmesternek és további kellemes napot mindenkinek!

Ha nem a localhoston láttad meg a napvilágot

de mégis szeretnél felállítani egy tesztelő helyszínt a saját gépeden, akkor ez a poszt neked szól.

Tegnap felhívtam az egyik barátomat, hogy megkérdezzem mi volt annak a programnak a neve, amivel az általam ismert legkiválóbb programozó dolgozik.

A válasza a xampp volt, így aztán igen gyorsan eljutottam a letöltési választékhoz. A telepítő 37 MB és a procedúra sem volt fájdalmas. Ha most fogsz bele ajánlom, hogy egy külön particíró pakold a fájlokat.

Természetesen felmerült az igény bennem, hogy az apacha-ot felkészítsem a csodálatosan szép URL-ek transzformálására. A metodika egyszerű, irány az apacha mappa conf almappájának httpd.conf fájlja, annak megnyitása szerkeszésre majd:

#LoadModule rewrite_module modules/mod_rewrite.so

sorból a # komment jelet ki kellett venni, valamint az

AllowOverride None

kódot összes előfordulási helyén lecserélni erre

AllowOverride All

Két további, az indulást megkönnyítő jótanácsot megosztanék veled:

  • az adatbázis kapcsolat felállításához szükséges információkat a xampp mappa readme_en/de.txt fájlja rejti
  • amennyiben a fejlesztendő szkriptet a xampp mappa htdocs mappájában létrehozott könyvtárába töltöd, akkor az elérés localhost/könyvtárnév/ lesz

Gondolom a tapasztaltabbaknak ez eléggé egyértelémű, én azért elvoltam vele egy jó darabig.

További kellemes napot!

Hacker Trap

Úgy érzem eleget teszteltem már a védelmi szkriptemet, így már elérkezettnek látom az időt, hogy itt is közzétegyem. hacker protection

Előrebocsájtom, hogy használatáért semmilyen felelősséget nem vállalok, és programozó sem vagyok, de nagyon igyekeztem.

Egy kicsit azért visszacsévélem az időt, hogy a credit ne maradjon ki. Az egész bűvészkedésnek az alapját a CrawlerController script adta, amely a referrer spammerek ellen védelmezi az oldalunkat. Sajnos, nem voltam eléggé ügyes, hogy működésre bírjam, de nagyon sok részt használtam belőle így aztán jár neki az elismerés. Nem hagyhatom ki kow-t sem, aki birka türelemmel válaszolgatott a sokszor értelmetlen kérdéseimre.

Akkor most veszek ismét egy éles visszakanyart, és folytatom ott, ahol abbahagytam, de először egy bajuszhalmaz, amolyan felsorolás a funkciókról:

  • robot validálás
  • user agent kitiltási lehetőség
  • IP cím kitiltási lehetőség
  • URL string szűrés az adatbázis rosszindulatú manipulálása ellen
  • string logfájlnak köszönhetően ellenőrzött és testreszabhatóan agresszív IP bannolás

A telepítés rendkívül egyszerű, a csomag letöltését, kicsomagolását követően egy tetszőleges könyvtárba kell feltölteni a fájlokat majd a könyvtár security.php fájlját minden védelem alá helyezendő oldalba behívni a legelső sorban.

<?php require “/ide/jön/a/path/tetszolegeskonyvtarnev/security.php”; ?>

És akkor lássuk jelen esetben most mi is lapul a security.php fájlban

<?php
$ua = $_SERVER[‘HTTP_USER_AGENT’];
$webadress = $_SERVER[‘REQUEST_URI’];
$ip = $_SERVER[‘REMOTE_ADDR’];
$target = file(dirname(__FILE__).”/ip-logfile.txt”);
$sqltarget = file(dirname(__FILE__).”/sql-injection.txt”);
$ualist = file(dirname(__FILE__).”/banned-ua.txt”);
$loc = dirname(__FILE__);

//Indul a szkript
//ha a látogató azt mondja magáról, hogy robot
if(strstr($ua, ‘msnbot’) || stristr($ua, ‘Googlebot’) || stristr($ua, ‘Yahoo! Slurp’)){
//lefut a robot validálása
require “$loc/security-proxy-checker.php”;
}
else{

//bannolt user-agentek
foreach($ualist as $item){
$item = trim($item);
if(stristr($ua, $item)){
require “$loc/message.php”;
exit;}}
//IP ellenorzés követketik
foreach($target as $item){
$item = trim($item);
if(stristr($ip, $item)){
require “$loc/message.php”;
exit;
}}

//sql támadásának ellenorzése
foreach($sqltarget as $sqlitem){
$sqlitem = trim($sqlitem);
if(stristr($webadress, $sqlitem)){
require “$loc/index.php”;
exit;}}}
?>

Az sql injekciós támadások azonosításához ezen az oldalon megtalálható remek kis táblázatot használtam, valamint kiegészítettem ezekkel a szavakkal:

  • truncate
  • union
  • drop
  • delete
  • get
  • post

Szerintem az a legszerencsésebb, ha beszerelsz egy olyan statot, amely logolja a lekért url-eket és ennek megfelelően bővíted az sql-injection.txt-ben található tartalmat.

Ahogy, az az iménti kódból kiderült lesznek logfájljaink és lesz egy üzenet valamint egy index.php fájl is amely a kettővel korábbi posztom index fájljának felel meg, de egy kicsit okosabb lett azóta. Ezek a fájlok fognak a rosszalkodók ellen fellépni.

Az index.php tartalma a következő:

<?php

Hívhatnánk akár adatgyűjtő.php-nek is funkciója alapján. Elteszi biztos helyre a játékos kedvű próbálkozó IP címét, valamint egy ellenőrző logfájlba (requested-string.txt) bepakolja a lekért URL-t, a hozzátartozó IP-t és a lekérést időpontját. Ezt a fájlt mindenképpen érdemes időnként felülvizsgálni, hogy a véletlenül (?) bannolt népnek ismét hozzáférést biztosíthassunk.

A message.php-mat a csomagban megtalálhatod, ez már egy nagyon Úriemberhez méltó tartalommal rendelkezik. A legelső verzióban több volt a vulgáris szó, mint a felkiáltójel.
Jó ötlet lehet esetleg az ördögűző, vagy valamely egyéb paráztató film félelmetes jeleneténél készült printscreen megjelenítése…

Mit kellene még leírnom?

Ja igen, letölteni itt lehet

hacker-trap download

Szerintem semmi nem maradt ki, szóval védelemre fel!
További kellemes napot!

Mert Yahoo! Slurp a neve..

..és nem Yahoo Slurp.

Sajnálattal kellett ma felismernem, hogy a reversedns.php fájl nem validálta a Yahoo! robotot, hiszen a nevét rosszul szerkesztettem be, a ! jel elmaradt.

A helyes user agent vizsgáló feltétel így néz ki

if(strstr($ua, ‘msnbot’) || stristr($ua, ‘Googlebot’) || stristr($ua, ‘Yahoo! Slurp’))

Nem röhögtem hangosan, amikor megláttam a Yahoo!-ban egy proxy linket, most már legalább tudom az okát.
Javítottam a WordPress plugint és a többi blogon található szkriptet, így azokat már helyes formában lehet letölteni.

Terveim szerint hétvégén sikerül beszerelnem egy letöltésvezérlőt, mert új csomag lesz elérhető.

A tévedésért elnézéseteket kérem!