Subscribe For Free Updates!

We'll not spam mate! We promise.

dork etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster
dork etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster

29 Nisan 2014 Salı

Wordpress Dork Yazmak Geniş Anlatım


Merhaba arkadaşlar bugün sizlere brute force yönteminde en etkili olan elemanın yani dorkların mantığını anlatmaya çalışacağım.
Hızlı bir giriş yapalım.Bizim amacımız wordpress ile yapılmış site bulmak.
Bunun için yöntemler
  • Sitede "powered by Wordpress" kelimesini aramak

Wordpress ile yapılan hemen hemen tüm sitelerin en alt kısmında bu kelime yazar.
Bu kelimeyi bulmak için google amcaya
intext:powered by Wordpress
yazarız.
intext nedir ?,Nasıl kullanılır ?
intext sitede geçen kelimeleri arar.
Örneğin intext:kelime yazdığımızda yazılarında kelime yazan sayfalar önümüze çıkar.
Kullanımı: intext:aranacak kelime
  • Sitede başlığında "Just another WordPress site" kelimesini aramak

Yeni bir wordpress sitesi açtığımızda sitemizin başlığı "Just another WordPress site" şeklinde olur.
Eğer bir sitenin başlığı böyle ise büyük ihtimalle sitenin sahibi ya siteyle hiç ilgilenmemiştir ya da nasıl düzeltileceğini bilmiyordur.Bilmediğine veya ilgilenmediğine göre sitenin kullanıcı adı ve şifresi %99 ihtimalle "admin","pass","123456789" gibi kolay şifrelerdir.Yani brute force yöntemi ile kolayca kırılır.
Bu kelimeyi site başlığında aramak için google amcaya
intitle:Just another WordPress site
yazarız
intitle nedir ?,Nasıl kullanılır ?
intitle site başlığında arama yapar.
Örneğin: intitle:kelime dediğinizde önünüze başlığında kelime yazan siteler gelecektir.
Kullanımı intitle:aranacak kelime
  • Sitede adresinde "wp-login.php" veya "wp-signup.php" kelimelerini aramak

Bir wordpress sitesinde mutlaka wp-login.php dosyası vardır.Kullanıcılar buradan siteye giriş yaparlar.Şimdi biz wp-login.php dosyasını bulursak wordpress sitede bulmuş oluruz.
Bu kelimeleri site adresinde aramak için google amcaya
inurl:wp-login.php veya
inurl:wp-signup.php
yazarız.Bunu yazdığımızda önümüze wordpress kullanan sitelerin giriş sayfası veya kayıt sayfası çıkacaktır.
inurl nedir ?,Nasıl kullanılır ?
inurl site adresinde yani url inde diğer bir değişle linkinde arama yapar.
Örneğin: inurl:www.google.com yazdığımızda önünüze google amcanın sayfaları çıkacaktır.
Kullanımı inurl:aranacak kelime
  • İki dorku bir arada kullanmak

intext ,inurl ve intitle dorklarını öğrendik.Şimdi bunları nasıl bir arada kullanırız onu görelim.
Hemen bir örnekle açıklayalım.
Örneğin: intext:http://wordpress.org/?v=3.8.1 inurl:feed yazdığımızda önünüze adresinde feed kelimesi geçen ve içinde yani sayfadaki yazılarda "http://wordpress.org/?v=3.8.1" kelimesi geçen sayfalar çıkacaktır.
Ne alaka bu diyebilirsiniz.Yada demeyin çünkü açıklıyorum.Wordpress ile oluşturulan sitelerin hepsinde Feed servisi olur.ve buna ulaşmak için www.siteadı.com/feed/ yazabiliriz.Bu yüzden inurl:feed terimini kullandık.Diğerine geçelim.Bu feed servislerinin içinde generatorü yani oluşturucusu yazar.Wordpress ile oluşturulmuş feed servislerinde bu "http://wordpress.org/?v=sürüm_adı" şeklindedir.Ben burada son sürüm olan 3.8.1'i kullandım.Siz isterseniz başka bir sürümüde yazabilirsiniz.Ama kesinlikle sürümü yazın.Aksi taktirde karşınıza ilgisiz alakasız siteler çıkacaktır.

Şimdi de "Başka dork yokmu ?" diyeceksiniz.Var tabiki.Sizin için sıralayayım ve kısaca açıklayayım.

  • Belli bir domain içinde arama yapmak

Sizin bulmak istediğiniz siteler sadece fransız siteleri olsun.Bunun için "site:.fr" yazarız.Yada bir foruma üye değilsiniz ama o sitede arama yapmak istiyorsunuz google amcaya "aranacak kelime site:www.forumadi.com" yazmanız yeterlidir.


  • İki sayı arasındaki sayıları aratmak

Bulmak istediğiniz şeyin içinde 1 den 1000'e kadar olan sayılar geçsin.Bunu bulmak için google amcaya "1 .. 1000" yazarız.Ben bunu yazdığımda karşıma http://primes.utm.edu/lists/small/1000.txt böyle bir sayfa çıktı içinde 1000'e kadar olmasada 1 ile 1000 arasındaki bir çok sayı var.
Şimdi "Çok gereksizmiş be" dediğinizi duyar gibiyim.Şimdi size öyle bir hikaye anlatacağım ki bir daha asla böyle düşünmeyeceksiniz.
Not:Kimse hikayedeki akıllı bendim demesin ! Hikaye ben tarafından uydurmadır. :D

Bir varmış bir yokmuş.Çook uzun zaman önce daha visa kartları yeni çıktığı zamanlarda Hacker abilerimiz bu kartları kullananların numaralarına ulaşmaya çalışıyormuş.Herkezde farklı bir yöntem varmış.Kimisi Sosyal mühendislik ile kimisi Logger Trojan ile kimiside sitelerin veritabanlarına ulaşarak kart numaralarını ele geçirmeye çalışıyormuş.Çok fazla uğraşlardan sonra hepsi ancak bir iki hesap numarası ele geçirebiliyormuş. Abilerimizden birisi sıkılmış ve bağırmış "Yeter artık be.O kadar uğraşıyoz sonunda bir iki hesap numarası Allahsızlar sizin hiç mi vicdanınız yok".Canı sıkılınca google amcayı ziyaret etmiş.Sonra birden aklına gelmiş ve kendi kendine düşünmüş "Ya bu google amca herşeyi biliyor.Yoksa kart numaralarınıda mı biliyo."Sonra google amcaya "visa 4060000000000000..4060999999999999" yazmış ve önünde visa hesap numaraları. :D .Sonra bu abimiz tüm dünyanın visa kartlarını çalıp çekebildiği kadar parayı çekip tüm fakirlere dağıtmış.Ve mutlu son :D :D


Hikayedeki açığı şu anda google amca ne yazık ki yemiyor. :D
Hikayedeki mantık şudur:
visa kartları 4060 ile başlar ve artı 12 haneli rakamlar ile devam eder.Toplamda 16 haneden oluşur. Yani en küçük "4060000000000000" en büyükte "4060999999999999" şeklinde olur.Biz ancak bu iki rakam arasındaki sayılardan oluşan bir kart alabiliriz.Hacker abimizde bunu düşünerek bir yeniliğe imza atmış oluyor.

Evet sonunda bitti. :D İnşallah konuya girip "Oha bu ne uzun konu" diyerek çıkmadan sonuna kadar okumuşsunuzdur. :D .Bu arada daha çok fazla dork var ama onları bilerek yazmadım.Azda kendiniz araştırın herşeyi ben mi yazcam.Şaka şaka konu zaten uzundu sıkmayayım diye yazmadım.Onuda inşallah daha sonra yazarım.

7 Nisan 2014 Pazartesi

İnterneti Popüler Arama Motorları ile Kötüye Kullanmak

Bir arama motorunu düşündüğünüz zaman, kullanışlı bir görünüş gözünüzde canlanır. HTML ’ye dayalı sitelerde, isteğinize göre RFC’leri, elektirik devrelerini, yazılımları, serial keyleri ve doğru olmayan görüntüleri bulmanıza yardımcı olabilir.

Büyük olasılıkla google, yahoo, msn gibi arama motorlarını trilyonca kez saldırganların kullandığını düşünmeden kullanmışsınızdır. 

Sadece HTTP’nin hacmi nedeniyle olan ataklar, bir kez HTTP’nin bir firewall olmadığını düşün. Şayet server deamon patch edilmişse ve kullanıcı girdilerinin yeri güvenli bir şekilde kontrol ediliyorsa, endişelenmeye gerek yok. Bu çok ciddi bir yanlış anlamadır, bundan kaçınmak gerekir.

Güvenlik altyapın, HTTP finger printing, SQL enjeksiyon, mulformed heaader enjeksiyon, XSS, cookie fun, bütün akla gelebilecek web`e dayalı form uygulamaları yada servis ataklarını yönetebilir.

Yinede arama motorunu çok yavaş ve mutlu bir şekilde gelmenize izin verdiğinizde, bilgilerinizi meraklı gözlerden korumak için işe yarayacak olan şey önlenebilir güvenliğe sahip olmanızdır.

Spiderlar (Örümcekler):
Bilgisayar robot programları, bazı zamanlar "crawlers", "knowledgebot" yada "knowbot" a gönderme yapabilir. İnternet yolu ile www de dolaşmak, sayfaları ve veritabanlarını ziyaret etmek ve web sayfasının arama motoru veritabanını günlük devam ettirmek için kullanılır. Bunlar yeni sayfalar elde eder, bilinen sayfaları update eder ve kullanılmayan sayfaları siler. Bulduklarını ise ana veritabanında birleştirir.

Meraklı bir akıl herhangi bir güçlü teknolojiyi kullandığı zaman, ekstradan dahili (iç) çalışma bilgisine sahipse, kolaylıkla teknolojiyi potansiyel kötü bir silaha çevirebilir. Bu sebeple saldırganlar için arama motorları ileri derecede saldırganların toplandığı araç haline gelecektir.

Herkes, RFP’nin web toollarını bıyık olarak adlandırıldığını bilir. Henüz arama motorlarının da aynı şeyi, hatta daha fazlasını yaptığından kimse haberdar değildir.

Google, online bölgede kullanılan en güçlü arama motorudur. Belki dört yıldan fazla zamandır, günlük kelime kelime milyonlarca web sitesi ve kamu arşivi eklenmektedir. Bu bilgilerin tamamı akıllı insanların zekalarında miktarları sebebiyle kalabalık edecekti. Bilgiler büyük miktarlarda yüklenmeye başlandığında, makineler ile yığınmış gibi hareket edecek. Bazı zamanlar bu durum pek güzel değildir. Çünkü hassas bilgiler içerecektir.

Spiderlar, bütün bu siteler akılda olmadığı zaman google da hasatları toplamak için kullanır. 
Spiderlar yalnızca ana somaya( sinir hücresi) axon (sinir gövdesi) bağlantısı yaparlar, tıpkı neural newtwork (yapay sinir ağları)gibi. Eğer bilgiler basit bir mantık testten geçerse, axona sızarak gelir, sonra soma bilgileri ana hücreye gönderiri. Sadece enerjiye bir diyet sürünmeyi sağlamlaştırmak için ihtiyaç duyarlar.. tıpkı güvercinlerin gaga yapması gibi. Bu çalışma veri tabanındaki gruplara dahil edilmek için kullanılır.

Bir şirket sitesini ya da domaini test etmek daima google kullanmak için uygundur. Google sürüngen muhteşem bir yazılımdır ve enteresan güzel şeyler bulacaktır. Ayrıca çok hoş bir fonksiyona sahiptir. Bu fonksiyonla eski sayfaları görmenizi sağlayacaktır. Bu sayfalar bu sitede bir kez yayınlanmıştır. Saldırganlar bu özelliğe sayfaları, yapıları, bu tarz şeyleri karşılaştırmak için kullanır.

DMZ ende açık textleri ve CGI leri kullanmak için bazı hayali açık BBS’ler bulunur. BBSler de açık textler ve md5 ile encrypt edilmiş şifreler bulunur ve Mr. Security bunu unutur. Bir hafta sonra arama motoru spider nüfuz etmeye başlayacak ve sitede yavaş yavaş ilerleyip şifreleri bulmaya başlayacaktır. Bir ay sonra tekrar gelecek ve domaindeki şifreler için arama yapmaya başlayacaktır. Bu şuna benzer, kullanıcı BBS’ye dahili network ile bağlıdır ve aynı şifreleri domain şifresi olarakta kullanabilirsin. Şimdi bazı şeyler entersan olmaya başladı özellikle resepsiyon ofisinde gerşeç telefon sesini keşf edersin. Kullanıcı bir IT personelidir.

IT: domainler, routerlar, switchler, serverlar, veritabanları.
Human (insan): tembel, eksik, bazı şifrelerin her yerde olması, admin domain hesabı
Robot dosyaları kullanarak spiderları bloke edebilirsiniz. Örnek bir robot dosya:


User-agent: * # Spiderları kovar.

Disallow: / # Baston, bu server etrafında dosya olmaz:

User-agent: googlebot # googlebotu kovar: 

Disallow: /cgi-bin/

Disallow: /images/ 

# Tease vulnerable spiders: 

User-agent: AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA x 350 
Disallow: /GoogleBot PAYLOAD :-)/

Eğer gerçekten araknofobilerden muzdaripseniz, firewall ya da routerlar da bunu bloke edebilirsiniz.

NOT: Bu doküman google`ı saldırgan aracı olarak kullanmanızı denemek için değildir. Bu tarz bilgilerin bulunması da yasal değildir zaten. Kullanıcılarınızın web dizininde hangi bilgileri kullanmaya izin verdiğiniz, düşünmeye değer bir durumdur.

Google advanced search kullanımın özelliği:

allinurl: # urldeki bütün stringleri bul
allintitle: # başlıktaki bütün stringleri bul
filetype: # Sadece spesifik filetype ı bul
intitle: # Başlıktaki herhangi bir stringi bul
inurl: # Urldeki herhangi bir stringi bul 
link: # Linkteki stringi bul
site: # sitedeki stringi bul

Specific:

allinurl:session_login.cgi # Nagios/NetSaint/Nagmin 
allintitle:/cgi-bin/status.cgi? # Network monioring 
allintitle:/cgi-bin/extinfo.cgi # Nagios/NetSaint 
inurl:cpqlogin.htm # Compaq Insight Agent 
allinurl:"Index of /WEBAGENT/" # Compaq Insight Agent 
allinurl:/proxy/ssllogin # Compaq Insight Agent 
allintitle:WBEM Login # Compaq Insight Agent 
WBEM site:domain.com # Compaq Insight Agent at domain.com
inurl:vslogin OR vsloginpage # Sistem yada Vitalnet ziyaretçisi
allintitle:/exchange/root.asp # Değiştir Webmaili 
"Index of /exchange/" # Değiştir Webmail Directory 
netopia intitle:192.168 # Netopia Router Config

General:

site:blah.com filename:cgi # cgi kaynak kodunu kontrol et 
allinurl:.gov passwd # Bir blackhat favorisi 
allinurl:.mil passwd # Başka nir blackhat favori 
"Index of /admin/" 
"Index of /cgi-bin/" 
"Index of /mail/"
"Index of /passwd/" 
"Index of /private/" 
"Index of /proxy/" 
"Index of /pls/" 
"Index of /scripts/" 
"Index of /tsc/" 
"Index of /www/" 
"Index of" config.php OR config.cgi 
intitle:"index.of /ftp/etc" passwd OR pass -freebsd -netbsd -openbsd 
intitle:"index.of" passwd -freebsd -netbsd -openbsd 
inurl:"Index of /backup" 
inurl:"Index of /tmp" 
inurl:auth filetype:mdb # MDB dosyası 
inurl:users filetype:mdb 
inurl:config filetype:mdb 
inurl:clients filetype:xls # General çizelgeler 
inurl:network filetype:vsd # Network diagramları

Haberci

Destek3

Related Posts Plugin for WordPress, Blogger...