What's new
Runion

This is a sample guest message. Register a free account today to become a member! Once signed in, you'll be able to participate on this site by adding your own topics and posts, as well as connect with other members through your own private inbox!

Google dorks/Дорки, что такое и с чем их едят

Vandalism сказал(а):
Спасибо 🤝
Нажмите, чтобы раскрыть...
Кстати не только SQLi (которые мы все так любим) но и LFI через такие дорки находятся! ;-) (см. выше пример)
Может быть я упускаю и сходу кроме SQLi и LFI ещё что-то можно найти быстро?

Ещё бы парсеры подробнее разобрать статейку... А также про пост-эксплуатацию: чего внутри искать, как это найденное монетизировать $$$ можно...

Так вообще да, "низко висящие цели фрукты" этим методом находятся на ура, но у дорков есть и недостаток: гугл он же не индексирует "вкусноту внутри" то есть снаружи может и не быть уязвимого ендпоинта, например только после регистрации как юзер открывается доступ (а гугл он не регается же автоматом везде чтобы краулить глубже), соответственно там уже руками надо через Burp сидеть искать глубоко внутри цели. Или есть способы и это поставить на поток? ;-) (на ум приходит только куку задать после авторнизации и запустить свой кастомный краулер уже с этой кукой)
 
Отличная статья! Единственное, что добавил бы, это минусовку ненужного. Например, "-site:github.com". Потому как достаточно много обсуждений дорков в последнее время и лезет куча ненужного, типа stackoverflow, github, reddit и т.д. По шопам тоже, крупням кожет лезть. Особ много не заминусовать, но хотя бы гигантов отсеять можно.
 
petrinh1988 сказал(а):
Отличная статья! Единственное, что добавил бы, это минусовку ненужного. Например, "-site:github.com". Потому как достаточно много обсуждений дорков в последнее время и лезет куча ненужного, типа stackoverflow, github, reddit и т.д. По шопам тоже, крупням кожет лезть. Особ много не заминусовать, но хотя бы гигантов отсеять можно.
Нажмите, чтобы раскрыть...
Спасибо. 100% согласен, давольно-таки очевидный и не маловажный гугл дорк, а с головы вылетел. Но ко всему этому, такие сайты-гиганты относительно фиксятся в принципе любым "site:" доменом за исключением естественно .com 😁 😁 Ну и в купе простых и гугл дорок- таких прицедедентов не выявлялось). мб по этому и запамятовал))) Но да, обязательно берем на заемтку☝️
 
Код: Скопировать в буфер обмена
Code:
def read_file(filename):
 with open(filename, 'r', encoding='utf-8') as file:
  return [line.strip() for line in file]

def generate_dorks(keywords, param1, param2, sites):
 dorks = []
 
 for keyword in keywords:
  # Базовые запросы с intext и allintext
  dorks.append(f'intext:{keyword}')
  dorks.append(f'allintext:{keyword}')
  
  for p1 in param1:
   # Запросы с intext и allintext + inurl:param1
   dorks.append(f'intext:{keyword} inurl:{p1}')
   dorks.append(f'allintext:{keyword} inurl:{p1}')
   
   for p2 in param2:
    # Запросы с intext и allintext + inurl:param1?param2
    dorks.append(f'intext:{keyword} inurl:{p1}?{p2}')
    dorks.append(f'allintext:{keyword} inurl:{p1}?{p2}')
    
    for site in sites:
     # Запросы с intext и allintext + inurl:param1?param2 + site:site
     dorks.append(f'intext:{keyword} inurl:{p1}?{p2} site:{site}')
     dorks.append(f'allintext:{keyword} inurl:{p1}?{p2} site:{site}')
 
 return dorks

def write_to_file(dorks, filename):
 with open(filename, 'w', encoding='utf-8') as file:
  for dork in dorks:
   file.write(dork + '\n')

def main():
 keywords = read_file('keywords.txt')
 param1 = read_file('param1.txt')
 param2 = read_file('param2.txt')
 sites = read_file('site.txt')
 
 dorks = generate_dorks(keywords, param1, param2, sites)
 write_to_file(dorks, 'dorks.txt')

if __name__ == "__main__":
 main()

Для тех кому лень читать код:
keywords.txt - сюда ключевые слова
param1.txt - сюда параметры, например php(хоть один, хоть несколько)
param2.txt - php?item, сюда то что идёт после знака вопроса, тоже может быть как один, так и несколько
site.txt - сюда то что будет писаться после site:

Лучше выучить python за полгода или сколько там время это занимает, чем пользоваться софтом написанным непонятно кем, и непонятно кем он был крякнут и непонятно кто туда ещё непонятно чего напихал. Паранойя! - двигатель прогресса
 
BLUA сказал(а):
Лучше выучить python за полгода или сколько там время это занимает, чем пользоваться софтом написанным непонятно кем, и непонятно кем он был крякнут и непонятно кто туда ещё непонятно чего напихал. Паранойя! - двигатель прогресса
Нажмите, чтобы раскрыть...
Для мелких утилит - золотые слова!
Причём на питоне свет клином не сошёлся, пойдёт любой язык (помню как Perl раньше был в качестве Python сейчас :) ) - тут главное понимать логику и алгоритм чего сделать собираешься (выше вон явно 4 вложенных цикла для генерации всех "комбо" из 4-х источников), зная это - остальное (особенности языка) - нагугливается за 5 минут.

Но вот Burp Suite (да даже mitmproxy консольный его аналог) например - с этим как быть? тоже свой писать? :)
 
zdestuta сказал(а):
Для мелких утилит - золотые слова!
Причём на питоне свет клином не сошёлся, пойдёт любой язык (помню как Perl раньше был в качестве Python сейчас :) ) - тут главное понимать логику и алгоритм чего сделать собираешься (выше вон явно 4 вложенных цикла для генерации всех "комбо" из 4-х источников), зная это - остальное (особенности языка) - нагугливается за 5 минут.

Но вот Burp Suite (да даже mitmproxy консольный его аналог) например - с этим как быть? тоже свой писать? :)
Нажмите, чтобы раскрыть...
Бурп есть и комьюнити, это раз
Во вторых есть и другие продукты и даже с открытым исходным кодом и бесплатны
В третих, этот прокси тоже займёт не много времени для написания кода, для опыта я бы поковырял(а я и поковырял, когда начинал знакомиться с пайтоном и ещё в самом начале так сказать, когда писал клиент-серверное приложение) в этом направлении :)
 
zdestuta сказал(а):
Прекрасная статья! Очень ждал!

От себя могу добавить, что кроме SQLi там иногда полезно поискать и LFI.

Товарищи, вот сходу находится LFI - зацените ржаку http://www.eana-net.eu/index.php?page=index - оно будет рекурсивно отрабатывать включая index.php 🙃

Думаю все уже догадались что любой сырец PHP там можно получить через PHP фильтры:
http://www.eana-net.eu/index.php?page=PHP://filter/convert.base64-encode/resource=information/../index - вывалит сырец index.php прям в браузер но в base64, декодировать ессно уже дело тривиальное.

SQLi там ну конечно же тоже присутствуют (в апдейте юзера, а зарегаться не проблема), я давно уже там стал "тихим адмиином".

Никогда так быстро ничего не ломал ещё :-D

Просьба: не доламывайте беззащитных европейских астробиологов! глумитесь плиз тихо и незаметно. наука это всё таки "святое", как и медицина.
Нажмите, чтобы раскрыть...

Добавлю что от такого LFI недалеко аж до RCE через LFI
 
lll3 сказал(а):
Кто-то может подсказать? Вот беру я такой дорк - intext:Mode site:de inurl:/news.php?include=
в результате получаю сайты типо:

Здесь же нету ?include , почему?
Нажмите, чтобы раскрыть...
Здесь нету include потому что... потому что он тут нафиг не нужен, ну подумай как разраб куда параметры пойдут такие, newsid - тут скорее SQLi, иногда редко IDes - типа вместо param=value кинуть param[]=value массив для детекта IDes.

"Красные флаги" для include/require (и соответственно потенциального LFI/RFI) тут это:
- явное указание расширения (да, и такое бывает) например /?p=something.php , проверка ржачная бывает типа "index.php?page=index" и наблюдаем как сайт грузится вечно, рекурсивно... :)
- слэш в параметре (тут как правило вообще "стопудово") например /?p=path/file
- ещё варианты народ понакидаете?
 
Top