Массовый чекер доменов

PrizrokOS

Newbie
05.04.2018
4
0
Ищу массовый чекер доменов с сохранением валида в файл, то что были в интернете не особо подходят,а нужно чтоб был вывод например:
yg140.servegame.com:Форум информационной безопасности и защиты информации :on или off
Нашел только валидатор доменных имен
 

Вложения

  • domen.PNG
    domen.PNG
    2 КБ · Просмотры: 498
Ищу массовый чекер доменов с сохранением валида в файл, то что были в интернете не особо подходят,а нужно чтоб был вывод например:
yg140.servegame.com:Форум информационной безопасности и защиты информации :eek:n или off
Нашел только валидатор доменных имен
Вряд ли ты такое найдёшь, проще написать самому,
чем пользоваться чьим-то непонятным кодом...

На вход что ты ему будешь давать?
список вида
abc.com
abd.com
abe.com
И что конкретно нужно на выходе получить?
Содержимое тега <title>?

Список f0000000-f9999999 с постоянным .domain.com,вывод нужен:
Domain: f0000000.domain.com
Title: Forum adbc
Status: on/off
Ну самый простой вариант, воспользоваться wget'ом
wget --quiet -O - http://f{0000000..9999999}.domain.com \ | sed -n -e 's!.*<title>\(.*\)</title>.*!\1!p' >> /tmp/output.log

Вот так можно сделать, чтобы вывод был красивее
Bash:
#!/bin/bash
for i in http://f{0000000..9999999}.domain.com; do
    echo ${i}
    site_title=`wget --quiet -O - ${i}/ \ | sed -n -e 's!.*<title>\(.*\)</title>.*!\1!p'`
    if [[ `echo ${site_title} | wc -c` -gt 2 ]]; then
        echo -e ${i} "\t" ${site_title} >> /tmp/test.log
        echo "###################" >> /tmp/test.log
    fi;
done
Сохраняешь в файле bash_wget_parser.sh
Делаешь исполняемым chmod +x bash_wget_parser.sh
И запускаешь ./bash_wget_parser.sh
 
Последнее редактирование:
Вряд ли ты такое найдёшь, такое проще написать самому,
чем пользоваться чьим-то непонятным кодом...

На вход что ты ему будешь давать?
список вида
abc.com
abd.com
abe.com
И что конкретно нужно на выходе получить title?
Список f0000000-f9999999 с постоянным .domain.com,вывод нужен:
Domain: f0000000.domain.com
Title: Forum adbc
Status: on/off
 
Ну самый простой вариант, воспользоваться wget'ом
Разве так wget не скачает хотя бы одну страничку? Стоит использовать curl чтоб не мусорить на комп, имхо.

ну или wget’у добавить параметр —spider
 
Разве так wget не скачает хотя бы одну страничку? Стоит использовать curl чтоб не мусорить на комп, имхо.
Абсолютно согласен, но тут вариантов миллион)
Это первое, что пришло на ум
И минусов у него тоже очень много (как минимум однопоточность),
но зато задачи свои выполняет)
 
Есть приватный многопоточный брутер CMS (WP, Magento, Opencart). На входе список доменов, логинов, паролей. На выходе доступы к админкам. Можно использовать и под твою задачу. Если интересно, пм.
 
Готов написать такое за пачку сигарет и стаканчик кофе. Если интересно - ПМ за деталями.
 
Есть приватный многопоточный брутер CMS (WP, Magento, Opencart). На входе список доменов, логинов, паролей. На выходе доступы к админкам. Можно использовать и под твою задачу. Если интересно, пм.
Приветствую интересует брутер.
 
x_ad1tgnfg_x
не могу написать тебе пм
 
Мы в соцсетях:

Взломай свой первый сервер и прокачай скилл — Начни игру на HackerLab

Похожие темы

🚀 Первый раз на Codeby?
Гайд для новичков: что делать в первые 15 минут, ключевые разделы, правила
Начать здесь →

Популярный контент

🔴 Свежие CVE, 0-day и инциденты
То, о чём ChatGPT ещё не знает — обсуждаем в реальном времени
Threat Intel →
💼 Вакансии и заказы в ИБ
Pentest, SOC, DevSecOps, bug bounty — работа и проекты от проверенных компаний
Карьера в ИБ →

HackerLab