NetPromoter
Продвижение сайта
12357 САЙТОВ
подробнее
Page Promoter Platinum 8.1
377719 Скачиваний
подробнее

понедельник - пятница с 10:00 до 18:00
Адрес:115477, г.Москва
Кантемировская ул., д.53, корп.1
E-mail:support@netpromoter.ru
Get Adobe Flash player





О компании

NetPromoter - инновационная технологическая компания-разработчик программных решений в области кибермаркетинга.

Компания основана в 1999 году и специализируется на разработке индивидуальных решений в области продвижения, мониторинга и анализа ресурса. За время существования компании был накоплен огромный опыт работы, результатом которого стало создание комплекса программного обеспечения и услуг Page Promoter.

Высокий профессиональный уровень наших сотрудников в сочетании с самыми передовыми технологиями позволяет гарантировать нашим клиентам полную отдачу вложенных средств, а также неизменное качество и эффективность предложенных услуг.

подробнее

Создание robots.txt

Главная / О программе / Помощь / Подготовка / Создание robots.txt

Протокол ограничения поисковых роботов (Robots Exclusion Protocol) - это метод, позволяющий администраторам веб-сайтов указывать поисковых роботам, посещающим сайт, какие части их сайтов индексировать нельзя. При заходе на ваш сайт поисковый робот загружает файл robots.txt, содержащий инструкции что можно и что нельзя индексировать. Это текстовый ASCII файл, лежащий в корневом каталоге сайта (например, если адрес вашего сайта http://www.yoursite.com/, то файл robots.txt должен находится по адресу http://www.yoursite.com/robots.txt, в любом другом каталоге робот его просто не увидит) и содержащий имена пользовательских агентов роботов и каталоги, которые упомянутым роботам запрещено индексировать. Причины для запрета могут быть разные - от административной части до приватных каталогов, содержащих ваши или клиентские документы, не предназначенные для просмотра посторонними. Также, проблемы может возникать у пользователей, у которых установлен Google Toolbar, который фиксирует страницы, которые вы посещаете и сообщает о них роботу Google. Так в рейтинге поисковой машины моут появлятся страницы, на которые не ссылается ни одна внешняя страница. Поэтому ключом к контролированию спайдеров является файл robots.txt. Если у вас большой веб-сайт или вы часто его обновляете, создавать и редактировать файл robots.txt будет тяжелым и скучным занятием. Модуль "Создание robots.txt" является удобным инструментом для создания файлов robots.txt

Проверка ссылок