исправлено Ошибки в robots.txt

Sprinx

Пользователь
Кстати, о robot.txt. Гоша иногда херню гонит то что страницы не доступны.
Поэтому лучше его сделать таким.
Код:
User-agent: *
Disallow: /download.php
Disallow: /groupcp.php
Disallow: /login.php
Disallow: /memberlist.php
Disallow: /modcp.php
Disallow: /posting.php
Disallow: /privmsg.php
Disallow: /profile.php
Disallow: /viewonline.php
 
Sitemap: http://torrentpier.com/sitemap.php
 

Exile

Администратор
Sprinx, директива Crawl-delay на самом деле неверно использовалась, ее убрал. Директива Host используется для Яндекса, чтобы указать какое доменное имя считать главным, если сайт доступен по нескольким (в нашем случае скорее из-за неверной настройки сервера, когда можно открыть трекер по вымышленному адресу blablabla.site.ru и т.п.), ее убирать не стоит. Clean-param также удалил, поскольку Яндекс немного некорректно обрабатывает эту директиву - в индекс страницы все равно попадают, но приводятся к одному sid, который раньше был выцеплен. Проблема ссылок с сессиями скоро будет не актуальна.

Спасибо за указания на недочеты. Исправленный robots.txt будет включен в следующую ревизию.
 
S

sockrat

Гость
а почему в файле robots.txt строчка
Код:
Sitemap: http://torrentpier.com/sitemap.php
которую нужно изменить под свой домен, а самого файла sitemap.php в движке нет
 
S

sockrat

Гость
Просто как то интересно, файл со времен начала тп2, а самой карты никогда и не было
 
Сверху