Помощь Двойной слеш после адреса сайта

Проверил на 10.0 при включенной опции "Обрабатывать неверные URL ЧПУ" открыть статическую страницу и новость добавив после основного домена ////, в результате страница также открылась с этими слешами. Видимо этот пункт не обрабатывает слеши! А вообще если на сайте не было ни шеллов ни вирусов - откуда тогда могли вообще взяться страницы с такими урлами? Лучше всего наверно добавить правило в robots.txt для решения проблемы, а также было бы не плохо написать платону с уточнением информации где они берут такие ссылки!!!
 
Не в роботс, а в хтаксесс на 301 редирект. Только я его не напишу сходу...

У меня как раз 9.7 и там есть контроль ссылок, но он не обрабатывает данную проблему.
Горбушка, у Вас нет рабочего сайта не DLE 10, чтобы проверить точно ли нет данной проблемы, чтобы зря не мучаться с обновлениями
Объявление в разделе прочитай и подумай, стоит ли 9.7 юзать...
 
Проверил на 10.0 при включенной опции "Обрабатывать неверные URL ЧПУ" открыть статическую страницу и новость добавив после основного домена ////, в результате страница также открылась с этими слешами. Видимо этот пункт не обрабатывает слеши! А вообще если на сайте не было ни шеллов ни вирусов - откуда тогда могли вообще взяться страницы с такими урлами? Лучше всего наверно добавить правило в robots.txt для решения проблемы, а также было бы не плохо написать платону с уточнением информации где они берут такие ссылки!!!
Как вариант кто то оставил неправильную внешнюю ссылку. Оттуда и потекло..
Объявление в разделе прочитай и подумай, стоит ли 9.7 юзать...
у меня там смесь 9.7 и 9.8 по безопасности стоят заплатки и также сканер, который на мыло шлет, если что изменилось или добавилось. Пока все спокойно.
На 10 версию конечно хочется обновиться, но беспокоит совместимость сторонних модулей(так как сами разработчики не отписались о совместимости), а время потестировать все пока что нет.
 
Пишу новый пост, чтобы тема обновилась и люди пришли помочь.

Нашел откуда растут ноги на эту проблему.

Как и обсуждалось прописал в robots.txt - Disallow: //*
Обновил все до 10 версии еще в середине августа.

Сегодня захожу в панель вебмастера Гугла и смотрю файл sitemap.xml и вижу, что висит куча предупреждений о том что ссылки из sitemap.xml запрещены к индексации в роботс.
Полез в сам sitemap.xml и все ссылки на посты имеют двойной слеш т.е. site.ru//3435-hews.html
На всех стоит dle 10 версии. Причем такая проблема не у одного сайта, а на всех, у которых включено чпу с категорией site.ru/category/3435-hews.html
т.e. ссылки имеют вид site.ru//3435-hews.html что почему то сама категория теряется должно быть site.ru/category/3435-hews.html

Сама карта делается по крону cron.php?cronmode=sitemap каждые 3 часа. Сам файл cron.php тоже переименован на свой.

Сайты находятся на разных хостингах. Пара на своем сервере и пара на бегет.ру и еще пара на другом аккаунте на бегет.ру

Думал с файлами что не так. Проверил файл cron.php с тем что у меня. Все одинаково, есдинственно стоит $allow_cron = 1;

Потом проверил файл engine\ajax\sitemap.php он также идентичен с тем что в дистрибутиве.

Если делать sitemap.xml из админки, то делает правильно. Если делать по крону, то через раз почему то, то правильно, то нет.

Кто что подскажет?
 
Назад
Сверху