Дубли страниц

Статус
В этой теме нельзя размещать новые ответы.

zelez2006

Постоялец
Регистрация
25 Июн 2009
Сообщения
65
Реакции
15
Обнаружил для себя неприятную вещь. Netcat создает дубли страниц, пример:
Для просмотра ссылки Войди или Зарегистрируйся
и
Для просмотра ссылки Войди или Зарегистрируйся

как можно избавиться от них?

мой программист говорит:"есть только идея залезть в исходник browse_messages и переделать вывод самой первой страницы"
 
Зачем так жестоко парится?
Просто запрети индексацию этих страниц в robots.txt
 
Зачем так жестоко парится?
Просто запрети индексацию этих страниц в robots.txt
как вы себе это представляете?! 2000 страниц в robots пихать?! и при создании каждой новой опять лезть в robots... Не, я не мазохист!!!
 
как вы себе это представляете?! 2000 страниц в robots пихать?! и при создании каждой новой опять лезть в robots... Не, я не мазохист!!!
Вероятно имелось ввиду использования регулярок в .htaccess для родных ссылок netcat.
 
как вы себе это представляете?! 2000 страниц в robots пихать?! и при создании каждой новой опять лезть в robots... Не, я не мазохист!!!

А ссылку я ведь не случайно дал.
Всего-то почитать и подумать оставалось, а не возмущаться.
Затем добавить в роботс:
Disallow: /*?cur_cc=*&curPos=*
и забыть о проблемах.
 
Наверное все-таки вот так нужно писать
Disallow: /*?cur_cc=*&curPos=0
а то все страницы модуля закрыты будут от индексации, а надо только первую!
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху