Нюансы с 301ым редиректом

fairbug

Гуру форума
Регистрация
1 Май 2013
Сообщения
219
Реакции
85
всем доброго,
был сайт с урлами вида:
мой_сайт/view/966, сделали урлы вида:
мой_сайт/view/bla-bla-bla.html. При запросе первого варианта, сервер отдаёт 301 Moved Permanently с правильным адресом. Косяк в том что в кабинете вебмастера начали появляться дубли, кто сталкивался с подобным и как с этим бороться?
 
В роботс.тхт - закройте от индексации старые урлы, к примеру:
Disallow: /view/*
Allow: /view/*.html
 
В роботс.тхт - закройте от индексации старые урлы, к примеру:
Disallow: /view/*
Allow: /view/*.html
Он не все страницы ещё "съел", будет наверное косяк с отвалом страниц уже занимающих хорошие позиции, так как они будут отныне не доступны...
 
Изначально нужно дождаться индексации новых страниц, а вот уже после редирект прописывать. Сейчас точно не помню, но на мой взгляд лучше через htaccess сделать.
 
Он не все страницы ещё "съел", будет наверное косяк с отвалом страниц уже занимающих хорошие позиции, так как они будут отныне не доступны...
Это не важно. 301 редирект и роботс.тхт запрет на индексацию старых. Можно ещё ссылки на сохранённые копии, твиттером прогнать, чтобы переиндексировались быстрее.
Изначально нужно дождаться индексации новых страниц
вот тогда дублей точно не оберёшься и проблем с индексацие тоже, так как с какой стати будут индексир новые вместо старых, если содержание одинаково.
 
Я в такой ситуации просто жду.
Гугл кушает новые, а старые потом убирает.
Любые движения только помешают ему понять редирект.
Вообще странно, что он дубль показывает.
Обычно все хорошо проходит.
 
да, мы в итоге так же поступили и не прогадали, постепенно дубли уходят
 
До того как старые страницы не переклеились на новые, закрывать их в роботс не нужно, иначе гугл не оставит их в индексе с пометкой "Описание этого результата недоступно. Причина – файл robots.txt этого сайта"!
Если начинают лезть новые дубли - это скорее всего баг движка, который отдает 200 ОК, вместо 404 для страниц, которых не существует. В первую очередь надо поправить это. Возьмите дубль страницы, которая вылезла и проверьте ответ сервера, например Для просмотра ссылки Войди или Зарегистрируйся. Пока "левые" страницы не будут отдавать 404, будут дубли.

И еще - быстрее работает редирект через meta, чем через htaccess - проверено на практике.
 
Последнее редактирование модератором:
Для просмотра ссылки Войди или Зарегистрируйся, да уже всё проверили ещё в первые дни, сейчас только наблюдаем как старые уходят потихоньку, правильный ответ был: если движок отдаёт правильный код старой страницы браузеру, в нашем случае это редирект 301, то не надо дёргаться, после переиндексации всё наладится, у нас просто довольно много страниц в гугле проиндексировано (порядка 300к) поэтому медленно происходит.
 
Назад
Сверху