SEO Joomla – сборка оптимизированной для поисковых роботов CMS Joomlа

Статус
В этой теме нельзя размещать новые ответы.
а со сборкой все? сайт лежит который день. забили на проект?

Не обращай внимания сайт seojoomla лежит периодически...
последний раз видел неделю назад .. обновлений нет...

У меня вопрос

1. Думал что в seojoomla всё правильно настроенно изначально включая robots.txt ... у меня google кучу ссылок проиндексировал типа поиска и пр. хлама...
Так типа лучше или нада исправлять..??

2. На сколько действенн и необходим созданый sitemap если включен режим ссылок ЧПУ и сайт выглядит как html..

Просто всё вроде и так прекрасно индексируется...
 
а со сборкой все? сайт лежит который день. забили на проект?

Сайт не лежит, - работает как часы, по 10-20 скачиваний в день... (хотя будет обидно елси этот украинский хостер видят толкьо на Украине) Были недавна пара дней проблемы у хостера (""дос атака"")... - у всех бывает ))... Может у вас с интернетом проблемы или с проавайдером? Сегодня например добавлен модифицированный компонент для создания RSS потоков на сайте в стандартах RSS 2.0, Yandex.ru и Meta.ua, что необходимо для продвижения сайта с помощью подписчиков на новости и в поисковиках.


ТАк же кому интересно - новая статья о оптимизации. Сам сайт сейчас на первых страницах поиска по "joomla" путем минимальных усилий, что доказывает смысл создания этой сборки еще сточки зрения СЕО... это у меня не первый пример такого рода, то етсь в итоге коктейль получился правильный :)...

Последнюю версию 1.5.3 у меня пока не поднимаются руки делать, так как что касается СЕО ее - есть там некоторые шершавые моменты, которые мне не нравятся, я сборку выкладывать стараюсь только после того как опробовал ее на паре сайтво и посмотрел ан проблемы.

Если етсь какие-то предложения - то пишите, предлагайте. Все что касается СЕО и явно всем пригодится в сборке...

Насчет карты сайта - она нужна для ускорения индексации, чтобы поисковик не тратил лишний раз время на поиск ссылок на страницы, все равно - ШТМЛ или НЕШТМЛ (честно говоря не понял вобще каким образом сайт с НТМЛ страницами исключает полезность создания карты сайта :nezn:).

Файл robots.txt - настроен по умолчанию стандартно и если вы хотите чтото исключить еще - то это уже вопросы администратора сайта, как кому больше нравится...
 
Может у вас с интернетом проблемы или с проавайдером?
нет, инет стабильнее некуда :)
сегодня после обеда все открывается. может был какой-то косяк.
Последнюю версию 1.5.3 у меня пока не поднимаются руки делать, так как что касается СЕО ее - есть там некоторые шершавые моменты, которые мне не нравятся, я сборку выкладывать стараюсь только после того как опробовал ее на паре сайтво и посмотрел ан проблемы.
я юзаю джумлу с самых ранних версий, как только она выехала из мамбы и версию 1.5 до сих пор не берусь юзать, после тестирования :) что там у нее с СЕО я не в курсе, но в остальном она явно не дружественна людям :)
 
друзья, а вот еще что хотел узнать - в данной сборке есть какое-то решение для исключения деблирования страниц? т.е. когда один материал поисковикам отдается, как разный контент из разных рубрик, например? один раз из блога, другой из новостей?
 
b2farm разве поисковик такой дурак и типа не опознает что с одного домена идёт один и тотже текст..??

Ответ нет ... вроде ничего подобного не нашёл...
 
b2farm разве поисковик такой дурак и типа не опознает что с одного домена идёт один и тотже текст..??

Ответ нет ... вроде ничего подобного не нашёл...

либо вы не поняли меня, либо просто невнимательно прочли. как раз поисковик "такой дурак" (конкретно яндекс), что частенько кушает в стандартной сборке некоторые категории блога, например, но с разными параметрами, по несколько раз. а по сути это одна страница.
 
друзья, а вот еще что хотел узнать - в данной сборке есть какое-то решение для исключения деблирования страниц? т.е. когда один материал поисковикам отдается, как разный контент из разных рубрик, например? один раз из блога, другой из новостей?

либо вы не поняли меня, либо просто невнимательно прочли. как раз поисковик "такой дурак" (конкретно яндекс), что частенько кушает в стандартной сборке некоторые категории блога, например, но с разными параметрами, по несколько раз. а по сути это одна страница.

Дядьк, в наборе постов тебя обвинять вроде бы уже поздно.. )
Так неужели ты столь ленив?!
Ведь для получения ответа нужно всего лишь прочитать первую страницу топика и посмотреть в админку сабжа...
Первую (и последующие) страницу найдещь сам, админка - ниже...

Для просмотра ссылки Войди или Зарегистрируйся

Добавлено через 2 минуты
b2farm разве поисковик такой дурак и типа не опознает что с одного домена идёт один и тотже текст..??
Увы и ах..
На языке поисковикофф это явление имеет название "дублированный контент"..
и ничего хорошего не сулит..


Думаю, будет полезным... )
 
когда делаю проекты на джумле, то просто ставлю хак для титла и меты - это всё что нужно для сео.
хак можно скачать на обоих форумах поддержки джумлы в разделах сео и оптимизация
 
когда делаю проекты на джумле, то просто ставлю хак для титла и меты - это всё что нужно для сео.
хак можно скачать на обоих форумах поддержки джумлы в разделах сео и оптимизация

Проблему "дублированного контента" эти хаки не решают..
Это тоже широко обсуждалось на "обоих форумах поддержки джумлы в разделах сео и оптимизация"..
И выход один - применение SEF-компонентов.
 
"дублирование страниц" это гемор разраба сайта.
Во первых какого фига разные разделы выводят одни и те же статьи, во вторых ибо НЕХ.

Когда разраб продумывает струкуру сайта он должен учитывать все варианты в том числе и чтение поисковиками, в итоге будет качественная работа а не ****.

Товарисчь с одним мета тег эдитором, я бы те за работу не платил ;) толку от такого сайта если руками все вбивать раз и СЕФ там лажовый стандартный, нельзя не использовать всего что дает нам Джумла, это грех :)

ИМХО автогенераторы мета тегов это будущее и неотъемлемая часть нормального сайтега :-]
 
Статус
В этой теме нельзя размещать новые ответы.
Назад
Сверху