PROSEO
Постоялец
- Регистрация
- 28 Фев 2008
- Сообщения
- 360
- Реакции
- 134
- Автор темы
- #1
Садовский ответил на вопросы оптимизаторов Optimization-2009
Вопрос про апдейты. Если ранее они были регулярны, то сейчас база перерассчитывается по-другому. Будет с введением Снежинска какая-то большая регулярность.
Снежинск никак не повлиял на робота. Это была работа с поисковыми программами. РОботная часть абсолютно отдельна от поисковых программ.
То есть эти интервалы между апдейтами никак не связаны со Снежинском?
Нет.
В Снежинске есть явные баги по географии.
Надо отличать баги и ошибки классификатора, так как это разные вещи. Классификаторов, у которых точность была бы 100%-ной на миллионах сайтов, не существует. Если точность будет 99%, то на миллионы сайтов будет тысяча ошибок. И невозможно побороть эти ошибки в принципе. Мы повышаем точность классификатора, чтобы процент этих ошибок был меньше, но они будут всегда.
Вопрос про смену алгоритмов. Вы идёте по пути «уточняя-уточняя-уточняя» или «от стенки к стенке». То есть в Магадане и Находке было одно, в Снежинске иное; в Арзамасе сайт был везде в десятке, в Снежинске за топ-100. Там была ошибка или вы поменяли своё понимание о хорошей выдаче?
Человек, который меняет своё понимание кардинально раз в месяц называется шизофреником
Значит это проблема самого сайта, раз он был сначала в десятке, а затем в двадцатке?
Нет кардинального переворота. Есть особенность поисковых систем, что Яндекса, что других, когда поисковая система настраивается и улучшает качество поиска прежде всего по той части, по которой ходят пользователи. Пользователи дальше второй третьей страницы не ходят никогда. Все замеры по улучшению качества делаются в районе первой двадцатки-тридцатки. Соответственно, если ваш сайт сместился с десятого на двадцатое место, с точки зрения поисковой системы, он стал хуже, либо появились другие сайты, которые лучше. Сместился с тридцатого на тысяча восьмое – ничего не значит. Колебания за пределами первой двадцатки-тридцатки – можете не рассматривать, как изменение отношения к сайту.
Ту политику, которую ведёт Яндекс, можно назвать улучшением поиска или борьбой с оптимизаторами?
Мы вообще не боремся с оптимизаторами.
Покупные ссылки – плохо, но по большому счёту все они покупные. Все прекрасно понимают, что это плохо, но иного выхода у многих нет. Можно ли представить чисто теоретически идеальный сайт в вакууме, который имеет полностью уникальный контент, грамотный и адекватный, всё что надо – открыто, где не надо – закрыто. Этот сайт имеет относительно малое количество внешних ссылок или не имеет их вовсе. И представим другие сайты, которые имеют достаточный ссылочный массив из seo-ссылок. В таком случае приоритет будет отдан кому? И возможно ли такое, что чисто внутренними факторами можно добиться существенной позиции в SERP, нежели наращивать бесконечную и бездумную ссылочную массу?
Много раз произносилось, что у нас несколько сотен факторов, и если их отсортировать по убыванию по степени влияния, то в топе ссылочных факторов немного, их единицы. Соответственно, другие факторы, если они будут достаточно сильно выражены у этого сайта, они легко могут перекрыть ссылочные факторы. Но оптимизаторы в своей массе не умеют влиять на другие факторы. И это хорошо
А то, что для гостиниц и ряда других сайтов можно добавлять разнообразную информацию, например про количество звёзд, что в последствии показывается в сниппете, это какое-то участие в ранжировании принимать будет?
Может быть. Мы ещё не решили.
Но такое возможно?
Возможно.
Планируете ли разбивать выдачу отдельно на коммерческие и отдельно на транзакционные запросы? Чтобы в десятке преобладали не определённые сайты, а сайты всех типов (и коммерческие, и информационные, и видео и т.д.), то есть планировать выдачу.
Да, это интересное направление. Оно невозможно по всем классам запросов, но по некоторым широким классам запросам это одно из возможных решений. Может быть, мы к этому придём.
Какое максимальное количество объявлений будет в спецразмещении Директа?
По моим ощущениям, больше трёх не будет. Даже три объявления для ряда запросов мы считаем много. Для разных запросов – разное количество объявлений в спецразмещении. Там, где спецразмещение является только рекламой, объявлений должно быть как можно меньше.
Есть мнение, что главные страницы в поиске ранжируются лучше, чем внутренние. Это имеет место быть или нет?
Кроме, собственно, факторов есть классификаторы запросов. По одним запросам это может быть так, а по другим – не так. То есть каждый классификатор разбивает множество запросов на одну или несколько групп. Бывает, классификатор учитывается как фактор, бывает отдельная формула, например, региональный классификатор в начале определяет регион пользователя, дальше идёт отдельная формула.
По поводу классификаторов. Тематический классификатор в списке ваших классификаторов имеется?
Естественно.
Порядок категорий в этом классификаторе какой?
Количественный.
Если можно, точное количество?
Как в Яндекс.Каталоге, около 700 или 900.
Если взять общее количество ссылочной массы по рунету, какой примерно процент составляют seo-ссылки, а какой обычные «естественные» ссылки?
Обычных – меньше.
Почему Википедия занимает такие высокие позиции в результатах поиска?
Хороший сайт. Если вопрос явно коммерческий, и Википедия высоко, то это не правильно, и мы с этим будем бороться.
Учитывается ли старость документа при ранжировании?
Старость документа для работы с дубликатами, по-моему, учитывается, для ранжирования – не помню.
C чем связана отмена фильтра «Ты последний»?
Кто сказал, что он существует? Если сайт очень плохой, но при этом может быть кому-то полезен хотя бы на последнем месте, то в этом смысле никаких отмен не было.
В рамках недавно прошедшей конференции Optimization-2009 с докладом “Хороший веб-поиск для вебмастеров” выступил Александр Садовский, руководитель отдела веб-поиска компании «Яндекс». Вне доклада Александр ответил на насущные вопросы оптимизаторов, прессы, представителей крупных интернет-магазинов о поиске, факторах ранжирования, объявлениях в поисковой выдаче Для просмотра ссылки Войдиили Зарегистрируйся
Вопрос про апдейты. Если ранее они были регулярны, то сейчас база перерассчитывается по-другому. Будет с введением Снежинска какая-то большая регулярность.
Снежинск никак не повлиял на робота. Это была работа с поисковыми программами. РОботная часть абсолютно отдельна от поисковых программ.
То есть эти интервалы между апдейтами никак не связаны со Снежинском?
Нет.
В Снежинске есть явные баги по географии.
Надо отличать баги и ошибки классификатора, так как это разные вещи. Классификаторов, у которых точность была бы 100%-ной на миллионах сайтов, не существует. Если точность будет 99%, то на миллионы сайтов будет тысяча ошибок. И невозможно побороть эти ошибки в принципе. Мы повышаем точность классификатора, чтобы процент этих ошибок был меньше, но они будут всегда.
Вопрос про смену алгоритмов. Вы идёте по пути «уточняя-уточняя-уточняя» или «от стенки к стенке». То есть в Магадане и Находке было одно, в Снежинске иное; в Арзамасе сайт был везде в десятке, в Снежинске за топ-100. Там была ошибка или вы поменяли своё понимание о хорошей выдаче?
Человек, который меняет своё понимание кардинально раз в месяц называется шизофреником
Значит это проблема самого сайта, раз он был сначала в десятке, а затем в двадцатке?
Нет кардинального переворота. Есть особенность поисковых систем, что Яндекса, что других, когда поисковая система настраивается и улучшает качество поиска прежде всего по той части, по которой ходят пользователи. Пользователи дальше второй третьей страницы не ходят никогда. Все замеры по улучшению качества делаются в районе первой двадцатки-тридцатки. Соответственно, если ваш сайт сместился с десятого на двадцатое место, с точки зрения поисковой системы, он стал хуже, либо появились другие сайты, которые лучше. Сместился с тридцатого на тысяча восьмое – ничего не значит. Колебания за пределами первой двадцатки-тридцатки – можете не рассматривать, как изменение отношения к сайту.
Ту политику, которую ведёт Яндекс, можно назвать улучшением поиска или борьбой с оптимизаторами?
Мы вообще не боремся с оптимизаторами.
Покупные ссылки – плохо, но по большому счёту все они покупные. Все прекрасно понимают, что это плохо, но иного выхода у многих нет. Можно ли представить чисто теоретически идеальный сайт в вакууме, который имеет полностью уникальный контент, грамотный и адекватный, всё что надо – открыто, где не надо – закрыто. Этот сайт имеет относительно малое количество внешних ссылок или не имеет их вовсе. И представим другие сайты, которые имеют достаточный ссылочный массив из seo-ссылок. В таком случае приоритет будет отдан кому? И возможно ли такое, что чисто внутренними факторами можно добиться существенной позиции в SERP, нежели наращивать бесконечную и бездумную ссылочную массу?
Много раз произносилось, что у нас несколько сотен факторов, и если их отсортировать по убыванию по степени влияния, то в топе ссылочных факторов немного, их единицы. Соответственно, другие факторы, если они будут достаточно сильно выражены у этого сайта, они легко могут перекрыть ссылочные факторы. Но оптимизаторы в своей массе не умеют влиять на другие факторы. И это хорошо
А то, что для гостиниц и ряда других сайтов можно добавлять разнообразную информацию, например про количество звёзд, что в последствии показывается в сниппете, это какое-то участие в ранжировании принимать будет?
Может быть. Мы ещё не решили.
Но такое возможно?
Возможно.
Планируете ли разбивать выдачу отдельно на коммерческие и отдельно на транзакционные запросы? Чтобы в десятке преобладали не определённые сайты, а сайты всех типов (и коммерческие, и информационные, и видео и т.д.), то есть планировать выдачу.
Да, это интересное направление. Оно невозможно по всем классам запросов, но по некоторым широким классам запросам это одно из возможных решений. Может быть, мы к этому придём.
Какое максимальное количество объявлений будет в спецразмещении Директа?
По моим ощущениям, больше трёх не будет. Даже три объявления для ряда запросов мы считаем много. Для разных запросов – разное количество объявлений в спецразмещении. Там, где спецразмещение является только рекламой, объявлений должно быть как можно меньше.
Есть мнение, что главные страницы в поиске ранжируются лучше, чем внутренние. Это имеет место быть или нет?
Кроме, собственно, факторов есть классификаторы запросов. По одним запросам это может быть так, а по другим – не так. То есть каждый классификатор разбивает множество запросов на одну или несколько групп. Бывает, классификатор учитывается как фактор, бывает отдельная формула, например, региональный классификатор в начале определяет регион пользователя, дальше идёт отдельная формула.
По поводу классификаторов. Тематический классификатор в списке ваших классификаторов имеется?
Естественно.
Порядок категорий в этом классификаторе какой?
Количественный.
Если можно, точное количество?
Как в Яндекс.Каталоге, около 700 или 900.
Если взять общее количество ссылочной массы по рунету, какой примерно процент составляют seo-ссылки, а какой обычные «естественные» ссылки?
Обычных – меньше.
Почему Википедия занимает такие высокие позиции в результатах поиска?
Хороший сайт. Если вопрос явно коммерческий, и Википедия высоко, то это не правильно, и мы с этим будем бороться.
Учитывается ли старость документа при ранжировании?
Старость документа для работы с дубликатами, по-моему, учитывается, для ранжирования – не помню.
C чем связана отмена фильтра «Ты последний»?
Кто сказал, что он существует? Если сайт очень плохой, но при этом может быть кому-то полезен хотя бы на последнем месте, то в этом смысле никаких отмен не было.