Добрых суток!

Вы в этой ветке говорили про покупку XML-лимитов. Не муторное ли это дело? Может проще пойти и купить доступ в XMLRiver. Там от 10 до 20 руб. за 1000 позиций.

Работает, кстати, пулей, если в несколько потоков поставить в Key Collector.

Вот, буквально за 2 часа собрал SERP выдачу по Google и Яндекс на 30 000 запросов.
 
И еще вопрос есть по переспаму.
Вот, изучаю один сайт, в нем есть интересный фильтр.

https://pkf-m.ru/list-stalnoj/

Слева находятся фильтры выбора по ширине, ГОСТу и т.п. При нажатии на некоторые из пунктов фильтра генерируется прям новая страница, с каким-то хитрым JS-фильром, что перезагрузки не видно. Кстати, не подскажете, что за фильтр?
Но это происходит не всегда.

Мне просто интересно, граждане не сильно боятся, что у них будет куча однотипных страниц-каталогов, в выдаче Яндекса они очень хорошо себя чувствуют.

Стоит ли так поступать? Или просто какие-то страницы уйдут в НКС и можно не беспокоиться?
 
Добрых суток!

Вы в этой ветке говорили про покупку XML-лимитов. Не муторное ли это дело? Может проще пойти и купить доступ в XMLRiver. Там от 10 до 20 руб. за 1000 позиций.
Вечер добрый, я говорил про использование сервиса xmlproxy от 5 руб. за 1000 запросов, River дороже и собственно ничем не лучше
И еще вопрос есть по переспаму.
Вот, изучаю один сайт, в нем есть интересный фильтр.

https://pkf-m.ru/list-stalnoj/

Слева находятся фильтры выбора по ширине, ГОСТу и т.п. При нажатии на некоторые из пунктов фильтра генерируется прям новая страница, с каким-то хитрым JS-фильром, что перезагрузки не видно. Кстати, не подскажете, что за фильтр?
Но это происходит не всегда.

Мне просто интересно, граждане не сильно боятся, что у них будет куча однотипных страниц-каталогов, в выдаче Яндекса они очень хорошо себя чувствуют.

Стоит ли так поступать? Или просто какие-то страницы уйдут в НКС и можно не беспокоиться?

В данном случае используются 2 модуля для CMS ModX -> mSearch2 и SeoFilter

1633807506502.png
Желтая зона - > чистый SEO фильтр на js с подгрузкой результата без перезагрузки страницы, не влияет на структуру сайта
Синяя зона -> обычные ссылки по сути своей теговая плитка расширяющая вложенность категории, ведут на теговые страницы доступные для индексации

Таким образом используется "гибридный" SEO фильтр, где по наиболее значимым параметрам фильтрации формируются ссылки на теговые страницы(доступные для индексации), а по остальным параметрам идет фильтрации результатов без перезагрузки страницы. В результате никакой мега-генерации дублирующих страниц не происходит т.к. страницы, которые генерит фильтр в отличии от теговых страниц закрыты от индексации как через директиву robots.txt, так и за счет склеивания через canonical.

Достаточно распространенный вариант реализации, весьма эффективный при грамотном применении
 
Последнее редактирование:
Желтая зона - > чистый SEO фильтр на js с подгрузкой результата без перезагрузки страницы, не влияет на структуру сайта
Синяя зона -> обычные ссылки по сути своей теговая плитка расширяющая вложенность категории, ведут на теговые страницы доступные для индексации

О, да! Я увидел, что если кликать на бокс, то страница не перегружается, а если на фразу, то перегружается.

В результате никакой мега-генерации дублирующих страниц не происходит т.к. страницы, которые генерит фильтр в отличии от теговых страниц закрыты от индексации как через директиву robots.txt, так и за счет склеивания через canonical

Вот тут не совсем понятно. Я просмотрел несколько страниц, и вижу, что они каждую карточку товара отдали на индексацию (закрыли в robots.txt только ГОСТы и по clean-param - все фильтры в урлах после - ? ). Но как они смогли в индекс запихать такое огромное количество карточек товаров?

Вот просто подряд начал смотреть страницы:

https://pkf-m.ru/list-xolodnokatanyij/list-xolodnokatanyij-0-5-mm-08yu-1250x2500/
https://pkf-m.ru/list-stalnoj/list-xolodnokatanyij/list-xolodnokatanyij-0-5-mm-30xgsa/
https://pkf-m.ru/list-stalnoj/list-xolodnokatanyij/list-xolodnokatanyij-0-5-mm-st08/
https://pkf-m.ru/list-stalnoj/list-xolodnokatanyij/list-xolodnokatanyij-0-5-mm-st1-3/

В текстах карточек от силы меняется ширина и марка стали.
Тайтлы и дескрипшены - то же самое.
И не попали под НКС.

Хм... Очень странно...
Уникализация мизерная.
 
О, да! Я увидел, что если кликать на бокс, то страница не перегружается, а если на фразу, то перегружается.



Вот тут не совсем понятно. Я просмотрел несколько страниц, и вижу, что они каждую карточку товара отдали на индексацию (закрыли в robots.txt только ГОСТы и по clean-param - все фильтры в урлах после - ? ). Но как они смогли в индекс запихать такое огромное количество карточек товаров?

Вот просто подряд начал смотреть страницы:

https://pkf-m.ru/list-xolodnokatanyij/list-xolodnokatanyij-0-5-mm-08yu-1250x2500/
https://pkf-m.ru/list-stalnoj/list-xolodnokatanyij/list-xolodnokatanyij-0-5-mm-30xgsa/
https://pkf-m.ru/list-stalnoj/list-xolodnokatanyij/list-xolodnokatanyij-0-5-mm-st08/
https://pkf-m.ru/list-stalnoj/list-xolodnokatanyij/list-xolodnokatanyij-0-5-mm-st1-3/

В текстах карточек от силы меняется ширина и марка стали.
Тайтлы и дескрипшены - то же самое.
И не попали под НКС.

Хм... Очень странно...
Уникализация мизерная.
Ничего странного, ещё раз повторюсь, не нужно дословно воспринимать догмы от инфо-цыган, которые говорят "НКС, НКС, НКС! Уникализируйте все страницы внутри сайта".

Для определение оптимальной стратегии оптимизатор должен анализировать выдачу ПС, определять наиболее репрезентативные выборки и на их основе выдвигать гипотезы, которые будут тестироваться в рамках сайта.
В данном случае вы смотрите на карточки товаров и думаете, что по ним должна быть мега-уникализация в рамках сайта, а её нет и "О ужас!" страницы вполне себе нормально индексируются, а сайт прекрасно ранжируется по основному пулу запросов.
Если вы сравните уникальность карточек товаров в популярных нишах, то обнаружите тоже самое -> низкую уникальность в рамках сайта

1634219524171.png


Вывод очень простой, не нужно считать, что показатель "уникальность страниц в рамках сайта" должен быть единым для всех типов страниц (категорий, товарных карточек, статей).

Анализируйте выдачу и да прибудет с вами ТОП)
 
Вывод очень простой, не нужно считать, что показатель "уникальность страниц в рамках сайта" должен быть единым для всех типов страниц (категорий, товарных карточек, статей).

Вот про это на всех углах трындят! Я даже посмотрел, что тот же Ожгибесов предлагает платные консультации по уникализации карточек товаров. Я уж молчу про Маркина.

Вообще, закралась мысль, что уникализируют карточки каким-то скрытым контентом, либо всяким циферными-буквенными артикулами, в том числе и скрытыми.

Но еще такой момент, если допустим у того же сайта Эльдорадо нет в статистике запросов типа "Микроволновая печь Galanz MOG-2007M", т.е. по статистике Wordstat этот запрос не бьется, это не означает, что эту страницу Яндекс выкинет в НКС?

И по каким вообще критериям Яндекс запихивает в НКС и Google в "Просканирована, но не проиндексирована"?
 
Но еще такой момент, если допустим у того же сайта Эльдорадо нет в статистике запросов типа "Микроволновая печь Galanz MOG-2007M", т.е. по статистике Wordstat этот запрос не бьется, это не означает, что эту страницу Яндекс выкинет в НКС?
Не выкинет ведь кроме данного запроса есть ещё множество связанных запросов по которым данная страница может хорошо ранжироваться. Не забывайте, что мы в работе с семантикой смотрим на выгрузки из keys.so, мегаиндекса, букварикса, да хоть с Вордстат, но полная картина, включающая редкие сверх низкочастотные запросы(сНЧ), доступно только самой ПС
И по каким вообще критериям Яндекс запихивает в НКС и Google в "Просканирована, но не проиндексирована"?
Тут нужно разделять т.к. механизмы у НКС и "Просканирована, но не проиндексирована" разные.
В случае с НКС Яндекс позиция озвученная на одной из конференций звучит примерно так "мы добавляем в НКС страницы, которые по расчету алгоритмов не имеют шанса быть показанными в области видимости т.е. не имеют шанса получить реальные переходы" т.е. упор на качество страницы, хотя и общее качество сайта играет роль.
По "Просканирована, но не проиндексирована" Google ответ следующий:
«Вы не можете форсировать индексацию страниц – это нормально, что мы не индексируем все страницы на всех сайтах. Это не проблема определенной страницы, это больше касается сайта в целом. Создание хорошей структуры сайта и обеспечение максимально возможного качества – это основное направление для работы в данном случае»
 
Ну, по сути, обе ПС требуют качества.
А может влиять на эти страницы еще и трафик?
Допустим есть два интернет-магазина, схожие по количеству товаров. Эльдорадо, у которого огромный трафик и сайт, допустим, который всего год светится в поиске и у него небольшой трафик.
Так вот, переходов на эти карточки товара у Эльдорады значительно больше, чем у молодого сайта, поэтому страницы молодого сайта не имеют шансов попасть в индекс?
 
А еще вот такой вопрос, есть ниши, где сидят сайты, с как бы правильно сказать, с совсем устаревшим дизайном, навигацией, но сайты достаточно старые. Стоит ли в таком случае применять "новинки", те же плитки тегов, сквозные блоки, фасетный поиск, фильтры как на современных сайтах?
Или все-таки лучше ориентироваться на выдачу?
 
Ну, по сути, обе ПС требуют качества.
А может влиять на эти страницы еще и трафик?
Допустим есть два интернет-магазина, схожие по количеству товаров. Эльдорадо, у которого огромный трафик и сайт, допустим, который всего год светится в поиске и у него небольшой трафик.
Так вот, переходов на эти карточки товара у Эльдорады значительно больше, чем у молодого сайта, поэтому страницы молодого сайта не имеют шансов попасть в индекс?
Да, безусловно, это один из факторов общего качества сайта.
Правильнее сформулировать так:
Страницы сайтов с высокой посещаемостью имеют меньшую вероятность улететь в НКС в сравнении с сайтами без трафика

А еще вот такой вопрос, есть ниши, где сидят сайты, с как бы правильно сказать, с совсем устаревшим дизайном, навигацией, но сайты достаточно старые. Стоит ли в таком случае применять "новинки", те же плитки тегов, сквозные блоки, фасетный поиск, фильтры как на современных сайтах?
Или все-таки лучше ориентироваться на выдачу?
Лучше ориентироваться на выдачу, выявлять молодые сайты в ТОП и брать их схемы за основу. При этом молодой сайт не должен быть "однодневкой" т.е. проверяем, чтобы он был в ТОП несколько месяцев уже. Особенно важно это для Яндекс с учетом рандомизации выдачи
 
Лучше ориентироваться на выдачу, выявлять молодые сайты в ТОП и брать их схемы за основу. При этом молодой сайт не должен быть "однодневкой" т.е. проверяем, чтобы он был в ТОП несколько месяцев уже. Особенно важно это для Яндекс с учетом рандомизации выдачи

А может еще лучше проверять молодой сайт на рост в выдаче? В том же мегаиндексе?
А то сайт может уже год в выдаче, но падает.
 
А может еще лучше проверять молодой сайт на рост в выдаче? В том же мегаиндексе?
А то сайт может уже год в выдаче, но падает.
Нет, тут как раз избыточно лишние проверки делать... растет, падает. Вы же чекаете ТОП по основному пулу запросов. Если молодой сайт там присутствует, то он подходит для анализа

А молодость сайта проверять по вебархиву? Не по возрасту домена?
Илм может еще какой инструмент есть?
Да, лучше по вебархиву, доверять возрасту домена не стоит
 
А еще вот такой вопрос.
Как лучше всего формировать URL, допустим для карточек товаров и каталогов?
Бывают тематики, где, например, прям невозможно отследить какую-то тенденцию. В топ-10 попадают и длинные урлы и короткие, и с большим уровнем вложенности.
Может есть какая-то всеобщая тенденция?
 
А Вы отслеживаете тренды?
Например в интернет-магазинах?
Есть на кого стоит ориентироваться, типа быстрорастущих?
 
Попробую еще раз спросить, но похоже, короткие гудки на линии.

Сегодня посмотрел еще один текстовый анализатор, на этот раз - https://rush-analytics.ru/
Там дают бесплатно 200 кредитов.

Меня удивило ТЗ, которое там можно составить, оно настолько разжевано для копирайтера.
Не сможете оценить?

Жаль, что для анализа допускается только 10 ключевиков.
 
А еще вот такой вопрос.
Как лучше всего формировать URL, допустим для карточек товаров и каталогов?
Бывают тематики, где, например, прям невозможно отследить какую-то тенденцию. В топ-10 попадают и длинные урлы и короткие, и с большим уровнем вложенности. Может есть какая-то всеобщая тенденция?
Вы правильно заметили, что в ТОП можно встретить сайты с разными шаблонами построения URL.
Очевидный вывод из данного наблюдения -> структура url напрямую не влияет на ранжирование

Из общих рекомендаций/тенденций
  • если у вас структура каталога подразумевает длинную цепочку вложенности, то не стоит делать её вида
    /catalog/razdel/podrazdel/podrazdel-porazdela/podrazdel-podrazdela-podrazdela/tovar/
  • создавайте отдельный раздел для товарных карточек, стройте короткие ЧПУ вида /product/balalayka-derevenskaya/

Пусть это и не повлияет напрямую на ранжирование, но сделает url-овую структуру логичной и позволит избежать проблем с дублированием карточек товаров

А Вы отслеживаете тренды? Например в интернет-магазинах?
Есть на кого стоит ориентироваться, типа быстрорастущих?
Анализирую конкурентов по тем нишам, где работаю, где есть свои проекты. Во многих нишах есть интересные конкуренты, с которыми любопытно бодаться за ТОП и не зазорно поучиться прикольным внедрениям. Брать же для анализа OZON и Wildberries основываясь на их динамике абсурдно т.к. подобные проекты находятся в ТОП не за счет качественной SEO оптимизации

Сегодня посмотрел еще один текстовый анализатор, на этот раз - rush-analytics.ru
Меня удивило ТЗ, которое там можно составить, оно настолько разжевано для копирайтера.
Не сможете оценить?
Посмотрел, красиво расписанный шаблон ТЗ, но к сожалению за ним нет реальной аналитики т.е. тексты на основе такого ТЗ не принесут вам пользы. Объясню почему...

ТЗ для копирайтера в данной парадигме - это результат текстового анализа либо в вакууме (без существующего проекта), либо на основе сравнения ТОП SERP с существующей страницей вашего сайта

Что должен сравнивать текстовый анализатор?
Наиболее частотные(значимые) слова, фразы, которые содержатся в теле страниц конкурентов из ТОП по заданным запросам
Что сравнивает текстовый анализатор Раш Аналитик?
Только слова, которые содержатся в списке поданных на вход запросов. Сравнение по всем остальным словам, которые присутствуют на страницах конкурентов и важны для успешного продвижения заданного запроса в ТОП, в Раш не проводится

1637102284399.png
Сравнение результата работы платного текстового анализатора Раш-аналитикс и бесплатного текстового анализатора Мегаиндекс по одному запросу

Вывод по текстовому анализатору Раш
Бессмысленный огрызок, сделанный для галочки, а не для реальной помощи оптимизаторам

Всем Топа)
 
Только слова, которые содержатся в списке поданных на вход запросов. Сравнение по всем остальным словам, которые присутствуют на страницах конкурентов и важны для успешного продвижения заданного запроса в ТОП, в Раш не проводится

Посмотрите, пожалуйста, вторую вкладку в Экселе, там указаны LSI фразы. Возможно не заметили?
 
Есть еще один вопрос, касаемый информационки, который мучает.

Вы не пробовали замешивать к заданию еще и модели написания продающих текстов типа AIDA, PMHS, ACCA и др. ?
Мы сейчас тестируем этот момент, стоимость, конечно, увеличилась раза в 2.
И, скорее всего, для разных тематик - разные модели подойдут.
 
Еще хотел показать вот такую интересную вещь. Обнаружил в теме недвижки, хоть ею и не занимаюсь.
Сеошники напихали в теги Schema.org, в частности в @Type":"SaleEvent"., всякой инфы и сделали большущий сниппет.
Доп.ссылки, цены и рейтинги мы уже умели делать, но тут новая фишечка.



kv.png
 

Создайте учетную запись или войдите, чтобы комментировать или скачивать материалы!

У вас должна быть учетная запись, чтобы оставлять комментарии

Зарегистрироваться

Создайте учетную запись. Это просто!

Авторизоваться

У вас уже есть аккаунт? Войдите здесь.

Последние темы автора

Алан-э-Дейл
Ответы
5
Просмотры
7K
meow_meow
Алан-э-Дейл
Ответы
1
Просмотры
11K
VIT1103
VIT1103
Алан-э-Дейл
Ответы
2
Просмотры
5K
Captain Sparrow
Captain Sparrow
Алан-э-Дейл
Ответы
4
Просмотры
8K
Тотуся
Тотуся

Похожие темы

Алан-э-Дейл
Ответы
1
Просмотры
4K
poludivan41k
poludivan41k
Сверху Снизу