✒️ Забудьте про чеклисты в SEO
"Мы проверим ваш сайт по 100 разным параметрам. А мы по 200!"
Такое часто пишут в описании своих услуг SEO-студии и фрилансеры. Вот новый SEO-чеклист на 2019 год для “полной” проверки вашего сайта - пишут известные (и не очень) блоггеры. Но так ли это круто и нужно ли гнаться за количеством проверок?
В чем опасность SEO-чеклиста?
🙈 Его воспринимают как полный список пунктов, которые нужно проверить. И на этом остановиться.
А на самом деле это неполный список того, что можно проверить на сайте.
🙈 Следование SEO-чеклисту даелает из вас не специалиста, а обезьянку.
Вы копируете данные по ошибкам в отчет и выдаете это за аудит. Это не аудит! Стандартный SEO-краулер после сканирования может выдать вам отчет по 50+ параметарм. Если эти параметры скомбинировать и чуть пошаманить, то можно будет написать аудит с проверкой 100+ параметров сайта. Это делается легко и быстро! Получается, что за громкими обещаниями проверки 100+ параметров лежит просто тупое копирование результатов краулера в отчет.
🙈 Вы отвыкаете думать и анализировать данные. Сейчас в SEO нужно много анализировать и делать нестандартные вещи. Никакой краулер не сопоставит данные по индексации и трафику за вас. Не проанализирует конкурентов и не составит стратегию продвижения. А отделить действительно критические ошибки от тех, что “подождут” можно только хорошо пораскинув мозгами. У вас же только чеклист перед глазами и аудит получается стандартным гавном.
🔨 Что делать?
Забудьте про чеклисты. Краулер выдаст вам список стандартных ошибок и вы никак не сможете про них забыть.
Нужно думать и анализировать данные. Задавайте себе вопросы и давайте на них ответы.
Например:
⚙️ Чем структура моего сайта отличается от сайта конкурента?
⚙️ Как отличаются сниппеты?
⚙️ На какие страницы больше внутренних ссылок и какой у них трафик?
⚙️ И т.д.
Если подкрепить это все структурированными знаниями в SEO и знать какие факторы ранжирования сейчас имеют больший вес, то вы сделаете лучший SEO-аудит. И внедрение рекомендаций такого аудита обеспечит сайту рост трафика, конверсии и денег.
Тот кто и дальше будет следовать только чеклистам - уйдет на свалку истории. Надеюсь, что это будете не ВЫ.
"Мы проверим ваш сайт по 100 разным параметрам. А мы по 200!"
Такое часто пишут в описании своих услуг SEO-студии и фрилансеры. Вот новый SEO-чеклист на 2019 год для “полной” проверки вашего сайта - пишут известные (и не очень) блоггеры. Но так ли это круто и нужно ли гнаться за количеством проверок?
В чем опасность SEO-чеклиста?
🙈 Его воспринимают как полный список пунктов, которые нужно проверить. И на этом остановиться.
А на самом деле это неполный список того, что можно проверить на сайте.
🙈 Следование SEO-чеклисту даелает из вас не специалиста, а обезьянку.
Вы копируете данные по ошибкам в отчет и выдаете это за аудит. Это не аудит! Стандартный SEO-краулер после сканирования может выдать вам отчет по 50+ параметарм. Если эти параметры скомбинировать и чуть пошаманить, то можно будет написать аудит с проверкой 100+ параметров сайта. Это делается легко и быстро! Получается, что за громкими обещаниями проверки 100+ параметров лежит просто тупое копирование результатов краулера в отчет.
🙈 Вы отвыкаете думать и анализировать данные. Сейчас в SEO нужно много анализировать и делать нестандартные вещи. Никакой краулер не сопоставит данные по индексации и трафику за вас. Не проанализирует конкурентов и не составит стратегию продвижения. А отделить действительно критические ошибки от тех, что “подождут” можно только хорошо пораскинув мозгами. У вас же только чеклист перед глазами и аудит получается стандартным гавном.
🔨 Что делать?
Забудьте про чеклисты. Краулер выдаст вам список стандартных ошибок и вы никак не сможете про них забыть.
Нужно думать и анализировать данные. Задавайте себе вопросы и давайте на них ответы.
Например:
⚙️ Чем структура моего сайта отличается от сайта конкурента?
⚙️ Как отличаются сниппеты?
⚙️ На какие страницы больше внутренних ссылок и какой у них трафик?
⚙️ И т.д.
Если подкрепить это все структурированными знаниями в SEO и знать какие факторы ранжирования сейчас имеют больший вес, то вы сделаете лучший SEO-аудит. И внедрение рекомендаций такого аудита обеспечит сайту рост трафика, конверсии и денег.
Тот кто и дальше будет следовать только чеклистам - уйдет на свалку истории. Надеюсь, что это будете не ВЫ.
🤜 Новости SEO за 22-28.07.19
1️⃣ Апдейт Google, который произошел 19 июля официально подтвержден и получил название "Maverick update". Интересная статистика по изменениям по нишам от SEMRush тут
2️⃣ Наш любимчик John Mueller сообщил, что согласно YMYL сайты в тематике "Здоровье и медицина" должны обратить особое внимание на то, кто пишет им статьи.
Цитата
"It's something where if you're already saying they know a lot about this but they're not experts then that is already kind of a shaky foundation right. So that's something where maybe it makes sense for them to work with experts and to put together some real expert content where it's clear to anyone who's reading those pages that actually this information is correct and it's trustworthy, it's something that an expert has written or an expert has reviewed and accordingly it it's essentially something that anyone can take and forward to their friends and say this is kind of something to watch out for or something important that you should read on this topic."
3️⃣ 24 июля был замечен баг в выдаче Google. Часть результатов поиска на мобильных не загружалась. 26 июля этот баг пофиксили
👌 Выводы
Рано делать выводы по апдейту - аналитики не так много. Но явно, что апдейт затронул сайты с дублированным и не очень ценным контентом. В догонку еще и John Mueller подтвердил наши опасения, что для сайтов в тематике "Здоровье" нужно набивать траст авторов.
1️⃣ Апдейт Google, который произошел 19 июля официально подтвержден и получил название "Maverick update". Интересная статистика по изменениям по нишам от SEMRush тут
2️⃣ Наш любимчик John Mueller сообщил, что согласно YMYL сайты в тематике "Здоровье и медицина" должны обратить особое внимание на то, кто пишет им статьи.
Цитата
"It's something where if you're already saying they know a lot about this but they're not experts then that is already kind of a shaky foundation right. So that's something where maybe it makes sense for them to work with experts and to put together some real expert content where it's clear to anyone who's reading those pages that actually this information is correct and it's trustworthy, it's something that an expert has written or an expert has reviewed and accordingly it it's essentially something that anyone can take and forward to their friends and say this is kind of something to watch out for or something important that you should read on this topic."
3️⃣ 24 июля был замечен баг в выдаче Google. Часть результатов поиска на мобильных не загружалась. 26 июля этот баг пофиксили
👌 Выводы
Рано делать выводы по апдейту - аналитики не так много. Но явно, что апдейт затронул сайты с дублированным и не очень ценным контентом. В догонку еще и John Mueller подтвердил наши опасения, что для сайтов в тематике "Здоровье" нужно набивать траст авторов.
✒️ Разница между 301, 302 и canonical
301, 302 редиректы и тег canonical используются в SEO очень давно, но вопросы о том как их использовать возникают и сегодня. В этой статье я кратко обьсню разницу между ними и какой способ когда использовать.
🔨 301 редирект
301 - это постоянный редирект. Если у вас на сайте произошли изменения и это навсегда - используйте этот вид релиректа. Самые популярные задачи для него - изменение урлов и переезд сайта.
Что происходит:
- Отсылает GoogleBot и пользователей сайта на новый URL и отсылает ему сигнал забыть про старый URL
- Передает внутренний и внешний ссылочный вес
301 редирект - очень сильный сигнал и практически всегда воспринимается Google-ом корректно
Важно!
Исследование логов сервера показало, что GoogleBot ходит по начальным урлам длительное время. Поэтому не снимайте даже очень старые 301 редиректы.
🔨 302 редирект
302 - это временный редирект. Чаще всего используется для проведения A/B тестов и как ошибка при настройке 301 редиректа :)
Что происходит:
- Отсылает GoogleBot и пользователей сайта на новый URL, но при этом подает ему сигнал периодически проверять наличие редиректа
- Практически не передает сигналы
Важно!
Если вы не снимаете длительное время 302 редирект - он начинает восприниматься Гуглом, как постоянный 301.
🔨 Тег canonical
Canonical - это тег, который показывает Google где оригинальная страница. Когда вам нужно создать дубль страницы с одинаковым контентом - ставьте на дубле тег canonical на оригинальную страницу.
Что происходит:
- Показывает GoogleBotу оригинал страницы
- Для пользователя ничего не меняется
Важно!
Тег canonical является рекомендацией для Гугла и не всегда учитывается. Поэтому его нужно стараться использовать в единичных случаях.
301, 302 редиректы и тег canonical используются в SEO очень давно, но вопросы о том как их использовать возникают и сегодня. В этой статье я кратко обьсню разницу между ними и какой способ когда использовать.
🔨 301 редирект
301 - это постоянный редирект. Если у вас на сайте произошли изменения и это навсегда - используйте этот вид релиректа. Самые популярные задачи для него - изменение урлов и переезд сайта.
Что происходит:
- Отсылает GoogleBot и пользователей сайта на новый URL и отсылает ему сигнал забыть про старый URL
- Передает внутренний и внешний ссылочный вес
301 редирект - очень сильный сигнал и практически всегда воспринимается Google-ом корректно
Важно!
Исследование логов сервера показало, что GoogleBot ходит по начальным урлам длительное время. Поэтому не снимайте даже очень старые 301 редиректы.
🔨 302 редирект
302 - это временный редирект. Чаще всего используется для проведения A/B тестов и как ошибка при настройке 301 редиректа :)
Что происходит:
- Отсылает GoogleBot и пользователей сайта на новый URL, но при этом подает ему сигнал периодически проверять наличие редиректа
- Практически не передает сигналы
Важно!
Если вы не снимаете длительное время 302 редирект - он начинает восприниматься Гуглом, как постоянный 301.
🔨 Тег canonical
Canonical - это тег, который показывает Google где оригинальная страница. Когда вам нужно создать дубль страницы с одинаковым контентом - ставьте на дубле тег canonical на оригинальную страницу.
Что происходит:
- Показывает GoogleBotу оригинал страницы
- Для пользователя ничего не меняется
Важно!
Тег canonical является рекомендацией для Гугла и не всегда учитывается. Поэтому его нужно стараться использовать в единичных случаях.
Помогите выбрать тему для следующей статьи!
anonymous poll
1️⃣ Самые полезные виды разметки (Structured Data) для Google – 13
👍👍👍👍👍👍👍 36%
3️⃣ Как быстро получить данные по трафику из GSC и их анализ – 13
👍👍👍👍👍👍👍 36%
2️⃣ Польза анализа логов для SEO – 10
👍👍👍👍👍 28%
👥 36 people voted so far.
anonymous poll
1️⃣ Самые полезные виды разметки (Structured Data) для Google – 13
👍👍👍👍👍👍👍 36%
3️⃣ Как быстро получить данные по трафику из GSC и их анализ – 13
👍👍👍👍👍👍👍 36%
2️⃣ Польза анализа логов для SEO – 10
👍👍👍👍👍 28%
👥 36 people voted so far.
🤜 Новости SEO за 29.07-04.08.2019
1️⃣ 1 августа мог произойти очередной апдейт Google. Многие инструменты показывают значительные изменения в выдаче.
2️⃣ Важное обновление алгоритма формирования Featured Snippets. Оказывается, еще в конце февраля этого года Google начал применять новый алгоритм для формирования Featured Snippets. Теперь для некоторых запросов будет учитываться "свежесть" и актуальность контента.
3️⃣ Исследование показало, что есть прямая зависимость между количеством фото в Google my Business аккаунте компании и количеством кликов/показов для ее карточки
👌 Выводы
⚙️ Пристально следим за нашими позициями и изучаем - повлиял ли на нас предполагаемый апдейт 1-го числа. В прошлом году август стал знаменит в связи с medic update, который подкосил множество сайтов.
⚙️ Теперь Featured Snippets не будут прежними. Один раз туда попасть и оставаться не получиться. Нужно будет постоянно обновлять свой контент, что приводит к дополнительным затратам времени и денег. Важно! Это касается не всех запросов, а только тех, что привязаны ко времени (события, даты, периоды времени). Запросы, что независимы от времени ("почему солнце горячее" или "сколько лап у жука") не затронуты этим апдейтом.
1️⃣ 1 августа мог произойти очередной апдейт Google. Многие инструменты показывают значительные изменения в выдаче.
2️⃣ Важное обновление алгоритма формирования Featured Snippets. Оказывается, еще в конце февраля этого года Google начал применять новый алгоритм для формирования Featured Snippets. Теперь для некоторых запросов будет учитываться "свежесть" и актуальность контента.
3️⃣ Исследование показало, что есть прямая зависимость между количеством фото в Google my Business аккаунте компании и количеством кликов/показов для ее карточки
👌 Выводы
⚙️ Пристально следим за нашими позициями и изучаем - повлиял ли на нас предполагаемый апдейт 1-го числа. В прошлом году август стал знаменит в связи с medic update, который подкосил множество сайтов.
⚙️ Теперь Featured Snippets не будут прежними. Один раз туда попасть и оставаться не получиться. Нужно будет постоянно обновлять свой контент, что приводит к дополнительным затратам времени и денег. Важно! Это касается не всех запросов, а только тех, что привязаны ко времени (события, даты, периоды времени). Запросы, что независимы от времени ("почему солнце горячее" или "сколько лап у жука") не затронуты этим апдейтом.
🤜 Начало пятого потока курса Deep in Tech SEO через неделю.
Это авторский 4-х недельный курс по технической оптимизации сайтов Игоря Баньковского. В результате ты научишься проводить лучшие и самые полные технические аудиты любых сайтов.
Курс актуален для тех, кто хочет продвигать средние и большие сайты под Google и особенно назапад.
Особенности
⚙️ Актуально. Программой покрыты все актуальные темы "на сейчас". Вы получаете нужные и свежые знания без которых продвигать сайты назапад сейчас невозможно.
⚙️ Курс от практика. Занимаюсь внутренней оптимизацией больше пяти лет, а SEO больше восьми. Работаю с большими сайтами и рынками USA + EU.
⚙️ Уникальный формат. Две записанные лекции + 15 минут индивидуального обучения каждую неделю. По каждой лекции тесты и ДЗ с фидбеком и ответами на вопросы!
⚙️ Результат курса. Уверенные знания Tech SEO и полный уникальный аудит вашего сайта
👉 Для записи на курс и всех подробностей кликай тут!
Знаешь кому этот курс будет полезен? Отправь ему ссылку!
Это авторский 4-х недельный курс по технической оптимизации сайтов Игоря Баньковского. В результате ты научишься проводить лучшие и самые полные технические аудиты любых сайтов.
Курс актуален для тех, кто хочет продвигать средние и большие сайты под Google и особенно назапад.
Особенности
⚙️ Актуально. Программой покрыты все актуальные темы "на сейчас". Вы получаете нужные и свежые знания без которых продвигать сайты назапад сейчас невозможно.
⚙️ Курс от практика. Занимаюсь внутренней оптимизацией больше пяти лет, а SEO больше восьми. Работаю с большими сайтами и рынками USA + EU.
⚙️ Уникальный формат. Две записанные лекции + 15 минут индивидуального обучения каждую неделю. По каждой лекции тесты и ДЗ с фидбеком и ответами на вопросы!
⚙️ Результат курса. Уверенные знания Tech SEO и полный уникальный аудит вашего сайта
👉 Для записи на курс и всех подробностей кликай тут!
Знаешь кому этот курс будет полезен? Отправь ему ссылку!
✒️ Как быстро и в полном обьеме обрабатывать данные Google Search Console
На просторах СНГ Google Search Console (далее GSC) не получила большой популярности. А зря. Зарубежные спецы работают с этим инструментом очень плотно. В этой статье я покажу как быстро и полностью вытянуть данные из отчета Perfomance в GSC. Плюс пару приемов как эти все данные проанализировать.
Итак, что можно вытянуть из этого отчета:
- Страницы
- Кейворды
- Показы
- Клики
- CTR
При этом вы должны понимать, что данные группируются или по страницам или по кейвордам.
Проблема просмотра всех данных в интерфейсе - ограниченность 1000 записями и не самый удобный интерфейс. Нам бы хотелось работать в таблице и иметь в своем распоряжении максимум данных.
В этом нам помогут Google Sheets и бесплатное дополнение Search Analytics for sheets.
Установив это дополнение вы сможете по API тянуть прямо в таблицу все нужные вам данные.
При работе с дополнение важно помнить, что:
- Вы можете запрашивать данные сгруппированные по представлению и по страницам. Они могут отличаться (в 99% случаев)
- Полезно запрашивать данные с разбивкой по устройству - в свете mobile first анализируйте сразу мобилки
Крутая фишка
Вы можете создавать расписание автоматических бекапов данных. У вас в таблице периодически будут появляться новые выгрузки. Самостоятельно нажимать ничего не придется.
🔨 Что дальше делать с данными?
Простор для анализа тут огромен. Я вам предлагаю два быстрых варианта. Создайте сводную таблицу из полученных данных и настройте:
1️⃣ Строки "Ключевые слова" и значения "Показы" и "Средняя позиция". В такой таблице вы сможете увидеть кейворды с большим количеством показов, но средней позицией за ТОП10. Для вас эти кейворды могут быть низковисящими фруктами. Надавите на них и быстро получите траф!
2️⃣ Строки "Кейворды" и "Урлы", значения "Показы", "Клики" и "Средняя позиция". В такой таблице вы сможете отследить каннибализацию ваших ключей. Плохо, когда по одному кейворду конкурируют несколько страниц сайта между собой (исключение - вы в топе с обоими урлами). Тут вы сможете быстро под каждым кейвордом увидеть урлы, которые получили показы + все остальные метрики по ним.
Анализируйте, думайте и действуйте!
На просторах СНГ Google Search Console (далее GSC) не получила большой популярности. А зря. Зарубежные спецы работают с этим инструментом очень плотно. В этой статье я покажу как быстро и полностью вытянуть данные из отчета Perfomance в GSC. Плюс пару приемов как эти все данные проанализировать.
Итак, что можно вытянуть из этого отчета:
- Страницы
- Кейворды
- Показы
- Клики
- CTR
При этом вы должны понимать, что данные группируются или по страницам или по кейвордам.
Проблема просмотра всех данных в интерфейсе - ограниченность 1000 записями и не самый удобный интерфейс. Нам бы хотелось работать в таблице и иметь в своем распоряжении максимум данных.
В этом нам помогут Google Sheets и бесплатное дополнение Search Analytics for sheets.
Установив это дополнение вы сможете по API тянуть прямо в таблицу все нужные вам данные.
При работе с дополнение важно помнить, что:
- Вы можете запрашивать данные сгруппированные по представлению и по страницам. Они могут отличаться (в 99% случаев)
- Полезно запрашивать данные с разбивкой по устройству - в свете mobile first анализируйте сразу мобилки
Крутая фишка
Вы можете создавать расписание автоматических бекапов данных. У вас в таблице периодически будут появляться новые выгрузки. Самостоятельно нажимать ничего не придется.
🔨 Что дальше делать с данными?
Простор для анализа тут огромен. Я вам предлагаю два быстрых варианта. Создайте сводную таблицу из полученных данных и настройте:
1️⃣ Строки "Ключевые слова" и значения "Показы" и "Средняя позиция". В такой таблице вы сможете увидеть кейворды с большим количеством показов, но средней позицией за ТОП10. Для вас эти кейворды могут быть низковисящими фруктами. Надавите на них и быстро получите траф!
2️⃣ Строки "Кейворды" и "Урлы", значения "Показы", "Клики" и "Средняя позиция". В такой таблице вы сможете отследить каннибализацию ваших ключей. Плохо, когда по одному кейворду конкурируют несколько страниц сайта между собой (исключение - вы в топе с обоими урлами). Тут вы сможете быстро под каждым кейвордом увидеть урлы, которые получили показы + все остальные метрики по ним.
Анализируйте, думайте и действуйте!
🤜 Новый подкаст
На этот раз у меня в гостях Иван Чумаченко - "главный по SEO" в Govitall. У Вани больше 14 лет опыта в SEO и 10 из них он посвятил работе в нише essay. Какими качествами нужно обладать, как строить команду, сколько можно заработать и что работает, а что нет. Все в этом подкасте!
На этот раз у меня в гостях Иван Чумаченко - "главный по SEO" в Govitall. У Вани больше 14 лет опыта в SEO и 10 из них он посвятил работе в нише essay. Какими качествами нужно обладать, как строить команду, сколько можно заработать и что работает, а что нет. Все в этом подкасте!
🤜 Новости SEO 05-11.19
1️⃣ John Muller заявил, что количество слов не является фактором ранжирования в Google: "Word count is not a ranking factor. Save yourself the trouble."
2️⃣ В блоге вебмастеров появилась новость, что теперь новый Evergreen Googlebot будет использоваться в инструментах тестирования самого Google. До этого там использовалась предыдущая версия Googlebot.
Evergreen Googlebot будет использоваться в таких инструментах:
- Google Search Console
- Mobile-friendly тест
- Rich results тест
- AMP тест
3️⃣ Запущена новая версия интерфейса в Google Images
4️⃣ Наш любмимец John Muller напомнил, что JavaScript редиректы обрабатываются Гуглом аналогично стандартным серверным.
👌 Выводы
Можно ли поверить Джону, что количество слов не является фактором ранжирования? Думаю да. Важно не сколько, а что написано.
Прекрасно, что инстурменты Гугла теперь будут адекватно работать с яваскриптовыми сайтами.
Все плюются от нового интерфейса Google Images - я тоже в их числе. А вам как?
1️⃣ John Muller заявил, что количество слов не является фактором ранжирования в Google: "Word count is not a ranking factor. Save yourself the trouble."
2️⃣ В блоге вебмастеров появилась новость, что теперь новый Evergreen Googlebot будет использоваться в инструментах тестирования самого Google. До этого там использовалась предыдущая версия Googlebot.
Evergreen Googlebot будет использоваться в таких инструментах:
- Google Search Console
- Mobile-friendly тест
- Rich results тест
- AMP тест
3️⃣ Запущена новая версия интерфейса в Google Images
4️⃣ Наш любмимец John Muller напомнил, что JavaScript редиректы обрабатываются Гуглом аналогично стандартным серверным.
👌 Выводы
Можно ли поверить Джону, что количество слов не является фактором ранжирования? Думаю да. Важно не сколько, а что написано.
Прекрасно, что инстурменты Гугла теперь будут адекватно работать с яваскриптовыми сайтами.
Все плюются от нового интерфейса Google Images - я тоже в их числе. А вам как?
🖋 Какие теги ставить на страницах пагинации
Столько неопределенности и жарких споров, как о тегах на пагинации ты не увидишь нигде. Количество мифов и заведомо ложных представлений зашкаливает. В этой заметке я расскажу как я реализую пагинацию, зачем она нужна и какое будущее у этих страниц.
Ты задавал(а) себе вопрос: "Для чего моему сайту нужна пагинация"? Если нет - самое время это сделать. Возможных ответа может быть два:
- Для навигации пользователя/конверсии/денег
- Для индексации максимального количества товаров
Все другие ответы являются ответвлениями или модификациями этих.
Если твой ответ №1 - смело закрывай от индексации пагинацию и не знай проблем. Легче всего это сделать с помощью <meta name="robots" content="noindex, follow">. Дополнительно в GSC в настройке обработки урлов запрети проход бота по урлам с параметром пагинации.
Если ты выбрал ответ №2 - есть два варианта
1) Попытаться добиться индексации товаров пагинацией
2) Создать так много посадочных страниц, сколько нужно для покрытия всей сематики и размещения на них подборок ваших товаров.
⚙️ Цель: Добиваемся индексации товаров пагинацией
Мне этот способ откровенно не нравится. Анализ логов сервера показывает, что бот очень неохотно ходит даже по открытой пагинации. Поэтому функцию индексации товаров пагинация выполняет на 30-50%.
Если же ты выбрал этот способ, то нужно обязательно выполнить такую минимальную оптимизацию:
- урл с параметром page=1 (или подобным для твоего сайта) редиректить 301-м редиректом на первую страницу без параметра
- уникализировать Title
- удалить или уникализировать Description
- уникализировать или удалить h1
- в GSC в инструменте обработки параметров урлов добавить параметр пагинации с обработкой "пагинация" + "проходить каждый урл"
⚙️ Цель: Добиваемся индексации товаров созданием нужного количества уникальных посадочных
Этот вариант лучше остальных. Выгода его в том, что ты расширяешь свою семантику + позволяешь всем нужным товарам проиндексироваться.
Нужно создать столько категорий, подкатегорий, страниц тегов - сколько возможно при этом сохраняя их относительную уникальность. Нет смысла создавать 2 страницы с полностью одинаковым контентом. Твой алгоритм может быть такой:
1) Анализируешь семантику и понимаешь какие паттерны существуют и как сильно их можно множить. Это может быть связка: предмет + город, товар + бренд, товар + модель, модель + отзыв, тип + цвет и тд!
2) Пишешь шаблон формирования тегов и метатегов для этих страниц. Старайся использовать как можно больше уникальных слов для каждой страницы
3) Формируешь логику того, какие товары будут показываться на этих страницах. Если на некоторых страницах подборка товаров одинакова - делай их перестановку по порядку. Слабо - но помогает.
4) Создаешь логику перелинковки этих страниц между собой. Это очень важно! Нужно добиться того, что на каждую страницу будет стоять ссылка. И лучше не одна, а минимум 5-10.
🙈 Canonical и пагинация
Вижу иногда советы или реализацию пагинации с canonical на первую страницу. Таким образом пытаются избаться от дубликатов. Если ты тоже так делаешь - перестань! Canonical - это рекомендация для Google и он может ее не воспринимать. И на практике он именно так и делает. Плюс к этому Canonical показывает, что страница дубликат. Зачем показывать, что на сайте есть множество дубликатов?
Будущее пагинации
Что будет с пагинацией через пару лет? Уже сейчас Google понимает где страница пагинации, а где обычная. Вполне вероятно, что с развитием сайтов на JavaScript сайты откажутся от пагинации совсем! Будет просто подгрузка новых товаров на странице кнопкой, а отдельных страниц не будет существовать вообще. И только старожили будут рассказывать, как мучались с оптимизацией миллионов страниц пагинации на сайте :)
👌 Понравилась статья? Расшарь ее своим друзьям и коллегам!
Столько неопределенности и жарких споров, как о тегах на пагинации ты не увидишь нигде. Количество мифов и заведомо ложных представлений зашкаливает. В этой заметке я расскажу как я реализую пагинацию, зачем она нужна и какое будущее у этих страниц.
Ты задавал(а) себе вопрос: "Для чего моему сайту нужна пагинация"? Если нет - самое время это сделать. Возможных ответа может быть два:
- Для навигации пользователя/конверсии/денег
- Для индексации максимального количества товаров
Все другие ответы являются ответвлениями или модификациями этих.
Если твой ответ №1 - смело закрывай от индексации пагинацию и не знай проблем. Легче всего это сделать с помощью <meta name="robots" content="noindex, follow">. Дополнительно в GSC в настройке обработки урлов запрети проход бота по урлам с параметром пагинации.
Если ты выбрал ответ №2 - есть два варианта
1) Попытаться добиться индексации товаров пагинацией
2) Создать так много посадочных страниц, сколько нужно для покрытия всей сематики и размещения на них подборок ваших товаров.
⚙️ Цель: Добиваемся индексации товаров пагинацией
Мне этот способ откровенно не нравится. Анализ логов сервера показывает, что бот очень неохотно ходит даже по открытой пагинации. Поэтому функцию индексации товаров пагинация выполняет на 30-50%.
Если же ты выбрал этот способ, то нужно обязательно выполнить такую минимальную оптимизацию:
- урл с параметром page=1 (или подобным для твоего сайта) редиректить 301-м редиректом на первую страницу без параметра
- уникализировать Title
- удалить или уникализировать Description
- уникализировать или удалить h1
- в GSC в инструменте обработки параметров урлов добавить параметр пагинации с обработкой "пагинация" + "проходить каждый урл"
⚙️ Цель: Добиваемся индексации товаров созданием нужного количества уникальных посадочных
Этот вариант лучше остальных. Выгода его в том, что ты расширяешь свою семантику + позволяешь всем нужным товарам проиндексироваться.
Нужно создать столько категорий, подкатегорий, страниц тегов - сколько возможно при этом сохраняя их относительную уникальность. Нет смысла создавать 2 страницы с полностью одинаковым контентом. Твой алгоритм может быть такой:
1) Анализируешь семантику и понимаешь какие паттерны существуют и как сильно их можно множить. Это может быть связка: предмет + город, товар + бренд, товар + модель, модель + отзыв, тип + цвет и тд!
2) Пишешь шаблон формирования тегов и метатегов для этих страниц. Старайся использовать как можно больше уникальных слов для каждой страницы
3) Формируешь логику того, какие товары будут показываться на этих страницах. Если на некоторых страницах подборка товаров одинакова - делай их перестановку по порядку. Слабо - но помогает.
4) Создаешь логику перелинковки этих страниц между собой. Это очень важно! Нужно добиться того, что на каждую страницу будет стоять ссылка. И лучше не одна, а минимум 5-10.
🙈 Canonical и пагинация
Вижу иногда советы или реализацию пагинации с canonical на первую страницу. Таким образом пытаются избаться от дубликатов. Если ты тоже так делаешь - перестань! Canonical - это рекомендация для Google и он может ее не воспринимать. И на практике он именно так и делает. Плюс к этому Canonical показывает, что страница дубликат. Зачем показывать, что на сайте есть множество дубликатов?
Будущее пагинации
Что будет с пагинацией через пару лет? Уже сейчас Google понимает где страница пагинации, а где обычная. Вполне вероятно, что с развитием сайтов на JavaScript сайты откажутся от пагинации совсем! Будет просто подгрузка новых товаров на странице кнопкой, а отдельных страниц не будет существовать вообще. И только старожили будут рассказывать, как мучались с оптимизацией миллионов страниц пагинации на сайте :)
👌 Понравилась статья? Расшарь ее своим друзьям и коллегам!
🤜 Новости SEO 12-18.08.19
1️⃣ В справке для вебмастеров добавлены пункты с обьяснением и примерами использования тега noindex для JavaScript сайтов
2️⃣ В браузер Chrome добавлена и в последствии в Evergreen Goglebot будет добавлена поддержка нового тега "lazy" для картинок. С его помощью можно будет четко задавать - какие изображения и iframe грузить сразу, а какие при достижении видимости во время прокрутки. И да - это будет работать во время индексации вашего контента на сайте.
👌 Выводы
Самое крутое нас ждет, когда Googlebot начнем сканировать наши сайты с использованием последнего движка. Стоит ли использовать уже новые теги и техники - конечно да. Нужно быть готовым заранее.
1️⃣ В справке для вебмастеров добавлены пункты с обьяснением и примерами использования тега noindex для JavaScript сайтов
2️⃣ В браузер Chrome добавлена и в последствии в Evergreen Goglebot будет добавлена поддержка нового тега "lazy" для картинок. С его помощью можно будет четко задавать - какие изображения и iframe грузить сразу, а какие при достижении видимости во время прокрутки. И да - это будет работать во время индексации вашего контента на сайте.
👌 Выводы
Самое крутое нас ждет, когда Googlebot начнем сканировать наши сайты с использованием последнего движка. Стоит ли использовать уже новые теги и техники - конечно да. Нужно быть готовым заранее.
🤜 Новости SEO 19-25.08.19
1️⃣ В Twitter официальный аккаунт Google Webmasters подтвердил, что трафик на сайт не является фактором ранжирования
2️⃣ Сайт вебстудии в США получил санкции за ссылки. Ребята решили провести эксперимент и перенести контент на новый домен. Без 301 редиректа. Они хотят выяснить - сохранятся ли санкции? Хотя John Muller и ответил, что 301 редирект совсем не обязателен, чтобы они связали два сайта в один. Посмотрим!
👌 Выводы
Нововстей маловато, но это и хорошо. Нет апдейтов - можно жить спокойно. Чувствует моя душа, что скоро будет буря :)
1️⃣ В Twitter официальный аккаунт Google Webmasters подтвердил, что трафик на сайт не является фактором ранжирования
2️⃣ Сайт вебстудии в США получил санкции за ссылки. Ребята решили провести эксперимент и перенести контент на новый домен. Без 301 редиректа. Они хотят выяснить - сохранятся ли санкции? Хотя John Muller и ответил, что 301 редирект совсем не обязателен, чтобы они связали два сайта в один. Посмотрим!
👌 Выводы
Нововстей маловато, но это и хорошо. Нет апдейтов - можно жить спокойно. Чувствует моя душа, что скоро будет буря :)
✒️ Что такое SILO и какую пользу он приносит сайту
Если загуглить термин SILO, то вы наткнетесь на множество контейнеров для зерна и других не SEOшных вещей. Действительно, этот термин пришел к нам из агро сферы. Там он означает раздельные емкости для чего-либо. Для SEO SILO означает похожие вещи.
SILO в SEO - это метод, который применяется для связывания страниц сайта ссылками между собой (перелинковка). Какую пользу он приносит сайту:
- Обеспечивает четкое разделение страниц сайта по тематическим кластерам и тем самым улучшает "понимание" сайта Гуглом
- Позволяет повысить позиции по среднечастотным и низкочастотным ключевым словам.
🔨 Смысл SILO
Ваш сайт состоит из определенных страниц. Каждая страница заточена под свои ключевые слова. Определенные ключевые слова можно обьеденить в тематические группы. Если так сделать для всех ключей и страниц, то ваш сайт будет разделен на тематические группы страниц.
Для того, чтобы SILO заработало во всю - нужно придерживаться двух правил:
- Связывать между собой страницы одной тематической группы основной перелинковкой
- Тематические группы страниц связать между собой вспомогательными ссылками - только для прохода Googlebot по сайту.
🔨 Рассмотрим на искусственном примере
У вас есть сайт и на нем есть три вида товаров: телевизоры, стиральные машинки и цветочные горшки. Для каждой группы товаров есть страницы тегов/категорий и страницы товаров.
Для построения связей по SILO методу нам нужно:
- найти все страницы для каждой группы товаров. В итоге получается три группы страниц
- внутри каждой группы построить ссылки и связать все страницы между собой. Стараемся ставить больше ссылок на страницы, что принесут нам больше трафика (более частотные ключи)
- между группами товаров ставим чуток ссылок в футере, в меню - только ради прохода googlebot.
👌 Выводы
Таким нехитрым способом мы можем значительно увеличить трафик по низкочастотникам, а по среднечастотным ключам поднять позиции, а иногда и дотянуть до ТОПа.
Избегайте хаоса в перелинковке и будет вам ТОП!
Если загуглить термин SILO, то вы наткнетесь на множество контейнеров для зерна и других не SEOшных вещей. Действительно, этот термин пришел к нам из агро сферы. Там он означает раздельные емкости для чего-либо. Для SEO SILO означает похожие вещи.
SILO в SEO - это метод, который применяется для связывания страниц сайта ссылками между собой (перелинковка). Какую пользу он приносит сайту:
- Обеспечивает четкое разделение страниц сайта по тематическим кластерам и тем самым улучшает "понимание" сайта Гуглом
- Позволяет повысить позиции по среднечастотным и низкочастотным ключевым словам.
🔨 Смысл SILO
Ваш сайт состоит из определенных страниц. Каждая страница заточена под свои ключевые слова. Определенные ключевые слова можно обьеденить в тематические группы. Если так сделать для всех ключей и страниц, то ваш сайт будет разделен на тематические группы страниц.
Для того, чтобы SILO заработало во всю - нужно придерживаться двух правил:
- Связывать между собой страницы одной тематической группы основной перелинковкой
- Тематические группы страниц связать между собой вспомогательными ссылками - только для прохода Googlebot по сайту.
🔨 Рассмотрим на искусственном примере
У вас есть сайт и на нем есть три вида товаров: телевизоры, стиральные машинки и цветочные горшки. Для каждой группы товаров есть страницы тегов/категорий и страницы товаров.
Для построения связей по SILO методу нам нужно:
- найти все страницы для каждой группы товаров. В итоге получается три группы страниц
- внутри каждой группы построить ссылки и связать все страницы между собой. Стараемся ставить больше ссылок на страницы, что принесут нам больше трафика (более частотные ключи)
- между группами товаров ставим чуток ссылок в футере, в меню - только ради прохода googlebot.
👌 Выводы
Таким нехитрым способом мы можем значительно увеличить трафик по низкочастотникам, а по среднечастотным ключам поднять позиции, а иногда и дотянуть до ТОПа.
Избегайте хаоса в перелинковке и будет вам ТОП!
👉 До 1 сентября снижены цены на шестой поток курса Deep in Tech SEO
Для тех, кто хочет разобраться во всех нюансах внутренней оптимизации от основ и до фишечек - приглашаю на свой курс. Уже шестой😍 (как время то летит) поток.
🤫 А те, кто успеют записаться до 1 сентября - порадуются скидке на все пакеты.
Для тех, кто хочет разобраться во всех нюансах внутренней оптимизации от основ и до фишечек - приглашаю на свой курс. Уже шестой😍 (как время то летит) поток.
🤫 А те, кто успеют записаться до 1 сентября - порадуются скидке на все пакеты.
Вчера мой сын первый раз пошел в школу - поэтому и новости не выходили. Принимаю поздравляшки в личку :) Пока стоял на линейке, вспоминал песню AC/DC Hells Bells. Было незабываемо...
🤜 Новости SEO 26.08-02.09.19
1️⃣ В этот понедельник в США праздник - Labor Day. Не удивляйтесь скачкам трафика.
2️⃣ Bing начал интеграцию с Google. Теперь можно подтвердить владение сайтом в Bing Webmaster Tools через GSC и импортировать из Google my business информацию в Bing Places.
3️⃣ Сдавать в аренду свои поддомены другим сайтам становится опасно. По некоторым данным Google выкатил апдейт, который понижает в выдаче такие сайты.
4️⃣ 28.08 по всем системам мониторинга выдачи замечены значительные скачки. Будьте внимательны - может это апдейт?
5️⃣ Наш любмичик John Muller сообщил, что большинство сайтов проходят сейчас через две волны индексации с использованием рендеринга. Это значит, что даже без JavaScript на сайте - он будет проходить через процесс рендеринга Гуглом.
👌 Выводы
Давно ожидалось, что Гугл будет бороться со сдачей поддоменов в аренду и вот этот день настал. Проверьте свои ссылки! Если они идут с таких поддоменов, то пора их снимать.
Следим за трафиком и позициями по 28 августа. На моих сайтах все ок - как у вас?
🤜 Новости SEO 26.08-02.09.19
1️⃣ В этот понедельник в США праздник - Labor Day. Не удивляйтесь скачкам трафика.
2️⃣ Bing начал интеграцию с Google. Теперь можно подтвердить владение сайтом в Bing Webmaster Tools через GSC и импортировать из Google my business информацию в Bing Places.
3️⃣ Сдавать в аренду свои поддомены другим сайтам становится опасно. По некоторым данным Google выкатил апдейт, который понижает в выдаче такие сайты.
4️⃣ 28.08 по всем системам мониторинга выдачи замечены значительные скачки. Будьте внимательны - может это апдейт?
5️⃣ Наш любмичик John Muller сообщил, что большинство сайтов проходят сейчас через две волны индексации с использованием рендеринга. Это значит, что даже без JavaScript на сайте - он будет проходить через процесс рендеринга Гуглом.
👌 Выводы
Давно ожидалось, что Гугл будет бороться со сдачей поддоменов в аренду и вот этот день настал. Проверьте свои ссылки! Если они идут с таких поддоменов, то пора их снимать.
Следим за трафиком и позициями по 28 августа. На моих сайтах все ок - как у вас?
🤜 Новости SEO 2-08.09.19
1️⃣ Новый апдейт алгоритма Google возможно случился 4-5 сентября. На многих сайтах замечены значительные скачки в позициях.
2️⃣ Дополнительно к этому 4 сентября на многих сайтах замечен огромных скачек в количестве страниц скрауленых Googlebot в сутки. Эти скачки вы можете увидеть в старой версии GSC в разделе "Статистика сканирования".
3️⃣ 5 сентября были обновлены Search Quality Rater Guidelines. Очень хорошо разбор того, что изменилось отображен тут.
👌 Выводы
Как и ожидалось - после недели затишья навалилось серьезных изменений. Думаю, что скачки в количестве скрауленых страниц могут быть предвестниками значительных изменений в ранжировании. Интересно, что на нашем сайте сильный скачек был замечен 31 августа. Посмотрим, к чему готовится Google.
1️⃣ Новый апдейт алгоритма Google возможно случился 4-5 сентября. На многих сайтах замечены значительные скачки в позициях.
2️⃣ Дополнительно к этому 4 сентября на многих сайтах замечен огромных скачек в количестве страниц скрауленых Googlebot в сутки. Эти скачки вы можете увидеть в старой версии GSC в разделе "Статистика сканирования".
3️⃣ 5 сентября были обновлены Search Quality Rater Guidelines. Очень хорошо разбор того, что изменилось отображен тут.
👌 Выводы
Как и ожидалось - после недели затишья навалилось серьезных изменений. Думаю, что скачки в количестве скрауленых страниц могут быть предвестниками значительных изменений в ранжировании. Интересно, что на нашем сайте сильный скачек был замечен 31 августа. Посмотрим, к чему готовится Google.
🤜 Старый интерфейс Google Search Console RIP!!!
Пропала кнопка перехода в старый интерфейс нашего любимого тула. Но не отчаивайтесь - все инструменты теперь доступны в новом интерфейсе GSC в разделе Legacy tools & reports. Да и интерфейс у них остался старый.
🙈 Скучаете по старой консольке?
Пропала кнопка перехода в старый интерфейс нашего любимого тула. Но не отчаивайтесь - все инструменты теперь доступны в новом интерфейсе GSC в разделе Legacy tools & reports. Да и интерфейс у них остался старый.
🙈 Скучаете по старой консольке?
🤜 Новости SEO 09-15.19
1️⃣ Google сказал "goodbye" старой версии Google Search Console. Подробнее в сообщении выше 👆
2️⃣ Google стал отдавать больше предпочтения оригинальным источникам новостей, а не перепостам и цитатам в других публикациях
3️⃣ Добавлены новые атрибуты для ссылок, что стали "дополнением" для nofollow. Теперь есть еще и ugc - для ссылок с user generated content и sponsored для ссылок, что были куплены/проставлены в рекламных целях.
4️⃣ Теперь meta name robots nofollow перестал быть директивой официально и стал рекомендацией.
👌 Выводы
На этой неделе множество новостей. Одна из основных - как повлияет на ранжирование использование новых атрибутов для ссылок? Пока никто не знает - нужно будет ждать пару месяцев. Но уже появились в Ahrefs первые ласточки - стали отображаться ссылки с новыми атрибутами.
1️⃣ Google сказал "goodbye" старой версии Google Search Console. Подробнее в сообщении выше 👆
2️⃣ Google стал отдавать больше предпочтения оригинальным источникам новостей, а не перепостам и цитатам в других публикациях
3️⃣ Добавлены новые атрибуты для ссылок, что стали "дополнением" для nofollow. Теперь есть еще и ugc - для ссылок с user generated content и sponsored для ссылок, что были куплены/проставлены в рекламных целях.
4️⃣ Теперь meta name robots nofollow перестал быть директивой официально и стал рекомендацией.
👌 Выводы
На этой неделе множество новостей. Одна из основных - как повлияет на ранжирование использование новых атрибутов для ссылок? Пока никто не знает - нужно будет ждать пару месяцев. Но уже появились в Ahrefs первые ласточки - стали отображаться ссылки с новыми атрибутами.
🤜 Новости SEO 16-22.09.19
1️⃣ В GSC появился новый отчет по структурированным данным для разметки хлебных крошек
2️⃣ John Muller напомнил нам, что не стоит надеятся на индексацию Аякс урлов с хешем. Google воспринимает яваскриптовые редиректы и вам нужно сделать такой для каждого урла с хешем. Обычный серверный 301 редирект не будет восприниматься Googlebot.
👌 Выводы
Новостей серьезных маловато, но это и хорошо. Можно спокойно работать. Обратите внимание на новый отчет по хлебных крошкам в GSC - действительно стоящие вещи можно увидеть.
1️⃣ В GSC появился новый отчет по структурированным данным для разметки хлебных крошек
2️⃣ John Muller напомнил нам, что не стоит надеятся на индексацию Аякс урлов с хешем. Google воспринимает яваскриптовые редиректы и вам нужно сделать такой для каждого урла с хешем. Обычный серверный 301 редирект не будет восприниматься Googlebot.
👌 Выводы
Новостей серьезных маловато, но это и хорошо. Можно спокойно работать. Обратите внимание на новый отчет по хлебных крошкам в GSC - действительно стоящие вещи можно увидеть.
Всем внимание на позиции и трафик.
Апдейт Гугла идёт https://twitter.com/searchliaison/status/1176473923833225221?s=19
Апдейт Гугла идёт https://twitter.com/searchliaison/status/1176473923833225221?s=19
Twitter
Google SearchLiaison
Later today, we are releasing a broad core algorithm update, as we do several times per year. It is called the September 2019 Core Update. Our guidance about such updates remains as we’ve covered before. Please see this blog for more about that: https://t.co/e5ZQUAlt0G
🤜 Новости SEO 23-29.09.19
1️⃣ 24 сентября Гугл выкатил очередной апдейт.
2️⃣ Теперь мы можем лучше контролировать вид сниппета страниц наших сайтов. Google выкатил новинку: с помощью четырех новых настроек метатега robots и одного html атрибута.
3⃣ Рассказывая о том, как закрыть тестовый сервер от краулера Гугла, Мюллер указал на интересную вещь. "Лучший способ закрыть тестовый сервер от Google - это сделать аутентификацию. Если краулер найдет ссылку на страницу, что закрыта в robots.txt, то он все равно может на нее зайти для краулинга".
4⃣ Google может игнорировать nofollow для внешних ссылок, если этот атрибут проставлен для всех линков.
5⃣ Googlebot обновился до 77 версии Хрома.
6⃣ Теперь в GSC можно смотреть данные по кликам, показам и средней позиции за вчера. Ранее лаг во времени составлял три дня.
👌 Выводы
Ааааа! Очень насыщенная неделя.
Апдейт в этот раз оказался не таким серьезным, как прошлый. По некоторым данным задело сайты, что активно использовали 301 редирект с дропов и других доменов.
Новые возможности по управлению сниппетом меня очень порадовали. Теперь можно будет убрать весь бред, что тянулся с сайта всем напоказ.
Супер ценным оказался апдейт GSC. Зачем теперь постоянно заглядывать в GA, если актуальные данные есть в нашей любимой консольке? Да, не такие точные, но уникальные и свежие.
💡Как вам прошлая неделя?
1️⃣ 24 сентября Гугл выкатил очередной апдейт.
2️⃣ Теперь мы можем лучше контролировать вид сниппета страниц наших сайтов. Google выкатил новинку: с помощью четырех новых настроек метатега robots и одного html атрибута.
3⃣ Рассказывая о том, как закрыть тестовый сервер от краулера Гугла, Мюллер указал на интересную вещь. "Лучший способ закрыть тестовый сервер от Google - это сделать аутентификацию. Если краулер найдет ссылку на страницу, что закрыта в robots.txt, то он все равно может на нее зайти для краулинга".
4⃣ Google может игнорировать nofollow для внешних ссылок, если этот атрибут проставлен для всех линков.
5⃣ Googlebot обновился до 77 версии Хрома.
6⃣ Теперь в GSC можно смотреть данные по кликам, показам и средней позиции за вчера. Ранее лаг во времени составлял три дня.
👌 Выводы
Ааааа! Очень насыщенная неделя.
Апдейт в этот раз оказался не таким серьезным, как прошлый. По некоторым данным задело сайты, что активно использовали 301 редирект с дропов и других доменов.
Новые возможности по управлению сниппетом меня очень порадовали. Теперь можно будет убрать весь бред, что тянулся с сайта всем напоказ.
Супер ценным оказался апдейт GSC. Зачем теперь постоянно заглядывать в GA, если актуальные данные есть в нашей любимой консольке? Да, не такие точные, но уникальные и свежие.
💡Как вам прошлая неделя?