Помогите выбрать тему для следующей статьи!
anonymous poll
1️⃣ Самые полезные виды разметки (Structured Data) для Google – 13
👍👍👍👍👍👍👍 36%
3️⃣ Как быстро получить данные по трафику из GSC и их анализ – 13
👍👍👍👍👍👍👍 36%
2️⃣ Польза анализа логов для SEO – 10
👍👍👍👍👍 28%
👥 36 people voted so far.
anonymous poll
1️⃣ Самые полезные виды разметки (Structured Data) для Google – 13
👍👍👍👍👍👍👍 36%
3️⃣ Как быстро получить данные по трафику из GSC и их анализ – 13
👍👍👍👍👍👍👍 36%
2️⃣ Польза анализа логов для SEO – 10
👍👍👍👍👍 28%
👥 36 people voted so far.
🤜 Новости SEO за 29.07-04.08.2019
1️⃣ 1 августа мог произойти очередной апдейт Google. Многие инструменты показывают значительные изменения в выдаче.
2️⃣ Важное обновление алгоритма формирования Featured Snippets. Оказывается, еще в конце февраля этого года Google начал применять новый алгоритм для формирования Featured Snippets. Теперь для некоторых запросов будет учитываться "свежесть" и актуальность контента.
3️⃣ Исследование показало, что есть прямая зависимость между количеством фото в Google my Business аккаунте компании и количеством кликов/показов для ее карточки
👌 Выводы
⚙️ Пристально следим за нашими позициями и изучаем - повлиял ли на нас предполагаемый апдейт 1-го числа. В прошлом году август стал знаменит в связи с medic update, который подкосил множество сайтов.
⚙️ Теперь Featured Snippets не будут прежними. Один раз туда попасть и оставаться не получиться. Нужно будет постоянно обновлять свой контент, что приводит к дополнительным затратам времени и денег. Важно! Это касается не всех запросов, а только тех, что привязаны ко времени (события, даты, периоды времени). Запросы, что независимы от времени ("почему солнце горячее" или "сколько лап у жука") не затронуты этим апдейтом.
1️⃣ 1 августа мог произойти очередной апдейт Google. Многие инструменты показывают значительные изменения в выдаче.
2️⃣ Важное обновление алгоритма формирования Featured Snippets. Оказывается, еще в конце февраля этого года Google начал применять новый алгоритм для формирования Featured Snippets. Теперь для некоторых запросов будет учитываться "свежесть" и актуальность контента.
3️⃣ Исследование показало, что есть прямая зависимость между количеством фото в Google my Business аккаунте компании и количеством кликов/показов для ее карточки
👌 Выводы
⚙️ Пристально следим за нашими позициями и изучаем - повлиял ли на нас предполагаемый апдейт 1-го числа. В прошлом году август стал знаменит в связи с medic update, который подкосил множество сайтов.
⚙️ Теперь Featured Snippets не будут прежними. Один раз туда попасть и оставаться не получиться. Нужно будет постоянно обновлять свой контент, что приводит к дополнительным затратам времени и денег. Важно! Это касается не всех запросов, а только тех, что привязаны ко времени (события, даты, периоды времени). Запросы, что независимы от времени ("почему солнце горячее" или "сколько лап у жука") не затронуты этим апдейтом.
🤜 Начало пятого потока курса Deep in Tech SEO через неделю.
Это авторский 4-х недельный курс по технической оптимизации сайтов Игоря Баньковского. В результате ты научишься проводить лучшие и самые полные технические аудиты любых сайтов.
Курс актуален для тех, кто хочет продвигать средние и большие сайты под Google и особенно назапад.
Особенности
⚙️ Актуально. Программой покрыты все актуальные темы "на сейчас". Вы получаете нужные и свежые знания без которых продвигать сайты назапад сейчас невозможно.
⚙️ Курс от практика. Занимаюсь внутренней оптимизацией больше пяти лет, а SEO больше восьми. Работаю с большими сайтами и рынками USA + EU.
⚙️ Уникальный формат. Две записанные лекции + 15 минут индивидуального обучения каждую неделю. По каждой лекции тесты и ДЗ с фидбеком и ответами на вопросы!
⚙️ Результат курса. Уверенные знания Tech SEO и полный уникальный аудит вашего сайта
👉 Для записи на курс и всех подробностей кликай тут!
Знаешь кому этот курс будет полезен? Отправь ему ссылку!
Это авторский 4-х недельный курс по технической оптимизации сайтов Игоря Баньковского. В результате ты научишься проводить лучшие и самые полные технические аудиты любых сайтов.
Курс актуален для тех, кто хочет продвигать средние и большие сайты под Google и особенно назапад.
Особенности
⚙️ Актуально. Программой покрыты все актуальные темы "на сейчас". Вы получаете нужные и свежые знания без которых продвигать сайты назапад сейчас невозможно.
⚙️ Курс от практика. Занимаюсь внутренней оптимизацией больше пяти лет, а SEO больше восьми. Работаю с большими сайтами и рынками USA + EU.
⚙️ Уникальный формат. Две записанные лекции + 15 минут индивидуального обучения каждую неделю. По каждой лекции тесты и ДЗ с фидбеком и ответами на вопросы!
⚙️ Результат курса. Уверенные знания Tech SEO и полный уникальный аудит вашего сайта
👉 Для записи на курс и всех подробностей кликай тут!
Знаешь кому этот курс будет полезен? Отправь ему ссылку!
✒️ Как быстро и в полном обьеме обрабатывать данные Google Search Console
На просторах СНГ Google Search Console (далее GSC) не получила большой популярности. А зря. Зарубежные спецы работают с этим инструментом очень плотно. В этой статье я покажу как быстро и полностью вытянуть данные из отчета Perfomance в GSC. Плюс пару приемов как эти все данные проанализировать.
Итак, что можно вытянуть из этого отчета:
- Страницы
- Кейворды
- Показы
- Клики
- CTR
При этом вы должны понимать, что данные группируются или по страницам или по кейвордам.
Проблема просмотра всех данных в интерфейсе - ограниченность 1000 записями и не самый удобный интерфейс. Нам бы хотелось работать в таблице и иметь в своем распоряжении максимум данных.
В этом нам помогут Google Sheets и бесплатное дополнение Search Analytics for sheets.
Установив это дополнение вы сможете по API тянуть прямо в таблицу все нужные вам данные.
При работе с дополнение важно помнить, что:
- Вы можете запрашивать данные сгруппированные по представлению и по страницам. Они могут отличаться (в 99% случаев)
- Полезно запрашивать данные с разбивкой по устройству - в свете mobile first анализируйте сразу мобилки
Крутая фишка
Вы можете создавать расписание автоматических бекапов данных. У вас в таблице периодически будут появляться новые выгрузки. Самостоятельно нажимать ничего не придется.
🔨 Что дальше делать с данными?
Простор для анализа тут огромен. Я вам предлагаю два быстрых варианта. Создайте сводную таблицу из полученных данных и настройте:
1️⃣ Строки "Ключевые слова" и значения "Показы" и "Средняя позиция". В такой таблице вы сможете увидеть кейворды с большим количеством показов, но средней позицией за ТОП10. Для вас эти кейворды могут быть низковисящими фруктами. Надавите на них и быстро получите траф!
2️⃣ Строки "Кейворды" и "Урлы", значения "Показы", "Клики" и "Средняя позиция". В такой таблице вы сможете отследить каннибализацию ваших ключей. Плохо, когда по одному кейворду конкурируют несколько страниц сайта между собой (исключение - вы в топе с обоими урлами). Тут вы сможете быстро под каждым кейвордом увидеть урлы, которые получили показы + все остальные метрики по ним.
Анализируйте, думайте и действуйте!
На просторах СНГ Google Search Console (далее GSC) не получила большой популярности. А зря. Зарубежные спецы работают с этим инструментом очень плотно. В этой статье я покажу как быстро и полностью вытянуть данные из отчета Perfomance в GSC. Плюс пару приемов как эти все данные проанализировать.
Итак, что можно вытянуть из этого отчета:
- Страницы
- Кейворды
- Показы
- Клики
- CTR
При этом вы должны понимать, что данные группируются или по страницам или по кейвордам.
Проблема просмотра всех данных в интерфейсе - ограниченность 1000 записями и не самый удобный интерфейс. Нам бы хотелось работать в таблице и иметь в своем распоряжении максимум данных.
В этом нам помогут Google Sheets и бесплатное дополнение Search Analytics for sheets.
Установив это дополнение вы сможете по API тянуть прямо в таблицу все нужные вам данные.
При работе с дополнение важно помнить, что:
- Вы можете запрашивать данные сгруппированные по представлению и по страницам. Они могут отличаться (в 99% случаев)
- Полезно запрашивать данные с разбивкой по устройству - в свете mobile first анализируйте сразу мобилки
Крутая фишка
Вы можете создавать расписание автоматических бекапов данных. У вас в таблице периодически будут появляться новые выгрузки. Самостоятельно нажимать ничего не придется.
🔨 Что дальше делать с данными?
Простор для анализа тут огромен. Я вам предлагаю два быстрых варианта. Создайте сводную таблицу из полученных данных и настройте:
1️⃣ Строки "Ключевые слова" и значения "Показы" и "Средняя позиция". В такой таблице вы сможете увидеть кейворды с большим количеством показов, но средней позицией за ТОП10. Для вас эти кейворды могут быть низковисящими фруктами. Надавите на них и быстро получите траф!
2️⃣ Строки "Кейворды" и "Урлы", значения "Показы", "Клики" и "Средняя позиция". В такой таблице вы сможете отследить каннибализацию ваших ключей. Плохо, когда по одному кейворду конкурируют несколько страниц сайта между собой (исключение - вы в топе с обоими урлами). Тут вы сможете быстро под каждым кейвордом увидеть урлы, которые получили показы + все остальные метрики по ним.
Анализируйте, думайте и действуйте!
🤜 Новый подкаст
На этот раз у меня в гостях Иван Чумаченко - "главный по SEO" в Govitall. У Вани больше 14 лет опыта в SEO и 10 из них он посвятил работе в нише essay. Какими качествами нужно обладать, как строить команду, сколько можно заработать и что работает, а что нет. Все в этом подкасте!
На этот раз у меня в гостях Иван Чумаченко - "главный по SEO" в Govitall. У Вани больше 14 лет опыта в SEO и 10 из них он посвятил работе в нише essay. Какими качествами нужно обладать, как строить команду, сколько можно заработать и что работает, а что нет. Все в этом подкасте!
🤜 Новости SEO 05-11.19
1️⃣ John Muller заявил, что количество слов не является фактором ранжирования в Google: "Word count is not a ranking factor. Save yourself the trouble."
2️⃣ В блоге вебмастеров появилась новость, что теперь новый Evergreen Googlebot будет использоваться в инструментах тестирования самого Google. До этого там использовалась предыдущая версия Googlebot.
Evergreen Googlebot будет использоваться в таких инструментах:
- Google Search Console
- Mobile-friendly тест
- Rich results тест
- AMP тест
3️⃣ Запущена новая версия интерфейса в Google Images
4️⃣ Наш любмимец John Muller напомнил, что JavaScript редиректы обрабатываются Гуглом аналогично стандартным серверным.
👌 Выводы
Можно ли поверить Джону, что количество слов не является фактором ранжирования? Думаю да. Важно не сколько, а что написано.
Прекрасно, что инстурменты Гугла теперь будут адекватно работать с яваскриптовыми сайтами.
Все плюются от нового интерфейса Google Images - я тоже в их числе. А вам как?
1️⃣ John Muller заявил, что количество слов не является фактором ранжирования в Google: "Word count is not a ranking factor. Save yourself the trouble."
2️⃣ В блоге вебмастеров появилась новость, что теперь новый Evergreen Googlebot будет использоваться в инструментах тестирования самого Google. До этого там использовалась предыдущая версия Googlebot.
Evergreen Googlebot будет использоваться в таких инструментах:
- Google Search Console
- Mobile-friendly тест
- Rich results тест
- AMP тест
3️⃣ Запущена новая версия интерфейса в Google Images
4️⃣ Наш любмимец John Muller напомнил, что JavaScript редиректы обрабатываются Гуглом аналогично стандартным серверным.
👌 Выводы
Можно ли поверить Джону, что количество слов не является фактором ранжирования? Думаю да. Важно не сколько, а что написано.
Прекрасно, что инстурменты Гугла теперь будут адекватно работать с яваскриптовыми сайтами.
Все плюются от нового интерфейса Google Images - я тоже в их числе. А вам как?
🖋 Какие теги ставить на страницах пагинации
Столько неопределенности и жарких споров, как о тегах на пагинации ты не увидишь нигде. Количество мифов и заведомо ложных представлений зашкаливает. В этой заметке я расскажу как я реализую пагинацию, зачем она нужна и какое будущее у этих страниц.
Ты задавал(а) себе вопрос: "Для чего моему сайту нужна пагинация"? Если нет - самое время это сделать. Возможных ответа может быть два:
- Для навигации пользователя/конверсии/денег
- Для индексации максимального количества товаров
Все другие ответы являются ответвлениями или модификациями этих.
Если твой ответ №1 - смело закрывай от индексации пагинацию и не знай проблем. Легче всего это сделать с помощью <meta name="robots" content="noindex, follow">. Дополнительно в GSC в настройке обработки урлов запрети проход бота по урлам с параметром пагинации.
Если ты выбрал ответ №2 - есть два варианта
1) Попытаться добиться индексации товаров пагинацией
2) Создать так много посадочных страниц, сколько нужно для покрытия всей сематики и размещения на них подборок ваших товаров.
⚙️ Цель: Добиваемся индексации товаров пагинацией
Мне этот способ откровенно не нравится. Анализ логов сервера показывает, что бот очень неохотно ходит даже по открытой пагинации. Поэтому функцию индексации товаров пагинация выполняет на 30-50%.
Если же ты выбрал этот способ, то нужно обязательно выполнить такую минимальную оптимизацию:
- урл с параметром page=1 (или подобным для твоего сайта) редиректить 301-м редиректом на первую страницу без параметра
- уникализировать Title
- удалить или уникализировать Description
- уникализировать или удалить h1
- в GSC в инструменте обработки параметров урлов добавить параметр пагинации с обработкой "пагинация" + "проходить каждый урл"
⚙️ Цель: Добиваемся индексации товаров созданием нужного количества уникальных посадочных
Этот вариант лучше остальных. Выгода его в том, что ты расширяешь свою семантику + позволяешь всем нужным товарам проиндексироваться.
Нужно создать столько категорий, подкатегорий, страниц тегов - сколько возможно при этом сохраняя их относительную уникальность. Нет смысла создавать 2 страницы с полностью одинаковым контентом. Твой алгоритм может быть такой:
1) Анализируешь семантику и понимаешь какие паттерны существуют и как сильно их можно множить. Это может быть связка: предмет + город, товар + бренд, товар + модель, модель + отзыв, тип + цвет и тд!
2) Пишешь шаблон формирования тегов и метатегов для этих страниц. Старайся использовать как можно больше уникальных слов для каждой страницы
3) Формируешь логику того, какие товары будут показываться на этих страницах. Если на некоторых страницах подборка товаров одинакова - делай их перестановку по порядку. Слабо - но помогает.
4) Создаешь логику перелинковки этих страниц между собой. Это очень важно! Нужно добиться того, что на каждую страницу будет стоять ссылка. И лучше не одна, а минимум 5-10.
🙈 Canonical и пагинация
Вижу иногда советы или реализацию пагинации с canonical на первую страницу. Таким образом пытаются избаться от дубликатов. Если ты тоже так делаешь - перестань! Canonical - это рекомендация для Google и он может ее не воспринимать. И на практике он именно так и делает. Плюс к этому Canonical показывает, что страница дубликат. Зачем показывать, что на сайте есть множество дубликатов?
Будущее пагинации
Что будет с пагинацией через пару лет? Уже сейчас Google понимает где страница пагинации, а где обычная. Вполне вероятно, что с развитием сайтов на JavaScript сайты откажутся от пагинации совсем! Будет просто подгрузка новых товаров на странице кнопкой, а отдельных страниц не будет существовать вообще. И только старожили будут рассказывать, как мучались с оптимизацией миллионов страниц пагинации на сайте :)
👌 Понравилась статья? Расшарь ее своим друзьям и коллегам!
Столько неопределенности и жарких споров, как о тегах на пагинации ты не увидишь нигде. Количество мифов и заведомо ложных представлений зашкаливает. В этой заметке я расскажу как я реализую пагинацию, зачем она нужна и какое будущее у этих страниц.
Ты задавал(а) себе вопрос: "Для чего моему сайту нужна пагинация"? Если нет - самое время это сделать. Возможных ответа может быть два:
- Для навигации пользователя/конверсии/денег
- Для индексации максимального количества товаров
Все другие ответы являются ответвлениями или модификациями этих.
Если твой ответ №1 - смело закрывай от индексации пагинацию и не знай проблем. Легче всего это сделать с помощью <meta name="robots" content="noindex, follow">. Дополнительно в GSC в настройке обработки урлов запрети проход бота по урлам с параметром пагинации.
Если ты выбрал ответ №2 - есть два варианта
1) Попытаться добиться индексации товаров пагинацией
2) Создать так много посадочных страниц, сколько нужно для покрытия всей сематики и размещения на них подборок ваших товаров.
⚙️ Цель: Добиваемся индексации товаров пагинацией
Мне этот способ откровенно не нравится. Анализ логов сервера показывает, что бот очень неохотно ходит даже по открытой пагинации. Поэтому функцию индексации товаров пагинация выполняет на 30-50%.
Если же ты выбрал этот способ, то нужно обязательно выполнить такую минимальную оптимизацию:
- урл с параметром page=1 (или подобным для твоего сайта) редиректить 301-м редиректом на первую страницу без параметра
- уникализировать Title
- удалить или уникализировать Description
- уникализировать или удалить h1
- в GSC в инструменте обработки параметров урлов добавить параметр пагинации с обработкой "пагинация" + "проходить каждый урл"
⚙️ Цель: Добиваемся индексации товаров созданием нужного количества уникальных посадочных
Этот вариант лучше остальных. Выгода его в том, что ты расширяешь свою семантику + позволяешь всем нужным товарам проиндексироваться.
Нужно создать столько категорий, подкатегорий, страниц тегов - сколько возможно при этом сохраняя их относительную уникальность. Нет смысла создавать 2 страницы с полностью одинаковым контентом. Твой алгоритм может быть такой:
1) Анализируешь семантику и понимаешь какие паттерны существуют и как сильно их можно множить. Это может быть связка: предмет + город, товар + бренд, товар + модель, модель + отзыв, тип + цвет и тд!
2) Пишешь шаблон формирования тегов и метатегов для этих страниц. Старайся использовать как можно больше уникальных слов для каждой страницы
3) Формируешь логику того, какие товары будут показываться на этих страницах. Если на некоторых страницах подборка товаров одинакова - делай их перестановку по порядку. Слабо - но помогает.
4) Создаешь логику перелинковки этих страниц между собой. Это очень важно! Нужно добиться того, что на каждую страницу будет стоять ссылка. И лучше не одна, а минимум 5-10.
🙈 Canonical и пагинация
Вижу иногда советы или реализацию пагинации с canonical на первую страницу. Таким образом пытаются избаться от дубликатов. Если ты тоже так делаешь - перестань! Canonical - это рекомендация для Google и он может ее не воспринимать. И на практике он именно так и делает. Плюс к этому Canonical показывает, что страница дубликат. Зачем показывать, что на сайте есть множество дубликатов?
Будущее пагинации
Что будет с пагинацией через пару лет? Уже сейчас Google понимает где страница пагинации, а где обычная. Вполне вероятно, что с развитием сайтов на JavaScript сайты откажутся от пагинации совсем! Будет просто подгрузка новых товаров на странице кнопкой, а отдельных страниц не будет существовать вообще. И только старожили будут рассказывать, как мучались с оптимизацией миллионов страниц пагинации на сайте :)
👌 Понравилась статья? Расшарь ее своим друзьям и коллегам!
🤜 Новости SEO 12-18.08.19
1️⃣ В справке для вебмастеров добавлены пункты с обьяснением и примерами использования тега noindex для JavaScript сайтов
2️⃣ В браузер Chrome добавлена и в последствии в Evergreen Goglebot будет добавлена поддержка нового тега "lazy" для картинок. С его помощью можно будет четко задавать - какие изображения и iframe грузить сразу, а какие при достижении видимости во время прокрутки. И да - это будет работать во время индексации вашего контента на сайте.
👌 Выводы
Самое крутое нас ждет, когда Googlebot начнем сканировать наши сайты с использованием последнего движка. Стоит ли использовать уже новые теги и техники - конечно да. Нужно быть готовым заранее.
1️⃣ В справке для вебмастеров добавлены пункты с обьяснением и примерами использования тега noindex для JavaScript сайтов
2️⃣ В браузер Chrome добавлена и в последствии в Evergreen Goglebot будет добавлена поддержка нового тега "lazy" для картинок. С его помощью можно будет четко задавать - какие изображения и iframe грузить сразу, а какие при достижении видимости во время прокрутки. И да - это будет работать во время индексации вашего контента на сайте.
👌 Выводы
Самое крутое нас ждет, когда Googlebot начнем сканировать наши сайты с использованием последнего движка. Стоит ли использовать уже новые теги и техники - конечно да. Нужно быть готовым заранее.
🤜 Новости SEO 19-25.08.19
1️⃣ В Twitter официальный аккаунт Google Webmasters подтвердил, что трафик на сайт не является фактором ранжирования
2️⃣ Сайт вебстудии в США получил санкции за ссылки. Ребята решили провести эксперимент и перенести контент на новый домен. Без 301 редиректа. Они хотят выяснить - сохранятся ли санкции? Хотя John Muller и ответил, что 301 редирект совсем не обязателен, чтобы они связали два сайта в один. Посмотрим!
👌 Выводы
Нововстей маловато, но это и хорошо. Нет апдейтов - можно жить спокойно. Чувствует моя душа, что скоро будет буря :)
1️⃣ В Twitter официальный аккаунт Google Webmasters подтвердил, что трафик на сайт не является фактором ранжирования
2️⃣ Сайт вебстудии в США получил санкции за ссылки. Ребята решили провести эксперимент и перенести контент на новый домен. Без 301 редиректа. Они хотят выяснить - сохранятся ли санкции? Хотя John Muller и ответил, что 301 редирект совсем не обязателен, чтобы они связали два сайта в один. Посмотрим!
👌 Выводы
Нововстей маловато, но это и хорошо. Нет апдейтов - можно жить спокойно. Чувствует моя душа, что скоро будет буря :)
✒️ Что такое SILO и какую пользу он приносит сайту
Если загуглить термин SILO, то вы наткнетесь на множество контейнеров для зерна и других не SEOшных вещей. Действительно, этот термин пришел к нам из агро сферы. Там он означает раздельные емкости для чего-либо. Для SEO SILO означает похожие вещи.
SILO в SEO - это метод, который применяется для связывания страниц сайта ссылками между собой (перелинковка). Какую пользу он приносит сайту:
- Обеспечивает четкое разделение страниц сайта по тематическим кластерам и тем самым улучшает "понимание" сайта Гуглом
- Позволяет повысить позиции по среднечастотным и низкочастотным ключевым словам.
🔨 Смысл SILO
Ваш сайт состоит из определенных страниц. Каждая страница заточена под свои ключевые слова. Определенные ключевые слова можно обьеденить в тематические группы. Если так сделать для всех ключей и страниц, то ваш сайт будет разделен на тематические группы страниц.
Для того, чтобы SILO заработало во всю - нужно придерживаться двух правил:
- Связывать между собой страницы одной тематической группы основной перелинковкой
- Тематические группы страниц связать между собой вспомогательными ссылками - только для прохода Googlebot по сайту.
🔨 Рассмотрим на искусственном примере
У вас есть сайт и на нем есть три вида товаров: телевизоры, стиральные машинки и цветочные горшки. Для каждой группы товаров есть страницы тегов/категорий и страницы товаров.
Для построения связей по SILO методу нам нужно:
- найти все страницы для каждой группы товаров. В итоге получается три группы страниц
- внутри каждой группы построить ссылки и связать все страницы между собой. Стараемся ставить больше ссылок на страницы, что принесут нам больше трафика (более частотные ключи)
- между группами товаров ставим чуток ссылок в футере, в меню - только ради прохода googlebot.
👌 Выводы
Таким нехитрым способом мы можем значительно увеличить трафик по низкочастотникам, а по среднечастотным ключам поднять позиции, а иногда и дотянуть до ТОПа.
Избегайте хаоса в перелинковке и будет вам ТОП!
Если загуглить термин SILO, то вы наткнетесь на множество контейнеров для зерна и других не SEOшных вещей. Действительно, этот термин пришел к нам из агро сферы. Там он означает раздельные емкости для чего-либо. Для SEO SILO означает похожие вещи.
SILO в SEO - это метод, который применяется для связывания страниц сайта ссылками между собой (перелинковка). Какую пользу он приносит сайту:
- Обеспечивает четкое разделение страниц сайта по тематическим кластерам и тем самым улучшает "понимание" сайта Гуглом
- Позволяет повысить позиции по среднечастотным и низкочастотным ключевым словам.
🔨 Смысл SILO
Ваш сайт состоит из определенных страниц. Каждая страница заточена под свои ключевые слова. Определенные ключевые слова можно обьеденить в тематические группы. Если так сделать для всех ключей и страниц, то ваш сайт будет разделен на тематические группы страниц.
Для того, чтобы SILO заработало во всю - нужно придерживаться двух правил:
- Связывать между собой страницы одной тематической группы основной перелинковкой
- Тематические группы страниц связать между собой вспомогательными ссылками - только для прохода Googlebot по сайту.
🔨 Рассмотрим на искусственном примере
У вас есть сайт и на нем есть три вида товаров: телевизоры, стиральные машинки и цветочные горшки. Для каждой группы товаров есть страницы тегов/категорий и страницы товаров.
Для построения связей по SILO методу нам нужно:
- найти все страницы для каждой группы товаров. В итоге получается три группы страниц
- внутри каждой группы построить ссылки и связать все страницы между собой. Стараемся ставить больше ссылок на страницы, что принесут нам больше трафика (более частотные ключи)
- между группами товаров ставим чуток ссылок в футере, в меню - только ради прохода googlebot.
👌 Выводы
Таким нехитрым способом мы можем значительно увеличить трафик по низкочастотникам, а по среднечастотным ключам поднять позиции, а иногда и дотянуть до ТОПа.
Избегайте хаоса в перелинковке и будет вам ТОП!
👉 До 1 сентября снижены цены на шестой поток курса Deep in Tech SEO
Для тех, кто хочет разобраться во всех нюансах внутренней оптимизации от основ и до фишечек - приглашаю на свой курс. Уже шестой😍 (как время то летит) поток.
🤫 А те, кто успеют записаться до 1 сентября - порадуются скидке на все пакеты.
Для тех, кто хочет разобраться во всех нюансах внутренней оптимизации от основ и до фишечек - приглашаю на свой курс. Уже шестой😍 (как время то летит) поток.
🤫 А те, кто успеют записаться до 1 сентября - порадуются скидке на все пакеты.
Вчера мой сын первый раз пошел в школу - поэтому и новости не выходили. Принимаю поздравляшки в личку :) Пока стоял на линейке, вспоминал песню AC/DC Hells Bells. Было незабываемо...
🤜 Новости SEO 26.08-02.09.19
1️⃣ В этот понедельник в США праздник - Labor Day. Не удивляйтесь скачкам трафика.
2️⃣ Bing начал интеграцию с Google. Теперь можно подтвердить владение сайтом в Bing Webmaster Tools через GSC и импортировать из Google my business информацию в Bing Places.
3️⃣ Сдавать в аренду свои поддомены другим сайтам становится опасно. По некоторым данным Google выкатил апдейт, который понижает в выдаче такие сайты.
4️⃣ 28.08 по всем системам мониторинга выдачи замечены значительные скачки. Будьте внимательны - может это апдейт?
5️⃣ Наш любмичик John Muller сообщил, что большинство сайтов проходят сейчас через две волны индексации с использованием рендеринга. Это значит, что даже без JavaScript на сайте - он будет проходить через процесс рендеринга Гуглом.
👌 Выводы
Давно ожидалось, что Гугл будет бороться со сдачей поддоменов в аренду и вот этот день настал. Проверьте свои ссылки! Если они идут с таких поддоменов, то пора их снимать.
Следим за трафиком и позициями по 28 августа. На моих сайтах все ок - как у вас?
🤜 Новости SEO 26.08-02.09.19
1️⃣ В этот понедельник в США праздник - Labor Day. Не удивляйтесь скачкам трафика.
2️⃣ Bing начал интеграцию с Google. Теперь можно подтвердить владение сайтом в Bing Webmaster Tools через GSC и импортировать из Google my business информацию в Bing Places.
3️⃣ Сдавать в аренду свои поддомены другим сайтам становится опасно. По некоторым данным Google выкатил апдейт, который понижает в выдаче такие сайты.
4️⃣ 28.08 по всем системам мониторинга выдачи замечены значительные скачки. Будьте внимательны - может это апдейт?
5️⃣ Наш любмичик John Muller сообщил, что большинство сайтов проходят сейчас через две волны индексации с использованием рендеринга. Это значит, что даже без JavaScript на сайте - он будет проходить через процесс рендеринга Гуглом.
👌 Выводы
Давно ожидалось, что Гугл будет бороться со сдачей поддоменов в аренду и вот этот день настал. Проверьте свои ссылки! Если они идут с таких поддоменов, то пора их снимать.
Следим за трафиком и позициями по 28 августа. На моих сайтах все ок - как у вас?
🤜 Новости SEO 2-08.09.19
1️⃣ Новый апдейт алгоритма Google возможно случился 4-5 сентября. На многих сайтах замечены значительные скачки в позициях.
2️⃣ Дополнительно к этому 4 сентября на многих сайтах замечен огромных скачек в количестве страниц скрауленых Googlebot в сутки. Эти скачки вы можете увидеть в старой версии GSC в разделе "Статистика сканирования".
3️⃣ 5 сентября были обновлены Search Quality Rater Guidelines. Очень хорошо разбор того, что изменилось отображен тут.
👌 Выводы
Как и ожидалось - после недели затишья навалилось серьезных изменений. Думаю, что скачки в количестве скрауленых страниц могут быть предвестниками значительных изменений в ранжировании. Интересно, что на нашем сайте сильный скачек был замечен 31 августа. Посмотрим, к чему готовится Google.
1️⃣ Новый апдейт алгоритма Google возможно случился 4-5 сентября. На многих сайтах замечены значительные скачки в позициях.
2️⃣ Дополнительно к этому 4 сентября на многих сайтах замечен огромных скачек в количестве страниц скрауленых Googlebot в сутки. Эти скачки вы можете увидеть в старой версии GSC в разделе "Статистика сканирования".
3️⃣ 5 сентября были обновлены Search Quality Rater Guidelines. Очень хорошо разбор того, что изменилось отображен тут.
👌 Выводы
Как и ожидалось - после недели затишья навалилось серьезных изменений. Думаю, что скачки в количестве скрауленых страниц могут быть предвестниками значительных изменений в ранжировании. Интересно, что на нашем сайте сильный скачек был замечен 31 августа. Посмотрим, к чему готовится Google.
🤜 Старый интерфейс Google Search Console RIP!!!
Пропала кнопка перехода в старый интерфейс нашего любимого тула. Но не отчаивайтесь - все инструменты теперь доступны в новом интерфейсе GSC в разделе Legacy tools & reports. Да и интерфейс у них остался старый.
🙈 Скучаете по старой консольке?
Пропала кнопка перехода в старый интерфейс нашего любимого тула. Но не отчаивайтесь - все инструменты теперь доступны в новом интерфейсе GSC в разделе Legacy tools & reports. Да и интерфейс у них остался старый.
🙈 Скучаете по старой консольке?
🤜 Новости SEO 09-15.19
1️⃣ Google сказал "goodbye" старой версии Google Search Console. Подробнее в сообщении выше 👆
2️⃣ Google стал отдавать больше предпочтения оригинальным источникам новостей, а не перепостам и цитатам в других публикациях
3️⃣ Добавлены новые атрибуты для ссылок, что стали "дополнением" для nofollow. Теперь есть еще и ugc - для ссылок с user generated content и sponsored для ссылок, что были куплены/проставлены в рекламных целях.
4️⃣ Теперь meta name robots nofollow перестал быть директивой официально и стал рекомендацией.
👌 Выводы
На этой неделе множество новостей. Одна из основных - как повлияет на ранжирование использование новых атрибутов для ссылок? Пока никто не знает - нужно будет ждать пару месяцев. Но уже появились в Ahrefs первые ласточки - стали отображаться ссылки с новыми атрибутами.
1️⃣ Google сказал "goodbye" старой версии Google Search Console. Подробнее в сообщении выше 👆
2️⃣ Google стал отдавать больше предпочтения оригинальным источникам новостей, а не перепостам и цитатам в других публикациях
3️⃣ Добавлены новые атрибуты для ссылок, что стали "дополнением" для nofollow. Теперь есть еще и ugc - для ссылок с user generated content и sponsored для ссылок, что были куплены/проставлены в рекламных целях.
4️⃣ Теперь meta name robots nofollow перестал быть директивой официально и стал рекомендацией.
👌 Выводы
На этой неделе множество новостей. Одна из основных - как повлияет на ранжирование использование новых атрибутов для ссылок? Пока никто не знает - нужно будет ждать пару месяцев. Но уже появились в Ahrefs первые ласточки - стали отображаться ссылки с новыми атрибутами.
🤜 Новости SEO 16-22.09.19
1️⃣ В GSC появился новый отчет по структурированным данным для разметки хлебных крошек
2️⃣ John Muller напомнил нам, что не стоит надеятся на индексацию Аякс урлов с хешем. Google воспринимает яваскриптовые редиректы и вам нужно сделать такой для каждого урла с хешем. Обычный серверный 301 редирект не будет восприниматься Googlebot.
👌 Выводы
Новостей серьезных маловато, но это и хорошо. Можно спокойно работать. Обратите внимание на новый отчет по хлебных крошкам в GSC - действительно стоящие вещи можно увидеть.
1️⃣ В GSC появился новый отчет по структурированным данным для разметки хлебных крошек
2️⃣ John Muller напомнил нам, что не стоит надеятся на индексацию Аякс урлов с хешем. Google воспринимает яваскриптовые редиректы и вам нужно сделать такой для каждого урла с хешем. Обычный серверный 301 редирект не будет восприниматься Googlebot.
👌 Выводы
Новостей серьезных маловато, но это и хорошо. Можно спокойно работать. Обратите внимание на новый отчет по хлебных крошкам в GSC - действительно стоящие вещи можно увидеть.
Всем внимание на позиции и трафик.
Апдейт Гугла идёт https://twitter.com/searchliaison/status/1176473923833225221?s=19
Апдейт Гугла идёт https://twitter.com/searchliaison/status/1176473923833225221?s=19
Twitter
Google SearchLiaison
Later today, we are releasing a broad core algorithm update, as we do several times per year. It is called the September 2019 Core Update. Our guidance about such updates remains as we’ve covered before. Please see this blog for more about that: https://t.co/e5ZQUAlt0G
🤜 Новости SEO 23-29.09.19
1️⃣ 24 сентября Гугл выкатил очередной апдейт.
2️⃣ Теперь мы можем лучше контролировать вид сниппета страниц наших сайтов. Google выкатил новинку: с помощью четырех новых настроек метатега robots и одного html атрибута.
3⃣ Рассказывая о том, как закрыть тестовый сервер от краулера Гугла, Мюллер указал на интересную вещь. "Лучший способ закрыть тестовый сервер от Google - это сделать аутентификацию. Если краулер найдет ссылку на страницу, что закрыта в robots.txt, то он все равно может на нее зайти для краулинга".
4⃣ Google может игнорировать nofollow для внешних ссылок, если этот атрибут проставлен для всех линков.
5⃣ Googlebot обновился до 77 версии Хрома.
6⃣ Теперь в GSC можно смотреть данные по кликам, показам и средней позиции за вчера. Ранее лаг во времени составлял три дня.
👌 Выводы
Ааааа! Очень насыщенная неделя.
Апдейт в этот раз оказался не таким серьезным, как прошлый. По некоторым данным задело сайты, что активно использовали 301 редирект с дропов и других доменов.
Новые возможности по управлению сниппетом меня очень порадовали. Теперь можно будет убрать весь бред, что тянулся с сайта всем напоказ.
Супер ценным оказался апдейт GSC. Зачем теперь постоянно заглядывать в GA, если актуальные данные есть в нашей любимой консольке? Да, не такие точные, но уникальные и свежие.
💡Как вам прошлая неделя?
1️⃣ 24 сентября Гугл выкатил очередной апдейт.
2️⃣ Теперь мы можем лучше контролировать вид сниппета страниц наших сайтов. Google выкатил новинку: с помощью четырех новых настроек метатега robots и одного html атрибута.
3⃣ Рассказывая о том, как закрыть тестовый сервер от краулера Гугла, Мюллер указал на интересную вещь. "Лучший способ закрыть тестовый сервер от Google - это сделать аутентификацию. Если краулер найдет ссылку на страницу, что закрыта в robots.txt, то он все равно может на нее зайти для краулинга".
4⃣ Google может игнорировать nofollow для внешних ссылок, если этот атрибут проставлен для всех линков.
5⃣ Googlebot обновился до 77 версии Хрома.
6⃣ Теперь в GSC можно смотреть данные по кликам, показам и средней позиции за вчера. Ранее лаг во времени составлял три дня.
👌 Выводы
Ааааа! Очень насыщенная неделя.
Апдейт в этот раз оказался не таким серьезным, как прошлый. По некоторым данным задело сайты, что активно использовали 301 редирект с дропов и других доменов.
Новые возможности по управлению сниппетом меня очень порадовали. Теперь можно будет убрать весь бред, что тянулся с сайта всем напоказ.
Супер ценным оказался апдейт GSC. Зачем теперь постоянно заглядывать в GA, если актуальные данные есть в нашей любимой консольке? Да, не такие точные, но уникальные и свежие.
💡Как вам прошлая неделя?
💡 Ищу для себя в DeepSEO помощника/помощницу.
👌 Если ты уровня джун или почти миддл, тебе интересно разбираться во внутренней оптимизации, делать аудиты, рисовать структуру сайта и т.д - читай дальше. Или можешь кого-то посоветовать - расшарь пост.
👍 Что я предлагаю
1) Проектная работа. Можешь совмещать с учебой/другой работой
2) Задачи по внутреннему SEO от меня
3) Оплата по проектам, без задержек
4) Объем и сложность задач будут постепенно расти, если справляешься
5) На первые два-три месяца объем и сложность работы на $100-$400 в мес
6) Помощь, ответы на вопросы и мое менторство
😇 Что нужно от тебя
1) Желание заниматься тех SEO
2) Соблюдать сроки
3) Не врать
4) Гибкость мышления и желание учиться
💋 Узнать обо мне и написать в личку можно по ссылкам:
1. FB /bankovskyihor
2. Сайт deepseo.com.ua
3. Мой Instagram bankovskyi_ihor
4. Telegram bankovskyi
👌 Если ты уровня джун или почти миддл, тебе интересно разбираться во внутренней оптимизации, делать аудиты, рисовать структуру сайта и т.д - читай дальше. Или можешь кого-то посоветовать - расшарь пост.
👍 Что я предлагаю
1) Проектная работа. Можешь совмещать с учебой/другой работой
2) Задачи по внутреннему SEO от меня
3) Оплата по проектам, без задержек
4) Объем и сложность задач будут постепенно расти, если справляешься
5) На первые два-три месяца объем и сложность работы на $100-$400 в мес
6) Помощь, ответы на вопросы и мое менторство
😇 Что нужно от тебя
1) Желание заниматься тех SEO
2) Соблюдать сроки
3) Не врать
4) Гибкость мышления и желание учиться
💋 Узнать обо мне и написать в личку можно по ссылкам:
1. FB /bankovskyihor
2. Сайт deepseo.com.ua
3. Мой Instagram bankovskyi_ihor
4. Telegram bankovskyi
✒️Как создавать эффективные xml карты сайта (для урлов)
Кто еще не слышал о XML картах сайта? Все уши прожужжали и на каждом хоть немного приличном SEO-блоге есть статья о них. Но блин, 70% из них на всех сайтах просто никуда не годятся. Обычно ограничиваются настройкой автоматического модуля по их созданию и в лучшем случае - добавят в GSC.
Давайте разберемся, как из них вытянуть максимум пользы, что можно и что нельзя и вообще - работают ли они.
🔨 Начнем с конца. Да, XML карты сайта работают. Но работают для чего?
Лучше всего они справляются с подталкиванием Googlebot на проход по урлам сайта. Никогда не говорите, что они влияют на индексацию. Googlebot сам решит - индексировать страницу или нет. А вы его только направили на нужные URL.
Дают ли они 100% гарантию, что Googlebot пройдет по всем урлам? Ха-ха, конечно нет. Особенно громко нужно смеятся, когда вы занимаетесь большим сайтом на пару десятков тысячь страниц.
Какая еще от них польза? Многие упускают скрытые возможности, что открывает добавление ЧЬД карты сайта в GSC. Если вы напряглись и добавили, то сможете анализировать количество страниц в индексе по каждой карте сайта. Это реально удобно, если вы работаете со своим сайтом и развиваете его. Знать какие и сколько урлов в индексе, а какие нет - неоценимо.
🔨 Пора перейти к алгоритму создания XML карты сайта
1️⃣ У вас есть сайт. Вы знаете большие разделы/категории на нем. (Посмотрите статью про SILO выше).
2️⃣ Выписываем эти группы страниц и если они супер малые - укрупняем их обьединяя мелкие.
3️⃣ Для каждой группы страниц делаем свою карту сайта. Конечно, будет круто, если вы сможете разместить по максимум 1000 урлов в каждой. (Именно столько показывает GSC в своем отчете по индексации).
4️⃣ Создаем индексную или индексные карты сайта, что будут обьединять в себе более мелкие.
5️⃣ Добавляем в GSC индексные карты сайта и ждем.
6️⃣ Анализируем и наслаждаемся.
🔨 Теперь детали
Я создаю индексную XML карту на каждый раздел сайта. В ней у меня лежат пронумерованные обычные XML карты. Получается примерно так:
Холодильники (индексная)
-- Холодильники LG 1
-- Холодильники LG 2
-- Холодильники Beko 1
-- и т.д.
Что интересно: индексные карты сайта можно запихнуть в еще одну индексную.
Бытовая техника (индексная)
-- Холодильники (индексная)
-- Стиральные машинки (индексная)
-- и т.д.
Я не обращаю внимание на priority, но стараюсь отображать правду в lastmod. (Кто не понимает о чем я - го в справку по параметрам урлов в XML карте сайта)
🔨 Что в итоге
В GSC вы получаете список из карт сайта, что отображают разделы на вашем сайте. Вы сможете анализировать: сколько проиндексировалось в каждом разделе урлов, сколько с ошибками и тд. Вы сможете увидеть урлы, что были проиндексированы и методом исключения понять - какие не попали в индекс. Дальше поле для анализа огромное.
🔨 Особые случаи использования XML карт сайта
Есть пара не очень стандатных способов их применения.
Для подталкивания к проходу Gbot новых урлов или тех, что не в индексе.
Для этого мы создаем отдельную карту сайта с избранными урлами и пулим ее в GSC. Мы можем настроит автоматическое обновление урлов в карте раз в сутки - тогда каждый день Gbot будет получать свежую порцию урлов для прохода
Для ускорения выбрасывания урлов из индекса.
Принцип аналогичный. Создаем карту сайта с урлами, что уже отдают 404 или 301 и пулим ее в GSC. С большой вероятностью бот пройдет по этим урлам и быстрей выбросит из индекса. После этого такую карту удаляем.
Кто еще не слышал о XML картах сайта? Все уши прожужжали и на каждом хоть немного приличном SEO-блоге есть статья о них. Но блин, 70% из них на всех сайтах просто никуда не годятся. Обычно ограничиваются настройкой автоматического модуля по их созданию и в лучшем случае - добавят в GSC.
Давайте разберемся, как из них вытянуть максимум пользы, что можно и что нельзя и вообще - работают ли они.
🔨 Начнем с конца. Да, XML карты сайта работают. Но работают для чего?
Лучше всего они справляются с подталкиванием Googlebot на проход по урлам сайта. Никогда не говорите, что они влияют на индексацию. Googlebot сам решит - индексировать страницу или нет. А вы его только направили на нужные URL.
Дают ли они 100% гарантию, что Googlebot пройдет по всем урлам? Ха-ха, конечно нет. Особенно громко нужно смеятся, когда вы занимаетесь большим сайтом на пару десятков тысячь страниц.
Какая еще от них польза? Многие упускают скрытые возможности, что открывает добавление ЧЬД карты сайта в GSC. Если вы напряглись и добавили, то сможете анализировать количество страниц в индексе по каждой карте сайта. Это реально удобно, если вы работаете со своим сайтом и развиваете его. Знать какие и сколько урлов в индексе, а какие нет - неоценимо.
🔨 Пора перейти к алгоритму создания XML карты сайта
1️⃣ У вас есть сайт. Вы знаете большие разделы/категории на нем. (Посмотрите статью про SILO выше).
2️⃣ Выписываем эти группы страниц и если они супер малые - укрупняем их обьединяя мелкие.
3️⃣ Для каждой группы страниц делаем свою карту сайта. Конечно, будет круто, если вы сможете разместить по максимум 1000 урлов в каждой. (Именно столько показывает GSC в своем отчете по индексации).
4️⃣ Создаем индексную или индексные карты сайта, что будут обьединять в себе более мелкие.
5️⃣ Добавляем в GSC индексные карты сайта и ждем.
6️⃣ Анализируем и наслаждаемся.
🔨 Теперь детали
Я создаю индексную XML карту на каждый раздел сайта. В ней у меня лежат пронумерованные обычные XML карты. Получается примерно так:
Холодильники (индексная)
-- Холодильники LG 1
-- Холодильники LG 2
-- Холодильники Beko 1
-- и т.д.
Что интересно: индексные карты сайта можно запихнуть в еще одну индексную.
Бытовая техника (индексная)
-- Холодильники (индексная)
-- Стиральные машинки (индексная)
-- и т.д.
Я не обращаю внимание на priority, но стараюсь отображать правду в lastmod. (Кто не понимает о чем я - го в справку по параметрам урлов в XML карте сайта)
🔨 Что в итоге
В GSC вы получаете список из карт сайта, что отображают разделы на вашем сайте. Вы сможете анализировать: сколько проиндексировалось в каждом разделе урлов, сколько с ошибками и тд. Вы сможете увидеть урлы, что были проиндексированы и методом исключения понять - какие не попали в индекс. Дальше поле для анализа огромное.
🔨 Особые случаи использования XML карт сайта
Есть пара не очень стандатных способов их применения.
Для подталкивания к проходу Gbot новых урлов или тех, что не в индексе.
Для этого мы создаем отдельную карту сайта с избранными урлами и пулим ее в GSC. Мы можем настроит автоматическое обновление урлов в карте раз в сутки - тогда каждый день Gbot будет получать свежую порцию урлов для прохода
Для ускорения выбрасывания урлов из индекса.
Принцип аналогичный. Создаем карту сайта с урлами, что уже отдают 404 или 301 и пулим ее в GSC. С большой вероятностью бот пройдет по этим урлам и быстрей выбросит из индекса. После этого такую карту удаляем.
🤜 Новости SEO 30.09-06.10.19
1️⃣ В начале декабря браузер Google Chrome начнет блокировать загрузку ресурсов, что расположены на http, если сама страница на https.
2️⃣ John Muller сказал, что у Google нет никаких проблем с множеством h1 на страницах сайта.
3️⃣ Юзерагент Googlebot обновится в декабре. Изменится всего один элемент в строке. Затронет вас только, если вы привязали какие0либо инструменты к определению Googlebot.
4️⃣ В GSC неожиданно стало показываться в два раза меньше входящих ссылок на сайт, чем было до этого. Об этом сообщают многие владельцы сайтов.
👌 Выводы
Конечно, у Google нет проблем с множеством h1 на страницах. А вот у SEO-спецов они могут быть :) Что точно, так отсутствие h1 на странице негативно повлияет на ранжирование.
GSC урезал количество входящих ссылок в своем отчете на многих сайтах. Причины пока не ясны, но если теперь показываются действительно "только рабочие" ссылки - никто не против.
1️⃣ В начале декабря браузер Google Chrome начнет блокировать загрузку ресурсов, что расположены на http, если сама страница на https.
2️⃣ John Muller сказал, что у Google нет никаких проблем с множеством h1 на страницах сайта.
3️⃣ Юзерагент Googlebot обновится в декабре. Изменится всего один элемент в строке. Затронет вас только, если вы привязали какие0либо инструменты к определению Googlebot.
4️⃣ В GSC неожиданно стало показываться в два раза меньше входящих ссылок на сайт, чем было до этого. Об этом сообщают многие владельцы сайтов.
👌 Выводы
Конечно, у Google нет проблем с множеством h1 на страницах. А вот у SEO-спецов они могут быть :) Что точно, так отсутствие h1 на странице негативно повлияет на ранжирование.
GSC урезал количество входящих ссылок в своем отчете на многих сайтах. Причины пока не ясны, но если теперь показываются действительно "только рабочие" ссылки - никто не против.