Google интересуется, почему вебмастерам не хватает функции отправки URL на индексацию
Три недели назад Google «временно» отключил инструмент отправки запросов на индексацию страницы в Search Console. Сегодня сотрудник поиска Джон Мюллер пригласил вебмастеров принять участие в опросе о том, почему они хотят вернуть эту возможность.
Мюллер отметил, что никаких новостей на эту тему у него нет, но он хотел бы узнать, почему вебмастерам не хватает этого инструмента.
Он предлагает специалистам заполнить форму под названием «I'm missing the URL submission tool» по ссылке.
В ней нужно:
1. Указать тот URL, который вебмастер хотел бы отправить в Google;
2. Указать примерное количество похожих URL, которые можно было бы отправить с сайта за последнюю неделю;
3. Почему данная страница должна быть срочно проиндексирована;
4. Насколько критичной является отправка URL в Google для сайта.
Опрос по ссылке: https://docs.google.com/forms/d/e/1FAIpQLSenIs-5PtOC-fbcHwLwXXvb5swSU5oYNAc7c-ggI-r0Jor0ig/viewform
Три недели назад Google «временно» отключил инструмент отправки запросов на индексацию страницы в Search Console. Сегодня сотрудник поиска Джон Мюллер пригласил вебмастеров принять участие в опросе о том, почему они хотят вернуть эту возможность.
Мюллер отметил, что никаких новостей на эту тему у него нет, но он хотел бы узнать, почему вебмастерам не хватает этого инструмента.
Он предлагает специалистам заполнить форму под названием «I'm missing the URL submission tool» по ссылке.
В ней нужно:
1. Указать тот URL, который вебмастер хотел бы отправить в Google;
2. Указать примерное количество похожих URL, которые можно было бы отправить с сайта за последнюю неделю;
3. Почему данная страница должна быть срочно проиндексирована;
4. Насколько критичной является отправка URL в Google для сайта.
Опрос по ссылке: https://docs.google.com/forms/d/e/1FAIpQLSenIs-5PtOC-fbcHwLwXXvb5swSU5oYNAc7c-ggI-r0Jor0ig/viewform
Google Docs
I'm missing the URL submission tool :(
Let us know about some of the URLs you would have used the URL submission feature in Search Console for. Where should Google be crawling more, or more frequently, so that you don't have to do as much manual work?
URLs submitted in this form will only be…
URLs submitted in this form will only be…
🌐 23 октября Head of Operations RevenueLab Петр Лопухов выступил с большим докладом: «SEO в Gambling: трафик и конверсии» на крупной онлайн-конференции NaZapad. Для тех, кто не смог принять участие в лайв трансляции, мы подготовили для вас запись выступления, чтобы полезная инфа не прошла мимо тебя!
СМОТРЕТЬ ВЫСТУПЛЕНИЕ
А чтобы ты мог скорее применить полученные знания на практике, команда RevenueLab подготовила для тебя крутой оффер под SEO трафик для Болгарии от известного бренда Maneki!
✅ Конверт из реги в FTD 40%
✅ Hybrid 25€ + 40% RevShare
Регистрируйся и воспользуйся предложением
СМОТРЕТЬ ВЫСТУПЛЕНИЕ
А чтобы ты мог скорее применить полученные знания на практике, команда RevenueLab подготовила для тебя крутой оффер под SEO трафик для Болгарии от известного бренда Maneki!
✅ Конверт из реги в FTD 40%
✅ Hybrid 25€ + 40% RevShare
Регистрируйся и воспользуйся предложением
*откатов не получаю за такую "рекламу", если че
P.S. это не претензия к Тарасу или Диме :D
P.S. это не претензия к Тарасу или Диме :D
В команде прозвучала шутка:
Сын SEOшника спрашивает отца:
- Папа, почему твой отец на тебя переписал квартиру, а ты на меня дроп-домен?
ору.
Сын SEOшника спрашивает отца:
- Папа, почему твой отец на тебя переписал квартиру, а ты на меня дроп-домен?
ору.
Long Tail запросы не всегда менее конкурентны.
Сейчас гораздо важнее и лучше, находить менее известные под-кластеры, вот там и правда бывает отсутствует конкуренция.
Сложно обьяснить, без примера. Но пример палить не хочется 😅
https://seranking.ru/blog/seo/long-tail-klyuchi/
Сейчас гораздо важнее и лучше, находить менее известные под-кластеры, вот там и правда бывает отсутствует конкуренция.
Сложно обьяснить, без примера. Но пример палить не хочется 😅
https://seranking.ru/blog/seo/long-tail-klyuchi/
Блог о SEO, PPC, SMM | SE Ranking
Что такое long-tail запросы и как их использовать для продвижения
Разбираемся в типах запросов «с хвостом» и их важности для SEO. Почему важно включать в свою стратегию ключевые слова long-tail и как это делать правильно.
При оценке качества донора, многие смотрят общий трафик сайта, не только SEO траф.
Для многих показатель траффика, это самый важный критерий качества.
Но, вот всем кто так считает, мое мнение «на подумать» скажем так
Смотрите, я не видел не одного сайта, которому трафик с других источников, помогал расти по SEO.
Ну вот, прям совсем не видел.
У меня есть пара белых сайтов, где много трафика со всяких социалок. Но пока, я не начал ставить ссылки, затачивать страницы под семантику получше - органического трафика было очень и очень мало.
Это я к чему
Во первых, перестаньте все мерять одним лишь показателем - кол-во траффика
Во вторых, почему Google должен ранжировать сайт выше или лучше, или вообще как то лучше относится к сайту лишь из за того, что у него есть другой трафик из неподконтрольных ему площадок, по сути конкурентов: FB, Pinterest, Insta, VK и прочее.
Почему он должен оценивать поведенческие факторы тех людей, что пришли от его конкурентов?)
Почему поведенческий фактор, должен влиять на вес, который передаётся ссылкой?)
Подумайте....
Для многих показатель траффика, это самый важный критерий качества.
Но, вот всем кто так считает, мое мнение «на подумать» скажем так
Смотрите, я не видел не одного сайта, которому трафик с других источников, помогал расти по SEO.
Ну вот, прям совсем не видел.
У меня есть пара белых сайтов, где много трафика со всяких социалок. Но пока, я не начал ставить ссылки, затачивать страницы под семантику получше - органического трафика было очень и очень мало.
Это я к чему
Во первых, перестаньте все мерять одним лишь показателем - кол-во траффика
Во вторых, почему Google должен ранжировать сайт выше или лучше, или вообще как то лучше относится к сайту лишь из за того, что у него есть другой трафик из неподконтрольных ему площадок, по сути конкурентов: FB, Pinterest, Insta, VK и прочее.
Почему он должен оценивать поведенческие факторы тех людей, что пришли от его конкурентов?)
Почему поведенческий фактор, должен влиять на вес, который передаётся ссылкой?)
Подумайте....
Мне кажется, ПФ очень шумный фактор.
Допустим, вы льёте AdWords на сайт, у вас хорошие или просто нормальные ПФ.
Но может это связанно лишь с тем, что вы просто имеете преимущество в позиции?
Почему, сайт который не льёт AdWords, должен конкурировать с вами по ПФам? В органике
Почему, ПФ делают сильно общими? Связанными со всем сайтом сразу.
Что если, у вас 1 страница гавно, а вторая норм.
На 1 люди ничего не могут найти, а на второй прям все норм.
И допустим, есть конкурент у которого страница, которая у вас гавно - у него она бомба, просто топ, там все есть что надо человеку для решения проблемы, почему ПФ не могут быть привязаны чисто к 1 кластеру или даже запросу или группе определённых запросов?
Почему, чувак с крутой страницей должен страдать из-за того, что к вашему сайту “Google в целом относится лучше» якобы из за того, что ПФ это общий показатель качества.
Подумайте... ещё раз, мне это прям покоя не даёт. Я сам 100% не знаю и бьюсь лишь в догадках, пытаюсь что то узнать и понять. Но в целом мнение такое. Надеюсь, получилось обьяснить его.
Допустим, вы льёте AdWords на сайт, у вас хорошие или просто нормальные ПФ.
Но может это связанно лишь с тем, что вы просто имеете преимущество в позиции?
Почему, сайт который не льёт AdWords, должен конкурировать с вами по ПФам? В органике
Почему, ПФ делают сильно общими? Связанными со всем сайтом сразу.
Что если, у вас 1 страница гавно, а вторая норм.
На 1 люди ничего не могут найти, а на второй прям все норм.
И допустим, есть конкурент у которого страница, которая у вас гавно - у него она бомба, просто топ, там все есть что надо человеку для решения проблемы, почему ПФ не могут быть привязаны чисто к 1 кластеру или даже запросу или группе определённых запросов?
Почему, чувак с крутой страницей должен страдать из-за того, что к вашему сайту “Google в целом относится лучше» якобы из за того, что ПФ это общий показатель качества.
Подумайте... ещё раз, мне это прям покоя не даёт. Я сам 100% не знаю и бьюсь лишь в догадках, пытаюсь что то узнать и понять. Но в целом мнение такое. Надеюсь, получилось обьяснить его.
В ЛС написал человек, что у когда в его интернет магазине заканчивается товар, он по запросам связанными с этим товаром опускается ниже по позициям, за счёт Bounce рейта.
Речь идёт про органику.
Вот по сути, ещё один факт к тому, что ПФ если анализируется то применяется чётко к одному кластеру или даже запросу.
И никакие другие источники трафика вам не помогут
Это просто не логично
Перестаньте заказывать услуги или тратить деньги на SMM ставя за цель «помочь сайту в органике ПФами из соц.сетей»
А подобных экспертов или инфоцыган, шлите лесом.
Речь идёт про органику.
Вот по сути, ещё один факт к тому, что ПФ если анализируется то применяется чётко к одному кластеру или даже запросу.
И никакие другие источники трафика вам не помогут
Это просто не логично
Перестаньте заказывать услуги или тратить деньги на SMM ставя за цель «помочь сайту в органике ПФами из соц.сетей»
А подобных экспертов или инфоцыган, шлите лесом.
Forwarded from SEO бро (Евгений Красняк)
Привет! Хочу немного написать и рассказать про индексацию в Google.
А именно поделиться своими наблюдениями и дать пару рецептов от некоторых проблем.
Особенно считаю это актуальным в свете того, что Googleотключил приостановил возможносоть отправки запросов на индексацию страниц.
Обнаружена/просканирована, но не проиндексирована.
Не приговор)
Часто, особенно, если домен свежерег, возникает проблема с тем, что гугл может исключать страницы.
https://joxi.ru/Q2KyEjLivE4Nar
Он отправляет страницы в своего рода отстойник, мол пока они не заслужили попасть в индекс.
Также такое возможно, если контент на самой странице, мягко говоря, не ахти или, например, у тебя куча
страниц под микро нч, которые различаются вроде как и ничем, кроме мета тегов и некоторой части контента.
Наша задача заставить гугл скушать страницы.
1️⃣ Комментарии.
Это один из наилучших способов оживить страницу.
Во-первых, меняется контент на странице. Во-вторых, это сигнал гуглу, что страница уже не в том виде, в котором он закинул ее в "исключено", и это повод обратить внимание на нее снова.
Я обычно использую ручной труд. Не свой)
Иду на биржу QComment и заказываю комментарии.
Пример задания - https://joxi.ru/12M8MVZckQMv5m
Наблюдения:
• часто достаточно 1-2 комментария до 100 символов. Естественно, если бюджет позволяет, можно и больше.
• после того, как гугл "разгонится" и начнет брать страницы в индекс, комментарии для следующих страниц будут не нужны.
В примере из скриншота с заданием было написано 536 комментариев, чуть больше чем на 250 страниц. При этом исключенных было больше тысячи.
Постепенно страницы, на которые комментарии не писались, также стали попадать в индекс.
2️⃣ Обновление сайта.
Параллельно с комментариями на сайте должны появляться новые страницы. Это важно.
Даже если они также будут попадать в исключенные, они должны появляться на сайте.
3️⃣ Обновление страниц с комментариями.
На страницах, на которые пишутся комментарии, можно организовать дополнительную движуху.
Например, сделать блок новых добавленных материалов, который с учетом п.2 будет постоянно изменяться.
Данный блок, в идеале, не должен быть сквозным через весь сайт, а относиться именно к определенной странице.
4️⃣ И последний пункт.
На сайт добавляются новые страницы, соответственно меняется sitemap.xml
Берем абсолютную ссылку на свой sitemap.xml, подставляем после знака «=»
https://google.com/webmasters/sitemaps/ping?sitemap=
например, https://google.com/webmasters/sitemaps/ping?sitemap=https://site.ru/sitemap.xml
и пингуем гугл о том, что наш sitemap изменился - https://joxi.ru/n2YWDYZieBoY7r
Пингуем 1-2 раза в день или после добавления новых страниц или 1 раз в сутки в определенное время (можно простой скрипт повесить на крон, чтобы он пинговал вашу карту).
Можно пингануть еще и Bing, если есть желание)) Но это на любителя 😄
https://www.bing.com/webmaster/ping.aspx?siteMap=
Хорошего вечера!
А именно поделиться своими наблюдениями и дать пару рецептов от некоторых проблем.
Особенно считаю это актуальным в свете того, что Google
Обнаружена/просканирована, но не проиндексирована.
Не приговор)
Часто, особенно, если домен свежерег, возникает проблема с тем, что гугл может исключать страницы.
https://joxi.ru/Q2KyEjLivE4Nar
Он отправляет страницы в своего рода отстойник, мол пока они не заслужили попасть в индекс.
Также такое возможно, если контент на самой странице, мягко говоря, не ахти или, например, у тебя куча
страниц под микро нч, которые различаются вроде как и ничем, кроме мета тегов и некоторой части контента.
Наша задача заставить гугл скушать страницы.
1️⃣ Комментарии.
Это один из наилучших способов оживить страницу.
Во-первых, меняется контент на странице. Во-вторых, это сигнал гуглу, что страница уже не в том виде, в котором он закинул ее в "исключено", и это повод обратить внимание на нее снова.
Я обычно использую ручной труд. Не свой)
Иду на биржу QComment и заказываю комментарии.
Пример задания - https://joxi.ru/12M8MVZckQMv5m
Наблюдения:
• часто достаточно 1-2 комментария до 100 символов. Естественно, если бюджет позволяет, можно и больше.
• после того, как гугл "разгонится" и начнет брать страницы в индекс, комментарии для следующих страниц будут не нужны.
В примере из скриншота с заданием было написано 536 комментариев, чуть больше чем на 250 страниц. При этом исключенных было больше тысячи.
Постепенно страницы, на которые комментарии не писались, также стали попадать в индекс.
2️⃣ Обновление сайта.
Параллельно с комментариями на сайте должны появляться новые страницы. Это важно.
Даже если они также будут попадать в исключенные, они должны появляться на сайте.
3️⃣ Обновление страниц с комментариями.
На страницах, на которые пишутся комментарии, можно организовать дополнительную движуху.
Например, сделать блок новых добавленных материалов, который с учетом п.2 будет постоянно изменяться.
Данный блок, в идеале, не должен быть сквозным через весь сайт, а относиться именно к определенной странице.
4️⃣ И последний пункт.
На сайт добавляются новые страницы, соответственно меняется sitemap.xml
Берем абсолютную ссылку на свой sitemap.xml, подставляем после знака «=»
https://google.com/webmasters/sitemaps/ping?sitemap=
например, https://google.com/webmasters/sitemaps/ping?sitemap=https://site.ru/sitemap.xml
и пингуем гугл о том, что наш sitemap изменился - https://joxi.ru/n2YWDYZieBoY7r
Пингуем 1-2 раза в день или после добавления новых страниц или 1 раз в сутки в определенное время (можно простой скрипт повесить на крон, чтобы он пинговал вашу карту).
Можно пингануть еще и Bing, если есть желание)) Но это на любителя 😄
https://www.bing.com/webmaster/ping.aspx?siteMap=
Хорошего вечера!
Сейчас на рынке развелось дофига "создателей PBN", но только единицы делают нормально
Если вам нужно чтобы PBN были:
- с норм показателями: TF/CF, Referring DoFollow Domains and etc.
- с правильной семантикой
- под любое ГЕО с нормальным текстом
- которые после индексации действительно дают буст и могут при правильном анкор листе добить сайты в ТОП 1
Ребята сделали их тысячи и подняли десятки сайтов в железобетонный топ в не самых простых нишах (казино, Форекс, рейтинг, страхование, юристы, эскорт и прочее)
Просто заполняем заявку тут: https://bit.ly/3m2nK5l
И приближаемся к нужным топам быстрее
Любое ГЕО: Япония, Норвегия, Арабские страны, Азиатские страны, латам.
LinkBRO: системная команда по построению эффективных PBN под ключ, которые дают нужный результат
Вообщем, пишите сюда: https://bit.ly/3m2nK5l
Если вам нужно чтобы PBN были:
- с норм показателями: TF/CF, Referring DoFollow Domains and etc.
- с правильной семантикой
- под любое ГЕО с нормальным текстом
- которые после индексации действительно дают буст и могут при правильном анкор листе добить сайты в ТОП 1
Ребята сделали их тысячи и подняли десятки сайтов в железобетонный топ в не самых простых нишах (казино, Форекс, рейтинг, страхование, юристы, эскорт и прочее)
Просто заполняем заявку тут: https://bit.ly/3m2nK5l
И приближаемся к нужным топам быстрее
Любое ГЕО: Япония, Норвегия, Арабские страны, Азиатские страны, латам.
LinkBRO: системная команда по построению эффективных PBN под ключ, которые дают нужный результат
Вообщем, пишите сюда: https://bit.ly/3m2nK5l
LinkBro
Link Bro - створення ефективних PBN під ключ для будь яких регіонів
Link Bro - команда по створенню ефективних PBN під ключ для будь яких регіонів
Forwarded from SEO бро (Евгений Красняк)
Чёрная пятница и вот это вот всё.
Единственный вариант сэкономить в чёрную пятницу - ничего не покупать в чёрную пятницу.
2 года назад написал эту статью.
Что изменилось? Да ничего 🙂
В материале не указал: конечно же, есть еще один отличный способ - вебархив. Можно посмотреть версию страницы, скажем, за пару недель или месяц до «сумасшедших скидок».
Вот тут парень оценил сегодня скидосы на обучение от популярных сервисов типа Skillbox и Geekbrains. В лучшем случае цена осталась той же.
Советую почитать.
Чего можно ожидать от сервисов, которые считают своих клиентов за быдло? Правильно, ничего.
Совет тот же: пользуйся поиском, думай головой. И не будь стадом.
Единственный вариант сэкономить в чёрную пятницу - ничего не покупать в чёрную пятницу.
2 года назад написал эту статью.
Что изменилось? Да ничего 🙂
В материале не указал: конечно же, есть еще один отличный способ - вебархив. Можно посмотреть версию страницы, скажем, за пару недель или месяц до «сумасшедших скидок».
Вот тут парень оценил сегодня скидосы на обучение от популярных сервисов типа Skillbox и Geekbrains. В лучшем случае цена осталась той же.
Советую почитать.
Чего можно ожидать от сервисов, которые считают своих клиентов за быдло? Правильно, ничего.
Совет тот же: пользуйся поиском, думай головой. И не будь стадом.
VK
Чёрная пятница или как проверить честность скидки
Привет! На волне ажиотажа скидок и всей этой пятницы.. да-да, чёрной этой, решил написать пост в помощь жаждущим скидок и халявы.
Владислав Моргун, специалист с очень крутым опытом, теперь тоже при канале. SEO в ЛУН & Flatfy.
Forwarded from Product SEO
Пускай первый пост в этом канале будет техническим.
Полезные функции Chrome Dev Tools для SEO`шников. Часть 1.
Про ⌘ + ⌥ + I я писать не буду 🙂 Но пойдем по нарастающей.
Изменить User-Agent
Settings (три точки) -> More Tools -> Network Conditions
Убираем галочку с Select automatically и выбираем нужный User Agent. В списке даже сразу есть GoogleBot`ы.
Иногда при аудите нужно проверить как сайт ведет себя с разными агентами + бывают заблокированные ресурсы только для Google Bot на которые хотелось бы взглянуть. Если они проверяют только по UA без проверки Reverse DNS, то этот метод нам подходит.
Есть аналогичные плагины, но а) не все удобные; б) зачем держать лишний плагин, если уже есть функционал?
Изменяем локацию
Settings -> More Tools -> Sensors
Выбираем в выпадающем меню Location.
Я частенько изучаю международные проекты и мне важно знать как сайты реагируют на смену локации и делают ли редиректы и т.д.
Отключить JavaScript
Вариант 1
Command ⌘ + Shift ⇧ + P для MacOS или Control+Shift+P для WIN
В поле вводим Disable и видим в рекомендациях Disable JavaScript -> Кликаем.
Далее перезагружаем страницу через Command ⌘ + R (Control + R)
После того как проанализировали страницу, то включаем обратно командой Enable JavaScript и перезагрузкой страницы.
Сейчас очень важно! Да, поисковые системы следят за трендами SPA, PWA сайтов и модных React, но все же, например, алгоритм определения того, что рендерить, а что нет (Google же не нужно тратить ресурсы на выполнение кода аналитики. Хотя бывает и такое) - не идеален и лучше пока делать максимум SSR, а потому проверять весь ли важный контент есть сразу в коде без JS.
Вариант 2
Как можно отключить не только JS, а какой-то определенный паттерн.
Settings (три точки) -> More Tools -> Network request blocking
Выбираем Add Pattern и вписываем, например, .js
Кстати, это можно было сделать и немного быстрее.
Command ⌘ + Shift ⇧ + P для MacOS или Control+Shift+P для WIN -> Show Network request blocking.
Поиграйтесь с полнотекстовым поиском и, возможно, найдете что-то интересное. Делитесь кейсами 🙂
Данный “Вариант 2” крут тем, что вы можете поиграть со скоростью загрузки убирая определенные элементы. Например, отключить с сайта какую-то рекламную сеть и проверить насколько она влияла на скорость загрузки (показатели Lighthouse).
Проверка неиспользуемых ресурсов на странице
Settings (три точки) -> More Tools -> Coverage
В столбце Usage Visualisation вам будет видно, что не использовалось. А дальше дело за тем, чтобы разобраться за что отвечают данные ресурсы и почему они не использовались. Возможно, что они нужны, а может это просто Legacy код, который забыли удалить.
Больше функций будет завтра 🙂 Если нужно видео о том, как все это делать на практике и кейсы использования, то пишите в комментарии (пока на FB).
by @productseo
Полезные функции Chrome Dev Tools для SEO`шников. Часть 1.
Про ⌘ + ⌥ + I я писать не буду 🙂 Но пойдем по нарастающей.
Изменить User-Agent
Settings (три точки) -> More Tools -> Network Conditions
Убираем галочку с Select automatically и выбираем нужный User Agent. В списке даже сразу есть GoogleBot`ы.
Иногда при аудите нужно проверить как сайт ведет себя с разными агентами + бывают заблокированные ресурсы только для Google Bot на которые хотелось бы взглянуть. Если они проверяют только по UA без проверки Reverse DNS, то этот метод нам подходит.
Есть аналогичные плагины, но а) не все удобные; б) зачем держать лишний плагин, если уже есть функционал?
Изменяем локацию
Settings -> More Tools -> Sensors
Выбираем в выпадающем меню Location.
Я частенько изучаю международные проекты и мне важно знать как сайты реагируют на смену локации и делают ли редиректы и т.д.
Отключить JavaScript
Вариант 1
Command ⌘ + Shift ⇧ + P для MacOS или Control+Shift+P для WIN
В поле вводим Disable и видим в рекомендациях Disable JavaScript -> Кликаем.
Далее перезагружаем страницу через Command ⌘ + R (Control + R)
После того как проанализировали страницу, то включаем обратно командой Enable JavaScript и перезагрузкой страницы.
Сейчас очень важно! Да, поисковые системы следят за трендами SPA, PWA сайтов и модных React, но все же, например, алгоритм определения того, что рендерить, а что нет (Google же не нужно тратить ресурсы на выполнение кода аналитики. Хотя бывает и такое) - не идеален и лучше пока делать максимум SSR, а потому проверять весь ли важный контент есть сразу в коде без JS.
Вариант 2
Как можно отключить не только JS, а какой-то определенный паттерн.
Settings (три точки) -> More Tools -> Network request blocking
Выбираем Add Pattern и вписываем, например, .js
Кстати, это можно было сделать и немного быстрее.
Command ⌘ + Shift ⇧ + P для MacOS или Control+Shift+P для WIN -> Show Network request blocking.
Поиграйтесь с полнотекстовым поиском и, возможно, найдете что-то интересное. Делитесь кейсами 🙂
Данный “Вариант 2” крут тем, что вы можете поиграть со скоростью загрузки убирая определенные элементы. Например, отключить с сайта какую-то рекламную сеть и проверить насколько она влияла на скорость загрузки (показатели Lighthouse).
Проверка неиспользуемых ресурсов на странице
Settings (три точки) -> More Tools -> Coverage
В столбце Usage Visualisation вам будет видно, что не использовалось. А дальше дело за тем, чтобы разобраться за что отвечают данные ресурсы и почему они не использовались. Возможно, что они нужны, а может это просто Legacy код, который забыли удалить.
Больше функций будет завтра 🙂 Если нужно видео о том, как все это делать на практике и кейсы использования, то пишите в комментарии (пока на FB).
by @productseo
В Google новый апдейт
https://support.google.com/webmasters/thread/86655483
Запасаемся попкорном и корвалолом...
https://support.google.com/webmasters/thread/86655483
Запасаемся попкорном и корвалолом...
Фишка всем, кто пал в неравной борьбе с придумыванием топиков для ГП!
Последнее время в других каналах, годнота на годноте.
Я уже рассказывал в своем посте, о подходе к выбору доменов донорах. И история о том, что на ссылки для сайта было потрачено впустую более 100к $ реальная. Я с этим столкнулся лично и на пару с тиммейтом чистили профиль вручную. Лишь после этого сайт пророс и сейчас стоит топчик.
Я уже рассказывал в своем посте, о подходе к выбору доменов донорах. И история о том, что на ссылки для сайта было потрачено впустую более 100к $ реальная. Я с этим столкнулся лично и на пару с тиммейтом чистили профиль вручную. Лишь после этого сайт пророс и сейчас стоит топчик.