George Rysak: Product Marketing, SEO, Affiliate
4.96K subscribers
298 photos
36 videos
8 files
531 links
Канал
- Про маркетинг в продукті очима CMO
- Про SEO в складних нішах очима SEOшника
- Про Affiliate бізнес очима афіліата
- Про власну справу, очима підприємця

Автор: @george_rysak
Блог: georgerysak.com
Download Telegram
Вернемся к artdaily.com

Помимо этого сайт ссылается на casino, vpn, cbd, и прочие серые ниши. Разместиться там может любой, по динамике трафика видно что у него порой бывают проблемы, ключи сыпятся из ТОП 10.
Все это, из-за перечисленных выше причин
Поэтому, смотрите внимательно, где покупаете

Пропустите мимо ушей один раз, потом другой, потом третий. А потом будете делать disavow даже для тех линков, за которые заплатили норм деньги. А это больно, уверяю вас, есть такой опыт.
🔥🔥🔥🔥🔥🔥🔥
21 ноября, Киев, ТРК Ультрамарин.
Конференция GURUCONF.
По промокоду «rysak” скидка 20%.

От себя отмечу, что 100% надо послушать Макса Павлова, который расскажет как вернуть трафик после майского апдейта.
Ну и ещё вроде как будет несколько толковых тем.

https://guruconf.com
Google интересуется, почему вебмастерам не хватает функции отправки URL на индексацию

Три недели назад Google «временно» отключил инструмент отправки запросов на индексацию страницы в Search Console. Сегодня сотрудник поиска Джон Мюллер пригласил вебмастеров принять участие в опросе о том, почему они хотят вернуть эту возможность.

Мюллер отметил, что никаких новостей на эту тему у него нет, но он хотел бы узнать, почему вебмастерам не хватает этого инструмента.

Он предлагает специалистам заполнить форму под названием «I'm missing the URL submission tool» по ссылке.

В ней нужно:

1. Указать тот URL, который вебмастер хотел бы отправить в Google;
2. Указать примерное количество похожих URL, которые можно было бы отправить с сайта за последнюю неделю;
3. Почему данная страница должна быть срочно проиндексирована;
4. Насколько критичной является отправка URL в Google для сайта.

Опрос по ссылке: https://docs.google.com/forms/d/e/1FAIpQLSenIs-5PtOC-fbcHwLwXXvb5swSU5oYNAc7c-ggI-r0Jor0ig/viewform
🌐 23 октября Head of Operations RevenueLab Петр Лопухов выступил с большим докладом: «SEO в Gambling: трафик и конверсии» на крупной онлайн-конференции NaZapad. Для тех, кто не смог принять участие в лайв трансляции, мы подготовили для вас запись выступления, чтобы полезная инфа не прошла мимо тебя!

СМОТРЕТЬ ВЫСТУПЛЕНИЕ

А чтобы ты мог скорее применить полученные знания на практике, команда RevenueLab подготовила для тебя крутой оффер под SEO трафик для Болгарии от известного бренда Maneki!

Конверт из реги в FTD 40%
Hybrid 25€ + 40% RevShare

Регистрируйся и воспользуйся предложением
Не так давно, я считал сколько денег было слито на линкбилдинг в пустую, в один большой проект
Сумма превышает $150 000, за год.

Чтобы не допустить таких ошибок, послушайте Дмитрия Сохача на конференции GURUCONF.
Промокод "rysak" даст 20% скидки.
Потратите их на ссылки потом!
*откатов не получаю за такую "рекламу", если че

P.S. это не претензия к Тарасу или Диме :D
В команде прозвучала шутка:

Сын SEOшника спрашивает отца:

- Папа, почему твой отец на тебя переписал квартиру, а ты на меня дроп-домен?

ору.
Long Tail запросы не всегда менее конкурентны.
Сейчас гораздо важнее и лучше, находить менее известные под-кластеры, вот там и правда бывает отсутствует конкуренция.

Сложно обьяснить, без примера. Но пример палить не хочется 😅

https://seranking.ru/blog/seo/long-tail-klyuchi/
Всем хороших выходных ❤️
При оценке качества донора, многие смотрят общий трафик сайта, не только SEO траф.

Для многих показатель траффика, это самый важный критерий качества.

Но, вот всем кто так считает, мое мнение «на подумать» скажем так

Смотрите, я не видел не одного сайта, которому трафик с других источников, помогал расти по SEO.
Ну вот, прям совсем не видел.
У меня есть пара белых сайтов, где много трафика со всяких социалок. Но пока, я не начал ставить ссылки, затачивать страницы под семантику получше - органического трафика было очень и очень мало.

Это я к чему

Во первых, перестаньте все мерять одним лишь показателем - кол-во траффика

Во вторых, почему Google должен ранжировать сайт выше или лучше, или вообще как то лучше относится к сайту лишь из за того, что у него есть другой трафик из неподконтрольных ему площадок, по сути конкурентов: FB, Pinterest, Insta, VK и прочее.

Почему он должен оценивать поведенческие факторы тех людей, что пришли от его конкурентов?)

Почему поведенческий фактор, должен влиять на вес, который передаётся ссылкой?)

Подумайте....
Мне кажется, ПФ очень шумный фактор.

Допустим, вы льёте AdWords на сайт, у вас хорошие или просто нормальные ПФ.

Но может это связанно лишь с тем, что вы просто имеете преимущество в позиции?

Почему, сайт который не льёт AdWords, должен конкурировать с вами по ПФам? В органике

Почему, ПФ делают сильно общими? Связанными со всем сайтом сразу.

Что если, у вас 1 страница гавно, а вторая норм.

На 1 люди ничего не могут найти, а на второй прям все норм.

И допустим, есть конкурент у которого страница, которая у вас гавно - у него она бомба, просто топ, там все есть что надо человеку для решения проблемы, почему ПФ не могут быть привязаны чисто к 1 кластеру или даже запросу или группе определённых запросов?

Почему, чувак с крутой страницей должен страдать из-за того, что к вашему сайту “Google в целом относится лучше» якобы из за того, что ПФ это общий показатель качества.

Подумайте... ещё раз, мне это прям покоя не даёт. Я сам 100% не знаю и бьюсь лишь в догадках, пытаюсь что то узнать и понять. Но в целом мнение такое. Надеюсь, получилось обьяснить его.
В ЛС написал человек, что у когда в его интернет магазине заканчивается товар, он по запросам связанными с этим товаром опускается ниже по позициям, за счёт Bounce рейта.
Речь идёт про органику.

Вот по сути, ещё один факт к тому, что ПФ если анализируется то применяется чётко к одному кластеру или даже запросу.

И никакие другие источники трафика вам не помогут

Это просто не логично

Перестаньте заказывать услуги или тратить деньги на SMM ставя за цель «помочь сайту в органике ПФами из соц.сетей»
А подобных экспертов или инфоцыган, шлите лесом.
Толковый канал
Forwarded from SEO бро (Евгений Красняк)
Привет! Хочу немного написать и рассказать про индексацию в Google.
А именно поделиться своими наблюдениями и дать пару рецептов от некоторых проблем.

Особенно считаю это актуальным в свете того, что Google отключил приостановил возможносоть отправки запросов на индексацию страниц.

Обнаружена/просканирована, но не проиндексирована.

Не приговор)

Часто, особенно, если домен свежерег, возникает проблема с тем, что гугл может исключать страницы.
https://joxi.ru/Q2KyEjLivE4Nar

Он отправляет страницы в своего рода отстойник, мол пока они не заслужили попасть в индекс.

Также такое возможно, если контент на самой странице, мягко говоря, не ахти или, например, у тебя куча
страниц под микро нч, которые различаются вроде как и ничем, кроме мета тегов и некоторой части контента.

Наша задача заставить гугл скушать страницы.

1️⃣ Комментарии.
Это один из наилучших способов оживить страницу.

Во-первых, меняется контент на странице. Во-вторых, это сигнал гуглу, что страница уже не в том виде, в котором он закинул ее в "исключено", и это повод обратить внимание на нее снова.

Я обычно использую ручной труд. Не свой)
Иду на биржу QComment и заказываю комментарии.

Пример задания - https://joxi.ru/12M8MVZckQMv5m

Наблюдения:
• часто достаточно 1-2 комментария до 100 символов. Естественно, если бюджет позволяет, можно и больше.
• после того, как гугл "разгонится" и начнет брать страницы в индекс, комментарии для следующих страниц будут не нужны.

В примере из скриншота с заданием было написано 536 комментариев, чуть больше чем на 250 страниц. При этом исключенных было больше тысячи.
Постепенно страницы, на которые комментарии не писались, также стали попадать в индекс.

2️⃣ Обновление сайта.
Параллельно с комментариями на сайте должны появляться новые страницы. Это важно.

Даже если они также будут попадать в исключенные, они должны появляться на сайте.

3️⃣ Обновление страниц с комментариями.
На страницах, на которые пишутся комментарии, можно организовать дополнительную движуху.

Например, сделать блок новых добавленных материалов, который с учетом п.2 будет постоянно изменяться.
Данный блок, в идеале, не должен быть сквозным через весь сайт, а относиться именно к определенной странице.

4️⃣ И последний пункт.
На сайт добавляются новые страницы, соответственно меняется sitemap.xml

Берем абсолютную ссылку на свой sitemap.xml, подставляем после знака «=»
https://google.com/webmasters/sitemaps/ping?sitemap=
например, https://google.com/webmasters/sitemaps/ping?sitemap=https://site.ru/sitemap.xml

и пингуем гугл о том, что наш sitemap изменился - https://joxi.ru/n2YWDYZieBoY7r

Пингуем 1-2 раза в день или после добавления новых страниц или 1 раз в сутки в определенное время (можно простой скрипт повесить на крон, чтобы он пинговал вашу карту).

Можно пингануть еще и Bing, если есть желание)) Но это на любителя 😄
https://www.bing.com/webmaster/ping.aspx?siteMap=

Хорошего вечера!
- Здравствуйте, отключите пожалуйста ТОП 10. Я 11 стою.
Сейчас на рынке развелось дофига "создателей PBN", но только единицы делают нормально

Если вам нужно чтобы PBN были:

- с норм показателями: TF/CF, Referring DoFollow Domains and etc.
- с правильной семантикой
- под любое ГЕО с нормальным текстом
- которые после индексации действительно дают буст и могут при правильном анкор листе добить сайты в ТОП 1

Ребята сделали их тысячи и подняли десятки сайтов в железобетонный топ в не самых простых нишах (казино, Форекс, рейтинг, страхование, юристы, эскорт и прочее)

Просто заполняем заявку тут: https://bit.ly/3m2nK5l
И приближаемся к нужным топам быстрее

Любое ГЕО: Япония, Норвегия, Арабские страны, Азиатские страны, латам.

LinkBRO: системная команда по построению эффективных PBN под ключ, которые дают нужный результат

Вообщем, пишите сюда: https://bit.ly/3m2nK5l
Forwarded from SEO бро (Евгений Красняк)
Чёрная пятница и вот это вот всё.

Единственный вариант сэкономить в чёрную пятницу - ничего не покупать в чёрную пятницу.

2 года назад написал эту статью.
Что изменилось? Да ничего 🙂

В материале не указал: конечно же, есть еще один отличный способ - вебархив. Можно посмотреть версию страницы, скажем, за пару недель или месяц до «сумасшедших скидок».

Вот тут парень оценил сегодня скидосы на обучение от популярных сервисов типа Skillbox и Geekbrains. В лучшем случае цена осталась той же.
Советую почитать.

Чего можно ожидать от сервисов, которые считают своих клиентов за быдло? Правильно, ничего.

Совет тот же: пользуйся поиском, думай головой. И не будь стадом.
Владислав Моргун, специалист с очень крутым опытом, теперь тоже при канале. SEO в ЛУН & Flatfy.
Forwarded from Product SEO
Пускай первый пост в этом канале будет техническим.

Полезные функции Chrome Dev Tools для SEO`шников. Часть 1.

Про ⌘ + ⌥ + I я писать не буду 🙂 Но пойдем по нарастающей.

Изменить User-Agent
Settings (три точки) -> More Tools -> Network Conditions
Убираем галочку с Select automatically и выбираем нужный User Agent. В списке даже сразу есть GoogleBot`ы.

Иногда при аудите нужно проверить как сайт ведет себя с разными агентами + бывают заблокированные ресурсы только для Google Bot на которые хотелось бы взглянуть. Если они проверяют только по UA без проверки Reverse DNS, то этот метод нам подходит.
Есть аналогичные плагины, но а) не все удобные; б) зачем держать лишний плагин, если уже есть функционал?

Изменяем локацию
Settings -> More Tools -> Sensors
Выбираем в выпадающем меню Location.

Я частенько изучаю международные проекты и мне важно знать как сайты реагируют на смену локации и делают ли редиректы и т.д.

Отключить JavaScript

Вариант 1
Command ⌘ + Shift ⇧ + P для MacOS или Control+Shift+P для WIN

В поле вводим Disable и видим в рекомендациях Disable JavaScript -> Кликаем.
Далее перезагружаем страницу через Command ⌘ + R (Control + R)
После того как проанализировали страницу, то включаем обратно командой Enable JavaScript и перезагрузкой страницы.

Сейчас очень важно! Да, поисковые системы следят за трендами SPA, PWA сайтов и модных React, но все же, например, алгоритм определения того, что рендерить, а что нет (Google же не нужно тратить ресурсы на выполнение кода аналитики. Хотя бывает и такое) - не идеален и лучше пока делать максимум SSR, а потому проверять весь ли важный контент есть сразу в коде без JS.

Вариант 2
Как можно отключить не только JS, а какой-то определенный паттерн.
Settings (три точки) -> More Tools -> Network request blocking
Выбираем Add Pattern и вписываем, например, .js

Кстати, это можно было сделать и немного быстрее.
Command ⌘ + Shift ⇧ + P для MacOS или Control+Shift+P для WIN -> Show Network request blocking.
Поиграйтесь с полнотекстовым поиском и, возможно, найдете что-то интересное. Делитесь кейсами 🙂

Данный “Вариант 2” крут тем, что вы можете поиграть со скоростью загрузки убирая определенные элементы. Например, отключить с сайта какую-то рекламную сеть и проверить насколько она влияла на скорость загрузки (показатели Lighthouse).

Проверка неиспользуемых ресурсов на странице
Settings (три точки) -> More Tools -> Coverage
В столбце Usage Visualisation вам будет видно, что не использовалось. А дальше дело за тем, чтобы разобраться за что отвечают данные ресурсы и почему они не использовались. Возможно, что они нужны, а может это просто Legacy код, который забыли удалить.

Больше функций будет завтра 🙂 Если нужно видео о том, как все это делать на практике и кейсы использования, то пишите в комментарии (пока на FB).

by @productseo
В Google новый апдейт
https://support.google.com/webmasters/thread/86655483

Запасаемся попкорном и корвалолом...