Forwarded from George Rysak: Product Marketing, SEO, Affiliate
Заметки из сегодняшнего рума в Clubhouse
1. Даже ссылки с морд надо ставить аккуратно, возможно даже брендом, потому что рядом может быть много левых анкоров.
2. Ссылки с картинок, отрабатывают дольше
3. Песочница есть, лучший выход запускать несколько сайтов, делать "посев".
3.1 Либо, работать с дроп доменом, у которого есть возраст
3.2 Либо, "состаривать" домен методом 301 редиректа, домена с возрастом на новорег и переездом в Google Search Console
4. Дополнительно прокачивать гест.посты можно другими ссылками с внутренних страниц этого же сайта.
5. Результат в SEO, как и раньше не быстрый, не стоит ждать "Boom" через пару месяцев.
P.S. Clubhouse - будущий конкурент всем SEO конференциям.
Следующий эфир, уже очень скоро! Подписывайтесь на меня в Clubhouse, чтобы не пропустить следующий ивент - @ggorilla777
Поделитесь этой публикацией с друзьями, пусть тоже подпишутся на @SEOBAG!
1. Даже ссылки с морд надо ставить аккуратно, возможно даже брендом, потому что рядом может быть много левых анкоров.
2. Ссылки с картинок, отрабатывают дольше
3. Песочница есть, лучший выход запускать несколько сайтов, делать "посев".
3.1 Либо, работать с дроп доменом, у которого есть возраст
3.2 Либо, "состаривать" домен методом 301 редиректа, домена с возрастом на новорег и переездом в Google Search Console
4. Дополнительно прокачивать гест.посты можно другими ссылками с внутренних страниц этого же сайта.
5. Результат в SEO, как и раньше не быстрый, не стоит ждать "Boom" через пару месяцев.
P.S. Clubhouse - будущий конкурент всем SEO конференциям.
Следующий эфир, уже очень скоро! Подписывайтесь на меня в Clubhouse, чтобы не пропустить следующий ивент - @ggorilla777
Поделитесь этой публикацией с друзьями, пусть тоже подпишутся на @SEOBAG!
Должен ли SEO-специалист разбираться в техничке?
📎 Как работает веб-сервер - какие они бывают, HTTP заголовки
📎 Базовые навыки администрирования через панельники Cpanel, IPS, etc + SSH для упертых
📎 Базовое пониманием протокола TCP/IP (нам же нужно юзать прокси)
📎 Как сайты попадают на продакшен - регистратор + DNS + IP + хостинг + GIT
📎 SSR (Server-Side rendering) Pre-rendering
📎 Как работают сайты (как фронт взаимодействует с беком) - отсюда фреймворки фронта - от jQuery до React & Angular
📎 Как на самом деле работает SSL/TLS
📎 Как работают облачные CDN - Cloudflare/Incapsula etc. Как работает кеширование, какое оно бывает и на каком уровне.
📎 Работа с админкой WP на среднем уровне
Думаю этой базы хватит 🙂
Я считаю, что Senior SEO-специалист должен все это знать и вот почему:
1. Чтобы делать аудиты технически сложных проектов нужно понимать как они работают. Хотя бы как устроен Front. Сейчас мощный тренд на SPA-подобные сайты и он будет только расти.
Не понимая логику рендеринга контента на таких сайтах нельзя найти истинные причины проблем с ранжированием = нельзя сделать эффективное SEO
2. На многих сайтах бывают сложные кейсы с заголовками сервера (X-Robots tags и прочими), метой, редиректами и просты тыкаясь по гайдами без понимания природы вещей - определить такие проблемы невозможно
3. Зная CMS/Фреймворк - знаешь и типичные болячки проекта - сразу идешь и смотришь куда нужно - 50-70% времени на аудит.
4. Многие сайты используют CloudFlare и подобные сервисы - поверьте, настройками Клары можно убить все SEO за пару кликов. Такие сервисы можно использовать и во благо - в 2 клика настроить склейку зеркал/слешей/паттерны редиректов. Не умеешь сам - будешь месяц или два ждать кодеров.
5. Специалисты, которые не знают техничку - ставят бредовые и мусорные ТЗ разработчикам. Отсюда конфликты с разработчиками, кривые релизы на прод, бесконечные обсуждения ТЗ --> факапы проектов
6. Есть случаи в которых нужно принимать решения крайне оперативно - например, на сайт накатили релиз и везде вылез тег robot=noindex, но в коде у разработчика его нет
Автор: Олег Шестаков
📎 Как работает веб-сервер - какие они бывают, HTTP заголовки
📎 Базовые навыки администрирования через панельники Cpanel, IPS, etc + SSH для упертых
📎 Базовое пониманием протокола TCP/IP (нам же нужно юзать прокси)
📎 Как сайты попадают на продакшен - регистратор + DNS + IP + хостинг + GIT
📎 SSR (Server-Side rendering) Pre-rendering
📎 Как работают сайты (как фронт взаимодействует с беком) - отсюда фреймворки фронта - от jQuery до React & Angular
📎 Как на самом деле работает SSL/TLS
📎 Как работают облачные CDN - Cloudflare/Incapsula etc. Как работает кеширование, какое оно бывает и на каком уровне.
📎 Работа с админкой WP на среднем уровне
Думаю этой базы хватит 🙂
Я считаю, что Senior SEO-специалист должен все это знать и вот почему:
1. Чтобы делать аудиты технически сложных проектов нужно понимать как они работают. Хотя бы как устроен Front. Сейчас мощный тренд на SPA-подобные сайты и он будет только расти.
Не понимая логику рендеринга контента на таких сайтах нельзя найти истинные причины проблем с ранжированием = нельзя сделать эффективное SEO
2. На многих сайтах бывают сложные кейсы с заголовками сервера (X-Robots tags и прочими), метой, редиректами и просты тыкаясь по гайдами без понимания природы вещей - определить такие проблемы невозможно
3. Зная CMS/Фреймворк - знаешь и типичные болячки проекта - сразу идешь и смотришь куда нужно - 50-70% времени на аудит.
4. Многие сайты используют CloudFlare и подобные сервисы - поверьте, настройками Клары можно убить все SEO за пару кликов. Такие сервисы можно использовать и во благо - в 2 клика настроить склейку зеркал/слешей/паттерны редиректов. Не умеешь сам - будешь месяц или два ждать кодеров.
5. Специалисты, которые не знают техничку - ставят бредовые и мусорные ТЗ разработчикам. Отсюда конфликты с разработчиками, кривые релизы на прод, бесконечные обсуждения ТЗ --> факапы проектов
6. Есть случаи в которых нужно принимать решения крайне оперативно - например, на сайт накатили релиз и везде вылез тег robot=noindex, но в коде у разработчика его нет
Автор: Олег Шестаков
Как вы считатете на каком уровне сеошник должен разбираться в техничке?
Anonymous Poll
46%
На высоком (знаю все что написано в тексте выше)
32%
На средней (слышал про все что написано в тексте)
14%
Хоть на каком то 🙄
15%
Я просто покупаю ссылки на бирже и думаю что я сеошник 🙈
Беглый анализ ревьюшника который восстановился после декабрьского апдейта.
- Table of contents опустили ниже
- Переверстали табличку топ3
- Сделали меньше партнерских ссылок (было 2 осталась одна)
- Убрали конс / прос, оставили только фьючерс
- Проапдейтили основной контент
- Убрали кнопки соц сетей
- Ну и вальнули ссылками 😬
- Table of contents опустили ниже
- Переверстали табличку топ3
- Сделали меньше партнерских ссылок (было 2 осталась одна)
- Убрали конс / прос, оставили только фьючерс
- Проапдейтили основной контент
- Убрали кнопки соц сетей
- Ну и вальнули ссылками 😬
20 марта буду выступать на онлайн конференции DCE.
https://www.facebook.com/events/489963849060474/
https://www.facebook.com/events/489963849060474/
Facebook
Log in or sign up to view
See posts, photos and more on Facebook.
Вячеслав Вареня неоднократно писал на канале SEO Inside что скорее всего в конце марта 2021 года будет очередное широкое обновление алгоритма Google.
Semrush Sensor пока ничего не показывает, но у многих уже пошла динамика по ключам. Пока все в плюс )) Я надеюсь что Google нам отдает долги за то ограбление в декабре )))
Semrush Sensor пока ничего не показывает, но у многих уже пошла динамика по ключам. Пока все в плюс )) Я надеюсь что Google нам отдает долги за то ограбление в декабре )))
Часто задаваемые вопросы о Core Web Vitals:
https://support.google.com/webmasters/thread/104436075?hl=en
Тезисно:
📎 Данные взяты из отчета об опыте пользователя в Chrome
📎 Показатели рассчитываются по 75-му перцентилю в течение 28-дневного окна
📎 Core Web Vitals основаны на фактических посещениях пользователей, на которые будут влиять условия окружающей среды пользователей и их взаимодействия
📎Googleбудет ссылаться на AMP-версию страницы на мобильном устройстве, если есть такая версия
📎 Страницы, получившие оценку «хорошо» в Core Web Vitals, достигают желаемого уровня взаимодействия с пользователем и могут получить повышение в компоненте ранжирования
https://support.google.com/webmasters/thread/104436075?hl=en
Тезисно:
📎 Данные взяты из отчета об опыте пользователя в Chrome
📎 Показатели рассчитываются по 75-му перцентилю в течение 28-дневного окна
📎 Core Web Vitals основаны на фактических посещениях пользователей, на которые будут влиять условия окружающей среды пользователей и их взаимодействия
📎Googleбудет ссылаться на AMP-версию страницы на мобильном устройстве, если есть такая версия
📎 Страницы, получившие оценку «хорошо» в Core Web Vitals, достигают желаемого уровня взаимодействия с пользователем и могут получить повышение в компоненте ранжирования
Поздравление от Matt Diggity:
https://youtu.be/dY83Vo58ilw
Все жалуются что давно нет палива фишек в SEO.
Ловите топовую стратегию от Мэтта:
Оптимизация скорости до 0,1 сек.
Парсинг Ахрефса по всем ключам
Создание своего автора для прокачки E.A.T.
Реферальный трафик с Сомали
Хай кволити беклинкс на Fiverr
SEO агентство из рассылки
Дир Сир Аутрич и все будет в ТОПе!)))
https://youtu.be/dY83Vo58ilw
Все жалуются что давно нет палива фишек в SEO.
Ловите топовую стратегию от Мэтта:
Оптимизация скорости до 0,1 сек.
Парсинг Ахрефса по всем ключам
Создание своего автора для прокачки E.A.T.
Реферальный трафик с Сомали
Хай кволити беклинкс на Fiverr
SEO агентство из рассылки
Дир Сир Аутрич и все будет в ТОПе!)))
Сегодня google выкатывает новое обновление для обзорных сайтов. 🍿🍿🍿
https://developers.google.com/search/blog/2021/04/product-reviews-update?hl=ru
https://developers.google.com/search/blog/2021/04/product-reviews-update?hl=ru
Google for Developers
Что авторам следует знать об изменениях в ранжировании отзывов о товарах в Google с апреля 2021 г. | Блог Центра Search Console…
Апдейт Google заканчивается. Как вы?)
Anonymous Poll
20%
Все в плюс
59%
Ничего не заметил
15%
Немного упало
6%
Я не выжил после этого апа))
Каждая ссылка решает определённую задачу. И ты не знаешь какую. (С) Роман Дорошенко
Google плохо индексирует новые страницы? Ему просто некогда, он доры индексирует )))
Forwarded from MAXIMAFFILIATE
Ошибки алгоритма в Гугле. Примеры сайтов.
Гугл любит нам заливать про ценность, про хороший полезный контент, про наличие информационных статей на сайте. А если ты не пишешь информационные статьи, то Гугл наказывает любителей заработать на поисковой системе.
Уже и справку сделали для вебмастеров (https://developers.google.com/search/docs/advanced/guidelines/affiliate-programs) и написали черным по белому для самых тугих.
Exampes of thin affiliates: The majority of the site is made for affiliation and contains a limited amount of original content or added value for users.
Я прислушиваюсь к гуглу иногда, что-то они говорят дельное и ценное. Но разве мани страницами я не даю ценность для юзера? Почему я должен наяривать как не в себя эти инфо статьи для объема?
Потому что умные дяди посидели и подумали, а как мы можем срезать gearhungry.com и carbibles.com еще по другому? Эти мани фермы их давно достали.
Еще со времен инфостатейных ферм когда писали про завязывание галстука и принимание родов дома. И писал это все один индус за 3 доллара. Раньше статейные фермы, теперь аффилиатные фермы, ничего нового под солнцем. Индус только без работы.
Так вот. Есть сайты, ошибки или баги в алгоритме гугла, у которых своя дискотека.
1. dodoburd.com - полностью весь сайт состоит из мани страниц с портянками ссылок по 100 на каждой. Может гугл от такой наглости вообще руки опустил? Чел походу не знает, что идут какие то алгоритмы в гугле. 632 страниц и 632 страницы имеют афф ссылки - проверял вручную через Netpeak Spider. НО! Он монетизируется не только амазоном, видимо это важно иметь разные партнерки. и миниатюры красивые у постов очень.
2. coffeeorbust.com - вообще классический аффилиатный сайт. Там есть все из запрещенки: огромные таблицы, аффилиатные ссылки. 101 полезная страница, из них 90 под монетизацией амазоном. Ошибка алгоритма?
3. momlovesbest.com - не баг гугла, но интересный пример сайта, который стал наяривать инфо статьи и просевшие страницы с best начали возвращаться!
Гугл любит нам заливать про ценность, про хороший полезный контент, про наличие информационных статей на сайте. А если ты не пишешь информационные статьи, то Гугл наказывает любителей заработать на поисковой системе.
Уже и справку сделали для вебмастеров (https://developers.google.com/search/docs/advanced/guidelines/affiliate-programs) и написали черным по белому для самых тугих.
Exampes of thin affiliates: The majority of the site is made for affiliation and contains a limited amount of original content or added value for users.
Я прислушиваюсь к гуглу иногда, что-то они говорят дельное и ценное. Но разве мани страницами я не даю ценность для юзера? Почему я должен наяривать как не в себя эти инфо статьи для объема?
Потому что умные дяди посидели и подумали, а как мы можем срезать gearhungry.com и carbibles.com еще по другому? Эти мани фермы их давно достали.
Еще со времен инфостатейных ферм когда писали про завязывание галстука и принимание родов дома. И писал это все один индус за 3 доллара. Раньше статейные фермы, теперь аффилиатные фермы, ничего нового под солнцем. Индус только без работы.
Так вот. Есть сайты, ошибки или баги в алгоритме гугла, у которых своя дискотека.
1. dodoburd.com - полностью весь сайт состоит из мани страниц с портянками ссылок по 100 на каждой. Может гугл от такой наглости вообще руки опустил? Чел походу не знает, что идут какие то алгоритмы в гугле. 632 страниц и 632 страницы имеют афф ссылки - проверял вручную через Netpeak Spider. НО! Он монетизируется не только амазоном, видимо это важно иметь разные партнерки. и миниатюры красивые у постов очень.
2. coffeeorbust.com - вообще классический аффилиатный сайт. Там есть все из запрещенки: огромные таблицы, аффилиатные ссылки. 101 полезная страница, из них 90 под монетизацией амазоном. Ошибка алгоритма?
3. momlovesbest.com - не баг гугла, но интересный пример сайта, который стал наяривать инфо статьи и просевшие страницы с best начали возвращаться!