Интересно, будут ли поисковики вносить какие либо изменения в алгоритмы ранжирования, когда станет больше текстов, сгенерированных искусственным интеллектом?
На мой взгляд, если текст останется релевантным и будет нравится пользователям, его будут читать и с ним будут взаимодействовать, то изменений в ранжировании быть не должно. Разве что появится новый вид разметки Schema, который позволит на выдаче получить в сниппете метку, что контент сгенерирован AI. Но модераторы столкнутся с новой проблемой - проверкой достоверности этого факта.
И как в этом случае с авторскими правами?.. Можно ли будет подать DMCA претензию на сворованный AI-текст или AI-картинку?))
Мутная тема, но SEO с каждым годом интересней.
На мой взгляд, если текст останется релевантным и будет нравится пользователям, его будут читать и с ним будут взаимодействовать, то изменений в ранжировании быть не должно. Разве что появится новый вид разметки Schema, который позволит на выдаче получить в сниппете метку, что контент сгенерирован AI. Но модераторы столкнутся с новой проблемой - проверкой достоверности этого факта.
И как в этом случае с авторскими правами?.. Можно ли будет подать DMCA претензию на сворованный AI-текст или AI-картинку?))
Мутная тема, но SEO с каждым годом интересней.
Хороший пример от Web Smith, что крутой контент нужно хорошо посеять, иначе о нем никто не узнает.
На YouTube Red вышел сериал "Кобра Кай" в 2018 году. А в 2020 права на него получил Netflix. Из безызвестности фильм вышел в ТОП1 на Netflix. И теперь о нем говорят из всех утюгов.
На YouTube Red вышел сериал "Кобра Кай" в 2018 году. А в 2020 права на него получил Netflix. Из безызвестности фильм вышел в ТОП1 на Netflix. И теперь о нем говорят из всех утюгов.
Forwarded from Вадим Курило
Как мы получили активную ссылку со sberbank.ru 🏦
Несколько дней назад увидел в панели Google Webmaster ссылку на наш проект ttmetrics.com с сайта Сбербанка. Полез смотреть, нашел тут https://www.sberbank.ru/ru/s_m_business/pro_business/tiktok-dlya-biznesa/ линк (ссылка на рейтинг топ-100 тиктокеров)
Как так получилось? При запуске проекта я раскидал несколько ссылок на наш рейтинг по статьям Википедии. И хотя там они все в nofollow, но когда большие СМИ пишут статьи, то для исследования ниши они часто смотрят Вики и источники, которые в ней стоят. В итоге большой шанс, что какой-то из редакторов увидит ваш сайт и тоже сошлется на него.
Так не только со Сбером было, недавно заметил ссылку с испанского агентства по SMM, на тот же наш рейтинг. На 90% уверен, что ссылку нашли через Википедию, потому как по целевым запросам эта страница нигде не вылазит в поиске
Так что лайфхак для вас - подумайте какие интересные данные можно собрать в вашей нише, оформите это в лендинг и закиньте в тематические статьи Википедии. Например, если торгуете велосипедами, сделайте интерактивную таблицу какие модели велосипедов выигрывали в Tour de France по годам. Потом отредактируйте статьи Вики, добавив ссылку на свою страницу. Если информация полезная, ссылку оставят.
P.S. А тем временем наш проект дошел уже 1700 уников в сутки. Основная часть трафа - США
Несколько дней назад увидел в панели Google Webmaster ссылку на наш проект ttmetrics.com с сайта Сбербанка. Полез смотреть, нашел тут https://www.sberbank.ru/ru/s_m_business/pro_business/tiktok-dlya-biznesa/ линк (ссылка на рейтинг топ-100 тиктокеров)
Как так получилось? При запуске проекта я раскидал несколько ссылок на наш рейтинг по статьям Википедии. И хотя там они все в nofollow, но когда большие СМИ пишут статьи, то для исследования ниши они часто смотрят Вики и источники, которые в ней стоят. В итоге большой шанс, что какой-то из редакторов увидит ваш сайт и тоже сошлется на него.
Так не только со Сбером было, недавно заметил ссылку с испанского агентства по SMM, на тот же наш рейтинг. На 90% уверен, что ссылку нашли через Википедию, потому как по целевым запросам эта страница нигде не вылазит в поиске
Так что лайфхак для вас - подумайте какие интересные данные можно собрать в вашей нише, оформите это в лендинг и закиньте в тематические статьи Википедии. Например, если торгуете велосипедами, сделайте интерактивную таблицу какие модели велосипедов выигрывали в Tour de France по годам. Потом отредактируйте статьи Вики, добавив ссылку на свою страницу. Если информация полезная, ссылку оставят.
P.S. А тем временем наш проект дошел уже 1700 уников в сутки. Основная часть трафа - США
Средние годовые зарплаты в Amazon, Birchbox, Etsy, Ebay и Pinterest (по данным Zippia). Сеошники тут получают от $4000 до $8000 в месяц.
Кстати, в Etsy нужен Head of SEO.
https://www.etsy.com/careers/job/743999719461931
Кстати, в Etsy нужен Head of SEO.
https://www.etsy.com/careers/job/743999719461931
Пример канала, где регулярность постинга приводит к вовлеченности аудитории и росту популярности — @seoraketa
Илья — красавчик! Читаю с интересом.
Илья — красавчик! Читаю с интересом.
Модули геолокации
Когда я работал программистом, мы часто использовали модули геолокации, типа GeoIP, которые по IP посетителя определяют его регион, который влиял на логику работы сайта — кого-то перенаправить, кому-то предоставить кастомную информацию, кого-то вообще заблокировать. Но работали в основном со странами, более локальней информация была не нужна.
Даже в определении стран иногда возникала погрешность. Но в большинстве случаев ею можно пренебречь. А вот как работают те, кому нужна более детальная и более точная информация? Скорей всего, мирятся с большой погрешностью, если определяют локацию только по IP.
Пост и скриншоты в тему от Андрея Попова:
fb.com/papex10/posts/3520342368016818
"Даже если айтишники будут клясться, что всё получится. Не получится!"
"Провайдер не заботится о чистоте сетей... не закрепляет IP за конкретным местом, а раздаёт их как попало. Сейчас в Москве, а через час этот номер отдаст в Калуге. Причём, чем крупнее провайдер, тем больше у него беспорядок. Для примера я взял Ростелеком. У этих вообще бардак."
"Ваш сайт никогда не получит точных сведений, где находится клиент. А значит, это не имеет никакого значения. Только клиента путать."
———
В целом, GeoIP — зло для SEO. Вы никогда не предугадаете, данные по какой локации попадут в кеш поисковика. Не говоря уже о путанице для пользователей. А если вы продвигаетесь под несколько поисковиков?..
Когда я работал программистом, мы часто использовали модули геолокации, типа GeoIP, которые по IP посетителя определяют его регион, который влиял на логику работы сайта — кого-то перенаправить, кому-то предоставить кастомную информацию, кого-то вообще заблокировать. Но работали в основном со странами, более локальней информация была не нужна.
Даже в определении стран иногда возникала погрешность. Но в большинстве случаев ею можно пренебречь. А вот как работают те, кому нужна более детальная и более точная информация? Скорей всего, мирятся с большой погрешностью, если определяют локацию только по IP.
Пост и скриншоты в тему от Андрея Попова:
fb.com/papex10/posts/3520342368016818
"Даже если айтишники будут клясться, что всё получится. Не получится!"
"Провайдер не заботится о чистоте сетей... не закрепляет IP за конкретным местом, а раздаёт их как попало. Сейчас в Москве, а через час этот номер отдаст в Калуге. Причём, чем крупнее провайдер, тем больше у него беспорядок. Для примера я взял Ростелеком. У этих вообще бардак."
"Ваш сайт никогда не получит точных сведений, где находится клиент. А значит, это не имеет никакого значения. Только клиента путать."
———
В целом, GeoIP — зло для SEO. Вы никогда не предугадаете, данные по какой локации попадут в кеш поисковика. Не говоря уже о путанице для пользователей. А если вы продвигаетесь под несколько поисковиков?..
С современным интерфейсом поисковых результатов позиция сайта в органике уже не так важна, как видимость на странице поиска.
Именно поэтому, On-SERP SEO — один из сильных трендов.
— Привлечение внимания и правильные заголовки
— Попадание в блоки ответов и разные колдунщики
— Отображение на карте
— Монополизация выдачи
...
Сегодня в 15:00 проведу семинар на эту тему. Поделюсь чеклистом по анализу элементов SERP, методами работы с колдунщиками и другими элементами на выдаче, покажу хорошие и плохие примеры. Участие бесплатное.
Методы On-SERP SEO для Google:
webpromoexperts.net/seminars/metody-on-serp-seo-dlya-google/
Регистрируйтесь и добавляйте в календарик!
Именно поэтому, On-SERP SEO — один из сильных трендов.
— Привлечение внимания и правильные заголовки
— Попадание в блоки ответов и разные колдунщики
— Отображение на карте
— Монополизация выдачи
...
Сегодня в 15:00 проведу семинар на эту тему. Поделюсь чеклистом по анализу элементов SERP, методами работы с колдунщиками и другими элементами на выдаче, покажу хорошие и плохие примеры. Участие бесплатное.
Методы On-SERP SEO для Google:
webpromoexperts.net/seminars/metody-on-serp-seo-dlya-google/
Регистрируйтесь и добавляйте в календарик!
webpromoexperts.net
Методы On-SERP SEO для Google | WebPromoExperts
【Онлайн семинары】➲Спикер:Сергій Кокшаров. Методы On-SERP SEO для Google
Хорошая новость. С ноября этого года Google будет начинать сканировать сайты по протоколу HTTP2.
https://webmasters.googleblog.com/2020/09/googlebot-will-soon-speak-http2.html
Цель этого обновления — экономия ресурсов поисковика. HTTP2 позволяет мультипликсировать запросы (в одном TCP соединении передавать несколько файлов), сжимать HTTP-заголовки, поддерживает server push (что полезно для корректного рендеринга). А вот на скорость индексации сайта HTTP2, по словам гуглоидов, не повлияет.
Сайты будут загружаться по 2-му протоколу не все, а только те, которые его поддерживают, и которые покажут эффективность загрузки. То есть, поисковик будет сравнивать, сколько он сэкономит ресурсов, загружая конкретный сайт по HTTP2, и если этой экономии нет, то будет по-прежнему использовать HTTP/1.1. Основная метрика — количество запросов в секунду (qps).
Проверить, как загружается ваш сайт, можно будет в серверных логах. Но также обещают внедрить нужные сообщения в Search Console.
Несмотря на то, что гуглоиды не обещают изменений в плане индексации или сканирования сайта при переходе на новую технологию, все же, при освобождении ресурсов, поисковик сможет их направлять на сканирование большей части сайта. Я полагаю, что небольшие преимущества для владельцев HTTP2 сайтов будут.
Проверить, поддерживает ли ваш сайт HTTP2 можно здесь — https://http2.pro
Если не поддерживает и вы не знаете как настроить, то это сможет сделать только администратор сервера (нужно спросить у него). И вам придется перейти на HTTPS, если еще не перешли.
https://webmasters.googleblog.com/2020/09/googlebot-will-soon-speak-http2.html
Цель этого обновления — экономия ресурсов поисковика. HTTP2 позволяет мультипликсировать запросы (в одном TCP соединении передавать несколько файлов), сжимать HTTP-заголовки, поддерживает server push (что полезно для корректного рендеринга). А вот на скорость индексации сайта HTTP2, по словам гуглоидов, не повлияет.
Сайты будут загружаться по 2-му протоколу не все, а только те, которые его поддерживают, и которые покажут эффективность загрузки. То есть, поисковик будет сравнивать, сколько он сэкономит ресурсов, загружая конкретный сайт по HTTP2, и если этой экономии нет, то будет по-прежнему использовать HTTP/1.1. Основная метрика — количество запросов в секунду (qps).
Проверить, как загружается ваш сайт, можно будет в серверных логах. Но также обещают внедрить нужные сообщения в Search Console.
Несмотря на то, что гуглоиды не обещают изменений в плане индексации или сканирования сайта при переходе на новую технологию, все же, при освобождении ресурсов, поисковик сможет их направлять на сканирование большей части сайта. Я полагаю, что небольшие преимущества для владельцев HTTP2 сайтов будут.
Проверить, поддерживает ли ваш сайт HTTP2 можно здесь — https://http2.pro
Если не поддерживает и вы не знаете как настроить, то это сможет сделать только администратор сервера (нужно спросить у него). И вам придется перейти на HTTPS, если еще не перешли.
Official Google Webmaster Central Blog
Googlebot will soon speak HTTP/2
Official news on crawling and indexing sites for the Google index
Используете ли вы LSI для оптимизации контента?
Anonymous Poll
40%
Конечно, без LSI слов никуда
22%
Знаю про LSI, но ещё нормально не использовал
7%
Работа LSI это миф, поисковики его не используют
7%
Слышал о спорах вокруг этой темы, ещё не определился
17%
Что такое LSI?
7%
Другое
Мы тут про LSI, а есть более интересная техника — Reddit keywords. Подсмотрел на фейсбуке.
В чем заключается?
— Находите сабреддит, который относится к вашему бизнесу.
— Ссылку добавляете в Ahrefs, SemRush, Serpstat и смотрите, по каким ключам страница ранжируется.
— Используете эти ключи для оптимизации своих страниц.
Ключи, по которым ранжируется Reddit обычно низкоконкурентные, в топ выходят чисто за счет авторитетности самого проекта. Но страницы Реддита обычно не перегоняют блог-посты в поиске.
Крутая техника. Причем можно масштабировать и на другие проекты, например, искать Quora-keywords и пр.
В чем заключается?
— Находите сабреддит, который относится к вашему бизнесу.
— Ссылку добавляете в Ahrefs, SemRush, Serpstat и смотрите, по каким ключам страница ранжируется.
— Используете эти ключи для оптимизации своих страниц.
Ключи, по которым ранжируется Reddit обычно низкоконкурентные, в топ выходят чисто за счет авторитетности самого проекта. Но страницы Реддита обычно не перегоняют блог-посты в поиске.
Крутая техника. Причем можно масштабировать и на другие проекты, например, искать Quora-keywords и пр.
Forwarded from Ihor Rudnyk
Режь! Не жалей!🙅Главное правило при запуске онлайн проектов
За последние пару недель я пообщался с несколькими коллегами, которые стартуют первые свои онлайн проекты с дизайном, разработкой и так далее. То есть речь идет не о запуске сайтов на Вордпресс или другой ЦМС на шаблоне.
Как выглядит обычно запуск проекта:
1. вынашиваем идею;
2. рессечим нишу;
3. делаем мокапы;
4. дизайним;
5. верстаем;
6. девелопим;
7. релизим;
8. начинаем проект.
Главная проблема — стремление сделать как можно больше функционала!
Вот только 80% из него можно порезать.
Самое лучшее, что вы можете сделать при создании нового проекта: сосредоточиться на том, чтобы как можно быстрей его запустить и отдать пользователям.
Да, мы все знаем о том, что нужно запускать MVP.
Но одно дело знать, а другое дело это следовать этому на практике в собственном проекте.
Поэтому еще раз зафиксирую мысль: откажитесь от всего, что не обязательно на старте проекта. А то, что обязательно постарайтесь упростить до неприличия.
Несколько примеров упрощения и принятия решений:
1. откажитесь от личного кабинета, если это можно заменить обычной формой сбора информации;
2. если вы не уверены какую сделать форму для брифа, какие там должны быть вопросы и так далее: поэкспериментируйте через гугл формы и затем реализуйте уже ее руками программистов;
3. задайте себе вопрос: какие страницы будут вам приносить поисковой трафик? Попробуйте отказаться от всех иных страниц и отложить их реализацию
4. многие страницы можно реализовать просто путем верстки, без бекенда. Это невероятно вас ускорит и позволит протестировать гипотезу;
5. постарайтесь сделать 2-3 типовые страницы и с ними запуститься; позже будете экспериментовать с другими форматами и более сложными реализациями.
Любой сайт должен стартовать с core-функции. Сосредоточьтесь на том, чтобы она была реализована достойно. Остальным на начальном этапе можно пренебречь.
Грамотно ПМить разработку — это искусство. И если делать это правильно, то можно невероятно ускоряться. Как и наоборот.
Желаю всем быстрых успешных запусков😀
by @rudnyk
За последние пару недель я пообщался с несколькими коллегами, которые стартуют первые свои онлайн проекты с дизайном, разработкой и так далее. То есть речь идет не о запуске сайтов на Вордпресс или другой ЦМС на шаблоне.
Как выглядит обычно запуск проекта:
1. вынашиваем идею;
2. рессечим нишу;
3. делаем мокапы;
4. дизайним;
5. верстаем;
6. девелопим;
7. релизим;
8. начинаем проект.
Главная проблема — стремление сделать как можно больше функционала!
Вот только 80% из него можно порезать.
Самое лучшее, что вы можете сделать при создании нового проекта: сосредоточиться на том, чтобы как можно быстрей его запустить и отдать пользователям.
Да, мы все знаем о том, что нужно запускать MVP.
Но одно дело знать, а другое дело это следовать этому на практике в собственном проекте.
Поэтому еще раз зафиксирую мысль: откажитесь от всего, что не обязательно на старте проекта. А то, что обязательно постарайтесь упростить до неприличия.
Несколько примеров упрощения и принятия решений:
1. откажитесь от личного кабинета, если это можно заменить обычной формой сбора информации;
2. если вы не уверены какую сделать форму для брифа, какие там должны быть вопросы и так далее: поэкспериментируйте через гугл формы и затем реализуйте уже ее руками программистов;
3. задайте себе вопрос: какие страницы будут вам приносить поисковой трафик? Попробуйте отказаться от всех иных страниц и отложить их реализацию
4. многие страницы можно реализовать просто путем верстки, без бекенда. Это невероятно вас ускорит и позволит протестировать гипотезу;
5. постарайтесь сделать 2-3 типовые страницы и с ними запуститься; позже будете экспериментовать с другими форматами и более сложными реализациями.
Любой сайт должен стартовать с core-функции. Сосредоточьтесь на том, чтобы она была реализована достойно. Остальным на начальном этапе можно пренебречь.
Грамотно ПМить разработку — это искусство. И если делать это правильно, то можно невероятно ускоряться. Как и наоборот.
Желаю всем быстрых успешных запусков😀
by @rudnyk
Сайрус хорошо подметил ситуацию в Твиттере, что вы увидите в ленте, когда подпишетесь на seo-экспертов.
Твиттер на западе используют активно. И это один из моих источников получения новой информации по SEO. Мусора, действительно, много. Но есть один лайфхак — неинтересные твиты можно помечать прямо внутренними инструментами Твиттера. Он на этом обучается и формирует более умную персонализированную ленту.
Это удобно, так я избавился от большинства политических твитов, твитов о расизме, феминизме, различных меньшинствах и пр, о чем любят поговорить все, в том числе seo-эксперты. Фильтрация помогает, но мусор все равно приходится перелапачивать, чтобы найти что-то ценное. В этом плане Телеграм мне нравится больше, но здесь только рунетовские ребята...
Если у Деваки выходит очередной рекламный пост, это вообще мега-релевантная информация для сеошников, по сравнению с seo-твиттером... и часто с seo-фейсбуком :)
Твиттер на западе используют активно. И это один из моих источников получения новой информации по SEO. Мусора, действительно, много. Но есть один лайфхак — неинтересные твиты можно помечать прямо внутренними инструментами Твиттера. Он на этом обучается и формирует более умную персонализированную ленту.
Это удобно, так я избавился от большинства политических твитов, твитов о расизме, феминизме, различных меньшинствах и пр, о чем любят поговорить все, в том числе seo-эксперты. Фильтрация помогает, но мусор все равно приходится перелапачивать, чтобы найти что-то ценное. В этом плане Телеграм мне нравится больше, но здесь только рунетовские ребята...
Если у Деваки выходит очередной рекламный пост, это вообще мега-релевантная информация для сеошников, по сравнению с seo-твиттером... и часто с seo-фейсбуком :)
Forwarded from АлаичЪ про SEO, бизнес и …
Интересный эксперимент был опубликован на Reboot Online.
Гипотеза была в том, что дешевый хостинг может пагубно повлиять на ранжирование размещенного там сайта, если он размещен вместе с более низкокачественными и потенциально спамерскими веб-сайтами. Авторы исследования хотели проверить, влияет ли такое «плохое соседство» на «хорошие» сайты в рамках одного хостинга.
Удивительно, но в выводах, есть закономерность, что сайты, размещенные на общем IP-адресе, имели среднюю меньшую позицию в выдаче, чем сайты, размещенные на выделенном IP-адресе.
Google и их самообучающиеся алгоритмы ранжирования результатов поиска часто ищут общие закономерности у некачественных сайтов или тех, кто пытается манипулировать результатами поиска. Размещая свой сайт рядом с такими доменами, мы рискуем оказаться в «плохом районе» - Google может отнести наш сайт к плохим из-за некоторых общих характеристик хостинга.
🔗 Ссылка на исследование
PS После публикации и поднявшегося в SEO-Твиттере обсуждения, коллеги напали с расспросами на Джона Мюллера. Вы, наверное, догадываетесь, что он ответил 😊 Джон сказал, что это, конечно, крутой эксперимент, но бесполезный, ведь нет ни одного фактора ранжирования, который бы учитывал такие IP-адреса.
Гипотеза была в том, что дешевый хостинг может пагубно повлиять на ранжирование размещенного там сайта, если он размещен вместе с более низкокачественными и потенциально спамерскими веб-сайтами. Авторы исследования хотели проверить, влияет ли такое «плохое соседство» на «хорошие» сайты в рамках одного хостинга.
Удивительно, но в выводах, есть закономерность, что сайты, размещенные на общем IP-адресе, имели среднюю меньшую позицию в выдаче, чем сайты, размещенные на выделенном IP-адресе.
Google и их самообучающиеся алгоритмы ранжирования результатов поиска часто ищут общие закономерности у некачественных сайтов или тех, кто пытается манипулировать результатами поиска. Размещая свой сайт рядом с такими доменами, мы рискуем оказаться в «плохом районе» - Google может отнести наш сайт к плохим из-за некоторых общих характеристик хостинга.
🔗 Ссылка на исследование
PS После публикации и поднявшегося в SEO-Твиттере обсуждения, коллеги напали с расспросами на Джона Мюллера. Вы, наверное, догадываетесь, что он ответил 😊 Джон сказал, что это, конечно, крутой эксперимент, но бесполезный, ведь нет ни одного фактора ранжирования, который бы учитывал такие IP-адреса.
TD-seo-checklist2.pdf
443.3 KB
Хороший чеклист по SEO на 100+ пунктов для сайтов психотерапевтов (услуги которых стали более актуальны в период ковида). От создателей агрегатора психотерапевтов и психологов TherapyDen.
Думаю, подойдет как база для любых сайтов частных услуг.
Думаю, подойдет как база для любых сайтов частных услуг.
Бабло, бабло, бабло...
Оптимизатор, в надежде заработать больше, хочет создать платный seo-инструмент, типа Ahrefs.
SEO-сервис, в надежде заработать больше, хочет создать поисковую систему, типа Google или хотя бы Яндекс.
Поисковая система, в надежде заработать больше, хочет стать банком типа Сбер.
Банк, в надежде заработать больше, создает экосистему и скупает все успешные проекты. А часы в новом логотипе это время, которое деньги.
Так и крутимся в этой матрице...
Оптимизатор, в надежде заработать больше, хочет создать платный seo-инструмент, типа Ahrefs.
SEO-сервис, в надежде заработать больше, хочет создать поисковую систему, типа Google или хотя бы Яндекс.
Поисковая система, в надежде заработать больше, хочет стать банком типа Сбер.
Банк, в надежде заработать больше, создает экосистему и скупает все успешные проекты. А часы в новом логотипе это время, которое деньги.
Так и крутимся в этой матрице...
Forwarded from SEO inside
Бесплатное участие в #brightonSEO
BrightonSEO одна из самых популярных конференций для тех, кто продвигает сайты под бурж.
BrightonSEO будет проводиться в режиме онлайн 1 и 2 октября 2020 и вы можете бесплатно зарегистрироваться прямо сейчас!
👉 Ссылка на регистрацию https://2020.brightonseo.com/
После регистрации нужно выбрать интересные вам сессии и докладчиков.
В самом конце будет страница с вашим распорядком сессий. Советую добавить все в календарь, чтобы не пропустить.
🔥 Посоветуйте канал SEO inside своим друзьям!
👍 Сделаем вместе мир SEO лучше!
С уважением,
Вячеслав Вареня, автор блога https://pro100blogger.com
BrightonSEO одна из самых популярных конференций для тех, кто продвигает сайты под бурж.
BrightonSEO будет проводиться в режиме онлайн 1 и 2 октября 2020 и вы можете бесплатно зарегистрироваться прямо сейчас!
👉 Ссылка на регистрацию https://2020.brightonseo.com/
После регистрации нужно выбрать интересные вам сессии и докладчиков.
В самом конце будет страница с вашим распорядком сессий. Советую добавить все в календарь, чтобы не пропустить.
🔥 Посоветуйте канал SEO inside своим друзьям!
👍 Сделаем вместе мир SEO лучше!
С уважением,
Вячеслав Вареня, автор блога https://pro100blogger.com
Привет! Завтра же SEO Day. Одна из душевных конференций:
https://webpromoexperts.net/conference/seo-day/
Будет полезно и интересно. Не пропустите!
— ТОП инструменты для сеошника.
— Здравый смысл в линкбилдинге и как строить ссылки во время ковида.
— Оценка сложности продвижения, системность seo-процессов, бюджеты.
— SEO лайфхаки, кейсы и рекомендации...
Мой доклад в 12:15, расскажу про бюджетное SEO. Куда обычно расходуются бюджеты при продвижении сайтов, и как все это дело оптимизировать. Готовьте вопросы.
А если вдруг пропустите конференцию, то жду вас на своем курсе SEO Pro, где вы узнаете о всех современных seo-стратегиях и закроете оставшиеся вопросы по SEO.
https://webpromoexperts.net/courses/seo-pro-online/
Отличного вечера!
https://webpromoexperts.net/conference/seo-day/
Будет полезно и интересно. Не пропустите!
— ТОП инструменты для сеошника.
— Здравый смысл в линкбилдинге и как строить ссылки во время ковида.
— Оценка сложности продвижения, системность seo-процессов, бюджеты.
— SEO лайфхаки, кейсы и рекомендации...
Мой доклад в 12:15, расскажу про бюджетное SEO. Куда обычно расходуются бюджеты при продвижении сайтов, и как все это дело оптимизировать. Готовьте вопросы.
А если вдруг пропустите конференцию, то жду вас на своем курсе SEO Pro, где вы узнаете о всех современных seo-стратегиях и закроете оставшиеся вопросы по SEO.
https://webpromoexperts.net/courses/seo-pro-online/
Отличного вечера!
Как думает SEO-аналитик
1й пример: Вышла крутая новость от Яндекса, что некоторые цели в метрике можно настраивать без вмешательства программиста.
https://yandex.ru/blog/metrika/light-goals
Это клики по телефону, почте и отправка форм. Нужно лишь указать, какой телефон мы хотим отслеживать, какую почту или какую форму.
SEO-аналитик думает: Не обязательно настраивать цели в Метрике, чтобы Яндекс знал об их достижении. Яндекс нам подсказывает, что при анализе ПФ коммерческих сайтов, чтобы понять качество транзакции, могут учитываться клики по телефонам, почте и отправки форм. Но это пока просто логичная гипотеза, нужно ее чем-то подтвердить.
2й пример: Ahrefs дал возможность анализировать свои сайты бесплатно с помощью объединения инструментов под названием "Панель для вебмастеров".
https://ahrefs.com/blog/webmaster-tools/
Оптимизаторы разделились на 2 лагеря. Те, кто привык платить Ahrefs, заценили новость, так как смогут за те же деньги получать более точные данные. Те, кто не любит платить Ahrefs, боятся отдавать свои данные конкурентам. А, еще третий лагерь - те, кто не определились, но любят все бесплатное, поэтому смело начали пробовать AWT. Их потом будут конвертить в платных пользователей.
Тему подняли на Реддите
https://www.reddit.com/r/bigseo/comments/ixjaof/why_you_shouldnt_use_ahrefs_webmaster_tools/
Основная претензия вебмастеров: данные из Search Console будут переданы конкурентам.
Ответ маркетолога Ahrefs: подтверждать сайт через Search Console не обязательно, чтобы использовать AWT.
SEO-аналитик думает: Ahrefs не ответил на претензию. Не опроверг предположение. То есть, данные из Search Console, подключенных соответствующим образом сайтов, реально будут использоваться для улучшения собранных из других источников данных.
3й пример: У Текстерры вышло новое интересное видео на ютубе "Метод, который 100% повысит продажи на вашей странице". Женя Крюкова молодец!
https://youtu.be/0UoUpqHJhDw
В начале видео Женя говорит, что сейчас расскажет о бесплатных инструментах и в конце поделится очень ценным подарком.
SEO-аналитик думает: блин, я тоже использую этот прием маркетинга (интрига) в своих видео и статьях. 😁 Но сейчас управляют мной 😬
1й пример: Вышла крутая новость от Яндекса, что некоторые цели в метрике можно настраивать без вмешательства программиста.
https://yandex.ru/blog/metrika/light-goals
Это клики по телефону, почте и отправка форм. Нужно лишь указать, какой телефон мы хотим отслеживать, какую почту или какую форму.
SEO-аналитик думает: Не обязательно настраивать цели в Метрике, чтобы Яндекс знал об их достижении. Яндекс нам подсказывает, что при анализе ПФ коммерческих сайтов, чтобы понять качество транзакции, могут учитываться клики по телефонам, почте и отправки форм. Но это пока просто логичная гипотеза, нужно ее чем-то подтвердить.
2й пример: Ahrefs дал возможность анализировать свои сайты бесплатно с помощью объединения инструментов под названием "Панель для вебмастеров".
https://ahrefs.com/blog/webmaster-tools/
Оптимизаторы разделились на 2 лагеря. Те, кто привык платить Ahrefs, заценили новость, так как смогут за те же деньги получать более точные данные. Те, кто не любит платить Ahrefs, боятся отдавать свои данные конкурентам. А, еще третий лагерь - те, кто не определились, но любят все бесплатное, поэтому смело начали пробовать AWT. Их потом будут конвертить в платных пользователей.
Тему подняли на Реддите
https://www.reddit.com/r/bigseo/comments/ixjaof/why_you_shouldnt_use_ahrefs_webmaster_tools/
Основная претензия вебмастеров: данные из Search Console будут переданы конкурентам.
Ответ маркетолога Ahrefs: подтверждать сайт через Search Console не обязательно, чтобы использовать AWT.
SEO-аналитик думает: Ahrefs не ответил на претензию. Не опроверг предположение. То есть, данные из Search Console, подключенных соответствующим образом сайтов, реально будут использоваться для улучшения собранных из других источников данных.
3й пример: У Текстерры вышло новое интересное видео на ютубе "Метод, который 100% повысит продажи на вашей странице". Женя Крюкова молодец!
https://youtu.be/0UoUpqHJhDw
В начале видео Женя говорит, что сейчас расскажет о бесплатных инструментах и в конце поделится очень ценным подарком.
SEO-аналитик думает: блин, я тоже использую этот прием маркетинга (интрига) в своих видео и статьях. 😁 Но сейчас управляют мной 😬
Кто бы что не говорил, но мне нравится последнее обновление Safari. Они серьезно взялись за безопасность персональных данных и начали блокировать по умолчанию все трекеры, отслеживающие поведение пользователей на сайтах.
Возле поисковой строки появилась иконка с щитом, при клике на которую появляется информация, сколько трекеров было заблокировано на текущем сайте.
Возле поисковой строки появилась иконка с щитом, при клике на которую появляется информация, сколько трекеров было заблокировано на текущем сайте.