В ближайшее время в Google Chrome будет доступна функция использования фрагмента URL для навигации по контенту. Другими словами, можно будет кидать ссылку коллегам не на страницу, а на фрагмент этой страницы. Практически, как в ютубе можно поделиться ссылкой на определенное время в видео.
Раньше такой функционал можно было включить на своем сайте, используя сторонние решения. Сейчас это будет нативной функцией, в будущем и в других браузерах, полагаю.
Подробная документация:
https://github.com/bokand/ScrollToTextFragment
Сейчас эта функция экспериментальная в хроме от версии 74.0.3706.0. И если хотите поучаствовать в эксперименте, используйте chrome://flags#enable-text-fragment-anchor.
Кстати, на SEO это тоже может повлиять. Как минимум на сниппеты, куда сейчас идут именованные ссылки, а будут идти с автосгенерированным URL-фрагментом.
via @devakatalk
Раньше такой функционал можно было включить на своем сайте, используя сторонние решения. Сейчас это будет нативной функцией, в будущем и в других браузерах, полагаю.
Подробная документация:
https://github.com/bokand/ScrollToTextFragment
Сейчас эта функция экспериментальная в хроме от версии 74.0.3706.0. И если хотите поучаствовать в эксперименте, используйте chrome://flags#enable-text-fragment-anchor.
Кстати, на SEO это тоже может повлиять. Как минимум на сниппеты, куда сейчас идут именованные ссылки, а будут идти с автосгенерированным URL-фрагментом.
via @devakatalk
Предлагаю больше узнать друг о друге. Расскажите, с каким типом проектов вы в основном работаете/представляете?
Anonymous Poll
60%
eCommerce, комм. услуги
8%
Сайты под партнерки
9%
МФА/Статейники
2%
Новостники
5%
Сервисы/инструменты
4%
Агрегаторы (чего угодно)
2%
Сообщества (форумы, блоги, соцсети)
3%
Стартапы
8%
Другое
Сообщество reCreate провели большое исследование по заработку создателей контента в Америке — "Рост творческой индустрии в Америке". Кто, где и сколько зарабатывает:
https://goo.gl/enx2fy (pdf на 100 стр.)
"Последний год мы проводили тщательный анализ миллионов американцев, которые создают и распространяют собственный контент в интернете — от видео на ютубе и книг на Amazon Publishing, до фотографий в инстаграме и хендмейда на Этси — и зарабатывают на этом деньги."
В общем, больше всего денег для создателей контента на ютубе, этси и в инстаграме. Но отчет стоит прочесть, хотя и проанализированы далеко не все платформы.
https://goo.gl/enx2fy (pdf на 100 стр.)
"Последний год мы проводили тщательный анализ миллионов американцев, которые создают и распространяют собственный контент в интернете — от видео на ютубе и книг на Amazon Publishing, до фотографий в инстаграме и хендмейда на Этси — и зарабатывают на этом деньги."
В общем, больше всего денег для создателей контента на ютубе, этси и в инстаграме. Но отчет стоит прочесть, хотя и проанализированы далеко не все платформы.
Forwarded from SEO life
Интересные новости из мира AI (искуственного интеллекта).
Компания OpenAI усовершенствовала свою сеть GPT и дообучили ее так, что она генерит тексты исходя из одного предложения. Тексты эти неотличимы от человеческих настолько, что ребята из OpenAI побоялись выкладывать полную модель нейросети в открытый доступ и выложили только демку.
Кому интересны подробности - вэлком на Хабр: https://seoch.at/uh75m9/
Если вы, ребята, не поняли в чем дело, то в обозримом будущем SEO-специалистам не понадобится помощь копирайтеров, чтобы создавать тексты и возможно нас ждет волна AI-доров и AI-PBN .
Как вам такое будущее? Как всегда можно обсудить в @seochat
p.s.: пора учить Python
Компания OpenAI усовершенствовала свою сеть GPT и дообучили ее так, что она генерит тексты исходя из одного предложения. Тексты эти неотличимы от человеческих настолько, что ребята из OpenAI побоялись выкладывать полную модель нейросети в открытый доступ и выложили только демку.
Кому интересны подробности - вэлком на Хабр: https://seoch.at/uh75m9/
Если вы, ребята, не поняли в чем дело, то в обозримом будущем SEO-специалистам не понадобится помощь копирайтеров, чтобы создавать тексты и возможно нас ждет волна AI-доров и AI-PBN .
Как вам такое будущее? Как всегда можно обсудить в @seochat
p.s.: пора учить Python
Хабр
GPT-2 нейросеть от OpenAI. Быстрый старт
Не успели отшуметь новости о нейросети BERT от Google, показавшей state-of-the-art результаты на целом ряде разговорных (NLP) задач в машинном обучении, как Ope...
SEO и распознавание капчи
Так уж сложилось, что сеошникам нужно получать и обрабатывать большие объемы данных, нагружая сервера поисковых систем. Последние, в свою очередь, защищаются с помощью умной капчи. В одно время, зная, что капчи распознают индусы, Яндекс ввел на них кирилические слова и это сильно разгрузило их сервера :) но ненадолго. В общем, тут борьба технологий и ресурсов. И сеошники, хочешь-не-хочешь, в ней тоже участвуют.
Каждый оптимизатор использует сервисы распознавания капч. При съеме позиций, при анализе семантики, кластеризации, использовании различных парсеров. Не знаю, как бы мы без этого всего жили... Предлагаю опрос, кто что использует.
Каким сервисом по обходу капчи вы пользуетесь?
Так уж сложилось, что сеошникам нужно получать и обрабатывать большие объемы данных, нагружая сервера поисковых систем. Последние, в свою очередь, защищаются с помощью умной капчи. В одно время, зная, что капчи распознают индусы, Яндекс ввел на них кирилические слова и это сильно разгрузило их сервера :) но ненадолго. В общем, тут борьба технологий и ресурсов. И сеошники, хочешь-не-хочешь, в ней тоже участвуют.
Каждый оптимизатор использует сервисы распознавания капч. При съеме позиций, при анализе семантики, кластеризации, использовании различных парсеров. Не знаю, как бы мы без этого всего жили... Предлагаю опрос, кто что использует.
Каким сервисом по обходу капчи вы пользуетесь?
Backlinko и BuzzSumo провели анализ 900+ млн. блог-постов и вот какие получились выводы относительно контента, соцсигналов и SEO:
1. Лонгриды получают в среднем на 77% больше ссылок, чем короткие статьи. Лонгриды идеальны для линкбилдинга.
2. По соцсигналам большой контент тоже выигрывают, но при этом у статей размером больше 2000 слов отдача поменьше. Идеальный размер контента, который расшаривают в соцсетях — 1000-2000 слов.
3. Очень много контента вообще не получают ссылок или лайков. Фактически, 94% всех блог-постов имеют 0 обратных ссылок.
4. Расшаривания по сильным постам распределяются неравномерно. Где-то 1.3% статей генерируют 75% всех социальных сигналов.
5. Корреляция между ссылками и соцсигналами не найдена. Это говорит о том, что между сильно расшариваемым контентом и тем, на который хорошо ссылаются, очень мало пересечений.
6. Длинные заголовки коррелируют с большим количеством репостов. Заголовки длиной 14-17 слов генерируют на 76.7% больше соцсигналов, чем короткие.
7. Заголовки с вопросом генерируют на 23.3% больше социальных расшариваний, чем те, которые не имеют вопросительного знака.
8. Нет никакого "лучшего дня" для публикации контента. Соцсигналы распределены равномерно по постам, опубликованным в разные дни недели.
9. Посты-списки очень хорошо репостятся. Фактически, пост-список в среднем имеет на 218% больше репостов, чем howto-посты и на 203% больше, чем инфографика.
10. Некоторые форматы контента работают лучше для получения ссылок. Например, посты "почему", "что" и инфографика получают на 25.8% больше ссылок, по отношению к видео или howto-постам.
11. "Нормальные" блог-посты получают в среднем в 9.7 раз больше расшариваний, чем посты на B2B-сайтах. Но несмотря на это, распределение расшариваний и ссылок для B2B и B2C контента выглядят одинаково.
Читайте подробно в оригинале:
https://backlinko.com/content-study
via @devakatalk
1. Лонгриды получают в среднем на 77% больше ссылок, чем короткие статьи. Лонгриды идеальны для линкбилдинга.
2. По соцсигналам большой контент тоже выигрывают, но при этом у статей размером больше 2000 слов отдача поменьше. Идеальный размер контента, который расшаривают в соцсетях — 1000-2000 слов.
3. Очень много контента вообще не получают ссылок или лайков. Фактически, 94% всех блог-постов имеют 0 обратных ссылок.
4. Расшаривания по сильным постам распределяются неравномерно. Где-то 1.3% статей генерируют 75% всех социальных сигналов.
5. Корреляция между ссылками и соцсигналами не найдена. Это говорит о том, что между сильно расшариваемым контентом и тем, на который хорошо ссылаются, очень мало пересечений.
6. Длинные заголовки коррелируют с большим количеством репостов. Заголовки длиной 14-17 слов генерируют на 76.7% больше соцсигналов, чем короткие.
7. Заголовки с вопросом генерируют на 23.3% больше социальных расшариваний, чем те, которые не имеют вопросительного знака.
8. Нет никакого "лучшего дня" для публикации контента. Соцсигналы распределены равномерно по постам, опубликованным в разные дни недели.
9. Посты-списки очень хорошо репостятся. Фактически, пост-список в среднем имеет на 218% больше репостов, чем howto-посты и на 203% больше, чем инфографика.
10. Некоторые форматы контента работают лучше для получения ссылок. Например, посты "почему", "что" и инфографика получают на 25.8% больше ссылок, по отношению к видео или howto-постам.
11. "Нормальные" блог-посты получают в среднем в 9.7 раз больше расшариваний, чем посты на B2B-сайтах. Но несмотря на это, распределение расшариваний и ссылок для B2B и B2C контента выглядят одинаково.
Читайте подробно в оригинале:
https://backlinko.com/content-study
via @devakatalk
По поводу вчерашнего опроса. Рукапча и Анти-капча, действительно, основные сервисы на рынке. Но чем они отличаются? Ниже мнение представителя одного из сервисов. Публикация щедро оплачена 💰😎
"Основные наши отличия в стоимости и отношении к пользователям. По ссылке свежие скриншоты:"
https://telegra.ph/ruCaptcha-vs-Antigate-Osnovnye-otlichiya-02-19
P.S. Можно обсудить в комментариях
"Основные наши отличия в стоимости и отношении к пользователям. По ссылке свежие скриншоты:"
https://telegra.ph/ruCaptcha-vs-Antigate-Osnovnye-otlichiya-02-19
P.S. Можно обсудить в комментариях
Telegraph
ruCaptcha vs Antigate. Основные отличия
1 - Стоимость распознавания 160 руб за 1000 решений на Рукапче против 328 руб на Анти-капче 2 - Отношение к пользователям Буквально вчера Google выпустил обновление ReCaptcha, системы распознавания по-разному дают месседж пользователям. Какое из сообщений…
- В топе могут быть сайты с плохими ссылками
- В топе могут быть сайты с плохим контентом
- В топе могут быть сайты с плохой скоростью загрузки
- В топе могут быть сайты с плохой индексацией
- В топе могут быть сайты с плохим E-A-T
Каждый сигнал ражирования это всего лишь часть целого. Есть куча исключений из любого правила.
/ Cyrus Shepard /
- В топе могут быть сайты с плохим контентом
- В топе могут быть сайты с плохой скоростью загрузки
- В топе могут быть сайты с плохой индексацией
- В топе могут быть сайты с плохим E-A-T
Каждый сигнал ражирования это всего лишь часть целого. Есть куча исключений из любого правила.
/ Cyrus Shepard /
Печальные SEO-истории в 3х словах
Ребята из BrightonSEO попросили подписчиков в твиттере описать печальные SEO-истории в трех словах. К флешмобу подключились много оптимизаторов. Сделал для вас подборку самых классных вариантов 😎
Технические моменты
• Google понимает JavaScript
• Single Page Application
• Тестовый поддомен проиндексировался
• Frog положил сервер
• Useragent Disallow /
• iframe in head
• Geo IP Redirect
• 3 0 2
Ссылки
• Платные ссылки работают
• Нам нужны ссылки
• Больше ссылочного веса
• 5000 ссылок за $5
• 1 ссылка за $5000
• Domain Authority 50+
• Private Blog Network
• Плохие ссылочные связи
Устройство сайта
• Wix SEO Wiz
• Сделан на Wix
• Сделан на Joomla
• Страница не найдена
• Переделка без редиректов
Про разработчиков
• Разработчик настроил SEO
• Наш программист занят
• Разработчик сказал нет
Про стратегии
• SEO уже умерло
• Создавайте хороший контент
• Давайте сделаем инфографику
• Другие делают так
• Fiver SEO эксперт
• Так сказал Мюллер
• Нейл Патель сказал
Про бизнес
• Засеоши мой сайт
• Важны позиции сайта
• Наш бюджет закончился
• SEO не бесплатно?
• Наш бюджет $500
• Гарантируем первую позицию
• Быстрые результаты, пожалуйста
• CEO занимается SEO
• Наше предыдущее агентство
Другое
• Подпапки или поддомены?
• Google сменил алгоритм
• На файвере дешевле
• Новый серч консоль
• Продвинь эти PDF-ки
• Ключевик not provided
• Исследование факторов ранжирования
Как вам такие триграммы? :) Чего здесь не хватает?
via @devakatalk
Ребята из BrightonSEO попросили подписчиков в твиттере описать печальные SEO-истории в трех словах. К флешмобу подключились много оптимизаторов. Сделал для вас подборку самых классных вариантов 😎
Технические моменты
• Google понимает JavaScript
• Single Page Application
• Тестовый поддомен проиндексировался
• Frog положил сервер
• Useragent Disallow /
• iframe in head
• Geo IP Redirect
• 3 0 2
Ссылки
• Платные ссылки работают
• Нам нужны ссылки
• Больше ссылочного веса
• 5000 ссылок за $5
• 1 ссылка за $5000
• Domain Authority 50+
• Private Blog Network
• Плохие ссылочные связи
Устройство сайта
• Wix SEO Wiz
• Сделан на Wix
• Сделан на Joomla
• Страница не найдена
• Переделка без редиректов
Про разработчиков
• Разработчик настроил SEO
• Наш программист занят
• Разработчик сказал нет
Про стратегии
• SEO уже умерло
• Создавайте хороший контент
• Давайте сделаем инфографику
• Другие делают так
• Fiver SEO эксперт
• Так сказал Мюллер
• Нейл Патель сказал
Про бизнес
• Засеоши мой сайт
• Важны позиции сайта
• Наш бюджет закончился
• SEO не бесплатно?
• Наш бюджет $500
• Гарантируем первую позицию
• Быстрые результаты, пожалуйста
• CEO занимается SEO
• Наше предыдущее агентство
Другое
• Подпапки или поддомены?
• Google сменил алгоритм
• На файвере дешевле
• Новый серч консоль
• Продвинь эти PDF-ки
• Ключевик not provided
• Исследование факторов ранжирования
Как вам такие триграммы? :) Чего здесь не хватает?
via @devakatalk
Мало кто знает, но в веб-архиве есть функция визуализации структуры сайта. Можно смотреть, как она менялась год от года.
— При анализе сайта выберите
над календарем ссылку "Site Map of ...".
— Или используйте адрес:
https://web.archive.org/web/sitemap/ [ваш-хост]
via @devakatalk
— При анализе сайта выберите
над календарем ссылку "Site Map of ...".
— Или используйте адрес:
https://web.archive.org/web/sitemap/ [ваш-хост]
via @devakatalk
Как не допустить индексацию тестового поддомена?
1. Закрываете в robots.txt
Тестовый поддомен должен быть закрыт в роботсе
2. Настраиваете базовую HTTP-аутентификацию
Все тестировщики должны входить сюда только после ввода логина-пароля. Это также полезно, чтобы никто, кроме ваших сотрудников/подрядчиков не видел вашу тестовую версию сайта.
Настраивается эта аутентификация в файле .htaccess
— Генерируем файл .htpasswd с паролем, например, этим инструментом:
https://www.htaccesstools.com/htpasswd-generator/
— Сохраняем файл где-нибудь на сервере, но чтобы он был недоступен извне
— В .htaccess добавляем нужные строки
via @devakatalk
1. Закрываете в robots.txt
Тестовый поддомен должен быть закрыт в роботсе
User-agent: *Это позволит запретить краулинг сайта роботом, но он все равно может попасть в индекс, если мы говорим о Google.
Disallow: /
2. Настраиваете базовую HTTP-аутентификацию
Все тестировщики должны входить сюда только после ввода логина-пароля. Это также полезно, чтобы никто, кроме ваших сотрудников/подрядчиков не видел вашу тестовую версию сайта.
Настраивается эта аутентификация в файле .htaccess
— Генерируем файл .htpasswd с паролем, например, этим инструментом:
https://www.htaccesstools.com/htpasswd-generator/
— Сохраняем файл где-нибудь на сервере, но чтобы он был недоступен извне
— В .htaccess добавляем нужные строки
AuthType BasicВ общем, двойная защита, от краулинга и индексации, делайте именно так! Настройка занимает не более 5 минут.
AuthName "My Test Website"
AuthUserFile /path/to/.htpasswd
Require valid-user
via @devakatalk
Читатели дополнили пост еще несколькими вариантами. Спасибо @pilot_bbk и @zapototski.
3. Закрыть доступ к тествому домену всем айпишникам, кроме своего/своих.
Так вообще никто не зайдет на этот сайт, кроме нужных людей. И соответственно, робот не сможет проиндексировать.
4. Закрыть страницы с помощью meta-robots noindex
Но в таком случае нужно будет открыть в robots.txt, так как поисковик не увидит этот noindex. Минус этого способа еще в том, что поисковик будет ходить по сайту и тратить свои и ваши ресурсы. Я все-таки предпочитаю базовую аутентификацию.
Какой способ вам нравится больше?
3. Закрыть доступ к тествому домену всем айпишникам, кроме своего/своих.
Order deny,allow
deny from all
allow from 146.120.12.2, 85.22.1.13
Так вообще никто не зайдет на этот сайт, кроме нужных людей. И соответственно, робот не сможет проиндексировать.
4. Закрыть страницы с помощью meta-robots noindex
Но в таком случае нужно будет открыть в robots.txt, так как поисковик не увидит этот noindex. Минус этого способа еще в том, что поисковик будет ходить по сайту и тратить свои и ваши ресурсы. Я все-таки предпочитаю базовую аутентификацию.
Какой способ вам нравится больше?
Если все темы исчерпаны и вы не знаете, о чем написать или с каким докладом выступить. Возьмите любую популярную тему прошлых лет, добавьте в заголовок "2019" и раскройте ее заново. Профит!
- Факторы ранжирования 2019
- Как оптимизировать тайтлы в 2019
- Поддомены или подпапки — что выбрать в 2019?
- Региональное продвижение в 2019
- Сколько зарабатывают специалисты в 2019
- Какую CMS лучше выбрать в 2019 году, чтобы забыть о SEO
- Как продвигать сайты в 2019
Метод универсальный, подходит везде. Используйте!
P.S. Темы, кстати, хорошие. Сам бы послушал :)
- Факторы ранжирования 2019
- Как оптимизировать тайтлы в 2019
- Поддомены или подпапки — что выбрать в 2019?
- Региональное продвижение в 2019
- Сколько зарабатывают специалисты в 2019
- Какую CMS лучше выбрать в 2019 году, чтобы забыть о SEO
- Как продвигать сайты в 2019
Метод универсальный, подходит везде. Используйте!
P.S. Темы, кстати, хорошие. Сам бы послушал :)
Я знал, что новая книга И.Ашманова крутая еще до того, как с ней ознакомился. А сейчас уже могу написать честный отзыв. Кратко: рекомендую. Ниже подробней.
— Книга на ЛитРес (эл. версия): https://goo.gl/GuWc7B
— На сайте изд. дома "Питер (бумажная версия): https://goo.gl/R7G7DR
Рецензия на книгу Игоря Ашманова "Оптимизация и продвижение в поисковых системах", 4е издание, вышедшее в конце 2018 года.
Текущее издание написано с учетом современных тенденций поисковых систем и новшеств на рынке SEO, в книгу добавлены главы обо всех факторах ранжирования, а также методах SERM и выборе исполнителя. Очень хорошо продумана структура книги и разделов, которая позволяет новичку постепенно вникнуть во все важные аспекты работы поисковых систем и оптимизатора. Понравилось, что к написанию книги привлекли ряд авторов, каждый из которых является экспертом в своей теме. В конце книги добавлен чеклист для проведения seo-аудита, который закрепляет весь материал книги и позволяет владельцу сайта быстро проверить, что нужно исправить или внедрить на своем ресурсе. Понравилось, что здесь уделено отдельное внимание такому важному вопросу, как оптимизации контента под пользовательский интент и приведены примеры. Здорово, что каждый раздел книги содержит в конце список полезных ссылок.
Из недостатков: очень много внимания уделено факторам ранжирования и оценке результатов SEO, но при этом, мало внимания уделено поисковым стратегиям. Например, в разделе о ссылочных факторах говорится о биржах и ссылочных агрегаторах, но не упоминаются такие актуальные стратегии, как аутрич, контент- и крауд-маркетинг. Что может сложить впечатление у читателя о текущей актуальности бирж и повлечь использование неверных стратегий. Мало внимания уделено On-SERP SEO и работе с элементами, помогающими увеличить CTR в поисковых результатах, используя микроразметку, натуральный язык текста для попадания в блоки ответов, продвижение в локальном поиске, использование турбо- и amp-страниц. Недостаточно внимания уделено вопросу оптимальной архитектуры сайта.
Так как у книги много авторов, хотелось бы видеть метки, кому именно из авторов принадлежит тот или иной параграф. В конце книги имеется информация о вкладе авторов в написание книги и над какими разделами они работали, но метки для отдельных глав или параграфов, на мой взгляд, были бы лучшим решением.
Несмотря на все, книга И.Ашманова, определенно, заслуживает внимания и является лучшей на русскоязычном пространстве для владельцев сайтов и начинающих оптимизаторов, которые хотят понять принципы поиска информации пользователями, принципы работы поисковых систем и разобраться в существующих методах продвижения сайтов. Книга написана простым и понятным языком.
Ее должен прочитать каждый владелец сайта, маркетолог и seo-стажер!
/ Сергей Кокшаров /
— Книга на ЛитРес (эл. версия): https://goo.gl/GuWc7B
— На сайте изд. дома "Питер (бумажная версия): https://goo.gl/R7G7DR
Рецензия на книгу Игоря Ашманова "Оптимизация и продвижение в поисковых системах", 4е издание, вышедшее в конце 2018 года.
Текущее издание написано с учетом современных тенденций поисковых систем и новшеств на рынке SEO, в книгу добавлены главы обо всех факторах ранжирования, а также методах SERM и выборе исполнителя. Очень хорошо продумана структура книги и разделов, которая позволяет новичку постепенно вникнуть во все важные аспекты работы поисковых систем и оптимизатора. Понравилось, что к написанию книги привлекли ряд авторов, каждый из которых является экспертом в своей теме. В конце книги добавлен чеклист для проведения seo-аудита, который закрепляет весь материал книги и позволяет владельцу сайта быстро проверить, что нужно исправить или внедрить на своем ресурсе. Понравилось, что здесь уделено отдельное внимание такому важному вопросу, как оптимизации контента под пользовательский интент и приведены примеры. Здорово, что каждый раздел книги содержит в конце список полезных ссылок.
Из недостатков: очень много внимания уделено факторам ранжирования и оценке результатов SEO, но при этом, мало внимания уделено поисковым стратегиям. Например, в разделе о ссылочных факторах говорится о биржах и ссылочных агрегаторах, но не упоминаются такие актуальные стратегии, как аутрич, контент- и крауд-маркетинг. Что может сложить впечатление у читателя о текущей актуальности бирж и повлечь использование неверных стратегий. Мало внимания уделено On-SERP SEO и работе с элементами, помогающими увеличить CTR в поисковых результатах, используя микроразметку, натуральный язык текста для попадания в блоки ответов, продвижение в локальном поиске, использование турбо- и amp-страниц. Недостаточно внимания уделено вопросу оптимальной архитектуры сайта.
Так как у книги много авторов, хотелось бы видеть метки, кому именно из авторов принадлежит тот или иной параграф. В конце книги имеется информация о вкладе авторов в написание книги и над какими разделами они работали, но метки для отдельных глав или параграфов, на мой взгляд, были бы лучшим решением.
Несмотря на все, книга И.Ашманова, определенно, заслуживает внимания и является лучшей на русскоязычном пространстве для владельцев сайтов и начинающих оптимизаторов, которые хотят понять принципы поиска информации пользователями, принципы работы поисковых систем и разобраться в существующих методах продвижения сайтов. Книга написана простым и понятным языком.
Ее должен прочитать каждый владелец сайта, маркетолог и seo-стажер!
/ Сергей Кокшаров /
Бритни Мюллер про внутреннюю оптимизацию сайтов в 2019 году: https://youtu.be/sJ_L3oQBxbk
Основные тезисы:
- Сделайте сайт доступным для робота
Проверьте robots.txt, meta-robots, чтобы там ничего лишнего не было закрыто. Добавьте важные урлы в sitemap.xml.
- Используйте микроразметку
- Используйте внутреннюю перелинковку с естественными анкорами
- Обязательно перейдите на HTTPS
- Сделайте сайт удобным для пользователя
- Проверьте все галочки через руководство по доступности сайтов
- Сделайте адаптивную верстку для мобилок
- Используйте четкий призыв к действию
- Добавьте на страницу разные мультимедиа
- Ускорьте загрузку страниц
- Добавьте социальных кнопок
- Делайте контент уникальным
- Оптимизируйте под интент, анализируйте выдачу
- Делайте привлекательные заголовки и мета-описания
- Не забывайте про заголовки H1
- Оптимизируйте картинки
- Проверьте актуальность контента
- Добавьте раздел FAQ
- Добавьте краткое описание страницы/контента
- Учитывайте TF-IDF и LSI
- Что там по индексу читабельности Флеша?
Ну и фишка от коллеги:
Возьмите ТОП3 по запросу. Посмотрите, по каким еще ключам эти страницы в ТОПе. Добавьте к себе на страницу недостающие ключи. Профит!
via @devakatalk
Основные тезисы:
- Сделайте сайт доступным для робота
Проверьте robots.txt, meta-robots, чтобы там ничего лишнего не было закрыто. Добавьте важные урлы в sitemap.xml.
- Используйте микроразметку
- Используйте внутреннюю перелинковку с естественными анкорами
- Обязательно перейдите на HTTPS
- Сделайте сайт удобным для пользователя
- Проверьте все галочки через руководство по доступности сайтов
- Сделайте адаптивную верстку для мобилок
- Используйте четкий призыв к действию
- Добавьте на страницу разные мультимедиа
- Ускорьте загрузку страниц
- Добавьте социальных кнопок
- Делайте контент уникальным
- Оптимизируйте под интент, анализируйте выдачу
- Делайте привлекательные заголовки и мета-описания
- Не забывайте про заголовки H1
- Оптимизируйте картинки
- Проверьте актуальность контента
- Добавьте раздел FAQ
- Добавьте краткое описание страницы/контента
- Учитывайте TF-IDF и LSI
- Что там по индексу читабельности Флеша?
Ну и фишка от коллеги:
Возьмите ТОП3 по запросу. Посмотрите, по каким еще ключам эти страницы в ТОПе. Добавьте к себе на страницу недостающие ключи. Профит!
via @devakatalk
Поведенческие факторы
Как вы помните, в начале февраля Гари Илш из гугла активно отвечал на вопросы на Reddit. И конечно же не обошлось без вопросов про влияние поведенческих факторов на выдачу. Google всегда это отрицал, и вот сейчас ответ был примерно таким:
— dwell-time, CTR, или какая там новая теория Фишкина, все это дерьмо собачье. Поиск гораздо проще, чем люди думают.
Фишкин, конечно обиделся, но до сегодняшнего дня молчал. Пока Бритни Мюллер не запостила ссылку на гугловский документ про инструмент, связанный с распознаванием речи.
https://cloud.google.com/speech-to-text/docs/data-logging
А там в разделе логгирования данных четко сказано:
— Гугл постоянно улучшает свои продукты, в том числе используя пользовательские данные. Например, когда вы переходите по ссылке в результатах поиска, Google учитывает ваш клик при ранжировании этого результата по будущим запросам.
Получилось неприятно :) И интересно, как Google выйдет из этой неудобной ситуации. Зарубежные сеошники ликуют и активно репостят эту ссылку... Хотя Бари Шварц прокомментировал, что этот документ касается персонализированного поиска и кликовые данные влияют лишь на результат для конкретного пользователя, а не для всех. Кликовые данные не используются гуглом, так как это сильно зашумленный сигнал, судя по ответам Мэта Катса (Google) еще в 2008 году.
Билл Славский, специализирующийся на гугловских патентах, сказал, что в гугле много чего зависит от кликабельности (попадание в топ-сторис, локальная выдача, органика похоже тоже). Ну и ряд публичных гуглоидов это не инженеры, и могут в некоторых узких вещах не сильно разбираться.
А если вы спросите меня, то я на стороне сеошников. Поведенческие факторы учитываются и это не сложно проверить. Главное - не пытайтесь их накручивать, используйте естественные методы повышения CTR и других сигналов.
Как вы помните, в начале февраля Гари Илш из гугла активно отвечал на вопросы на Reddit. И конечно же не обошлось без вопросов про влияние поведенческих факторов на выдачу. Google всегда это отрицал, и вот сейчас ответ был примерно таким:
— dwell-time, CTR, или какая там новая теория Фишкина, все это дерьмо собачье. Поиск гораздо проще, чем люди думают.
Фишкин, конечно обиделся, но до сегодняшнего дня молчал. Пока Бритни Мюллер не запостила ссылку на гугловский документ про инструмент, связанный с распознаванием речи.
https://cloud.google.com/speech-to-text/docs/data-logging
А там в разделе логгирования данных четко сказано:
— Гугл постоянно улучшает свои продукты, в том числе используя пользовательские данные. Например, когда вы переходите по ссылке в результатах поиска, Google учитывает ваш клик при ранжировании этого результата по будущим запросам.
Получилось неприятно :) И интересно, как Google выйдет из этой неудобной ситуации. Зарубежные сеошники ликуют и активно репостят эту ссылку... Хотя Бари Шварц прокомментировал, что этот документ касается персонализированного поиска и кликовые данные влияют лишь на результат для конкретного пользователя, а не для всех. Кликовые данные не используются гуглом, так как это сильно зашумленный сигнал, судя по ответам Мэта Катса (Google) еще в 2008 году.
Билл Славский, специализирующийся на гугловских патентах, сказал, что в гугле много чего зависит от кликабельности (попадание в топ-сторис, локальная выдача, органика похоже тоже). Ну и ряд публичных гуглоидов это не инженеры, и могут в некоторых узких вещах не сильно разбираться.
А если вы спросите меня, то я на стороне сеошников. Поведенческие факторы учитываются и это не сложно проверить. Главное - не пытайтесь их накручивать, используйте естественные методы повышения CTR и других сигналов.
Друзья, спасибо большое за ваши вопросы для "Прямой линии" со мной на SeoNews! Ответы вы уже можете прочитать здесь. Надеюсь, будут полезны.
https://www.seonews.ru/interviews/pryamaya-liniya-sergey-koksharov-zhdet-vashikh-voprosov/
https://www.seonews.ru/interviews/pryamaya-liniya-sergey-koksharov-zhdet-vashikh-voprosov/
На счет ПФ в Google, предлагаю провести эксперимент.
Что вам нужно сделать сейчас:
1. Открываем google.ru (инкогнито или нет, не важно)
2. Вводим запрос "seopro"
3. Там будут всякие плагины для WP, ModX, Opencart и прочий мусор, все пролистываем
4. Ищем сайт webpromoexperts.com.ua, он может быть на 2-3 странице
Первая пришедшая в голову академия интернет-маркетинга
В украинской доменной зоне
5. Переходим только на него
Читаем не меньше минуты
В поисковую выдачу не возвращаемся
6. После всего этого жмем здесь лайк, чтобы было понятно, сколько человек участвует.
В моем браузере сайт сейчас где-то на второй странице поиска. Посмотрим, как увеличение спроса повлияет на рейтинг.
Что вам нужно сделать сейчас:
1. Открываем google.ru (инкогнито или нет, не важно)
2. Вводим запрос "seopro"
3. Там будут всякие плагины для WP, ModX, Opencart и прочий мусор, все пролистываем
4. Ищем сайт webpromoexperts.com.ua, он может быть на 2-3 странице
Первая пришедшая в голову академия интернет-маркетинга
В украинской доменной зоне
5. Переходим только на него
Читаем не меньше минуты
В поисковую выдачу не возвращаемся
6. После всего этого жмем здесь лайк, чтобы было понятно, сколько человек участвует.
В моем браузере сайт сейчас где-то на второй странице поиска. Посмотрим, как увеличение спроса повлияет на рейтинг.
В эсперименте выше все плохо. На странице редко встречается продвигаемый запрос, пользовательский интент по "seopro" подразумевает все же плагины, доменную зону .com.ua продвигать в русском гугле плохая затея. Но это все было выбрано не случайно.
Изменения за день (по топвизору):
• google.ru - 19 → 18 (+1)
Именно в .ru зоне заходили люди и здесь результат не очень, но посмотрите другие доменные зоны:
• google.com.ua - 11 → 8 (+3)
• google.by - 39 → 14 (+19)
Эксперимент еще не закончен, посмотрим результаты через несколько дней. Спасибо всем, кто поддержал эту активность, несмотря на ее схожесть со своего рода накруткой! Не повторяйте такое у себя дома. 🧪 ПФ должны улучшаться естественным образом, благодаря тому, что вы постоянно заботитесь о своих посетителях и их информационной потребности. Как это сделать, подробно опишу на канале позже.
P.S. Заодно вы узнали о предстоящих курсах. 😎 Приглашаю. На SEO Pro вы узнаете и сможете применить для своих сайтов такие рабочие стратегии, которые не найдете в книгах. При этом, все они белые, связанные с улучшением сайта, выдачи и окружения.
Изменения за день (по топвизору):
• google.ru - 19 → 18 (+1)
Именно в .ru зоне заходили люди и здесь результат не очень, но посмотрите другие доменные зоны:
• google.com.ua - 11 → 8 (+3)
• google.by - 39 → 14 (+19)
Эксперимент еще не закончен, посмотрим результаты через несколько дней. Спасибо всем, кто поддержал эту активность, несмотря на ее схожесть со своего рода накруткой! Не повторяйте такое у себя дома. 🧪 ПФ должны улучшаться естественным образом, благодаря тому, что вы постоянно заботитесь о своих посетителях и их информационной потребности. Как это сделать, подробно опишу на канале позже.
P.S. Заодно вы узнали о предстоящих курсах. 😎 Приглашаю. На SEO Pro вы узнаете и сможете применить для своих сайтов такие рабочие стратегии, которые не найдете в книгах. При этом, все они белые, связанные с улучшением сайта, выдачи и окружения.
Один из классных способов получать качественные ссылки и упоминания — провести исследование. Мой блог и имя стали популярными отчасти благодаря опубликованным интересным исследованиям. Ценные исследования сразу разлетаются по СМИ. Здесь нельзя сказать "по мнению британских ученых", в серьезных изданиях нужно конкретно сослаться на исследование у упомянуть, кто его провел. Если вы когда-либо публиковали исследования, то знаете, какую силу они имеют!
В общем, провести исследование, зачастую, дешевле и дает больше эффекта, чем просто купить на ту же сумму ссылок. Плюс, благодаря ему вы лучше узнаете свою нишу.
И вот вам свежий пример по тематике хостинга.
Хостер, который специализируется на премиум-услугах для американских WordPress-сайтов, провел исследование логов этих сайтов (13 млрд записей) и предоставил интересную статистику:
https://kinsta.com/blog/analyzing-log-entries/
Расшариваний пока там не много (чуть больше сотни), но не прошло и суток. Публикация привлечет много внимания.
Вспомните недавное исследование от Backlinko. Вспомните ежегодные исследования по факторам ранжирования от Moz и Searchmetrics. Исследования проводят и публикуют все, даже Яндекс с Гуглом.
Подумайте, какое исследование можете провести вы!
В общем, провести исследование, зачастую, дешевле и дает больше эффекта, чем просто купить на ту же сумму ссылок. Плюс, благодаря ему вы лучше узнаете свою нишу.
И вот вам свежий пример по тематике хостинга.
Хостер, который специализируется на премиум-услугах для американских WordPress-сайтов, провел исследование логов этих сайтов (13 млрд записей) и предоставил интересную статистику:
https://kinsta.com/blog/analyzing-log-entries/
Расшариваний пока там не много (чуть больше сотни), но не прошло и суток. Публикация привлечет много внимания.
Вспомните недавное исследование от Backlinko. Вспомните ежегодные исследования по факторам ранжирования от Moz и Searchmetrics. Исследования проводят и публикуют все, даже Яндекс с Гуглом.
Подумайте, какое исследование можете провести вы!