Devaka Talk
11.7K subscribers
1.48K photos
47 videos
28 files
3.54K links
Канал по просуванню та оптимізації сайтів під Google. Hard SEO.

Зв'язок зі мною: @devaka
(Сергій Кокшаров)

Реклама: @dv_adv
Для донатів: @dv_donate

Навчаю у групах.
https://webpromoexperts.net/courses/seo-pro-online/
Download Telegram
"В сканировании веба узел графа это страница, а ребро это ссылка между страницами.

В сканировании данных узлом является сущность, а ребром — взаимосвязи между сущностями. Это эволюция представления об вебе."

/ Bill Slawski /
Блоги уже не те...

Каждый, кто когда-либо вел блог, знает, что регулярно генерировать интересный контент и удерживать внимание читателей сложно. Настолько сложно, что это рождает одноразовых блоггеров, делает хорошие медиа-площадки неокупаемыми, ставит под сомнение целесообразность ведения корпоративного блога.

Все, что вы читали раньше регулярно, сейчас в лучшем случае откладывается "на потом", в худшем удаляется из инбокса как спам. А проблема лежит не в самой информации, а в авторстве.

Посмотрите, например, на публикации Moz в 2015 года и сейчас.

2015 - 24 автора за 1.5 месяца, многие желают попасть на Моз, каждый пост набирает сотни лайков. Топ3 автора за этот период:
— Rand Fishkin - 7 поста
— Cyrus Shepard - 2 поста
— jennita - 2 поста

2019 - 15 авторов за этот же период. В твиттере пол миллиона подписчиков, но лучший пост хорошо если набирает 10 лайков. На сайте лайки тоже значительно снизились. Топ авторов:
— TheMozTeam - 6
— Britney Muller - 3
— Dana DiTomaso - 2
— Kameron Jenkins - 2
— Miriam Ellis - 2
— Will Critchlow - 2

В этом году ребята ввели безликого автора TheMozTeam и это много о чем говорит. Статьи становятся безликими, эксперты с трудом соглашаются написать для Моза пост или снять видео "На доске".

В то же время, твиты Рэнда и Цирруса по-прежнему набирают множество лайков. То есть, проблема в экспертах. Не так просто вырастить нового лидера мнений, сейчас этот статус смещается в сторону Britney Muller.

С одной стороны, может показаться, что блоггинг вымирает, люди перестают читать блоги из-за наличия информации и удобной коммуникации в соцсетях. Но на самом деле это не так. Люди всегда следят за интересными им персонами, где бы они не публиковали свои мысли. Будут вести блог - будут читать блог, будут вести телеграм - будут читать этот канал, будут снимать видео на ютуб - будут смотреть ютуб. А медиа/корп.блоги без сильных авторов либо превратятся в нишевое СМИ, либо будут скучными, как многое сейчас в интернете...
Ребята из Multisearch просто гении. Разработали умный поисковик, который гибко настраивается и встраивается на любой сайт, улучшая опыт пользователей и, конечно же, конверсию. Используется уже на многих проектах. Подробней о сервисе расскажу позже, а пока обращение от представителя:
—————
Умный, живой, легко интегрируемый поиск для вашего сайта https://multisearch.io/?promo_code=devaka_30

Заказать 3 месяца по цене двух или триал месяц по промокоду "devaka" в @Multisearch_order

Языки: русский, украинский, английский, польский, немецкий, французкий, поддержка мультиязычности.

Поиск умеет:
* Распознавать опечатки, ошибки.
* Понимать синонимы.
* Учитывать транслитерацию.
* Понимать морфологию запросов.
* Давать подсказки пользователю.

Тарифные планы:
От 30 уе в месяц.

Кто мы такие:
В команде работает 12 человек. Мы проводим полную настройку поиска под запросы каждого интернет-магазина. Клиенту нужно пару минут, чтобы установить одну строку кода на свой сайт.
В странах СНГ это единственный проект такого уровня. Сейчас Multisearch построен на принципах машинного обучения.

Среди наших клиентов:
https://devaka.ru/
https://27.ua/
https://kontramarka.ua/ru
https://www.socolor.ru/
https://www.meloman.kz/

Наш сайт: https://multisearch.io/?promo_code=devaka_30

Заказать 3 месяца по цене двух или триал месяц по промокоду "devaka" в @Multisearch_order
В ближайшее время в Google Chrome будет доступна функция использования фрагмента URL для навигации по контенту. Другими словами, можно будет кидать ссылку коллегам не на страницу, а на фрагмент этой страницы. Практически, как в ютубе можно поделиться ссылкой на определенное время в видео.

Раньше такой функционал можно было включить на своем сайте, используя сторонние решения. Сейчас это будет нативной функцией, в будущем и в других браузерах, полагаю.

Подробная документация:
https://github.com/bokand/ScrollToTextFragment

Сейчас эта функция экспериментальная в хроме от версии 74.0.3706.0. И если хотите поучаствовать в эксперименте, используйте chrome://flags#enable-text-fragment-anchor.

Кстати, на SEO это тоже может повлиять. Как минимум на сниппеты, куда сейчас идут именованные ссылки, а будут идти с автосгенерированным URL-фрагментом.

via @devakatalk
Предлагаю больше узнать друг о друге. Расскажите, с каким типом проектов вы в основном работаете/представляете?
Anonymous Poll
60%
eCommerce, комм. услуги
8%
Сайты под партнерки
9%
МФА/Статейники
2%
Новостники
5%
Сервисы/инструменты
4%
Агрегаторы (чего угодно)
2%
Сообщества (форумы, блоги, соцсети)
3%
Стартапы
8%
Другое
Сообщество reCreate провели большое исследование по заработку создателей контента в Америке — "Рост творческой индустрии в Америке". Кто, где и сколько зарабатывает:
https://goo.gl/enx2fy (pdf на 100 стр.)

"Последний год мы проводили тщательный анализ миллионов американцев, которые создают и распространяют собственный контент в интернете — от видео на ютубе и книг на Amazon Publishing, до фотографий в инстаграме и хендмейда на Этси — и зарабатывают на этом деньги."

В общем, больше всего денег для создателей контента на ютубе, этси и в инстаграме. Но отчет стоит прочесть, хотя и проанализированы далеко не все платформы.
Forwarded from SEO life
Интересные новости из мира AI (искуственного интеллекта).

Компания OpenAI усовершенствовала свою сеть GPT и дообучили ее так, что она генерит тексты исходя из одного предложения. Тексты эти неотличимы от человеческих настолько, что ребята из OpenAI побоялись выкладывать полную модель нейросети в открытый доступ и выложили только демку.

Кому интересны подробности - вэлком на Хабр: https://seoch.at/uh75m9/

Если вы, ребята, не поняли в чем дело, то в обозримом будущем SEO-специалистам не понадобится помощь копирайтеров, чтобы создавать тексты и возможно нас ждет волна AI-доров и AI-PBN .
Как вам такое будущее? Как всегда можно обсудить в @seochat

p.s.: пора учить Python
SEO и распознавание капчи

Так уж сложилось, что сеошникам нужно получать и обрабатывать большие объемы данных, нагружая сервера поисковых систем. Последние, в свою очередь, защищаются с помощью умной капчи. В одно время, зная, что капчи распознают индусы, Яндекс ввел на них кирилические слова и это сильно разгрузило их сервера :) но ненадолго. В общем, тут борьба технологий и ресурсов. И сеошники, хочешь-не-хочешь, в ней тоже участвуют.

Каждый оптимизатор использует сервисы распознавания капч. При съеме позиций, при анализе семантики, кластеризации, использовании различных парсеров. Не знаю, как бы мы без этого всего жили... Предлагаю опрос, кто что использует.

Каким сервисом по обходу капчи вы пользуетесь?
Backlinko и BuzzSumo провели анализ 900+ млн. блог-постов и вот какие получились выводы относительно контента, соцсигналов и SEO:

1. Лонгриды получают в среднем на 77% больше ссылок, чем короткие статьи. Лонгриды идеальны для линкбилдинга.

2. По соцсигналам большой контент тоже выигрывают, но при этом у статей размером больше 2000 слов отдача поменьше. Идеальный размер контента, который расшаривают в соцсетях — 1000-2000 слов.

3. Очень много контента вообще не получают ссылок или лайков. Фактически, 94% всех блог-постов имеют 0 обратных ссылок.

4. Расшаривания по сильным постам распределяются неравномерно. Где-то 1.3% статей генерируют 75% всех социальных сигналов.

5. Корреляция между ссылками и соцсигналами не найдена. Это говорит о том, что между сильно расшариваемым контентом и тем, на который хорошо ссылаются, очень мало пересечений.

6. Длинные заголовки коррелируют с большим количеством репостов. Заголовки длиной 14-17 слов генерируют на 76.7% больше соцсигналов, чем короткие.

7. Заголовки с вопросом генерируют на 23.3% больше социальных расшариваний, чем те, которые не имеют вопросительного знака.

8. Нет никакого "лучшего дня" для публикации контента. Соцсигналы распределены равномерно по постам, опубликованным в разные дни недели.

9. Посты-списки очень хорошо репостятся. Фактически, пост-список в среднем имеет на 218% больше репостов, чем howto-посты и на 203% больше, чем инфографика.

10. Некоторые форматы контента работают лучше для получения ссылок. Например, посты "почему", "что" и инфографика получают на 25.8% больше ссылок, по отношению к видео или howto-постам.

11. "Нормальные" блог-посты получают в среднем в 9.7 раз больше расшариваний, чем посты на B2B-сайтах. Но несмотря на это, распределение расшариваний и ссылок для B2B и B2C контента выглядят одинаково.

Читайте подробно в оригинале:
https://backlinko.com/content-study

via @devakatalk
По поводу вчерашнего опроса. Рукапча и Анти-капча, действительно, основные сервисы на рынке. Но чем они отличаются? Ниже мнение представителя одного из сервисов. Публикация щедро оплачена 💰😎

"Основные наши отличия в стоимости и отношении к пользователям. По ссылке свежие скриншоты:"
https://telegra.ph/ruCaptcha-vs-Antigate-Osnovnye-otlichiya-02-19

P.S. Можно обсудить в комментариях
- В топе могут быть сайты с плохими ссылками
- В топе могут быть сайты с плохим контентом
- В топе могут быть сайты с плохой скоростью загрузки
- В топе могут быть сайты с плохой индексацией
- В топе могут быть сайты с плохим E-A-T

Каждый сигнал ражирования это всего лишь часть целого. Есть куча исключений из любого правила.

/ Cyrus Shepard /
Печальные SEO-истории в 3х словах

Ребята из BrightonSEO попросили подписчиков в твиттере описать печальные SEO-истории в трех словах. К флешмобу подключились много оптимизаторов. Сделал для вас подборку самых классных вариантов 😎

Технические моменты
• Google понимает JavaScript
• Single Page Application
• Тестовый поддомен проиндексировался
• Frog положил сервер
• Useragent Disallow /
• iframe in head
• Geo IP Redirect
• 3 0 2

Ссылки
• Платные ссылки работают
• Нам нужны ссылки
• Больше ссылочного веса
• 5000 ссылок за $5
• 1 ссылка за $5000
• Domain Authority 50+
• Private Blog Network
• Плохие ссылочные связи

Устройство сайта
• Wix SEO Wiz
• Сделан на Wix
• Сделан на Joomla
• Страница не найдена
• Переделка без редиректов

Про разработчиков
• Разработчик настроил SEO
• Наш программист занят
• Разработчик сказал нет

Про стратегии
• SEO уже умерло
• Создавайте хороший контент
• Давайте сделаем инфографику
• Другие делают так
• Fiver SEO эксперт
• Так сказал Мюллер
• Нейл Патель сказал

Про бизнес
• Засеоши мой сайт
• Важны позиции сайта
• Наш бюджет закончился
• SEO не бесплатно?
• Наш бюджет $500
• Гарантируем первую позицию
• Быстрые результаты, пожалуйста
• CEO занимается SEO
• Наше предыдущее агентство

Другое
• Подпапки или поддомены?
• Google сменил алгоритм
• На файвере дешевле
• Новый серч консоль
• Продвинь эти PDF-ки
• Ключевик not provided
• Исследование факторов ранжирования

Как вам такие триграммы? :) Чего здесь не хватает?

via @devakatalk
Мало кто знает, но в веб-архиве есть функция визуализации структуры сайта. Можно смотреть, как она менялась год от года.

— При анализе сайта выберите
над календарем ссылку "Site Map of ...".
— Или используйте адрес:
https://web.archive.org/web/sitemap/ [ваш-хост]

via @devakatalk
Как не допустить индексацию тестового поддомена?

1. Закрываете в robots.txt
Тестовый поддомен должен быть закрыт в роботсе

User-agent: *
Disallow: /

Это позволит запретить краулинг сайта роботом, но он все равно может попасть в индекс, если мы говорим о Google.

2. Настраиваете базовую HTTP-аутентификацию
Все тестировщики должны входить сюда только после ввода логина-пароля. Это также полезно, чтобы никто, кроме ваших сотрудников/подрядчиков не видел вашу тестовую версию сайта.

Настраивается эта аутентификация в файле .htaccess
— Генерируем файл .htpasswd с паролем, например, этим инструментом:
https://www.htaccesstools.com/htpasswd-generator/
— Сохраняем файл где-нибудь на сервере, но чтобы он был недоступен извне
— В .htaccess добавляем нужные строки

AuthType Basic
AuthName "My Test Website"
AuthUserFile /path/to/.htpasswd
Require valid-user

В общем, двойная защита, от краулинга и индексации, делайте именно так! Настройка занимает не более 5 минут.

via @devakatalk
Читатели дополнили пост еще несколькими вариантами. Спасибо @pilot_bbk и @zapototski.

3. Закрыть доступ к тествому домену всем айпишникам, кроме своего/своих.

Order deny,allow
deny from all
allow from 146.120.12.2, 85.22.1.13


Так вообще никто не зайдет на этот сайт, кроме нужных людей. И соответственно, робот не сможет проиндексировать.

4. Закрыть страницы с помощью meta-robots noindex

Но в таком случае нужно будет открыть в robots.txt, так как поисковик не увидит этот noindex. Минус этого способа еще в том, что поисковик будет ходить по сайту и тратить свои и ваши ресурсы. Я все-таки предпочитаю базовую аутентификацию.

Какой способ вам нравится больше?
Если все темы исчерпаны и вы не знаете, о чем написать или с каким докладом выступить. Возьмите любую популярную тему прошлых лет, добавьте в заголовок "2019" и раскройте ее заново. Профит!

- Факторы ранжирования 2019
- Как оптимизировать тайтлы в 2019
- Поддомены или подпапки — что выбрать в 2019?
- Региональное продвижение в 2019
- Сколько зарабатывают специалисты в 2019
- Какую CMS лучше выбрать в 2019 году, чтобы забыть о SEO
- Как продвигать сайты в 2019

Метод универсальный, подходит везде. Используйте!

P.S. Темы, кстати, хорошие. Сам бы послушал :)
Я знал, что новая книга И.Ашманова крутая еще до того, как с ней ознакомился. А сейчас уже могу написать честный отзыв. Кратко: рекомендую. Ниже подробней.

— Книга на ЛитРес (эл. версия): https://goo.gl/GuWc7B
— На сайте изд. дома "Питер (бумажная версия): https://goo.gl/R7G7DR

Рецензия на книгу Игоря Ашманова "Оптимизация и продвижение в поисковых системах", 4е издание, вышедшее в конце 2018 года.

Текущее издание написано с учетом современных тенденций поисковых систем и новшеств на рынке SEO, в книгу добавлены главы обо всех факторах ранжирования, а также методах SERM и выборе исполнителя. Очень хорошо продумана структура книги и разделов, которая позволяет новичку постепенно вникнуть во все важные аспекты работы поисковых систем и оптимизатора. Понравилось, что к написанию книги привлекли ряд авторов, каждый из которых является экспертом в своей теме. В конце книги добавлен чеклист для проведения seo-аудита, который закрепляет весь материал книги и позволяет владельцу сайта быстро проверить, что нужно исправить или внедрить на своем ресурсе. Понравилось, что здесь уделено отдельное внимание такому важному вопросу, как оптимизации контента под пользовательский интент и приведены примеры. Здорово, что каждый раздел книги содержит в конце список полезных ссылок.

Из недостатков: очень много внимания уделено факторам ранжирования и оценке результатов SEO, но при этом, мало внимания уделено поисковым стратегиям. Например, в разделе о ссылочных факторах говорится о биржах и ссылочных агрегаторах, но не упоминаются такие актуальные стратегии, как аутрич, контент- и крауд-маркетинг. Что может сложить впечатление у читателя о текущей актуальности бирж и повлечь использование неверных стратегий. Мало внимания уделено On-SERP SEO и работе с элементами, помогающими увеличить CTR в поисковых результатах, используя микроразметку, натуральный язык текста для попадания в блоки ответов, продвижение в локальном поиске, использование турбо- и amp-страниц. Недостаточно внимания уделено вопросу оптимальной архитектуры сайта.

Так как у книги много авторов, хотелось бы видеть метки, кому именно из авторов принадлежит тот или иной параграф. В конце книги имеется информация о вкладе авторов в написание книги и над какими разделами они работали, но метки для отдельных глав или параграфов, на мой взгляд, были бы лучшим решением.

Несмотря на все, книга И.Ашманова, определенно, заслуживает внимания и является лучшей на русскоязычном пространстве для владельцев сайтов и начинающих оптимизаторов, которые хотят понять принципы поиска информации пользователями, принципы работы поисковых систем и разобраться в существующих методах продвижения сайтов. Книга написана простым и понятным языком.
Ее должен прочитать каждый владелец сайта, маркетолог и seo-стажер!

/ Сергей Кокшаров /
Бритни Мюллер про внутреннюю оптимизацию сайтов в 2019 году: https://youtu.be/sJ_L3oQBxbk

Основные тезисы:
- Сделайте сайт доступным для робота
Проверьте robots.txt, meta-robots, чтобы там ничего лишнего не было закрыто. Добавьте важные урлы в sitemap.xml.
- Используйте микроразметку
- Используйте внутреннюю перелинковку с естественными анкорами
- Обязательно перейдите на HTTPS

- Сделайте сайт удобным для пользователя
- Проверьте все галочки через руководство по доступности сайтов
- Сделайте адаптивную верстку для мобилок
- Используйте четкий призыв к действию
- Добавьте на страницу разные мультимедиа
- Ускорьте загрузку страниц
- Добавьте социальных кнопок

- Делайте контент уникальным
- Оптимизируйте под интент, анализируйте выдачу
- Делайте привлекательные заголовки и мета-описания
- Не забывайте про заголовки H1
- Оптимизируйте картинки
- Проверьте актуальность контента
- Добавьте раздел FAQ
- Добавьте краткое описание страницы/контента
- Учитывайте TF-IDF и LSI
- Что там по индексу читабельности Флеша?

Ну и фишка от коллеги:
Возьмите ТОП3 по запросу. Посмотрите, по каким еще ключам эти страницы в ТОПе. Добавьте к себе на страницу недостающие ключи. Профит!

via @devakatalk
Поведенческие факторы

Как вы помните, в начале февраля Гари Илш из гугла активно отвечал на вопросы на Reddit. И конечно же не обошлось без вопросов про влияние поведенческих факторов на выдачу. Google всегда это отрицал, и вот сейчас ответ был примерно таким:

— dwell-time, CTR, или какая там новая теория Фишкина, все это дерьмо собачье. Поиск гораздо проще, чем люди думают.

Фишкин, конечно обиделся, но до сегодняшнего дня молчал. Пока Бритни Мюллер не запостила ссылку на гугловский документ про инструмент, связанный с распознаванием речи.
https://cloud.google.com/speech-to-text/docs/data-logging

А там в разделе логгирования данных четко сказано:
— Гугл постоянно улучшает свои продукты, в том числе используя пользовательские данные. Например, когда вы переходите по ссылке в результатах поиска, Google учитывает ваш клик при ранжировании этого результата по будущим запросам.

Получилось неприятно :) И интересно, как Google выйдет из этой неудобной ситуации. Зарубежные сеошники ликуют и активно репостят эту ссылку... Хотя Бари Шварц прокомментировал, что этот документ касается персонализированного поиска и кликовые данные влияют лишь на результат для конкретного пользователя, а не для всех. Кликовые данные не используются гуглом, так как это сильно зашумленный сигнал, судя по ответам Мэта Катса (Google) еще в 2008 году.

Билл Славский, специализирующийся на гугловских патентах, сказал, что в гугле много чего зависит от кликабельности (попадание в топ-сторис, локальная выдача, органика похоже тоже). Ну и ряд публичных гуглоидов это не инженеры, и могут в некоторых узких вещах не сильно разбираться.

А если вы спросите меня, то я на стороне сеошников. Поведенческие факторы учитываются и это не сложно проверить. Главное - не пытайтесь их накручивать, используйте естественные методы повышения CTR и других сигналов.
Друзья, спасибо большое за ваши вопросы для "Прямой линии" со мной на SeoNews! Ответы вы уже можете прочитать здесь. Надеюсь, будут полезны.
https://www.seonews.ru/interviews/pryamaya-liniya-sergey-koksharov-zhdet-vashikh-voprosov/