SEO-секретики
3.42K subscribers
503 photos
5 videos
2 files
409 links
Нескучный канал о SEO-продвижении, вебмастеринге и манимейкинге.

По вопросам рекламы: @aston085

Услуги: @nogval (Айрат Рахимзянов — автор канала).

Кейсы и обратная связь от клиентов: https://tttttt.me/+U-L1HvcpUAVjNTcy
Download Telegram
И снова новый пост в блоге вебмастера Яндекса

Теперь уже статья про инструменты Метрики для проверки и мониторинга работы счётчика. Сама статья. Инструменты уже были ранее в метрике, в статье можно подробнее ознакомиться с ними.

В статье узнаете:
— Проверка наличия счётчика на странице
— Проверка сбора данных
— Проверка отображения данных в отчетах

@seosekretiki
Для тех, кому не хватает тлена в работе: https://vc.ru/seo/334317-seo-iz-2021-v-2022-moi-vyvody-za-god

В комментариях также автор отметил расширение для Хрома: View Rendered Source. Удобный инструмент для выявления изменений до рендера и после рендера JS на странице. На практике выглядит так: https://disk.yandex.ru/i/JBJbxTx9dM8xvQ. Google уже давно рендерит эти данные, но в конце года еще заметил изменения в индексации и у Яндекса. Об интересных наблюдениях подробнее расскажу в отдельном посте.

@seosekretiki
Вопрос не по теме канала. Расскажите про ваши хобби. Чем вы увлекаетесь в свободное от работы время? 🍺

Раньше (4 года назад) я танцевал бачату. Ходили с женой на вечеринки и тусили. Потом увлекся настольными играми, ну а потом появился ребёнок и свободного времени не стало совсем.
Как обнаружить дубли страниц на сайте

И снова новая статья в блоге вебмастера Яндекса. Похоже они наняли копирайтера в штат. 😂

Основной смысл статьи отображен на одной картинке.

@seosekretiki
Полезный букмарклет для сопоставления выдачи в Google

Есть выдача в Google. Нужно понять, заголовок взялся из тайтла или H1? Или может быть сам Google генернул как посчитал нужным? Для подобного анализа есть простой букмарклет для браузера. Сам букмарклет можно найти на странице автора. Дублировать в ТГ смысла нет, код слишком большой.

Пример работы можно увидеть на скриншоте.

Записал короткое видео о том, как установить букмарклет. В примере правда всего один сниппет корректно отработал, вероятно, это зависит еще от самих сайтов.

Другой полезный список. Если знаете другие полезные SEO букмарклеты, то пишите в комментариях.

@seosekretiki
В GSC появились данные по эффективности страниц для десктопных устройств.

@seosekretiki
Robots Exclusion Checker

Расширение в Хроме, которое позволяет получить быструю информацию об отсутствии запрета на сканирование страницы различными методами.

Данный плагин лишним точно не будет. Загорается зеленым, если все ок. Желтым, если есть ограничения (например, канон на другую страницу). И красным, если есть запрет на сканирование (например, директива в файле robots.txt).

К сожалению, нет учета директивы Clean-param для Яндекса.

@seosekretiki
Новая тема для манимейкинга.

@seosekretiki
Попросили программиста добавить мета-тег верификации Яндекс.Вебмастера в секцию <head></head>.

Кто отгадает в чем тут прикол? 😬
21-го января Google у себя в блоге объявил о том, что теперь поддерживает атрибут indexifembedded в мета-теге robots

Для чего это нужно?
Для большего контроля индексации контента на вашем ресурсе. Использование indexifembedded позволит сообщить роботу Google, что контент из тегов <iframe> нужно индексировать.

Пример использования:
<meta name="googlebot" content="noindex" />
<meta name="googlebot" content="indexifembedded" />
<!-- OR -->
<meta name="googlebot" content="noindex,indexifembedded" />

Тоже самое можно отдавать и заголовком X-Robots-Tag:
X-Robots-Tag: googlebot:noindex
X-Robots-Tag: googlebot:indexifembedded
...
OR

X-Robots-Tag: googlebot:noindex,indexifembedded

Как найти страницы своего сайта, которые содержат фреймы? Очень просто. Можно воспользоваться лягушкой.

Делаем простой поиск (Custom Search): https://disk.yandex.ru/i/U8arXDN3XM3XrQ и видим бинарные значения (найдено или нет) в результатах парсинга: https://disk.yandex.ru/i/hI0ws2a7pHboWQ

Если нужно увидеть, что именно во фрейме (чтобы принять решение, должно оно индексироваться или нет), то делаем извлечение (Custom Extraction): https://disk.yandex.ru/i/3dD2GSo65d37ag. Увидим спаршенные значения в отчете: https://disk.yandex.ru/i/0Dg6VJqVG9h5hg

Чтобы найти больше фреймов, то включите режим парсинга JavaScript с нужной отметкой: https://disk.yandex.ru/i/dwnJCfrLGbWp9A

@seosekretiki
На случай, если вам нужно быстро найти информационные ключи в своей тематике.

Ключи, по которым показываются блоки быстрых ответов, чаще всего являются информационными.

Источник.

@seosekretiki
Юзаете ли в работе GSA и прочие хрумаки?

Видео по работе с программой GSA: https://youtu.be/m53WveRAxj0

Канал (SEOquick) как по мне, совсем для начинашек, но конкретно это видео от Миши Шакина очень интересное. Хотя бы потому, что в русскоязычном сегменте не так много информации по этой программе.

Таймкодов в самом видео нет, но для вас накидал основные моменты:
09:45 Начало доклада
28:15 Практическая часть (про GSA и попутно другие необходимые программы)
30:35 Работа с программой XEvil
48:00 Работа с программой Kontent Machine
1:08:34 Вопросы от зрителей

@seosekretiki
Прогрессивные стратегии линкбилдинга

Как найти стратегии размещения ссылок, которые будут эффективно работать для вашего сайта? Как избежать ошибок? Какие инструменты использовать и на что смотреть? Смотрите вебинар Игоря Сорокина: https://www.youtube.com/watch?v=3VRmm4hIYxw

Из вебинара вы узнаете:
- разновидности ссылочных стратегий
- виды прогрессивных стратегий
- основы ссылочных алгоритмов
- жонглирование пейджранками через уровни ссылок
- принципы работы с уровнями ссылок.

Много про уровни ссылок. Также автор призывает не заливать плохим ссылочным страницы доноров (сами уровни), так как есть вероятность, что донор попросту удалит страницу со ссылками на ваш проект или даже средиректит напрямую, чтобы все плохое ссылочное направилось прямиком к вам.

Из интересного, что запомнилось мне:
— мало говорят про влияние внутренних ссылок. Люди покупают ссылку, например, в статье, которая доступна с главной донора. Ссылка с главной со временем пропадет, так как выйдут новые статьи, соответственно внутренний статический вес страница будет получать меньше. Какой вывод отсюда можно сделать и как это применить на практике? Автор этого не говорил, но по факту для быстрой оценки внутр. стат. веса донора можно ориентироваться на показатель UR от Ahrefs (по ранее размещенным рекламным статьям), чтобы хотя бы примерно понимать, какой стат. вес внутри сайта они могут получать. Само собой, предпочтение лучше отдавать тем донорам, у которых UR в среднем выше.

— интересный слайд: https://disk.yandex.ru/i/U1tJ09eSyoF1Cg. Если нет времени смотреть/слушать доклад и читать слайд, то вот основной смысл: «У молодых сайтов занижается траст ранк, почему? Потому что основные показатели будут пересчитываться всего несколько раз в год, так как это слишком трудозатратно для Гугла».

— про недостатки многоуровневых схем: https://disk.yandex.ru/i/-gH3moYFEsK10w. Если ссылки со второго уровня не в индексе, то это означает, что все уровни выше на эту ссылку не будут работать (сам смысл усиления уровнями пропадает). Вроде бы простая ситуация, но никто про это не упоминает и мне кажется, что это для многих не очевидно, ведь многие даже не отслеживают индексацию полученных ссылок на проект (я юзаю линкбокс и всем советую).

— иерархия уровней по мнению спикера: https://disk.yandex.ru/i/rYjQFklSdUWsJw. Более продвинутая иерархия: https://disk.yandex.ru/i/58RKcReo8YKOnA. Будет полезно при планировании работ.

@seosekretiki
Google запустил Search Console URL Inspection API

Сначала лучше прочитать оригинал новости из блога Google и затем https://tttttt.me/devakatalk/3388

Лягушка уже показала как это будет выглядеть в интерфейсе программы: https://disk.yandex.ru/i/Z4hV-kQ7a31Ubw

Помимо питоновского скрипта, есть скрипт на Node.js, шаблон на Google Sheets и скрипт на PHP.

Для тех, кто вообще не понимает, что происходит

С помощью URL Inspection API можно в удобном виде (и с лимитами в 2 тысячи запросов в день) получать информацию о состоянии страницы в поиске Google. Вот пример информации, которую можно получить по API.

Для чего конкретно это можно применить на практике SEO-спецу?

Чтобы узнать:
— индексируется ли страница в Google
— добавлена ли эта страница в sitemap.xml
— последнюю дату сканирования
расхождения в канонах (на самом сайте и по версии Google)
— информацию о мобильной пригодности
— информацию о микроразметке (есть ошибки или нет)

Пользуйтесь на здоровье и обязательно поделитесь с коллегами!

@seosekretiki
Анализ SEO текста и оптимизации страниц в Miratext

Видео: https://www.youtube.com/watch?v=Mte3NUdXBxo, в котором Александр Ожгибесов делает обзор сервиса Miratext.

Выжимка для тех, у кого нет времени смотреть видео.

С помощью данного сервиса можно сравнивать объемы текстов сайтов из топа с нашим продвигаемым сайтом и по полученным данным корректировать наш текст (уменьшить плотность слов или наоборот дотошнить.). Наглядная картина: https://disk.yandex.ru/i/aYrTM8_iAAzA3A, где видны "перекосы" по плотности.

Тексты можно сравнивать напрямую, скопировав их сами в сервис (чтобы исключить учет контента из всего кода) или доверить выделение основного фрагмента текста сервису по списку URL-адресов (например, выгрузив URL-адреса из топа). Обратите внимание на настройки сервиса: https://disk.yandex.ru/i/sDHtCxFGSwBFmw

Для быстрого анализа есть удобное облако тегов с разбивкой фрагментов (зона текста или ссылок): https://disk.yandex.ru/i/KFEfBy-k5crYrA

Полученные данные можно скачивать в CSV файл, чтобы работать с ними в Excel: https://disk.yandex.ru/i/bjd-CgBE5x6FDQ

Есть информация по мета-тегам и рекомендации (вписать недостающие слова и т.п.): https://disk.yandex.ru/i/mm_E2gTLUfPdhg

Как применить этот сервис на практике?

Как минимум можно вычистить переспам с нашей страницы и анализировать текстовую область выросших молодых сайтов (возможно, есть дополнительная семантика, по которой продвигаются они, а вы нет — речь про раздутие запросного индекса).

@seosekretiki
Добрался до Power BI

Я не понимаю одного, почему с этой красотой я не столкнулся раньше? 🙃 Пока пилю простенькие отчеты, сводя информацию из разных сервисов в один котел. Банально, даже на этапе оценке проекта, клиенту можно давать сравнительную информацию по конкурентам. Свой первый отчет делал по этой инструкции. Может быть кому-то будет полезно, информация описана доступно и пошагово, за что респект автору.

Также рекомендую обратить внимание на этот канал на Ютубе. Автор рассказывает про то, как связывать метрику с Power BI. Особенно полезно видео, где он делает сводный отчёт по дням с конверсиями, чтобы понять в какие дни и часы больше всего покупок. Можно считать отказы по своему, а не как в метрике и т. д.

На конференции Коллаборатора самый первый доклад (Артём Пилипец) про Orange Data Mining. Все тоже самое можно применить и в Power BI, разницы нет. Что было интересного в докладе?

— поиск причин почему индексируются страницы и наоборот: https://disk.yandex.ru/i/IubG93_OYhN-2w. Вывод простой: для индексации страниц не хватает общего числа ссылок внутри сайта (на неиндексируемые документы). Какое решение приняли? Внедрили дополнительный блок перелинковки и комментариев, результат не заставил себя ждать: https://disk.yandex.ru/i/6jKhIXVzcvg2sA. Дополнительно еще подключили Indexing API, чтобы ускорить переиндексацию.

— какие страницы чаще всего показываются в Google Discover: https://disk.yandex.ru/i/w-1IwuchM5pmfQ? Те, которые содержат более 530 слов в контенте, что на ~80 слов больше чем у тех материалов, которые в Google Discover не попадают.

У Артёма кстати еще есть отличный канал на Ютубе. На него я подписан.

Если вы тоже применяете инструменты BI в работе, то напишите в комментариях для чего конкретно. Думаю, было бы интересно узнать многим специалистам.

@seosekretiki
О важности SEO-спеца в команде

С этим кейсом есть дополнительный интересный нюанс - у них в разделе About есть полный список команды + в Wayback Archive лежат сохраненки по годам, так что мы можем еще и проследить что у них происходило на бекстейдже.

Первая сохраненка - 18 Jun 2019. У них в команде 34 человека, включая Head of Marketing и SEO Manager - http://web.archive.org/web/20191222161626/https://looka.com/about/ (https://disk.yandex.ru/i/fmQsqk6VPe1iqA).

Следующий сейв - 27 Nov 2019. Команда сократилась до 7 человек, SEO-шников и маркетологов не осталось - http://web.archive.org/web/20191127182544/https://looka.com/about/ (https://disk.yandex.ru/i/Oxfj5yCLYK97Bw).

25 Nov 2020. Спустя год первое изменение в команде, добавляется SEO Manager - http://web.archive.org/web/20201125112903/https://looka.com/about/ (https://disk.yandex.ru/i/MaSnPqf0oKRf2A). Судя по её линкдину её взяли на позицию SEO Manager в октябре.

И вуаля, спустя пару месяцев после этого, их органика начала стремительно расти (не может быть!). Целый год они получали 10-15% от трафика, только потому что в команде не было SEO-специалиста, плюс еще год потом восстанавливались до прежних значений: https://disk.yandex.ru/i/7wadt_uK5IUDjg

Автор кейса Alex Buraks (источник).

Какой вывод из этого кейса можно сделать? Бизнес, который не вливает часть денег на его развитие, а именно в рекламу, вероятнее всего обречен на провал в долгосрочной перспективе. Не скупитесь на маркетологов, которые будут следить за представлением компании в сети хотя бы в общем направлении, а еще лучше привлекать специалистов из нужных областей (SEO, контекстная реклама, таргетированная реклама, SMM и т.п.).

@seosekretiki
В Яндекс.Метрике замечены переходы по QR-коду

Возможно, это было уже и раньше: https://i.gyazo.com/81071b30e3e7f6fdbe71709d3b8411da.png

Сами переходы для этого канала считаются по UTM-меткам в URL-адресах (источник).

@seosekretiki