Пятничное - новый wordstat: https://wordstat-2.yandex.ru/
Forwarded from Иван Зимин | SEO
У меня в ассортименте не так много инструментов, которые использую на постоянной основе, но вот про один ни разу не писал здесь, хотя использую почти каждый день при аудите сайтов, подготовке шаблона метатегов на консультациях и просто в работе.
Это сервис Мета-теги Онлайн от Рината Хайсмана. Решает он простую, но важную задачу - обеспечить текстовую релевантность для тайтла, дескрипшена и H1 по кластеру запросов.
Подход следующий:
- Собираю кластер запросов к странице или к определенному типу страниц через Keys.so
- Загоняю в сервис и получаю распределение слов, которые встречаются чаще всего в рамках кластера
- Начинаю формировать шаблон метатегов так, чтобы первые 5-7 самых популярных слов обязательно присутствовали в Title / Description / H1.
На примере екомерса и Леруа:
- Определяем какой URL соответствует товарам и категориям: товарам -
- Вставляем список запросов, сервис сам считает частоту встречаемости слов, смотрим "универсальные" слова. Для Леруа у меня получились следующие -
- Начинаем формировать метатеги, сразу отмечая какие слова еще нужно использовать
У меня получился такой шаблон Title -
Вот такой простой операцией можно составить грамотные универсальные метатеги и больше не возвращаться к вопросу их доработки.
Это сервис Мета-теги Онлайн от Рината Хайсмана. Решает он простую, но важную задачу - обеспечить текстовую релевантность для тайтла, дескрипшена и H1 по кластеру запросов.
Подход следующий:
- Собираю кластер запросов к странице или к определенному типу страниц через Keys.so
- Загоняю в сервис и получаю распределение слов, которые встречаются чаще всего в рамках кластера
- Начинаю формировать шаблон метатегов так, чтобы первые 5-7 самых популярных слов обязательно присутствовали в Title / Description / H1.
На примере екомерса и Леруа:
- Определяем какой URL соответствует товарам и категориям: товарам -
/product/
, категориям /сatalogue/
- Чтобы понять, какие слова чаще всего встречаются в рамках всех продуктовых карточек - открываем отчет в keys.so по всем запросам и делаем срез по вхождение урла /product/
, дополнительно можно срезать НЧ запросы через параметр Wordstat > 500 и позицию < 15 (чтобы убрать нерелевантные запросы)- Вставляем список запросов, сервис сам считает частоту встречаемости слов, смотрим "универсальные" слова. Для Леруа у меня получились следующие -
купить, цена, отзывы, фото, описание
.- Начинаем формировать метатеги, сразу отмечая какие слова еще нужно использовать
У меня получился такой шаблон Title -
{название_товара} - купить в Москве по низкой цене, описание, фото и отзывы в Леруа Мерлен
Сейчас на сайте - {название_товара} в Москве – купить по низкой цене в интернет-магазине Леруа Мерлен
При этом на основе встречаемости слов были упущены: фото, отзывы, словосочетание интернет-магазин удлиняет Title не неся смысловой нагрузки.Вот такой простой операцией можно составить грамотные универсальные метатеги и больше не возвращаться к вопросу их доработки.
Forwarded from Advanced SEO (Dárt 検索)
Вам не нужен Python!🚫🐍
Orange может решить множество сеошных задач, включая подсчет слов в датасете ключевых фраз, семантическое SEO и кластеризацию.
Что такое Orange?
🍊Orange — это бесплатный пакет программного обеспечения для визуального программирования на основе компонентов, предназначенных для визуализации данных, машинного обучения, интеллектуального анализа и анализа данных. Работает на различных платформах, таких как Windows, Mac и Linux.
Компоненты Orange называются виджетами. Они варьируются от простой визуализации данных, выбора подмножества и предварительной обработки до машинного обучения и прогнозного моделирования.
Визуальное программирование реализуется через интерфейс, в котором рабочие процессы создаются путем связывания виджетов.
Как начать пользоваться Orange?
🔸 Установить: https://orangedatamining.com/download/
🔸 Плейлист «Getting Started»: https://www.youtube.com/watch?v=HXjnDIgGDuI&list=PLmNPvQr9Tf-ZSDLwOzxpvY-HrE0yv-8Fy.
Какой add-on самый SEOшный?
Это Orange3 Text. Вот документация ко всем его виджетам: https://orange3-text.readthedocs.io/en/latest/
Пример решенной задачи
Одной из частей семантического SEO является связывание между собой семантически близких статей посредством ссылок. Для определения страниц-кандидатов для контекстных ссылок внутри статьи, в данном примере я использовал поиск ближайших соседей.
Для этого:
1️⃣ Просканировал сайт с помощью ScreamingFrog 🕷️
2️⃣ Выбрал столбцы URL и meta-title 📊
3️⃣ Предварительно обработал meta-title ✨
4️⃣ Перевел meta-title в векторное пространство embedding’ов с помощью SBERT 🔍
5️⃣ Нашёл 5 ближайших соседей выбранной мной страницы 🌐
Результат на скрине.
Похожий пример на Python был представлен недавно на SERP Conf.
P.S.
Если вас заинтересовала возможность использования данного программного обеспечения, рекомендую подписаться на мой канал, в дальнейшем планирую выкладывать .ows файлы с готовыми пайплайнами, чтобы вы могли сразу использовать их в Orange.
Orange может решить множество сеошных задач, включая подсчет слов в датасете ключевых фраз, семантическое SEO и кластеризацию.
Что такое Orange?
🍊Orange — это бесплатный пакет программного обеспечения для визуального программирования на основе компонентов, предназначенных для визуализации данных, машинного обучения, интеллектуального анализа и анализа данных. Работает на различных платформах, таких как Windows, Mac и Linux.
Компоненты Orange называются виджетами. Они варьируются от простой визуализации данных, выбора подмножества и предварительной обработки до машинного обучения и прогнозного моделирования.
Визуальное программирование реализуется через интерфейс, в котором рабочие процессы создаются путем связывания виджетов.
Как начать пользоваться Orange?
🔸 Установить: https://orangedatamining.com/download/
🔸 Плейлист «Getting Started»: https://www.youtube.com/watch?v=HXjnDIgGDuI&list=PLmNPvQr9Tf-ZSDLwOzxpvY-HrE0yv-8Fy.
Какой add-on самый SEOшный?
Это Orange3 Text. Вот документация ко всем его виджетам: https://orange3-text.readthedocs.io/en/latest/
Пример решенной задачи
Одной из частей семантического SEO является связывание между собой семантически близких статей посредством ссылок. Для определения страниц-кандидатов для контекстных ссылок внутри статьи, в данном примере я использовал поиск ближайших соседей.
Для этого:
1️⃣ Просканировал сайт с помощью ScreamingFrog 🕷️
2️⃣ Выбрал столбцы URL и meta-title 📊
3️⃣ Предварительно обработал meta-title ✨
4️⃣ Перевел meta-title в векторное пространство embedding’ов с помощью SBERT 🔍
5️⃣ Нашёл 5 ближайших соседей выбранной мной страницы 🌐
Результат на скрине.
Похожий пример на Python был представлен недавно на SERP Conf.
P.S.
Если вас заинтересовала возможность использования данного программного обеспечения, рекомендую подписаться на мой канал, в дальнейшем планирую выкладывать .ows файлы с готовыми пайплайнами, чтобы вы могли сразу использовать их в Orange.
Forwarded from SEO - Продукт и Аналитика
Уже неделю вебмастера, SEO-шники и владельцы сайтов сталкиваются с проблемой Failed: Hostload exceeded!
Первый раз ошибка и превышение загрузки были замечены 15.10.2023. С 16-го октября эта ошибка начала носить массовый характер. 😱
Коллеги на Западе обратили внимание и возопили в облака (Google). Вот на Reddit топик, вот GSC community, коллеги в RU сегменте не отстали и забили в колокол, не YouTube. 🤬
Что же Google? Обожаемый многими Джон Мюллер дал комментарий, из которого совсем ничего не понятно. 🧐
Связана ли эта ошибка с прошедшим Spam Update пока рано проводить аналогии. Однозначно в Google Search Console "переобход страниц" не работает, что сильно мешает крупным проектам.
@proseomax
#Google #Googlenews #GoogleSeo #GoogleFeatures
Первый раз ошибка и превышение загрузки были замечены 15.10.2023. С 16-го октября эта ошибка начала носить массовый характер. 😱
Коллеги на Западе обратили внимание и возопили в облака (Google). Вот на Reddit топик, вот GSC community, коллеги в RU сегменте не отстали и забили в колокол, не YouTube. 🤬
Что же Google? Обожаемый многими Джон Мюллер дал комментарий, из которого совсем ничего не понятно. 🧐
Связана ли эта ошибка с прошедшим Spam Update пока рано проводить аналогии. Однозначно в Google Search Console "переобход страниц" не работает, что сильно мешает крупным проектам.
@proseomax
#Google #Googlenews #GoogleSeo #GoogleFeatures
Собираемся командой выдвигаться на Ашмановку, кто хочет встретится, Welcome 🤟
Forwarded from noindex, nofollow
Михаил Сливинский (Яндекс) про ozon.by в выдаче:
"Мы в курсе, это, конечно, странное поведение, так быть не должно; очевидно, тут будут изменения.
...
Это [будет] общее системное решение [про геодомены], не специфическое и общее".
(в ходе круглого стола на Optimization-2013).
Картинка по теме из рейтинга Ашманова в категории ecommerce, Яндекс, десктопы.
"Мы в курсе, это, конечно, странное поведение, так быть не должно; очевидно, тут будут изменения.
...
Это [будет] общее системное решение [про геодомены], не специфическое и общее".
(в ходе круглого стола на Optimization-2013).
Картинка по теме из рейтинга Ашманова в категории ecommerce, Яндекс, десктопы.
Постановка задач — это профессиональный навык, которому необходимо обучаться.
В этом видео разбираем частые проблемы и ошибки при постановке задач в SEO-агентстве, уровни делегирования и забавные примеры.
Надеемся, что это видео поможет вам или вашим сотрудникам понять, как должна быть сформулирована задача для SEOшника, чтобы он ее правильно выполнил и не завалил вас лишними вопросами.
Это позволит экономить время на постоянной основе и оптимизирует важные процессы взаимодействия между сотрудниками.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Иван Зимин | SEO
Поделюсь своими мыслями на основе исследования данных Я.Вебмастера, а конкретно мониторинга запросов, но начну издалека.
В поисковой выдаче взаимодействуют 3 субъекта - постоянная ежедневная аудитория, которая задаёт лимитированное число запросов, на каждый из которых ПС показывает 10 наиболее релевантных сайтов.
Занимаясь текстовой оптимизацией и созданием новых страниц, фактически происходит всего лишь расширение запросного индекса (ЗИ). Т.е добавляя новые страницы, сайт может ответить на все большое число поисковых запросов, но это не равно показам и трафику по этим запросам.
Хорошо проработанный сайт имеет большой ЗИ, но когда таких сайтов в нише становится много, то суммарный ЗИ всех сайтов в выдаче начинает сильно преобладать над суммарным спросом. Проще говоря, мест в выдаче 10, а ответить на запрос могут сильно больше чем 10 сайтов. И здесь поисковая система встаёт перед выбором, кому, по каким запросам и в каком объеме дать аудиторию.
Становится логичным ввести понятие траст, но если ориентироваться только на него, то 10 сайтов с наибольшим трастом и ЗИ будут держать топ-10 выдачи, не пуская туда ни кого больше. Отчасти так и происходит, но все же молодые сайты могут получать трафик (за счёт некоторого "авансового" траста) несмотря на существование всем известных гигантов.
В таком случае, все будут получать соразмерный своему трасту объем спроса аудитории по разным запросам, если на сайте есть релевантная страница этим запросам. Но что делать, если запросный индекс большой (хорошо проработали сайт и создали много страниц), а вес маленький? Дать больше трафика вам не могут, но много страниц могут ответить на запрос.
Это реально важный момент, в случае доработок сайта поисковик не даёт соразмерно больше проработанным страницам трафика, он отдаёт конкретный объем аудитории, далеко не полностью покрывающей ЗИ.
Ровно с этой ситуацией сталкивается почти любой сайт. Много страниц проработаны, но вес ограничен, как следствие сайт показывается и получает трафик по абсолютно разным группам запросов в течении месяца. Т.е в понедельник получили клики по одной группе запросов, во вторник - по другой, и так далее.
Проверить этот факт самостоятельно крайне просто:
- Заходим в мониторинг запросов Яндекс.Вебмастера и выгружаем данные
- Суммируем в Excel число кликов за разные дни - сумма примерно одинаковая
- Видим, что клики в разные дни слабо пересекаются между собой
- Заодно сравниваем объем трафика с объемом ЗИ
⭐️ Выводы: Рост на текстовой доработке сайта возможен, но в верхний предел трафика есть (не очень большой) и ограничен он квотой аудитории, которую вам выделил поисковик в рамках траста. Вы не сможете получить больше трафика продолжая создавать и дорабатывать страницы. После определенного предела дальнейшие доработки и улучшения сайта не могут увеличить трафик без роста его траста.
Кстати, ровно поэтому так бодро начинают расти сайты на качественных дропах, а дорвеи индексироваться и ранжироваться именно после прогонов, сюда же встраивается пример со сравни из поста выше, когда текущий ЗИ не покрывает его бешенный траст, в итоге простое создание любых страниц тут же ставит их в топ.
Сюда же напрашивается вывод про абсолютно бессмысленный мониторинг позиций, в зависимости от вагона факторов ПС отгружает тот объем аудитории, которую заслуживает сайт, не больше ни меньше, а наличие определенных запросов в топе не является гарантией получения трафика.
В итоге, борьба топа - это не борьба текстовых оптимизаций или позиций, а борьба "веса" сайтов, и в первую очередь им и надо заниматься для роста в органике.
В поисковой выдаче взаимодействуют 3 субъекта - постоянная ежедневная аудитория, которая задаёт лимитированное число запросов, на каждый из которых ПС показывает 10 наиболее релевантных сайтов.
Занимаясь текстовой оптимизацией и созданием новых страниц, фактически происходит всего лишь расширение запросного индекса (ЗИ). Т.е добавляя новые страницы, сайт может ответить на все большое число поисковых запросов, но это не равно показам и трафику по этим запросам.
Хорошо проработанный сайт имеет большой ЗИ, но когда таких сайтов в нише становится много, то суммарный ЗИ всех сайтов в выдаче начинает сильно преобладать над суммарным спросом. Проще говоря, мест в выдаче 10, а ответить на запрос могут сильно больше чем 10 сайтов. И здесь поисковая система встаёт перед выбором, кому, по каким запросам и в каком объеме дать аудиторию.
Становится логичным ввести понятие траст, но если ориентироваться только на него, то 10 сайтов с наибольшим трастом и ЗИ будут держать топ-10 выдачи, не пуская туда ни кого больше. Отчасти так и происходит, но все же молодые сайты могут получать трафик (за счёт некоторого "авансового" траста) несмотря на существование всем известных гигантов.
В таком случае, все будут получать соразмерный своему трасту объем спроса аудитории по разным запросам, если на сайте есть релевантная страница этим запросам. Но что делать, если запросный индекс большой (хорошо проработали сайт и создали много страниц), а вес маленький? Дать больше трафика вам не могут, но много страниц могут ответить на запрос.
Это реально важный момент, в случае доработок сайта поисковик не даёт соразмерно больше проработанным страницам трафика, он отдаёт конкретный объем аудитории, далеко не полностью покрывающей ЗИ.
Ровно с этой ситуацией сталкивается почти любой сайт. Много страниц проработаны, но вес ограничен, как следствие сайт показывается и получает трафик по абсолютно разным группам запросов в течении месяца. Т.е в понедельник получили клики по одной группе запросов, во вторник - по другой, и так далее.
Проверить этот факт самостоятельно крайне просто:
- Заходим в мониторинг запросов Яндекс.Вебмастера и выгружаем данные
- Суммируем в Excel число кликов за разные дни - сумма примерно одинаковая
- Видим, что клики в разные дни слабо пересекаются между собой
- Заодно сравниваем объем трафика с объемом ЗИ
Кстати, ровно поэтому так бодро начинают расти сайты на качественных дропах, а дорвеи индексироваться и ранжироваться именно после прогонов, сюда же встраивается пример со сравни из поста выше, когда текущий ЗИ не покрывает его бешенный траст, в итоге простое создание любых страниц тут же ставит их в топ.
Сюда же напрашивается вывод про абсолютно бессмысленный мониторинг позиций, в зависимости от вагона факторов ПС отгружает тот объем аудитории, которую заслуживает сайт, не больше ни меньше, а наличие определенных запросов в топе не является гарантией получения трафика.
В итоге, борьба топа - это не борьба текстовых оптимизаций или позиций, а борьба "веса" сайтов, и в первую очередь им и надо заниматься для роста в органике.
Please open Telegram to view this post
VIEW IN TELEGRAM
Первое - наличие практического опыта, в SEOшке нельзя научиться всему за условный 1 день и даже за месяц, да и теория без практики ничего не стоит.
Очень часто встречаю людей с "шоферскими знаниями" - это такая ментальная ловушка, о которой можно более подробно почитать тут, в двух словах, шоферские знания - зазубренная информация без понимания предмета. Знать и уметь применять свои знания на практике - 2 разные вещи.
Средний путь от джуна до уверенного мидла в SEO занимает 6-12 месяцев активной практики под наставничеством опытного специалиста
Почему рядом нужен опытный специалист? Да потому, что большая часть информации в паблике по которой можно учиться:
1. Полный бред
2. Требует жесткой фильтрации
3. Уже не актуально
4. Нет конкретики и предметности
Я не говорю про весь контент, годные материалы можно найти, но нужно знать что искать и что читать.
Второе - максимальная автономность в задачах в рамках компетенций и умение искать нужную информацию или пути решения задачи самостоятельно. Пока человека водят за ручку и он спрашивает как ему делать каждый шаг, он джун.
К чему я это все? Просто желаю всем развиваться как специалистам и не ждать чудес, которые обещают на разных курсах!
#top
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
В SEO всё просто!
1. Семантика
2. Структура
3. Текстовые
4. Коммерческие
5. 👉ПФ 😂 пишите, кому нужны подробности!
1. Семантика
2. Структура
3. Текстовые
4. Коммерческие
5. 👉
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 42 секунды
Коммерсантъ: Рекламный заработок экономических Telegram-каналов за год может составить 315 млн руб.
– Речь идет про топ-10 экономических Telegram-каналов
– Их суммарная аудитория составляет около 1,5+ млн чел.
– Они суммарно имею оценочный доход 315 млн руб./год
– Это одни из наиболее доходных каналов на площадке
– Т.к. там размещаются наиболее состоятельные бренды
– Наиболее доходным среди этих каналов был «Банкста»
– За три месяца канал мог получить 39,2 млн руб. (+4%)
– Наибольший рост показал «Банки, деньги, два офшора»
– Рост доходов составил 45%, за октябрь – 18,3 млн руб.
– При этом аудитория канала существенно не увеличилась
– Наименьшую доходность показал канал Spydell_Finance
– За три месяца его доход снизился на 7%, до 1,2 млн руб.
– Наибольшее падение показал «Кролика с Неглинной»
– Рекламный доход канала упал на 40%, до 2 млн руб.
@ftsec
– Речь идет про топ-10 экономических Telegram-каналов
– Их суммарная аудитория составляет около 1,5+ млн чел.
– Они суммарно имею оценочный доход 315 млн руб./год
– Это одни из наиболее доходных каналов на площадке
– Т.к. там размещаются наиболее состоятельные бренды
– Наиболее доходным среди этих каналов был «Банкста»
– За три месяца канал мог получить 39,2 млн руб. (+4%)
– Наибольший рост показал «Банки, деньги, два офшора»
– Рост доходов составил 45%, за октябрь – 18,3 млн руб.
– При этом аудитория канала существенно не увеличилась
– Наименьшую доходность показал канал Spydell_Finance
– За три месяца его доход снизился на 7%, до 1,2 млн руб.
– Наибольшее падение показал «Кролика с Неглинной»
– Рекламный доход канала упал на 40%, до 2 млн руб.
@ftsec
Forwarded from SЕalytics (Сергей Людкевич) (Сергей Людкевич)
У Google появился краулер, который игнорирует директивы файла robots.txt.
В документации о краулерах он обозначен как Google-Safety и целью имеет сканирование на предмет злоупотреблений.
Кто злоупотребляет, пусть начинает бояться. 😊
В документации о краулерах он обозначен как Google-Safety и целью имеет сканирование на предмет злоупотреблений.
Кто злоупотребляет, пусть начинает бояться. 😊
Google for Developers
Google Crawler (User Agent) Overview | Google Search Central | Documentation | Google for Developers
Google crawlers discover and scan websites. This overview will help you understand the common Google crawlers including the Googlebot user agent.