SEO практика | Кравцов Виталий
3.88K subscribers
572 photos
19 videos
4 files
1.29K links
Кейсы поискового продвижения, практические примеры и актуальные новости SEO.

Админ канала: @vakravcov
Реклама: https://vk.cc/asufsX
Услуги: https://kravcov.tech
Download Telegram
Как скликать бюджет конкурента в Директе

Спойлер: да, Директ списывает деньги за фейковые клики, а инструменты атаки доступны даже ребенку.

Детали: в MOAB провели большое исследование скликивания в Директе, буквально - "склик vs антифрод Яндекса". Суть исследования: берется сайт, доступ от Директа которого есть в MOAB. Разным подрядчикам предлагается скликать разные кампании и ключи, а в MOAB наблюдают за всплесками засчитанных и недействительных кликов.

Цифры и факты:

• протестировали 14 подрядчиков по скликиванию: как тех, кто использует ботов, так и биржи заданий типа Userator.
• потратили 57 000 рублей
• из ~3500 "фейковых" кликов Яндекс засчитал и списал деньги за 500
• антифрод можно обмануть, но есть проблемы с экономикой такой атаки

Читайте лонгрид MOAB, чтобы узнать окупается ли склик: https://vc.ru/marketing/630366-kak-my-sklikali-byudzhet-konkurenta-v-direkte-beshenye-psy-protiv-antifroda-yandeksa
Forwarded from SЕalytics (Сергей Людкевич) (Сергей Людкевич)
Обнаружил, что Яндекс изменил своё отношение к запрещенным в файле robots.txt страницам.
На странице Яндекс Справки "Использование файла robots.txt" появилось примечание:
"Ограниченные в robots.txt страницы могут участвовать в поиске Яндекса. Чтобы удалить страницы из поиска, укажите директиву noindex в HTML-коде страницы или настройте HTTP-заголовок."
А на странице "Как удалить страницы из поиска" в описании способа удаления "Запрет в файле robots.txt" вместо фразы
"Робот прекращает обращаться к странице в течение суток."
появилась фраза
"Из поисковой базы страница будет удалена в течение недели после того, как робот обнаружит ваши указания. При этом страница может иногда появляться в результатах поиска, например, если на нее ведут ссылки с других ресурсов."
Таким образом Яндекс в данном вопросе перенял позицию Google. Надеюсь, что так же, как и Google, сканировать запрещенные в robots.txt страницы Яндекс все-таки не будет.
Вроде как тут всегда было время ответа сервера.
Яндекс - дорвей!
Forwarded from Влада
Всем привет! У нас новая статья на фоне Одиннадцатой Вебмастерской)

Вебмастерская 2023: ключевое про обновления поиска Яндекса и новые возможности для владельцев сайтов
Читать здесь

По горячим следам написали статью на основе доклада Михаила Сливинского, Руководителя службы по работе с вебмастерами в Яндекс

Доклад о новых инструментах и отчетах, которые уже доступны для пользователей. Маст-хэв для всех приближенных к онлайн-ритейлу!

Ссылка 👉 https://vc.ru/marketing/643949-vebmasterskaya-2023-klyuchevoe-pro-obnovleniya-poiska-yandeksa-i-novye-vozmozhnosti-dlya-vladelcev-saytov
🚀 Похоже Яндексу надоело терпеть каждодневный парсинг выдачи от сервисов проверок позиций и он выкатил свою версию доступную в Яндекс.Вебмастере, о чем скромно сообщил в блоге.

Я бы на месте этих самых сервисов напрягся, потому что:
- сразу доступны сотни тысяч запросов и страниц, по которым у вашего сайта есть показы в поисковой выдаче (спрос)
- данные по позиции с точностью до десятой
- есть CTR сайта на выдаче (накрутчики ПФ сейчас взвизгнули)
- есть точный подсчет кликов по запросу
- срез по устройствам
- данные по регионам

Минусы:
- данные только за 2 недели (динамику в разрезе года оценить не получится)
- Нет сводной аналитики по всему сайту
- Нет группировки запросов
- Нет возможности добавлять свои запросы (но возможно и не понадобится)
- Не нашёл кнопки выгрузки данных для обработки этой семантики (даже если не сделают, ждем скрипт с постраничной выгрузкой запросов).

Не смотря на минусы, абсолютно бесплатно получаем огромный объем данных для аналитики от самого Яндекса
Как быстро спрогнозировать объем потенциального трафика для сайта.

1. 👉 Идем в keys.so или mutagen (тут правда поменьше база)
2. Делаем отчет по своему сайту
3. Смотрим данные по органическому трафику (сверяем со своими данными, чтобы получить коэффициент, который будем использовать для данных конкурентов)
4. Смотрим отчет по конкурентам в органике, где выбираем проекты с показателем "похожесть" > 40%
5. По этим проектам смотрим органический трафик, который умножаем на коэффициент из пункта (3.)
6. Получаем примерный объем трафика в нише у аналогичных сайтов.

В этой методике есть нюансы, если сайт мультирегиональный т.к. отчеты строятся в разрезе ПС и региона.
Можно более детально отобрать конкурентов по ассортименту, региону, возрасту и сделать все по красоте, а для быстрой оценки подойдет и этот вариант.

Многочисленные методики прогнозирования на данных wordstat - очень сомнительная затея учитывая то, что в этих данных львиная доля ботов.

🤘 @SeoPraktika | Кравцов Виталий
Очень похоже на оценку SEOшки 😂
При ранжировании сайтов Google в первую очередь покажет пользователю результаты, наиболее актуальные для его местоположения. Это называется локальный поиск.

Два человека, находящихся в соседних кварталах, могут получить различную выдачу по одному и тому же запросу. Если учесть, что многие пользователи не переходят дальше первой страницы выдачи, а примерно четвертая часть аудитории кликает на первый же результат, то важность регионального ранжирования становится очевидной.

Убедиться, что ресурс одинаково хорошо ранжируется в разных городах самостоятельно, явно не получится. Нужны более простые и удобные методики. Команда Sape рассказали в карточках о 7 таких.

А в их канале Sape Pro вы найдете массу полезных материалов о продвижении сайтов: рекомендаций по SEO, линкбилдингу, бонусные промокоды в Sape, кейсы и даже готовые подборки площадок для набора ссылочной массы.

🔗Подписывайтесь, чтобы не пропустить!
🗣 Скрипт выгрузки из Мониторинга запросов

Не стал дожидаться пока Яндекс выкатит функционал выгрузки поисковых запросов из инструмента "Мониторинг запросов" в Яндекс.Вебмастере, поэтому заказал свое решение, им и делюсь с вами.

Описание и ряд нюансов:
- Скрипт работает из консоли Google Chrome
- Выгрузка осуществляется постранично
- Итоговый массив данных формата CSV
- Можно указать любое число страниц для выгрузки
- С запросами выгружается только один из доступных параметров (или показы, или клики, ...)

Видео-инструкция по работе со скриптом - смотреть
Код и описание работы скрипта - скачать
Please open Telegram to view this post
VIEW IN TELEGRAM
С праздником 🤘
⭐️Навигация по каналу ⭐️

🟢 Скрипты и сервисы

Скрипт выгрузки площадок из GGL
Скрипт выгрузки из мониторинга запросов в Я.ВМ
Скрипт выгрузки популярных запросов в Я.ВМ
Расширение для выгрузки поисковых запросов из GSC
Массовое сжатие изображений
Сервис исправления поисковых запросов
Сервис для составления метатегов

🟢 ChatGPT для SEO

Регистрация и использования ChatGPT в России
Интеграция ChatGPT в GDocs и GSheets
Расширение для Chrome с набором промптов
Какие задачи для SEO можно решать с помощью ИИ
Статья из видео на Youtube

🟢 Продвижение интернет-магазинов

Как повысить ценность карточки товаров
Подход к региональному продвижению (сомнительно)
Прокачка коммерческих факторов в ИМ
Продвижение коммерческой страницы за счет информационных
Рост за счёт теговых страниц
Накрутка отзывов в Яндекс.Картах
Идеальная категория интернет-магазина
Шаблонный текст для категории ИМ

🟢Продвижение сайтов услуг

Способ регионального продвижения
Неочевидные методы продвижения строительных сайтов
Турбо-страницы для сайтов услуг

🟢Поведенческие факторы

Про накрутку ПФ
Как защититься от накрутки ПФ

🟢 Факторы ранжирования

Ускорение сайта не даёт роста позиций
Анализ логов сервера
Правильный сбор LSI слов
E-A-T факторы для контентных проектов
Про контент-хабы
Как поднять сайты на копипасте
Продвижение больших проектов
Про перелинковку в Яндексе
Влияние технички на ранжирование
Массовое внедрение тегирования на любом сайте
Почему нет результатов в SEO
Как найти страницы для проработки
Анализ релевантности страниц
Связка сервисов для взятия топа
Удаляйте лишние страницы!
Текстовая оптимизация больших сайтов

🟢Screaming Frog SEO Spider

Достаём структуру любого сайта из хлебных крошек
Находим популярные статьи конкурентов
Обходим защиту от сканирования
Оцениваем здоровье сайта конкурента
Разница Crawl Depth и Folder Depth
Как парсить миллионы страниц

🟢 Продуктивность

Таблетка NZT-47 существует
Самодисциплина
Мультивитаминные комплексы
Про мечту фрилансера
Как я выбирался из фрилансерского болота
Как я одновременно вел 20 проектов
Навык активного языка
Про собственные проекты
Роль удачи в жизни

🟢 Другое

Суд за использование изображений
Как найти любой сайт с минимальными вводными
Please open Telegram to view this post
VIEW IN TELEGRAM