Как скликать бюджет конкурента в Директе
Спойлер: да, Директ списывает деньги за фейковые клики, а инструменты атаки доступны даже ребенку.
Детали: в MOAB провели большое исследование скликивания в Директе, буквально - "склик vs антифрод Яндекса". Суть исследования: берется сайт, доступ от Директа которого есть в MOAB. Разным подрядчикам предлагается скликать разные кампании и ключи, а в MOAB наблюдают за всплесками засчитанных и недействительных кликов.
Цифры и факты:
• протестировали 14 подрядчиков по скликиванию: как тех, кто использует ботов, так и биржи заданий типа Userator.
• потратили 57 000 рублей
• из ~3500 "фейковых" кликов Яндекс засчитал и списал деньги за 500
• антифрод можно обмануть, но есть проблемы с экономикой такой атаки
Читайте лонгрид MOAB, чтобы узнать окупается ли склик: https://vc.ru/marketing/630366-kak-my-sklikali-byudzhet-konkurenta-v-direkte-beshenye-psy-protiv-antifroda-yandeksa
Спойлер: да, Директ списывает деньги за фейковые клики, а инструменты атаки доступны даже ребенку.
Детали: в MOAB провели большое исследование скликивания в Директе, буквально - "склик vs антифрод Яндекса". Суть исследования: берется сайт, доступ от Директа которого есть в MOAB. Разным подрядчикам предлагается скликать разные кампании и ключи, а в MOAB наблюдают за всплесками засчитанных и недействительных кликов.
Цифры и факты:
• протестировали 14 подрядчиков по скликиванию: как тех, кто использует ботов, так и биржи заданий типа Userator.
• потратили 57 000 рублей
• из ~3500 "фейковых" кликов Яндекс засчитал и списал деньги за 500
• антифрод можно обмануть, но есть проблемы с экономикой такой атаки
Читайте лонгрид MOAB, чтобы узнать окупается ли склик: https://vc.ru/marketing/630366-kak-my-sklikali-byudzhet-konkurenta-v-direkte-beshenye-psy-protiv-antifroda-yandeksa
Forwarded from SЕalytics (Сергей Людкевич) (Сергей Людкевич)
Обнаружил, что Яндекс изменил своё отношение к запрещенным в файле robots.txt страницам.
На странице Яндекс Справки "Использование файла robots.txt" появилось примечание:
"Ограниченные в robots.txt страницы могут участвовать в поиске Яндекса. Чтобы удалить страницы из поиска, укажите директиву noindex в HTML-коде страницы или настройте HTTP-заголовок."
А на странице "Как удалить страницы из поиска" в описании способа удаления "Запрет в файле robots.txt" вместо фразы
"Робот прекращает обращаться к странице в течение суток."
появилась фраза
"Из поисковой базы страница будет удалена в течение недели после того, как робот обнаружит ваши указания. При этом страница может иногда появляться в результатах поиска, например, если на нее ведут ссылки с других ресурсов."
Таким образом Яндекс в данном вопросе перенял позицию Google. Надеюсь, что так же, как и Google, сканировать запрещенные в robots.txt страницы Яндекс все-таки не будет.
На странице Яндекс Справки "Использование файла robots.txt" появилось примечание:
"Ограниченные в robots.txt страницы могут участвовать в поиске Яндекса. Чтобы удалить страницы из поиска, укажите директиву noindex в HTML-коде страницы или настройте HTTP-заголовок."
А на странице "Как удалить страницы из поиска" в описании способа удаления "Запрет в файле robots.txt" вместо фразы
"Робот прекращает обращаться к странице в течение суток."
появилась фраза
"Из поисковой базы страница будет удалена в течение недели после того, как робот обнаружит ваши указания. При этом страница может иногда появляться в результатах поиска, например, если на нее ведут ссылки с других ресурсов."
Таким образом Яндекс в данном вопросе перенял позицию Google. Надеюсь, что так же, как и Google, сканировать запрещенные в robots.txt страницы Яндекс все-таки не будет.
yandex.ru
Использование файла robots.txt - Вебмастер. Справка
Роботы Яндекса корректно обрабатывают robots.txt, если: Размер файла не превышает 500 КБ. Это TXT-файл с названием robots — robots.txt. Файл размещен в корневом каталоге сайта. Файл доступен для роботов — сервер, на котором размещен сайт, отвечает HTTP-кодом…
Forwarded from Влада
Всем привет! У нас новая статья на фоне Одиннадцатой Вебмастерской)
Вебмастерская 2023: ключевое про обновления поиска Яндекса и новые возможности для владельцев сайтов
Читать здесь
По горячим следам написали статью на основе доклада Михаила Сливинского, Руководителя службы по работе с вебмастерами в Яндекс
Доклад о новых инструментах и отчетах, которые уже доступны для пользователей. Маст-хэв для всех приближенных к онлайн-ритейлу!
Ссылка 👉 https://vc.ru/marketing/643949-vebmasterskaya-2023-klyuchevoe-pro-obnovleniya-poiska-yandeksa-i-novye-vozmozhnosti-dlya-vladelcev-saytov
Вебмастерская 2023: ключевое про обновления поиска Яндекса и новые возможности для владельцев сайтов
Читать здесь
По горячим следам написали статью на основе доклада Михаила Сливинского, Руководителя службы по работе с вебмастерами в Яндекс
Доклад о новых инструментах и отчетах, которые уже доступны для пользователей. Маст-хэв для всех приближенных к онлайн-ритейлу!
Ссылка 👉 https://vc.ru/marketing/643949-vebmasterskaya-2023-klyuchevoe-pro-obnovleniya-poiska-yandeksa-i-novye-vozmozhnosti-dlya-vladelcev-saytov
vc.ru
Вебмастерская 2023: ключевое про обновления поиска Яндекса и новые возможности для владельцев сайтов — Маркетинг на vc.ru
23 марта состоялась Одиннадцатая Вебмастерская от Яндекса. Среди спикеров выступили Ашманов и Партнеры, re:Store а также представители продуктов Яндекс.Маркета, Метрики, К50 и др. Мы тоже в тусовке — от лица DATAFORCE / SEOWORK выступил CEO Стас Поломарь.…
Forwarded from Иван Зимин | SEO
🚀 Похоже Яндексу надоело терпеть каждодневный парсинг выдачи от сервисов проверок позиций и он выкатил свою версию доступную в Яндекс.Вебмастере, о чем скромно сообщил в блоге.
Я бы на месте этих самых сервисов напрягся, потому что:
- сразу доступны сотни тысяч запросов и страниц, по которым у вашего сайта есть показы в поисковой выдаче (спрос)
- данные по позиции с точностью до десятой
- есть CTR сайта на выдаче (накрутчики ПФ сейчас взвизгнули)
- есть точный подсчет кликов по запросу
- срез по устройствам
- данные по регионам
Минусы:
- данные только за 2 недели (динамику в разрезе года оценить не получится)
- Нет сводной аналитики по всему сайту
- Нет группировки запросов
- Нет возможности добавлять свои запросы (но возможно и не понадобится)
- Не нашёл кнопки выгрузки данных для обработки этой семантики (даже если не сделают, ждем скрипт с постраничной выгрузкой запросов).
Не смотря на минусы, абсолютно бесплатно получаем огромный объем данных для аналитики от самого Яндекса
Я бы на месте этих самых сервисов напрягся, потому что:
- сразу доступны сотни тысяч запросов и страниц, по которым у вашего сайта есть показы в поисковой выдаче (спрос)
- данные по позиции с точностью до десятой
- есть CTR сайта на выдаче (накрутчики ПФ сейчас взвизгнули)
- есть точный подсчет кликов по запросу
- срез по устройствам
- данные по регионам
Минусы:
- данные только за 2 недели (динамику в разрезе года оценить не получится)
- Нет сводной аналитики по всему сайту
- Нет группировки запросов
- Нет возможности добавлять свои запросы (но возможно и не понадобится)
- Не нашёл кнопки выгрузки данных для обработки этой семантики (даже если не сделают, ждем скрипт с постраничной выгрузкой запросов).
Не смотря на минусы, абсолютно бесплатно получаем огромный объем данных для аналитики от самого Яндекса
✅ Как быстро спрогнозировать объем потенциального трафика для сайта.
1. 👉 Идем в keys.so или mutagen (тут правда поменьше база)
2. Делаем отчет по своему сайту
3. Смотрим данные по органическому трафику (сверяем со своими данными, чтобы получить коэффициент, который будем использовать для данных конкурентов)
4. Смотрим отчет по конкурентам в органике, где выбираем проекты с показателем "похожесть" > 40%
5. По этим проектам смотрим органический трафик, который умножаем на коэффициент из пункта (3.)
6. Получаем примерный объем трафика в нише у аналогичных сайтов.
В этой методике есть нюансы, если сайт мультирегиональный т.к. отчеты строятся в разрезе ПС и региона.
Можно более детально отобрать конкурентов по ассортименту, региону, возрасту и сделать все по красоте, а для быстрой оценки подойдет и этот вариант.
Многочисленные методики прогнозирования на данных wordstat - очень сомнительная затея учитывая то, что в этих данных львиная доля ботов.
🤘 @SeoPraktika | Кравцов Виталий
1. 👉 Идем в keys.so или mutagen (тут правда поменьше база)
2. Делаем отчет по своему сайту
3. Смотрим данные по органическому трафику (сверяем со своими данными, чтобы получить коэффициент, который будем использовать для данных конкурентов)
4. Смотрим отчет по конкурентам в органике, где выбираем проекты с показателем "похожесть" > 40%
5. По этим проектам смотрим органический трафик, который умножаем на коэффициент из пункта (3.)
6. Получаем примерный объем трафика в нише у аналогичных сайтов.
В этой методике есть нюансы, если сайт мультирегиональный т.к. отчеты строятся в разрезе ПС и региона.
Можно более детально отобрать конкурентов по ассортименту, региону, возрасту и сделать все по красоте, а для быстрой оценки подойдет и этот вариант.
Многочисленные методики прогнозирования на данных wordstat - очень сомнительная затея учитывая то, что в этих данных львиная доля ботов.
🤘 @SeoPraktika | Кравцов Виталий
При ранжировании сайтов Google в первую очередь покажет пользователю результаты, наиболее актуальные для его местоположения. Это называется локальный поиск.
Два человека, находящихся в соседних кварталах, могут получить различную выдачу по одному и тому же запросу. Если учесть, что многие пользователи не переходят дальше первой страницы выдачи, а примерно четвертая часть аудитории кликает на первый же результат, то важность регионального ранжирования становится очевидной.
Убедиться, что ресурс одинаково хорошо ранжируется в разных городах самостоятельно, явно не получится. Нужны более простые и удобные методики. Команда Sape рассказали в карточках о 7 таких.
А в их канале Sape Pro вы найдете массу полезных материалов о продвижении сайтов: рекомендаций по SEO, линкбилдингу, бонусные промокоды в Sape, кейсы и даже готовые подборки площадок для набора ссылочной массы.
🔗Подписывайтесь, чтобы не пропустить!
Два человека, находящихся в соседних кварталах, могут получить различную выдачу по одному и тому же запросу. Если учесть, что многие пользователи не переходят дальше первой страницы выдачи, а примерно четвертая часть аудитории кликает на первый же результат, то важность регионального ранжирования становится очевидной.
Убедиться, что ресурс одинаково хорошо ранжируется в разных городах самостоятельно, явно не получится. Нужны более простые и удобные методики. Команда Sape рассказали в карточках о 7 таких.
А в их канале Sape Pro вы найдете массу полезных материалов о продвижении сайтов: рекомендаций по SEO, линкбилдингу, бонусные промокоды в Sape, кейсы и даже готовые подборки площадок для набора ссылочной массы.
🔗Подписывайтесь, чтобы не пропустить!
Forwarded from Иван Зимин | SEO
Не стал дожидаться пока Яндекс выкатит функционал выгрузки поисковых запросов из инструмента "Мониторинг запросов" в Яндекс.Вебмастере, поэтому заказал свое решение, им и делюсь с вами.
- Скрипт работает из консоли Google Chrome
- Выгрузка осуществляется постранично
- Итоговый массив данных формата CSV
- Можно указать любое число страниц для выгрузки
- С запросами выгружается только один из доступных параметров (или показы, или клики, ...)
Видео-инструкция по работе со скриптом - смотреть
Код и описание работы скрипта - скачать
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Иван Зимин | SEO
Скрипт выгрузки площадок из GGL
Скрипт выгрузки из мониторинга запросов в Я.ВМ
Скрипт выгрузки популярных запросов в Я.ВМ
Расширение для выгрузки поисковых запросов из GSC
Массовое сжатие изображений
Сервис исправления поисковых запросов
Сервис для составления метатегов
Регистрация и использования ChatGPT в России
Интеграция ChatGPT в GDocs и GSheets
Расширение для Chrome с набором промптов
Какие задачи для SEO можно решать с помощью ИИ
Статья из видео на Youtube
Как повысить ценность карточки товаров
Подход к региональному продвижению (сомнительно)
Прокачка коммерческих факторов в ИМ
Продвижение коммерческой страницы за счет информационных
Рост за счёт теговых страниц
Накрутка отзывов в Яндекс.Картах
Идеальная категория интернет-магазина
Шаблонный текст для категории ИМ
Способ регионального продвижения
Неочевидные методы продвижения строительных сайтов
Турбо-страницы для сайтов услуг
Про накрутку ПФ
Как защититься от накрутки ПФ
Ускорение сайта не даёт роста позиций
Анализ логов сервера
Правильный сбор LSI слов
E-A-T факторы для контентных проектов
Про контент-хабы
Как поднять сайты на копипасте
Продвижение больших проектов
Про перелинковку в Яндексе
Влияние технички на ранжирование
Массовое внедрение тегирования на любом сайте
Почему нет результатов в SEO
Как найти страницы для проработки
Анализ релевантности страниц
Связка сервисов для взятия топа
Удаляйте лишние страницы!
Текстовая оптимизация больших сайтов
Достаём структуру любого сайта из хлебных крошек
Находим популярные статьи конкурентов
Обходим защиту от сканирования
Оцениваем здоровье сайта конкурента
Разница Crawl Depth и Folder Depth
Как парсить миллионы страниц
Таблетка NZT-47 существует
Самодисциплина
Мультивитаминные комплексы
Про мечту фрилансера
Как я выбирался из фрилансерского болота
Как я одновременно вел 20 проектов
Навык активного языка
Про собственные проекты
Роль удачи в жизни
Суд за использование изображений
Как найти любой сайт с минимальными вводными
Please open Telegram to view this post
VIEW IN TELEGRAM