SEO практика | Кравцов Виталий
3.88K subscribers
576 photos
19 videos
4 files
1.29K links
Кейсы поискового продвижения, практические примеры и актуальные новости SEO.

Админ канала: @vakravcov
Реклама: https://vk.cc/asufsX
Услуги: https://kravcov.tech
Download Telegram
Начинаю писать ответы на ваши вопросы!

💬 Вопрос 1: Точки роста сайта на Тильде. Что делать, когда сделали и внедрили техничку, юзабилити и семантику.

==============================================================

Если мы говорим про рост в рамках SEO и учитываем, что (в вакууме) все уже сделано, то нужно глубже копать конкурентов по семантике. По опыту знаю, что некоторые вещи на тильде реализовать не возможно чисто технически. Это не касается простых сайтов услуг со статичным контентом. Иногда мы упирались в реализацию банальной динамической перелинковки и формирование настраиваемых текстовых зон на карточках объектов/товаров с использованием переменных.

Что касается технички на тильде, тут опять же вы ограничены возможностями конструктора, в нем даже не возможно отредактировать файл robots.txt (https://answers.tilda.cc/ru/a/robots-edit).

В коммерческих нишах очень сильно крутят, возможно, вы зависли за ТОП10 Yandex потому, что не хватает ПФ. Вашему хосту/документам не дотянуть до искаженных медианных значений ТОПа именно в поведенческих с помощью естественных значений.
Пробуйте использовать другие каналы привлечения трафика, тот же контекст косвенно влияет на ранжирование в органике.

Мое мнение насчет тильды и любых других конструкторов - это хороший инструмент для проверки гипотез и запуска MVP, как только вы проверили жизнеспособность идеи, начинайте делать сайт на CMS, даже если это будет не битрикс, а wordpress.

✔️ Кравцов Виталий - @vakravcov
Комплексное SEO для бизнеса
#SEO_FAQ
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from noindex, nofollow
"Кто-нибудь, расскажите разработчикам Твиттера, что регулярные выражения не поддерживаются в robots.txt.
Илон, это ты?"
via Jan Caerels

звездочки * (означает любой символ) и символ $ (означающий конец строки) работают, а все остальное нет.
💬 Вопрос 2: Проблема с обработкой sitemap в Google

========================================================

Я такую ошибку чаще всего ловил на новых сайтах с большим количеством URL в sitemap.
Попробуйте сделать sietemap с меньшим количеством страниц в каждом.
Точной цифры нет, у меня проходили карты с 2000-3000 ссылками, причем рандомно. Тут только методом научного тыка!
Еще вариант - сделать не xml карту, а просто список ссылок по 1 на строке в формате .txt Google их иногда съедает не плохо (пруф).


✔️ Кравцов Виталий - @vakravcov
Комплексное SEO для бизнеса
#SEO_FAQ
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Вакансия: SEO- специалист, руководитель проекта удаленно.

Компания Drauflos занимается производством и продажей электроинструмента для сада\огорода\дома и пр., насосов дренажных, компрессором и прочего оборудования.

Обязанности:
Полный контроль над продвижением и разработкой проекта:

- SEO оптимизация сайтов
- Составление стратегии продвижения сайтов.
- Работа над продвижением в топ органической выдачи Яндекс и Гугл
- Работа с программистами – контроль и постановка задач по сайтам.
- Работа с семантическим ядром – сбор, обновление, оптимизация
- Контроль исправности технического состояния сайта и своевременное реагирование на любые проблемы.
- Прочие задачи связанные с вышеупомянутыми.

Требования:
- Положительный опыт (только белые методы) в оптимизации и продвижении коммерческих сайтов.
- Готовность уделять время нашим проектам столько сколько нужно для оперативной работы и качественного результата. Во вменяемых рамках конечно же.
- Готовность показать кейсы с URL проектов где были достигнуты положительные результаты. Ваше участие в проекте, кейс которого вы показываете, должно быть не далее как 6 месяцев назад.
- Непрерывный опыт SEO-специалистом (не джуном а мастером) должен быть не менее 3 лет.

Дополнительно:
- Поиск копирайтеров и других исполнителей в задачи не входит
- Мы оплачиваем отдельно услуги и найм сторонних исполнителей для:
покупки ссылок,
работы программистов,
работы контент менеджера,
других задач при необходимости и после согласования.
- Это может быть как полная занятость так и еще один проект которому нужно уделить много времени.

Что мы предлагаем:
- Постоянная работа удаленно. Локация: вся Россия
- Свободный график
- Адекватные бюджеты на продвижение
- Оплата инструментов для работы
- Работать можно как з нашими исполнителями так и с вашими. Все обсуждаемо.
- Зп 80к
- Со временем возможен формат оплаты: ставка + % от продаж. На выбор сотрудника.

С чем сейчас работать:
На данный момент нужно начать с полного нуля (сайтов еще нет) и работать с 5-ю сайтами. Один большой мультибренд и 4 маленьких монобренда. Все детали в личку.

По всем вопросам пишите в личку @Vadmoroz
Please open Telegram to view this post
VIEW IN TELEGRAM
Привет всем поклонникам noindex

✔️ Кравцов Виталий - @vakravcov
Комплексное SEO для бизнеса
Please open Telegram to view this post
VIEW IN TELEGRAM
Как быстро спрогнозировать объем потенциального трафика в нише (New).

1. 👉 Идем в keys.so или mutagen (тут правда поменьше база)
2. Делаем отчет по своему сайту "трафик с поиска" в рамках поисковой системы и региона.
3. Смотрим данные по органическому трафику (сверяем со своими данными, чтобы получить коэффициент, который будем использовать для данных конкурентов) Например, трафик в keys.so в 1,5 раза ниже/выше чем реально по метрике. Делаем предположение, что в рамках вашей ниши такой коэффициент будет по всем схожим проектам.
4. Смотрим отчет по конкурентам в органике, где выбираем проекты с показателем "похожесть" > 40%
5. По этим проектам смотрим органический трафик, который умножаем на коэффициент из пункта (3.)
6. Получаем примерный объем трафика в нише у аналогичных сайтов.

Дополнительно я бы обращал внимание на:

▫️ Упущенную семантику, которую можно получить в групповом отчете по конкурентам.
▫️ Дерево страниц - для анализа структуры конкурентов и куда именно идет трафик.
▫️ Количество точек входа на сайты конкурентов, отчет "Страницы сайта"

В этой методике есть нюансы, если сайт мультирегиональный т.к. отчеты строятся в разрезе ПС и региона.

Можно более детально отобрать конкурентов по ассортименту, региону, возрасту и сделать все по красоте, а для быстрой оценки подойдет и этот вариант.

Многочисленные методики прогнозирования на данных wordstat - очень сомнительная затея учитывая то, что в этих данных львиная доля ботов.

Еще 11 сервисов, где можно анализировать траф конкурентов (примерный)

https://pr-cy.ru/
https://spymetrics.ru/
https://metrica.guru/
https://spywords.ru/
https://mutagen.ru/
https://www.similarweb.com/
https://ahrefs.com/
https://www.semrush.com/
https://neilpatel.com/ubersuggest/
https://www.webfx.com/
https://www.spyfu.com/

-------------------------------

✔️ Кравцов Виталий - @vakravcov
👉 Канал про SEO: @seopraktika

#top
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from SEO без воды
Google убрал из справки требование писать контент людьми

В прошлой версии страницы было указано "Система полезного контента Google Search генерирует сигнал, используемый нашими автоматическими системами ранжирования, чтобы лучше гарантировать, что люди видят в результатах поиска оригинальный, полезный контент, написанный людьми для людей (written by people, for people).

В текущей версии фразу людьми (by people) убрали.

Что как бы намекает, что этот апдейт не направлен на то, чтобы покосить тексты от ChatGPT и подобных "нелюдей".

Источник: Barry Schwartz.
Прикольно, Капиталист выкатил выпуск виртуальных карт для оплаты бурж сервисов.
На этой неделе плотно поSEOшили, поэтому на выходные тематические носки. Всем хороших выходных 🤘
Немного не про SEO, но мне кажется, что материал, а точнее методология очень полезная для владельцев проектов.

"Безумцы прокладывают пути, по которым следом пройдут рассудительные."

Истрия про то, что не нужно выдумывать какую-то невиданную хрень, надо просто брать успешную бизнес модель и копировать ее, концентрируясь и улучшая 1 ключевую функцию.

https://vc.ru/services/839662-koroche-keys-kak-indrive-postroil-biznes-na-1-2-mlrd-a-nachinal-s-gruppy-vk-v-yakutii
Forwarded from SEO-секретики
Как вам такой вопрос?

Интересный, сразу подумал я, так как сходу не смог ответить и пришлось открывать лягушку и все вспоминать. Не так часто в работу приходят сайты на JS (точнее никогда), но решил ответить развернуто. Кстати, если будут вопросы, то самые интересные из них, буду разбирать также на канале, думаю, многим спецам это будет полезно.

Итак, что делать с парсингом и рендерингом в JS? На эту тему я уже записывал видео на Ютуб-канале. Отвечу на вопрос текстом тут.

Итак погнали сразу по шагам:
1️⃣ Сначала проводим все необходимые настройки (Configuration — Spider — Extraction).
2️⃣ Включаем две галочки (скрин) для сохранения кода в чистом виде и после рендера (Store HTML и Store Rendered HTML).
3️⃣ Далее идем в настройки рендеринга и выставляем тайм-аут. Зачем? Банально, чтобы ваш компьютер мог успеть отрисовать все вовремя. Обычно, я выбираю мобильный Googlebot в качестве устройства. Нажимаем ОК (в программе, чтобы сохранились настройки).
4️⃣ Подготовка есть. Теперь выпаршиваем ваш сайт, сколько сможете, так как из-за тайм-аута и рендеринга ваше железо будет умирать в реалтайме.
5️⃣ Допустим, спарсили сайт. Теперь можем посмотреть, что получилось во вкладке Rendered Page.
6️⃣ Во вкладке View Source можно посмотреть на различия после рендера. Не рекомендую нажимать на галочку Show Differences (ваш комп может погибнуть во второй раз).

Мне проще смотреть на разницу в рендере через расширение для Хрома: View Rendered Source. На практике выглядит так. Google уже давно рендерит эти данные и с недавних пор и Яндекс.

PS. И еще такой момент. Гуглу нужно гораздо больше мощностей на обработку JS по сравнению с обычным HTML (источник), поэтому гораздо эффективнее (при наличии норм размеров сайта) рендерить на стороне сервера и отдавать готовый HTML поисковому роботу. А вот еще официальная информация по динамическому рендеру. Вкратце, весь JS нужен пользователям (может рендерить клиент — браузер), а роботам HTML.

#вопросы

@seosekretiki
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DrMax SEO (DrMax)
🕯 Качество является главным фактором при индексировании

Согласно обсуждению в недавнем подкасте, качественный контент является основным фактором, влияющим на решения Google по индексированию и сканированию.

При этом:
🔠 Качество влияет на все в поиске, особенно на индексацию.
🔠 Однако качественный контент не гарантирует высокий рейтинг.
🔠 Удаление контента низкого качества может помочь улучшить восприятие сайта Google.

В ходе разговора выяснилось, что планировщик сканирования Google использует сигналы качества для определения приоритета URL-адресов для сканирования. Если Google знает, что у него есть X URL-адресов для сканирования с сайта, он пытается создать упорядоченный список на основе его прогнозируемого качества.

Качество сайта может повлиять на процесс сканирования, даже если это новые сайты. Например, если новая страница обнаружена с помощью файлов Sitemap, Google оценит качество ранее просканированной домашней страницы, чтобы решить, сканировать ли новую страницу.

Иллиес объяснил, что качество может быть специфичным для разных частей веб-сайта.

Например, если одна часть сайта постоянно предоставляет высококачественный контент, к ней могут относиться иначе, чем к другой, известной контентом более низкого качества.
С другой стороны, если определенные части сайта постоянно содержат контент низкого качества, эти области могут сканироваться реже.
Пользовательский контент (UGC) был приведен в качестве примера, качество которого может варьироваться. Если в разделе пользовательского контента обнаружена тенденция к контенту более низкого качества, это может повлиять на поведение сканирования Google для этой конкретной части сайта.

Иллиес заверил слушателей, что они могут улучшить качество своего сайта, даже если раньше он содержал контент низкого качества. Он призывает владельцев сайтов удалять некачественный контент, чтобы улучшить остальную часть сайта.
Удаление некачественного контента может улучшить восприятие сайта Google, что может повлиять на то, как Google сканирует и индексирует оставшиеся страницы.

Хотя качество контента само по себе не гарантирует высокий рейтинг, выделение ресурсов для создания ценного, уникального контента, скорее всего, повысит позиции сайта в поиске.

#DrMax #SEO #Google #QualityContent
Please open Telegram to view this post
VIEW IN TELEGRAM
Хозяин отдыхает, бездушная железяка работает 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
Кто ни будь встречал нормальные склоняторы?! Хваленый morpher дичь выдает!
Слушайте, а вот это поголовное и рандомное МПК по сайтам не кисло так похоже на обучение модели нового алгоритма руками вебмастеров 🤔

Реально, под фильтр попадают абсолютно рандомные сайты: белый еком, агрегаторы с рекламой, сайты с ПФ, сайты без ПФ и т.д.

Поясню... яша кидает фильтр, если вебмастер активно доказывает, что сайт белый и пушистый, то на основе этих данных можно скорректировать развесовку и учесть потом в алгоритме. Если сайт реально спамит, то и шансов, что вебмастер будет его отстаивать значительно меньше.

Яндекс - хитрая жопа... ну или я полез в теории заговора!

Всем хороших выходных 🤟

@seopraktika | Кравцов Виталий
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Когда спрашивают: "А как это, вести свой бизнес?" 🤣
Крутим Вертим корпоративные стикеры @Kruchu_Werchu 🤘
Вот так выглядит фильтр МПК в яндексе. Пока что не удалось понять как и именно сайты попадают под фильтр т.к. сайты абсолютно разные, в том числе коммерческие-белые. Ждем стабильной ситуации.
Забавная картина получается! На графике трафик с органики Yandex Мск на один из крупнейших агрегаторов в рунете и для сравнения трафик на сам yandex! Совпадение? Монополизация? Не не слышали!
This media is not supported in your browser
VIEW IN TELEGRAM
Неужели это законно: накажут ли за ссылки и накрутку ПФ?

Спорная статья от Ильи Исерсона, с многими тезисами я не согласен, но зацепили забавные видео, из-за этого читается и смотрится веселее.

Если вкратце, в статье объясняется как работает ссылочный спам и накрутка ПФ, после чего делается вывод что наказаний за такой спам не существует (кроме ручных), так как такие наказания провоцируют волну атак на конкурентов.

Здесь много спорных вопросов:
- как в случае со ссылками, так и в случае с ПФ, 1-2% крайних ситуаций всегда можно отрезать алгоритмически, чтобы напугать всех остальных, при этом никто не заставляет это делать на регулярной основе. Один раз побанили алгоритмически тех, кто слишком увлекся ссылочным - для поддержания должного уровня паранойи этого будет достаточно, а погрешность вряд ли будет большой.
То же самое, к слову, и с ПФ: показательные порки в принципе популярны во всем мире как управленческий метод;)

Так что здесь я бы с Ильей поспорил, но, это разумеется вопрос точки зрения: https://vc.ru/marketing/830980-vse-delayut-eto-molcha-pravda-o-ssylkah-i-pf-dlya-seo