SEO практика | Кравцов Виталий
3.88K subscribers
576 photos
19 videos
4 files
1.29K links
Кейсы поискового продвижения, практические примеры и актуальные новости SEO.

Админ канала: @vakravcov
Реклама: https://vk.cc/asufsX
Услуги: https://kravcov.tech
Download Telegram
​​🚦 Оптимизация скорости загрузки сайта, или почему не стоит гнаться за цифрами

Скорость сайта – ахиллесова пята многих SEO-специалистов. Чаще всего при оптимизации сайта все сталкиваются с тем, что из-за обилия «тяжелых» картинок, ошибок при разработке сайта или же скриптов чатов сайт теряет свою скорость, и причем критично. Все это нужно объяснить клиенту и дать задачу программисту.

Но всегда ли это важно? Красивые цифры в Page Speed Insights – полбеды, что вообще входит в понятие «скорость сайта», на что она влияет и как ее оптимизировать?

Содержание статьи:

▫️ «Скорость загрузки сайта» - с чем ее едят?
▫️ Как оптимизировать скорость загрузки сайта?
▫️ Оптимизация скорости ответа сервера.
▫️ Оптимизация загрузки контента.
▫️ Оптимизация отрисовки контента.
​​СЕМАНТИКА: ПРАКТИЧЕСКИЕ ПРИМЕРЫ

Набор практических примеров и рекомендаций: основные типы ядер и максимум реальных примеров по каждому.

Этот документ — набор практических примеров. Для их изучения я рекомендую вам скачать и прочитать первую часть руководства, иначе понимание может быть неполным.

Первая часть дает отличные базовые навыки по сбору семантики, но содержит слишком мало информации о том, как выглядит готовый продукт: собранное семантическое ядро. Кроме того, семантические ядра можно типизировать: собирая их достаточно долго, вы обнаружите, что все они подходят под 5-6 ключевых типов.

Здесь мы разберем основные типы ядер, и по каждому типу я дам вам максимум готовых примеров.

Автор: Илья Иерсон
​​Знание SEO — обязательный пункт для маркетологов, специалистов по контенту, проджектов и веб-аналитиков. У тех, кто владеет SEO, карьерные возможности повышаются до 57%, остальным остается только посочувствовать.

Но решение есть! Чтобы прокачать свои знания в поисковом продвижении с нуля, поступайте на факультет SEO-продвижения от образовательной экосистемы GeekBrains от Mail.ru Group!

За 12 месяцев вы углубите свои знания и навыки по всем главным инструментам продвижения:

▫️ аналитика, язык разметки HTML, конструктор сайтов Tilda и WordPress;
▫️ семантическое ядро и оптимизация посадочных страниц;
▫️ разберетесь с тонкостями интернет-маркетинга и проектного менеджмента.

По окончании обучения GeekBrains поможет с трудоустройством. Занятия начнутся уже 26 октября 🗓.

Запишитесь прямо сейчас со скидкой 40% 🔥
​​Нужно ли закрывать пагинацию от индексации? Часть №2 — универсального ответа нет!

Достаточно подробный разбор этой задачи от коллеги по SEO цеху 1️⃣2️⃣3️⃣.

Содержание статьи:

▫️ Почему тот же вопрос?
▫️ Почему стоит закрыть?
▫️ Почему стоит открыть?
▫️ Позиция Яндекса
▫️ Позиция Google
▫️ Как делают крупные агрегаторы/справочники?
▫️ А что по интернет-магазинам?
▫️ Как поступать в итоге и что буду делать я?

P.S. На своих сайтах пагинацию обычно оставляю открытой и делаю отдельные маски мета-данных, например {H1} - страница {2..n}
​​17 самых популярных задач технической оптимизации сайта — проблемы и решения:

1. Плохая индексация сайта
2. Правильная настройка пагинации
3. Устранение дублей
4. Важна ли скорость загрузки
5. Транслит в URL или перевод?
6. Поисковые запросы и JavaScript
7. Запрет на индексацию
8. Скрытие части контента
9. Роль валидности исходного кода
10. Какую CMS лучше выбрать?
11. Роль доменной зоны
12. Чистка индекса
13. Первая индексация сайта
14. Когда нужно внедрять canonical?
15. Региональные поддомены
16. Товары, которых нет в наличии
17. Смена домена
​​Шел 2020 год, Yandex решил поинтересоваться как люди SEOшат!
©️скрин утащил.
​​Ситуация по одному из проектов. Примерно месяц назад заблокировал пачку подсетей IP с которых шел прямой трафик на сайт (явные боты). Решил на снять и посмотреть уменьшилось ли количество трафика, но этого трафика стало только больше.
Позиции сайта за этот месяц после блока ботов не изменялись, только доход от РСЯ упал!
С одной стороны, хочется убрать этот трафик, а с другой стороны не хочется терять доход!
​​Скинули тут проект, который анализирует ботов и блокирует их.
На официальном сайте заявляют о следующем функционале:

▫️ Антибот для сайта
▫️ Защита от скликивания Я.Директ
▫️ Защита от скликивания в Google Ads
▫️ Защита баннера от скликивания

Сервис позволяет анализировать посещения на сайте и блокировать некачественный трафик по различным критериям, источникам и типам визитов, благодаря универсальному конструктору. Блокировка ботов или нецелевых посетителей помогает экономить рекламный бюджет и повышать эффективность бизнеса.

🔥 Есть 10000 бесплатных юнитов для проверки работы сервиса.
​​Хотели узнать, как найти клиентов на SEO?
Дмитрий Шахов собрал свой опыт и методы в один вебинар.

Этот вебинар подойдет как тем, кто лишь собирается зайти в реку работы фрилансером-оптимизатором, так и тем, кто управляет агентством. Только личный опыт. Боль, кровь, потеря денег и выработка правил, которые дали нам возможность вырасти в десять раз.

Послушать можно тут: https://seohowto.ru/clients
​​В последние несколько недель SEO-специалисты замечают сильный шторм в выдаче Яндекса.

Похоже, Яндекс изменил логику апдейтов. Исчезло классическое разделение индекса на новостной (80 часов ≈ 3 дня) и основной. Так считает Дмитрий Севальнев, совладелец и руководитель отдела SEO и рекламы «Пиксель Плюс».

Что изменилось?

Похоже, что больше нет классического разделения индекса на новостной (80 часов ≈ 3 дня) и основной, говорит Дмитрий.

На текущий момент (IV квартал 2020) ситуация кардинально изменилась:
Больше нет «склейки» из нескольких дат с нулевым числом проиндексированных документов.
Количество URL, по которым осуществляется поиск за последние 3-5 дней, соизмеримо по количеству с другими датами – десятки миллионов.
​​Netpeak Software | Чёрная пятница: скидка 60% на Netpeak Spider и Checker + предпродажа нового продукта на Windows и macOS


Ребята из @netpeaksoftware делают акцию на Чёрную пятницу и объявили две грандиозные новости: скидка 60% и предпродажа нового SEO-продукта Owlymate! 🤩


До 4 декабря по промокоду SEOpraktika-BF20 действует скидка 60% на:

🔥 Netpeak Spider, Checker и новый инструмент — Owlymate;

🔥 Любой тариф: Standard, Pro, Premium;

🔥 Любой срок: 1 месяц, 1 год, 3 года.


Купить лицензии со скидкой ➡️


А теперь самое интересное ➡️ ребята проанонсировали будущий релиз Owlymate, SEO-ассистента для Windows и macOS, который выйдет после 1 марта 2021 года по окончании публичного бета-тестирования 😃


В первой версии продукта Owlymate вам будет доступен такой функционал:

Планировщик SEO-проверок;

Отправка уведомлений на email и в Telegram;

Онлайн-отчёты для удобной работы с коллегами и клиентами.

Узнайте подробнее о функционале, дате официального релиза и всех бонусах предпродажи ➡️
​​В мае 2020 года Google представил новый фактор ранжирования – Page Experience.

Обычно поисковая система предупреждает вебмастеров об изменениях незадолго до апдейта или сразу после релиза. В этот раз все изменилось из-за ситуации с коронавирусом.

Представители компании рассказали, как будет работать новый фактор и дали время подготовить сайты к обновлению.

Особенности Google Page Experience 

Google Page Experience – набор сигналов для оценки качества страницы, которые выходят за рамки информационной ценности. Главная цель введения нового фактора ранжирования – увеличить поисковую видимость user-friendly сайтов. 
​​Во время очередной прямой трансляции представители компании Google рассказали о недавних достижениях в области искусственного интеллекта, внедрение которых позволило сделать поиск и другие продукты ещё проще, точнее и быстрее для всех пользователей.
Эта информация будет полезна и для SEO специалистов, чтобы успеть подготовиться к наступающим переменам.

▫️ Поиск именно того, что вы ищете
▫️ Доступ к информации во время COVID-19
▫️ Понимание ключевых моментов в видео
▫️ Глубокое понимание темы с помощью данных
▫️ Повышение качества журналистики с помощью расширенного поиска
▫️ Поиск того, что видите, и изучение информации в 3D
▫️ Не знаете, как искать, спойте
​​ Дмитрий Севальнев разбирает тренды в SEO 2021 + 11 самых важных событий в 2020!

1. 2020 год в поисковых системах рунета + доля Яндекса и Google.
2. Тренды в SEO на 2020 год и 11 самых важных событий за 2020.
3. Ценные ссылки для вашей работы.

Всё по ссылке ниже 👇
​​Гугл перенес отчет о краулинге сайта в новую консоль и серьезно его переработал:

▫️ появилась группировка по коду ответа сервера
▫️ группировка по типу контента (html, картинки, аудио и т.п.)
▫️ подробная информация о статусе хоста
▫️ примеры урлов, к которым происходили запросы
▫️ статистика по нескольким хостам и поддержка сущности "Доменный ресурс" (domain property)

Обновленный отчет находится в разделе "Настройки" -> "Статистика сканирования" в GSC.

Источник (en): https://developers.google.com/search/blog/2020/11/search-console-crawl-stats-report.html

Информация от: https://www.facebook.com/vkharev
​​Статья о том, в чём заключается иллюзия «поиска по смыслу», какой путь прошли алгоритмы и нейросети в ранжировании и какие основные сложности стоят перед теми, кто хочет применить для этой задачи трансформеры и даже заставить их работать в рантайме.
🔥 Коллеги из TopVisor сделали крутейший инструмент для анализа выдачи и конкурентов.

Статистика в разрезе URL, отдельного запроса или домена.

Через несколько итераций анализа и правок, можно значительно улучшить показатели продвигаемых документов относительно конкурентов.

Из плюсов:

▫️ Кастомные фильтры любой сложности и детализации.
▫️ Низкая стоимость - никаких подписок на месяц/год.

Смотрите видео до конца, есть бонусы в описании к видео:
https://youtu.be/33eH7Ze3nwk
​​Ждем колдунщиков в выдаче! Привет всем владельцам досок объявлений!
Интересно, кого они спарсили, чтобы наполнить базу?!
РУКОВОДСТВО ПО УПРАВЛЕНИЮ ЛИМИТОМ НА СКАНИРОВАНИЕ ДЛЯ ВЛАДЕЛЬЦЕВ КРУПНЫХ САЙТОВ.

По мнению Гугла, это (примерно, а не строго):
▫️ очень большие сайты (более 1 млн уникальных страниц) с достаточно часто (раз в неделю) меняющимся контентом;
▫️ средние или большие сайты (более 10 тыс. уникальных страниц) с очень часто (ежедневно) меняющимся контентом.

Тезисы:

1. Cуществует лимит на сканирование, определяющий время и ресурсы, которые Googlebot может затратить на один сайт. Не все просканированные страницы сайта индексируются. Google их анализирует, консолидирует и определяет, нужно ли их добавлять в индекс.
2. Если в течение определенного времени сайт отправляет ответы без задержек, скорость сканирования увеличивается, то есть робот Googlebot может использовать при обработке контента больше подключений. Если ответы от сайта поступают медленно или содержат ошибки, скорость сканирования снижается.
3. Cтраницы, которые просматривает больше посетителей, сканируются и индексируются чаще.
4. Удалите страницы с идентичным контентом, чтобы поисковые роботы сканировали уникальные материалы, а не уникальные URL.
5. Если вы не можете консолидировать их, заблокируйте неважные для поиска страницы с помощью файла robots.txt или инструмента "Параметры URL" (для страниц с идентичным контентом, различающихся параметрами URL). Не используйте тег noindex. Это приводит к пустой трате времени, поскольку, чтобы обнаружить тег, нужно начать сканировать страницу. Не используйте файл robots.txt, чтобы временно увеличить лимит на сканирование для других страниц.
6. Возвращайте код ошибки 404 или 410 для окончательно удаленных страниц.
7. Устраните ложные ошибки 404.
8. Вовремя обновляйте файлы Sitemap. Если на вашем сайте есть обновленный контент, рекомендуем использовать тег <lastmod>.
9. Избегайте длинных цепочек переадресации.
10. Укажите в файле robots.txt объемные ресурсы, не представляющие ценности для пользователей. Это могут быть, например, элементы графического оформления страницы, которые не важны для понимания ее содержания.
11. Значение имеет не только время ответа серверов на запросы, но и время, необходимое на отрисовку страниц, в том числе на загрузку изображений и выполнение скриптов.
12. Если ваш сервер перегружен, временно возвращайте страницы с кодом ошибки 503 или 429 в ответ на запросы робота Googlebot. Когда частота сканирования снизится, отключите показ страниц с кодом ошибки 503 и 429 в ответ на запрос поискового робота. Если возвращать эти коды больше двух суток, Google удалит URL с кодом ошибки 503 из индекса.
13. Если на сайте есть важная информация, которая часто обновляется, мы сканируем его часто, какого бы размера он ни был.
14. Cтраницы, на которые можно перейти с главной в один клик, могут считаться более приоритетными и могут сканироваться чаще. Однако это не значит, что их рейтинг будет выше, чем у остальных страниц вашего сайта.
15. Если вы оптимизируете частоту сканирования, это не значит, что ваш сайт займет более высокие позиции в результатах поиска.
16. Альтернативные URL, в том числе AMP-страницы и страницы с атрибутами hreflang, a также встроенный контент, например код CSS или JavaScript, включая методы XHR fetch, обычно сканируются и приводят к исчерпанию лимита.

https://support.google.com/webmasters/answer/9689511?hl=ru
Поделился: https://www.facebook.com/vkharev