SEO практика | Кравцов Виталий
3.88K subscribers
572 photos
19 videos
4 files
1.29K links
Кейсы поискового продвижения, практические примеры и актуальные новости SEO.

Админ канала: @vakravcov
Реклама: https://vk.cc/asufsX
Услуги: https://kravcov.tech
Download Telegram
SEO-инструменты – это один из самых эффективных способов привлечения трафика на сайты интернет-магазинов. Но не оптимизацией единой: поисковые системы иногда все же стараются облегчить е-кому жизнь: например, у Гугла и Яндекса есть специальные вкладки для товарных предложений: “Покупки” у Гугла и “Товары” в Я.

Однако поисковая выдача в этих вкладках выглядит не так, как на основной странице поиска: товары представлены наглядно в виде карточек, где уже собраны цены и ссылки на магазины.

В обычном поиске на первых строчках часто стоят крупные сети, и небольшим магазинчикам бывает тяжело обратить на себя внимание. Поэтому имеет смысл воспользоваться возможностью передачи фидов с информацией о товарах. Так вы поможете алгоритму, который собственно и подгружает предложения в карточки товаров.

Рассмотрим как передать фиды поиску – на примере Яндекса

Сначала подготовьте данные. Фид – это специальный YML-файл (как XML, только по стандартам Яндекса). Разместите YML-файл на вашем сайте: в корневом или другом каталоге.

Затем загрузите ваш фид через Вебмастер. Подробная инструкция о том, как его загрузить, есть тут.

Вебмастер проверит ваш фид и, если есть ошибки, сообщит об этом. Кроме того, информация проверяется службой контроля качества. Если вы решили обновить какие-то данные в фиде, они обновятся автоматически.

Как видите, процедура простая, зато пользу от этого инструмента вы почувствуете очень быстро.
✌️Наверняка вы знакомы с Zenlink, как с сервисом крауд-маркетинга.
Но знаете ли вы о партнерской программе сервиса?

🤖 Как она работает?
Партнерка дает 20% от реальной суммы заказа вашего реферала, весь его жизненный цикл.

🏁 Каков порядок действий?
1. Зарегистрируйтесь в партнерской программе.
2. Получите присвоенную вам персональную реферальную ссылку.
3. Заведите электронный кошелек ЮMoney для вывода заработанных средств.
4. Разместите реферальную ссылку на своем сайте или на любом доступном для вас интернет ресурсе для привлечения заказчиков в сервис Zenlink.
5. Когда приведенный вами реферал запустит продвижение - вы получите 20% от суммы его заказа.
6. Выводите сумму на личный кошелек или запускайте собственные проекты.

☝️ А чтобы вам было легче начать зарабатывать на партнерке Zenlink - ловите промокод для привлечения рефералов: seopraktika - скидка 20% на всё!
Forwarded from noindex, nofollow
Всегда был сторонником того, что не надо палить урл сайтмапа в robots.txt, чтобы не облегчать парсинг сайта школьникам.
Oliver Mason (OHGM) пошел дальше и приводит способы скрытия сайтмапа.
Не нужно принимать все пункты всерьез, некоторые из них - просто пример того, как далеко можно зайти в идее делать что-то вразрез с общепринятой практикой.

1. Search Console не позволит указать урл сайтмапа на другом домене, но если вы создадите урл с редиректом,
то это сработает (консоль любит притворяться, что редиректов не существует, слепо следует им и сообщает результат назначения, а не введенный вами урл).

2. Не располагать ее по простому адресу /sitemap.xml

3. Не ссылайтесь на нее в robots.txt - достаточно добавить сайтмап в консоли Гугла и Яндекс Вебмастере.

4. Иногда Гугл показывает сайтмап в проиндексированных
в таком случае есть смысл добавить HTTP-заголовок X-Robots-Tag: noindex

5. Клоакинг: отдавайте сайтмап только нужным юзер-агентам или проверяйте ботов по диапазону IP (Гугл официально публикует список IP, с Яндексом сложнее). Джон Мюллер, кстати, не возражает.

6. Удалить расширение .xml (главное правильный Content-type). Это противоречит документации Гугла, но тесты показывают, что способ рабочий.

7. Использовать txt-формат карты сайта

8. Используйте сложное имя файла, типа j1z2x3c4v5b6n7m8l0p9kijhgfsecr5tgnu8-speak-to-oliver-this-is-important

9. Используйте приманку. Если у вас есть полный XML sitemap в стандартном месте, указанном в файле robots.txt, любой, кто покопается в нем, может предположить, что это все, что вы отправляете поисковым системам.
❗️ Как вы уже знаете, установка соединения очень ресурсоемкая операция. Но что делать, если есть внешний скрипт, который по тем или иным причинам нельзя отложить по времени или первому действию. Например очень часто таким скриптом становится яндекс-метрика. Я постоянно пишу в аудитах и говорю в прямых эфирах, что критичные внешние скрипты можно проксировать через свой домен, но до этого момента никогда не приводил пример такого проксирования. Пора исправить эту ошибку.

Проксирование метрики через свой домен позволяет снизить число установленных соединений, и как следствие ускорить инициализацию при первом запуске проекта. Для корректной работы nginx дожен быть собран с поддержкой sub_filter. В коде метрики нужно заменить https://mc.yandex.ru/ на /proxy-yandex/

Для того, чтобы все заработало, добавляем содержимое файла в секцию server в конфиге nginx нужного хоста. В конфиг внесено два хоста mc.yandex.ru и mc.yandex.com, однако в разных странах подключение может производиться с региональных доменов, например mc.yandex.md, поэтому проверяйте и вносите необходимые домены в конфиг по такому же шаблону. Например: sub_filter 'mc.yandex.md' "$host/proxy-yandex";

🧩 Конфиг nginx

⚠️ По этой же схеме можно проксировать и другие внешние скрипты через свой домен для ускорения их загрузки и инициализации.

💬 Если есть вопросы или идеи по улучшению - пишите в комментарии.
🔥🔥🔥Если вы планируете делать агрегатор, обязательно посмотрите это видео!! (которому к слову уже больше 2х лет😱😅), но уверен многие его не смотрели.

https://youtu.be/vd9KCpURR6A

Виталий Кравцов - SEO специалист с многолетним стажем, который запускал свои собственные агрегаторы!

Всё, что он говорит, я пытался в разных форматах, и в постах, и через видео, и в подкастах донести 100 раз. Но всё равно многие допускают одни и те же ошибки - начинают придумывать свой функционал, начинают процесс с дизайна, когда это вторично, делают сложную разработку с 0 и так далее.

Короче, в видео коротко и ёмко перечислены все основные ошибки начинающих , кто хочет делать агрегатор.

Подписываюсь под каждым словом.
Ты SEO-специалист, который ищет работу в Санкт-Петербурге?
Прекрасно, digital-агентство MOLINOS ждет именно тебя!

Подробнее о вакансиях здесь:

▫️ Junior https://spb.hh.ru/vacancy/67752745

▫️ Middle https://spb.hh.ru/vacancy/67752847

Интересные крупные проекты, гибридный график, дружная команда профессионалов, комфортный офис в самом центре Петербурга.

#вакансия
This media is not supported in your browser
VIEW IN TELEGRAM
Обновления алгоритмов проверки сайтов у Google

Google будет более тщательно относиться к проверке сайтов, где размещены описания продуктов, товаров или услуг.

Сама проверка началась еще 27 июля и будет завершена в течение двух-трех недель.

Что поменялось:

Google усовершенствовал алгоритм проверки, который был представлен в марте 2021 года. Этот алгоритм нацелен на сайты, которые пишут обзоры и отзывы, преподнося их, как личный опыт. Если на сайте хороший контент, а не поверхностный рерайт от производителя, то такой сайт продвигается проще и быстрее.

Теперь для Google имеет вес текст, который несет уникальный опыт использования. Кстати, оригинальные изображения — это тоже важно.

Какие сайты будут затронуты?

Витрины, рейтинги и другие инфосайты, которые публикуют обзоры на продукты или услуги.

Теперь просто взять и закинуть текст с официального сайта казино в ИИ-рерайтер, добавить ключей, вставить картинки из Google и ждать выхода в ТОП не получится.

Гемблинг [Партнеркин]
10-11 ноября в Сколково пройдет крупнейшая конференция о продвижении бизнеса в интернете Optimization. На протяжении двух дней участников ждут:
• выступления более 70 спикеров в двух потоках: SEO и digital;
• мастер-классы и аудиты от практикующих экспертов;
• дискуссионная панель с участием программного комитета;
• выступления представителей поисковиков;
• яркая вечеринка, где вы сможете расширить круг профессионального общения, обзавестись полезными контактами и обсудить проекты с коллегами и ведущими экспертами Рунета!

Узнать подробнее о конференции и зарегистрироваться можно по ссылке: https://clck.ru/sQKpC
Всех зарегистрировавшихся уже ждут подарки от наших партнеров в личном кабинете!
‼️‼️Без преувеличения супер важная SEO инфа для сайтов агрегаторов.

На скрине выше я показываю процент (=4%) страниц только для одного сегмента МРТ, которые имеют хоть какую-то частотность.

973 страницы из 25 433 страниц

Я как-то уже скидывал, рекомендую перечитать статью , в которой автор рассказывает о малоценных страницах и их влиянии на общее качество сайта.
Так вот если страницу не ищут - это малоценная страница.
У многих агрегаторов тоны таких страниц.

Как я планирую решать такую проблему? В новом обновлении движка https://agreagator-wp.ru/ мы сделаем удобную настройку категорий, которая даст возможность оставить только те страницы, у которых есть частотность.

Я вот кстати уже 2 года дописываю движок, и думаю, смог бы я все эти SEO моменты учесть, если бы не развивал свои агрегаторы, а просто написал движок, как продукт. Думаю, что очень маловероятно. Слишком много неочевидных мелочей, которые всплывают на практике.
This media is not supported in your browser
VIEW IN TELEGRAM
Всем бодрой недели!

В общем, решил на свои знания взглянуть под другим углом. Коллеги и друзья из Rush Academy с 15 августа запускают новый поток курса Senior SEO-специалист. Я вообще сторонник того, чтобы периодически выходить из своей парадигмы знаний и опыта и посмотреть как это делают коллеги.

Иногда настолько зацикливаешься на своем опыте и багаже знаний, что не видишь очевидных вещей!

Если кто хочет со мной, го, может ребята дадут дополнительную скидку, запросил, жду от них!

Сам курс: https://rush-academy.ru/kurs-senior-seo-specialist/
Forwarded from DrMax SEO (Макс)
Яндекс выложил исследование на основе запросов и отработки гео карточки достопримечательности.

Казалось бы, при чём тут seo?

1. Будет интересно тем, кто двигает туризм.
2. Будет интересно тем, кто льёт трафик на билеты.
3. Статистика - обмазаться данными и цифрами.


Изучайте, смотрите, почему ваш проект ещё не самый-самый по запросу "Кудыкина гора". 😄
На заметку вебмастерам, в поисковых системах влияние Local Seo порой даёт больше profit, чем linkbuilding стратегии.
Пользователь - ленив и не будет думать долго над поиском.
Карточки организаций, услуг, фирм, магазинов и т.д. занимают бесплатную позицию как на Яндекс.Картах, так и на Google Maps.

Всё в ваших руках!

Да пребудет с вами трафик, топ и конверсии!

https://yandex.ru/company/researches/2022/attractions

#Яндекс #Яндексфишки #SEO
Forwarded from SEO бро
Интересная штука появилась на сайтах.

Если ты авторизован в аккаунте Яндекса, в котором есть счетчик метрики того сайта на котором находишься, то вот такая панель инструментов отображается.

Разворачивается/сворачивается по клику на закрепленную иконку
Forwarded from stavsky
Пара слов про SEO эксперименты.
Каждый сеошник желает знать какие действия над сайтом гарантированно дадут положительный результат.
Безусловно есть общие, как правило работающие в плюс, рекомендации.
Врядли кто будет спорить, что практически любому сайту станет лучше от публикации качественного контента, от создания добавочной ценности для пользователя, от наращивания количества полезных страниц на сайте, от ссылок с авторитетных ресурсов, итд, итп.

Многим этого понимания оказывается достаточно и тогда стратегия продвижения отталкивается от девиза - "делай правильные вещи и в конце концов получишь результат".
Однако у каждого умеющего думать специалиста возникает вопрос, а как именно наиболее эффективно реализовать все эти правильные вещи? Ведь тот же контент можно выкладывать десятками различных форматов и способов, полезность новых страниц - определение расплывчатое, а авторитетный ресурс ресурсу рознь.
И тут в сознании сеошника вспыхивает идея - надо провести сео эксперимент!
И тут начинается.. кто во что горазд)

Удивительно, но просьба описать методику и условия даже самого простого сео эксперимента вводит в ступор 90% приходящих на собеседование оптимизаторов.

Вот основные ошибки, которые совершаются оптимизаторами при постановке эксперимента.
1) Создали нерепрезентативную тестовую выборку. Или забыли обеспечить в выборке максимально равные условия для всех документов/ссылок/доменов, принимающих участие в эксперименте.
2) Отсутствие контрольной выборки, или сравнение теплого с мыягким - выборок не сравнимых между собой по определению.
3) Отсутствие понимания какие еще факторы могут оказывать влияние на результат и как эффективнее всего нивелировать это влияние.
4) Неправильные, или не показательные метрики, на основе которых делаются выводы.
5) Забыли посмотреть на данные, которые могут оказаться критичными для текущего эксперимента - например на ботов в логах, или на все запросы, приходящиеся на тестируемые документы, или на среднюю позицию первого клика, или..
6) Непонимание, когда нужно использовать подокументные метрики, а когда метрики по парам запрос-урл.
7) Использование тестового домена, или специально созданных тестовых страниц тогда, когда нужно ставить эксперимент на реально существующих документах. И наоборот.
8 ) Путают эксперимент с инсайтом, полученным на основе анализа данных.

И помните, в SEO никогда нельзя быть уверенным в чем-то на 100%. Ну кроме того, что каждая малейшая ошибка при постановке эксперимента снижает, а то и вовсе убивает достоверность полученного резульата)
Forwarded from stavsky
Расскажу немного про поисковый антиспам, так, для поддержания разговора)

Начнем с определения. Поисковый спам, спамдексинг, - это специально созданные сайты, или документы, единственной целью которых является манипуляция результатами поиска так, чтобы спам сайты, или документы попадали в топ выдачи.
Конечно же поисковые системы бесятся от того, что наличие спама в топе снижает качество поиска, а также требует немалых ресурсов на его детектирование и зачистку.

Давайте пробежимся по основным типам спам ресурсов:
1) Дорвеи - самый известный и самый древний вид спама. Единственная цель дорвейных страниц - перенаправление, часто автоматическое, на сайт партнерской программы. Но в некоторых тематиках, например download, или torrent сайтах, дорвеи создаются с расчетом на то, что пользователь скачает и установит вирус себе на комп.

С некоторой натяжкой, за дорвей можно считать крупные трастовые сайты со страницами, содержащими user generated content, в который спамеры пихают простыни текста и ссылки на свои ресурсы.

2) Доски объявлений. Нет ничего странного в популярности этого метода - сайт доски объявлений позволяет быстро наращивать количество проиндексированных страниц. Однако основной целью таких досок, как правило, является открутка как можно большего количества рекламы. И поисковым системам это конечно же не нравится.
Давайте подумаем, какие данные может использовать ПС, чтобы детектировать плохме, спамные доски:
- объявления не в своих рубриках, или не в своих регионах (пихали абы как)
- дата публикации некоторых объявлений старше даты регистранции домена (чего только не случается при импорте чужих баз 🙂 )
- отсутствие контактов на страницах объявлений
- автопостинг
- итд, итп

По похожим принципам определяюются спам каталоги, здесь не буду выносить их в отдельный пункт

Дальше кратко перечислю еше несколько популярных типов поискового спама

3) Скрытый тест, когда страница содержит множество ключевых слов, которые показывает только роботу индексатору. Пользователям же вместо этого показывают нормальный сайт, без десятков экранов набитых ключами текстов.
Хотя в наш век фронтендов на JS под данный тип спама подходит множество белых и пушистых сайтов 🙂

4) Партнерки и сайты, дублирующие оригинальные.
Если коротко, то про партнерки нужно знать одно - партнерка должна быть частью сайта, а не быть им.

Кстати, буквально на днях Яндекс зарелезил новый фильтр, пессимизирующий сайты без уникального контента за схожесть с оригинальным, под который он маскируется. По ссылке в хелпе Яндекса даже пример есть- https://yandex.by/support/webmaster/threats/similar.html
А мне вспоминается анонс где-то полугодичной данности, в котором Яндекс обещал понижать страницы, созданные под запросы типа "личный кабинет госуслуги", "личный кабинет сбербанка", итп. И хоть нельзя сказать, что Яндексу удалось почистить выдачу от подобного спама (сами посмотрите), пессимизация "неоригинальных" сайтов в выдаче кажется логичным продолжением этой затеи.

5) Спам контент и контент, дублированный с чужих сайтов.
Мне известны десятки признаков, по которым поисковик определяет такие методы спамдексинга, но я уже устал писать, может в другой раз

Надеюсь этот далеко не полный список покажется вам полезным.
Ставьте лайк, если хотите больше текстов про антиспам)