SEO практика | Кравцов Виталий
3.87K subscribers
560 photos
19 videos
4 files
1.28K links
Кейсы поискового продвижения, практические примеры и актуальные новости SEO.

Админ канала: @vakravcov
Размещение рекламы: https://vk.cc/asufsX
Услуги: https://kravcov.tech
Download Telegram
Не понятно, насколько точные цифры, но посмотреть любопытно.

Знание о том, какие параметры сайта и продвигаемых страниц статистически связаны с ранжированием, не гарантирует немедленного успеха в продвижении — оптимизировать эти параметры и «взлететь ракетой», возможно, не получится. Однако специалисты компании «Ашманов и партнеры» считают, что лучше знать, чем не знать. 

Компания изучает факторы ранжирования уже около четырех лет и эффективно использует полученные результаты при поисковой оптимизации сайтов своих клиентов. Сейчас в работе более 500 параметров.

https://www.searchengines.ru/factory-2018.html
Forwarded from DrMax SEO (DrMax)
Как нынче можно прятать ссылки от Гугла

Во оно как стало! Теперь Гугл переходит только по ссылкам, в которых используется тег <a> с атрибутом href. Прочие форматы не поддерживаются. Это означает, что Google не может обрабатывать теги <a> без атрибута href и теги, которые используют события скриптов и функционируют как ссылки.

URL ссылки в теге <a> должен представлять собой действительный веб-адрес, на который робот Googlebot может отправлять запросы.

Т.е. официально Гугл отказался от разбора забубенных вариантов ссылок, которые нарабатывали годами SEO-шники.

Теперь любую ссылку можно закрыть банальным <a onclick="goto('https://example.com')">

ПРУФ: https://developers.google.com/search/docs/advanced/guidelines/links-crawlable (Last updated 2022-03-02)

#DrMax #Google #Links #SEO
Forwarded from DrMax SEO (DrMax)
👴 Мюллер в канале: Про дропнутые домены.

Джон Мюллер на днях высказался, что использование дропов и поднятых на них сайтах является SEO - мошенничеством. Конечно вы можете использовать дропы для создания новых сайтов, но не рассчитывайте, что вам удастся получить выгоду от старого ссылочного, просто разместив сайт на старом домене.

Далее он пригрозил: поисковые системы имеют большой опыт борьбы с этим.

Если припомнить, то аккурат 3-4 года назад Google крайне ловко вырезал большинство PBN сетей и нивелировал ссылочное на дропах. После этого сайты на дропах опять задропились и новое поколение якобы оптимизаторов опять их перехватили.

В связи с продолжающимся спам апдейтом, такие высказывание величайшего в мире SEO гуру ничего хорошего для PBN в целом и дропам в частности не несет.

А может Мюллер опять темнит. Кто знает.
Оригинал высказывания размещен в Твиттере.

#DrMax #SEO #PBN #Google
🏃‍♂️ Фишки англоязычного SEO в 2023 году. Как меняются алгоритмы ранжирования Google и методы продвижения

Запись моего доклада на канале CyberMarketing.

Таймкоды:
0:00:00 Вступление
0:03:33 Представление докладчика и темы вебинара
0:04:42 Эволюция факторов ранжирования Google
0:07:39 E-E-A-T (Опыт, экспертиза, авторитетность, траст)
0:12:11 Proxima - метрика качества в Яндексе
0:12:50 Как улучшить авторитетность и траст сайта
0:21:00 Как еще улучшить E-E-A-T
0:27:41 Ссылки на часть страницы
0:35:02 Улучшение картинок нейросетями
0:43:49 Дооптимизация страниц
0:50:32 Выводы
0:50:58 Ответы на вопросы
0:51:03 - Какие особенности продвижения сайта услуг?
0:55:31 - Как лучше делать ссылки на участки магниты?
0:56:37 - Как ускорить индексацию внешних ссылок?
0:59:08 - Стоит ли делать на сайте блок FAQ?
1:00:26 - Что важнее делать при ограниченном бюджете для нового сайта, ссылки или контент?
1:02:15 - Имеют ли право на жизнь тексты, созданные нейронками?

https://www.youtube.com/watch?v=lp-QRy5V-pQ

Михаил Шакин aka Глобатор, @burzhunet #фишки #google
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DrMax SEO (DrMax)
💥 Гугл помнит всё!

Индекс Google работает по принципу Wayback Machine. Он предназначен для долговременного хранения множества копий страниц. Это дает поисковой системе возможность сравнивать версии страниц и определять, как часто необходимо просматривать страницу в зависимости от частоты ее существенных обновлений.

Это хранилище используется также для сравнения корреляции. Отсюда есть несколько крайне важных выводов.

1. Недостаточно купить дроп-домен, набросать на него нерелевантный контент (на существовавшие ранее URL) и ждать, что он займет прежние позиции. Как правило, это не сработает.

2. Перенаправление URL на нерелевантный целевой (например, на домашнюю страницу) приводит к Soft 404. Это относится как к дропам, так и к работающим доменам. Google знает, что ранее находилось на исходном URL, и может сравнить то, что было проиндексировано ранее, с тем, что находится на целевом URL. Дословно: Мы не рекомендуем настраивать переадресацию с нескольких старых URL на одну страницу, контент которой не имеет к ним отношения, например на главную страницу нового сайта. Это может вводить пользователей в заблуждение и рассматриваться как ошибка soft 404.

3. Именно поэтому крайне нежелательно размещать ссылки на проиндексированных страницах (покупать ссылки). Необходимо добавить новый абзац с релевантным текстом и из него уже строить ссылку на ваш сайт.

и т.д. и т.п.

По сути, Google никогда не забывает о контенте, расположенном на странице. При этом он постепенно совершенствует свои возможности по использованию исторических данных для ограничения способов быстрого/несправедливого ранжирования, которые раньше работали крайне успешно.

Что по-прежнему работает, так это перемещение одного и того же контента со страницы А на страницу Б с применением 301-го редиректа. Это лучший способ сохранить траст, ранжирование и трафик.

Вообще, неспособность Гугла "забывать" контент крайне смущает оптимизаторов (тех кто об этом знал). Например, страницу со снятым с производства товаром необходимо перенаправлять на релевантную страницу, а не просто на какой то раздел, чтобы не профукать накопленный траст и не погрязнуть в Soft-404 ошибках. Неправильная работа с устаревшими страницами может попросту убить ранжирование.

Про дроп-сайты и говорить не хочу.Только единицы умеют управляться с ними и в большинстве случаев ссылки/редиректы дропов не принесут ничего хорошего.

Очень интересно, что вся проверка семантики строиться на векторах. Сейчас векторные сравнения и сопоставления контента выходят на первый план и по значимости превосходят влияние ссылочного.

Считается, что Гугл измеряет релевантность, вычисляя косинусное сходство векторов контента. Точно так же Google может вычислять сходность контента при определении того, связаны ли источник и цель 301 редиректа или простой ссылки, построенной вами на доноре. Он считает семантическое расстояние между страницей донора и акцептора и если оно находится в пределах определенного порога, то , например, 301 перенаправление допустимо и передается траст Если это не так, то это Soft 404s. Ну и совершенно аналогично и с простой ссылкой.

Таким образом, знание того как работает индекс Гугла поможет вам избежать досадных ошибок и ненужных трат.

А в целом это тема для огромной статьи, писать которую мне пока недосуг.

#DrMax #Google #Serp
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DrMax SEO (DrMax)
🕯 Качество является главным фактором при индексировании

Согласно обсуждению в недавнем подкасте, качественный контент является основным фактором, влияющим на решения Google по индексированию и сканированию.

При этом:
🔠 Качество влияет на все в поиске, особенно на индексацию.
🔠 Однако качественный контент не гарантирует высокий рейтинг.
🔠 Удаление контента низкого качества может помочь улучшить восприятие сайта Google.

В ходе разговора выяснилось, что планировщик сканирования Google использует сигналы качества для определения приоритета URL-адресов для сканирования. Если Google знает, что у него есть X URL-адресов для сканирования с сайта, он пытается создать упорядоченный список на основе его прогнозируемого качества.

Качество сайта может повлиять на процесс сканирования, даже если это новые сайты. Например, если новая страница обнаружена с помощью файлов Sitemap, Google оценит качество ранее просканированной домашней страницы, чтобы решить, сканировать ли новую страницу.

Иллиес объяснил, что качество может быть специфичным для разных частей веб-сайта.

Например, если одна часть сайта постоянно предоставляет высококачественный контент, к ней могут относиться иначе, чем к другой, известной контентом более низкого качества.
С другой стороны, если определенные части сайта постоянно содержат контент низкого качества, эти области могут сканироваться реже.
Пользовательский контент (UGC) был приведен в качестве примера, качество которого может варьироваться. Если в разделе пользовательского контента обнаружена тенденция к контенту более низкого качества, это может повлиять на поведение сканирования Google для этой конкретной части сайта.

Иллиес заверил слушателей, что они могут улучшить качество своего сайта, даже если раньше он содержал контент низкого качества. Он призывает владельцев сайтов удалять некачественный контент, чтобы улучшить остальную часть сайта.
Удаление некачественного контента может улучшить восприятие сайта Google, что может повлиять на то, как Google сканирует и индексирует оставшиеся страницы.

Хотя качество контента само по себе не гарантирует высокий рейтинг, выделение ресурсов для создания ценного, уникального контента, скорее всего, повысит позиции сайта в поиске.

#DrMax #SEO #Google #QualityContent
Please open Telegram to view this post
VIEW IN TELEGRAM
Уже неделю вебмастера, SEO-шники и владельцы сайтов сталкиваются с проблемой Failed: Hostload exceeded!

Первый раз ошибка и превышение загрузки были замечены 15.10.2023. С 16-го октября эта ошибка начала носить массовый характер. 😱
Коллеги на Западе обратили внимание и возопили в облака (Google). Вот на Reddit топик, вот GSC community, коллеги в RU сегменте не отстали и забили в колокол, не YouTube. 🤬

Что же Google? Обожаемый многими Джон Мюллер дал комментарий, из которого совсем ничего не понятно. 🧐

Связана ли эта ошибка с прошедшим Spam Update пока рано проводить аналогии. Однозначно в Google Search Console "переобход страниц" не работает, что сильно мешает крупным проектам.

@proseomax

#Google #Googlenews #GoogleSeo #GoogleFeatures
Forwarded from Как надо SEO +шить не надо (Nikita Ulianov)
2024-Ranking-Factors-Study-RU.pdf
6.4 MB
Факторы ранжирования в Google 2024 (исследование от Semrush) - RU версия

Semrush выпустил исследование, посвященное анализу факторов ранжирования в Google. Не поленился и перевел его на русский язык для вас с помощью сервиса 😄🫶🏻

Как надо SEO +шить не надо 🔥
#google #ранжирование
Forwarded from DrMax SEO (DrMax)
🔊 Как удвоить трафик за несколько минут

Как я уже рассказывал, летом запустил несколько стартапов, потихоньку их развиваю, и вот после ноябрьских гугло-апдейтов часть страниц припало без всякой видимой на то причины.

Так дело не пойдет, подумал я и решил ловко переделать эти странички.

В качестве помощника выбрал Барда - новую поделку от Гугла, которая отличается от всяких там ЧатГПТ более совершенной системой мЫшления и близостью к источникам данным (Гуглу). К сожалению, пока напрямую странички сайта скормить Барду нельзя (так то можно, но через опу), так что, я написал вот такой промпт:

Check the credibility and objectivity of the content of the article. Analyze what prevents it from ranking. Suggest ways to improve the content of the article from an SEO perspective for better ranking. Here is this article:


и скопипастил ему статью. Вообще, лучше всего копипастить не текст, а текстовый Гугл кэш ( но поговаривают что гугел его скоро отключит).

Если на родном языке - то я прошу:
Проверьте достоверность и объективность содержания статьи. Проанализируйте, что мешает ее ранжированию. Предложите способы улучшить содержание статьи с точки зрения SEO, чтобы она лучше ранжировалась. Вот эта статья:


Бард выдал мне огромную структурированную портянку со всеми недочетами и предложениями. Я завел Экселевский файлик и копипастил в него предложения со всех вкладок черновиков Барда, при этом я несколько раз просил переписать анализ, играясь с тональностью, длинной и прочими настройками (кнопки под окном запроса).

В итоге у меня вышло более 40 предложений, начиная от создания дополнительных секций в статье и заканчивая оптимизацией под неведомые, но довольно релевантные ключи.

Далее я попросил собрать дополнительные ключи для статьи:
What keywords do you think should be used to optimize the content of an article. Provide a list of such keys.


Опять смотрим все вкладки черновиков и перезапускаем пару раз. Собираем все ключи.

Ну и напоследок можно посмотреть, как будет выглядеть идеальная статья на эту тему с точки зрения Барда:
Based on your research, unique and rewrite the content of the article following the suggested rules and tips for content improvement. 


Далее, на основании всего вышесказанного я переделал странички, засунул их в индекс и через пару дней с удовольствием наблюдал могучий рост просмотров / трафа.

Вот такие нехитрые исследования помогают реализовать давнюю стратегию об обрезании контента (расписывал на drmax.su).

Для работы Барда нужен VPN (см в закрепе). Работает он на всех языках, но не на всех территориях.

Если будет интересно - расскажу как использовал Барда в конкурентной борьбе. Но потом. Пишите в комментах.

ЗЫ
забыл добавить, что переписывать контент я поручил Клавдии, ибо она делает самый качественный контент (из всех генераторов), при условии правильной настройки тональности, академичности и профессиональности.

#DrMax #Google #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from BAKALOV.INFO
🔍 Google и тексты, часть 7

Короче, еще один сайт, который не вписывается в мою картину мира и мою методику проверки на текстовый фильтр в Google.

⚠️ Напомню, основная идея в том, что часто GSC показывает, что страница находится в «индексе», но при этом не ранжируется. Страницу также можно найти по [site:адрес_страницы]. Если страница «проблемная», то она не ищется по ключам и не ищется по запросу [inurl:адрес_страницы].

Также я применяю подход с маркерами, это своего рода «слово», которое встречается только на моей странице. При поиске по этому слову она всегда также должна находиться, т.к. нет других документов в базе Google.

На определенном количестве сайтов и урлов замечено, что если страница не ищется по маркеру, то и по нормальным ключам она искаться не будет. Отдельно замечу что по запросу [МАРКЕР site:адрес_страницы] урл находится, а по [МАРКЕР inurl:адрес_страницы] и просто [МАРКЕР] не находится.

В целом данный подход позволяет достаточно точно находить зафильтрованные урлы и играться с текстами, чтобы решить проблему.

❗️ Ну так вот, свежий пример, который не вписался в эту схему. Взял дроп домен, развернул на нем страницу, вписал маркер, переиндексировал в GSC. Снимаю позиции – по inurl и маркеру не ищется. Думаю надо корректировать текст. Захожу в GSC, а там показы по ключам. Снимаю по этим ключам позиции – сайт по ним ранжируется.

Еще раз – по уникальному слову, которое есть только на целевой странице НЕ ранжируется, а по ключам ранжируется. При поиске с ограничением по сайту вида [МАРКЕР site:адрес_страницы] целевая страница находится, а по [МАРКЕР inurl:адрес_страницы] и просто [МАРКЕР] нет.

😠 Бесит короче

P.S. Хочется верить, что просто глюк и через день-два начнет нормально искаться и по маркерам. Ну или что хуже, но тоже не рушит схему - обвалится по ключам.

Прошлые части:

🟠Google и тексты, часть 1
🟠Google и тексты, часть 2
🟠Google и тексты, часть 3
🟠Google и тексты, часть 4
🟠Google и тексты, часть 5
🟠Google и тексты, часть 6

#google #googletext
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DrMax SEO (DrMax)
Please open Telegram to view this post
VIEW IN TELEGRAM