Forwarded from DrMax SEO (DrMax)
Как нынче можно прятать ссылки от Гугла
Во оно как стало! Теперь Гугл переходит только по ссылкам, в которых используется тег <a> с атрибутом href. Прочие форматы не поддерживаются. Это означает, что Google не может обрабатывать теги <a> без атрибута href и теги, которые используют события скриптов и функционируют как ссылки.
URL ссылки в теге <a> должен представлять собой действительный веб-адрес, на который робот Googlebot может отправлять запросы.
Т.е. официально Гугл отказался от разбора забубенных вариантов ссылок, которые нарабатывали годами SEO-шники.
Теперь любую ссылку можно закрыть банальным <a onclick="goto(' https://example.com ')">
ПРУФ: https://developers.google.com/search/docs/advanced/guidelines/links-crawlable (Last updated 2022-03-02)
#DrMax #Google #Links #SEO
Во оно как стало! Теперь Гугл переходит только по ссылкам, в которых используется тег <a> с атрибутом href. Прочие форматы не поддерживаются. Это означает, что Google не может обрабатывать теги <a> без атрибута href и теги, которые используют события скриптов и функционируют как ссылки.
URL ссылки в теге <a> должен представлять собой действительный веб-адрес, на который робот Googlebot может отправлять запросы.
Т.е. официально Гугл отказался от разбора забубенных вариантов ссылок, которые нарабатывали годами SEO-шники.
#DrMax #Google #Links #SEO
Forwarded from DrMax SEO (DrMax)
👴 Мюллер в канале: Про дропнутые домены.
Джон Мюллер на днях высказался, что использование дропов и поднятых на них сайтах является SEO - мошенничеством. Конечно вы можете использовать дропы для создания новых сайтов, но не рассчитывайте, что вам удастся получить выгоду от старого ссылочного, просто разместив сайт на старом домене.
Далее он пригрозил: поисковые системы имеют большой опыт борьбы с этим.
Если припомнить, то аккурат 3-4 года назад Google крайне ловко вырезал большинство PBN сетей и нивелировал ссылочное на дропах. После этого сайты на дропах опять задропились и новое поколение якобы оптимизаторов опять их перехватили.
В связи с продолжающимся спам апдейтом, такие высказывание величайшего в мире SEO гуру ничего хорошего для PBN в целом и дропам в частности не несет.
А может Мюллер опять темнит. Кто знает.
Оригинал высказывания размещен в Твиттере.
#DrMax #SEO #PBN #Google
Джон Мюллер на днях высказался, что использование дропов и поднятых на них сайтах является SEO - мошенничеством. Конечно вы можете использовать дропы для создания новых сайтов, но не рассчитывайте, что вам удастся получить выгоду от старого ссылочного, просто разместив сайт на старом домене.
Далее он пригрозил: поисковые системы имеют большой опыт борьбы с этим.
Если припомнить, то аккурат 3-4 года назад Google крайне ловко вырезал большинство PBN сетей и нивелировал ссылочное на дропах. После этого сайты на дропах опять задропились и новое поколение якобы оптимизаторов опять их перехватили.
В связи с продолжающимся спам апдейтом, такие высказывание величайшего в мире SEO гуру ничего хорошего для PBN в целом и дропам в частности не несет.
А может Мюллер опять темнит. Кто знает.
Оригинал высказывания размещен в Твиттере.
#DrMax #SEO #PBN #Google
Forwarded from DrMax SEO (DrMax)
🚀 Анализ индексации сайта в GSC
У Гугла есть свое мнение на то что нужно запихивать в индекс, а что не нужно. И никакие запреты в robots.txt или в прописанных каноникалах не смогут убедительно заставить Гугл индексировать или не индексировать страницы.
Благодаря этому, в индекс попадают страницы, которых там не должно быть, а иногда (покажу в комментариях) Гугл дает подсказку как лучше индексировать страницы, дабы собрать дополнительный трафик.
Всего у меня в арсенале несколько (не)-хитрых проверок, которые я (иногда) применяю при аудитах клиентских сайтов. Сейчас я расскажу об одной такой.
Проверка на вхождение в URL специфических символов. Так мы ищем не только мусор в индексе, но и отличные примеры, как наращивать трафик, подсовываемые самим Гуглом.
Итак, проходим в GSC, раздел "результаты поиска":
1. Над диаграммой жмем "+ Новый"
2. Выбираем "Страница"
3. В фильтре запроса выбираем "Специальные запросы (регулярные выражения)"
4. Вводим регулярку:
6. Включаем в диаграмме вывод всех данных (клики, показы, CTR и позиции)
7. Смотрим на вкладки ниже диаграммы и выбираем вкладку "Страницы". Здесь будут собраны все страницы, в URL которых есть нестандартные символы.
Анализируем, приходим к определенным выводам, исправляем (если нужно).
В комментариях я привел несколько скринов и примеров с анализом.
#DrMax #GSC #regex
У Гугла есть свое мнение на то что нужно запихивать в индекс, а что не нужно. И никакие запреты в robots.txt или в прописанных каноникалах не смогут убедительно заставить Гугл индексировать или не индексировать страницы.
Благодаря этому, в индекс попадают страницы, которых там не должно быть, а иногда (покажу в комментариях) Гугл дает подсказку как лучше индексировать страницы, дабы собрать дополнительный трафик.
Всего у меня в арсенале несколько (не)-хитрых проверок, которые я (иногда) применяю при аудитах клиентских сайтов. Сейчас я расскажу об одной такой.
Проверка на вхождение в URL специфических символов. Так мы ищем не только мусор в индексе, но и отличные примеры, как наращивать трафик, подсовываемые самим Гуглом.
Итак, проходим в GSC, раздел "результаты поиска":
1. Над диаграммой жмем "+ Новый"
2. Выбираем "Страница"
3. В фильтре запроса выбираем "Специальные запросы (регулярные выражения)"
4. Вводим регулярку:
[^\/\.\-:0-9A-Za-z_]
5. Жмем "Применить"6. Включаем в диаграмме вывод всех данных (клики, показы, CTR и позиции)
7. Смотрим на вкладки ниже диаграммы и выбираем вкладку "Страницы". Здесь будут собраны все страницы, в URL которых есть нестандартные символы.
Анализируем, приходим к определенным выводам, исправляем (если нужно).
В комментариях я привел несколько скринов и примеров с анализом.
#DrMax #GSC #regex
Forwarded from DrMax SEO (DrMax)
Индекс Google работает по принципу Wayback Machine. Он предназначен для долговременного хранения множества копий страниц. Это дает поисковой системе возможность сравнивать версии страниц и определять, как часто необходимо просматривать страницу в зависимости от частоты ее существенных обновлений.
Это хранилище используется также для сравнения корреляции. Отсюда есть несколько крайне важных выводов.
1. Недостаточно купить дроп-домен, набросать на него нерелевантный контент (на существовавшие ранее URL) и ждать, что он займет прежние позиции. Как правило, это не сработает.
2. Перенаправление URL на нерелевантный целевой (например, на домашнюю страницу) приводит к Soft 404. Это относится как к дропам, так и к работающим доменам. Google знает, что ранее находилось на исходном URL, и может сравнить то, что было проиндексировано ранее, с тем, что находится на целевом URL. Дословно: Мы не рекомендуем настраивать переадресацию с нескольких старых URL на одну страницу, контент которой не имеет к ним отношения, например на главную страницу нового сайта. Это может вводить пользователей в заблуждение и рассматриваться как ошибка soft 404.
3. Именно поэтому крайне нежелательно размещать ссылки на проиндексированных страницах (покупать ссылки). Необходимо добавить новый абзац с релевантным текстом и из него уже строить ссылку на ваш сайт.
и т.д. и т.п.
По сути, Google никогда не забывает о контенте, расположенном на странице. При этом он постепенно совершенствует свои возможности по использованию исторических данных для ограничения способов быстрого/несправедливого ранжирования, которые раньше работали крайне успешно.
Что по-прежнему работает, так это перемещение одного и того же контента со страницы А на страницу Б с применением 301-го редиректа. Это лучший способ сохранить траст, ранжирование и трафик.
Вообще, неспособность Гугла "забывать" контент крайне смущает оптимизаторов (тех кто об этом знал). Например, страницу со снятым с производства товаром необходимо перенаправлять на релевантную страницу, а не просто на какой то раздел, чтобы не профукать накопленный траст и не погрязнуть в Soft-404 ошибках. Неправильная работа с устаревшими страницами может попросту убить ранжирование.
Про дроп-сайты и говорить не хочу.Только единицы умеют управляться с ними и в большинстве случаев ссылки/редиректы дропов не принесут ничего хорошего.
Очень интересно, что вся проверка семантики строиться на векторах. Сейчас векторные сравнения и сопоставления контента выходят на первый план и по значимости превосходят влияние ссылочного.
Считается, что Гугл измеряет релевантность, вычисляя косинусное сходство векторов контента. Точно так же Google может вычислять сходность контента при определении того, связаны ли источник и цель 301 редиректа или простой ссылки, построенной вами на доноре. Он считает семантическое расстояние между страницей донора и акцептора и если оно находится в пределах определенного порога, то , например, 301 перенаправление допустимо и передается траст Если это не так, то это Soft 404s. Ну и совершенно аналогично и с простой ссылкой.
Таким образом, знание того как работает индекс Гугла поможет вам избежать досадных ошибок и ненужных трат.
А в целом это тема для огромной статьи, писать которую мне пока недосуг.
#DrMax #Google #Serp
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DrMax SEO (DrMax)
Согласно обсуждению в недавнем подкасте, качественный контент является основным фактором, влияющим на решения Google по индексированию и сканированию.
При этом:
В ходе разговора выяснилось, что планировщик сканирования Google использует сигналы качества для определения приоритета URL-адресов для сканирования. Если Google знает, что у него есть X URL-адресов для сканирования с сайта, он пытается создать упорядоченный список на основе его прогнозируемого качества.
Качество сайта может повлиять на процесс сканирования, даже если это новые сайты. Например, если новая страница обнаружена с помощью файлов Sitemap, Google оценит качество ранее просканированной домашней страницы, чтобы решить, сканировать ли новую страницу.
Иллиес объяснил, что качество может быть специфичным для разных частей веб-сайта.
Например, если одна часть сайта постоянно предоставляет высококачественный контент, к ней могут относиться иначе, чем к другой, известной контентом более низкого качества.
С другой стороны, если определенные части сайта постоянно содержат контент низкого качества, эти области могут сканироваться реже.
Пользовательский контент (UGC) был приведен в качестве примера, качество которого может варьироваться. Если в разделе пользовательского контента обнаружена тенденция к контенту более низкого качества, это может повлиять на поведение сканирования Google для этой конкретной части сайта.
Иллиес заверил слушателей, что они могут улучшить качество своего сайта, даже если раньше он содержал контент низкого качества. Он призывает владельцев сайтов удалять некачественный контент, чтобы улучшить остальную часть сайта.
Удаление некачественного контента может улучшить восприятие сайта Google, что может повлиять на то, как Google сканирует и индексирует оставшиеся страницы.
Хотя качество контента само по себе не гарантирует высокий рейтинг, выделение ресурсов для создания ценного, уникального контента, скорее всего, повысит позиции сайта в поиске.
#DrMax #SEO #Google #QualityContent
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DrMax SEO (DrMax)
Как я уже рассказывал, летом запустил несколько стартапов, потихоньку их развиваю, и вот после ноябрьских гугло-апдейтов часть страниц припало без всякой видимой на то причины.
Так дело не пойдет, подумал я и решил ловко переделать эти странички.
В качестве помощника выбрал Барда - новую поделку от Гугла, которая отличается от всяких там ЧатГПТ более совершенной системой мЫшления и близостью к источникам данным (Гуглу). К сожалению, пока напрямую странички сайта скормить Барду нельзя (так то можно, но через опу), так что, я написал вот такой промпт:
Check the credibility and objectivity of the content of the article. Analyze what prevents it from ranking. Suggest ways to improve the content of the article from an SEO perspective for better ranking. Here is this article:
и скопипастил ему статью. Вообще, лучше всего копипастить не текст, а текстовый Гугл кэш ( но поговаривают что гугел его скоро отключит).
Если на родном языке - то я прошу:
Проверьте достоверность и объективность содержания статьи. Проанализируйте, что мешает ее ранжированию. Предложите способы улучшить содержание статьи с точки зрения SEO, чтобы она лучше ранжировалась. Вот эта статья:
Бард выдал мне огромную структурированную портянку со всеми недочетами и предложениями. Я завел Экселевский файлик и копипастил в него предложения со всех вкладок черновиков Барда, при этом я несколько раз просил переписать анализ, играясь с тональностью, длинной и прочими настройками (кнопки под окном запроса).
В итоге у меня вышло более 40 предложений, начиная от создания дополнительных секций в статье и заканчивая оптимизацией под неведомые, но довольно релевантные ключи.
Далее я попросил собрать дополнительные ключи для статьи:
What keywords do you think should be used to optimize the content of an article. Provide a list of such keys.
Опять смотрим все вкладки черновиков и перезапускаем пару раз. Собираем все ключи.
Ну и напоследок можно посмотреть, как будет выглядеть идеальная статья на эту тему с точки зрения Барда:
Based on your research, unique and rewrite the content of the article following the suggested rules and tips for content improvement.
Далее, на основании всего вышесказанного я переделал странички, засунул их в индекс и через пару дней с удовольствием наблюдал могучий рост просмотров / трафа.
Вот такие нехитрые исследования помогают реализовать давнюю стратегию об обрезании контента (расписывал на drmax.su).
Для работы Барда нужен VPN (см в закрепе). Работает он на всех языках, но не на всех территориях.
Если будет интересно - расскажу как использовал Барда в конкурентной борьбе. Но потом. Пишите в комментах.
ЗЫ
забыл добавить, что переписывать контент я поручил Клавдии, ибо она делает самый качественный контент (из всех генераторов), при условии правильной настройки тональности, академичности и профессиональности.
#DrMax #Google #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DrMax SEO (DrMax)
Please open Telegram to view this post
VIEW IN TELEGRAM