SEO практика | Кравцов Виталий
3.89K subscribers
570 photos
19 videos
4 files
1.29K links
Кейсы поискового продвижения, практические примеры и актуальные новости SEO.

Админ канала: @vakravcov
Реклама: https://vk.cc/asufsX
Услуги: https://kravcov.tech
Download Telegram
Forwarded from 42 секунды
CNews: Яндекс открывает доступ к YandexGPT API для всех пользователей

– YandexGPT API будет доступна пользователям через Yandex Cloud
– Компания запускает программу грантов Yandex Cloud Boost AI
– На использование YandexGPT API можно получить 1 млн руб.
– Например, для создания своих чат-ботов, генерации текстов и др.
– Через YandexGPT API доступна LLM в асинхронном режиме
– При этом через сервис доступна и более простая модель
– Она лучше справляется со сложными текстовыми задачами
– Также доступна библиотека промтов для ключевых сценариев
– Во время теста для YandexGPT API было подано 20+ тыс. заявок

@ftsec
📈 Еще несколько лет назад позиции запросов и их частотность в Яндексе были понятной и наглядной величиной. Именно на них строились прогнозы по трафику или отчеты, которые потом демонстрировались клиенту.

Работало это примерно так: зная распределение CTR по выдаче и точную частоту, можно было достоверно оценить объем посетителей после получения определенной средней позиции по собранной семантике.

Сейчас эта метрика почти полностью потеряла свой смысл и вот почему:

Перекрученная накрутчиками частотность, совершенно не отражающая число запросов от реальных пользователей, которая и раньше сильно хромала. Итог - появление запроса в топе не приносит реальных посетителей, потому что их там может быть мало или совсем нет
Позиции в Яндексе отвязались от апдейтов и сейчас меняются в течении дня (дробные значения в мониторинге запросов)
По умолчанию в поиске включена опция "персонализации выдачи", про которую 99% людей даже не знают. Это означает, что во время поиска лично им выше будут показываться те сайты, на которых до этого они уже бывали
Позиции могут не только гулять в диапазоне нескольких пунктов, но и заходить и выходить из топ-100 хоть ежедневно. И дело совсем не в качестве оптимизации.
Нахождение в топе всего лишь повышает вероятность клика на сниппет, но не гарантирует его. Это важно понимать, что даже находясь в топ-1, можно совершенно не заинтересовывать людей кликнуть по нему
Поисковый трафик формирует огромный хвост НЧ запросов, а не как может показаться небольшая партия известных СЧ-ВЧ запросов

В сухом остатке, снимая позиции в любом сервисе, получаете данные на момент съема в режиме инкогнито для запросов с неизвестной реальной частотой. Ничего общего эти цифры с выдачей для живых посетителей не имеют, как следствие становятся совершенно бесполезными для анализа.

Лично мне сейчас интересны два параметры у сайта, которые определяют объем трафика и вероятность его получения: запросный индекс (на какое количество запросов у сайта есть посадочные страницы с ответом) и траст (объем трафика, на который можно рассчитывать), а семантика собирается лишь целью лучшего понимания намерений пользователей для создания релевантных посадок.

❗️Оценить запросный индекс можно скачав запросы из раздела "Мониторинг запросов" в Яндекс.Вебмастере (до 150к).
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Фокс про SEO и Деньги (Сергей Фокс)
💲Конкурс!💲
У меня тут творческий кризис, не знаю о чем писать в канале. Поэтому готов дать денег:)

Плачу 1000 рублей или эквивалент в любой валюте, за интересный вопрос или предложенную тему для канала.

Все просто: вы в комментах к этому посту пишете свой вопрос или предлагаете о чем написать пост на тему SEO/маркетинга, и если я смогу что-то ответить, то вы получаете деньги сразу, до выхода поста. Количество предлагаемых вариантов не ограничено;)

Бюджет - 30.000 рублей для начала, но не более 5.000 в одни руки:)

Погнали!
Please open Telegram to view this post
VIEW IN TELEGRAM
🧑🏻‍💻 📵 Как, что и когда закрывать от индексации: инструкция для вашего программиста

Иногда программисты и владельцы сайтов, сами того не желая, создают серьезные проблемы сеошникам, что может привести к потере видимости и прибыли.

Просто и понятно рассказываем о том, что и как программисты должны закрывать от индексации, чтобы случайно не навредить SEO.

▪️ Почему важно контролировать действия программиста и чем опасна несогласованность.

▪️ Простые методы закрытия от индексации всего сайта, группы страниц и одной страницы.

▪️ Шаблон ТЗ для программиста по закрытию страниц или сайта от индексации.

📌 Смотрите новое видео от Ant-team: https://youtu.be/i4UWal-54fI
Обновился сегодня до версии 4.0 и знаете, что понял?! Я 37,5% всей своей жизни занимаюсь SEO 😂
Жизненный цикл дорвеев! На скрине трафик из Yandex (Мск) одного из подобных сайтов. Дор сделан по модели PAA (people also ask). Если коротко, то собирается контент из соответствующего блока в органике и компилируется на посадочных под запросы. Я давно слежу за этим проектом, уж очень мне понравилось как проработана структура документов. Если кому интересно, в сети полно мануалов как лепить подобные доры.
Коллеги, у кого есть верстальщик, работающий с Bootstrap 5? Нужно собрать 2-4 страницы сайта. Поделитесь контактами.
Avito, трафик Yandex Мск 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
Яндекс такой Яндекс 🤮 Проблемы с МПК прилетают с завидной частотой... рандомно!
А потом он нам говорит, чтобы мы не крутили ПФ, типа это не этично и не экологично.
У кого-то сегодня диентная сетка доменов дропнулась!
Опять мысли про МПК 🤯

Чаще всего, шанс попасть под этот фильтр есть у проектов, где одномоментно выкатывается большое количество документов, и не важно какой тип проекта - это может быть как белый и пушистый магазин, так и агрегатор чего угодно.

Основные причины на мой взгляд - признаки дорвея (большое количество однотипных документов под широкую семантику) и отсутствие органического трафика на эти документы на старте.

Первый пункт решается порционной отдачей контента по мере попадания первой порции url в индекс и набора трафика из органики, второй за счет ПФ на эти документы в момент, когда вас подкинуло в ТОП бандитом.

И опять, мы приходим к тому, что естественным способом без плясок с бубном запускаться стало крайне сложно.

А как вы решаете проблему с МПК
О как 🍪🍪

Google начнёт тестировать отключение сторонних файлов cookie в Chrome c 4 января 2024 года

Полностью отключить их компания намерена ко второй половине 2024-го.
Тестирование затронет 1% пользователей браузера — точное их количество компания не называет, пишет The Verge. Участников тестов выберут случайным образом, при открытии Chrome они увидят уведомление о включённой «Защите от отслеживания». Эта функция автоматически блокирует сбор cookie-файлов при использовании сайта.
https://vc.ru/marketing/954107-google-nachnet-testirovat-otklyuchenie-storonnih-faylov-cookie-v-chrome-c-4-yanvarya-2024-goda
Сначала "что продавать", а потом "как продавать" и никак по другому.

У вебмастеров часто наоборот... Сначала сделают сайт, соберут какой-то определенный объем трафика и только потом думают как его монетизировать.

Такая последовательность действий сильно оттягивает момент первой прибыли.

Если изначально понимать что вы хотите продавать, то и вектор развития проекта будет совсем иной.

Всем профита 🤘
🔻Ищите Качественные SEO Услуги 🔻 MTPremium
#предлагаю #ссылки #крауд #seo

Хотите бесплатно получать ссылки с сайтов с хорошим DR, что индексируются и передают вес, тогда Подписывайтесь на наш телеграм канала - @mtpremium1 - чтобы бесплатно размещаться на сайтах 🚀

Также есть собственный сервис

‼️ ТИПЫ ССЫЛОК:
Аутрич;
Крауд;
Крауд форумы
Комментарии под статьями
Комментарии под статьями на ЭДУ сайтах
Крауд статейные WEB 2.0
Крауд трастовые сабмиты
Крауд статейные c блогов
Сабмиты ( профили, каталоги);
GSA.

📍Крауд Маркетинг📍
Текст пишется нейтивом
Качественные, модерируемые площадки
Гарантия на ссылки в течении года.
Ссылки проставляются постепенно(drip-feed).
50% DF
DR средний 50+
Топики исключительно релевантные под ваш сайт, не заспамленные.

Подберём соответствующую цену для вашего запроса + от нас скидка 10%

📍Outreach Guest Posting📍

Мы подберём лучшие ссылки под ваш бюджет. Работаем за фиксированную цену и более того, вы сами оплачиваете напрямую рекламодателю.

Есть и 📍SEO Услуги📍 SEO AUDIT.

US🇺🇸, GB🇬🇧, AU🇦🇺, DE🇩🇪,FR🇫🇷, IT🇨🇮, IN🇮🇳,ES🇪🇸,PL🇵🇱,PT🇵🇹,CA🇨🇦,JP🇯🇵...

Наш контакт @mtpremium
⚙️ Скрипт для быстрой очистки семантики на основе топа

Идея предложена ребятами из MOAB, а это максимально простая реализация на Python.

Напомню суть: чтобы понять относится ли запрос к вашему сайту или нет, нужно собрать список наиболее близких конкурентов и посчитать, сколько раз они встречаются в топе по семантике.

Если в топ-10 хотя бы 2 ваших конкурента, то однозначно он релевантен и вам. Если в топе нет ни одного конкурента, то запрос можно удалить.

Считая для каждого запроса количество «баллов» можно быстро отфильтровать семантику и удалить запросы набравшие 0 или 1 балл.

Область применения скрипта не только в чистке семантики, но и для определения коммерческости запроса (например, по наличию Яндекс.Услуг / Маркета)

Как работать со скриптом
Устанавливаем Python
Выгружаем семантику из необходимых источников: Яндекс.Вебмастер, Поисковые подсказки, Яндекс.Wordstat, Keys.so
Собираем данные выдачи, например, через KeyAssort
Приводим к формату запрос;url1;...;url10 в текстовом файле input.txt (экспорт данных в XLSX в программе KeyAssort)
Сохраняем код питона в файл cleankeys.py и кладём рядом с input.txt, не забываем указать конкурентов (больше - точнее)
Запускаем скрипт, получаем файл finish.csv, в котором содержится колонка с баллами.
Средствами экселя фильтруем запросы, набравшие 0 или 1 балл

Результат на скриншоте, ссылка на код скрипта.
Please open Telegram to view this post
VIEW IN TELEGRAM
Как массово определить тип сайта и его тематику с помощью ChatGPT 3.5

Зачем? Для быстрой фильтрации тематичных сайтов/дропов по списку, а также для классификации сайтов по типу коммерческий/информационный.

Сначала покажу результаты:

ozon.ru - Коммерческий/Электронная коммерция/Интернет-магазин
beget.com - Коммерческий/Веб-хостинг/Доменные услуги
ogorodum.ru - Информационный/Садоводство/Растениеводство

Как получил

Beget по ссылке https://www.bukvarix.com/site/?q=сайт&region=msk&v=cloud отдает облако популярных ключевых слов из семантического ядра под Яндекс (https://clip2net.com/s/4jZXKvW). Под Google - https://www.bukvarix.com/site/?q=ozon.ru&region=gmsk&v=cloud.

Вместо "сайт" подставляем нужный сайт, например ozon.ru. Тогда ссылка будет выглядеть вот так - https://www.bukvarix.com/site/?q=ozon.ru&region=msk&v=cloud.

Собираем в Excel ссылки с нужными сайтами (через функцию Сцепить). Далее добавляем эти ссылки в парсер Content Downloader (готовый шаблон) и парсим. В итоге получается такая табличка - https://clip2net.com/s/4jZYidF.

Далее собираем (опять же через Excel, функция Сцепить) под список сайтов промт по такой структуре:

На основе облака популярных слов из семантического ядра: ключевое слово 1, ключевое слово 2, ключевое слово 3. Определи тип сайта (коммерческий или информационный), тематику и подтематику сайта. Напиши ответ строго 1-2 слова в таком виде: Тип сайта/Тематика/Подтематика

Пример:

На основе облака популярных слов из семантического ядра:описание,фото,отзывы,сорта,огурец,клубника,роза,порода,картофель,лук,f1,характеристика,кур,хранить,домашних,условиях,кроликов,груша,цена,браун,зиму,ломан,уход,яблоня,белый,свиней,посадка,яблоки,коломбо,свеклу,сидерат,сохранить,скарлет,правильно,утка,садоводов,вишня,поросята,бегония,вырастить,королева,индюки,плетистая,анна,дюрок,избавиться,ред,спартан,клематис,семян,стурон,выращивание,бамбергер,симпатия,посадить,духовке,паннон,свежие,имант,заморозить,орехи,томат,петуния,сажать,налив,штутгартер,помидоры,лечение,севок,кормить,широкогрудая,сенсация,бройлерные,участке,герман,коров,рожь,манго,ронсар,фламентанц,грибы,шампиньоны,ампельная,гусей,меренга,гигант,каскадная,черный,пьер,фиалки,феерия,горчица,молодежная,любимица,репчатый,после,конвертер,холодильнике,ризен,чижовская. Определи тип сайта (коммерческий или информационный), тематику и подтематику сайта. Напиши ответ строго 1-2 слова в таком виде: Тип сайта/Тематика/Подтематика

Далее последовательно подаем запросы по API или через скрипт сбора данных из интерфейса ChatGPT 3.5 и за копейки получаем быструю классификацию по нашему списку сайтов.

P.S. Промт можно модифицировать под свои нужды.
Forwarded from noindex, nofollow
OpenAI выпустили официальное руководство по prompt engineering - составлению промтов для ChatGPT,
с описанием подходов, которые можно применять для получения лучших результатов и примерами.
Зачем сеошнику понятно формулировать мысли и как это делать

Сеошнику приходится много общаться: с коллегами, клиентами, подрядчиками и т.д. И результат его работы напрямую зависит от того, как он умеет коммуницировать.

🗣 Если вы научитесь логично выстраивать, грамотно аргументировать и лаконично излагать свои мысли, то это поможет вам сократить время, которое вы тратите на коммуникацию, и потратить его на более приоритетные для вас задачи.

В этом видео вы узнаете:

▪️ Почему сеошнику важно понятно формулировать мысли.

▪️ Как прокачать коммуникативные навыки.

▪️ Важные принципы и мысли из различных техник и книг.

▪️ Полезные упражнения на лаконичность письменной и устной речи.

▪️ Что почитать, чтобы прокачать этот скил.

📌 Смотрите видео по ссылке: https://youtu.be/0etmp9mkTiE