Как бесплатно парсить ключи и объявления конкурентов из яндекс.директа и google ads

Проработка вглубь

Вот мы и собрали весь список возможных дополнений к нашим базовым ключам, что же делать дальше? А дальше нужно подготовить список ключевых фраз для еще большей проработки вглубь — поиска запросов со всеми возможными уточнениями. 

Необходимо по очереди скомпоновать между собой ключи из разных столбцов, «перемножить» их друг с другом, получив все возможные комбинации. В решении этого вопроса помогут специальные программы, например, генератор фраз PPC-help. Вставляем наши ключи из столбцов таблицы Excel и получаем готовый список ключевых фраз, которые позже мы используем для парсинга в KeyCollector:

Генерация фраз в программе PPC-help

Таким образом, мы собрали семантическое ядро для дальнейшего парсинга. Потратьте еще немного времени и проверьте весь список ключевых фраз. Все ли они соответствуют вашей тематике? Все ли они описывают ваши услуги или продукты? Если есть лишние, удалите их, это сэкономит много времени в будущем.

Список готов? Приступайте к парсингу в Key Collector. Это незаменимый инструмент в работе специалиста по контекстной рекламе. Он значительно упрощает процесс создания семантического ядра, собирая запросы на основе загруженных масок ключевых фраз.

Запускайте программу, загружайте ключи, не забудьте выбрать целевой регион и ждите результатов. Помните, что после получения списка из Key Collector необходимо избавиться от дублей типа «доставка цветы москва» и «москва цветы доставка», чтобы в дальнейшем исключить конкуренцию внутри кампании. Также нужно удалить нецелевые запросы, по которым мы не хотим рекламироваться, сохранив при этом список минус-слов в отдельный файл

В финале важно провести кластеризацию, разбив фразы на тематические группы. Все это удобно делать прямо в Key Collector

Как видим, сбор семантического ядра является трудоемким и затратным по времени процессом, но важным этапом создания кампании, поскольку от качества семантики напрямую зависит успешность рекламы, а значит, и финансовая отдача.

Удачных вам рекламных кампаний!

С чего начать подбор ключевых слов для сайта

Программу подбора ключевых слов для сайта следует начинать с определения тематической направленности всего веб-ресурса и фраз, которые пользователь станет вбивать в строку поиска для получения нужной информации. К примеру, если вы занимаетесь производством и продажей дверей, то подходящие для вас запросы будут звучать примерно так: «двери», «двери входные», «двери межкомнатные», «двери цена» и прочее. Чтобы грамотно осуществить подбор возможных формулировок, ваш оптимизатор должен быть достаточно эрудирован.

Правильный подход при подборе ключевых слов для сайта — собирать их отдельно для каждой страницы ресурса. В первую очередь потому, что всего ключей получится очень много. И это колоссальный труд — правильно распределить их (после того, как они сформулированы) по всем страницам сайта, не запутавшись. Не лучше ли сразу осуществлять подбор поочередно к каждой конкретной странице?

Кроме того, выполняя SEO-оптимизацию, крайне важно учитывать интересы пользователей. Одним нужна информация с одной страницы, другим — с другой, и каждый при этом будет пользоваться определенным набором ключей

И тут необходимо обеспечить перевод клиента именно на ту страницу, где он получит искомые сведения.

Простой пример: компания производит и продает двери. И в процессе подбора ключевых слов для ее сайта было выявлено 100 комбинаций. SEO-специалист, распределяя их по страницам, фразу «фото дверей» прикрепил к странице, где представлены расценки. Он сделал так лишь потому, что на этой странице кроме цен было еще и несколько фотографий дверей.

Однако данный запрос оказался более актуальным для раздела «Фотогалерея», который специально был создан для демонстрации всевозможных экземпляров готовой продукции и включал в себя огромное количество фотографий вместо двух-трех.

Тут очень важно, чтобы клиент по запросу перенаправлялся именно на ту страницу, которая в полной мере отразит его потребность.

Поэтому логичнее, пожалуй, не собрать кучу запросов и потом думать, как лучше разбросать их по сайту, а сразу выполнять подбор ключей применительно к содержанию конкретной страницы.

Понятно, что подбор ключевых слов для сайта предполагает знание его общей структуры, предполагаемых разделов и планируемого содержания для них. На это придется потратить время, и тем не менее лучше начинать собирать запросы поочередно для каждой страницы, а затем составлять общий список, хотя в некоторых редких случаях удобнее действовать наоборот.

Способ 2. Собираем запросы «с хвостами» на площадках вопросов и ответов

Ответы Mail.ru, Тостер, The Question – хорошие источники «живых» НЧ-запросов.

Для примера зайдем на Тостер. Вводим в поиске запрос по нашей тематике – «как выбрать домен». В результатах поиска отобразятся похожие вопросы – их нам выгодно собрать и использовать как НЧ-семантику.

Естественно, вручную вопросы мы копировать не будем. Их также можно спарсить с помощью Xpath. Если мы используем Scraper, то последовательность действий будет такой:

  1. Кликаем правой кнопкой мыши по любому вопросу.

  2. В контекстном меню кликаем по пункту «Scrape similar…».

  1. Парсер соберет все вопросы со страницы. Жмем «Copy to clipboard» и вставляем в файл с семантикой (Excel или Google Таблицу).

Если используете другой Xpath-парсер

Например, Screaming Frog SEO Spider.

Нужно получить Xpath-запрос, с помощью которого парсер соберет вопросы со страницы. Для этого кликаем правой кнопкой мыши по любому вопросу и выбираем пункт «Просмотреть код». Кликаем правой кнопкой по html-коду вопроса (подсвеченный фрагмент), жмем Copy → Copy Xpath.

Код запроса вставляем в парсер и загружаем URL страниц, на которых нужно собрать вопросы. Подробная инструкция по парсингу с помощью XPath в Screaming Frog SEO Spider – здесь.

Парсинг в Google Таблицах

Если вы не хотите искать и устанавливать бесплатные парсеры (или покупать Screaming Frog), используйте Google Таблицы. С помощью одной функции и Xpath-запроса вы можете спарсить любой элемент с практически любого сайта.

Функция и синтаксис:

=IMPORTXML(”URL”;”Xpath-запрос”)

Разместите URL страницы, которые хотите спарсить, в ячейке таблицы. А в формулу функции первым значением укажите адрес этой ячейки. Так вам будет удобнее работать с формулой, если нужно спарсить данные с нескольких URL.

В Google Таблицах много полезных формул, которые упрощают работу SEO-специалистам и тем, кто самостоятельно работает с семантикой. Больше таких формул вы найдете в .

Еще один способ собрать вопросы

Сервис AnswerThePublic подбирает широкий пул вопросов, слов с предлогами и похожих фраз на основе одного базового запроса.

Сервис англоязычный, но с недавних пор поддерживает русский язык и подходит для сбора русскоязычной семантики.

Как это работает

Заходите на сайт сервиса, выбираете русский язык, указываете ключевую фразу, для которой нужно подобрать запросы и жмете «Get Questions».

Сервис подбирает ключевики и визуализирует в таком виде:

Нажмите «Download CSV», чтобы выгрузить ключевые слова в таблицу.

Вот так выглядит таблица с выгрузкой подобранных ключей:

Сервисы для анализа видимости конкурентов

  • semrush.com — сервис анализа ключевых слов конкурентов;
  • spywords.ru — анализ поисковых запросов конкурентов в контекстной рекламе и поиске;
  • prodvigator.ua — сервис для анализа конкурентов и подбора ключевых фраз;
  • serp.advse.ru — сервис анализа ключевых слов конкурентов;
  • wordstat.io — инструмент для анализа конкурентов, мониторинга выдачи и рекламы;
  • advodka.com — анализ видимости в Яндекс и Google
  • megaindex.ru — бесплатный инструмент по определению видимости сайта
  • keys.so — платный инструмент для анализа ключевых слов конкурентов.
  • topvisor.ru — парсинг запросов из разных источников (Яндекс, Google, Mail.Ru)

Кластеризация семантического ядра

Уверен, что ранее тебе уже доводилось слышать это слово применительно к поисковому продвижению. Давай разберемся, что же это за зверь такой и зачем он нужен при продвижении сайта.
Классическая модель поискового продвижения выглядит следующим образом:

  • Подбор и анализ поисковых запросов
  • Группировка запросов по страницам сайта (создание посадочных страниц)
  • Подготовка seo текстов для посадочных страниц на основе группы запросов для этих страниц

Для облегчения и улучшения второго этапа в списке выше и служит кластеризация. По сути своей — кластеризация это программный метод, служащий для упрощения этого этапа при работе с большими семантиками, но тут не все так просто, как может показаться на первый взгляд.

Для лучшего понимания теории кластеризации следует сделать небольшой экскурс в историю SEO:

Проще всего описать данный термин можно как потребность пользователя, его желание. Интент является ни чем иным, как желанием пользователя, вводящего поисковый запрос.
Основа группировки семантики — собрать в одну группу запросы, имеющие один и тот же интент, либо максимально близкие интенты, причем тут всплывает сразу 2 интересных особенности, а именно:

  • Один и тот же интент могут иметь несколько запросов не имеющих какой-либо семантической близости, например – “обслуживание автомобиля” и “записаться на ТО”
  • Запросы, имеющие абсолютную семантическую близость могут содержать в себе кардинально разные интенты, например, хрестоматийная ситуация – “мобильник” и “мобильники”. В одном случае пользователь хочет купить телефон, а в другом посмотреть фильм

Так вот, группировка семантики по семантическому соответствию никак не учитывает интенты запросов. И группы, составленные таким образом не позволят написать текст, который попадет в ТОП. Во временя ручной группировки для устранения этого недоразумения ребята с профессией «подручный SEO специалиста» анализировали выдачу руками.

Суть кластеризации – сравнение сформировавшейся выдачи поисковой системы в поисках закономерностей. Из этого определения сразу следует сделать для себя заметку, что сама кластеризация не является истиной в последней инстанции, ведь сформировавшаяся выдача может и не раскрывать полностью интент (в базе Яндекс может просто не быть сайта, который правильно объединил запросы в группу).

Механика кластеризации проста и выглядит следующим образом:

  • Система поочередно вводит все поданные ей запросы в поисковую выдачу и запоминает результаты из ТОП
  • После поочередного ввода запросов и сохранения результатов, система ищет пересечения в выдаче. Если один и тот же сайт одним и тем же документом (страница сайта) находится в ТОП сразу по нескольким запросам, то эти запросы теоретически можно объединить в одну группу
  • Становится актуальным такой параметр, как сила группировки, который говорит системе, сколько именно должно быть пересечений, чтобы запросы можно было добавить в одну группу. К примеру, сила группировки 2 означает, что в выдаче по 2-м разным запросам должно присутствовать не менее двух пересечений. Говоря еще проще – минимум две страницы двух разных сайтов должны присутствовать одновременно в ТОП по одному и другому запросу. Пример ниже.
  • При группировках больших семантики становится актуальна логика связей между запросами, на основе которой выделяют 3 базовых вида кластеризации: soft, middle и hard. О видах кластеризации мы еще поговорим в следующих записях этого дневника

Пример: 

Кластеризация позволяет очень быстро обработать огромные массивы информации и разбить семантику на группы, обойдя множество ошибок, которые допустил бы оптимизатор при ручной группировке.
Очень важно понимать, что кластеризация по ТОП дает не финальный результат, а промежуточный, именно поэтому машинную кластеризацию необходимо дорабатывать вручную и об этом мы так же поговорим в следующих статьях

Для чего нужен Яндекс.Вордстат

Яндекс.Вордстат — бесплатный сервис для получения статистики поисковых запросов в Яндексе. С помощью сервиса можно посмотреть, сколько раз пользователи искали определенный поисковой запрос на протяжении месяца. Но это далеко не всё.

Какие данные выдает Вордстат

1. Статистика по частотности:

  • указанного запроса;
  • запросов, которые содержат указанную фразу или слово.

2. Похожие запросы для расширения семантики.

3. Данные по частотности с разбивкой по регионам и городам.

4. Данные по показам с разбивкой по типу устройств (десктопы, смартфоны, планшеты).

5. Сезонные колебания спроса по выбранной фразе (динамика популярности фразы за прошедшие два года в разрезе месяца или недели с разбивкой по типу устройств).

Платный сервис в заключении

В заключении расскажу о сервисе парсинга для развитием которого я занимаюсь — iDatica. Мы делаем разработку парсеров и сопровждающих услуг: очищаем данные, сопоставляем (матчим) товары, визуализируем информацию в Bi сервисах, делаем это качественно, под ключ.

Мы не предлагаем бесплатный тариф, почему наши услуги нужны, если есть готовые и даже бесплатные сервисы? Если кратко, для работы с сервисами-продуктами требуются сотрудники, которые будут с ними работать, требуется время на изучение функциональности, более того не во всех случаях способны справиться с парсингом нужных сайтов.

Если говорить более развернуто — мы поможем, когда продукт, не может собрать данные с нужного сайта, например, большинство даже платных версий сервисов из списка, при тестировании не справились с парсингом Яндекс.Маркет, а тем или иным способом защищаются от парсинга многие коммерческие сайты. Мы напишем логику парсинга под ваши требования, например, сначала найти на сайте нужную информацию, выбрать категории, бренды, парсинг набора ссылок или парсинг сайта с нестандартной структурой. Мы сравним ваши товары и товары конкурентов с максимальной точностью, в противовес — автоматические алгоритмы сравнения товаров часто не отрабатывают на 100% и требуют ручной доработки с вашей стороны, а часть сервисов потребует предварительно сопоставить ваши товары и товары конкурентов, а если какие-то адреса карточек изменяться, делать это придется заново. Все это выливается в оплату сервиса, оплату труда сотрудника, который работает с сервисом, а если сервис в конечном итоге не справится, в потраченное время и необходимость искать новый сервис. Выбирая работу с нами, вы просто будете получать нужный результат в готовом виде.

Способ 1. Парсим похожие вопросы с выдачи Google

Введите в поиске Google любой информационный запрос. Например, в формате «как сделать…». В выдаче, скорее всего, кроме обычных сниппетов появится блок с похожими вопросами. Выглядит он вот так:

При клике по любому вопросу он раскрывается, отображается ответ (релевантный фрагмент контента) и ссылка на страницу, откуда этот ответ взят.

Также при раскрытии одного вопроса ниже появляются новые вопросы. Соответственно, чем больше вопросов вы раскроете, тем больше появится новых вопросов и ответов.

Что с этим делать?

«Похожие вопросы» — тот самый источник низкочастотных запросов, о котором могут не догадываться ваши конкуренты. Алгоритм работы такой:

  1. Открыть как можно больше вопросов (чтобы подгрузились новые и список был больше).
  2. Собрать вопросы в файл.
  3. Оптимизировать под них существующий контент на сайте или создать новые страницы.

Собрать вопросы можно вручную: раскрыть как можно больше, выделить их, затем скопировать и вставить в Google Таблицы или Excel. Минус такого способа скопируется лишний контент (ссылки и картинки).

Такую табличку нужно будет почистить от ненужного контента, чтобы остались только вопросы.

Но проще спарсить вопросы с помощью Xpath-парсера. Если вы не знакомы с Xpath, это не проблема. Это специальный язык запросов, с помощью которых можно извлечь содержимое любого html или xml документа. Для парсинга вопросов, на самом деле, о Xpath больше знать ничего и не нужно. Но если хотите узнать больше о синтаксисе языка и возможностях использования, почитайте документацию.

Сбор запросов с помощью Xpath-парсера

Откройте все вопросы, которые показываются в блоке изначально, а затем откройте новые вопросы, которые появились после открытия первых.

Не ограничивайте себя: откройте максимальное количество вопросов – чем больше, тем лучше. Удобнее всего начать с нижних вопросов и открывать их снизу вверх.

4. Кликните по иконке Scraper’а, в меню расширения выберите пункт «Scrape similar…».

5. Откроется окно парсера. В блоке Selector выберите Xpath в выпадающем списке, а в поле справа введите «//g-accordion-expander».

Обратите также внимание на блок «Column». Заполните его так, как показано на скриншоте:

Затем нажмите кнопку «Scrape».

В правой области окна появятся данные, которые собрал парсер. Теперь их нужно привести в удобный для использования вид. Если мы их в таком виде вставим в Excel, работать с ними будет достаточно непросто:

С таким текстом можно справиться с помощью формул: разбить текст на колонки и затем взять только вопросы.

Но нет смысла ломать голову, так как есть готовое решение. Для этого нужны Google Таблицы и этот шаблон. Откройте шаблон и нажмите «Файл → Создать копию».

Откройте копию и перейдите на лист «Google Questions and Answers».

Дальше последовательность действий такая:

  1. В интерфейсе парсера (Scraper) кликаем по кнопке «Copy to clipboard».

  2. Переходим в таблицу с шаблоном и устанавливаем курсор в ячейку А10 (с содержимым «Text»).

  1. Нажимаем сочетание клавиш Ctrl Shift V. Собранные парсером значения будут вставлены в первый столбец таблицы, а в остальных столбцах формулы разобьют сплошной текст на фрагменты (вопрос, ответ и другие).

  2. Открываем лист «Clean Data» – в столбце «Question» будет список вопросов, очищенный от дубликатов. Копируем список и вставляем его в отдельную таблицу или текстовый файл.

Обратите внимание! После такой процедуры у вас на руках не только список перспективных НЧ-запросов, но и практически готовый контент-план для статей

Как работает генератор ключевых слов?

Генератор ключевых фраз представляет собой автоматизированное решение для создания новых ключевых слов и сочетаний на основе их перемножения в общую фразу. С его помощью построение списка ключевых фраз существенно ускоряется и упрощается. Пересечение слов происходит между всеми указанными столбцами, перечень формируется в режиме реального времени. Идеально подходит для парсинга, для Директа. Увеличение числа колонок, участвующих в пересечении комбинатором, производится простым нажатием на символ “+”. Пересекатор одновременно учитывает данные до 8 столбцов со словами, предельное ограничение числа полученных элементов – 100 000.

Что такое семантическое ядро простыми словами

Как это ни странно, но семантическое ядро – это обычный excel файл, в котором списком представлены ключевые запросы, по которым вы (или ваш копирайтер) будете писать статьи для сайта.

Вот как, например, выглядит мое семантическое ядро:

Зеленым цветом у меня помечены те ключевые запросы, по которым я уже написал статьи. Желтым – те, которым статьи собираюсь написать в ближайшее время. А бесцветные ячейки – это значит, что до этих запросов дело дойдет немного позже.

Для каждого ключевого запроса у меня определена частотность, конкурентность, и придуман “цепляющий” заголовок. Вот примерно такой же файл должен получиться и у вас. Сейчас у меня СЯ состоит из 150 ключевиков. Это значит, что я обеспечен “материалом” минимум на 5 месяцев вперед (если даже буду писать по одной статье в день).

Чуть ниже мы поговорим о том, к чему вам готовиться, если вы вдруг решите заказать сбор семантического ядра у специалистов. Здесь скажу кратко – вам дадут такой же список, но только на тысячи “ключей”

Однако, в СЯ важно не количество, а качество. И мы с вами будем ориентироваться именно на это

Зачем вообще нужно семантическое ядро?

А в самом деле, зачем нам эти мучения? Можно же, в конце концов, просто так писать качественные статьи, и привлекать этим аудиторию, правильно? Да, писать можно, а вот привлекать не получится.

Главная ошибка 90% блогеров – это как раз написание просто качественных статей. Я не шучу, у них реально интересные и полезные материалы. Вот только поисковые системы об этом не знают. Они же не экстрасенсы, а всего лишь роботы. Соответственно они и не ставят вашу статью в ТОП.

Здесь есть еще один тонкий момент с заголовком. Например, у вас есть очень качественная статья на тему “Как правильно вести бизнес в “мордокниге”. Там вы очень подробно и профессионально расписываете все про фейсбук. В том числе и то, как там продвигать сообщества. Ваша статья – самая качественная, полезная и интересная в интернете на эту тему. Никто и рядом с вами не валялся. Но вам это все равно не поможет.

Почему качественные статьи вылетают из ТОПа

Представьте, что на ваш сайт зашел не робот, а живой проверяльщик (асессор) с Яндекса. Он понял, что у вас самая классная статья. И рукам поставил вас на первое место в выдаче по запросу “Продвижение сообщества в фейсбук”.

Знаете, что произойдет дальше? Вы оттуда все равно очень скоро вылетите. Потому что по вашей статье, даже на первом месте, никто не будет кликать. Люди вводят запрос “Продвижение сообщества в фейсбук”, а у вас заголовок – “Как правильно вести бизнес в “мордокниге”. Оригинально, свежо, забавно, но… не под запрос. Люди хотят видеть именно то, что они искали, а не ваш креатив.

Соответственно, ваша статья будет вхолостую занимать место в ТОП выдачи. И живой асессор, горячий поклонник вашего творчества, может сколько угодно умолять начальство оставить вас хотя бы в ТОП-10. Но не поможет. Все первые места займут пустые, как шелуха от семечек, статейки, которые друг у друга переписали вчерашние школьники.

Зато у этих статей будет правильный “релевантный” заголовок – “Продвижение сообщества в фейсбук с нуля” (по шагам, за 5 шагов, от А до Я, бесплатно и пр.) Обидно? Еще бы. Ну так боритесь против несправедливости. Давайте составим грамотное семантическое ядро, чтобы ваши статьи занимали заслуженные первые места.

Еще одна причина начать составлять СЯ прямо сейчас

Есть еще одна вещь, о которой почему-то люди мало задумываются. Вам надо писать статьи часто – как минимум каждую неделю, а лучше 2-3 раза в неделю, чтобы набрать побольше трафика и побыстрее.

Все это знают, но почти никто этого не делает. А все потому, что у них “творческий застой”, “никак не могут себя заставить”, “просто лень”. А на самом деле вся проблема именно в отсутствие конкретного семантического ядра.

Наше СЯ – это как контент-план для социальных сетей. То есть там написано конкретно, что мы будем делать в ближайшие 2-3 месяца. Нам не надо будет садиться с утра и начать выдумывать тему для нового поста. У нас все придумано, продумано и прочитано.

Именно это и спасет вас от так называемого “творческого кризиса”. Когда вы точно знаете, что вам делать – становится гораздо легче. Поэтому ни в коем случае не пропускайте этап создания семантического ядра (каким бы муторным вам это дело не показалось). Потом вам все равно придется подбирать темы и запросы, но только потратите вы на это в десять раз больше времени и сил.

А теперь. собственно, давайте разберем, как правильно составить семантическое ядро с нуля.

Как пользоваться парсером Wordstat от Click.ru

В числе инструментов Click.ru как раз есть функциональный и недорогой парсер Wordstat. Он быстро выдает частотность даже по большому списку запросов. При этом учитывает типы соответствия и региональность. Еще не требует капчу и прокси-серверы, а отчеты позволяет выгружать в Excel и хранить в «облаке».

Для начала работы зарегистрируйтесь в системе Click.ru. После входа в свой аккаунт на главной странице выберите раздел «Парсер частоты Wordstat» и приступайте к работе.

Для начала парсинга перейдите в соответствующий раздел

Как работать с парсером Wordstat после регистрации в Click.ru:

Загрузите список запросов.

Есть два способа: скопировать и вставить ключи в специальное поле или же загрузить XLSX-файл с ними.

При копировании списка учитывайте, что каждый ключ должен идти с новой строки. А в эксель-файле смотрите, чтобы не было вспомогательной информации (названий столбцов, лишних цифр и т. д.). Система берет запросы из первого листа .XLSX по принципу «одна ячейка – один ключ».

Этап загрузки запросов

Выберите регионы.

В системе доступны все регионы Яндекса. Можно посчитать общую частотность по нескольким регионам или получить статистику отдельно по каждому.

Разделять регионы в отчете нужно, если вы планируете продвигать бизнес отдельными региональными поддоменами и посадочными страницами, привязанными к географии. В остальных случаях галочка не ставится.

Выбираем регионы

Укажите тип соответствия.

Широкое соответствие – когда фразы пробиваются как есть – часто показывает обманчивую частотность. Все из-за того, что учитываются все вложенные ключи, в том числе нерелевантные (как в примере с игрушками). То есть всегда лучше перепроверять частоту запроса с помощью специальных операторов.

Кавычки позволяют уточнять статистику по конкретной фразе, без учета вложенных ключей.

Пример

скачать видео бесплатно – 1 111 285 показов “скачать видео бесплатно” – 8 493 показа

Кавычки с восклицательными знаками показывают частотность по заданным словоформам.

Пример

“!купить !телефон” – 37 909 показов “!купить !телефоны” – 2 798 показов

Квадратные скобки – фиксируют порядок слов, что особенно важно в туристическом бизнесе

Пример

– 4 213 показов – 1 814 показов

Все варианты типов соответствия

Запустите проверку.

Время сбора частотностей зависит от количества запросов, регионов и типов соответствия. Если запросов меньше 1 000, процесс займет 1–2 минуты.

Результат будет доступен в списке задач. Можно открыть отчет в браузере или скачать его в формате XLSX.

Здесь будут появляться отчеты со статистикой

Как правильно парсить в Вордстат: обзор программ для анализа поисковой выдачи

Парсинг выдачи Яндекса – это процесс сбора поисковых запросов по заданной тематике (с помощью базовых маркеров). С Yandex Wordstat Assistant можно легко получить основную информацию для формирования семантического ядра – поисковые запросы, количество показов в месяц по каждой фразе, а также схожие по тематике слова, помогающие расширить охват целевой аудитории. Парсер Wordstat позволяет получить информацию по словам и по регионам, при этом система ориентируется именно на сайты.

Если хотите выполнить расширенный поиск, включающий не только Яндекс, но и социальные сети и другие поисковые системы, необходимо воспользоваться универсальными инструментами, например, A-Parser. Этот программный продукт отличается удобством в работе, но для эффективной работы с ним нужно купить прокси для парсинга.

В какой среде бы Вы ни работали, используйте универсальную схему сбора семантического ядра:

  • формирование базового списка маркеров (запросов, однозначно релевантных сайту);
  • сбор ключевых слов;
  • удаление «мусора» — ненужных и случайно попавших в список запросов;
  • кластеризация ключевиков по разделам сайта или тематикам.

Рассматриваем основной алгоритм работы с Вордстат и парсим Яндекс для сбора семантики на примере сайта агентства недвижимости. Допустим, нам нужно составить перечень релевантных ключевых запросов, соответствующих базовому маркеру «аренда квартир».

  1. Вводим базовый маркер в поисковую строку Яндекс Вордстат.
  2. При необходимости устанавливаем регион для более точного отбора запросов (например, Москва или Санкт-Петербург).
  3. В полученных результатах поиска используем значок «+» для выгрузки в таблицу Excel.
  4. Выгружаем полученные данные через буфер обмена (инструмент «A-Z»).

Совет! Обращайте внимание на подсказки типа «вместе с этим ищут» в соседнем поле выдачи результатов парсинга – это поможет вам охватить больше аудитории при составлении SEO-контента. Чтобы облегчить себе задачу по ручному парсингу, используйте операторы Яндекс

Например, поставив в конце поисковой фразы знак «!», вы зафиксируете окончание поискового запроса, и система будет искать слова именно в этой словоформе. Оператор «-» (минус) позволит убрать лишние слова, а квадратные скобки «» — зафиксировать порядок слов в запросе

Чтобы облегчить себе задачу по ручному парсингу, используйте операторы Яндекс. Например, поставив в конце поисковой фразы знак «!», вы зафиксируете окончание поискового запроса, и система будет искать слова именно в этой словоформе. Оператор «-» (минус) позволит убрать лишние слова, а квадратные скобки «» — зафиксировать порядок слов в запросе.

Запуск парсинга в Словоебе

1) Создайте новый проект. Для этого на начальном странице есть специальная кнопка:
 

Задайте имя проекту и сохраните его в нужную папку на компьютере:
 

 
2) Укажите регионы для парсинга.
 

Например:
 

 
3) В блоке «Управление группами» для удобства можете создать разные группы, по которым можно будет распределять готовые маски ключевых слов.
 
Задайте группам названия, чтобы лучше ориентироваться в их содержимом.
 
Например, по разным тематикам, товарам, услугам и т.д.
 

Для добавления новой группы нажмите черный знак плюса, для сортировки по алфавиту – символ рядом с ним.
 
Наконец переходим к ключевым фразам, точнее – к базисам, по которым будем парсить более глубокую семантику. Предварительно вам нужно составить список базисов либо в блокноте, откуда удобно будет скопировать в программу.
 
Здесь ничего сложного: элементарно впишите варианты названий вашего продукта, по которым могут вас искать целевые пользователи, типа:
 

  • пластиковые окна купить
  • пластиковые окна пермь
  • заказать пластиковые окна
  • установка пластиковых окон

4) Добавьте список фраз, по которым программа Словоеб будет парсить новые маски ключевых фраз. На вкладке «Данные» кликните «Добавить фразы»:
 

 
Откроется такое окно:
 

 
В этом окне впишите все изначальные фразы и нажмите «Добавить в таблицу», либо загрузите из локального файла готовый список. Каждая новая фраза – с новой строки.
 
Отметьте, в какую группу добавлять фразы – в текущую активную или другие, созданные в блоке «Управление группами».
 
Также можно поставить галочку над полем с ключами, чтобы автоматически не добавлялись фразы, которые уже есть в выгружаемом списке.
 
Для примера добавим такие фразы:
 

5) Дополнительно вы можете добавить список стоп-слов, если он у вас уже сформирован. Программа сразу будет фильтровать запросы с этими словами и не включать их в результаты парсинга.
 
Выберите опцию «Стоп-слова» в верхнем меню:
 

 
Скопируйте минус-слова по одному или сразу добавьте списком из файла:
 

 
Внизу настройте, как алгоритм будет учитывать ваши минус-слова по вхождению и другим параметрам.
 

 
6) Начните сбор семантики. Он состоит из двух этапов – непосредственно парсинг ключей из Вордстата и сбор частотностей.

Helium scraper

Helium scraper — программа для парсинга данных с сайтов. Принцип работы с программой похож на работу с рассмотренной выше программой, с отличием — вместо визуального представления действий программа показывает код. Интерфейс у программы не самый дружелюбный для неподготовленного пользователя, но программа имеет базу знаний и видео-уроки, которые помогут освоить принципы работы.

Функциональность программы имеет ряд особенностей по отношению к рассмотренным выше

Одна из ключевых — это возможность собирать большие базы данных, до 140 Терабайт, если ваша задача подразумевает сбор большого объема информации, то стоит обратить внимание на Helium scraper. Так же программа может работать через API, вы можете интегрировать запросы к целевым сайтам в свой проект

Способы составления семантического ядра

Key Collector

Для составления семантики мы можем воспользоваться программами для создания СЯ. Какие-то из них делают почти всю работу за вас – их еще называют автоматическими. В каких-то сервисах придется больше работать самостоятельно.

Например, есть такая платная утилита Key Collector. Хотя в ней этот процесс почти полностью автоматизирован, необходимо знать, как настроить Key Collector. На выходе вам лишь остается немного прибраться в запросах, убрав оттуда наиболее бесполезные, что включает в себя запросы от роботов, спам и т. д. Стоимость такой программы составляет почти 2 000 рублей.

Яндекс Вордстат

Заниматься сбором семантики можно и с помощью сервиса от Яндекса – Вордстат. Им очень легко пользоваться, достаточно просто ввести ключевое слово, он выведет вам запросы, в которых присутствует данный ключ. Вместе с этим Wordstat покажет вам и похожие запросы, которые также могут быть интересны при продвижении.

В этой статье с помощью Вордстата мы будем собирать первичные ключи, которые понадобятся нам для дальнейшего сбора семантического ядра. Но об этом позже, а пока я приведу вам еще несколько способов, с помощью которых можно собрать семантику.

Яндекс Вордстат + СловоЁБ

Программа с таким красочным названием является абсолютно бесплатным аналогом Key Collector. Естественно и функционала в нем чуть меньше, чем в коммерческом конкуренте, но для сбора семантического ядра под поисковое продвижение этого вполне хватит.

Если вам интересно, чем СловоЁБ отличается от Кей Коллектора, просто взгляните на эту табличку.

Безусловно, отличий здесь вагон и маленькая тележка. Однако для простого сбора ядра возможностей СловоЁБа вполне хватит.

Онлайн-сервисы

Итак, помимо вышеописанных вариантов, семантику можно сделать с помощью онлайн-сервисов. Если вы забьете запрос “Сбор семантики онлайн”, то поисковик выдаст вам большое количество всевозможных онлайн-инструментов. Они могут быть как хорошими, так и плохими. И, соответственно, как платными, так и бесплатными.

С помощью различных онлайн-сервисов можно еще узнать семантическое ядро конкурентов. Будьте уверены, что практически все компании занимаются проверкой данных своих потенциальных соперников.

Заказ у специалиста

Вы можете просто купить готовое решение у специалиста. Он все сделает, и на выходе вы получите целостный файлик со всеми запросами. Далее из него уже можно будет создать список статей с техническими заданиями к ним. Ну и отдать это все на растерзание копирайтерам. Но это уже вопрос делегирования обязанностей, его сегодня затрагивать мы не будем.

Оцените статью
Рейтинг автора
5
Материал подготовил
Илья Коршунов
Наш эксперт
Написано статей
134
Добавить комментарий