Предлагаю подбор семантически релевантных (плюс семантически близких) слов и словосочетаний по вашим поисковым запросам с помощью обученной модели машинного обучения.
В отличии от TF-IDF (который по сути является статистическим алгоритмом частоты упоминания слов в списке документов), моя ML-модель использует последние достижения в сфере обработки естественного языка, эксплуатируя технологию векторной близости слов (
word embedding).
Все слова и словосочетания подбираются на основании анализа страниц, которые занимают топ органической выдачи Гугла по интересующему вас поисковому запросу.
Тут я писал детальнее как работает инструмент.
Доступные страны и языки для парсинга:- USA (english)
- United Kingdom (english)
- Germany (deutsch)
- France (francais)
- Italy (italiano)
- Spain (espanol)
- Portugal (portugues)
- Netherlands (dutch)
- Poland (polski)
- Russian Federation (русский)
Глубина парсинга Гугла:- Top 10
- Top 20
- Top 30
- Top 50
Hint: Чем больше датасет для обучения, тем точнее данные на выходе. Потому, я бы не рекомендовал использовать Top 10(или 20) для поисковых запросов, где в выдаче находятся страницы с малым количеством текста.
Файлы результатов:
На выходе, вы получите 3 csv-файла со следующей структурой:
Код:
ngram,relatedness,count,size,similarity,competitor
, где:
ngram - то самое семантически релевантное слово или словосочетание;
relatedness - коэффициент семантической релевантности н-граммы к основному поисковому запросу; чем значение меньше - тем лучше;
count - количество упоминаний текущей н-граммы в датасете;
size - размер н-граммы (1 - одно слово; 2 - двух словное выражение; 3 - трех словное выражение); в отдельном файле будут н-граммы только одной размерности;
similarity - коэффициент семантической близости н-граммы к основному поисковому запросу; чем значение меньше - тем лучше;
competitor - количество страниц из выдачи Гугла, в которых встречается текущая н-грамма.
Все csv-файлы отсортированы по колонке Relatedness (asc).
Пример:
Query: paleo meal plan
Google: USA - Top 30
Results:
paleo-meal-plan_1gram.txt,
paleo-meal-plan_2gram.txt,
paleo-meal-plan_3gram.txt (заменил расширение файлов на txt из-за ограничений форума).
Стоимость услуги - $10
Форма оплаты - Webmoney WMZ.
Как заказать:
1. Отправляете 10 wmz на кошель Z379855054535
2. В примечании к платежу пишите: [поисковый запрос], [страна и глубина выдачи], [ник на форуме]. К примеру: aperol spritz, United Kingdom - Top30, Grut
3. Те же "поисковый запрос", "страна и глубина поиска" плюс "номер кошеля отправителя" дублируете в Контакты.
Контакты:
1. Приватные сообщение на GoFuckBiz
2. Telegram: @wordsminer
FAQ:
Q: В чем отличие семантической релевантности от семантической близости?
A: Для примера возьмем поисковый запрос "автомобиль". Семантически близкими для него будут слова "машина" и "автобус". А семантически релевантными будут слова "дорога" и "бензин".
Q: И что делать с полученными файлами?
A: Наполнять семантически релевантными и близкими словами ту страницу, которую вы продвигаете в топ Гугла по выбранному вами поисковому запросу. Вот как это делаю я:
- сортирую таблицу по колонке Relatedness(asc), выбираю наиболее релевантные слова и органически добавляю их в текст на своей странице;
- после сортирую таблицу по колонке Similarity(asc) и выбираю наиболее близки слова, которые также добавляю на свою страницу.
- и в конце, сортирую таблицу по колонке Competitor(desc) и проверяю какие слова/словосочетания я пропустил; их тоже добавляю в контент своей страницы.
Дисклеймер:
Запустив данный сервис на Гофаке, я преследую 2 цели:
1. Изучить спрос сеошников на ml-решения в области оптимизации контента.
2. Собрать денег на оплату услуг разработчика, чтоб запустить готовый сервис, где вы сможете подбирать semantically related/similar keywords без моего участия. Кстати, все кто закажут услугу более 10 раз, получат 1 месяц в будущем сервисе бесплатно.