Как изучить главные слова на Reddit – находим новейшие способности для контента

В этом руководстве Топвизор-Журнальчик ведает все о поиске главных слов на Reddit. Но тут мы наиболее тщательно остановимся на исследовании главных слов с внедрением конкретно Reddit.

Принципиальное замечание: в статье показана работа скрипта, получить ссылку на который можно, лишь подписавшись на email-рассылку Keyword Insights.

Веб-сайт Keyword Insights

Почему стоит применять Reddit для поиска главных слов

Reddit – это большущая онлайн-платформа, на которой собираются юзеры со всего мира, чтоб делиться контентом, новостями и воззрениями. Он разбит на тыщи «сабреддитов» (форумов снутри форума), любой из которых посвящен определенной теме либо энтузиазму.

Люди приходят на Reddit, чтоб задать вопросцы его различному и активному обществу. Платформа дает неповторимое сочетание компетентности, личного опыта и открытых обсуждений, что делает ее безупречным местом для поиска советов, сбора разных воззрений и исследования коллективных познаний юзеров.

Люди нередко обращаются на Reddit за ответами, которые не могут отыскать в остальных местах. Это быть может соединено с тем, что их вопросец очень спец, личный, очень свежайший либо же они отыскивают непредвзятый, искренний совет.

Один из увлекательных качеств Reddit – юзеры нередко не инспектируют, задавался ли их вопросец ранее, что приводит к возникновению одних и тех же запросов в разных формах. Эта избыточность является главным моментом для стратегии исследования главных слов на Reddit.

И вот почему: когда вопросец (либо утверждение) повторяется на Reddit, это нередко показывает на две вещи:

  1. Существует пробел в доступном достоверном онлайн-контенте, отвечающем на этот вопросец.

  2. Невзирая на то, что обычное исследование главных слов быть может сосредоточено на отдельных фаворитных главных словах, оно упускает из виду, что один и этот же вопросец быть может сформулирован обилием методов, любой из которых имеет собственный свой размер поиска.

Запрос, который кажется маленьким по размеру поиска, по сути может представлять собой огромную незадействованную аудиторию, если учитывать все его варианты.

К примеру, вопросец со 100 разными формулировками, каждую из которых отыскивают 10 раз за месяц, по сути имеет общий размер поиска 1 000, а не 10. Даже запросы с нулевым объемом могут ввести в заблуждение; если мы находим 100 схожих версий вопросца, разумеется, что на него есть спрос. Такие способности можно просто отыскать при помощи инструмента анализа главных слов, к примеру Топвизора.

Поглядим пример. Запрос «тим фортресс 2 на дроид» как как будто бы имеет маленькой размер поиска:

При всем этом этот вопросец не один раз задается на Reddit:

Таковым образом, это быть может увлекательное ключевое слово для бренда соответственной темы.

Методология статьи базирована на этих познаниях. Мы стремимся выявить главные слова, которые нередко встречаются на Reddit и для которых обсуждения на форуме занимают высочайшие позиции. Это показывает на отсутствие удовлетворительных ответов в вебе, что дает возможность отлично заполнить пробелы в контенте.

❗️В нашей стране Reddit не весьма популярен: русские юзеры занимают всего 1,8% от всех юзеров форума.

В Рф популярны остальные форумы: Drom (авто), E1 (региональные форумы), 4PDA (телефоны), Littleone (семья и малыши), iXBT (компы), B17 (медицина и психология (наука, изучающая недоступные для внешнего наблюдения структуры и процессы, с целью объяснить поведение человека)) и так дальше.

Еще популярны общества «Пикабу» (102 млн трафика за месяц) и «Ответы Mail.ru» (131 млн за месяц): они по собственному функционалу очень похожи на Reddit. Там люди задают вопросцы друг дружке. Эти площадки можно применять для извлечения главных слов, как Reddit.

Как извлекать главные слова из Reddit: способ 1

Этот подход является резвым и обычным, но принципиально отметить, что главные слова, которые мы определяем, также доступны нашим соперникам, так как в процессе мы используем всепригодные инструменты исследования главных слов.

Но доступность не непременно значит, что соперники интенсивно употребляют эти главные слова. Как уже говорилось, почти все из их концентрируются только на отдельных главных словах с высочайшим объемом поиска. При всем этом они нередко упускают из виду возможность объединения нескольких главных слов с низким объемом поиска для получения наиболее четкой совокупной картины поискового спроса. Этот недостаток значит, что такие кластеры главных слов нередко игнорируются, что приводит к образованию ценной ниши, которую можно применять с выгодой себе.

  1. Найдите пригодные сабреддиты

Сабреддиты – это направленные на определенную тематику разделы на Reddit, посвященные определенным интересам, вопросцам либо сообществам (к примеру, r/SEO, r/marketing, r/smallbusiness). Любой сабреддит – это мини-форум, где юзеры дискуссируют одну тему.

Чтоб отыскать пригодные сабреддиты, можно пользоваться перечнем фаворитных сообществ либо просто ввести ключевое слово в строчку поиска Reddit – к примеру, «skincare», «email marketing» либо «Python». Reddit покажет релевантные сабреддиты, где юзеры дискуссируют данную тему. Вы можете узреть, как интенсивно дискуссируются нужные для вас темы и как формулируются запросы в естественной среде.

Сабреддиты на Reddit

  1. Добавьте эти сабреддиты в избранный вами SEO-инструмент

    Введите URL подходящего сабреддита в строчку поиска Анализа соперников от Топвизора и нажмите «Выстроить отчет».

    Анализ домена в Анализе соперников

    Сервис покажет, по каким главным словам ранжируется тот либо другой сабреддит (либо иной форум). Мы избрали тут тему, размер поиска которой в Рф не весьма высок.

    Анализ домена в Анализе соперников

    Вот такие результаты выдал нам сервис: в Рф этот домен ранжируется по 250 запросам в поисковике. Их можно взять в работу для сотворения контента.

    ❗️Анализ соперников – это инструмент для поиска и анализа соперников и их запросов в органической и маркетинговой выдаче Гугл и Yandex’а. Также в нем можно:

    • отыскать запросы, по которым ваш веб-сайт и веб-сайты соперников ранжируются в поиске;

    • поглядеть сниппеты и доп блоки, которые показываются в выдаче по запросам;

    • выяснить частоту, стоимость клика, трафик, релевантную страничку по запросам;

    • проанализировать структуру веб-сайтов соперников: запросы, трафик, среднюю позицию по каждой страничке;

    • отыскать собственных соперников, их неповторимые и общие с вашим веб-сайтом запросы;

    • поглядеть запросы, по которым показываются маркетинговые объявления и полный текст объявлений.

    1. Примените фильтры

      Наша цель – получить общие главные слова, по которым форумы (а именно, Reddit) занимают 1-ые строчки. Это хороший признак того, что остальные материалы в вебе не освещают данную тему так, чтоб это устраивало юзеров.

      Для начала добавим фильтры, чтоб отсеять все главные слова, по которым люди желают получить обзор тех либо других устройств. Чтоб исключить слово из отчета, необходимо ввести его в последующем формате:

      !/слово/

      И ввести его в раздел «Фильтр» в левом верхнем углу интерфейса.

      Фильтрация главных фраз в Анализе соперников

      Также необходимо добавить фильтр, чтоб демонстрировать лишь те результаты, где выдача Reddit занимает весьма высочайшие позиции:

      Фильтрация главных фраз в Анализе соперников

      Представьте, что у вас большой размер главных слов: при помощи этих 2-ух методов фильтрации вы сможете его существенно уменьшить. У вас остается фактически незапятнанная семантика, с которой можно работать.

      1. Экспортируйте ключи

        Экспортируйте главные слова и приготовьтесь загрузить их в избранный вами инструмент кластеризации главных слов. О этом мы поведаем чуток далее в руководстве.

        Экспорт главных фраз из Анализа соперников

        Как извлекать главные слова из Reddit: способ 2

        Последующий способ, который мы разглядим, незначительно труднее. Вы сможете применять его как подмену первому способу, так и в дополнение к нему. Лучше сочетать его с первым способом для заслуги наиболее больших результатов.

        Этот способ подразумевает извлечение главных слов, которые обыденные инструменты SEO могут пропустить. Для этого мы определяем все релевантные сабреддиты и собираем из их как можно больше вопросцев. Чтоб упростить этот процесс, создатель статьи разработал скрипт Гугл Colab, который автоматизирует эти задачки. Вот что делает скрипт:

        1. Поначалу он получает CSV-файл со перечнем сабреддитов, из которых вы желаете получить вопросцы.

        2. Потом скрипт извлекает столько вопросцев, сколько может, из этих сабреддитов.

        3. Потом он составляет все эти вопросцы в один столбец в новеньком CSV-файле.

        ❗️Получить скрипт можно лишь опосля подписки на рассылку Keyword Insights.

        Веб-сайт Keyword Insights

        Не считая того, есть необязательная часть скрипта.

        Если у вас есть ключ Open AI API, заключительная часть сценария «очистит» вопросцы, удалив разные разговорные и неформальные выражения, которые обычно встречаются в их, чтоб создать данные наиболее пригодными для анализа.

        1. Сделайте собственный API для Reddit

        Мы будем применять API для сбора всех вопросцев на Reddit.

        1. Сделайте акк Reddit.

        2. Зарегте свое приложение.

        • Перейдите на страничку приложения Reddit.

        • Прокрутите страничку вниз до раздела «Разработанные приложения» и нажмите на клавишу «Сделать приложение» либо «Сделать другое приложение».

        • Заполните форму, указав нужные данные:

          • имя – дайте заглавие вашему приложению;

          • тип приложения – изберите пригодный тип приложения (веб-приложение, установленное либо скрипт);

          • описание – дайте короткое описание вашего приложения (необязательно);

          • URL-адрес – если у вас есть интернет-страница с доборной информацией о вашем приложении, укажите ее URL (необязательно);

          • характеристики – изберите характеристики, которые потребуются вашему приложению;

          • URL для переадресации – вы сможете применять http://localhost.

        1. Получите учетные данные.

        • Как ваше приложение будет сотворено, Reddit предоставит для вас ID клиента и скрытый код клиента. Они весьма важны и должны храниться в тайне.

        • Идентификатор клиента находится прямо под заглавием приложения.

        • Скрытый код клиента находится в деталях приложения.

        1. Найдите пригодные сабреддиты

          Поначалу обусловьте сабреддиты, которые относятся к вашей теме. Как это созодать, описано в первом способе.

          В CSV, который воспринимает скрипт, необходимо лишь указать заглавие сабреддита в одном столбце. Потому добавьте все вот так:

          Сохраните как CSV и назовите его «subreddits.csv».

          1. Откройте скрипт Гугл Colabs и загрузите CSV

            Потом для вас необходимо будет открыть файл Гугл Colabs.

            Гугл Colabs – бесплатная онлайн-платформа для кодировки, которая дозволяет писать и делать код на Python в браузере. Она не просит опции, дает бесплатный доступ к массивным вычислительным ресурсам, таковым как GPU, и непревзойденно подступает для совместной работы подобно Гугл Docs.

            Любой участок кода находится в «блоке кода». Во 2-м блоке для вас необходимо добавить собственный ID и скрытый код Reddit, которые вы получили на шаге 1. Также необходимо придумать идентификатор юзера. Сделайте что-то вроде «мейд by [YOUR REDDIT USERNAME}». Удостоверьтесь, что вводимый текст постоянно находится меж 2-мя «кавычками».

            Для вас также необходимо загрузить перечень сабреддитов. Нажмите на значок файла в последнем левом углу, а потом на клавишу «Загрузить»:

            Сейчас просто запускайте каждую ячейку, дожидаясь окончания работы крайней, до этого чем запускать последующую.

            Пуск крайней ячейки займет некое время, в особенности зависимо от того, сколько сабреддитов вы включили. Во время работы она будет смотреться так:

            По окончании работы вы получите новейший загружаемый CSV в последнем левом окне:

            Вы сможете загрузить этот файл, чтоб получить перечень всех вопросцев, взятых из Reddit:

            Вопросцы, взятые конкретно с Reddit, представлены в уникальной форме, которая нередко включает неординарные формулировки, сленг либо доп элементы вроде скобок.

            1. Очистите вопросцы Reddit при помощи Open AI (необязательно)

              В вопросцах, которые мы выгрузили, встречаются просторечные формулировки, внедрение сленга и разные доп элементы, к примеру скобки.

              Их можно очистить при помощи Open AI. Вот тут-то и понадобится 2-ая половина сценария Гугл Colab.

              Добавьте собственный API Open AI сюда, в поле, начинающееся с «import openai».

              Чистить семантику можно не только лишь при помощи AI-инструментов, да и при помощи Топвизора, а конкретно инструмента Подбор слов. Покажем, как чистить семантику от неявных дублей.

              Поначалу перейдите в продвинутый режим (режим таблиц):

              Режим таблиц в Подборе слов

              Изберите группу запросов. Потом нажмите на лупу и введите постоянное выражение в формате /слово1.*?слово2|слово2.*?слово1/.

              Очистка семантики в Подборе слов

              К примеру, /ипотека.*?онлайн|онлайн.*?ипотека/. Топвизор соберет неявные дубли в избранной группе запросов:

              Очистка семантики в Подборе слов

              Как кластеризовать слова

              Далее сгруппируйте похожие главные слова совместно: это дозволит для вас перейти от анализа тыщ отдельных главных слов к сосредоточению на отдельных кластерах. Этот способ дозволяет лучше осознать их общий размер поиска и частоту запросов.

              Помните, что мы гласили сначала данной статьи? Люди склонны находить один и этот же вопросец различными методами. В то время как соперники сосредоточены на выявлении отдельных главных слов со значимым объемом, наша стратегия подразумевает исследование совокупной частоты и/либо размера поиска кластеров главных слов.

              В уникальной статье создатель употребляет сервис Keyword Insights, а мы все покажем и поведаем на примере Топвизора (Запросы в поисковике, «ТОП-10») – там можно кластеризовать семантику.

              Перебегаем в инструмент Подбор слов→ «Кластеризация по ТОП-10».

              Инструмент Кластеризация по ТОП-10

              Избираем поисковую машину и регион, степень и способ группировки, а потом жмем «Начать».

              Настройка инструмента Кластеризация по ТОП-10

              В итоге на рабочем поле Запросов в поисковике все добавленные запросы разделятся на группы (кластеры).

              Как отыскать идеи для контента

              Один и этот же вопросец неоднократно задается на Reddit, на что показывает наличие огромного количества больших кластеров. Начальный перечень создателя из 22 000 главных слов был практически сжат до 3 890 кластеров.

              Наш перечень поскромнее: там всего 250 слов. Но у нас тоже вышли кластеры:

              Результаты кластеризации главных слов

              Сейчас осталось отыскать те, о которых вы желаете написать. Так как мы добавили URL нашего домена в шаге 4, мы можем просто поглядеть лишь те кластеры главных слов, по которым мы еще не ранжируемся.

              Вот таковой перечень вышел у создателя:

              Хотя каждое ключевое слово в отдельности может иметь размер поиска всего 60–70, общий размер поиска по всей группе главных слов приближается к 7 000.

              Если вы употребляли скрипт для сбора вопросцев с Reddit, описанный чуть повыше, придется создать очередной шаг.

              Прогоните каждое слово через Запросы в поисковике в Топвизоре, чтоб осознать, имеют ли они достаточный размер поиска сами по для себя, не будучи оптимизированными при помощи Open AI.

              1. Перейдите в раздел «Запросы в поисковике».

              2. Нажмите на значок графика на панели инструментов.

              1. Отметьте нужные источники, типы соответствия и регионы.

              2. Нажмите «Проверить частоту».

              Как создавать и улучшить контент

              К этому моменту у вас обязано быть огромное количество мыслях для контента – их подскажут ключи.

              Создатель дает далее применять Keyword Insights, куда можно загрузить кластеризованные ключи и получить рисунок для грядущего контента, но подойдет неважно какая нейросеть: ChatGPT, Claude AI, русские Yandex GPT либо Gigachat.

              Еще контент можно сделать без помощи других, проанализировав соперников:

              • что у их написано в title, description и h1;

              • какая структура и размер текстов у их на веб-сайтах;

              • какие элементы и сколько применены в тексте: таблицы, списки, иллюстрации, видео и т. д.;

              • как входят главные слова: количество, в котором виде (четкое/некорректное, разбавлено либо нет) и в котором месте – это может пригодиться для дооптимизации текста.

              На базе этого можно составить ТЗ себе либо для копирайтера, который напишет текст.

              Что в итоге

              Мы разглядели два действенных способа извлечения главных слов из Reddit, любой из которых имеет свои достоинства.

              1-ый способ подразумевает внедрение обыденных SEO-инструментов, обеспечивает резвый и обычный метод выявления главных слов, которые могут быть доступны соперникам, но нередко остаются без внимания.

              2-ой способ наиболее непростой, заключается в автоматизации процесса сбора вопросцев из соответственных сабреддитов, что дозволяет отыскать огромное количество неизученных главных слов.

              Опосля сотворения перечня главных слов необходимо их очистить и кластеризовать, а позже сделать контент на их базе.

              Сила Reddit для исследования главных слов заключается в его возможности обнаруживать сокрытые ниши и отвечать на определенные запросы юзеров. Делая упор на эти данные и используя инструменты сотворения контента на базе искусственного ума, вы можете отлично создавать высококачественный контент, который отыщет отклик у аудитории. 

              Добавить комментарий

              Ваш адрес email не будет опубликован. Обязательные поля помечены *