Миша Сливинский (Yandex): о методах свойства в поиске, сгенерированных текстах и накрутке ПФ

Миша Сливинский
Амбассадор интернет-площадок в Поиске Yandex’а

Хороший денек! Миша, поведайте, почему в Yandex’е решили ввести новейшую роль – амбассадора интернет-площадок в Поиске? В чем она будет заключаться?

Мне кажется, предпосылки возникновения таковой роли отлично понятны всему обществу оптимизаторов, рекламщиков и хозяев веб-сайтов. У их есть большенный запрос на увеличение прозрачности работы поиска, на открытый диалог. Им охото знать о том, какие возникают конфигурации, и на чем фокусироваться для улучшения видимости веб-сайтов в поиске. Yandex’у тоже принципиально осознавать определенные потребности представителей веб-сайтов и бизнесов в вебе,  чтоб учесть их и облагораживать работу поиска для всех – и для юзеров, и для бизнеса. 

Сейчас для нашего общего удобства возник определенный человек, к которому они могут приходить со своими вопросцами и предложениями. Я буду аккумулировать их и передавать командам разработки Поиска. И также буду докладывать площадкам о принципиальных конфигурациях. Пока созодать это буду в блоге Веб-мастера, но планирую завести отдельный телеграм-канал.

В компании вывели эту должность из команды разработки и товаров Поиска, чтоб была возможность независящего взора и автономности. Это поможет мне сосредоточиться на коммуникациях, а командам лучше слышать ожидания рынка и его реакцию, и они сумеют учесть их в собственных планах. Надеюсь, что коммьюнити увидит эти конфигурации и нашу огромную степень погружения в их препядствия.  


Ранее вы занимали должность управляющего службы по работе с веб-мастерами. Сохранится ли в Yandex’е эта должность? Кто сейчас сиим будет заниматься?

Эта должность как раз предполагала общение с оптимизаторами, рекламщиками и обладателями интернет-площадок. Мы сообразили, что это нужно рынком, но это просит больше времени, больше вовлеченности и большего горизонта работы, конкретно потому возникла новенькая роль. По-прежнему, все могут приходить ко мне со своими мыслями и вопросцами. 

А Веб-мастер продолжит развиваться как сервис для управления представлением веб-сайта в поиске, диагностики и аналитики, помогая решать огромное количество задач оптимизаторам, рекламщикам и обладателям веб-сайтов. Мы знаем, что это принципиальный и всепригодный инструмент для различных интернет-площадок, потому совершенно не так давно запустили новейшие фичи: товарную аналитику и подбор запросов. 

В товарной аналитике можно сопоставить свои товарные предложения с иными, представленными в органическом поиске Yandex’а. С ценами, количеством продавцов, кликами и показами. С этими данными еще проще созодать выводы о том, какой продукт лучше продавать и как его лучше продвигать. 

А Подбор запросов, я считаю, выводит шаг поиска главных слов на новейший уровень. Ранее приходилось раздельно находить главные слова, раздельно по ним проводить конкурентноспособный анализ, тестировать различные формулировки. А на данный момент мы в одном инструменте собираем запросы в поисковике, показываем по ним настоящий спрос, клики и конкурентность – это неповторимый функционал.

В Веб-мастере мощная команда, которая планирует внедрять новейшие принципиальные фичи и развивать имеющиеся. Поддерживать идеи и приносить новейшие можно, по-прежнему, в чат в Телеграм https://t.me/yawebm и на портал https://webmaster.userecho.com. Ребята постоянно открыты для оборотной связи. 


О возникновении новейшей должности амбассадора было объявлено 22 марта на Вебмастерской. Уже есть 1-ые воззвания от хозяев веб-сайтов? Какие препядствия тревожут хозяев интернет-площадок?

Я узрел 1-ые сообщения от коллег сходу же опосля этого объявления, как окончил свою презентацию. И на данный момент сообщения продолжают приходить. Пишут 10-ки самых различных людей: SEO-специалисты, руководители больших веб-сайтов, предприниматели.

В особенности ценно, что коммьюнити различает наше общение от работы службы саппорта. Фактически все диалоги конструктивные, касаются определенных советов и просьб по улучшению работы поиска. Почти все прикладывают собственные исследования, подтверждения, подробные аргументы, за что им огромное спасибо. Я разбираю эти ситуации, аккумулирую их и забираю для обсуждения с командами поиска. 

Думаю, принципиально сказать, что все сообщения я смотрю лично, и отвечаю на их сам. Потому не постоянно могу ответить в этот же денек, но непременно делаю это, как возникает возможность. И мне кажется, что любой из этих диалогов наглядно указывает, как обществу принципиально такое взаимодействие. 

На той же Вебмастерской Yandex анонсировал обновление метода определения высококачественного контента. Поведайте подробнее о этом обновлении?

Это принципиальное обновление поиска, и эти релизы еще длятся. Сначала апреля была еще одна выкатка. Смысл обновлений заключается в улучшении выдачи, чтоб юзеры лицезрели больше веб-страниц с высококачественным и экспертным контентом. Чем вероятнее юзеру понравится и окажется полезным ответ, тем лучше метод оценивает страничку. 

Оптимизация поисковых машин также принципиальна, но глупо находить некий главный фактор, от которого зависит ранжирование. 

По сути ведь и поиск, и веб-сайты решают одну и ту же общую задачку – нравиться юзерам и удовлетворять потребность человека, который что-то отыскивает. Потому метрика свойства поиска, во-1-х, состоит из различных качеств свойства, экспертности и доверия к контенту, которые строятся на асессорских оценках. Они основаны на ординарном, людском восприятии контента. И, во-2-х, у нас есть классификатор, обученный на этих оценках. Он применяется для всех страничек в поиске и употребляется в ранжировании.

Если позиции по запросам изменяются, в том числе и очень, это далековато не постоянно значит, что веб-сайт пессимизирован за некое нарушение. Если нарушение есть и касается всего веб-сайта либо отдельных страничек – его видно в Веб-мастере. В других вариантах конфигурации видимости веб-сайта в поиске обоснованы конкретно формулой ранжирования. Они могут по-разному затрагивать отдельные запросы и странички веб-сайта – это нормально..

Отдельное внимание при обновлении метода уделили тематикам, в каких юзеру быть может тяжело разобраться, и при всем этом высока стоимость неверных решений. Самый броский пример – это медицина. Плохие ответы в данной для нас теме могут потенциально нанести вред юзеру, потому в ответ на вопросцы по таковым тематикам принципиально получать информацию, сделанную профессионалами по собственной теме.

Если трафик из поиска понижается, могу посоветовать проверить несколько моментов:

  1. Доступность страничек и контента боту, проиндексированность страничек. 
  2. Не поменялся ли спрос. В разделе «Мониторинг запросов» в Веб-мастере можно узреть детализированную аналитику по запросам, в том числе позиции, показы, клики и спрос.
  3. Сравните странички собственного веб-сайта с соперниками в поиске. Чем неплох ваш контент? В чём он выигрывает у соперников? Какие мощные стороны у соперников вы видите? Здесь весьма принципиально стараться глядеть объективно, очами обыденного юзера, в контексте его настоящих заморочек и целей. 

Объясню на примере. Я нередко слышу ожидание, что очень подробный контент должен непременно выигрывать в ранжировании. Но почему? С одной стороны, подробность изложения быть может принципиальна для юзеров, в особенности в сложных либо требующих аккуратности вопросцах. Но нередко бывает и так, что на обычной вопросец веб-сайт дает обширный ответ, в каком приходится искать взором что-то ценное на самом деле. И таковая «подробность» становится раздражителем и навряд ли смотрится неплохим ответом.

Еще одна тема, которую недозволено не затронуть – внедрение нейросетей. Как Yandex относится к сгенерированным текстам? Как отлично умеет определять тексты, написанные нейросетями? Понижает ли за это веб-сайты в выдаче?

Думаю, все знают, что Yandex интенсивно развивает нейросетевые технологии. Это перспективный и длительный тренд во всем мире, который мы приветствуем. Потому сам факт использования нейросетей не влияет на ранжирование. Мы лицезреем, как нейросети помогают сделать лучше работу профессионалов и целых сфер, упрощают рутинные задачки и меняют наше обычное восприятие почти всех рабочих действий в наилучшую сторону. При всем этом мы на крайней Вебмастерской демонстрировали прямо в презентации примеры нерадивого использования нейросетей, когда контент про «уборку животика» и «сделывание инъекций» выдается за экспертный и нужный.

Одни и те же инструменты могут употребляться во благо, а могут в ущерб. 

Если площадки употребляют нейросети для сотворения контента со серьезным контролем свойства, и он вправду в итоге приносит пользу людям – мы это лишь приветствуем. 

Если нейросети употребляются для сотворения веб-сайтов, в каких нет смысла и полезности, и которые не нравятся юзерам и нам с вами – в этом нет ничего неплохого. При всем этом веб-сайт опускается в выдаче не из-за внедрения определенной технологии, а конкретно из-за плохого контента. Обширное распространение генеративных нейросетей просто ускорило возникновение огромного количества таковых веб-сайтов. Но не принципиально, кем они сделаны – нейросетями либо копирайтерами. Принципиально, чтоб в их была доборная ценность для человека. Условно, вы сможете приобрести наилучшую дрель в магазине, но это еще не означает, что вы можете создать неплохой ремонт. Потому оценивается не разработка, а продукт, итог ее внедрения. И эта оценка опирается на восприятие юзерами. 

По нашим замерам видно, как опосля недавнешних обновлений поиска трафик на странички с низкокачественным контентом существенно свалился. При всем этом у 1-го веб-сайта могут быть странички различного свойства. И в таком случае отличные странички живут, высоко ранжируются и органически вырастают, а странички с плохим контентом свалились. Для этого не необходимы санкции, и не бывает каких-либо укрытых санкций. Это все происходит в рамках ранжирования по полезности и качеству контента. 

В SEO-сообществе не стихают споры вокруг накрутки поведенческих причин. Что уже изготовлено, и что обязано произойти, чтоб выдача в один прекрасный момент навечно освободилась от навороченных и спамных веб-сайтов?

Мы боремся не попросту с определенными сайтами-нарушителями либо инструментами накрутки. Мы стараемся не учесть фродовые сигналы, какими бы утонченными ни были техники спамеров, чтоб накрутка просто не работала по дефлоту и заниматься ей было глупо.

Мы стали еще полнее обнаруживать и не учесть пробы накруток, и намного резвее принимаем решение. Это приводит к тому, что усилия по накрутке почаще всего не приводят к хотимому результату, а лишь к пустой растрате сил, времени и средств. И мы лицезреем доказательство этому не только лишь на собственных замерах, да и по воззрениям самих накрутчиков в чатах и на форумах. 

Потому процесс идет, и мы прямо на данный момент избавляемся от навороченных и замусореных веб-сайтов. И мы весьма благодарны за примеры и оборотную связь. Мы ее учитываем и используем для улучшения технологии, потому не постоянно конфигурации приметны сходу же. Для этого аналитики изучают эти примеры и на базе этого анализа разрабатывают общее алгоритмическое решение. Опосля этого они проводят опыты, чтоб осознать, как конфигурации смогли решить мотивированную задачку. Если всё отлично, то решение выкатывается. И это не точечные правки, а метод, другими словами он может поправить не все присланные примеры. Лишь алгоритмическое решение дозволяет всей системе работать размеренно, всеполноценно и отлично.

Каким вы видите развитие поиска в наиблежайшие 3-5 лет? Как нейросети будут влиять на развитие поиска? К примеру, Yandex уже на данный момент сформировывает резвые ответы, используя YandexGPT? Что далее? Где еще мы увидим применение нейросетей?

Трудно сказать, каким будет поиск через 5 лет, поэтому что развитие нейросетей сейчас – это  челлендж практически для всех.

Это челлендж для производителей контента, которые озабочены вопросцами о том, как соперничать с иными производителями контента, как удержать у себя аудиторию, как обеспечить высочайший уровень свойства, как употреблять нейросети для оптимизации и улучшения действий снутри собственного бизнеса либо собственной редакции.

Это челлендж и для юзеров, которые уже столкнулись с реальностью, где количество контента превосходит возможность его обработать. И не попросту обработать, а к тому же осознать, чему доверять, на что опереться и к чему прислушаться. Если ранее люди боролись за то, чтоб достать до как можно большего количества контента, то на данный момент они быстрее борются за то, чтоб до их доходил лишь наилучший и высококачественный контент.  

Отыскать в данной для нас действительности новейшие методы и варианты взаимодействия с юзерами и интернет-площадками – это как раз челлендж для поиска. При этом это неминуемая вещь, весь мир движется в сторону повсеместного внедрения нейросетей, и ни у кого нет функции просто игнорировать происходящее. Потому Yandex много и достаточно резвыми темпами работает в этом направлении. Совершенно не так давно компания анонсировала новейшую линейку собственных генеративных моделей YandexGPT 3. А скоро мы можем ожидать остальные огромные новости, которые сумеют отдать нам новейшие способности для работы с информацией в вебе. И в данной для нас ситуации Yandex старается очень слышать все стороны, действовать почтительно и аккуратненько.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *