Секретный отчет ChatGPT: характеристики видимости. Часть 1

Реклама. ООО «Клик.ру», ИНН:7743771327, ERID: 2VtzqvL4rPt

То, что ИИ отбирает трафик у хозяев веб-сайтов, в особенности у издателей медиа, – в 2025-м уже сложившийся факт. Мы лицезреем, как это делает Yandex с ответами Алисы и Гугл с обзором от ИИ. Как обстоят дела с самой пользующейся популярностью нейронкой?

Мы перевели первую часть исследования Винсента Террази, размещенную в Search Engine Journal. Он проанализировал внутренние данные OpenAI, которые демонстрируют, что ChatGPT все почаще показывает контент издателя, сразу устраняя необходимость для юзеров перебегать по ссылкам.

Несколько недель вспять мне предоставили доступ к секретному отчету OpenAI для партнеров – набору данных, который обычно предоставляется маленький группе издателей.

В первый раз благодаря отчету мы получили доступ к подробным показателям видимости изнутри ChatGPT – к таковым данным, которые когда-либо лицезрели только немногие партнеры веб-сайта OpenAI.

Это не «утечка», а быстрее необыкновенный взор на внутреннюю работу платформы, который воздействует на будущее SEO и публикаций на базе ИИ в течение последующего десятилетия.

Последствия анализа этого датасета намного перевешивают любые отдельные дискуссии: видимость веб-сайтов в AI-ответах быстро вырастает, а вот трафик, который реально приводит ИИ, – исчезает.

Это самый очевидный на нынешний денек сигнал о том, что мы покидаем эру «поисковых машин» и вступаем в эру «систем принятия решений», где ИИ агенты обнаруживают, интерпретируют и синтезируют информацию, не непременно направляя юзеров к источнику.

Это принуждает всякого издателя, SEO-специалиста, бренд-менеджера и контент-стратега абсолютно пересмотреть то, что по сути значит видимость в вебе.

1. Что демонстрируют данные отчета: видимость без трафика

Этот датасет предоставляет большому медиаиздателю обзор за целый месяц. С умопомрачительной детализацией он анализирует частоту отображения URL-адреса в ChatGPT, пространство его расположения в пользовательском интерфейсе, частоту переходов по нему юзеров, количество диалогов, на которые он влияет, также показатель кликабельности (CTR) в разных местах размещения в пользовательском интерфейсе.

Отображение URL и взаимодействие с юзером в ChatGPT

URL с наилучшими показателями в датасете получил 185 000 неповторимых показов в диалогах – другими словами отображался в таком количестве отдельных сессий ChatGPT.

Из этих показов 3800 были кликами, что отдало CTR на уровне диалога в 2%. Но при подсчете нескольких показов в рамках диалогов общее число показов возрастает до 518 000, а общее число кликов – до 4400, что понижает общий CTR до 0,80%.

Это впечатляющий уровень видимости. Но совершенно не впечатляющий уровень трафика.

Большая часть остальных URL-адресов проявили существенно худшие результаты:

  • 0,5% CTR (в данном контексте считается «неплохим»);
  • 0,1% CTR (приемлимо);
  • 0,01% CTR (обыденный);
  • 0% CTR (очень нередко, в особенности для нишевого контента).

Это не единичный вариант. Это наблюдается во всем наборе данных и соответствует наружным исследованиям, включая анализ логов сервера, проведенный независящими SEO-специалистами, который указывает CTR наименее 1% из источников ChatGPT.

Мы уже сталкивались с сиим явлением, но никогда не сталкивались с таковым масштабом. Предшественником была эра нулевых кликов в Гугл. ChatGPT – это убыстрение. Но есть принципиальное отличие: расширенные сниппеты Гугл были разработаны для резвого ответа, при всем этом побуждая юзеров перейти по ссылке для получения доборной инфы. В отличие от этого, ответы ChatGPT разработаны для полного ублажения целей юзера, делая клики не попросту необязательными, а ненадобными.

2. Феномен поверхностной видимости: там, где OpenAI указывает больше, юзеры кликают меньше

В отчете каждое пользовательское взаимодействие разбито по UI-«поверхностям», что открывает одну из самых феноминальных динамик современного поискового поведения. Блок ответа, где LLM (Large Language Models – огромные языковые модели, прим. ред.) располагают наиболее 95% контента, делает большой размер показов – часто в 100 раз больше, чем остальные поверхности. Но CTR держится на уровне от 0,01% до 1,6%, и что интересно – чем ниже CTR, тем выше свойство ответа.

Размещение контента в LLM и связь с CTR

Это новейший эквивалент «нулевой позиции», но сейчас это не попросту отсутствие клика, а отсутствие намерения кликнуть. Психология (наука, изучающая недоступные для внешнего наблюдения структуры и процессы, с целью объяснить поведение человека) тут другая, чем у Гугл. Когда ChatGPT дает исчерпающий ответ, юзеры интерпретируют клик как выражение сомнения в точности ИИ, указание на необходимость доборной инфы, которую ИИ предоставить не может, либо как академическую проверку (что случается относительно изредка). ИИ уже решил эту делему.

Боковая панель указывает другую картину.

Примечание редакции: создатель имеет в виду блок справа от AI обзора Гугл со ссылками на источники.

Боковая панель со ссылками в Обзоре от ИИ Гугл

Эта маленькая область имеет еще меньше показов, но размеренно высочайший CTR, варьирующийся от 6% до 10% в датасете. Это выше, чем органические позиции Гугл с 4 по 10. Юзеры, переходящие сюда, нередко просматривают связанный контент, а не инспектируют главный ответ. Боковая панель отражает режим исследования, а не проверки. Юзеры доверяют основному ответу, но проявляют энтузиазм к доборной инфы.

Ссылки понизу ответов ведут себя похожим образом, достигая CTR от 6% до 11%. Но они показываются лишь в тех вариантах, когда ChatGPT очевидно ссылается на источники. Это завлекает юзеров с академическим складом разума и тех, кто инспектирует факты. Броско, что наличие ссылок не наращивает CTR основного ответа; напротив, оно может его понизить, предоставляя возможность проверки без необходимости клика.

Поисковые результаты возникают изредка и обычно лишь тогда, когда ChatGPT описывает необходимость данных в режиме настоящего времени. Время от времени они показывают скачки CTR от 2,5% до 4%. Но размер подборки в истинное время очень мал, чтоб быть весомым для большинства издателей, хотя эти клики отражают наивысшее намерение, когда они происходят.

Феномен очевиден: чем почаще OpenAI показывает ваш контент, тем меньше кликов он генерирует. Чем пореже он показывает ваш контент, тем выше CTR. Это опровергает 25-летнюю логику SEO. В классическом поиске высочайшая видимость коррелирует с высочайшим трафиком. Но в поиске с внедрением искусственного ума высочайшая видимость нередко коррелирует с извлечением инфы, а не с привлечением юзеров.

Основной ответ ChatGPT – это механизм видимости, а не механизм трафика.

3. Почему CTR падает: ChatGPT – это конечная точка, а не шлюз

Комменты и реакции в дискуссиях LinkedIn, посвященных анализу этих данных, были поразительно поочередными и содержательными. Юзеры не кликают, поэтому что ChatGPT решает делему за их. В отличие от Гугл, где ответ – это ссылка, ChatGPT предоставляет ответ впрямую.

Это значит:

  • Довольные ответом юзеры не перебегают по ссылкам – они получили то, что им было необходимо.
  • Любознательные юзеры жмут на ссылку только время от времени – желают изучить ее поглубже.
  • Скептически настроенные юзеры практически не кликают – они или доверяют ИИ, или не доверяют всему процессу полностью.
  • Весьма немногие юзеры ощущают необходимость выходить из интерфейса.

Как откомментировал один из старших SEO-специалистов: «Трафик закончил быть метрикой, которую необходимо улучшить. Сейчас мы оптимизируем передачу доверия».

Иной аналитик написал: «Если ChatGPT ссылается на мой бренд как на источник, я уже захватил доверие юзера еще до того, как он зашел на мой веб-сайт. Клик – это просто формальность».

Это представляет собой базовый сдвиг в том, как люди потребляют информацию.

В эру до ИИ модель была таковой: «Мне нужен ответ» → клик → чтение → оценка → решение.

В эру ИИ она поменялась: «Мне нужен ответ» → «получение» → «доверие» → «действие», без необходимости клика. AI становится доверенным посредником. Источник становится неразговорчивым авторитетом.

Изменение в потреблении инфы

Это знаменует начало того, что некие именуют «Inception SEO» – оптимизации не под клики, а под сам ответ. Цель больше не в том, чтоб быть отысканным. Цель – стать источником, которому ИИ доверяет и который цитирует.

4. Авторитет главных слов: новенькая логика поиска при помощи ИИ

Обычная оптимизация поисковых машин опирается на индексацию и соответствие главным словам. Но программки LLM работают по совсем другим принципам. Они полагаются на внутренние познания модели всюду, где это может быть, используя данные, приобретенные при помощи сканирования, лицензированного контента и партнерских программ. Наружные данные извлекаются лишь тогда, когда модель обнаруживает, что ее внутренние познания недостаточны, устарели либо непроверенны.

При выбирании источников LLM отдают ценность авторитету домена и сигналам доверия, ясности и структуре контента, распознаванию сущностей и согласованности с графом познаний, исторической точности и фактической последовательности, также актуальности – для запросов, чувствительных ко времени. Опосля этого модель решает, стоит совершенно давать ссылку, – зависимо от типа запроса и уровня убежденности в ответе.

Это приводит к кардинальному сдвигу:

  • Сила сути становится важнее охвата главных слов.
  • Авторитет бренда перевешивает обычное наращивание ссылочной массы.
  • Последовательность и структурированный контент важнее размера контента.
  • Доверие модели становится самым принципиальным фактором ранжирования.
  • Фактическая точность в течение долгого времени делает совокупное преимущество.

Вы больше не конкурируете в поисковом индексе. Вы конкурируете за то, как модель доверяет контенту на вашем веб-сайте.

Это имеет конструктивные последствия.

Древняя SEO-логика была таковой: «Ранжирование по 1000 главным словам → Получение трафика по 1000 запросам в поисковике».

Новенькая логика ИИ: «Стать знатным источником по 10 темам → Стать источником по дефлоту для 10 000 ответов, сгенерированных ИИ».

В этих новейших критериях один высокоавторитетный домен может стать фаворитом посреди цитирований AI по всему направленному на определенную тематику кластеру. «Long-tail SEO» (для многоречивых запросов «с длинноватым хвостом» – прим. ред.) может стать наименее релевантным, так как ИИ синтезирует ответы, а не подбирает определенные главные слова. Авторитет темы становится важнее авторитета главных слов. Однократное цитирование ChatGPT может воздействовать на миллионы ответов в цепочке.

5. Новейшие KPI: «толика в модели» и воздействие снутри ответа

По мере того как CTR понижается, брендам необходимо перебегать к метрикам, отражающим видимость в среде AI. 1-ая из их – «толика присутствия в модели»: как нередко ваш бренд, суть либо URL возникают в ответах, сгенерированных ИИ, независимо от того, кликают по ним либо нет. Это аналогично «доле голоса» в классической рекламе, но заместо измерения присутствия в платных медиа она определяет ваше присутствие в процессе рассуждения модели.

Иерархия решений LLM

Как это измерить:

  • Выслеживайте упоминания бренда в ответах ИИ на главных платформах (ChatGPT, Claude, Perplexity, Гугл AI Overviews).
  • Выслеживайте определение сущностей в контенте, сделанном ИИ.
  • Анализируйте частоту цитирования в ответах ИИ по вашей теме.

LLM все почаще определяют авторитетные утверждения, такие как: «Согласно данным издателя X…», «Специалисты бренда Y советуют…», «Как отмечает фаворит отрасли Z…».

Это новейший «эффект запоминания бренда», но он происходит с машинной скоростью и в больших масштабах, оказывая воздействие на миллионы юзеров, которые даже не посещают ваш веб-сайт.

Ровная рекомендация от ИИ важнее, чем 1-ое пространство в рейтинге Гугл, так как рекомендация ИИ имеет алгоритмический нрав. Юзеры не лицезреют конкурирующие источники; рекомендация контекстуализирована под их определенный запрос и возникает в момент принятия решения.

Еще есть контекстное присутствие: быть частью цепочки рассуждений, даже если вас не упоминают впрямую. Это собственного рода «черная материя» видимости в ИИ. Ваш контент может влиять на ответ модели без очевидной атрибуции, но при всем этом сформировывать то, как миллионы юзеров соображают тему.

К примеру, когда юзер спрашивает о наилучших практиках управления удаленной командой, ИИ может синтезировать инсайты из 50-ти источников, но очевидно сослаться лишь на три. Но другие 47 источников все равно воздействовали на ход рассуждения. Ваша экспертность по теме стала частью ответа, который увидят миллионы людей.

Запросы с высочайшим намерением – еще одна главная метрика. Узенькие, нижние по воронке промпты все еще преобразуют, демонстрируя CTR на уровне 2,6–4%. Обычно такие запросы соединены:

  • со сопоставлением товаров,
  • определенными инструкциями, требующими зрительных материалов,
  • недавнешними новостями либо событиями,
  • техническими либо регуляторными сведениями, где необходимы первоисточники,
  • академическими исследовательскими работами, требующими проверки ссылок.

Стратегический вывод очевиден: не стоит вполне отрешаться от оптимизации под клики. Заместо этого необходимо найти те 10-20% запросов, где клики все еще имеют значение, и очень усилить оптимизацию конкретно под их.

В конце концов, LLM оценивают авторитетность на базе того, что можно именовать «присутствием в окружающей экосистеме» и кроссплатформенной согласованностью.

Это включает:

  • внутреннюю согласованность всех ваших страничек;
  • разметку и структурированные данные, которые машинкам просто считывать;
  • согласованность с графом познаний через наличие в Wikidata, Wikipedia и отраслевых базах данных;
  • междоменную согласованность сущностей, когда авторитетные посторонние ресурсы упоминают вас единообразно;
  • временную согласованность, когда ваш авторитет сохраняется в протяжении долгого периода.

Этот полный подход к SEO улучшает все ваше цифровое присутствие как целостную и надежную структуру, а не как отдельные странички. Классические SEO-метрики не способны отразить этот сдвиг. Обладателям веб-сайтов потребуются новейшие панели мониторинга для отслеживания цитирований и упоминаний ИИ, новейшие инструменты для измерения «толики в моделях» на платформах LLM, новейшие методологии атрибуции в мире пост-клик и новейшие фреймворки для измерения воздействия без прямого трафика.

6. Для чего нам нужна «поисковая консоль ИИ»

Почти все SEO-специалисты сходу же узрели одно и то же в датасете: «Похоже, это ранешний проект поисковой консоли OpenAI».

В истинное время издатели не могут:

  • Поглядеть, сколько показов они получат в ChatGPT.
  • Измерить уровень включения в разные типы запросов.
  • Осознать, как нередко их бренд цитируется впрямую, как нередко только упоминается.
  • Найти, в которых частях пользовательского интерфейса они возникают почаще всего.
  • Сопоставить видимость в ChatGPT с доходами от следующих шагов либо показателями бренда.
  • Выслеживать воздействие на уровне сущностей в графе познаний.
  • Измерить, как нередко LLM извлекают из их данные в настоящем времени.
  • Осознать, почему они были выбраны (либо не выбраны) для определенных запросов.
  • Сопоставить свою видимость с соперниками.

У Гугл была метрика «Not Provided», скрывавшая данные по главным словам. У AI платформ может показаться статус «Not Even Observable» – когда укрыт весь процесс принятия решений. Это делает ряд заморочек. Для хозяев веб-сайтов нереально улучшить то, что недозволено измерить; отсутствует подотчетность AI-платформ, и возникает асимметрия в доступе к инфы. Для экосистемы это понижает инновации в контент-стратегии, концентрирует власть у AI-провайдеров и усложняет выявление и исправление предвзятости либо ошибок ИИ.

Основываясь на слитом датасете и потребностях промышленности, безупречная «AI Search Console» обязана предоставлять главные метрики, такие как:

  • размер показов по URL, сущностям и темам,
  • разбивку по UI-поверхностям,
  • характеристики кликабельности и метрики вовлеченности,
  • аналитику на уровне диалогов, показывающую неповторимые сеансы,
  • данные во временных рядах, отражающие динамику.

Она обязана показывать данные о атрибуции и источниках:

  • как нередко вас очевидно цитируют по сопоставлению с неявным внедрением,
  • какие соперники возникают рядом с вами,
  • группы запросов, в каких вы более приметны,
  • метрики, показывающие, как ИИ доверяет вашему контенту.

Инструменты диагностики растолкуют, почему были выбраны либо отклонены определенные URL-адреса, какие признаки свойства контента нашел ИИ, статус определения вашей сути, связь с графом познаний и проверку структурированных данных.

Советы по оптимизации выявят пробелы в отслеживании вашей сути, области контента со слабеньким авторитетом, способности улучшения видимости ИИ и конкурентноспособные инсайты.

OpenAI и остальные платформы искусственного ума в итоге должны будут предоставлять эти данные по нескольким причинам. Регулирующее давление со стороны Закона ЕС о искусственном уме и подобных нормативных актов может востребовать прозрачности алгоритмов. Медиапартнерства будут добиваться метрики видимости в рамках лицензионных соглашений. Финансовая устойчивость просит наличия циклов оборотной связи для здоровой экосистемы контента. А конкурентноспособное преимущество значит, что 1-ая платформа, предлагающая всеохватывающую аналитику, завлечет партнерские дела с издателями.

Анализируемый нами набор данных может представлять собой макет того, что в итоге станет обычной инфраструктурой.

Консоль ИИ поиска

7. Воздействие отрасли: СМИ (Средства массовой информации, масс-медиа — периодические печатные издания, радио-, теле- и видеопрограммы), монетизация и регулирование

Эти комменты вызвали суровые опаски и открыли новейшие способности для медиасектора. Контраст меж экономическими моделями Гугл и OpenAI разителен.

Гугл заносит собственный вклад в финансирование медиа, выплачивая смежные права в ЕС и остальных юрисдикциях. Компания как и раньше обеспечивает значимый трафик, хотя и снижающийся, и установила экономические дела с издателями. Гугл также участвует в маркетинговых экосистемах, финансирующих создание контента.

В отличие от этого, OpenAI и подобные ИИ платформы в истинное время платят лишь избранным медиапартнерам по личным соглашениям, фактически не направляют трафик с CTR наименее 1%, извлекают наивысшую ценность из контента, предоставляя минимальную компенсацию, и не делают маркетинговой экосистемы для издателей.

Обзоры ИИ уже понижают органический CTR. ChatGPT доводит эту тенденцию до логического окончания, фактически вполне заблокируя трафик. Это востребует полной реструктуризации бизнес-моделей и поставит животрепещущие вопросцы: должны ли ИИ платформы платить за смежные права, как это делают поисковые машины? Будут ли правительства вводить компенсационные механизмы за внедрение контента? Будут ли издатели договариваться о прямых партнерских отношениях с поставщиками программ LLM? Покажутся ли новейшие экосистемы лицензирования данных для обучения, вывода и цитирования? Как надо оценивать контент, который просматривают, но не перебегают по ссылкам?

Возникает несколько возможных экономических моделей. Одна из их – это вознаграждение на базе цитирования, когда платформы выплачивают вознаграждение зависимо от частоты цитирования либо использования контента. Это похоже на гонорары за потоковую музыку, но просит прозрачных характеристик.

В рамках лицензионных соглашений издатели будут лицензировать контент впрямую на ИИ-платформах, устанавливая многоуровневое ценообразование зависимо от авторитетности и актуальности. Это уже происходит с таковыми большими изданиями, как Associated Press, Axel Springer и Financial Times. Гибридные модели атрибуции будут соединять воединыжды частоту цитирования, показы и переходы по ссылкам, взвешенные по значению запроса и намерению юзера, для сотворения стандартизированных систем вознаграждения.

Регуляторные требования могут предугадывать, что правительства будут добиваться от ИИ-платформ делиться доходами с создателями контента, основываясь на прецедентах в области смежных прав. Это потенциально может включать неотклонимые механизмы арбитража.

Это станет наикрупнейшим сдвигом в экономике цифровых медиа со времен Гугл Ads. Платформы, которые справедливо решат эту делему, создадут устойчивые экосистемы. Те, кто этого не сделает, столкнутся с вмешательством регулирующих органов и мятежами издателей.

8. Что издатели и бренды должны создать уже на данный момент

На базе данных и отзывов профессионалов формируется новенькая стратегия. Во-1-х, издатели должны отдавать ценность вовлеченности, а не кликам. Реальная цель – быть частью решения, а не генерировать всплеск трафика. Это подразумевает создание всеобъятного, знатного контента, который может синтезировать ИИ, ценность ясности и фактической точности над трюками для увеличения вовлеченности, структурирование контента таковым образом, чтоб главные факты можно было просто извлечь, и установление авторитетности темы заместо погони за отдельными главными словами.

Не наименее принципиально крепить цифровое присутствие вашей организации. Любой бренд, создатель, продукт и теория должны быть машиночитаемыми и поочередными. Издателям следует обеспечить наличие собственной организации в Викиданных и Википедии, поддерживать единообразие данных NAP (имя, адресок, номер телефона) во всех ресурсах, внедрять расширенную разметку schema.org, создавать и поддерживать записи в графе познаний, создавать структурированные сборники товаров и устанавливать точные связи меж сущностями, связывая компании с людьми, продуктами и темами.

Создание сигналов доверия для поиска принципиально, так как LLM отдают ценность авторитетному, верно структурированному и недвусмысленному контенту.

Эти сигналы доверия включают:

  • Точные биографии, квалификацию и опыт создателей.
  • Редакционные эталоны, обхватывающие проверку фактов, политику исправления и поиск источников.
  • Авторитет домена, сформированный со временем, профилем оборотных ссылок и признанием в отрасли.
  • Структурированные данные, реализованные при помощи schema.org и расширенных сниппетов.
  • Фактическая последовательность, сохранение точности со временем без противоречий.
  • Экспертная проверка средством посторониих советов и ссылок.

Обладателям веб-сайтов не следует вполне отрешаться от оптимизации под клики. Заместо этого им стоит ориентироваться на запросы в нижней части воронки, которые как и раньше показывают измеримый показатель кликабельности (CTR) от 2% до 4%, так как откликов ИИ недостаточно.

Примеры запросов с высочайшим CTR:

  • «Как настроить [конкретную техническую конфигурацию]» (требуются зрительные материалы либо код).
  • «Сравните свойства [Продукта A] и [Продукта B]» (требуются таблицы, подробные сопоставления).
  • «Крайние анонсы о [важном событии]» (требуется указать давность).
  • «Где приобрести [конкретный продукт]» (транзакционное намерение).
  • «Вакансии [компании]» (требуется доступ к порталу вакансий).

Стратегия такая: обусловьте 10–20% направленного на определенную тематику места, где ИИ не может вполне удовлетворить намерения юзера, и оптимизируйте эти странички под клики.

Что касается контента, принципиально начинать с самой важной инфы, употреблять ясный и конкретный язык, ссылаться на первоисточники, избегать неопределенности и размытых формулировок, если лишь точность не просит их, также создавать материалы, которые остаются корректными и животрепещущими долгое время.

PromoPult интенсивно вводит ИИ инструменты в оптимизацию поисковых машин. Уже на данный момент вы сможете подключить «Динамическое SEO», где AI метод подбирает и повсевременно актуализирует главные слова, которые принесут трафик и конверсии. На платформе все есть для оптимизации контента под ИИ поиск – от подбора семантики и аудита до воздействия на наружные причины, которые наращивают авторитет веб-сайта. Протестировать SEO можно безвозмездно в течение 2-ух недель, а удачные кейсы в собственной теме отыщите по данной нам ссылке.

Может быть, самый принципиальный сдвиг – ментальный: перестаньте мыслить о трафике и начните мыслить о воздействии. Ценность сместилась с количества посещений на сам процесс рассуждений. Новейшие метрики фуррора должны выслеживать частоту цитирования вас ИИ, процент упоминаний вас в AI ответах в вашей сфере, как ваша «толика в модели» соотносится с толикой соперников, наращиваете ли вы кумулятивный авторитет, сохраняющийся при обновлениях модели, и распознает ли ИИ вас как окончательный источник инфы по вашим главным темам.

Стратегический фокус сдвигается с «вербования 1 миллиона гостей за месяц» на «воздействие на 10 миллионов решений, принимаемых при помощи ИИ».

Издателям также нужно диверсифицировать источники дохода, чтоб не зависеть от монетизации на базе трафика.

Другие модели включают:

  • выстраивание прямых отношений с аудиторией через email-базы, рассылки и клубные подписки;
  • предложение премиального контента – через paywall, подписки и эксклюзивный доступ;
  • интеграцию коммерции средством партнерских программ, продаж продуктов и услуг;
  • формирование B2B-партнерств для предоставления white-label контента, доступа к API и лицензирования данных;
  • заключение соглашений с AI-платформами о прямой компенсации за внедрение контента.

Издатели, которые контролируют дела со собственной аудиторией, а не зависят от посреднических платформ, будут процветать.

Феномен суперхищника

Фундаментальную правду о искусственном уме нередко упускают из виду: эти системы не генерируют контент без помощи других; они вполне полагаются на скопленный труд миллионов людей, включая журналистику, исследования, техно документацию и творчество, которые составляют базу хоть какой модели. Эта зависимость является предпосылкой того, почему OpenAI так напористо достигает лицензионных соглашений с большими издательствами. Это не акт корпоративной филантропии, а экзистенциальная необходимость. Языковая модель, обученная лишь на исторических данных, с каждым деньком больше отрывается от текущей действительности. Она не способна обнаруживать сенсационные анонсы либо обновлять свое осознание только через выводы. Она также не способна изобрести правду, используя одни только вычислительные мощности.

Это делает то, что я называю «финоменом суперхищника»: если OpenAI получится вполне повредить обычный веб-трафик, что приведет к краху издателей и понизит поток новейшего качественного контента до минимума, данные для обучения модели будут становиться все наиболее устаревшими. Ее осознание текущих событий будет ухудшаться, и юзеры начнут замечать, что ответы кажутся устаревшими и оторванными от действительности. На самом деле, суперхищник всосет свою экосистему и сейчас будет голодовать в сделанной им самим контентной пустыне.

Феномен неизбежен и подразумевает два совсем различных вероятных варианта грядущего.

В одном случае OpenAI продолжает относиться к издателям как к препятствиям, а не как к партнерам. Это приведет к краху экосистемы контента и зависящих от нее систем ИИ.

В другом случае OpenAI делится ценностью с издателями средством устойчивых моделей компенсации, систем атрибуции и партнерств. Это обеспечит создателям возможность продолжать свою работу.

Разница меж этими вариациями грядущего заключается не только лишь в разработках: инструменты для сотворения устойчивых AI систем, вознаграждающих создателей, в главном есть уже сейчас. Быстрее, это вопросец стратегического видения и готовности признать, что если искусственный ум желает стать всепригодным интерфейсом для человечьих познаний, он должен поддерживать мир, из которого он черпает познания, а не пожирать его ради короткосрочной выгоды.

Последующее десятилетие будет определяться не тем, кто создаст самую сильную модель, а тем, кто создаст самую устойчивую, разрешив феномен суперхищника до того, как он станет предпосылкой вымирания как экосистемы контента, так и систем ИИ, которые не сумеют выжить без него.

Примечание: все приведенные выше данные и статистика взяты из отчета партнеров Open AI, если не обозначено другое.

Примечание редакции PromoPult: иллюстрации переведены и отрисованы на базе изображений из первоисточника.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *