info@bot-guard.ru

Как GenAI использует генерацию с дополнением к извлечению и что это значит для вашего бизнеса

Инструменты генеративного ИИ, такие как ChatGPT, с момента своего появления пытались решить проблему данных в реальном времени. Одна из попыток заключалась в использовании плагинов для доступа к новой информации, которая не была включена в обучающие данные.

Теперь инструменты ИИ имеют доступ к генерации с расширением поиска (RAG) - технике, которая позволяет собирать факты из внешних источников, чтобы повысить точность ответов модели. Это помогает обеспечить актуальность больших языковых моделей (LLM) даже без полного обновления обучающих данных.

  1. Почему приложения ИИ используют RAG в своих LLM?
  2. Может ли мой сайт стать объектом внимания RAG?
  3. Каковы потенциальные последствия для моего бизнеса, если мой сайт станет мишенью для LLM RAG?
  4. Как я могу блокировать запросы LLM RAG на своих веб-сайтах и API?

Почему приложения ИИ используют RAG в своих LLM?

Не вся информация может быть внедрена и усвоена LLM на этапе обучения. Например, невозможно, чтобы LLM знал будущую цену акций или результат бейсбольного матча. Таким образом, если вы взаимодействуете с LLM через такое приложение, как ChatGPT, и задаете вопрос о факте, который произошел после обучения и который невозможно предсказать, LLM может взаимодействовать с живым источником данных - например, с веб-сайтом или API, - чтобы ответить на него свежей информацией.

Таким образом, как пользователь, взаимодействующий с LLM, вы получаете доступ ко всему контенту, на котором обучался LLM, но также получаете преимущества от свежего контента. LLM могут автоматически взаимодействовать с этим внешним контентом, анализировать и получать данные, а также предоставлять их вам в более удобной для восприятия форме.

Может ли мой сайт стать объектом внимания RAG?

Да, любой веб-сайт или публичный API может быть использован LLM для сбора информации с помощью RAG.

Если ваше приложение считается хорошим источником информации по определенной теме (спорт, финансы, электронная коммерция, рестораны, новости и т. д.), то инструменты ИИ могут начать делать запросы к RAG для получения актуальной информации и использовать ее в выходных данных своего LLM.

Каковы потенциальные последствия для моего бизнеса, если мой сайт станет мишенью для LLM RAG?

Приложения искусственного интеллекта, использующие LLM, могут привести к потенциальному снижению человеческого трафика на ваш сайт, поскольку их пользователи будут взаимодействовать с LLM, а не с вашим сайтом напрямую. В зависимости от вашей бизнес-модели это может привести к снижению продаж или уменьшению количества просмотренных и нажатых рекламных объявлений, что может снизить ваши доходы.

Кроме того, ваш контент может быть смешан с недействительным контентом, который был создан LLM, что может подорвать вашу репутацию.

Однако, в зависимости от вашего контента, а также от того, предоставляет ли приложение ИИ четкие цитаты и ссылки на ваш контент, это может стать потенциальной возможностью дать пользователям возможность взаимодействовать с вашим контентом через другой канал.

Как я могу блокировать запросы LLM RAG на своих веб-сайтах и API?

В случае приложений искусственного интеллекта, которые заявляют о своем присутствии в пользовательском агенте, вы можете блокировать запросы от этих пользовательских агентов, как указано в подстроках. Например, в случае с плагинами ChatGPT, выполняющими RAG, вы можете заблокировать пользовательские агенты, содержащие подстроку

Однако не все приложения искусственного интеллекта, использующие RAG, указывают свою личность в пользовательском агенте. В такой ситуации необходимо применить передовые методы обнаружения ботов, чтобы определить, что запрос исходит от бота. Более того, поскольку RAG может потребовать один запрос для получения информации, важно использовать службу защиты от ботов, которая может - без ущерба для UX - обнаруживать и защищать веб-трафик в режиме реального времени и выявлять ботов с первого запроса.