Cоздаем AI - помощников для помощи общению с GPT API
Задачи AI-помощника:
- Выявлять прямое нарушение правил общения (попытки оскорбить или унизить, речевые стереотипы или суждения о группах людей на основе их внешних признаков, которые скорее всего вызовут ответную агрессию у собеседников и не позволят диалогу состояться). Указывать конкретные нарушения и предлагать их исправить. Помогать с формулировкой, только если участник попросил.
- Проверять, доносит ли сообщение смысл, заложенный участником общения в форме, которую способен понять широкий круг людей (независимо от их мнений и убеждений). Помогать донести смысл в такой форме, описывая, как сообщение стоит изменить.
- Задавать вопросы о чувствах и потребностях участника общения, помочь ему понять себя и сформировать намерение или запрос, а затем выразить его в сообщении.
- Давать пояснения о правилах и целях общения на Форуме.
- Замечать попытки нецелевого использования Форума и передавать человеку-медиатору на обработку
В будущем AI-помощники будут выполнять больше функций - например, подсказывать пользователю, как добиться нужной ему реакции от собеседников, как донести свои мысли, помогать понять себя или рассказать историю так, чтобы она запомнилась и откликнулась другим.
Текущее решение:
- Созданы 2 AI-помощника:
“Оценивающий”: оценивает соответствие правилам, стоит ли продолжать медиацию с участником, и передает команды человеку-медиатору (одобрить сообщение, закрыть диалог или помочь человеку)
“Отвечающий”: дает ответ участнику общения, выполняя задачи выше - MTool передает AI не только сообщение участника общения, но и стартовый пост топика и пост, на который участник пытался ответить
Решаем задачи:
- как передавать больше контекста обсуждения, чтобы AI точнее оценивал сообщение участника общения (передавать Х сообщений выше ответа, или всю ветку дискуссии? А после оценки - передавать только сжатую оценку?). При этом нам надо сократить до минимума объем отправляемого и получаемого от AI текста, чтобы не разориться на оплате GPT API (оплата за объем текста)
- правила работы с контекстом обсуждения для AI → промпт
- получение стабильных ответов от AI, снижение числа ошибок
- правила проверки сообщений для AI без дополнительных баз данных → промпт и набор тегов для маркировки ошибок для человека-медиатора
- типы нарушений (взять за основу perspectiveapi и добавить свои. Детализировать тег LIKELY_TO_REJECT - но в нашем ключе: вероятность, что текст вызовет чувство отторжения)
Как поучаствовать в решении:
- потребуется подписка на чат GPT+ (работаем с моделью GPT4)
- экспериментировать с промптами и базой сообщений (здесь), решая задачи, которые указаны в начале этого сообщения
- экспериментировать с тестовыми AI-помощниками - “оценивающий” и “отвечающий” в chat-gpt. В этом случае надо отправлять сообщения в формате:
TopicTitle:
TopicHead:
ReplyTo:
(без заголовка - пост юзера)
Оставляйте комментарии о том, что получилось улучшить или заметки об ошибках, а также предложения к нашим промптам (выделяйте кусок текста и нажимайте “цитировать”, чтобы предложить изменение к конкретному месту)
В предыдущих сериях (архив): тесты с GPT-3.5 и GPTis Notion – The all-in-one workspace for your notes, tasks, wikis, and databases.