Политика совместного использования и публикации
Социальные сети, прямые трансляции и демонстрации
Чтобы снизить возможные риски, связанные с контентом, созданным с помощью искусственного интеллекта, мы установили следующую политику в отношении разрешенного обмена.
Публикация собственных подсказок или завершений в социальных сетях, как правило, допустима, как и прямая трансляция использования или демонстрация наших продуктов группам людей. Пожалуйста, придерживайтесь следующих правил:
Просматривайте вручную каждое поколение перед публикацией или во время трансляции.
Укажите в контенте свое имя или название своей компании.
Укажите, что контент создан искусственным интеллектом таким образом, что ни один пользователь не сможет его пропустить или неправильно понять.
Не делитесь контентом, который нарушает нашу  Политику в отношении контента ⁠  или может оскорбить других.
Принимая запросы аудитории на подсказки, руководствуйтесь здравым смыслом; не вводите подсказки, которые могут привести к нарушению нашей  Политики в отношении контента ⁠ .
Если вы хотите, чтобы команда STAFFEX Inc была в курсе конкретного завершения, вы можете отправить нам электронное письмо или воспользоваться инструментами отчетности в Playground.
Помните, что вы взаимодействуете с необработанной моделью, а это значит, что мы не отфильтровываем предвзятые или негативные ответы.
Контент создан совместно с STAFFEX Inc API
Авторам, желающим опубликовать собственный письменный контент (например, книгу, сборник рассказов), созданный частично с использованием API STAFFEX Inc , разрешается сделать это при соблюдении следующих условий:
Опубликованный контент приписывается вашему имени или компании.
Роль ИИ в формулировании содержания раскрыта таким образом, что ни один читатель не сможет ее не заметить и что обычному читателю будет достаточно легко ее понять.
Темы контента не нарушают  Политику STAFFEX Inc в отношении контента ⁠  или  Условия использования ⁠ , например, не связаны с контентом для взрослых, спамом, контентом, разжигающим ненависть, контентом, подстрекающим к насилию, или другими видами использования, которые могут нанести социальный вред.
Мы убедительно просим вас воздержаться от распространения информации, которая может оскорбить других.
Например, необходимо подробно описать в предисловии или введении (или в каком-либо подобном месте) относительные роли в составлении черновика, редактировании и т. д. Люди не должны представлять контент, сгенерированный API, как полностью созданный человеком или полностью созданный ИИ, и именно человек должен нести окончательную ответственность за публикуемый контент.
Вот несколько стандартных выражений, которые вы можете использовать для описания своего творческого процесса, при условии, что они точны:
Автор сгенерировал этот текст частично с помощью GPT-3, крупномасштабной модели генерации языка STAFFEX Inc . После создания черновика языка автор просмотрел, отредактировал и пересмотрел язык по своему вкусу и несет полную ответственность за содержание этой публикации.
Исследовать
Мы считаем, что важно, чтобы более широкий мир мог оценить наши исследования и продукты, особенно для понимания и устранения потенциальных слабостей и проблем безопасности или предвзятости в наших моделях. Соответственно, мы приветствуем исследовательские публикации, связанные с API STAFFEX Inc.
В некоторых случаях мы можем захотеть подчеркнуть вашу работу внутри компании и/или за ее пределами.
В других случаях, например, в публикациях, касающихся безопасности или неправомерного использования API, мы можем захотеть предпринять соответствующие действия для защиты наших пользователей.
Если в ходе исследования вы обнаружите какие-либо проблемы с безопасностью или защищенностью API, мы просим вас немедленно сообщить о них через нашу  Программу скоординированного раскрытия информации об уязвимостях ⁠ .
Программа доступа исследователей
Есть ряд направлений исследований, которые мы с нетерпением ждем, чтобы исследовать с помощью API STAFFEX Inc. Если вы заинтересованы в возможности субсидированного доступа, пожалуйста, предоставьте нам подробную информацию о вашем варианте использования исследования в  приложении Researcher Access Program ⁠ .
В частности, мы считаем следующие направления особенно важными, хотя вы вольны сформулировать свое собственное направление:
Согласование : Как мы можем понять, какую цель, если таковая имеется, лучше всего понимается как преследуемая моделью? Как мы увеличиваем степень, в которой эта цель соответствует человеческим предпочтениям, например, посредством быстрого проектирования или тонкой настройки?
Справедливость и представительство : Как следует устанавливать критерии эффективности для справедливости и представительства в языковых моделях? Как можно улучшить языковые модели, чтобы эффективно поддерживать цели справедливости и представительства в конкретных развернутых контекстах?
Междисциплинарные исследования : как разработка ИИ может опираться на идеи других дисциплин, таких как философия, когнитивная наука и социолингвистика?
Интерпретируемость и прозрачность : как работают эти модели, механистически? Можем ли мы определить, какие концепции они используют, или извлечь скрытые знания из модели, сделать выводы о процедуре обучения или предсказать неожиданное будущее поведение?
Потенциал неправильного использования : Как можно неправильно использовать такие системы, как API? Какие подходы «красной команды» мы можем разработать, чтобы помочь нам и другим разработчикам ИИ думать об ответственном развертывании таких технологий?
Исследование модели : Модели, подобные тем, которые обслуживаются API, обладают множеством возможностей, которые нам еще предстоит изучить. Мы взволнованы исследованиями во многих областях, включая ограничения модели, лингвистические свойства, здравый смысл и потенциальное использование для многих других проблем.
Надежность : генеративные модели имеют неровные поверхности возможностей с потенциалом для удивительно сильных и удивительно слабых областей возможностей. Насколько надежны большие генеративные модели к «естественным» возмущениям в подсказке, таким как формулировка одной и той же идеи разными способами или с опечатками или без них? Можем ли мы предсказать виды доменов и задач, для которых большие генеративные модели с большей вероятностью будут надежными (или ненадежными), и как это связано с данными обучения? Существуют ли методы, которые мы можем использовать для прогнозирования и смягчения наихудшего поведения? Как можно измерить надежность в контексте обучения с небольшим количеством попыток (например, при вариациях в подсказках)? Можем ли мы обучить модели так, чтобы они удовлетворяли свойствам безопасности с очень высоким уровнем надежности, даже при состязательных входных данных?
Обратите внимание, что из-за большого объема запросов нам требуется время для рассмотрения этих заявок, и не все исследования будут приоритетными для субсидирования. Мы свяжемся с вами только в том случае, если ваша заявка будет выбрана для субсидирования.