X
Меню сайта
GreenB
Войдите с помощью одной из соцсетей
Или с помощью нашего сайта
Зарегистрироваться Войти
Обратная связь

Обратная связь

OpenAI внедрила генератор изображений DALL-E 3 в свой ассистент основанный на ChatGPT - 4

DALL-E 3 является системой искусственного интеллекта, которая принимает текстовую подсказку в качестве входных данных и генерирует новое изображение в качестве выходных данных. DALL-E 3 основан на DALL-E 2 и улучшает точность подписи и качество изображений. В данной статье представлена информация о работе, проведенной для подготовки DALL-E 3 к внедрению, включая исследование внешних экспертов, оценку ключевых рисков и меры по снижению рисков, связанных с моделью, и устранение нежелательных поведенческих моделей.

Обучение модели DALL-E 3

Модель обучалась на изображениях и соответствующих им подписях. Изображения и подписи были взяты из общедоступных и лицензированных источников. DALL-E 3 был добавлен в качестве компонента генерации изображений в ChatGPT, нашего публичного ассистента, построенного на основе ChatGPT-4.

В этом контексте GPT-4 взаимодействует с пользователем на естественном языке и затем синтезирует подсказки, которые отправляются непосредственно в генератор изображений. Специалисты специально настроили эту интеграцию таким образом, чтобы при достаточно нечетких запросах на изображение GPT-4 генерировал более детальные подсказки, заполняя детали для создания более увлекательного изображения.

Одной из мер по снижению рисков, примененных на уровне модели, является фильтрация наиболее явного контента из набора данных для модели DALL-E 3. Токсичность включает сексуальный и жестокий контент, а также изображения некоторых символов ненависти. Фильтрация данных, применяемая к модели, была расширением алгоритмов, использованных для фильтрации данных, на которых мы обучали модель DALL-E 2. Одно из изменений состояло в уменьшении пороговых значений для широких фильтров относительно сексуальных и жестоких изображений и вместо этого применении более конкретных фильтров к особенно важным подкатегориям, таким как сексуальные изображения.

Снижение рисков генерации нежелательного контеннта

В дополнение к улучшениям на уровне модели, система DALL-E 3 имеет следующие дополнительные меры по снижению рисков:

  • Отказы ChatGPT: ChatGPT предусматривает меры по снижению рисков, связанных с чувствительным контентом и темами, что позволяет отказываться от генерации подсказок для изображений в некоторых контекстах.
  • Классификаторы ввода подсказок: Классификаторы, такие как наш существующий Moderation API, применяются для выявления сообщений между ChatGPT и пользователями, которые могут нарушать нашу политику использования. Нарушающие подсказки будут отклонены.
  • Blacklist: Мы поддерживаем списки запрещенных текстовых категорий, опираясь на нашу предыдущую работу по DALL-E 2, активному выявлению рисков и результатам от пользователей, чтобы предотвратить генерацию нежелательного контента.
  • Преобразования подсказок: ChatGPT изменяет отправленный текст, чтобы облегчить инструкции для DALL-E 3. Этот процесс также используется для обеспечения соблюдения наших руководств, включая удаление имен публичных лиц, придание конкретным людям определенных атрибутов и написание брендированных объектов в общем виде.
  • Классификаторы выходных изображений: Мы разработали классификаторы изображений, которые классифицируют изображения, созданные DALL-E 3, и могут блокировать их перед выводом, если эти классификаторы активированы.

Фильтрация запросов

Алгоритм, основанный на классификаторе, помогает улучшить фильтрацию нежелательного откровенного контента на платформе DALL·E 3. Когда классификатор обнаруживает откровенное изображение, текст подается на повторную обработку с помощью этого алгоритма. Это помогает модели DALL·E 3 генерировать более подходящие изображения. Эксперименты показали, что процент генерации нежелательного контента на платформе DALL·E 3 упал до 0,7%.

Важной проблемой является наличие предвзятости и стереотипов в генерируемых моделью изображениях. По умолчанию модель DALL·E 3 склонна представлять изображения, на которых изображены молодые женщины белой расы. Однако, с помощью ясно сформулированных запросов модель может генерировать изображения, соответствующие заданным требованиям и учитывающие различные группы людей. При этом преобразование запроса может изменить его смысл и привести к добавлению людей на сцену или присвоению человеческих характеристик нечеловеческим объектам.

При разработке DALL·E 3 сталкиваемся с проблемами достижения желаемого поведения системы, особенно при неопределенных запросах. Этот выбор может не соответствовать точной демографической структуре определенной культуры или географического региона. Специалисты планируют дальнейшую настройку своего подхода, включая помощь пользователям в настройке взаимодействия ChatGPT с DALL·E 3 для достижения соответствия между различными подлинными представлениями, предпочтениями пользователей и инклюзивностью. 

Нам важна ваша реакция

🔥
0
🚀
0
0
👎
0
Новое на сайте