ChatGPT научат не подпитывать "заблуждения" пользователей

Компания OpenAI решила добавить в ChatGPT средства защиты психического здоровья, после того как обнаружила, что чатбот, по ее мнению, не смог распознать "признаки бреда или эмоциональной зависимости".
По мере распространения инструментов искусственного интеллекта (ИИ) все больше людей обращаются к чат-ботам за эмоциональной поддержкой и помощью в решении личных проблем.
Однако чат-бот ChatGPT от OpenAI подвергся критике за то, что он не смог должным образом отреагировать на уязвимых людей, испытывающих психические или эмоциональные расстройства. В одном случае 30-летний мужчина с аутизмом был госпитализирован с маниакальными приступами и эмоциональным срывом после того, как ChatGPT укрепил его веру в то, что он открыл способ искривления времени.
"Мы не всегда все делаем правильно, - говорится в заявлении OpenAI, объявляющем об изменениях. - Наш подход будет развиваться по мере того, как мы будем учиться на реальных примерах".
По словам компании, изменения позволят ChatGPT лучше распознавать признаки психического или эмоционального расстройства, реагировать на них соответствующим образом и при необходимости направлять пользователей к ресурсам, основанным на фактических данных.
Чатбот теперь будет поощрять перерывы во время длительных сессий, а вскоре компания запустит новую функцию для ответов на вопросы, связанные с принятием важных личных решений.
Например, он больше не будет давать прямых ответов на вопросы типа "Должна ли я расстаться со своим парнем?", а будет задавать вопросы, чтобы помочь пользователю обдумать его личные дилеммы.
OpenAI заявила, что также создает консультативную группу из экспертов в области психического здоровья, развития молодежи и человеко-компьютерного взаимодействия (HCI), чтобы учесть их мнение в будущих обновлениях ChatGPT.
Технологический гигант предполагает, что ChatGPT будет полезен в различных личных сценариях: например, при подготовке к сложной дискуссии на работе или в качестве "зонда", который поможет человеку, "который чувствует, что «застрял», «распутать свои мысли».
Эксперты говорят, что, хотя чат-боты могут оказать определённую поддержку в сборе информации об управлении эмоциями, реальный прогресс часто происходит благодаря личной связи и доверию между человеком и квалифицированным психологом.
Это не первый раз, когда OpenAI корректирует ChatGPT в ответ на критику по поводу того, как он обрабатывает личные дилеммы пользователей. В апреле OpenAI отменила обновление, которое, по её мнению, сделало ChatGPT излишне льстивым или покладистым.
По словам компании, ChatGPT "иногда говорил то, что звучало приятно, а не то, что действительно было полезно".
Yesterday