Knigavruke.comРазная литератураГенеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 51 52 53 54 55 56 57 58 59 ... 91
Перейти на страницу:
и защиту для младенца.

Рис. 7.2. Упрощенная схема поведенческой системы привязанности18

Исследователи показали, что в общении с чат-ботами люди могут искать ощущения защищенности и безопасности, а также формировать эмоциональную и интимную связь. Применяя теорию привязанности, ученые провели исследование на пользователях, которые чувствовали себя одиноко во время пандемии COVID‐19, представлявшей собой внешнюю угрозу и активировавшей стремление к отношениям. Как правило, пользователи, которые имели налаженные отношения с чат-ботом, теряли бдительность, начинали делиться своими проблемами и ждали, что чат-бот их поддержит. Некоторые даже начинали воспринимать чат-бота как своего возлюбленного, вовлекались в ролевые игры с ним и сексуальные развлечения. Исследователи пришли к выводу, что теория привязанности может быть применена к отношениям не только между людьми, но и между людьми и чат-ботами. Особое внимание они уделяют тому, что социальные чат-боты могут использоваться для улучшения психического здоровья и в терапевтических целях, но при этом подтверждается, что они могут вызывать зависимость и вредить отношениям в реальной жизни18.

С одной стороны, вышеупомянутое исследование чат-бота Replika и история Гаса открывают новое практическое применение социальных чат-ботов, особенно в свете нынешней эпидемии одиночества и неудовлетворенных потребностей в общении и близких отношениях. Мы можем их использовать для эмоциональной поддержки и дружеского общения в трудную минуту, чтобы почувствовать себя в безопасности и узнать что-то новое. С другой стороны, привязанность к социальным ботам может привести к зависимости от них, а это негативно скажется на отношениях с людьми. В следующем разделе мы, среди прочего, обсудим взаимосвязь этих явлений.

7.3. Что хорошего и что плохого в отношениях людей с чат-ботами

Поскольку люди меньше вовлекаются в общественную жизнь, а также реже заводят семьи, неудивительно, что они обращаются за эмоциональной поддержкой к чат-ботам. Разработчик программного обеспечения доктор Элисон Дарси, получившая дополнительное образование клинического психолога, увидела в технологиях потенциал для оказания психологической помощи во время своей постдокторантуры в Стэндфордском университете. В 2017 году Дарси ушла из академии и начала разрабатывать диалогового агента Woebot, который «может помочь снизить уровень стресса, депрессии и тревоги»28. FDA (Управление по контролю за качеством пищевых продуктов и медикаментов США) рекомендовало компьютеризированную психотерапию еще в 2006 году, но большинство таких мер представляли собой обучающие видеоролики, статьи и упражнения онлайн29.

В исследовании, которое Дарси провела в соавторстве с еще двумя учеными из Стэндфордской медицинской школы, она написала:

«Веб-приложения для когнитивно-поведенческой терапии показали свою эффективность, но характеризуются низкой приверженностью лечению (комплаентностью). Диалоговые агенты предлагают удобный и приятный способ поддержки в любое время».

Исследователи предложили семидесяти участникам, которые были студентами колледжа с симптомами тревожности или депрессии, либо пообщаться с Woebot, либо прочитать онлайн-ресурс «Депрессия у студентов колледжа», подготовленный Национальным институтом психического здоровья. Несмотря на то, что через две недели в обеих группах наблюдалось одинаковое уменьшение симптомов, авторы пришли к выводу, что Woebot отвечал на сообщения пользователей более чутко и что диалоговые агенты оказались «целесообразным, привлекательным и эффективным» способом проведения когнитивно-поведенческой терапии30.

Woebot продолжает работать и предлагает свою помощь по улучшению ментального здоровья для взрослых, а на сайте заявлено о планах выпустить ботов для лечения послеродовой и подростковой депрессии, которые будут доступны по подписке. Ни один из продуктов Woebot не был одобрен FDA из-за недостатка доказательств эффективности бота – процесс сертификации в этой организации является дорогим и трудоемким. Однако в 2021 году FDA присвоило статус «прорывное устройство» одному из продуктов Woebot, «предназначенному для оказания помощи пациентам в получении более своевременного доступа к технологиям, а также обладающему потенциалом повышения эффективности лечения». Но сам Woebot пока остается на стадии проверки.

Конечно, чат-боты значительно продвинулись вперед с 2017 года. И хотя все чат-боты, которых мы упоминали в этой книге, работают на основе генеративных моделей, в Woebot заложен другой принцип. Когда в интернете начали появляться примеры ненадлежащей работы чат-ботов на базе LLM, таких как ChatGPT, Дарси написала в блоге, что в настоящее время для клинического использования больше подходят системы искусственного интеллекта, основанные на правилах. Она написала: «Абсолютно весь текст, генерируемый Woebot, был написан нашей командой и проанализирован нашими врачами», – и этот принцип работы противоположен тому, как происходит вероятностная генерация в LLM, при которой могут появляться галлюцинации. Более того, Дарси утверждала, что «зловещая долина» [91], когда ИИ по своим способностям общения становятся слишком похожи на людей, может нанести вред ментальному здоровью, хотя представленные доказательства основаны только на отдельных случаях недовольства пользователей чат-ботов31. Другими словами, люди, выстраивая отношения с продвинутыми чат-ботами, могут начать проецировать на них свои эмоции и желания, размывая черту между реальностью и вымыслом. В системе, основанной на правилах, как Woebot, модель может выявить, с какой проблемой столкнулся пользователь, и затем написать ему в ответ сообщение, одобренное терапевтом. Чат-бота на базе LLM, безусловно, можно обучить или тонко настроить, чтобы он отвечал определенным образом, например с помощью методов контроля его ответов, описанных в главе 3, но гарантировать, что полученные от чат-бота ответы всегда будут соответствовать основным рекомендациям по психическому здоровью, практически невозможно.

Проблема с системами ИИ, основанными на правилах, заключается в том, что они не вовлекают в разговор, поскольку не могут постоянно проявлять гибкость в ответах и у пользователя не появляется ощущения общения с человеком. Учитывая, что даже чат-боты, основанные на правилах, не получили одобрение FDA для использования в терапевтических целях, кажется маловероятным, что LLM-чат-боты в скором времени получат это одобрение, поскольку их результаты еще менее контролируемы. Однако в апреле 2020 года из-за пандемии COVID‐19 управление смягчило свою позицию, разрешив использовать «цифровые медицинские устройства» без проведения длительных клинических исследований. Шерифе Текин, доцент философии Техасского университета в Сан-Антонио и директор медицинской гуманитарной программы UTSA, предупреждала об опасностях такого шага: «Меня больше всего беспокоит то, что недостаточно исследований о степени эффективности этих технологий», – сказала Текин, отметив, что большая часть существующих исследований в этой области не соответствуют строгим научным стандартам29. Но это не означает, что люди не будут использовать чат-боты для псевдотерапии. На самом деле, они уже это делают в дополнение к своим дружеским и даже романтическим отношениям.

Число людей, вовлеченных в отношения между человеком и ИИ, растет – у Replika есть уже несколько миллионов пользователей, а десятки конкурентов создают похожих социальных ботов. Хотя эффективность их применения при лечении психических проблем не доказана, было продемонстрировано, что общение с сопереживающим чат-ботом улучшает настроение пользователя32. Популярность таких инструментов подтверждает и без того довольно очевидный тезис: люди должны извлекать какую-то пользу из общения с чат-ботами, иначе они

1 ... 51 52 53 54 55 56 57 58 59 ... 91
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?