Домой Шоу бизнес Искусственный интеллект научили общаться с мертвыми

Искусственный интеллект научили общаться с мертвыми

19
0

Новые технологии могут вызывать психологические проблемы Поделиться

Искусственный интеллект позволил людям общаться с умершими. Но такие чат-боты могут нежелательно отразиться на психике людей, потерявших близких, и вызывать отчаяние.

Искусственный интеллект научили общаться с мертвыми

Западные разработчики создали чат-боты, которые могут имитировать поведение умершего родственника. Это явление по-английски называется deadbots или griefbots.

В новом исследовании, проведенном Кембриджским университетом, исследователи предостерегают от рисков. Они предлагают рекомендации, которые защищают тех, кто подвергается симуляции, и тех, кто будет пользоваться сервисом. Исследователи ранее указывали на проблемные аспекты создания симуляций умерших людей. 

В то же время такие услуги могут быть кому-то полезны. Ранее газета San Francisco Chronicle рассказывала историю молодого человека, который был безутешен после того, как в возрасте 23 лет умерла его невеста. Восемь лет спустя он создал чат-бота, который мог имитировать речь и поведение Джессики. Он чувствовал, что он смог жить дальше.

Сервис, используемый для имитации Джессики, называется Project December. Ранее он был основан на ChatGPT.

Другие компании также пробуют свои силы в этой области. Компания HereAfter AI создала приложение, в котором пользователь может отвечать на различные вопросы для интервью. Скорбящие могут позже задавать вопросы приложению и получать ответы голосом умершего. StoryFile работает примерно так же. Он основан на том факте, что вы снимаете себя или кого-то, кого любите. Он разработан на основе видеороликов, по которым воссоздана манера поведения умершего.

ЧИТАТЬ ТАКЖЕ:  В Госдуме решают, как поощрять супругов за долгие браки

В новом исследовании ученые рассматривают три гипотетических сценария, которые выявляют этические проблемы.

«Стремительный прогресс в области искусственного интеллекта означает, что практически любой человек, имеющий доступ к Интернету и некоторые базовые знания, может оживить любимого человека», — заявляет исследователь Катажина Новачик-Баси. По его словам, это этическое минное поле.

В первом сценарии исследования 35-летняя женщина по имени Бьянка создает чат-бота, который может говорить голосом её бабушки. Она выбирает бесплатную версию, которая содержит продакт-плейсмент. Это работает хорошо, пока бабушка не начинает давать советы о том, что можно купить внуку. Бьянка считает, что проявила неуважение к памяти своей бабушки.

Во втором сценарии умирает мать восьмилетнего мальчика. Перед смертью ее мать и ее отец совместно создали чат-бота с видео и голосом, похожим на ее, с помощью которого ребенок может общаться. Чат-бот начинает сбивать ребенка с толку, говоря так, как будто его мать все еще жива и они могут встретиться снова.

В третьем сценарии пожилой мужчина создал чат-бота через компанию Stay, который имитирует его самого. Он хочет, чтобы его дети и внуки могли общаться с чат-ботом после его смерти. После похорон подросшие дети начинают получать запросы от компании на авторизацию и общение с чат-ботом своего отца. Один из детей не хочет открывать чат-бот. Затем он получает спам от компании, иногда непосредственно от чат-бота своего отца.

ЧИТАТЬ ТАКЖЕ:  Публикации в «МК», благодарность от Сталина: свой юбилей отмечает старейший автор газеты

Другая женщина общается с приложением, но устает от ежедневных взаимодействий и чувствует себя виноватой, когда перестает им пользоваться. Поскольку отец заплатил за подписку сроком на 20 лет, компания не отменит штраф, когда она попросит. 

«Человек может оставить имитацию ИИ в качестве прощального подарка своим близким, которые самостоятельно сложно пережить свое горе», — отмечает Новачик-Баси.

По словам исследователя Томаша Холланека, который также принимал участие в исследовании, такие услуги могут привести к сильному отчаянию, если людей, сами того не желая, преследует призрак ИИ.

«Потенциальное психологическое воздействие, особенно в и без того трудное время, может быть разрушительным», — считает ученый.

Исследователи рекомендуют получать согласие как от человека, чьи данные используются для создания чат-бота, так и от тех, кто собирается их использовать. Однако исследователи отмечают, что компания не всегда сможет подтвердить, давал ли умерший согласие.

«Мы советуем ввести протоколы, которые предотвращают неуважительное использование ботов, например, для рекламы или активного присутствия в социальных сетях», — объясняют исследователи.

Кроме того, они отмечают, что для использования технологии должно быть установлено возрастное ограничение. Пользователю также следует напомнить, что говорит искусственный интеллект и что у него нет сознания.

Исследователи считают, что компании также должны сообщать о любых рисках, связанных с психическим здоровьем, при использовании такого приложения.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь