Сайт о психическом здоровье, использующий чат-бот с искусственным интеллектом, показывает, почему нам нужны более строгие правила

Компьютерные новости и новости технологий на Game-Zoom

Поставщик услуг по охране психического здоровья Koko недавно подвергся критике за то, что отвечал на сообщения некоторых пользователей с помощью искусственного интеллекта, что подчеркивает необходимость строгих правил. ИИ продолжает играть все более важную роль в повседневной жизни, а крупные бренды, такие как Apple, изучают возможности этой технологии. Однако есть опасения, что более широкое использование ИИ для задач, которые обычно выполняют люди, приведет к потере рабочих мест или нанесет ущерб целым творческим отраслям. Вот почему в прошлом году участились призывы к регулированию, поскольку правительство США уже разрабатывает политику, способствующую безопасному использованию моделей ИИ.

Koko, служба поддержки психического здоровья, управляет сетью анонимных добровольцев, которые предлагают эмоциональную поддержку тем, кто в ней нуждается, от обращения за советом в отношениях до желания услышать несколько добрых слов. Предполагается, что пользователь взаимодействует с другим человеком, но NBC News обнаружила, что платформа использовала GPT-3 — известный чат-бот Open AI — для составления ответов. В ветке Twitter соучредитель Koko Роб Моррис сказал, что это сделано для оптимизации времени отклика и повышения операционной эффективности. Он добавил, что волонтерам Коко было предложено редактировать сформулированные ответы. Однако Коко отключила чат-бот после возмущения общественности.

Политика искусственного интеллекта нужна больше, чем когда-либо

Инструменты на основе искусственного интеллекта призваны помочь снизить затраты и повысить производительность, но растущий потенциал неправильного использования вызывает беспокойство. Намерения Коко кажутся разумными, если цель состоит в том, чтобы оказать помощь большему количеству людей. Однако использование чат-бота без информирования тех, кто достаточно доверяет платформе, чтобы поделиться своими проблемами, возможно, неэтично. Несмотря на потенциальное преимущество кажущейся эффективной технологии, ИИ не может обрабатывать эмоции. Чат-бот может генерировать более быстрые ответы, но в ответах не хватает доброты и сочувствия, которые может дать человек, в чем и заключается весь смысл службы охраны психического здоровья.

Моррис признает, что ответ, сгенерированный ИИ, не имеет того эмоционального контекста, который можно найти в сообщении, составленном человеком. Он сказал: «Как только люди узнали, что сообщения были созданы машиной, это не сработало. Имитация эмпатии кажется странной, пустой». Возможно, когда-нибудь машины смогут обрабатывать человеческие эмоции. Но до тех пор компании, планирующие автоматизировать предоставление своих услуг, должны придерживаться строгих правил, регулирующих технологию, чтобы защитить потребителей от опасностей повышенной автоматизации.

По мере раскрытия новых вариантов использования власти должны корректировать политику с учетом новых рисков. Бренды, использующие модели ИИ, должны нести ответственность за свои действия. Особенно, когда речь идет о том, чтобы не информировать пользователей об использовании ИИ для услуг, которыми традиционно управляют люди. Потенциал для интеграции ИИ огромен. А поскольку искусственный интеллект может имитировать взаимодействие без ведома кого-либо, существует очевидная необходимость в четко определенных правилах и законах, чтобы избежать уловок.

Законодательство об искусственном интеллекте находится в стадии разработки в нескольких странах и должно стать приоритетом. Правительство США начало усилия по регулированию ИИ в 2020 году, приняв Закон о национальной инициативе в области искусственного интеллекта. Хотя еще многое предстоит сделать, политика в области искусственного интеллекта вскоре должна занять центральное место.

Последнее обновление 26.01.2023