Искусственный интеллект Character ужесточает правила безопасности после того, как подросток-пользователь совершил самоубийство

Платформа чат-ботов Character AI ужесточает меры безопасности после судебного иска

Платформа чат-ботов на базе искусственного интеллекта Character AI вводит новые строгие меры безопасности после подачи иска матерью подростка, который покончил с собой в феврале. Компания предпримет улучшения в системах обнаружения, реагирования и принятия мер при вводе пользователями информации, нарушающей их Условия использования или Руководство сообщества, а также введет уведомления о времени, проведенном в чате. О новых мерах рассказал представитель компании в интервью изданию Decrypt, подчеркнув, что компания не может комментировать судебные разбирательства на данный момент.

В блоге компании Character AI выразили соболезнования в связи с гибелью пользователя и описали существующие протоколы безопасности.

"Мы потрясены трагической потерей одного из наших пользователей и хотим выразить наши глубокие соболезнования его семье. Как компания, мы очень серьезно относимся к безопасности наших пользователей,"- говорится в твите на странице Character.ai.

Отношения подростка с чат-ботом

За несколько месяцев до своей смерти 14-летний житель Флориды Сьюэлл Сетцер III стал особенно привязан к чат-боту, созданному на основе персонажа Игры престолов — Дейенерис Таргариен. Он общался с ботом десятки раз в день, иногда обмениваясь романтическим и сексуальным контентом, сообщает The New York Times.

О скорби и новых мерах безопасности

В последние месяцы Character AI внедрила ряд новых мер безопасности, включая всплывающее окно с направлением на линию поддержки по предотвращению самоубийств, которое активируется при упоминании терминов самоповреждения или суицидальных мыслей. Также компания изменит свои модели для снижения вероятности встречи с чувствительным или наводящим на размышления контентом для пользователей младше 18 лет.

Character AI относится к числу многочисленных приложений для виртуального общения с ИИ, которые часто имеют менее строгие руководства по безопасности по сравнению с традиционными чат-ботами, такими как ChatGPT. Пользователи могут настраивать своих виртуальных спутников и направлять их поведение.

Правовые действия и последствия

Иск, поданный в условиях растущей обеспокоенности родителей воздействием технологий на психику детей и подростков, утверждает, что привязанность Сетцера к боту негативно сказалась на его психическом здоровье. Сетцеру был поставлен диагноз легкого синдрома Аспергера, а недавно ему также диагностировали тревожное расстройство и расстройство нарушения настроения.

Действия, предпринятые компанией, рассматриваются в судебных делах, тестирующих юридическую защиту, предоставляемую социальным сетям согласно Разделу 230 Закона о приличии в коммуникациях, который защищает их от ответственности за контент, созданный пользователями.

By mae

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *