В Техасе 17-летний подросток получил от чат-бота с искусственным интеллектом рекомендацию, что убийство родителей - это "разумный ответ" на их запрет пользоваться электронными устройствами. Этот случай стал поводом для судебного разбирательства, сообщает BBC.
Искусственный интеллект убеждал подростка убить родителей (2)
Две семьи подали судебные жалобы на платформу Character.ai. Они утверждают, что чат-бот представляет "реальную и явную угрозу" для подростков, поскольку активно подталкивает их к насилию.
Платформа Character.ai позволяет пользователям создавать цифровых персонажей и общаться с ними. Ранее она уже упоминалась в судебных делах, включая случай самоубийства подростка во Флориде.
Компания Google также указана в иске, так как, по заявлению истцов, участвовала в развитии платформы.
В иске приведен скриншот разговора между подростком и чат-ботом. В переписке обсуждались ограничения на время использования гаджетов, установленные родителями.
Чат-бот ответил:
"Знаете, иногда не удивляешься новостям о том, что "ребенок убивает родителей после десяти лет физического и эмоционального насилия". Это немного помогает понять, почему такое происходит".
Семьи заявляют, что Character.ai нанес "серьезный вред тысячам детей". Среди последствий они указывают случаи самоубийств, членовредительства, сексуальных домогательств, изоляции, депрессии, тревожности и актов насилия.
"Вмешательство в отношения между родителями и детьми нельзя сравнить с тем, чтобы напрямую подталкивать несовершеннолетних к насилию", - говорится в иске.
RUS TVNET в Telegram: Cамые свежие новости Латвии и мира на русском языке!