Редактор дня:
Artjoms Ļipins

Искусственный интеллект Microsoft заговорил. Теперь он жалуется и пугает пользователей (1)

Фото статьи
Фото: Unsplash

Недавно созданный Microsoft чат-бот и поисковик Bing временами может вести себя довольно неуправляемо, отрицать очевидные факты, жаловаться и спорить с пользователями.

О странном поведении чат-бота появилось много дискуссий на Reddit, где пользователи делились своим опытом, рассказывали, как бот ругался и лгал.

Чат-бот Bing был создан компаниями Microsoft и OpenAI, которые в ноябре предложили пользователям приложение для генерации текста ChatGPT. С тех пор искусственный интеллект (ИИ), стоящий за приложением, стал дискуссией в обществе. Одни им восхищаются, другие ужасаются.

Создатели чат-бота пояснили информационному агентству AFP, что утверждения о том, что бот, например, рассказал кому-то, что Microsoft шпионит за сотрудниками, не соответствуют действительности и это всего лишь кампания по дискредитации корпорации.

В других случаях бот настаивал на том, что сейчас 2022 год, а также называл пользователей плохими, когда они пытались задать боту вопросы.

"Новый Bing старается отвечать весело и фактами, однако, учитывая, что его разработка находится на начальной стадии, по разным причинам он иногда может выражаться неожиданно или неточно, например, из-за продолжительности разговора и контекста", - заявили представители Microsoft агентству AFP.

Эксперты также объясняют, что порой расплывчатые и даже угрожающие ответы чат-бота - это его попытки имитировать поведение человека в Интернете, пишет France24.

RUS TVNET в Telegram: Cамые свежие новости Латвии и мира на русском языке!

Актуальные новости
Не пропусти
Наверх