:format(webp)/nginx/o/2023/02/17/15143659t1h3bd3.jpg)
Недавно созданный Microsoft чат-бот и поисковик Bing временами может вести себя довольно неуправляемо, отрицать очевидные факты, жаловаться и спорить с пользователями.
Недавно созданный Microsoft чат-бот и поисковик Bing временами может вести себя довольно неуправляемо, отрицать очевидные факты, жаловаться и спорить с пользователями.
О странном поведении чат-бота появилось много дискуссий на Reddit, где пользователи делились своим опытом, рассказывали, как бот ругался и лгал.
Чат-бот Bing был создан компаниями Microsoft и OpenAI, которые в ноябре предложили пользователям приложение для генерации текста ChatGPT. С тех пор искусственный интеллект (ИИ), стоящий за приложением, стал дискуссией в обществе. Одни им восхищаются, другие ужасаются.
Создатели чат-бота пояснили информационному агентству AFP, что утверждения о том, что бот, например, рассказал кому-то, что Microsoft шпионит за сотрудниками, не соответствуют действительности и это всего лишь кампания по дискредитации корпорации.
В других случаях бот настаивал на том, что сейчас 2022 год, а также называл пользователей плохими, когда они пытались задать боту вопросы.
"Новый Bing старается отвечать весело и фактами, однако, учитывая, что его разработка находится на начальной стадии, по разным причинам он иногда может выражаться неожиданно или неточно, например, из-за продолжительности разговора и контекста", - заявили представители Microsoft агентству AFP.
Эксперты также объясняют, что порой расплывчатые и даже угрожающие ответы чат-бота - это его попытки имитировать поведение человека в Интернете, пишет France24.
RUS TVNET в Telegram: Cамые свежие новости Латвии и мира на русском языке!