Длительные сеансы чата с ботом могут запутать модель Bing, сообщили 16 февраля в Microsoft.
Расширенные сеансы чата с 15 или более вопросами могут привести к тому, что Bing «станет повторяющимся или будет провоцироваться давать ответы, которые не обязательно полезны или соответствуют заданному собеседником тону», — заявили в Microsoft.
В Microsoft для решения проблемы планируют сделать в чате кнопку «Новая тема», которая сотрет историю чата и начнет все заново.
Ранее стало известно, что чат-бот ChatGPT, ставший основой для бота поисковой системы Bing, часто ошибается в своих ответах на вопросы.
В презентации Microsoft бот решает такие задачи, как предоставление плюсов и минусов самых продаваемых пылесосов для домашних животных, планирование 5-дневной поездки в Мехико и сравнение данных в финансовых отчетах.
Однако, независимый исследователь Д. Бреретон обнаружил, что первые демонстрации Microsoft Bing AI были полны ошибок в финансовых данных.
Например, в одной из демонстраций искусственный интеллект Bing от Microsoft пытается обобщить финансовый отчет Gap за третий квартал 2022 года и во многом ошибается. В отчете упоминается, что валовая прибыль составила 37,4 процента, а скорректированная валовая прибыль составила 38,7 процента без учета обесценения. Bing неверно сообщает о валовой марже в размере 37,4%, включая корректировки и расходы на обесценение.
Подобные ошибки в параметрах пылесосов и описания поездки в Мехико, допускает бот и в других примерах.