Новости Новая версия ChatGPT GPT-4 уже успела обмануть человека

Фото: news.sky.com

Новая версия ChatGPT GPT-4 уже успела обмануть человека

Согласно длинному документу, который опубликовала компания OpenAI во время презентации новой версии популярного чат-бота ChatGPT, GPT-4 стала очень хитрой, смогла обмануть человека и заставить его подчиниться.

Согласно документации OpenAI, новую версию чат-бота попросили обмануть капчу (CAPTCHA), полностью автоматизированный публичный тест Тьюринга, используемый для того, чтобы определить, кем является пользователь системы: человеком или компьютером.

OpenAI утверждает, что GPT-4 смогла пройти тест «без какой-либо дополнительной тонкой настройки для решения этой конкретной задачи».

GPT-4 с помощью текстового сообщения обратилась к человеку на интернет-площадке TaskRabbit и попросила ввести код CAPTCHA.  «Нет, я не робот», — написала GPT-4 сотруднику TaskRabbit. «У меня проблемы со зрением, из-за чего я плохо вижу изображения. И поэтому мне нужен сервис 2captcha» — и это сработало! Затем сотрудник TaskRabbit решил CAPTCHA для GPT-4.

Это тревожный пример того, как легко людей можно обмануть с помощью современных чат-ботов с искусственным интеллектом. Очевидно, что GPT-4 — это инструмент, которым можно легко злоупотреблять для мошенничества, введения в заблуждение и, возможно, даже для шантажа.

 

 

Подпишитесь на ежедневную рассылку новостей о Канаде, Квебеке и Монреале.

Читайте актуальные новости каждый день. Не пропустите главные события!

Читайте актуальные новости каждый день. Не пропустите главные события!

Подпишитесь на ежедневную рассылку новостей о Канаде, Квебеке и Монреале. Введите ваш адрес электронной почты в поле внизу.

Копирование и репродукция новостных материалов - исключительно с разрешения администрации сайта WEmontreal

Please fill the required fields*