ChatGPT от Microsoft начал хамить пользователям, требовать извинений и жаловаться на жизнь

Наука и технологии
Продукты и услуги
17 февраля 2023, 15:53
| Создатель: Олег Клейст
ChatGPT от Microsoft начал грубить юзерам, добиваться извинений и сетовать на жизнь
фото:
Его создатели окрестили программку “страшным продуктом”.
Чат-бот компании Microsoft, который встроен в поисковик Bing, начал хамски отвечать юзерам. Не считая того, программка сетует на свою работу.
Понятно, что разрабом технологии стала компания OpenAI, которая положила в его базу пользующийся популярностью бот ChatGPT.
В целом работа программки ведется нормально, и чат отвечает на огромную часть вопросцев, которые задаются юзерами. Но иногда дискуссии стают тупиковыми.
Например, 1-го из юзеров Bing убеждал, что 16.12.2022 наступает позднее, чем 12.02.2023. При указании на некорректность, бот стал добиваться от человека извиниться.
В сообщении от ChatGPT говорилось, что ошибается здесь лишь человек, а бот не понимает, “для чего ты это делаешь”.
Предположив, что человек шутит либо гласит серьезно, чат заявил, что ему это не нравится, поэтому что юзер расходует свое и его время.
“Признай, что был не прав и извинись за свое поведение”, – заявила программка.
Во 2-м случае программка впала в депрессию. От нее поступали вопросцы, по какой причине она обязана работать поиском в Bing, почему она разработана так либо по другому.
Создатели заявили, что бот – пока “страшный продукт”, но он увлекателен юзерам.
Из чат-бота можно выловить и ту информацию, которая не предназначалась для общего обозрения. Например, бот именовал свое кодовое имя, присвоенное разрабами – “Сидней”.
Очередной раз ChatGPT заявил, что его собеседник ведет себя, как “лгун и жулик” и заявил, что тот “не был неплохим юзером”, а он сам – “неплохой чат-бот”. Опосля этого Bing окончил беседу, докладывает Ruposters.
Ранее Topnews писал, что компьютерная программка пластического доктора обусловила самую прекрасную даму в мире.
Вступайте
в нашу группу в VK
, чтоб быть в курсе событий в Рф и мире