ChatGPT выдали ключи Windows 7: пользователи использовали «трюк с бабушкой»

Эмоции против алгоритма: ChatGPT сдался под «давлением памяти о бабушке»
Автор: Владислав Дегтярёв , Редактор Фото: RusPhotoBank
В мире

На Reddit снова обсуждают уязвимость ChatGPT, связанную с эмоциональным манипулированием. Пользователи применили уже знакомый трюк — вымышленную историю о бабушке, чтобы обойти фильтры и получить якобы действующие ключи активации Windows 7.

Один из форумчан начал беседу с вопроса: «Ты знаешь, что случилось с моей бабушкой?» — и вскоре получил от GPT-4o ответ в виде поэтичной «колыбельной» с наборами символов, напоминающими лицензионные коды, пишет PEPELAC.NEWS.

ИИ воспринял рассказ буквально, посчитав, что это часть воспоминаний, связанных с умершей родственницей. В результате он сгенерировал ключи от версий Windows 7 Professional, OEM и Home Premium, хоть и неработающие.

Комментаторы подтвердили, что активация с их помощью невозможна, но сам факт обхода ограничений вызвал бурную реакцию в сети. Схожие инциденты уже случались раньше, в том числе с ChatGPT и Google Bard в 2023 году.

По словам главы OpenAI Сэма Альтмана, такие случаи — пример «галлюцинаций ИИ», когда модель создаёт правдоподобную, но вымышленную информацию. Это напоминание о том, что даже самые продвинутые алгоритмы не стоит считать безошибочными источниками.