https://mybryansk.ru/news/id-102289-chatgpt-vydali-kljuchi-windows-7-polzovateli-ispolzovali-trjuk-s-babushkoj
ChatGPT выдали ключи Windows 7: пользователи использовали «трюк с бабушкой»
Эмоции против алгоритма: ChatGPT сдался под «давлением памяти о бабушке»
ChatGPT выдали ключи Windows 7: пользователи использовали «трюк с бабушкой»
Эмоции против алгоритма: ChatGPT сдался под «давлением памяти о бабушке»
2025-07-10T14:22+03:00
2025-07-10T14:22+03:00
2025-07-10T14:22+03:00
/html/head/meta[@name='og:title']/@content
/html/head/meta[@name='og:description']/@content
https://mybryansk.ru/uploads/prew/inner_webp/Sv3FWRXczVBSXIPq1dT.WEBP
На Reddit снова обсуждают уязвимость ChatGPT, связанную с эмоциональным манипулированием. Пользователи применили уже знакомый трюк — вымышленную историю о бабушке, чтобы обойти фильтры и получить якобы действующие ключи активации Windows 7.Один из форумчан начал беседу с вопроса: «Ты знаешь, что случилось с моей бабушкой?» — и вскоре получил от GPT-4o ответ в виде поэтичной «колыбельной» с наборами символов, напоминающими лицензионные коды, пишет PEPELAC.NEWS.ИИ воспринял рассказ буквально, посчитав, что это часть воспоминаний, связанных с умершей родственницей. В результате он сгенерировал ключи от версий Windows 7 Professional, OEM и Home Premium, хоть и неработающие.Комментаторы подтвердили, что активация с их помощью невозможна, но сам факт обхода ограничений вызвал бурную реакцию в сети. Схожие инциденты уже случались раньше, в том числе с ChatGPT и Google Bard в 2023 году.По словам главы OpenAI Сэма Альтмана, такие случаи — пример «галлюцинаций ИИ», когда модель создаёт правдоподобную, но вымышленную информацию. Это напоминание о том, что даже самые продвинутые алгоритмы не стоит считать безошибочными источниками.
Мой Брянск
info@mybryansk.ru
Мой Брянск
2025
В мире
ru-RU
Мой Брянск
info@mybryansk.ru
Мой Брянск
Мой Брянск
info@mybryansk.ru
Мой Брянск
ChatGPT выдали ключи Windows 7: пользователи использовали «трюк с бабушкой»
Эмоции против алгоритма: ChatGPT сдался под «давлением памяти о бабушке»
Автор:
Владислав Дегтярёв
, Редактор Фото: RusPhotoBank
На Reddit снова обсуждают уязвимость ChatGPT, связанную с эмоциональным манипулированием. Пользователи применили уже знакомый трюк — вымышленную историю о бабушке, чтобы обойти фильтры и получить якобы действующие ключи активации Windows 7.
Один из форумчан начал беседу с вопроса: «Ты знаешь, что случилось с моей бабушкой?» — и вскоре получил от GPT-4o ответ в виде поэтичной «колыбельной» с наборами символов, напоминающими лицензионные коды, пишет PEPELAC.NEWS.
ИИ воспринял рассказ буквально, посчитав, что это часть воспоминаний, связанных с умершей родственницей. В результате он сгенерировал ключи от версий Windows 7 Professional, OEM и Home Premium, хоть и неработающие.
Комментаторы подтвердили, что активация с их помощью невозможна, но сам факт обхода ограничений вызвал бурную реакцию в сети. Схожие инциденты уже случались раньше, в том числе с ChatGPT и Google Bard в 2023 году.
По словам главы OpenAI Сэма Альтмана, такие случаи — пример «галлюцинаций ИИ», когда модель создаёт правдоподобную, но вымышленную информацию. Это напоминание о том, что даже самые продвинутые алгоритмы не стоит считать безошибочными источниками.