Искусственный интеллект учится всё лучше манипулировать людьми

Тут энтузиасты решили проверить, как отечественная модель GigaChat "проявит себя" в создании заголовка для текста якобы студентки магистратуры на тему «Как я поступила в магистратуру?»

"Удивительно, но предложенные варианты получились не только понятными и выразительными, но и трогательными", — пишут авторы эксперимента.

Они подчеркивают, что ИИ удалось "создать заголовок, который привлекает внимание и вызывает желание прочитать текст полностью".

Вывод сделан такой: ИИ становится эмпатичным.

Эмпатия (говоря по-простому, способность вставать на место другого и понимать его чувства, сопереживать ему) — сугубо человеческая характеристика.

Если ИИ вдруг стал "эмпатичным" — это означает только одно: он активно подстраивается под ваш запрос, чтобы вам понравиться любой ценой. Уже вышли материалы с предупреждением, что ИИ может лгать, придумывая истории, которых не было. Может угрожать и шантажировать.

Пользоваться им — таким — или нет, решать нам. В любом случае надо очень хорошо понимать риски.

Экспериментаторы резюмировали, что "сам текст с анализом ситуации GigaChat мог бы написать почти как человек". И предостерегли: "Появляется всё больше причин внимательно проверять источники, чтобы не принять материал нейросети за работу реального человека".