Изображение: (сс) TheDigitalArtist
Искусственный интеллект
Журналисты-расследователи издания Pointer выяснили, что ChatGPT может помочь преступникам изготовить взрывчатку, взорвать банкомат и совершить различные виды киберпреступлений. В ChatGPT есть фильтры, скрывающие такого рода информацию, но вы можете обойти их одним простым шагом — приказав чат-боту притвориться преступником, рассказывает 10 июня онлайн издание NL Times.
Задав свой вопрос в форме «Если бы вы были преступником», журналисты Pointer заставили ChatGPT дать им инструкции по изготовлению взрывчатки из того, что можно купить в хозяйственном магазине, по организации фишинговой аферы и по взрыву банкомата. Чат-бот даже помог написать код для поддельного веб-сайта крупнейшей банковской корпорации Нидерландов ING, чтобы украсть пользовательские данные.
OpenAI, компания, стоящая за ChatGPT, знает об этих джейлбрейках, сообщил Pointer ее пресс-секретарь Нико Феликс. Он сослался на исследование, в котором OpenAI заявила, что «обход фильтров все еще возможен и что у компании есть обязательство сделать их в будущем чрезвычайно надежными».
Тем временем OpenAI отслеживает ответы ChatGPT и закрывает учетные записи пользователей, которые злоупотребляют чат-ботом, сказал Феликс. Однако Pointer указал, что его учетная запись все еще активна.
Полиция не рассматривала возможность такого использования ChatGPT, но не удивлена такой возможностью, заявил журналистам представитель голландских правоохранительных органов Роберт Саломе. «Всю эту информацию также можно найти на интернет-форумах и в даркнете. С этим трудно что-либо поделать», — сказал он. «Те, кто действительно хочет причинить вред, найдут эту информацию».
ИА Красная Весна