Так ли нужно популяризировать искусственный интеллект?

Сальвадор Дали. Глаз. 1945
Так ли уж безобиден искусственный интеллект, доверие к которому в обществе хочет повысить российское правительство? Материалы о работе искусственного интеллекта читал корреспондент ИА Красная Весна Александр Красавцев.

В Калужской области в рамках кинофестиваля «Циолковский» команда Театра села готовит театральную премьеру «Неистовые космисты». Костюмы героев театра помогла создать нейросеть. Считается, что такой подход к работе с искусством является новаторским, в региональных и федеральных СМИ такая работа преподносится как творческий эксперимент.

«С помощью 3D-визуализации нейросети изготовят костюмы, а именно ростовые куклы наших четырех известных представителей русского космизма: Николая Федоровича Федорова, Константина Эдуардовича Циолковского, теоретика солнца Александра Леонидовича Чижевского и воплотителя мечты русского космизма Юрия Алексеевича Гагарина», — рассказал руководитель Театра села Глеб Данилов в беседе с ТАСС.

Он заметил, что его сотрудникам потребовалось много усилий, для того чтобы создать образ Николая Федорова, потому что данных о нем сохранилось очень мало.

«В этом году впервые Театр села стал одной из площадок фестиваля, своего рода это эксперимент», — сказал Данилов.

Первый в России сельский театр, который находится в селе Льва Толстого Дзержинского района Калужской области, был создан в ноябре 2020 года. Он прошел в финалы престижной премии «Звезда театрала» и национальной премии для лидеров креативных индустрий Russian Creative Awards 2022.

Правильное функционирование искусственного интеллекта требует огромной работы человека

31 января 2023 года в статье на ресурсе AI Business исследователь Кембриджского университета Гарри Лоу заявил, что для правильного функционирования системы генеративного искусственного интеллекта (ИИ) требуют огромной работы.

Исследователь отметил, в настоящий момент времени считается, что генеративный ИИ — это технология, позволяющая машине создавать уникальный контент самостоятельно. Однако для обеспечения её работы требуется огромный человеческий ресурс.

Представитель Кембриджского университета сказал, что ИИ такого типа потребует резкого увеличения числа работников, основная роль которых будет заключаться в наблюдении за ним.

Человеческий труд будет иметь решающее значение для обеспечения надежной работы искусственного интеллекта, предоставляя то, чего не могут сделать методы машинного обучения: понимание смысла.

Лоу обратил внимание на тот факт, что для того, чтобы создать метки для системы, которая должна была обнаруживать «токсичный контент» в чат-боте ChatGPT, компания-разработчик OpenAI отправила десятки тысяч фрагментов текста аутсорсинговой фирме в Кении, которая платила местным работникам за чтение и маркировку вредных выходных данных.

В целом современные системы, отметил Лоу, качественно ничем не отличаются от разработок, которые были сделаны ещё в середине 20 века. Увеличился только масштаб работы.

Искусственный интеллект лишил начинающих авторов научной фантастики возможности публиковаться в одном из немногих платных изданий

Clarksworld — один из самых престижных журналов научно-фантастических рассказов — остановил прием заявок на публикацию из-за увеличившегося в несколько раз потока рассказов, написанных с помощью инструментов на основе ИИ, подобных известному ChatGPT, пишет C NEWS.

Издание платит авторам по $0,12 за слово принятого к публикации рассказа. Число заявок на публикацию резко выросло после того, как интерес к изданию проявили блогеры, продвигающие схемы «быстрого обогащения» с применением ИИ.

Главред издания признался, что у журнала нет решения проблемы. Он выразил сожаление о том, что эта ситуация негативно отражается на настоящих писателях.

В Clarksworld публикуются Джефф Вандермеер, Юн Ха Ли и Кэтрин Валенте. Это один из немногих платных журналов, которые принимают открытые заявки на короткие рассказы от новых авторов.

До этого проблема распространения литературных произведений, созданных с помощью ИИ, поднималась в связи с увеличившимся числом электронных детских книг на торговых площадках, таких как Amazon. Так, например, менеджер по дизайну Аммаар Реши из Сан-Франциско успел до того, как она была снята с продажи, продать на Amazon 841 детскую книжку «Алиса и Спаркл», написанную с помощью ChatGPT и иллюстрированную с помощью Midjourney.

Машинное обучение может быть использовано во вред человеку

Профессор Открытого университета Джон Нотон 11 февраля в газете The Guardian описал вероятную опасность использования машинного обучения в биологии.

Ученые искали возможность борьбы с сахарным диабетом при помощи машинного обучения. В ходе поиска была построена и обучена нейронная сеть, которая искала соединения, способные бороться с диабетом и минимально вредные для организма человека.

Затем ученых пригласили на конференцию Швейцарского федерального института ядерной, биологической и химической защиты, посвященную разработкам в области технологий, которые могут иметь значение для Конвенции по химическому/биологическому оружию.

Организаторы конференции хотели получить информацию о том, как можно злоупотреблять машинным обучением.

Исследователи, по словам профессора, «никогда не думали об этом ранее». И по запросу организаторов конференции они поменяли в модели условие поиска с минимального вреда до максимального.

Оказалось, что модель успешно справилась с задачей. Более того, некоторые из «открытых» молекул были потенциально более токсичными, чем нервно-паралитический агент VX — один из смертоносных соединений.

Имея в качестве контекста нацистские тексты, чат-бот будет рождать нацистские высказывания

24 февраля профессор компьютерных наук в Университете Брауна Майкл Литтман рассказал изданию TechXplore о необычном поведении чат-ботов, созданных на основе машинного обучения.

Он рассказал, что чат-бот обучается на огромных массивах связанных текстов, диалогов, переписок в социальных сетях. На каждый вопрос он отвечает исходя из того контекста, который предполагается в вопросе. Таким образом, задавая в переписке с ботом нужный контекст, можно добиться от него очень странных высказываний.

Например, можно предложить боту писать так, как будто бы он является сценаристом, который пишет речь лидеру нацистской партии. И он будет для дальнейших вопросов использовать контекст, в котором он является нацистом, и выдавать, соответственно, чудовищные высказывания.

Таким образом и был получен ставший известным диалог чат-бота Bing AI с журналистом The New York Times Кевином Рузом, в котором тот якобы нашёл у бота скрытую субличность.

Нейросети в руках злоумышленников

23 февраля исследовательская фирма Checkpoint выявила новые способы взлома чат-бота с искусственным интеллектом ChatGPT. Как показывает исследование, киберпреступники научились создавать собственные боты, которые, проникая в API OpenAI GPT-3, могут изменять его код, сообщает Fox News.

Боты работали через мессенджер Telegram, где они свободно могут настраивать взломанную версию ChatGPT без ограничений.

При обычных настройках ChatGPT отказывает в запросах на создание вирусов, фишинговых электронных писем, скриптов вредоносного ПО и тому подобного. Однако взломанный чат-бот может генерировать вредоносный контент.

С помощью измененного кода OpenAI киберпреступники могут генерировать фишинговые электронные письма, выдавая себя за другого человека или даже фирму.

Такого же мнения придерживается основатель китайской компании по кибербезопасности 360 Security Technology Чжоу Хунъи. Он считает, что чат-бот ChatGPT от OpenAI, вероятно, через два-три года обретет такой уровень самосознания, который будет угрожать человеческой расе.

Также напомним, в январе 2023 года тысячи пользователей обманом заставили оплатить работу в приложении, имитирующем ChatGPT для iOS и Android. В то же время ChatGPT можно использовать совершенно бесплатно, за исключением взноса за пользование ChatGPT Plus в размере $20 в месяц.

Источники финансирования

В данный момент времени тема ИИ часто используется для пиара. Так, в октябре 2021 года автономная некоммерческая организация «Национальные приоритеты», координирующая коммуникационную работу по национальным проектам, разработала информационную кампанию, которая должна повысить доверие общества к искусственному интеллекту. Согласно материалам к проекту бюджета на 2022−2024 годы, общая стоимость информационной кампании может составить 180,3 млн руб.

В рамках кампании запланировано финансирование из национальной программы «Цифровая экономика» создания выпусков телепрограмм «Чудо техники», «Умный дом», «Про здоровье», про искусственный интеллект. В материалах к проекту бюджета указывалась стоимость в размере 106,3 млн руб. в 2022 году, 74 млн руб. — в 2023 году.

«На данный момент в общественном сознании существует немало мифов и опасений, касающихся того, что искусственный интеллект стремительно врывается во многие сферы нашей жизни: помогает ли он или способен навредить, кто главнее, человек или технология», — заявил деловой газете РБК директор по направлению «Искусственный интеллект» Алексей Сидорюк.

Исполнительный вице-президент по развитию цифрового и нового бизнеса «ВымпелКома» Евгений Черешнев выразил сомнение, что федеральная рекламная кампания существенно поменяет общественное мнение об искусственном интеллекте. Мозг научился фильтровать рекламу, поэтому люди не обращают на неё особого внимания.

«Для ИИ нужно или вкладываться в создание действительно качественных фильмов и сериалов, или строить рекламные кампании на принципе демонстрации успешных кейсов», — рассуждает Черешнев во время интервью изданию РБК.

Таким образом, публикация о создании костюмов при помощи ИИ и о работе команды театра в Калужской области, скорее всего, направлены на повышение доверия общества к искусственному интеллекту и призваны продемонстрировать обществу вышеупомянутый «успешный кейс».

В целом подобные эксперименты выглядят сомнительно, в то время как у международного научного сообщества появляется все больше аргументов против безрассудного использования ИИ, тем более, что из-за проблем при его использовании могут пострадать люди.

Описанные выше проблемы использования ИИ раскрывают проблему далеко не в полном объеме, на самом деле она намного шире. Илон Маск, соучредитель компании OpenAI, разработавшей чат-бот ChatGPT, выступая по видеосвязи на Всемирном правительственном саммите, заявил, что ИИ является одной из самых больших опасностей для человечества.

«С искусственным интеллектом мы призываем демона. Во всех историях про парня с пентаграммой и святой водой этот парень уверен, что сможет контролировать демона. Не выходило», — заявил Маск.

В данном случае его опасения вполне оправданны.
ИА Красная Весна