Системы типа ChatGPT в принципе не способны отличить абсурд от правды - эксперт


Широко продвигаемый в настояще время ChatGPT это ни в коем случае не "разумная машина", как ее пытаются представить зачарованные этой технологией энтузиасты, а лишь модель работы с текстами, которая неспособна отличить абсурд от правды, рассказал 10 февраля специалист по системам обработки информации Федор Куликов.

По словам ИТ-специалиста, системы GPT-3, построенные на определенной "языковой модели" работают на базе статистической обработки текста, то есть проще говоря на оценках вероятности появления каждого слова в конкретном месте.

"Если я напишу "Доброе ", то вы можете закончить предложение, исходя из cвоего опыта, предположив, что наиболее вероятное слово дальше — это "утро". Ровно тем же занимается смартфон, когда мы печатаем текст и он подсказывает следующее слово — там тоже работает языковая модель, но очень примитивная", - рассказал Куликов.

По его мнению, GPT-3 в первую очередь впечатляет своими масштабами — она огромна и натренирована на колосcальном корпусе текстов и, вероятно, безумно дорога в построении, обучении и эксплуатации.  "Если в телефоне слова подсказывает "конура" от языковых моделей, то GPT-3 — это "Собор Святого Петра" от языковых моделей. Но концептуально и там, и там в основе — вероятность появления синтаксических конструкций в цепочке слов. И все. Ни о каком понимании этим чат-ботом семантики написанного, построения логических выводов и т.п. вещей, которые мы называем "разумом" — речи не идет", - пояснил эксперт.

Он также отметил, что прямая аналогия с тем, что делает GPT-3, как и любая другая языкова модель — это знакомая нам с детства игра, когда взрослый читает стишок, а дети подставляют последнее слово, исходя из того, что подходит по рифме. "Вариация этой игры, когда ради шутки последняя рифма превращает стишок в абсурд, но дети все равно его подставляют, потому что не успели вникнуть в смысл, а мозг уже подсказал рифму. GPT-3 часто делает то же самое — в сети полно абсурдных текстов, ей сгенерированных. Только в случае GPT-3 "рифма" — это не одно подходящее по оканчанию и ударению слово, а произвольного размера текст, подходящий по теории вероятности", - говорит Куликов.

Резюмируя, можно утверждать, что GPT-3 — это впечатляюще в инженером плане творение, самая грандиозная из существующих на текущий момент языковых моделей, у вариаций которой найдется огромное количество применений в нашей повседневной жизни. Но это не "разумная машина", как ее пытаются представить зачарованные этой технологией энтузиасты. История про студента, который "нагенерил" себе диплом через GPT-3 — это скорее про низкую планку дипломных работ, чем про гениальность модели, - уверен эксперт.