ChatGPT шумел в прошлом (2023) году. Осенью 2023 я решил дать ему шанс. Была версия 3.5, бесплатная.
Я писал на Питоне клиент для SSL/TLS, способный выкачивать одну HTML-страницу через HTTPS. 1, 2.
Это задачка для среднего программера. Т.е., средний программер с какого-нибудь Хабра способен сделать всё то же, что и я, вероятно, за то же время.
Я в то время пробовал для этой цели юзать ChatGPT - иногда он выдавал по-настоящему дивные верные ответы, от которых падала челюсть. Но как говорится в известной поговорке про ложку дегтя в бочке меда, иногда ChatGPT бредил адски.
Притом, что Питон - это один из самых популярных ЯП. И те задачки по криптографии, использущие популярные модули для Питона - всё это тоже попса.
И что плохо, эти его галюцинации повисают у вас в памяти. Например, я в то время изучал криптографию. И как-то ChatGPT сказал мне что алгоритм ElGamal (или DSA/DSS) основан на алгоритме Диффи-Хеллмана. Это была его ошибка. На самом деле, эти алгоритмы используют похожую математику. Алго DH короче/проще чем алго DSA, вот наверное поэтому ChatGPT решил, что одно основано на другом. Всё это неприятно повисло у меня в памяти. Я начал сомневаться - а может и правда это так? Может я просто не соображаю? Я потратил какое-то время на ковыряние статей и текстов обо всем этом. Нет, я был прав, а ChatGPT галлюцинировал.
Всё это довольно неприятно, что приходится сомневаться в своей памяти и знаниях. Осадочек остался, как в анекдоте про серебряные ложечки и евреев. Так я перестал юзать ChatGPT. Не юзаю и не рукоподаю тем, кто юзает.
Если кто-то утверждает, что он юзает ChatGPT для работы, видимо, он пишет что-то уровня говнокода, или даже еще хуже. Или просто болтает не думая, как какой-нибудь подросток с форума.
Можно допустить что очередную версию ChatGPT обучат на более большом наборе инфы. Ну так он будет продолжать бредить в других областях. Как это было в старой шутке про Ф.Ницше: -- Чтобы избавиться от человеческих проблем, нужно стать сверхчеловеком. -- Ну так у сверхчеловека будут свои сверхпроблемы.
А внешне ChatGPT выглядит очень эффектно, как голливудские фильмы. Пока вы не начнете юзать его.
На "Медузе" кто-то умственно неполноценный написал в статье об ИИ: Как и любой ИИ-ассистент, Codeium работает небезупречно, но в данном случае галлюцинации системы вычислить проще всего — код либо будет работать, либо нет.
"Отличный" аргумент. Это как сказать -- вот мы построили дом. Как узнать, надежен ли он? А он либо упадет, либо нет. Причем, может быть через год, а может и через 10 лет, посреди ночи, когда жильцы будут спать. Вот вы хотите купить авто. Надежно ли оно? А оно или поедет или нет. И тормоза либо сработают, либо нет. И подушка безопасности либо сработает либо нет. В аптеке вам пытаются впарить что-то, что они сами синтезировали. И говорят: вам станет либо легче, либо хуже (третьего не дано). Ну так от водки тоже становится легче, впрочем, только на время. А от героина еще веселее, тоже на время, а потом проблемы откуда-то.
Надо думать, остальные статьи на "Медузе" пишут такие же "эксперты" (может даже при помощи самого ChatGPT). Совсем не жаль что их сайт банят в РФ. Я не в состоянии читать это говнище, и вам не советую.
Stack Overflow значительно лучше -- там тоже пишут всякую чушь, но публика голосует за ответы, которые худо-бедно приближены к рельности. А всякий бред минусуют. Это справедливо и про Reddit и news.ycombinator. А ChatGPT не в состоянии сказать что-либо о качестве источников, откуда он всё это надергал.
И вы становитесь в роли тестера, которому нужно еще и протестировать то, что выдал ChatGPT. Помните, в кино Брат-2, гранаты то срабатывали, то нет, и ГГ приходилось кидать их по 2 штуки сразу.
Я пробовал наваять какой-то скрипт на JS под geth (Ethereum) при помощи ChatGPT. Я потратил всю ночь и проклял всё на свете. Копипастил туда-сюда, плясал с бубном. Куда проще было бы разобраться во всем, да написать.
Если более сложные темы, ChatGPT становится похож на подростка, который что-то где-то слышал, и, пытаясь выглядеть умным, ретранслирует чужие тексты, компонуя их по-своему. Вам захочется самому тестировать то, что пишет на каком-то форуме какой-то школьник? Тратить на это время? А потом копипастить в свой (серьезный) проект? Такое (иногда) прокатывает на школьных уроках и экзаменах, особенно, когда препод не очень внимателен. Не удивительно, что так генерят емылы для фишинга -- логично же, кто их внимательно читает?
Как база common sense, ChatGPT работает очень хорошо. (Вплоть до уровня "капитана Очевидности".) Скорее всего он может играть в игры вроде "что где когда", "кто хочет стать миллионером", итд -- скорее всего, уже играет и выигрывает, да я не знаю просто. (Вспоминаем IBM Watson.) Но такого рода инфу можно и самому легко нагуглить, с пол-оборота. Причем, это было возможно еще в нулевых годах, когда инет был меньше а поисковики работали хуже, чем google сейчас. И в качестве бонуса, вы можете сразу видеть источник, откуда эта инфа. ChatGPT вам источник не покажет, даже если бы он (или создатели) очень того захотел(и).
Я слышал такое мнение, что при помощи ChatGPT можно учить ЯП. НЕТ. ЭТО ИСКЛЮЧЕНО. НИ В КОЕМ СЛУЧАЕ. ОБ ЭТОМ ДАЖЕ НЕ ИДЕТ РЕЧЬ. Вы только засорите голову всяким бредом, а потом разочаруетесь в программировании. Это как если вы хотите научиться электронике, и идете на местный радиорынок и слушаете бухих торгашей, которые не прочь повыпендриваться спьяну. (Возможно там кто-то из них даже правильно расскажет вам про закон Ома.)
Это как городской сумасшедший на улице кричит вам что-то в спину. Вы-то стараетесь не слушать, но всё это неприятно зависает где-то в памяти. А потом всплывет в будущем, внезапно.
Тащемта это проблема всех этих нейронок -- в большинстве случаев они худо-бедно работают, но иногда они косорезят так, что страшно. Проблема это исправить эту проблему, если это вообще возможно.
Читайте вместо этого (хорошие) книги -- ничего лучше пока никто не придумал.
(Добавлено: 20240407 05:06:23 EEST.)
Считать ли это искусственным интеллектом? Я думаю да, термин ИИ здесь уместен вполне. Ведь существует же искусственное сердце, почки, итд. Все эти девайсы, что применяются во время операций, они действительно могут на время заменять сердце и почки. А все эти 'нейронки' вполне себе имитируют работу реальных нейронов мозга. Только не очень хорошо. (Может быть, пока?)
И все эти чатботы вполне себе работают как подросток, без особого ума, который, желая поумничать, цитирует что-то, он вычитал на других форумах, причем, бездумно, но пытаясь умничать и выглядеть серъезным. Кстати, этот подросток хорошо так под пивом. Вы будете слушать его? Нормальные люди не будут. Это уже не говоря о том, чтобы применять на практике его советы. Так чатботы имитируют мозг бездумного подростка под пивом, который где-то что-то нахватался и запомнил и теперь цитирует. А разве не похоже?
Почему успех? Люди ждали этого. Смотрим сериал Доктор Кто, там Доктор, попадая на заброшенный космический корабль, обыкновенно взывает к бортовому компьютеру, причем, своим человеческим голосом, разговаривая по-английски. И этот самый бортовой комп разговаривает ровно так же как домовой из сказок старых.
Людям не нужна серьезная фантастика (Станислав Лем это очень не для всех). Наука, космос, какой-то там интеллект - мало кому охота напрягать мозги.
Люди хотят старых сказок, с хорошо известными и давно оттестированными сюжетами. Ну, пусть там будет немного космических кораблей - и тогда получится Доктор Кто. Это просто старые добрые детские сказки проапгрейженные до космоса. Доктор Кто как волшебник, его ручка - как волшебная палочка, его корабль (полицейская будка) - как ковер-самолет.
Помните, у А.Тарковского в Солярисе?
Так что люди ждали этого - покорного-послушного домового, разговаривающего как человек. И сейчас чатботы наконец оправдывают их ожидания. Да, это оно.
Во всякие Винды теперь будут встраивать свои чатботы-помошники. А разве это не похоже на домового из сказок? Похоже, еще как.
Но практической пользы от этих чатботов, впрочем, мало.
20240720 03:10:05 CEST: Продолжение.
Yes, I know about these lousy Disqus ads. Please use adblocker. I would consider to subscribe to 'pro' version of Disqus if the signal/noise ratio in comments would be good enough.