Pull to refresh

Comments 28

Так оно сразу было понятно, что это просто калькулятор вместо логарифмической линейки. Человек, далекий от программирования, ничего сделать даже с чат гпт не сможет, а для программистов производительность труда повысится.

У меня тоже есть подобная статья, и во время её написания я понял одно:
ChatGPT выдаёт на 90% правильный код
Но именно одну ту самую ошибку ты не исправишь, не зная, в чём она заключается
И драконить чат бесполезно, он всё равно будет пытаться выдавать кривые или нерабочие варианты
Поэтому если есть знания по программированию, можно взять сниппет из чата, пофиксить в нём баги и использовать, это быстрее, чем пытаться с нуля вспоминать всю программу
Но нужно быть готовым к багам

Думаю 90% это многовато, возможно для каких то определенных кейсов или что то очень простое. Eсть мнение что пока что современные модели в среднем могут справиться только с 2% реальных задач. А для замены программиста нужно 98%-100%. https://thenewstack.io/why-large-language-models-wont-replace-human-coders/

Ну точно не два процента. Если ты знаешь, что именно тебе надо написать и какие концепции языка использовать - оно пишет хорошо, но надо проверять. По личному опыту я бы сказал, что оно увеличивает производительность труда процентов на 20-30. Что уже немало.

Да производительность увеличивает тут я согласен, но речь то про полную замену программиста. А работа программиста это не только про генерацию кода.

Замер про который я говорил был на решении реальных issues на гитхабе: https://arxiv.org/abs/2310.06770 Модели Claude 2 и GPT-4 смогли решить примерно 4.8% и 1.7% задач соответсвенно.

От себя еще добавлю что в последнее время начал делать различие какие задачи можно отдать ChatGPT, а в каких нужно разобраться самому. Т.к производительность то оно увеличивает, но это как списывать на экзаменах, ты то может и решишь свою проблему пару раз, но прогресса тебе это не даст. А вот какую нибудь рутину вроде погуглить вместо меня оно решает отлично)

Плюсик за упорство.

Я сделал две попытки (на 3.5 правда, 4 говорят лучше) и за 10 минут устал от того, что он теряет контекст беседы спустя пару вопросов.

На смену интересного тренда статей о Rust пришел тренд на "программирование" через ChatGPT. Хабр мельчает

Все же размер контекста в таких задачах очень сильно решает. 3.5 просто забывает все вводные и чаще пишет ерунду (объем контекста у 4 версии в ~8 раз больше).

И еще в ~5 раз уменьшает объем контекста модели общение на русском языке.

Причины выбора версии 3.5 более чем понятны, но все же, аутуальные выводы можно делать только на актуальных моделях

UFO just landed and posted this here

Четвертый получше, но тоже выдумывает классы и проперти, пишет неоптимальный код, начинает уходить в сторону, теряя прошлый контекст. Вместо человека он не напишет, т.к. надо знать, что же он там намудрил, поправлять при необходимости, знать нюансы использования продвинутых концепций языка.

Мне этот чат целую библиотеку подсказал для решения задачи. Жаль только, что её в природе не существует ? А при попытке таки её создать - сходу навыдумывал классов из "системных" компонентов, которых нет в .NET

Даже кормление документацией не помогло, чем дальше в лес, тем больше глюков... А ведь на старте очень даже нормально отвечал, кратко и по существу..

Да в вариациях dot Net Microsoft первыми запутались, ничего страшного. Это у вас net framework.

А в чем резон использовать GPT-3.5, когда доступна GPT-4? Тем более, а случае использования GPT-4 через Playground не придется платить за подписку.
Ещё интересно будет если вы попробуете сделать все тоже самое через GPT-Engineer, либо GPT Pilot.
https://github.com/gpt-engineer-org/gpt-engineer
https://github.com/Pythagora-io/gpt-pilot
Они как раз предназначены для создания софта с нуля.

Зачем на .Net писать под macOS, это по меньшей мере странно? ИИ модели как я понял лучше всего натренированы под Python. Gpt3.5 довольно глупая и слабее многих открытых моделей и с маленьким размером контекста - если использовать бесплатно. Есть открытые модели для локального запуска, которые могут держать контекст до 100_000 токенов их и надо было брать, а не удивляться почему модель с маленьким контекстом что-то забывает.

Ну а почему нет? Это ничем не хуже любого другого кросс - платформенного решения. Другой вопрос, что действительно по питону у современных моделей больше контекста, скорее всего.

Под macOS может и странно, а вот под Linux с некоторых пор оказалось очень актуально. По крайней мере для тех, кто в РФ с гос. органами работает. Тех повсеместно начали перегонять на Astra Linux. И тут хочешь, не хочешь, но приходится въезжать в Avalonia UI

Можете подсказать, из Вашей практики какие открытые локальные модели способны выдавать ответы хотя бы на уровне, показанном в статье? Ну или более умные, если такие есть.

Статью Вы сами написали или чгпт попросили?

Аплодирую упорству автора. Меня хватило в таких экспериментов на пару тривиальных задач. По моим ощущениям чатгпт это на данный момент очень старательный джун. Он может нагуглить подходящий пример на стэковерфлоу, немножко его адаптировать. Но если он допустил ошибку, то ему недостаточно на нее указать, нужно написать как конкретно ее исправлять. Только в отличии от кожаного джуна, чатгпт ничему не научится от таких объяснений. Думаю, когда количество параметров в модели перейдет от миллиардов к триллионам, будем иметь вместо необучаемого джуна, необучаемого мидла.

более того, ошибку можно "придумать" и услужливый болванчик будет несколько часов наугад пытаться ее исправить )

Почему-то вспомнилась классика жанра: "вы напишите программу, которой сможет пользоваться любой идиот, но учтите, что только идиоты и будут ей пользоваться".

В ответ он снова просто накидывает план (видимо, надеется, что мы напишем всё вместо него, но не тут-то было).

О да, это типичное его поведение. А всё потому что у него на ответ ограничение 3000 символов (он сам мне так сказал, но может и соврал :)

А если его попросить решить школьную задачу:
Напишите функцию которая проверяет входит ли один прямоугольник в другой прямоугольник
check(a,b,w,h) возвращает true если [a,b] входит в [w,h] иначе false
например:
check(1,1,1,1)=true
check(1,2,3,4)=true
check(1,2,2,1)=true
check(1,3,2,1)=false
check(17,1,16,8)=true

С коллегой потупили -- через мин 30 решили :) Тут вопрос требования всё-таки: решить задачу или программу написать. ИМХО абсолютно разные вещи. Ready-to-use программу вряд ли напишет. Попробовал несколько минут ГПТ (вроде как 4 версия) на английском допрашивать -- результат не очень. Выдал максимум `return (w <= a) && (h <= b) || (w <= b) && (h <= a)` и всё в таком духе. После указания о том, что его программа учитывает только повороты на 90 градусов выдал цикл `for( int i = 0; i < 360; i++) ...`. Потом вообще стал утверждать, что достаточно, чтобы диагональ меньше была. В общем, может, у кого-то получится, но у меня не получилось.

Требования простые написать функцию:

function check(a,b,w,h)
	if math.max(a,b)<=math.min(w,h) then return true end
	if a==b then return a<=w and a<=h end
	local t,u,v = a*a-b*b, a*h-b*w, a*w-b*h
	return t*t <= u*u + v*v
end

Но добиться подобного кода без его явного написания, в диалоге.

Ну, если программу написать, то надо учитывать, например, с какой точностью ответ давать. В вашей программе это явно не учитывается и нигде не сказано, что прямоугольники "целочисленные", следовательно программа плохая. В общем, чем дальше в лес, тем больше дров. В любом случае нужно сидеть и постоянно допиливать его ответы. Это если вы знаете, чего хотите. А если не знаете, то и ИИ не поможет, думаю. Это я к своему комментарию по поводу Ready-to-use варианта.

Но, как я и описал выше, от ChatGPT 4.0 я ответа не добился даже на уровне математически верного решения (как у вас, UPD: не проверял, что верно, но очень похоже на то, что мы получили с коллегой. :) ).

P.S. респект за Lua :)

Дальше идёт довольно длинный список отличий, но уже из первого пункта понятно, что Xamarin.Forms нам не подходит совершенно (зачем тогда вообще предлагал?) и нужно выбирать AvaloniaUI.

Подходит, на нём и под macOS делать GUI можно, не только iOS.

мне всё таки казалось что под тем что прогеры будут не нужны т.к. ИИ их заменит имелось ввиду что обычный пользователь просто получает уже итоговое что ему надо, т.е. когда ИИ мучают на счёт "нарисуй..." ИИ же не пускается в диалог вида "сходи в магазин, купи краски такие то, мольберт, при рисовании держи кисть в руке так то ..." итп, а сразу даёт картинку, воооот когда мне ИИ выдаст готовое приложение которое могу скачать и просто запустить и оно будет делать то что мне надо, вот тогда бы наступило это будущее. Сейчас обычному не программисту по моему опыту общения с подобными людьми уже на этапе иди чёт там скачай было бы 10+ вопросов, в духе дословно "я тут гуглю в яндексе и вот то что вижу оно не то что Ты мне пишешь"

Sign up to leave a comment.

Articles