Я не понял примера... я обычно для таких задач chatGPT прошу поменять значения. Делов то, зачем тут ваш Си? LLM как интерпретатор 10/10. Ну или хотя бы эксель.
Ps на сколько я знаю компиляторы умеют такое оптимизировать. Но Змею обидеть может каждый.
Что такое кода бейз? Файнтюн квена? А "про" насколько swe "pro"?
И да..мне лень гуглить, если это гдето написано.
русский маркетинг безпощадный - такие приемы только отталкивают от всех "ру" моделей. Как один зеленый банк распиарил модель по всем новостям в мае 2024(?), а на выходе - ни бе ни мэ на змеином.
Где тут GPT увидели то, тут даже знаки препинания после пробелов.
Единственный sus момент - точка с запятой, их gpt обожает. Но остальное - точно человек писал, я кстати поэтому не осилил...с первого раза, разучился рассказы читать. Gpt бы лучше справился с изложением фактов. Написал баш -> получил офер.
Все, кто хоть немного в ml шарят(точнее я слушаю мнение про ИИ только тех, кто в ML работает), идут от обратного: жёстко проектируют архитектуру, добавляют качественные примеры кода и потом по выверенному плану запускают агента заполнить куски.
Такой паттерн легко объясним, если разобраться как работает attention и на чем модели учатся.
P.S. Второе мнение и возможность спросить всегда полезны, но это мнение, а не разработка.
Pps я для pet проекта смирился с багами - главное критические узлы задать, чтобы архитектура была, а не месево с кодом. Через полгода модели сделают х3 по скиллу и перепишут плохой код.
Потому и забанили, купил а не пользуешься.хех.
Вообще бы контекста. Чёт не верю в такие сказки. Покупал сам?
Попробуйте пользоваться почтой!
*единственного человека с почтой рамблер.
У меня в браузере 100 вкладок. И 8 терминалов открыто.
Я пианист на ALT+TAB.
Вот и вся причина.
А потом когда число "параметров/конопок" вырастает...становится больше двух.
Все возвращаются к набору команд, которые можно скопипастить.
я думал он маркдаун изобрёл.. так и оказалось.
Все эти изобретения видимо от двоечников которые конспекты не умеют писать...
А вообще как бы замьютить это Г. Новости высосанные из пальца, хотя нормальных новостей и так хватает.
Лучше промпт написал, который напишет ТГ бота.
Локально ставьте.. в чем проблема?
Я не понял примера... я обычно для таких задач chatGPT прошу поменять значения. Делов то, зачем тут ваш Си? LLM как интерпретатор 10/10. Ну или хотя бы эксель.
Ps на сколько я знаю компиляторы умеют такое оптимизировать. Но Змею обидеть может каждый.
А если интеллект это еще одна "странная болячка" слепой природы эволюции?
Заплати кожанному мешку и заплати за каждую правку ТЗ.
А тут сразу платишь за правки ТЗ, ну не красота? И чего програмисты плются ?
"Нормальный сотрудник" - все синьйоры-помидоры? или скучные задачи.
LLM мне прекрасные схемы рисует в svg, жалко что у меня нет отдельного эксперта по svg картинкам и презентациям. Тоже 200$ в час такой стоит?
Что такое кода бейз? Файнтюн квена? А "про" насколько swe "pro"?
И да..мне лень гуглить, если это гдето написано.
русский маркетинг безпощадный - такие приемы только отталкивают от всех "ру" моделей. Как один зеленый банк распиарил модель по всем новостям в мае 2024(?), а на выходе - ни бе ни мэ на змеином.
Вы из яндекса?
слышал там там все страдают с NIH синдромом (not invented here).
Ответа я так понимаю не будет. статья неплохая, но использовать - нет, тоже изза NIH.
Так почему не OpenCode? Glm в нем вроде как родной.
Залогиниться в личную почту - не сделает эту почту корпоративной.
Pet-проекты хранить - вот тут риски есть, но вы же выгружаете другие repo из гита? Это не делает их содственность компании.
Почитайте как антропики давали домашнее задание. Можно так. Но тут же найдутся нытики "еще дома что-то делать".
В каждом посте одно и тоже. Поэтому лучше 5 человекочасов потратить чем неделю/месяц на адаптацию. Не того сотрудника под свои процессы.
Никто ничего лучше не предложил.
Я бы ответил на интервью - мой скрипт, как хочу - так и пишу.
Упадет - поправлю, это скрипт.
Где тут GPT увидели то, тут даже знаки препинания после пробелов.
Единственный sus момент - точка с запятой, их gpt обожает. Но остальное - точно человек писал, я кстати поэтому не осилил...с первого раза, разучился рассказы читать. Gpt бы лучше справился с изложением фактов. Написал баш -> получил офер.
Лол (простите за лол).
Все, кто хоть немного в ml шарят(точнее я слушаю мнение про ИИ только тех, кто в ML работает), идут от обратного: жёстко проектируют архитектуру, добавляют качественные примеры кода и потом по выверенному плану запускают агента заполнить куски.
Такой паттерн легко объясним, если разобраться как работает attention и на чем модели учатся.
P.S. Второе мнение и возможность спросить всегда полезны, но это мнение, а не разработка.
Pps я для pet проекта смирился с багами - главное критические узлы задать, чтобы архитектура была, а не месево с кодом. Через полгода модели сделают х3 по скиллу и перепишут плохой код.