мы иначе валидацию реализовали) так как все есть объект и openapi является и конструктор в том числе как protobuf при генерации, мы просто привязались к этим структурам
то есть в самой документации мы Х-поле с именем функции -> функция работает со структурой которая генерируется из openapi -> в самом генераторе сделали подстановку валидатора как эту функцию
то есть мы сохранили прозрачность кода и при этом никаких рефлексий, все пробегает при генерации.
я думаю это у вас скорее от отсутствия релевантного опыта. лично для меня нейронки это просто очень быстрые но туповатые джуны))
нарезал задачи, потом проверил и поправил по месту (или зарядил заново) то все ожидаемо. исследование идеи и накидать прототип тоже ок. но отпускать в свободное плаванье или подпускать к бизнесу что бы он навесил на уши свои космические корабли - точно нет
на сейчас если я что то с нуля делаю при помощи нейронки с расчетом что это не прототип, то я сначала сам прописываю основной скелет руками, а потом уже сажусь за промт. просто потому что прописать базовую архитектуру быстрее чем словами прописывать что ты хочешь и краевые условия. и то потом полученное поделие я руками довожу потому.
а проблем с фиксами и патчами нет, если ты знаешь проект, понимаешь как оно все работает и знаешь что именно надо починить. прописываешь конкретный промт и все ок, точечно правит и все работает.
такой как у вас точно нет. если бы у вас было четко прописанные правила по архитекруте и требованиям, то такой фигни бы у вас не было. это смотрю по тому что оно успешно сгенерировало с первого раза, то есть у вас там функционала и бизнес-логики жменька.
реальный большой проект сможет сделать только "по мотивам". а уж патчить, править и тд только если расписать промт километровый со всеми краевыми условиями
кстати, то что оно у вас для фикса переписывало все в ноль это тоже проблема в первую очередь постановки задачи
посмеялся с фразы о том что 3-2-1-1-0 оптима для малого бизнеса)
вообще если серьезно то в условиях когда денег нет а надо - делается syncthing с облака где боевые данные на физический комп в офисе что никогда не тушится (купить дешевый БУ), и на самом компе поставить софт что бы дописывало бекапы раз в час на DVD (если у вас там много то BlueRay). Единое что потребуется в дальнейшем это раз в пол года проверять диски, сводить в единый бекап для оптимизации и на всякий случай. Дешево и практично.
А все эти 3-2-2-1 это правильно и красиво, но чертовски дорого как в инфраструктуре, так и человечески чтоб поддерживать все правильно.
Можно сказать что многие хостеры имеют свои бекапы, особенно S3-хранилища но физическая неизменяемая офлайн копия это тот самый минимум который должен быть всегда у малого бизнеса
раньше их было 6-8 на десяток апок, сейчас цифры уже трехзначные.
вчера искал простой тестер для микрофона что бы можно было переключать источники записи прям в апке и записывать звук что бы понимать как записало.
более двух десятков апок с разными названиями, иконками и скринами (и авторами) которые выглядят одинаково - той же самый пейвол и функционал просто под разными шкурками
под сотню разного "нового" что опубликовано до пары месяцев назад прям явно нейронное аж по скринам видно
апку я так и не нашел, в итоге через звонок на другой телефон и запись там тестил
Комплексно слишком он ограниченный и множество мест руками надо делать. Но если вам надо openapi-first что бы документация была 100% валидной то тогда он ваш выбор. Плюс в нашей задаче была повышенная безопасность и потому сверху без проблем допились свои фильтры, что позволило собирать бинарник для клиента где все вшито и мы были уверены что клиент никак его не запустит и не подключит, что бы было небезопасно в первую очередь для клиента.
из минусов те самые ограничения - только openapi и то не прям весь, валидаторы один хрен самим писать и тесты к ним нормально, нет вебсокетов (но это известная проблема openapi в первую очередь) и сложности если апи отдает что то более чем json/xml
как хорошо что благодаря таким людям, специалисты будут еще более востребованы)
как плохо что благодаря таким людям нас ждет эпоха нейрослоповых приложений. уже началась, плеймаркет забит в топах сгенерированным шлаком где только иконки отличаются зато пейвол загружается первым при старте
спасибо большое за ваш труд, прочитал статью с огромным удовольствием)
кстати подобное шаманство работает не только в богоподобном си, но и я в других языках просто нужно знать подробности реализации. В том же Go можно структуру в байты напрямую похожим образом, без лишних телодвижений просто используя сам указатель на структуру и тут то важно правильно расположить что бы работало.
Упрощу - не нужно посещать тоталитарные страны. к сожалению сейчас таки становится больше, но история показывает, что это процесс циклический.
Юмор в том что слабовики как кадровики - им не сильно интересны факты, если захотят повязать то причиной станет как раз отсутствие телефона/переписок. Историям с подписыванием чистосердечного признания на чистом листе больше столетия и не только на территории СНГ
было интересно читать (хоть с долей скептиса) пока не дошел до момента что флеш мог бы заменить более успешно WebRTC. чукча явно писатель, хотел бы я посмотреть на это в реальности, как выжать больше и стабильнее чем уже сделали в WebRTC причем на базе того самого флеша
вообще флеш убил как раз html5 а точнее canvas на котором сейчас написаны абсолютно все сложные интерактивные приложения для веба. хотя как мо мне идея с тем, что бы сложное встраивание писать на чем-то менее кривое чем JS очень хорошая, но на момент 2012 года гугл уже занял нишу ведушего браузера и в отличии от мозилы гуглу абсолютно пофиг на пользователей, да и добавлять функционал в свои продукты они не сильно любят (только велосипедить с нуля) потому на сейчас у нас все в браузере завязано на JS и можно даже 3д графику через видеокарту собирать средствами js и показывать через canvas
впрочем спасибо что убили флеш, он был простым и гибким, но так же он был тяжелым и кривым - как же бесили лагаюшие сайты потому что там 100500 флеш окон на нем с рекламой в том числе
есть подозрение на нейропостинг. Уж сильно похоже на компиляцию похожих статей из интернета без малейшего понимания реальности
на цену толщина переходных влияет только если ты вышел за пределы рекомендованных диаметров для переходного (что имеют абсолютно все производства), а допустимые 0.2 вполне.
глухие переходные в многослое это из мира профессиональной многослойной разработки. И "много" это не 4 или 8, а от 10 и до 40 слоев. А в таких бутербродах куча других особенностей надо в голове держать, праметизацию переходных в таком отлично сохраняет тот же альтиум.
мда. прям показатель насколько скатился хабр, если этот миллион набирали ботами и прочими мультикками.
да что там говрить, я сам уже более десятка аккаунтов "имею" просто потому что ценность самого аккаунта довольно сомнительна, а отлетают они очень быстро из-за прекрасной системы кармы благодаря которой по настоящему новой элитой хабра стали ботоводы которые могут топить неугодных и возвышать приближенных.
А ведь когда-то это был реально топовый технический портал для СНГ. Закрытая регистрация только подогревала интерес и иметь аккаунт считалось очень крутым. А сейчас вот это вот - современный пикабу (тот который сделали, а не тот что был) с кармой по сути.
"основные аккаунты" должны быть заведены на почту с собственным доменом на своем сервере с бекапами
Гугл уже более 10 лет как спортлото (у них нет обратной связи, вообще) потому если у вас отвалится ваша "основная почта" по какой-то из причин то вернуть ее очень маленькие шансы.
У меня у самого есть история, в период когда гугл страдал идиотизмом с паролями (где то 2014 если я правильно помню, новый пароль каждые пол года и пароли не могут быть такие как прошлые) я потерял доступ к своей почты. Доступ к аккаунту был, как и к почтовому агенту на телефоне где было все авторизовано, но вот с браузера или иных устройств шиш. Есть привязанный телефон, есть авторизованное устройство - но восстановить пароль вы не можете идите нахер. Самое мое любимое что оно тогда писало - вы ввели свой старый, пароль а надо новый, причем помнило оно не просто "прошлый" а все до этого что были, безопасность. В итоге через два года что-то там сбросилось и я смог нормально установить новый пароль.
Сейчас с этим хайпом на нейронках "серьезный акк" потерять как нефиг делать, так как вычислить какие аккаунты связаны не сложно и без нейронки. Уже сколько историй было что нейронки удаляют все, сносят данные и тд. Если вам "повезет" то никакие перестраховки не помогут от чужого идиотизма, а много какие сервисы вяжутся с почтой намертво.
К сожалению комментатор ниже полностью прав - то как скормили повышение цен на видеокарты, так же скормят и повышение цен на память.
Увеличивать производства будут с оглядкой на то, что бы не уронить цены, к сожалению(
Мы живем в капитализме, причем уже давно картельном. Если китай внезапно не захочет качнуть рынок и не выпустит в продажу много дешевой памяти, то мы и не увидим каких-то понижений цен на память особо.
сложные и местами кривые модели, а главное большие. если вы сможете сделать что бы редактор без проблем работал с ними, вы закроете 99% проблем размерами, количеством точек и кривой геометрии
1 - мне прямо стало интересно что это за линукс такой где не было компилятора Си, и где федора и дебиан это вообще уже "третье" (мне реально интересно что вы линуксом тогда считаете).
2 - не знаю где вы видели претензию к сложности, моя главная претензия (и людей после меня) что FreeCAD лаганое кривое говно которое даже не запускается особо, а даже запустившись оно остается кривым лаганым говном, в котором невозможно работать
я понимаю что посыл вашего комментария - как широки мои лапищи!, но можно тот же искусственный интеллект озадачивать проверкой соответстветсвия вопросов и ответа.
да и не сложный FreeCAD, обычный я бы сказал. вы явно блендер даже не открывали что бы считать FreeCAD сложным.
мы иначе валидацию реализовали)
так как все есть объект и openapi является и конструктор в том числе как protobuf при генерации, мы просто привязались к этим структурам
то есть в самой документации мы Х-поле с именем функции -> функция работает со структурой которая генерируется из openapi -> в самом генераторе сделали подстановку валидатора как эту функцию
то есть мы сохранили прозрачность кода и при этом никаких рефлексий, все пробегает при генерации.
я думаю это у вас скорее от отсутствия релевантного опыта. лично для меня нейронки это просто очень быстрые но туповатые джуны))
нарезал задачи, потом проверил и поправил по месту (или зарядил заново) то все ожидаемо. исследование идеи и накидать прототип тоже ок. но отпускать в свободное плаванье или подпускать к бизнесу что бы он навесил на уши свои космические корабли - точно нет
на сейчас если я что то с нуля делаю при помощи нейронки с расчетом что это не прототип, то я сначала сам прописываю основной скелет руками, а потом уже сажусь за промт. просто потому что прописать базовую архитектуру быстрее чем словами прописывать что ты хочешь и краевые условия.
и то потом полученное поделие я руками довожу потому.
а проблем с фиксами и патчами нет, если ты знаешь проект, понимаешь как оно все работает и знаешь что именно надо починить. прописываешь конкретный промт и все ок, точечно правит и все работает.
такой как у вас точно нет.
если бы у вас было четко прописанные правила по архитекруте и требованиям, то такой фигни бы у вас не было. это смотрю по тому что оно успешно сгенерировало с первого раза, то есть у вас там функционала и бизнес-логики жменька.
реальный большой проект сможет сделать только "по мотивам". а уж патчить, править и тд только если расписать промт километровый со всеми краевыми условиями
кстати, то что оно у вас для фикса переписывало все в ноль это тоже проблема в первую очередь постановки задачи
ах вот оно что михалыч
посмеялся с фразы о том что 3-2-1-1-0 оптима для малого бизнеса)
вообще если серьезно то в условиях когда денег нет а надо - делается syncthing с облака где боевые данные на физический комп в офисе что никогда не тушится (купить дешевый БУ), и на самом компе поставить софт что бы дописывало бекапы раз в час на DVD (если у вас там много то BlueRay). Единое что потребуется в дальнейшем это раз в пол года проверять диски, сводить в единый бекап для оптимизации и на всякий случай. Дешево и практично.
А все эти 3-2-2-1 это правильно и красиво, но чертовски дорого как в инфраструктуре, так и человечески чтоб поддерживать все правильно.
Можно сказать что многие хостеры имеют свои бекапы, особенно S3-хранилища но физическая неизменяемая офлайн копия это тот самый минимум который должен быть всегда у малого бизнеса
раньше их было 6-8 на десяток апок, сейчас цифры уже трехзначные.
вчера искал простой тестер для микрофона что бы можно было переключать источники записи прям в апке и записывать звук что бы понимать как записало.
более двух десятков апок с разными названиями, иконками и скринами (и авторами) которые выглядят одинаково - той же самый пейвол и функционал просто под разными шкурками
под сотню разного "нового" что опубликовано до пары месяцев назад прям явно нейронное аж по скринам видно
апку я так и не нашел, в итоге через звонок на другой телефон и запись там тестил
использовал в практике https://github.com/oapi-codegen/oapi-codegen/ и как раз четко под задачу.
Комплексно слишком он ограниченный и множество мест руками надо делать. Но если вам надо openapi-first что бы документация была 100% валидной то тогда он ваш выбор. Плюс в нашей задаче была повышенная безопасность и потому сверху без проблем допились свои фильтры, что позволило собирать бинарник для клиента где все вшито и мы были уверены что клиент никак его не запустит и не подключит, что бы было небезопасно в первую очередь для клиента.
из минусов те самые ограничения - только openapi и то не прям весь, валидаторы один хрен самим писать и тесты к ним нормально, нет вебсокетов (но это известная проблема openapi в первую очередь) и сложности если апи отдает что то более чем json/xml
как хорошо что благодаря таким людям, специалисты будут еще более востребованы)
как плохо что благодаря таким людям нас ждет эпоха нейрослоповых приложений. уже началась, плеймаркет забит в топах сгенерированным шлаком где только иконки отличаются зато пейвол загружается первым при старте
Claude крутой для кода, но лимиты менее жесткие в Codex от GPT
спасибо большое за ваш труд, прочитал статью с огромным удовольствием)
кстати подобное шаманство работает не только в богоподобном си, но и я в других языках просто нужно знать подробности реализации. В том же Go можно структуру в байты напрямую похожим образом, без лишних телодвижений просто используя сам указатель на структуру и тут то важно правильно расположить что бы работало.
Упрощу - не нужно посещать тоталитарные страны. к сожалению сейчас таки становится больше, но история показывает, что это процесс циклический.
Юмор в том что слабовики как кадровики - им не сильно интересны факты, если захотят повязать то причиной станет как раз отсутствие телефона/переписок. Историям с подписыванием чистосердечного признания на чистом листе больше столетия и не только на территории СНГ
было интересно читать (хоть с долей скептиса) пока не дошел до момента что флеш мог бы заменить более успешно WebRTC. чукча явно писатель, хотел бы я посмотреть на это в реальности, как выжать больше и стабильнее чем уже сделали в WebRTC причем на базе того самого флеша
вообще флеш убил как раз html5 а точнее canvas на котором сейчас написаны абсолютно все сложные интерактивные приложения для веба. хотя как мо мне идея с тем, что бы сложное встраивание писать на чем-то менее кривое чем JS очень хорошая, но на момент 2012 года гугл уже занял нишу ведушего браузера и в отличии от мозилы гуглу абсолютно пофиг на пользователей, да и добавлять функционал в свои продукты они не сильно любят (только велосипедить с нуля) потому на сейчас у нас все в браузере завязано на JS и можно даже 3д графику через видеокарту собирать средствами js и показывать через canvas
впрочем спасибо что убили флеш, он был простым и гибким, но так же он был тяжелым и кривым - как же бесили лагаюшие сайты потому что там 100500 флеш окон на нем с рекламой в том числе
пример стима вот перед глазами, а ведь там все еще хуже так как он реально международный
есть подозрение на нейропостинг. Уж сильно похоже на компиляцию похожих статей из интернета без малейшего понимания реальности
на цену толщина переходных влияет только если ты вышел за пределы рекомендованных диаметров для переходного (что имеют абсолютно все производства), а допустимые 0.2 вполне.
глухие переходные в многослое это из мира профессиональной многослойной разработки. И "много" это не 4 или 8, а от 10 и до 40 слоев. А в таких бутербродах куча других особенностей надо в голове держать, праметизацию переходных в таком отлично сохраняет тот же альтиум.
мда. прям показатель насколько скатился хабр, если этот миллион набирали ботами и прочими мультикками.
да что там говрить, я сам уже более десятка аккаунтов "имею" просто потому что ценность самого аккаунта довольно сомнительна, а отлетают они очень быстро из-за прекрасной системы кармы благодаря которой по настоящему новой элитой хабра стали ботоводы которые могут топить неугодных и возвышать приближенных.
А ведь когда-то это был реально топовый технический портал для СНГ. Закрытая регистрация только подогревала интерес и иметь аккаунт считалось очень крутым. А сейчас вот это вот - современный пикабу (тот который сделали, а не тот что был) с кармой по сути.
ох, молодежь, стариковски кряхтит
"основные аккаунты" должны быть заведены на почту с собственным доменом на своем сервере с бекапами
Гугл уже более 10 лет как спортлото (у них нет обратной связи, вообще) потому если у вас отвалится ваша "основная почта" по какой-то из причин то вернуть ее очень маленькие шансы.
У меня у самого есть история, в период когда гугл страдал идиотизмом с паролями (где то 2014 если я правильно помню, новый пароль каждые пол года и пароли не могут быть такие как прошлые) я потерял доступ к своей почты. Доступ к аккаунту был, как и к почтовому агенту на телефоне где было все авторизовано, но вот с браузера или иных устройств шиш.
Есть привязанный телефон, есть авторизованное устройство - но восстановить пароль вы не можете идите нахер. Самое мое любимое что оно тогда писало - вы ввели свой старый, пароль а надо новый, причем помнило оно не просто "прошлый" а все до этого что были, безопасность.
В итоге через два года что-то там сбросилось и я смог нормально установить новый пароль.
Сейчас с этим хайпом на нейронках "серьезный акк" потерять как нефиг делать, так как вычислить какие аккаунты связаны не сложно и без нейронки. Уже сколько историй было что нейронки удаляют все, сносят данные и тд. Если вам "повезет" то никакие перестраховки не помогут от чужого идиотизма, а много какие сервисы вяжутся с почтой намертво.
так, что удаляли из архива что-либо я слышал, но что бы меняли.. ..есть пруфы?
К сожалению комментатор ниже полностью прав - то как скормили повышение цен на видеокарты, так же скормят и повышение цен на память.
Увеличивать производства будут с оглядкой на то, что бы не уронить цены, к сожалению(
Мы живем в капитализме, причем уже давно картельном. Если китай внезапно не захочет качнуть рынок и не выпустит в продажу много дешевой памяти, то мы и не увидим каких-то понижений цен на память особо.
вот ссылка вам для нагрузочных тестов так сказать https://www.printables.com/model/1087513-solar-system-lithophane-planet-lamp-collection-205
сложные и местами кривые модели, а главное большие. если вы сможете сделать что бы редактор без проблем работал с ними, вы закроете 99% проблем размерами, количеством точек и кривой геометрии
отвечу на ваши ответы:
1 - мне прямо стало интересно что это за линукс такой где не было компилятора Си, и где федора и дебиан это вообще уже "третье" (мне реально интересно что вы линуксом тогда считаете).
2 - не знаю где вы видели претензию к сложности, моя главная претензия (и людей после меня) что FreeCAD лаганое кривое говно которое даже не запускается особо, а даже запустившись оно остается кривым лаганым говном, в котором невозможно работать
я понимаю что посыл вашего комментария - как широки мои лапищи!, но можно тот же искусственный интеллект озадачивать проверкой соответстветсвия вопросов и ответа.
да и не сложный FreeCAD, обычный я бы сказал. вы явно блендер даже не открывали что бы считать FreeCAD сложным.