Обновить
2
0

Пользователь

Отправить сообщение

И ЕМНИП недавно была новость, что ОФ аж выпускал пособие для хлопцев правильной ориентации(тм), желающих карьеры в качестве эротической модели - как там чего показывать, чтобы аудитории противоположного полу заходило. Бо "обучающих видосов" для Ж-моделей полный интернет, а вот для М...

Ну, допустим, даже нашли мы планету "с кучей ценнейших ресурсов"(тоже вопрос - каких? унобтаниум?) - а как их перевозить? Точнее, сколько это будет стоить?

А ИИшка она вот, бери и внедряй, если внедряется.

Есть как минимум то отличие, что термояд- формализованная и понятная вещь: вот "плюс по энергии реакции", вот "плюс по суммарной энергии, затраченной на реакции", вот "плюс по экономике" - первое уже есть, ко второму и третьему движемся, когда дойдем - будет понятно, что дошли.

А что такое AGI - хрен знает.

А у отсталых западных банкингов тоже с удручающей регулярностью выходят новости про "у нас утекло"?

Не, эффект низкой базы и обхождения некоторых известных грабель у российского финтеха, безусловно, имеется, но имеется и эффект "фичи надо вчера, а безопасность пишем в техдолг". Скорость выкатки фич, удобство пользователя, безопасность - выберите любые 2(ну или нанимайте совсем уж всех программистов мира).

А тут несколько нюансов - во1, ЯМ делалась задолго до всей это импортозаместительной истории, во2, она по идее более репрезентативна по именно русскоязычной музыке, ну и в3, отчасти, наверное, то, что это проект Яндекса, а не рандомные чуваки наклянчили у инвесторов, тоже сыграло.

Придумал для себя мнемонику ОФП ЗРК(общефизическая подготовка зенитно-ракетного комплекса, извинити) - ограничения, формат, примеры, задача, роль, контекст:) И все тегами или отступами, да. И можно собственно повторяющуюся часть вынести в отдельный файл и попросить нейронку и написать:)

А если ещё запускать их в правильном порядке, да добить архитектором и оркестратором - получится TDD over LLM...

Ну, человек не способен работать 24/7/365, и даже в режиме 8 5/2, случается, тоже глючит. А нейронка доступна круглосуточно - то есть при условии одинакового характера галлюцинаций удобнее.

Это не говоря про то, что в случае со специалистами тоже есть эффект "сначала правильно задай вопрос". Не, прям хороший и мотивированный собеседник, конечно, ещё переспросит, но...

Даже не dlss, а всякие там материаловедения и прочее. Там сложность честного моделирования дикая, точность приблизительного - грубо говоря, в основном уже исчерпали, а вот "хрен знает, то, что надо, или нет, но давайте проверим, что там железяка нагенерила" - даже если условно 1 из 100 кандидатов на какой-нибудь "высокотемпературный сверхпроводник" выстрелит, то всё окупится с огромным запасом.

Гм. Балансер, конечно, не заменяет, но сделать "автодокидывание мощщи" таким образом мб и прикольно, единственное - вопрос, насколько оперативно ты успеешь прочесть новость и соответственно опередить рост рпса)

...и ещё и немножечко вредить за такие деньги (с)=)

Да, по описанию очень похоже на доклад чувака из Майкрософта- там почти это же рассказывали(это комплимент если что)

Ну, есть гипотеза, что это может быть - как насчёт оружия, одного экземпляра которого достаточно для уничтожения крупного мегаполиса - чем не путь к обожествлению?..

... А, ну да.

Любая информация по айти может оказаться галлюцинацией. На stack overflow полно неточных или просто мусорных ответов, и даже самые залайканные ответы могут быть верны для ситуации из вопроса, но нерелевантны твоей проблеме(например, использование зависимости, которая у тебя в компании запрещена по политикам безопасности или ещё что-то). Более того - официальные доки тоже могут врать, не далее как неделю назад боролся с багом - по официальной документации 2 метода формирования запроса к бд в орм должны давать абсолютно идентичный результат, а он вообще нихрена не, и, как показал дебаг - в моем случае(подозреваю, что не самом экзотическом) и не должен был быть.

Это ж не повод отказываться от официальных доков и SO. Точно так же и с нейронками - если внедрять llm driven development или stack overflow driven development, то, скорее всего, рано или поздно выстрелит(но не факт). А если ко всему подходить, как говорится, with a grain of salt и по принципу доктора Хауса - то вполне рабочая штука. Просто у нейронок характер вранья отличается от "человеческого", это надо учитывать, но это не блокер.

Нет, чтобы нейронка условно описала какую-то функцию как "вывод в консоль" в то время как на самом деле она делает rm -rf - это надо, чтобы 1) по этой функции не было или почти не было доступной инфы, которую она выдаст 2) "правдоподобный" нафантазированный ответ говорил про консоль вместо удаления - но это, например, значит, что название функции что-то типа logToConsole, а не deleteAll, и как она тогда под капотом что-то удаляет - вопрос. Нейронка старается в ситуациях, где нет инфы, сгенерить что-то внешне консистентное, а это значит, что для прям радикального вранья и то, о чем спрашивают, должно иметь проблемы с внутренней консистентностью. Да ещё и не быть сильно известным(чтобы включить фантазии у нейронки). А точно ли этим стоит пользоваться вообще?

Более реалистичный пример фантазий - это скорее что-то типа, не знаю, метода, в который параметром кидают какую-то величину + единицу измерения - нейронка, не имея инфы, легко нафантазирует, что это объект из двух полей, хотя на самом деле автор по каким-то соображениям сделал строковый формат через пробел. Вот такое да, с хорошим шансом будет переврано, но так ли это критично и непроверяемо?

Ну, проведу аналогию. Есть фреймворк актуальной версии 2.0, в 10% контрактов отличающийся от 1.0. Так вышло, что доков по актуальной версии у вас нет, но есть по первой. Его точно нет смысла читать из-за 10% неверной инфы? Или после прочтения будет довольно неплохое представление, что к чему, а с расхождениями можно уже и на практике разобраться?

Это вероятностный вопрос - чем "известнее" инфа, которую спрашиваешь, тем больше шанс, что суждения нейронки будут правильными. И да, стопроцентные галлюцинации(прям все нафантазировано) - это сильно менее вероятно, чем "все верно", если тема популярная, ну а самый вероятный исход - в основном верно, но по каким-то пунктам будет враньё. Как инструкция или учебник - не годится, но как "взгляд с высоты птичьего полета" - вполне. Ну и что значит не узнаю - если я планирую дальше пользоваться тем, про что спрашивал, то крупные нестыковки вылезут очень быстро. Просто надо эти шансы ошибок учитывать и не верить на слово.

Самое интересное, что ИИшка реально очень удобна в быту или учебе личного характера, то есть физическому лицу прям очень хорошо может зайти, потому что цена галлюцинации не очень высокая(ну, главное, до жизненно важных вопросов допускайте с осторожностью). Мне очень понравилось её спрашивать в качестве ликбеза по незнакомой технологии - сначала "дай краткое описание, что и зачем", потом "составь айсберг возможностей" и в конце "сделай роадмап, как написать такую штуку с нуля" - сразу понимаешь общую картину и примерные границы применения, а по нюансам уже можно и вне ИИ читать. Ни учебник, ни форумы так не умеют. Мясной напарник умеет, но как-то неудобно человека от работы отрывать ради удовлетворения любопытства. А ИИшку - пожалуйста. И да, в деталях она может подвирать, это нужно учитывать, но общую картину даст неплохо, если технология не супер малоизвестная.

Но вот бизнес, где цена ошибки иная - это уже совсем другая история(с)

Я ни разу не гуру, но мне всегда казалось, что базово всегда надо делать sql и нормализации. А не надо только в том случае, когда формат данных может сильно меняться со временем по составу и структуре полей, причем надо поддерживать все варианты - и старые, и новые. Вот в такой ситуации да, монго или аналоги уменьшат боль(но не уберут полностью). А если данные просто сложные(пардон за), но более-менее одни и те же по структуре - ну потрать время на нормальную структуру табличек:)

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Бэкенд разработчик, Фулстек разработчик
Средний
JavaScript
Node.js
TypeScript