правильно сделали, эффективность работы дома намного ниже, мой опыт это подтверждает. вне офиса начинается что угодно, кроме работы, и дай бог удаленщики работают на 70% от людей в офисе. Работать пару дней в неделю из офиса имхо хорошая идея, но не более, и то если к человеку нет вопросов по дисциплине и качеству работы
это то о чем я говорю, ну уговорил, а купить то смог? под дулом пистолета и человек скажет что хочешь, но это ничего не значит. суд подобные ухищрения не примет, еще и самому ломальщику могут вломить
я вот не понимаю что есть джейлбрейк модели? ну заставили ее какими то ухищрениями сказать что то не то, это не джейлбрейк а дача показаний под принуждением.. есть ли какие-то реальные кейсы где это к чему то привело?
а как определяется что им пох@й? если бы им было совсем пох@й то они генерировали бы полный бред, но это очевидно не так. в них при обучении а теперь и в момент инференса заложены определенные механизмы оптимизации в сторону полезности и правды. может эти механизмы не так совершенны как у людей, однако же есть бесплатные автомобили например, значит есть и вера в то что эти механизмы станут лучше
я верю что человечество, возможно с помощью AI, найдет решение этой проблемы, как было и с решением многих других проблем. верить в обратное тоже можно, но зачем?
я смотрю не что Лекун говорит, а что он делает. И делает он тоже что и все остальные, и по его действиям получается что он такой же апологет AI, только вдобавок ещё и брехун. Все они понимают что остановка их компании в этом направлении означает их поражение в очень недалёком будущем
самые большие корпорации и самы умные люди планеты вливают в эту сферу такие ресурсы, что мне трудно представить чтобы это было просто так. они уверены что решение найдется, и я тоже. так было с электричеством, с интернетом и тп. почитайте возражения людей на появление автомобиля и вы найдете поразительное сходство с вашими аргументами
проблема в текущих в том что llm, в отличие от человека, трудно отследить изменения. большая часть ошибок идет отсюда. как только появится возможность программного определения набора возможностей фреймворка по его версии и поддержка этого в ллм - эта программа будет решена
этот отрыв сокращается. вот например только что от Цукерберга: Probably in 2025, we at Meta, as well as the other companies that are basically working on this, are going to have an AI that can effectively be a sort of midlevel engineer that you have at your company that can write code.
они научены сейчас на самых распространенных примерах и языках. я, например, вполне успешно писал целые веб приложения ещё полгода назад на Autogen. low level, пока, не их конек. но ведь это вопрос времени. когда Open AI наконец посадит 1000 программистов писать код на C для тренировки модели этот вопрос будет закрыт. Ну и рано или поздно будет разработан язык и фреймворки чисто под LLM, не предназначенные для людей, лишенные описанных вами недостатков.
это так, однако последние версии llm уже очень хорошо пишут код, и с каждым месяцем все лучше. я уже не вижу причин почему они не станут лучше людей, вопрос теперь когда
LLamaIndex + GPT4o + Quadrant для прототипа. Нерелевантные ответы можно фильтровать на уровне ingestion (черз LLM например, ранжировать ответы по полезности и сохранять только то что имеет смысл), retreival с помошью re-ranking, и на уровне самой LLM при выдаче ответа. В целом LLM хорошо справляется с пониманием какой ответ был полезным
Нужно сделать прототип и итеративно улучшать его, я бы начал с этого. Дополнилельные данные типа вики тоже не помешают.
правильно сделали, эффективность работы дома намного ниже, мой опыт это подтверждает. вне офиса начинается что угодно, кроме работы, и дай бог удаленщики работают на 70% от людей в офисе. Работать пару дней в неделю из офиса имхо хорошая идея, но не более, и то если к человеку нет вопросов по дисциплине и качеству работы
это то о чем я говорю, ну уговорил, а купить то смог? под дулом пистолета и человек скажет что хочешь, но это ничего не значит. суд подобные ухищрения не примет, еще и самому ломальщику могут вломить
я вот не понимаю что есть джейлбрейк модели? ну заставили ее какими то ухищрениями сказать что то не то, это не джейлбрейк а дача показаний под принуждением.. есть ли какие-то реальные кейсы где это к чему то привело?
они, несомненно, психопаты, а точнее социопаты
а как определяется что им пох@й? если бы им было совсем пох@й то они генерировали бы полный бред, но это очевидно не так. в них при обучении а теперь и в момент инференса заложены определенные механизмы оптимизации в сторону полезности и правды. может эти механизмы не так совершенны как у людей, однако же есть бесплатные автомобили например, значит есть и вера в то что эти механизмы станут лучше
я верю что человечество, возможно с помощью AI, найдет решение этой проблемы, как было и с решением многих других проблем. верить в обратное тоже можно, но зачем?
я смотрю не что Лекун говорит, а что он делает. И делает он тоже что и все остальные, и по его действиям получается что он такой же апологет AI, только вдобавок ещё и брехун. Все они понимают что остановка их компании в этом направлении означает их поражение в очень недалёком будущем
самые большие корпорации и самы умные люди планеты вливают в эту сферу такие ресурсы, что мне трудно представить чтобы это было просто так. они уверены что решение найдется, и я тоже. так было с электричеством, с интернетом и тп. почитайте возражения людей на появление автомобиля и вы найдете поразительное сходство с вашими аргументами
проблема в текущих в том что llm, в отличие от человека, трудно отследить изменения. большая часть ошибок идет отсюда. как только появится возможность программного определения набора возможностей фреймворка по его версии и поддержка этого в ллм - эта программа будет решена
этот отрыв сокращается. вот например только что от Цукерберга: Probably in 2025, we at Meta, as well as the other companies that are basically working on this, are going to have an AI that can effectively be a sort of midlevel engineer that you have at your company that can write code.
нет, если сделают на солнечных батареях или атомной энергии
они научены сейчас на самых распространенных примерах и языках. я, например, вполне успешно писал целые веб приложения ещё полгода назад на Autogen. low level, пока, не их конек. но ведь это вопрос времени. когда Open AI наконец посадит 1000 программистов писать код на C для тренировки модели этот вопрос будет закрыт. Ну и рано или поздно будет разработан язык и фреймворки чисто под LLM, не предназначенные для людей, лишенные описанных вами недостатков.
это так, однако последние версии llm уже очень хорошо пишут код, и с каждым месяцем все лучше. я уже не вижу причин почему они не станут лучше людей, вопрос теперь когда
он же уже доступен?
hardware тоже не стоит на месте, прогресс огромный, так что думаю океанам ничего не грозит. но спрос на gpu вырастет, этот точно
учитывая появление reasoning models как o1, o3 - насколько вообще RAG остается актуальным и как это влияет на архитектуру?
есть ли аналог Google Fact checker для медицины или legal?
для личных целей это вряд ли потребуется) достаточно запускать в докер контейнере
вполне
LLamaIndex + GPT4o + Quadrant для прототипа. Нерелевантные ответы можно фильтровать на уровне ingestion (черз LLM например, ранжировать ответы по полезности и сохранять только то что имеет смысл), retreival с помошью re-ranking, и на уровне самой LLM при выдаче ответа. В целом LLM хорошо справляется с пониманием какой ответ был полезным
Нужно сделать прототип и итеративно улучшать его, я бы начал с этого. Дополнилельные данные типа вики тоже не помешают.