Меня например распирать начинает после 1400 калорий. Вес я при этом могу держать любой на таком режиме. Чуть выше - и двигает вверх. Но это ведь весьма мало. При росте 190 см-то. Хочется побольше. 2000-2200 это вы прямо полноценно едите. Все гормоны в норме, на поверхности причин этому всему не видно.
Хотелось бы просто, как эти некоторые "не в коня корм", которые постоянно что-то жуют но тощие при этом. Объективно, они жуют не только лишь то, что пустое в калориях да велико в объёме. Вот хочется как они, есть всё и не задумываться.
А как быть с теми, кто ест за троих и такой тощий и жалуется что "не могу набрать вес", и теми кто питается как птичка (и нет, они не ужирают втихоря по вечерам, они именно едят как птичка), но при этом центнер? Очевидно, что есть скрытые струны, которых мы почему-то не понимаем. Говорить "это всё генетика" – это bullshit ненаучный. Мы уже научились делать векторные вакцины, но при этом не можем решить вопрос с энергетическим балансом, ссылаясь на гороскоп. Каждый раз диву даюсь.
Есть ли понимание, почему ни один провайдер LLM-сервисов не предоставляет информацию об уверенности модели в ответе? При достаточном понимании уже 2 года назад, как это может работать и почему (можно как вы написали, можно логиты последнего слоя смотреть и считать prediction intervals, в общем много чего можно, и это будет вот прямо работать супер), очень откровенно бесило что никто такого сервиса не даёт через API (понятно что можно завести свою большую LLaMa, ну так вопрос цены...), и приходится плясать какие-то дикие бубны, сэмплируя множество LLM по нескольку раз и прочую дичь, чтобы хоть как-то оценить галлюциноген. Неужели причина только деньги (понятно, что мои пляски с бубнами на каждый запрос кратно повышают их чек). Но ладно бы это только меня как клиента раздражало. Это же порождает дурные совершенно спекуляции из серии "ах, никуда ваши нейронки не годятся, галлюцинируют, 'ChatGPT is bullshit', о ужас чёрный ящик, никто !!! не знает как это работает поэтому мы не станем их использовать" и т.д., ну глупость же несусветная. И такое ощущение, что это ровно то что производители LLM API и хотели - поднять кипеш и бурление, при этом срубая кратный чек. Можно, конечно, ещё допустить, что условные Мира Мурати и Сем Альтман действительно не очень в курсе и не хотят (не готовы, не могут, ...) понять и принять те вещи, о которых мы тут говорим, и потому они никогда не происходят в виде функционала API, хотя им настоящие разработчики этого дела постоянно это может быть и предлагали, но вероятность мне кажется не очень большая...
for i in range(dims):
point[i] = np.random.uniform(-1, 1)
if np.sum(np.square(point)) <= 1:
points.append(point)
А является ли это корректной генерацией именно равномерно в сфере распределённых точек? Изотропии же не получается, казалось бы для чистоты эксперимента нужно семплировать rejection-free способом: https://baezortega.github.io/2018/10/14/hypersphere-sampling/
Это лишь интуиция, но на мой взгляд, соорудили там в Раст такую алгебру, что ее не только лишь сложно понять, но она ещё и сама по себе противоречива, оттуда и проблемы с изучением и такой невероятной сложностью. А формально эту алгебру никто не проверял, потому что Раст наваяли инженеры без математической подготовки. Таким же путём мы получили что получили в современном Вебе.
Попробуйте in-prompt learning, покажите в системном промпте пример ответа машины и ответы живого реддитора в количестве 3-4 примеров, и затребуйте чтобы он ответил как реддитор.
Так проблема в том, что его надо строить. Сам ими занимаюсь лет уже 6 наверное. Выбор платформы, на мой взгляд – это вопрос последнего порядка. Вы можете собрать из open source всю платформу, а можете купить Ansys TwinBuilder (но зачем?). Это не поможет построить собственно двойника, матмодели, вымачивание и готовку данных, и пр. вообще никак.
В у них это видимо кастовое, они так зарабатывают очки на многомиллионные опционы. Передвинул очередную опцию – ачивка! В 45 лет на пенсию с навестенными акциями-то.
Меня например распирать начинает после 1400 калорий. Вес я при этом могу держать любой на таком режиме. Чуть выше - и двигает вверх. Но это ведь весьма мало. При росте 190 см-то. Хочется побольше. 2000-2200 это вы прямо полноценно едите. Все гормоны в норме, на поверхности причин этому всему не видно.
Ну вот может быть на вашем примере мы и решим здесь этот колоссальный вопрос?
На ваш взгляд, какие показатели в ваших анализах, на ваш собственный взгляд, были наиболее экстремальны в отношении среднего? Тироидные гормоны?
Отдайте мне ваш метаболизм, считать каждую калорию просто безумно надоело. Хочется оттянуться
Вы так безапелляционно это говорите, как будто это факт 😂 хочется вам отшлёпнуть за это смачную пощёчину
И сколько же это калорий в вашем случае?
Вы так безапелляционно это говорите, как будто это факт 😂 вот и вас, как в комментарии ниже, хочется так же потрепать за это. Горе-специалисты
Взаимно.
А вы едите мало и не испытываете голода?
Хотелось бы просто, как эти некоторые "не в коня корм", которые постоянно что-то жуют но тощие при этом. Объективно, они жуют не только лишь то, что пустое в калориях да велико в объёме. Вот хочется как они, есть всё и не задумываться.
А как быть с теми, кто ест за троих и такой тощий и жалуется что "не могу набрать вес", и теми кто питается как птичка (и нет, они не ужирают втихоря по вечерам, они именно едят как птичка), но при этом центнер? Очевидно, что есть скрытые струны, которых мы почему-то не понимаем. Говорить "это всё генетика" – это bullshit ненаучный. Мы уже научились делать векторные вакцины, но при этом не можем решить вопрос с энергетическим балансом, ссылаясь на гороскоп. Каждый раз диву даюсь.
Есть ли понимание, почему ни один провайдер LLM-сервисов не предоставляет информацию об уверенности модели в ответе? При достаточном понимании уже 2 года назад, как это может работать и почему (можно как вы написали, можно логиты последнего слоя смотреть и считать prediction intervals, в общем много чего можно, и это будет вот прямо работать супер), очень откровенно бесило что никто такого сервиса не даёт через API (понятно что можно завести свою большую LLaMa, ну так вопрос цены...), и приходится плясать какие-то дикие бубны, сэмплируя множество LLM по нескольку раз и прочую дичь, чтобы хоть как-то оценить галлюциноген. Неужели причина только деньги (понятно, что мои пляски с бубнами на каждый запрос кратно повышают их чек). Но ладно бы это только меня как клиента раздражало. Это же порождает дурные совершенно спекуляции из серии "ах, никуда ваши нейронки не годятся, галлюцинируют, 'ChatGPT is bullshit', о ужас чёрный ящик, никто !!! не знает как это работает поэтому мы не станем их использовать" и т.д., ну глупость же несусветная. И такое ощущение, что это ровно то что производители LLM API и хотели - поднять кипеш и бурление, при этом срубая кратный чек. Можно, конечно, ещё допустить, что условные Мира Мурати и Сем Альтман действительно не очень в курсе и не хотят (не готовы, не могут, ...) понять и принять те вещи, о которых мы тут говорим, и потому они никогда не происходят в виде функционала API, хотя им настоящие разработчики этого дела постоянно это может быть и предлагали, но вероятность мне кажется не очень большая...
@tech_priestessвопрос!
А является ли это корректной генерацией именно равномерно в сфере распределённых точек? Изотропии же не получается, казалось бы для чистоты эксперимента нужно семплировать rejection-free способом: https://baezortega.github.io/2018/10/14/hypersphere-sampling/
Про хаскель сам ничего не скажу... :)
Это лишь интуиция, но на мой взгляд, соорудили там в Раст такую алгебру, что ее не только лишь сложно понять, но она ещё и сама по себе противоречива, оттуда и проблемы с изучением и такой невероятной сложностью. А формально эту алгебру никто не проверял, потому что Раст наваяли инженеры без математической подготовки. Таким же путём мы получили что получили в современном Вебе.
https://youtube.com/shorts/_ebVsYQou8A?si=68-TMRtVZAwGgXpX
Ну вот почти мое впечатление, этот Раст это такое упражнение в интеллекте, которое никогда не должно было быть выполнено никем вообще
Так вот уже мне кажется. За собой уже стал замечать всякие intricate, meticulously и пр.
У меня английский в использовании больше чем русский, и я просто так по-русски теперь пишу.
Попробуйте in-prompt learning, покажите в системном промпте пример ответа машины и ответы живого реддитора в количестве 3-4 примеров, и затребуйте чтобы он ответил как реддитор.
Так проблема в том, что его надо строить. Сам ими занимаюсь лет уже 6 наверное. Выбор платформы, на мой взгляд – это вопрос последнего порядка. Вы можете собрать из open source всю платформу, а можете купить Ansys TwinBuilder (но зачем?). Это не поможет построить собственно двойника, матмодели, вымачивание и готовку данных, и пр. вообще никак.
А это вторая производная, деятельность по ведению деятельности, планирование планирования. Они за это бонусы тоже получают, конечно
В у них это видимо кастовое, они так зарабатывают очки на многомиллионные опционы. Передвинул очередную опцию – ачивка! В 45 лет на пенсию с навестенными акциями-то.