Очень интересно! А где-то есть спецификации на CP8180? Интересно, какие расширения поддерживаются процессором (особенно интересно NV), какая версия GIC, есть ли SMMU.
Это как раз тут случай, когда увидеть device tree было бы полезнее...
Общий ключ не нужен. Но каждый участник должен иметь публичные ключи всех других участников, чтобы рассылать им сообщения. Соответственно, когда в чат добавляется новый участник. он рассылает свой публичный ключ остальным.
Но вообще, групповые чаты - это от лукавого. Как говорил Борман - что знают трое, то знает и свинья.
Угу. "Меломаны используют аудиотехнику чтобы слушать музыку, аудиофилы используют музыку чтобы слушать аудиотехнику". Не помню кто сказал, но фраза очень точная.
Там вроде зенкер был в оригинале. Ибо по советским гайдам отверстие сначала сверлилось, потом зенкеровалось, а потом, если нужно - разворачивалось. Только вот оказывается, что если делать нормальные сверла - то зенкер не нужен. Достаточно сверла и развертки.
А нигде. Фокус как раз в том что оно само определяет статистически важные характеристики. Автор сего кода (и статьи) предположил что сеть разделит токены на гласные/согласные потому что это статистически важно. Но это нигде не зафиксировано в любом случае. Нельзя даже получить эту информацию из весов модели.
Так Value как раз является узлом графа и хранит в себе локальный градиент. Как без него обойтись? Нужно же от конечного результата (значения функции потерь) пройтись назад по всем вычислениям в самое-самое начало, чтобы там подправить коэффициенты.
Марковская цепь 16-го порядка сожрет экспоненциально больше памяти. Но при этом будет "точнее". А для реальных LLM - это вообще не имеет смысла. Если мы хотим контекст хотя бы в тысячу токенов, нам нужна цепь тысячного порядка. Столько памяти в принципе не найдется.
Но функционально - да, этот тот же бредогенератор. Тем забавнее наблюдать как с ним все носятся.
Я практически уверен что они есть в исходном наборе. Собственно, это как раз хорошо показывает принцип работы LLM: она всегда галлюцинирует. Иногда эти галлюцинации совпадают с реальностью и мы получаем реально существующее имя (или "правильный" ответ от большой LLM), иногда оно просто выдает что-то, что никак не связано с реальностью.
Проблема во всем. Начиная с около "76.3%". Это ж какая у них была выборка и какие крутые статистические методы, что для них три значащих цифры - это "около"?
Во вторых, я не уверен что 76.3% процента россия имеет смартфон вообще. Включая детей, пенсионеров, нищих, заключенных и т.д.
Ну и в третьих, вы точно уверены что у 3 из 4 человек в общественном транспорте будут айфоны?
Такое ощущение что мы с вами читали две разных статьи. Подметание пола - это просто фон. Знаете как в начале книги автор устанавливает контекст: "события разворачиваются на космической станции в 2075 году". Хотя, большинство историй можно рассказать используя другие декорации. Типа, если сменить старушку-процентщицу на крипто-барыгу, а Петербург - на Лондон, то в принципе ничего в "Преступлении и наказании" не изменится.
Так вот, статья не про полы. И даже не про оптимизацию движения на двухмерной карте. Это - всего лишь иллюстрации к главной, но довольно таки банальной мысли - "надо правильно выбирать критерий оптимизации". Точно такую же статью можно было написать про KPI, например. Как неправильно выбранный KPI все делает только хуже. Но обсуждение KPI уже всех задолбало, а тут - что-то новенькое.
Интересно, а какой смысл в HMB если ОС и так использует всю свободную память как файловый кеш? Или в HMB накопитель сбрасывает содержимое блоков которые он собирается обновлять частично?
Очень интересно! А где-то есть спецификации на CP8180? Интересно, какие расширения поддерживаются процессором (особенно интересно NV), какая версия GIC, есть ли SMMU.
Это как раз тут случай, когда увидеть device tree было бы полезнее...
Я не думаю что тврщу майору очень интересны фото-видео внуков. Или жалобы на бабку из 17й квартиры.
Общий ключ не нужен. Но каждый участник должен иметь публичные ключи всех других участников, чтобы рассылать им сообщения. Соответственно, когда в чат добавляется новый участник. он рассылает свой публичный ключ остальным.
Но вообще, групповые чаты - это от лукавого. Как говорил Борман - что знают трое, то знает и свинья.
Так его можно использовать как транспорт просто.
-----BEGIN PGP MESSAGE----Никогда не встречали такой штуки? Это - единственное что тыщ майор увидит в плейнтексте.
Когда собираешь самодельный приемник, то от радио Маяк сложнее избавиться, чем поймать его.
Угу. "Меломаны используют аудиотехнику чтобы слушать музыку, аудиофилы используют музыку чтобы слушать аудиотехнику". Не помню кто сказал, но фраза очень точная.
Там вроде зенкер был в оригинале. Ибо по советским гайдам отверстие сначала сверлилось, потом зенкеровалось, а потом, если нужно - разворачивалось. Только вот оказывается, что если делать нормальные сверла - то зенкер не нужен. Достаточно сверла и развертки.
Да, согласен. Тут автор налажал с формулировкой.
А нигде. Фокус как раз в том что оно само определяет статистически важные характеристики. Автор сего кода (и статьи) предположил что сеть разделит токены на гласные/согласные потому что это статистически важно. Но это нигде не зафиксировано в любом случае. Нельзя даже получить эту информацию из весов модели.
Так
Valueкак раз является узлом графа и хранит в себе локальный градиент. Как без него обойтись? Нужно же от конечного результата (значения функции потерь) пройтись назад по всем вычислениям в самое-самое начало, чтобы там подправить коэффициенты.Марковская цепь 16-го порядка сожрет экспоненциально больше памяти. Но при этом будет "точнее". А для реальных LLM - это вообще не имеет смысла. Если мы хотим контекст хотя бы в тысячу токенов, нам нужна цепь тысячного порядка. Столько памяти в принципе не найдется.
Но функционально - да, этот тот же бредогенератор. Тем забавнее наблюдать как с ним все носятся.
А как вы предлагаете это оптимизировать?
Насколько я понимаю, то смысл как раз в том, чтобы все влияло на все. Поэтому и n^2.
Я практически уверен что они есть в исходном наборе. Собственно, это как раз хорошо показывает принцип работы LLM: она всегда галлюцинирует. Иногда эти галлюцинации совпадают с реальностью и мы получаем реально существующее имя (или "правильный" ответ от большой LLM), иногда оно просто выдает что-то, что никак не связано с реальностью.
В конце статьи есть FAQ. Буквально первый же вопрос - это именно то о чем вы спрашивали.
Если люди неспособны осмыслить текст перед ними, то чего вы ожидаете от машины?
Проблема во всем. Начиная с около "76.3%". Это ж какая у них была выборка и какие крутые статистические методы, что для них три значащих цифры - это "около"?
Во вторых, я не уверен что 76.3% процента россия имеет смартфон вообще. Включая детей, пенсионеров, нищих, заключенных и т.д.
Ну и в третьих, вы точно уверены что у 3 из 4 человек в общественном транспорте будут айфоны?
Это вы про Абрамсы с турбинной установкой? Там, конечно, да...
Такое ощущение что мы с вами читали две разных статьи. Подметание пола - это просто фон. Знаете как в начале книги автор устанавливает контекст: "события разворачиваются на космической станции в 2075 году". Хотя, большинство историй можно рассказать используя другие декорации. Типа, если сменить старушку-процентщицу на крипто-барыгу, а Петербург - на Лондон, то в принципе ничего в "Преступлении и наказании" не изменится.
Так вот, статья не про полы. И даже не про оптимизацию движения на двухмерной карте. Это - всего лишь иллюстрации к главной, но довольно таки банальной мысли - "надо правильно выбирать критерий оптимизации". Точно такую же статью можно было написать про KPI, например. Как неправильно выбранный KPI все делает только хуже. Но обсуждение KPI уже всех задолбало, а тут - что-то новенькое.
Вслед за Microsoft, гугл пытается запихнуть ИИ в каждую щель. "Ну пожалуйста, ну пользуйтесь нашим ИИ"
Интересно, а какой смысл в HMB если ОС и так использует всю свободную память как файловый кеш? Или в HMB накопитель сбрасывает содержимое блоков которые он собирается обновлять частично?
На Марсе можно будет устроить такой технофашизм, который тут на Земле и не снился.