Pull to refresh
87
Влад@lorc

Embedded разработчик

0,1
Rating
24
Subscribers
Send message

Не так часто и не в таких количествах. Вон недавно RCE сделали в ноутпаде. В ноутпаде, Карл!

А датасеты для этого языка возьмутся... откуда?

А что, про глобальное изменение климата говорят гендерные литературоведы? Или таки климатологи?

Так вроде и Грок неплохо справляется.

Очень интересно! А где-то есть спецификации на CP8180? Интересно, какие расширения поддерживаются процессором (особенно интересно NV), какая версия GIC, есть ли SMMU.

Это как раз тут случай, когда увидеть device tree было бы полезнее...

Я не думаю что тврщу майору очень интересны фото-видео внуков. Или жалобы на бабку из 17й квартиры.

Общий ключ не нужен. Но каждый участник должен иметь публичные ключи всех других участников, чтобы рассылать им сообщения. Соответственно, когда в чат добавляется новый участник. он рассылает свой публичный ключ остальным.

Но вообще, групповые чаты - это от лукавого. Как говорил Борман - что знают трое, то знает и свинья.

Так его можно использовать как транспорт просто.

-----BEGIN PGP MESSAGE----

Никогда не встречали такой штуки? Это - единственное что тыщ майор увидит в плейнтексте.

Когда собираешь самодельный приемник, то от радио Маяк сложнее избавиться, чем поймать его.

Угу. "Меломаны используют аудиотехнику чтобы слушать музыку, аудиофилы используют музыку чтобы слушать аудиотехнику". Не помню кто сказал, но фраза очень точная.

Там вроде зенкер был в оригинале. Ибо по советским гайдам отверстие сначала сверлилось, потом зенкеровалось, а потом, если нужно - разворачивалось. Только вот оказывается, что если делать нормальные сверла - то зенкер не нужен. Достаточно сверла и развертки.

Да, согласен. Тут автор налажал с формулировкой.

А нигде. Фокус как раз в том что оно само определяет статистически важные характеристики. Автор сего кода (и статьи) предположил что сеть разделит токены на гласные/согласные потому что это статистически важно. Но это нигде не зафиксировано в любом случае. Нельзя даже получить эту информацию из весов модели.

Так Value как раз является узлом графа и хранит в себе локальный градиент. Как без него обойтись? Нужно же от конечного результата (значения функции потерь) пройтись назад по всем вычислениям в самое-самое начало, чтобы там подправить коэффициенты.

Марковская цепь 16-го порядка сожрет экспоненциально больше памяти. Но при этом будет "точнее". А для реальных LLM - это вообще не имеет смысла. Если мы хотим контекст хотя бы в тысячу токенов, нам нужна цепь тысячного порядка. Столько памяти в принципе не найдется.

Но функционально - да, этот тот же бредогенератор. Тем забавнее наблюдать как с ним все носятся.

А как вы предлагаете это оптимизировать?

Насколько я понимаю, то смысл как раз в том, чтобы все влияло на все. Поэтому и n^2.

Я практически уверен что они есть в исходном наборе. Собственно, это как раз хорошо показывает принцип работы LLM: она всегда галлюцинирует. Иногда эти галлюцинации совпадают с реальностью и мы получаем реально существующее имя (или "правильный" ответ от большой LLM), иногда оно просто выдает что-то, что никак не связано с реальностью.

В конце статьи есть FAQ. Буквально первый же вопрос - это именно то о чем вы спрашивали.

Если люди неспособны осмыслить текст перед ними, то чего вы ожидаете от машины?

1
23 ...

Information

Rating
3,779-th
Location
Украина
Date of birth
Registered
Activity