С одной стороны да, а с другой стороны в коре, которая как раз про смыслы, 16 миллиардов. Синапсов у пирамидального нейрона действительно "около 10к" (до сих пор споры ведутся как их считать), но нейроны не связаны "все со всеми". Там довольно строгая организация — кортикальные колонки из шести слоев, связь через таламус и вот это вот всё. Колонок всего несколько сотен миллионов и есть сомнения в том, что одна колонка может участвовать в большом количестве нейрональных ансамблей (которые, предположительно, кодируют смыслы). Если отойти от абсолютных цифр и посмотреть на архитектуру то там все вроде как гораздо скромнее. Но это я как нейрофизиолог на милималках могу сказать — учбеники и пабмед читаю, но больше интересуюсь, чем что-то серьезное 😥
По очень грубой оценке, по нижней границе, нарративная емкость человеческого мозга минимум в 100 раз выше чем у текущих LLM (по количеству параметров, без учета внимания, потоковой емкости и временной глубины).
А уже есть какие-то попытки сравнения? Из того что я читал, Константин Анохин очень осторожно оценивает емкость мозга как "миллионы смыслов" (он их называет "когами в когнитоме"). Это не похоже на "в 100 раз выше, чем у текущих LLM" 😊 Про человеческую рабочую память я вообще молчу, там слезы 😥
Фактически злоумышленники уверены, что если они захватили аккаунт, то сутки он гарантированно будет под их контролем. А большего им и не нужно. Это позволяет им максимально автоматизировать все этапы и успешно монетизировать аккаунты.
Почему именно сутки, если юзербот для сброса новых сессий может работать вечно?
Привет! А вот этот фрагмент — он целиком от ChatGPT или есть референсы? Я дабл-чекнул на википедии и "Cognitive Load Theory" вообще ничего общего не имеет с "минимизацией когнитивных издержек" 😳 https://en.wikipedia.org/wiki/Cognitive_load
Закон наименьшего усилия (Cognitive Load Theory). Наш мозг всегда минимизирует когнитивные издержки. Старый поиск — десятки вкладок, хаос информации. Новый — почти нулевая нагрузка.
Сигнал может проходить только через определенные последовательности нейронов, и прямые связи между группами нейронов в разных областях - физически невозможны.
Там еще есть таламус. Через него, если упрощенно, "всё связано со всем". А "прямые связи" между кортикальными колонками довольно ограничены и больше для технического низкого уровня, чем для коммуникации между нейрональными ансамблями.
Возможно я невнимательно прочитал, но как бот переводит подарки жертвы себе? Какое подтверждение от жертвы нужно? Ведь не может же любой бот, которому я напишу сообщение, просто так переводить себе мои подарки? В какой момент у пользователя запрашивается разрешение на это действие и как такое разрешение выглядит? 🤔
В соответствии с гипотезами о работе сознания Майкла Грациано и Константина Анохина. Спрашивать чатгпт что такое "динамики внимания" и "когнитом", оно все расскажет лучше меня.
Поспорить с этой позицией с точки зрения биологии, биохимии, нейрофизиологии etc., действительно, не получится.
Это если LessWrong не читать 😂 Если читать, то с удивлением видишь, что у канонического эксперимента "приборы показали, что мозг принимает решение нажать на кнопку 10 секунд до того, как человек это решение осознал, гы, лол" есть пара десятков трактовок.
Самое простое и тривиальное звучит так: "Испытуемому предлагают нажать на кнопку в случайный момент времени. Испытуемый запускает в сознании процесс 'выбери мне случайный момент времени примерно в радиусе минуты'. Процесс сразу выбирает время, ждет, после чего рапортует в сознание 'будильник зазвенел'. Человек смотрит на часы и запоминает, во сколько 'он принял решение'. А приборы показывают работу того самого процесса, получая числа от нескольких сотен миллисекунд до несколько секунд (!!!) раньше, чем человек принял 'осознанное' решение".
Высокоуровнево YDB может себе позволить распределенные транзакции по двум причинам:
У нее разделение storage и compute. То есть процесс(ы), которые выполняют запрос, и так читают и пишут данные по сети. При такой архитектуре нет разницы, на одном сервере находятся такие данные или на сотне.
У нее акторная модель. Слой вычисления выполняет легковестные акторы с надежно сохраняемым стейтом и дает им возможность обмениваться сообщениями. Тоже по сети. Для акторов их бессмертие и возможность безнаказанно отправлять друг другу сообщения — тот мир, в котором они существуют. Ну и в рамках такого мира уже несложно организовать оркестрацию любого количества изменений в рамках транзакции 😊
Мануальный навык вождения машины можно приобрести или за годы опыта, или пройдя соответствующие курсы. На курсах, кстати, начнут с того, что привьют водителю элементарную грамотность: как правильно держать руки на руле (многие не умеют!), как правильно рулить и пользоваться педалями. Только освоив эту базу, можно учиться чему-то более полезному.
Интересная аналогия. Действительно, есть сильные гипотезы о том, что мозг способен экстраполировать и заимствовать способы думания об алгоритмах (так называемые в нейрофизиологии "динамики внимания") на нашу ежедневную работу по написанию кода.
Тем не менее, хороших подтверждений такой гипотезы я не встречал. Возвращаясь к аналогии про мануальный навык воздения машины. Говорить о том, что инвестиция нескольких месяцев в решение литкода и формулирование алгоритмов по памяти помогает в работе программистов — это примерно как говорить о том, что умение бегать марафоны сильно помогает водить машину. Координация, физическая подготовка, фокус внимания на дороге и вот это всё.
Причем, если собрать статистику, то, возможно, среди тех, кто бегает марафоны действительно аварий меньше. Но вопрос будет в том, переиспользует ли мозг навыки бега марафонов для вождения машины как "базу", или же и то и другое коррелирует с чем-то другим. Например, собранностью, целеустремленностью, хорошей физической формой или какими-то чертами характера.
Если ты Гугл, то можно при сдаче на права требовать пробежать марафон, 100 раз отжаться, 50 раз подтянуться, поразить мишеть из лука, перевести текст с Японского и ответить устно на вопрос по-английски. Возможно, в таком случае аварий будет меньше. Но это — если ты Гугл. Во всех остальных случаях your mileage may vary 😥.
К этой книге много вопросов, например https://www.reddit.com/r/slatestarcodex/comments/dwtr0m/matthew_walkers_why_we_sleep_is_riddled_with/
С одной стороны да, а с другой стороны в коре, которая как раз про смыслы, 16 миллиардов. Синапсов у пирамидального нейрона действительно "около 10к" (до сих пор споры ведутся как их считать), но нейроны не связаны "все со всеми". Там довольно строгая организация — кортикальные колонки из шести слоев, связь через таламус и вот это вот всё. Колонок всего несколько сотен миллионов и есть сомнения в том, что одна колонка может участвовать в большом количестве нейрональных ансамблей (которые, предположительно, кодируют смыслы). Если отойти от абсолютных цифр и посмотреть на архитектуру то там все вроде как гораздо скромнее. Но это я как нейрофизиолог на милималках могу сказать — учбеники и пабмед читаю, но больше интересуюсь, чем что-то серьезное 😥
Привет, спасибо за статью!
А уже есть какие-то попытки сравнения? Из того что я читал, Константин Анохин очень осторожно оценивает емкость мозга как "миллионы смыслов" (он их называет "когами в когнитоме"). Это не похоже на "в 100 раз выше, чем у текущих LLM" 😊 Про человеческую рабочую память я вообще молчу, там слезы 😥
Но ты же писал, что техподдержка отсутствует и там только волонтеры, которые никак не помогут вернуть контроль над аккаунтом?
Почему именно сутки, если юзербот для сброса новых сессий может работать вечно?
Например, про Parsing Expression Grammar. Грамматика Python написана с ее использованием: https://docs.python.org/3/reference/grammar.html
А-а-а-а, так вот как эта легенда возникает! Это прямо крутая демонстрация. Спасибо!
Привет! А вот этот фрагмент — он целиком от ChatGPT или есть референсы? Я дабл-чекнул на википедии и "Cognitive Load Theory" вообще ничего общего не имеет с "минимизацией когнитивных издержек" 😳 https://en.wikipedia.org/wiki/Cognitive_load
Там еще есть таламус. Через него, если упрощенно, "всё связано со всем". А "прямые связи" между кортикальными колонками довольно ограничены и больше для технического низкого уровня, чем для коммуникации между нейрональными ансамблями.
Возможно я невнимательно прочитал, но как бот переводит подарки жертвы себе? Какое подтверждение от жертвы нужно? Ведь не может же любой бот, которому я напишу сообщение, просто так переводить себе мои подарки? В какой момент у пользователя запрашивается разрешение на это действие и как такое разрешение выглядит? 🤔
В соответствии с гипотезами о работе сознания Майкла Грациано и Константина Анохина. Спрашивать чатгпт что такое "динамики внимания" и "когнитом", оно все расскажет лучше меня.
Это если LessWrong не читать 😂 Если читать, то с удивлением видишь, что у канонического эксперимента "приборы показали, что мозг принимает решение нажать на кнопку 10 секунд до того, как человек это решение осознал, гы, лол" есть пара десятков трактовок.
Самое простое и тривиальное звучит так: "Испытуемому предлагают нажать на кнопку в случайный момент времени. Испытуемый запускает в сознании процесс 'выбери мне случайный момент времени примерно в радиусе минуты'. Процесс сразу выбирает время, ждет, после чего рапортует в сознание 'будильник зазвенел'. Человек смотрит на часы и запоминает, во сколько 'он принял решение'. А приборы показывают работу того самого процесса, получая числа от нескольких сотен миллисекунд до несколько секунд (!!!) раньше, чем человек принял 'осознанное' решение".
Мда. С крокодилом, конечно, справилось лучше 😳 Ниже пример от ChatGPT. Которая перерисовала изображение, но с задачей справилась.
ChatGPT, кстати, в чате справляется. Но картинку, конечно, перерисовывает 😂
Описанное как-то доступно в гигачате? Если просто попробовать фокусы из статьи то текущая версия вообще игнорирует приложенные изображения.
Это не то же самое, что делает Caddy-Docker-Proxy?
Разделение на compute & storage позволяет проще организовать распределение по нодам с сохранением отказоустойчивости. И делает акторы бессмертными 😊
Высокоуровнево YDB может себе позволить распределенные транзакции по двум причинам:
У нее разделение storage и compute. То есть процесс(ы), которые выполняют запрос, и так читают и пишут данные по сети. При такой архитектуре нет разницы, на одном сервере находятся такие данные или на сотне.
У нее акторная модель. Слой вычисления выполняет легковестные акторы с надежно сохраняемым стейтом и дает им возможность обмениваться сообщениями. Тоже по сети. Для акторов их бессмертие и возможность безнаказанно отправлять друг другу сообщения — тот мир, в котором они существуют. Ну и в рамках такого мира уже несложно организовать оркестрацию любого количества изменений в рамках транзакции 😊
А в случае rollback получилась бы катастрофа 😂
Интересная аналогия. Действительно, есть сильные гипотезы о том, что мозг способен экстраполировать и заимствовать способы думания об алгоритмах (так называемые в нейрофизиологии "динамики внимания") на нашу ежедневную работу по написанию кода.
Тем не менее, хороших подтверждений такой гипотезы я не встречал. Возвращаясь к аналогии про мануальный навык воздения машины. Говорить о том, что инвестиция нескольких месяцев в решение литкода и формулирование алгоритмов по памяти помогает в работе программистов — это примерно как говорить о том, что умение бегать марафоны сильно помогает водить машину. Координация, физическая подготовка, фокус внимания на дороге и вот это всё.
Причем, если собрать статистику, то, возможно, среди тех, кто бегает марафоны действительно аварий меньше. Но вопрос будет в том, переиспользует ли мозг навыки бега марафонов для вождения машины как "базу", или же и то и другое коррелирует с чем-то другим. Например, собранностью, целеустремленностью, хорошей физической формой или какими-то чертами характера.
Если ты Гугл, то можно при сдаче на права требовать пробежать марафон, 100 раз отжаться, 50 раз подтянуться, поразить мишеть из лука, перевести текст с Японского и ответить устно на вопрос по-английски. Возможно, в таком случае аварий будет меньше. Но это — если ты Гугл. Во всех остальных случаях your mileage may vary 😥.