Кстати, не стоит думать, что теоремы Гёделя - это сложно, заумно и не от мира сего. Мол в реальной задачке для нейронки этот случай никогда не встретится. Ничего подобного! Вот далеко не самый сложный пример, уравнение как уравнение. Да, много переменных - но в остальном ведь ничего особенного
В математике есть такая штука, как недоказуемость некоторых истинных утверждений. Вообще там всё сложно - условно можно "построить" некую теорию N+1 порядка, чтобы доказать все истинные утверждения теории N-го порядка. Но в свою очередь, у теории N+1 порядка, будут свои недоказуемые утверждения - замкнутый круг.
Ещё хороший вопрос, осилит ли нейронка построение теории N+1 порядка, при условии что теория N-го порядка ей уже известна. Это как бы даже для человека сложно формализуемо
Например
Попробуйте из арифметики/алгебры вывести анализ добавлением "чужеродного" для алгебры понятия непрерывностей и пределов
хочу чтобы нейронка генерила код на Coq/Lean
так что в теории может и да, а на практике - надо смотреть
адаптация решения к максимально понятной формулировке
То что вы пишете, это по сути Reinforcement Learning, либо, быть может Active Learning. В целом соглашусь, что за reinforcement - будущее. Но вряд ли прямо в его нынешнем виде. Но это явно лучше чем втупую гонять петабайты данных по каноничному data-driven подходу, так он вроде называется
Ещё один подход - гармоничное сочетание "базы знаний" (концепция из 70-х, 80-х) сформированной человеком, т.е. с готовыми алгоритмами. И дообучение модели ИИ уже с использованием больших данных. Сейчас подход с базой знаний отвергается в принципе - типо компы умнее и сами всё посчитают. Ну хз хз
Думаю при разумном подходе сочетание "человеческих" алгоритмов и data-driven подхода, т.е. каноничного обучения нейросетки - способно ускорить это самое обучение на порядки. А может, даже избавиться от некоторой части тупейших ошибок ИИ, связанных с недо/переобучением.
Reinforcement Learning
Active Learning
сочетание "человеческих" алгоритмов и data-driven подхода
Но есть один нюанс. Вот это ↑ проще сказать, чем сделать...
Я поначалу подумал - буква Э намекает, что пепелац экспериментальный (то есть не серийный и нет смысла обсуждать). Но таки нет, серийный - вы правы
... Предназначен для работы на железных дорогах, электрифицированных на однофазном переменном токе ... Также предусмотрена возможность работы и на неэлектрифицированных участках (из описания)
Получается, Союз опередил время и спроектировал гибридный локомотив. Без всяких китайских батареек, а с рабоче-крестьянским контактным проводом
Бывший чемпион мира Магнус Карлсен не стал подбирать выражения в прямом эфире
Не удивлён, возможно уровень игры был реально днище. Что косвенно намекает на "силу" игры нейронок. Для сравнения, любая нормальная (даже не топовая!) шахматная прога развалит любого гросса (в т.ч. чемпиона) со счётом близким к 10-0.
Про рейтинги и вероятность
Это не преувеличение - можно посчитать вероятности результата партии исходя из рейтинга ЭЛО. У топовых гроссов ~2800, у программ 3500-3600. Это чудовищная разница в силе. Если посчитать матожидания, получим:
То есть, при Δ = 735 пунктов рейтинга, сильнейший игрок набирает 99% очков
Мда уж, а про реально сильнейший chess-движок (Stockfish) ни слова нет
«шахматную корону» среди ИИ
Среди ИИ это очень важный нюанс. Потому что "классические" шахматные программы по-прежнему побеждают этот хвалёный OpenAI. Вот чемпик полугодовой давности:
Скрин с результатами каток
Что важно: нейросеть Leela Chess Zero играет в турнире на общих основаниях и по общим правилам. В отличие от этих непонятных закрытых чемпиков среди модных нейросеток
Для сравнения, N лет назад было много хайпа, когда AlphaZero (предшественница Leela) обыграла в матче Stockfish. А чуть позже выснилось, что это маркетинговый ход от Google (ой вэй?) Соперник нейросети, то есть стокфиш - играл на слабом железе, без дебютной книги (а это 50% силы движка), без эндшпильных таблиц и ещё без чего-то и чего-то
Ну т.е. если вы свяжете боксёру руки и ноги, наверное его победит любой соперник?
Гибриды тоже есть, только вот у нас в России под этим подразумеваются электровозы переменно-постоянного тока, т.е. двухсистемник. Например ЭП20 (справа 😆)
Мб замечали, на некоторых станциях поезд по часу стоит. Вроде и смысла нет - это не город, а три дома в поле, кого ждут-то? Так вот, там меняют локомотивы с постоянного тока (~3 кВ) на переменник (~25 кВ). А новые, типа ЭП20 - едут без остановок
А что там у буржуев в Китае?
У них год назад появились гибриды, вот только это по-прежнему обычный тепловоз с навешенной "батарейкой". Вероятно для подзарядки аккума там используется что-то типа рекуперативного торможения, но щас бы назвать это новинкой в 2к24-м. (Если что, оно было уже на ВЛ80 каких-то серий)
Гибридный тепловоз с литиевой батарейкой (Пекин)
Тем более, было оно и на электропоездах постоянного тока. Например даже на ЭР2T (это вообще обычная советская электричка). А ещё в метрополитене, но это позже
Насколько я понимаю, на наших ЖД сейчас всё что называется "тепловозом" по факту является именно дизель-электровозом . То есть ДВС на дизеле не крутит колёсные пары. А всего лишь связан с генератором переменного тока. От генератора питаются тяговые электродвижки, которые в свою очередь приводят состав в движение. Если движки не асинхронные, то ещё нужен выпрямитель
Схема устройства тепловоза
Вроде 2ТЭ10М, но не суть важно - схемы у всех похожие
Как по мне, стиль статьи годный: вас не занудно читать, как иногда бывает) Но если подтянуть тех-часть хотя бы до уровня гайдов по линуху, будет лучше. Всё-таки это не сайт юных бумагомарат литераторов, и не stackoverflow
Фор мотивейшн
Посмотрел, у вас это первый пост на сайте, оказывается. Это многое объясняет, думаю некст статьи будут лучше - удачи в изучении астралинуха) Он реально бывает глючным: я с ним сталкивался на серваках домена ещё в бытность одмином. Там был целый зоопарк из приложух - VMWare,Samba,Squid,AD,Kerberos,Bind. Куча OS (WinServer, Astra, Ubunta, Win 7/10), куча древней периферии (особенно доставляли принтеры HP и Canon). И например скрипт для добавления ПК в новый домен мы писали и тестировали больше месяца! (а скрипт нужен, т.к. с флешкой обходить пару сотен машин и ждать по часу у монитора, то такое)
кто-то умный и большой решил бы эту проблему за 5 секунд
Ну нет, это совсем не всегда. Понятно что локаль это не добавление в домен, но баги разные бывают и не всегда очевидно даже разрабам
Строгость законов компенсируется необязательностью их исполнения
В целом, мутишь схемы - считай на 2-3 шага вперёд и ищи подводные камни. А риски с выездами по СНГ (тем более РБ) как бэ суперочевидны и кейс это лишний раз подтверждает
что он выезжал из РФ в Беларусь – а у нас там типа «союзное государство», все дела,
Ну то есть человек в курсе, что есть cоюзное государство. В курсе про 183 дня в одной стране. Но не осисил мысль, что эти дни нужно фармить не в белоруссии, а в любой другой из овер 200+ стран мира (риск очевиден вроде, даже не юристу). Как говорится, то ли лыжи не едут, то ли я б#### в армии
Плюсую... Пилить целую статью, в которой нет никакого положительного кейса? (из серии ну вот мы решали-решали, 50 команд попробовали - результат ноль, а вот 51-я заработала) Чтобы что? Ведь получается, это даже не туториал и не how-to
Крч, имхо имеет смысл писать про те проблемы, которые вы уже решили и вроде как делитесь полезными советами с пользователями Астры (мануал, гайд и т.д.)
Так-то да, но конкретно в этой статье советы вроде толковые. На самом деле, совет №2 - реально улучшит кпд, а 3,5,6,7 для меня, например, давно очевидны: так и делаю. Но ведь статью может прочитать джун 19-20 лет (студент), которому это совсем не очевидно?
PS. А то что найм превратился в хз что - все и так знают, вроде
Ну смотря кто: не-химики при слове цепная реакция подумают именно про процессы распада ядер/частиц. Специалисты, конечно вспомнят оба случая. Но ведь я писал:
обычно подразумевают
обычно != всегда
Например
Скажу за себя (я не химик, и даже не физик): открыл статью только из-за хайпового заголовка, подумав: ну нифига себе открытие! распад протонов да ещё прямо в атмосфере, лол что ?) А оказалась тривиальная фигня про косм.лучи , которой 100 лет в обед
Кстати, не стоит думать, что теоремы Гёделя - это сложно, заумно и не от мира сего. Мол в реальной задачке для нейронки этот случай никогда не встретится. Ничего подобного! Вот далеко не самый сложный пример, уравнение как уравнение. Да, много переменных - но в остальном ведь ничего особенного
В математике есть такая штука, как недоказуемость некоторых истинных утверждений. Вообще там всё сложно - условно можно "построить" некую теорию N+1 порядка, чтобы доказать все истинные утверждения теории N-го порядка. Но в свою очередь, у теории N+1 порядка, будут свои недоказуемые утверждения - замкнутый круг.
Ещё хороший вопрос, осилит ли нейронка построение теории N+1 порядка, при условии что теория N-го порядка ей уже известна. Это как бы даже для человека сложно формализуемо
Например
Попробуйте из арифметики/алгебры вывести анализ добавлением "чужеродного" для алгебры понятия непрерывностей и пределов
так что в теории может и да, а на практике - надо смотреть
То что вы пишете, это по сути Reinforcement Learning, либо, быть может Active Learning. В целом соглашусь, что за reinforcement - будущее. Но вряд ли прямо в его нынешнем виде. Но это явно лучше чем втупую гонять петабайты данных по каноничному data-driven подходу, так он вроде называется
Ещё один подход - гармоничное сочетание "базы знаний" (концепция из 70-х, 80-х) сформированной человеком, т.е. с готовыми алгоритмами. И дообучение модели ИИ уже с использованием больших данных. Сейчас подход с базой знаний отвергается в принципе - типо компы умнее и сами всё посчитают. Ну хз хз
Думаю при разумном подходе сочетание "человеческих" алгоритмов и data-driven подхода, т.е. каноничного обучения нейросетки - способно ускорить это самое обучение на порядки. А может, даже избавиться от некоторой части тупейших ошибок ИИ, связанных с недо/переобучением.
Reinforcement Learning
Active Learning
Но есть один нюанс. Вот это ↑ проще сказать, чем сделать...
У концепции AI уже было несколько итераций, и каждая упиралась в свой потолок:
I итерация ➠ 1950-е: перцептрон, сеть Хэбба, всякая теория
II итерация ➠ 1970-е (backprop), 1980-е (там куча простых архитектур типо Хопфилда, Кохонена, Больцмана, Хэмминга, всякие рекуррентные...)
III итерация ➠ Началась в те же 80-е (концепция Deep Learning), но конкретные архитектуры завезли позже (Convolution и LSTM в конце 90-х)
Дальше по сути современный этап развития (4-й?), который тоже шёл нелинейно:
стартовал ➠ начало 2010-х (первые базы ImageNet, использование GPU)
середина ➠ 2014-2016 (куча новых архитектур: GAN - генеративная, NTM - машина Тьюринга, Inception, Network-in-Network, ResNet и т.д.)
Настоящее время (финал?) ➠ Архитектура "Трансформер", Attention Network, CapsNet, адаптация доменов, GPT-3,4,5, OpenAI
И есть такое чувство, что всё. 4-й этап развития AI выдохся, из нынешних технологий выжали всё что можно - и надо ждать следующий крупный прорыв.
А прорыв - это не очередная 101-я архитектура нейронки и не увеличение количества GPU для вычислений. Это какой-то принципиально новый концепт
Надо сделать болтающую машину, которая будет только молчать.
она и выиграет в этой дисциплине (во всяком случае в 2025-м)
Leela и Alpha вполне специализированные. Это нейронки, которые умеют только в шахматы, го и мб ещё пару игр. В каждой шутке лишь доля шутки
А в статье да, речь шла про чатики ГПТ. Но это же вроде и так понятно?)
Не, ну на 1 ход-то точно просчитывает, зная правила. Не перегибайте)
Возможно у неё есть некая база из известных партий за последние N лет
Не такая база, как у движка, а просто ряд из позиций/список ходов
В шахматах теория != правила. Теория - список из "лучших" начальных ходов, типо:
e2-e4 c7-c5
Kf3 d6 и т.д.
Cуть это конешн не меняет, т.к. после начальных ходов начинается самостоятельная игра
Я поначалу подумал - буква Э намекает, что пепелац экспериментальный (то есть не серийный и нет смысла обсуждать). Но таки нет, серийный - вы правы
Получается, Союз опередил время и спроектировал гибридный локомотив. Без всяких китайских батареек, а с рабоче-крестьянским контактным проводом
Не удивлён, возможно уровень игры был реально днище. Что косвенно намекает на "силу" игры нейронок. Для сравнения, любая нормальная (даже не топовая!) шахматная прога развалит любого гросса (в т.ч. чемпиона) со счётом близким к 10-0.
Про рейтинги и вероятность
Это не преувеличение - можно посчитать вероятности результата партии исходя из рейтинга ЭЛО. У топовых гроссов ~2800, у программ 3500-3600. Это чудовищная разница в силе. Если посчитать матожидания, получим:
То есть, при Δ = 735 пунктов рейтинга, сильнейший игрок набирает 99% очков
Мда уж, а про реально сильнейший chess-движок (Stockfish) ни слова нет
Среди ИИ это очень важный нюанс. Потому что "классические" шахматные программы по-прежнему побеждают этот хвалёный OpenAI. Вот чемпик полугодовой давности:
Скрин с результатами каток
Что важно: нейросеть Leela Chess Zero играет в турнире на общих основаниях и по общим правилам. В отличие от этих непонятных закрытых чемпиков среди модных нейросеток
Для сравнения, N лет назад было много хайпа, когда AlphaZero (предшественница Leela) обыграла в матче Stockfish. А чуть позже выснилось, что это маркетинговый ход от Google (ой вэй?) Соперник нейросети, то есть стокфиш - играл на слабом железе, без дебютной книги (а это 50% силы движка), без эндшпильных таблиц и ещё без чего-то и чего-то
Ну т.е. если вы свяжете боксёру руки и ноги, наверное его победит любой соперник?
Гибриды тоже есть, только вот у нас в России под этим подразумеваются электровозы переменно-постоянного тока, т.е. двухсистемник. Например ЭП20 (справа 😆)
Мб замечали, на некоторых станциях поезд по часу стоит. Вроде и смысла нет - это не город, а три дома в поле, кого ждут-то? Так вот, там меняют локомотивы с постоянного тока (~3 кВ) на переменник (~25 кВ). А новые, типа ЭП20 - едут без остановок
А что там у буржуев в Китае?
У них год назад появились гибриды, вот только это по-прежнему обычный тепловоз с навешенной "батарейкой". Вероятно для подзарядки аккума там используется что-то типа рекуперативного торможения, но щас бы назвать это новинкой в 2к24-м. (Если что, оно было уже на ВЛ80 каких-то серий)
Тем более, было оно и на электропоездах постоянного тока. Например даже на ЭР2T (это вообще обычная советская электричка). А ещё в метрополитене, но это позже
Насколько я понимаю, на наших ЖД сейчас всё что называется "тепловозом" по факту является именно дизель-электровозом . То есть ДВС на дизеле не крутит колёсные пары. А всего лишь связан с генератором переменного тока. От генератора питаются тяговые электродвижки, которые в свою очередь приводят состав в движение. Если движки не асинхронные, то ещё нужен выпрямитель
Схема устройства тепловоза
Как по мне, стиль статьи годный: вас не занудно читать, как иногда бывает) Но если подтянуть тех-часть хотя бы до уровня гайдов по линуху, будет лучше. Всё-таки это не сайт юных
бумагомаратлитераторов, и не stackoverflowФор мотивейшн
Посмотрел, у вас это первый пост на сайте, оказывается. Это многое объясняет, думаю некст статьи будут лучше - удачи в изучении астралинуха) Он реально бывает глючным: я с ним сталкивался на серваках домена ещё в бытность одмином. Там был целый зоопарк из приложух - VMWare,Samba,Squid,AD,Kerberos,Bind. Куча OS (WinServer, Astra, Ubunta, Win 7/10), куча древней периферии (особенно доставляли принтеры HP и Canon). И например скрипт для добавления ПК в новый домен мы писали и тестировали больше месяца! (а скрипт нужен, т.к. с флешкой обходить пару сотен машин и ждать по часу у монитора, то такое)
Ну нет, это совсем не всегда. Понятно что локаль это не добавление в домен, но баги разные бывают и не всегда очевидно даже разрабам
С этим согласен
С этим тоже не согласны?
Строгость законов компенсируется необязательностью их исполнения
В целом, мутишь схемы - считай на 2-3 шага вперёд и ищи подводные камни.
А риски с выездами по СНГ (тем более РБ) как бэ суперочевидны и кейс это лишний раз подтверждает
Ну то есть человек в курсе, что есть cоюзное государство. В курсе про 183 дня в одной стране. Но не осисил мысль, что эти дни нужно фармить не в белоруссии, а в любой другой из овер 200+ стран мира (риск очевиден вроде, даже не юристу). Как говорится, то ли лыжи не едут, то ли я б#### в армии
Именно. А то что т.н. AI - не магия и не панацея, уже вроде всем понятно
Плюсую... Пилить целую статью, в которой нет никакого положительного кейса? (из серии ну вот мы решали-решали, 50 команд попробовали - результат ноль, а вот 51-я заработала) Чтобы что? Ведь получается, это даже не туториал и не how-to
Крч, имхо имеет смысл писать про те проблемы, которые вы уже решили и вроде как делитесь полезными советами с пользователями Астры (мануал, гайд и т.д.)
Так-то да, но конкретно в этой статье советы вроде толковые. На самом деле, совет №2 - реально улучшит кпд, а 3,5,6,7 для меня, например, давно очевидны: так и делаю. Но ведь статью может прочитать джун 19-20 лет (студент), которому это совсем не очевидно?
PS. А то что найм превратился в хз что - все и так знают, вроде
Ну смотря кто: не-химики при слове цепная реакция подумают именно про процессы распада ядер/частиц. Специалисты, конечно вспомнят оба случая. Но ведь я писал:
обычно != всегда
Например
Скажу за себя (я не химик, и даже не физик): открыл статью только из-за хайпового заголовка, подумав: ну нифига себе открытие! распад протонов да ещё прямо в атмосфере, лол что ?) А оказалась тривиальная фигня про косм.лучи , которой 100 лет в обед