Pull to refresh
129
0.2
Ivan Kochurkin @KvanTTT

Software Developer at JetBrains (Kotlin Compiler)

Send message

Лично мне совершенно не интересно, что происходит с нерусскоязычными сайтами, как и 99 процентам русскоязычных юзеров. :) А вот судьба русской версии SO мне не безразлична.

Откуда такая статистика про 99 процентов, есть пруфы? Лично мне совсем не интересно, что происходит с русским stackoverflow, англоязычная версия более интересна.

Остальные мне лень смотреть, тем более, что Ваши ссылки почему-то на англоязычную версию сайта. ;)

На английском информации намного больше и релевантней. Видимо тяжело вам приходится, раз плохо знаете английский и пользуйтесь в основном русскими версиями.

  1. Математические открытия — решил задачу "поцелуев сфер" в 11 измерениях, над которой математики бились веками

Ну решил - это громко сказан. На самом деле улучшил нижнюю границу с 592 до 593. Но это все равно хороший результат. В статье AlphaEvolve: A coding agent for scientific and algorithmic discovery написано подробней.

Это уже будут внешние данные. К тому же помимо имен есть стиль кода. Хотя если добавить другую нейросеть, которая по сути будет деобфусцировать код, сгенерированный Zero Reasoner, то может что-то получиться.

исторически популярны волны 1310 и 1550

Кажется термин "исторически" тут не особо применим. Эти волны, наверное, выбраны по определенным качествам, которые лучше всего подходят для реализации фотонных компьютеров?

Вообще идея и реализация не нова. Очевидно, первой была AlphaZero, но это не относится к LLM. Однако DeepMind пошли дальше и запустили, например, AlphaGeometry (и другие версии), которая обучалась путем синтеза случайных задач и их решения. Однако обучение ассистента по программированию вообще без внешних данных скорей всего не особо полезно, т.к. люди просто не поймут код, который будет выдаваться нейросетью, т.к. для нее не важны привычные имена идентификаторов. Это отличается от AlphaZero (и других аналогов), поскольку в играх коммуникация по сути происходит через последовательность ходов, для которых не нужен человеческий язык.

Интересно, а свет какой волны обычно используется в фотонике? Это видимый свет или другие частоты лучше подходят?

Достаточно лишь несколько десятков миллиардов транзисторов (и внимание, хе-хе).

Тут вы ошиблись на порядки, потому что только в одном современном процессоре уже 100 млрд транзисторов, а он не сможет быстро отвечать на вопросы, как это делают AI ассистенты. И это только иференс, для обучения надо еще на несколько порядков больше.

К сожалению, в наше время задачи минимизации кода уже неактуальны. Мощности современного железа хватает, чтобы запускать любой софт, даже не оптимизированный.

Это и заключение в целом - какая-то нерелевантная отсебятина. Минимизация кода и его оптимизация почти не связаны. А даже если и связаны, то этот конкурс заключается явно не в том, чтобы писать оптимизированный код, а писать минимальный, возможно красиво отформатированный.

Современные пользователи просто не понимают, в чём гениальность уместить полноценную программу в два килобайта. В чём вообще смысл, если в реальной жизни ограничения на память не существует.

В современных программах сами исходники наверное занимают наименьшую часть от общего размера. И если он будет весить 2 кб или 2 мб - особо не принципиально, т.к. ресурсы занимают намного больше места.

Вот и конкурс IOCCC стал не очень актуальным, как и вся демосцена.

Он стал не актуальным из-за того, что якобы задачи оптимизации ПО уже не актуальны - это домыслы автора или реальная причина?

В общем, оптимизация более не актуальна. Как выразился Джон Кармак, «многие смогли бы работать на устаревшем железе, если бы оптимизация ПО была приоритетом». Но в эпоху потребления это не так.

Тут автора понесло еще дальше.

Другое дело, что оптимизация на лету всегда будет в чём-то уступать оптимизации на этапе компиляции

Так в чем-то они и превосходят эти оптимизации.

Можно еще как минимум так упростить:

fun main(): Unit = println(JSONObject(Files.readString(Paths.get("data.json"))).getString("key"))

Нейросеть типа AlphaGo и аналогов, обученная в течение дня или меньше, будет обыгрывать человека, который начал обучение в этот же день. Скорей всего ее уровень будет намного выше. Для Го пруфы есть ниже https://habr.com/en/news/911482/comments/#comment_28338598 (там используются некоторые специфичные для игры вещи, но это только одна из частей движка, к тому же у человека тоже есть какие-то представления об играх). Можно запустить самообучение самостоятельно. Если не умеете играть в Го, можно начать с пары часов обучения и сравнить уровень.

Да и к тому же что значит сходу вникнет? Вот в Го не получится играть хотя бы на каком-то более менее приемлемом уровне только ознакомившись с правилами, нужно потратить день или много. Хорошо обученная нейросеть будет разносить любителей и даже профессионалов без перебора вариантов. И человек тоже перебирает варианты.

Из описания требований Slack я вижу такое:

Windows 11 version 21H2 or aboveWindows Server 2016

Так что не знаю как это запускать на Windows 7, прикидываться 11 версией?

Slack - самое главное, т.к. нужен для работы, а веб-версией менее удобно пользоваться. Еще Paint.NET, но сейчас увидел в требованиях, что там поддерживается 10 с какой-то версии, но моя винда до нее почему-то не обновлялась.

И коммит != пуш в удаленный репозиторий.

Нет, спасибо. У меня некоторые программы перестали работать/обновляться даже на Win 10, а на Win 7 еще меньше всего работает. И я вполне доволен Win 11.

Есть ли сейчас полностью основанные на ии шахматные приложения я не знаю, последний раз интересовался шахматными алгоритмами больше 10 лет назад.

Да - в Stockfish используется нейронка достаточно давно, с 2020. После этого уровень игры еще вырос. Думаю, что без перебора (если под этим подразумевается "полностью основанные на ии"), т.е. только с предсказанием от нейросетки, она будет играть уже очень сильно (собственно, как это происходит и с игрой Го).

Только в основе там всё равно дерево поиска Монте-Карло с симуляциями кучи ходов, не сильно далеко от перебора. Нейронка лишь оценивает позицию и выбирает ход по этим оценкам.

Нейронка сейчас настолько хорошо оценивает позицию, что без запуска Монте-Карло может обыгрывать профессиональных игроков (это называется плэйауты, т.е. только с 1 плейаутом она играет уже очень сильно).

Это и есть все тот же перебор и просчет ходов, только вынесенный в предподсчет и результат которого сархивирован в весах у нейросетки с какими-то потерями.

Ну как бы без перебора в Го невозможно играть - человек этим вообще-то тоже занимается.

Отличный прорыв в программировании и практическом применении перебора. Но качественного изменения сути алогоритма не произошло.

Я бы сказал, что произошло. Использования нейросеток с глубинным обучением - это качественное изменение. До эры AlphaGo оценки позиций приходилось хардкодить - это муторно и неоптимально. После эры AlphaGo движки могут обучаться сами практически без знания специфики игры (однако оно существенно ускоряет обучение, особенно в начале).

Я вот недавно обучал с нуля KataGo (открытую и улучшенную имплементацию AlphaGo) на доске 9*9 в течение дня на своей старой видеокарте 2019 года и был удивлен, что она обучилась так, что я уже не могу ее обыграть (хотя я далеко не дан, но играть более менее умею). Причем на доске 13*13 она тоже умеет играть без откровенно плохих ходов.

Information

Rating
2,497-th
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity