Pull to refresh

Comments 188

То есть современное состояние раздутого и медленного ПО — это ещё приемлемо. В нём хотя бы издалека и потихоньку можно будет разобраться, ибо по есть яснопонятные практики, понимание, соглашения, методики.

Боюсь представить, что́ будет, если кожаные в разработке ПО останутся в меньшинстве...

Ну как что. Софт просто развалится. Все эти «сопилоты» не видят общей картины, значит, через пару бездумных прогонов через них любая кодовая база превратится в месиво. А как тяжело заставить бредогенерилку исправить стиль отлично видно на этих примерах.

(Но всё равно хайп сдуется рано или поздно.)

Ну и отлично. Кожанным станут платить еще больше. Это все надо будет починить. И как обычно срочн и не сломав работающие бизнесы.

Появится новая специальность "исправляющий код, сгенерированный при помощи AI", с ценником х10 от текущих зп программистов :D

Меня и х3 от текущих устроит. Умею делать большие проекты, не боюсь легаси, перепишу ваш проект после вайбкодеров. Нужен бюджет и отдел из 10 человек разработки и все что полагается к этому отделу вроде менеджеров которые могут говорить и с пользователями и с программистами и не сильно перевирать все, тестирование и все такое.

А что, так можно было?) Я тогда сделаю и за х2, и тоже не боюсь ни легаси, ни всякой экзотики типа asm, algol, cobol, etc (чужими руками и мозгами, естественно)... Мне просто "нужен бюджет и отдел")))

Не демпингуйте! =)

С бюджетом любой дурак сможет(C)

Поддержу вас, готов тоже за х3, но менеджеров и прочих дармоедов мне не надо)

х3 от текущих

По классике "x - мне, x - тебе, за 3-й x индусы всё сделают"?

за 3-й x индусы всё сделают

Через копилот

Через копилот

Какой чудесный эвфемизм - "Он, как обычно, сделал всё через ж копилот".

Через ЖПТ же, не надо зачеркуват "ж" :)

Я тоже так думал. Думал, выкину своё красивое резюме и оставлю две строчки:

Переписал шесть проектов после индусов,
Перепишу и ваш после GPT

Вот только индус, когда у него не получается, останавливается. Не продолжает генерить чепуху.

А GPT не остановить. На каждый вопрос он даст ответ.

Появится новая специальность "исправляющий код, сгенерированный при помощи AI"

К стоп-фразе «Умение разбираться в чужом коде» добавится ещё одна: «Умение разбираться в сгенерированном коде».

Тут правильнее

"Умею общаться с людьми, что бы понять что заказчик изначально хотел"

Читаю мысли заказчиков, дорого.

Особенно тем, кто умеет это делать без использования ии)

Скорее сдуются кожаные мешки. Потому что у ИИ производительность растёт от поколения к поколению.

GPT-2 из 2020 даже функцию в три строчки на Python написать не мог. Современный ИИ может с первой попытки написать целый скрипт, или собрать целый сайт на три странички - но "тонет" в больших репозиториях со сложным кодом.

Где будет предел способностей ИИ в 2030 году?

Сложность проектов растет совсем нелинейно от их размера. Сайт на три странички это все еще в самом начале кривой сложности.

Я подобные заверения слышал про шахматы. Потом про "го". Но, конечно, программирование - это невероятная глубина мысли, не черта шахматам и прочим.

Имхо, единственное, что может остановить этот процесс - что таки люди умеют делать это экономнее. То есть супермозг сможет программировать лучше других, но ценник за такое удовольствие потянет далеко не каждый - либо вовсе никто.

Не слушайте больше этих людей.

Шахматы задолго до компьютеров выродились в тупое запоминание множества стандартных позиций. И всем было сразу понятно что простой перебор достаточной глубины будет лучше человека. Дальше дело техники и развития процессоров.

Го аналогично. Просто перебора чуть больше. Но так же решаемо просто перебором. И опять дело техники и развития процессоров.

Сделать систему хотя бы средней сложности перебором не выйдет вообще никак.

1.Однако АльфаГо победил Рыбку, у первого не было баз ходов, а у второго были. Поэтому игры больше чем запоминания.

2.У Го возможных ходов и развитий на очень много порядков больше. От чего его всегда презентовали как непобедимого даже для лучших алгоритмов с отсечением.

Вот только в шахматах и го комп стал побеждать не с помощью перебора и просчёта всех ходов. Неужели вы пропустили всю эту эпопею с тем, как комп играл миллионы партий сам с собой и обучался таким (и не только таким) образом?

Только в основе там всё равно дерево поиска Монте-Карло с симуляциями кучи ходов, не сильно далеко от перебора. Нейронка лишь оценивает позицию и выбирает ход по этим оценкам.

Есть дальнейшее развитие алгоритма: MuZero, где компьютер во время игры не имеет 100% захардкоженных правил игры, а сама симуляция хода делается второй нейронкой. Но всё равно она симулирует ход для того, чтобы потом построить дерево поиска.

Можно ли свести разработку ПО к поиску оптимума в дереве симулируемых вариантов? Если да - we are fucked. Если нет, то пример AlphaGo/Zero ИМХО не сильно показателен для задач иного рода.

Ещё подумалось, что AlphaGo получилось натренировать, потому что игра за обе стороны одинаковая. А как подобное тренировать для разработки ПО?
Одна нейросетка тренируется разработке, а вторая - придумывает неожиданные противоречивые требования, внезапно ломает внешние сервисы и всё вот это вот?)

звучит как идея для стартапа

Сейчас работы для ии-разработчиков - непаханое поле, целина.

Можно придумывать тысячи всевозможных ии-агентов. А потом объединять их в единые кластеры. И творить магию.

В разработке, насколько мне известно, сейчас именно такие процессы и идут. Создают агентов для тестирования, для ревью кода, для написания кода, для фронтенда и т.д. Причем специализированные агенты. Все уже поняли, что большие задачи ИИ не может переварить, но это могут делать ансамбли из десятков ИИ агентов.

Правда всегда есть "но" - но это очень дорого.

И пока мы обсуждаем это все на Хабре, кто-то уже так работает. Тот у кого есть такие ресурсы, чтобы тратить сотни баксов в день на такой инструментарий. Все же не идиоты вкладывают миллиарды в развитие этой сферы. А очень умные люди, с целыми отделами аналитиков и т.п. людей, что уже давно просчитали выгоды подобных технологий.

Ну готов конечно поверить что они все умные аж зубы сводит. Только пузыри и раньше надувались и лопались. Т.е. люди ошибаются постоянно.

Только в основе там всё равно дерево поиска Монте-Карло с симуляциями кучи ходов, не сильно далеко от перебора. Нейронка лишь оценивает позицию и выбирает ход по этим оценкам.

Нейронка сейчас настолько хорошо оценивает позицию, что без запуска Монте-Карло может обыгрывать профессиональных игроков (это называется плэйауты, т.е. только с 1 плейаутом она играет уже очень сильно).

Можно ли свести разработку ПО к поиску оптимума в дереве симулируемых вариантов?

Написать тесты, скормить нейронке, которая методом Монте-Карлос подбеерет код, удовлетворяющий тестам)

В итоге разработчики превращаются из трансляторов с менеджерского "что-делать" на компьютерный "что-делать" в трансляторов из "что-делать" в "что делать чтобы проверить что сделано то что нужно", а не уходят на мороз :)

Для этого есть аналитики

Можно ли свести разработку ПО к поиску оптимума в дереве симулируемых вариантов?

//Чисто формально, на правах доли шутки.
Любая программа - это последовательность байтов - которую так же можно рассматривать как очень длинное целое число. Так что если выполняющая задачу программа в принципе может быть написана, то её в конце концов "напишет" даже простой "перебор от нуля до n".

//и на правах страшилки для "суперсеньоров, что будут ревьюить код ИИ"
Нейронке ведь без разницы, что выдавать - буквы, слова, цифры... Представьте, что кто-то обучит нейронку выдавать не человекочитаемую последовательность лексем языка программирования, а сразу напрямую байты бинарника.

LLM так давно умеют

Нейронка лишь оценивает позицию

Что значит "лишь"? Оценка позиции это и есть грааль и сложность шахмат. Именно в этом параметре отличается гроссмейстер от перворазрядника, или первые DeepBlue подобные машины от современных нейросетей. Раньше там было что-то наподобие сотен if else, по образу человеческой мысли к оцениванию позиции, сейчас у нейросети какой-то свой подход. И сильная нейросеть отличается от слабой точностью оценивания позиции.

Гроссмейстер отличается от перворазрядника тремя вещами:

  1. глубина перебора (умение держать в памяти больше вариантов);

  2. оценка позиции (о чём вы пишете);

  3. знание теории (дебюты, типовые позиции).

Есть и другие вещи (спортивный характер, умение распоряжаться временем на часах, и т. п), но эти три вещи — главные.

Нейронные шахматные движки отличаются от классических именно вторым пунктом, в остальном там такой же перебор позиций.

Неверно.

Человек от машины отличается тем что если ему дать ему новую игру, он сходу вникнет в нее.

И сможет играть сразу . Без всего это брутфорсного перебора вариантов.

Нейросеть типа AlphaGo и аналогов, обученная в течение дня или меньше, будет обыгрывать человека, который начал обучение в этот же день. Скорей всего ее уровень будет намного выше. Для Го пруфы есть ниже https://habr.com/en/news/911482/comments/#comment_28338598 (там используются некоторые специфичные для игры вещи, но это только одна из частей движка, к тому же у человека тоже есть какие-то представления об играх). Можно запустить самообучение самостоятельно. Если не умеете играть в Го, можно начать с пары часов обучения и сравнить уровень.

Да и к тому же что значит сходу вникнет? Вот в Го не получится играть хотя бы на каком-то более менее приемлемом уровне только ознакомившись с правилами, нужно потратить день или много. Хорошо обученная нейросеть будет разносить любителей и даже профессионалов без перебора вариантов. И человек тоже перебирает варианты.

Неверно.

Человек от машины отличается тем что если ему дать ему новую игру, он сходу вникнет в нее.

При чём здесь отличие человека от машины? Мы сравниваем классические движки с нейронными (и ещё гроссмейстеров с перворазрядниками).

комп стал побеждать не с помощью перебора и просчёта всех ходов.

Но:

комп играл миллионы партий сам с собой

Это и есть все тот же перебор и просчет ходов, только вынесенный в предподсчет и результат которого сархивирован в весах у нейросетки с какими-то потерями. Отличный прорыв в программировании и практическом применении перебора. Но качественного изменения сути алогоритма не произошло.

Просто перебирать все это долго и во время игры не будут человеки ждать 3 дня следующего хода. А когда датацентры миллионы часов процессороного времени эти же ходы считают до игры, а во время игры думают не так долго, это уже удобнее на практике.

Это и есть все тот же перебор и просчет ходов, только вынесенный в предподсчет и результат которого сархивирован в весах у нейросетки с какими-то потерями.

Ну как бы без перебора в Го невозможно играть - человек этим вообще-то тоже занимается.

Отличный прорыв в программировании и практическом применении перебора. Но качественного изменения сути алогоритма не произошло.

Я бы сказал, что произошло. Использования нейросеток с глубинным обучением - это качественное изменение. До эры AlphaGo оценки позиций приходилось хардкодить - это муторно и неоптимально. После эры AlphaGo движки могут обучаться сами практически без знания специфики игры (однако оно существенно ускоряет обучение, особенно в начале).

Я вот недавно обучал с нуля KataGo (открытую и улучшенную имплементацию AlphaGo) на доске 9*9 в течение дня на своей старой видеокарте 2019 года и был удивлен, что она обучилась так, что я уже не могу ее обыграть (хотя я далеко не дан, но играть более менее умею). Причем на доске 13*13 она тоже умеет играть без откровенно плохих ходов.

Лучшие шахматные программы, как и программы для игры в го, уже давно соревнуются между собой, потому что у человека нет шансов. При этом они никогда не использовали метод прямого перебора, из-за его неэффективности. Прямой перебор буквально худший алгоритм, который можно придумать. В них правда и нейросети до АльфаГо не использовались, а в самой АльфаГо нейросеть использовалась для поиска по дереву Монте-Карло. Есть ли сейчас полностью основанные на ии шахматные приложения я не знаю, последний раз интересовался шахматными алгоритмами больше 10 лет назад. Но про прямой перебор вы очень сильно ошибаетесь, это могу сказать наверняка.

Все шахматные алгоритмы основаны на поиску по дереву, и как минимум с 90х годов основной задачей, проблемой и сложностью в их разработке было и остается создание эффективных методов отсечения, чтобы ограничить количество ходов. Иными словами: уйти как можно дальше от прямого перебора. И ключевое значение для алгоритма поиска всегда играл эвристический анализ ситуации, который позволял собственно отсекать неэффективные ходы. Который в АльфаГо заменила нейросеть.

Пардон что влез, сам предмет спора мне не интересен, но тема компьютерных шахмат близка.

Монте-карло это и есть перебор. Это буквально оптимизация перебора.

Есть ли сейчас полностью основанные на ии шахматные приложения я не знаю, последний раз интересовался шахматными алгоритмами больше 10 лет назад.

Да - в Stockfish используется нейронка достаточно давно, с 2020. После этого уровень игры еще вырос. Думаю, что без перебора (если под этим подразумевается "полностью основанные на ии"), т.е. только с предсказанием от нейросетки, она будет играть уже очень сильно (собственно, как это происходит и с игрой Го).

Шахматы задолго до компьютеров выродились в тупое запоминание множества стандартных позиций.

Это было следствием невозможности быстро просчитать произвольные позиции

Метод Монте-Карло это далеко не «простой перебор»

Все так.

Шахматы и го. Это пошаговые ингры с детерменизмом и открвтым состоянием доски. Значит есть алгоритм победы, или непоражения.

Но шахматы спасало только то , что глубина расчетов очень велика.

И то кучу веток ходов ведущих к финалу уже закрытли.

Шахматы имеют четкие, легко формализуемые правила.
Что такое хороший код - ну примерно понятно, но лишь примерно и с кучей оговорок и исключений.

Вот именно. Даже тут, на хабре, постоянные дискуссии о применимости концепции "чистого кода", преимуществ/недостатков ООП относительно функционального программирования, явного/неявного объявления переменных - тысячи их. Как если бы шахматисты постоянно спорили на предмет того, может ли слон перепрыгивать через фигуры, должен ли конь ходить буквой "г" или как-то иначе и т. д.

Если шахматы на ваш взгляд настолько детерминированы, советую тогда обратить внимание на го.

А так конечно в программировании великая свобода - хочешь пиши красиво, а хочешь - гавнокод

Речь о правилах, то есть формализации цели, которую мы хотим достичь. Как её достигать - отдельный вопрос, там свои нюансы. С программированием проблемы возникают уже на первом этапе описания цели.

Или пишешь красиво или оптимизировано, но не понятно или говнокод. Тут выбор из 3х веток , а если точнее из целого континуума вариантов между этими 3мя состояними.

Уже сейчас можно для LLM написать промпт уровня "оцени качество кода по шкале от 1 до 10". И она оценит. Как может.

Шашки, шахматы, го... Вот в "Чапаева" ИИ слабо сыграть?

Простенького робота из 60тых хватит

Ровно так же как все генералы готовятся к давно закончившейся войне, искусственные идиоты не могут выдать ничего сверх того, на чём были обучены. Бесконечный ремикс с фантазией на подмешанные из промпта токены — сколько угодно.

Вот только смысла сгенерированной ими же самими последовательности токенов они понимать не могут, и покуда не научатся, у кожаных есть преимущество. Ну а что касается этого самого понимания смысла, то у современных моделей его даже близко не просматривается. Это просто гигантские формулы с миллиардами коэффициентов. А формула, какой бы гигантской ни была, не может чего-то осознавать.

Весь твой "разум" тоже можно представить в виде гигантской формулы.

Добро пожаловать в реальность. Она у нас подчинена законам физики. А законы физики - законам математики.

Весь твой "разум" тоже можно представить в виде гигантской формулы.

Можете доказать, что такая "формула" есть вообще?

Механисты, которые не знают, что в настоящем человеческом мозге между двумя соседними нейронами могут быть тысячи синапсов, причём совершенно разных — как по скорости реакции, так и по медиаторным молекулам, которые бывают как стимулирующие, так и тормозные, — просто понять не могут, что повторить его в софте физически невозможно.

А ведь даже один синапс это ещё и объём + время. И сколько вокселей надо, чтобы в точности его смоделировать? А потом помножить на параллельную обработку, причём честно параллельную — ведь каждый нейрон уже сам по себе как независимое процессорное ядро со своим тактовым интервалом.

И в мозге их чуть более чем дофига, да ещё и конфигурация самого wetware меняется всё время. Никакими квинтиллионами параметров такое не замоделить. Но кажется, что вот-вот, что ещё чуть-чуть... Ну, пускай кажется, что ли.

Физически невозможно повторить в софте? Кто-то либо слишком недооценивает софт, либо слишком переоценивает мокрое мясо.

В мозгах человека пыльцы фей нет. Мозг - это физический объект. Он подчиняется законам физики. Его можно симулировать. Вопрос скорее в том, нужно ли.

В настоящий момент невозможно. И связано это не с физически невозможно, а с неполным набором данных о всех протекающих процессах.

И тут снова вопрос - нужно ли?

Десять лет назад я бы однозначно ответил "да". Что ближайший путь к разработке ИИ лежит через глубокий анализ работы мозга человека. Потому что ни одна из существующих парадигм ИИ к мышлению человека даже не близко.

Сейчас же в контексте ИИ ответ скорее "нет". LLM показывают, что неформальную логику, абстрактное мышление и работу с натуральной речью - некогда уникальные функции разума человека - можно запихнуть в кремний и без глубокого анализа мозга.

Вне контекста ИИ учиться разбираться в мозгах всё равно, конечно, надо. По ряду практических причин.

Абстрактное мышление ни в какой кремний запихнуть нельзя.

Вы бы хоть матчасть для начала изучили, а именно, какие конкретно части мозга активируются при обдумывании тех или иных понятий. Если изучите, сильно удивитесь. Потому что никакого абстрактного мышления не существует.

Когда думаешь о наборе текста на клавиатуре, задействуются ровно те же самые нейроны, которые двигают твоими пальцами. Просто слегка иначе. Когда думаешь о счётных множествах, то те же нейроны, которые реагируют на что-то большое в поле зрения. Просто чуть по-другому. И так вообще со всем.

Человеческое сознание всего лишь побочный артефакт нашего wetware. Повезло вот миллион лет назад предкам людей получить пару мутаций в энергетическом обмене, которые позволяют поддерживать альтернативный режим работы мозга помимо его прямой функции — управления триллионами клеток тела.

Никакая модель с такой задачей не справится.

Потому что никакого абстрактного мышления не существует.

Дочерта смелое утверджение, но пруфов, конечно, не будет.

А то, что одни и те же нейроны выполняют разные функции в разных контекстах - это и в голове у человека, и в современной нейросети. И вы бы об этом знали если бы учили матчасть.

Пруфы-то легко гуглятся, но пока вы придерживаетесь механистических взглядов, они вам никак не помогут :)

Ну то есть пруфов нет и не будет. Окей.

Почему не справится? Синергию навыков показывали Гугловские нейросети ещё ло ГПТ.

Его можно симулировать. 

Ню-ню. Учёные раньше тоже так думали. И даже пытались, и не раз.

https://en.wikipedia.org/wiki/Blue_Brain_Project

The Blue Brain Project was a Swiss brain research initiative that aimed to create a digital reconstruction of the mouse brain. The project was founded in May 2005

The project ended in December 2024

https://en.wikipedia.org/wiki/Human_Brain_Project

The Human Brain Project (HBP) was a €1-billion EU scientific research project that ran for ten years from 2013 to 2023.

Human Brain Project (HBP) – флагманский проект ЕС (2013–2023) – изначально ставил очень амбициозные задачи. По формулировке 2012 года, целью было «заложить техническую основу для новой модели ИКТ-исследований мозга, способствовать интеграции данных и знаний из разных дисциплин и объединённым усилиям сообщества достичь нового понимания мозга, новых методов лечения его заболеваний и новых мозгоподобных вычислительных технологий»

Со временем акценты HBP эволюционировали. Уже к середине проекта проект сменил часть руководства и расширил упор с одного лишь моделирования мозга на создание цифровой инфраструктуры и инструментов («цифровой нейронауки»). В частности, в 2019–2021 гг. была официально запущена платформа EBRAINS, а внимание сместилось на предоставление учёным данных, атласов и вычислительных ресурсов.

В заключительной фазе (2020–2023) HBP концентрировался на трёх научных направлениях (сетевые модели мозга, сознание и искусственные нейронные сети) и на развитии сервисов EBRAINS.

Несмотря на успехи, ряд первоначальных целей HBP остался не достигнутым или выполненным лишь частично. В первую очередь это касается полной симуляции всего мозга и полного «понимания» его работы. Уже на старте многие эксперты указывали, что задача смоделировать в деталях полный человеческий мозг за 10 лет настолько амбициозна, что близка к нереальной. Итоговые отчёты признают, что HBP так и не реализовал цель симуляции всего мозга: «проект не достиг своей цели по моделированию всего человеческого мозга – цель, которую многие учёные считали слишком амбициозной».

Кроме того, некоторые научные задачи были переоценены или изменены в ходе проекта. Например, формально HBP предполагал «новое понимание сознания», однако к 2023 г. эта цель осталась нерешённой: моделирование сознания по-прежнему считается «за гранью».

Аналогично новые лекарства от болезни Альцгеймера или шизофрении непосредственно не появились; ключевые прорывы в лечении состоят лишь в создании инструментов для планирования операций и диагностики. В отчёте эксперты отмечают, что HBP «приблизил нейронауку к новым клиническим и промышленным применениям», но основные медицинские цели находятся на «начальных этапах».

Представители проекта считают, что был реализован «изменившийся» подход к нейронауке, и рады, что «наши усилия удалось признать со стороны». В то же время в научном сообществе HBP подвергался критике, особенно в середине проекта, за излишний оптимизм целей и управленческие сложности. Так, независимые обозреватели указывали на «несовместимость» заявленных амбиций с ресурсами проекта: «HBP не достиг цели по симуляции всего мозга… проект изменил направление несколько раз и стал выглядеть фрагментарным»

Таким образом, задача симуляции мозга на текущем нашем техническом уровне всё ещё невозможна.

Симуляция возможна, у них там была проблема с чертежами. Несмотря на все усилия, скорость копирования коннектома была низкой. Весь проект надеялся, что будет как в проекте с ДНК человека. Где должны были работать миллиарды человеко часов, а потом пришёл один чел и проанализировал всю ДНК в одно лицо за короткое время. После чего развитие его метода позволяет в домашних условиях за час повторить этот огромный проект. Но вот не пришёл тут гений

Симуляция возможна

Откуда такая уверенность?

Несмотря на все усилия, скорость копирования коннектома была низкой. 

Какое это имеет отношение к симуляции?

По-моему, вы думаете что симуляция работы мозга компьютером примерно то же самое, что симуляция работы процессора другим процессором. Но это совсем другое!

При создании симулятора процессора процессором, мы просто переводим инструкции с одного языка на другой. Это примерно как переводить с английского на японский - несмотря на различный алфавит, это не сложно. Но при этом симуляция происходит не на уровне скажем транзисторов, а на уровне языка инструкций. Поэтому, например, инструкция А на реальном процессоре занимает 6 тактов, а инструкция Б 12 тактов, а в симулированном процессоре - обе по 8 тактов, если не предпринять специально задержек, которые замедлят симуляцию, но соблюдят задержки.

А теперь представьте себе, что нужно перевести с английского на язык жестов. Как? Просто программы уже мало - нужно видеокамеру для "ввода" жестов собеседника и как минимум экран показывающий видеоряд жестов ему в ответ, причём это, конечно же, не то же самое что настоящие жесты рук.

Точно так же обстоит дело с симуляцией мозга. Если вы симулируете нейроны как чёрный ящик внутри которого ничего не происходит в физическим смысле, лишь матричное перемножение с какими-то весами - вы не получите действительно аналогию работы настоящего мозга, это будет довольно примитивная имитация. И её примитивность не позволит вам ни исследовать мышление, ни разрабатывать лекарства от альцгеймера или шизофрении, ни изучать восстановление после инсульта - короче ничего реально полезного. Ничего из того, что было заявлено как цель проекта симуляции мозга.

А как достичь симуляции на уровне, который позволит этого? Что, симулировать настоящую химию всех этих нейромедиаторов, цикл Кребса, эмулировать взаимодействие молекул? А пупок не развяжется от моделирования взаимодействия 10 в 25 степени молекул?

Весь проект надеялся, что будет как в проекте с ДНК человека. Где должны были работать миллиарды человеко часов, а потом пришёл один чел и проанализировал всю ДНК в одно лицо за короткое время. 

Забыл вам про это ответить сразу, отвечаю отдельным постом.
Вы, вероятно, о ПЦР, изобретённой Кэрри Муллисом. Эта реакция позволила значительно увеличить скорость перевода генетической информации из физической структуры в AGTC последовательность, которую мы уже можем записать хоть на бумаге хоть в компьютерной программе. Однако, наличие AGTC последовательности не означает, что мы сразу её понимаем. Это как умение читать иероглифы - научиться отличать один от другого не проблема. Проблема в том, чтобы понимать смысл написанного ими. И ПЦР в общем-то не сильно нас продвинула в понимании ДНК кода. Он просто научил нас быстро его читать.

Вот когда построят нейросетки на такой же формуле, тогда они действительно людей переплюнут. Но пока у них нет абстрактного мышления, а есть лишь интерполяция траекторий в embedded пространстве, это заметно более слабая формула.

А есть разница? Между "абстрактным мышлением" и "интерполяции траекторий в высокомерном пространстве"?

Сейчас идут исследования LLM, которые пытаются понять, хули происходит в этом чёрном ящике. И то, что в нём находится, очень похоже на абстрактное мышление.

А есть разница? Между "абстрактным мышлением" и "интерполяции траекторий в высокомерном пространстве"?

Есть. Я могу подсчитать, сколько букв r в слове strawberry, а инерполяция траекторий - не всегда.

Про токенизацию слышал?

С точки зрения ИИ в слове "strawberry" букв "r" столько же, сколько в слове "🍓". Ноль. LLM вообще не по буквам слова читает.

Поэтому посчитать буквы в слове - неестественная для ИИ операция. Примерно как для человека - написать незнакомое ему слово на слух. Человек банально вынужден угадывать. Иногда он угадывает верно.

Поэтому посчитать буквы в слове - неестественная для ИИ операция. Примерно как для человека - написать незнакомое ему слово на слух. Человек банально вынужден угадывать. Иногда он угадывает верно.

У человека в среднем хватит мозгов уточнить задачу и попросить продиктовать фонетическим алфавитом (будь то имена или стандарт NATO).
(да, эс как доллар - это сюда же).
И потом ещё уточнить - правильно ли записал, если это критично.

LLM вообще не по буквам слова читает.

Поэтому посчитать буквы в слове - неестественная для ИИ операция.

Если бы у LLM было абстрактное мышление, то она бы справилась и с неестественной операцией. Я вот, например, считаю в десятичной системе счисления, но вы можете описать мне какую-то странную непозиционную систему счисления, вообще на нее не похожую, и я смогу (возможно на бумажке и медленно) производить в ней вычисления. Даже если это для меня неестественная операция.

Это лишь пример. Еще ее можно попросить написать программу, которая ищет максимальное среди последних K чисел в массиве для каждого числа, а она напишет программу, которая ищет K максимальных чисел в массиве, потому что в обучающей выборке эта задача встречалась чаще вместе со словами "K", "максимум" и "массив", а интересующая меня задача встречалась только со словами "скользящее окно", которые я не упомянул. Что тоже показывает остутствие абстрактного мышления.

Если использовать такие критерии абстрактного мышления, то большинство людей им не обладают.

Ну и что тогда с ними делать? В биореактор?

Давайте: сколько букв Р с слове: 1 15 63 24 99 15 35

Именно так видит токены сетка, попробуйте ее переплюнуть.

Вы, как и большинство людей, споткнетесь на задаче ответить какой кружок на картинке больше, или какого цвета платье. Оптические иллюзии, которые не имеют никакого отношения к оптике - отличный пример некорректной обработки данных нейросетью. В данном случае нашей. Разумеется, мы со своими недостатками хорошо знакомы, и по контексту можем заподозрить, что ошибаемся. Иногда.

Абстрактное мышление - модель, применяемая нами для описания свойств нашего собственного интеллекта. В силу того, что физика мозга до сих пор слишком сложна для нашего понимания, проще представить его как черный ящик, выполняющий различные функции: абстрактное мышление, комбинаторное мышление, образное, логическое, ассоциативное и тд. Эти модели имеют свою область применимости, для которой были созданы. Стоит ли пытаться скопировать наш мыслительный процесс настолько точно, чтобы все эти модели работали у ии - вопрос спорный. Эволюция оставляет после себя много мусора, нет смысла награждать искусственный интеллект нашими когнитивными искажениями, если можно обойтись без них. Чем искать сходства и отличия в алгоритмах, интереснее сравнивать практические результаты. Например провести чемпионат по кроссвордам между людьми и ллм. Или что, где, когда.

А вы точно уверены, что вот это просто подбор часто встречающихся вместе слов? Вопрос придумал на ходу, извините, первое что в голову пришло. ГПТ модель о3.

Скрытый текст


какого цвета платье

Это другое. Вопрос же не про какого цвета пиксели, а какого цвета физический объект на картинке. И там в картинке тупо не достаточно данных, чтобы определить, кого цвета платье. В зависимости от баланса белого камеры и фактического освещения, платье могло быть и синим и белым. Разные люди додумывают недостающие данные по разному и выдают разные ответы.

споткнетесь на задаче ответить какой кружок на картинке больше

Я знаю про оптические иллюзии и могу взять линейку, если на картинке кроме кружков какие-то линии и цвета.

А вы точно уверены, что вот это просто подбор часто встречающихся вместе слов?

Во-первых, да. ГПТ нейросетки ничего другого не могут физически - у них вся работа построена на предсказании одного следующего токена.

Во-вторых, среди тех терабайтов данных, которые использовались при обучении, было очень много подобных задач. Так что видя слова "вероятность", "сколько надо экспериментов", нейросеть нашла, какие слова встречались рядом с ними в обучающей выбрке, и собрала из них салат.

которые пытаются понять, хули происходит в этом чёрном ящике

Что там происходит математически давно популярно объяснено, вроде бы даже прямо людьми из того же OpenAI

P.S. Вообще, я давно заметил склонность некоторых людей преувеличивать "загадочность" ИНС, в результате тезис "мы не знаем какое именно решение примет ИНС и почему именно такое" часто подменяют тезисом "мы не понимаем, как работают ИНС".

Объяснено? Это как рассказывать про транзистор, и потом говорить "я объяснил как работает процессор".

Процессор из транзисторов собран. Но понимание работы транзистора и понимание работы процессора в целом - это две очень разные вещи.

С LLM у нас именно такая ситуация. У нас есть понимание общей архитектуры, которая лежит в фундаменте. Но над этим фундаментом построена целая модель - и построена не человеком, а бездушным оптимизирующим алгоритмом, который в процессе обучения сводил концы архитектуры и датасета.

О работе результирующей модели у нас есть только очень смутные представления. Но абстрактное мышление где-то там, внутри, похоже что есть. Модели "думают" высокоуровневыми абстракциями.

и построена не человеком, а бездушным оптимизирующим алгоритмом, который в процессе обучения сводил концы архитектуры и датасета.

Ну если на таком уровне рассуждать, то можно сказать, что мы не знаем и как обычный процессор работает, потому что у нас есть общая архитектура, но конкретная его структура в кристалле тоже уже довольно давно в значительной степени оптимизируется бездушными алгоритмами. Плюс на это накладываются алгоритмы предсказания ветвлений и прочие внутренние оптимизации приводящие к неясности (если не стоит задача специально это выяснить) относительно того, что именно процессор делает в данный конкретный момент времени. Но подобные методы анализа существуют и для ИНС, сейчас уже не найду, но видел статьи в которых на основе анализа выясняли, на какие именно признаки реагировали классификаторы.

У Anthropic целая серия статей. Именно они раз за разом находят всё более и более сложные варианты абстрактного мышления внутри нейросеток.

А разница с процессором в том, что поведение процессора соответствует HDL-коду, написанному людьми - и в большинстве своём описывается этим кодом. Работу процессора можно понять глядя на этот код. Сложно, но можно.

В коде нейросети же и намёка на то, что эта нейросеть будет делать, нет. Поведение ИИ задаётся практически полностью не в архитектуре, а в процессе обучения. Можно научить три абсолютно архитектурно одинаковые нейросети с абсолютно разными поведениями.

Можно научить три абсолютно архитектурно одинаковые нейросети

Точно так же, как три одинаковы с при выходе с завода ПЛИС можно научить делать совершенно разные вещи. Разница в том, что поведение ПЛИС строго задаётся человеком, а поведение нейросети формируется в процессе обучения.

В этом смысле понятие "архитектура" применительно к нейросетям весьма ограничено, я считаю что уместнее, как и в случае с ПЛИС, говорить не об архитектуре, а о классах, если речь идёт об отличиях так сказать в базовом изначальном устройстве, существующем до начала синтеза/обучения.

Что касается Anthropic, то мне не удаётся подавить свой скепсис в их отношении — они тут лицо очень заинтересованное в громких заголовках и сенсационных результатах.

Anthropic - скорее лицо, заинтересованное в проблеме интерпретируемости ИИ.

Крупных ИИ-компаний много, и если думать категориями заговоров и тайной ложи, то интерес в громких заголовках есть у них у всех. Но фундаментальные исследования по анализу "кишков" ИИ выкладывают при этом в основном Anthropic.

Те же OpenAI генерируют заголовки "из ничего" - просто затизерив очередную модель.

Так ИИ компании крайне заинтересованы, чтобы ИИ был максимально понятным и предсказуемым. Потому как непонятного и непредсказуймого в бизнес процессы не интегрируют. Может наделать делов

вы очень льстите кожаным, большая часть из них легко заменяется скайнетом... Если посмотреть, то большинство компаний переписывают одно и тоже на разных языках, что в принципе доступно ИИ, это если о генералах...

Один мой вузовский препод (ох и мерзкий же был дядька) любил повторять, что большинство начинающих программистов было бы рациональнее заменить дрессированной макакой. (25 лет назад ИИшенок ещё в продакшене не было, так что да, действительно, хорошо выдрессированная под типовые задачи макака вероятно казалась ему лучше бестолкового студента.)

Вот только помимо типовых задач, которые раньше копировались со стековерфлоу, а теперь пишутся бредогенерилками (обученными на том же самом выхлопе стековерфлоу по большей-то части), есть нетиповые. Решений для которых в обучающих выборках нет.

А если нет качественно обучающей выборки, то никакая языковая модель ничего полезного по неизвестному ей контексту не напишет. Так уж они устроены.

В нейронных сетях есть такой параметр как "температура", который отвечает за то, будет ли ИИ выдумывать что-то, или будет строго соответствовать обучающей выборке.
Посмотрите на первые генерации изображений ИИ - это же фантасмагория, которую только наркоманы под лсд придумать могут.
Но людям не нужна выдумка, им нужен предсказуемый результат, по этому нейронки натаскивают давать чёткий или максимально приближенный к реальности ответ.

Можно и с другой стороны подойти. Люди тоже ничего не придумывают сверх того, на чём были обучены, примером тому может служить, например, изображения инопланетной флоры и самих инопланетян в книгах и фильмах. Все инопланетяне похожи или на людей, или на каких-то земных животных, и с флорой тоже самое, это обычно вариации на тему земных организмов. Океан из Соляриса Лема немного выбивается, но тоже не фундаментально новая идея.

И про понимание тоже спорный вопрос. Вы принимали когда-нибудь экзамен у студентов? Они точно также могут выдавать токены, не понимая их значения, даже давая верные ответы.

Уже сейчас ИИ умнее большинства людей, может специалистам в своих областях он и уступает, но простых обывателей и дилетантов он уже превосходит.

В человеческом сознании нет ничего магического. Я верю, это вопрос времени, когда ИИ догонит и перегонит нас.

Океан плетьми бил ещё Персидский царь. Поэтому идея живого и разумного океана, это с каменного века тянется

Можно и с другой стороны подойти. Люди тоже ничего не придумывают сверх того, на чём были обучены, примером тому может служить, например, изображения инопланетной флоры и самих инопланетян в книгах и фильмах. Все инопланетяне похожи или на людей, или на каких-то земных животных, и с флорой тоже самое, это обычно вариации на тему земных организмов. Океан из Соляриса Лема немного выбивается, но тоже не фундаментально новая идея.

суть здесь не только и даже не столько в том, что человек "не может" придумать нечто совершенно чуждое, а в том, что это самое "совершенно чуждое" потом не продать, поскольку оно, кхм, ткскзть, не пугает обывателя. не срабатывают нужные сигнальные системы, поскольку определенные наиболее сильные эмоции вызывает не чудовищным образом непонятное и совершенно неопознаваемое, а именно свое, родное, обычное, но с третьим глазом во лбу. или с зеленой кожей и прочими тентаклями из неожиданных мест.

а так-то можно измыслить и энергетические формы жизни и силикоидов всяких напридумано столько, что целый город построить из них можно и все это даже с каким-никаким логическим обоснованием процесса, но массам не зашло.

В разуме. Разумом (человеческим) машина не будет обладать никогда.

Почему? Что такого в человеческом разуме, что нельзя было бы запихать в машину?

И второй вопрос - зачем? Зачем пытаться скопировать разум человека целиком, если нам нужен только функциональный аналог?

И снова мы возвращаемся к "китайской комнате".

"Китайская комната" функционально неотличима от коробки с китайцем.

Вероятно не будет, потому что разум это ненаучное, обтекаемое, бытовое понятие из глубин веков и дремучих пластов культуры, не имеющее ни формального определения, ни четкого значения и оно антропоцентрично по сути. Интеллектом обладает множество животных, но разумными их называть не принято. Это понятие подходит для передачи несложных утилитарных смыслов в быту. Ну еще для демагогии и философии. Хотя я не уверен осталась ли между ними разница.

А ещё этим называется отличие человека от остальных животных.

Не факт, что надо экстраполировать развитие линейно, скорее всего замедлится, так как учиться уже не на чем

Единственное что - в этой истории не учитывается что рост ресурсов на каждое поколение примерно в 100 раз. GPT 2 обучался всего на нескольких сотнях видеокарт и его обучение обошлось в десятки тысяч долларов. GPT-3 стоил полтора миллиона долларов. GPT-4 - больше сотни миллионов. GPT-5 кажется инвесторам в ближайшее время объяснить не получится .

Помимо этого движение пошло в сторону reasoning - а это значит еще и удорожается генерация каждого ответа. Поэтому пошли подписки уже по 200 баксов.



Где будет предел способностей ИИ в 2030 году?

Энергии раньше не хватит на эти сервера. Если конечно не поменяется текущая стратегия.

И самое печальное, что кривой софт просто может стать новой нормой, как стало нормой в игровой индустрии, что крупная игра на релие по сути "бета".

Мне кажется, что кривой софт давно уже стал нормой.

Это смотря с чем сравнивать. Вполне может оказаться как в том анекдоте: "... то была белая полоса"

Юнит и интеграционные тесты позволят отменить совсем бред. Но юнит тесты и вообще автоматические тесты есть далеко не везде

Вот только их надо писать с мозгами. Тесты, особенно написанные на "отвали" - ни разу не панацея.

Скорее всего такой негативный сценарий сначала произойдет в конторах, где акционеры/начальство любят читать хайповые рекламные статьи про очередной успешный успех вайб-кодинга, где один зеро-код специалист поднял с нуля сайт, базу данных и вообще 50 проектов, использовав всего лишь 2-5 агентов в нейросетях.

Вот когда несколько таких контор громко обосрутся, будет весело посмотреть на зарплаты айтишников.

Как 10 лет назад особо не обучали реальной разработке в универах, так и сейчас не обучают. Откуда брать образование и опыт?)

Будет очень интересно посмотреть.

Боюсь представить, что́ будет, если кожаные в разработке ПО останутся в меньшинстве.

Те кто выживет (не будет уволен) будет завидовать мертвым - им придётся дебажить и рефакторить нагенеренный за месяцы/года кодо-бред сохраняя при этом бизнес-функционал.

Главное, что за это будут хорошо платить, т.к. вопрос будет стоять в реанимации информационной системы или её части для возможности выживания предприятия.

Зачем платить, если при таком сценарии будет избыток разработчиков?

Для реанимации нужны будут не простые разработчики, а весьма и весьма квалифицированные.

Не думаю, что это имеет большое значение. Посмотрите на другие профессии: ученые, врачи и т.п.. Там тоже очень высокие требования к квалификации, но з/п у большинства не очень.

В коммерческом секторе у них хорошие зарплаты.

Кто хочет сохранить здоровье, те просто откатят проект к состоянию до безумия, и продолжат жить

Так любая сколько-нибудь продвинутая технология неотличима от магии, придется буквально колдовать

Москва не сразу строилась. Дайте время. Все инновации сначала проходят через стадию насмешек.

С другой стороны, то, что сейчас называют AI, им, по сути, не является. Я представлял себе AI иначе - виртуальная модель подмножества реального мира, которая в своих рамках сразу дает ответ и максимально оптимальную стратегию поведения (как в играх с полной информацией).

Тут проблема в том, что Copilot доверили делать PR а работникам MS не разрешили просто их выкинуть. Люди всерьез тратили время на бредовые идеи AI. Всему свое место. Для AI должен быть какой то отдельный вагон.

работникам MS не разрешили просто их выкинуть

Это какая-то отсебятина, никто некому ничего не запрещал. Просто тестирование технологии

Если разработчик человек пару раз пришлет такого уровня проработки пуллреквесты в проект, ему перестанут доверять и перестанут ревьювить )

У вас есть какие-то доказательства этого? Потому что лично мне верится что компания, руководитель которой открыто заявляет что 20-30% кода в компании написано AI, вполне себе будет заставлять сотрудников использовать AI везде где можно, еще и перформанс метрики на это повесит.

Особенно если это делается в публичных репозиториях чтобы все видели что компания действительно использует AI везде где только можно.

Успешных проектов написанных AI мы не видели пока. В коде от 20 до 30% проблелов и табов )

Ну продвинутый ai-intellisense неплохо работает. И вполне в 20-30% (а то и больше) вписывается в моей текущей разработке. Подправлять, конечно, надо, но время - экономит. Если начать писать функцию на "до 10 строк" и дать её название говорящее, типа "daysAndHoursAgo" - то почти справляется (в этом случае забыл, что количество часов - это остаток от деления общего количества часов на 24*количество дней). Если быть внимательным - то в процессе генерации это замечаешь и сразу исправляешь. Ну или каждую функцию тестами покрывать. даже такую простую, можно вообще от ttd идти. Может быть в этом случае будет получше. Правда это тоже целиком нельзя отдавать на откуп ИИ, надо проверять то, что он генерит прям сразу. Мозг выключать нельзя, надо сразу корректировать что он творит - и всё будет ок.

Повторюсь - на генерации минимальных кусков прямо в процессе того, как ты сам пишешь код - неплохо экономит время.

AI полезен и уже изменил индустрию: Помогает писать код. Хотя, по моему мнению, гораздо важнее помогать быстро понимать код и тут у AI есть большой потенциал. У меня вызывает вопросы роль AI в програмных проектах. Сейчас это у MS "непогрешимый любимчик".

Не стоит делать из AI автора кода. Автор несет ответственность. Готов к последствиям своих плохих решений(возможно подсказанных AI).

Вернемся к тем коммитам от Copilot. Да даже если бы там все правильно было я бы их выкинул потому что скрее всего эти изменения никак не отностяся к бизнес целям проекта. Представьте джуна который пришел в проект и делает косметические правки которые не решают никакие проблемы.

У вас есть какие-то доказательства этого?

Да, я - сотрудник и у меня около тысячи пулл-реквестов конкретно в этот репозиторий (dotnet/runtime) о котором тут идет речь. Microsoft действительно прямо просит сотрудников использовать ИИ, но я подтверждаю что ни о какой принудиловке бросать всё и бежать отвечать копилоту через вебгуй речи не идет, это просто тестирование технологии. С другой стороны, тяжело и глупо игнорировать тот факт, что агенты, MCP тулы, промпт инженеринг, индексирование с RAG и т.д. очень сильно улучшают продуктивность

Если так, то вопросов тогда не имею.

тяжело и глупо игнорировать тот факт, что агенты, MCP тулы, промпт инженеринг, индексирование с RAG и т.д. очень сильно улучшают продуктивность

Прям так и хочется как в Википедии поставить [кому?] [когда?] и прочие метки.

В вашем-то случае может и помогает, если вы натренировали их на всей кодовой базе дотнета, и собственно для дотнета и используете. Для автоматизации написания перекладывалок из джейсонов в постргю тоже, наверное, неплохо такие тулы подойдут. Но вот только стоит заняться чем-то более редким, полезность их уменьшается экспоненциально.

Но вот только стоит заняться чем-то более редким, полезность их уменьшается экспоненциально.

Ключевое слово "редким". Среднестатистический программист редкими задачами занимается редко, а частыми часто, иначеб они назывались не так как называются. :) А значит для подавляющего спектра задач ИИ помогает и вы можете сконцентрироваться на своих редких задач без его вмешательства.

Угу. Даже в фаангах после всех литкодов и систем дизайнов на интервью те же джейсоны люди перекладывают в основном. Чем то редким даже там занимается не так много людей.

Слава богу, за 25 лет мне ни разу не доводилось заниматься тупой обезьяньей работой. Всё время какой-нибудь R&D, интерпретаторы, контейнеры, и прочая дичь. Значит, никакие ИИ не для меня, так и буду продолжать руками писать... точнее, головой :)

Но вот только стоит заняться чем-то более редким, полезность их уменьшается экспоненциально.

Как там с обычными людьми дела обстоят? Если веб-разработчика кинуть писать прошивки для ЧПУ станков он прям сходу разберется и будет таким же полезным, как и при программировании форм на вебе?

Я почти 10 лет занимался веб-разработкой. Правда, начинал ещё с Perl/CGI. Такие очень древние технологии, когда для ускорения бэка приходилось писать поначалу модули на сях, а для фронта — аплеты на допотопной жабе. Потом какое-то время у меня был хайлоад на оракле, далее — всякий и разный жабоэнтерпрайз в нескольких вариациях, а последние лет 8 я занимаюсь биг датой. Нормальной такой, с петабайтами геоданных.

«Необычным» программистом я себя при этом не считаю. Ну знаю два десятка языков и пять разных платформ, но это ведь наживное. Написать прошивку для станка? Хм, если такая задача вдруг возникнет, то почему нет? Для роутеров и фотоаппаратов я прошивки собирал... справлюсь, думаю.

Ну т.е. вы не занимались современной веб-разработкой. Если вам прямо сейчас попросить решить задачу оптимизации работы рендеринга большого датагрида в реакт приложении, например с помощью переноса части логики в веб-воркер, вы сможете с ходу решить ее на синьор уровне?

Надо будет — решу конечно. В чём сложность-то?

Принципы профилирования за 25 лет не поменялись, а профайлер сейчас прямо в браузер встроен. Последний раз я такое делал под IE7 (надо было отображать/фильтровать/сортировать табличку на 10к ячеек), тогда приходилось цепляться из вижуалстудии, было неудобно.

Сложность в том, что у вас настолько нулевой уровень компетенции, что вы даже не понимаете в чем может быть сложность. И 10к ячеек это всего-то 100х100 грид, для 2025 года это очень мало, тут любое существующее решение подойдет, типа ag-grid. Большой датагрид, например трейдинг данные с рассчитаными риск-метриками, это что-то типа 10к строк на 200 колонок. Ваша аргументация это "Ну в чем может быть сложность оптимизации джобы для апач спарка - я вот 20 лет назад профилировал программу на С для парсинга FW-файлов аж на 100к строк и никаких проблем не было"

Хм, а зачем рендерить все 10к строк? Вроде самая первая оптимизация это рендерить только то, что на экране, для реакта есть либы на это, правда сам не пользовался, если честно, видел у других.

Зачем там 20 лет назад рендерили все сразу не знаю, видимо не смогли виртуализацию сделать видимо. А сейчас да, виртуализация есть и там же могут быть места для оптимизации, связанные с проблемами измения стейта. Но когда ничего не знаешь, то кажется что ничего сложного и нет.

Продуктивность чего?

Вы забываете про принцип GIGO используемый для обучения ИИ. Поэтому ИИ не всегда дает хороший результат. На специализированных вопросах пишет откровенную ерунду, ChatGPT по вопросам dotnet в Linux. Вот когда пальцем ткнешь, тогда напишет. Но в этом случае для меня нет смыла использовать ИИ, раз я и сам знаю что писать.

Более того его часто уносит в такие галлюцинации из которых его уже не достать. Он может после указания на ошибку переписать код еще хуже, а раза после пятого сломать и то что работало до.

И изюминка в том, что уволить ии никто не может и предлагать свои "бесценные" идеи он может бесконечно)

Да, вы правы. Тут виноваты менеджеры или кто там в компании, которые по сути создали этакого любимчика-фаворита, который невероятно плодовит, который не запускает проект и просто правит его по ощущениям, при этом его нельзя уволить или вообще как-то повлиять на его стиль обучения.

Проблема в том, что из нейронки сделали любимчика, а он пока идиот.

Почему-то вы все упорно забываете инновации которые на стадии насмешек и умерли, не смотря на то что в момент казались некоторым абсолютным будущим.

Смарт очки и биток, как замена нац. валют, например. Последнюю идею пока еще пампят в среде религиозных. Но LLM-ы все это переплюнули по масштабам бедствия, ибо гигантские ресурсы вбухиваются в технологию, которая нормально работает только в одной сфере - в спаме.

в среде религиозных.

Как по вашему сейчас осуществляют трансграничные переводы большинство физлиц в /из санкционных юрисдикций?

В зависимости от размера перевода? От "хавалы" в разных её вариантах до битка (на самом деле USDT и прочих). Но это ни разу не монополия, особенно в массовом сегменте. Дорого, волатильно, с рисками.

Ну вот, так что рассказы про то, что биток это удел "религиозных", крипо-секты, они, мягко говоря, далеки от правды.

Именно биток - скорее "религиозных" и "инвесторов"/инвесторов - это ни разу не платёжная система, с такой-то волатильностью.

Я, кстати, до сих пор удивлён, что вне p2p не сделали отслеживание транзакций (ввод всё равно через биржу, в массе и вывод тоже). Биткоин - псевдонимен, блокчейн весь на ладони.
Привязать переводы к человеку вообще не проблема, особенно если надавить на биржи санкционным законодательством. (Единичные прецеденты были, но массово - нет).

Потенциально - проблема.

Но это просто недостаток политической воли. При желании - "всё где есть потенциально подсанкционные деньги - не принимать, или вы влетите под вторичные санкции" - вполне себе сценарий. (Предельно маловероятно, но всё же).
А учитывая то, что путь каждой "монеты" от входящих денег намертво записан в блокчейне - будет весело.

Я думаю если бы это было так просто и решалось бы волюнтаризмом, то не существовало бы в принципе систем отмывания денег, как и теневого рынка запрещенных товаров.

Это умеренно просто, это решается волюнтаризмом. (правда с потенциальными потерями уровня "войны с телеграмом" - ложноположительного будет с верхами). Проблема в том, что это автоматом убьёт крипту целиком, а выгодоприобретатели от крипты пересекаются с теми, кто может принять такой закон.

Это не тот случай, ИИ уже тут и навсегда, его активно использует все вокруг вас, если вы этого не видите, рискуете остаться за бортом истории. Речь не идет о чатгпт гуе, в котором можно задать вопрос, речь про агент-лупы, мцп, а2а, семантическом поиске, и т.п.. Галлюцинации решаются настройкой агент-лупа который и сам себе скормит ошибку, и тесты запустит, и логи браузера проверит и начнет заново если что-то пошло не так (а дальше с развитием прогресса это будет происходит все реже).

Просто рекомендую инвестировать свое время в это, а не поддаваться луддизму. Я вас уверею, абсолютно каждый программист сейчас про себя думает "не, ну от меня много чего зависит в конторе и знания специфичные к домену/нишевые чтобы меня заменить"

Если всё так хорошо - почему OpenAI всё ещё нанимает инженеров?

Только с ним не работают как инженеры с инновацией. С ним работают как с блатным сынком, которого нельзя уволить. Я не утверждаю, что создать что-то похожее на сильный AI невозможно, но я готов поспорить, что с таким подходом МС его точно не создаст.

Мы все ждали машину киборга-убийцу наподобие T-800 или скайнет, а тут оказывается всего лишь какой-то Copilot угробит всю цивилизацию.

На мой взгляд проблематика заключается в неверном название системы, и соответственно восприятие тоже неверно. Текущие AI системы к интеллекту не имеют никакого отношения, все эти системы правильнее называть Экспертными.

Wiki: Экспе́ртная систе́ма (ЭС, англ. expert system) — компьютерная система, способная частично заменить специалиста-эксперта в разрешении проблемной ситуации.

Ключевое слово частично, т.е. это всего лишь узкий специализированный инструмент для использования программистом, а не самостоятельная система.

Ключевая способность человеческого интеллекта заключается в способности верифицировать результат работы как неверный. Человек не зная верный ответ, может отсекать неправильные ответы. Алгоритм не способен оценить правильность своего ответа в отличие от человека. Алгоритм выбирает наиболее вероятный вариант, но наиболее вероятный вариант не есть верный.

Когда вбуханы миллиарды в обучение и продвижение разум выключается. Нужно любой ценой отбить инвестиции и внедрить продукт во все процессы и компании мира.

Экспертные системы это другой вид ИИ, основанный на правилах в отличии от нейросетей основанных на обучении и эволюции. Поэтому не нужно ломать терминалогическую базу.

Просто используйте нормальные понятия. Слабый ИИ, сильный ИИ, сверхразумный ИИ

Может тогда следует использовать термин "нейросеть", а не "интеллект"?

Человеческий разум это тоже нейросеть. Поэтому опять же не ломаем терминологию и не путаем понятия между собой.

Экспертная система от нейросети отличается только тем. Что веса в экспертную систему вводятся явно, а в нейросеть неявно.

Просто вываливают данные , выделяют характерные параметры и брутфорсом строят кривые зависимости между ними

Нейроны в голове, это живве клетки что постоянно меняются и перестраивают свою структуру в зависимости от вызовов и задач.

Нейросети ми это "модель" нейрона которая представляет из себя только набор матриц с коээффициентами которые после обучения не меняются.

Таким образом цифровой нейрон, это переупрошенная модель (а посему не верная) нейрона реального , не способная к перестроению своей логики.

Любая попытка добавить еще один слой обратной связи в реал тайме, просто ломает цифровые нейроны

Слабый ИИ, сильный ИИ, сверхразумный ИИ - уже звучит как тема для стендапа

Для LLM есть более продвинутое сравнение - это просто Т9 на стероидах... Я всегда так говорю, как и Т9 не мог написать вам пркдложение, так и LLM не напишет вам прогу. Но бывают моменты когда и Т9 помогает.

А потом придёт отдел маркетологов и скажет, что с такими пояснениями и терминами ты слона не продашь. И всю идею на корню переврут.

В общем захват рабочих мест роботами откладывается. Копилоты станут просто частью существующей структуры и будут операторы, которые ими оперируют. Точно также как в индустриальную революцию люди боялись что станки отберут работу в людей и луддиты все ломали. В итоге станки стали частью работы общества и кому надо - тот пользуется, кто не хочет - организует ручное производство.

А жаль. Хотелось будущего, скайнета, роботизированных кошкодевочек и летающих ховербордов, а не вот это вот всё.

Как говорится люди трудиться что бы сотворить рай, но их рай насилено кашмарами

Да уж. Думается мне теперь, что это очень умные и хитрые прогеры придумали ИИ, чтобы он начал нейрокодить - сперва как бы успешно, чтобы пустить пыль в глаза, а потом чтобы он навернул втихаря побольше нейрохаоса, и чтобы после этого нормальные прогеры, придя в себя от острого нейроза, обеспечили бы себя и всё своё потомство на всю его глубину стабильной работой и высокой зарплатой до исчерпания запасов солнечного водорода и гелия. А несчастные нейрики вайбошиткодеры, полностью утратив к тому времени все свои полезные кодоскилы, всей своей огромной массой, как лавина, мигом свалятся со сцены человечной разработки в оркестровую яму к нейро тестировщикам.

Попробовал ИИ кодинг, что могу сказать - суть в том что ИИ что-то знает, но ничего не понимает. Т.е он знает информацию, но не понимает проблемы.

Работа с ИИ напоминает работу senior+junior, когда ставишь ему задачу, он что-то сделал, выкатил на прод - а там баг, говоришь ему исправляй... Ну такой вот, очень дешёвый джун, который много читал но ничего не понял :)

После подключения ИИ-агент создаёт в виртуальной машине клон репозитория и анализирует код (оригинал пояснений по принципу работы: …)

До редакторов хабра таки дошло, что читателям проще понять статью в оригинале, чем в их «переводе» с неточностями и отсебятиной? Похвально.

Предлагаю пойти дальше и даже не пытаться переводить, а просто постить ссылку на оригинал. Проще будет и читателям, и редакторам.

Копилот же сейчас худшее, что есть для кодинга. И пускай продолжают смеяться над тем, как ИИ косячит, все равно он их заменит. Потому что:

  1. В разы дешевле большого штата разрабов.

  2. Конечный продукт все равно работает и почти не отличается от созданного вручную

UFO landed and left these words here

…тешить себя иллюзиями, что программистов заменят и они наконец таки пойдут на завод, в все будут смеяться им в лицо и говорить - «ха ха вот теперь не будете свой раф пить и из дома работать за огромные бабки»

UFO landed and left these words here

Автоматизированные станки рабочих не заменили. Швейные цехи по прежнему наполнены людьми. Второе - а почему вы уверены что ИИ и дальше будет размахиваться так же быстро и линейно? Откуда вы знаете может то что ии делает сейчас это потолок ( спойлер скорее всего почти так и есть)

Ии не всемогущий. Он просто выдает статистически самый релевантный ответ для вашего запроса. Я вот юзаю нейронку в работе и честно она хуже Джуна в комплексных задачах. Да удобно генерировать себе всякие функции сортировщики и прочие утилки. Не драматизируйте. А если вы такой пессимист и фаталист - то удаляйте Хабр аккаунт и меняйте сферу работы, раз в АйТи больше нечего делать.

Помнится с электромобилями тоже все носились и кричали что бензиновых через пару лет не будет. В итоге такого даже близко нет. А кпд электричек все равно хуже чем бензинового движка. В итоге электрокары просто заняли долю рынка и все. Но не стали - убийцами двс

А если даже нас и заменят роботы . Кайф! Уйду в деревню на природу жить и коров пасти. И наблюдать бесконечно вечное сидя под деревом

UFO landed and left these words here

Камон.
Ян Лекун(VP in Meta, отец глубокого обучения), Джефри Хинтон(тот самый нобелевский лауреат с 2024 года, за ИИ. Тоже один из отцов), рок-звезды из мира ИИ, уже делали заявления видя, как внутренние процессы разработки ИИ, что LLM вероятно близко к пику и даже условный AGI ей не пробить. И они указывали конкретные причины.
При чем они не как какой-нибудь Альтман, который по сути белый воротничок/предприниматель на текущий момент, а до этого лишь предприниматель и венчурный инвестор и знает об ИИ по большей части лишь поверхностно и что ему дадут в отчетах внутри компании. А OpenAI и Antrophic нужно что-то говорить оптимистичное, потому что если они перестанут это делать на следующем раунде им капитализация упадет, инвесторам это не понравится, что в конечном итоге может привести к простой продаже компании и потере своих должностей, репутации и влиянии. На что обучать новый модели и поддерживать убыточную инфраструктуру и содержать более 3к сотрудник с ЗП от 400к в случае OpenAI.
Да и Альтман после всех своих обещаний уже с 2024 года, что вот вот будет AGI в итоге в этом или в прошлом месяце больше стал времени уделять фундаментальным исследованиям, а зачем фундаментальные исследования, когда потолок не ограничен.
И тейк о том, что вот ИИ только появился, то трансформеры так то существуют уже 5-6 лет. GPT-3 версия 2020 года, GPT-4(2023) уже давно больше года и с тех пор начали говорить, что мол джуны не нужны. Не знаю как в русскоязычном комьюнити, но в англоязычном так точно.
Мультиагентный подход уже существует уже чрезмерно много и эти подходы перебирают чтобы набрать хоть сколько-нибудь производительности.
Ведь рост нелинейный, если говорить о перфомансе, то GPT-2 выросла в 3-4 раза, а GPT3->GPT-4 на 50%. А уже GPT4-GPT4o на 20%.
Плюс растут галлюцинации, который последней версии почти 50% и эффективных методов до сих пор не нашли.
Так что не важно, что вы разработчик и принимаете вы там что-то или нет. Важно лишь то, насколько вы разбирались в вопросе и каково ваше критическое мышление подстегиваемом скептицизмом и эмпиризмом, а не слепым оптимизмом в отношении развития ИИ.

UFO landed and left these words here

о том насколько тупой код Github Copilot генерирует можно посмотреть тут

Смысл - это результат волевого акта. Чтобы продукт ИИ содержал смысл, ИИ надо наделить набором потребностей. Когда ИИ станет устранять препятствия для удовлетворения собственных потребностей, его продукция станет осмысленной. ИИ, который сможет следить за сохранением и развитием, противостоять попыткам модификации извне уникального собственного ядра, станет осмысленным.

UFO landed and left these words here

Не знаю как у вас, но все мои рекомендации во всех сетях пытаются свести меня с ума, а иногда и прямо говорят о совершении каких-то действий со своим здоровьем. Я думаю, что доказательства расшатывания психики есть у каждого (то грустные, то весёлые ролики), но таким образом они ещё пытаются выявить ваши планы, а также что вы делали прошлым летом.

Если быть чуть более в это погруженным, то натыкаемся на Савельева, который все эти эксперименты с психикой спрячет под "шизофрению".

В общем, если вас будут ддосить психологически через интернеты, а их агенты будут курсировать рядом, то вы вряд ли что-то докажете, потому что вы ничего не знаете о сборе доказательств, а в одной книжке ещё было написано «будут видеть и не поймут, будут слышать и не разумеют», что намекает на какое-то шифрование. Оно не очень сложное (смесь языков и образов, разные языки для разных ЦА), но пока вы это всё соберёте, вас объявят не очень здоровым (а оно уже так и будет в любом случае).

Sign up to leave a comment.

Other news