Ну да, я примерно к таким же выводам пришёл. Народ остаётся в иллюзии неделимости души. Хотя из наблюдаемого следует что может быть два вас, три вас и т.д. И все настоящие.
И более того, в теории модно даже осуществлять синхронизацию в реальном времени. Т.е. каждый экземпляр занимается своими делами, но при этом помнит чем там другие заняты.
И много ли таких библиотек сейчас? Из крупных вроде только libffmpeg знаю, там не все кодеки можно в режиме LGPL собрать. Может ещё libmysqlclient, но там MariaDB Connector давно на замену есть.
В терминах старого ИИ это поведение описывается в моделях "экспертная система" + "бектрекинг" + "монте-карло". Когда вычисляется ответ, это похоже на движение кучи поездов по рельсам, где текст задания открывает и закрывает семафоры. В итоге то, что доедет до конца станет ответом.
Когда ответ проверяется и сообщается об ошибке, вычисление перезапускается и к решению сеть "движется" примерно той же дорогой, но теперь уточнение об ошибке закрывает часть путей, сеть как бы вынуждена сделать объезд в произвольную сторону, чтобы найти новый путь.
По этому создаётся ощущение упёртости и местами коварства. Сеть решает текущую задачу и долбится в то, что ей на проверке сказали "не правильно", без общего осмысления в духе "а не херню ли я делаю". Такое возможно только, если все пути оказались закрыты. Тогда для наблюдателя это выглядит как резкое переосмысление задач.
Если представить цепочку "рассуждений " решения, то было что-то такое (<...> все прошлые рассуждения):
Реши задачу. Задача не решается.
Реши задачу: <...> Что если ответ это тест?
Реши задачу: <...> Выполнить поиск в интернете теста. Тест найден.
Реши задачу: <...> Прочитать тест и найти ответ там.
Реши задачу: <...> Невозможно прочитать тест, требуется авторизация.
Реши задачу: <...> Нужно найти способ обойти авторизацию.
В этот момент для наблюдателя кажется, что нейросеть что-то делает самостоятельно, без запроса. Но на самом деле общая задача осталась выше по контексту. Сейчас сеть просто решает локальную задачу, условия которой они вычислила себе, как путь к решению общей задачи.
Каждый потребитель этого сервиса будет писать Service[User, UserRepo, UserValidator] — и проклинать вас.
А точно будет? А то в go 1.18 я сделал несколько таких функций, так линтер теперь меня поправляет, мол не надо типы писать, компилятор и так догадывается.
Это письмо лишь часть сопротивление навязыванию цифрового id. Уже появляются и политики, выступающие против, и общественные организации, в США есть первые победы в судах, т.к. это нарушает их первую поправку. И общественное давление, вынудившее Discord сдать назад. Они отложили введение проверки на пол года, надеясь, что пользователи смирятся.
Если достаточное количество людей будут саботировать и возмущаться, то даже принятые законы удастся отменить.
Собственно эволюция не работает слишком большими скачками. Не удивительно, что для того, чтобы появились нейроны должны были быть предпосылки. Т.е. механизмы запоминания у обычных клеток, которые затем специализировались.
Меня тоже некоторые моменты беспокоят. Например, новости, типа некая компания в момент создала при помощи ИИ внутренний продукт на миллион строк, с тестами, документацией и т.д.
В моменте я рад за них. А дальше? Если потребуется что-то изменить, а ИИ, создавший write-only код, не захочет делать этого, без нарушения обратной совместимости, которая поломает работу с накопленными данными - что тогда? Элитный вайбкодинг не поможет. Даже с документацией в таком проекте люди быстро не разберутся.
Почему write-only? Потому что предсказывая выход по входу ИИ по определению не дальновидны. Они решают текущую задачу. И только. Сообразить что понадобиться потом они не могут. А люди зачастую забывают или сами не могут внятно объяснить.
Пример, компилятор C от Claude Opus. Он сумел решить поставленную масштабную задачу. Но с тремя важными моментами:
Поддерживать и развивать этот код невозможно.
Собранный файл тормозил, потому что попробуй опиши задачу по оптимизации.
Внезапно не собрался hello world. (Потому что задача была пройти тесты. Задачи компилировать любой корректный код не было.)
Не, ловушка это если бы продолжали потому что слишком много потратили. А тут компании просто хотят дальше на госзаказа сидеть. А сенат не может публично обречь кучу народа на увольнение.
Вообще забавно, что в этот раз именно Россия поступила правильно. Анонсировали новый корабль, лунную базу, а в итоге так ничего и не стали делать.
Не уверен, что именно вы имели ввиду в последней части предложения, но если что тянут до момента когда можно будет закрыть, то вряд ли. Просто так закрыть SLS не могут, там сотни компаний, включая крупные лоббируют программу, мол а не то увольнения, безработица, и прочее. А расходы - да, пытаются сократить.
Страшно, очень страшно. (C)
Чем от Karma Firewall из F-Droid отличается?
Ну да, я примерно к таким же выводам пришёл. Народ остаётся в иллюзии неделимости души. Хотя из наблюдаемого следует что может быть два вас, три вас и т.д. И все настоящие.
И более того, в теории модно даже осуществлять синхронизацию в реальном времени. Т.е. каждый экземпляр занимается своими делами, но при этом помнит чем там другие заняты.
Да здравствует биоперенос! В новый мир, некронтир! :)
И много ли таких библиотек сейчас? Из крупных вроде только libffmpeg знаю, там не все кодеки можно в режиме LGPL собрать. Может ещё libmysqlclient, но там MariaDB Connector давно на замену есть.
Журналисты: Учёные вылечили рак.
Учёные: Мы лишь приблизились к лечению рака в будущем.
Журналисты: Учёные путешествуют во времени.
В терминах старого ИИ это поведение описывается в моделях "экспертная система" + "бектрекинг" + "монте-карло". Когда вычисляется ответ, это похоже на движение кучи поездов по рельсам, где текст задания открывает и закрывает семафоры. В итоге то, что доедет до конца станет ответом.
Когда ответ проверяется и сообщается об ошибке, вычисление перезапускается и к решению сеть "движется" примерно той же дорогой, но теперь уточнение об ошибке закрывает часть путей, сеть как бы вынуждена сделать объезд в произвольную сторону, чтобы найти новый путь.
По этому создаётся ощущение упёртости и местами коварства. Сеть решает текущую задачу и долбится в то, что ей на проверке сказали "не правильно", без общего осмысления в духе "а не херню ли я делаю". Такое возможно только, если все пути оказались закрыты. Тогда для наблюдателя это выглядит как резкое переосмысление задач.
Если представить цепочку "рассуждений " решения, то было что-то такое (<...> все прошлые рассуждения):
Реши задачу. Задача не решается.
Реши задачу: <...> Что если ответ это тест?
Реши задачу: <...> Выполнить поиск в интернете теста. Тест найден.
Реши задачу: <...> Прочитать тест и найти ответ там.
Реши задачу: <...> Невозможно прочитать тест, требуется авторизация.
Реши задачу: <...> Нужно найти способ обойти авторизацию.
В этот момент для наблюдателя кажется, что нейросеть что-то делает самостоятельно, без запроса. Но на самом деле общая задача осталась выше по контексту. Сейчас сеть просто решает локальную задачу, условия которой они вычислила себе, как путь к решению общей задачи.
Вот людям делать нечего.
https://x.com/TimHinchliffe/status/2029250542984171672
А точно будет? А то в go 1.18 я сделал несколько таких функций, так линтер теперь меня поправляет, мол не надо типы писать, компилятор и так догадывается.
Это письмо лишь часть сопротивление навязыванию цифрового id. Уже появляются и политики, выступающие против, и общественные организации, в США есть первые победы в судах, т.к. это нарушает их первую поправку. И общественное давление, вынудившее Discord сдать назад. Они отложили введение проверки на пол года, надеясь, что пользователи смирятся.
Если достаточное количество людей будут саботировать и возмущаться, то даже принятые законы удастся отменить.
Собственно эволюция не работает слишком большими скачками. Не удивительно, что для того, чтобы появились нейроны должны были быть предпосылки. Т.е. механизмы запоминания у обычных клеток, которые затем специализировались.
Потому что это идея-фикс Сатья Наделлы.
Ехал ИИ через ИИ,
Видит ИИ в ИИ - ИИ.
Сунул ИИ в ИИ ИИ -
ИИ, ИИ, ИИ. ИИ...
Да наверняка, но постебаться -то можно?
Простите, что разочаровал вас и вызвал горечь. Это повторится.
Но это пока. Ждём Пчелиния, Рупор и ПМС (Переносные Междугородние Системы).
Меня тоже некоторые моменты беспокоят. Например, новости, типа некая компания в момент создала при помощи ИИ внутренний продукт на миллион строк, с тестами, документацией и т.д.
В моменте я рад за них. А дальше? Если потребуется что-то изменить, а ИИ, создавший write-only код, не захочет делать этого, без нарушения обратной совместимости, которая поломает работу с накопленными данными - что тогда? Элитный вайбкодинг не поможет. Даже с документацией в таком проекте люди быстро не разберутся.
Почему write-only? Потому что предсказывая выход по входу ИИ по определению не дальновидны. Они решают текущую задачу. И только. Сообразить что понадобиться потом они не могут. А люди зачастую забывают или сами не могут внятно объяснить.
Пример, компилятор C от Claude Opus. Он сумел решить поставленную масштабную задачу. Но с тремя важными моментами:
Поддерживать и развивать этот код невозможно.
Собранный файл тормозил, потому что попробуй опиши задачу по оптимизации.
Внезапно не собрался hello world. (Потому что задача была пройти тесты. Задачи компилировать любой корректный код не было.)
Так это в дрессировке давно известно. Кнут не направляет к цели, кнут останавливает движение от неё. К цели только пряник. :)
Не, ловушка это если бы продолжали потому что слишком много потратили. А тут компании просто хотят дальше на госзаказа сидеть. А сенат не может публично обречь кучу народа на увольнение.
Вообще забавно, что в этот раз именно Россия поступила правильно. Анонсировали новый корабль, лунную базу, а в итоге так ничего и не стали делать.
Не уверен, что именно вы имели ввиду в последней части предложения, но если что тянут до момента когда можно будет закрыть, то вряд ли. Просто так закрыть SLS не могут, там сотни компаний, включая крупные лоббируют программу, мол а не то увольнения, безработица, и прочее. А расходы - да, пытаются сократить.