В человеке заложены способности, покруче, чем у ИИ
Их можно моделировать. Проблема что многие вещи машина выполняет долго.
Я сейчас делаю одну крутую штуку и вот есть одно занимательное поведение которое очень легко устроено в мозге но трудно моделировать алгоритмически. Мы можем создавать рассказы с 2 параллельными историями которые как-то пересекаются, и мы интуитивно понимаем что эти истории могут пересекаться по времени-месту-ассоциациями. И если моделировать поведение как цепочки мыслей, то извлечение смежных связей довольно мудрёно будет работать и часто придётся дёргать БД. Если моделировать через инъекции мыслей в широкое контекстное окно LLM то качество понимания уже напрямую зависит от качества модели и её понимания, что иногда недопустимо. (малые сети херово с длинными контекстами работают, а коммерческие слишком дорогие для такой системы)
Нужно разрабатывать специализированные сетки для различных когнитивных нагрузок, а это всё долго и дорого. Потому пока нужно создать инструмент который сможет за кучу времени, но сам, разобраться как сделать эти специализированные сети. И когда оно будет работать быстро и дёшево, тогда заживём
Mission Planer это вроде вообще софтина из 2 файлов которая в одном потоке работает, если мне память не изменяет xD. "Новый" QGroundControl выглядит по живее, но они заманали каждый комит полностью переработать всё. Я написал кастом сборку а сейчас узнаю что они убрали переопределения ресурсов и половину функционала переделали и теперь не собирается ничего. Круто
Я сейчас разрабатываю аналитические системы и даже представить себе не могу как не тренировать модель на пользователях.
Ты хочешь улучшить модель в юриспруденции, но для её улучшения ты должен нарушить соглашение и обучать модель на их данных. А где мне ещё брать актуальные датасеты? Что бы не палится нужно разрабатывать извлекатор знаний которые бы маскировали их удаляя конфеденциальную информацию.
Современные LLM модели умеют очень много, но всё зависит от формулировки. Если использовать термины на которых они обучаюсь то качество в разы лучше. (Можно просто спросить у ИИ что оно знает по теме) Я сейчас делаю что-то похожее на ACT-R систему и я, без знаний NLP, просто прошу ИИ разобрать предложения, добавляем всякие парсеры и валидаторы и приложение готово.
Через сколько лет что? Придумают системы анализа и проектирования которые станут доступны? Наверное лет так через 5 минимум. Ибо только-только модели начали обучать на агентность, а значит минимум год-два обкатывать это будут. И учитывая что досихпор никому не интересны исследования по когнитивке мы ещё долго не увидим чего-то реально интересного. Может алгоритмический ИИ-софт появится чуть раньше чем "реально думающий". (уже выпускают, но для внутрянки компаний)
ЗЫ Для меня "алгоритмический" и "думающий" разное, ибо первое подразумевает что в него зашивают некую логику по решению задач относительно которой он не может отступить, когда второе зачастую оперирует множеством процессов для решения задач.(разница в количестве, да) Банально посчитать различные методы познания и как мы ловко можем переключаться между ними при решении задач. Промоделировать это алгоритмически довольно нетривиальная задача, а выбрать какой-то один эффективный для чего-то метод относительно просто.
Я вам рекомендую всё же давать точные понятия различным словам и именам. Потому что иначе начинается путаница, буквально чистая диалектика. Если у вас будет строгий терминалогический аппарат, то вас будет гораздо легче понять, даже если ваши "слова" не значат тоже самое что для других людей (некоторые философы античности этим грешили)
Как и 80% всех LLM которые были созданы в течении последних двух лет. Я строил всякие забавные тестики и уже phi3 подходит для решения задач через агентные системы, а LLM уже год исполнился, что по текущим меркам уже много.
Тут срач в основном за терминологию. ИИ это когда в процессе участвуют только различные математические структуры из которых этот ИИ и состоит. Вот ты создал ИИ которая умеет писать в специальную память LSTM и извлекать от туда данные = ты создал ИИ с настоящей памятью! Или ты взял готовую модель, не обучал её а просто спарсил её ответы как SQL запросы и просто на следующей итерации подкидывал ответы = ты создал ИИ с настоящей памятью? Скорее всего нет, это уже "ИИ программа" или "агентный ИИ"
Если коротко - машина стоит дешевле только там где минимальная ЗП от 3К баксов, в остальном люди в разы дешевле. Да это растянуто по времени но экономика говорит что человек стоит в разы дешевле покупки сервера для 1 робота. Если это не так, тогда скажи сколько стоит душа в регионах РФ если там 3 ребёнка и заработок семьи меньше 100К в месяц?
программный комплекс один раз обучил
Проблема что СЕЙЧАС эти комплексы стоят безумных денег, а самые качественные из них вообще на LLM работают которые жрут просто безумное количество ресурсов. Это может окупится только когда тиражи будут миллионные, но тогда планетарный энергокризис вероятнее начнётся чем столько ЦОД-ов построить успеют.
В целом я ожидаю когда сделают реально интеллектуальную систему анализа и проектирования чего-бы то нибыло. Тогда она сама сможет исследовать нейронауку и найти как сделать энергоэффективных роботов не требующих терабайты оперативки с 100ТБс на борту. И вот тогда то заживём, ух! Но не скоро ещё.
Это конечно хорошо, но там походу всё тот же мульти-агент. Просто там сверху допилена интересная система аналитического решения задач, что тоже большая заслуга, я сам над этим сейчас бьюсь, но это не "один ИИ" а "много маленьких". Так-то под капотом всё тот же Gemini используется, синкэбаут
Если бы за это ещё деньги платили... Подумаю на досуге, спасибо
Самый минус софта в том, что чем меньше модель, тем хуже она понимает тонкости языка. Какой-нибудь Gemma3 12B (которая на 8ГБ карточках запускается) вроде правильно на русский переводит но почему-то использует неправильные морфемы. Малые Китайцы хорошо справляются, но постоянно их уводит в Китайский и чем меньше модель те чаще это происходит. Короче просто так взял рандомную модель и запустил не получится, надо ещё и этап проверки написать, но я просто модель по больше запускал и нормально.
Развитие самих LLM пошло по мультимодальности, новых архитектурах для больших моделей (типо МоЕ которое охренеть как круто работает Qwen3 A30 тестил, я в восторге) и агентности, а качеству в данных уже почти потолок. Новые LLM уже лучше справляются с ролью инструмента, чем буквально год-два назад. В остальном я прогресса какого-то не сильно заметил. И в целом где-то читал, что исходя из тестов скорость роста качества одной модели сильно замедляется. Мол, каждые новые 5% будут даваться сложнее в квадратичной сложности, если не придумать что-то принципиально новое.
На счёт агентности, я писал себе простое приложение переводчик. С начала я просто просил LLM переводить текст на язык Х и делало оно это ну, условно нормально. Но когда я создал кучу агентов которые проводили анализ текста всех видов что смог найти а потом последний агент переводил текст с учётом всей этой информации качество переводов стало просто превосходным. Потратил правда я на это раз в 6 больше времени, но меня интересует только качество)
Изучал на днях вопрос об экономической эффективность роботов даже с учётом удешевления стоимости этих самых роботов. Грустно но людей не заменят. Человек это биомашина которой нужна только еда и которая из коробки умеет решать почти любые виды когнитивных задач, когда машинный интеллект это больше специализированная вещь. Можно создать идеальный сортировщик, но не сортировщик-упаковщик-грузчики- машинист, синкэбаут.
Мы всегда можем создать неэффективную машину которая бы создавала эффективные машины, но сейчас сделать что-то универсальное будет стоить огромных денег, ибо ему придётся решать ОГРОМНЫЙ спектр задач, что требует огромных вычислительных ресурсов. С текущими направлениями в ИИ мы ещё долго не увидим быстрых и автономных систем. Сейчас прогресс пошёл куда-то в сторону "любой ценной но сделайте так чтоб оно само принимало решения, а дальше уже посмотрим"
Систематизировать знания полезно. Но меня сильно удивляло когда я перешёл с verilog на C#/C± и нужно было знать эти паттерны, а это буквально единственный способ реализовать конкретную логическую схему в железе, а у программистов для этих случаев имена есть. Ляпота
ООП синглтоны - это фу бяка-бяка, вы что-то не так надизайнили
В целом они правы, но это элементы сверхразумного дизайна ПО. Когда всё есть объект ими гораздо легче манипулировать, даже на уровне операционной системы. Самые надёжные ОС это тру микроядерные где абсолютно всё представляется объектами и почти нет синглов.
Правильно написать код чтоб это не превратилось в абстрактную кашу очень сложно, тут да этим ООП и грешен. Потому народ по умнее пытается придумать всякие "правила" чтоб остальные не превращали код в месиво и его можно было понять. (ЗЫ работал много раз со студентами, их понимание ООП в конце скатывается в какой-то ужас из-за чего они "тратят бессонные ночи добавляя кнопку на панель")
Их можно моделировать. Проблема что многие вещи машина выполняет долго.
Я сейчас делаю одну крутую штуку и вот есть одно занимательное поведение которое очень легко устроено в мозге но трудно моделировать алгоритмически. Мы можем создавать рассказы с 2 параллельными историями которые как-то пересекаются, и мы интуитивно понимаем что эти истории могут пересекаться по времени-месту-ассоциациями. И если моделировать поведение как цепочки мыслей, то извлечение смежных связей довольно мудрёно будет работать и часто придётся дёргать БД. Если моделировать через инъекции мыслей в широкое контекстное окно LLM то качество понимания уже напрямую зависит от качества модели и её понимания, что иногда недопустимо. (малые сети херово с длинными контекстами работают, а коммерческие слишком дорогие для такой системы)
Нужно разрабатывать специализированные сетки для различных когнитивных нагрузок, а это всё долго и дорого. Потому пока нужно создать инструмент который сможет за кучу времени, но сам, разобраться как сделать эти специализированные сети. И когда оно будет работать быстро и дёшево, тогда заживём
Mission Planer это вроде вообще софтина из 2 файлов которая в одном потоке работает, если мне память не изменяет xD. "Новый" QGroundControl выглядит по живее, но они заманали каждый комит полностью переработать всё. Я написал кастом сборку а сейчас узнаю что они убрали переопределения ресурсов и половину функционала переделали и теперь не собирается ничего. Круто
Я сейчас разрабатываю аналитические системы и даже представить себе не могу как не тренировать модель на пользователях.
Ты хочешь улучшить модель в юриспруденции, но для её улучшения ты должен нарушить соглашение и обучать модель на их данных. А где мне ещё брать актуальные датасеты? Что бы не палится нужно разрабатывать извлекатор знаний которые бы маскировали их удаляя конфеденциальную информацию.
Вспоминаем новость что кто-то из директоров в OpenAI связан с разведкой США и продолжаем плодить конспирологические спекуляции
Это уже какой-то метавёрс получается. Там и PODSOSAL и VSOSAL и NESOSAL и прочие диалекты
Нужно донести эту гениальную мысль до англоговорящих и тогда посмотрим как залетит
Раньше была поддержка и челы делают кастомные образы для запуска андроид приложений "нативно".
А смысл? Квантованные не сильно в качестве падают. Судя по тестам до q6_0 падение макс 10%, а вот дальше уже плохо всё.
Есть такое
Современные LLM модели умеют очень много, но всё зависит от формулировки. Если использовать термины на которых они обучаюсь то качество в разы лучше. (Можно просто спросить у ИИ что оно знает по теме) Я сейчас делаю что-то похожее на ACT-R систему и я, без знаний NLP, просто прошу ИИ разобрать предложения, добавляем всякие парсеры и валидаторы и приложение готово.
Через сколько лет что? Придумают системы анализа и проектирования которые станут доступны? Наверное лет так через 5 минимум. Ибо только-только модели начали обучать на агентность, а значит минимум год-два обкатывать это будут. И учитывая что досихпор никому не интересны исследования по когнитивке мы ещё долго не увидим чего-то реально интересного. Может алгоритмический ИИ-софт появится чуть раньше чем "реально думающий". (уже выпускают, но для внутрянки компаний)
ЗЫ
Для меня "алгоритмический" и "думающий" разное, ибо первое подразумевает что в него зашивают некую логику по решению задач относительно которой он не может отступить, когда второе зачастую оперирует множеством процессов для решения задач.(разница в количестве, да) Банально посчитать различные методы познания и как мы ловко можем переключаться между ними при решении задач. Промоделировать это алгоритмически довольно нетривиальная задача, а выбрать какой-то один эффективный для чего-то метод относительно просто.
Я вам рекомендую всё же давать точные понятия различным словам и именам. Потому что иначе начинается путаница, буквально чистая диалектика.
Если у вас будет строгий терминалогический аппарат, то вас будет гораздо легче понять, даже если ваши "слова" не значат тоже самое что для других людей (некоторые философы античности этим грешили)
Как и 80% всех LLM которые были созданы в течении последних двух лет. Я строил всякие забавные тестики и уже phi3 подходит для решения задач через агентные системы, а LLM уже год исполнился, что по текущим меркам уже много.
Тут срач в основном за терминологию. ИИ это когда в процессе участвуют только различные математические структуры из которых этот ИИ и состоит. Вот ты создал ИИ которая умеет писать в специальную память LSTM и извлекать от туда данные = ты создал ИИ с настоящей памятью! Или ты взял готовую модель, не обучал её а просто спарсил её ответы как SQL запросы и просто на следующей итерации подкидывал ответы = ты создал ИИ с настоящей памятью? Скорее всего нет, это уже "ИИ программа" или "агентный ИИ"
Если коротко - машина стоит дешевле только там где минимальная ЗП от 3К баксов, в остальном люди в разы дешевле. Да это растянуто по времени но экономика говорит что человек стоит в разы дешевле покупки сервера для 1 робота. Если это не так, тогда скажи сколько стоит душа в регионах РФ если там 3 ребёнка и заработок семьи меньше 100К в месяц?
Проблема что СЕЙЧАС эти комплексы стоят безумных денег, а самые качественные из них вообще на LLM работают которые жрут просто безумное количество ресурсов. Это может окупится только когда тиражи будут миллионные, но тогда планетарный энергокризис вероятнее начнётся чем столько ЦОД-ов построить успеют.
В целом я ожидаю когда сделают реально интеллектуальную систему анализа и проектирования чего-бы то нибыло. Тогда она сама сможет исследовать нейронауку и найти как сделать энергоэффективных роботов не требующих терабайты оперативки с 100ТБс на борту. И вот тогда то заживём, ух!
Но не скоро ещё.
Это конечно хорошо, но там походу всё тот же мульти-агент. Просто там сверху допилена интересная система аналитического решения задач, что тоже большая заслуга, я сам над этим сейчас бьюсь, но это не "один ИИ" а "много маленьких".
Так-то под капотом всё тот же Gemini используется, синкэбаут
Если бы за это ещё деньги платили... Подумаю на досуге, спасибо
Самый минус софта в том, что чем меньше модель, тем хуже она понимает тонкости языка. Какой-нибудь Gemma3 12B (которая на 8ГБ карточках запускается) вроде правильно на русский переводит но почему-то использует неправильные морфемы. Малые Китайцы хорошо справляются, но постоянно их уводит в Китайский и чем меньше модель те чаще это происходит.
Короче просто так взял рандомную модель и запустил не получится, надо ещё и этап проверки написать, но я просто модель по больше запускал и нормально.
Развитие самих LLM пошло по мультимодальности, новых архитектурах для больших моделей (типо МоЕ которое охренеть как круто работает Qwen3 A30 тестил, я в восторге) и агентности, а качеству в данных уже почти потолок. Новые LLM уже лучше справляются с ролью инструмента, чем буквально год-два назад. В остальном я прогресса какого-то не сильно заметил. И в целом где-то читал, что исходя из тестов скорость роста качества одной модели сильно замедляется. Мол, каждые новые 5% будут даваться сложнее в квадратичной сложности, если не придумать что-то принципиально новое.
На счёт агентности, я писал себе простое приложение переводчик. С начала я просто просил LLM переводить текст на язык Х и делало оно это ну, условно нормально. Но когда я создал кучу агентов которые проводили анализ текста всех видов что смог найти а потом последний агент переводил текст с учётом всей этой информации качество переводов стало просто превосходным. Потратил правда я на это раз в 6 больше времени, но меня интересует только качество)
Изучал на днях вопрос об экономической эффективность роботов даже с учётом удешевления стоимости этих самых роботов. Грустно но людей не заменят. Человек это биомашина которой нужна только еда и которая из коробки умеет решать почти любые виды когнитивных задач, когда машинный интеллект это больше специализированная вещь. Можно создать идеальный сортировщик, но не сортировщик-упаковщик-грузчики- машинист, синкэбаут.
Мы всегда можем создать неэффективную машину которая бы создавала эффективные машины, но сейчас сделать что-то универсальное будет стоить огромных денег, ибо ему придётся решать ОГРОМНЫЙ спектр задач, что требует огромных вычислительных ресурсов. С текущими направлениями в ИИ мы ещё долго не увидим быстрых и автономных систем. Сейчас прогресс пошёл куда-то в сторону "любой ценной но сделайте так чтоб оно само принимало решения, а дальше уже посмотрим"
Систематизировать знания полезно. Но меня сильно удивляло когда я перешёл с verilog на C#/C± и нужно было знать эти паттерны, а это буквально единственный способ реализовать конкретную логическую схему в железе, а у программистов для этих случаев имена есть. Ляпота
В целом они правы, но это элементы сверхразумного дизайна ПО. Когда всё есть объект ими гораздо легче манипулировать, даже на уровне операционной системы. Самые надёжные ОС это тру микроядерные где абсолютно всё представляется объектами и почти нет синглов.
Правильно написать код чтоб это не превратилось в абстрактную кашу очень сложно, тут да этим ООП и грешен. Потому народ по умнее пытается придумать всякие "правила" чтоб остальные не превращали код в месиво и его можно было понять. (ЗЫ работал много раз со студентами, их понимание ООП в конце скатывается в какой-то ужас из-за чего они "тратят бессонные ночи добавляя кнопку на панель")
В Яндексе любую нелегальщину легко было искать, а потом начали гайки закружилась. Грустно однако(
(Банально "игра скачать", первое магазины а потом тонна пиратских сайтов)