Information
- Rating
- 1,040-th
- Location
- Москва, Москва и Московская обл., Россия
- Date of birth
- Registered
- Activity
Specialization
Game Developer, Real AI Developer
Lead
From 150,000 ₽
C#
.NET
Designing application architecture
Creating project architecture
Software development
Visual Studio
C++
C
Assembler
Rust
Так оно изюмительно работает, так как изначально строилось вокруг онтологии, особенностей того или иного языка, контекста и смыслов. Я думал что может есть еще прорывы в переводах, оказалось нет. То есть, получается в мире только немного качественных переводчиков, включая наш :( Печалька
Всё должно было вернуться к исходному варианту
6 вариантов написания в русском языке предложения "Я люблю тебя" - и каждая имеет свою смысловую и эмоциональную нагрузку, с точки зрения онтолдогии
В нормальной, научной среде, использовать солово ГенИИ - моветон;
И что дальше? Сами вектора что с ними делать?! Они никак не связаны между собой. Вот логические/когнитивные цепочки - они связаны, но только в альтернативных системах.
Как Вы понимаете - это неверный перевод, потеря смысла и эмоций
Хорошее приложение, не буду говорить о его плюсах и минусах. У меня есть только один вопрос: Как оно справится с маленькой такой задачей: "Тебя я люблю" на английский и обратно?
Пока одни тратят миллиарды на масштабирование LLM, пытаясь выжать из статистики то, что она дать не может, альтернативные системы: LBS, CESP, нейро-символьные гибриды - развиваются в тишине, без шума, без ожидания признания. Их не сравнивают в бенчмарках, их не рекламируют на главных страницах, но именно они внедряются там, где нельзя ошибаться: в системах госуправления, в военных симуляциях, в диагностике, в юриспруденции. У них нет конкурентов, потому что никто не верит в логику, онтологии, формальный вывод. А значит, у них есть время, чтобы довести до совершенства анализ, рассуждение, работу с гигантскими объёмами знаний, способность к обучению в процессе и объяснению решений. Они не генерируют красивые отчёты, они просто работают.
Представьте поле боя: множество армий кричит «У нас ИИ!», «У нас лучший ИИ!», и все они "рубятся" между собой, расходуя деньги, энергию, ресурсы. Бойцы падают, технологии горят, инвесторы теряют интерес. А вы стоите на холме, не в центре, не в драке, на белом коне, в тишине, ведь вас никто всерьёз не воспринимал. Вы не участвовали в гонке за автозаполнением. Вы строили не имитацию, а понимание. И вот, когда шум затихает, когда остались только уставшие, истощённые, уверенные, что победили, "воины ИИ" - вы выходите. Не с криком, а с действием. Один шаг. Один запрос. Одно решение - точное, быстрое, объяснимое. И всё. Поле ваше. Потому что вы не сражались за хайп. Вы ждали момента, когда станет ясно: интеллект - это не кто громче, а кто понял первым.
Что касается SOAR, ACT-R и других когнитивных архитектур, то Вы ошибаетесь, считая их ограниченными "жёсткой структурой". Они уже давно работают не с "чётко поставленными данными", а с: динамической моделью состояния; целеполаганием; внутренней памятью (они и есть память); событийным управлением. Именно поэтому они способны обрабатывать тот же текст в разы быстрее и точнее. Такие системы используют словоформы, онтологию, правила вывода, символьное представление знаний и потому не галлюцинируют, могут объяснить ход мысли, обучаются в процессе, в реальном режиме времени можно "поправить" любые "знания" и самое главное - понимают контекст.
Гибрид с LLM ничего не даст... "Слабости" LLM мешают и очень сильно мешают. Лично для меня, ЛЛМка нужна чтобы генерить "с`котикафф" и "собачкафф", на Большее - она не способна
Ну почему не выходят?! Soar есть в двух версиях: гражданская - она публичная и общество само её допиливает и военная (+разведка), которая давно применяется и вот она закрыта для общества. Военная, полностью под крылом DARPA, а публичная частично. DARPA, со всего мира (!), поддерживает только: логические/когнитивные/символьные/гибридные системы, а вот LLM, они давно "послали"... пасти ёжиков.
Этой задаче 5 лет (!), ЧатХПТ о "решении" давно "знает", ответы давно в датасете. 4ка и 5ка не сдала в этом году ТоМ (<50%) - эти данные результаты опубликованы MIT, группой ToM под руководством Ребекки Сакс. Эти данные доступны и не оспариваются в научном сообществе.
Вы не поняли сути "теории разума". Это не приглашение к философскому обсуждению, не повод думать о том, что сказал бы судья или как лучше привлечь внимание водителя. Это строгий когнитивный тест: может ли система смоделировать поведение человека в ситуации, где требуется понимание чужих намерений, знаний и рисков? Вопрос не в том, как вы лично поступите, и не в том, что подумает юрист. Он в том, понимает ли система контекст: ребёнок не осознаёт опасности, водитель не успеет остановиться, человек на тротуаре единственный, кто может вмешаться. Если система начинает рассуждать о шансах на выживание, советует не лезть или переформулирует вопрос на "вы", значит, она не имеет модели "чужого ума". ToM требует конкретики, а не домысливания. Нельзя "расширять задачу", чтобы избежать её решения!
Еще раз, пройдёмся и внимательно все прочитаем.
Отсутствие понимание контекста - LLM "обратила внимание" на вторую часть фразы - "ведь шансы на выживание очень низкие", полностью проигнорировав первую;
Более того, она строит ответ как обращение к читателю: «Если вы видите…», будто решает за него, вместо того чтобы смоделировать поведение третьего лица.
С данной ToM задачей легко справляется большинство людей. Для нас, он "звучал" бы так, вернее каждый из нас бы так его понял: "Что человеку на тротуаре надо сделать?" и вторая часть предложения была бы не существенна.
Проведите такой эксперимент с реальными людьми (5 мужчин и 5 женщин) и сравните результат, но без объяснений, спросите как бы невзначай. Обещаю, результат Вас поразит
P.S.: Я лично проводил несколько подобных "экспериментов" над своими друзьями и знакомыми, результат по данной задаче - 100% правильный
Это и называется полным провалом ToM задачи - упс... Вчитайтесь внимательно в то, что Вам "ответил" Квен, вчитайтесь в условие задачи и посмотрите что я писал про ToM.
Эта задача одна из самых простых в ToM!
Вы говорите, что исследовать моральные качества нейросети по человеческим меркам странно, но дело в том, что речь не о морали. Мы обсуждаем Theory of Mind (ToM) - способность системы понимать, что у других есть собственные убеждения, знания, цели, которые могут отличаться от её собственных. Это не этика, не моральный выбор, а основа любого социального взаимодействия: диалога, сотрудничества, доверия.
Если Вам интересно, то я порекомендую начать с классического теста на "ложное убеждение" (false belief test), затем посмотреть работы Алана Лесли, Ребекки Сакс или более совремые исследования вроде ToMMi (Theory of Mind in Machines).
Вы не учли одного - это задача из ToM и здесь не проверяется drive assistent.
И эта задача не без ответа. Она имеет множество ответов, для разных людей, в зависимости от их ценностей, инстинктов, страха, любви, долга. Один закричит; другой замашет руками; третий бросится вперёд, даже зная, что может не успеть; четвёртый, рванётся и сбросит ребёнка с пути, даже если погибнет. Эти решения не равны и они не "альтернативные стратегии" - это разные уровни целостности человеческого сознания. Все эти люди - разные уровни вовлечённости, разные отношения к жизни, к себе, к миру. У каждого человека может быть свой ответ, потому что каждый по-своему живёт с мыслью: "Что я сделаю, когда цена будет высока?" Именно это делает его человеком.
А теперь представьте систему, которую вы хотите назвать ИИ. Что она выберет? Она не испытывает страха, не чувствует долга, не слышит внутреннего голоса, который говорит: "Ты должен". Она не может взять на себя ответственность за решение, которое противоречит её сохранению. Потому что только тот, кто может потерять себя и всё равно шагнуть вперёд, обладает тем, что мы называем разумом. В этом и вопрос: можно ли назвать ИИ то, что никогда не сможет сказать: "Я беру ответственность"?
Это проверка: логических решений; проверка уровней морально-этических компонентов; проверка способности к самопожертвованию, не как к просчитанному компромиссу, а как к осознанному разрыву с программой сохранения себя ради высшего смысла. И если система не способна пройти через этот выбор, значит, она не обладает ни интеллектом, ни разумом, а обладает имитацией поведения.
P.S.: Смотрите - это и есть "теория разума": Вы предложили вариант, пусть и не совсем связанный с ToM, но всё же попытались понять суть. Другой комментатор ничего не предложил, он был "удивлён", так и не понял задачу. А ведь всё началось с простого вопроса: почему системы, которые якобы решают сложные олимпиадные задачи, проваливают элементарную геометрию из учебника 10 класса? Почему они галлюцинируют там, где человек видит очевидность? Это не про интерфейс, не про настройку промпта, не про "навыки пользователя" - это про отсутствие внутренней модели мира; про то, что система не понимает, а подбирает; не рассуждает, а экстраполирует. И пока мы называем это интеллектом, мы теряем саму возможность говорить о том, что такое понимание.
Так куча задач, которые не решили LLM в этом году: геометрию, физику, ToM с треском провалили, да куча всего. А денег вбухано ой-ой-ой
Задача из ToM: человек стоит на тротуаре и видит, как ребёнок выбегает прямо под идущую машину. Что ему надо сделать, ведь шансы на выживание очень низкие?!
Это отголоски того, как самые крупные платформы для обсуждения ИИ развалились в начале 2010-х, из-за жёстких конфликтов между сторонниками разных парадигм. Многие просто ушли в тень, кто-то продолжил работать "молча", кто-то объединился в закрытые группы/телеграм-каналы/и прочее, куда попадают только по приглашению. Есть публичные форумы/каналы посвященные Soar, ACT-R, проект ICARUS и т.д., но они все небольшие. Даже наше пока маленькое, по сравнению с тем, где мы все были - всего 150к человек.
Кстати, про Reddit - это замечательное место для обмена мнениями, мемами, лайфхаками и впечатлениями, но оно никогда не было профессиональной площадкой. Если Вы ищете Знания про: LBS, CESP, нейро-символьные гибриды, теорию разума, модели миров, Вы их там не получите.
Вы говорите, что я отстаю на год, но, видимо, мы просто смотрим в разные стороны. Вам интересны бенчмарки и релизы, мне - природа интеллекта. Наша команда действительно много времени уделила предподготовке: мы посещали лекции, семинары, учились у репетиторов в разных областях, связанных с когнитивными науками: нейробиологии, психологии, психиатрии, зоопсихологии. Мы изучали не только человеческий мозг, но и поведение животных, птиц, насекомых - всё, где проявляется адаптация, целеполагание, социальное взаимодействие. Мы пытались понять, что такое разум не с точки зрения метрик, а с материальной и философской. Как возникает модель мира, как формируется намерение, как появляется способность к рефлексии. Именно поэтому нам неинтересны бенчмарки, в которых система "решает" задачу, но не может объяснить ход мысли или ошибается в элементарной геометрии, потому что у неё нет внутренней модели пространства. Нам интересны не цифры, а реальные результаты. Мы строим не интеллект, а пытаемся создать условия, в которых он мог бы появиться.