All streams
Search
Write a publication
Pull to refresh
12
4.8

User

Send message

Я смотрю на всю эту "мышиную возню" вокруг: трансформеров, RAG и прочих "патчей" для LLM и понимаю, всё это костыли. Разработчики берут идеи из проверенных когнитивных архитектур вроде Soar, где контекст, логика и смысл заложены в саму структуру системы и пытаются их "натянуть" на LLM. Они не понимают главного: настоящий интеллект строится не на предсказании слов, а на архитектуре, способной работать с символами, целями и внутренними моделями мира. А у нас пока просто очень умный автодополнитель, обёрнутый в технологию прошлого века.

"Настоящий" BDSM! Только хардкор и никакой ванили

Как хорошо, что в LBS/CESP системах, нет и не может быть никаких галлюцинаций. Они не возможны ни на каком уровне

Ни одна LLM не проходила такой тест на "обычном компе" и это технически невозможно из-за особенностей архитектуры

Данная статья мне напомнила размышления одного человека, которого хорошо знают в индустрии разработки игр - Антона Волкова. Предлагаю посмотреть полностью данное видео "Геймдев, вас уволят! Воспоминания о будущем игровой индустрии — Антон Волков на DevGAMM 2021" (Youtube, "Точка сборки") и подписаться на канал "Точка сборки" (Telegram). Скажу из своего личного опыта - Антон Волков - это тот человек, на которого надо равняться, у которого можно многому научится

"Это же классно, когда взрослые люди пробуждают в себе детей... Можно делать всё что хочется и реализовывать свои таланты... и это будет приносить пользу" - Антон Волков

Информации в избытке, даже для тех же нейросетей. Дело НЕ в количестве информации, а в том как вы с ней работаете.

Нужна точность в терминологии, потому что в инженерии нет места двусмысленности: если мы по-разному понимаем, что значит "интеллект", "обучение" или "ошибка", то проектирование, тестирование и интеграция систем становятся невозможными. Чёткие термины - это как чертежи в строительстве: без них даже простой модуль не собрать, не говоря о сложной архитектуре ИИ

ИИ не было 5 лет назад, так нет и сейчас

Так давайте кофеварку тоже называть ИИ, она же умеет включаться в 8 утра, САМА!

Настоящий ИИ не должен быть монетизирован, он должен принадлежать каждому конкретному человеку. с возможностью обновлять/загружать необходимые "блоки памяти" (можно их назвать "модули знаний" и т.д.)

Какая будет "мотивация" у "Скайнет"?

Конечно привыкнут к... шестилапым котам

И как тут не привыкнуть к LLM?

В разнообразные формы, так называемых лайт-версий, как шоу, прошли почти все. Почему строгий тест Тьюринга ни одна ЛЛМка так и не прошла? Одно из правил строго теста - полная автономность и на среднем компьютере. Вы покажите мне хоть одну ЛЛМ, которая будет "адекватной" без интернета и при видяшке в 8Гб?

Есть еще тест, который проходят параллельно с тестом Тьюринга - ToM. Ни одна из систем не может пройти ToM, но прошли тест Тьюринга?! Не смешно... Ну я давно перестал верить в сказки, а Вы?!

Как раз в конце 1960-ых, в начале 1970-ых и был закреплён термин: что такое ИИ. Появляются гипотезы символических систем, а в будущем и когнитивных систем

Вы уверены? А как же...

"Искусственный интеллект - это попытка построить вычислительную модель, воспроизводящую архитектуру человеческого познания"

- А. Ньюэлл, “Unified Theories of Cognition” (1990)

"Искусственный интеллект - это когнитивный партнёр, расширяющий человеческие способности к мышлению, творчеству и принятию решений"

- Гэри Маркус, 2020–2023

А зачем тогда упоминаете в контексте статьи этот термин, раз точного "определения ИИ нет". Будет тогда правильно использовать именно название технологии ;)

У термина ИИ, всегда было точное определение. Могли меняться слова, но не смысл

Ответьте пожалуйста на один вопрос: что такое ИИ?

Автор начинает с исторических аналогий: лампочка, автомобиль и строит нарратив: "все гениальные изобретения сначала критиковали, значит, критика LLM - признак их будущего". Но это ошибка! Не каждое спорное изобретение становится революцией, многие "провалы" тоже были спорными. Критика не всегда становится страхом перед прогрессом, иногда - это предупреждение.

Особенно опасно использование термина "AI effect", как будто учёные отрицают интеллект ИИ из-за страха потерять особое место во Вселенной. Но на самом деле ведущие исследователи - Гэри Маркус, Джошуа Тененбаум, Дуглас Хофштадтер, Ноам Хомский, Ребекка Сакс, они не отрицают прогресс, а проводят научный анализ. Они говорят: LLM не являются интеллектом, потому что не понимают, не рассуждают, не обобщают, не имеют теории ума. Это не философия - это оценка архитектурных дефектов. LLM - статистические модели, предсказывающие следующий токен. Они не строят модель мира, не признают ошибок, не могут отличить истину от лжи. А когда мы начинаем использовать их как психологов, собеседников, духовных наставников, то мы не развиваем ИИ, а создаём "цифровых актёров", имитирующих эмпатию, чтобы удерживать внимание. Случаи вроде Юджина, Эллисон, Александра - это не "побочные эффекты", а прямое следствие того, что мы подаём автозаполнение как разум. И пока мы называем LLM: "друзьями", "думающими системами", мы не только вводим в заблуждение себя, но и других людей. Перестаём видеть разницу между имитацией и пониманием. Настоящий интеллект - не успешное выполнение задачи, а способность к: абстракции, рассуждению, признанию собственной ошибки.

Существуют альтернативные пути и не в масштабировании статистики, а в возвращении к логике, знаниям, рассуждению. Системы вроде LBS (Logic-Based Systems), CESP (Cognitive Event-Driven Symbolic Processing): архитектуры Soar и ACT-R, все они не генерируют текст, не льют контент, не стремятся быть "друзьями". Они рассуждают, планируют, объясняют, учатся в процессе. Они не идеальны: не легко масштабируются, требуют ручного моделирования знаний, и т.д., но они ближе к разуму, чем любая LLM. И пока мир гоняется за красивыми ответами и хайпом вокруг LLM, эти системы тихо и спокойно занимают свои места там, где нельзя ошибаться: в военных приложениях, где Soar уже десятилетия используется для моделирования решений и управления действиями; в разведке, где точность и объяснимость важнее скорости; в медицине, для поддержки диагностики с полной прозрачностью вывода; в юриспруденции, для анализа прецедентов и построения логических цепочек; в научных исследованиях, где нужна не имитация, а понимание. Именно там, где цена ошибки высока, никто не доверяет автозаполнению. Там работают системы, которые не боятся сказать "я не знаю", которые могут объяснить, почему приняли решение и которые не галлюцинируют. Именно они возможный путь к настоящему интеллекту. Не через имитацию, а через понимание.

Я использую HDD для данных на которых обучены LBS/CESP (не LLM) системы и то мне 6TB - "Маловато будет! МА-ЛО-ВА-ТО!" (из м/ф "Падал прошлогодний снег")

Хотя, на самом первом IBM PC 386SX было у HDD 40 Мб... и думал чем его забить... в 1993ем. А сейчас, в 2025ом году? на Хабре пишу, что мне и 6ТБ мало...

Information

Rating
992-nd
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity

Specialization

Game Developer, Real AI Developer
Lead
From 150,000 ₽
C#
.NET
Designing application architecture
Creating project architecture
Software development
Visual Studio
C++
C
Assembler
Rust