Comments 9
Я так понимаю, Сэр, что Вы создали новый аккаунт на Хабре, чтобы продолжать что-о публиковать - это похвально, действительно похвально.
Но теперь к главному. Я читал все три статьи, которые Вы опубликовали, можно Вас немного расстроить? У Вас не получится создать AGI, даже близко не подойдёте к нему. Ответы очевидны:
Вы не понимаете принципов работы ИИ;
Скажите пожалуйста самое главное правило при прохождении строгого теста Тьюринга;
Вы опубликовали бредовый "манифест" (самая первая статья из этого цикла статей на Вашем "мертвом" акке), который был полностью сгенерирован при помощи LLM, но не опубликовали ни строчки информации о проблемах интеграции в общество ИИ и способов их решения
...
Я мог бы и дальше продолжать и продолжать перечислять, но не горю желанием. Прошу Вас задуматься над моими словами, почему Вы не сможете создать ИИ, а не то что AGI. Сами для себя перечислите каких знаний и компетенции Вам не хватает
Дорогу осилит идущий. Даже если у него вероятность успеха стремится к нулю, то у скептика ровно 0.
У Вас был плохой жизненный или профессиональный личный опыт? ИИ - это не просто техническая реализация. Будь Вы хоть ультра-супер-пупер-мега программистом, нельзя создать ИИ. Чтобы создать действительно настоящий ИИ, то надо обладать азами знаний в таких областях как: нейробиология, психология, психиатрия, философия, история, и т.д. Это уже подразумевает, что "идущих", должно быть несколько
Ну что же вы на личности переходите. Вашему отцу не понадобилось знания нейробиологии, чтобы вы появились на свет.
Если выбирать, из всех тех профессий что вы перечислили, то без программиста точно не обойтись. А вот без остальных, по правилу рисков, можно избавится от любого. А значит от всех.
Программисту не привыкать вникать в предметную область, перед созданием программы. В современном мире любые материалы доступны для этого.
Впрочем, также и нейробиолог может стать программистом и сделать ИИ. aGI, и любую другую программу. Будучи программистом.
Я не переходил на личности, ни в коем случае - это был вопрос, а не утверждение. Вопрос можно? Как Вы без знаний в когнитивистике сможете провести даже простейший тет Тьюринга?.Моё личное мнение, можно создать "тупую говорилку" и без технологии ЛЛМ, я такую делал в конце 90ых. Но если всё таки нацелены на создание настоящего ИИ, то должна быть полноценная команда, в которой будут присутствовать люди с разной специализацией. Как можно провести мини-тесты на когнитивные способности у ИИ, если я просто "программист". Что тогда делает этот программист, который не видит полной картины, не обладает специфическими знаниями? Что он создаёт? (риторический вопрос, а не про автора)
P.S.: Нейробиолог конечно может стать программистом, но не станет ХОРОШИМ спецом в программировании. Он нашёл свой путь в жизни - стать нейробиологом. Я нашел свой путь в компах, я хороший программист, но даже, если я завтра займусь только нейробиологие и буду отдавать все свое свободное время, то лет через 10 я смогу что-то знать и понимать. Каждый должен заниматься своим делом!
Понятно. Вы не верите в будущее LLM, как технологии ИИ + AGI. Ок. Давайте зайдем издалека. Проведем с Вами мысленный эксперимент(сродни демону Максвела) . Допустим у нас есть бесконечная база данных, и мы её заполнили бесконечными правильными ответами на все вопросы в мире, включая ещё не придуманные (брутфорс никто не отменял для бесконечности, да?), так, чтобы проходить ВСЕ придуманные или ещё не придуманные когнитивные тесты.
Предвещая Ваш вопрос "а какие ответы мы записываем в эту СУБД?", отвечаю: Допустим мы усредняем всех людей до Базисного (Alingned) человека. С устойчивой психикой, взглядами, правилами, которые в современном обществе считаются достойным поведением. Абсолютно уровновешенные ответы абсолютно умного всезнающего инт-го челокека.
Теперь по эксперименту "китайская комната", мы сажаем СУБД беседовать с вами и отвечать на Ваши тесты. Можно ли считать эту бесконечную СУБД 1)ИИ, 2) AGI, 3) человеком? И если нет, то почему?
В ЛЛМки я не верю и тому есть док-ва еще с начала 2010 годов: 1. не энергоэффективная. Рост затрат энергии растет по экспоненте 2. "неповоротливость" 3.Это генератор текстов и ничего более. На один и тот же вопрос, можно получить разные варианты ответов. Как пример: если я Вам буду задавать один и тот же вопрос и Вы мне будете на него отвечать всегда одинаково. Да порядок слов может отличаться, но смысл всегда будет один. Но в случае ЛЛМ - это просто полностью отличающиеся ответы
Теперь по эксперименту "китайская комната", мы сажаем СУБД беседовать с вами и отвечать на Ваши тесты. Можно ли считать эту бесконечную СУБД 1)ИИ, 2) AGI, 3) человеком? И если нет, то почему?
Я уже вел аналогичные диалоги у автора @Kamil_GR
Я бы ответил - нет переживания, нет присваивания процессов, мы видим уникального философского зомби.
Сейчас на kaggle идет соревнование ARC Prize 2025, в нем вы можете проверить свои идеи экспериментально.
AGI: от идеи к реализации, часть 3: архитектура трансформер и идеи для улучшения