Александр @aleksanderL
User
Information
- Rating
- Does not participate
- Location
- Санкт-Петербург, Санкт-Петербург и область, Россия
- Date of birth
- Registered
- Activity
Specialization
Project Manager, Product Manager
Lead
From 300,000 ₽
JavaScript
Node.js
Java
И? У людей галлюцинаций не бывает?
Ошибся, сделал действие, оценил обстановку, пошёл дальше искать решение.
Как раз возможность ошибиться, заново оценить обстановку и выбрать корректирующие действия интересна в этой концепции.
Даже если принесёт не тот хлеб, то может решить пойти ещё раз сходить.
Экспериментально мы видим, что может. Возникает вопрос, а насколько люди примитивны в своём мышлении.
Про LLM и примитивность модели трансформера.
Можете мне минус поставить, но я много общался с разными людьми и нейрофизиологию изучал. Человеческое мышление очень примитивное, оно вывозит за счёт большой вычислительной мощности и десятилетиях обученя.
Ваша ошибка в том, что вы переоцениваете человеческое мышление и переводите его в разряд чего-то уникального.
У человека кроме языковой модели есть куча других подсистем, ясен пень у него возможностей больше чем у простой бытовой языковой модели. Пихать математику в языковую модель - это вообще странная придурь. Это как пытаться заливать бензин в электромобиль. Автомобиль же!
Математика - это необходимый признак мышления? С чего вдруг? В целом наверное можно даже научить LLM в столбик считать, но для этого есть другие более эффективные инструменты.
Ошибка всех доморощенных философов в том, что они мышлением считают только комплекс всего, что есть у человека, другие отбрасывают по принципу сравнения с человеком.
Человек столбиком считать умеет, а осьминоги нет - мышления нет! Ещё других дураками считают...
Ну его "наслаждение" и "страдание" можно реализовать, чтобы робот "страдал" если не продвигается к цели и выполнял более активные и рискованные действия для поиска обходных путей.
Например, если робот дошёл до пешеходного перехода, и вместо светофора увидел Луну и думает что ему горит красный свет, вот он стоит уже 5 минут не продвигается к цели, и начинает страдать всё сильнее, начинает искать обходные пути в том числе может принять решение пойти на другой перекрёсток.
Только чтобы меня тут тапками не закидали, уровень страдания - это просто коэффициент выбора более рискованных действий и необходимости поиска альтернативного пути.
Я прекрасно понимаю, что такого робота никто не создаст для коммерческого использования скорее всего НИКОГДА, только если в военных целях. Потому что это будет очень сложно, дорого и мало полезно.
Вы не понимаете мою основную мысль, она не в создании реального робота, а в принципиальной возможности создания мыслящего субъекта, который имеет цели и стремится к ним, анализирует и реагирует на совершенно нестандартные ситуации. И да, чисто теоретически сможет сходить за хлебом.
Что сделать самому? Робота дома собрать?
Я провёл эксперименты с модулем принятия решений, он отлично для бытовой лингвистической модели справляется. Я не ожидал что чат сможет настолько хорошо ориентироваться в обстановке по минимальным входным данным.
В контексте разговора про сознание, информация с камеры это просто зрительные данные, если уж CV, то это ещё детекция объектов. Вы работали с детекцией широкого списка объектов хотя бы через Копайлот? Он весьма хорошо детектирует и классифицирует всё что видит на изображении.
И к сознанию это компьтерное зрение имеет весьма опосредованное отношение. Нам для сознания интересен именно модуль принятия решений и планирования.
Если есть план, то дальше уже нужен интерфейс для воздействия на реальность. Но это уже после сознания и принятия решений. Ясен пень никто вам не соберёт на коленке робота, который реально сходит за хлебом.
Я создавал промышленные системы компьютерного зрения. CV - это отдельный модуль детекции, логика принятия решений на его основе - это другие модули. Само зрение не принимает никаких решений (если не упороться до того, что считать распознавание образа за какое-то "принятие решения").
Так у нас пока есть только один модуль принятия решений. Система по определению состоит из взаимодействующих модулей.
Всегда однозначно и абсолютно верно? Даже вы не можете понять, что я хочу вам донести. Тоесть вы думаете, что поняли, но поняли неверно.
Коммуникация между людьми - это жесть какая сложная задача. Не будет ИИ который ВСЕГДА абсолютно точно будет понимать людей.
Действительно аргумент. Левый чел сказал, что "Да" - надо верить на слово.
Мы к этому диалогу пришли из обсуждения "может ли система ИИ обладать сознанием". Я привожу пример модели, которая кое-как приближается к "осознанности" своих действий.
Вы тут же как контр аргумент приводите то, что так же и человек может рассуждать 30 лет назад и робот нам не нужен. Речи про превосходство над человеком вообще не было.
Причём тут нужен / не нужен? Оно рассуждает и вполне себе мыслит, да вы думаете, что это всё фейк и симуляция (сами не пробовали, не видели, видели новости про теслу).
Но оно без каких либо вводных с моей стороны вполне логично понимает картину и механику мира, да в текстовом виде. Ну нет у ЧатаГПТ другого интерфейса в мир.
Если вы дадите ему интерфейс к автомобилю, то он пойдёт достигать цели, по пути создаст кучу пробок, может и в ДТП попадёт, но это не отменяет того, что такая система будет вполне себе простенько мыслить и стремиться найти любой способ достичь цели.
CV модуль распознаёт луну как светофор и это не проблема компьютерного зрения?
А чего тогда? Типа: ИИ видит луну, понимает что это луна, но решает что пусть это будет жёлтый сигнал светофора?
Что за бред?
А что они смогут сделать? Робота построить?
Такой проект потребует невероятных вложений, а результат - какой? За хлебушком сходит штука ценой сотни килобаксов? Да и робот со свободой воли - непредсказуемая штука. Кто за него отвечать будет?
Бостон дайнамикс там развлекается, бюджет у них есть. Но коммерческий продукт маловероятен на таких алгоритмах.
Вы опять припёрлись с Теслой?
Она вообще другого назначения модель. Коммерческий продукт не должен допускать даже вероятности ошибок. В ней не должно быть никаких мыслительных процессов.
Ваш пример с луной - это проблема чисто компьютерного зрения. К модулю "планирования" никакого отношения не имеет.
Можете мне ещё минус влепить, вам же нравится это делать. Я к сожалению не сумел достаточно точно сформулировать пример.
Идея была в возможности планировать, искать решение задачи в нестандартных условиях с ошибками, проблемами, повторными попытками.
Тут один человек более-менее понял, остальные просто пошли рассказывать что ИИ им не достаточно тот хлеб принесёт.
Человек куда сложнее языковой модели, обладает куда большими вычистителтными ресурсами, имеет огромное количество инструментов, десятки лет непрерывно обучал свою нейронную сеть.
У вас реально претензия, что чатГПТ не дотягивает до человека?
Мне было интересно поделиться опытом, может кого это сподвигнет к более подробным исследованиям. А если всё пытаться обосрать, то действительно лучше ничего не делать.
Можно в самом ГПТ подключить CV. И я уверен, что оно отлично будет ориентироваться в обстановке. А так статья потонула в минусах от тех кто даже не попытался понять в чём идея.
Даже вы пытаетесь даказать мне, что модель несовершенна, так это условная модель, она по определению несовершенна. Вы цепляетесь к мелким косякам, вместо того чтобы посмотреть на потенциал концепции.
Вполне может что-то не увидеть, потом на следующем цикле увидит. ЧатГПТ по картинкам достаточно лаконично фильтрует объекты.
Это не ошибка, а вполне логичная гипотеза. Даже если он не окажется сотрудником, то вполне сможет помочь. А если нет, то следующий цикл.
Нет, мне это не нужно. Хотел поделиться интересными мыслями, а всё свели к хиханькам над гуглом и пиццей.
С чего вы взяли что вашу любую? Он будет выполнять свою задачу, которую себе поставил, пусть и по вашей просьбе.
Что именно сломается? Тут обученный бизнес-аналитик требования с заказчика не всегда может нормально собрать, а вы от ИИ что хотите?
Это Копилот, он тупенький. Не GPT-4
Вы сами то в уме сможете это сделать?
Они и не должны умножать. Они должны уметь подумать, как они могут перемножить и использовать подходящий инструмент. Тот же калькулятор или математическое API.
Вы хотели чтобы ИИ уточнял что именно надо, пожалуйста. В промт алгоритма добавил строку "он должен проанализировать что требуется уточнить в постановке цели":
У меня и GPT-4 на сегодня кончился, остался совсем примитивный копилот, про кофе он не понял, зато задаёт теперь уточняющие вопросы: