All streams
Search
Write a publication
Pull to refresh
4
0
Александр @aleksanderL

User

Send message

Претензия в том, что языковые модели не стабильны и могут в случайный момент нагенерировать то, что от них не ожидалось и требовалось. Думаю именно такие случаи называют галлюцинациями и они (не только они) являются огромным барьером для вашей концепции.

И? У людей галлюцинаций не бывает?
Ошибся, сделал действие, оценил обстановку, пошёл дальше искать решение.

Как раз возможность ошибиться, заново оценить обстановку и выбрать корректирующие действия интересна в этой концепции.

Даже если принесёт не тот хлеб, то может решить пойти ещё раз сходить.

Простенько мыслить ≠ генерировать следующий токен по «интуиции».

Экспериментально мы видим, что может. Возникает вопрос, а насколько люди примитивны в своём мышлении.

Про LLM и примитивность модели трансформера.

Можете мне минус поставить, но я много общался с разными людьми и нейрофизиологию изучал. Человеческое мышление очень примитивное, оно вывозит за счёт большой вычислительной мощности и десятилетиях обученя.

Ваша ошибка в том, что вы считаете что LLM способны мыслить

Ваша ошибка в том, что вы переоцениваете человеческое мышление и переводите его в разряд чего-то уникального.

Человек понимает, что a × b = взять a b раз = a_1 + a_2 + … + a_b. Вы можете сказать что не все люди это понимают, однако они запоминают алгоритм того же умножения в столбик и решают. Языковые модели так не умеют, у них есть механизм внимания, есть связи между словами, но это не позволяет им «мыслить».

У человека кроме языковой модели есть куча других подсистем, ясен пень у него возможностей больше чем у простой бытовой языковой модели. Пихать математику в языковую модель - это вообще странная придурь. Это как пытаться заливать бензин в электромобиль. Автомобиль же!

Математика - это необходимый признак мышления? С чего вдруг? В целом наверное можно даже научить LLM в столбик считать, но для этого есть другие более эффективные инструменты.

Ошибка всех доморощенных философов в том, что они мышлением считают только комплекс всего, что есть у человека, другие отбрасывают по принципу сравнения с человеком.

Человек столбиком считать умеет, а осьминоги нет - мышления нет! Ещё других дураками считают...

Ну его "наслаждение" и "страдание" можно реализовать, чтобы робот "страдал" если не продвигается к цели и выполнял более активные и рискованные действия для поиска обходных путей.

Например, если робот дошёл до пешеходного перехода, и вместо светофора увидел Луну и думает что ему горит красный свет, вот он стоит уже 5 минут не продвигается к цели, и начинает страдать всё сильнее, начинает искать обходные пути в том числе может принять решение пойти на другой перекрёсток.

Только чтобы меня тут тапками не закидали, уровень страдания - это просто коэффициент выбора более рискованных действий и необходимости поиска альтернативного пути.

Вот я и говорю, сложность вашего гениального плана заключается в том, чтобы правильно сделать и соединить все нужные модули.

Я прекрасно понимаю, что такого робота никто не создаст для коммерческого использования скорее всего НИКОГДА, только если в военных целях. Потому что это будет очень сложно, дорого и мало полезно.

Вы не понимаете мою основную мысль, она не в создании реального робота, а в принципиальной возможности создания мыслящего субъекта, который имеет цели и стремится к ним, анализирует и реагирует на совершенно нестандартные ситуации. И да, чисто теоретически сможет сходить за хлебом.

Я вроде бы прямо написал - не надо мне верить на слово, надо взять и сделать самому.

Что сделать самому? Робота дома собрать?

Я провёл эксперименты с модулем принятия решений, он отлично для бытовой лингвистической модели справляется. Я не ожидал что чат сможет настолько хорошо ориентироваться в обстановке по минимальным входным данным.

Вы ответили на мой пример к вопросу "Какой интерес в механистической обработке?", у меня там специально для этого есть пояснение "есть информация с камеры". Я логично предположил, что вы ведёте обсуждение в этом контексте. Никакие общие алгоритмы для моего примера ничего не меняют, я сам могу такой написать, только робот от этого в магазин не пойдет.

В контексте разговора про сознание, информация с камеры это просто зрительные данные, если уж CV, то это ещё детекция объектов. Вы работали с детекцией широкого списка объектов хотя бы через Копайлот? Он весьма хорошо детектирует и классифицирует всё что видит на изображении.

И к сознанию это компьтерное зрение имеет весьма опосредованное отношение. Нам для сознания интересен именно модуль принятия решений и планирования.

Если есть план, то дальше уже нужен интерфейс для воздействия на реальность. Но это уже после сознания и принятия решений. Ясен пень никто вам не соберёт на коленке робота, который реально сходит за хлебом.

Объяснения в комментариях вы не понимаете, потому что у вас мало опыта в этом вопросе, поэтому не вижу смысла его писать. Попробуйте сами сделать, тогда сами и поймёте.

Я создавал промышленные системы компьютерного зрения. CV - это отдельный модуль детекции, логика принятия решений на его основе - это другие модули. Само зрение не принимает никаких решений (если не упороться до того, что считать распознавание образа за какое-то "принятие решения").

Ещё раз повторяю - нет. Слова это не действия, и просто так они в действия не превратятся.

Так у нас пока есть только один модуль принятия решений. Система по определению состоит из взаимодействующих модулей.

ИИ людям нужен, чтобы он понимал, что от него требуется.

Всегда однозначно и абсолютно верно? Даже вы не можете понять, что я хочу вам донести. Тоесть вы думаете, что поняли, но поняли неверно.
Коммуникация между людьми - это жесть какая сложная задача. Не будет ИИ который ВСЕГДА абсолютно точно будет понимать людей.

Да.Может мне несколько раз написать "Да", раз одного раза недостаточно?

Действительно аргумент. Левый чел сказал, что "Да" - надо верить на слово.

Так с этим и есть сложность, чтобы сделать все действия как нужно. Такой текст можно было и вручную написать еще 30 лет назад.
Зачем надо писать программный код для покупки хлеба, вообще непонятно. Люди как-то без программного кода покупают.

Мы к этому диалогу пришли из обсуждения "может ли система ИИ обладать сознанием". Я привожу пример модели, которая кое-как приближается к "осознанности" своих действий.

Вы тут же как контр аргумент приводите то, что так же и человек может рассуждать 30 лет назад и робот нам не нужен. Речи про превосходство над человеком вообще не было.

Причём тут нужен / не нужен? Оно рассуждает и вполне себе мыслит, да вы думаете, что это всё фейк и симуляция (сами не пробовали, не видели, видели новости про теслу).

Но оно без каких либо вводных с моей стороны вполне логично понимает картину и механику мира, да в текстовом виде. Ну нет у ЧатаГПТ другого интерфейса в мир.

Так вы же говорили про универсального робота и достижение любых целей. Универсальный, значит должен уметь решать и эту задачу.

Если вы дадите ему интерфейс к автомобилю, то он пойдёт достигать цели, по пути создаст кучу пробок, может и в ДТП попадёт, но это не отменяет того, что такая система будет вполне себе простенько мыслить и стремиться найти любой способ достичь цели.

Это как раз пример того, что вы не понимаете в силу недостатка опыта. Нет, это не проблема чисто компьютерного зрения.

CV модуль распознаёт луну как светофор и это не проблема компьютерного зрения?

А чего тогда? Типа: ИИ видит луну, понимает что это луна, но решает что пусть это будет жёлтый сигнал светофора?

Что за бред?

Но, интересно, почему же до сих пор нет каких-нибудь адекватных проектов сделаных этим крутым инструментом?)

А что они смогут сделать? Робота построить?

Такой проект потребует невероятных вложений, а результат - какой? За хлебушком сходит штука ценой сотни килобаксов? Да и робот со свободой воли - непредсказуемая штука. Кто за него отвечать будет?

Бостон дайнамикс там развлекается, бюджет у них есть. Но коммерческий продукт маловероятен на таких алгоритмах.

Вы опять припёрлись с Теслой?

Она вообще другого назначения модель. Коммерческий продукт не должен допускать даже вероятности ошибок. В ней не должно быть никаких мыслительных процессов.

Ваш пример с луной - это проблема чисто компьютерного зрения. К модулю "планирования" никакого отношения не имеет.

Можете мне ещё минус влепить, вам же нравится это делать. Я к сожалению не сумел достаточно точно сформулировать пример.

Идея была в возможности планировать, искать решение задачи в нестандартных условиях с ошибками, проблемами, повторными попытками.

Тут один человек более-менее понял, остальные просто пошли рассказывать что ИИ им не достаточно тот хлеб принесёт.

Человек куда сложнее языковой модели, обладает куда большими вычистителтными ресурсами, имеет огромное количество инструментов, десятки лет непрерывно обучал свою нейронную сеть.

У вас реально претензия, что чатГПТ не дотягивает до человека?

Неа, это не логичная гипотеза. Просто модель не знает разницы между формой сотрудников и формой людей, которые на службе, а ваше описание об этом молчит. Это как раз пример того, что ваше описание мира нереалистично, и отличается от того, что будет "видеть" модель.

Мне было интересно поделиться опытом, может кого это сподвигнет к более подробным исследованиям. А если всё пытаться обосрать, то действительно лучше ничего не делать.

Можно в самом ГПТ подключить CV. И я уверен, что оно отлично будет ориентироваться в обстановке. А так статья потонула в минусах от тех кто даже не попытался понять в чём идея.

Даже вы пытаетесь даказать мне, что модель несовершенна, так это условная модель, она по определению несовершенна. Вы цепляетесь к мелким косякам, вместо того чтобы посмотреть на потенциал концепции.

Для разных задач "основные" объекты разные. Поэтому, чтобы проверка была реалистичной, их выделением должен заниматься не человек, а то, что будет выделять их в вашей реализации.

Вполне может что-то не увидеть, потом на следующем цикле увидит. ЧатГПТ по картинкам достаточно лаконично фильтрует объекты.

И даже в этом случае модель ошибается, считая "человека в форме" сотрудником магазина.

Это не ошибка, а вполне логичная гипотеза. Даже если он не окажется сотрудником, то вполне сможет помочь. А если нет, то следующий цикл.

Вы себе как промт инженера пытаетесь продать, что ли?

Нет, мне это не нужно. Хотел поделиться интересными мыслями, а всё свели к хиханькам над гуглом и пиццей.

Вот поэтому вы тоже не можете выполнить любую мою задачу. Но утверждаете, что робот - может.

С чего вы взяли что вашу любую? Он будет выполнять свою задачу, которую себе поставил, пусть и по вашей просьбе.

Это кажется, что это элементарно. А во взаимодействии с реальными живыми людьми это сломается.

Что именно сломается? Тут обученный бизнес-аналитик требования с заказчика не всегда может нормально собрать, а вы от ИИ что хотите?

...то есть он не понял то, что сказано в задаче прямым текстом?

Печаль.

Это Копилот, он тупенький. Не GPT-4

Во-вторых языковые модели даже не могут выполнить умножение двух шестизначных чисел

Вы сами то в уме сможете это сделать?

Они и не должны умножать. Они должны уметь подумать, как они могут перемножить и использовать подходящий инструмент. Тот же калькулятор или математическое API.

Вы хотели чтобы ИИ уточнял что именно надо, пожалуйста. В промт алгоритма добавил строку "он должен проанализировать что требуется уточнить в постановке цели":

У меня и GPT-4 на сегодня кончился, остался совсем примитивный копилот, про кофе он не понял, зато задаёт теперь уточняющие вопросы:

Information

Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity

Specialization

Project Manager, Product Manager
Lead
From 300,000 ₽
JavaScript
Node.js
Java