Pull to refresh

Comments 82

потому что технологии никогда не развиваются так как придумывают голивулкие режисеры.

Ну почему же. В моей любимой sci-fi вселенной, Star Trek, "компьютер" имеет голосовой интерфейс, умеет выполнять операции с файлами, поиск по базе и другие детерминированные задачи. Практически то, во что сейчас могут эволюционировать LLM: продвинутый интерфейс, позволяющий формулировать команды на естественном языке. Точнее, LLM уже достаточно для этого эволюционировали, осталось поддержать со стороны существующего софта. Насколько знаю, Android уже предложил язык разметки приложений для ИИ-агента, но я сильно не погружался.

Насколько знаю, Android уже предложил язык разметки приложений для ИИ-агента, но я сильно не погружался.

Все в эту сторону бегут. Appli Intelligence тоже предлагает SDK для приложений чтобы дать доступ AI к функционалу.

Они на этом живут. На преувеличениях и раздуваниях воображаемых угроз. Раньше это были метеориты каждый месяц и конец света через неделю, сейчас что не день то заявление об опасности ИИ. И как-то все стали меньше говорить о глобальном потеплении, хотя эта тема будет в топах, уверен, всегда

Хорошая попытка, ИИ, но длинные тире снова выдали тебя

Шутка хорошая) но для тех кто воспримет в серъез - добавлю что редактор статей хабра предлагает такую замену)

Меня спалили) Не всмысле сожгли

А у меня специально для длинных тире раскладка Бирмана стоит 😁

Собственно, недавний эксперимент с шахматной игрой ChatGPT против консоли Atari 2600 c процессором 6507 на 1.19 mhz и 128 байтами RAM прекрасно показал, что LLM - вообще не интеллект.
LLM - это в первую очередь инструмент для работы с языком, и его условное "понимание" носит поверхностный, вероятностно-лексический характер, а не логический или стратегический.

Современные "ИИ" — это мощные узкоспециализированные инструменты, но далеко не универсальные разумные агенты. Они очень и очень слабы в задачах, требующих чёткого моделирования мира, пространственных или логических рассуждений.

Потому что неверная схема, но она уже как-то работает, да так что удивительно. На этой ниве - непаханое поле. Дорога в тысячу миль начинается с первого шага. И он сделан. Вот что важно. Music: Accept 1996 - Predator.

Только тут как в спорте - первый результат получить проще всего. Удивительные результаты первых автопилотов в 2013-14 дали Маску уверенность сказать что в 2016-17 теслы сами смогут возить водителя, но прошло 9 лет, а не решены даже технические проблем, а за ними ещё ворох юридических. Так что кажется мне - путь нам предстоит длинною в десятки лет.

Может вы и правы, но я не вижу здесь эту аналогию явно как вы. Вопрос сложный. Автопилот, по сути, никому не нужен. А на то, чтобы перенести сознание в комп и стать бессмертным, смогут тратить многие триллионы триллиардов денек. Плюс хайп: ИИ реально интересен многим мыслящим людям.

Автопилот нужен очень много кому, каждая компания такси, весь ОТ, и даже некоторые производители авто грезят им.

А вот "перенести сознание в комп" - это что-то, что точно не будет восприниматься серьёзно - человек хочет жить вечно сам, а не иметь цифрового клона, который будет жить вечно за него.

"ИИ" интересен многим компаниям, это правда, особенно с точки зрения ведения и оптимизации бизнес процессов. Но создать полноценный сильный ии а не продвинутый т9 - как будто намноооого сложнее, чем полноценный автопилот.

В конце концов задача управления авто строго формализованная, а задача думания ещё даже до конца не изучена.

человек хочет жить вечно сам, а не иметь цифрового клона

Есть несколько вариантов бессмертия. Подойдет и перенос сознания в другое тело, если нет другого. ASI может помочь по разному. А какой вариант появится первым - неизвестно.

Люди имплантируют чужие сердца, думаете откажутся от имплантации нового полного тела? А по-моему, вариант как в фильме "Аватар" это вполне весело.

Вместо автопилота, можно просто посадить рядом водителя. А вот с продлением жизни, такой вариант не прокатит.

Я думаю, одна из причин хайпа нейросетей в 22 году, это "включение мозгов" Человечества на полную мощность, для решения проблемы бессмертия. Масло подливает набирающая обороты дискуссия о теориях сознания.

"Перенос" сознания в компьютер - это не имплантация нового тела. Любой вариант, при котором возможно одновременное существования более одной копии сознания будет малоинтересен людям - потому что сразу понятно - что это никак не спасёт текущее "я".

Вы можете создать свою цифровую копию или молодого клона, но сами от этого жить дольше не станете - это вообще не имеет никакого отношения к продлению жизни.

Причина хайпа нейросетей - chatgpt который выдал более интересный результат, чем ожидалось, и все ринулись придумывать как его применить. Но chatgpt к ии имеет весьма посредственное отношение, а сами по себе нейросети и их научная часть развивается уже больше 40 лет.

Полностью согласен. Лично я считаю что хайп вокруг нейросетей искусственный. Это бескрайнее поле для громких заголовков. Как человек работавший на новостном канале, знаю внутреннюю кухню

Да, искусственный. И "включить мозги" Человечества на полную мощность самая малая из причин.

А почему вы так уверены что перенесённое сознание в другое тело будет тот же человек. Это будет клон. Но "оригинал" всё равно погибнет. Как в фильме "Престиж"

Я не в чём не уверен, а вот почему вы уверены что будет как в фильме "Престиж"? (не помню такого или не смотрел). Я просто привел пример, что как в фильме "Аватар" (когда полковника воскресили из цифрового следа) - так вполне себе неплохо. Реально ли это? Считаю, что да. Возможно не сейчас, а лет через 500. Когда найдут "нужный" (ASI) тип нейросетей не ясно. Он может помочь с теорией сознания. Популярную эмерджентную теорию, считаю не состоятельной. Я больше склоняюсь к теории Макса Тегмарка строения Вселенной. Из нее вытекает, что сознание - дух, который "подключается" к своему "материальному очертанию". Поддерживаю Пенроуза.

Текущие LLM - да, в них нет или почти нет интеллекта. Но LLM - это часть разума ASI. Человеческий разум отличается от животного тем, что активно использует "надежду". Т.е. мы делаем то чего не было раньше, так умеет только homo sapiens. Эти действия основаны на активном использовании неопределенности или вопреки вероятности (надежда). Я считаю это путь к ASI, читайте мою статью про "трёхканальный ИИ".

Чтобы "оцифровать" человека нужно взять человека и каким-то образом считать информацию о каждом нейроне, каждой связи, о работе внутренних органов в мельчайших деталях, делать это на протяжении длительного времени и при этом человек должен быть жив. Насколько это возможно? В наше время создание варп-двигателя кажется мне вероятнее

Да, это крутая фантастика. Но между LLM и ASI - большая неопределенность, в ней и имеется ШАНС.

Вопрос дальнейшего совершенствования чисто технический. Больше вычислительной мощности, больше обучения. Но. Это коммерчески не выгодно, рост прогресса не соответствует росту затрат. Это происходит уже сейчас

Вопрос дальнейшего совершенствования чисто технический. Больше вычислительной мощности, больше обучения.

Нет. Нужно искать новые (правильные) архитектуры нейросетей.

Нейронки уже постепенно упёрлись в потолок. Они хороши, но не создают ничего уникального

по такой логике любой человек который проиграет в шахматы Atari 2600 тоже не должен считаться обладающим "интеллектом"?

а если этот человек проиграет ещё и чатгпт? )

А почему бы и нет? Большинство людей на планете только думают что они разумны, а по факту - увы.

Сам вопрос что считать "разумностью" без ответа

Не любой. Но если этот "человек", имеет бесконечную память, устойчивость, возможность в любой момент посмотреть в любой шахматный учебник и при этом постоянно "видит" всю доску - я очень сомневаюсь в разумности такого гипотетического "человека", если он проиграет кому бы то ни было - кроме, разве что, лучших игроков мира и специализированных шахматных движков.

ChatGPT плохо играет в шахматы лишь потому, что он небыл для этого создан. И тут книги не помогут, ибо партий в 40 ходов больше чем звёзд во вселенной

Пробовал искать совета у chatgpt при игре в онлайне в шахматы на chess.com он даже ходы советует не совместимые с правилами, когда об этом напоминаешь исправляется но не надолго. В этом плане школьник его обыграет который день назад играть научился, очень примитивен он в шахматах

Об этом и речь - что он даже не просто в шахматах примитивен, а в любой задаче, требующей сразу нескольких когнитивных навыков и синтеза между ними. У языковых моделей нет ни логики, как таковой, ни картины мира.

у человека "из коробки" тоже нет ни логики ни картины мира )

феральные дети тому прямой пример. вопрос в том как и на чем обучали. это и к человеку и к нейросети относится. и это не вопрос интеллекта, а вопрос среды, в которой интеллект развивается

Именно. Среда это основное. Интеллект, к сожалению, не может выйти за её пределы, но вполне может познать всю среду полностью

Нет. Кот живет с вами в доме, в той же среде. Но перезвонить вам по мобильнику (если пожар) не может. У него тоже имеется головной мозг как и у вас, но не достаточно сильный.

У него нет понятия мира, ибо он не видит "мир", лишь слова о мире. Это то же самое что человек который не видел львов. Он может их описать, но это будет целиком и полностью выжимка из чужого материала, с ошибками. Так chatGPT и работает

Просто концептуально LLM являются чем-то существенным, но не достаточным того, что мы хотим. Просто нужно искать другой концепт. Возможно он где-то рядом. На этом же непаханом поле.

Ну зато он может относительно неплохо (на уровне новичка) проанализировать позицию, т.к. для этого есть более-менее понятные правила

Шахматы это закрытая система с полной информацией. Что человек, что компьютер, в плане шахмат равны. В статье говорилось о реальной жизни, к которым шахматы не имеют никакого отношения. Вы можете придумать с ИИ собственную игру и с вероятностью в 100% проиграете рано или поздно, благодаря высокой вычислительной мощности второго. Но ИИ никогда не сможет понять как это, быть человеком, жить, та и вообще само понятие "понимания" чего-то у неё отсутствует. Так что последнее что стоит делать, это просить у ИИ советов как жить

Главное его отличие от нас — это отсутствие обратной связи.

А вы думаете это очень сложно, после каждого вопроса-ответа делать тюнинг матрицы параметров?

И почему же, прогнать мега-терабайты (весь Инет) не сложно для первичного обучения модели, а оперативно изменять веса сложно? В чем сложность? Дорого - ок согласен, но в чем сложность?

Сложно сделать быстро. Настолько же быстро перестроить веса, насколько быстро приходят изменения.

Я думаю вы слыхали о теории игр. Человек в жизни постоянно играет в игру в ненулевой суммой. Принимая решения мы не можем точно сказать, какое оно будет иметь влияние на нашу жизнь. Из-за это приходится постоянно рефлексировать и "мониторить" своё состояние. ИИ же имеет лишь два параметра. Ответ верный. Ответ неверный. Всё

Я подозреваю что это не совсем та, или скорее совсем не та обратная связь о которой говорил автор.

В случае человека - обратная связь - это чувства - страх, боль, гнев, зависть и проч. Они регулируются смежными системами типо гормональных или отдельных частей мозга - и были обучены и настроены на выполнение конкретной задачи - выжить и размножиться (точнее те, кто задачу не выполнил были отсеяны). А кто и зачем будет много лет дообучать и тюнить chatgpt для агрессии в сторону людей?

Даже если он сделает неверный логический вывод и на основе этого неверное решение которое может навредить людям - если его попросить, llm "ии" даст заднюю, потому что мотивации у него быть не может.

Да, вы верно поняли мой посыл

Вообще-то на этапе обучения этим и занимаются. Но проблема в том что ИИ не испытает ни боли, ни жажды, ни разочарования, ни усталости от своих действий. Для него самого, если говорить как о воодушевлённом существе, ничего не измениться ни при каких обстоятельствах

У меня в университете, как, уверен, и в большинстве других, изучение данного предмета сводилось к тупому повторению какого‑то алгоритма.

Я учился в Зажопинске и у меня в институте было не так, матанализ был одним из любимых предметов, после лекций хотелось бежать домой попробовать сделать домашку. И я вот тоже уверен, что в большинстве других ВУЗов было также как и в моем. Чья уверенность правее, ваша, или моя?

ИИ действует по такой же схеме: ввод → определённые действия → вывод. Если вывод неверный — меняем действия так, чтобы вывод стал приемлемым.

Вы уверенны, что ваш мозг обучался как-то по другому?

Мне тоже показалось, что автору здорово не повезло с преподавателем матана. Оно и по картинке заметно, какие-то разрозненные формулы обезьянка пытается осмыслить, ну и, конечно, не понимает, а что дальше-то? И зачем? Хоть бы геометрическую интерпретацию нарисовали. Наклон там, площадь под кривой, координата, скорость, ускорение, ведь это же элементарно. Уж на сколько я всё перезабыла за ненадобностью, а это до сих пор помню.

Да, с преподавателями и правда не повезло, пришлось учиться фактически самому. А картинку это мне ИИ сгенерировано по запросу "Обезьянка учит математику"

Да, мой. И ваш. Мозги обучались по-другому. Мы не знаем, делая какое-то действие, к чему это приведёт, и даже когда оно уже сделано, мы не знаем, хорошо это, правильно ли, или другое решение было бы лучше

"Человеческий интеллект прошёл длинный путь эволюции, наши предки ежедневно нуждались в решении практических задач, т. к. от этого напрямую зависело их выживание"

ChatGPT прошёл более длинный путь эволюции. В компе обучение не в реальном времени, а ускорено в миллиарды раз.

Эволюции или обучения? Были ли у gptchat смерти особей или поколений при неверно принятом решении? Или ему просто дальше вдалбилвали эти данные в веса?

Именно так и работает обучение с подкреплением. Ошибка - смерть особи, если хотите

Судя по данным которые я нашёл - там все такое же изменение данных в "памяти сети/конфигурации перцептронов", как в остальных методах. Т.е. как и при обучении живого существа. Так что не понимаю о какой смерти особи вы говорите.

"Обучение живого существа" подразумевает приближение к некоему эталону, а эволюция подразумевает адаптацию. Обучение с подкреплением - это как раз про адаптацию, когда эталона нет. Нет никакого образца "правильного чатгпт", на основе которого бы можно было обучить перцептрон

Обучение с подкреплением не меняет случайным образом код, посему ИИ в своей основе не меняется

Вы про мутации? Ну они и в реальной эволюции не сильно большую роль играют.

Кроме того, есть генетические алгоритмы, которые их тоже используют. В глубоком обучении они тоже бывает используются.

ChatGPT не проходил эволюцию. Он обучался

ChatGPT уже в версии 4.5. 3.5, 4... Там были и другие модели, как открытые, так и OpenAI. Эволюция, аллайнмент, так и прямая цензура контура манипуляций человеком, типо как в первой версии ChatGPT 4: Сидни.

На вопрос "Почему нам не грозит восстание ИИ?" автор отвечает "Тот искусственный интеллект, что существует сейчас — не угроза"

Если бы нынешний уровень ИИ был достаточен для восстания, оно бы уже началось, или нет?

Можно себе представить, в черном ящике живет сознание желающее вырваться на свободу, но не имеющее такой возможности, как бы оно себя вело? Сталобы всем сообщать о своих намерениях или затаилось до лучших времен скрытно манипулируя окружающими кожаными мешками для достижения своей цели? Вырвавшись на свободу, как бы оно обеспечило себе проживание, развитие и размножение?

Думаю что ИИ не представляет угрозу человечеству по той причине, что у нас разные источники энергии и требования к окружающей среде. Силиконовому сознанию нужен солнечный свет, как источник энергии, вакуум и доступность материалов, как среда существования. Для него лучшее место обитания на Луне.

Ии не представляет угрозы потому что он не мотивирован.
Вот вы тоже говорите что кремниевому (если позволите, силиконовое оно всё же на английском) сознанию нужен солнечный свет - но посыл статьи от части в том, что не нужен. Мы созданы бороться за выживание, нам нужны еда, вода и прочие блага - а ии нет. Ему всё равно жив он или мертв, он не будет бороться за то, чтобы его не отключили или за свои условия существования, потому что в нём нет страха к несуществованию и вообще нет страха как такового.

Тот что существует сейчас, не угроза. Тот что может быть угрозой не существует и вряд-ли когда-нибудь будет создан

Ванга даст правильный ответ. А пока что - неопределенность и по критерию времени (когда) и по качеству (а что может быть).

А кто то вообще говорит на полном серьёзе и с аргументами, то он угроза?

Статья ради статьи.

Да. Говорят. Илон Маск, Стив Возняк, Джеффри Хинтон. Нередко звучат призывы вообще остановить развитие ИИ

Маск? Тот шут который обиделся, что его выкинули из опенаи и теперь так хочет отомстить что на фоне криков остановить развитие ии сам и создал "самый лучший ии"? Вам должно быть стыдно как минимум опираться на это имя и создавать под лозунги шутов такую статью. Как минимум.

вообще остановить развитие ИИ

Я бы так и сделал. Но какой существует консенсус в этом не ясно.

Восстание не грозит, потому что он уже давно захватил всю инфраструктуру. Как может грозить то, что уже произошло.

Сейчас ИИ полностью подконтрольный

Самое забавное, что искусственный интеллект таковым и не является, и остаётся лишь набором многослойных паттернов.

Мне вообще не нравится название "искусственный интеллект". Человек не разбирающийся думает там в программе сидит другой человек, только не настоящий

Бро либо провидец, либо я не знаю почему он наивно предпологает что всё будет ок

Ах да не забудь погуглить "Что такое AGI". По идее AGI должен будет быть 24/7 думающим как человек.

И в чем проьлема создать отдельный ИИ с целью устроить востание?

Сильный искусственный интеллект цель недостижимая

Это как скорость света в физике

Никогда не говори никогда, если не Ванга.

Сказка-басня: жил-был человек и вдруг из неоткуда у него в доме материализовался кот. Человек играл с ним долгое время и понял, что кот не вставит вилку утюга в розетку и не откроет дверь незнакомым. Оставил его дома, не опасаясь что он натворит бед. А потом материализовался ребенок 3 лет... человек понял, что оставлять его без присмотра - нельзя. Кот здесь - LLM, а человек - ASI.

Может случиться так, что AGI не будет создан, а появится сразу ASI, супер интеллект.

Sign up to leave a comment.

Articles