Обновить

Комментарии 29

Япония лидирует в робототехнике

Как-то по фотке этого робота такого не скажешь, на фоне того, что было у Бостон Динамикс давно и что есть у китайцев сейчас.

японцы больше сексроботов делают — это нечто иное, чем бостон динамикс ;)

Хм, длинное тире " — ", не доверяю я тебе. 🤔 А ну, реши задачку.

Ты чева¿

С каких пор на Хабре запретили типографику? Может, нам и точки в конце предложений не ставить? А то, я слышал, что они некоторых оскорбляют.

Неудачная шутка, не бери в голову.

Вполне удачная. Но, видимо, наболело.

Не хватает nbsp перед тире. Может, с телефона отправлено. На телефоне, в отличие от PC, nbsp ввести трудно.

Alt+0151

Кто текстами профессионально занимается, нередко в такое умеют на автомате.

Под эти три "критерия АГИ-УГУ-АГА": - "...автономное обучение навыкам, безопасное освоение без катастрофических рисков и энергоэффективность на уровне человека..." - подходит любая когнитивно-символьная система: Soar, ICARUS и т.д.. Кого они этим удивить то хотели?! Короче, это "классический" прием - создать свое собственное, "удобное" определение, под которое ты уже заведомо подходишь, и объявить о "победе".

А если учесть новость с SecurityLab, то получается, что это точно "чистая" когнитивно-символьная архитектура (или логико-когнитивно-символьная) и даже не нейро-символьная, так как отсутствуют датасеты. Чувствует моё сердце, что разрабы точно хотят обмануть индустрию - выдать "исправленный" исходник любой когнитивно-символьной системы за свою разработку. В новости с другого ресурса написано: "...провели испытания на роботах...". Из всех известных когнитивно-символьных архитектур только Soar (проект CLAW), CRAM (Cognitive Robot Abstract Machine) и ICARUS (Integrated Cognitive Architecture for Rational Unified Systems) прекрасно работают в роботизированных системах, частично ACT-R (Adaptive Control of Thought-Rational), но с доп. модулями, т.к. она изначально создавалась совсем для другого

до тех пор пока неизвестно ни одной формы разумной сущности, имеют право давать любое определение. лично я воспринимаю слово "разум" как метафору. примерно как "душа".

Вот только как понять что мы нашли форму разумной сущности, если мы не можем дать определение слову "разум" 😢

Лично я склонен к утилитарному подходу. Что-то вроде "если выглядит как утка, крякает как утра - значит разумный". Вот только с таким подходом в целом мы уже можем считать что все эти ваши gpt, гроки и прочие llm - утки. С чем, разумеется, многие не согласятся. Так и живем.

вот только в случае с разумом, у нас нет ни одной "утки". не с чем сравнивать.

многие  не согласятся

Это их проблемы. Согласные (и активно применяющие) выигрывают от их несогласия. Естественный отбор.

НЛО прилетело и опубликовало эту надпись здесь

Верно.

Но доля ничтожных задач - 99.99% и значительную часть не ничтожных можно декомпозировать на ничтожные.

Проблема в том, что если слово метафора, а критерии у всех разные, то и заявления про AGI превращаются в маркетинг

да, маркетинг. а что сейчас не маркетинг?

С таким определением любая нейронка с обучением с подкреплением - AGI. Если, конечно, рассматривать само обучение как неотрывную часть "интеллектуального агента"

Увы, но я с Вами не соглашусь, так как Вы упускаете ключевые детали из статьи, которые делают их заявление хоть сколько-нибудь претенциозным:
1. "Безопасное освоение без катастрофических рисков" - это не просто про то, что система не "сломает себе шею в симуляции". В контексте заявлений о AGI-способности и "воплощенном сверхинтеллекте" это подразумевает наличие встроенной, проактивной этической рамки. Грубо говоря, система должна самостоятельно, без заранее прописанных человеком правил для каждой ситуации, понимать концепции вреда, непреднамеренных последствий и избегать их в совершенно новых областях. Ни одна современная нейросеть этим не обладает. У них есть оптимизация функции вознаграждения, часто ведущая к непредсказуемым и катастрофичным в реальном мире способам ее достижения (т.н. "specification gaming"). Это постэтика инженеров, а не проактивная этика агента;
2. "Энергоэффективность на уровне человека" - это вообще антитеза современным большим моделям. Мозг человека потребляет ~20 Вт. Обучение и инференс современных LLM и RL-систем требуют мегаватты. Их затраты растут экспоненциально с масштабом, а не линейно.

  1. А, простите, но в таком случае мы, человеки, не проходим это определение. Нам буквально с детства рассказывают что такое хорошо, а что такое плохо. Другими словами наша человеческая "проактивная этическая рамка" это не то, что мы вывели сами - это то, что вложили нам наши белковые нейросети, которые родились обучились чуточку раньше нас. Вернемся к "без зарании прописанных правил". Да, если рассматривать условный Q-learning как некий инженерный концепт со своими правилами, в частности, правилами "начисления очков" и коррекции ошибок, то да, постэтика инженеров. Но. В сути своей, если взять этот виртуальный мир как точку отсчета и нейросеть как населяющее этот виртуальный мир существо; ведь никаких правил у него нет - чистейшая дарвиновская эволюция с поправкой на "виртуальность". Вместо "выживает тот, кто размножается" у нас "выживает тот кто нафармит больше баллов" со всем вытикающим. Да, не идентично тому, что мы имеем в реальном мире, да и мутаций нет (и много чего еще), но в первом приближении, почему нет?

  2. Чувствуете чем пахнет? Carbon Supremacy😅Разве "энергоэффективность" определяет наличие "разума"? (хоть мы и все еще не знаем что такое этот разум)

В прочем, проблема этот стати уже была озвучена в одном из комментариев выше.

создать свое собственное, "удобное" определение, под которое ты уже заведомо подходишь, и объявить о "победе".

А я так, размышляю на тему.

Мозг человека потребляет ~20 Вт. Обучение и инференс современных LLM и RL-систем требуют мегаватты.

Человек обучается полжизни, и при этом потребляет гораздо больше 20 ватт, иначе это не человек а овощ на капельнице.

Человек обучается полжизни

Ну, если ставить вопрос таким образом, то стоит спросить: сколько времени нужно будет для того, чтобы обучить модель, если ограничить энергопотребление 20 Вт. Кажется, что для чего-нибудь хоть сколь-нибудь серьезного цифра будет явно поболее, чем у человека.

и при этом потребляет гораздо больше 20 ватт, иначе это не человек а овощ на капельнице.

Без сотрудников электростанции любая модель превратится в груду металла без электричества, однако добавлять в "затраты энергии на обучение модели" энергию, потребляемую сотрудниками электростанции, почему-то никто не спешит. В таком случае неясно, почему для человека нужно включать затраты, которые к мозгу не относятся.

>Без сотрудников электростанции

Солнце шпарит сотни МВт на квадратный км- сколько люди протянут, если выключить? Уж теплица с десятками КВт к этим 20 Вт наверняка потребуется.(При чём тут это к интеллекту я тоже не понял)

Зы, вспомнил "Экспедицию в преисподнюю" (сценарий мультфильма от Стругацких) - там космические пираты похищали разумных существ и продавали их мозги в качестве корабельных компьютеров(покупатели предпочитали верить, что это "просто имитация разума", "заглючил - несколько раз нажать на кнопку") так вот, там в качестве батареек шли контейнеры с десятками км территории в свёрнутом пространстве...

Солнце шпарит сотни МВт на квадратный км- сколько люди протянут, если выключить?

А сколько протянет ИИ, если выключить Солнце?

 Уж теплица с десятками КВт к этим 20 Вт наверняка потребуется.

А для моделей сколько понадобится?

>А сколько протянет ИИ, если выключить Солнце?

Смотря как, есть носители, позволяющие хранить информацию тысячелетиями в нормальных условиях - и, наверно, миллионы лет при около 0К. (что я несу?)

>А для моделей сколько понадобится?

если запускать на скорости "одна строчка кода за несколько секунд", "один рисунок за несколько часов" - то и меньше 20Вт может получится. Если'б людей можно было заставить работать в 100 раз быстрее подключив 2КВт - мы'б все так бы и работали.

Видимо, 20 Вт/ч

AGI по ГОСТу от стартапа на 16 человек. Осталось только бенчмарки придумать и сразу мировой прорыв

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости