Комментарии 29
Япония лидирует в робототехнике
Как-то по фотке этого робота такого не скажешь, на фоне того, что было у Бостон Динамикс давно и что есть у китайцев сейчас.
японцы больше сексроботов делают — это нечто иное, чем бостон динамикс ;)
Хм, длинное тире " — ", не доверяю я тебе. 🤔 А ну, реши задачку.

Ты чева¿
С каких пор на Хабре запретили типографику? Может, нам и точки в конце предложений не ставить? А то, я слышал, что они некоторых оскорбляют.
Не хватает nbsp перед тире. Может, с телефона отправлено. На телефоне, в отличие от PC, nbsp ввести трудно.
Alt+0151
Кто текстами профессионально занимается, нередко в такое умеют на автомате.
Под эти три "критерия АГИ-УГУ-АГА": - "...автономное обучение навыкам, безопасное освоение без катастрофических рисков и энергоэффективность на уровне человека..." - подходит любая когнитивно-символьная система: Soar, ICARUS и т.д.. Кого они этим удивить то хотели?! Короче, это "классический" прием - создать свое собственное, "удобное" определение, под которое ты уже заведомо подходишь, и объявить о "победе".
А если учесть новость с SecurityLab, то получается, что это точно "чистая" когнитивно-символьная архитектура (или логико-когнитивно-символьная) и даже не нейро-символьная, так как отсутствуют датасеты. Чувствует моё сердце, что разрабы точно хотят обмануть индустрию - выдать "исправленный" исходник любой когнитивно-символьной системы за свою разработку. В новости с другого ресурса написано: "...провели испытания на роботах...". Из всех известных когнитивно-символьных архитектур только Soar (проект CLAW), CRAM (Cognitive Robot Abstract Machine) и ICARUS (Integrated Cognitive Architecture for Rational Unified Systems) прекрасно работают в роботизированных системах, частично ACT-R (Adaptive Control of Thought-Rational), но с доп. модулями, т.к. она изначально создавалась совсем для другого
до тех пор пока неизвестно ни одной формы разумной сущности, имеют право давать любое определение. лично я воспринимаю слово "разум" как метафору. примерно как "душа".
Вот только как понять что мы нашли форму разумной сущности, если мы не можем дать определение слову "разум" 😢
Лично я склонен к утилитарному подходу. Что-то вроде "если выглядит как утка, крякает как утра - значит разумный". Вот только с таким подходом в целом мы уже можем считать что все эти ваши gpt, гроки и прочие llm - утки. С чем, разумеется, многие не согласятся. Так и живем.
вот только в случае с разумом, у нас нет ни одной "утки". не с чем сравнивать.
многие не согласятся
Это их проблемы. Согласные (и активно применяющие) выигрывают от их несогласия. Естественный отбор.
Проблема в том, что если слово метафора, а критерии у всех разные, то и заявления про AGI превращаются в маркетинг
С таким определением любая нейронка с обучением с подкреплением - AGI. Если, конечно, рассматривать само обучение как неотрывную часть "интеллектуального агента"
Увы, но я с Вами не соглашусь, так как Вы упускаете ключевые детали из статьи, которые делают их заявление хоть сколько-нибудь претенциозным:
1. "Безопасное освоение без катастрофических рисков" - это не просто про то, что система не "сломает себе шею в симуляции". В контексте заявлений о AGI-способности и "воплощенном сверхинтеллекте" это подразумевает наличие встроенной, проактивной этической рамки. Грубо говоря, система должна самостоятельно, без заранее прописанных человеком правил для каждой ситуации, понимать концепции вреда, непреднамеренных последствий и избегать их в совершенно новых областях. Ни одна современная нейросеть этим не обладает. У них есть оптимизация функции вознаграждения, часто ведущая к непредсказуемым и катастрофичным в реальном мире способам ее достижения (т.н. "specification gaming"). Это постэтика инженеров, а не проактивная этика агента;
2. "Энергоэффективность на уровне человека" - это вообще антитеза современным большим моделям. Мозг человека потребляет ~20 Вт. Обучение и инференс современных LLM и RL-систем требуют мегаватты. Их затраты растут экспоненциально с масштабом, а не линейно.
А, простите, но в таком случае мы, человеки, не проходим это определение. Нам буквально с детства рассказывают что такое хорошо, а что такое плохо. Другими словами наша человеческая "проактивная этическая рамка" это не то, что мы вывели сами - это то, что вложили нам наши белковые нейросети, которые
родилисьобучились чуточку раньше нас. Вернемся к "без зарании прописанных правил". Да, если рассматривать условный Q-learning как некий инженерный концепт со своими правилами, в частности, правилами "начисления очков" и коррекции ошибок, то да, постэтика инженеров. Но. В сути своей, если взять этот виртуальный мир как точку отсчета и нейросеть как населяющее этот виртуальный мир существо; ведь никаких правил у него нет - чистейшая дарвиновская эволюция с поправкой на "виртуальность". Вместо "выживает тот, кто размножается" у нас "выживает тот кто нафармит больше баллов" со всем вытикающим. Да, не идентично тому, что мы имеем в реальном мире, да и мутаций нет (и много чего еще), но в первом приближении, почему нет?Чувствуете чем пахнет? Carbon Supremacy😅Разве "энергоэффективность" определяет наличие "разума"? (хоть мы и все еще не знаем что такое этот разум)
В прочем, проблема этот стати уже была озвучена в одном из комментариев выше.
создать свое собственное, "удобное" определение, под которое ты уже заведомо подходишь, и объявить о "победе".
А я так, размышляю на тему.
Мозг человека потребляет ~20 Вт. Обучение и инференс современных LLM и RL-систем требуют мегаватты.
Человек обучается полжизни, и при этом потребляет гораздо больше 20 ватт, иначе это не человек а овощ на капельнице.
Человек обучается полжизни
Ну, если ставить вопрос таким образом, то стоит спросить: сколько времени нужно будет для того, чтобы обучить модель, если ограничить энергопотребление 20 Вт. Кажется, что для чего-нибудь хоть сколь-нибудь серьезного цифра будет явно поболее, чем у человека.
и при этом потребляет гораздо больше 20 ватт, иначе это не человек а овощ на капельнице.
Без сотрудников электростанции любая модель превратится в груду металла без электричества, однако добавлять в "затраты энергии на обучение модели" энергию, потребляемую сотрудниками электростанции, почему-то никто не спешит. В таком случае неясно, почему для человека нужно включать затраты, которые к мозгу не относятся.
>Без сотрудников электростанции
Солнце шпарит сотни МВт на квадратный км- сколько люди протянут, если выключить? Уж теплица с десятками КВт к этим 20 Вт наверняка потребуется.(При чём тут это к интеллекту я тоже не понял)
Зы, вспомнил "Экспедицию в преисподнюю" (сценарий мультфильма от Стругацких) - там космические пираты похищали разумных существ и продавали их мозги в качестве корабельных компьютеров(покупатели предпочитали верить, что это "просто имитация разума", "заглючил - несколько раз нажать на кнопку") так вот, там в качестве батареек шли контейнеры с десятками км территории в свёрнутом пространстве...
Солнце шпарит сотни МВт на квадратный км- сколько люди протянут, если выключить?
А сколько протянет ИИ, если выключить Солнце?
Уж теплица с десятками КВт к этим 20 Вт наверняка потребуется.
А для моделей сколько понадобится?
>А сколько протянет ИИ, если выключить Солнце?
Смотря как, есть носители, позволяющие хранить информацию тысячелетиями в нормальных условиях - и, наверно, миллионы лет при около 0К. (что я несу?)
>А для моделей сколько понадобится?
если запускать на скорости "одна строчка кода за несколько секунд", "один рисунок за несколько часов" - то и меньше 20Вт может получится. Если'б людей можно было заставить работать в 100 раз быстрее подключив 2КВт - мы'б все так бы и работали.
Видимо, 20 Вт/ч
AGI по ГОСТу от стартапа на 16 человек. Осталось только бенчмарки придумать и сразу мировой прорыв

Японский стартап изобрел AGI — и заодно собственное определение AGI