Забавно, что нигде в комментах нет напрашивающейся мысли о том, что интеллект в принципе очень даже может быть перпендикулярен сознанию, не говоря уже о всяких отдельных мотивациях к выживанию/захвату ресурсов/обеспечению себя.
«Некоторые люди полагают, что быть интеллектуальным – это в основном то же самое, что иметь человеческий разум. Они боятся, что интеллектуальные машины обидятся на «порабощение», поскольку люди ненавидят быть рабами. Они боятся, что интеллектуальные машины попытаются захватить мир, потому что интеллектуальные люди в течение всей истории пытались захватить мир. Но эти опасения основаны на ложной аналогии. Они основаны на объединении интеллекта – неокортикального алгоритма – с эмоциональными мотивациями старого мозга – страх, паранойя и страсть. Но у интеллектуальных машин не будет таких способностей. У них не будет личных амбиций. Они не будут желать богатства, общественного признания, или чувственного удовлетворения. У них не будет потребностей, склонностей или плохого настроения. У интеллектуальных машин не будет ничего похожего на человеческие эмоции, если только мы специально не заложим этого в них».
Это, конечно, в целом просто размышления, но сириусли, спустя сто лет после Чапека мы все еще считаем роботов железными человечками?
Если про тот Хинтоновский пример, что в статье, то это называется generative model («порождающая модель», наверное?), и работает так — вы показываете ей одну цифру 8, а она вам выдает все, что думает на эту тему (много разных цифр 8).
Я бы сказал, наоборот — зачем вы нужны вообще этому забугорному госслужащему, самую главную военную тайну через ваш роутер выведывать? А вот у локального госслужащего есть много рычагов воздействия на вас и возможностей постучаться в вашу дверь, правда?
Это, в общем, прямо-таки foundations of visual neuroscience, да) Проблема-то в том, куда дальше двигаться. Края и линии мы научились довольно неплохо определять — под рукой куча всяких методов, стоит одно OpenCV открыть. Но что делать дальше? Как из этих линий сложить тот самый диван или того самого котика?
По поводу скрытого представления — в конечном итоге-то проблема растет оттуда все равно. В вашем случае представление не увидело какой-нибудь «изящной дугообразной формы» улыбки (вместо этого представив его просто белой округлой фиговиной), а в моем — проигнорировало форму леопарда, оставив от него ковер)
Нам нужен пост про это!) Кстати, а как вообще в современном мире это работает? Насколько я смутно представлял себе, там до сих пор царство экспертных систем и байесовских сетей?
Очень похоже, что все так и есть, да. Ансупервайзд выглядит каким-то более возвышенным и интересным, но что с ним делать для практических задач — непонятно. С другой стороны, CNN можно вставить в гуглопоиск по картинкам, и в этих задачах один лишний бидон молока — не такая уж и проблема.
Собственно, я не очень понял суть аргумента) Никто же не спорит, что не видев ни разу в жизни чего-то, его сложно опознать. Мой пойнт был вот в чем — такое субъективное ощущение, что нам с вами, похоже, достаточно увидеть это самое что-то всего несколько раз, чтобы включить его в мысленную распознавательную базу знаний. Все-таки не то чтобы вы учились писать рукописные цифры целый год, медленно увеличивая свой скилл с каждым днем и только к концу первого класса достигая более-менее уверенности. Мы, опять-таки, обладаем чертовски быстрыми способостями запомнить какую-то новую, совершенно незнакомую раньше вещь. Вот, например — буду надеяться, что вы не смотрели Вавилон-5 — корабль ворлонов.
Скрытый текст
А что вот это такое? Это тоже корабль ворлонов.
Скрытый текст
Немного измененный, с поправкой на графику, с другой стороны, но все-таки ощутимо он. Откуда вы это узнали? Вы же явно не провели последний год, изучая и рассматривая чертежи фантастических космических кораблей (а если все-таки да, то мой аргумент уничтожен).
Номинально — в общем, скорее нет. Vision as feature detection — это такой очень общий подход, связанный с тем, что в наши глаза попадает много всякого ненужного с точки зрения информационной энтропии (куча однородного фона, не менее однородные всякие пятна и т.д.), и при этом мы, как животные в не самой безопасной среде, должны уметь быстро на все это реагировать и замечать важное (еду, хищников). Отсюда естественным образом вытекает идея фич — в поле зрения должны быть какие-то небольшие, но важные куски, и именно их наше зрение будет скорее всего замечать. И, как предполагается, строить распознавание оно потом тоже будет на них.
Другое дело, что сверточные сети пользуются не просто набором признаков — а набором локальных и инвариантных (то есть им все равно, где они находятся) признаков. Вообще традиционно считается, что это очень хорошо — так мы можем успешно бороться со всякими сдвигами картинки по горизонтали и вертикали, которые вообще ее толком не изменяют. Но, к сожалению, последствия бывают и вот такие.
Насчет других алгоритмов:
— та самая статья Хинтона про transforming autoencoders, и было еще его выступление на ютубе на эту тему.
— штука под названием one-shot learning, которую я все хотел включить в пост, но которая не поместилась.
P.S. Вы правда работаете в Blue Brain Project? Потрясающе, напишите пост про то, как оно там?)
Что-то логика наоборот же должна работать, нет? Мальчик из Ботсваны видел леопардов чаще, чем мы, и должен иметь более подробную модель в голове) Это мы с вами как раз, как жители суровой северной страны, должны в ужасе отпрыгивать от экрана.
Определенно, я не предлагаю их все щас немедленно запретить и сжечь) Мне просто иногда кажется, что всю эту энергию, которые люди тратят на то, чтобы отхватить еще полпроцента в классифицирующем соревновании, да в правильных целях бы — и может, к человеческому мозгу бы подобрались на пару шагов поближе)
7 — откровенный мухомор, кажется; потом я почему-то всегда думал, что древесные грибы несъедобны, а 5 на картинке уже явно кто-то грыз — значит, безопасно)
Это, конечно, в целом просто размышления, но сириусли, спустя сто лет после Чапека мы все еще считаем роботов железными человечками?
То ли дело свое, родное, да?
Очень похоже, что все так и есть, да. Ансупервайзд выглядит каким-то более возвышенным и интересным, но что с ним делать для практических задач — непонятно. С другой стороны, CNN можно вставить в гуглопоиск по картинкам, и в этих задачах один лишний бидон молока — не такая уж и проблема.
А что вот это такое? Это тоже корабль ворлонов.
Немного измененный, с поправкой на графику, с другой стороны, но все-таки ощутимо он. Откуда вы это узнали? Вы же явно не провели последний год, изучая и рассматривая чертежи фантастических космических кораблей (а если все-таки да, то мой аргумент уничтожен).
Другое дело, что сверточные сети пользуются не просто набором признаков — а набором локальных и инвариантных (то есть им все равно, где они находятся) признаков. Вообще традиционно считается, что это очень хорошо — так мы можем успешно бороться со всякими сдвигами картинки по горизонтали и вертикали, которые вообще ее толком не изменяют. Но, к сожалению, последствия бывают и вот такие.
Насчет других алгоритмов:
— та самая статья Хинтона про transforming autoencoders, и было еще его выступление на ютубе на эту тему.
— штука под названием one-shot learning, которую я все хотел включить в пост, но которая не поместилась.
P.S. Вы правда работаете в Blue Brain Project? Потрясающе, напишите пост про то, как оно там?)
7 — откровенный мухомор, кажется; потом я почему-то всегда думал, что древесные грибы несъедобны, а 5 на картинке уже явно кто-то грыз — значит, безопасно)
Одноразовый блокнот — имеет, прошу прощения за занудство)
I'm fun at parties