Информация
- В рейтинге
- Не участвует
- Откуда
- Москва, Москва и Московская обл., Россия
- Дата рождения
- Зарегистрирована
- Активность
Специализация
deep learning researcher
Средний
От 350 000 ₽
Python
PyTorch
TensorFlow
Deep Learning
Машинное обучение
Нейронные сети
Математическая статистика
Анализ данных
Компьютерное зрение
Обработка естественного языка
Одна ссылка на тг-канал автора в посте, который вообще не про автора и его канал — это реклама?
И про "видим в нем
графоманию с картинкамиподобие расследования на тему "почему не нужно нести деньги в ...", а вовсе не про знакомство с УИИ " — а что такого? Этот пост и есть не знакомство с УИИ, а объяснение, почему туда нести деньги не стоит.Если честно, не понимаю, почему не важна. Из того, что вы говорите, не следует, что не важна, а следует, что она может быть разной в зависимости от ситуации. Об этом я тоже пишу, кстати.
Да, датасеты появляются, но пока я не видела статьи с заголовком "найден дотаяет с достаточной полнотой, чтобы нивелировать проблемы обобщения, adversarial и out-of-domain". И пока такого нет, можно пытаться не только такие строить, но и рассматривать другие идеи, как помочь нейросетям в условия недостаточно "полных" датасетов лучше выучивать структуры.
И я не хотела сделать ощущение "тупика" в ИНС. В тексте даже фраза есть: "может быть, ИИ действительно так и получится".
Вот какие идеи. То есть, вашим словам не противоречит, опять же.
> Человек это сильно предобученная система, которая в основном использует именно зеро-шот в задачах, которые решает сразу
Тут я спорить не решусь. Я недостаточно знаю о механизмах обучения/инференса человека на незнакомых задачах.
> Важно не то, чем отличаемся, а чем похожи. А похожи тем, что и для нас существует свои adversarial
Да, существуют, никто не спорит, только масштаб поменьше. И хочется те adversarial, что есть у сетей, убрать.
> Полагаю, это значит, что можно подобрать такие архитектуры/методики обучения, которые сведут "путаницу" к допустимому минимуму.
Так ровно о том же и речь! В подборе архитектуры, которая проблему сведет к минимуму. Подходов к этому может быть много разных, но один из вариантов — пробовать подобрать архитектуру так, чтобы нейросеть лучше оперировала структурой. Возможно, это поможет и в проблеме adversarial. Об этом я пишу)
Да неужто в ГО на вход подается именно то, что видят люди?)
И разделять сеть и способ подачи в нее данных — странно. Модель — это в том числе и то, как она обрабатывает поданные на вход данные. Ее архитектура во многом зависит от способа подачи на вход данных.
Ну и, в целом: как вы предлагаете подавать модели на вход "ровно то, что мы наблюдаем"? И что это вообще такое — то, что мы наблюдаем? Мы, человеки, тоже принимаем на вход не "истину", а некое представление реальности в виде световых лучей)
Про лица, может быть, действительно не лучший пример. Но других подходящих примеров много. Самые, наверное, красноречивые — в медицинских данных. Там, когда нейросеть, обученная на КТ снимках из одной больницы плохо работает на снимках из другой, потому что артефакты и распределения снимков разные. Нейросеть плохо генерализуется и обращает внимание на неважные отличия и нюансы фото.
Про adversarial: не все атаки подбираются с помощью backprop. Есть black-box атаки, которые не используют доступ к архитектуре нейросети. Иногда работает даже изменение одного единственного пикселя картинки: меняете его и нейросеть вместо поросенка начинает видеть самолет. Да, с увеличением обучающей выборки и изменением архитектуры моделей проблема становится менее выраженной, но она не исчезает.
И да, возможно, для человека тоже можно подобрать атаку. И даже есть примеры: все обманы зрения (картинки вида "какая палка длиннее" или движущиеся круги, которые на самом деле не движутся) — это примеры успешных adversarial attack на человеческое восприятие. Но разница в масштабе: нейросети намного сильнее подвержены атакам. Нейросети путаются на тех картинках, на которых человек никогда не запутался бы. И это и есть проблема.
Про инференс и zero-shot: нет, я не путаю обучение и инференс. Да, иногда обучение ни человеку, ни нейронке не нужно, можно обойтись zero-shot. Но иногда оно действительно нужно. Пример: когда вы умеете водить машину и хотите научиться водить мотоцикл. Согласитесь, вам нужно обучение для этого? То же и с нейронками. Кроме понятия zero-shot есть еще и понятие few-shot, когда нейросеть нужно обучить решать задачу на малом количестве данных (возможно, с предварительным предобучением). И нейросети все же плохо дообучаются на малом количестве данных там, где дообучение все-таки нужно.
Ну и два общих замечания:
1. Да, как вы верно заметили, люди тоже отчасти страдают от проблем, описанных мной для нейросети, и с увеличением количества параметров и обучающих данных нейросети эти проблемы становятся для нее менее выраженными. К тому же, как вы, опять же, верно заметили, в современных нейросетях есть структура (w2v — это очень хороший пример, стоит включить его в статью рядом с примером про CNN, спасибо). Но Поинт в том, что хоть проблемы становятся менее выраженными, они все еще очень заметны, сильно более выражены, чем у человека. И про структуру: она в нейронах есть, но ее все еще недостаточно. Я даже в статье пишу (пример про CNN) про то, что в нейросетях действительно прослеживается структура. Но этого, получается, все же недостаточно, чтобы сравнивать структурное восприятие нейросетей с человеческим.
2. Эти три проблемы взяты мной не с потолка и не из собственной головы, они довольно известные и общие для dl-community. Вряд ли ученые стали бы формулировать эти проблемы и писать о них статьи, если бы действительно не существовало.
Ну и про "Есть мнение, что только если датасетом будет сама жизнь.". Я целый раздел посвятила тому, что есть такое мнение, что AGI — это большая нейросеть, обученная на огромном количестве данных. И я пишу, что, возможно, так оно и есть, и будет в будущем. Но на данный момент у нас нет возможности обучить нейросеть на таком количестве данных. А того количества данных, что есть, явно не хватает, чтобы у нейросети появилось хорошее понимание структуры (см. пример с DALL-E 2). И поэтому другая идея, как улучшить структуру в нейросетях, пока мы не собрали датасет длиною в жизнь — строить хитрые архитектуры, о которых я далее и рассказываю в статье. То есть, мои мысли вашим здесь не противоречат)
Thank you! :)
Спасибо :)
Так никто ж не заставляет эти организации использовать нейросети) Для хранения и обработки важных данных используются другие алгоритмы
А 150 лет назад люди не верили, что мытье рук хирургами помогает избежать инфекций при операциях. Мир и наука так и развиваются: представления сменяют друг друга, становятся сложнее. Говорить "мы воспринимаем как целое" — это очень грубое представление того, как работает мышление)
Спасибо за комментарий) То, что вы пишете, безусловно, верно.
Но хочу дать два комментария:
"Также не стоит надеяться та то, что, и распознавание (опознание), как составная часть зрительного восприятия, происходит «одномоментно», одним проходом через сложный нейросетевой ансамбль, на который (на однопроходную процедуру) большие надежды, как я полагаю, возлагают нейросетевики, в том числе упомянутые в статье"
Это не так. Например, в той же работе Хинтона нейросеть обрабатывает каждое изображение не одним проходом, а настраивая в течение нескольких итераций латентные представления автоэнкодеров. В работе ЛеКуна одно и то же изображение может подаваться на вход разным обрабатывающим блокам, а также может обрабатываться одна и та же сцена в разные моменты времени. Можно еще почитать другие работы Хинтона (к примеру, про капсюльные нейросети), в которых он как раз идет глубже в механизм распознавания у людей и пытается построить архитектуру, повторяющую некоторые свойства человеческого восприятия.В целом, опять же: я вообще не утверждаю, что понимаю, как полностью работает человеческое восприятие и что хочу построить AGI по образу и подобию. Я лишь выделяю в восприятии одно свойство, которое, на мой взгляд (и взгляд многих ученых), могло бы помочь AGI лучше обрабатывать и картинки, и другие виды информации. ИИ сейчас очень далек от того, как работает человек, об этом никто не спорит. Более того, AGI не обязан развиться именно по образу и подобию человека, т.е. в целом общество ученых AGI не стремится повторить механизм работы человека в AGI. Но с какого-то уровня абстракции смотреть, как мыслит человек, пытаться понять, что ему помогает и внедрять эти механизмы в ИИ — хорошая практика. Даже если этот уровень абстракции — не знания о достижениях нейробиологии, а просто мысли обычного человека о том, как работает мышление. Так, например, появились сверточные сети, механизм attention, другие удачные архитектуры. Да, ученые-нейросетевики не досконально понимают устройство мышления и восприятия человека, но пока что даже то понимание, которое есть у них, позволяет находить новые точки для улучшения ИИ. В будущем, скорее всего, нам действительно нужно будет идти вглубь, и изучать то, что вы написали.
Я прекрасно это осознаю, о чем я писала уже в половине своих комментариев
Так в этом-то и затык: как сделать структурную адаптацию?)
А я вам и говорю, что я не утверждаю, что "мышление таково", вот и все.
Я живу в математическом мире. В нем четко определены понятия свойства и признака объектов. И цилиндричность стакана с водой — вполне себе свойство. Если определять свойство как "свойство это то что мне хочется называть свойством", то ни о какой строгости и правильности формулировок речи быть не может.
И еще про "суть ваше видение". Отчасти да, но именно затем, чтобы мои слова были подкреплены чем-то большим, чем "мое видение", я привожу ссылки на научные работы, которые это "видение" подкрепляют. Поэтому я пишу "существуют убедительные данные, что", а не просто, что мы все воспринимаем структурно.
Мне становится довольно неприятно то, как вы выражаетесь. "Абсурд, в общем", "чудеса таки есть". Если честно, я вижу здесь нотку издевки.
Да, возможно, я ошибаюсь. Это нормально. И я дискутирую с вами в комментариях, чтобы разобраться в этом и, возможно, как-то поправить и расширить свое представление.
Но я все еще не вижу подмену и проекцию, да. Напротив, я вижу, что вы путаете следствие и признак. Цилиндричность не является признаком воды в стакане, как и структура не является признаком мышления. Но цилиндричность является свойством воды в стакане, как структура является свойством мышления.
Я не свожу восприятие к структурам, я указываю, что понимание структуры — одно из свойств восприятия. Пишу это уже раз третий, наверное.
Про барашка: да, это одно из свойств неба: на нем иногда может появляться что-то похожее на барашка. Если бы нам казалось, что барашек как-то помогает небу, то при моделировании небыли было бы логично попытаться барашка повторить. Да, в случае с небом понятно, что барашек — это вообще не фундаментальное его составляющее, и мы ошибались, думая, что моделировать барашка — хорошо. Также может быть и со структурой в восприятии. Но на данный момент нашего (хорошо, моего) понимания мышления кажется, что это свойство мышления нам помогает. И идея внедрить его в ИИ не лишена смысла.
Нет, я все же ничего не моделирую. Моделировать и описывать одно из свойств — разные вещи.
Формулировка порождает смысл у читающего в голове. Про "придираетесь" прошу прощения, если слово вас задело.
Мне кажется, вы меня неправильно поняли: я совсем не утверждаю, что мозг структурен и каждый его элемент отвечает за какой-то объект в иерархии. Я говорю, что мы воспринимаем объекты окружающего мира в том числе с помощью структуры. О том, как именно работает мозг и, не дай бог, о связи с нейросетями, я не говорю. Мой посыл: если человеку структурное восприятие помогает взаимодействовать с миром, то кажется логичным попытаться этот механизм внедрить в нейросети. При этом вообще не утверждается, что нейросети похожи на мозг ни в плане дизайна, ни в плане функции.
Про "создавать новое": имеется в виду новое для каждого конкретного человека.
Я поняла, что вы придираетесь к формулировке. Да, возможно, она не самая удачная и ее можно понять не так, как я задумывала. Я подумаю, возможно исправлю. На всякий случай поясню еще раз: я вообще не имею в виду, что "мышление работает вот так", и даже не "мышление можно смоделировать вот так". Я не моделирую мышление целиком. Я говорю, что одно из свойств нашего мышления в том, что оно использует структурное восприятие. Т.е. "мы воспринимаем мир с помощью структуры" — это не то же, что "мы воспринимаем мир только с помощью структуры". Кроме структуры в мышлении есть еще много составляющих, многие из которых нам непонятны .
Я не делаю подмену реальности, я ж не говорю, что я полностью описываю то, как работает человеческое мышление) Это одно из его свойств. Точно так же, как в психологии есть много различных моделей поведения/мышления человека — никакая из них не является точной, но все они описывают некие общие свойства разума и помогают в работе над психикой. Так и тут — эта модель помогает что-то понять о мышлении и, возможно, построить лучший ИИ