Если не ошибаюсь, текущий стандарт bluetooth передает звук только на один наушник. А тот уже сам связывается со вторым. Поэтому если пропадает звук при повороте головы, то просто переложите телефон в карман с другой стороны. Поближе к тому наушнику, который соединился с ним первым. Хотя новые TWS вроде обладают лучшей чувствительностью. Но для старых это неплохой способ борьбы с пропаданиями звука. Мне помогает.
Нет, там что-то такое, чтобы центр масс был всегда внутри опор или вроде того. Но для чего они перебирают ногами даже стоя на месте, я не знаю. Может завязано на PID'ы какие-нибудь. Вроде было название метода, но гугление не помогло, а как точнее сформулировать запрос, не могу придумать.
Это вопрос пары лет. Каждые несколько дней на arxiv.org выходят новые работы по SLAM на основе нейросетей. Предыдущие методы навигации на основе ключевых точек и облаков точек уперлись в свой максимум, а нейросети позволяют его преодолеть. Тут вам и сегментация, и локализация по объектам (а не просто визуальная одометрия), и многое другое. Пока результаты превосходят предыдущие методы только по отдельным пунктам, но принципиально ничто не мешает добиться навигации и перемещения на незнакомой местности, сравнимой с человеческой.
Кто-нибудь может подсказать название метода стабилизации, когда роботы так постоянно топают ногами? У бостоновских робособак тоже такое было. Даже когда стоит на месте, постоянно перебирает ногами. Там ведь даже MPC вроде не используется, а что-то более простое.
Уточнение: под CenterNet я имел ввиду CenterNet: Objects as Points, потому что есть ещё с таким же названием CenterNet: Keypoint Triplets for Object Detection. Они вроде вышли с разницей в пару дней, поэтому получилась путаница с названиями. Первая лучше. Вторая является развитием предыдущего поколения CornerNet, и скорее всего повлияла на последние тенденции отказа от регионов при поиске объектов, но судя по результатам, уступает по скорости и точности той что Objects as Points.
Yolo (включая последнюю третью версию YOLO3) и SSD, не говоря о древних R-CNN и аналогах, уже устарели. Их имеет смысл использовать только если есть ограничения, например запуск на мобильной платформе очень упрощённые версии этих сетей. Они могут распознавать только крупные объекты и работают с маленькими разрешениями от 224х224 до 300-600 максимум. После них появилась архитектура RetinaNet, которая сразу нормально работает с разрешениями под 1300х800 и распознает мелкие объекты размером с десяток пикселей. Однако и она уже устарела. Ей на смену пришли более новые CenterNet и EfficientDet, которые так же хорошо распознают мелкие детали, но работают точнее и быстрее. Эти нейросети снова вернули времена, когда на одном GPU за пару дней можно было обучить state-of-the-art распознавалку на конкурс. Из старых сетей разве что Faster R-CNN и пара AutoML моделей от гугла ещё удерживают позиции, но они очень медленные (хотя FasterRCNN и была в свое время самая быстрая из своего семейства).
Ну да. Скажем, поле Хиггса имеет ненулевую энергию. Но пока не сможем найти другой вид энергии, в который можно перевести эту ненулевую энергию, практически использовать ее никак не получится. Хотя она есть и измеряется в конкретном числе джоулей.
В двс на входе энергия химических связей в топливе, на выходе тепловая и механическая энергия. Это однонаправленный градиент энергии. Нельзя взять то количество тепла, что выделилось в результате работы двс и его механическую работу, и преобразовать их обратно в такое же количество химической энергии. На это придется затратить еще больше энергии.
Проще это представить как разность потенциальной энергии на разных высотах. Собственно говоря, есть такое понятие как высокопотенциальная и низкопотенциальная энергия. Электрическая энергия — высокопотенциальная. Тепловая — низкопотенциальная. Электрическая энергия легко переходит в тепловую. А обратно нет.
Поэтому недостаточно где-то найти источник энергии. Необходимо, чтобы ее можно было преобразовать в более низкопотенциальный вид энергии. То есть был нисходящий градиент энергии. Просто в обычной жизни под определением "источник энергии" уже подразумевается, что есть градиент, который можно использовать (другие варианты нас просто не интересовали). Но строго говоря, это не всегда так. И в необычных условиях, например среди космических источников энергии, это порой нужно учитывать. Как с Титаном, состоящим из сплошных углеводородов (топлива). Но толку от этого ноль, так как там отсутствуют окислители.
Гм… это похоже на редкое исключение, да? И это точно химические синапсы, а не электрические? Так-то по определению химические синапсы однонаправленные. С одной стороны выпускаются молекулы-нейромедиаторы (доставляемые в везикулах к синаптической щели), а с другой стороны расположены рецепторы, поглощающие эти молекулы. Но в принципе, ничто не мешает иметь рецепторы и с другой стороны и иметь двунаправленную связь. Но я так понимаю, это чрезвычайно редкие исключения, потому что прямой и обратный канал как минимум должны быть разделены на разные не пересекающиеся нейромедиаторы. Что в живых клетках сложно сделать, типов этих молекул ведь не так много. Как вы заметили, это видимо имеет смысл только для каких-то регуляторных целей.
Вот электрические синапсы — по сути прямой электрический контакт двух клеток, те конечно в большинстве своем двунаправленные. Но и там есть иногда однонаправленные (при обратном направлении открываются какие-то ионные каналы, не дающие сигналу идти в обратном направлении). И даже вроде бывают некие регуляторные функции, в зависимости от активности синапса.
Но электрические синапсы — это не те синапсы, на которых в основном работает мозг. Под синапсами обычно понимаются химические синапсы. Именно они, за счёт нейромедиаторов (но ценой временной задержки на 5 миллисекунд) позволяют всякие трюки, вроде аналога ReLu — распространять сигнал по мозгу цифровым способом, без уменьшения амплитуды сигнала (что на электрических синапсах было бы невозможно). Плюс всякого рода регулирование нейромедиаторами деятельности нервных клеток. Без чего обучение, память и прочее тоже были бы невозможны.
Вот смотрите, в солнечный день на экваторе на каждый квадратный метр падает 1 кВт мощности солнечной энергии (1000 Дж в секунду). Это энергия? Да, безусловно. Для полета одноместному самолёту достаточно 10-20 кВт, или энергии 10-20 кДж/сек. Значит самолёт с площадью крыла 20 м2, покрытому прозрачной пленкой с черной поверхностью внутри, собирающей всю эту тепловую энергию (есть черные материалы, поглощающие под 99% света), должен быть способен лететь от этой энергии, поступающей от солнца.
Но можно ли это сделать технически? Нет. Потому что реальный итоговый градиент энергии, который можно использовать для этой цели, совсем не так хорош. В данном случае это связано с КПД тепловой машины, преобразующей тепловую энергию от солнца в механическую вращения винта. Он по циклу Карно Карно зависит перепада температур, при нагреве солнцем воды до пара 100 град, КПД будет всего 1-2%. И для полета такому самолету понадобится крыло не 20 м2, а 2000 м2. Чтобы поднять КПД хотя бы до 25%, нужно температуру нагрева от солнца повышать до 1000 град или около того.
Как видите, неважно сколько получили энергии (хотя ее количество ограничивает верхний предел, конечно). Важно какой в итоге имеется градиент энергии до и после использования. Вся движуха в этой жизни работает именно на градиенте энергии. В случае атомной энергетики градиент энергии между тяжёлым изотопом или изомером, которые могут перейти в более лёгкую форму (или в более круглую форму в случае изомера), очень высок. Поэтому атомная и в будущем термоядерная энергетика так выгодны.
А то что в обычных атомах содержится невероятно огромная энергия внутриатомных связей (между кварками, например), если ее нельзя привести к какому-то градиенту энергии, то эта энергия полностью бесполезна. Независимо от ее количества в джоулях. Потому что без градиента — физических условий, где есть более высокий и более низкий уровень энергии, ее использовать невозможно.
Кстати, когда говорят об источниках энергии, то часто забывают, что все работает не на самой энергии как таковой, на градиенте энергии. К счастью, для сферы Дайсона такой градиент обеспечить очень легко — это горячее солнце с одной стороны и холодный космос с другой. Но все равно потребуется строить охладители, сравнимые по размеру с приемниками солнечного излучения. Которые будут после использования переизлучать энергию на более низкой частоте (инфракрасное излучение, как правило). На МКС радиаторы сравнимы по размеру с солнечными панелями. Это те что повернуты перпендикулярно солнцу. Перспективные системы, вроде капельных испарителей, конечно уменьшают необходимую площадь радиаторов, но кардинально проблему не решают.
Обычно это все не проблема, но иногда нужно учитывать. К примеру, Меркурий близок к солнцу, солнечные панели эффективны. Но где градиент, куда девать тепло от них? В космосе вы можете переизлучать радиаторами в космос с другой стороны. Но на самой планете придется строить тепловые насосы на другую, темную сторону планеты, чтобы там охлаждать. Так как день на Меркурии длится 88 суток и по ночам, как на земле, часто охлаждать не получится. Или взять спутник Титан. Углеводородов как топлива, там полно. Но где градиент энергии? Его нет, так как окислители там отсутствуют. Колонистам придется их везти их с собой. А так-то окислителя обычно требуется больше, чем топлива. Поэтому ещё не факт что выгоднее.
Поэтому искать нужно не легко доступные источники энергии, а легко доступные для использования градиенты энергии. Это касается и земной энергетики, кстати.
Это должно работать в обе стороны. Если правообладатель неправомерно потребовал запретить ролик (например, сделав это на основе роботизированного сервиса, не проверив вручную), то такой правообладатель должен быть удален из youtube, а его аккаунт заблокирован.
Я немного о другом, про емкость нейросетей как универсальных аппроксиматоров. Сейчас StyleGAN2 идеально генерирует лица людей. Неотличимых от реальных. Рано или поздно такие нейросети почти без изменения архитектуры смогут так же реалистично генерировать видео. А что такое видео? Этот движение. А значит, это можно будет применить к физическим роботам. И получим робота, который ведёт себя неотличимо о человека. То есть разумного. Это и есть имитационный ИИ. Который технически вполне достижим существующими методами обучения глубоких нейросетей, без изобретения не существующих сегодня RL алгоритмов для высоких размерностей.
Причем глядя на музыкальный клип длиной 3 минуты, вы вполне можете представить как будет себя вести и что делать рядом с вами певица из клипа. Значит этой длительности достаточно для имитационного моделирования. А значит это сможет сделать и имитационный ИИ на базе большой глубокой нейросети. В первую очередь конечно интересны секс-куклы, но можно например сделать так Эйнштейна или Илона Маска, чтобы поговорить с ними (внутри конечно нейросеть пройдется по всем историческим записям о них, чтобы сформировать реалистичный образ). И я напоминаю, что реалистичность их будет такая же, как у лиц из StyleGAN2 сейчас. Неплохой вариант, я считаю. А имитировав каких-нибудь мотивированных исторических трудяг-трудоголиков, получим промышленных роботов-рабочих (хотя это может не сработать, мало ли какие страдания испытывали эти трудоголики в жизни, а мы их тут воссозданим). Но этот путь ясен, не вызывает сомнений и вопрос только времени и роста вычислительных мощностей.
Это невозможно. Без картины мира чистый RL только в тетрис и может играть, а дальше сложность будет неподъемной. Поэтому природа и придумала иммитацию, наследственность, эволюцию, естественный отбор. Человеку, чтобы создать сильный ИИ, придется повторить весь этот путь
Смелое утверждение. Так-то это вопрос масштаба, принципиально ничто не мешает RL агенту действовать в реальном мире, а не только в симуляторе. Для построения модели мира в современном RL (в отличие от раннего, который из-за этого и не мог развиться) используются нейросети. А их емкость огромна. Не хуже, чем у человека.
100 Мб нейросеть способна вобрать в себя языковую модель. 50-500 Мб сеть полностью имитирует зрительную систему человека (выбор фич и т.д.). А что будет, когда размеры нейросетей достигнут 1 Гб, 10 Гб, 100 Гб?
При хорошем датасете там может зародиться разум даже без RL. Чисто на обычных способах обучения глубоких нейросетей.
Шило на мыло… Хотя они оба постепенно приходят к некоему общему виду. И это не считая внешних попыток объединения, вроде ONNX.
Встроенный Keras в Tensorflow это очень правильное решение. Он там давно был, просто плохо поддерживался (версия отставала и не все было). А потом они вроде были наняли разработчика Keras на какое-то время, чтобы он активнее занимался интеграцией. Или из-за Eager поднапряглись. В любом случае, сейчас он там нормально функционален.
Но все то наследие, которое было наработано на Tensorflow за последние несколько лет (предобученные нейросети, исходники научных работ и т.д.) уже через несколько месяцев будет безвозвратно потеряно.
Там дело не только несовместимости версий самой Tensorflow. Оно тянет за собой другие проблемы — с драйверами для GPU, с компиляторами CUDA и т.д… Спустя некоторое время не удается запустить сохраненную нейросеть даже в виртуальном окружении в питоне. Приходится городить совсем изолированную систему, а данные в нейросеть и обратно гонять через какие-нибудь вебсокеты. Ужасный геморой. Надо было изначально делать что-то вроде аналога .exe, чтобы сохраненная нейросеть содержала в себе все что нужно и могла работать всегда в будущем. А там сейчас даже в одном Tensorflow зоопарк форматов сохранения. И они продолжают плодить новые.
Ну да, только виртуальные окружения и спасают. Хотя там есть проблемы с разделяемыми ресурсами, такими как установленные версии Cuda. Которые тоже не очень продуманы, т.к. путь к текущей прописывается в PATH.
Но я не об этом. А в том, что эти фреймворки возникли очень быстро на волне хайпа, поэтому о долговременной совместимости тогда никто не думал. Лепили на коленке побыстрее и все. А теперь мы расхлебываем последствия.
Была нейросеть, которую обучали на показаниях людей в суде. А говорили они правду или нет, выяснялось потом в процессе расследования. Очень хороший непредвзятый подход, имхо. Там конечно никакого результата не добились — мало данных. Но идея хороша.
Вот умеют в Tensorflow навести сложность на ровном месте. Keras как раз хорош тем, что в свое время упростил начальные шаги в нейронных сетях. Набираете массив примеров, скармливаете его Keras, тот какое-то время думает, и готово. Потом можете показывать ему по одному или пачками примеры, а он будет выдавать для них предсказание сети.
Но все это разбивается о реальность. Нейросети стали такими сложными, что через одну используют cuda компилируемые части и custom objects, которые не сохраняются в Keras моделях. И все, приходится тащить кучу python кода с каждой моделью, который с каждой новой версией Tensorflow превращается в тыкву (даже не обязательно мажорной, минорные версии тоже часто ломают обратную совместимость). И все это в основном заслуга Tensorflow. Сейчас большая часть нейросетей, написанных на Tensorflow даже несколько месяцев назад, уже не запускаются. В том числе с их официальных репозиториев. Киберпанк, который мы заслужили.
Если не ошибаюсь, текущий стандарт bluetooth передает звук только на один наушник. А тот уже сам связывается со вторым. Поэтому если пропадает звук при повороте головы, то просто переложите телефон в карман с другой стороны. Поближе к тому наушнику, который соединился с ним первым. Хотя новые TWS вроде обладают лучшей чувствительностью. Но для старых это неплохой способ борьбы с пропаданиями звука. Мне помогает.
Ну правильно, сотрудник Ring все это проверит. Заодно присмотрит за женой.
Нет, там что-то такое, чтобы центр масс был всегда внутри опор или вроде того. Но для чего они перебирают ногами даже стоя на месте, я не знаю. Может завязано на PID'ы какие-нибудь. Вроде было название метода, но гугление не помогло, а как точнее сформулировать запрос, не могу придумать.
Тяжелый вызов оптимисту — стакан, наполненный на треть ))
Это вопрос пары лет. Каждые несколько дней на arxiv.org выходят новые работы по SLAM на основе нейросетей. Предыдущие методы навигации на основе ключевых точек и облаков точек уперлись в свой максимум, а нейросети позволяют его преодолеть. Тут вам и сегментация, и локализация по объектам (а не просто визуальная одометрия), и многое другое. Пока результаты превосходят предыдущие методы только по отдельным пунктам, но принципиально ничто не мешает добиться навигации и перемещения на незнакомой местности, сравнимой с человеческой.
Кто-нибудь может подсказать название метода стабилизации, когда роботы так постоянно топают ногами? У бостоновских робособак тоже такое было. Даже когда стоит на месте, постоянно перебирает ногами. Там ведь даже MPC вроде не используется, а что-то более простое.
Уточнение: под CenterNet я имел ввиду CenterNet: Objects as Points, потому что есть ещё с таким же названием CenterNet: Keypoint Triplets for Object Detection. Они вроде вышли с разницей в пару дней, поэтому получилась путаница с названиями. Первая лучше. Вторая является развитием предыдущего поколения CornerNet, и скорее всего повлияла на последние тенденции отказа от регионов при поиске объектов, но судя по результатам, уступает по скорости и точности той что Objects as Points.
Yolo (включая последнюю третью версию YOLO3) и SSD, не говоря о древних R-CNN и аналогах, уже устарели. Их имеет смысл использовать только если есть ограничения, например запуск на мобильной платформе очень упрощённые версии этих сетей. Они могут распознавать только крупные объекты и работают с маленькими разрешениями от 224х224 до 300-600 максимум. После них появилась архитектура RetinaNet, которая сразу нормально работает с разрешениями под 1300х800 и распознает мелкие объекты размером с десяток пикселей. Однако и она уже устарела. Ей на смену пришли более новые CenterNet и EfficientDet, которые так же хорошо распознают мелкие детали, но работают точнее и быстрее. Эти нейросети снова вернули времена, когда на одном GPU за пару дней можно было обучить state-of-the-art распознавалку на конкурс. Из старых сетей разве что Faster R-CNN и пара AutoML моделей от гугла ещё удерживают позиции, но они очень медленные (хотя FasterRCNN и была в свое время самая быстрая из своего семейства).
Просто смотрите графики
Ну да. Скажем, поле Хиггса имеет ненулевую энергию. Но пока не сможем найти другой вид энергии, в который можно перевести эту ненулевую энергию, практически использовать ее никак не получится. Хотя она есть и измеряется в конкретном числе джоулей.
В двс на входе энергия химических связей в топливе, на выходе тепловая и механическая энергия. Это однонаправленный градиент энергии. Нельзя взять то количество тепла, что выделилось в результате работы двс и его механическую работу, и преобразовать их обратно в такое же количество химической энергии. На это придется затратить еще больше энергии.
Проще это представить как разность потенциальной энергии на разных высотах. Собственно говоря, есть такое понятие как высокопотенциальная и низкопотенциальная энергия. Электрическая энергия — высокопотенциальная. Тепловая — низкопотенциальная. Электрическая энергия легко переходит в тепловую. А обратно нет.
Поэтому недостаточно где-то найти источник энергии. Необходимо, чтобы ее можно было преобразовать в более низкопотенциальный вид энергии. То есть был нисходящий градиент энергии. Просто в обычной жизни под определением "источник энергии" уже подразумевается, что есть градиент, который можно использовать (другие варианты нас просто не интересовали). Но строго говоря, это не всегда так. И в необычных условиях, например среди космических источников энергии, это порой нужно учитывать. Как с Титаном, состоящим из сплошных углеводородов (топлива). Но толку от этого ноль, так как там отсутствуют окислители.
Гм… это похоже на редкое исключение, да? И это точно химические синапсы, а не электрические? Так-то по определению химические синапсы однонаправленные. С одной стороны выпускаются молекулы-нейромедиаторы (доставляемые в везикулах к синаптической щели), а с другой стороны расположены рецепторы, поглощающие эти молекулы. Но в принципе, ничто не мешает иметь рецепторы и с другой стороны и иметь двунаправленную связь. Но я так понимаю, это чрезвычайно редкие исключения, потому что прямой и обратный канал как минимум должны быть разделены на разные не пересекающиеся нейромедиаторы. Что в живых клетках сложно сделать, типов этих молекул ведь не так много. Как вы заметили, это видимо имеет смысл только для каких-то регуляторных целей.
Вот электрические синапсы — по сути прямой электрический контакт двух клеток, те конечно в большинстве своем двунаправленные. Но и там есть иногда однонаправленные (при обратном направлении открываются какие-то ионные каналы, не дающие сигналу идти в обратном направлении). И даже вроде бывают некие регуляторные функции, в зависимости от активности синапса.
Но электрические синапсы — это не те синапсы, на которых в основном работает мозг. Под синапсами обычно понимаются химические синапсы. Именно они, за счёт нейромедиаторов (но ценой временной задержки на 5 миллисекунд) позволяют всякие трюки, вроде аналога ReLu — распространять сигнал по мозгу цифровым способом, без уменьшения амплитуды сигнала (что на электрических синапсах было бы невозможно). Плюс всякого рода регулирование нейромедиаторами деятельности нервных клеток. Без чего обучение, память и прочее тоже были бы невозможны.
Вот смотрите, в солнечный день на экваторе на каждый квадратный метр падает 1 кВт мощности солнечной энергии (1000 Дж в секунду). Это энергия? Да, безусловно. Для полета одноместному самолёту достаточно 10-20 кВт, или энергии 10-20 кДж/сек. Значит самолёт с площадью крыла 20 м2, покрытому прозрачной пленкой с черной поверхностью внутри, собирающей всю эту тепловую энергию (есть черные материалы, поглощающие под 99% света), должен быть способен лететь от этой энергии, поступающей от солнца.
Но можно ли это сделать технически? Нет. Потому что реальный итоговый градиент энергии, который можно использовать для этой цели, совсем не так хорош. В данном случае это связано с КПД тепловой машины, преобразующей тепловую энергию от солнца в механическую вращения винта. Он по циклу Карно Карно зависит перепада температур, при нагреве солнцем воды до пара 100 град, КПД будет всего 1-2%. И для полета такому самолету понадобится крыло не 20 м2, а 2000 м2. Чтобы поднять КПД хотя бы до 25%, нужно температуру нагрева от солнца повышать до 1000 град или около того.
Как видите, неважно сколько получили энергии (хотя ее количество ограничивает верхний предел, конечно). Важно какой в итоге имеется градиент энергии до и после использования. Вся движуха в этой жизни работает именно на градиенте энергии. В случае атомной энергетики градиент энергии между тяжёлым изотопом или изомером, которые могут перейти в более лёгкую форму (или в более круглую форму в случае изомера), очень высок. Поэтому атомная и в будущем термоядерная энергетика так выгодны.
А то что в обычных атомах содержится невероятно огромная энергия внутриатомных связей (между кварками, например), если ее нельзя привести к какому-то градиенту энергии, то эта энергия полностью бесполезна. Независимо от ее количества в джоулях. Потому что без градиента — физических условий, где есть более высокий и более низкий уровень энергии, ее использовать невозможно.
Кстати, когда говорят об источниках энергии, то часто забывают, что все работает не на самой энергии как таковой, на градиенте энергии. К счастью, для сферы Дайсона такой градиент обеспечить очень легко — это горячее солнце с одной стороны и холодный космос с другой. Но все равно потребуется строить охладители, сравнимые по размеру с приемниками солнечного излучения. Которые будут после использования переизлучать энергию на более низкой частоте (инфракрасное излучение, как правило). На МКС радиаторы сравнимы по размеру с солнечными панелями. Это те что повернуты перпендикулярно солнцу. Перспективные системы, вроде капельных испарителей, конечно уменьшают необходимую площадь радиаторов, но кардинально проблему не решают.
Обычно это все не проблема, но иногда нужно учитывать. К примеру, Меркурий близок к солнцу, солнечные панели эффективны. Но где градиент, куда девать тепло от них? В космосе вы можете переизлучать радиаторами в космос с другой стороны. Но на самой планете придется строить тепловые насосы на другую, темную сторону планеты, чтобы там охлаждать. Так как день на Меркурии длится 88 суток и по ночам, как на земле, часто охлаждать не получится. Или взять спутник Титан. Углеводородов как топлива, там полно. Но где градиент энергии? Его нет, так как окислители там отсутствуют. Колонистам придется их везти их с собой. А так-то окислителя обычно требуется больше, чем топлива. Поэтому ещё не факт что выгоднее.
Поэтому искать нужно не легко доступные источники энергии, а легко доступные для использования градиенты энергии. Это касается и земной энергетики, кстати.
Это должно работать в обе стороны. Если правообладатель неправомерно потребовал запретить ролик (например, сделав это на основе роботизированного сервиса, не проверив вручную), то такой правообладатель должен быть удален из youtube, а его аккаунт заблокирован.
Я немного о другом, про емкость нейросетей как универсальных аппроксиматоров. Сейчас StyleGAN2 идеально генерирует лица людей. Неотличимых от реальных. Рано или поздно такие нейросети почти без изменения архитектуры смогут так же реалистично генерировать видео. А что такое видео? Этот движение. А значит, это можно будет применить к физическим роботам. И получим робота, который ведёт себя неотличимо о человека. То есть разумного. Это и есть имитационный ИИ. Который технически вполне достижим существующими методами обучения глубоких нейросетей, без изобретения не существующих сегодня RL алгоритмов для высоких размерностей.
Причем глядя на музыкальный клип длиной 3 минуты, вы вполне можете представить как будет себя вести и что делать рядом с вами певица из клипа. Значит этой длительности достаточно для имитационного моделирования. А значит это сможет сделать и имитационный ИИ на базе большой глубокой нейросети. В первую очередь конечно интересны секс-куклы, но можно например сделать так Эйнштейна или Илона Маска, чтобы поговорить с ними (внутри конечно нейросеть пройдется по всем историческим записям о них, чтобы сформировать реалистичный образ). И я напоминаю, что реалистичность их будет такая же, как у лиц из StyleGAN2 сейчас. Неплохой вариант, я считаю. А имитировав каких-нибудь мотивированных исторических трудяг-трудоголиков, получим промышленных роботов-рабочих (хотя это может не сработать, мало ли какие страдания испытывали эти трудоголики в жизни, а мы их тут воссозданим). Но этот путь ясен, не вызывает сомнений и вопрос только времени и роста вычислительных мощностей.
Смелое утверждение. Так-то это вопрос масштаба, принципиально ничто не мешает RL агенту действовать в реальном мире, а не только в симуляторе. Для построения модели мира в современном RL (в отличие от раннего, который из-за этого и не мог развиться) используются нейросети. А их емкость огромна. Не хуже, чем у человека.
100 Мб нейросеть способна вобрать в себя языковую модель. 50-500 Мб сеть полностью имитирует зрительную систему человека (выбор фич и т.д.). А что будет, когда размеры нейросетей достигнут 1 Гб, 10 Гб, 100 Гб?
При хорошем датасете там может зародиться разум даже без RL. Чисто на обычных способах обучения глубоких нейросетей.
Шило на мыло… Хотя они оба постепенно приходят к некоему общему виду. И это не считая внешних попыток объединения, вроде ONNX.
Встроенный Keras в Tensorflow это очень правильное решение. Он там давно был, просто плохо поддерживался (версия отставала и не все было). А потом они вроде были наняли разработчика Keras на какое-то время, чтобы он активнее занимался интеграцией. Или из-за Eager поднапряглись. В любом случае, сейчас он там нормально функционален.
Но все то наследие, которое было наработано на Tensorflow за последние несколько лет (предобученные нейросети, исходники научных работ и т.д.) уже через несколько месяцев будет безвозвратно потеряно.
Там дело не только несовместимости версий самой Tensorflow. Оно тянет за собой другие проблемы — с драйверами для GPU, с компиляторами CUDA и т.д… Спустя некоторое время не удается запустить сохраненную нейросеть даже в виртуальном окружении в питоне. Приходится городить совсем изолированную систему, а данные в нейросеть и обратно гонять через какие-нибудь вебсокеты. Ужасный геморой. Надо было изначально делать что-то вроде аналога .exe, чтобы сохраненная нейросеть содержала в себе все что нужно и могла работать всегда в будущем. А там сейчас даже в одном Tensorflow зоопарк форматов сохранения. И они продолжают плодить новые.
Ну да, только виртуальные окружения и спасают. Хотя там есть проблемы с разделяемыми ресурсами, такими как установленные версии Cuda. Которые тоже не очень продуманы, т.к. путь к текущей прописывается в PATH.
Но я не об этом. А в том, что эти фреймворки возникли очень быстро на волне хайпа, поэтому о долговременной совместимости тогда никто не думал. Лепили на коленке побыстрее и все. А теперь мы расхлебываем последствия.
Была нейросеть, которую обучали на показаниях людей в суде. А говорили они правду или нет, выяснялось потом в процессе расследования. Очень хороший непредвзятый подход, имхо. Там конечно никакого результата не добились — мало данных. Но идея хороша.
Вот умеют в Tensorflow навести сложность на ровном месте. Keras как раз хорош тем, что в свое время упростил начальные шаги в нейронных сетях. Набираете массив примеров, скармливаете его Keras, тот какое-то время думает, и готово. Потом можете показывать ему по одному или пачками примеры, а он будет выдавать для них предсказание сети.
Но все это разбивается о реальность. Нейросети стали такими сложными, что через одну используют cuda компилируемые части и custom objects, которые не сохраняются в Keras моделях. И все, приходится тащить кучу python кода с каждой моделью, который с каждой новой версией Tensorflow превращается в тыкву (даже не обязательно мажорной, минорные версии тоже часто ломают обратную совместимость). И все это в основном заслуга Tensorflow. Сейчас большая часть нейросетей, написанных на Tensorflow даже несколько месяцев назад, уже не запускаются. В том числе с их официальных репозиториев. Киберпанк, который мы заслужили.
Ну и правильно делает. Чтобы выйти из зоны комфорта, надо сначала в нее войти )