В статье описан иерархический RL: робот в симуляторе обучен нескольким простым действиям, а более высокоуровневая нейросеть их переключает (возможно, плавно, с некоторым весами). Это известный подход, но он ограничен числом этих простых действий, нейросети пока не могут справляться с их большим количеством.
А ниже применен другой подход: сначала в симуляторе обучена нейросеть, у которой на входе были дополнительные данные о рельефе вокруг. Что позволило ей эффективно обучиться. А потом из нее была дистиллирована (т.е. обучена предсказывать напрямую выходы первой) другая нейросеть, которая этих данные не имеет. И вот она уже была загружена в робособаку. Результат тоже очень хороший. Робот смог уверенно ходить по любому типу рельефа: вода, снег, трава, щебенка, болото, склоны, ступеньки и т.д.
Есть ещё более странная штука… Если измерить второй фотон, который путешествует миллиарды лет, то сколлапсирует и первый фотон, находящийся в далёком прошлом. Потому что это один квантовый объект. И это подтверждается экспериментами, гуглить про отложенный выбор.
Простой пример: с бытовой точки зрения, если фотон проходит через щели в неопределенном состоянии (как волна) или в сколлапсированном (как точечная частица в пространстве), то чисто физически это зависит от этой щели, верно? Ну, размер интерференционной картины на экране, фокусировка, вот это все. Она определяется размером двух щелей и расстоянием между ними. То есть, этот процесс должен определяться геометрией щелей и происходить в тот момент времени, когда фотон проходит через нее (т.к. фотон движется со скоростью света и стоять на месте не может).
Но если принимать решение измерять фотон или нет, когда он уже прошел щель (он ведь движется со скоростью света, верно?), то ничего не меняется! Фокусировка интерференционной картины (если не измеряем) или выбор через какую щель пройти ему как в точечном сколлапсированном виде (если измерили), все так же зависит от геометрии щелей. Хотя это должно было произойти в прошлом! Ведь мы измерили, и тем самым сколлапсировали его волновую функцию уже после того, как он прошел мимо щелей, двигаясь на своей скорости света. Этот эффект подтверждён кучей экспериментов, в разных условиях и с разными квантовыми частицами.
Это пример того, что если думать в терминах квантовой механики, то приходится отказываться от многих привычных бытовых представлений о том, как работает мир.
Вопрос: Какие локальные процессы послужили причиной фиксации состояния квантового объекта, и в каком из 2-х мест оно произошло?
Событие — декогеренция квантового объекта с квантовыми объектами, из которых состоит наблюдатель. Так как они в свою очередь тоже связаны с кучей других атомов, то вероятность появления этого квантового объекта в другом месте (в данном случае, появление другого спина) стремится к нулю и превышает несколько возрастов вселенной. Собственно, это и есть коллапс волновой функции в копенгагенской интерпретации, либо безвозвратная потеря доступа к некоторым веткам волновой функции всей вселенной в многомировой интерпретации.
Это событие произошло не в каком-то месте, а с квантовым объектом. С его волновой функцией. Если это одиночный фотон/электрон/и т.д., то да, условно можно считать, что это произошло в какой-то точке пространства. Но если это запутанные фотоны, то это произошло одновременно с ними всеми (потому что это не отдельные фотоны, а один квантовый объект, даже если он размером со вселенную). Поэтому тут нет двух мест и двух событий, это изменилась волновая функция целого объекта. Но она продолжает развиваться, хотя уже и выглядит как вероятность 1.0, то есть сколлапсированная волновая функция. И часть этого развития для нас выглядит, как продолжающий путешествовать второй фотон с определенным спином. На самом деле в квантовой механике он никуда не путешествует, а просто его волновая функция продолжает взаимодействовать с волновыми функциями других квантовых объектов (хотя она уже декогерированная, т.е. связанная с кучей других атомов, и для нас воспринимается как конкретный определившийся спин).
Так что нет, факт наблюдения квантового объекта не влияет на события в другом месте, где сейчас находится второй фотон. То есть, на второй фотон нельзя повлиять целенаправленно (изменить его спин на конкретный, с помощью изменения первого. т.к. измерение первого случайное). Но да, после измерения первого фотона, второй тоже стал другим, и теперь события в другом конце вселенной пойдут по другому сценарию. Здесь ключевой момент, что это не причинно-следственая связь, как нам кажется. Потому что мы здесь ничего не изменяем. Мы измеряем случайную величину. А это другое.
Но я понимаю о чем вы. Действительно, из-за наблюдения в одном месте вселенной, в другом ее конце дела пойдут иначе (так как спин второго фотона станет фиксированным). Просто из-за невозможности на это повлиять на скорости выше световой, от этого ничего не меняется и процессы остаются такими же, как если бы они были полностью случайными (да они такие и есть, по сути). Может, кто-нибудь сможет лучше объяснить ). В квантовой механике приходится думать другими категориями, через эволюцию волновых функций. Всех квантовых объектов и всей вселенной целиком.
Программирование считается технической и основанной на логике профессией. Как собирать кубики лего. Есть задача = есть решение. Но это не так. На самом деле это творческая профессия. У тебя есть задача, но непонятно как ее решить. Изобрети способ ее решения, дружок, у тебя два часа, время пошло. Неудивительно, что для многих людей с неподходящим характером это сильный стресс. Если бы мне дали задание нарисовать картину, которая понравится покупателям и будет продана за миллион на аукционе, да ещё и надо это сделать до завтра. То я тоже впал бы в депрессию и ушел в запой, даже не начиная ее рисовать. А ведь все программистские задачи примерно такие. И, главное, никто за тебя ее не сделает (не решит задачу, не составит алгоритм, не напишет картину). Тут надо реально работать, проблема сама собой в принципе не рассосётся, как это бывает на многих других профессиях.
С другой стороны, если у человека сразу появляются идеи как ее решить (как у художника сразу появляется идея эскиза), то такая работа в радость. Плюс со временем накапливается опыт и своя кодовая база типичных решений, и все делать становится легче (аналог опытного художника). И растет навык пользования stackoverflow =).
Есть ещё усталость от монотонной работы, но это типичная проблема любой работы за деньги, она решается сменой задач. Не уходя при этом из профессии.
второе уже предопределено вне зависимости от места и времени.
А почему бы ему не быть определенным? Это ведь один квантовый объект (состоящий из двух фотонов). То что он растянут на полвселенной, ничего не меняет. Он прореагировал с первым учёным и принял конкретную форму (конкретный спин). В другой части вселенной другой учёный будет дальше работать с уже этой конкретной формой, потому что он работает с этим же единственным квантовым объектом. Для него это выглядит случайным только из-за случайной природы первого фотона. Точнее, всего квантового объекта, состоящего из двух фотонов.
Из-за того, что второй фотон может продолжать путешествовать и второй учёный с ним провзаимодействует потом, кажется что второе событие это следствие первого. Мол, зависит от первого. Но это не так. С точки зрения квантовой механики это было одно событие с квантовым объектом, после чего он определился со спином. А все остальные взаимодействия будут с определившимся. Для тех же фотонов времени вообще нет из-за их нулевой массы, они мгновенно рождаются и мгновенно исчезают, хотя для нас могут пролететь через всю вселенную.
Так это объясняет текущая квантовая механика ). Мол, почему нет передачи информации выше скорости света (из-за того что это один квантовый объект). И почему нет временной причинно-следственной связи между измерениями обоих фотонов (потому что весь квантовый объект принципиально случаен и потому что это один объект). Но вообще, все это неочевидно, конечно.
А вот интересный случай, если мы измерили первый фотон, а второй за это время облетит вокруг черной дыры и вернётся через миллиард лет. То он вернётся уже с конкретным спином, который мы знаем, и может запустить взрыв.
Только это опять ничего не даёт. Потому что мы и так знаем по первому, какой там будет спин. Ждать миллиард лет для этого не нужно. А управлять взрывом через миллиард лет с помощью первого фотона мы не сможем. Потому что он случайный — часть измерений даст спин вверх, а часть вниз. А значит в бомбе через миллиард лет должен быть механизм выбора, какие фотоны в этой последовательности использовать, а какие пропустить. То есть, надо передать туда информацию об этом по стороннему классическому каналу.
Нет. Потому что нельзя принудительно задать первому фотону определенный спин, чтобы активировать взрыв вторым фотоном. Спин у первого будет измерен как случайный. Соответственно, у второго удаленного фотона спин тоже окажется случайным. Противоположным первому, но все же случайным. И поэтому для него ничего не меняется — взрыв будет случайным. Он не зависит от того, в каких условиях был проведен первый эксперимент, так как его результат был случаен. Информация не передается и поэтому ничего не нарушается.
Предыдущий опыт может быть по разделению звуков на категории. И слово "мама" попадает в уже готовую категорию. Как близкий вектор в word2vec модели. Поэтому и распознается окончательно с десятков/сотен повторений.
Думаю, это имел ввиду предыдущий комментатор. Но в реальности все сложнее, конечно, ведь это и физиология — мозг и все тело развиваются.
Но о pretrained подготовке говорит тот факт, что число связей у младенца в первое время уменьшается. И как только все это устаканивается, как только мозг научится понимать картину мира в целом, тогда начинается резкий прогресс в few-shot обучении.
Еще бы! Не зря это вызывает такую сильную негативную реакцию. Люди подсознательно чувствуют, что такими робозвонками их пытаются на*ть. Можно вспомнить, например, пари Паскаля. Когда что-то выглядит логичным и подается как полностью в ваших интересах (как компании сейчас пытаются представить, что с ботами будет удобнее). Но на самом деле у людей есть способность отказываться от таких "заманчивых" предложений, интуитивно понимая, что здесь что-то не так. Даже не осознавая, почему.
Все упирается в то, нужна ли вам эта услуга. Если вы в ней заинтересованы, то в звонке для подтверждения (или SMS, или бот в мессенджерах) нет ничего плохого. Наоборот, это воспринимается как внимание и забота. И это действительно удобно.
Но если вы не хотите идти, а вам звонят голосом, то это вызовет более сильную негативную реакцию, чем если бы написали текстом. Потому что вы интуитивно поймете, что голосом вам звонят только для того, чтобы оказать на вас моральное давление.
Ну и плюс предыдущий негативный опыт со спам робозвонками накладывается… Тут уже фирме самой решать, насколько она уверена что человек хочет прийти (тогда можно и приятным голосом позвонить, если думают что для их целевой аудитории звонки приятнее текста). Или что смогут так надавить на сомневающихся. По-моему, эффект обратный и того не стоит. В наше время текстовые уведомления стали привычнее и удобнее. Голосом нужно звонить только для экстренных случаев. "Ждем вас в поликлинике через полчаса на кастрацию. Доктор уже выехал". Скрипучий голос первого робота Антона как раз подойдет.
"is often the default algorithm" )). Да, вы правы, используется nearest. Это еще сильнее упрощает дело.
В новости неточность. Вместо "с помощью OpenCV с настройками по умолчанию" должно быть "c настройками OpenCV, не являющимися по умолчанию, но иногда включаемым на сервере для ускорения расчетов". Хотя мне сложно представить, чтобы кто-то для изменения размера использовал в продакшете nearest. Уж больно видны в нем артефакты в большинстве случаев. Это чисто технический метод для редких служебных целей. А так для уменьшения размера в OpenCV есть специальный метод INTER_AREA, по скорости сравнимый с NEAREST, но убирающий муар. Если уж классическая билинейная интерполяция (которая как раз используется по умолчанию) не устраивает. Не говоря о более качественных кубической и Lanczos интерполяциях.
В OpenCV при изменении размера по умолчанию используется билинейная интерполяция. Соответственно, можно легко посчитать какие должны быть цвета в 4 точках, откуда она берет значения, чтобы в результате получился нужный цвет пикселя в итоговом изображении. Это будет работать при изменении на конкретный размер, правда. Все это очевидно и лежит на поверхности, забавно что кто-то додумался до такого использования)
Они думают, что если человек слышит по телефону живой голос, то ему будет неудобно отказывать, и так они повысят свою конверсию. Там половина мотивации принятия такого решения не раскрыта. Маркетологи, что с них взять )
Это количество связей между нейронами. Аналог синапса. Так как оптимизация при обучении делается по связям между нейронами, то число гиперпараметров показывает размер и сложность нейросети.
Для перевода в аналог количества нейронов в мозге, число гиперпараметров нейросети можно делить на 1000. Так как в мозге каждый нейрон имеет в среднем по 1000 связей.
Дело в том, что встраивать дома активные системы безопасности — это, по сути, минировать собственный дом. Что большинству людей не нравится. Это некомфортно. А когда управляешь дроном с оружием, то это твои собственные контролируемые действия. Думаю, отношение к этому будет совсем другим психологически.
Если ему встроить электрошокер, то может получиться забавная игрушка. Догони вора, называется. А еще лучше спрей с хлороформом. От этого уже будет реальная польза, а не просто веселье.
мы говорим о разуме, который взаимодействует с миром только через текстовый интерфейс, или воплощен в реальном мире?
Текстовым интерфейсом можно управлять реальным миром. Посылая через Serial порт команды на двигатели, например. GPT успешно выдает куски кода, значит и такие команды сможет.
Как минимум — он не имеет долговременной памяти. Он не вспомнит о чем разговаривал с тобой вчера
Долговременной — да. А вот в пределах разговора память у него есть. Если часть чата была вчера, а сегодня продолжить, то получается что запомнил что было вчера? Тут границы довольно размыты, имхо...
не может усваивать новую информацию и учится…
А вот это да, нейросеть не меняется. Хотя в пределах разговора вполне может учиться. Пример чата выше — это ведь его вводным текстом научили вести диалог в виде чата.
С сенсорикой помимо текста вообще интересно… В GPT каждое слово переводится в эмбеддинг длиной 512 байт, если не ошибаюсь. Это довольно большое пространство, туда не только текст можно вместить, но и картинки. Если автоэнкодером сжать картинку с камеры до 512 байт, то ее можно подавать вместе с текстом прямо в текущую архитектуру GPT.
Не смотря на текстовую природу этой нейросети, на самом деле она работает с понятиями, закодированным в эмбеддингах. Так же как сверточные нейросети работают не с пикселями, а с абстрактными features. Там буквально первые три слоя переводят пиксели в высокоуровневые объекты типа "человек", "собака", остальные сотни слоев работают с такими абстрактными понятиями.
не может спорить (на глубоком уровне — с анализом аргументации оппонента)
А вот тут тоже интересно. Технически, эти трансформеры состоят примерно из 20 слоев (вроде сейчас уже до 64 довели или выше). Поэтому, действительно, кажется что он не может вести длинные последовательные рассуждения. Но ведь вывод делается по одной букве (точнее, по токенам, но обычно это и есть одна или пара букв). А потом свой выход подаётся себе же на вход, чтобы сгенерировать на выходе следующий токен/букву. GPT это авторегрессионная модель. А значит, итоговый ответ получается проходом не через 20 слоев, а много-много раз пропускается через эти 20 слоев, и каждый раз с чуть уточнённый информацией. Удлиняющимся побуквенно текстом.
Это довольно похоже на длительный последовательный рекуррентный процесс мышления. Возможно, этим и объясняется такой хороший результат. Если бы она выдавала сразу готовую фразу за один проход, то не факт что получилось бы что-то сложное. Хотя не знаю, на текущем уровне GPT может хватило бы и 20 слоев. Она же пока далека до настоящего разума. Но авторегрессионный механизм, как возможность многократного прогона чуть меняющейся информации через нейросеть, заслуживает внимания, имхо.
Это все постепенный медленный прогресс… Но что интересно, каждая следующая разработка приближается к тому, как работает настоящий человеческий мозг. Мы ведь тоже заранее планируем, куда именно пойти при изучении нового места, прокручивая в голове что от него можно ожидать и что там может случиться. Увидев необычный предмет, у нас заранее появляется любопытство и желание с ним экспериментировать, а не в момент самого взаимодействия. Особенно это заметно у младенцев, то как они целенаправленно изучают новые предметы, а не просто удивляются свершившемся факту (хотя и это тоже). Подробнее тут: https://bair.berkeley.edu/blog/2020/07/24/icm-kids/
И чтобы выучить новый навык, мы тоже прорабатываем последовательность действий в воображении. Тренируемся, обучаемся мысленно. Все это очень похоже на то, как устроен последний Plan2Explore. С поправкой на то, что это первые робкие шаги, а не завершенный алгоритм, конечно.
В статье описан иерархический RL: робот в симуляторе обучен нескольким простым действиям, а более высокоуровневая нейросеть их переключает (возможно, плавно, с некоторым весами). Это известный подход, но он ограничен числом этих простых действий, нейросети пока не могут справляться с их большим количеством.
А ниже применен другой подход: сначала в симуляторе обучена нейросеть, у которой на входе были дополнительные данные о рельефе вокруг. Что позволило ей эффективно обучиться. А потом из нее была дистиллирована (т.е. обучена предсказывать напрямую выходы первой) другая нейросеть, которая этих данные не имеет. И вот она уже была загружена в робособаку. Результат тоже очень хороший. Робот смог уверенно ходить по любому типу рельефа: вода, снег, трава, щебенка, болото, склоны, ступеньки и т.д.
https://www.youtube.com/watch?v=9j2a1oAHDL8
Есть ещё более странная штука… Если измерить второй фотон, который путешествует миллиарды лет, то сколлапсирует и первый фотон, находящийся в далёком прошлом. Потому что это один квантовый объект. И это подтверждается экспериментами, гуглить про отложенный выбор.
Простой пример: с бытовой точки зрения, если фотон проходит через щели в неопределенном состоянии (как волна) или в сколлапсированном (как точечная частица в пространстве), то чисто физически это зависит от этой щели, верно? Ну, размер интерференционной картины на экране, фокусировка, вот это все. Она определяется размером двух щелей и расстоянием между ними. То есть, этот процесс должен определяться геометрией щелей и происходить в тот момент времени, когда фотон проходит через нее (т.к. фотон движется со скоростью света и стоять на месте не может).
Но если принимать решение измерять фотон или нет, когда он уже прошел щель (он ведь движется со скоростью света, верно?), то ничего не меняется! Фокусировка интерференционной картины (если не измеряем) или выбор через какую щель пройти ему как в точечном сколлапсированном виде (если измерили), все так же зависит от геометрии щелей. Хотя это должно было произойти в прошлом! Ведь мы измерили, и тем самым сколлапсировали его волновую функцию уже после того, как он прошел мимо щелей, двигаясь на своей скорости света. Этот эффект подтверждён кучей экспериментов, в разных условиях и с разными квантовыми частицами.
Это пример того, что если думать в терминах квантовой механики, то приходится отказываться от многих привычных бытовых представлений о том, как работает мир.
Событие — декогеренция квантового объекта с квантовыми объектами, из которых состоит наблюдатель. Так как они в свою очередь тоже связаны с кучей других атомов, то вероятность появления этого квантового объекта в другом месте (в данном случае, появление другого спина) стремится к нулю и превышает несколько возрастов вселенной. Собственно, это и есть коллапс волновой функции в копенгагенской интерпретации, либо безвозвратная потеря доступа к некоторым веткам волновой функции всей вселенной в многомировой интерпретации.
Это событие произошло не в каком-то месте, а с квантовым объектом. С его волновой функцией. Если это одиночный фотон/электрон/и т.д., то да, условно можно считать, что это произошло в какой-то точке пространства. Но если это запутанные фотоны, то это произошло одновременно с ними всеми (потому что это не отдельные фотоны, а один квантовый объект, даже если он размером со вселенную). Поэтому тут нет двух мест и двух событий, это изменилась волновая функция целого объекта. Но она продолжает развиваться, хотя уже и выглядит как вероятность 1.0, то есть сколлапсированная волновая функция. И часть этого развития для нас выглядит, как продолжающий путешествовать второй фотон с определенным спином. На самом деле в квантовой механике он никуда не путешествует, а просто его волновая функция продолжает взаимодействовать с волновыми функциями других квантовых объектов (хотя она уже декогерированная, т.е. связанная с кучей других атомов, и для нас воспринимается как конкретный определившийся спин).
Так что нет, факт наблюдения квантового объекта не влияет на события в другом месте, где сейчас находится второй фотон. То есть, на второй фотон нельзя повлиять целенаправленно (изменить его спин на конкретный, с помощью изменения первого. т.к. измерение первого случайное). Но да, после измерения первого фотона, второй тоже стал другим, и теперь события в другом конце вселенной пойдут по другому сценарию. Здесь ключевой момент, что это не причинно-следственая связь, как нам кажется. Потому что мы здесь ничего не изменяем. Мы измеряем случайную величину. А это другое.
Но я понимаю о чем вы. Действительно, из-за наблюдения в одном месте вселенной, в другом ее конце дела пойдут иначе (так как спин второго фотона станет фиксированным). Просто из-за невозможности на это повлиять на скорости выше световой, от этого ничего не меняется и процессы остаются такими же, как если бы они были полностью случайными (да они такие и есть, по сути). Может, кто-нибудь сможет лучше объяснить ). В квантовой механике приходится думать другими категориями, через эволюцию волновых функций. Всех квантовых объектов и всей вселенной целиком.
Программирование считается технической и основанной на логике профессией. Как собирать кубики лего. Есть задача = есть решение. Но это не так. На самом деле это творческая профессия. У тебя есть задача, но непонятно как ее решить. Изобрети способ ее решения, дружок, у тебя два часа, время пошло. Неудивительно, что для многих людей с неподходящим характером это сильный стресс. Если бы мне дали задание нарисовать картину, которая понравится покупателям и будет продана за миллион на аукционе, да ещё и надо это сделать до завтра. То я тоже впал бы в депрессию и ушел в запой, даже не начиная ее рисовать. А ведь все программистские задачи примерно такие. И, главное, никто за тебя ее не сделает (не решит задачу, не составит алгоритм, не напишет картину). Тут надо реально работать, проблема сама собой в принципе не рассосётся, как это бывает на многих других профессиях.
С другой стороны, если у человека сразу появляются идеи как ее решить (как у художника сразу появляется идея эскиза), то такая работа в радость. Плюс со временем накапливается опыт и своя кодовая база типичных решений, и все делать становится легче (аналог опытного художника). И растет навык пользования stackoverflow =).
Есть ещё усталость от монотонной работы, но это типичная проблема любой работы за деньги, она решается сменой задач. Не уходя при этом из профессии.
А почему бы ему не быть определенным? Это ведь один квантовый объект (состоящий из двух фотонов). То что он растянут на полвселенной, ничего не меняет. Он прореагировал с первым учёным и принял конкретную форму (конкретный спин). В другой части вселенной другой учёный будет дальше работать с уже этой конкретной формой, потому что он работает с этим же единственным квантовым объектом. Для него это выглядит случайным только из-за случайной природы первого фотона. Точнее, всего квантового объекта, состоящего из двух фотонов.
Из-за того, что второй фотон может продолжать путешествовать и второй учёный с ним провзаимодействует потом, кажется что второе событие это следствие первого. Мол, зависит от первого. Но это не так. С точки зрения квантовой механики это было одно событие с квантовым объектом, после чего он определился со спином. А все остальные взаимодействия будут с определившимся. Для тех же фотонов времени вообще нет из-за их нулевой массы, они мгновенно рождаются и мгновенно исчезают, хотя для нас могут пролететь через всю вселенную.
Так это объясняет текущая квантовая механика ). Мол, почему нет передачи информации выше скорости света (из-за того что это один квантовый объект). И почему нет временной причинно-следственной связи между измерениями обоих фотонов (потому что весь квантовый объект принципиально случаен и потому что это один объект). Но вообще, все это неочевидно, конечно.
А вот интересный случай, если мы измерили первый фотон, а второй за это время облетит вокруг черной дыры и вернётся через миллиард лет. То он вернётся уже с конкретным спином, который мы знаем, и может запустить взрыв.
Только это опять ничего не даёт. Потому что мы и так знаем по первому, какой там будет спин. Ждать миллиард лет для этого не нужно. А управлять взрывом через миллиард лет с помощью первого фотона мы не сможем. Потому что он случайный — часть измерений даст спин вверх, а часть вниз. А значит в бомбе через миллиард лет должен быть механизм выбора, какие фотоны в этой последовательности использовать, а какие пропустить. То есть, надо передать туда информацию об этом по стороннему классическому каналу.
Нет. Потому что нельзя принудительно задать первому фотону определенный спин, чтобы активировать взрыв вторым фотоном. Спин у первого будет измерен как случайный. Соответственно, у второго удаленного фотона спин тоже окажется случайным. Противоположным первому, но все же случайным. И поэтому для него ничего не меняется — взрыв будет случайным. Он не зависит от того, в каких условиях был проведен первый эксперимент, так как его результат был случаен. Информация не передается и поэтому ничего не нарушается.
Тем не менее, кратко и по делу
Предыдущий опыт может быть по разделению звуков на категории. И слово "мама" попадает в уже готовую категорию. Как близкий вектор в word2vec модели. Поэтому и распознается окончательно с десятков/сотен повторений.
Думаю, это имел ввиду предыдущий комментатор. Но в реальности все сложнее, конечно, ведь это и физиология — мозг и все тело развиваются.
Но о pretrained подготовке говорит тот факт, что число связей у младенца в первое время уменьшается. И как только все это устаканивается, как только мозг научится понимать картину мира в целом, тогда начинается резкий прогресс в few-shot обучении.
Еще бы! Не зря это вызывает такую сильную негативную реакцию. Люди подсознательно чувствуют, что такими робозвонками их пытаются на*ть. Можно вспомнить, например, пари Паскаля. Когда что-то выглядит логичным и подается как полностью в ваших интересах (как компании сейчас пытаются представить, что с ботами будет удобнее). Но на самом деле у людей есть способность отказываться от таких "заманчивых" предложений, интуитивно понимая, что здесь что-то не так. Даже не осознавая, почему.
Все упирается в то, нужна ли вам эта услуга. Если вы в ней заинтересованы, то в звонке для подтверждения (или SMS, или бот в мессенджерах) нет ничего плохого. Наоборот, это воспринимается как внимание и забота. И это действительно удобно.
Но если вы не хотите идти, а вам звонят голосом, то это вызовет более сильную негативную реакцию, чем если бы написали текстом. Потому что вы интуитивно поймете, что голосом вам звонят только для того, чтобы оказать на вас моральное давление.
Ну и плюс предыдущий негативный опыт со спам робозвонками накладывается… Тут уже фирме самой решать, насколько она уверена что человек хочет прийти (тогда можно и приятным голосом позвонить, если думают что для их целевой аудитории звонки приятнее текста). Или что смогут так надавить на сомневающихся. По-моему, эффект обратный и того не стоит. В наше время текстовые уведомления стали привычнее и удобнее. Голосом нужно звонить только для экстренных случаев. "Ждем вас в поликлинике через полчаса на кастрацию. Доктор уже выехал". Скрипучий голос первого робота Антона как раз подойдет.
Nearest не является алгоритмом по умолчанию в OpenCV.
Ха-ха, посмотрел исходники на гитхабе (там код для генерации таких картинок):
"is often the default algorithm" )). Да, вы правы, используется nearest. Это еще сильнее упрощает дело.
В новости неточность. Вместо "с помощью OpenCV с настройками по умолчанию" должно быть "c настройками OpenCV, не являющимися по умолчанию, но иногда включаемым на сервере для ускорения расчетов". Хотя мне сложно представить, чтобы кто-то для изменения размера использовал в продакшете nearest. Уж больно видны в нем артефакты в большинстве случаев. Это чисто технический метод для редких служебных целей. А так для уменьшения размера в OpenCV есть специальный метод INTER_AREA, по скорости сравнимый с NEAREST, но убирающий муар. Если уж классическая билинейная интерполяция (которая как раз используется по умолчанию) не устраивает. Не говоря о более качественных кубической и Lanczos интерполяциях.
В OpenCV при изменении размера по умолчанию используется билинейная интерполяция. Соответственно, можно легко посчитать какие должны быть цвета в 4 точках, откуда она берет значения, чтобы в результате получился нужный цвет пикселя в итоговом изображении. Это будет работать при изменении на конкретный размер, правда. Все это очевидно и лежит на поверхности, забавно что кто-то додумался до такого использования)
Они думают, что если человек слышит по телефону живой голос, то ему будет неудобно отказывать, и так они повысят свою конверсию. Там половина мотивации принятия такого решения не раскрыта. Маркетологи, что с них взять )
Судью конкуренты прислали ). Adversarial attack в действии.
ИИ, который мы заслужили
Это количество связей между нейронами. Аналог синапса. Так как оптимизация при обучении делается по связям между нейронами, то число гиперпараметров показывает размер и сложность нейросети.
Для перевода в аналог количества нейронов в мозге, число гиперпараметров нейросети можно делить на 1000. Так как в мозге каждый нейрон имеет в среднем по 1000 связей.
Дело в том, что встраивать дома активные системы безопасности — это, по сути, минировать собственный дом. Что большинству людей не нравится. Это некомфортно. А когда управляешь дроном с оружием, то это твои собственные контролируемые действия. Думаю, отношение к этому будет совсем другим психологически.
Если ему встроить электрошокер, то может получиться забавная игрушка. Догони вора, называется. А еще лучше спрей с хлороформом. От этого уже будет реальная польза, а не просто веселье.
Текстовым интерфейсом можно управлять реальным миром. Посылая через Serial порт команды на двигатели, например. GPT успешно выдает куски кода, значит и такие команды сможет.
Долговременной — да. А вот в пределах разговора память у него есть. Если часть чата была вчера, а сегодня продолжить, то получается что запомнил что было вчера? Тут границы довольно размыты, имхо...
А вот это да, нейросеть не меняется. Хотя в пределах разговора вполне может учиться. Пример чата выше — это ведь его вводным текстом научили вести диалог в виде чата.
С сенсорикой помимо текста вообще интересно… В GPT каждое слово переводится в эмбеддинг длиной 512 байт, если не ошибаюсь. Это довольно большое пространство, туда не только текст можно вместить, но и картинки. Если автоэнкодером сжать картинку с камеры до 512 байт, то ее можно подавать вместе с текстом прямо в текущую архитектуру GPT.
Не смотря на текстовую природу этой нейросети, на самом деле она работает с понятиями, закодированным в эмбеддингах. Так же как сверточные нейросети работают не с пикселями, а с абстрактными features. Там буквально первые три слоя переводят пиксели в высокоуровневые объекты типа "человек", "собака", остальные сотни слоев работают с такими абстрактными понятиями.
А вот тут тоже интересно. Технически, эти трансформеры состоят примерно из 20 слоев (вроде сейчас уже до 64 довели или выше). Поэтому, действительно, кажется что он не может вести длинные последовательные рассуждения. Но ведь вывод делается по одной букве (точнее, по токенам, но обычно это и есть одна или пара букв). А потом свой выход подаётся себе же на вход, чтобы сгенерировать на выходе следующий токен/букву. GPT это авторегрессионная модель. А значит, итоговый ответ получается проходом не через 20 слоев, а много-много раз пропускается через эти 20 слоев, и каждый раз с чуть уточнённый информацией. Удлиняющимся побуквенно текстом.
Это довольно похоже на длительный последовательный рекуррентный процесс мышления. Возможно, этим и объясняется такой хороший результат. Если бы она выдавала сразу готовую фразу за один проход, то не факт что получилось бы что-то сложное. Хотя не знаю, на текущем уровне GPT может хватило бы и 20 слоев. Она же пока далека до настоящего разума. Но авторегрессионный механизм, как возможность многократного прогона чуть меняющейся информации через нейросеть, заслуживает внимания, имхо.
Это все постепенный медленный прогресс… Но что интересно, каждая следующая разработка приближается к тому, как работает настоящий человеческий мозг. Мы ведь тоже заранее планируем, куда именно пойти при изучении нового места, прокручивая в голове что от него можно ожидать и что там может случиться. Увидев необычный предмет, у нас заранее появляется любопытство и желание с ним экспериментировать, а не в момент самого взаимодействия. Особенно это заметно у младенцев, то как они целенаправленно изучают новые предметы, а не просто удивляются свершившемся факту (хотя и это тоже). Подробнее тут: https://bair.berkeley.edu/blog/2020/07/24/icm-kids/
И чтобы выучить новый навык, мы тоже прорабатываем последовательность действий в воображении. Тренируемся, обучаемся мысленно. Все это очень похоже на то, как устроен последний Plan2Explore. С поправкой на то, что это первые робкие шаги, а не завершенный алгоритм, конечно.