Обновить
57
0
Кремнев Валерий@LonelyDeveloper97

Математика, Нейробиология, Программирование

Отправить сообщение

Ну, к чести эппл — 7 ой и 6s все еще нормально работают на 14й оси.
Держат заряд день, интерфейс плавный. А моделям лет 5. Я в этом году их брал — прогать под иос учиться и тестировать оптимизацию приложений. И был приятно удивлен.

Думаю в некоторых племенах, где такая странная традиция как моногамия не сильно распространена обладатели органических мозгов тоже затруднятся ответить на ваш вопрос.

Так что дело тут не в воображении, и в том что вы так классно представляете что происходит в голове у алисы — а в наличии общего культурного контекста который вам такие финты провернуть позволяет. И то не всегда — почему Алиса так расстроилась, когда ее парень принес ей букет роз?))

Тоже очень хочу узнать, ибо как я не читал название — ничего интересного в нем выделить не смог. Гуглить тоже не помогло.

Это не критика статьи, а скорее желание прояснить ситуацию и узнать ваше мнение по этому вопросу. МКБ10 в F10.2 содержит зависимость от веществ А на уровне структур мозга вроде как зависимость возникает не только от них, но и от вполне обыденных вещей, которые в МКБ не вынесены.
И это как-то странно, хотелось бы понять где начинается «зависимость», а где «поведение в рамках нормы»?

Да кажется, что что у человека был вполне четкий вопрос:


Секс, или там например вкусно пожрать обладают теми же признаками на поведенческом уровне и обусловлены той же химией что и рассмотреные зависимости от ПАВ. Почему они — не болезнь и зависимость, а вот ПАВ — болезнь и зависимость?


Иными словами, если указанные гипотезы применить к сексу, еде, общению, путешествиям то в чем будет разница? Чем так отличаются человек, который залез в кредит для того, чтобы купить себе ПАВ ибо он «больше так не может» и человек, залезший в кредит, чтобы уехать на черное море ибо «он больше так не может»?

Учитывая то, как сейчас фаршируют умную технику, есть вероятность что у этой штуки хватит мощностей и памяти чтобы хостить web интерфейс для управления себя.


Я такое с роботом-пылесосом от xiaomi проворачивал. Но там понятный путь перезалива прошивки.

Кафе «Курбургер» в даунтауне нанимает кассира, который внезапно пришел на работу с нацисткой татушкой на лице и всем клиентам зигует и рассказывает что черные и жиды захватили мир, типа smalltalk. Очевидно, что в реальном мире в это кафе станет ходить, мягко скажем, гораздо меньшее количество клиентов.
Если есть закон, запрещающий увольнение такого сотрудника, то я не могу представить другого развития событий, кроме разорения кафе. Понадобится еще закон, заставляющий людей ходить в это кафе и пользоваться их услугами.


Пункта о запрете на разговоры с клиентами на любые темы, если это выходит за рамки рабочего процесса («что будете, возьмите пожалуйста ваш заказ, простите за развалившийся бургер, мы поменяем, и т.д.») — хватит чтобы просто уволить человека за невыполнение обязанностей. Никакое кафе не разоряется.

Более того, а зачем человеку зиговать? Вы не встречали личностей, которым так и хочется вам излить душу? Про то как машина вчера сломалась, про бабку больную, про детей — шалопаев, про то как плохо живем и вообще что все грустно.
Такая езда по мозгу пожалуй угнетает на том же уровне, хотя я бы ее классифицировал как случай применения тяжелого психологического давления.
И предположим, такой персонаж пришел в другое ваше кафе.
Думаете после найма такого сотрудника народу в кафе прибавится? И что он долго задержится на этом месте? Есть ли объективная, а не субъективная причина уволить одного из наших героев и оставить второго, если они обеспечивают одинаковый отток клиентов своим поведением?

Быть может, лучше отказаться от мнения, что мешать рабочему процессу может только человек с неправильной идеологией, и признать, что это происходит независимо от взглядов? И решить проблему в совершенно другой плоскости увольняя людей по вполне объективным причинам, прописанным в их договорах?
Ну вот собственно мне и интересно, с какого момента начинается «другой разговор».
Можно сказать, что это была попытка перевести эксперимент с китайской комнатой на другой лад.
Странно, почему тогда никто кроме boston dynamics не может продемонстрировать уверенное передвижение шагающего робота по пересеченной местности, а сами boston dynamics утверждают что практически не используют машинное обучение?

Долго, сложно, и нужно дофига ресурсов? Но мы вроде как рассматривали мысленный эксперимент, а не то, что исходя из текущих ограничений, использование такого подхода не выглядит оправданным?

И собственно вопрос. Вы специалист по машинному обучению, или просто подкинули статьи почитать, потому что не можете привести собственный пример?


Я обратил внимание на слова «вы врете» и из этого сделал вывод, что вы возможно не сталкивались с тем, что есть задачи, в которых применяется схожий подход. Простые примеры я выбрал исходя из этой гипотезы — если вы не сталкивались с областью, то лучше всего привести максимально понятный и простой пример.

Нет, я не специалист по машинному обучению. Работаю я программистом, у меня есть некоторые знания в CS, а мое хобби — нейробиология, что можно заметить по статьям на хабре.
И пока что, изучая работу структур мозга я не нашел там чего-либо, что не может быть эмулировано машиной тьюринга. Так что, пока я не вижу никакой причины, по которой нельзя будет воплотить модель мозга в кремнии, при достаточном уровне развития электроники.

А в связи с этим мне интересно, где у других людей начинается порог «признания» ПО и железа, скажем так, равным. И допускают ли они это хотя-бы гипотетически.
Думаю, понятно, что роботы от Boston Dynamics пока что в вышеописанную категорию не попадают (и, если что — я не из тех, кому их «жалко» и не топлю за их права). Меня просто интересует вопрос — а при каких условиях попадут?)

Ибо я не вижу особой разницы, между очень сложно устроенным мозгом, который умеет писать программы сам для себя, и очень сложным железом с по, которое тоже умеет перепрограммировать само себя, если их возможности для внешнего наблюдателя примерно эквивалентны.
вы врете, потому что по вашему мнению, случайным образом «толкать» должно показать что так эффективнее.
А почему не собрать более удобный механизм, более эффективный двигатель?
Или вы все-таки в алгоритм КОНКРЕТНО прописали функцию толкать, как один из вариантов действий? Также и все остальное.


Лет этак 20-30 как, обучение программок всяким сложным вещам, вроде выбора оптимальной последовательности сигналов на сервопривод, или распознавания изображений, и т.д. можно автоматизировать и сделать так, чтобы программа написала конкретную реализацию алгоритма «сама», а автор алгоритма задает при этом только правила в весьма абстрактном виде:
Простыми словами: как работает машинное обучение
Wiki: Генетические алгоритмы

То есть вы написали программу, в которой роботу позволено действие толкнуть.
При этом вам еще нужно написать программу, которая создает список объектов, которые можно толкнуть, а которые нельзя. Иначе робот, ставя разные ящики, может растолкать и разбить те, которые ему мешают?


Нет, я написал алгоритм, который управляет сервоприводами, и единственное ограничение которое я задал — увеличение целевой функции.
Она увеличивается в условиях когда объект ящика, который классифицируется, например, с помощью специального QR кода и алгоритма определения границ был перемещен из точки А, в точку Б.
Функция, скажем, выглядит так:
actionProductivity = ((deltaPreviousStep-predictedDeltaForCurrentStep) + predictedDecreaseOfLatencyToNextStepWithDelta)/stepTime
Т.Е. если мы перемещаем ящик и/или уменьшаем предсказанную задержку до следующего шага ведущего к перемещению ящика, и при этом на наш шаг уходит минимальное время — то этот шаг — полезен. Далее мы считаем возможные шаги на некоторую глубину n, например 10 и выбираем наиболее полезную суммарно стратегию.

Примерно так работают, например боты в шахматах — в них никто не прописывает все возможные варианты, а только возможные ходы. Иначе — задолбаешься описывать)

Следовательно, робот просто будет пытаться передвинуть ящик за минимальное время, и выполнять действия которые так или иначе ведут к этой цели, пытаясь предсказать то, насколько быстро его действие приведет к ситуации, когда он снова может двигать ящик (на случай помех).

Если меня постоянно толкал человек, я могу потом его выследить и надавать. Робот же, согласно алгоритму может толкать исключительно в целях текущей ситуации. А выслеживать и мстить будет, если вы его специально запрограммируете.


Ну, в описанном выше алгоритме, если просчет идет на достаточно большое количество шагов вперед, то робот может «решить», что сделать для вас невозможным ему мешать, увеличит целевую функцию на большее количество очков, нежели он потратит на «месть», и например сломать вам руку, даже если вы сейчас ему не мешаете. Не вижу в этом ничего невозможного.

Заметим, что если спросить человека, который мстил «накой он это делал», то вполне вероятно что он скажет что-то вроде «он мне постоянно мешал/ был несправедлив ко мне, я хотел это прекратить...», что довольно сильно похоже на описанную выше ситуацию)
Про IOS можно добавить, что список девайсов тот же, что и у IOS 13.
Любители джека 3.5 и маленьких девайсов все еще получают обновления и это отлично)
Робот будет действовать по программе, заранее известной программисту (какой бы разветвленной она ни была).


А вы сможете сделать то, чему вас не научили? Вы бы смогли писать ответ на мое сообщение на русском языке, если бы вас на это в детстве не «запрограммировали»? И почему вы так уверены, что у вашего «алгоритма поведения» есть что-то иное отличное от ветвлений?)

Сейчас вы сделаете выбор — ответить мне на сообщение или не ответить.
Затем вы либо согласитесь с моим аргументом либо не согласитесь. Вы будете делать это исходя из собственного опыта, т.е. сверяя мои слова с известными вам фактами, а так же выведенными на их основе суждениями. В качестве аргументов или контр-аргументов вы приведете часть из этих фактов и суждений.

Ой, и да, касательно эмоций. На данный момент написанное мною либо соответствует вашим представлениям о том, какой ответ вы получите на свой комментарий — и тогда скорее всего вы испытываете что-то вроде удовлетворения или равнодушия, либо вы не ожидали сообщения такого формата — и тогда вы растеряны или слегка удивлены. Если второе, то в зависимости от текущего состояния ваша реакция может выглядеть как недовольство, разочарование или заинтересованность. Факторов которые влияют на то, в каком из этих состояний вы оказались довольно много — в их числе — не голодны ли вы, все ли хорошо у вас на работе и в личной жизни, хорошо ли вы спали и отдыхали, и т.д. О, кстати, еще очень сильно влияет то, обучены ли вы работе по распознанию и обработке своих эмоций или нет.
На случай если вам в голову придет аргумент про то, что невозможно точно запрограммировать радость или заинтересованность
У мозга есть регулировочная система, т.е. вашим эмоциям соотвествуют определенные состояния нервной системы которые вызваны изменением концентраций некоторых нейромедиаторов в вашем мозгу. Для того чтобы это симулировать нужна лишь более сложная модель, которую сложнее посчитать, но пока тут нет ничего принципиально невозможного.


Давайте возьмем одну из этих веток. Предположим — вы недовольны.
Возможно, сейчас ваш мозг выдал что-то вроде «Этот парень тут выпендривается и пытается показать, что он шибко умный — надо бы это пресечь».

Например, вы могли подумать о том, чтобы сделать то, что я еще не упомянул, и таким образом разрушить мое описание вашего алгоритма действий, приведя контр-пример. И да, если вы прочитали этот абзац — то теперь вы точно об этом подумали.

А теперь тестик. Докажите что вы не робот)
По вашим собственным словам — для того, чтобы пройти этот вариант капчи вам нужно сделать что-то, что не укладывается в предоставленный мною алгоритм.
Ваши человеческие действия?)
А давайте попробоем разобраться.

Вот я хочу робота, который перетаскивает блоки. Предположим, я смог создать достаточно хороший алгоритм обучения, который позволяет роботу обучаться как на примере (какой-то датасет извне), так и без датасата — своими попытками увеличить целевую функцию (скорость перетаскивания блоков).

Затем я начал тренировать робота на видео, где люди, которым мешают перетаскивать блоки, прерывают мешающие факторы эмоциональными реакциями, например, толкнув мешающего человека.
Моя программа распознает действие толкнуть, как потенциально увеличивающее эффективность, и следовательно скорость перетаскивания блоков в обстоятельтсвах когда тебе мешают.
Потом, я запускаю тесты и подтверждаю гипотезу — т.е. я продолжаю мешать роботу, если он меня не толкнет, и прекращаю, если толкнул.

В результате мы получаем робота, который обучился той же реакции, которая есть у человека — оттолкнуть мешающего ему индивида.

Мы эту реакцию распознаем как проявление эмоций.

А теперь вопрос — вот в нашем мысленном эксперименте появился робот точно эмитирующий эмоциональную реакцию человека, который изначально не был на это запрограммирован, а выработал данную подпрограмму «эволюционно».

В чем разница между его «проявлением эмоции» и моим, если мы в одинаковых условиях ведем себя одинаково? У нас даже одна причина возникновения реакции — нам мешают — мы толкаем. Можете ли вы утверждать, что эмоции в человеческом мозгу обладают какими-то особенностями, которые мы никогда не сможем эмулировать программно?)

Ой, и да. Прежде чем отвечать, можно подумать вот еще о чем: Не все люди толкнут того человека который им мешает. И есть индивиды, которые не проявят в данной ситуации внешних признаков эмоций. А может их это и в целом не заденет — люди бывают очень спокойными и хорошо регулирующими свое «эмоциональное состояние». Будете ли вы считать, что такой представитель homo-sapiens — не человек, раз он не проявляет эмоции согласно «стандартам общества»?)

Вроде как этого не очень сложно добиться.
Mov — полна по тьюрингу, следовательно любую другую инструкцию (и в целом любую вычислимую функцию) можно выразить в mov’ах.


Сходу нашел такой пример:
https://github.com/xoreaxeaxeax/movfuscator

Так, давайте посмотрим… Allow — это у нас разрешение, block — блокировки, да еще и содержит компонент bloc, который в свою очередь отсылает нас к eastern bloc.


Мне кажется, такие формулировки явно намекают на ограничения и тоталитаризм, и их использование в коде неуважительно по отношению к тем чьи предки пострадали из-за тоталитарных режимов, т.е. к большей части населения Европы и Азии, поскольку вышеупомянутые формулировки вызовут у них соотвествующие ассоциации. Возможно, в таких названиях есть даже скрытая поддержка тоталитаризма, а ведь это острая проблема стоящая перед мировым сообществом, и такая позиция по отношению к ней недопустима в нашем прогрессивном, толерантном и свободном обществе.


Такие названия — однозначно не подходят.


//тег сарказм, на всякий случай, а то сейчас уже не угадаешь как тебя прочитают.

Людей с плохим музыкальным слухом добавьте! У них проблемы с тем чтобы различать все эти ваши до и до-диез)

Я искренне считаю, что помимо развития абстрактного мышления есть и более приземленные вещи.

Например умение правильно читать новости со статистикой — очень актуально при текущей ситуации в мире. Теорвер тоже неплохая штука в практическом плане — очень отрезвляет на новостях про лотерейки. Интегралы постоянно встречаются при подсчетах всякой фигни. Короче, есть много всяких вполне практических вещей, для которых нужен именно навык применения.
По сути задачи весьма хороши.

А вот вводные к ним на мой вкус написаны так себе. Скажем так, если бы я увидел «Исполнитель Редактор» в Т.З. — я бы отправил его назад с комментарием «напишите пожалуйста человеческим языком чего вы хотите». Глаза спотыкаются пока читаешь)
Хотя, возможно это тоже такое приближение к боевым условиям — с детства готовим общаться с людьми, которые формулируют свои запросы даже более косноязычно, чем автор).
Ибо суть той же задачи с редактором можно выразить так:

«Задача: определить вывод программы:
… Программа…
, принимающей на вход строку из 184 символов цифр 8 (»88888...8" — всего 184 восьмерки),
где функция «заменить» — выполняет замену текста (например вызов «заменить(888, 2)» на строке «8888» дает результат — «28»), а функция «нашлось» — проверяет наличие подстроки в строке (например — на строке «8888» результат вызова «нашлось(888)» — истина, а вызова «нашлось(222)» — ложь).
В ответ записать итоговую строку. "

Что немного короче чем исходный текст, и при этом нашлось еще и место для примеров результата вызова функций.

Хотя, думаю, если прочитать штук 100 написанных в таком стиле вещей, то можно привыкнуть и парсить смысл задачи довольно быстро.

Т.Е. вы хотите сказать, что допускаете вероятность того чтобы они там есть, настолько, чтобы брать ее в рассчет?)


Окей. Я готов поставить 10к$ на то, что на в пределах солнечной системы за ближайшие 10 лет не будет найден вечный двигатель любого принципа действия. Ставка — 1 к 10, т.е. если найдётся — плачу вам 10килобаксов, а если нет — вы должны мне всего 1000)


Вы были бы готовы принять такое пари?) И если именно такое — нет, то на каких условиях согласились бы? каково должно быть отношение ставок? 1к100? 1к1000? Ещё меньше?


И примерно это я понимал под переходом к практике, ибо практичнее уже некуда)

Информация

В рейтинге
Не участвует
Откуда
Санкт-Петербург, Санкт-Петербург и область, Россия
Дата рождения
Зарегистрирован
Активность