Comments 101
Это разрекламированный план швейцарского нейробиолога Генри Маркрама по созданию точной симуляции человеческого мозга при помощи суперкомпьютера. В отличие от подхода Хинтона, который начинается с сильно упрощённой модели и идёт по пути постепенного усложнения, Маркрам хочет сразу же включить наибольшее возможное количество данных, вплоть до отдельных молекул, и надеется, что в результате у него появится полная функциональность и сознание.
Я думаю проект обречен.
Вообще все разговоры о создании самоосознающего мозга из компьютера — бред полный. Нормальный программист сразу это понимает.
Ада Лавлейс утверждала, что компьютер, даже очень мощный, не способен ни на творчество, ни даже на то, что мы называем «интеллектом». Ведь любая машина — всего лишь бездумный исполнитель алгоритмов, заложенных в нее человеком. То есть даже если компьютер когда-нибудь и напишет стихотворение или роман — все равно авторские права будут принадлежать кодеру, который его на это запрограммировал.
В таких случаях уместно говорить лишь об имитации и её качестве, но никак ни о сознании.
Вообще все разговоры о создании самоосознающего мозга из компьютера — бред полный. Нормальный программист сразу это понимает.
Смею надеяться, нормальный программист понимает, что это лишь вопрос времени.
Отвлеченный пример — какой бы хорошей ни сделали Siri (и как бы она не ввела в заблуждение людей далеких от компьютера) — это всего лишь заскриптованное поведение. Не имеющее ничего общего с настоящим интеллектом.
Нам даже не нужно понимать что такое сознание, если мы сможем создать достаточно точную реконструкцию в симуляторе. Даже больше — нам не нужно знать как сам мозг устроен, т.к. мы можем начать с симуляции оплодотворенной яйцеклетки.
Нам даже не нужно понимать что такое сознание, если мы сможем создать достаточно точную реконструкцию в симуляторе.
Если я правильно вас понял, то просто под термином «Сильный ИИ» в принципе понимается лишь имитация системы? Как в китайской комнате?
Тогда я неправильно выразился, и конечно создать относительно хорошую имитацию можно.
Просто для меня имитация — это будет программа и железо, потому что я программист.
Даже если для обывателя вообще нет никакой разницы в восприятии.
Если нет никакого способа доказать или опровергнуть наличие сознания, можно ли вообще говорить о существовании такого феномена?
Если нет никакого способа доказать или опровергнуть наличие сознания, можно ли вообще говорить о существовании такого феномена?Как раз поэтому далее я и использовал формулировку «я верю». Конечно, с тем же успехом можно просто отрицать существование сознания как такового.
Сознание является не базовым свойством материи, а достаточно вероятным направлением развития адаптивных систем. Материя, как обобщенное понятие, может прекратить самоорганизацию на очень низких ступенях организации. И вообще не получить свойства адаптивности.
Что касается внутреннего устройства вычислителей, то вопрос заключается не в физическом принципе построения связей и самих базовых элементов. А в том, насколько жесткие либо гибкие принципы заложены во взаимодействие этих базовых элементов. Любой современный цифровой вычислитель использует в своей работе булеву логику. То есть ставит в соответствие одному множеству чисел другое множество. Фактически — это "прокаченная" логарифмическая линейка, только у которой движение ползунка автоматизировано и проводится с очень высокими скоростями. Без участия оператора, такой механизм адаптивным никогда стать не сможет.
А идея про отсутствие необходимости понимания функционирования сознания для его воссоздания — это вообще вершина программерской мысли. Попытки создавать "цифровые слепки" мозга, вместо построения полной и непротиворечивой модели функционирования мозга, с высокой степенью формализации (акцентирую внимание, что для понимания и воспроизводства принципов не нужно детально воссоздавать мозг in vitro, нужна именно функциональная модель психических процессов), будут приводить лишь к появлению очередных Искусственных Идиотов.
При этом создание таковой формализованной модели и вызывает первоочередную сложность, которая связана с высокой пластичностью нервной системы.
Как правильно заметил товарищ ниже, сознание проявляется только как свойство системы (читай «живого мозга») в целом. А раз так, то очевидно, что при достаточно объемной и подробной имитации это же свойство проявиться и у искусственной системы.
Хотя с другой стороны все эти рассуждения и споры ведутся просто на пустом месте до тех пор пока не будет дано четкое определение самого понятия «сознание». И мне кажется подобные симуляции дадут существенную подвижку в данном вопросе. Если задуматься, то человечество в шаге от ответа на один из сакральнейших вопросов бытия, «что есть душа(сознание)?»
Отвлеченный пример.
Представим будущее, что я покупаю своему ребенку искусственную собаку, которая точь в точь как настоящая, также тявкает, выглядит и ведет себя.
Для моего ребенка она и есть настоящая.
А я же буду относиться к ней как к телефону, просто как к устройству.
Буду думать что нужно бы её обновить/перепрошить, файрвол поставить чтобы устройство не стало ботнетом и т.д. Потому что я программист и для меня это железка. Несмотря на то что для кого-то она настоящая. Разве не так?
Другое дело что в реальном мире похоже что сделать идеальную имитацию скажем человека будет сложновато :) и мы всегда будем знать что это имитация.
Синдром утёнка тут в том, что вы говорите про искусственную собаку, которая точь-в-точь как настоящая, но при этом дальше используете свою конкретику опыта про обновить\перепрошить, файрвол, вместо действий как с настоящей собакой — чистить уши, расчёсывать шерсть, давать лекарства, когда заболеет. Если есть файрволы, то это уже не точь-в-точь копия. Если копия близка к оригиналу, но не точь-в-точь, то лучше сначала договориться о степени похожести. Или вот сейчас CRISPR технологию доработают, и будете своим детям и себе «прошивки» обновлять, но станете от этого железкой?
Кстати, если говорить о копиях, то, вероятно, мы уже в ближайшем будущем сможем создать копию, идентичную оригиналу во всём до уровня квантовых флуктуаций материи (а там уже разница или сходство теряет смысл). Только дорого и сложно будет. И надо как-нибудь очень точно снять карту частиц с оригинала, не изменив его. Частицы составлять вместе мы уже умеем. А если у нас есть чертёж изначально (например, оригинал создали тоже мы, и знаем, как он создан), то само понятие оригинала теряет смысл. А если ещё допустить небольшие отличия, на уровне, как живые существа получаются, то ещё проще становится копии создавать.
Кстати, если говорить о копиях, то, вероятно, мы уже в ближайшем будущем сможем создать копию, идентичную оригиналу во всём до уровня квантовых флуктуаций материи (а там уже разница или сходство теряет смысл).
Это когда примерно?
Вы пишете постоянно о вещах, так как будто они уже есть и доступны. В этой же статье написано
Ольсхаузен предполагает, что нам понятно около 15% активности зрительной коры. Хотя модели продвигаются, нейробиология всё ещё «похожа на физику до Ньютона», – говорит он.И также в некоторых других отраслях. А в ваших словах звучит всё как решенный вопрос. Предзаказы делать можно)).
В связи с этим к вам вопросы.
Какие проекты по ИИ сейчас на ваш взгляд уже хороши?
Мне очень интересно, в какой области вы специалист? (это действительно важно, а не пошутить, так как многие специалисты в разных вопросах видят мир по разному)
устройство лишь имитирует разумностьТогда я заявляю что все люди — лишь имитируют разумность, поэтому они не настоящие.
фанатиковА как же фанатики желающие наделить кусок мяса правами? Что за ксенофобия? Если разум использует другие принципы носителя для работы — у него нету прав? Серьезно? Когда-то раньше люди считали что если цвет кожи другой — то тоже нету прав, рассказать чем закончилось?
Какие проекты по ИИ сейчас на ваш взгляд уже хороши?
В какой области вы специалист?
А специалист — не бойтесь, работаю в области ML. хотя совершенно не понятно как это влияет на вопрос того что права разумного существа не должны зависеть от носителя разума?
Давайте в крайности, ну чтоб уж точно прояснить вашу позицию.
Siri по вашему на какой стадии разумности?
Если её вставить в тело похожее на органическое, ей нужно будет права давать?
Дело тут не в специалисте — не специалисте, а в отношении и вводных данных. Есть уже сейчас люди, любящие некоторые вещи больше некоторых других людей. А развитие эмпатии у человека происходит ко всему, что его окружает продолжительное время, в том или ином виде.
Если вся разница в имитированной собаке будет только в вашем отношении к ней, то тут можно изменить отношение, и все проблемы решатся, ну или получается сегрегация по праву рождения\создания. Но я подозреваю, что вы имеете ввиду, что всё же вы сможете у неё выделить некоторые признаки, отличающие её от (не хочется употреблять слово «настоящей») органической, произведённой половым путём. Или клонированием, клонирование мы же считаем «настоящим»?
CRISPR уже почти реальность — https://ru.wikipedia.org/wiki/CRISPR#.D0.9E.D0.B1.D1.89.D0.B5.D1.81.D1.82.D0.B2.D0.B5.D0.BD.D0.BD.D0.B0.D1.8F_.D1.80.D0.B5.D0.B0.D0.BA.D1.86.D0.B8.D1.8F
«В феврале 2016 года группе британских учёных было дано разрешение на генетическую модификацию человеческих эмбрионов с помощью CRISPR-Cas и родственных методов»
Вот, китайцы уже на живом человеке применили http://www.nature.com/news/crispr-gene-editing-tested-in-a-person-for-the-first-time-1.20988
Я не говорю, про решённые вопросы. Просто не всегда необходимо знать, как устроен человек, чтобы создать нового, не обязательно уметь точно просчитывать турбулентность, чтобы летать на самолёте. Человек всегда находился в условиях ограниченных знаний, и узнавал новое по ходу дела. Нам же не мешает незнание того, что такое «Сознание», пытаться рассуждать о том, будет ли сознание у искусственной собаки или нет. А у плоского червя будет? А у одноклеточной бактерии?
Я не хочу отвечать на вопросы про ИИ, потому что это не совсем то, о чём мы тут говорим, и я уже давно не следил за конкретными вещами. Мы же тут о базовых принципах отношения к жизни и вообще. Мне просто очень интересно, почему так сложилось, что вопрос ИИ настолько много вызывает споров, и что становится очень важно, создано существо на заводе, в пробирке, или в роддоме, если у него те же признаки, что и у других существ такого же типа. Такой углеродно-естественный шовинизм получается. Прилетят к нам кремниевые собаки с другой планеты, а мы им будем доказывать, что они не настоящие.
А я же буду относиться к ней как к телефону, просто как к устройству.Чем-то напоминает расизм, если честно. Если мы создадим ИИ, который будет иметь уровень собаки или человека — у него должны быть и права как у собаки или человека, ибо отличия тут будут только в носителе разума.
А если робот — это разум, перенесенный с биологического мозга в компьютер — то он тоже не обладает правами?
К слову фантастика.
Разум идентичный человеческому должен обладать теми же правами что и человек.
Если это строчки кода на pc у программиста скомпилировались в программу которая в некотором роде эмулирует разум, её теперь нельзя удалять? :)
К слову фантастика.Я где-то сказал что это сегодня возможно?
Если это строчки кода на pc у программиста скомпилировались в программу которая в некотором роде эмулирует разум, её теперь нельзя удалять? :)А если я родил ребенка, который в некотором роде является разумным — его чтож, убивать нельзя?
Вопрос будет определен примерно так же, когда сознание будет способно существовать самостоятельно — оно обретает права. Так же как нерожденный ребенок не наделяется правами человека. Где будет проведена конкретная граница — я могу только спекулировать.
Тогда я неправильно выразился, и конечно создать относительно хорошую имитацию можно.
Помню читал философа который начал доказывать что компьютер может лишь имитировать разум и заодно доказал что люди его тоже лишь имитируют
А так моделирование уже идет вовсю
https://habrahabr.ru/post/208036/
На вопрос «Может ли компьютер превзойти человеческий разум?» я обычно отвечаю «конечно да». Даже мощь простой деревянной логарифмической линейки превосходит мощь моего разума по части перемножения чисел :))
На вопрос «Может ли компьютер смоделировать сознание?» отвечаю «я не понимаю, о чём вы говорите». Воспользуюсь аналогией. Допустим, мы решили заняться авиамоделированием и построить модель Боинга-747. Вырезали детальки из дерева, покрасили. Красиво. Прикольно. Можно пойти дальше, мощно развить свои скилзы и построить летающую модельку. С игрушечными сиденьицами внутри и прелестными куколками-стюардессами. Можем даже построить модель в натуральную величину. Даже действующую. Но всё равно получившееся изделие не станет самолётом, а останется его моделью. Потому что самолёт — это не только набор деталек, соединённых определённым образом, но и ещё куча всего, включая репутацию производителя, комплект сертификатов, гарантийное/послегарантийное обслуживание, перспективный план модернизации, тренинги подготовки персонала и так далее. Между «быть» и «быть моделью» лежит непреодолимая сущностная пропасть.
Каждый раз, когда техническое изделие начинает в чём-то превосходить человека, всегда случается ажиотаж. Подозреваю, когда наши древние предки изобрели тележку на колёсиках, и тогда народ занервничал, что эта штука превзошла человека по части переноски предметов, и люди теперь не нужны. Теперь повторяется та же самая ситуация, но только по поводу того, что тех.средства научились решать задачу аппроксимации функций большого количества переменных.
Когда в начале 90-х я вскользь столкнулся с темой «аппроксимация», уже тогда был понятен термоядерный потенциал этой штуки. В конце концов, классическое «научиться отличать на картинке котика от собачки» (в начале 90-х это звучало как недостижимая мечта) является именно задачей аппроксимации. Но существовавшие тогда мат.методы, включая генетические алгоритмы и нейросети первой волны, не обладали требуемыми ТТХ. Прорыв случился, когда придумали глубинное обучение. Именно тогда появилась возможность аппроксимировать нетривиальные функции тысяч переменных. Соответственно, начал раскрываться тот самый термоядерный потенциал.
Но какое отношение имеет задача аппроксимации к тому, что мы по жизни называем интеллектом? Да примерно такое же, как и умение выигрывать в шахматы, выполнять арифметические арифметические операции и запоминать наизусть тексты. То есть почти никакого. Если посмотреть в целом на то, чем занимается наш мозг, то… в общем, не существует той самой глобальной длиной в жизнь функции многих переменных, которую требовалось бы аппроксимировать. Ровно по той же самой причине, по которой жизнь не является шахматной партией.
Так что есть смысл с иронией относиться к тому, что глубинное обучение назвали искусственным интеллектом. Ошиблись товарищи. Бывает. Ничего страшного. Не в первый и не в последний раз.
Конкретно определение того что такое «сознание» нам для этого не нужно. Но если хотите — можно попробовать дать одно из возможных определений сознания как внутреннего неотъемлемого свойства любой системы способной решить произвольную алгоритмически разрешимую задачу.
Мозг — это такой же компьютер, просто биологическийОсень — это такое же небо. Плачущее небо под ногами. Извините за ехидство.
Я в курсе развернувшегося во второй половине 20-го века дискурса про то, может ли мышление быть воспроизведено машиной Тьюринга. До сих пор народ ломает по этому поводу копья. Отношусь к этому всему снисходительно, и в первую очередь потому, что машиной Тьюринга можно воспроизводить только функционирование закрытой системы. Как только система становится хоть капельку открытой, её воспроизводимость вычислением становится невозможной. Наше мышление — настежь открытый процесс, и поэтому весь этот дискурс можно аккуратно отнести на свалку глупых курьёзов.
Но если хотите — можно попробовать дать одно из возможных определений сознания как внутреннего неотъемлемого свойства любой системы способной решить произвольную алгоритмически разрешимую задачу.Я не способен решить любую алгоритмически решаемую задачу. Даже не способен перемножить два десятизначных числа без внешнего костылика в виде бумажки и ручки. У меня нет сознания?
Я в курсе развернувшегося во второй половине 20-го века дискурса про то, может ли мышление быть воспроизведено машиной Тьюринга. До сих пор народ ломает по этому поводу копья. Отношусь к этому всему снисходительно, и в первую очередь потому, что машиной Тьюринга можно воспроизводить только функционирование закрытой системы. Как только система становится хоть капельку открытой, её воспроизводимость вычислением становится невозможной. Наше мышление — настежь открытый процесс, и поэтому весь этот дискурс можно аккуратно отнести на свалку глупых курьёзов.Это что за абсурд, простите? Если уж собрались что-то подобное писать, ну хотя бы раскрыли бы определения, а то мало того что абсурд, так еще и перемешаный с нераскрытыми определенями.
Я не способен решить любую алгоритмически решаемую задачу. Даже не способен перемножить два десятизначных числа без внешнего костылика в виде бумажки и ручки. У меня нет сознания?Под способностью подразумевается потенциальная способность мозга, а не вопрос «мне лень», «это займет много времени», «мне нужна бумажка» и прочее. Имеется ввиду вычислительная мощность системы как таковой.
То что компьютер может эмулировать мозг — это вообще без сомнений ответ «да». Или по вашему симулировать законы физики важные для функционирования клеток при наличии хорошего RNG невозможно?
Это что за абсурд, простите? Если уж собрались что-то подобное писать, ну хотя бы раскрыли бы определения, а то мало того что абсурд, так еще и перемешаный с нераскрытыми определенями.Какие определения нужно раскрыть? Может быть, «машина», или «Тьюринг»? Не валяйте пожалуйста дурака. Если вдруг Вы не знакомы с темой «может ли компьютер мыслить», могу посоветовать неплохой научпоп.
Под способностью подразумевается потенциальная способность мозга, а не вопрос «мне лень», «это займет много времени», «мне нужна бумажка» и прочее.Я реально не могу перемножить в уме два десятизначных числа. Вне зависимости от лени и времени.
То что компьютер может эмулировать мозг — это вообще без сомнений ответ «да».Есть разные мнения на этот счёт. Аргументы в пользу «нет» выглядят очень убедительно.
Или по вашему симулировать законы физики важные для функционирования клеток при наличии хорошего RNG невозможно?Симулировать поведение одной частицы в каком-нибудь простом окружении на небольшом интервале времени — решаемая задача. Но если частиц квинтильоны, и они между собой причудливо взаимодействуют, плюс внешнее окружение неопределённых размеров, плюс всё это продолжительностью дни, месяцы, недели, годы… Не, это ненаучная фантастика. К тому же, есть некоторые физические нюансы, которые могут сделать предприятие безнадёжным даже при наличии бесконечного количества ресурсов и времени.
Какие определения нужно раскрыть?«хоть капельку открытой». Не валяйте дурака. Научпоп советовать не нужно, я вашим рен-тв не верю. Советуйте научные журналы, но в них такой ереси не пишут.
Я реально не могу перемножить в уме два десятизначных числа. Вне зависимости от лени и времени.Во первых — это вопрос тренировки, во вторых — кто сказал про «в уме»? Перемножьте хоть на листочке хоть на компьютере. Вопрос в принципиальной возможности интеллекта человека решить любую алгоритмически разрешимую задачу.
Есть разные мнения на этот счёт. Аргументы в пользу «нет» выглядят очень убедительно.У Сералини тоже есть свое мнение на счет ГМО, и даже антипрививочники со своим «мнением» есть. И что? Аргументы в пользу «нет» смешные и не выдерживают никакой критики.
Симулировать поведение одной частицы в каком-нибудь простом окружении на небольшом интервале времени — решаемая задача. Но если частиц квинтильоны, и они между собой причудливо взаимодействуют, плюс внешнее окружение неопределённых размеров, плюс всё это продолжительностью дни, месяцы, недели, годы… Не, это ненаучная фантастика. К тому же, есть некоторые физические нюансы, которые могут сделать предприятие безнадёжным даже при наличии бесконечного количества ресурсов и времени.Круто, мозг размером с футбольный мяч это может сделать, а искуственно мы это получить не можем. Симуляция может так же использовать принципы похожие на виртуализацию, используя различные физические принципы.
«хоть капельку открытой»Вычисление (computation) предполагает, что на входе мы имеем алгоритм и исходные данные, а на выходе, после окончания процесса, результат. Процесс может быть как детерминированным (результат полностью определяется входными данными и алгоритмом), так и вероятностным (задействован ГСЧ), важно лишь то, что для того, чтобы происходящее подходило под тезис Чёрча-Тьюринга, необходимо, чтобы по ходу вычисления не подгонялись извне дополнительные данные и/или изменения алгоритма. То, что можно воспроизвести тьюринг-полным вычислителем, на участке от старта до финиша обязано быть полностью логически замкнутой системой.
мозг размером с футбольный мячДа, но реальность, с которой он взаимодействует каждый момент времени — она хм… немножко больше. В пределе — размером со всю Вселенную. Если вы возьмётесь моделировать свой «мячик», не забудьте включить вовнутрь модели сервера гиктаймса, Википедии и, конечно же, меня.
Вы путаете вычислитель и данные.
Нет оснований полагать что компьютер (может быть с ГСЧ) не может симулировать физику на уровне достаточном для эмуляции мозга. Т.е. компьютер может симулировать мозг — т.е. компьютер так же может иметь сознание и ИИ реализуем.
Если человеческий мозг изолировать от внешней среды — то от него тоже толку не будет, только к чему это?
Да, но реальность, с которой он взаимодействует каждый момент времени — она хм… немножко больше. В пределе — размером со всю Вселенную.Ну и что? Это как-то мешает? Это вообще нерелевантно вопросу. ИИ можно сэмулировать на компьютере, и он так же будет взаимодействовать с окружением.
Если вы возьмётесь моделировать свой «мячик», не забудьте включить вовнутрь модели сервера гиктаймса, Википедии и, конечно же, меня.А это вообще бред, простите. У вас в голове сервера гиктаймса есть? Вроде нету, но вы вроде обладаете интеллектом? Вроде обладаете. Нестыковочка получается. Моделирование ИИ вообще никак не требует моделирования серверов гиктаймса и, тем более, вас и остальной вселенной.
Вы путаете вычислитель и данные.Где?
Я использую общепринятую трактовку понятия «вычисление», заданную тезисом Чёрча-Тьюринга. Если Вы используете какую-то другую трактовку, то пояснение требуется не от меня, а от Вас.
Нет оснований полагать что компьютер (может быть с ГСЧ) не может симулировать физику на уровне достаточном для эмуляции мозга.Какой уровень будем считать достаточным? Крупными мазками на уровне логических операций, или хотя бы до отдельных нейронов — нормально? Или надо хотя бы до синапсов? Или спуститься до уровня химии? Или будем честно просчитывать уравнение Шрёдингера для каждой частицы?
Что-то подсказывает, что крупными мазками — это ни о чём, а моделировать каждую частицу — не хватит ресурсов всей Вселенной.
Или, может быть, у Вас уже есть компьютер с бесконечноразрядным АЛУ, бесконечной памятью и нулевым временем выполнения операций? Если да, то я могу подсказать, как его использовать для гораздо более интересного дела, чем моделирование мозгов.
Не знаю, как в Вашем мире, но в моём даже задача определения пространственной структуры одного несчастного белка требует чудовищных ресурсов.
У вас в голове сервера гиктаймса есть?Серверам гиктаймса быть в моей голове не положено. Но если кто-то возьмётся моделировать мой сегодняшний день, то для того, чтобы воспроизвести написание этого коммента, нужно, чтобы на рецепторы прилетел Ваш коммент. То есть сервера гиктаймса хоть и вне моей черепной коробки, в модель заложить их всё же нужно. Иначе клик мышкой на ссылку корректно не промоделируется.
Где?Вот здесь же. Вы путаете понятия абстрактного и конкретного вычислителя. Но даже не это важно — важно то что для симуляции ИИ достаточно симулировать мозг, окружение симулировать не нужно, ИИ будет так же с ним взаимодействовать как люди.
Не знаю, как в Вашем мире, но в моём даже задача определения пространственной структуры одного несчастного белка требует чудовищных ресурсов.Не сравнивайте это с ИИ, это совершенно разные задачи. Человек, безусловно обладая интеллектом, пока, используя все компьютеры и прочие разработанные разумом средства — не может эффективно решить эту задачу, но мы же не говорим что у него поэтому нету интеллекта или вообще как то сравниваем это, не так ли? ИИ тоже может испытывать временные трудности при решении этой задачи, и что?
Какой уровень будем считать достаточным? Крупными мазками на уровне логических операций, или хотя бы до отдельных нейронов — нормально? Или надо хотя бы до синапсов? Или спуститься до уровня химии? Или будем честно просчитывать уравнение Шрёдингера для каждой частицы?Читайте внимательнее, во первых — мы можем использовать виртуализацию, во вторых — многие вещи не нужно эмулировать досконально для того чтобы это было «достаточно для эмуляции мозга».
Что-то подсказывает, что крупными мазками — это ни о чём, а моделировать каждую частицу — не хватит ресурсов всей Вселенной.
Серверам гиктаймса быть в моей голове не положено. Но если кто-то возьмётся моделировать мой сегодняшний день,А зачем кому-то моделировать ваш день? Речь идет об ИИ, для него нужно только что-то обладающее разумом, например — эмуляция мозга. А эмулировать день не нужно.
Так что есть смысл с иронией относиться к тому, что глубинное обучение назвали искусственным интеллектом.
Вы определенно правы.
Но тут в тренде люди типа VenomBlood, которые в упор не видят или не хотят видеть разницы между софтом решающим задачи и интеллектом :).
Так что вы рискуете своей кармой, пытаясь объяснить такие вещи.
Невозможно изготовить артефакт, для которого нет даже языка, на котором может быть сформулирована постановка задачи.
Впрочем, иногда бывает лучше пожертвовать виртуальной кармой ради кармы реальной ;)
Что такое сознание?В том то и дело что это очень сложный вопрос :). Чтобы нейробиолог замутил программулину отдаленно напоминающую мозг по связям и создал мозг. И это совсем не значит что он плохой нейробиолог. Тут дело совсем в другом же.
Тут уже было много статей с очень интересными обсуждениями в комментариях на тему сознания, например https://geektimes.ru/post/272674/
Вы так и не ответили на вопросы, давайте сначала разберёмся, что значат наши термины, прежде чем бросаться заявлениями «может-не может», «имитация-оригинал».
Что такое сознание?Что такое сознание, не знаю, но могу предложить определение самосознания. Вот такое:
Самосознание — способность системы продуктивно оперировать понятием собственной идентичности.
человек всего лишь биоробот. а сознание это абстракция, продукт работы биохимической нейронной сети мозга.
Ольсхаузен предполагает, что нам понятно около 15% активности зрительной коры. Хотя модели продвигаются, нейробиология всё ещё «похожа на физику до Ньютона», – говорит он.
О каких правдоподобных имитациях вообще идет речь, если мы толком не знаем образец для имитирования?
Вообще все разговоры о создании самоосознающего мозга из компьютера — бред полный. Нормальный программист сразу это понимает.
Можете уточнить, почему вы так считаете? Ведь принципиальных отличий электричества в процессоре компьютера от электричества в мозге нет. По мне так дело осталось «только» за архитектурой и алгоритмами.
Искусственная нейронная система (ИНС) по определению является лишь имитацией рефлекторной системой человеческого организма, способная также устанавливать закономерность в потоке Данных.
ИНС не может мыслить, что характерно для естественного интеллекта (ЕИ).
ИНС также не способна обучаться, как это умеет делать ЕИ, так как нет второго канала получения информации. Обучение у ЕИ идёт так, баба говорит внуку: «Это мама». И показывает на маму. Ребёнок запоминает консолидированный образ «Мама» и ассоциирует его с вербальным словом «мама». Работают два канала.
ИНС способна имитировать только технологию рефлексии, реагируя на внешние сигналы по заданной программе с использованием импликативного оператора.
Дело в том, что Аппарат Мышления человек и его Память находятся ВНЕ мозгаК сожалению, складывается впечатление что у некоторых именно так.
А где по вашему находится «сознание» и память?
И как же тогда мозг с этим эфиром соединяется?
На самом деле такого смешного ответа я не ожидал, думал что-то банальное из серии «душа» или прочий бред.
Насчёт «опровергли» — такого не было. Запретили — да. Как запрещали многие другие воззрения на природу Мироздания.
Вы так и не ответили на вопрос — как мозг с этим вашим «эфиром» контактирует? Я полагаю вы имеете ввиду дополнительные измерения, правильно? Не потрудитесь объяснить?
Среда генерации — Эфир.
Мироздание состоит из Объектов и Сигналов. Объекты взаимодействуют между собою с помощью Сигналов. Мозг — это Объект. Эфир это тоже Объект. А Сигналы могут быть разные — электромагнитные, механические, гравитационные…
Мозг общается с Эфиром при помощи Сигналов. Человек общается с планетой — притягивается к ней — с помощью Сигналов.
Всё очень просто и не надо забивать голову вики-ерундой.
Однако, креационисты доказалиОни еще много чего неправдивого «доказали». Кстати, я — бог. И попробуйте опровергните.
А вики следует читать ради ссылок на источники. Хотя сама информация в ней далеко не всегда заслуживает доверия — переход по ссылкам позволяет часто все прояснить.
Сделать ИИ на базе существующей дискретной схемотехники решительно невозможно. Можно сделать только подобие (как верно высказались многие) интеллекта. Что в общем две большие разницы. Что хорошо подтверждается полнейшим фиаско попытки компьютеризировать вещи плохо этому поддающиеся типа вождения автомобиля, распознание рукописного текста, голоса. Да даже трассировки печатных плат нормальной нет, хоть десятилетия разрабатывают.То есть оно вроде как и работает но очень плохо и никакого прогресса.
https://finnaarupnielsen.wordpress.com/2015/03/15/status-on-human-vs-machines/
Термин «распознавание» графической информации должен интерпретироваться как ПОНИМАНИЕ того, что именно изображено на картинке.
Сегодня «распознающие» проги умеют находить отличия в картинках, что является простым ухищрением в попытке решить задачу распознавания.
Собственно, по ссылке выше есть более подробно об этом же.
А в той статье, что Вы приводите, сказано о том, что Гугл научился ОТЛИЧАТЬ, паровоз от дерева с точностью 94%. О чём я, собственно, и говорил.
Уловите разницу между «распознавать» и «отличать».
Такое есть у Facebook'а.
Универсальной нейросети нет, но есть много, написанных для отдельных задач. И в этих отдельных задачах они зачастую превосходят возможности человека.
http://www.classes.ru/all-russian/russian-dictionary-synonyms-term-73370.htm
Вот тут, например, «отличать» ставится синонимом «распознать».
Но когда я смотрю проги от гугла и Фейсбука, подставляя в них свои примеры, то они дают сбой в 94-97%!!!
Фигня пока это всё. Одни ухищрения.
Но когда я смотрю проги от гугла и Фейсбука, подставляя в них свои примеры, то они дают сбой в 94-97%!!!Техника в руках дикаря — кусок железа.
Машина не различает кошку от собаки, лицо женщины от мужской физиономии и так далее.
Но когда я смотрю проги от гугла и Фейсбука, подставляя в них свои примеры, то они дают сбой в 94-97%!!!
Хм. Странно. А что, если:
- Берем картинку песика (я взял из Вконтакта), которая в Google не проиндексирована.
- Вырезая нужное уменьшаем размер изображения, делаем Flip Canvas Horizontal, добавляем текстурный фильтр Grain с интенсивностью 100, переименовываем файл в последовательность цифр (мало ли, вдруг все-таки проиндексировал).
- Сохраняем в JPEG с качеством 9.
- Открываем браузер в анонимном режиме. Не забываем о прокси (dd34.ru).
- Идем на страницу Google Картинки
- Заливаем картинку.
- ??????
- Ух ты, я попал в 3-4%, Google предложил текст «dog».


https://geektimes.ru/post/281652/ — а вот, например, про распознавание голоса.
Искин может чего-то хотеть, но вот что он будет хотеть, должны определять люди.
А изучать работу сознания, безусловно, надо — чтобы понять, наконец, кто есть мы сами.
Вот так примерно? :)
Тоже вариант.
Но работы в этом направлении — явно не на одно десятилетие, а то и век.
Кроме более-менее изученной коры, у ГМ имеются глубинные структуры, назначение которых известно лишь в общих чертах. Пока в них разберутся, сколько времени пройдет…
Работы по продлению ее нормального функционирования тоже ведутся. Тут геномод, там нанотех, немножко ЗОЖ — глядишь, и дотянем до смены носителя. :)
Может быть, путаница происходит от того, что люди принимают за самоосознание то, чего нет? Возможно, эту иллюзию давно разгадали буддисты, разложив "я" на вполне "механические" акты, ловушки и заблуждения сознания и научившись полностью ими управлять. Поэтому они и говорят, что души нет. А то бессмертное, что перерождается — не есть душа, а лишь безликий материал, сырье :)
Становясь умнее, машины начинают обучаться почти так же, как мы