Pull to refresh

Comments 4

Ууфф. Асилил. Внушаеть.

Остается проблема следующего порядка: наша обучаемость, как метод создания новых свойств, является нашим же свойством. Понимаете? Этакая вещь в себе, главная программа, написав которую, можно ожидать всего остального — сосания сисек, звона гитар, программирования, посещения Хабра, курения и тому подобных способностей. Вот на что я бы кинул мощь группового интеллекта. В вашей парадигме, хоть и весьма действенной, необходимо каждый раз вновь усаживать за компы целую ветку иерархии талантливых программистов, чтобы киберсущество научилось чему-то новому. Хотя, возможно, вашим методом можно научить его чему-то быстрее, чем дожидаться самообучения.


С философами вам надо это обсудить, не с программистами. Идеальные дети, которые делают только то, чему мы их сами учим... это, знаете ли...
Я считаю, что претендовать на звание демиургов, способных создать действительно разумное живое существо с душой, человечество пока не может. А вот такого кадавра — вполне.
По поводу обучаемости — человек до некоторой стадии развития тоже не постигает ничего сам, но его учат. Доказательство тому — всяческие Маугли, которые усвоили повадки волков, но не людей.
После того, как ИИ усвоит основные понятия, вполне можно задать ему модель поведения — спрашивать все непонятное. И тогда робот спросит: "Что Лежит На Столе" и ткнет пальцем (когда он будет знать, что значит "лежит" и "стол", научится тыкать пальцем и задавать вопросы). После того, как ему скажут, что это "юсб мышка", периферийное устройство-манипулятор для работы с компьютером, она пластиковая и ее можно двигать по столу, робот сам запомнит и запишет в свою БД (:
А для философов тут работы нет, ибо целью проекта является создание не живого существа, а идеального раба, способного пахать в любых условиях и беспрекословно исполнять комманды.
Маугли — таки пример самообучаемости мозга. Вопрос в условиях, в которых помещен носитель этого мозга. Я вовсе не имел в виду, что мы постигаем нашу человеческую суть из внутренних источников. Я про то, что ваша модель таки предполагает накачивание искусственного мозга некими первичными запечатлениями, затем вручную преобразуемыми в модели поведения (вы приравниваете недельные циклы работы программистов к циклу «бодрствование-сон» в работе мозга). Вот где в этой парадигме несоответствие, наш мозг не получает эти «if-then» извне, он порождает их из ощущений, получаемых от органов чувств. Значит и программисты не имеют права писать эти «if-then», а только написать метапрограмму, выводящую их из ощущений. Метапрограмму по классификации запечатлений можно писать, а можно и самим вручную рефакторингом побаловаться. Но тогда мы, скорее всего, и получим человекоподобное киберсущество, а не…




…идеального раба, способного пахать в любых условиях и беспрекословно исполнять комманды


И это не тема для философов? Мысли о пределе самообучаемости полученного робота, пределе, отделяющем машину от живого существа, требуют тщательнейшего обсуждения. Ошибившись с этой гранью, мы либо получим нерентабельную тупую железяку, проще самому что-то сделать, либо почти живое существо, к которому не знаешь как и относиться. В первом случае не стоило и огород городить, во втором мы вступаем в потенциально опасную область этики, с которой немало поэкспериментировали фантасты.

Вот такие у меня размышления обо всем этом. Но идея ваша, еще раз повторю, внушительна!
Конечно, хорошо бы написать «метапрограмму», но я понятия не имею, КАК ее писать :)
Зато вполне представляю, как показать ИИ 2000 деревянных предметов, так же, как это показывают ребенку — и тогда робот научится сам распознавать деревянный предмет. После того, как погрешность при определении деревянных предметов станет в пределах нормы, можно поменять программу поведения, и позволить ИИ спрашивать только если он "не уверен". Хотя человек первые годы своей жизни, даже не умея говорить, усваивает информацию с невероятной эффективностью, а кодерам придется затрачивать часы работы на то, что у мозга отнимет доли секунды.
Sign up to leave a comment.

Articles