А почему равносильно? Можно ведь при наличии процессорной мощности запустить полную симуляцию мозга в реальном времени. А то и в ускоренном. Чем это будет отличаться от реального мозга?
Прикол как-бы в том, что IBM придумали не, как вы выразились, аубионю. Это во-первых. Во-вторых это коммерческая компания и финансируется она не из налогов, соответственно может тратить деньги как хочет. Проект Watson не просто граббер текста
Боюсь этот анализ за вечер не пишется. И на перле тоже не пишется =(. Обработка естественноязыковых тектов это вообще непросто. Распарсить вопрос на естественном языке сложно. Сгенерировать осмысленный ответ еще сложнее. Найти этот ответ (ответ, а не предложения с ключевиками, как делают сейчас поисковики) на википедии, пусть даже и старой версии — вообще на пределе наших знаний. Этим и занимаются в IBM, и это не фуфло. Конечно же, про ИИ пока что речи не идет на самом деле.
Блин, жесть, народ. Вы мыслите какими-то детскими категориями. На границе человеческих знаний вообще никто никогда не может сказать какой подход приведет к успеху, а какой нет. Иначе бы все научные исследования приводили к прорывам. А тут сразу начинаются какие-то штампы. Захотел скопировать попробовать мозг на физическом уровне — лох, культ карго, разбирайся сначала как он работает, а потом копируй. Бред, извините. Ученые пробуют все что могут, чтобы в итоге один подход из тысячи оказался успешным и сделал их чуть-чуть ближе к пониманию, а вы, конечно же, диванные коментаторы, знаете лучше что надо делать и как оно на самом деле.
Ну так ведь никто и не утверждает что этого не может быть. А может оказаться что мозг это просто большая нейронная сеть и ничего больше. Никто ведь не знает пока что как оно на самом деле. Изначально я комментировал высказывание пользователя Exilibris
Само по себе увеличение количества нейронов не приведет к интеллекту
Я хочу сказать, что мы пока не знаем приведет или нет. Вполне может так получиться, что и приведет. У нас же пока что не хватает вычислительной мощности это проверить.
Вы так просто постулируете наличие у мозга «программы». По-моему сейчас ученые не знают ничего об этом. Вполне может оказаться что структура мозга и есть одновременно и программа и железо.
Я, конечно, слабо разбираюсь в нейробиологии. Но научнопопулярные статьи о том же BlueBrain говорят, что сейчас ученые как-раз занимаются тем, что пытаются просто воспроизвести точно мозг. И мне кажется, что начинать с этого норм.
Вы, наверное, не внимательно читали мой комментарий. Я призываю использовать deb для копирования файлов на сервер и распаковки правильных файлов в правильном месте, для правильной замены и удаления файлов старых версий. Согласен с вами, что деплой на bash скриптах это жесть.
Посмотрите в сторону ansible для деплоя и провиженинга, может быть передумаете и выкинете phing после этого )
Для меня deb это в первую очередь положить в правильные места все необходимые артефакты. Если юзать для этого просто архивы, а не deb, то нужно париться о многих вещах. Во-первых нельзя просто так распаковать новую версию поверх старой, потому что в новой могут удалиться какие-то файлы, их не должно быть после деплоя. Во-вторых нельзя просто так взять и удалить старую версию перед распаковыванием новой, потому что там могут быть какие-то генерируемые во время работы файлы. Приходится писать какие-то скрипты, которые будут удалять все кроме всяких uploaded_images папок. ИМХО это велосипед, потому что deb это идеально сам разруливает.
Далее, кроме того чтобы положить правильные файлы в правильное место при деплое надо сделать еще кое-какие действия: обновить кеш, смигрировать БД, перезапустить воркеров, etc. Мне тоже не нравится делать это в preinstall/postinstall хуках. У нас, например, этим занимается ansible вместе с остальной частью провиженинга системы, такой как: положить правильный конфиг веб-сервера в правильное место, рестартануть веб-сервер только в случае если конфиг изменился и пр. ИМХО ant/phing для этого не очень хорошо подходят, потому что все-таки читабельность его XML очень сомнительна, мне кажется. И что-то более или менее большое на нем сложновато поддерживать.
Мы у себя используем phing для того чтобы собрать deb-пакет со всеми артефактами и прогнать перед этим юниттесты
Мне кажется не стоит путать сборку и деплой. Все-таки это разные вещи. Сборка — скомпилить JS, CSS, LESS, скомпилить картинки в одну большую, bower install, npm install, etc. Деплой — положить все это дело правильно на сервер. ИМХО для первого ant, phing, maven — в зависимости от платформы, для второго deb лучше. Еще есть настройка окружения — puppet, chef, ansible, тоже не мешать с деплоем артефактов на сервер.
Так вот для деплоя артефактов, ИМХО, как я уже говорил, deb подходит идеально.
Я хочу сказать, что мы пока не знаем приведет или нет. Вполне может так получиться, что и приведет. У нас же пока что не хватает вычислительной мощности это проверить.
Посмотрите в сторону ansible для деплоя и провиженинга, может быть передумаете и выкинете phing после этого )
Для меня deb это в первую очередь положить в правильные места все необходимые артефакты. Если юзать для этого просто архивы, а не deb, то нужно париться о многих вещах. Во-первых нельзя просто так распаковать новую версию поверх старой, потому что в новой могут удалиться какие-то файлы, их не должно быть после деплоя. Во-вторых нельзя просто так взять и удалить старую версию перед распаковыванием новой, потому что там могут быть какие-то генерируемые во время работы файлы. Приходится писать какие-то скрипты, которые будут удалять все кроме всяких uploaded_images папок. ИМХО это велосипед, потому что deb это идеально сам разруливает.
Далее, кроме того чтобы положить правильные файлы в правильное место при деплое надо сделать еще кое-какие действия: обновить кеш, смигрировать БД, перезапустить воркеров, etc. Мне тоже не нравится делать это в preinstall/postinstall хуках. У нас, например, этим занимается ansible вместе с остальной частью провиженинга системы, такой как: положить правильный конфиг веб-сервера в правильное место, рестартануть веб-сервер только в случае если конфиг изменился и пр. ИМХО ant/phing для этого не очень хорошо подходят, потому что все-таки читабельность его XML очень сомнительна, мне кажется. И что-то более или менее большое на нем сложновато поддерживать.
Мы у себя используем phing для того чтобы собрать deb-пакет со всеми артефактами и прогнать перед этим юниттесты
Так вот для деплоя артефактов, ИМХО, как я уже говорил, deb подходит идеально.