Pull to refresh

Comments 73

Создание Сильного искусственного интеллекта — это огромная работа, особенно в части наполнения Базы знаний и механизмов Восприятия, но ничего выполненного я здесь не вижу.

Вода и досужие рассуждения о том, что это просто. Извините, такое на хабре не нужно.

Это, конечно, не техническое задание на разработку, и даже не концепция, в формат хабры тысячи страниц не уместить.

Перед тем, как приветствовать размещение тысячи страниц, позвольте высказать скепсис в компетенции "оратора". Не надо тысячи страниц. Даже одной не надо.

Не совсем вас понимаю. Я опубликовал общее описание, оно гораздо более подробное, чем можно найти в сети, содержит четкое описание структуры приложения и описания ряда алгоритмов. Ну капнул воды у самом конце, с кем не бывает, это же не повод отказываться читать всю статью? Возможно, вы ранее читали более качественный материал, в котором воды меньше, буду рад ссылкам.

Человек, говорящий про "Сильный AI" со словами "но я ничего сложного здесь не вижу", либо имеет его уже созданным, либо пустобрешет.

К сожалению, ваш мозг неверно интерпретировал фразу «ничего невыполнимого я здесь не вижу», подгрузив в контекст смысл «просто». Эта задача сложная, я нигде не утверждаю обратного, но в ней нет блокеров.

На основании чего, вы утверждаете, что эта задача выполнимая? Я пока знаю только один метод создания сильного интеллекта, и он обычно связан либо с [censored], либо с манипуляциями с яйцеклеткой в пробирке. Ни тот ни другой "AI" не создают.


Когда кто-то говорит, что не видит невыполнимого в создании того, что даже определить точно не могут, не то, что описать конструктивно, то это шапкозакидательство.

Я занимаюсь исследованием функциональной структуры мозга длительное время. Также у меня есть хороший опыт по проектированию информационных систем. Собрав достаточно данных, я смог описать архитектуру такого решения. Точного определения Сильного AI нет в литературе, но моя статья дает его.
У меня нет готовой реализации. Как вы сами заметили, это сложная задача, которая требует много ресурсов, соответственно я не могу создать его сам. Также у меня нет дядюшки миллиардера, чтобы реализовать этот проект чужими руками. Мне остается только дать базовое описание, чтобы заинтересовать людей, и может быть это к чему-то приведет.

Исходя из чего вы предолагаете, что эта задача решаема в рамках существующих знаний?


Ну вот ровно так же мог бы рассуждать в (условном) 14 веке схоласт о проблеме остановки: "ничего нерешимого в этой проблеме я не вижу, либо вычислитель помрёт, либо ожидающий вычисления".

На основании того, что мне удалось описать архитектуру такого решения, включая критичные алгоритмы и структуры данных. В процессе реализации архитектура уточняется, это обычный процесс. Но без исходного описания реализация точно невозможна.

Каким образом вы проверяете, что ваше описание, алгоритмы и структуры имеют отношение к сильному AI, а не к, например, случайному потоку сознания или результату работы GPN3?

В статье я описал, в чем разница между GPT-3 и Когнитивными архитектурами. Возможно, наш диалог был бы конструктивным, если бы вы ознакомились со статьей и указали на пробелы/ошибки в моем описании.

Поскольку вы не знаете, что такое Сильный AI, то проверить свои идеи вы не можете ни конструктивно, ни даже теоретически.


В целом, повторю, вы исходите из предположения, что если вы это придумали, то это возможно.


А я вот придумал, что NP = DTIME. И что мне теперь, считать, что так и существует, потому что я так придумал?

мне удалось описать архитектуру такого решения, включая критичные алгоритмы и структуры данных

У вас не описаны ни архитектура, ни алгоритмы, ни структуры данных.

Не обращайте внимания, токсиков хватает на Хабре, сами не пишут, но первые критиковать, статья полезная, как и предыдущая, спасибо за проделанную работу

Знаете, у меня как раз складывается впечатление, что это именно формат хабра на данный момент. За последний месяц мне попались следующие статьи:

  • Обширный обзор обучения с подкреплением, где утверждается, что это обучение без учителя

  • Разработка, ни много ни мало, общей теории алгоритмов. Началась с авторского определения алгоритима, но ни слова о машине Тьюринга

  • Обзор достижений нейробиологии от очень крутого спеца из Сбера, который сообщает, что для понимания работы мозга достаточно построить полный коннектом

Судя по всему, эта площадка оказалась востребованной у людей, которые по каким-то причинам не могут вести научную деятельность в интересующей их сфере, но очень хотят. Иначе они публиковали бы свои статьи в рецензируемых журналах и искали рабочие контакты на научных конференциях, а не на хабре.

Я бы сказал, что формат «Рецензируемых журналов» морально устарел, как минимум в России. Я когда-то давно писал научные статьи, когда учишься в аспирантуре надо иметь некоторое количество публикаций. Пишешь в строгом формате, какой-то неведомый профессор (который обычно не в теме) потом это смотрит, акцептирует. Через пару месяцев выпускается журнальчик, сколько человек твою статью прочитали — не известно, комментариев нет. На хабре я написал статью в приятном формате за 4 дня, нажал опубликовать и через 8 часов уже имею фидбэк, пусть и не всегда адекватный (в научном сообществе не на много более адекватный был бы).
Чтобы писать статьи в журнал, надо иметь связи, заниматься научной деятельностью. За научную деятельность в России так мало платят, что я ее покинул.

Можно ещё на фишкинет заслать, там ещё больше фидбэк будет, пусть и совсем не адекватный.


Хабр — не очень удачная площадка для научных публикаций, потому что большая часть аудитории тут — это ремесленники. Тут иногда пытаются публиковать научные и псевдонаучные статьи, но смысл от них весьма маленький, т.к. контекста обычно нет, и авторитетность такой публикации нулевая.

Да, давайте посмотрим на ТОП этой недели: «Животное устало», «Услуга за услугу. Как русские учёные впряглись за Пастера в споре с антипрививочниками» — половина контента сплошные ремесленники лайкали.
Хабр был для админов, пока его не объединили с гиком.
Начало статьи было довольно увлекательным :). Простите, не хочу Вас критиковать, но некоторые утверждения в вашей статье не верны, попросту по тому, что люди все же еще не знают точно как работает мозг.
Что бы создать действительно работающий AGI, нам надо понять как работает неокортекс в нашей голове, и я полснотью придерживаюсь и соглашаюсь в этом с мистером Джефом Хокинсом. Кстати, не так давно вышла его новая книга «A Thousand Brains», он там описывает теоретический фреймворк работы неокортекса. В целом думаю, вам может быть интересны работы его команды, гляньте в гугле по слову numenta и загляните на их гитхаб.
Еще мне кажется может быть интреесным обратить внимание на капсульные нейронные сети, там присутствует механизм отслеживания относительности признаков друг к другу.
Жаль конечно, что мы еще очень очень далеки от мало мальско разумного искуственного интелекта :), но кто знает, может уже в следующие 10-20 лет что то и получится.
Операционную систему можно исследовать двумя способами:
  • декомпилировать ее бинарники и из полученных исходников собрать свою на новом железе;
  • Посмотреть как она работает функционально, и создать свои исходники, повторяющие это поведение.

Я придерживаюсь второго подхода. Мне не требуется знать, как точно работают куски мозга, чтобы повторить функции мозга.

вовсе не обязательно понимать как работает мозг, для того чтобы создать AGI

так же не обязательно понимать как летают птицы, что бы лететь самому

более того, очень часто те решения к которым пришла природа являются неоптимальными или неприменимыми в общем случае

к примеру - колесо, никакое существо не ездит на колесах, насколько мне известно, при этом перемещение на колесах гораздо эффективнее, чем на ногах

или крылья самолета - то же вроде бы не имеют аналогов в природе

попытки создать AGI просто повторяя как работает наш мозг могут оказаться настолько же неэффективны, как попытки научится летать, повторяя механизм полета жука (спойлер: они используют свойство вязкости воздуха)

Рекомендую Вам почитать историю попыток создания ИИ. Всё, что Вы пишите давно известно и хорошо описано. Например, у такого автора как Минский.

Про онтологии тоже можно было бы загуглить, прежде чем выдавать этот текст.

Дайте, пожалуйста, стоящую ссылку на Минского, чтобы не перекапывать все труды автора.
Пробежался по его автобиографии. Минский выдвинул теорию Фреймов, в этом он был молодец. В моей статье они опсаны как смыслы, повторение этой идеи не вызывает у меня удивления, к этому придет любой человек, который пытается исследовать свой мозг.
Минского обвиняют в слишком поверхностном подходе: он выдвигал идею и бросал ее, вероятно поэтому он не смог построить Сильный ИИ. Также в те времена было сложнее с вычислительной техникой, база данных на терабайт в 1974 году сама по себе была невыполнимой задачей.
если робот уже знает 3-4 тысячи слов, остальные он может познать сам, выполнив осознанное чтение справочников. Дети с этим как-то справляются.

Вопрос в том, как именно дети с этим справляются. Этого алгоритма пока никто не знает.


Контекст содержит не только текущее состояние объектов, но и краткую предысторию: какими они были минуту назад, как и почему изменились.

Вопрос в том, как именно устроен контекст и как его создавать из входящей информации с датчиков. Этого алгоритма пока никто не знает.


Это все может повлиять на принятие решения.

Вопрос в том, как именно должен быть устроен механизм принятия решений. Этого алгоритма пока никто не знает.


Шерлок должен уметь выявлять новые сущности и свойства при анализе Контекстов, и сохранять их в локальной базе знаний.

Вопрос в том, как именно выявлять новые сущности и свойства из входящей информации с датчиков. Этого алгоритма пока никто не знает.


но ничего невыполнимого я здесь не вижу.

Всё, что выше — невыполнимое на данный момент.


текстовый ответ он может дать и без нее, причем опять же на любом языке: достаточно подобрать слова к смыслу из контекста

Нет, недостаточно.

Вы пишете «Этого алгоритма никто не знает» подразумевая мозг: никто не знает, как одна группа нейронов передает информацию другой группе. Но не требуется повторять мозг. Алгоритмы наполнения контекста по данным с датчиков уже существуют, почитайте про когнитивные архитектуры. Из них не получился сильный ИИ из-за ряда недостатков, которые я описал, но сами алгоритмы есть.
Вы пишете «Этого алгоритма никто не знает» подразумевая мозг: никто не знает, как одна группа нейронов передает информацию другой группе. Но не требуется повторять мозг.

Нет. Я не говорил ничего про мозг. Никто не знает алгоритма обработки информации, который имеет нужные свойства.


Алгоритмы наполнения контекста по данным с датчиков уже существуют

Не существуют. Не существует даже алгоритма, который отличит кошку от собаки с результатом на уровне человека. Не говоря уже про ориентирование в пространстве или банальное управление 4 лапами. Наработок в этом направлении еще очень мало.

Нейросети неплохо справляются с кошками и собаками, зря вы так.

Плохо. Им нужен миллион изображений, в котором заранее задано, где кошка, а где собака, а человеку нет. А незнакомое животное они вообще выделить не могут.

Существенно меньше миллиона. Серьезно, почитайте про последние достижения нейросетей, если вам это и правда интересно.

Я достаточно знаком с нейросетями, чтобы утверждать, что алгоритмов, о которых идет речь, еще не существует. Если вы считаете, что существует, это вы должны приводить ссылки на те алгоритмы, которые вам кажутся подходящими для вашей теории. Тогда можно будет обсудить их конкретные достоинства и недостатки.

На данный момент можно реализовать практически любой интеллект, возникает только проблема сбора информации (датасетов). Вы бы лучше об этом побеспокоились, ИИ-изобретатели. То есть действительно, как утверждает автор, нет никаких проблем с сильными алгоритмами, но есть проблема с сильными данными.
О сборе данных я тоже подумал, проект Yarrow должен помочь в этом.
Если взглянуть на проект CYC, там базу знаний уже 30 лет набивают сотрудники, и пока не добились необходимого объема. А вот миллион пользователей могли бы быстро разговорить робота.

Людям не нужен миллион пользователей базы знаний, чтобы научиться говорить.

Людям нужно 15 лет, чтобы научиться внятно говорить. И речь шла про сотню языков, что человеку вообще недоступно.

В 3 года человек уже читать умеет, не только говорить. Для роботов речь не идет о "внятно", сначала надо хотя бы как-то.


И речь шла про сотню языков

Речь шла про "могли бы быстро разговорить". То есть он даже на одном языке не умеет говорить, где уж тут 100.

Вообще-то у человека глаза не только одни чаты читают.))) У человека 6 органов чувств, ёпрст!!! За 15 лет накапливается огромадный сенсомоторный опыт. Заметьте, не сенсорный опыт, а сенсомоторный. То есть обучение активное (кстати, в ML есть такие алгоритмы): если ты не брал в руки бензопилу, то соответствующий опыт не возник.

Поэтому говорить о сильном интеллекте с пустой базой знаний — это удел диванных ИИ-строителей.

Решение простое и одновременно сложное — нужны сильные данные, а не сильный интеллект.

michael_v89
Я уже сотый раз от вас слышу, что мол якобы человеку достаточно двух примеров фото с вараном и вомбатом, чтобы отличать их. Это так, но заблуждение заключается в том, что полный обучающий датасет состоит из двух фотографий. Нет! Полный набор датасетов состоит из миллиона изображений. Иными словами, без предобучения операции сравнения объектов датасет из двух фото не поможет никакому сильному интеллекту.
С уважением, бывший teology.
За 15 лет накапливается огромадный сенсомоторный опыт. Заметьте, не сенсорный опыт, а сенсомоторный.

Человек учится связной речи за 3 года, и многие умеют читать. Никакой сенсомоторный опыт не нужен, чтобы понимать книжку про Золушку и фею, потому что их не бывает в окружающем мире.


Сенсомоторный опыт это вообще не проблема. Изображение с камеры, звук с микрофона, датчик силы тяжести. Проблема в том, какими алгоритмами обрабатывать эту информацию. При этом зрительная информация для развития речи не является обязательной.


Я уже сотый раз от вас слышу, что мол якобы человеку достаточно двух примеров фото с вараном и вомбатом, чтобы отличать их.

С таким смыслом я вроде бы никогда ничего не говорил. В контексте данного обсуждения (и других аналогичных) я говорю о том, что человеку требуются десятки и сотни примеров или попыток для изучения нового, а не миллионы.


Нет! Полный набор датасетов состоит из миллиона изображений. Иными словами, без предобучения операции сравнения объектов

Правильно. Именно поэтому вам сначала нужен алгоритм выделения и сравнения объектов. Если бы он был в нейросетях, им бы тоже не нужен был миллион изображений. Если бы он появлялся в нейросетях при обучении по миллиону изображений, для выделения новых объектов им бы не нужен был другой миллион изображений.
И из этого совсем не следует, что он сам появится от миллиона изображений, если принципы их обработки не такие, которые требуются для его появления.

Нет! Полный набор датасетов состоит из миллиона изображений.

Добавлю, что человеку все равно не нужен миллион изображений конкретно кошек и собак, а нейросети нужен. А по миллиону других изображений нейросеть почему-то не учится отличать кошек от собак, а человек, по вашим словам, учится.

Нейросеть — не то же самое, что нейроны человека. Они обучаются разными методами, это очевидно. Но нам и не требуется полностью повторять механизм обучения, как у человека. Нам важен результат: робот отличает кошку от собаки, и этот результат уже достигнут.
Но нам и не требуется полностью повторять механизм обучения

Нам требуется повторить свойства этого механизма — а именно обучение по входным данным в незнакомой ситуации. А незнакомая ситуация это практически любой разговор или текст, в котором есть новая для вас информация. Или например идете вы на работу по обычному маршруту, а там дорогу ремонтируют и заграждение поставили. Это может быть ленточка, переносной заборчик, надпись, просто канава. Вы понимаете, что конкретно в этой ситуации это заграждение, и дальше идти не надо, а в другой ситуации ленточка может не означать заграждение. Сильный ИИ должен тоже понимать это с первого раза, хотя раньше никто ему ленточку в качестве заграждения не показывал, тем более миллион раз.


Нам важен результат: робот отличает кошку от собаки, и этот результат уже достигнут.

Ну так проблема в том, что это частный случай, работающий только в этих рамках, а нам для универсального ИИ нужен универсальный алгоритм. Интеллект есть у того, кто размечает этот датасет. "Тут кошка, а тут собака" это готовая модель, которая закладывается извне. Поэтому и нейросеть будет работать только в рамках этой модели, способность построить другую модель у нее от этого не появится.

Если вы строите ИИ только на нейросетях, он точно не сможет в момент обучиться, что теперь надо идти другой дорогой. Если же вы используете базу знаний, то роботу будет достаточно одного раза.
роботу будет достаточно одного раза

Каким образом? Чтобы из входных пикселей построить путь к конкретному элементу базы знаний "заграждение", вам уже нужен этот алгоритм. Человек тоже понятие "заграждение" знает до того, как встретил его по пути на работу, а не обучается ему в этот момент.

Нейросети прекрасно справятся с распознаванием «ленточка на пути», далее вступает в бой база знаний, в которой хранятся атрибуты, что с этой ленточкой можно сделать. Роботу остается только наложить на запись «путь домой» новые атрибуты простыми инсертами в базу.
далее вступает в бой база знаний, в которой хранятся атрибуты

Ага, и атрибута "заграждение, туда идти нельзя" у ленточки там нет. Потому что он есть только в определенных ситуациях. А еще это может быть веревочка. Или несколько камней в линию. Да вообще что угодно. На всё вешать атрибут "заграждение"?


Роботу остается только наложить на запись «путь домой» новые атрибуты простыми инсертами в базу.

Ну наложил он информацию "путь домой имеет атрибут ленточка", дальше что?

Таки почитайте статью, про контексты и базу знаний.

Я читал, там нет решения тех проблем, о которых я говорю.

В чем проблема научить нейросеть заполнять базу знаний и пользоваться ею??? Нейросети могут научиться и этому!
Нет никакой принципиальной проблемы, кроме той, про которую я судачу каждый раз: где взять данные для обучения??? Чтобы научить нейросеть работать с базой знаний, вы должны подготовить соответствующий датасет. А не думать о том, какой сильный алгоритм нужно придумать.)))
В чем проблема научить нейросеть заполнять базу знаний

В алгоритме преобразования из входных пикселей и звуков в знания. Его никто не знает.


где взять данные для обучения???

Там же, где и люди берут. Из окружающей среды с помощью датчиков.

Да. Принципиально реализуемо.

Ничья.)
Нейросеть в качестве базы заний потребляет слишком много ресурсов, гораздо эффективнее использовать «традиционную» базу знаний.
Данные для обучения дадут только люди, это очевидно, значит надо привлекать миллионы добровольцев. Я в статье писал о проекте Yarrow, аудитория в целом заинтересовалась им, но мне не хватает опыта в привлечении большого числа людей к проекту.
Да зачем? Пусть у нейросети будут часть входов и выходов завязаны на некоторую БД / онтологию. Выходы — чтобы заполнять, входы — чтобы извлекать знания. В чем проблема? Нейросети же всякие бывают. Что они только ни делают. Был бы толк.

Вот вам книгу по математике дать, не факт, что будет толк.
Никакой сенсомоторный опыт не нужен, чтобы понимать книжку про Золушку и фею, потому что их не бывает в окружающем мире.

Неправда. Иначе бы дети могли научиться читать в 0 лет, сразу после рождения. Не порите откровенную чушь. Сенсомоторный опыт очень важен и его имитация не всегда приводит к желаемому результату. Если вам дать игрушечную бензопилу, вы не получите необходимый опыт работы с настоящей бензопилой. Однако если вам попользоваться молотком или лобзиком, то это положительно сыграет на освоении бензопилы (значительно ускорит освоение бензопилы).
Поэтому в нейросетях такое реально работает: нейросеть, которую обучили распознавать на миллионах картинок, можно дообучить (few shot learning) распознаванию каких-то объектов, которые ранее не показывали.
Фактически веса обученной нейросети являются аккумуляцией ее сенсорного опыта. И в этих весах скрыт ряд навыков: от простейших до сложнейших. И как правило, они иерархически поддерживают друг друга снизу вверх. Именно поэтому дообучение реально работает. Но дообучение не будет таким хорошим, если взять нейросеть распознавания речи и дообучать ее на оптическом распознавании. Слишком мало общих полезных навыков.

Изображение с камеры, звук с микрофона, датчик силы тяжести.

На этом же принципе создан GPT-3: вместо реального общения скормили нейросети миллиарды готовых текстов. Можно признать принцип условно пригодным. Но к сожалению, истинные диванные ИИ-строители не удовлетворены.
Если вам дать игрушечную бензопилу, вы не получите необходимый опыт работы с настоящей бензопилой.

Но нам не нужен опыт работы робота с безнзопилой, нам нужна связная речь. Связную речь дети осваивают без работы с настоящей бензопилой.


можно дообучить (few shot learning) распознаванию каких-то объектов, которые ранее не показывали
Именно поэтому дообучение реально работает.

Не работает. Чем больше новых объектов узнает нейросеть, тем больше забывает старые. Если бы работало, давно бы уже взяли любую нейросеть и дообучили до уровня человека. "Few shot" же, значит должна быстро научиться.


Заметьте, не сенсорный опыт, а сенсомоторный.
На этом же принципе создан GPT-3: вместо реального общения скормили нейросети миллиарды готовых текстов.

Структурированный текст не является сенсомоторным опытом. Поэтому принцип не "этот же".

Если бы работало, давно бы уже взяли любую нейросеть и дообучили до уровня человека.

И никаких проблем?))) Ведь алгоритмы обучения требуют датасеты. А где их взять??? Даже few shots — это тончайшая работа, а не просто пара произвольных картинок.

Из окружающей среды, с камеры и микрофона. Человек по таким "датасетам" нормально обучается.

Вот вы утверждаете, что «нормально обучается», но это абсолютная ложь. Ибо есть контр-примеры, опровергающие утверждение.
Прекращайте бросаться ложными утверждениями в отношении интеллекта человека, не преувеличивайте его. И не принижайте интеллект искусственный в лице ИНС. Вы не способны адекватно оценивать человеческий интеллект и мало знаете про нейросети. Пардон, но я уже устал слышать про успехи в педагогике (=человеческое обучение, ЧО, human learning, HL). ;-)
Ибо есть контр-примеры, опровергающие утверждение.

И что? У меня в утверждении нет квантора всеобщности. Я сказал, что такие примеры есть, и их много, значит это возможно. И никакие контр-примеры существование этих примеров не опровергают.


Пардон, но я уже устал слышать про успехи в педагогике

Да неважно, что вы устали слышать. Есть факты, что компьютер пока не достиг уровня человека в анализе входной информации. И от того, что вы устали, он не меняется.

Человек хуже распознает речь, изображения, хуже играет в шахматы и го.

Ничья.
Человек зато смысл речи распознает в бесконечное число раз лучше.
В контексте данного обсуждения (и других аналогичных) я говорю о том, что человеку требуются десятки и сотни примеров или попыток для изучения нового, а не миллионы.

Когда я говорю «миллионы», то имею в виду много. Если говорю «две» или few shots, то имею в виду «очень мало». Вы же, я смотрю, очень разбираетесь в количестве: десятки, сотни, миллионы…
Но я вам скажу так: чтобы отработать некоторый сложный навык, требуется такое данных, которое формирует необходимый стек навыков более низкого уровня. Поэтому трудно говорить десятки, сотни или все-таки миллион картинок требуется. Многие навыки и вовсе в течение жизни не приобретаются, так как не всегда попадаются картинки, релевантные навыку.
Поэтому ваши рассуждения про десятки и сотни картинок следует пропустить мимо ушей. Непонятно, о каком навыке вы говорите, какова сложность этого абстрактного навыка. Но хочу сказать, что простейшим навыкам надо сотни примеров, ибо у них нет поддержки снизу.
Вы же, я смотрю, очень разбираетесь в количестве: десятки, сотни, миллионы…

Нет, я просто знаю, что на изучение нового не всегда хватает 2 примеров. И говорю так, чтобы никому не надо было угадывать, имею ли я в виду "не два", хотя говорю "два".


сотни или все-таки миллион картинок требуется

Нет. Человек не видит за свою жизнь миллионы разных кошек.

Человек не видит за свою жизнь миллионы разных кошек.

У нас с вами игра: вы возвеличиваете человеческий интеллект, а я буду возвеличивать ИНС.
Нейросети тоже могут не видеть миллионы кошек, но достаточно показать несколько раз, чтобы ИНС приобрела некоторые полезные навыки, связанные с кошками.

Ничья в мою пользу.)))

Я никого не возвеличиваю, это у вас проявляются эмоции с кучей восклицательных знаков. Я говорю про факты и логические выводы их них.

Уверяю вас: вы только лишь думаете, что оперируете фактами. Мои смайлики и восклицательные знаки слабо коррелируют с моей способностью оперировать фактами. Зря вы здесь факт разглядываете.)))

Я не говорил, что ваши эмоции не коррелируют с фактами, я сказал, что это у меня нет эмоций относительно какого-то интеллекта.

Напишите, пожалуйста, статью про сильные данные. Я уже устал от когнитивного искажения, связанного с тем, что существуют некоторые алгоритмы (которые можно назвать сильными), которые из ничего создают все.
Нету никаких сильных интеллектов!!! Ни в природе, ни в технике нету!!!

Очень прошу!!!
Нету никаких сильных интеллектов!!! Ни в природе, ни в технике нету!!!

Человек обучается речи за 3-4 года. Компьютер нет. Речь идет о том, чтобы сделать так же. Хоть "абырвалг" его назовите, а не "сильный интеллект", все равно у вас этого абырвалга "нету!!!".

Ну поговорить с голосовым ассистентом конечно же тоже самое, что и с человеком) Никакой разницы)
Я готовлю расширенный вариант статьи, где будут затронуты и сильные данные. Но статья будет на английском. Дам ссылку вам в личку.
Спасибо. Термин «сильные данные» (strong data) придуман мною, передаю право использования вам.)))
Синоним понятия «сенсомоторный опыт», но в целях устранения мракобесия, зачатого дураком Джоном Серлем, хочу популяризировать в новом звучании.)))

Когда-нибудь фантазия strong data вытеснит фантазию под названием strong AI.))) Мне важно, чтобы акцент сместился с алгоритмов на данные.
Sign up to leave a comment.

Articles