Я работаю над слабым ИИ — предназначенным для решения конкретной практической задачи (обработки тестовых заданий, составленных без заранее известных правил).
Т.е. наш ИИ не намного умнее искусственного интеллекта в сложной компьютерной стратегической игре. И разумеется, даже не пытается моделировать поведение человека.
расскажи, пожалуйста, чего люди уже достигли в разработке ИИ
Хорошо, постараюсь написать статью для Хабра, где попытаюсь «разложить по полочкам» основные положения, которые достигли люди в разработке ИИ.
Я программист, принимающий участие в разработке слабого ИИ для решения практической задачи: автоматической обработке тестовых заданий, составленных в произвольной форме.
Однако, мне интересен и сильный ИИ, цель которого — создание настоящего исскуственного разума. Но я считаю, что сильной ИИ — невозможен.
В научной фантастике эта дилемма давным-давно "разрешена": чувства и мысли "живут" где-то "в квантовом мире". Мозг - всего лишь инструмент связи между ними и физическим телом человека.
Приведенный Вами пример больше похож на религиозное объяснение проблемы:
С точки зрения религии, испытывать чувства может только душа (которая содержит в себе частицу бога и т.д.).
Мозг ничего чувствовать не может, он лишь инструмент для связи души с телом.
ИИ является моделью мозга. Но, поскольку этот ИИ-мозг не связан с душой, никаких чувств не происходит.
...означает, что написанная Вами программа - полная фигня, которая на самом деле не моделирует ни радость, ни страдание
Так вот, я хочу показать, что любая программа — «полная фигня, которая на самом деле не моделирует ни радость, ни страдание».
На сколько я понял, Вы хотите доказать следующие: если мы создаем некую информационную модель, то она становится «реальной», вне зависимости от нашей интерпретации.
Но, я считаю, это не совсем так.
Еще раз приведу пример с программой, моделирующей прыганье мячика.
Мячик моделируется с помощью набора чисел: координаты (x, y, z), цвет (R, G и B), масса, скорость, направление движения и т.д.
Эти числа хранятся в памяти. Программа производит с этими ячейками какие-то манипуляции: складывает одну с другой, умножает и т.д, при этом совершенно не понимая, что именно означают эти ячейки.
И уже только человек интерпретирует значения этих ячеек как физические характеристики мячика. Например, то, что ячейки x, y, z — это координаты мячика, а не его цвет (R, G, B) или температура.
Если человек забудет значение тех или иных ячеек, модель перестанет существовать, превратившись в бессвязный набор чисел.
Несколько странное представление о ИИ как о простом наборе бит.
Каким бы совершенным не был ИИ, но это — всего лишь программа, которая является очень сложным набором бит.
Ведь что такое чувство - это лишь реакция организма на <...> внешние воздействия
Не согласен, что чувство — это лишь реакция на внешнее воздействие. Иначе и электрочайник бы обладал чувством, ведь он реагирует на внешнее воздействие — нажатие на кнопку :-)
Есть теория, что чувство — это способность самоосознания.
Вы говорите о системах искусственного интилекта , а приводите пример из рисования.
Да, ИИ, как и любую другою программу, можно выполнить, как в оперативной памяти, так и в тетрадке.
Не будьте садистом
А я и не садист :-) Ведь это только я знаю, что «АВС» в оперативной памяти — это страдание. Программа об этом даже не догадывается...
Но, есть одно предположение: мозг действительно ничего не чувствует. Чувствует — человек.
Информационная модель чувства (ИИ) != самому чувству. Примерно как, если мы напишем программу, моделирующую прыганье мячика, это не значит что мячик на самом деле прыгает.
или моральные проблемы создания искусственного интеллекта
или моральные проблемы создания искусственного интеллекта
Хорошо, предположим нам удалось создать программу «реального ИИ» со всеми указанными Вами характеристиками.
Эту программу мы стали выполнять на листе бумаги.
Будет ли этот «реальный ИИ», выполняющийся на листочке, испытывать чувства: «радость, боль, сожаление, злость и прочее..»
или моральные проблемы создания искусственного интеллекта
А в данной статье разговор идет о сильном ИИ и только.
P.S. Deep Blue — это не ИИ, а компьютер.
или моральные проблемы создания искусственного интеллекта
или моральные проблемы создания искусственного интеллекта
Т.е. наш ИИ не намного умнее искусственного интеллекта в сложной компьютерной стратегической игре. И разумеется, даже не пытается моделировать поведение человека.
Хорошо, постараюсь написать статью для Хабра, где попытаюсь «разложить по полочкам» основные положения, которые достигли люди в разработке ИИ.
или моральные проблемы создания искусственного интеллекта
Значение этих параметров невозможно предсказать, поэтому, они являются случайными, также как подбрасывание монетки.
или моральные проблемы создания искусственного интеллекта
Я программист, принимающий участие в разработке слабого ИИ для решения практической задачи: автоматической обработке тестовых заданий, составленных в произвольной форме.
Однако, мне интересен и сильный ИИ, цель которого — создание настоящего исскуственного разума. Но я считаю, что сильной ИИ — невозможен.
или моральные проблемы создания искусственного интеллекта
Приведенный Вами пример больше похож на религиозное объяснение проблемы:
или моральные проблемы создания искусственного интеллекта
Компьютер прекрасно справляется с алгоритмами, требующими случайность: начиная от карточного «Дурака» и заканчивая реализацией метода Монте-Карло.
И поэтому, на компьютере можно в точности смоделировать реальную нейросеть.
Другое дело — скорость работы. Это также как на виртуальной машине под Windows можно смоделировать Linux, но скорость работы будет существенно ниже.
или моральные проблемы создания искусственного интеллекта
или моральные проблемы создания искусственного интеллекта
или моральные проблемы создания искусственного интеллекта
или моральные проблемы создания искусственного интеллекта
или моральные проблемы создания искусственного интеллекта
На сколько я понял, Вы хотите доказать следующие: если мы создаем некую информационную модель, то она становится «реальной», вне зависимости от нашей интерпретации.
Но, я считаю, это не совсем так.
Еще раз приведу пример с программой, моделирующей прыганье мячика.
Мячик моделируется с помощью набора чисел: координаты (x, y, z), цвет (R, G и B), масса, скорость, направление движения и т.д.
Эти числа хранятся в памяти. Программа производит с этими ячейками какие-то манипуляции: складывает одну с другой, умножает и т.д, при этом совершенно не понимая, что именно означают эти ячейки.
И уже только человек интерпретирует значения этих ячеек как физические характеристики мячика. Например, то, что ячейки x, y, z — это координаты мячика, а не его цвет (R, G, B) или температура.
Если человек забудет значение тех или иных ячеек, модель перестанет существовать, превратившись в бессвязный набор чисел.
или моральные проблемы создания искусственного интеллекта
Чувствует ли при этом что-либо программа?
Будет ли после этого программа радоваться?
Так вот, программа вообще ничего не почувствует, ни на 1-м, ни на 2-м шаге.
Хотя мы, конечно, вполне можем интерпретировать A→B→A→B как радость. Хотя можем интерпретировать его и как горе с тем же успехом.
или моральные проблемы создания искусственного интеллекта
Не согласен, что чувство — это лишь реакция на внешнее воздействие. Иначе и электрочайник бы обладал чувством, ведь он реагирует на внешнее воздействие — нажатие на кнопку :-)
Есть теория, что чувство — это способность самоосознания.
Да, ИИ, как и любую другою программу, можно выполнить, как в оперативной памяти, так и в тетрадке.
А я и не садист :-) Ведь это только я знаю, что «АВС» в оперативной памяти — это страдание. Программа об этом даже не догадывается...
или моральные проблемы создания искусственного интеллекта
- мы записали в память: «ABC». Просто записали. Будет ли программа что-то чувствовать?
- Теперь мы вслух произнесли: «ABC означает радость». Будет ли после этого программа радоваться?
Я думаю, что программа вообще ничего не почувствует, ни на 1-м, ни на 2-м шаге.или моральные проблемы создания искусственного интеллекта
Они не переживают чувства на самом деле. Это мы интерпретируем состояние памяти как их переживания.
Пример: мы решили, что 00 — это «радость», 11 — «страдание».
Но это только мы знаем, что если программа выдает 11 — значит она страдает. Никто другой об этом не знает.
А на следующий день мы решили считать, что, 11 — это, наоборот, «радость». И что, после этого, ИИ автоматически стал радоваться?
А еще через день мы уже забыли что знаичит 00 и 11 — «радость или «страдание». И что тогда «на самом деле» будет чувствовать ИИ?
или моральные проблемы создания искусственного интеллекта
Я, да и никто, наверное, не знает его решения.
Но, есть одно предположение: мозг действительно ничего не чувствует. Чувствует — человек.
Информационная модель чувства (ИИ) != самому чувству. Примерно как, если мы напишем программу, моделирующую прыганье мячика, это не значит что мячик на самом деле прыгает.
или моральные проблемы создания искусственного интеллекта
Другое дело, как человек интерпретирует результаты закрашивания клеточек.