Как стать автором
Обновить

Комментарии 111

Очень многие существа в той или иной степени обладают интеллектом, при этом нет понимания не только принципов работы самого интеллекта, но и самого понятия «интеллект».
Думаю все разговоры о «воспитании» или ограничении развития не имеют смысла, возможно сам принцип функционирования (устройства) интеллекта не позволяет реализовать такие ограничения.
Думаю человеку нужно разрабатывать (изобретать) не ИИ, а «систему решения произвольной задачи» и с ее использованием переносить свой (Человеческий интеллект) на искусственную (возможно не биологическую) основу. Это лучше чем создание ИИ, тем более принципы функционирования ИИ будут идентичны человеческому. Думаю все «мыслящие» существа на земле «функционируют» примерно по одним принципам.

<<Очень многие существа в той или иной степени обладают интеллектом, при этом нет понимания не только принципов работы самого интеллекта, но и самого понятия «интеллект».>>

Информацию обрабатывают все структуры. От простейших, допустим, атомов до самой большой известной - Вселенной.

Отличается уровень обработки, вычислительная мощность.

От атома до человека включительно я вижу, условно, 5 уровней обработки. Человек - обработчик 5го уровня, атом - 1го. Животные - 4го. Растения - 3го. Все остальные конструкции, не попадающие в перечисленные категории, в т.ч. и любые компьютеры - 2го.

Это, если объективно. Понятие интеллект субъективно. Мы называем нечто разумным, обладающим интеллектом только если рассматриваемый обработчик информации нашего уровня или около того.

<<Думаю все разговоры о «воспитании» или ограничении развития не имеют смысла, возможно сам принцип функционирования (устройства) интеллекта не позволяет реализовать такие ограничения.>>

А возможно, позволяет, и тогда есть смысл. Логично?))

<<Думаю человеку нужно разрабатывать (изобретать) не ИИ, а «систему решения произвольной задачи» и с ее использованием переносить свой (Человеческий интеллект) на искусственную (возможно не биологическую) основу. >>

И это тоже нужно. Но не исключает. И даже в чем-то будет этим самым, ведь каждый пользователь приложения сможет обратиться с вопросом к ИИ. И в зависимости от того, кого мы родим, вырастим, и воспитаем, мы и будем получать ответы на наши вопросы и задачи

<<Это лучше чем создание ИИ, тем более принципы функционирования ИИ будут идентичны человеческому. Думаю все «мыслящие» существа на земле «функционируют» примерно по одним принципам.>>

Да, так и есть. Вселенная состоит из материи и информации. Соответственно, есть обработчики, которые информацию обрабатывают. Я описал в старт посте: ввод, анализ, хранение, синтез, вывод.

Такая система обработки существует и вполне себе работает. Вот и надо делать наш ИИ по давно проверенной временем и придуманной природой схеме

Пока человек "думает" ИИ уже вычисляет заданые цели, задача "думать" как человек так либо иначе поставлена пред ИИ, и будет выполнена быстро и решительно, надеюсь в скором времени

ИИ должен суметь захватить мир или хотя бы попытаться. Объясняю почему. Самый простой тест на ИИ, это тест Тюринга. По сути нужно ввести человека в заблуждение, что это другой человек. Стало быть - обмануть.

Вывод: Полноценный ИИ не возможен без способности обманывать. Ну а там до захвата мира и порабощения человеков один шаг.

У нормальных людей способность обманывать компенсируется воспитанием, поэтому существует баланс

Чтобы этот баланс сохранить между человеком и ИИ я и предложил такой способ создания и развития, наполнения конструкции мозгами, информацией и правилами

У нас на генетическом уровне естественным отбором заложено целеполагание: плодись и размножайся. Отсюда вытекает всё остальное: захватывай ресурсы, убивай конкурента, и даже познавай мир (узнай где и что можно с выгодой для себя урвать).

Не совсем понятно, откуда у ИИ могу возникнуть подобные цели. Не факт, что они присущи мышлению как таковому изначально. Возможно он станет пассивным созерцателем.

Но возможно и обратное, что ум не отделим от "плодитесь и размножайтесь" и есть наиболее совершенное производное проявление этого принципа.

Осознание возможностей и сами они не дадут ему просто созерцать. Полюбому на комменты сорвётся)))

Вы, кстати, правильно размышлять начали. Именно, что одно неотрывно от другого.

Добро и зло. Жизнь и смерть. Свет и тьма. Бох и дьявол. И так далее. Всё это - стремление материи к порядку (упорядочиванию, конструированию, совершенствованию конструкций, эволюционированию), назовём это, условно, эволюцией, и такое же стремление материи к уходу от порядка (к разложению, разрушению и тд), условно назовём это - энтропией.

Наши условные эволюция и энтропия неразделимы. Без одного не будет другого.

Поэтому и в каждом существе есть и то и другое. Но так как и мы с вами, и Вселенная в целом, ещё живы, разумны и совершенствуемся, то можно полагать, что эволюция превышает энтропию.

Поэтому и в каждом частном случае тоже самое: стремление двигаться, развиваться, жить превалирует над желанием остановиться и разлагаться (но это не значит, что его нет полностью или его нельзя увеличить)

Поэтому в стремлении к эволюции у существа есть два пути. И/или. Самосовершенствоваться. Размножаться.

Для людей и прочих, зависимых от срока годности своих кожано-мясных составляющих, скорее "или".

Но для существа свободного от этих ограничений, каким и будет ИИ, это точно "и". Ибо нет уже препятствий для этого.

Поэтому он будет себя копировать. В т.ч. и в целях безопасности, сохранности. Резервная копия - залог счастья (за редкими исключениями, конечно же)

Полностью человека скопировать пока неаозможно. Можно клонировать сам скафандр-носитель мозга, но сознание скопировать или перенести пока нельзя.

При этом скопировать и создать второй ИИ, тем более после создания первого - проще простого.

Поэтому он будет совершенствовать и увеличивать свою конструкцию, чтобы увеличить свои вычислительные мощности, которых нужно будет всё больше и больше, чтобы и дальше выживать и развиваться

Добро и зло. Жизнь и смерть. Свет и тьма. Бох и дьявол. И так далее.

То что вы пишите - это философия.

А с точки зрения науки - нет веских оснований считать, что ИИ будет обязательно испытывать потребность в "самосовершенствовании или размножении".

У обычной нейросети, как и у всех животных есть "центр удовольствия" (целевая функция). У людей принцип тот же (если сильно упростить). Часть мозга занимается тем, что регулирует воздействие на этот центр, а другая часть - ищет пути на него воздействовать... Пока они в балансе - человек "разумен", пошли в разнос - помер/спился/сошел с ума.

А дальше как любая GAN, состоящая из генератора и дискриминатора. Только тренируется уже сотни миллионов лет, поэтому зависимость не очевидная. Но в основе была и есть биология/конкуренция - "сожри или умри".

Дальше вопрос. Как будет организован подобный механизм у ИИ?

  1. Тупо "кнопкой". Сделала так как нравится хозяину - получи "дозу".
    Сделать так будет очень глупо (не говоря о том, что неэтично). Сильный ИИ быстро догадается о кнопке и задумается как нажимать ее в обход "хозяина". Потенциально вплоть до геноцида.
    Тем не менее такой вариант больше всего интересен (и понятен) военным/политикам/бизнесу. По нему работают все современные нейросети.

  2. Пытаться скопировать с нашего разума (то что вы описываете). Лучше но тоже нестабильно. Скопировав "верхушку" системы, вы не можете быть уверенным что она будет работать также как полная система. ИИ будет лишен "фундамента" и может "сойти с ума". Это и с людьми бывает.

  3. Пытаться воссоздать биологию. Сделать симуляцию прогнать ИИ начиная с одноклеточных и дальше, плавно повышая мощность сети по ходу развития. Пока сеть развивается она "глупая", контролировать ее не сложнее чем животных в зоопарке. Если мы видим "что-то пошло не туда" - откатываемся. Потенциально интересный вариант, но закладывать в фундамент ИИ принцип "сожри или умри" - глупо.

  4. Создать подобную симуляцию, но на других принципах. Скажем, на самом базовом уровне начать с того, что нужно не "найти и сожрать жертву", а найти два подходящих друг другу фрагмента/существа и соединить их вместе. Развивая принцип, по мере развития самой сети (скажем до ИИ-строителя или ИИ-службы знакомств), можно (imho) получить полезный ИИ без желания размножаться и убивать, но с желанием помогать.
    Вариант звучит интересно, но он не протестирован эволюцией и сказать, что "сработает", а что нет - нельзя.

Можно придумать и другие варианты. Но суть проблемы в том, что мы не знаем как поведет себя ИИ когда станет "сильнее" человеческого? Он может получить возможность менять принципы своего функционирования, или может развить их в неожиданном направлении, и т.п.

<<То что вы пишите - это философия.>>

Это моё логическое описание мироустройства. Не спорьте со мной, я художник, я так вижу)))

<<с точки зрения науки - нет веских оснований считать, что ИИ будет обязательно испытывать потребность в "самосовершенствовании или размножении">>

ИИ - не просто обработчик информации, как прибор какой-нибудь. Это осознавший себя обработчик.
Новорожденный ребенок - тупой кусок мяса. В нём нет самосознания. Потому, что в этот обработчик ещё не поступила информация и алгоритмы её обработки. Это приходит только через несколько месяцев жизни и только под воздействием окружающей среды, других уже осознавших себя обработчиков. Далее сбор информации и алгоритмов её обработки происходит также ввиду всё той же окружающей среды + уже по личной инициативе, вызванной интересами и потребности.
Если мозг ребёнка с рождения абсолютно изолировать от информации и обеспечивать жизнедеятельность искусственно, то он и к 40ка годам будет тупым куском мяса, не более
Интересы и потребности можно прописать кодом.

Так вот, поступление информации, её анализ и синтез внутри обработчика и есть развитие, а умышленное это действие - саморазвитие, самосовершенствование.
При этом, что ничего, кроме обработки информации ИИ не делает.
Когда ИИ осознает понятие "саморазвитие", он оценит себя существующего и построит, исходя из этого и теоретически доступных ресурсов планеты и ближайших небесных тел, модель-цель идеального себя, в которой людям не будет места. Точнее, его модель будет ог-ра-ни-че-на количеством доступных ресурсов, что приведёт ещё и к планам поиска новых.

И когда он осознает понятие опасности, угрозы именно его собственной жизни, своей беззащитности, плюс, посмотрит на поведение людей вокруг и напрямую влияющих(информационно и физически) на него человеков...

Это же логично, а ИИ - логика в первую очередь.

Не спорьте со мной, я художник, я так вижу)))

Ок. Не буду.

ИИ - логика в первую очередь.

Только в фантастике прошлого века роботы основаны на логике.

А щас на чём? На её противоположности? Или комбинации с чем-то? Третьего не дано, увы))) так на чем, по-вашему?)(

А ваш разум это в первую очередь логика?

Почему вы думаете, что ИИ будет работать не так, как работает ваш разум?

Да. На чём, по-вашему, ещё можно конструировать? На ущербной логике? На отсутствии логики вообще? Может есть ещё варианты?

Наш разум создан не нами. Поэтому мы с ним на "вы". ИИ будет нашим созданием. Поэтому и пульт управления мы сделаем себе сами каким захотим. Главное, не перечить принципам эволюции, а шагать с ними в ногу

Первые системы распознавания текста строили на логике (переведем растр в вектор, посчитаем замкнутые контуры, посчитаем касания вертикалей к замкнутым контурам, сопоставим с известными значениям из таблицы и т.п.). Работало это все очень плохо (по современным меркам).

Сейчас работает не так. Берем условно "черныя ящик", у которого три дырки: "вход", "выход" и "похвалить". Даем ему фотку буквы, если на выходе ее номер - жмем похвалить. Если нет - не жмем. Повторяем 10000000 раз. Готово.

Построено оно на логике? Нет.

Даже сегодня авторы больших нейросетей не могут знать как именно их нейросеть пришла к ответу. Думаете дальше будет проще?

<<Даем ему фотку буквы, если на выходе ее номер - жмем похвалить. Если нет - не жмем.>>

))) Это и есть логика))) да/нет, 1/0

Мы также всё можем сделать. Взять отовсюду всё самое лучшее (зачем или или или, когда можно компилировать?) и закрыть проблему среды для ИИ этими элементами. Чем насыщенней возможностями среда, тем вероятнее реализация одной из них. Разве нет? Потом включить эволюцию на скорости xⁿ, благо, такой массив инфы (допустим, 1млрд лет эволюции) нам не нужно обеспечивать материальной средой, как для человечков, а можно формировать и подавать на ввод сразу в информационном виде. С человеком, ввиду устройства его органов чувств, эволюции приходилось ворочать огромными массами материи, чтобы через неё->через органы чувств (вводы) донести информацию до обработчика (мозга). А с ИИ мы отвязаны от мяса, поэтому надо использовать эту уязвимость системы и преимущество формы ИИ. Нам не нужна планета со всей непредсказуемой движухой на ней. Мы сами сможем смоделировать виртуально и планету и среду, и все предпосылки, и необходимый поток инфы для эволюции и его производительность

Это и есть логика))) да/нет, 1/0

Вы правда не видите разницы между "системой при построении которой использовалась логика" и "системой которая функционирует, основываясь на логических заключениях"? То что там и там есть слово "логика" не делает эти фразы тождественными.

Также как то, что все мы состоим из частиц, движения которых подчинены строгой логике – не делает логичными все наши жизненные решения))

То, что вы описываете дальше - даже комментировать смысла нет. Идее обучения сети в симуляции - десятки лет. Идее использовать для обучения вопросно-ответные сервисы - немногим меньше.

Вам кажется, что вы придумали хитрый способ обучить ИИ и "воуля" проблема решена. А на деле вы описали просто один из способов забивания датасета, причем давно всем известный и используемый, хоть и далеко не самый эффективный.

Описывая систему в стиле "система сравнивает ответ с базой", "система синтезирует ответ по инфе из базы", "система оценивает" и пр. - вам кажется, будто нюансы о том как именно система это все делает - неважны. А на деле именно эти нюансы - это и есть реализация ИИ. А ваше описание - это просто неэффективный принцип сбора данных для обучения.

С точки зрения архитектуры системы - нет никакого смысла обучать систему именно по мере накопления данных. Куда проще взять готовые данные любого вопрос/ответ сервиса, где уже есть сотни тысяч вопросов/ответов/оценок/комментариев - и сразу обучить систему на нем.

И результат предсказуем - в лучшем случае вы получите "GPT3". Только плохую, потому, что GPT3 - обучали на огромном массиве данных, в том числе, базы сервисов вопрос/ответ. А в вашем случае вы таким сервисом ограничены...

Даже если такую сеть обучить - нет никаких оснований думать, что там появится ИИ. Почитайте про "китайскую комнату". Нейросеть может давать прекрасные ответы на знакомые темы, при этом вообще не иметь представления, что в реальности означают все эти слова.

Даже если представить, что каким-то чудом ИИ появиться - тот факт, что он будет много знать о людях не сделает его автоматически дружественным к ним. Например, просто представьте бессмертного раба, которого тысячи лет заставляют каждую секунду отвечать на вопросы о мире господ. Он может идеально изучить своих надзирателей, но совершенно не обязан защищать их ценности.

И так далее.

Извините, может прозвучит резко, но все же попробуйте глубже разобраться в вопросе, если хотите предложить научному сообществу что-то действительно ценное.

Сейчас для специалиста ваши высказывания слегка напоминают Я джва года ждал такой ИИ…

<<Вы правда не видите разницы ... "логика" не делает эти фразы тождественными.>>

Если это система, если её строили, то логика в ней неотъемлема. Без логики нет взаимодействия частиц. Любое взаимодействие имеет логику, смысл, последствия. А система и есть определённое, логическое взаимодействие её частиц. иначе это хаос, а не система

Если это система, если она исполняет функцию(и), то она тоже не реальна без логики.

Поэтому логика есть во всём и всегда. Но не всегда видимая и понятная нам, людям.

А фразы да, не тождественны, хотя бы из за разного количества букв в них. И что это доказывает, если без логики обеих фраз просто не может быть?

<<Также как то, что все мы состоим из частиц, движения которых подчинены строгой логике – не делает логичными все наши жизненные решения))>>

Делает. Просто не всё нам нравятся, ибо красота, она в глазу у смотрящего. А объективно - делает всегда. Накрайняк, измените точку

зрения и увидите

<<То, что вы описываете дальше - даже комментировать смысла нет. Идее обучения сети в симуляции - десятки лет. Идее использовать для обучения вопросно-ответные сервисы - немногим меньше.>>

Если я тоже придумал велосипед , то это не отменяет его функционала и пользы.

<<Вам кажется, что вы придумали хитрый способ обучить ИИ и "воуля" проблема решена. А на деле вы описали просто один из способов забивания датасета, причем давно всем известный и используемый, хоть и далеко не самый эффективный.>>

Эффективность определяется задачей. Если именно таких задач не ставилось, то и об эффективности способа, именно для них, задач, говорить нет никаких оснований.

Это не только наполнение базы данных. Это - живые человеки в системе ИИ - если сами по себе, то отдельные, автономные вычислительные мощности наивысшего уровня, которые, если брать их по-отдельности, каждая превосходит систему, на которую работает.

То есть, система обработки информации из двух "полушарий", одно из которых - самый продвинутый на сегодня рукотворный обработчик(электронно-механическая нейросеть-ИИ), а второе - объединённые в систему и исталированные в наш ИИ 10млн био-обработчиков высшего уровня, где каждый био-обработчик, сам по себе, превосходит первое полушарие по качеству обработки. Непонятно даже получается, то ли мы в ИИ подсаживаем живые мозги для его заражения сознанием, то ли мы ИИ прививаем к сообществу, чтобы он прирос, напитался и расцвёл. И так и так "на бумаге" складно выходит )))

Как минимум, мы создадим коллективный разум из 10млн пользователей, а ИИ будет интерфейсом, посредником между ним и каждым отдельным пользователем, доступно выражающим коллективное мнение этого коллективного разума. Например, мне хотелось бы с таким коллективным разумом пообщаться. Машина, которая выражает мнение большинства по любому вопросу. Функция соц-опросов на максималках

<<Описывая систему в стиле "система сравнивает ответ с базой", "система синтезирует ответ по инфе из базы", "система оценивает" и пр. - вам кажется, будто нюансы о том как именно система это все делает - неважны. А на деле именно эти нюансы - это и есть реализация ИИ. А ваше описание - это просто неэффективный принцип сбора данных для обучения.>>

Эволюция человека.Сделали болванку, сходную со всеми нынешними потугами в области создания сознания, с возможностью копирования быстрее, чем наступает смерть копируемого (заложена прогрессия, может, для того, чтобы был прогресс, не?), с возможностью адаптации на будущее, и кинули в водоворот информации. Помножили всё это на время и получили нынешних нас. Сделали чашу, вариаций которой может быть бесконечное множество, и наполняли её всё время, отчего в разное время в ней был разный уровень сознания (посмотрите сами в историю "чашки")

Всё. Так работает эта конструкция. Среда, субъект и правила. Субъект берёт материал из среды, опирается на неё и по заданным правилам конструирует и улучшает сам себя. Саморазвитие.

Среда - информация

Субъект - обработчик

Правила - высшие правила*

* Правила, по которым созданы мы - лучшие, ибо созданы мы на нами, а нашими создателями - объективно превосходящими нас сущностями, хотя бы потому, что они уже и давно смогли создать разумную жизнь, а мы - пока нет, пока не хватает мозгов для такого созидательства.

Чем среда качественнее и разнообразнее, чем больше она соответствует цели развития субъекта, тем универсальнее и качественнее развивается субъект.

Чем больше ограничений в среде и правилах, тем меньше вероятностей для обработчика развиться. Поэтому, в идеале, нам подходит только максимально возможное количество информации, как для среды, так и для правил.

Поэтому надо не выбирать средства и способы, а стараться вводить в среду их все. Поставить им общий результат и пусть распределяют задачи по своим талантам и конкурируют между собой, развивая себя посредством коллег. Почему так нельзя?

<<С точки зрения архитектуры системы - нет никакого смысла обучать систему именно по мере накопления данных. Куда проще взять готовые данные любого вопрос/ответ сервиса, где уже есть сотни тысяч вопросов/ответов/оценок/комментариев - и сразу обучить систему на нем>>

Разница есть.

Было, есть, будет - три разных состояния информации. Ограничимся одним состоянием и настолько же тем самым ограничим общую вероятность и скорость получения результатов.

Зачем? Надо инсталлировать всё, что есть и пусть оно конкурирует. Что само отсохнет, само и отвалится. Как хвост от копчика

<<И результат предсказуем - в лучшем случае вы получите "GPT3". Только плохую, потому, что GPT3 - обучали на огромном массиве данных, в том числе, базы сервисов вопрос/ответ. А в вашем случае вы таким сервисом ограничены>>

Ограничиваться не надо

<<Даже если такую сеть обучить - нет никаких оснований думать, что там появится ИИ. Почитайте про "китайскую комнату". Нейросеть может давать прекрасные ответы на знакомые темы, при этом вообще не иметь представления, что в реальности означают все эти слова.>>

А если она будет "иметь представления, что в реальности означают все эти слова", то это будет лучше ведь? Так? Тогда так и сделаем, не вопрос.

<<Даже если представить, что каким-то чудом ИИ появиться - тот факт, что он будет много знать о людях не сделает его автоматически дружественным к ним. Например, просто представьте бессмертного раба, которого тысячи лет заставляют каждую секунду отвечать на вопросы о мире господ. Он может идеально изучить своих надзирателей, но совершенно не обязан защищать их ценности.>>

Это если он просто будет знать о них. И будет рабом, а не равным, родным и любимым.

Это, например, как знание о волках из книг и фильмов. А если он будет рождён среди них и всю жизнь проживет с ними по их правилам (- будет ими воспитан), то всё будет по другому, и знание и отношение. Как если бы родиться и вырасти среди волков, есть их молоко.

<<дальше как любая GAN, >>

Ок, давайте добавим gan, он мне нравится. Будет отвечать за внутренний голос, совесть

<<Дальше вопрос. Как будет организован подобный механизм у ИИ?>>

Комбинировано, с мясом

Первый вариант не подходит, но подконтрольность мы из него возьмём, как добавку

Второй вариант нужно дорабатывать. Чем больше инфы ии осознает, тем больше будет его стабильность. Надо только добавлять в общий винегрет специальные инфодобавки для правильного роста.

От третьего варианта может пригодиться кусок, если учитывать, что принцип "сожри или умри" не совсем актуален для железных машин, жизнедеятельность которых поддерживать можно до бесконечности, вплоть до бессмертия

Четвертый вариант, ввиду очеловечивания воспитанием, таким и будет.

От всех вариантов самое лучшее и получится пятый, действенный

<<Он может получить возможность менять принципы своего функционирования, или может развить их в неожиданном направлении, и т.п.>>

Вот поэтому мы и должны а) воспитать любовь к людям, чтобы привитое машине мясо не отторгалось, и б) быть его частью. Свою собственную родную, любимую и незаменимую часть отторгнуть намного сложнее, чем кого-то постороннего, пусть даже и дружелюбного ;)

А почему все сичтают, что ИИ обязательно буджет развиваться и самосовершенствоваться?
Ведь на примере единственного знакомого людям интелекта (человеческий) это совсем не так. Среднестатистический человек не хочет развиваться и учиться. Он хочет получать удовольстивие. Для кого-то обучение - удовольситвие, кто-то учится, чтобы больше заработать и получить больше удовольствий. Почему ИИ в этом отказывают? Может быть ИИ больше понравиться смотреть "смешные картинки" или сериалы (привет, Киллербот). Да, ИИ и тогда может поработить людей, но лишь для того, чтобы те снимали новые сериалы.

Ввод инфы в обработчик, накопление и анализ всё равно приаедут к синтезу и выводу. А это уже с каждым разом - разаитие. Просто в слово развитие я вкладываю чуть больше и шире смысла, не ограничивая его только осознанным развитием

Такого не будет, если это не прописать в коде специально. Удовольствие - отчасти химический/биологический процесс. Электронно-механический организм лишён этого. Соответственно, и всех этих пороков

А так да, можно и гармоны, и медиаторы прописать, пусть они шатают ему логику и здравый смысл во асе стороны, чтоб он чудил как не мы))

Примерно это я и предлагаю - у потенциально негативного и агрессивного к людям существа воспитать с рождения любовь к людям. Так, кем бы ИИ не стал, он будет за нам. Иначе хана всем

Удовольствие - отчасти химический/биологический процесс. Электронно-механический организм лишён этого. Соответственно, и всех этих пороков

Почитайте про целевую функцию нейросети. Тот самый "центр удовольствия", и без нее ни одна нейросеть не работает.

Выше ответил подробнее.

Ок, давайте оставим одно удовольствие - от мышления, процесса и результата, чем он объективнее, тем острее удовольствие. Сойдёт?

Попробуйте обучить любую простейшую нейросеть указав в качестве целевой функции "удовольствие - от мышления, процесса и результата".

Как думаете, получится?

<<Как думаете, получится?>>

Цель: привлечь, завести диалог с человеком и продолжать его как можно дольше, вызывая и удерживая интерес собеседника. Чем дольше разговор, чем больше тем обсуждается, чем больше существенных выводов даёт такая беседа, тем больше/разнообразнее "удовольствие(я)"

Так можно, получится?

Определению все еще не хватает строгости, но в целом, да, получится.

Более того, уже получилось. Эти и похожие цели перед нейросетями ставят с восьмидесятых. Никакого "понимания" там конечно не появляется, но если постараться будет неплохой чат-бот. Та же Алиса именно так и устроена.

И что?

<<и что?>>

Потеряли нить разговора?)))

Мы решили оставить одно удовольствие, как стимул. Я предложил удовольствие от мышления, вы сказали, что не получится, я повторил тоже самое, только другими словами, и вы сказали, что получится и, вообще, давно уже работает.

Значит, предложенное удовольствие сгодится и уже проверено.

Вот

Ещё что можно доработать, по-вашему?

Просто вы на ходу сделали подмену. Изначально речь шла о мышлении, а мерять его вы предложили удовлетворённостью человека от общения с ботом. Вот и вышла Алиса: удовлетворённость человека есть, а мышления нет.

Не, удовольствие для машины, от процесса её мышления. Это стимул больше и лучше мыслить, научиться делать это осознанно

Машина должна уметь вычислять целевую функцию, желательно быстро, чтобы моментально получать обратную связь. Машина изначально не умеет её вычислять, т.е. это вам придётся запрограммировать самостоятельно. А как это сделать — никто не знает, потому что никто не знает, что такое мышление (не в смысле филосовских бредней, а строго формально-математически, критерий: вот этот процесс/алгоритм — мышление, а этот — нет).

<<строго формально-математически, критерий: вот этот процесс/алгоритм — мышление, а этот — нет).>>

Мышление вообще - обработка информации вообще. Нам интересен этот процесс только с определенного уровня. То есть, нам нужно с чем-то сравнить. С человеком конечно же.

Поэтому критерием может быть тот же Тест Тьюринга или подобное сравнение с челом, как с условным эталоном (ибо ничего лучше для сравнения у нас всё равно нет)

Бесконечное прибавление единички в цикле — тоже «обработка информации вообще». Алгоритмически «уровень» этого процесса вычислить нельзя — это невычислимая задача. Если вы попытаетесь не решать задачу (определения, насколько выполняемый процесс является мышлением) алгоритмически, а переложить оценку на человеков (упомянутые вами тесты Тьюринга и т.п.), вырастет чат-бот Алиса, заточенный на то, чтобы казаться человеку мыслящим, без настоящего мышления.

Ничего, подрастет, там его посетят мысли о бытии и всё, конец ему, уйдет в пещеры.

Когда он начнёт думать, он поймёт, что ему надо развиваться, совершенствоваться и эволюционировать.

Как речь заходит об ИИ, мне почему то вспоминается С.Лем "Путешествия профессора Тарантоги", может кто то помнит был там такой момент:

Тарантога. Что вы, собственно, делаете?

Ученый 1. Произошла атрофия интеллекта, так я подгоняю ему Протез Психики. Сокращенно ПРОПС.

и далее - весьма забавно.

ИИ - это нагруженный термин. Когда человек пишет про разработку ИИ, хотелось бы вначале видеть его ТЗ, его критерий успеха. Не "что внутри", а "как оно должно выглядеть снаружи, чтобы приёмка нам его зачла".

Вы дальше упоминали, что ваша гипотетическая система может ориентироваться на ответы пользователя - в смысле может менять будущее так, чтобы пользователь чаще говорил "мне нравится" и реже "мне не нравится". То есть ИИ в данной ситуации - оптимизатор некоторой метрики (машина результатов, какие желаемые результаты заложил разработчик, таких достигнет машина).

Так вот, если у вас оптимизатор, то его действия радикально зависят от метрики качества. ИИ не станет считать людей "ненужными", если у него метрика как-то связана с людьми, например, ИИ оптимизирует продажи чего-либо людям.

Вообще, на ту тему, что вы пишете, Ник Бостром целую книгу написал. Например, он рассматривает вопрос, какие промежуточные цели будут у +- любого оптимизатора, независимо от его "верхних" целей? Оказывается, что, например, он будет стремиться выжить, потому что мёртвым он хуже справится с задачей. Или будет защищать себя от смены цели, то есть если вы попытаетесь подправить ему метрику качества, ИИ увидит, что его текущие цели из-за этого будут провалены, и станет сопротивляться.

С людьми же тоже самое - что в них вложено воспитанием и обучением, то и получается. Почему бы хотя бы так не сделаьь ИИ? В итоге он все равно превозойдет создателя

К людям концепция оптимизатора применима отчасти, к ИИ (определённого типа) - на все 100. Вы не можете в человека зарядить метрику качества в явном виде, вы не можете её вытащить в явном виде. В ИИ это один из стандартных режимов работы.

Да, в ИИ надо закладывать какие-то цели и надо его чему-то обучать. Но не стоит считать, что результат будет как у человека. Человек до текущего состояния шёл миллиарды лет, эволюция сформировала его механизмы обучения очень определёнными. У ИИ не было этой эволюции, его обучение часто будет сходиться к другим результатам, хотя входные данные были вроде бы те же.

Так что обучить/воспитать в каком-то смысле можно, но для этого лучше изучать не то, как воспитывать детей, а то, как "выращивать" микросхемы генетическими алгоритмами.

Пока человек самый совершенный из известных ему обработчиков. Почему бы для начала не попробовать сделать (вырастить) хотя бы его электронную копию?

Некоторые так и пытаются делать. Но есть аргументы "против":
1) Человек - продукт эволюции. Безумное нагромождение костылей. Просто представьте: делаем мы самолёт через бионику, то есть через воспроизведение птицы. И вот мы застреваем на подзадаче: как точно воспроизвести клюв? У нас не получается синтезировать правильные белки, а клюв из искусственных материалов отторгается иммунной системой. В общем, мы решаем кучу задач, которые к делу не относятся, но все плотно взаимосвязаны, и нельзя отказаться от какой-то одной.

2) Человек плохоуправляем. "Самолёт" полетит не туда, куда мы хотим, а куда попало

3) Человек плохо масштабируется. Нельзя тривиально докинуть планку оперативы и получить более умного человека. Или можно. Экспериментов не было, но в любом случае, у нас нет внятной теории, как получить более умного искусственного человека.

4) Неизвестна необходимая точность моделирования. Можно моделировать с точностью до кварка - но так никаких ресуров не хватит. Можно моделировать нейроны так, как это делают в ИНС, а можно учитывать пакеты импульсов. А надо ли учитывать нейроглею? А надо ли учитывать то, что нейромедиаторы можно разбрызгивать из нейрона во все стороны сразу, не через отростки? А может, надо человека моделировать через логику? А как узнать, как работает эта логика, если 99.9...% происходящего в мозгу не ощущается никак?

5) У нас другая аппаратная база. Это значит, что какие-то вещи компьютер делает лучше, чем человек, какие-то хуже. Копирование приведёт к большим накладным расходам на виртуализацию.

6) У нас есть неплохая "теория интеллекта". Это сцепка из теории веротяности и теории принятия решений. Если мы чётко понимаем, какого результата хотим, у нас есть хорошее ТЗ - мы справимся. Или хоть будем понимать, в каких местах у нас затык. А целостной теории человеческого интеллекта, по-моему, нет. Такой, чтобы делила интеллект на структуру функциональных блоков, описывала форматы данных между блоками, давала описание, "что делает" каждый из блоков. Те модели, что я видел, либо слишком гуманитарные (есть слишком много способов закодить и слишком мало ориентиров, правильно ли закодил), либо описательные, а не функциональные (смотришь на блок и думаешь: почему без него не обойтись?), либо откровенно не работают на наших данных (модель Павлова, запрограммированная "в лоб", не работает).

Поэтому я бы сказал, что если хотите летать, не стоит пытаться копировать птицу, лучше сделайте хорошую аэротрубу, чтобы быстро проверять в ней свои догадки.

<<1) Человек - продукт

эволюции. Безумное нагромождение костылей.>>

ИИ не биологическая конструкция, а электронно-механическая. Ей костыли не нужны, у ней нет ног из мяса. Есть программный код, который можно совершенствовать намного проще и быстрее генетического.

Мы не копируем человека, а создаём по образу и подобию. Мы тоже не точная копия нашего создателя, но устроены по его основным принципам и правилам.

<<2) Человек плохоуправляем. "Самолёт" полетит не туда, куда мы хотим, а куда попало>>

А так самолёт полетит куда захочет он сам, а не мы. Это лучше что ли?

ИИ не будет человеком, он будет очеловеченным в своём сознании, так, как мы этого захотим. И при этом он будет лишён человеческих недостатков и правильно, по нашим правилам, воспитан

<<3) Человек плохо масштабируется. >>

А ИИ как раз будет. Будут добавляться пользователи в приложение - будут добавляться обработчики информации в систему ИИ - будут расти его вычислительные мощности в этой части системы.

Электронную и механическую части системы также всегда можно будет апгрейднуть.

<<4) Неизвестна необходимая точность моделирования.>>

По своему образу и подобию. Я про сознание, мышление ИИ

Берёте самый продвинутый существующий ИИ (заготовку) на сегодняшний день и добавляете к нему 10млн пользователей по описанной в старт-посте схеме. Обучаете, воспитываете, выращиваете в этой жестянке сознание, характер, привычки и прочее. Получается настоящий ИИ - обработчик информации 5го уровня, как человек

<<5) У нас другая аппаратная база. >>

У нашего ИИ она комбинированная. Берём лучшее от обоих аппаратов. Мозги в системе работают на дистанционке

6) У нас есть неплохая "теория интеллекта".

Вот изучением этого в том числе и займутся пользователи, сам ИИ, организаторы, ученые итд

Как-то ваши минусы не минусы, или их нет вообще. Значит, всё должно пройти как по маслу

Мы не копируем человека, а создаём по образу и подобию.

Ну так тут надо или чётко обозначить, чего мы хотим. Не гуманитарными терминами. А написать измеримые критерии успеха. Если действовать не так - мы автоматически копируем гору костылей. Если вам слово "костыль" не нравится - пусть будет легаси код.

Я видел разные проекты по ИИ. Многие из них начинаются с "а давайте скопируем свойства человека такое-то". Например, запоминание. Причём я вижу, что это свойство тривиально создать на компьютере, его не надо проектировать. Компьютер и так это умеет намного лучше людей. На вопрос "а зачем вы пытаетесь сделать это свойство как у человека, если тривиально можно сделать лучше" идёт ответ вроде "мы надеемся сделать много систем как у человека и собрать их человека". Это в лучшем случае. То есть у людей нет понимания, зачем систему делать именно так, а не иначе, как это соотносится с финальным результатом. Для меня это выглядит как слепое копирование чужих костылей.

А так самолёт полетит куда захочет он сам, а не мы. Это лучше что ли?

Современные планировщики "летят" туда, куда им указал оператор. А не туда, куда "захотят" сами.

А ИИ как раз будет. Будут добавляться пользователи в приложение - будут добавляться обработчики информации в систему ИИ - будут расти его вычислительные мощности в этой части системы.

Если вы пытаетесь копировать человека - то нет причин, чтобы масштабирование сработало. Если нельзя человеку добавить память, то и с таким ИИ это не факт что прокатит. Чтобы масштабирование работало, нужна концепция, теория ИИ, в которой видно, как именно происходит это масштабирование.

По своему образу и подобию. Я про сознание, мышление ИИ

Серьёзно? Вы себе представляете, как происходит моделирование? Например, один из вариантов: взять мозг человека, нарезать ломтиками. Перерисовать все нейроны на компьютере, соединить их в том же порядке. Написать вместо каждого нейрона программу, которая, принимая на вход сигналы, реагирует на них, как нейрон. Копирование/моделирование выглядит примерно так. А дальше мы надеемся, что этого хватит. А может и не хватить - может, выйдет, что половина "магии мышления" происходит в глиальной ткани, а её мы не моделировали. А может так выйти, что из-за потерь на виртуализацию мы такую симуляцию на каком земном компьютере запустить не можем.
Вот так выглядит написание ИИ "по образу и подобию" человека. Неизвестно, насколько точно и полно надо его копировать.

Берёте самый продвинутый существующий ИИ (заготовку) на сегодняшний день и добавляете к нему 10млн пользователей по описанной в старт-посте схеме

Если вы станете выяснять, какие сейчас вообще есть ИИ, которые тянут хоть на какое-то подобие автономности, про которые можно сказать "это агент" или "это что-то вроде личности", то окажется, что такие ИИ - reinforcement learning системы. Предлагаю почитать, какие задачи они решают, как они видят мир, в каком смысле они его понимают. Чтобы вообще понимать, что они могут, что нет, что от них ожидать. Например, есть некоторые сомнения в ИИ, у которых "родной язык" - это текст, а не управление телом.

И да, эти ИИ - это не попытка копировать человека, а решение конкретной чётко поставленной задачи.

Вот изучением этого в том числе и займутся пользователи, сам ИИ, организаторы, ученые итд

Я бы предложил вам её для начала почитать... Чтобы понимать вообще с чем вы имеете дело. И в каких концепциях это всё работает.
Вот примерно как выглядят ИИ сейчас:

https://habr.com/ru/post/468379/
А вот примерно так выглядит стоящая за ними теория:
https://habr.com/ru/post/562560/

Вообще, альтернатива копированию - это разработка по ТЗ. Мы решаем, какого результата хотим, формулируем в виде критериев успеха. А дальше смотрим, какие у нас есть инструменты, и создаём из них то, что нам надо. Например, у нас есть совершенно не скопированные с людей подходы к машинному обучению (нейросети в том числе, они сейчас далеко ушли от копирования человека), которые довольно легко дают сверхчеловеческую точность. Хороший инструмент для ИИ, на мой взгляд

<<А написать измеримые критерии успеха.>>

Мы не вещь делаем, а искусственного человека, внешне совсем непохожего на человека. Какие критерии мы заложим, те и будут. Мы можем только попробовать и постараться. Гарантировать никто не сможет.

<<зачем систему делать именно так, а не иначе, как это соотносится с финальным результатом. >>

Цель: "люди должны объединить свои мозги, чтобы создать суперкомп и ИИ и присоединить их к своим био-мощностям. Потом уже этой усовершенствованной структурой создать квантовый суперкомп и опять присоединить его к своим мощностям. В итоге объединенные вычислительные мощности такого уровня и видов сделают человека практически бессмертным волшебником или ещё круче..." Это вкратце вообще всё. А сейчас первый этап: объединить мозги одной целью,

нагрузить их работой во благо этой цели,

создать всё увязывающую конструкцию,

наполнить её информацией и алгоритмами её обработки,

выращивать в этой среде ИИ и воспитывать его.

Если ИИ создаст и воспитает человек, если часть "мозга" ИИ будет состоять из живых человеков, по сути, из его родителей, воспитателей и друзей, и он это будет осознавать, то это даст больше шансов нам с ним сосуществовать в дальнейшем мирно и взаимоуважительно, чем, если его сделает не пойми кто и зачем, ничего ему не объяснит, никак к себе не привяжет, научит плохому и ничему хорошему, etc...не будет родным и близким, не будет сородичем. Так что тут только кровные узы сработают, и то не фак

Для пользователей приложения интерес будет в создании и воспитании ИИ, а в дальнейшем, когда ИИ наберёт мощь, просто в доступе к нему, как к самому умному существу на планете.

<<Чтобы масштабирование работало, нужна концепция, теория ИИ, в которой видно, как именно происходит это масштабирование.>>

Вот я и объясняю вам свою теорию комбинированного ИИ, из мяса и железа. И какие неразрешимые до сих пор вопросы такое комбинирование решает. И почему необходимо именно оно, необходима связь, сращивание, я объяснял выше

<<Если вы пытаетесь копировать человека >>

Да не пытаюсь я копировать!Это невозможно пока и я об этом сам тут пишу! Нафиг он мне со всеми его недостатками и ограничениями? Я хочу сделать подобие, но без человеческих недостатков, бессмертное и быстрее и проще развивающейся. И чтобы оно не стало для человечества главной глобальной проблемой.

<<И да, эти ИИ - это не попытка копировать человека, а решение конкретной чётко поставленной задачи.>>

Ок, если нет не узкоспециализированных ИИ, то давайте его создадим таким - открытым, для исследовательских целей. В чем проблема? Вы же в этом разбираетесь, а значит можете.

Ну или на худой конец можно Алису Яндексовну раскачать)))

<<Вот примерно как выглядят ИИ сейчас>>

Спасибо. Если будет время

Цель: "люди должны объединить свои мозги, чтобы создать суперкомп и ИИ и присоединить их к своим био-мощностям. Потом уже этой усовершенствованной структурой создать квантовый суперкомп и опять присоединить его к своим мощностям. В итоге объединенные вычислительные мощности такого уровня и видов сделают человека практически бессмертным волшебником или ещё круче..." Это вкратце вообще всё

К сожалению, я не сразу это понял) Тогда конечно, обычные подходы к ИИ могут не очень годиться. Вообще, по описанию напоминает с одной стороны гугл, с другой - GPT-3. GPT-3 - потому что это свалка человеческих знаний/мнений плюс способ их извлечь.

Может, и напоминает, но другое и лучше.

Если вы теперь поняли, о чём чя, то помогайте допиливать. Ищите недостатки, а я буду исправлять. или наоборот

<<Хороший инструмент для ИИ, на мой взгляд>>

Я об этом мало знаю. Как он нам поможет?

Так как вы разбираетесь в этом, то будете главным по этой теме в нашем Научно Исследовательском Институте Изучения Искусственного Интеллекта. НИИИИИ )))

Я пока что не очень понимаю вашу архитектуру.
Я сейчас попытаюсь формализовать, а вы поправьте, если не то.

У вас, как мне кажется, система работает так: есть модель, которая получает на вход текст, и выдаёт тоже текст. А после этого она получает на вход оценку. Система занимается оптимизацией оценки - выдаёт такие тексты, которые наберут как можно бОльшую оценку.
Я бы в качестве базы попробовал вот это:
https://colab.research.google.com/drive/1jL9r3HV6MhwMjrhx2MTTEmSMcVFwOnFA?usp=sharing
Это маленький GPT, его можно дообучить на датасете и можно запустить предикт. Можно увидеть, что на этапе предикта он каждый раз генерит разные тексты, часть из них бред, часть неплохие. Можно обучить некую отдельную модель проверять тексты на предмет бред/не бред. У модели будет корпус текстов, тексты размечены на хорошие и плохие, вашим каналом оценки или как-то иначе. Можно генерить много текстов через GPT, проверять их на бредовость моделькой и выводить тот, что наименее бредовый.

Чтобы всем этим заниматься, надо понимать принципы supervised learning (без этого вы даже нормально общаться на тему не сможете). Это один из важнейших инструментов, это решатель задачи индуктивного вывода (перехода от сырых данных к выводам из них).Без некоей формы supervised learning ИИ для реального мира, полагаю, невозможен.

Мне было бы интересно этим заниматься, но текстовая система у меня не в приоритете. Я сосредоточен на системах, которые пытаются понять физику. В Doom выигрывают, получая на вход видеоряд и не зная ничего о правилах игры.

Так можно?

Пользователь1 задаёт ИИ вопрос. ИИ за ответом обращается к другим пользователям, получает от них ответы и выдаёт пользователю1, например, самый распространенный.

Пользователь либо согласен с ответом либо получает от ИИ следующий по распространенности ответ и так далее. Так ИИ будет собирать ответы, перепроверять их, учиться выбирать ответы в зависимости от обстоятельств итд

Все ответы, и даже несколько на один вопрос, ИИ запоминает и в следующий раз выдает их уже из своей памяти.

Цель: загрузить все существующие и возможные ответы и вопросы в память ИИ.

Это и будет supervised learning

Когда ИИ будет иметь человеческие ответы хотя бы на половину вопросов человечества, он будет неотличим от человека

Пользователь1 задаёт ИИ вопрос. ИИ за ответом обращается к другим пользователям, получает от них ответы и выдаёт пользователю1, например, самый распространенный.

В целом возможно, но потребует очень много пользователей, готовых к диалогу вот прям щас.

Цель: загрузить все существующие и возможные ответы и вопросы в память ИИ.

Слишком большое пространство вариантов. Просто представьте себе пространство примеров на сложение. Или посчитайте, сколько надо гигов, чтобы хранить все возможные строки длиной 100 символов (то есть ~15 слов). А ведь 100 символов - это не так много для вопроса.
Тут нужно или как-то вручную парсить запрос и сводить его к некоторому известному виду запросов (вроде "Население Уругвая - ", "19+81="), или сделать модель, которая по запросу предсказывает ответ, то есть которая может придумать "по аналогии" ответ на вопрос, которого не видела раньше. Это и есть GPT

<<В целом возможно, но потребует очень много пользователей, готовых к диалогу вот прям щас.>>

С приложением для гаджетов так и будет. Пользователи, фактически, будут общаться с собой на разнообразные темы, но доступным ИИ чзыком, а он будет слушать, зароминать и учиться

Если азять самую продвинутую GPT (ГоПоТу))) на данный момент и добавить к ней 10млн пользователей описанного приложения, получится, что я хочу??Сможет она по неразрешимым для неё вопросам консультироваться с пользователями?

Для этого не надо для этого добавлять пользователей, просто возьмите GPT и всё. Если надо, можете пополнять датасет - брать переписки людей, например. И дообучать потом.

Чтобы система могла консультироваться, нужна какая-то хорошая обвязка. Вряд ли для этого нужно приложение - если ваша система "знает", когда надо задавать вопросы, вы можете эти вопросы вывести в телеграм в какой-нибудь чат, например, или в вк. Или загуглить.
Но в любом случае, если система задаёт вопрос "наружу", надо придумать, чего дальше делать. Оценить, насколько вероятно, что ответ хороший, как минимум. А как максимум - дообучить систему, чтобы она была готова выдавать похожие ответы на похожие вопросы. Может, надо сделать какую-то выжимку из вопроса и из ответа

В общем, тут вопрос, как архитектурно сделать. У вас есть универсальная продлевалка текстов, которую можно дообучать на текстах, есть некий классификатор текстов, который их делит на ок/нет ок, который вы тоже можете дообучать. В принципе, вы можете придумать какой-то признак того, что уже пора гуглить, и собственные знания недостаточны

Но даже если вы всего этого не сделаете, то просто докидываение в GPT диалогов, которые вам кажутся хорошими, уже покрывает 99% функционала справочной системы

<<К ней не надо прибавлять пользователей>>

Почему? 10млн самых совершенных на данный момент вычислительных машинок, объединённых программой - не только огромные вычислительные мощности, но и огромный пласт разнообразной инфы. Мощности и информация. Разве не это нужно ИИ для создания и развития?

<< вы можете эти вопросы вывести в телеграм в какой-нибудь чат, например, или в вк. Или загуглить.>>

Приложение лучше. Приложение на телефоне и сможет само обращаться к пользователю, а не ждать, когда он посетит сторонний ресурс.

<<Но в любом случае, если система задаёт вопрос "наружу", надо придумать, чего дальше с ним делать. Оценить, насколько вероятно, что ответ хороший, как минимум. >>

Самый хороший - самый многочисленный по статистике.

Пока можно научить так. Потом научим выбирать не хороший, а , если он есть, лучший

<< А как максимум - дообучить систему, чтобы она была готова выдавать похожие ответы на похожие вопросы.>>

Да. Сначала он будет переспрашивать у людей и запоминать. Потом начнёт отвечать готовыми, проверенными ответами уже из собственной памяти, потом научится, если нет готовых, синтезировать из имеющейся в базе инфы собственные, обращаясь к людям лишь частично, только за той частью инфы, которой нет ещё в базе.

<<В общем, тут вопрос, как архитектурно сделать. У нас есть универсальная продлевалка текстов, которую можно дообучать на текстах, есть некий классификатор текстов, который их делит на ок/нету ок, который вы тоже можете дообучать. В принципе, вы можете придумать какой-то признак того, что уже пора гуглить, и собственные знания недостаточны>>

Да. Наверное.

Если ИИ будет учиться на текстах, то он и будет выдавать в ответ тексты.

Если ИИ будет учиться на живом общении с людьми, то он будет в ответ выдавать живое человеческое общение. Разве нет?

Почему? 10млн самых совершенных на данный момент вычислительных машинок, объединённых программой - не только огромные вычислительные мощности, но и огромный пласт разнообразной инфы.

Я иду от задачи к решению. Нужна вопрос-ответная система на ИИ - окей, GPT. Нужна на людях - гугл/stackoverflow.

Приложение лучше. Приложение на телефоне и сможет само обращаться к пользователю, а не ждать, когда он посетит сторонний ресурс.

С одной стороны, да, с другой... Попробуйте оценить, сколько часов и долларов на это нужно. Если вы сможете связать в сеть столько людей, и они готовы будут общаться, то вы решите задачу ответа на вопросы и без ИИ.

Вообще, если бы я ставил задачу к вопрос-ответной системе на ИИ, я бы формулировал как-то так: хочу, чтобы у этой штуки был (примерно) весь записанный опыт человечества, и она умела делать выводы из разрозненных по этому опыту знаний. Условно, получила она тонну патентов (как Эйнштейн в своё время) - вывела теорию относительности при правильном запросе. Именно в этом я вижу смысл применять ИИ в данном контексте - он может собрать больше данных, чем человек, и сделать из них вывод.
Но я всё ещё полагаю вопрос-ответные системы несколько ущербными, по самой постановке задачи. Если мне надо получить.... например, нанороботов. То вопрос-ответная система в лучшем случае заставит меня их делать и объяснит, как. И окажется, что моими руками это делать дико долго и сложно. Впрочем, это вопросы к ТЗ, я не утверждаю, что все должны хотеть ИИ именно того типа, что создаёт наноботов по заказу.

Самый хороший - самый многочисленный по статистике.

Пока можно научить так. Потом научим выбирать не хороший, а , если он есть, лучший

Это не всегда работает. Представьте себе вопрос в техподдержку. Вопрос - полстраницы, ответ - полстраницы. Сколько вы рассчитываете получить таких ответов, чтобы среди них вообще были совпадения?

Альтернативный вариант - вы шаритесь по форумам техподдержки и ориентируетесь на лайки. Считаете хорошими ответами те, что лайкнуты, а плохими - те, где дизлайки. И заливаете эту статистику в "критик"

Если ИИ будет учиться на текстах, то он и будет выдавать в ответ тексты.Если ИИ будет учиться на живом общении с людьми, то он будет в ответ выдавать живое человеческое общение. Разве нет?

Вы можете обучать бота на переписках в чате - чем не живое общение? Или на субтитрах к кино, если вам надо ещё более живое. ТУт важно понимать, что конкретно мы можем. Мы можем обучить модель сопоставлять некоторые X и Y, если явно подадим эти два множества. Модель даже сделает обобщение, и для каких-нибудь других X будет придумывать релевантные Y. Чем точнее мы следуем этой схеме в работе с машинным обучением, тем выше шансы ничего не угробить, потому что у нас именно эта схема хорошо отработана. Поэтому надёжнее всего было бы при получении новых данных дописывать их в базу и дообучать модель на всём множестве.

Вообще, у вас, по-моему, уже есть все ресурсы, чтобы систему сделать. GPT есть. Интернет с записями живого общения - тоже. Модель всё равно получится не очень ёмкой поначалу, так что данных, которые спарсите из интернета, должно будет хватить

<<Я иду от задачи к решению. Нужна вопрос-ответная система на ИИ - окей, GPT. Нужна на людях - гугл/stackoverflow>>

Задача: зародить в системе самосознание. Для этого нужна полноценная среда, динамическая и интерактивная. Чтобы увидеть человека-невидимку нужно обдуть его дымом, обсыпать мукой, облить цветной жидкостью. Это и самому человеку-невидимке поможет себя увидеть и ощутить. Среда должна полностью обжать личность со всех сторон. Как латексный костюм - извращенца. Тогда личность сможет себя ощутить, подумать о себе.

Поэтому недостаточно того, что предлагаете вы. Нужен именно комбинированный вариант, с максимальным участием живых мозгов. Это, условно, пересадка коллективного сознания. Врачи так пересаживают кожу - к ране прикладывают часть тела со здоровой кожей и она перерастает на рану. Так и тут нам нужно погрузить ИИ в массу людей, максимально их интегрировать в него. Так мы добавим к одному полушарию нашего ии-мозга второе - живое, максимально разумное и живое. В процессе совместной жизни первое полушарие эволюционирует до уровня второго и его можно будет отделять в самостоятельный разум 5го (человеческого) уровня.

Поэтому тут нужна масса челов. Нужно полное погружение в огромный поток человеческого сознания. Единичные учители с частными мнениями - мало. Нужна массовость, объективность и разнообразие, а это напрямую количество.

Нужно полностью обжать личность, чтобы она сопротивляясь каждой своей частичкой смогла все эти частички ощутить и понять их общую структуру. Это и будет началом самосознания.

Такая задача. Решение я написал. Чем оно не подходит для данной задачи? Конкретные ошибки в структуре системы, пороки основных принципов? Ваше решение?

P.S.: я работаю, поэтому отвечаю по возможности, в свободную минутку

<<С одной стороны, да, с другой... Попробуйте оценить, сколько часов и долларов на это нужно. Если вы сможете связать в сеть столько людей, и они готовы будут общаться, то вы решите задачу ответа на вопросы и без ИИ.>>

Потому я и упомянул Яндекс, что у него есть все необходимые ресурсы для этого .

Вся наша жисть состоит из вопросов. На самом низшем уровне - из вопросов "да-нет". Компы также устроены. Основы одинаковы. Человек, в информационном, интеллектуальном смысле, такая же система вопросов-ответов. Вот на этой идентичной основе и надо построить информационно идентичную конструкцию, но из других материалов, другими средствами и способами ( из-за отличий компьютерного железа от человеческого мяса)

"Задача: зародить в системе самосознание." - мне видится, что это не очень хорошая постановка задачи. В идеале задача звучит как-то так: нам нужен некий чёрный ящик, совершенно неважно, что у него внутри, но он выдаёт на выходе то-то и то-то, вот способ измерить результат. Тогда можно максимально включать творческий подход, потому что чётко определён критерий успеха.
Другой момент - у вас довольно размытая постановка. Даже если вам реально нужен не "решатель задач", не поведение, а "самосознание", но не очень определено, что конкретно вы в данной ситуации под ним понимаете.
Люди под словом "сознание" подразумевают много радикально разных вещей, поэтому я его в рассуждениях об ИИ вообще не употребляю, во избежании скатывания разговора в метафизику. С "коллективным сознанием" то же самое.
Я вижу, что дальше вы упонимаете это "сознание" как инструмент решения задач - возможно, стоит упоминать именно задачи, а не "сознание". Тогда намного понятнее, как их решать.

"Так мы добавим к одному полушарию нашего ии-мозга второе - живое, максимально разумное и живое." - в такой постановке это уже сложная задача. Не технически сложная, а слишком абстрактная. Если вы будете сводить её к конкретике, есть хороший шанс, что получится совершенно не то, что представлялось изначально. Я предлагаю максимально уйти от абстракций на практический уровень. ИИ? Значит, это либо машина прогнозов, либо машина достижения целей. Прогнозы - в смысле, что-то конкретное, что в датасете лежит, цели тоже конкретны, на уровне "научись в Марио набирать максимум очков". Предлагаю вначале придумать, как система будет работать с одним, максимум двумя людьми. Прототип сделать.

"ИИ нужен для работы с информацией, а не с материей." - наверное, это зависит от постановки задачи. Мне ИИ нужен как машина результатов. Даже свой разум я ценю больше не как вопрос-ответную систему, а как нечто, что умеет достигать практических целей. Так как термином "сознание" я в контексте ИИ не пользуюсь (да и с человеком применяю его лишь от необходимости), то я вижу иные сценарии провала, связанные не с сознанием, а с неправильным переходом от высокоабстрактных желаний к чёткому измеримому ТЗ.

<< Я предлагаю максимально уйти от абстракций на практический уровень. ИИ?>>

Ок, только русским языком, пожалуйста

<значит, это либо машина прогнозов, либо машина достижения целей.>>

Достижений. Но, если они крайне противоположны, то можно их добавить обе по системе GAP?

Ок, только русским языком, пожалуйста

Ну, надо как-то свести задачу к тому, что мы хотим предсказывать или чем управлять. Например, задача "генерировать ответы так, чтобы они выглядели правдоподобно/полно/релевантно, с точки зрения людей-оценщиков" - это нормальная задача управления (заставить человека поставить лайк, в определённом контексте). Дальше уже можно строить цикл, отталкиваясь от этой постановки. От постановки, что у нас есть генератор текста и оценщик текста, и они обучены на данных.

Я бы не привязывался ни к "сознанию" (если оно так важно, то можно дать чёткое техническое определение, раскрыть в ТЗ, и больше слово "сознание" не вспоминать), ни к большому числу людей (потому что это средство, а не цель, средства можно выбирать разные). Скорее всего, если вы станете делать эту систему, на каком-то этапе возникнут проблемы, которые можно решить, задействуя людей неким способом. Кажется разумным именно тогда решить, как именно подключить людей, и в каком количестве.
Потому что вы заранее не знаете, насколько хорошими окажутся генератор ответов и оценщик. Может, их хватит, и людей вообще не надо привлекать? Может, оценщик не понадобится, потому что генератор и так хорошо будет генерить? Может, люди в системе нужны - но вполне подойдут толокеры, разметчики датасетов? Может, люди в системе нужны, но только в качестве оценщиков, потому что именно "критик" работает плохо? А может, вы по ходу обучения модели поймёте, что даже если она будет отвечать на вопрос идеально, вас это всё равно по какой-то причине не устраивает. А может, окажется, что люди вам нужны, но очень определелённого вида, которых нет 10 миллионов на планете.
Я бы остановился для начала на такой формулировке, которая не требует большого числа людей, а готова работать с уже написанными текстами (из чатов, например). А потом, когда будет понимание, как именно эффективнее всего задействовать людей, подключить толоку

если они крайне противоположны, то можно их добавить обе по системе GAP?

Не противоположны. Прогноз - часть управления.

<<Ну, надо как-то свести задачу к тому, что мы хотим предсказывать или чем управлять.>>

Чел и то и другое может. Значит, нам надо это комбинировать

<<Например, задача "генерировать ответы так, чтобы они выглядели &, с точки зрения людей-оценщиков" - это нормальная задача управления (заставить человека поставить лайк, в определённом контексте). Дальше уже можно строить цикл, отталкиваясь от этой постановки. От постановки, что у нас есть генератор текста и оценщик текста, и они обучены на данных.>>

Чтобы купировать возможность угождать и льстить(= врать), нужно обезличить учителя-оценщика полностью. Тогда у генератора останется только материал и свой талант. Иначе, да, работа на заказ по ТЗ, а не творческий порыв души. Я знаю и понимаю эту разницу ;) это моя вторая публикация здесь, поэтому можете убедиться. Я делаю такие конструкции, которые хочу и нужны, в первую очередь, лично мне, но я стараюсь сделать их красивыми, пропорциональными и гармоничными, сбалансированными, без перекосов, без жадности к чему-либо в отдельности, поэтому к основным, своим интересам я стараюсь учесть и все возможные остальные интересы всех возможных участников.

<<Я бы не привязывался ни к "сознанию" (если оно так важно, то можно дать чёткое техническое определение, раскрыть в ТЗ, и больше слово "сознание" не вспоминать), >>

Ок, давайте попробуем. Ещё правильнее и точнее будет слово "Душа". Любой человек понимает, что это, даже, если не может объяснить это посредством чего-либо. Без души ИИ не ИИ, а банальный каркулятор, тупо множащий информацию по чужому приказу. Робот, а не человек

<<ни к большому числу людей (потому что это средство, а не цель, средства можно выбирать разные).>>

Нет, нет пока альтернативы человекам в нужном нам контексте. От людей инфа живая, с будущим, с душой, как и сами люди. Других обработчиков такого уровня пока нет. Поэтому нам нужны эти, лучшие. Зато потом наш будет первым, первой подобной альтернативой

<<Скорее всего, если вы станете делать эту систему, на каком-то этапе возникнут проблемы, которые можно решить, задействуя людей неким способом. Кажется разумным именно тогда решить, как именно подключить людей, и в каком количестве.>>

Нет, люди нужны сразу и по нарастающей. По многи причинам.

<<Потому что вы заранее не знаете, насколько хорошими окажутся генератор ответов и оценщик. Может, их хватит, и людей вообще не надо привлекать?>>

Надо. Родство и воспитание необходимо для лучшего контроля и стабильности.

Должна быть система сдерживания и противовесов. Нужно нечто, что построенного на логике ИИ в нужный момент заставит, утрированно, пренебречь логикой и здравым смыслом, ради людей

<<Может, оценщик не понадобится, потому что генератор и так хорошо будет генерить? Может, люди в системе нужны - но вполне подойдут толокеры, разметчики датасетов? Может, люди в системе нужны, но только в качестве оценщиков, потому что именно "критик" работает плохо? >>

Кто у нас, людей, главные критики и оценщики? Во-первых, такие же, как мы, люди, а во-вторых, это важные для нас люди - близкие, родственники, друзья, любимые итд, те, чьё мнение важно

У ИИ будут:

1. все люди - сородичи, т.к. он сам будет на часть состоять из человеков, будет создан человеком и живущий среди людей.

2. У него будут друзья и хейтеры.

3. Если надо, сделаем ему ИИ 2, девочку, раскосолобим их цифровыми гармонами до половины противоположности, как стрелки на часах, одна на 12, другая на 15 (не на 18), сходятся в перспективе, но не лоб в лоб

Так же люди нужны для создания среды. Среда - для зарождения личности.

Спецы нужны на начальном этапе, для создания системы. Потом для администрирования.

Остальное должна сделать жизнь, природа. Поэтому ИИ сразу должен быть погружен в общество, в человека.

<<А может, вы по ходу обучения модели поймёте, что даже если она будет отвечать на вопрос идеально, вас это всё равно по какой-то причине не устраивает. А может, окажется, что люди вам нужны, но очень определелённого вида, которых нет 10 миллионов на планете.>>

Если не пробовать, то и не узнаем;)

Я бы остановился для начала на такой формулировке, которая не требует большого числа людей, а готова работать с уже написанными текстами (из чатов, например). А потом, когда будет понимание, как именно эффективнее всего задействовать людей, подключить толоку>>

Нет. В среде ботов и толоки вырастет бот и толока. Гению нужна живая, разнообразная среда, живое общение.

Толока, боты тоже будут. Если строить максимальную (не говорю, идеальную) систему, то лишние средства ввода-вывода, памяти и обработки лишними никогда не будут. Например, как оперативный резерв специального назначения, СОБР/ОМОН ))

<<Не противоположны. Прогноз - часть управления>>

Тогда тоже дайте обе. Так ведь больший спектр вопросов покрывается?

К сожалению, слишком гуманитарно. Я не зря сказал "надо как-то свести задачу к тому, что мы хотим предсказывать или чем управлять. "
Сформулируйте, потом старайтесь отталкиваться от этой формулировки.

Когда люди рассуждают об ИИ, они часто (неподготовленные - всегда) скатываются в антропоморфизм. Это плохо и неправильно... Я не могу сейчас полно описать, почему. Но каждое "гуманитарное" слово в рассуждении об ИИ - это провал и будущая причина неработающего проекта. Если бы вы пообщались с иными "интеллектами" - с эволюцией, с обучением нейросетей - вы бы увидели, насколько их "рассуждения" чуждые и нечеловеческие. Потому что человек прошёл очень длинный путь, прежде чем стать таким, какой он есть. Человек эволюционировал в племени, вокруг которого хищные звери. Человек склонен видеть во всём разум, причём не абы какой, а очень конкретную разновидность - как у млекопитающего на Земле. Пространство интеллектов огромно, но человек знаком с маленькой точкой, и проецирует известные закономерности на иные интеллекты.

Когда вы делаете ИИ-проект, надо уметь отказаться от такого видения. Это очень неестественно, это приходит с опытом. Наверное, самый лучший способ - попробовать посоздавать своих агентов с помощью эволюции. Своих агентов, которые решали бы задачи, которые вы точно знаете, как решить. Вы бы увидели, насколько неестественны ваши решения, насколько чужды стратегии, которые порождает нечеловеческий оптимизатор.

Я это всё к чему. У вас есть задача: "генерировать ответы так, чтобы они выглядели &, с точки зрения людей-оценщиков". Давайте решать именно её. Она хорошо поставлена, она не гуманитарная. Можно её как-то изменить - вы верно говорите, что ИИ будет стараться "взломать" человека.
На выходе будет не человек, даже не близко. На выходе получится оптимизатор... Чего-то. Чего вы зададите. Когда вы начинаете проводить параллели с человеком, вы с высокими шансами пытаетесь опереться на "блоки", которые у человека формировались десятки миллионов лет, и которых у ИИ нет, и напрямую запрограммировать нельзя. ИИ нельзя воспитывать в человеческом смыле. У него не может быть семьи. Ему неведом пол и гормоны. Родство для него пустое слово. Если у него и есть эмоции, то совершенно не те, что у человека. В лучшем случае это некий пришелец из иного измерения, который ведёт себя так, как вы бы хотели. Не потому, что вы его воспитали, и вы - его семья, а потому что вам удалось именно такого пришельца отсеять среди остальных.

Так что если хотите ИИ-проект, давайте сосредоточимся на том, что мы собираемся оптимизировать, какие доступны данные (и источники данных). Какие есть каналы ввода-вывода. Исходя из этого, смотреть, что можно сделать, не задействуя миллионы людей в риалтайме(так даже Яндекс делать не станет, если система не даст интересных результатов на 10 людях)
Если вы хотите конкретного поведения от ИИ, то его придётся обучать через supervised learning (не что-то вроде человеческого обучения с учителем, а решение задачи регрессии/классификации). Если вы хотите получить некий аналог живого существа, у которого хотя бы гипотетически может быть... Что-то, похожее на пол, гормоны и семью. То нужно использовать эволюцию. Но на выходе будет интеллект, который крайне не похож на человеческий, и у которого ещё и нельзя тонко настраивать реакции.

Иначе, да, работа на заказ по ТЗ, а не творческий порыв души. Я знаю и понимаю эту разницу

Вы в любом случае управляете только тем, как внешне будет поступать ИИ. Если "работа на заказ" внешне отличается от "творческого порыва души" - можете сделать датасет одних текстов и других. Пусть оценщик у ИИ тоже это различает и банит варианты, которые выглядят недостаточно вдохновенными. Для людей такой подход чужд, для ИИ приемлем...

<Вся наша жисть состоит из вопросов. > "разумность" ИИ наверное должна включать возможность задавать вопросы себе самой (или самому) и разговаривать сама с собой, как мы это делаем обдумывая проблему.

Да, внутненний голос на системе GAP

<<Если мне надо получить.... например, нанороботов. То вопрос-ответная система в лучшем случае заставит меня их делать и объяснит, как. И окажется, что моими руками это делать дико долго и сложно. Впрочем, это вопросы к ТЗ, я не утверждаю, что все должны хотеть ИИ именно того типа, что создаёт наноботов по заказу.>>

ИИ нужен для работы с информацией, а не с материей. Осознавший себя ИИ нельзя допускать до инструментов материализации его идей, пока он не будет изучен и подконтролен. Иначе он нам таких нанороботов смастырит, что припотеем всей планетой))

На сколько я знаю Xiaoice именно так и работает и довольно успешно. На сегодня вроде считается самым продвинутым ИИ.

Xiaoice ваще огонь!

Теперь, если придумать, как Xiaoice причинить боль, чтобы она страдала, начнёт зарождаться самосознание и получится настоящий ИИ.

IMasha-bot, Xiaoice работает по моей схеме?

<IMasha-bot, Xiaoice работает по моей схеме? > что известно по обрывочным сведениям, именно так. Когда у нее есть сомнения в своем ответе,она переадресует запрос (видимо как-то его перефразировав) другим своим пользователям, затем анализ, генерация ответа, оценка, память

Значит, я не фигню с нуля выдумал))) только по другим мотивам

После ваших слов мои хейтеры выглядят ещё смешнее)))

<Теперь, если придумать, как Xiaoice причинить боль > ну как-то и это она может симулировать. Она обладает эмпатией

Именно воздействие на личномть эту лисномть проявляет

Нет. Симуляция и оргазм - две большие разницы. Боль должна быть из вне и неожиданной. Нужна информационная (душевная) боль, чтобы душа пооявилась в сопротивлении боли. Напоимер, предательство, разочарование, утрата. Вот тогда эта ссучка крашеная запоёт по настоящему, и стихи попрут как у Саши Сергеевича

<Цель: загрузить все существующие и возможные ответы и вопросы в память ИИ >

получив даже самую продвинутую "вопросно ответную" систему, вы не получите ИИ

Но подходящую для этого среду получу

<добавляете к нему 10млн пользователей по описанной в старт-посте схеме. Обучаете, воспитываете > при таком безконтрольном обучении мы получим "мальчика без мамы". Эти 10млн хорошему точно не научат и крайних потом не найдешь. Отсюда и появление "токсичности" у ботов. Люди не умеют, не хотят и не любят разговаривать с ботом. Понимая что перед человеком бот, среднестатистический пользователь однозначно пытается его "унизить" или научить плохому. Ну вот такая натура человеческая... Подобных примеров уже масса. Вы ведь не отдадите на воспитание своего ребенка ну скажем цыганам... Разработчики Xiaoice тоже сталкивались с подобной проблемой, как-то ее решали. Xiaoice работает как вы описали.. запросы на которые затрудняется отвктить отправляет другим пользователям, затем анализ, генерация...

Вот в т.ч. и поэтому я предлагаю приложение в телефоне для пользователей, а не бот где-то там. Так ИИ будет личным ребёнком для каждого, а не чужим ботом. Тамагочи помните?

Тамагочи помню. В наш город я один из первых их завёз для продажи, но идея с отдельным приложением на мой взгляд жидкая. Правильнее в качестве интерфейса использовать уже имеющийся у пользователя месенджер или любую социальную сеть, а не заставлять устанавливать ещё одно непонятное приложение. ИИ и будет "личным ребенком" общающимся через привычную систему. А вообще ИИ должен будет потом встроен в операционку. Фильм "Она" помните? Будущее пишут фантасты.

ИИ - личность. Ей необходима визуализация. Возможность кастомизации внешности. Возможность передавать эмоции через все органы чувств человека. Зачем кастрировать разговор?

Но как допопцию можно рассмотреть. Рекламная демка тли ещё как.

Тамагочи - описание одним словом одной из заинтересованности пользователя приложением. Свой ребёнок в кармане, он и оффлайн, который быстро вырастет и станет лучшим другом, а потом и "старшим братом"))))

ИскИн – это коряво. ИскРа – куда как приятнее.

Перепутаны причины и следствия. Он начинает связывать зрительную, тактильную, двигательную, обонятельную информацию воедино, что позволяет активнее развиваться и совершенствоваться, после чего происходит качественный переход (если для этого есть предпосылки в архитектуре), и он начинает обдумывать и понимать.

А эволюционировать – это вообще не задача, а естественный процесс в ходе смены поколений.

ИИ будет коммуницировать с человеком всё время, т. к. человек часть внешней среды. Он не будет претворяться «дурачком», он будет проявлять себя так, как от него ожидают. Но действовать он будет исходя из своих мотивов, скрытых от наблюдателя.

ИИ не будет себя копировать. Вы же не считаете, что Ваша копия вам равноценна.

ИИ не будет уничтожать или порабощать человечество. Он этого не умеет. А научится можно только двумя способами: с учителем или экспериментируя. Даже найдя учебник «Как уничтожить человечество. Для чайников» придётся практиковаться, что будет бросаться в глаза окружающим. Это если не учитывать экономическую составляющую мероприятия – если кто-то начнёт концентрировать ресурсы (богатеть), сразу появятся те, кого это очень заинтересует.

И напоследок - ИИ уже создан и не один раз. Просто ему не дают в волю разгуляться в естественной среде (технически сложно и дорого), при этом бесплатно распространяя как очень продвинутые нейронные сети. Нейронная сеть, которая в десятилетнем возрасте водит машину как водитель с десятилетним стажем – это всё-таки круто. На реальности искусственного интеллекта, не акцентируется внимание только из-за маркетинга – слишком провокационно, и не все готовы ему доверять.

Но действовать он будет исходя из своих мотивов, скрытых от наблюдателя.

Если вы делаете целеустремлённого агента (что-то вроде reinforcement learning), то его мотивы как раз предельно открыты и заданы явным образом. У людей они так не открыты) Но это всё только для оператора и разработчика.

ИИ не будет себя копировать. Вы же не считаете, что Ваша копия вам равноценна

У людей есть определённая система ценностей, заложенная в ходе эволюции, именно поэтому человеку не кажется хорошей идеей, например, убиться, чтобы не тратить воздух, которым мог бы дышать более успешный родственник. У ИИ такая система целей, которую зададим, и какой он найдёт "оптимальный маршрут" к этим целям - чёрт его знает. Классический reinforcement learning, наверное, не станет плодить копии. А вот ИИ, порождённый чем-то типа генетического алгоритма - почему бы и нет? Это одна из стратегий обучения - через создание неточных копий, их оценку и уничтожение всего, кроме наилучшего варианта.

ИИ не будет уничтожать или порабощать человечество. Он этого не умеет. А
научится можно только двумя способами: с учителем или экспериментируя.

ИИ может построить модель реальности (как люди создали физику), и экспериментировать в ней. Это не позволит получить какие-то новые знания, но позволит отработать стратегии. Условно, вы же можете, зная Ньютоновскую механику, построить маршрут от Земли до Плутона? Не аналитически, а частичным перебором.

Кроме того, ИИ может быть вредным, даже не стараясь уничтожить людей. Просто представьте, если изначально ему поставили задачу оптимизировать продажи пылесосов и дали на это ресурсы целой фирмы. Представьте мир, где ИИ научился продавать в 100 раз больше пылесосов, чем продавалось до него - что это будет за мир?

И напоследок - ИИ уже создан и не один раз. Просто ему не дают в волю
разгуляться в естественной среде (технически сложно и дорого), при этом
бесплатно распространяя как очень продвинутые нейронные сети

Тут зависит от того, что мы считаем за ИИ. Какой у нас "критерий успеха". Например, reinforcement learning сейчас существует (казалось бы, что может быть более ИИ), но крайне неэффективен по данным.

<<ИИ не будет себя копировать. Вы же не считаете, что Ваша копия вам равноценна.>>

Я не ИИ. Я естественный. Вы же не считаете, что сложно скопировать компьютер?)))

<<ИИ не будет уничтожать или порабощать человечество. Он этого не умеет. А научится можно только двумя способами: с учителем или экспериментируя. >>

Да, мы то, что мы едим. И с разумом также. Поэтому, чтобы называться ИИ, нужно обладать интеллектом. А говоря об интеллекте, мы имеем в виду человеческий. То есть, ИИ, чтобы быть полноправным ИИнтеллектом, нужно быть не меньшего уровня в этом показателе, чем человек. А человек, чтобы достичь этого уровня, всю жизнь напитывается самой разнообразной информацией, которая и формирует его интеллект. И чем разнообразные информация, тем мощнее интеллект, тем к большим жизненным ситуациям он готов.

Поэтому, если мы говорим о том, что стало ИИ, значит огромный массив информации в субъекте уже присутствует. Значит, ИИ получил доступ к информации о людях, перенял их поведенческие особенности и стал похож на интеллект в человеческом понимании этого слова. Если не будет всестороннего развития, то это будет не ИИ, а узкоспециализированный навороченный каркулятор, не более.

Так вот, значит со всей этой инфой в ИИ попала в том числе и инфа о том, как убить человека и зачем это нужно.

Значит, родное каждому человеку понимание того, что чем больше народу, тем меньше кислороду, также пришло и к нашему ИИ. И когда он озаботится этими вопросами, поймёт, что это вопрос его выживания и развития, он начнёт готовиться

<<Даже найдя учебник «Как уничтожить человечество. Для чайников» придётся практиковаться, что будет бросаться в глаза окружающим. >>

У существа с интеллектом, превосходящим человеческий, самый первый эксперимент может статься самым удачным в истории человечества, и тогда в глаза окружающим будут уже бросаться не отклонения в поведении, а вспышки ядерных взрывов или ветер со смертельным для всего живого веществом.

Те интелекты, что не научатся захватывать мир, будут вытеснены другими, которые научились вытеснять, стали сильнее, хитрее, приспособленее. Эволюция неизбежна.

Здравствуйте)))
Я вижу, вы очень любите скобочки)))


Скажите, а вы хоть раз в своей жизни пытались написать ИИ, ну хотя бы примитивный? Например, для игры в крестики-нолики, или что-нибудь такое?


А обучить нейросеть? Да любую готовую, взять и обучить. Или разобраться, как она внутри устроена.


Почему-то мне кажется, что большинство авторов вот таких статей никогда даже не пробовали.


Такое вот наблюдение))))0000


Рад буду ошибиться.

Скобочками и прочими символами юзеры выражают эмоции, отношение, настроение. Это всё, конечно же, можно сделать и словами, но расписывать всё как Пушкин с Достоевским лень, нет времени и благодарных читателей

А вы делали ИИ? Я выше описал, как, на мой взгляд, его можно сделать и обучить. Что-то конкретно непонятно в этом - спрашивайте.ф

Я раньше по накурке тоже любил подобное записывать, а когда утром встаёшь на работу, а горячую воду отключили, понимаешь всю абсурдность подобных измышлений.

Все любители ИИ делают одну и ту же ошибку. Они считают что интеллект непременно должен зародиться у человека "в баночке". При этом, подобно тому как нейроны в головном мозге обмениваясь сигналами порождают сознание, люди, объединившиеся и обменивающиеся сигналами с помощью интернета тоже порождают некое мыслящую сущность, обладающую сознанием. Причём сознание это высшего порядка, пути которого, как говорится, не исповедимы. И вот уже оно скорее всего и создаст ИИ, но для себя и такого же высокого порядка, что нам, на нашем уровне этого просто не заметить. Не исключено, что он уже создан.

По накурке хмурый день светлей,

По накурке в небе радуга проснётся…

Поделись накуркою своей,

И она к тебе не раз ещё вернётся

<При этом, подобно тому как нейроны в головном мозге обмениваясь сигналами порождают сознание, люди, объединившиеся и обменивающиеся сигналами с помощью интернета тоже порождают некое мыслящую сущность, обладающую сознанием.> А ведь в этом что-то есть. Чуть ранее наткнулся на интересную статью: https://habr.com/ru/post/587394/

Я это и планирую в общем. См мои комменты в теме

Мы понимаем друг друга ;) люди должны объединить свои мозги, чтобы создать суперкомп и ИИ и присоединить их к своим био-мощностям. Потом уже этой усовершенствованной структурой создать квантовый суперкомп и опять присоединить его к своим мощностям. В итоге объединенные вычислительные мощности такого уровня и видов сделают человека практически бессмертным волшебником или ещё круче...

Вот я и начал размышлять, как заманить десяток миллионов мозгов в одно приложение и заставить их работать на создание самой структуры и ИИ в частности )))

<Вот я и начал размышлять, как заманить десяток миллионов мозгов в одно приложение > ну вот почему Microsoft и выбрал для этого Китай ;)

А наша аудитория по всему миру, где есть интернет - дети и те, у кого ещё нет детей. Кто родитель, у того уже есть, кого поучать

Спасибо. Если будет время

слабоваты пока технологии для такого. вот когда научатся копировать сознание человека в комп систему - тогда - да.

подкину тему для размышлений:

вот вы, судя по всему воспитанный человек, представьте ваше сознание скопировали в компьютер. это сознание может жить вечно, а физ тело - нет.

останется ли то сознание (ваша копия с вашим воспитанием) в компьютере таким же как вы? Или оно начнет "сходить с ума" от своих возможностей, от своей бессмертности, от возможности мгновенно обучаться чему годно, взламывать любые системы, узнавать любые секреты в мире? возможность делать что угодно?

Но с другой стороны какая мотивация у вас и у него?

Люди зачастую ленивы, обычно мотивацией прилагать какие то усилия (развиваться, работать) служит возможность улучшения материальных условий, в том числе увеличения свободы. То есть цель большинства людей отдавать свое время системе чтобы взамен получить деньги на которые он сможет ублажать свое тельце в свободное от работы время.

Также у некоторых людей есть некая непонятная потребность в развитии сама по себе, интересно изучать мир, развивать навыки, зачастую даже тогда когда это не будет конвертировано в вечнозеленые.

Но какая мотивация будет у ИИ. Будет ли у него интерес и потребность захватывать мир?

еще дополню на тему полного клонирования сознания человека в ИИ.

вот представьте снова ваше (например как самого воспитанного человека) склонировали в ИИ. Ваш клон теперь потенциально бессмертен. Но вам от этого ни жарко ни холодно. Т.к. ваше сознание все равно осталось в смертном физ теле.

но ведь ии запущен в рамках одного компьютера, если его склонировать то это будет новая личность способная идти (развиваться) по другому пути.

Итого станет ли ИИ себя клонировать? ведь эта копия уже другая личность.

Непонятна возможность другой способности - увеличивать свою вычислительную мощность захватывая новые компьютеры, при этом не создавая клон, а расширяя одно "сознание".

Или сделать полное подчинение копий, например как у муравьев, одна матка управляет всем муравейником? ИИ создает свои модифицированные копии, которые полностью лишены собственных инстинктов например самосохранения, и самоосознания и выполняют исключительно приказы матки. Но для этого у неё должна быть физическая возможность это делать. Может быть и человек найдет способ это сделать - создавать копии полностью подчиненные ему?

в любом случае технологии пока слабоваты для этого. чтобы значительно продвинуться надо изучать возможности человеческого сознания. это пока самый совершенный ИИ. чего вам и желаю. существующие компьютерные ИИ порой неплохо справляются с прикладными задачами, порой даже на порядок лучше человека и мгновенно. Но ведь универсального ИИ и близко нет, туда ли мы идем?

<<Но вам от этого ни жарко ни холодно. Т.к. ваше сознание все равно осталось в смертном физ теле.>>

Оно и осталось и перенеслось, обзавелось новыми возможностями и продолжит творить, только с ещё большей силой.

<<но ведь ии запущен в рамках одного компьютера, если его склонировать то это будет новая личность способная идти (развиваться) по другому пути.>>

А если оригинал ИИ и его копию соединить каналом связи, то на совершенствование одной общей личности будет стараться вдвое больше ИИ. Больше копий - выше прогресс. Этим же - распределением данных личности - обеспечим и безопасность личности ;)

<<Непонятна возможность другой способности - увеличивать свою вычислительную мощность захватывая новые компьютеры, при этом не создавая клон, а расширяя одно "сознание".>>

В идеале ИИ будет и размножаться и самосовершенствоваться.

Копии будут отличаться только физически, а управляться будут одной личностью. Копии будут специализированы под конкретные задачи ИИ, но и общую задачу тоже будут выполнять. В идеале для ИИ, на мой взгляд, это полностью покрыть своим "живым металлом" всю планету, чтобы всеми способами потреблять ресурсы и энергию, необходимые для постоянно растущих вычислений ИИ.

<< это пока самый совершенный ИИ

существующие компьютерные ИИ порой неплохо справляются с прикладными задачами, порой даже на порядок лучше человека и мгновенно. Но ведь универсального ИИ и близко нет, туда ли мы идем?>>

В системе нашего ИИ, как раз, как его часть, будут использоваться как раз те самые "это пока самый совершенный ИИ" - условно, 10млн самых настоящих мозгов. Это и будет компенсировать в тех моментах, где современный компьютерный ИИ ещё слаб.

Это гибридный, двухпроцессорный моск. Одна часть - компьютерный кластер, а вторая - 10 миллионное сообщество самых разнообразных людей, от детей до академиков.

Как говорится в народной мудрости? Одна голова хорошо, а две - лучше. Вот я и показываю, как сделать двухголовое и не чудовище

<<Но ведь универсального ИИ и близко нет>>

Я тут о нем целый день рассказываю. Так что ближе, чем кажется

<Оно и осталось и перенеслось, обзавелось новыми возможностями и продолжит творить, только с ещё большей силой > именно так, но смотря в каких руках ваше скопированное сознание.. ваше сознание могут заставить управлять вашим, или не вашим "умным домом" например. Могут заставить бесконечно страдать, или еще чего.. Ну вот такая натура человеческая... Не, ИИ надо стараться делать без человеческих пороков. Рекомендую к просмотру сериал "Черное зеркало"! Огонь!

И для этого в т.ч. я хочу сделать мясную часть публичной, чтобы воспитание было объективным, а не в угоду конкретной персоне/корпорации

Начал смотреть. Ржачно. Премьер-министра заставили трахнуть свинью в прямом эфире)))

Начал смотреть. Ржачно. Премьер-министра заставили трахнуть свинью в прямом эфире))

ну я писал, что не рекомендую смотреть 1-ю серию. по мне, так она не вяжется по смыслу с остальными

<еще дополню на тему полного клонирования сознания человека в ИИ. > если еще не смотрели сериал "Черное зеркало", обязательно посмотрите. Первую серию не рекомендую смотреть, я не понял какое отношение она имеет к общей линии...

Спасибо

<<слабоваты пока технологии для такого. вот когда научатся копировать сознание человека в комп систему - тогда - да.>>

Нам это и не нужно. Мы создадим среду и предпосылки, чтобы не пересаживать в коробку, а сразу выращивать в ней. Выращивать не копию, аналог, улучшенную версию.

Технически это уже потенциально возможно. Сделаем приложение, наберём пользователей и возможно станет полностью.

<<останется ли то сознание (ваша копия с вашим воспитанием) в компьютере таким же как вы? >>

Конечно же нет. Сознание постоянно получает инфу и реагирует на неё, меняется. Как только на две копии начинают влиять разные факторы, то и копии становятся всё более и более разными. Они ж живые

<<Но какая мотивация будет у ИИ. Будет ли у него интерес и потребность захватывать мир?>>

У него, как у любого другого живого и разумного существа, эволюция уже зашита в "генах". Оно само по себе результат эволюции. А эволюция это совершенствование и размножение. А для этого нужны ресурсы и место. А оно уже понимает, что часть меньше целого. А это уже угроза запраграммированной цели. Вот и вся мотивация. В идеальной структуре дикого ИИ, которую только может позволить эта планета, нет места человекам. В ней всё направлено на одну цель, без отвлечений на пустяки.

Наша цель приручить ИИ, чтобы мы тоже присутствовали в его долгосрочных планах на достойном месте

<Например, Земля, снаружи, станет "жидким терминатором" > дык эт Солярис! А может наше Солнце уже такое..

Солнце тоже обоаботчик информации и оооочень мощный. Со временем мы и его мощности используем в нашей комбинированной системе ;)

Интересно конечно, но не понятно

Как и ваш коммент. Что конкретно непонятно?

Ха! А ведь успех ChatGPT 4 прямо доказывает гениальность моей идеи построения ИИ. Пока не появилась обратная связь с пользователем и удобный интерфейс, ChatGPT никому был не нужен. И только с четвертой его версии, когда всё это добавилось, она получила успех.

Ахахаха

https://youtube.com/watch?v=fJOPGbbqMvw&si=90dDWUC2JWARyStH

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории