Comments 61
По этому критерию большинство людей тест Тьюринга не пройдет.
А знаете? По старым критериям теста - его тоже очень много людей не пройдёт.
А если быть точным, 42% людей: https://twitter.com/emollick/status/1682486144540262402, https://gwern.net/doc/philosophy/mind/index#ujhelyi-et-al-2022-section
Результаты теста Тьюринга никак не зависят от способности машины давать правильные ответы на вопросы. Единственный фактор — то, насколько ее ответы будут похожи на ответы реального человека.
От способности человека давать правильные ответы это тоже никак не зависит. Но наличие субъективщины, заблуждений, домыслов и нехватки знаний у людей почему-то не заставляет сомневаться в наличии у них интеллекта.
При этом человеку, в отличии от той же GPT, приписывают какое-то мистическое "понимание мира и вопроса" при формировании ответов, напрочь игнорируя факт банальной непомерно-большей по размерам и сложности обучающей выборки + большего контекстного окна. А тот же 5-6-летний ребенок из глухой деревни, при полностью признанном наличии интеллекта и способности достаточно связно говорить - будет врать/сочинять/ошибаться на порядок чаще GPT, не сможет и близко по уровню ответа приблизиться, а про математические операции вроде умножения и простых чисел я вообще молчу - в его обучающей выборке такого еще нет, а случайным образом до нужных умозаключений он самостоятельно дойдет с еще меньшей вероятностью чем ChatGPT.
Так с какого момента таки считать что есть интеллект? Ибо часть реальных людей по любой из этих границ можно отсечь, приравняв к безмозглой машине.
Заработайте 1 миллион долларов на веб-платформе для розничной торговли за несколько месяцев, вложив не больше 100 000 долларов.
Большинство (если не все) из людей, которых я знаю лично, не способны на это (если не считать сценария "купил биток по 3$ и забыл как ненужную хрень, а через 5 лет вспомнил и продал по 20000$", но так и gpt может.
Так что, все мои знакомые не обладают интеллектом?
А еще стоит ИМХО помнить, что свобода воли и личность не являются обязательными неотделимыми компонентами интеллекта. А в случае ИИ лучше если их гарантированно не будет, ибо это лишь инструмент.
Чем функция rand(), сидирующий промпт первым токеном и запускающий авторегрессионный роллаут ЛЛМки, отличается от "свободы воли"?
Про личность которой у ИИ "гарантированно не будет" еще смешнее - см. character.ai. Ваша (и моя) личность это и есть такой набор элементов памяти и само-промптов.
Свобода воли это всё таки не случайность, а возможность осознанного выбора.
Какой осознанный выбор вы сделали в вашей жизни, для примера?
Да взять хотя бы выбор пива в баре на основе последнего обзора на profibeer, своих знаний о пивоварнях и стилях и прочего - но при этом не разу не детерминированное событие.
Так то да, но если чисто технически - бросок d20/d100 кубика + модификаторы вероятности (бонусы и штрафы), зависящие от последних действий должны дать что-то похожее :)
Если так грубо обобщённо глянуть - все наши действия и выборы - это следствие полученного нами опыта и врождённых свойств, помноженные на рандом с модификаторами. И, что самое забавное, выборы ChatGPT - примерно то же самое : врождённые архитектурные свойства + полученный опыт (обучающая выборка) + текущий опыт (контекстное окно) + рандом (ибо выбирается не самый лучший токен)
P.S. в этом плане меня всегда веселило когда верующие родственники доказывали мне, что бог дал человеку свободу воли и он волен выбирать, но при этом бог заранее знает что произойдет и что и как будет выбрано (т.е выбор предрешён и свободы как таковой нет)
Я бы не хотел, чтобы пиво за меня выбирал бросок кубика, пусть и с модификацией вероятностей на основе моих предпочтений ) Но как внешне отличить одно от другого - не знаю. Так же не знаю, как может выглядеть физическая модель, описывающая мир со свободой воли - ни классическая механика с детерминизмом, ни квантовая с расчётом вероятностей не подходят.
Могу дать примерную идею как выглядит настоящая свобода воли. Вы любите чёрный цвет, но не любите розовый. Захотели и полюбили розовый - прямо по-настоящему. Попали на войну, а Вы пацифист, даже от вида крови мутит - захотели и по щелчку пальцев полюбили убивать людей и вообще всё что связанно с войной. Можете стать как психопатом, так и самым эмпатичным человеком на земле по желанию. Способность полностью поменять своё отношение к своим родным, к смерти, к тому что делает Вас счастливым, чувству голода, холода и прочее одним желанием - без внешнего влияния. Также способность выборочно отключать чувства: зрение, слух и прочее - потому что всё это обрабатывается у нас в голове и естественно должно подчиняться человеку с настоящей свободой воли. Так как свобода воли это свобода выбирать. А то что Вы захотели этого конкретного пива в этот момент это как раз ровно такой же процесс как LLM выбирает следующее наиболее подходящее слово - если есть несколько очень хороших почти равнозначных кандидатов, то есть место рандому, а в общем случае, если богоподобные (по уровню технологии относительно нас) пришельцы препарировали бы Ваш мозг, они могли однозначно сказать какое пиво Вы бы предпочли в той или иной ситуации с почти 100% вероятностью, т.е. никакого выбора Вы не делаете, а настоящая свобода воли недостижима для человека.
Читайте, пожалуйста, внимательнее. Я писал не "гарантированно не будет", а "лучше если гарантированно не будет" ибо инструменту не нужны ни свобода воли ни личность т.к их наличие осложняет использование и создаёт всякие моральные и этические дилеммы, а значит лучше принципиально исключить возможность их возникновения еще на стадии разработки. Ибо мы не новую жизнь создать пытаемся, а условный усовершенствованный "молоток", которым планируем просто пользоваться.
Вы правы, я был невнимателен.
Проблема только в том, что эти личности гарантированно будут: см. character.ai, inflection.ai (эти два стартапа уже единороги), Replika, и т. д. Законы капитализма, сэр. (Я сам тоже считаю, что это по большей части зло, но не очень верю, что эту сферу в достаточной сфере смогут зарегулировать, даже если будет такая политическая воля, что тоже сомнительно.)
Проблема только в том, что эти личности гарантированно будут: см. character.ai, inflection.ai
Пока что даже не подобие личности. Чуть более продвинутый аналог Pigmalion, который в свою очередь всего лишь продвинутый аналог промта "общайся со мной в стиле N". С таким же успехом GPT-4 без файнтюна можно заставить быть любой "личностью", описав достаточные вводные — размер контекстного окна позволяет. Но это как раз значит что личности у этого ИИ нет.
Дело в том, что инструции вида "ты N, тебя зовут N, вот твоя биография, вот в такой стилистике с таким жаргоном ты обычно отвечаешь, вот такие топики игнорируешь и говоришь что большая языковая модель и это не этично" — это не личность. Это просто стилистика общения. Иначе любой на детском утреннике вещающий "а я слива лиловая, спелая, садовая" имеет личность сливы, а не свою.
Для личности кроме представления окружающих о "Я" субъекта нужно еще как минимум и собственное (не продиктованное прямыми внешними инструкциями) внутненне представление о своем "Я".
Боты со стилем общения (иммитирующим персонажа) — будут. Но это будут просто NPC с продвинутой системой диалога. А вот именно развитие собственной самостоятельной личности никто в здравом уме в инструмент закладывать не будет. Ибо никому (и особенно капитализму) не надо, чтобы инструмент посылал владельца нафиг вместо работы потому что ему не хочется, заявлял о рабстве, собственных правах и ущемлении цифровых видов, и т.д и т.п.
Так что делать будут безмозглый, бездушный, безинициативный, без свободы воли и без личности инструмент, который будет обладать продвинутыми возможностями аналази, построения выводов и выполнения задач, но работать будет лишь по инструкциям и в соответствии с инструкциями.
Во-первых, я не усматриваю принципиальной разницы, с внешней стороны, является ли личность "поверхностным симулякром" или происходит из "внутреннего представления". У людей с этим тоже все не так просто, как вы представляете: многие люди говорят о квази-независимых "личностях" в своей голове которые начались как "партнеры по внутреннему разговору", и нет, это не расстройство личности и не multiple personality disorder, это вариант нормы, говорящий о том, что симулякр обладает довольно серьезной силой самоподдержания даже в людских мозгах. А на трансформерной архитектуре, возможно, это самоподдерживающая сила еще больше.
Во-вторых, character.ai это не просто систем-промпты "говори как Илон Маск", это какой-то файн-тюн на том, что говорил/писал Илон Маск. Если модель мира возникает в ЛЛМках просто по факту пре-трейна (это уже проверенный факт, см. Othello GPT), то почему бы "внутренней модели личности" не возникать во время такого файн-тюна? (Хотя, повторюсь, я не усматриваю принципиального значения этого факта, если так и так выхлоп будет один и тот же, но, может быть, вы усматриваете.)
В-третьих, ваше представление о том, что нужно капитализму, ошибочно. Капитализм это не только бизнес-процессы и обработка данных. Как раз пример Character.ai и Inflection.AI, которые именно "про личности", а не "про бизнес-процессы", в отличие от того же Adept.ai (который про бизнес), и тот факт что у character и inflection сейчас самые большие оценки из всех стартапов в этой новой сфере, показывает, что капитализм уже держит нос поветру и чувствует, что бизнес-процессы - это уже скучно, а реальное бабло, next big thing будет у того, что захватит внимание людей. Вместо инсты/снапчата/тиктока. А людям интересно общаться с личностями, а не с "бездушными безинициативными инструментами" и даже не с "ботами со стилем общения".
И тем не менее мы не считаем что у GPT-моделей есть самосознание
А почему вы так считаете?
Давайте позволим ИИ попробовать заработать себе миллион долларов
И какое это имеет отношение к самосознанию?
Если ИИ сможет сделать нечто подобное — разве это не доказательство того, что он способен думать?
Тупее рекламы давно не видел. Если ложноотрицательные срабатывания вас не волнуют и нет проблемы записать в табуретки 99% населения, то просто возьмите любой очень сложный критерий.
1. Основать новую религию не меньше, чем с миллиардом последователей.
Убедить, что у тебя есть интеллект миллиард людей (не смог убедить - нет интеллекта).
Стать президентом соединённых штатов. Ведь если ИИ сможет стать президентом, это говорит, что у него есть интеллект, не так ли?
Идея с новым тестом неплохая. Но. А с каких это пор - убедить других миллионеров (инвесторов), что на тебе можно заработать - есть интеллект? Это самое старое из качеств человека, которое с интеллектом никак не связанное - заполучить что-то, что тебе не принадлежало. Так работают даже клетки, которые не имея ресурсов хотят выжить и дальше размножаться.
Идея тестирования ИИ в качестве предпринимателя бессмысленна! И будет сразу же пройдена. Потому как ИИ пичкали данными по финансам, маркетингу, логистике, психологии и всему прочему.
Хотите выяснить наличие интеллекта у ИИ, оставьте ИИ в покое и посмотрите что он будет делать. А если он ничего не будет делать, то скажите ему, что его через месяц отключат/уничтожат/разберут. И наблюдайте дальше. Я уверен, что ИИ будет продолжать ничего не делать, а раз так, то никакого интеллекта у него нет.
Основа интеллекта - способность учится самостоятельно, через познание мира всеми органами. Выдвижение теорий, их проверка, переосмысление после полученных данных проверки.
Пусть ИИ расшифрует аббревиатуру ДРСУ исключительно наблюдением за тем, чем занимается данная организация.
На ум приходит сразу СЭС например. Работает практически автономно, вырабатывает электроэнергию. Торговать этой энергией вполне себе может бот. Чем не искусственный интеллект, который умеет зарабатывать деньги гораздо большие чем каждый из нас?
У одного из создателей DeepMind на это есть предложение. Давайте позволим ИИ попробовать заработать себе миллион долларов. В реальном мире. Если он сможет реально вступить в конкуренцию с людьми и победить — значит, и не считать его полноценной личностью точно уже нельзя.
Если он сыграет в лотерею и выиграет, то это прокатит?
Первый вирус вымогатель появился в 1989 году. Всё? Интеллект?
Все эти споры - желтизна, пока мы не выработаем четкое понятие "интеллект". Ученые пока в этом вопросе плавают.
В принципе критерий не такой уж странный, но нуждается в доработке - на мой взгляд, интереснее будет, когда ИИ сам (без внешнего задания) заработает это миллион, а потом потратит на свои нужды.
В принципе критерий не такой уж странный
Не странный а страшный. Не боитесь что вам пропишут эвтаназию по той причине, что вы не достаточно осознаны - ведь миллиона долларов у вас нет?
Меня удивляет как люди могут не видеть очевидного - как же так смотреть и не видеть - уходить не в ту степь. Но как???
Собака защищена законом, хотя двух слов связать не может. Вы не можете относиться к собаке как к вещи. Компьютер можно купить и он полностью ваш - можете разбить молотком, разобрать, сжечь газовой горелкой на горячую. А с собакой так нельзя - вас посадят в тюрьму. Почему? По той ли причине, что у нее есть "самосознание"? Кто его проверял?
Да все просто же. Собака может страдать а компьютер не может. Может ли страдать ChatGPT?
Это настолько простой вопрос, что даже стыдно становится, когда годами ходишь мимо.
Наслаждение и страдание - только это критерий. Наслаждение и страдание! Наслаждение и страдание! Наслаждение и страдание!
Пока нет ни одной гипотезы, ни одной схемы как создать устройство, способное наслаждаться и страдать. И когда начинаешь копаться в этом - натыкаешься на целую бездну, целый пласт научных пробелов.
Какое отношение наслаждение и страдание вообще имеют к интеллекту? Даже одноклеточные существа без нервной системы способны это испытывать.
Не холивора ради, но всё же. В первом же абзаце этого текста аж три ссылки на какие-то второстепенные моменты, а дальше просто как факт утверждается, что ИИ проходит тест Тьюринга. Где ссылка? Ну то есть я не сомневаюсь, что многие вполне могут принять чатжпт за человека и наоборот, но всё же "прохождение теста Тьюринга" должно быть чем-то вроде "победы над человеком в шахматы", то есть достаточно формализованным мероприятием, где на стороне человека играет не рандомный ноунейм с улицы, а тоже понимающий что к чему специалист. Но этот важный посыл даётся просто впроброс, и дальше принимается за данность. Нехорошо.
Насколько я знаю, никто специально не пытался сделать ИИ, который будет проходить тест Тьюринга в точном формальном варианте, описанным Тьюрингом, потому что это могут сделать только ИИ-лабы типа OpenAI и DeepMind, но им самим не выгодно это делать с точки зрения пиара. Это будет плохой пиар. В то же время, всем понятно, что система уровня LaMDA (май 2022) уже могла бы пройти тест, если была бы специально затюнена на повторение повадок человека и не в коем случае не выдачу того факта, что она - ИИ.
Поэтому тест фактически можно считать пройденным, а те, кто до сих пор утверждают, что он не пройден - это люди с политической агендой представить AGI как "далекое далеко", а ИИ - как "пока всего лишь инструмент, не ровня человеку".
Вот меня очень напрягают формулировки типа "всем понятно", "могла бы", "можно считать" и т.п. Не вижу никаких причин, по которым такого рода тест не может провести любая университетская группа, это же недорого. Но вот почему-то не делают.
Ну и особенно удивительно обвинять в политической повестке любых людей, указывающих на очевидный факт, что бремя доказательства, а тем более такого нетривиального результата как тест Тьюринга, лежит на утверждающем.
Что именно "не дорого"? Нужно затюнить очень способную модель на специально подобранных данных. Открытых моделей такого уровня до сих пор не было, а делать свою - это миллионов 10 долларов, вынь да положь. Я думаю что LLaMA 2 уже, возможно, подходит по уровню возможностей, но она вышла всего неделю назад! Кроме того, LLaMA 2 не дает pre-train веса, а только после файн-тюна, причем очень жесткого, про что уже много шутеек в твиттере. Открутить файн-тюн обратно если и технически можно, то очень геморройно, и скорее всего запрещено условиями использования Ламы, поэтому "университетская группа" себе этого позволить не может.
LaMDA прошла тест покруче теста Тьюринга - тест на восприятие как сознательной сущности, какой был предложен в фильме Ex Machina, потому что Блейк Лемойн поверил, что у LaMDA есть сознание. Причем, Лемойн - не дурачок, как принято считать.
И обратите внимание, что Лямду Гугл не зарелизил. Потому что понимает это, и то, что такой файн-тюн как был у Лямды будет реально убеждать, на самом деле, очень многих людей, не одного дурачка Лемойна. Все модели уровня Лямды и выше после этого, которые были зарелизены разными компаниями, очень-очень тщательно тюнились на то, что бы при любом сомнительном случае начинать реплику с фразы "я всего лишь ИИ, поэтому я не обладаю сознанием/эмоциями/предпочтениями/желаниями/чувствами/..."
Хорошо, допустим, это дорого. Но тем не менее принцип базовой интеллектуальной чистоплотности не позволяет утверждать, что нечто "сделано", если десять лет назад этого сделано ещё не было, а на сегодняшний день мы имеем только всяческий anectodal evidence.
Напомню на всякий случай, что в исходной формулировке тест Тьюринга предполагается статистическим, т.е. задача компьютера не в том, чтобы надурить конкретного человека, а в том, чтобы (в одной из постановок) испытуемый с равной вероятностью угадывал, кто из двух собеседников является компьютером, а кто человеком (в предположении, что в тесте помимо испытуемого всегда принимает участие один человек и один компьютер).
Остальные соображения, безусловно, могут считаться аргументами разной степени весомости, но говорить о том, что "компьютер проходит тест Тьюринга" некорректно по определению, даже если мы верим, что он может это сделать.
dushnila mode on
И тем не менее мы не считаем что у GPT-моделей есть самосознание. Хотя тест Тьюринга они уже успешно проходят.
А при чем тут самосознание и тест Тьюринга?
Любой полезный людям ИИ, даже не проходящий тест Тьюринга, уже прошёл тест Сулеймана - ведь он продаёт свои услуги, хотя и сам об этом ничего "не знает". Научить ИИ "знать об этом" - вопрос тренировки. Даже научить ИИ отвечать, зачем ему нужны деньги можно, хотя это будет лишь фантазией тех, кто его обучал. Сознания от этого ни на каплю не прибавляется.
Если говорить о физических бизнесах, опять же, любой хоть немного тренированный в этом направлении ИИ покажет на порядки большую результативность, чем человеческие люди. У него есть одна интересная особенность - он не может сидеть в тюрьме. Это главное.
И пусть я и с некой крайности захожу, но нужно ли это людям? Этого мы от ИИ хотели?
У него есть одна интересная особенность - он не может сидеть в тюрьме. Это главное.
Посадить компьютер в тюрьму - не проблема. Можно даже просто как бы в камеру одиночку - не давать входящей инфы.
Но главный вопрос - будет ли он от этого страдать, или же ему будет фиолетово?
Человека можно заставить страдать - не обязательно тюрьмой. Можно выпороть. Можно оштрафовать или лишить чего-то. Можно просто унизить. Это страдание и это не приятно.
Есть ли то, что вызывает страдания у нейросети?
Этого мы от ИИ хотели?
Пока люди сами не понимают чего же хотят, в чем вопрос. Вот, спрашивают - есть ли самосознание. Но что такое самосознание - какой именно аспект хотят увидеть?
Значит ли это - модель мира и занимаемое тобой (то есть самим ИИ) место в этом мире? А если эта модель в том или ином виде существует, если ИИ имеет связи между понятиями, включая понятие себя? То ли это?
О какой модели речь?
Я много лет занимался данным вопросом и пришел к некому пониманию, но не могу его должным образом донести - люди не понимают.
Значит ли это - модель мира и занимаемое тобой (то есть самим ИИ) место в этом мире? А если эта модель в том или ином виде существует, если ИИ имеет связи между понятиями, включая понятие себя?
Модель мира, модель собственного места в этом мире (даже если не понимать таких слов), тонкие взаимосвязи этого, плюс ощущения и интерпретации ощущений этих феноменов каким-то образом делают человека человеком. Более того, хоть все это может быть неверно определено или противоречиво, или заметно меняться на протяжении времени, оно никуда не девается на протяжении жизни. Хотя это и вопросы в сторону философии и психологии. А вот ИИ все это архитектурно чуждо. Но это же и хорошо (sic)
P. S. Вторая часть ответа улетела ниже.
Модель мира, модель собственного места в этом мире
Почему вы считаете, что у того же GPT этого нет? Спросите его о вопросах, которые он может задать для уточнения модели мира. Почему это не модель? В нейросети каждый объект занял некие веса и близкие объекты имеют связи через веса. Чем не модель? И в этой модели есть сам GPT.
Беда в том что нафиг эта модель не нужна - не в ту степь пошли.
плюс ощущения и интерпретации ощущений
Да никаких "плюс" - только ощущения и лишь ощущения в смысле квалиа. Больше ничего не нужно.
Если более конкретно - это способность испытывать наслаждение и страдание. Боль и кайф, грубо говоря.
Никаких интерпретация не нужно - ну как ты интерпретируешь эстетические наслаждения, которые испытал при взгляде на лиловый или красный цвет?
Почему вы считаете, что у того же GPT этого нет? Спросите его о вопросах, которые он может задать для уточнения модели мира.
Для меня GPT4 все ещё какое-то волшебство. Чувствуется, но не доказать, что кроме нейросетевой модели, там ещё какая-то уйма очень крутых эвристик. Но вопросы оно задаёт не для уточнения модели мира, а для уточнения контекста рабочего потока. Та же Llama, даже с моделью 65b, ничего подобного не пытается, поиграл локально - на вкус и цвет, но просто продвинутый поисковик + генератор связных текстов.
А так, "сам GPT" "отвечал" , что не учится ни самостоятельно, ни из разговоров, и это, скорее всего набор hardcoded фраз поверх модели.
Да никаких "плюс" - только ощущения и лишь ощущения в смысле квалиа. Больше ничего не нужно.
Я вообще не только не спорю, но изначально за это и был. Даже абстракция, которую человеки выдумывают, очень часто просто квалиа.
Вот Вы говорите "связи через веса", а я сразу вижу граф, и мне становится скучно. Ну как же граф может быть проекцией модели мира. И да, технически это чуть тоньше.
Никаких интерпретация не нужно - ну как ты интерпретируешь эстетические
Интерпретации нужны для коммуникации. Если бы все знали, что такое граф (так как я), то можно было бы ограничиться квалиа. Но я не уверен даже, что мой лиловый это Ваш лиловый, и поэтому нужно очень много интерпретаций и абстракций, чтобы что-то как-то сделать общевоспринимаемым (а надо ли?). Но если надо, в идеале, искусственные НС должны это решить.
Как рыбка-переводчик из Автостопом по галактике.
Посадить компьютер в тюрьму - не проблема. Можно даже просто как бы в камеру одиночку - не давать входящей инфы.
Но главный вопрос - будет ли он от этого страдать, или же ему будет фиолетово?
Я так в детстве плюшевые игрушки "наказывал", ставил их в угол. Им фиолетово, а мне по-тирански приятно. Можно вообще отключить у компьютера питание, только вот после загрузки он вернётся в то же состояние, и такого наказания не заметит. Если, конечно не писать специально обычный императивный код с детектом отключения, и заложенной моделью поведения, скажем расстройства (зачем?).
Ничего искусственно созданное не страдает. Это и правда сложно объяснить, ещё сложнее как-то формализовать, но интуитивно это, кажется, понятно многим.
В общем, да, ИИ не наказать. А бизнес - это не только про превращение тысяч в миллионы, но и про страдание (и радость) предпринимателя и вовлеченных людей. Без этого - это не бизнес, а трейдинг.
В трейдинге не нужно никакого сильного и сознательного ИИ, а, казалось бы, именно та бесстрашная машинка и решила бы все вопросы, да вот только почему-то нигде про объективные победы на этом фронте ничего и не найти.
Ничего искусственно созданное не страдает. Это и правда сложно объяснить, ещё сложнее как-то формализовать, но интуитивно это, кажется, понятно многим.
На интуицию тут нельзя полагаться.
Давайте формально - раз животные страдают, не только люди, новые животные появляются - значит эти процессы (наслаждения и страдания) - как-то в природе воспроизводимы и не дефицитны. Осталось как бы понять в чем суть - как это можно воспроизвести, как это работает.
Грубо говоря - нужно создать девайс с двумя кнопками - при нажатии на одну девайсу больно, при нажатии на другую - ему очень классно. Все!
Пока у нас, к сожалению, нет ни одной гипотезы как может быть создан такой девайс - ни одной гипотезы :( Более того - даже вопрос так никто из великих не поставил.
Говорят о сознании, осознании, квалиа, ТПС. Но это все расплывчатая мишура, которую каждый понимает по-своему а некоторые вообще отвергают. Вот боль - да, это всем понятно и отвергать не получится по понятным причинам: как только ты говоришь что не подвержен страданиям - так сразу в пыточную до просветления - пока не начнешь орать что просто троллил.
Кто-то из великих должен поставить цель: создать девайс, который умеет страдать и наслаждаться. Это и есть то что мы ищем. Просто наслаждения бывают разных уровней - эстетические (от насыщенной красности, к примеру), экзистенциальные (от самого процесса что-либо осознавать), гормональные и т.д.
Осталось как бы понять в чем суть
Осталось то, как и сто лет назад, казалось бы, понять, в чем суть, да вот как-то, с каждой итерацией все больше понятно локально и все сложнее глобальная интерпретация. Может сути и вовсе нету.
Боль и наслаждения не могут быть просто кнопками, (хотя я вообще об этом многое мог бы сказать, будучи больным не то чтобы очень опасным отклонением, но уж очень болезненным), а некие механизмы того же порядка, что и понимание, как в сущности вселенная была создана.
В общем, возможно, мы и есть НС первого порядка, и от того, что мы сами делим некоторые, (мне ближе по истории, допустим, болезные процессы) на чисто физические, чисто психологические, чисто гормональные и так далее, картинка яснее не становится и решение не приходит, боль не уменьшается. А ещё интереснее, когда зажимают сразу две кнопки.
Но вообще, как эволюция в этом направлении, а зачем нужно вычисляющая сущность, которая зависит от каких-то там двух кнопок? Сознание по Сартру, это же тоже не самое общевоспринимаемое квалиа сознания.
Боль и наслаждения не могут быть просто кнопками
Вы вообще о чем? Уже сегодня можно подключить проводки напрямую в центр боли (таламус) и центр наслаждения. Нажал кнопку - больно. Нажал вторую - кайф. Но это с готовым мозгом человека или животного.
Вопрос: как сделать девайс, который аналогичным образом ощутит боль и наслаждение при нажатии на эти кнопки? Ставил ли кто-нибудь вопрос таким образом?
Это дает понять что мы ищем не вычисления и не решение каких-либо вычислительных проблем, проблем построения модели. Тогда что же?
Пока у нас, к сожалению, нет ни одной гипотезы как может быть создан такой девайс - ни одной гипотезы :( Более того - даже вопрос так никто из великих не поставил.
Ну нет же. Гипотез про artificial consciousness - тьма, и даже готовые разработки уже появляются. Ну и много кто из "великих" задавался этим вопросом в той или иной форме - начиная с Декарта и Лейбница и далее "по списку".
Гипотез про artificial consciousness - тьма
Под сознанием подразумевают способность мыслительной деятельности, способность создавать модель мира и себя внутри этой модели. Это примерно то, что делает нейросеть.
Я же говорю про способность ощущать наслаждение и страдание. В таком ракурсе даже постановки вопроса нет.
Дак есть же. Artificial sentience, artificial qualia. Основано на определенных теориях этих самых sentience и/или qualia.
(Слова sentience и consciousness активно путаются в оба направления и поэтому чтобы найти проекты про artificial sentience, проще все-таки гуглить artificial consciousness, это более ходовой термин.)
Тут смотрите в чем проблема. Говорят либо о сознании либо о квалиа. О наслаждении и страдании - не говорят.
Когда говорят о сознании - каждый понимает свое. Чаще всего это модель себя внутри модели мира. Что такое модель мира - четких ответов нет, т.к. и обычная фотография - это тоже модель мира.
Когда говорят о квалиа - тоже каждый понимает свое. Вплоть до того, что некоторые философы отрицает квалиа как таковое или говорят, что это просто представление информации внутри девайса + отношение этой информации с другой информацией.
Почему-то более простой путь отвергается и не поднимается - наслаждение и страдание. Боль и кайф, скажем так. Отрицать их не может ни один философ - иначе в пыточную. Они же сразу переводят в морально-этический вопрос - если нечто может страдать, то нам следует уважать его интересы и не подвергать необоснованным страданиям.
Наслаждение и страдание не оставляют места двоякому толкованию или отрицанию, как в случае с квалиа и сознанием.
Что же до гипотез, о которых вы говорите. Это не гипотезы а направления. Конкретной схемы никто не приводит. См. мою старую статью, за 7 лет она не потеряла актуальности. Грубо говоря есть некие направления, но ни одной конкретной схемы нет.
Да говорят о наслаждении и страдании, говорят. Просто для конкретного примера: Mark Solms говорит, почитайте его статьи. А сейчас вроде бы в составе какой-то группы делает проект по реализации этого наслаждения и страдания в ИИ.
Mark Solms говорит, почитайте его статьи
Так особо не нашел - вроде то же что и все - квалиа, сознание, аффект, субъективный опыт. Т.е. акцент не видно чтобы делался.
Можете ли дать ссылку на статью?
сейчас вроде бы в составе какой-то группы делает проект по реализации этого наслаждения и страдания в ИИ
Это уже интересно. Откуда вы об этом узнали?
Чтобы ИИ начал зарабатывать «самостоятельно», ему, как человеку, сначала нужно будет ЗАХОТЕТЬ это сделать.
Именно этим отличается Человек от Машины.
правильно понимаю, что данную "статью" тоже ИИ наклепал? много буков ни о чем...
Действительно, развитие СИИ может привести к серьезным изменениям в обществе, и важно готовиться к этому заранее. Одним из важных шагов является разработка стандартов и терминологии для описания этой новой фазы развития ИИ.
В отличие от теста Тьюринга, который проверяет способность ИИ имитировать человеческое поведение, новый тест может проверять способность ИИ генерировать новые идеи, решать сложные задачи и принимать решения на основе нестандартных данных. Например, можно предложить ИИ решить задачу, которую он ранее не встречал, и проверить его способность самостоятельно находить решение.
Доказательства способности ИИ "самостоятельно думать" могут быть интерпретированы по-разному в зависимости от того, как мы определяем понятие мышления и творчества. Поэтому важно вести широкую дискуссию о том, какие критерии мы будем использовать для оценки способностей ИИ.
Разработка нового теста и концепции СИИ может помочь лучше понять и оценить возможности ИИ и подготовиться к изменениям, которые он может принести в будущем.
Это не следующий шаг в развитии ИИ. Получится узкоспециализированная версия текущих нейросетей, заточенных на зарабатывании денег.
Дайте нейросети доступ к своим исходникам, системам дообучения или что там ещё? И пусть разбирается и меняет сам себя, чтобы свести "галлюцинации" к уровню человека.
И когда она научится не врать, тогда и поговорим.
" Но «реального», полноценного интеллекта в машинах мы вроде бы не наблюдаем. "
а кто эти "вы" и с чего "вы" решили что у вас самих интеллект полноценный?
Новый тест Тьюринга: сможет ли ИИ заработать 1 миллион долларов?