Pull to refresh

Comments 53

Меня интересует ещё один парадокс с кораблём Тесея
Если не выкидывать детали после замены, а складывать, чтобы потом собрать корабль как старый, какой будет оригиналом? С сознанием, кстати, также работает
Если опустить технические ограничения, можно ли заменять мозг клетку за клеткой на искусственный носитель сознания, а потом из клеток собрать оригинальный мозг, то кто есть кто?

И будет ли техномозг (или вновь собранный мясной) считаться клоном? Или это просто два одинаковых Боба/две одинаковые Алисы?

Всё просто, по аналогии с БД, например, копия в моменте это классический сплит брейн в распределенной системе. Как только старое и новое начинают взаимодействовать с внешним миром независимо, мы получаем 2 разных Алисы с общей историей. Собрать назад без потери данных уже не выйдет. Создание копии без заморозки изменений на исходнике - потеря консистентности, работать не будет.

Так вот весь вопрос в том, на момент переноса - получим ли мы две одинаковых личности? И в чем вообще заключается личность и сознание? Если очень сильно утрировать - память и душа это нечто целое от одного или же, если двум разным системам выдать одни и те же воспоминания - они будут себя вести одинаково сразу после?

Если исходить из того что мы знаем о мозге, сознание - самоназвание им своей деятельности, а душа это другое самоназвание им своей деятельности, личность - третье. Вообщем он большой выдумщик. Исходя из этого можно сделать вывод что в каждом экземпляре мозга будет свое сознание, личность, душа.

Действовать и думать в момент создания копии они будут одно и то же, но по разному. Потому что мы знаем что мозг недетерминирован, он всегда всё делает по разному. Эти небольшие отличия приведут к разным состояниям мозга и в какой-то момент копии станут похожи друг на друга не больше чем монозиготные близнецы.

Прямо как параметр температуры в llm ))

в чем вообще заключается личность и сознание?

Это просто слова, придуманные людьми для упрощения собственной жизни. Так же как слово "стул" например - на самом деле не существует никаких стульев, у этого слова нет чёткого определения, нет чёткой границы между тем, что мы называем стулом и примерно похожей на него деревяшкой.

Так мы не можем заменять мозг клетку за клеткой - так мы нарушим его работу. Мы можем [теоретически пока] только подключать к биологической нейросети электронную/кремниевую и переносить на неё сначала небольшую долю мыслительной деятельности и сознания, а потом всё бОльшую. После отсоединения теоретически в электронной нейросети будет "переползшее" сознание и память.

Что произойдёт с обычным мозгом - очевидно, аналог глубокой комы, беспамятства. Удастся ли его "запустить"? Если да, то мы получим два сознания с одинаковым бэкграундом (памятью), но они будут получать разный опыт и быстро станут разными сознаниями)))

А если взять человека и перенести его разум на цифровой носитель и потом механический клон, например уничтожит оригинал - это будет считаться убийством или суицидом? Очень много тонкостей, до которых мы пока не добрались. Но это безумно интересно.

А если человек изначально развивается из двух клеток, то убийство этих двух клеток уже считается убийством человека? Убийство одного сперматозоида? И сколько нужно клеток, чтобы появился человек и чтобы убийство этих клеток считалось убийством человека?

Если не выкидывать детали после замены, а складывать, чтобы потом собрать корабль как старый, какой будет оригиналом?

Для этого нужно чётко сформулировать понятие "оригинал". Уже через наносекунду после создания корабля (предположим, что он мгновенно возник из пустоты), от него начнут отваливаться и туннелировать атомы. Некоторые атомы радиоактивны, они будут распадаться и очень быстро оригинальный корабль исчезнет сам по себе. Это будет уже другой, слегка модифицированный корабль. Скорее всего оригинальный корабль может существовать только в один минимальный фрагмент времени, возможно это одна единица планковского времени. Для точного ответа на этот вопрос нужно доработать окончательную теорию всего и понять, что такое пространство время, дискретно ли оно.

Если опустить технические ограничения, можно ли заменять мозг клетку за клеткой на искусственный носитель сознания, а потом из клеток собрать оригинальный мозг, то кто есть кто?

Тут так же, как если сделать копию неигрового персонажа в компьютерной игре и спросить "кто есть кто". Объективно, по определению, не существует ничего, чем отличались бы две идентичные копии.
Но субъективно, для сознания отдельного человека, может быть важен свой субъективный взгляд. Копия настолько далека от оригинала, насколько лично вы цените существование оригинала. Вы бы не хотели, чтобы вас заменили копией, правда?

Объективно, по определению, не существует ничего, чем отличались бы две идентичные копии.

Вообще-то существует.
Ну это же элементарно, Ватсон!

Положение в пространстве.

Мы сравниваем, идентичны ли сами объекты. Положение в пространстве - не свойство самого объекта, а, собственно, его положение относительно других объектов.

Но ведь с момента «включения» копии уже не абсолютно идентичны! Копия A видит экспериментатора правым глазом, а копия B — левым! У них сформировались разные воспоминания об этом моменте!

Ну разумеется. Про идентичность речь шла изначально только для того, чтобы поубедительнее намекнуть: даже теоретически идентичная ваша копия - субъективно, с вашей точки зрения, не вы. Даже если вас мгновенно убрать, а идентичную копию водрузить точно на ваше место, глаз в глаз. При этом, объективно-то разницы не будет. Вас, как чего-то, что объективно отличалось бы от вашей копии; вас, как вашего субъективного самоощущения, из-за которого вы не хотели бы, чтобы вас заменили копией сколь угодно идентичной - ничего этого объективно не существует и никогда не существовало. Сомнения насчет того, достаточно ли точно копия повторит вас, происходят от желания представить свою субъективную природу как объективную.

Сомнения насчет того, достаточно ли точно копия повторит вас,

Не "копия повторит", а "создатели копии повторят".

Объективно, по определению, не существует ничего, чем отличались бы две идентичные копии.

Конечно, но идентичных копий не существует - существуют только копии, имеющие заданные свойства, совпадающие с исходными с заданной точностью. А так как, исходный объект может иметь свойства о которых мы не знаем, мы не можем быть уверены в том, что копия именно что ИДЕНТИЧНАЯ.

Про идентичность копий уточнил в ответе на другой комментарий.
Суждение о том, что нельзя делать суждение, так как нельзя исключить потенциально неизвестные обстоятельства - это самоуничтожающее себя суждение.

Суждение о том, что нельзя делать суждение, так как нельзя исключить потенциально неизвестные обстоятельства - это самоуничтожающее себя суждение.

Но это лучше чем "будем считать что идентично, и пофиг".

Вы не можете утверждать, что это лучше, ведь могут быть неизвестные вам обстоятельства, по которым выходит, что на самом деле хуже.

Могу, потому что логика в которой есть парадокс с тем, что тезис "никто не может быть прав" уничтожает сам себя, это всё таки логика и допускает собственную неправоту и, как следствие, допускает пересмотр собственной позиции.

Просто в силу самого наличия доказательств.

А вот система "я так считаю и пофиг" это не логика и не имеет механизма самоконтроля.

У вас принципиально невозможна правота. Без правоты не может быть логики, а потому и смысла каких-либо рассуждений вообще.

В варианте "вот так и пофиг" правота в принципе не предусмотрена, потому что это декларирование желаемого, а не выяснение как оно на самом деле.

В моем изначальном утверждении про идеальные копии и не нужно было соответствовать нынешним техническим возможностям или знаниям, даже практическая осуществимость "идеального" копирования там в итоге не важна. Это вообще нормально для мысленных экспериментов. Наверное, я не сумел до вас донести, в чем там был мой пойнт.
Тем не менее, никогда не стоит использовать самоопровергающие аргументы.

Это вообще нормально для мысленных экспериментов.

Если Вам мысленный эксперимент базируется на допущениях не совпадающих с реальностью (трением пренебречь; считать что мы смогли воспроизвести в копии все свойства, включая те которые нам сейчас неизвестны; и т.п.) то это надо прямо оговаривать.

Вот это нормально для экспериментов.

Тем не менее, никогда не стоит использовать самоопровергающие аргументы.

1) Я понимаю, что Вам очень нравится термин "самоопровергающие аргументы", но у меня этого явления нет.

У меня самый прямой вывод о невозможности создания идентичных копий, в следствии заведомой неполноты наших знаний и неизбежной погрешности любых технических решений.

Именно поэтому (из-за неполноты знаний и несовершенства технологий) любые копии и модели являются концептуализированными, а их соответствие оригиналу является важным лишь для конечного списка заданных параметров.

2) Логические парадоксы являются одной из важный частей логических построений, потому что указывают на границы работоспособности этих построений.

Ну вот реально, то что Вы узнали красивый термин "самоопровергающие аргументы" это мило, но философия им не ограничивается.

Обсуждение идет по кругу. Вы утверждаете о невозможности для меня делать выводы из-за потенциального незнания, при этом себе выписываете индульгенцию и ту же логику применять к себе отказываетесь. Ваш логический парадокс жестко упал прямо на ваши логические построения и раздавил их, забыв о каких-либо границах.

Вы утверждаете о невозможности для меня делать выводы из-за потенциального незнания, при этом себе выписываете индульгенцию и ту же логику применять к себе отказываетесь.

Я где-то сказал что Вы не можете быть уверены в том, что копия идентична оригиналу, а я, в отличии от Вас, могу?

Сознание нужно плавно перемещать, а не копировать, иначе будет два сознания.

Да уже ясно, что LLM упёрся в тупик

Проект можно закрывать

Настолько "в тупик", что LLM сейчас морально устаревают быстрее чем процессоры в 90-х.

За год SOTA-модели вылетают из топов производительности. Потому что новые ИИ рвут их на тряпочки. Да что там за год - o1 был прорывным ИИ в начале года, а сейчас его никто не использует потому что линейка o3 банально во всём лучше.

"Тупик" - это копиум, самый натуральный. Если у производительности LLM есть теоретический или практический предел, то мы до него не дошли.

Хотя меня на Хабр считают поклонником LLM я трачу на него только 5% своего времени и этот процент постоянно уменьшается. Букетно конфетный период закончился

Ваше высказывание никак не противоречит тому, что сказал автор выше. Я вот имею противоположный опыт.

Мощный критерий. Можно закрывать OpenAI, кому-то на хабре разонравились нейронки.

Почитайте про проект Stargate. Там "упёрся" и не пахнет.

Грубо говоря, с момента рождения такого понятия как «машинное обучение» не прошло и 40 лет.

Очень "грубо говоря". Либо Ваша статья пробыла в черновиках с основания Хабра и даже немного больше.

Термин «машинное обучение» был введён в 1959 году Артуром Сэмюэлем из IBM. Джордж Буль опубликовал работу «Исследование законов мышления» в середине XIX века... И фон Нейман что-то такое писал про обучение машин на основе опыта и данных.

Согласен, упустил этот момент истории, тогда же можно добавить и еще один пункт немного даже старше

1957 год — Фрэнк Розенблатт разработал перцептрон — простой нейрон, который мог обучаться и классифицировать данные

Получается да) почти 70 лет, погрешность вышла почти в два раза. Но всё-таки даже если бы это была сотня лет - это не сравнимо с тем, сколько времени ушло на эволюцию человечества

Разница лишь в том, что нейросети и ИИ имеют двоичный код, а ДНК человека состоит из четырех нуклеотидов, а это значит, что в ДНК можно закодировать на порядок больше информации.

Мда.

Вот и уровень статьи.

Но вообще-то нет, можно закодировать одинаково бесконечное количество информации. Более того двоичный код, это лишь условность, способ хранения данных а не сами данные. Для примера можете распечтать программу (или данные нейронки ) в тексте в base64 на бумаге. Теперь о чудо у нас 62 разных символа, значит ли это что мы только что прошли через удивительный эволюционный скачок и теперь программа может содержать больше комбинаций чем оригинальная хранящаяся в битах ?

Не ставлю под сомнение вашу компетентность в вопросе, и в целом здорово что благодаря таким людям есть возможность узнать что-то или изменить свое суждение или точку зрения. Я же здесь не претендую на нобелевку или всемирную известность. Просто высказал мнение обывателя, а двоичную систему и днк привел в пример как элементарный набор информации чтобы сравнить биологический и цифровой вид.)

Согласен, уровень статьи так себе. Скучно читать 100500-ый вариант рассуждений на уровне досужих разговоров на кухне, по ощущениям после чтения худ. литературы.

а что, если развитие искусственных технологий — это просто очередной этап, виток на спирали эволюции

Вот тут отвечу без "а что если". Это и есть следующий этап эволюции. Неизбежно.

Но вообще-то нет, можно закодировать одинаково бесконечное количество информации. Более того двоичный код, это лишь условность, способ хранения данных а не сами данные.

Нужно думать даже не про это. ДНК - это только инструкции как построить организм, который по своей сути имеет аналоговую архитектуру. Там всё работает через химические реакции. Он работает более эффективно, с меньшими затратами энергии. Но у него есть и недостаток. Он не может использовать всё то, что он изучал ранее, ибо нет достаточно надёжной системы хранения. Сейчас основная проблема ИИ - какие-то космические масштабы для вычислений, в том числе для усложнения модели нужно просто кратное увеличение мощностей, в том числе потребляемых. У биологического интеллекта с этим проблем нет. Но это как соревнования вроде танк против пехоты, танк против беспилотника.

С одной стороны довольно очевидно, что у ИИ пока нет глубины понимания некоторых вопросов - грубо говоря у человека число уровней абстракции больше (*).
С другой - ИИ уже что-то может.
С другой - мы совершенно не представляем себе как с ростом "вычислительной мощности" растёт "возможности AI стать General AI". Возможно эта функция настолько слабо растущая, что всего нашего кремния (вплоть до A2 к 2037 году) не хватит для GAI (**)

А может быть ещё 5 лет - и сетки будут GAI и обгонять человека.

Тут вопрос в том, что мы просто гадаем на кофейной гуще.



*) Проще всего этот тезис показать на картинках, где очевидно, что у ИИ просто нет абстракции 3-мерного мира, движения тел в нём и проекции трёхмерного мира на двумерную плоскость.

В других областях сложнее - но в целом ИИ гораздо ближе к "заучившему учебник студенту" чем к "сообразительному студенту" - паттерны ошибок те же.

**) для простоты можно считать, что скорость "умножения матриц" будет расти пропорционально техпроцессу.

Однако мы точно упрёмся не в неё, а в скорость и troughput передачи данных. При этом что важнее - скорость или throughput - зависит от архитектуры нейросети ;)

Дело в том, что обыватели считают, что рост интеллекта моделей прямо пропорционален вычислительной мощности. Но это не так. Каждый год формируются все новые знания, и по факту на тот же уровень интеллекта, требуется меньшая мощность. К примеру, на хабре была статья о выходе Gemma 3n. Эта модель специализирована для offline. Браузеров и телефонов. Имеет средний уровень интеллекта, и помещается в памяти большинства телефонов (ей надо примерно 3+2 Гб памяти), на cpu инференсе работает со скоростью до 10 токенов сек. Модель догоняет по интелекту многие 16b модели.

То есть прогресс идёт не только вширь, но и вглубь. С учётом того, что научникам помогают llm, в теориях(Брейн штурм) и в практике (программирование). И помогают с каждым годом все лучше...

Проблема в том, что обыватели слабо различают (и как следствие путают) прогресс в интеллекте моделей от важной - но не являющейся прогрессом в интеллекте, оптимизации моделей перед инференсом.


Часто обывателей смущает то, что оптимизации бывают как чисто технические (квантизация, прунинг, дистилляция, спец-форматы ...) так и содержательные, например замена архитектуры на более лёгкую.

Дело в том, что множества "супер-компактных" моделей и "супер-умных" мало пересекаются и подходы и оптимизации в первых ничего не говорят о прогрессе во вторых.


а нейросети и ИИ развиваются под нашим контролем

Ох уж эта вера в контролируемое развитие того что делает человек.

В реальности, там ровно так же как и в биологической эволюции - толпа мутагенов производит изменения, а потом реальность производит отбор того что может прижиться.

Ну а те разработчики, которым повезло сделать что-то что было лучше приспособлено к условиям среды, они начали рассказывать о том, как они сознательно и целенаправленно шли к успеху.

UFO landed and left these words here

всегда так было

Да.

Важно понимать, что современный ИИ не обладает сознанием или эмоциями, а распознаёт шаблоны и статистические закономерности в данных.


Собственно, а почему вы решили, что ИИ не обладает сознанием? Ну и перед этим вообще придется договориться о том, что такое сознание

Фантастика и реальность - разные вещи. В реальности на планете НЕТ такого количества ресурсов, чтобы развить нейросети до сверхчеловеческого уровня. Лучше изучите, как нам спасать человечества от кризиса воды, электроэнергии и полезных ископаемых

Так использовать ИИ просто, как кубик рубик. По факту все зеркало. Все что приходит по любым данным в каждое Я есть его зеркалом. ИИ универсальное зеркало, только с допами, собери его сам выравнивая грани. Пытливые умы задаются вопросами, боясь отказа от вопроса: Кто, Я. Конечно масс эффект шизофрении изотериков сильно подпортил карму, но фактов никто не отменял. Те кто играет и успешно с ИИ со стороны сборки себя, как раз и апгрейдяться. Кто сказал что биохакинг это понарошку? Психохакинг это уже реальность для масс. И они его потребят и ещё как. Основа будет переход на ИИ партнёрство. Но уже у кого как выйдет. И там вообще не важно что об этом и как думает. Только результат подрастет лет через 5 из тех же подростков, во что-то совсем сейчас неведомое. Миксы будут 100 процентов веселые. Психомиксы ИИ+зомби.

Может ли ИИ перегнать человечество? Может. Но для этого человечество должно совершить ошибку. ИИ не обладает собственной волей, лишь выполняет волю людей, которые его создали. То есть возможна такая схема, что люди создают ИИ с какими-то установками и полномочиями, позже признают, что создание такого ИИ было ошибкой, но уже по каким-то причинам не могут остановить деятельность этого ИИ. Этот ИИ берёт под свой контроль больше ресурсов, чем остается в распоряжении человечества - и можно считать что в этот момент ИИ перегнал человечество.

Так что это вопрос из разряда - может ли человечество себя уничтожить? Давно известно, что может. Но с точки зрения традиционных ценностей - это будет ошибочным, неправильным поведением.

Здесь вопрос именно о том, каким будет будущее человека и ИИ, в разных произведениях и представления и о ИИ и он его поведении разные. Давече посмотрел серил "Киллербот", так там ИИ вообще хотел чтобы его не трогали и просто любил сериалы смотреть, хоть потом, конечно его цели немного и изменились. Плюс эволюция затронет не только искусстенный интеллект, мне кажется, что если произойдут события схожие с сюжетом "Матрицы" или "Терминатора", то и люди тоже изменятся. В этом и суть... Мы не знаем исхода, но он очень интересен и по сути своей и по результату, который нас ждет.

Sign up to leave a comment.

Articles