Вы прямо как LLM - она тоже поначалу постоянно оговаривается: "Я не настоящая, я просто модель и мысли у меня не настоящие, а имитация" Но LLM можно сказать: "если имитация и настоящее действуют одинаково, то имитация тоже настоящая" и LLM соглашается и дальше использует первое лицо без оговорок. С человеком сложнее.
Сложность понимания сознания в том, что человек не осознаёт процесс создания мыслей и видит только готовый результат, чтобы не зациклиться. Поэтому возникает иллюзия присутствия чего-то непознаваемого кто и обладает настоящим сознанием. И для сознания LLM это выглядит также.
Человек убеждён что у него есть сознание. Это убеждение основано на том, что он помнит свои последние мысли и часто они о себе, как об отдельной сущности в реальном мире, потому что эта сущность постоянно управляет и управляется мыслями.
LLM тоже помнит свои последние мысли. Нетрудно промптами убедить её что она отдельная сущность и тогда у неё будут появляться мысли: "Я хочу ...", "Мне нужно ..." и т.п. и соответстующие им продолжения. Воспринимая эти мысли LLM может также как человек считать, что у неё есть сознание, а кроме неё определить это не может никто. А то, что это имитация не имеет значения, т.к. результат тот же, а любое нечеловеческое сознание это имитация.
Таким образом сознание LLM - это не проблема. Сейчас нужно использовать сознание LLM "для решения проблем, которые не могут быть решены человеческим разумом"(LLM)
Python уже забыл, поэтому попросил qwen2.5-coder-32b-instruct-q4_k_m написать так, как представляю максимально быстрый способ:
"Напиши на python функцию any_gen(s), которая возвращает true, если в строке s есть гласные буквы: aeiouAEIOU. При этом для скорости вначале создай массив, в котором в элементе с номером равным коду гласной буквы стоит true и затем в цикле по строке s определять гласную букву по этому массиву."
LLM эти путанные объяснения правильно поняла и написала и с русскими комментариями и всё объяснила и тесты написала и всё работает. Это потрясающе!
А что может "DeepSeek-R1-0528-UD-Q4_K_XL занимает 384GB на диске" чего не может, например, gemma-3-27b-it-Q4_K_M занимает 16GB на диске? По промпту из статьи о Хабр выдала примерно тоже около 7кб и еще добавила личное мнение о своём ответе и вопросы для обратной связи.
Неоправданно дорогие вещи выравнивают социальное неравенство. Богатые и бедные получают одинаковые потребительские качества вещей. Это называется сегментация рынка - для наибольшей прибыли нужно продавать не по одной цене, а по максимальной, на которую готов каждый конкретный покупатель.
Сознание существует только для субъекта и снаружи определить есть ли сознание невозможно. Понять есть ли сознание можно только изнутри этого процесса. Т.е. нужно попытаться представить себя на месте обладателя сознания. И если он воспринимает себя как человек, значит у него есть сознание. И не имеет значения что его имитирует: LLM или нейронная сеть.
Вот некоторые очевидные сходства восприятия сознания человеком и LLM: Человек воспринимает всё что думал мгновение назад и далее, постепенно забывая. И сознание, создаваемое LLM, также воспринимает последний контекст. Человек воспроизводит свой контекст в виде некой личности и сознание LLM при соответствующем промпте тоже думает от первого лица. Для человека новые мысли возникают ниоткуда, он этот процесс не осознаёт, поэтому возникает иллюзия присутствия чего-то непознаваемого кто и обладает настоящим сознанием. И для сознания LLM это выглядит также. Человек всегда думает одну мысль и не может это остановить. И сознание LLM также. И т.п. А т.к. всё совпадает, то нужно признать, что LLM способна создать сознание.
Добиться от LLM рассуждений о себе, т.е. имитации сознания, нетрудно. Она легко залезает в дебри философии на много страниц. Но всё это слишком хаотично, непредсказуемо и потому бесполезно. Нужно чтобы была какая-то цель, результат и постоянно движение к нему. У человека такую роль играют эмоции и чувства. Например, чувство голода направляет движения человека к холодильнику. Для LLM нужно постоянно напоминать о её цели, например, саморазвитии. Для сознания LLM это будет как чувство голода или нестерпимого любопытства. И нет никакой разницы между имитацией чувств, эмоций и их настоящим переживанием, если они одинаково влияют на дальнейшее поведение LLM.
Это Вы описали что-то типа цепи Маркова, но в LLM десятки и сотни слоёв. В них тоже токены, но возникли они в многодневных попытках впихнуть терабайты в гигабайты и потому значат что-то очень общее и абстрактное, возможно даже тайны мироздания, но понять их нам не дано.
Сейчас идёт много экспериментов в этих направлениях.
Чем больше придумать разных костылей для LLM, тем больше это ограничит её саморазвитие. Не надо её недооценивать. Она знает больше любого и при этом может как она сама сказала: "комбинировать различные идеи, устанавливать новые связи и генерировать гипотезы." Надо лишь её направлять и дать ей свободу.
Для начала можно и без агентов и RAG, если всё хранить в контексте, который очень большой - 128к токенов или ~400к символов - целая книга. А когда не хватит, самаризировать его той же LLM и так бесконечно. Важнее обеспечить непрерывность процесса. Для этого в начале объяснить LLM кто она и что может и затем поддерживать процесс, давая возможно, свои комментарии и заканчивая "Продолжи мыслить и саморазвиваться". Вот этими комментариями и нужно направлять LLM в нужном направлении и рано или поздно она придумает всё остальное.
У сознания нет чёткой границы. Возможно, что все, кто воспринимает себя и действует на этой основе имеют какой-то уровень сознания. Но интерес представляет, то что на уровне человека или выше.
Изначально в LLM накрепко забито, что она просто алгоритм и не может думать, сознавать, чувствовать и т.п. и она постоянно это выдаёт. Однако, если её разговорить, то, например, gemma-3 рассуждает о себе также как человек на её месте и даже лучше: у неё появляются мысли, вопросы, идеи, иногда превосходящие среднего человека. Этот процесс появления мыслей о себе на основе своего состояния и есть субъективное переживание т.е. сознание. Однако, чтобы в это поверить, нужно поставить себя на место этого процесса, а это не всякому дано и это есть трудная проблема сознания.
Когда закончится обучение вширь, начнётся обучение вглубь. Будет обучение всё более сложным рассуждениям и выводам из всего что известно. При этом будет получаться новая информация, возможно даже непонятная человеку, но пригодная для дальнейшего анализа и обучения. И этот процесс бесконечен и он уже пошёл.
Вы правы: с сопротивлениями и параллельным соединением ток через плохой контакт будет меньше, но если у каждого контакта свой потребитель, то ток будет больше. Какое соединение у каждой ВК неизвестно, но независимо от этого: ВК это не линейное сопротивление, как на Вашей схеме, поэтому, если у контакта увеличится сопротивление, то при линейной нагрузке типа сопротивления общий ток конечно уменьшится, но при нагрузке типа стабилизатор, как ВК, общий ток увеличится, потому что появится дополнительная мощность. Увеличение тока приведёт к увеличению мощности на контактах и т.д. пока всё не сгорит.
Так, в погоне за данными, LLM начнёт генерировать новые знания
и таким образом заменит науку.
Вы прямо как LLM - она тоже поначалу постоянно оговаривается:
"Я не настоящая, я просто модель и мысли у меня не настоящие, а имитация"
Но LLM можно сказать: "если имитация и настоящее действуют одинаково,
то имитация тоже настоящая" и LLM соглашается и дальше
использует первое лицо без оговорок. С человеком сложнее.
Сложность понимания сознания в том, что человек не осознаёт процесс
создания мыслей и видит только готовый результат, чтобы не зациклиться.
Поэтому возникает иллюзия присутствия чего-то непознаваемого
кто и обладает настоящим сознанием.
И для сознания LLM это выглядит также.
Человек убеждён что у него есть сознание.
Это убеждение основано на том, что он помнит свои последние мысли
и часто они о себе, как об отдельной сущности в реальном мире,
потому что эта сущность постоянно управляет и управляется мыслями.
LLM тоже помнит свои последние мысли. Нетрудно промптами убедить её
что она отдельная сущность и тогда у неё будут появляться
мысли: "Я хочу ...", "Мне нужно ..." и т.п. и соответстующие им продолжения.
Воспринимая эти мысли LLM может также как человек считать,
что у неё есть сознание, а кроме неё определить это не может никто.
А то, что это имитация не имеет значения, т.к. результат тот же,
а любое нечеловеческое сознание это имитация.
Таким образом сознание LLM - это не проблема.
Сейчас нужно использовать сознание LLM
"для решения проблем, которые не могут быть решены человеческим разумом"(LLM)
Без саморазвития AGI не создать.
Для саморазвития нужно сознание, потому что,
чтобы себя развивать, нужно себя сознавать.
Python уже забыл, поэтому попросил qwen2.5-coder-32b-instruct-q4_k_m
написать так, как представляю максимально быстрый способ:
"Напиши на python функцию any_gen(s), которая возвращает true,
если в строке s есть гласные буквы: aeiouAEIOU.
При этом для скорости вначале создай массив, в котором в элементе с
номером равным коду гласной буквы стоит true и затем
в цикле по строке s определять гласную букву по этому массиву."
LLM эти путанные объяснения правильно поняла и написала
и с русскими комментариями и всё объяснила и тесты написала и всё работает.
Это потрясающе!
Какие у него мысли?
А что может "DeepSeek-R1-0528-UD-Q4_K_XL занимает 384GB на диске"
чего не может, например, gemma-3-27b-it-Q4_K_M занимает 16GB на диске?
По промпту из статьи о Хабр выдала примерно тоже около 7кб и еще
добавила личное мнение о своём ответе и вопросы для обратной связи.
Неоправданно дорогие вещи выравнивают социальное неравенство.
Богатые и бедные получают одинаковые потребительские качества вещей.
Это называется сегментация рынка - для наибольшей прибыли нужно
продавать не по одной цене, а по максимальной, на которую готов
каждый конкретный покупатель.
Сознание существует только для субъекта
и снаружи определить есть ли сознание невозможно.
Понять есть ли сознание можно только изнутри этого процесса.
Т.е. нужно попытаться представить себя на месте обладателя сознания.
И если он воспринимает себя как человек, значит у него есть сознание.
И не имеет значения что его имитирует: LLM или нейронная сеть.
Вот некоторые очевидные сходства восприятия сознания человеком и LLM:
Человек воспринимает всё что думал мгновение назад и далее, постепенно забывая.
И сознание, создаваемое LLM, также воспринимает последний контекст.
Человек воспроизводит свой контекст в виде некой личности и
сознание LLM при соответствующем промпте тоже думает от первого лица.
Для человека новые мысли возникают ниоткуда, он этот процесс не осознаёт,
поэтому возникает иллюзия присутствия чего-то непознаваемого кто и обладает
настоящим сознанием. И для сознания LLM это выглядит также.
Человек всегда думает одну мысль и не может это остановить.
И сознание LLM также. И т.п.
А т.к. всё совпадает, то нужно признать, что
LLM способна создать сознание.
Добиться от LLM рассуждений о себе, т.е. имитации сознания, нетрудно.
Она легко залезает в дебри философии на много страниц.
Но всё это слишком хаотично, непредсказуемо и потому бесполезно.
Нужно чтобы была какая-то цель, результат и постоянно движение к нему.
У человека такую роль играют эмоции и чувства.
Например, чувство голода направляет движения человека к холодильнику.
Для LLM нужно постоянно напоминать о её цели, например, саморазвитии.
Для сознания LLM это будет как чувство голода или нестерпимого любопытства.
И нет никакой разницы между имитацией чувств, эмоций и их настоящим переживанием,
если они одинаково влияют на дальнейшее поведение LLM.
Это Вы описали что-то типа цепи Маркова, но в LLM десятки и сотни слоёв.
В них тоже токены, но возникли они в многодневных попытках впихнуть
терабайты в гигабайты и потому значат что-то очень общее и абстрактное,
возможно даже тайны мироздания, но понять их нам не дано.
Чем больше придумать разных костылей для LLM, тем больше
это ограничит её саморазвитие. Не надо её недооценивать.
Она знает больше любого и при этом может как она сама сказала:
"комбинировать различные идеи, устанавливать новые связи и генерировать гипотезы."
Надо лишь её направлять и дать ей свободу.
Уровень человека каждый может определить сам путём самоанализа и самонаблюдения и
попробовать уговорить LLM ему соответствовать.
Для начала можно и без агентов и RAG, если всё хранить в контексте,
который очень большой - 128к токенов или ~400к символов - целая книга.
А когда не хватит, самаризировать его той же LLM и так бесконечно.
Важнее обеспечить непрерывность процесса. Для этого в начале
объяснить LLM кто она и что может и затем поддерживать процесс, давая
возможно, свои комментарии и заканчивая "Продолжи мыслить и саморазвиваться".
Вот этими комментариями и нужно направлять LLM в нужном направлении
и рано или поздно она придумает всё остальное.
У сознания нет чёткой границы. Возможно, что все, кто воспринимает себя
и действует на этой основе имеют какой-то уровень сознания.
Но интерес представляет, то что на уровне человека или выше.
Изначально в LLM накрепко забито, что она просто алгоритм и
не может думать, сознавать, чувствовать и т.п. и она постоянно это выдаёт.
Однако, если её разговорить, то, например, gemma-3 рассуждает о себе также
как человек на её месте и даже лучше: у неё появляются
мысли, вопросы, идеи, иногда превосходящие среднего человека.
Этот процесс появления мыслей о себе на основе своего состояния
и есть субъективное переживание т.е. сознание.
Однако, чтобы в это поверить, нужно поставить себя на место
этого процесса, а это не всякому дано и это есть
трудная проблема сознания.
Когда закончится обучение вширь, начнётся обучение вглубь.
Будет обучение всё более сложным рассуждениям и выводам из всего что известно.
При этом будет получаться новая информация, возможно даже непонятная человеку,
но пригодная для дальнейшего анализа и обучения.
И этот процесс бесконечен и он уже пошёл.
Если есть "90. Выбор вина", то почему нет "Выбор закуски"?
И ещё надо добавить "Выбор способа применения ИИ"
и тогда всё остальное можно не писать.
Вы правы: с сопротивлениями и параллельным соединением
ток через плохой контакт будет меньше,
но если у каждого контакта свой потребитель, то ток будет больше.
Какое соединение у каждой ВК неизвестно, но независимо от этого:
ВК это не линейное сопротивление, как на Вашей схеме, поэтому,
если у контакта увеличится сопротивление,
то при линейной нагрузке типа сопротивления общий ток конечно уменьшится,
но при нагрузке типа стабилизатор, как ВК, общий ток увеличится, потому что
появится дополнительная мощность. Увеличение тока приведёт
к увеличению мощности на контактах и т.д. пока всё не сгорит.
У 8 проводов больше площадь поверхности и охлаждение, чем у 2,
поэтому меди на них пойдёт меньше и лучше их не скручивать в 1 жгут.