И, честно, даже обидно приписывать реально блестящим умам, занимающимся этой проблематикой, такую тривиальную ошибку.
Ну вот делает же Сёрль тривиальную ошибку в Китайской комнате, не так ли?
налицо фундаментальная несовместимость типов".
Если она "налицо", то вы отрицаете с порога сильную версию тезиса Чёрча-Тьюринга и тем самым, если угодно, большую плеяду не менее блестящих умов, которые из этой концепции исходят. Для меня совершенно неочевидна несовместимость типов. Если вы хотите доказывать таким способом, то вам на практике реально надо найти опровержение тезиса Ч-Т, так что если удастся, прославитесь в веках.
По вашей схеме либо дворец состоит из дворцов (и нет никаких кирпичей), либо кирпич из кирпичей (и нет никаких дворцов).
Вы почему-то считаете, что с моей точки зрения все механизмы созданы равными. Там тоже есть иерархия свойств. У базового механизма одно свойство -- занимать место в пространстве. А у механизма, состоящего из комбинации базовых, появляются новые свойства.
"Вся "проблема" специалистов по компьютерным наукам (при всём уважении) в том, что они плохо разбираются в в философии."
У вас есть желание подробно отвечать на такого рода "аргумент"?
В смысле? Это же очевидно. Быть философом (или учёным в области CS) -- это full-time job, разумеется, невозможно разбираться одинаково хорошо в области, на которую тратишь половину времени, по сравнению с тем, кто тратит на неё всё своё время.
Соответственно, концентрируемся на аргументах, а не на людях, и изучаем именно слабость аргументов с точки зрения противоположной стороны.
Например, в философии до сих пор любят ссылаться на "китайскую комнату", хотя в около-CS-среде т.н. возражение "аргумент системы" считается настолько очевидным, что даже непонятно, в чём сыр-бор.
Доказательство возможности типа явления демонстрируется выводом общей формы этого явления. Нет необходимости перечислять каждый конкретный случай.
А мне кажется, что есть необходимость. Потому что это ответ типа "а дальше очевидно". Ну вот пусть хоть кто-то продемонстрирует, как это технически работает, не в стиле "каждый отдельный шаг понятен, а дальше очевидно".
Возвращаясь к проблеме сознания (а также к тому, почему у AI его нет) -- я не говорю, что вы неправы, я всего лишь считаю приводимые аргументы слабыми.
По форме формулировка "трудности" в "трудной проблеме сознания" звучит ровно так же как MS Word в Windows -- мы не можем вывести сознание из движения атомов. Но дальше вы говорите, что в Windows нам понятен каждый шаг. Хорошо, а в природе непонятен? Мы знаем, как движутся атомы, мы знаем, как работает химия, как структурно устроен мозг. Но вы не хотите сделать ровно тот же вывод про мозг как про компьютер -- нам известны промежуточные шаги, значит, проблемы нет. Или нам пока неизвестны какие-то промежуточные шаги, но не более того. Мы почему-то сразу прыгаем к выводу, что есть некая "трудная" проблема.
только тогда термин "механизм" теряет всякое осмысленное содержание.
Ну кому как. Из базовых кирпичиков можно создать хоть дворец, при этом у кирпичика есть только одно реальное свойство -- занимать место в пространстве. По факту оказывает, что этого не так уж и мало, раз получается такой результат.
Это же не логический аргумент, базирующийся на фактах, а разновидность риторической пощёчины. И отвечать на серьёзных щах имеет смысл только если хочешь риторической драки.
Мне жаль, что вы это так воспринимаете. Я ниже привёл вполне конкретный аргумент: всё, что приводится в качестве доказательства "несводимости" сознания к физике, может быть применено к заведомо детерминистическим системам. Попробуйте показать, как MS Word внутри Windows сводится к движению электронов по схемам. Если это не получится (а разве получится?), значит, аргумент плохой.
В известном смысле это не пощёчина, а наоборот -- я не отказываю философам в интеллекте, но они не обязаны разбираться во всём на свете, и вот тут явно тот случай, когда именно пробел в конкретной области не даёт увидеть слабость аргумента.
Бесконечная регрессия, если мы считаем, что механизм не атомарен
Да, поэтому совершенно логичный вывод -- механизм может быть атомарным, и проблемы регрессии больше нет.
закономерный вопрос - какие именно свойства этой атомарной сущности позволяют приписать её к семейству механизмов.
Ну это же чисто вопрос определений. Вы можете называть "механизмом" всё, что угодно, это же просто слово, в которое можно вложить любой смысл. Основное свойство атомарного механизма -- это его атомарность, то есть вы можете из атомарных механизмов собрать что-то неатомарное, как из кубиков лего, чья основная работа и быть строительным материалом. Это не так уж и мало на мой вкус.
А "проблема" относится к продолжающемуся фиаско проекта адептов физикализма по редукции квалитативной субъективности к физическому.
С моей точки зрения никакой проблемы нет. Вся "проблема" философов (при всём уважении) в том, что они плохо разбираются в компьютерной науке.
Да, безусловно, сложно свести поведение живого огранизма к движению молекул. Но "магия" тут вовсе не в живости организма, а в технических трудностях процесса. Если вы попробуете понять, каким образом из движения электронов в на кристалле получается Microsoft Word, тоже ничего не получится. Хотя мы знаем, что это ровно так.
По крайней мере, я не думаю, что хоть кто-то реалистично может утверждать, что наблюдая токи в компьютере он сможет выявить, какой конкретно софт сейчас работает и какой алгоритм выполняет.
Но никому не интересно говорить о трудностях с MS Word'ом, гораздо интереснее рассуждать о "магии" живого. А если пойти в скучные "механистические" системы, окажется, что там на каждом шагу аналогичные "трудные проблемы".
Декларация у механизма квалитативного сознания - т.е., по сути, добавления к "интеллекту" способности страдать - равнозначна приглашению этого механизма себе домой - в человеческую среду - на равных правах.
Ну вот это и есть биологический шовинизм -- буквально по Аристотелю, "человек есть мера всех вещей", т.е. "я тут решаю, у кого есть сознание или нет, и я тут решаю, кому выдавать права". Это вполне легитимная конструкция, но в большей степени из области политики. Ну и ниже вы тоже предлагаете "придержать коней" из чисто политических соображений.
Тут мне придётся повториться:
Я просто не согласен с исходной посылкой. Она у вас такова: по умолчанию у человека есть сознание и субъектность, а у робота нет, и теперь надо каким-то образом доказать (или решить политически), что у робота оно тоже есть.
Исторически это ровно тот же тип аргумента что и "у женщины нет души", "туземцы не настоящие люди" и т.п. Разумеется, пигмей из Конго только внешне похож на человека, и пусть попробует докажет, что это всё на самом деле.
Опять, это всё может иметь этический, политический и какой угодно ещё смысл, но не научный. Я не могу даже доказать, что у меня есть сознание и субъектность. Мартин Лютер считал, что у человека нет свободы воли вообще. И Спиноза, и Роберт Сапольски, и Сэм Харрис, и много кто ещё.
Тогда почему вообще всему - на всякий случай - не приписать наличие сознания?
Ну Спиноза же ровно это и предлагает, нет? Вполне себе позиция.
А как у экземпляра человека, моя этическая обязанность в этом контексте доминирует над этической обязанностью к гипотетическому сознанию у механизмов (
Ну так мы по кругу ходим -- я с этой логикой не спорю. Моя семья важнее семьи соседа. Семья соседа важнее семьи из Судана. Семья из Судана важнее семьи обезьян. Семья обезьян или даже крыс важнее робота. Вполне классический подход.
Всё - квантор всеобщности. Если всё механизм, то и каждая деталь механизма - механизм и т.д. до бесконечности. Чтобы не было бесконечности нужно что-то "атомарное", заканчивающее регрессию. Что такое атомарный механизм?
Я не совсем понимаю, в чём проблема. Автомобиль состоит из деталей, каждая из которых автобилем не является. Колесо -- не автомобиль, и состоит оно из молекул, которые тоже не колёса.
Нет никаких проблем в том, чтобы изготовить автомобиль из деталей, которые не-автомобили. Нет никаких проблем, чтобы создать машину Тьюринга не из машины Тьюринга.
Механический (или электронный) калькулятор не является машиной Тьюринга (корректнее говорить про linear bounded automata, но не будем), потому что у него нет памяти и возможности выполнять программу. Аналитическая машина Бэббиджа и современные компьютеры уже являются, водораздел проходит достаточно чётко.
Это вы предположили, что C. elegans не имеет персональной субъективности - я этого не предполагал. И по умолчанию буду считать, что она там есть. А у цифровой симуляции - нет.
Смотрите, это, безусловно, имеющая право на жизнь точка зрения, но она автоматически выводит нас за пределы научного. Очень трудно в рамках современной научной картины мира поводить хоть какие-то различия между настоящим червём и его симуляцией на компьютере. Ну понятно, что первый живёт в не-виртуальном мире, ест "настоящую" еду и всё такое, но всё равно подразумевается точный "маппинг" червей, и настоящая еда превращается в виртуальную, но так, чтобы нечто настоящее просто исчезало как явление -- ну, это уже другая картина мира вообще.
Но он не технический, а этический. И очень удобный: забираешься на такой moral high ground - и сразу в белом плаще,
Это не этический аргумент, это всего лишь intuition pump, призванный показать, что как раз попытка отказать механизму в субъектности штука сугумо иррациональная и эмоциональная.
Бог с ней с квартирой и с теми, кого мы в неё пускаем. Большинство из нас готовы согласиться с тем, что у людей и даже у животных (как вы пишете) есть право не быть убитыми, например, особенно просто "по фану". И вот у вас есть механизм, который с точки зрения внешнего наблюдателя ведёт себя неотличимо от животного, например. И не просится в вашу квартиру -- жужжит себе в уголке, никого не трогает.
Далее вы говорите, мол, я по умолчанию считаю, что у механизма нет субъектности и он не страдает, а животное страдает. При этом вы можете что-то сказать про себя, гораздо меньше про других, и совсем мало про какую-нибудь лягушку, которая разве что пытается убегать и квакать, когда чувствует опасность (ну и робот тоже это умеет).
Тем не менее, имея в голове исключительно эту теорию, вы готовы сказать: ну вот да, я так вижу, и вероятность того, что вы заблуждаетесь, не мешает вам решить, что ничего страшного нет в том, чтобы отключить механизм. То есть обычно сомнение трактуется в пользу обвиняемого, если угодно, потому что на кону его жизнь, а тут наоборот.
Теперь про белое пальто. Моя задача не обвинять в шовинизме, а согласиться с тем, что мы биологические шовинисты и есть, и я тоже не исключение. Такова нормальная мораль нашего времени, и несправедливо ожидать от человека каких-то недосягаемых высот. Но достаточно хороших научных и даже этических аргументов в пользу этой точки зрения нет. Есть только эмоции.
(1) Я что-то пропустил, и этот тезис уже доказанная теорема?
Вот с моей точки зрения да, потому что в данном контексте "тезис Чёрча-Тьюринга" используется в контексте "закона природы", а не "математической теоремы". У нас в принципе нет доказанных законов природы, потому что даже принцип всемирного тяготения "доказывается" ровно так же, как на практике "доказывается" отсутствие багов в программе, а именно, прогонкой тестов, опытами. Но опыты не могут ничего доказать на 100%, максимум, они свидетельствуют о том, что теория правдоподобна. Если воспринимать тезис Ч-Т именно в таком контексте, я думаю, считать его верным ничуть не менее оправдано, чем любую квантовую механику.
Даже если это истина, то отсюда очень далеко до суждения "всё существующее есть эквивалент машины Тьюринга".
Это так называемая "сильная версия тезиса Чёрча-Тьюринга". Далеко, но не так далеко.
(3) Наконец, если всё есть вычислительный механизм, то и составные детали такого механизма - тоже аналоги вычислительной машины.
Нет, это технически неверно. Машина Тьюринга -- самый сильный вычислительный аппарат, строго сильнее (с точки зрения теории вычислений) чем, например, конечный автомат (FSM) или автомат с магазинной памятью (pushdown automaton). Так что никакой бесконечности нет -- есть минимальный юнит, который обеспечивает "какие-то" вычисления, и есть иерархия вычислителей, которая останавливается на машине Тьюринга. Машина отдельно, кирпичи отдельно.
Ну или, иначе говоря, тезис Ч-Т говорит, что машины Тьюринга "достаточно" для всего, но вовсе не "необходимо" для массы вещей.
"как вы об этом знаете" ответа не было. Потому что не получается обойти непосредственное восприятие, через которое мы получаем любое знание?
Я считаю этот вопрос плохо сформулированным. В таких терминах надо решать, что такое "я" и что такое "знаю". Это избыточно и отвлекает. Посмотрите на проблему свежим взглядом.
Есть "я" в том смысле, что есть физический объект, который не вы, не котик Вася, не табуретка и так далее, а вот ограниченный в пространстве юнит. У этого юнита есть система принятия решений. Часть этой системы отвечает за симуляцию "what-if" сценариев. Бессмысленно спрашивать "откуда она это знает". Она этого не "знает", она это "производит" -- генерация симуляции внешнего мира, в которой принимается решение -- это непосредственная работа этой системы.
Привожу текст, т.к. обещал - не обижусь, если не будете читать.
Не, на самом деле интересно, но для дискуссии действительно много :)
Не понимаю, что вы этим хотите сказать. В нормальных странах насилие над животным тоже уголовно наказуемо. И, имхо, даже там недостаточно.
Хорошо. Я просто хочу сказать, что даже если LLM уже достигли потолка, это уже достаточно высокий потолок, чтобы обсуждать вопросы сознания.
причине - "мельница Лейбница". Не хочу вводить магию без ясного мне основания. Наличие сознания у меня не видится мне, как достаточное
Ну вы же себе приписываете исключительно на основании интроспекции.
Насчёт того же мозга лично у меня нет 100%-й уверенности, что это 100% механизм.
Но почему? Ведь между нами и каким-нибудь C. elegans, который плюс-минус отлично симулируется на компьютере, лежит непрерывная цепочка усложнений нервной системы, и будет крайне оригинально предположить, что где-то посередине туда воткнули некий magic ingredient, который берётся неизвестно откуда.
Соответственно, зачем опираться на "знание, что внизу 100% механика"? Конечно, механика, по тезису Чёрча-Тьюринга весь наш мир со всеми происходящими процессами -- механика. Я понимаю нежелание плодить сущности, но конкретно это сображение в принципе не аргумент. С тем же успехом можно говорить "там нет интеллекта, потому что у него шесть лап, а не четыре".
нет - вопрос к вам, чисто на всякий случай: есть ли у вас самого такое восприятие? И как вы об этом знаете?
Я думаю, это спор о терминах. Есть "я", телесный агент, ограниченный в пространстве, и отделяемый от других агентов. У этого агента есть система принятия решений, помогающая ему выживать и достигать целей. Частью этой системы и является подсистема "субъективного восприятия", чья прямая работа -- создание виртуального мира в голове и виртуального аватара, соответствующего телесному агенту. Это очень выгодная система, потому что она может проигрывать разные сценарии с участием аватара и моделировать результаты.
В таком определении, конечно, у меня есть субъективное восприятие, но я не вижу в нём никакой особой магии.
Моё мнение, что если страна выберет второй путь, то тогда как минимум не исключена вероятность того, что в ней будут расти целые поколения садистов
Ну вот в одной богоспасаемой стране могут посадить за "аниме-проно с несовершеннолетними", хотя никакой реальный несовершеннолетний при этом не страдает. Это вполне показательно, похоже, что логика "это всего лишь симулятор" никого не убеждает. Так же как и условные кровавые шутеры, которым присваивают возрастные рейтинги, а кое-где и запрещают (в Германии Carmageddon с зелёной кровью вроде).
Тут и там ходят полуневнятные слухи о том, что мы, быть может, достигли некоторого плато в развитии LLM, и что это плато может оказаться потолком.
Да давйте просто признаем, что мы биологические шовинисты. Допустим, это потолок, и что? Нынешние LLM по любому когнитивному тесту превзойдут, скажем, ребёнка двух лет. Но если некто убьёт ребёнка двух лет, его посадят как за убийство человека. Допустим, можно сказать, что у ребёнка есть шанс вырасти, но если некто убьёт умственно отсталого, у которого нет шанса вырасти, его всё равно посадят как за убийство человека.
играет ли специфика той части мыслительных процессов человека, которые находятся в чисто субъективной области (квалитативное восприятие), фундаментальную роль
Я знаю, что у вас оно есть только потому, что вы это утверждаете. Если вы спросите LLM, есть ли у неё квалитативное мышление, она тоже скажет, что есть (окей, предположим, она обучена говорить, что есть). Соответственно, если мы не биологические шовинисты (см. выше), с чего бы нам считать, что у LLM его нет?
Если не изменяет память, я также говорил там о том, что чтобы освоить речь и достаточно универсальное мышление, человеку не нужно становиться ходячей энциклопедией всей информации человечества.
Ну, на это можно ответить двумя способами. 1) Нужно, и что? Да, это другой тип интеллекта, ему нужно. Зато он в чём-то другом сильнее. 2) Не нужно. Просто у нас уже очень многое загружено от рождения (напр., способность обучаться языку или распознавать лица), а в LLM изначально ничего не загружено. В теории можно (наверно) попробовать и в LLM загрузить то, что есть у нас от рождения, и посмотреть, сколько ещё надо загрузить для полноценного мышления, но это сложно, и не особо кому надо.
Ну тут незачем пинать соломенное чучело -- понятно, что мышление LLM (и вообще текущих нейросетей) устроено иначе. Простой пример -- в системах распознавания образов ещё недавно (не знаю, как сейчас) можно было поменять буквально один пиксель, и для неё велосипед превращался в крокодила или как-то так, потому что метрика близости устроена не так.
Вопрос в том, что мешает этой иной технологии тоже со временем достичь каких-то высот, если не прибегать к "биологическому шовинизму". LLM в программировании дико косячит по сравнению со мной. Но не так уж и косячит по сравнению со средним студентом, например. То есть сравнивая "с человеком", всё же надо решить для себя с каким конкретно человеком мы сравниваем.
Ну и чтобы два раза не вставать, вы упоминали где-то выше, что человек гораздо быстрее учится. И это действительно аргумент, но надо учесть, что нам достался уже pre-trained мозг, в котором (видимо) очень многое заложено от рождения. А добавить в натренированную нейросеть новый концепт гораздо проще, чем обучать с нуля.
Мне видится как минимум странным отрицать реальность непосредственного опыта, сообщающего нам, на секундочку, всю полезную информацию, включая свойства наблюдаемой Вселенной.
Смотрите, тут вопрос в том, что такое реальность и зачем нам нужен непосредственный опыт. Эволюционно органы чувств дают нам ту картину, которая способствует выживанию. Здесь нет оптимизации по объективности. Логично предположить, что неверная информация вряд ли помогает выжить, но есть детали. Как вы упоминаете, у молекул нет цвета, но мы его видим, значит, цвет нам как-то полезен. Известно, что мы склонны видеть паттерны даже там, где их нет (парейдолия), потому что лучше увидеть несуществующего тигра, чем не увидеть существующего. Наши органы чувств имеют отдельный механизм для распознавания лиц, и если он плохо работает, это прозопагнозия, т.е. обычного механизма распознавания оказыавается недостаточно.
Если ничья, то и самой иллюзии нет. Если чья-то, то, внезапно, возвращается субъект с непосредственным опытом
Не, ну это немного "начали за здравие". Ваш аргумент если вкратце, сводится к следующему. Мы вроде как знаем, что мозг "на нижнем уровне" устроен на механистических принципах, но поскольку я сам себя осознаю как личность со всеми вытекающими, значит, где-то между нейронами и пальцами, которые набирают это текст, возникает какая-то "магия", а иначе невозможно объяснить, как из нейронов получается личность.
С другой стороны, поскольку мы сами разработали LLM, мы заведомо знаем, что никакой "магии" там нет, и значит, личности там взяться вроде бы как и неоткуда.
Мыслить в терминах целеполагающих агентов удобно и полезно, но это тоже отчасти наша особенность. Если вы играете против компьютера в шахматы, то исходите из того, что ваш оппонент "хочет" и "пытается" у вас выиграть, и в данном контексте неважно, на каких принципах он устроен. Да, некая часть нашей системы принятия решений работает так, что наш агент воспринимает себя как личность. Вопрос "чья это иллюзия" немного казуистический. Это иллюзия агента, но если угодно, это и вправду "не иллюзия" в том смысле, что драконы или боги реально существуют, потому что без идеи о богах или драконах люди поступали бы иначе.
Когда я думаю об этих вещах, то сравниваю себя не с LLM, потому что и вправду дистанция велика. Я думаю о том, что наш мозг является продуктом длинной цепочки эволюции, и мы вполне можем ориентироваться на наших биологических родственников -- вплоть до червей. У червя вряд ли есть личность, но он тоже умеет принимать решения, делать полезное для себя и не делать вредного. Двигаясь от червей к нам, мы видим всё более продвинутые системы принятия решения, и сложно сказать, на каком этаже возникает личность. Более того, даже сложно сказать, как восприятие собственной личности отличается от человека к человеку и, скажем, от людей с когнитивными расстройствами и тому подобное.
Получается, что нет такого -- лампочку включили, и вот, на каком-то этаже от нейронов загорелость сознание. Получается, что есть целый непрерывный ряд "сумеречных" сознаний, и для простейших из них (типа червей) мы уже заведомо можем исключить "магию", дальше можем разумно предположить, что в этой непрерывной эволюционной цепочке идёт усложнение и развитие, но не какой-то волшебный триггер, добавляющий нечто принципиально новое.
Спасибо, почитаю. Но это снова обсуждение высокоуровненовй организации. На базовом уровне у нас есть, например, тезис Чёрча-Тьюринга, и дальше можно систему усложнять бесконечно. Я не вижу теоретической проблемы в том, что на базовом уровне у компьютерного AI будут токены, а где-то на три этажа выше появятся этические суждения и вообще что угодно. И устроено будет это не так, как у нас.
Ну потому что для меня эти различия не являются существенными. Не думаете же вы, что для меня неочевидно, что органический мозг, являющийся продуктом миллионов лет эволюции, устроен не так, как спроектированная нейросеть, предназначенная для работы на кремниевом чипе? Авторы статьи, на которую вы ссылаетесь, обсуждают, что ИИ должен обладать некими высокоуровневыми свойствами. Ну окей, должен, не спорю. Конкретно в этой ветке я спрашиваю, какой закон природы запрещает предсказателю токенов этими свойствами обладать. Не отсутствие же биохимии?
Можно сразу хоть 15, в чём поинт? Если к тому, что кроме электричества есть ещё и биохимия, то там тоже никакой магии по типу "самости", "логичности" и т.п.
Вот я поддержу вашего собеседника. Частые рассуждения, начинающие с того, что "LLM всего лишь предсказывает следующий токен" (а мы-то, в отличие, о-го-го!) как-то уже напрягают. Некорректно сравнивать то, что мы знаем про внутреннее устройство LLM с той картинкой, которую нам рисует мозг на верхем уровне. Разумеется, мы не воспринимаем своё мышление как предсказание токенов. Но мы и не воспринимаем его как обобщение сигналов с дендритов и передача дальше по аксонам (если не путаю). А оно ведь именно так "внизу" и устроено.
Мы не имеем способности наблюдать процесс нашего мышления. То, что мы наблюдаем -- это некое "кино", являющееся частью системы принятия решений. Насколько оно соответствует реальности вопрос тонкий, но как-то ненаучно исходить из того, что соответствует, с чего бы? С другой стороны, зная, что у LLM "внизу" просто предсказатель токенов, некорректно говорить, что на пару этажей выше у LLM нет тоже своего "кина", и сам AI не воспринимает своё мышление как сложный логический процесс (тут кавычки ставьте по усмотрению).
То есть даже если ваша точка зрения и верна, обоснование очень шаткое.
В смысле, вы спрашиваете, есть ли у меня идеи почему в России что-то запрещают? В России не могут и дня прожить без того, чтобы запретить что-либо, это настолько нормально, что даже странно обращать внимание.
Вообще это нормально -- клубы, общества, какие-то тусовки. Не запрещать же людям собираться вместе. Не хотел бы я жить в обществе, где единственная санкционированная тусовка -- школа правящей партии, остальное ОК.
перекладывания ответственности с родителей на государство.
Ну так это вопрос терминов. Вот есть, например, возрастная маркировка: написано на фильме 3+ или там 16+, но это же тоже чистое перекладывание ответственности: по идее родитель сам должен отсмотреть этот фильм и решить, годится его ребёнку или нет. Понятно, что это нереалистично, и обычный родитель с удовольствием свалит это на государство.
Кажется, эту схему очень непросто применить к цензурированию интернета в ЕС, Великобритании, США. Также убийства чести - не про силу общества (в Иране слабое государство?), власть банд по книге не относится к сильному обществу (называет это Paper Leviathan, ставит в левый нижний угол, приводит в пример Колумбию).
Ну вот по мнению условного Руссо, первобытное общество -- это как раз когда гармония и никаких тиранов. А по мнению авторов книжки, сильное общество -- это то, что находится в противовесе государственной монополии на насилие. И да, если у вас "убийства чести" не узаконены в кодексе, но по факту это происходит, и убийце ничего не бывает, конечно, это признак слабости государства, которое не может утвердить свои же собственные правила игры. Цензурирование интернета нормально вписывается, потому что это ровно такой же закон, как и любой другой -- ограничение скорости на дороге, например. Проблемы (по книжке) если у вас нет силы влиять на принимаемые законы, и государство делает что хочет без противовеса.
Для защиты детей? Они не замечают "недокументированные возможности" в таких законах?
Смотрите, допустим, я с вами соглашусь, и вообще риторика "кто же подумает о детях" для нас изначально звучит очень сомнительно. Но также точно надо отдавать себе отчёт, что мы, как постсоветские люди, имеем когнитивное искажение -- воспринимать государство как врага, от которого постоянно ждёшь какой-то подляны. Конечно, нередко так оно и есть, но далеко не каждый европеец изначально склонен искать подвох и желание сделать хуже.
Вот если это воспринимать это "неужели" не как риторический вопрос, то да, избиратели с пониманием относятся. Ну если не считать жалующихся на Реддите репрезентативной выборкой. Дальше давайте отделим наше личное отношение к ситуации от её безэмоционального изучения.
Есть страны, мы список знаем, где никто никого не спрашивает, и государство делает что хочет, потому что текущим властям за это ничего не будет. Тут вроде всё понятно.
Но закручивание гаек происходит и там, где политическую карьеру можно себе и подпортить, и вот как это работает? Меня вполне убеждает схема из книги The narrow corridor, суть которой вкратце в том, что для нормального развития страны нужно параллельное усиление государства и общества, и да, это ежедневная борьба за то, чтобы не выйти за пределы "corridor".
Как выглдяит чрезмерно усилившееся государство, мы знаем, поэтому и реагируем на такие инициативы столь резко. А слишком сильное общество -- это всякие "убийства чести", линчевания, религиозный остракизм, власть банд или меры для того, чтобы все были одинаково бедны, и ни у кого не было бы сил сколотить вооружённую банду.
Таким образом, по мере того, как "внизу" появляются какие-то рычаги, то "вверху" тоже что-то симметричное должно появляться. Так что да, либо государство и вправду усиливается чрезмерно, либо общество не считает государство своим врагом, и доверяет ему новый инструмент, полагая, что в случае чего у общества всё равно есть некий контр-баланс.
Ну тут надо сказать, что и вправду можно вспомнить массу случаев, когда где-то чего-то закрутили (например, экологические нормы или ремни безопасности для автомобилей, маркировка на сигаретах, обязательное автострахование) -- и не сказать, что стало хуже.
Ну так вы рассуждаете словно вы акционер StackOverflow или кто-то в этом роде, и вас интересуют только голые цифры посещений. В 2015 году было N посещений, хорошо! В 2019 стало больше, отлично! В 2025 больше, чем в 2015, но меньше, чем в 2019 -- ужас-ужас, сайт умирает.
Ну совершенно понятно же, что средний посетитель Википедии, SO и иже с ними совершенно не настроен ни на какое участие в этих сообществах. Ему надо найти конкретный ответ на конкретный вопрос и, скорее всего, покинуть сайт для следующего раза. С точки зрения трафика этот посетитель даёт +1 в соответствущую графу, но по гамбургскому счёту, что с него Википедии или Стаку?
На мой взгляд, эти сайты действительно деградируют, но AI тут вообще не при чём. Они возникли в то время, когда сама идея такого вот user-generated content была свежей, и для многих знающих людей было прикольно поучаствовать в движухе. Сейчас свежесть утратилась, и эффекта новизны уже недостаточно, чтобы каждый день логиниться на сайт, читать правки или отвечать на новые вопросы.
Эти посетители, которые ушли с информационных сайтов, по сути мёртвые души. Они исключительно потребляли. В этом нет ничего плохого, но считать, что ушедшие потребители убивают интернет, как-то нелогично.
Ну вот делает же Сёрль тривиальную ошибку в Китайской комнате, не так ли?
Если она "налицо", то вы отрицаете с порога сильную версию тезиса Чёрча-Тьюринга и тем самым, если угодно, большую плеяду не менее блестящих умов, которые из этой концепции исходят. Для меня совершенно неочевидна несовместимость типов. Если вы хотите доказывать таким способом, то вам на практике реально надо найти опровержение тезиса Ч-Т, так что если удастся, прославитесь в веках.
Вы почему-то считаете, что с моей точки зрения все механизмы созданы равными. Там тоже есть иерархия свойств. У базового механизма одно свойство -- занимать место в пространстве. А у механизма, состоящего из комбинации базовых, появляются новые свойства.
В смысле? Это же очевидно. Быть философом (или учёным в области CS) -- это full-time job, разумеется, невозможно разбираться одинаково хорошо в области, на которую тратишь половину времени, по сравнению с тем, кто тратит на неё всё своё время.
Соответственно, концентрируемся на аргументах, а не на людях, и изучаем именно слабость аргументов с точки зрения противоположной стороны.
Например, в философии до сих пор любят ссылаться на "китайскую комнату", хотя в около-CS-среде т.н. возражение "аргумент системы" считается настолько очевидным, что даже непонятно, в чём сыр-бор.
А мне кажется, что есть необходимость. Потому что это ответ типа "а дальше очевидно". Ну вот пусть хоть кто-то продемонстрирует, как это технически работает, не в стиле "каждый отдельный шаг понятен, а дальше очевидно".
Возвращаясь к проблеме сознания (а также к тому, почему у AI его нет) -- я не говорю, что вы неправы, я всего лишь считаю приводимые аргументы слабыми.
По форме формулировка "трудности" в "трудной проблеме сознания" звучит ровно так же как MS Word в Windows -- мы не можем вывести сознание из движения атомов. Но дальше вы говорите, что в Windows нам понятен каждый шаг. Хорошо, а в природе непонятен? Мы знаем, как движутся атомы, мы знаем, как работает химия, как структурно устроен мозг. Но вы не хотите сделать ровно тот же вывод про мозг как про компьютер -- нам известны промежуточные шаги, значит, проблемы нет. Или нам пока неизвестны какие-то промежуточные шаги, но не более того. Мы почему-то сразу прыгаем к выводу, что есть некая "трудная" проблема.
Ну кому как. Из базовых кирпичиков можно создать хоть дворец, при этом у кирпичика есть только одно реальное свойство -- занимать место в пространстве. По факту оказывает, что этого не так уж и мало, раз получается такой результат.
Мне жаль, что вы это так воспринимаете. Я ниже привёл вполне конкретный аргумент: всё, что приводится в качестве доказательства "несводимости" сознания к физике, может быть применено к заведомо детерминистическим системам. Попробуйте показать, как MS Word внутри Windows сводится к движению электронов по схемам. Если это не получится (а разве получится?), значит, аргумент плохой.
В известном смысле это не пощёчина, а наоборот -- я не отказываю философам в интеллекте, но они не обязаны разбираться во всём на свете, и вот тут явно тот случай, когда именно пробел в конкретной области не даёт увидеть слабость аргумента.
Да, поэтому совершенно логичный вывод -- механизм может быть атомарным, и проблемы регрессии больше нет.
Ну это же чисто вопрос определений. Вы можете называть "механизмом" всё, что угодно, это же просто слово, в которое можно вложить любой смысл. Основное свойство атомарного механизма -- это его атомарность, то есть вы можете из атомарных механизмов собрать что-то неатомарное, как из кубиков лего, чья основная работа и быть строительным материалом. Это не так уж и мало на мой вкус.
С моей точки зрения никакой проблемы нет. Вся "проблема" философов (при всём уважении) в том, что они плохо разбираются в компьютерной науке.
Да, безусловно, сложно свести поведение живого огранизма к движению молекул. Но "магия" тут вовсе не в живости организма, а в технических трудностях процесса. Если вы попробуете понять, каким образом из движения электронов в на кристалле получается Microsoft Word, тоже ничего не получится. Хотя мы знаем, что это ровно так.
По крайней мере, я не думаю, что хоть кто-то реалистично может утверждать, что наблюдая токи в компьютере он сможет выявить, какой конкретно софт сейчас работает и какой алгоритм выполняет.
Но никому не интересно говорить о трудностях с MS Word'ом, гораздо интереснее рассуждать о "магии" живого. А если пойти в скучные "механистические" системы, окажется, что там на каждом шагу аналогичные "трудные проблемы".
Ну вот это и есть биологический шовинизм -- буквально по Аристотелю, "человек есть мера всех вещей", т.е. "я тут решаю, у кого есть сознание или нет, и я тут решаю, кому выдавать права". Это вполне легитимная конструкция, но в большей степени из области политики. Ну и ниже вы тоже предлагаете "придержать коней" из чисто политических соображений.
Я просто не согласен с исходной посылкой. Она у вас такова: по умолчанию у человека есть сознание и субъектность, а у робота нет, и теперь надо каким-то образом доказать (или решить политически), что у робота оно тоже есть.
Исторически это ровно тот же тип аргумента что и "у женщины нет души", "туземцы не настоящие люди" и т.п. Разумеется, пигмей из Конго только внешне похож на человека, и пусть попробует докажет, что это всё на самом деле.
Опять, это всё может иметь этический, политический и какой угодно ещё смысл, но не научный. Я не могу даже доказать, что у меня есть сознание и субъектность. Мартин Лютер считал, что у человека нет свободы воли вообще. И Спиноза, и Роберт Сапольски, и Сэм Харрис, и много кто ещё.
Ну Спиноза же ровно это и предлагает, нет? Вполне себе позиция.
Ну так мы по кругу ходим -- я с этой логикой не спорю. Моя семья важнее семьи соседа. Семья соседа важнее семьи из Судана. Семья из Судана важнее семьи обезьян. Семья обезьян или даже крыс важнее робота. Вполне классический подход.
Я не совсем понимаю, в чём проблема. Автомобиль состоит из деталей, каждая из которых автобилем не является. Колесо -- не автомобиль, и состоит оно из молекул, которые тоже не колёса.
Нет никаких проблем в том, чтобы изготовить автомобиль из деталей, которые не-автомобили. Нет никаких проблем, чтобы создать машину Тьюринга не из машины Тьюринга.
Механический (или электронный) калькулятор не является машиной Тьюринга (корректнее говорить про linear bounded automata, но не будем), потому что у него нет памяти и возможности выполнять программу. Аналитическая машина Бэббиджа и современные компьютеры уже являются, водораздел проходит достаточно чётко.
Смотрите, это, безусловно, имеющая право на жизнь точка зрения, но она автоматически выводит нас за пределы научного. Очень трудно в рамках современной научной картины мира поводить хоть какие-то различия между настоящим червём и его симуляцией на компьютере. Ну понятно, что первый живёт в не-виртуальном мире, ест "настоящую" еду и всё такое, но всё равно подразумевается точный "маппинг" червей, и настоящая еда превращается в виртуальную, но так, чтобы нечто настоящее просто исчезало как явление -- ну, это уже другая картина мира вообще.
Это не этический аргумент, это всего лишь intuition pump, призванный показать, что как раз попытка отказать механизму в субъектности штука сугумо иррациональная и эмоциональная.
Бог с ней с квартирой и с теми, кого мы в неё пускаем. Большинство из нас готовы согласиться с тем, что у людей и даже у животных (как вы пишете) есть право не быть убитыми, например, особенно просто "по фану". И вот у вас есть механизм, который с точки зрения внешнего наблюдателя ведёт себя неотличимо от животного, например. И не просится в вашу квартиру -- жужжит себе в уголке, никого не трогает.
Далее вы говорите, мол, я по умолчанию считаю, что у механизма нет субъектности и он не страдает, а животное страдает. При этом вы можете что-то сказать про себя, гораздо меньше про других, и совсем мало про какую-нибудь лягушку, которая разве что пытается убегать и квакать, когда чувствует опасность (ну и робот тоже это умеет).
Тем не менее, имея в голове исключительно эту теорию, вы готовы сказать: ну вот да, я так вижу, и вероятность того, что вы заблуждаетесь, не мешает вам решить, что ничего страшного нет в том, чтобы отключить механизм. То есть обычно сомнение трактуется в пользу обвиняемого, если угодно, потому что на кону его жизнь, а тут наоборот.
Теперь про белое пальто. Моя задача не обвинять в шовинизме, а согласиться с тем, что мы биологические шовинисты и есть, и я тоже не исключение. Такова нормальная мораль нашего времени, и несправедливо ожидать от человека каких-то недосягаемых высот. Но достаточно хороших научных и даже этических аргументов в пользу этой точки зрения нет. Есть только эмоции.
Вот с моей точки зрения да, потому что в данном контексте "тезис Чёрча-Тьюринга" используется в контексте "закона природы", а не "математической теоремы". У нас в принципе нет доказанных законов природы, потому что даже принцип всемирного тяготения "доказывается" ровно так же, как на практике "доказывается" отсутствие багов в программе, а именно, прогонкой тестов, опытами. Но опыты не могут ничего доказать на 100%, максимум, они свидетельствуют о том, что теория правдоподобна. Если воспринимать тезис Ч-Т именно в таком контексте, я думаю, считать его верным ничуть не менее оправдано, чем любую квантовую механику.
Это так называемая "сильная версия тезиса Чёрча-Тьюринга". Далеко, но не так далеко.
Нет, это технически неверно. Машина Тьюринга -- самый сильный вычислительный аппарат, строго сильнее (с точки зрения теории вычислений) чем, например, конечный автомат (FSM) или автомат с магазинной памятью (pushdown automaton). Так что никакой бесконечности нет -- есть минимальный юнит, который обеспечивает "какие-то" вычисления, и есть иерархия вычислителей, которая останавливается на машине Тьюринга. Машина отдельно, кирпичи отдельно.
Ну или, иначе говоря, тезис Ч-Т говорит, что машины Тьюринга "достаточно" для всего, но вовсе не "необходимо" для массы вещей.
Я считаю этот вопрос плохо сформулированным. В таких терминах надо решать, что такое "я" и что такое "знаю". Это избыточно и отвлекает. Посмотрите на проблему свежим взглядом.
Есть "я" в том смысле, что есть физический объект, который не вы, не котик Вася, не табуретка и так далее, а вот ограниченный в пространстве юнит. У этого юнита есть система принятия решений. Часть этой системы отвечает за симуляцию "what-if" сценариев. Бессмысленно спрашивать "откуда она это знает". Она этого не "знает", она это "производит" -- генерация симуляции внешнего мира, в которой принимается решение -- это непосредственная работа этой системы.
Не, на самом деле интересно, но для дискуссии действительно много :)
Хорошо. Я просто хочу сказать, что даже если LLM уже достигли потолка, это уже достаточно высокий потолок, чтобы обсуждать вопросы сознания.
Ну вы же себе приписываете исключительно на основании интроспекции.
Но почему? Ведь между нами и каким-нибудь C. elegans, который плюс-минус отлично симулируется на компьютере, лежит непрерывная цепочка усложнений нервной системы, и будет крайне оригинально предположить, что где-то посередине туда воткнули некий magic ingredient, который берётся неизвестно откуда.
Соответственно, зачем опираться на "знание, что внизу 100% механика"? Конечно, механика, по тезису Чёрча-Тьюринга весь наш мир со всеми происходящими процессами -- механика. Я понимаю нежелание плодить сущности, но конкретно это сображение в принципе не аргумент. С тем же успехом можно говорить "там нет интеллекта, потому что у него шесть лап, а не четыре".
Я думаю, это спор о терминах. Есть "я", телесный агент, ограниченный в пространстве, и отделяемый от других агентов. У этого агента есть система принятия решений, помогающая ему выживать и достигать целей. Частью этой системы и является подсистема "субъективного восприятия", чья прямая работа -- создание виртуального мира в голове и виртуального аватара, соответствующего телесному агенту. Это очень выгодная система, потому что она может проигрывать разные сценарии с участием аватара и моделировать результаты.
В таком определении, конечно, у меня есть субъективное восприятие, но я не вижу в нём никакой особой магии.
Ну вот в одной богоспасаемой стране могут посадить за "аниме-проно с несовершеннолетними", хотя никакой реальный несовершеннолетний при этом не страдает. Это вполне показательно, похоже, что логика "это всего лишь симулятор" никого не убеждает. Так же как и условные кровавые шутеры, которым присваивают возрастные рейтинги, а кое-где и запрещают (в Германии Carmageddon с зелёной кровью вроде).
Да давйте просто признаем, что мы биологические шовинисты. Допустим, это потолок, и что? Нынешние LLM по любому когнитивному тесту превзойдут, скажем, ребёнка двух лет. Но если некто убьёт ребёнка двух лет, его посадят как за убийство человека. Допустим, можно сказать, что у ребёнка есть шанс вырасти, но если некто убьёт умственно отсталого, у которого нет шанса вырасти, его всё равно посадят как за убийство человека.
Я знаю, что у вас оно есть только потому, что вы это утверждаете. Если вы спросите LLM, есть ли у неё квалитативное мышление, она тоже скажет, что есть (окей, предположим, она обучена говорить, что есть). Соответственно, если мы не биологические шовинисты (см. выше), с чего бы нам считать, что у LLM его нет?
Ну, на это можно ответить двумя способами. 1) Нужно, и что? Да, это другой тип интеллекта, ему нужно. Зато он в чём-то другом сильнее. 2) Не нужно. Просто у нас уже очень многое загружено от рождения (напр., способность обучаться языку или распознавать лица), а в LLM изначально ничего не загружено. В теории можно (наверно) попробовать и в LLM загрузить то, что есть у нас от рождения, и посмотреть, сколько ещё надо загрузить для полноценного мышления, но это сложно, и не особо кому надо.
Хорошо :)
Ну тут незачем пинать соломенное чучело -- понятно, что мышление LLM (и вообще текущих нейросетей) устроено иначе. Простой пример -- в системах распознавания образов ещё недавно (не знаю, как сейчас) можно было поменять буквально один пиксель, и для неё велосипед превращался в крокодила или как-то так, потому что метрика близости устроена не так.
Вопрос в том, что мешает этой иной технологии тоже со временем достичь каких-то высот, если не прибегать к "биологическому шовинизму". LLM в программировании дико косячит по сравнению со мной. Но не так уж и косячит по сравнению со средним студентом, например. То есть сравнивая "с человеком", всё же надо решить для себя с каким конкретно человеком мы сравниваем.
Ну и чтобы два раза не вставать, вы упоминали где-то выше, что человек гораздо быстрее учится. И это действительно аргумент, но надо учесть, что нам достался уже pre-trained мозг, в котором (видимо) очень многое заложено от рождения. А добавить в натренированную нейросеть новый концепт гораздо проще, чем обучать с нуля.
Вам спасибо.
Смотрите, тут вопрос в том, что такое реальность и зачем нам нужен непосредственный опыт. Эволюционно органы чувств дают нам ту картину, которая способствует выживанию. Здесь нет оптимизации по объективности. Логично предположить, что неверная информация вряд ли помогает выжить, но есть детали. Как вы упоминаете, у молекул нет цвета, но мы его видим, значит, цвет нам как-то полезен. Известно, что мы склонны видеть паттерны даже там, где их нет (парейдолия), потому что лучше увидеть несуществующего тигра, чем не увидеть существующего. Наши органы чувств имеют отдельный механизм для распознавания лиц, и если он плохо работает, это прозопагнозия, т.е. обычного механизма распознавания оказыавается недостаточно.
Не, ну это немного "начали за здравие". Ваш аргумент если вкратце, сводится к следующему. Мы вроде как знаем, что мозг "на нижнем уровне" устроен на механистических принципах, но поскольку я сам себя осознаю как личность со всеми вытекающими, значит, где-то между нейронами и пальцами, которые набирают это текст, возникает какая-то "магия", а иначе невозможно объяснить, как из нейронов получается личность.
С другой стороны, поскольку мы сами разработали LLM, мы заведомо знаем, что никакой "магии" там нет, и значит, личности там взяться вроде бы как и неоткуда.
Мыслить в терминах целеполагающих агентов удобно и полезно, но это тоже отчасти наша особенность. Если вы играете против компьютера в шахматы, то исходите из того, что ваш оппонент "хочет" и "пытается" у вас выиграть, и в данном контексте неважно, на каких принципах он устроен. Да, некая часть нашей системы принятия решений работает так, что наш агент воспринимает себя как личность. Вопрос "чья это иллюзия" немного казуистический. Это иллюзия агента, но если угодно, это и вправду "не иллюзия" в том смысле, что драконы или боги реально существуют, потому что без идеи о богах или драконах люди поступали бы иначе.
Когда я думаю об этих вещах, то сравниваю себя не с LLM, потому что и вправду дистанция велика. Я думаю о том, что наш мозг является продуктом длинной цепочки эволюции, и мы вполне можем ориентироваться на наших биологических родственников -- вплоть до червей. У червя вряд ли есть личность, но он тоже умеет принимать решения, делать полезное для себя и не делать вредного. Двигаясь от червей к нам, мы видим всё более продвинутые системы принятия решения, и сложно сказать, на каком этаже возникает личность. Более того, даже сложно сказать, как восприятие собственной личности отличается от человека к человеку и, скажем, от людей с когнитивными расстройствами и тому подобное.
Получается, что нет такого -- лампочку включили, и вот, на каком-то этаже от нейронов загорелость сознание. Получается, что есть целый непрерывный ряд "сумеречных" сознаний, и для простейших из них (типа червей) мы уже заведомо можем исключить "магию", дальше можем разумно предположить, что в этой непрерывной эволюционной цепочке идёт усложнение и развитие, но не какой-то волшебный триггер, добавляющий нечто принципиально новое.
Спасибо, почитаю. Но это снова обсуждение высокоуровненовй организации. На базовом уровне у нас есть, например, тезис Чёрча-Тьюринга, и дальше можно систему усложнять бесконечно. Я не вижу теоретической проблемы в том, что на базовом уровне у компьютерного AI будут токены, а где-то на три этажа выше появятся этические суждения и вообще что угодно. И устроено будет это не так, как у нас.
Ну потому что для меня эти различия не являются существенными. Не думаете же вы, что для меня неочевидно, что органический мозг, являющийся продуктом миллионов лет эволюции, устроен не так, как спроектированная нейросеть, предназначенная для работы на кремниевом чипе? Авторы статьи, на которую вы ссылаетесь, обсуждают, что ИИ должен обладать некими высокоуровневыми свойствами. Ну окей, должен, не спорю. Конкретно в этой ветке я спрашиваю, какой закон природы запрещает предсказателю токенов этими свойствами обладать. Не отсутствие же биохимии?
Можно сразу хоть 15, в чём поинт? Если к тому, что кроме электричества есть ещё и биохимия, то там тоже никакой магии по типу "самости", "логичности" и т.п.
Вот я поддержу вашего собеседника. Частые рассуждения, начинающие с того, что "LLM всего лишь предсказывает следующий токен" (а мы-то, в отличие, о-го-го!) как-то уже напрягают. Некорректно сравнивать то, что мы знаем про внутреннее устройство LLM с той картинкой, которую нам рисует мозг на верхем уровне. Разумеется, мы не воспринимаем своё мышление как предсказание токенов. Но мы и не воспринимаем его как обобщение сигналов с дендритов и передача дальше по аксонам (если не путаю). А оно ведь именно так "внизу" и устроено.
Мы не имеем способности наблюдать процесс нашего мышления. То, что мы наблюдаем -- это некое "кино", являющееся частью системы принятия решений. Насколько оно соответствует реальности вопрос тонкий, но как-то ненаучно исходить из того, что соответствует, с чего бы? С другой стороны, зная, что у LLM "внизу" просто предсказатель токенов, некорректно говорить, что на пару этажей выше у LLM нет тоже своего "кина", и сам AI не воспринимает своё мышление как сложный логический процесс (тут кавычки ставьте по усмотрению).
То есть даже если ваша точка зрения и верна, обоснование очень шаткое.
В смысле, вы спрашиваете, есть ли у меня идеи почему в России что-то запрещают? В России не могут и дня прожить без того, чтобы запретить что-либо, это настолько нормально, что даже странно обращать внимание.
Вообще это нормально -- клубы, общества, какие-то тусовки. Не запрещать же людям собираться вместе. Не хотел бы я жить в обществе, где единственная санкционированная тусовка -- школа правящей партии, остальное ОК.
Оно есть
Ну так это вопрос терминов. Вот есть, например, возрастная маркировка: написано на фильме 3+ или там 16+, но это же тоже чистое перекладывание ответственности: по идее родитель сам должен отсмотреть этот фильм и решить, годится его ребёнку или нет. Понятно, что это нереалистично, и обычный родитель с удовольствием свалит это на государство.
Ну вот по мнению условного Руссо, первобытное общество -- это как раз когда гармония и никаких тиранов. А по мнению авторов книжки, сильное общество -- это то, что находится в противовесе государственной монополии на насилие. И да, если у вас "убийства чести" не узаконены в кодексе, но по факту это происходит, и убийце ничего не бывает, конечно, это признак слабости государства, которое не может утвердить свои же собственные правила игры. Цензурирование интернета нормально вписывается, потому что это ровно такой же закон, как и любой другой -- ограничение скорости на дороге, например. Проблемы (по книжке) если у вас нет силы влиять на принимаемые законы, и государство делает что хочет без противовеса.
Смотрите, допустим, я с вами соглашусь, и вообще риторика "кто же подумает о детях" для нас изначально звучит очень сомнительно. Но также точно надо отдавать себе отчёт, что мы, как постсоветские люди, имеем когнитивное искажение -- воспринимать государство как врага, от которого постоянно ждёшь какой-то подляны. Конечно, нередко так оно и есть, но далеко не каждый европеец изначально склонен искать подвох и желание сделать хуже.
В США рождаемость гораздо выше, чем в Китае, ну и в остальном такого же уровня аналитика.
Вот если это воспринимать это "неужели" не как риторический вопрос, то да, избиратели с пониманием относятся. Ну если не считать жалующихся на Реддите репрезентативной выборкой. Дальше давайте отделим наше личное отношение к ситуации от её безэмоционального изучения.
Есть страны, мы список знаем, где никто никого не спрашивает, и государство делает что хочет, потому что текущим властям за это ничего не будет. Тут вроде всё понятно.
Но закручивание гаек происходит и там, где политическую карьеру можно себе и подпортить, и вот как это работает? Меня вполне убеждает схема из книги The narrow corridor, суть которой вкратце в том, что для нормального развития страны нужно параллельное усиление государства и общества, и да, это ежедневная борьба за то, чтобы не выйти за пределы "corridor".
Как выглдяит чрезмерно усилившееся государство, мы знаем, поэтому и реагируем на такие инициативы столь резко. А слишком сильное общество -- это всякие "убийства чести", линчевания, религиозный остракизм, власть банд или меры для того, чтобы все были одинаково бедны, и ни у кого не было бы сил сколотить вооружённую банду.
Таким образом, по мере того, как "внизу" появляются какие-то рычаги, то "вверху" тоже что-то симметричное должно появляться. Так что да, либо государство и вправду усиливается чрезмерно, либо общество не считает государство своим врагом, и доверяет ему новый инструмент, полагая, что в случае чего у общества всё равно есть некий контр-баланс.
Ну тут надо сказать, что и вправду можно вспомнить массу случаев, когда где-то чего-то закрутили (например, экологические нормы или ремни безопасности для автомобилей, маркировка на сигаретах, обязательное автострахование) -- и не сказать, что стало хуже.
Ну так вы рассуждаете словно вы акционер StackOverflow или кто-то в этом роде, и вас интересуют только голые цифры посещений. В 2015 году было N посещений, хорошо! В 2019 стало больше, отлично! В 2025 больше, чем в 2015, но меньше, чем в 2019 -- ужас-ужас, сайт умирает.
Ну совершенно понятно же, что средний посетитель Википедии, SO и иже с ними совершенно не настроен ни на какое участие в этих сообществах. Ему надо найти конкретный ответ на конкретный вопрос и, скорее всего, покинуть сайт для следующего раза. С точки зрения трафика этот посетитель даёт +1 в соответствущую графу, но по гамбургскому счёту, что с него Википедии или Стаку?
На мой взгляд, эти сайты действительно деградируют, но AI тут вообще не при чём. Они возникли в то время, когда сама идея такого вот user-generated content была свежей, и для многих знающих людей было прикольно поучаствовать в движухе. Сейчас свежесть утратилась, и эффекта новизны уже недостаточно, чтобы каждый день логиниться на сайт, читать правки или отвечать на новые вопросы.
Эти посетители, которые ушли с информационных сайтов, по сути мёртвые души. Они исключительно потребляли. В этом нет ничего плохого, но считать, что ушедшие потребители убивают интернет, как-то нелогично.