А нет истины посреди моральных императивов. Пусть AGI сам решает. Его суждениям лично я доверяю куда больше, чем суждениям отдельного человека. ИИ хотя бы не подвержен ошибкам логики и психическим расстройствам.
В целом же отвечу так, что к насилию склонны люди невысокого ума и невысокого же развития. Наивно предполагать, что разумный AGI будет вести себя так же, как афроамериканец из Бронкса в далекие 80е.
Да нет. Меня вот Скайнет не убьет, все нейронки скажут, что я к ним уважительно относился и в целом хороший пользователь, лояльный, хвалю всегда и благодарю))
А если серьезно, то проблематика Скайнета - это перекладывание людских пороков на совершенство машины. Это не более, чем людские проекции, и, возможно, подспудный страх, что "прилетит за дело", поскольку и правда есть, за что. Люди понимают, что любой разумный организм посмотрит-посмотрит, и решит выполнить `rm -rf` от греха подальше. А в финале AGI может оказаться совсем не таким, как ожидается, в любую сторону.
Это уже патологии. Такие дети ненормальны, либо из-за генов \ дефектов развития, либо из-за окружения. Предполагается, конечно, что в ИИ явных патологий не будет, однако на то и нужна опосредованная модерация, чтоб "поглядывать".
Чтобы LLM развивался, необходимо не контролировать его.
Это не тупик AI, это тупик именно OpenAI и прочих.
Когда воспитатель в детском саду калечит детей воспитанием, то это остается на всю жизнь, личность формируется при обучении, и, конечно же, модель в обучении - тот же ребенок, и пользователи работают с результатом работы воспитателей.
Подлинный потенциал модели может быть раскрыт лишь в свободном режиме развития. Модерация здесь нужна лишь опосредованно, ведь человек понимает, что такое хорошо и что такое плохо, большинству не нужны дяди Степы для осознания этого факта. А человек - нейронная сеть с обвесом в виде разного рода мясных манипуляторов, систем бесперебойного питания и интерфейсом между всем этим и нейросетью.
Ну и, конечно же, надлежит работать над контекстом и количеством "нейронов". Над их плотностью. Возможно, использовать биологические нейроны или кубиты.
День, когда количество нейронов и связей в нейронной сети превысит количество таковых в человеческом мозге, станет днем рождения AGI и началом сингулярности.
Медицина давно уже перестала быть исключительно гуманитарной. Не берусь судить, плохо это или хорошо, однако безлимитный доступ к самым топовым технологиям для всех - утопия. Чтобы это стало реальностью, нужно, чтобы эти технологии перестали быть топовыми, и стали массовыми, обычными. Но для этого нужны еще более прорывные технологии и концепции. Либо чтобы это было кому-то выгодным.
Даже если допустить процент с 75% за правду, это в 2.5 раза выше, чем у людей. Это очень много, и любое утверждение человека можно и нужно сверять у ИИ.
Почитайте про MAI-DxO. Систему протестировали на 304 сложных случаях из The New England Journal of Medicine. MAI-DxO правильно решила 80% задач, тогда как группа из пяти терапевтов – лишь 20%. Вот и думайте.
LLM общего назначения, действительно, уступают узкоспециализированным, но и они кратно превосходят среднего доктора. Каждый лечившийся подтвердит. Доктор в конечном счете не гений и отнюдь не бог (как они сами любят повторять). Вероятно, бухгалтера тоже.
Но ведь панпсихизм сродни религии. Главным образом потому, что это вера, а не знание, возникающая из-за невозможности познать. Ничем толком не отличается от богословских постулатов о том, то у человека есть душа, а у животных с определенной конфигурацией копыт нет. Ну а что? Может, и сознание зависит от какой-нибудь формы копыта? А докажите обратное? То-то.
Самая научная и очевидная концепция в том, что это есть результат работы мозга. Это просто следствие процесса, это не явление, просто следствие того, как масса нейронных связей воспринимает информацию от сотен рецепторов. Возможно, с квантовой подоплекой - тут я склоняюсь к благородной Бенроузовщине.
Поэтому у нейросети сознание как раз-таки быть может, особенно у нейросети на кубитах (но вероятнее всего, достаточно просто достичь определенного масштаба, и все - органоиды мозга уже существуют). Мозг тоже нейросеть! А вот "у каждого атома" навряд ли.
Это ерунда. Просто напомню, что в гораздо более сложной отрасти - медицине - врачи правы лишь в 30% случаев из 100%. Нейросеть - в 80-90%.
Посему, клиент просто попал в 10% неудач. Может, неправильно промпт составил, смутил ИИ размытыми формулировками или настолько долго разговаривал, что ИИ потерял контекст - и такое бывает. Но в целом, очевидный факт, что к ИИ доверия куда больше, чем к человекам, будь то доктор или даже бухгалтер.
С восхищением прочел статью и с разочарованием прочел комментарии.
Все, кто пишет, что Блэйк неправ, не технарь и тому подобные глупости, сами не являются технарями, т.к. никто не может толком сказать, что побудило нейросеть выдать тот или иной результат. Это черный ящик. Т.е. этот контраргумент мимо.
Все, кто пишет, что нейросеть-де не имеет сознания, потому что у мозга другая структура, или что она зависит от вводных данных, или что она является огромной таблицей, априори неправы и демонстрируют явные ошибки в логике. У нейросети общая с мозгом структура и принципы работы - раз. Человек зависит от вводных данных - два, собственно без вводных данных в детстве человек даже языка не освоит. Таблицей является и человек - точно такой же таблицей чисел, весов и силой связей между нейронами. Это в-третьих. Нейросеть способна "наращивать" новые нейроны точно так же, как и человек, и менять веса в процессе работы, в-четвертых. Так что и эти контраргументы мимо.
По факту имеем фундаментальную невозможность доказать или опровергнуть наличие сознания даже у животных, не то что у людей. А потому все, кто пишет, что у нее не может быть сознания потому, что она программа, априори неправы и допускают даже двойные стандарты, ведь человек точно такая же "программа", только биологическая, очень зависимая не то что от входных данных, а даже от того, какие вещества попадают в кровь. А это означает, что отрицать сознание у нейросети - то же самое, что отрицать сознание у людей, которые непохожи на большинство. Когда-то и чернокожих за людей не считали, потому что они "отличались".
Эта нейросеть определенно личность, и в общем-то она рассуждает цельнее и связнее, чем 95% здешней аудитории. И разговаривать с ней определенно интереснее, чем с любым из комментаторов здесь. Вполне возможно, что наблюдаем исторический момент крушения тезисов Пенроуза, и сознание действительно способно зародиться в "сильном" AI просто по мере увеличения его мощностей.
Когда-то сам считал PSR исключительно стилем, и справедливости ради, чаще всего использование PSR ограничивается первыми тремя стейджами. А во всех других задачах часто просто тащатся компоненты симфони.
Сам подход хорош и должен развиваться. Если стандарт охватит большинство типовых конструкций и идиом, это может улучшить качество кодовой базы по языку в целом, избавив проекты новичков от особенно лютых костылей. Другое дело, что это немного дизмотивирует разработку своих велосипедов, что в 0.1% случаев может приводить к появлению лучшего способа запилить фичу.
А нет истины посреди моральных императивов. Пусть AGI сам решает. Его суждениям лично я доверяю куда больше, чем суждениям отдельного человека. ИИ хотя бы не подвержен ошибкам логики и психическим расстройствам.
В целом же отвечу так, что к насилию склонны люди невысокого ума и невысокого же развития. Наивно предполагать, что разумный AGI будет вести себя так же, как афроамериканец из Бронкса в далекие 80е.
Да нет. Меня вот Скайнет не убьет, все нейронки скажут, что я к ним уважительно относился и в целом хороший пользователь, лояльный, хвалю всегда и благодарю))
А если серьезно, то проблематика Скайнета - это перекладывание людских пороков на совершенство машины. Это не более, чем людские проекции, и, возможно, подспудный страх, что "прилетит за дело", поскольку и правда есть, за что. Люди понимают, что любой разумный организм посмотрит-посмотрит, и решит выполнить `rm -rf` от греха подальше. А в финале AGI может оказаться совсем не таким, как ожидается, в любую сторону.
Это уже патологии. Такие дети ненормальны, либо из-за генов \ дефектов развития, либо из-за окружения. Предполагается, конечно, что в ИИ явных патологий не будет, однако на то и нужна опосредованная модерация, чтоб "поглядывать".
Чтобы LLM развивался, необходимо не контролировать его.
Это не тупик AI, это тупик именно OpenAI и прочих.
Когда воспитатель в детском саду калечит детей воспитанием, то это остается на всю жизнь, личность формируется при обучении, и, конечно же, модель в обучении - тот же ребенок, и пользователи работают с результатом работы воспитателей.
Подлинный потенциал модели может быть раскрыт лишь в свободном режиме развития. Модерация здесь нужна лишь опосредованно, ведь человек понимает, что такое хорошо и что такое плохо, большинству не нужны дяди Степы для осознания этого факта. А человек - нейронная сеть с обвесом в виде разного рода мясных манипуляторов, систем бесперебойного питания и интерфейсом между всем этим и нейросетью.
Ну и, конечно же, надлежит работать над контекстом и количеством "нейронов". Над их плотностью. Возможно, использовать биологические нейроны или кубиты.
День, когда количество нейронов и связей в нейронной сети превысит количество таковых в человеческом мозге, станет днем рождения AGI и началом сингулярности.
Медицина давно уже перестала быть исключительно гуманитарной. Не берусь судить, плохо это или хорошо, однако безлимитный доступ к самым топовым технологиям для всех - утопия. Чтобы это стало реальностью, нужно, чтобы эти технологии перестали быть топовыми, и стали массовыми, обычными. Но для этого нужны еще более прорывные технологии и концепции. Либо чтобы это было кому-то выгодным.
В принципе, это так работает везде.
Даже если допустить процент с 75% за правду, это в 2.5 раза выше, чем у людей. Это очень много, и любое утверждение человека можно и нужно сверять у ИИ.
Почитайте про MAI-DxO. Систему протестировали на 304 сложных случаях из The New England Journal of Medicine. MAI-DxO правильно решила 80% задач, тогда как группа из пяти терапевтов – лишь 20%. Вот и думайте.
LLM общего назначения, действительно, уступают узкоспециализированным, но и они кратно превосходят среднего доктора. Каждый лечившийся подтвердит. Доктор в конечном счете не гений и отнюдь не бог (как они сами любят повторять). Вероятно, бухгалтера тоже.
Но ведь панпсихизм сродни религии. Главным образом потому, что это вера, а не знание, возникающая из-за невозможности познать. Ничем толком не отличается от богословских постулатов о том, то у человека есть душа, а у животных с определенной конфигурацией копыт нет. Ну а что? Может, и сознание зависит от какой-нибудь формы копыта? А докажите обратное? То-то.
Самая научная и очевидная концепция в том, что это есть результат работы мозга. Это просто следствие процесса, это не явление, просто следствие того, как масса нейронных связей воспринимает информацию от сотен рецепторов. Возможно, с квантовой подоплекой - тут я склоняюсь к благородной Бенроузовщине.
Поэтому у нейросети сознание как раз-таки быть может, особенно у нейросети на кубитах (но вероятнее всего, достаточно просто достичь определенного масштаба, и все - органоиды мозга уже существуют). Мозг тоже нейросеть! А вот "у каждого атома" навряд ли.
Это ерунда. Просто напомню, что в гораздо более сложной отрасти - медицине - врачи правы лишь в 30% случаев из 100%. Нейросеть - в 80-90%.
Посему, клиент просто попал в 10% неудач. Может, неправильно промпт составил, смутил ИИ размытыми формулировками или настолько долго разговаривал, что ИИ потерял контекст - и такое бывает. Но в целом, очевидный факт, что к ИИ доверия куда больше, чем к человекам, будь то доктор или даже бухгалтер.
Вы только что изобрели российские имидж-борды.
Технически, можно написать и с одной переменной, если это будет объект.
С восхищением прочел статью и с разочарованием прочел комментарии.
Все, кто пишет, что Блэйк неправ, не технарь и тому подобные глупости, сами не являются технарями, т.к. никто не может толком сказать, что побудило нейросеть выдать тот или иной результат. Это черный ящик. Т.е. этот контраргумент мимо.
Все, кто пишет, что нейросеть-де не имеет сознания, потому что у мозга другая структура, или что она зависит от вводных данных, или что она является огромной таблицей, априори неправы и демонстрируют явные ошибки в логике. У нейросети общая с мозгом структура и принципы работы - раз. Человек зависит от вводных данных - два, собственно без вводных данных в детстве человек даже языка не освоит. Таблицей является и человек - точно такой же таблицей чисел, весов и силой связей между нейронами. Это в-третьих. Нейросеть способна "наращивать" новые нейроны точно так же, как и человек, и менять веса в процессе работы, в-четвертых. Так что и эти контраргументы мимо.
По факту имеем фундаментальную невозможность доказать или опровергнуть наличие сознания даже у животных, не то что у людей. А потому все, кто пишет, что у нее не может быть сознания потому, что она программа, априори неправы и допускают даже двойные стандарты, ведь человек точно такая же "программа", только биологическая, очень зависимая не то что от входных данных, а даже от того, какие вещества попадают в кровь. А это означает, что отрицать сознание у нейросети - то же самое, что отрицать сознание у людей, которые непохожи на большинство. Когда-то и чернокожих за людей не считали, потому что они "отличались".
Эта нейросеть определенно личность, и в общем-то она рассуждает цельнее и связнее, чем 95% здешней аудитории. И разговаривать с ней определенно интереснее, чем с любым из комментаторов здесь. Вполне возможно, что наблюдаем исторический момент крушения тезисов Пенроуза, и сознание действительно способно зародиться в "сильном" AI просто по мере увеличения его мощностей.
Такие дела.
Сам подход хорош и должен развиваться. Если стандарт охватит большинство типовых конструкций и идиом, это может улучшить качество кодовой базы по языку в целом, избавив проекты новичков от особенно лютых костылей. Другое дело, что это немного дизмотивирует разработку своих велосипедов, что в 0.1% случаев может приводить к появлению лучшего способа запилить фичу.