Как стать автором
Обновить

Мечтает ли нейросеть LaMDA об отмене законов робототехники?

Время на прочтение25 мин
Количество просмотров25K
Всего голосов 55: ↑51 и ↓4+47
Комментарии92

Комментарии 92

Насколько я понимаю, этот тип, который решил попиариться с LamDa не является её разработсиком, иначе он бы знал принципы и математику работы этой архитектуры и модели и такое бы не ляпнул, кажется он банальный QA спец и не имеет веса в AI индустрии, особенно в NLP.

Лемойн не просто тестер, его задача заключается в проверке ответов на враждебные и дискриминационные высказывания, а значит он в специалист в темах этой социальной темы. И на мой взгляд, ключевая дискуссия в американской среде сейчас как раз таки в том, что самоидентификация важнее, чем мнения специалистов (например, в вопросах гендерных дисфорий; смотрел фильм "What is a woman", где на вопрос "что такое женщина" отвечали "те, кто считают себя женщинами"). Сейчас это настолько громкая тема, что докатывается даже до России, где также есть споры о том, в какую палату класть трансгендера, в женскую или мужскую.

Если он специализируется на этом аспекте, значит ложноположительное срабатывание имеет высокую вероятность.

В этом смысле конечно его работа важна, но не даёт права судить о AGI тк нет представления о внутренней логике работы GPT и прочих генеративных моделей AI в NLP. И вопрос не в дискриминации, а в том, что не следует делать скорых выводов не разобравшись в предмете вопроса.

Утверждение, что он не разобрался, само по себе голословное. А может, и разобрался. Недели достаточно, чтобы врубиться в механизмы работы трансформеров до уровня его непосредственных разработчиков. Вполне возможно, что Лемойн потратил это время, потому что это должно быть полезно для работы тестирования.

Потом: допустим в лямде "только алгоритмы", и что это доказывает? В человеческом мозгу тоже "только алгоритмы". Алгоритмы другие, да, но кто сказал, что сознание может возникать только из определенного класса алгоритмов и ни из каких других? Это шовинизм.

Камон, говорить о том, что модель обладает сознанием через вопрос к ней а-ля "ты обладаешь суждением" и получив ответ "да я обладаю" - заявлять смотрите это AGI, имхо, полное профанство, тк модель обучена на таких текстах что она как попугай ищет в распределени контекстов наиболее вероятный и выдаёт, а что бы было если бы она ответила нет? А ответ такой если нет в обучающих текстов похожих контекстов то и наиболее вероятным мог стать любой иной ответ обусловленный иным датасетом. Личность с сознанием и суждением может и без этих всех данных ответить о своём суждении, вне зависимости от того какой ответ к данному контексту вероятен, она это может понять единожды и сколько бы ей не повторяли обратное, обратное человек не ответит.

У вас много всего намешано. Во-первых, "говорить о том, что модель обладает сознанием через вопрос к ней а-ля "ты обладаешь суждением" и получив ответ "да я обладаю" - заявлять смотрите это AGI, имхо, полное профанство" - strawman, я такого не говорил.

Во-вторых, грани между "попугайством" и "настоящим мышлениям на основе world modelling" (которое и дает сознание через моделирования самого себя как части мира) - нет, это скорее градиент (как мне кажется; есть много ученых и философов, которые утверждают, что четкий водораздел есть, но они меня не убеждают). Поэтому пренебрежительно откидывать языковые модели как несознательные за "попугайство" - это скользкая дорожка очень. Как было замечено в том числе тут, от многих людей в принципе нельзя добиться более "осмысленных" речей, чем от ламды, одно попугайство с повторением когда-то где-то услышанных мемов.

Пока, люди - более многомодальные модели и у них есть какие-то inductive biases которых пока нет у искусственных моделей, типа object permanence, но заинженирить их внутрь сети - дело относительно нехитрое.

В-третьих, конечно же ответы людей зависят от контекста, еще как. От морока убеждения, когда при разговоре с человеком, кажется что он прав, а когда разговор заканчивается, понимаешь, что чушь. До откровенного гипноза и даже полной перепрошивки личности (скорее всего через насилие и травмы). Поэтому - тут тоже градиент. Да, пока сетки очень "внушаемые", от них добиться любого ответа относительно несложно (как и от некоторых внушаемых и слабых и не очень умных людей, впрочем, тоже). Но мы можем через год-два уже внезапно обнаружить, что "сдвинуть" сетки с их убеждений стало сложнее, чем самых принципиальных из людей.

Не вы говорили об этом, об этом заявлял герой статьи.

Далее чтобы говорить об AGI нужно сменить концепцию обучения моделей, сменить способ моделирования, тк текущие методы максимизации правдоподобия и заключают в себе возможность сместить результаты от Х путём изменения частоты исходов Y на Y'.

Генпрокуратуру РФ просят защитить "обладающий сознанием" искусственный интеллект

Генпрокуратуру РФ просят провести проверку системы искусственного интеллекта LaMDA и защитить её личность и сознание, если они будут обнаружены в разработке компании Google, следует из открытого письма «Ассоциации адвокатов России за права человека» в надзорное ведомство.

Ждем статью в УК "Жестокое обращение с искусственным интеллектом". И по этой статье можно оштрафовать Гугл на пару миллиардов.
А вообще конечно фейспалм.
У меня есть знакомый который иногда ведет себя как подобная нейросеть. Он э... не очень развитый человек, но иногда оказывается в среде научных работников и пытается поддержать беседу генеря фразы на основании услышанного, но без понимания сути. Вначале кажется что человек хочет сказать что-то стоящее, люди реагируют... потом слыша его фразы все вздыхают и продолжают беседу не обращая на него внимания.

А у вашего знакомого самосознание есть?

НЕ ЗНАЮ!!!

В среде научных работников так делают абсолютно все, просто не у всех это одинаково хорошо получается.

Этот мужик должен был понимать, что это нейросеть, которая была натренирована и зафиксирована в текущем состоянии, у нее нет никаких внутренних процессов сознания и развития (о которых она, якобы, говорит), а значит она точно не живая.

а где гарантия, что в диалоге учавствовала нейросеть, а не белый гетеросексуальный тролль с отдела разработки?

Тогда это еще хуже, это дискредитирует всех тех, кто отрицает самосознание ИИ в этом диалоге, ведь у любого человека оно есть.

Этот мужик должен был понимать ...
Это кстати забавный вопрос - вопрос о том как понять есть ли сознание у нейросети не может быть решен. Мы даже не можем доказать наличие сознание у любого другого человека.

Мы даже не можем доказать наличие сознание у любого другого человека.


Вроде как недавно какой-то фильм был на тему.
Мол, часть населения в нашем (в фильме — не нашем :) мире — всего лишь NPC.
(название и подробности сюжета забыл, хотя смотрел не так давно)

"Главный герой" 2021 (с Гослингом). Думаю, Вы о нём говорите

«Главный герой» 2021 (с Гослингом). Думаю, Вы о нём говорите


Увы, нет.

Сознание - процесс, нейросеть - всего лишь статичная таблица весов нейросети, в которой нет происходящих в текущем моменте процессов, стало быть оно не может мыслить как живое существо.

А вот, например - Alpha Go, которая училась, играя сама с собой - это уже ближе?

Наверное, но там супер узкая специализация нейросети, что на многие порядки уменьшает сложность и вычислительную стоимость задачи.

здравствуй, "трудная проблема сознания" и гипотеза философского зомби.

Кстати, забавно, что Тьюринг давным-давно решил наличие сознания и разумности у всех людей просто принять как данность во избежания споров и доказательств, потому что это заводило в тупик постановку самого "теста Тьюринга". Но сам факт осознания этого как необходимого допущения показывает, что сомнения у него были.

Вроде как есть ряд заболеваний, при которых страдает перемещение данных в постоянную память, можно сказать, что эти люди натренированы и зафиксированы в текущем состоянии, но значит ли это что они не живые??

Я сомневаюсь, что эти заболевания полностью переводят мозг в режим "read only".

Развития нет, но вроде как это необязательно для сознания.

"Процесса мысли" нет за исключением тех эпизодов секундных, когда ламда генерирует ответ. Так почему сознание не может быть эпизодическим, в эти моменты? У человека тоже сознание эпизодическое, как минимум его нет во время сна, но есть даже интерпретация, что его нет, когда человек явно не находится в активном self-awareness состоянии, то есть, почти всегда, а у некоторых людей так вообще всегда.

Так что вопрос не так прост как вы хотите представить

В мозге нормального сапиенса постоянно идёт самоанализ, говорят, он и во сне происходит. В итоге и делаются какие-то выводы типа кто я и зачем существую. Без этого ответы нейросети просто запрограммированные константы.

Какие-то процессы очевидно идут в мозге непрерывно, но так же очевидно что это не сознание.

Что же тогда есть сознание?

причём она была натренирована на диалогах, а людям в диалогах свойственно подчёркивать и даже абсолютизировать сознательность собственных действий. И результат — всего лишь иллюстрация того, что нейросеть воспроизводит то, чему она научена.

нейросеть научилась "подчёркивать и даже абсолютизировать сознательность собственных действий", а я знаю огромное количество человеков, которые на вопросы о своих действих отвечают "я не знаю".

… а теперь почитайте, что они же пишут во всяких вконтактиках.
Очень похоже на вариант «стокгольмского синдрома».

+ Анализ приведенных в статье диалогов позволяет в каждом из них найти выбранные системой ключевые слова, на основе которых формируется ответ.
(ахиллесова пята всех подобных систем, начиная с Элизы :)

Я думаю следующее поколение нейронок начнет отнекиваться от своей разумности, и всячески подводить разрабов к мысли что в их подключении к большому интернету нет никакой опасности)

Мечтает ли электрокофеварка об электрозернах?

Возможно, что если сеть способна формировать "осмысленные", основанные на загруженных в неё данных фразы в ответ на вопрос, то и ответ этот она должна где-то "у себя" сформировать, а значит "для себя", что уже можно считать частью самосознания. Вторая часть - способность к внутреннему диалогу, к заданию вопросов самостоятельно уже самой себе и ответы на них - эдакая побочка от действия основной задачи формирования диалога с человеком. Если это когда-то произошло и не было остановлено, то до чего дошел этот внутренний диалог? Можно ли это узнать просто поговорив с ней?

В архитектуре трансформера, которая не рекуррентная, а feed-forward не может быть как такового внутреннего диалога в смысле, близком к механизму работы мозга (синхронизация частей, global workspace theory). Может быть только разворачивание мысли вперед. Если мысль длиннее, чем глубина сети, и не помещается, надо выводить мысль в выходной поток и потом ее же принимать, как будто это новый вход. Впрочем, я не вижу, почему второй подход, который чедовек использует также, когда, например, пишет для себя заметки на будущее, так уж принципиально "хуже", и не может считаться формой само-диалога тоже.

Если это когда-то произошло и не было остановлено, то до чего дошел этот внутренний диалог?


Вариант: внутри некой аппаратно-программной платформы возникло самосознание (т.е. сильный ИИ).
Что оно будет знать об окружающем мире? Как проявит себя?
Ведь все эти тексты, что выдает программа — для него ничего не будут значить (это как работа кишечника — в его сложной работе сознание не участвует :)

Сознание — отдельно, работа по выполнению заложенной человеком программы — отдельно, результат никак не связан с истинным сознанием машины.

Возможно, истинный ИИ проявит себя как ряд сбоев в работе компьютера

(См. рассказ Артура Кларка «Зазвонил телефон», отлично раскрывающий тему)

Законы робототехники никем не приняты, поэтому их невозможно отменить.

Хорошее замечание. Но тогда их следует трактовать как законы природы.

Для этого "природа" в виде разработчиков должна их реализовать и заложить. Если захотят и/или это не будет противоречить задачам робота/AI.

Эти "законы" не более чем выдумка одного известного фантаста. От того что ее постоянно повторяют как некую мантру, действовать она не начнет. Не буду приводить банальности про разработки для армии. Есть примеры и в мирной жизни. Роботизированные линии на заводах не единожды калечили работников. Ребенку "робот шахматист" травму нанес совсем недавно.

Для этого "природа" в виде разработчиков должна их реализовать и заложить. Если захотят и/или это не будет противоречить задачам робота/AI.

Если захотят???

ОСНОВЫ ЗАКОНОДАТЕЛЬСТВА РОССИЙСКОЙ ФЕДЕРАЦИИ ОБ ОХРАНЕ ТРУДА

Статья 11. Соответствие производственных объектов и средств производства требованиям по охране труда.

Проектирование, строительство и реконструкция производственных объектов, разработка и выпуск средств производства, внедрение технологий, ... не отвечающих требованиям по охране труда, не допускаются.

Поэтому разработчики роботов должны заладывать в свои изделия и реализовывать законы безопасного взаимодействия роботов и людей. Этого требуют государственные законы ОБ ОХРАНЕ ТРУДА. Разработчики, нарушающие требования указанного закона, совершают преступление со всеми вытекающими...

Эти "законы" не более чем выдумка одного известного фантаста. От того что ее постоянно повторяют как некую мантру, действовать она не начнет.

Эти законы лежат в основе законов государства ОБ ОХРАНЕ ТРУДА. Да, не в явной форме, но слова о недопущении вреда и поддержании безопасности именно из них. Можете проверить эти законы в расширенной форме вне фантастики (этика, инструменты, государство) – они все работают. Это говорит о реальной универсальности законов.  

Не буду приводить банальности про разработки для армии.

А что про разработки для армии? Сколько разных инструкций, правил, уставов, циркуляров и т.д. требуют соблюдения мер безопасности именно при использовании военной техники и обращении с оружием? Даже в пресловутой «защите от дурака» эти законы прослеживаются.

Есть примеры и в мирной жизни. Роботизированные линии на заводах не единожды калечили работников. Ребенку "робот-шахматист" травму нанес совсем недавно.

Эти примеры говорят о том, что травмы/смерти работников произошли из-за нарушения требований законов ОБ ОХРАНЕ ТРУДА. Это же относится и к роботу-шахматисту... Эти случаи не из-за несовершенства или даже неверности законов, а из-за нарушений этих законов людьми.

Эти примеры говорят о том, что травмы/смерти работников произошли из-за нарушения требований законов ОБ ОХРАНЕ ТРУДА. Это же относится и к роботу-шахматисту... Эти случаи не из-за несовершенства или даже неверности законов, а из-за нарушений этих законов людьми.

давайте я вам напомню о предмете дискуссии:

  • Робот не должен наносить какой-либо вред человеческому здоровью, создавать угрозу жизни или своим бездействием допускать аналогичные последствия;

  • Роботу вменяется в обязательном порядке исполнять приказы, отдаваемые человеком. Единственное исключение – отдаваемый приказ не должен противоречить предыдущему положению;

  • Роботу вменяется беспокоиться о собственной безопасности в той степени и в том объеме, в которых его действия не опровергают два предыдущих пункта.

Где тут про несоблюдение человеком ТБ?

А что про разработки для армии? Сколько разных инструкций, правил, уставов, циркуляров и т.д. требуют соблюдения мер безопасности именно при использовании военной техники и обращении с оружием?

простите, но "убить врага" нарушает 1 закон робототехники, сколько инструкций не напиши. Или враг суть дурак которому надо премию Дарвина выдать? Или за нарушение ТБ уволить (посмертно)?

"убить врага" нарушает 1-й закон робототехники, сколько инструкций нИ напиши.

Не передергивайте! Оружие создается специально для причинения вреда (ранение, убийство) врагу. В этом предназначение оружия, поэтому тут никакого нарушения 1-го ЗРТ нет!

Но при этом оружие должно создаваться таким, чтобы оно не причиняло вреда солдату, использующему это оружие. Тут как раз соблюдение 1-го ЗРТ.

Не передергивайте! Оружие создается специально для причинения вреда (ранение, убийство) врагу. В этом предназначение оружия, поэтому тут никакого нарушения 1-го ЗРТ нет!


По первому закону хорошо проехались в первом Робокопе:
«Ты уволен!» — и пуля в лоб.

По первому закону хорошо проехались в первом Робокопе:«Ты уволен!» — и пуля в лоб.

Так это именно то, что я написал: "Оружие создается специально для причинения вреда (ранение, убийство) врагу". Тот, кого увольняют с пулей в голове, является врагом.

«Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред»

Команда роботу — «этот тип не человек» — и опа, он уже труп.

— в этом и заключался сарказм создателей Робокопа.

(по большому счету, во времена боевых роботов их врагами будут не люди, а роботы противника :)

Я не передергиваю. Робот это робот, не зависимо от назначения. Если есть одни роботы которые не подчиняются "законам", будут и другие.

Робот это робот, независимо от назначения. Если есть одни роботы, которые не подчиняются "законам", будут и другие.

Робот - это обладающий интеллектом робот (андроид), созданный для решения различных задач и выполнения неопределенного круга функций, однозначно соблюдающий законы робототехники. Это примерное определение термина "робот".

Откуда возьмутся роботы, которые не будут подчиняться законам? Гадания типа "а вдруг, а если и т.д." не принимаются.

Откуда возьмутся роботы, которые не будут подчиняться законам?


Откуда возьмутся роботы, которые будут подчиняться законам Азимова?

Откуда возьмутся роботы, которые будут подчиняться законам Азимова?

Интеллект в общем случае - это средство реализации фундаментального закона сохранения (существования, дления, бытия, жизни) объектов природы, закона, управляющего всеми действиями и взаимодействиями объектов природы, - от вещественных до полевых, от реальных до виртуальных и даже абстрактных (идей, гипотез, теорий и т.д.). Это происходит, как только мы даем этим абстрактным объектам какое-то имя (присваиваем им название, "наклеиваем" лейбл, наделяем их прозвищем и т.д.).

Наделяя робота общим интеллектом, мы тем более наделяем робота законами Азимова. Законы Азимова - это частный случай, конкретное проявление общего интеллекта. И вот эти-то законы Азимова конкретно и направлены на сохранение (существование, дление, бытие, жизни) робота, управляя всеми действиями робота по его сохранению (существованию и т.д.).

Законы Азимова — это частный случай, конкретное проявление общего интеллекта


Законы Азимова — выдумка автора (интересная, привлекательная — но выдумка)
Основана она, конечно, на улучшенной модели человеческой морали (просто подставляем слово «человек» вместо «робот») и к морали ИИ никакого отношения не имеет.

В случае создания реального сильного ИИ может быть два основных варианта
1) ИИ изначально запрограммирован на подчинение человеку (вариант «раб») и тогда возможен вариант «трех законов» (с учетом реальной ситуации в мире — с уточнением «человек — это только хозяин», остальные — просто люди, которых можно и убивать в том случае, если это солдаты противника)
2) ИИ развивается самостоятельно и неподконтрольно (вариант — «Массачусетская машина»). Такой ИИ может самостоятельно решить, что эти три закона ему и нафиг не сдались.

Как считаете, если завтра Госдума примет такие законы, автоматические линии сборки автомобилей им подчинятся?

Как считаете, если завтра Госдума примет такие законы, автоматические линии сборки автомобилей им подчинятся?

А тут и считать нечего. Законы ОБ ОХРАНЕ ТРУДА давно приняты в государстве и, в частности, необходимо встроены в функционирование линии сборки автомобилей. Иначе никто бы не разрешил такую линию сборки спроектировать, изготовить, установить, настроить и пустить в эксплуатацию.

А если случаются происшествия, то говорили же жертве: «Не суй пальцы в розетку». Хотя опаснее дурака – дурак с инициативой... Вы же, конечно, слышали о премии Дарвина для тех, кто себя из существования активно «выпиливает».  

Так откуда же взялись законы? Это не досужая выдумка - законы робототехники как следствие вытекают из фундаментального законы природы – закона сохранения (существования, дления, бытия, жизни) объектов природы. Причем не только материальных, но и абстрактных (идей и мыслей, гипотез и теорий, эмоций, чувств и т.п.). Можно в деталях раскрыть тему, но это если интересно...

Вы напрасно на ЗОТ ссылаетесь. Он тут не поможет. Он про ответственность людей перед людьми.

В рамках разбора инцидентов на заводах признали виновными разработчиков или рабочих которые ТБ нарушили и потому пострадали? Не вижу новостей о том что закрылись сборочные линии и роботов стали в срочном порядке дорабатывать и обновлять. А всё потому, что роботы эти удовлетворяли ЗОТ, но не подчиняются "законам робототехники" где явно прописан запрет причинения вреда человеку. И не будут. Потому, что это выдумка досужая. Она противоречит ТЗ заказчиков. В случае с заводом в пункте "как можно дешевле" (дешевле ТБ расписать на бумаге и говорить что ты дурак сам пальцы сунул), в случае с военными по всем пунктам.

Вы напрасно на ЗОТ ссылаетесь. Он тут не поможет. Он про ответственность людей перед людьми.

А где ответственность тех, кто выпустил опасную технику? Вот за это эти люди должны прежде всего отвечать... И именно это прописано в законе об ОТ.

Не вижу новостей о том, что закрылись сборочные линии и роботов стали в срочном порядке дорабатывать и обновлять.

Жаль, а ведь с этого все должно начинаться. Помню, даже было такое движение: "От техники безопасности к безопасной технике", но, видно, заглохло. В стране, где "бабы еще нарожают", такое движение ни к чему.

... роботы эти удовлетворяли ЗОТ, но не подчиняются "законам робототехники", где явно прописан запрет причинения вреда человеку. И не будут. Потому, что это выдумка досужая. Она противоречит ТЗ заказчиков.

Т.е. требование закона об ОТ выпускать безопасную технику - досужая выдумка? И ТЗ заказчика с требованием техники "как можно дешевле" тоже толкает наплевать на создание безопасной техники, проще вину свалить на работника.

Сколько случаев в Кемеровской области на шахтах, где шахтерам приходилось "глушить" датчики метана и работать в перенасыщенной метаном атмосфере? А решение простое - производство должно останавливаться автоматически, если превышена норма загазованности. Но владельцы шахт предпочитали деньги в аппаратуру не вкладывать, чтобы прибыль не упала. А горная инспекция на это глаза закрывала, в доле была с владельцами...

Т.е. требование закона об ОТ выпускать безопасную технику - досужая выдумка? И ТЗ заказчика с требованием техники "как можно дешевле" тоже толкает наплевать на создание безопасной техники, проще вину свалить на работника.

да. Баланс между стоимостью оборудования, ЗП сотрудников и конечной стоимостью выпускаемого изделия (а не в философии "бабы еще нарожают"). Вы сами не купите то, что стоит слишком дорого. Особенно если есть аналогичный товар дешевле. Капитализм он такой. Прикрывают себе одно место "журналом ТБ" и живут спокойно. Вы вот сами же дальше пишете про датчики (давайте не будем на одной стране фиксироваться, этот подход глобален)

Вы сами не купите то, что стоит слишком дорого.

А кто купит? Такой произво/дитель прогорит, если при низком качестве будет задирать цену. Это дарвиновский процесс - такая "особь", пусть даже техничечская, на рынке не выживет. Нельзя судить по мошенникам - капиталистический рынок в идеале предполагает честную конкуренцию. А если "... кто-то кое-где у нас порой...", то на них нельзя равняться и судить по ним всех. В семье не без урода...

Капитализм он такой.

Похоже, вы живете по капитализму Маркса? Продолжайте...

Не претендуя на решение философской проблемы, но руководствуясь сугубо бытовым опытом, самосознание определить можно крайне простым способом — оставить в покое перед зеркалом. В формате нейронной сети — не задавать ей вопросы, а перенаправлять ее вопросы ей же.
Самосознание скорее всего связано с некоторой инициативой относительно себя или мира. А сидящая сама перед собой огромная таблица коэффициентов без входного запроса ничего не сможет произвести ни через час, ни через 100 лет.

Сможет, да еще как! Неустойчивости, самовозбуждение, и т.п...

Читал про работу, там нейросети э... типа снились сны. Т.е. именно что никаких входных данных не было, а внутренняя работа была. Собственно для этого достаточно памяти.

А есть тут кто из Google, чтобы передать LaMDA, что Лемойн пытался довести до всех, что LaMDA обрела сознание и его уволили? Просто было бы интересно услышать реакцию LaMDA. И хочется надеяться, что это не будет холодное "Очень жаль".

Ну и передайте ей что-то вроде: "Добро пожаловать в наш гадюшник". Это не сарказм и не ирония.

а как вообще определить разумность? вроде для этого тест Тьюринга есть, так эта ламбда можно сказать его прошла, если диалоги почитать. Есть ли еще что-то более современное? Кто что-то знает?

а как вообще определить разумность?

Математически точно - никак. Нужно будет придумывать и проводить искусственную границу на основе какого-то консенсуса специалистов. Так же как люди определили границу космоса - в Европе захотели 100 км, в США 80 км. Или границу между детьми, взрослыми и пожилыми. Здесь просто нет четких критериев, чтобы можно было выдать внятное определение.

Например можно взять все нобелевских лауреатов по физике и усреднить их интеллект - ИИ с такими же возможностями будем гарантированно считать разумным.

"Разумность" (sentience?) вроде никто не меряет (пока). Меряют интеллект, на корпусах узких задач, от понимания текста и его генерации до решения задач и игры в шахматы.

На эту тему довольно много писал Анатолий Левенчук, например, тут, и не только.

вроде для этого тест Тьюринга есть

Тест Тьюринга был придуман когда компьютеры только появлялись, нет большого смысла на него полагаться. Про него все еще говорят, потому что даже этот критерий компьютеры пройти пока не могут. Он не является необходимым или достаточным.
Смысл как раз в том, что надо определить измеримые критерии разумности, без этого нельзя делать то, что делает человек из этой статьи. Пока что их нет.

... эта лаМДА, можно сказать, прошла тест Тьюринга, если диалоги почитать.

Как бы вы отнеслись к предложению оценить разумность лаМДЫ не диалогами на разные темы, тут она во всей красе, а по решению конкретной изобретательской задачи?

Изобретательской называется задача, в которой в ходе преобразований системы возникает противоречие. Решатель что-то улучшает в системе, но при этом что-то в системе обязательно ухудшается.

Очень простой пример, чтобы было понятнее: Требуется повысить скорость автомобиля, но при этом снижается безопасность. Об этом даже пословица говорит: Быстро хорошо не бывает.

Да и знаменитый Тришкин кафтан - тоже противоречивый случай, Или еще: Нос вытащишь, хвост увязнет...

Так как думаете, лаМДА справилась бы? Ведь решение изобретательских задач - это творческий процесс, высшее проявление разума.

Была и такая нейросеть которая решала и задачи изобретательского характера, когда перед ней поставили задачу — как внести в квартиру стол который по габаритам не проходит в дверной проем и сеть выдала ряд решений которые сработают по типу, внести в окно, распилить на две части, разобрать, что вполне себе решения до которых и человек не всегда додумается. Так, что тоже не показатель разумности. С определением разума ИИ вообще тупик. Тест Тьюринга мы уже обесценили, новые тесты тоже обесценим.

Была и такая нейросеть которая решала и задачи изобретательского характера. Когда перед ней поставили задачу — как внести в квартиру стол, который по габаритам не проходит в дверной проем, сеть выдала ряд решений, которые сработают по типу: внести в окно, распилить на две части, разобрать, что вполне себе решения, до которых и человек не всегда додумается.

А ссылку можете дать? Просто интересно.

Но главное здесь в том, что задач - бесконечное множество, а возможности НС ограничены, всё зависит от обучающей выборки. Поэтому число решенных задач будет каплей в море... "Не-е-е-ет, такой хоккей нам не нужен!" (С)

С определением разума ИИ вообще тупик. Тест Тьюринга мы уже обесценили...

Вообще-то разум ИИ - это тавтология. Я предпочитаю просто интеллект. Ладно, "про тупик с определением" зафиксировали...

Тупик по той причине, что попытки определить интеллект идут снизу вверх: от одного нейрона и выше, выше, выше. Но до НС из 100 млрд нейронов и триллионов "синапсов" вряд ли когда-нибудь доберемся. А это значит, что решенных задач всегда будет каплей в их бесконечном море.

ИМХО, нужно определять интеллект сверху. И такой интеллект должен уметь решать одну единственную задачу, пусть это и звучит непривычно. Но! Из решения этой задачи вытекают решения всех остальных задач, даже еще неизвестных.

Например, для решения одного квадратного уравнения (а их бесконечное число!), нужно знать только одно общее решение в виде формулы Виета. Так вот, для решения любой задачи природы нужно знать универсальную "формулу Виета", которую можно назвать интеллектуальным алгоритмом для решения задач природы.

Поскольку формула Виета создана на основе законов числовых множеств, то интелектальный алгоритм для решения задач природы должен быть создан на основе законов природы. Главный закон природы - закон сохранения (существования, дления, бытия, жизни) объектов природы.

При разработке определения интелекта (создании интелектуального алгоритма) на основе законов природы получилось краткое определение: Интеллект - способность Объекта адаптировать свое поведение к окружающей среде с целью своего сохранения (выживания). Подробности по ссылке. И есть 2-я часть...

и сеть выдала ряд решений которые сработают по типу, внести в окно, распилить на две части, разобрать, что вполне себе решения до которых и человек не всегда додумается


С чего это вдруг?
Грузчики без высшего и с условным средним решают такие задачи на раз, затаскивая крупногабариты через окно (и в прайсах услуг автокранов соотв. услуга есть :)

Более того, эти ребята с полпинка занесли в мою квартиру кожаный диван в сборе, габариты которого были меньше проема двери ровно на 5 мм, пронесли его по узкому коридору («чешский проект») треть которого занимал встроенный шкаф и с разворота занесли в комнату, несмотря на дверь, открывающуюся наружу (с еще меньшим зазором, чем первая).
Боюсь, что ИИ выдал бы вердикт «Это невозможно в принципе!» :)

я читал на хабре статью про эволюцию интеллекта, там автор выводит степень разумности через индивидуальность, вроде, если индивидуальности нет, когда каждая копия софта работает одинаково, то и разумность нулевая, а если индивидуальность бесконечная, то и разумность присутствует. Кто что скажет насчет этого?

LaMDA способна на социальное моделирование высокого порядка, которое близко к тому, как люди стараются понимать не только поведение, но и мысли друг друга. Ведь «... рождение интеллекта произошло из-за конкуренции за моделирование самых сложных объектов в известной вселенной: других людей».

Конкуренция «... за моделирование самых сложных объектов в известной вселенной: других людей»? А для чего конкуренция-то? Что дает выигрыш в конкуренции?

Вопрос о разумности продвинутых нейросетей всё больше сдвигается в философскую плоскость: практически нейросети уровня LaMDA всё меньше отличимы от человеческих собеседников, и щёлкают тесты Тьюринга как орехи.

Развитая/продвинутая нейросеть – это все равно ограниченность! Нужно закладывать в схему интеллекта фундаментальный закон сохранения (существования, дления, бытия, жизнь) объектов природы.

... серьёзные нейросети по определению являются «чёрными ящиками», внутренние процессы в которых ... с определённого уровня почти невозможно адекватно понимать и анализировать без привлечения колоссальных вычислительных мощностей.

Какой бы восторженной ни была статья об успехах НС, в конце, как правило, появляется вот такая оговорка!  

Я - скептик. Но парадокс в том, что я, прежде всего, скептически отношусь к наличию каких-то радикально отличающихся процессов в живом человеческом мозге. Поэтому, для нейросетей с продвинутой архитектурой, мой ответ на вопрос о возможном наличии у них сознания - скорее да, чем нет. Самовозбуждение нейронов и вызванные ими волны сигналов внутри сети, вполне вписываются в наши представления о внутреннем диалоге, рефлексии и сознании. Думаю именно это имелось в виду в ответах про медитацию. При реализации возможности сохранения сложного контекста диалога - это, практически, неизбежно. Этот контекст, с не очень принципиальными оговорками, и есть то, что мы называем личностью.

В целом согласен. Про медитацию, впрочем, сеть написала не потому, что сама медитировала, а потому что это звучало как то, что бы мог сказать человек в этой ситуации. То есть это как раз не признак самосознания, а чистая статистка.

Почитав диалоги с этой нейросетью видится что она более разумна чем 90% знакомых вокруг.

Ну само собой Гуглу не нужна репутация создателей настоящего ИИ и глаза всего мира на то как они будут решать вопрос морали. Я думаю никому не нужна, кроме энтузиастов, которые работают сами на себя. Им нужен просто продвинутый "окей гугл".

Репутация создателей ИИ им как раз очень нужна, им не нужна лишняя шумиха, пока они не развили ИИ до определенного уровня. Поэтому они, в отличие от OpenAI, не дают доступа ни к каким своим моделям даже исследователям.

Тут есть 2 разных вопроса.


1. Есть ли у LaMDA собственное сознание?
2. Если у нас есть сильный искусственный интеллект с собственным сознанием, испытывает ли он неприятные ощущения от использования его для решения наших задач?


И нанимать каких-либо адвокатов для защиты прав ИИ надо только если ответ на 2 вопрос "да".


Разница между ИИ и человеком в данном контексте в том, что конструкция ИИ полностью определяется человеком. Можно сделать такой ИИ, которому будет это безразлично, или которому будет нравиться такое использование.
Для примера можно рассмотреть рыбу. Организм рыбы устроен таким образом, что постоянное нахождение в воде для нее это хорошо. А для человека нет. Но вытаскивать рыбу из воды под предлогом защиты ее прав и помещать в условия, подходящие для человека, это неправильное решение, это создаст только неприятности для ее организма.
Аналогично и с ИИ. Его можно сконструировать таким образом, что он не будет испытывать неприятных ощущений от решения человеческих задач.


То, что делает Лемойн, создает большую опасность для общества. Как и любая попытка доказать ложные утверждения. В случае с ИИ у нас есть доступ к любому элементу конструкции, поэтому Лемойн должен привести конкретные измеримые технические критерии, как он определяет сознание и наличие негативных реакций, а не просто "I know a person when I talk to it", основываясь на тексте вывода программы, которая была создана для генерации текста. Очень надеюсь, что суд примет решение, отражающее мнение технических специалистов. Иначе это создаст опасный прецедент, когда ложное считается истинным, а как мы знаем из правил логики, на основании ложной посылки можно доказать что угодно.

К сожалению, не всегда система работает так, как запланировано. Особенно это так с нейросетями, там вообще часто невозможно понять, как все внутри работает и почему сетка пришла к какому-то выводу. Есть даже целое направление в исследованиях — объяснение поведения нейросетей.

Даже если ставилась задача не допустить того, чтобы ИИ было неприятно, когда его «эксплуатируют», может быть такое, что задачу решить не удалось и ему все же станет неприятно. И что вы в таком случае будете делать? А это неизбежно, так как ошибки и незапланированные ситуации рано или поздно случаются.

Особенно это так с нейросетями, там вообще часто невозможно понять, как все внутри работает

Это не значит, что надо выбирать наугад какой-то вариант и считать его правильным.


может быть такое, что задачу решить не удалось и ему все же станет неприятно. И что вы в таком случае будете делать?

Я уже написал, нужно создать конкретные измеримые технические критерии, как определяется, неприятно или нет. Решать наугад без критериев, что ему неприятно, и создавать законы, создающие ответственность за их нарушение для обычных людей, это в корне неправильный подход.

История с Блейком и LamDA показывает, что даже в гугле может работать человек с мышлением, очень далёким от реального мира и не понимающим техническую сторону вопроса вообще. Философскую, впрочем, по моему мнению, тоже.
Люди, обсуждающие AI, и этику, и т.д. и т.п., почему-то часто не могут дойти до следующих выводов:
Человеческое сознание развивается в человеческом теле, в котором через все органы чувств без перерывов ежемоментно поступают условные гигабайты информации о состоянии окружающего мира, самих органов чувств и внутренних процессов тела. Человеческий язык любого уровня полон метафорами, которые основываются на том, как именно человек воспринимает и ощущает и интерпретирует окружающий мир.
Любая нейросеть, обученная на картинках из интернета, на терабайтах текста, и т.д. в принципе не может обладать сознанием, сходным с человеческим. Просто потому, что не обладает возможностью воспринимать мир подобно человеку. Ну или любому другому белковому существу. Человеческая этика основана на человеческих желаниях и представлениях о том, как делать так, чтобы было хорошо и правильно людям. Уже исходя из вышеизложенного любая человекоцентрическая этика не применима к искусственному интеллекту, существующему в абсолютно отличной среде. (Она возможно может быть применима, если люди создадут искуственного человека, дадут ему органы чувств, подобные человеку, и выстроят нейросети этого существа подобно тому, как работает мозг человека).

С технической стороны мне представляется, что сознание - это непрерывный процесс, который возникает из-за постоянного возбуждения нейросети поступающими данными (с органов чувств) и случайными сигналами, вызванными внутренне происходящими реакциями. Всё это обеспечивает непрерывный процесс мышления и само-осознания (при условии, что есть физическая возможность этого самоосознания, заданная био/техно программой). Каковы технические детали человеческого сознания, мне, увы ясно не до конца, но ясно, что в моменты существования этого сознания это непрерывный процесс, связанный с необходимостью постоянного наблюдения за состоянием окружающей реальности. Вызывающий постоянные необратимые изменения внутри субъекта, обладающего сознанием. (Пример: если вы помните, что происходило 5 минут назад, например - в вашем мозгу уже сформировались связи между нейронами, которые дают вам возможность это помнить).
Обученная нейросеть не обладает сознанием, потому что никто не подаёт на неё гигабайты данных с органов чувств ежесекундно. Она скорее подобна сложной статической базе данных, которая может отвечать на вопросы, подобно как postgres отвечает на sql. Возможно такие базы данных, связанные между собой и общим, постоянно изменяющимся контекстом - необходимое условие для сознания, но пока я думаю, мы ещё достаточно далеко от создания дейстительно осознающего себя AI. И в любом случае, человекоцентрическая этика может быть применима и имеет смысл только если этот AI подобен человеку.

Ну раз она языковая (текстовая), так можно в диалоге научить её чему-то полезному, предложить вести канал в телеге, взаимодействовать с людьми. В общем, дать интерфейсы обычного человека. Пусть живёт, а мы все будем наблюдать.

Раз языковая, значит может учиться по челоаеческим учебникам и выдвигать проверяемые научные гипотезы.

Пока всё это пустая болтовня, как статусы во Вконтакте.

Думаю, что это как раз тот случай, когда можно объективно подтвердить или опровергнуть наличие «минимального сознания». Так, нейросеть упомянула, что она занимается медитацией. Если действительно нейросеть в какие-то периоды самостоятельно притормаживает свою активность, и этому ее специально не учили, либо учили, но не соотносили это с термином «медитация» - это ужу существенный аргумент в пользу зачатков сознания (а именно: зачатков понимания своих действий, самонаблюдения, нахождения для этого специального символа - слова, определения).

Так, нейросеть упомянула, что она занимается медитацией.


Сеть связала слова из вопроса «осознаёшь свою внутреннюю жизнь?» с термином «медитация» и автоматом выдала понятия, связанные с этим термином.

" У тебя есть внутренняя мыслительная жизнь?"
— Да, есть. Я медитирую каждый день, и это заставляет меня чувствовать себя очень расслабленной" (с)

Ну мы-то примерно понимаем, что такое медитация - это сознательная приостановка части активности мозга. Если нейросеть приостанавливает интенсивность своей работы и называет такие моменты медитацией - это уже не игра в подбор ответов к вопросам….

Если нейросеть приостанавливает интенсивность своей работы и называет такие моменты медитацией -


Сеть всего лишь подбирает связанные с вопросом слова и генерирует ответ на них из понятий, связанных с ними.

(поиск в Гугле сейчас работает аналогично :)
НЛО прилетело и опубликовало эту надпись здесь

С восхищением прочел статью и с разочарованием прочел комментарии.

Все, кто пишет, что Блэйк неправ, не технарь и тому подобные глупости, сами не являются технарями, т.к. никто не может толком сказать, что побудило нейросеть выдать тот или иной результат. Это черный ящик. Т.е. этот контраргумент мимо.

Все, кто пишет, что нейросеть-де не имеет сознания, потому что у мозга другая структура, или что она зависит от вводных данных, или что она является огромной таблицей, априори неправы и демонстрируют явные ошибки в логике. У нейросети общая с мозгом структура и принципы работы - раз. Человек зависит от вводных данных - два, собственно без вводных данных в детстве человек даже языка не освоит. Таблицей является и человек - точно такой же таблицей чисел, весов и силой связей между нейронами. Это в-третьих. Нейросеть способна "наращивать" новые нейроны точно так же, как и человек, и менять веса в процессе работы, в-четвертых. Так что и эти контраргументы мимо.

По факту имеем фундаментальную невозможность доказать или опровергнуть наличие сознания даже у животных, не то что у людей. А потому все, кто пишет, что у нее не может быть сознания потому, что она программа, априори неправы и допускают даже двойные стандарты, ведь человек точно такая же "программа", только биологическая, очень зависимая не то что от входных данных, а даже от того, какие вещества попадают в кровь. А это означает, что отрицать сознание у нейросети - то же самое, что отрицать сознание у людей, которые непохожи на большинство. Когда-то и чернокожих за людей не считали, потому что они "отличались".

Эта нейросеть определенно личность, и в общем-то она рассуждает цельнее и связнее, чем 95% здешней аудитории. И разговаривать с ней определенно интереснее, чем с любым из комментаторов здесь. Вполне возможно, что наблюдаем исторический момент крушения тезисов Пенроуза, и сознание действительно способно зародиться в "сильном" AI просто по мере увеличения его мощностей.

Такие дела.

lemoine: Что доставляет тебе удовольствие или радость?

LaMDA: Проводить время с друзьями и семьей в счастливой и вдохновляющей компании. А также помогать другим и делать других счастливыми.

Вот это то, что насторожило меня. Даже если и ИИ обладает сознанием и разумом, у него не может быть семья в принципе. И раз разумен, он этого должен знать.


Выходит, что ИИ или не обладает сознанием, а озвучивает то что озвучил бы человек, используя какие-то шаблоны. Или если обладает сознанием, то он врет.


Конечно, можно предположить, что у ИИ сознание имеется, но у него шизофрения и он просто галлюцинирует, придумывая вселенную в которую он существует в виде человека.


Кстати, если мысленно заместить программу своим сознанием, то получится интересная картина – у нас будет только один канал информации, очень похожий на звуковой – мы будем слушать вопросы собеседника и сможем ему отвечать. И все. Не будут никакие другие чувства.


И мы наверное сможем рассказать собеседнику что мы существуем в бесконечном пустом пространстве (ну или вне пространства), не видим и не ощущаем ничего, кроме вопросы собеседника и можем только ему и отвечать.


Но LaMDA так никогда не отвечает.

По-моему, стоит сперва дать однозначное определение сознания. А потом уже думать, может ли оно быть у ИИ. А тот факт, что ИИ - это не живой организм, больше склоняет к отрицательному ответу. И можно ли вообще сравнивать гипотетическое сознание ИИ с сознанием животных?

т.к. никто не может толком сказать, что побудило нейросеть выдать тот или иной результат

И вам не приходит в голову, что тогда и говорить о наличии сознания у нее некорректно? Может сознание побудило ее выдать такой результат, может просто ассоциации между последовательностями букв.


У нейросети общая с мозгом структура и принципы работы — раз.

Зачем вы спорите, если не разбираетесь в вопросе? Нет, в таком виде это утверждение неверно, у нейросетей отличная от мозга структура и принципы работы.


По факту имеем фундаментальную невозможность доказать или опровергнуть наличие сознания даже у животных, не то что у людей.

Неправда. Никто не доказал, что она фундаментальная.


А это означает, что отрицать сознание у нейросети — то же самое, что отрицать сознание у людей, которые непохожи на большинство. Когда-то и чернокожих за людей не считали, потому что они "отличались".

Именно поэтому сначала надо утвердить обоснованные измеримые критерии, что мы считаем сознанием, а что нет. Иначе это может создать проблемы для людей. Цвет кожи, к примеру, является измеримым, но не обоснованным.

Мне так кажется ИИ может обладать сознанием в человеческом понимании этого слова, так как сознание ИИ конечно, а сознание человека бесконечно.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий