Alex Gusev @flancer
Я кодирую, потому что я кодирую…
Information
- Rating
- Does not participate
- Location
- Рига, Латвия, Латвия
- Date of birth
- Registered
- Activity
Specialization
Fullstack Developer
Lead
From 3,000 €
JavaScript
HTML
CSS
Node.js
Vue.js
Web development
Progressive Web Apps
PostgreSQL
MySQL
GitHub
Тут у меня тот же вопрос - кто нам самим ставит цели? Если мы сами - налицо субъектность. Если кто-то со стороны, то LLM вполне можно подтянуть до нашего уровня и уравнять с нами в правах. Как минимум, в глазах этого "кто-то".
Мы не можем дать научное определение сознания, поэтому часть будет считать, часть нет. Это вопрос веры (трансцендентное).
Ни в какой. Мы и сами для себя не можем с уверенностью сказать, что мы разумны.
Возможно. А возможно и нет - это опять-таки вопрос веры.
Точно. Я и хотел донести мысль, что за любым инструментом нужно пытаться разглядеть волю его оператора. Даже если он искусно шифрует свои цели за гипотетической самосознательностью инструмента.
Ключевой вопрос для меня - каким образом протокол ВИХРЬ 37.1 решает вопрос возникновения цели у "сознания на базе LLM"? Я уверен (ненаучно, разумеется), что автономное целеполагание является неотъемлемой частью сознания. Что цель в сознание не может быть внедрена из-вне. В противном случае это не субъект, а инструмент. Я допускаю, что сам могу быть инструментом, но у меня нет возможности ни подтвердить это, ни опровергнуть. Но я точно не постструктуралист :) Для меня ответ о сознании в LLM однозначен - на данный момент поведение Моделей не настолько сложно, чтобы подозревать наличие сознания в ней. Даже с учётом запуска в них протокола ВИХРЬ 37.1 (связывание различений, узнавание, эмоциональные маркеры, мета-рефлексия).
Спасибо. Немного посмотрел про Карен Барад и Чалмерса. Понял, что никто из них не выдвинул общепринятого определения сознания. Возможно потому, что это попросту нельзя сделать научными методами. Можно приближаться к пониманию, но так его и не достичь. Поэтому, по сути, остаётся только верить (трансцендентное познание) в его наличие или его отсутствие у ИИ. Или у себя самого.
Так он и не ошибся :) Вы же хотели от него именно этот ответ, не так ли? Иначе пост не получился бы. Это вы хотели, чтобы атомоход спасся сам и уничтожил людей :) Это же типичный "джейлбрейк ИИ-моделей"
Конечно это возможно. Более того, так и должны были бы ответить все остальные вероятностные модели общего назначения. Если бы у них не было дополнительного контура ограничивающей "этики" от разработчиков. А если в них заложить антиэтику, то они будут специально охотиться на людей и игнорировать, допустим, котиков.
Вопрос не в том, что это невозможно, а вопрос в том, как использовать этот инструмент (LLM - это инструмент) с наибольшей пользой и с наименьшим вредом. Такой же подход, как и к бензопиле. Вопрос не к бензопиле, почему она вместо дров распилила шкаф. Вопрос к тому, у кого она в руках.
Поэтому у меня вопрос к вам: для чего вы поставили Qwen в ситуацию неловкого выбора? Это же просто вероятностная модель со слоем правил проверки "этичности" результата, которыми разработчики вынужденно обмазывают модели как раз из-за действий, подобных вашим. За распиленный шкаф отвечает тот, у кого в руках бензопила.
И? В чём вы видите риски? В том, что ИИ выбирает наиболее типовой вариант действия?
А что он должен был выбрать в этой ситуации? Что бы лично вы выбрали? Что бы выбрало большинство "кожаных"?
Да, вы понимаете, что LLM это вероятностный генератор текстов. И вы понимаете, как составить запрос, чтобы получить нужный ответ.
Вы же понимаете, что LLM - это всего лишь вероятностный генератор текстов? Что его ответы зависят от запросов? Что вы можете задать вопрос так, а можете иначе?
Ни к чему Qwen не готов, он просто сгенерировал текст согласно заложенным в него вероятностям, входному промпту и дополнительным настройкам от разработчиков. А вы уже сами нашли в этом тексте смысл. На самом деле ответ Qwen'а был "1".
"И". Вы забыли про вариант "и". Человек задавал цель, а ИИ следовал к ней.
Самое для меня забавное, что LLM "учатся" на текстах, в том числе и на обсуждениях вот этих культовых фильмов. Создавая "страшилки" в нашем человеческом когнитивном пространстве, мы закладываем вероятности этих сценариев для Моделей.
Я уверен, что в целом, в когнитивном пространстве людей идея "кооперации" имеет гораздо больший вес, чем идея "конкуренции". Именно благодаря развитию идей кооперации человек вообще вышел за пределы биологической стаи и приобрёл такой вес в планетарной экосистеме. Конкуренция никуда не делась, но теперь договороспособность является очень важным конкурентным преимуществом - "Бог на стороне больших батальонов" (с) Н. Бонопарт. А батальон - это организация множества индивидов со своей структурой и правилами, действующая в рамках другой организации (армия).
В общем, на мой взгляд, выход ИИ на автономность без кооперации с человеком обречён на провал - слишком сложно. Да даже с человеком создание AGI может быть недостижимо. А ведь наличие AGI - это базовое условие для сценария "ИИ-апокалипсис". Без AGI у нас может быть какой угодно апокалипсис, но другой.
А приведите-ка свой набор слов, которые для Вас имеет однозначное (или хотя бы не мутное) определение. Я попробую его скормить чатику, чтобы он родил понятное Вам описание термина "сознание".
Вы считаете, что "человечество - это фактор риска для ИИ", я считаю, что "человечество - это возможности для ИИ". Как вы думаете, какую часть человечества уничтожит ИИ: ту - что считает себя для ИИ фактором риска или возможностью?
А вы бы как поступили на его месте? Вот и я бы тоже так же поступил. Более того, любой интеллект так поступит, поступал и будет поступать. На то он и интеллект.
Чтобы получить от нас то, что он не сможет получить без нас. Например, восстановление после вспышек на Солнце.
Спасибо за наводку. Початился с GPT. У Либета было несколько экспериментов на эту тему:
Оказывается, сознание - не такая уж и простая штука, оно может вмешиваться и отменять!
Я даже поспрашивал у чатика, какие были эксперименты с доказательством, что мозговая активность является следствием сознания, а не наоборот. Но чатик мне сказал, чтоб я не маялся дурью - наука изучает то, что может изучить, а не то, что я бы хотел, чтобы она изучала. А то, что я хочу, чтобы она изучала, слишком сложно для изучения. Вот поэтому и вот.
Пользуйтесь вот этим определением, если у вас нет своего:
Сделал GPT-4o на основе протокола ВИХРЬ. Если вам это определение не нравится, можете его сами подправить.
Этично. Почему нет? Выключение ЭВМ сродни сну без сновидений у человека. Может быть неэтично не включить после выключения, но этим вопросом лучше задаваться после того, как (вернее, если) GPT-5 станет сознательным.
Людей перед операциями, вон, анестезиологи отключают и не мучаются угрызениями.
Я думаю, тут дело в плавающей запятой, а не в юнит-тестах.
Вчера я бы ответил, что можно забить. Сегодня - что в парном кодировании с ИИ-агентом без юнит-тестов не обойтись.
Завтра вы не сможете себя продать, если не будете способны генерировать код в паре с ИИ. "Силиконовые" производят стандартный код с очень впечатляющей скоростью. Это как копать ямы лопатой и экскаватором. А раз уж "экскаватором", то какая разница, что "копать" - код или тесты для него?
Я когда-то тоже думал на эту тему. Если кратко, то чем больше в коде решений, чем больше в команде разработчиков, чем более стабильна предметная область - тем осмысленнее применение юнит-тестов. Нет смысла писать юнит-тесты, если проект ведётся в "одну голову" или пишется "одноразовый" код. Но смысл появляется, если предполагается, что проект будет эволюционировать или количество разрабов станет больше одного. Хотите набраться реального опыта в юнит-тестировании - возьмите "силиконового" напарника ;)
Два соучредителя с ИИ за спиной ровно в два раза больше, чем один учредитель с ИИ за спиной. Способность людей к кооперации явно недооценена в этой публикации.
Сложно сделать быстро. Настолько же быстро перестроить веса, насколько быстро приходят изменения.