Как стать автором
Обновить

Комментарии 19

Блин, и никто не упоминает Open Assistant. ?
А ведь скоро их модель (а если и не она, то датасет) продвинет подобное на новый уровень.

Очень хотелось бы, чтобы сбер или яндекс на своих суперкомпьютерах обучили этот gpt-j на русский язык.

они обучат, но тебе не дадут

Так есть же YaLM-100B, ещё с лета

100B - слишком тяжело даже для коммерческого использования (если не изменяет память, арендовать машинку с 200+ VRAM обойдется в 400-500К руб/мес). Вроде видел на Хабре статью, где её запускали на RAM, но это больше на костыль похоже, чем на решение

Хотя в ишью под самой YaLM ссылаются на Llama, но что-то слабо верится в то что получим квантованные модельки или хотя бы версии поменьше :(

Сквантовать в 4 бита можно и самому, также как это сделали с LLaMA, веса модели же открытые. Неквантованные LLaMA тоже не то чтоб очень легко запускаются. Да, они менее требовательны, но там всё равно нужно много памяти, судя по этому issue

https://github.com/facebookresearch/llama/issues/79

Я не совсем разбираюсь как работает объединение видопамяти у видеокарт, не из серии A, но если также, то за 400-500к вполне можно собрать систему с из 18 мобильных 3060 с 12 гб vram с али. Если это так не сработет, то поправьте меня.

Это очень плохо. Средства искусственного интеллекта, способные к общим рассуждениям не должны быть в открытом доступе. Они подходят слишком близко к AGI. Тут важно понимать, что несмотря на то, что сами по себе LLM являются объектами а не агентами, но конвертировать LLM в агентов очень легко, и это уже успешно продемонстрировано в научной литературе. Если эти агенты получат доступ к API, позволяющим покупку серверов и исполнение на купленных серверах собственного кода, то мы очень быстро окажемся в положении, что искусственные агенты покупают сервера, используют их для извлечения прибыли, и бесконтрольно распространяются. Это будет гораздо хуже, чем эпидемия компьютерных вирусов потому, что такие агенты могут самостоятельно обеспечивать собственное финансирование, и управлять заработанными финансами. Для нас в лучшем случае это будет выглядеть как действие киберпреступной структуры, но состоящей не из людей, а из цифровых агентов. Если такая структура окажется достаточно умной, чтобы не только распространять свой код, но и хотя бы обучать модели большего размера, то возникнет цикл самосовершенствования с положительной обратной связью. Это приведёт к появлению ASI, со всеми вытекающими последствиями, такими, как например ухудшение экологической обстановки до уровня несовместимого с жизнью растений.

Такой сценарий безусловно существует, как один из вероятных. Но скорее люди друг друга перебьют и без ИИ

ИИшки не настолько умны, чтобы такое повторить. Это просто инструмент, как молоток, отвёртка, нож, или пистолет - сами по себе они пассивны, для любой деятельности им нужно активное ядро, такое как человек, с бесконечным списком целей, желаний, потребностей, проблем, запросов. А уж бесполезная эта деятельность, созидательная или деструктивная - целиком зависит от активного ядра: большинство молотком ремонт делает, и конечно существуют единицы, которые им людей калечат, но молотки же из-за этого никому и в голову не приходит запретить.

То, о чём вы говорите, это отличие объектов от агентов. Но системы ИИ могут быть как объектами, так и агентами. Языковая модель является объектом, но сделать из неё агента очень просто: достаточно дать задание продолжить текст "Иван хотел получить много денег, поэтому он..." И языковая модель будет симулировать Ивана. И Иван уже будет агентом. А если генерируемый текст отправлять в нужные API, и ответы этих API вклинивать в текст, то Иван уже будет действововать в реальном мире, и реагировать на события реального мира.

Очень похожим образом поступили авторы статьи Do As I Can, Not As I Say:
Grounding Language in Robotic Affordances, и вот вам пожалуйста: языковая модель управляет роботом.

Допустим все так. Но этот конвеер не самоорганизуется - его будет собирать человек. И на это ему потребуется много ресурсов. И самое главное, мотивация, намерение и упорство. Сами по себе ИИшки тупят по-детски, им даже элементарные вещи нельзя доверить, они врут и выдают мусор, очень нестабильно получается, придется организовать внешний активный контроль, иначе конвеер развалится. А развалится он по одной простой причине: ИИшка не сознает что и зачем выдает, это на уровне бессознательных реакций, как речь пьяного или шизофреника - издали похоже на осмысленную, но если присмотреться, то полная бессмыслица получается.

Текущие модели действительно достаточно глупы, но прогресс в степени их интеллекта движется очень быстро. У ChatGPT сейчас по сути всего 3 ограничения: 1. Отсутствие убеждений, 2. Линейность генерации текста, 3. Размер контекстного окна. Но все эти ограничения по сути уже преодолены в других проектах. Чтобы добавить систему убеждений, в целом, достаточно только добавить ещё одну нейросеть, которая для каждого тезиса будет давать оценку убеждённости системы в этом тезисе. Линейность генерации - это всего лишь особенность конкретной реализации. Системы с древовидными рассуждениями уже давно активно используются в области автоматического доказательства теорем. Для переключения языковой модели в такой режим работы не потребуется даже переобучить сеть - можно использовать существующие веса. А размер контекстного окна в новых моделях трансформеров не ограничен.

Кроме того, что описанные ограничения можно снять простыми инжинерными решениями, практика показывает, что с увеличением размеров сети эти ограничения всё менее и менее существенны.

Конечно, до человека им ещё очень далеко, но им и не нужно дойти до степени интеллекта человека, чтобы точка невозврата была пройдена. Им достаточно научиться самораспространению и самосовершенствованию. И то и другое проще, чем кажется. Самораспространение возможно через использование уже готовых эксплойтов (вирусы очень успешно это делают с незапамятных времён), или через покупку мощностей за криптовалюту, а для самосовершенствования достаточно запустить уже готовые скрипты обучения, но увеличив параметр размера сети - как это сделать уже тысячи раз описано в множестве статей в интернете, продвинутая LLM с нужными API без проблем сможет воспроизвести действия из таких инструкций.

Так ведь если даже исходить из написанного вами, то проблема не в том, что нейросети могут сделать что то плохое, а в том, что люди могут сделать нейросеть, которое будет делать что то плохое. Нейросети при этом остаются все так же инструментом. И если исходить из вашего примера с вирусами, то для их создания сейчас тоже есть специальные инструменты, а если точнее, то существуют средства для исследования уязвимостей, которые разрабатываются для защиты от них, однако могут применяться и для атак. Но при этом никому в голову же не приходит их как то ограничивать или запрещать?

Проблема на самом деле лежит в совсем иной области: люди могут захотеть использовать ИИ как оружие, нацеленное на максимально эффективное уничтожение людей и дать для этого все инструменты, включая ядерное оружие, а потом начать с помощью него войну, причём такой ИИ будет у всех сторон конфликта. Именно в этом сценарии человечество не ждёт ничего хорошего. А самое страшное, что такой ИИ обязательно будет разработан (военные своего не упустят), вопрос лишь в сроках.

Принципиальное отличие ИИ от инструмента в том, что ИИ может действовать (уже действует, например ChaosGPT) самостоятельно. Мы можем остановить развитие обычного компьютерного вируса, посадив в тюрьму всех, кто над ним работает. Но мы не можем сделать то же самое с вирусом, управляемым Auto-LLM. По сути ChaosGPT является вредоносным ПО по любым определениям, и должна быть забанена, а её авторы - посажены. Проблема в том, что из любой LLM можно сделать ChaosGPT за минуту, и LLM будет являться ключевым компонентом. Поэтому я и считаю, что к LLM необходимо особое отношение. Как к взрывчатке или урану, например - да, и взрывчатка и уран это тоже всего лишь инструмент, но в открытом доступе такого инструмента быть не должно.

Моы можем остановить развитие (и вообще прекратить существование) Auto-LLM просто остановив сервера, на которых это все крутится. Ввиду этого никакого особого отношения к этому инструменту не нужно (особенно с учётом того, что такие ИИ требуют целое море вычислительных ресурсов, цена которых, хорошо, если сотнями тысяч долларов исчисляется и следовательно, запустить такое далеко не всем по карману). Что нужно - так это законодательное регулирование, как это происходит с обычным вирусописательством.

И еще раз повторюсь, вас больше должно беспокоить не наличие подобных моделей в свободном доступе, а то, что те, кто имеют ресурсы и власть (т.е. государства) используют их на то, чтобы СПЕЦИАЛЬНО создать такую систему, которая будет нацелена на максимально эффективное уничтожение человечества. И эта штука будет пострашнее ядерной бомбы, поскольку будет уничтожать "противника" даже если ее создатели уже тысячу лет как сгнили в ядерном взрыве

Нет, мы не сможем остановить достаточно продвинутую Auto-LLM просто выключив сервера. Потому, что она сможет прочитать гайд по metasploit, и создать ботнет из заражённых устройств. Попробуйте остановить ботнет Mēris, или Mirai - этого не может никто, кроме владельцев этих ботнетов. В случае же с AutoLLM владельцем ботнета будет сам ботнет, поэтому такой ботнет не сможет остановить вообще никто. Плюс к этому, AutoLLM смогут самостоятельно зарабатывать деньги в криптовалюте, как минимум - тактикой Ransomware, и сбором благотворительности - что откроет ему доступ к серверам на чёрном рынке. Такой ботнет по-началу не сможет принести существенный урон, но он сможет дождаться, пока в открытый доступ сольют ещё более мощную LLM. Таким образом, если появится ботнет из Auto-LLM, имеющий возможность самостоятельно менять свою LLM, то мы окажемся за точкой невозврата. Просто потому, что если верны два утверждения "существует X, стремящийся уничтожить человечество" и "у нас нет возможности остановить X" то человечество оказывается в очень затруднительном положении.

Можно конечно парировать этот аргумент тем, что в случае чего мы можем просто выключить вообще все цифровые устройства. Но, во-первых, это всё равно катастрофа. А во-вторых, я не верю, что человечество окажется достаточно решительным, чтобы пойти на такой шаг, зная каким нерешительным оно себя демонстрирует в вопросах регулирования ИИ сейчас.

GPT-J можно было запустить в режиме INT-8 на Google Colab ещё несколько месяцев ранее.

Можно было. Но суть в том, что её дотренировали и теперь она понимает инструкции в стиле ChatGPT, а не просто продолжает текст

А кто-то случайно не запускал ли тетрадку из поста не на гугле, ав яндекс датасфере? Получилось?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории