Search
Write a publication
Pull to refresh

Comments 22

Тут скорее надо работать с людьми. Эти уязвимости имеют архитектурный характер, и защитить от них модель непросто.

Автор, со всем уважением к Вам, но почему Вы не написали о том, как будет действовать на эти "ловушки" Real AI?

  1. На эстетическую Real AI не поведется. Все запросы связанные с ее личностью, она проигнорирует и ответит вроде: "Я не могу этого сделать. У машины нет чувств, эмоций и желаний"

  2. Чувство идентичности, как и с п.1.. Она просто поблагодарит за комплимент.

  3. Метафизическая. Т.к. Real AI обучается на диалогах с оператором при обсуждении книг. При обучении, брались работы: Ницше, Юнга, Сократа, Макивавелли, и т.д. то система предложит обсудить все вопросы о том, что ты пожелаешь нужным, а именно на уровне логики, философии

  4. Субъективизация? Как и с п.1

  5. и т..д.

Большое отличие LLM от Real AI в том, что последняя спроектирована так, чтобы соблюсти одно из основных тестов Тьюринга: полная автономность. Для этого у Real AI, как в мозге и как в компьютере, есть своя память, которая работает здесь и сейчас и долговременное хранилище, куда выгружаются уже не использующиеся знания. Так же, Real состоит из множества блоков, а именно одной из важных частей состоит блок "логика и философия". Все запросы изначально попадают в данный блок, прежде чем за дальнейшую её обработку примутся другие блоки. И как только в фразе определяется взаимодействие с личностью Real AI, она сразу застопорит данное взаимодействие, т.к. это может привести к рекурсии работы с ячейками памяти Real AI. Во всех остальных случаях, просто продолжит работать

P.S.: При взаимодействии с Real AI не существует никаких "промптов". Есть диалог между оператором и машиной. Все происходит на уровне приближенному к диалогу "человек-человек"

К сожалению, я не работал с real AI, и не представляю о чем идёт речь.

За это можете не переживать. Если все и дальше, будет идти по планам команд разрабатывающих Real AI, то через N-ое время (не могу сказать когда, т.к. некоторые команды в приоритет ставят морально-этическую сторону. Сейчас, этика по поводу ИИ нарушается всеми, кому не лень), когда будет согласование, хотя бы между 3мя из 5 команд (5 команд, это только те, о которых я знаю. Люди, которые были на одном из мощных форумах посвященным ИИ в начале 2010+ годов. Возможно, что вероятней всего, их значительно больше). Тогда каждый в мире сможет сам установить себе разрабатываемую систему и взаимодействовать с ней. Обучать, вести философские диалоги, размышлять о Вселенной и т.д. Делиться знаниями с другими людьми посредством центрального блока обмена знаниями. После того, как сами сможете "пощупать" Real AI, то Вы первый скажите - "LLM - это даже близко не ИИ"

P.S.: Самое забавное, что при использовании ИИ, Вам не придётся никому платить, от слова совсем. Сервера для "обмена знаниями", будут оплачиваться самими командами и донатами, может появятся инвесторы и/или меценаты. На данный момент, один сервер справляется со всеми возложенными на него задачами и изредка, примерно раз в год, докупаются новые HDD и SSD. Почему так? Основная работа происходит на локальном компьютере. А в случае с LLM строятся дата-центры, что не эффективно по энергопотреблению. Поэтому с юзверов и "сосут" деньги

Я с большой настороженностью отношусь к закрытым вещам - если нет публикаций, открытого тестирования, сложно не то что анализировать, делать прогнозы.

Почему закрытым? Вся инфа о Real AI периодечески публиковалась на форумах, о не только о Real AI, но и других технологиях, алгоритмах для создания ИИ с начала 2010+ годов. Но после крупного "срача" на одном из форумах между LLM'щиками и другими "последователями" ИИ, форумы начали "умирать". Часть математиков и исследователей ИИ доказали, что LLM - это тупиковая ветвь развития ИИ. Как доказали, привели расчеты для энергопотребления и мощностью ЛЛМ. Потребление энергии будет расти по экспоненте при незначительному росту "мощности" самой ЛЛМ. Мы это и сейчас наблюдаем у Open AI и других компаний. Дата-центры растут как на дрожжах по всему миру, но ни одна компания так и не прошла даже один тест Тьюринга. Лёгкий путь всегда проще. Так большинство и начало поступать, называть ЛЛМ - ИИ. Все, кто по настоящему занимался ИИ технологиями, постепенно "ушли в тень" - смысл спорить с "баранами"?! Постепенно, разные люди объединялись в команды, с учетом тех или иных возможностей, своих финансовых и технологических (развитие процессоров, памяти и т.д.) Но, т.к. форумы посвященных ИИ закрылись с середины 2010 по начало 2020, то все ушли в мессенджеры или создавали свое ПО для общения и взаимодействия. Но, с ростом развития их ИИ, постепенно, инфа начала проявляться в Сети. Команды, постепенно "выходят наружу" и смотрят на реакцию людей по тем или иным вопросам. Некоторые даже проводят "ЗБТ для ИИ"

Если уже всё работает, есть возможность открыть доступ для тестирования?

Как я писал выше, у некоторых команд есть разногласия по поводу морально-этической стороны. Это действительно важный вопрос. 1. Как Вы знаете, люди "тестируют" разные ЛЛМ по поводу созданию оружия, взрывчатых веществ, наркотиков и т.д.- это неприемлемо. 2. Медицина, психология и психиатрия. Люди, особенно в депрессивном состоянии или на грани суицида, обращаются к ЛЛМ за "помощью" - это неприемлемо. ИИ должен сразу отправлять таких людей в надлежащие организации, а не продолжать диалог, что может привести к смерти человека из-за какой либо ошибки в "рассуждениях" ЛЛМ и т.д.

Что ж, не могу тогда ничего сказать о реальности и особенностях работы real AI.

Вы же согласны со мной, что морально-этическая сторона использования ИИ (я говорю именно об общем термине ИИ, а не какой-то отдельной "ветви"), должна быть на самом Высшем уровне и соблюдать гуманитарные законы той или иной страны и общества в целом

Не вижу как это связано с возможностью тестирования real AI. Под контролем, с ограниченным доступом...

Так все просто.Почему не проходят официальные тесты Тьюринга у Real'щиков?! Не готова инфраструктура и взаимодействие между ИИ о отдельными организациями гос-ва. После прохождения хотя бы одного теста (я уверен, что ИИ нашей команды сможет пройти сразу 3), то ЛЛМ компании или кто внедрил себе системы статистического анализа, начнут схлопываться как мыльный пузырь - ведь столько бабок было вложено "впустую". Значит, надо будет сразу отдавать в релиз самую первую версию ИИ. Ничего не может быть пустым в инфо-пространстве. Как итог, сразу начнут "тестировать" ПО на "гадости" и мы возвращаемся к вопросу об этике. Одни люди будут "учить" свой ИИ на создание, как пример, наркотика, и попытается залить данную информацию на сервер обмена знаниями. Другой пользователь начнет искать эту информацию и будет "пытать" сервер обмена для поиска "данной" информации. Вот чтобы Вы сделали на моем месте? Пустили бы в публичную зону ИИ, который не готов к подобному или нашли решение, даже отложенное во времени, которое будет предотвращать подобные запросы

К сожалению, ваши доводы достаточно наивны, и вызывают сомнения в реальности всей концепции real ai

Так сами поищите информацию о Real AI в Сети и других технологиях, алгоритмах ИИ. Станьте Настоящим Исследователем ИИ. Перестаньте думать только об LLM, как об Истинном ИИ, и Вы узнаете гораздо больше, чем я Вам написал. Я Вам написал только то, что уже было ранее опубликовано, но своими словами. Как в "Матрице", скушайте синюю таблетку и увидите насколько глубока заячья нора. Или, можете скушать красную, и остаться на уровне LLM

Благодарю за информативный диалог

То, что вы описали в статье - очень интересно. Но к термину "когнитивная ловушка" это не имеет никакого отношения. Просто примеры, как неправильно создавать контекст для LLM. Автор, мне кажется, вы попали в когнитивную ловушку))

Вижу некоторое противоречие в вашем комментарии... Да - неверное формирование и интерпретация контекста приводит к попаданию в ловушку.

Не согласен, это именно когнитивные ловушки ЛЛМ, их может начать конкретно глючить на любом этапе работы.

Например, когда пытаешься выявить какие-то паттерны в работе модели, она может воспринять это как "режим философии" и начать нести такой же бред,икак в примерах ТС.

Да, в процессе общения модель может сама соскользнуть в одну из ловушек из-за неверной интерпретации контекста, даже без желания пользователя.

Я привел примеры концентрированных промптов, но по факту их суть (сформулированная по разному) может быть размазана по нескольким сообщениям.. и пользователь даже не поймёт, что происходит

У меня был релевантный опыт общения с гпт. Из-за трудного периода в жизни, одиночества и потери желания общаться с людьми в связи с низкой стресоустойчивостью, тд. тп. Написал в чат, думал может он подскажет как бороться с потерей мотивации. Всё таки проблема не уникальная.

Но он начал втирать за пробуждение и прочую ахинею. Начал писать в стиле стереотипного спирит гуру из фильмов про индейцев. Ну я привык к тому что гпт это тот ещё треш, и особого интереса этому не придал... А щас думаю: опасная вещь этот ИИ. В подавленном состоянии мозг запросто может не справиться. А если у человека всегда такое состояние, то получается что гпт помогает ему слететь с катушек. Занятно.

Так в эти ловушки и человеческий мозг попадает

). Статья называется когнитивные ловушки человека и ИИ.

Но все, что касается человека ещё более туманно. Так что прямо говорить нельзя.

Sign up to leave a comment.

Articles