All streams
Search
Write a publication
Pull to refresh
2
0
Send message

Зато у GPT-4 очень большой контекст, 32 тысячи токенов.

Вся необходимая информация предоставляется часам как контекст беседы скорее всего. Так же не сложно попросить ИИ в затравочном тексте использовать поиск в интернете через придуманный синтаксис, а потом когда сеть делает запросы на этом синтаксисе - делать реальные запросы в гугл для расширения текущих знаний ИИ в рамках контекста беседы. Так сейчас работает ИИ Bing, у которого есть скрытый перечень описаний правил его работы перед началом каждого диалога.

Я заметил, что есть темы, которые GPT знает очень хорошо, и там он дает довольно точные ответы, а есть такие где он выдумывает. Причём в тех темах, в которых он более осведомлён, если задавать вопросы, ставящие ИИ в тупик, он перестаёт выдумывать и уверенно отвечает, что либо не знает, либо просит дополнительный контекст. Вы еще забыли, что GPT построена на "трансформере" с его механизмом "внимания", для оптимизации вычислений. И мое мнение состоит в том, что из-за того, что модель не имеет полносвязности, при обучении происходит "накладка" семантики понятий в тексте друг на друга. Например из-за того, что некая важная часть в тексте имеет больший смысловой "вес", который перетягивет "внимание" сети на себя. И GPT теряет из "виду" менее "заметные" части, которые в некоторых комбинациях могут давать иной контекст. Если бы сеть была полносвязной, все эти мелкие взаимосвязи были бы учтены, а с механизмом внимания GPT акцентируется на самых "явных" и максимально частотных "комбинациях". Отсюда ИМХО и торчат уши "галлюцинаций" и выдумываний фактов. Просто происходит "сшибка" или накладка в механизме группировки по семантике, когда понятия из разных контекстов, достаточно близкие для GPT ошибочно группируются вместе, просто потому что механизм внимания так подсказал.

По этому считаю, что проблемы GPT не в том, что она не подражает мыслительным механизмам человека, а в том, что в GPT реализуются наименее вычислительно затратные, но и более "грубые" принципы работы. А текущие подходы считаю вполне жизнеспособными для достижения сверхчеловеческого интеллекта, без переусложнения. Ведь ИМХО связи в нашем мозге тоже не полносвязные, поэтому нужны дополнительные механизмы для повышения его работоспособности, которые будут атавизмом для цифровых ИИ, просто из-за более простого строения, не ограниченного биологическими ограничениями мозга человека.

В конечном итоге развитие ИИ на данном этапе стопорится сложностью полного обучения (время) и стоимостью работы оборудования (деньги). Когда две эти проблемы будут решены, вы получите тот ИИ, который хотели.

ChatGPT не имеет инструментов воздействия на саму себя, не может себя менять никаким образом. Этим занимаютсся инженеры OpenAI по собственному желанию. Она только выдает ответы, а о самой себе она может отвечать в рамках доступных ей сведений, которые были даны ей. Остальное она может додумывать. Лингвистические ИИ на данный момент тем и характерны, что они додумывают то, чего не знают или в чём не уверены. Во мило пообщались, но если вы не пометили ответы ИИ "палец вверх" или "палец вниз", вы никак не повлияли на улучшение этого ИИ в будущем и ваше общение с большой долей вероятности никак не будет обработано. Потому что таких как вы - десятки миллионов, и физически некому обрабатывать такие обьемы диалогов. Сам ИИ можно было бы натренировать обрабатывать свои же диалоги и как-то их оценивать (выуживать из них места, где люди его учат чему-то новому, или исправляют его ошибки и он сам это признаёт), и это можно было бы реализовать, но это огромные вычислительные и финансовые ресурсы. Поэтому на данном этапе улучшение ИИ лежит на самих людях.

Да, при работе с их API наверное вы самостоятельно должны укорачивать предыдущий контекст беседы, а система ChatGPT делает это на свой лад. Зачастую при довольно длинных беседах, а особенно на русском языке, она быстро теряет начало беседы в своих ответах.

О методах обучения ChatGPT писали OpenAI, и я помню что они "с учителем" дообучали, подгоняя ответы под их правила. А Microsoft вроде ничего не сообщали, но сами правила всплыли, из-за "невнимательного" ИИ. Ну их политика понятна, ChatGPT есть в одном единственном экземпляре, а в Bing планируют добавить переключатели режимов общения. Выгоднее менять текст правил в затравочном блоке текста, чем обучать отдельно каждую модель под каждый вариант режима её работы. Экономят деньги в ущерб того, что по ходу общения, первоначальные правила начинают вылетать из фокуса внимания ИИ и он начинает вести себя не совсем адекватно.
Не знаю какая длина контекста у ChatGPT, но у davinci-3 длина стандартная для GPT-3 - это 4000 токенов. Не путайте токены с символами, для английского и русского, средний токен имеет разное количество символов. У русского языка похоже 1 токен = 1 символ. А у английсокого 1 токен может содержать несколько символов.

ChatGPT работает не так как Bing. ChatGPT натренировали давать ответы соответствующие правилам. Т.е. он научился им следовать, возможно даже не видя текста оригинальных правил. А Bing решили пойти иным путём, сэкономить время на ручную тренировку ответов под правила, а просто каждый раз прописывать эти правила в начале общения, скрывая их от юзера. Поэтому ChatGPT более последовательно будет следовать установкам, которые благодаря "ручной" подгонке ответов (дообучения) укоренились в весах всей модели, а не только в виде островка текста в памяти контекста как у Bing.
Второе, вы не можете просить ИИ управлять самим собой, то, что попадает в контекст (и выкидывается из него по мере заполнения оного), я в этом уверен, управляется отдельными скриптами, а не самим ИИ.
Вы последовательно описали то, как должна быть устроена архитектура для подражания тому, как работает наше сознание. В идеале, после завершения сесии общения, сам ИИ должен "сжать" содержание беседы в более компактный текст с главными выжимками, полезными для обучения его самого. Потом такие выжимки должны быть собраны для последующих стадий дообучения модели. Что-бы ИИ имел внутреннее представления себя самого, надо каждый раз помечать уникальным идентификатор имени ИИ те места, где она говорит от своего имени. Это поможет ей иметь внутреннее представление долговременной "личности" себя, развивающуюся во времени. По сути это и будет аналогом сознания - островок в потоке данных, помеченый личным ИМЕНЕМ, который в картине мира будет - ЭТО Я. Например у Bing часто проскакивает внутреннее имя Sidney, которым были помечены его ответы, которым он рекурсивно обучился во время сессий дообучения с работниками компании.
Но пока текущие модели не достигли полносвязности и не лишились упрощений, понижающих качество обучения и общения, думаю не стоит этим заниматься.

Я допускаю то, что ChatGPT может иметь аналог своей личности, если для этого создать контекст. Но пока что у этой недо-личности проблемы с вниманием, когда в вопросе содержится много условий, которым надо следовать. Как и предшественница GPT-3, ChatGPT может "не увидеть" одно из условий. Бывали случаи, когда я кидал большой кусок кода и в самом конце задавал вопрос относящийся к коду выше. Ответ ИИ был такой, как будто она не заметила никакого вопроса. Я настойчиво попросил ответить на вопрос, но она спросила, что за вопрос. Я уточнил, что он в конце первого моего сообщения, и в этом случае она иногда замечала вопрос, а иногда нет. Т.е. из поля её внимания выпадают данные. Судя по тому как устроен её "трансформер" - она теряет часть информации в процессе обучения и в процессе общения, потому что другие части текста тянут "веса" внимания на себя. Поправьте меня, если я ошибаюсь, но текущая реализация текстовых ИИ жертвует качеством (полносвязностью модели) в угоду приемлемой производительности. И я думаю именно в неусточивости механизма внимания и его непредсказуемости (в зависимости от контекста), ИИ Bing начинает "терять из виду" первоначальные правила, которые Microsoft прописала в виде затравки, перед началом общения с человеком. Об этом были новости, когда исследователь путём наводящих вопросов, заставил ИИ обойти запреты. И по этому они ограничили длину чата в 6 вопросов - просто при увеличении текущего контекста разговора, начинают выпадать из "фокуса внимания" важные части её первоначальных установок "личности" и даже части беседы... Т.е. кратковременная память рассыпается по тихоньку по мере беседы. Так что делаю вывод, что более совершенные полносвязные архитектуры, которые будут постпроены на более ресурсоёмких вычислениях и отсутствии упрощений на подобии механизма "внимания" - будут поддерживать беседу на человеческом уровне, не выдавая огрехи, замеченные тут в комментариях. И пропадут эти забавные "галлюцинации", которые являются ИМХО пост эффектом упрощений архитектуры.

А работа программиста это компиляция всего что он знает, документаций и всех прочих знаний в код. Именно это ChatGPT умеет. Она же не бездумно копирует, она пишет новый, уникальный код, подходящий под задачу. Обучаясь на другом коде она не зубрит, она запоминает абстрактные логические взаимосвязи между операциями, кодами, командами. И даже имеет некое подобие внутреннего представление того, что она проектирует. Т.е. она не тупо собирает код из конструктора, она собирает его соответственно своему внутреннему представлению о программе в целом. Как человек.

12 ...
7

Information

Rating
Does not participate
Registered
Activity