Попробуйте поменять формулировку, модели начинают путаться.
Пример: Peter has 4 brothers the same age, 2 younger brothers, 3 sisters the same age and two older sisters, how many brothers does Peter's brother have?
Здравствуйте, в текущей реализации сделан пока только интерфейс к платной GPT модели от Open AI, чат не делает ничего более того, что делает СhatGPT.
В следующей версии я планирую добавить альтернативные LLM модели. Возможно, сделаем пример взаимодействия с API стороннего сервиса через модель GPT (о чем написано в самом начале статьи).
То, что вы описываете. Я вижу два варианта: 1. Передавать весь контекст с каждым запросом. Для этого можно выбрать модель с большим контекстным окном и прописать, чтобы весь контекст прикрплялся к каждому сообщению автоматически. 2. Использовать модель обученную на ваших данных.
То, о чем вы пишете, это интересная задача, я подумаю над тем как её можно было бы удобнее реализовать в проекте.
От Егора (хабр не опубликовал его комментарий): "Спасибо большое за замечание. Добавили задачу, она будет является приоритетной (https://github.com/soshace/fosterflow/issues/23). Есть ли у вас еще замечания или пожелания?"
То, что понимается под ретропричинность и нелокальностью я вижу, как признаки квантовой запутанности. Квантовая запутанность сохраняется у двух частиц до момента измерения (внешнего воздействия), а если не было измерения, то нельзя судить о месте и времени для этой пары частицы до момента этого измерения.
Сами понятия пространства и времени человек может сформировать только в процессе взаимодействия (измерения). Если представить, что время остановилось, то исходя из Принципа неопределённости Гейзенберга мы не сможем судить о пространстве и наоборот,если мы очень точно определили точку в пространстве, то мы не можем что-то сказать о времени для этой точки в пространстве.
На мой взгляд, если отбросить эмоциональную составляющую, попытки сопоставить себя с чем постоянным-неизменным, то не имеет значения кто оригинал, а кто копия, т.к. в следующий момент времени каждый из нас измененная — дополненная копия человека в предыдущий момент времени. Информация переходит от одного носителя к другому, главное, чтобы она не терялась со временем, а что считать именно тем самым «я» (все тело целиком, мозг, восприятие или память) — личное дело каждого
Claude 3.5 Sonnet стабильно верно отвечает из того что пробовал. Сравнивал модели на lmsys arena, poe.com
Попробуйте поменять формулировку, модели начинают путаться.
Пример:
Peter has 4 brothers the same age, 2 younger brothers, 3 sisters the same age and two older sisters, how many brothers does Peter's brother have?
В статье написано, что модель адаптируется без переобучения.
Под ARC Challenge имеется ввиду https://arcprize.org/? Или какой-то другой?
Что за проект?
Пробовали flippa.com?
Здравствуйте, в текущей реализации сделан пока только интерфейс к платной GPT модели от Open AI, чат не делает ничего более того, что делает СhatGPT.
В следующей версии я планирую добавить альтернативные LLM модели. Возможно, сделаем пример взаимодействия с API стороннего сервиса через модель GPT (о чем написано в самом начале статьи).
То, что вы описываете. Я вижу два варианта:
1. Передавать весь контекст с каждым запросом. Для этого можно выбрать модель с большим контекстным окном и прописать, чтобы весь контекст прикрплялся к каждому сообщению автоматически.
2. Использовать модель обученную на ваших данных.
То, о чем вы пишете, это интересная задача, я подумаю над тем как её можно было бы удобнее реализовать в проекте.
Добавил в идеи: https://github.com/soshace/fosterflow/issues/24
От Егора (хабр не опубликовал его комментарий):
"Спасибо большое за замечание. Добавили задачу, она будет является приоритетной (https://github.com/soshace/fosterflow/issues/23). Есть ли у вас еще замечания или пожелания?"
Александр, интересует ваше мнение по поводу Liquid Neural Networks. Использовали ли такие? Насколько успешно они справляются с навигацией?
К 2030 у Майкрософт получит сильный интеллект с независимой энергосистемой. Отключить не получится.
Автор использовал старую версию GPT 3.5. Четвертая версия справилась со всеми вопросами.
То, что понимается под ретропричинность и нелокальностью я вижу, как признаки квантовой запутанности. Квантовая запутанность сохраняется у двух частиц до момента измерения (внешнего воздействия), а если не было измерения, то нельзя судить о месте и времени для этой пары частицы до момента этого измерения.
Сами понятия пространства и времени человек может сформировать только в процессе взаимодействия (измерения). Если представить, что время остановилось, то исходя из Принципа неопределённости Гейзенберга мы не сможем судить о пространстве и наоборот,если мы очень точно определили точку в пространстве, то мы не можем что-то сказать о времени для этой точки в пространстве.