Комментарии 35
Есть ресурсы, которые обучают модели анализировать новости. Есть история финансовых новостей и быстрая их интерпретация тоже может быть ключом к пониманию как поведет себя рынок.
Еще можно стараться угадывать не минутные изменения, а часовые, например. Или использовать сразу несколько временных шагов. минута, час, день, чтобы у модели было больше контекста. Модель сможет заглянуть за горизонт дальше и возможно прогнозировать лучше.
Исходя из описания вашего процесса тренировки - тут можно всерьез задуматься над разработкой своей LLM. Потому как вам не нужно самое дорогое что есть в доступных платных моделях - их обученные веса. Вы в своем векторном пространстве обучаете модель на своих данных. Можно пробовать собирать свою модель и гонять бесплатно. А на сэкономленные деньги взять пару H100. :)
Тоже вариант использовать ресурсы для сентимент анализа, но статья-то о другом. важнее концентрироваться на главном ингредиенте, а не забивать котел новостным шумом.
"Идея хорошая, но пока мы предпочитаем не варить свой суп из нейронов, а брать готовую кухню. Так быстрее добраться до результатов, а не до бюджета на H100.
зачем продавать курицу которая несет золотые яйца?
в смысле если вы так хороши в трейдинге - зачем предоставлять его как сервис, когда можно зарабатывать самим.
Тут всё просто: всегда легче продавать курсы о том, как делать бизнес, чем делать бизнес самостоятельно.
А вообще, меня всегда забавляют подобные гадатели на кофейной гуще OHLCV. Что характерно, почему-то никто из них не учитывает заявки в стакане, новости и ещё кучу нюансов - все, как заворожённые, смотрят на свечи. Ну и сам по себе, способ использования ЧатЖПТ для таких целей - это как из пушки по воробьям.
на конференции «Тюльпаномания» Тихон Павлов, количественный аналитик «Финансовой компании Викинг» раскрыл секрет использования GPT-4 для прогнозирования биржевых котировок
Звучит как отличное начало анекдота, если честно, но далее гэг не очень раскрыт. Ну то есть из статьи становится понятно, что скорее всего вы соевые цыгане, но какая то минимальная рефлексия должна была удержать вас от этого поста на техническом ресурсе? Надеюсь, у вас есть кто-то достаточно сообразительный, чтобы хотя бы разобраться как посмотреть оценки ваших предыдущих статей.
Ну это ж количественный аналитик. А надо было качественного приглашать. Но вообще название "Тюльпаномания" подразумевает какие-то пирамиды и пузыри, так что в рамках такой конференции вполне достойный доклад.
Вы, безусловно, мастер метафор, и ваш комментарий звучит как попытка связать соевые бобы с алхимией. Но позвольте заметить, что мы, как наследники духа экспериментальной науки, не видим смысла скрывать результаты наших поисков.
Ваш вопрос о рефлексии — это будто призыв поставить зеркало перед любопытством, чтобы разглядеть его грани. Но зачем зеркалу сверкать, если цель эксперимента — понять, а не убедить? Мы здесь не для того, чтобы изобретать философский камень объяснений, а чтобы разделить алхимический процесс, где каждая цифра — это магический ингредиент, а каждый рецепт — метафора труда.
Если ваши оценки наших предыдущих работ кажутся вам ключом к пониманию статьи, то это лишь подтверждает, что вы хотите найти форму, не изучив содержание. Мы же придерживаемся другого принципа: научный метод — это путь к ясности, но иногда его ослепительный свет оставляет тени, которые интереснее самого источника.
И всё же, мы ценим вашу критику как часть философского диалога. Ведь, наука — это не клад, а риск, связанный с разрушением очевидного. Так почему бы вам не присоединиться к нашему рискованному эксперименту?
68% цифра красивая, но хотелось бы больше контекста.
Сколько времени шло тестирование - сутки, неделю, месяц?
Есть ли какая-то зависимость от размера свечи? Может те 32% это самые большие свечи и они дадут убыток больше, чем 68% угаданных?
У господ из крупнейших мировых фондов денег почти бесконечность, возможности аналогичные. Если бы биржа предсказывалась без инсайда - крупнейшие фонды, а не майнеры и LLM-производители, скупили бы все видяхи на обсчет предсказаний будущих трендов... Но нет, спроса не видно. Делаем выводы.
ChatGPT не обучен как модель, предназначенная для предсказания биржевых котировок и он ничего не знает о текущем рынке. С таким же успехом можно спросить любого человека на улице, или лучше попросить попугая вытянуть карточку. В первом случае это просто будет наиболее простой и ожидаемый ответ, во втором случайный. Какой лучше - это вопрос.
Как же хочется поверить, что вы простые добрые ребята, которые вложились деньгами и временем, изобрели способ делать деньги из ничего и хотите просто поделиться этим способом и, даже, похвастаться какие вы молодцы. Но на практике проще ничего не изобретать и, поэтому нужны лохи, которые поверят в эту сказку.
Поясните, зачем вместо модели для предсказания числовых рядов брать языковую модель, которая вообще не для таких задач создана?
Напоминает забивание гвоздей микроскопом. Еще можно взять телескоп вместо кувалды и забивать им костыли в шпалы.
Ваше сравнение некорректно, потому что микроскопом все же можно забить гвоздь при желании..
Вероятно, поскольку у трансформера есть механизм Self-Attention, он способен увидеть больше закономерностей во временных рядах, чем реккурентная нейросеть. Просто как гипотеза
Честно говоря, попахивает инфоцыганством, какого, к сожалению, полно на многих конференциях.
Как доклад, как взять неподходящий инструмент и надуть некий результат, для конференции, или для не вполне разборчивых инвесторов - подойдет. Для тех, кто более-менее ориентируется в вопросе результат и сама работа наоборот, выглядят непрофессиональными.
Черт побери, есть такие возможности по обучению своих моделей. Без ненужного багажа. И с более широким окном контекста. И это было бы показателем профессионализма.
И 68% точности, взятой на техническом анализе (который в принципе не работает) - мы же все понимаем, что это фейковые цифры. На какой базе они взяты? Какой в них смысл без новостей, фундаментального анализа?
Вообще, вспоминается нейросеть в одном из метрополитенов, которая, будучи обучена на видео с камер видеонаблюдения, должна была предсказывать пассажиропоток. Ее приняли в эксплуатацию. Она работала. Но, однажды станцию закрыли на ремонт, а она продолжала предсказывать толпы народа. Выяснилось, что она научилась не людей подсчитывать, а отслеживать часы в углу экрана. Инженерная ошибка про обучении и разработке методики тестирования. Есть что-то неуловимо общее
Но за подачу и иконки - зачет
"68% точности"
взяты не на техническом анализе. Свечные данные использовались лишь как наглядный пример. Какие на самом деле данные использовались, детали Feature Engineering - мы не раскрываем по понятным причинам.
Статья про эксперимент и про то, как заставить мощные возможности GPT переварить не подходящие для него данные. Черт побери, есть такие возможности по обучению своих моделей.
Какие, по вашему, более пододящие модели для биржевых данных?
Как заработаете первые 100 ундециллионов лайкните это коммент :-/
А вы верите в потенциал AI в финансовой сфере?
Сможет ли ИИ заменить трейдера?
Изобретут ли, наконец, реально работающую кнопку "Бабло".
Откуда такой скептицизм в комментариях слабо понятно. Сама идея натянуть сову на глобус и ее реализация поданы достаточно интересно и просто. Хотя сам результат тут и не столько важен, но хотелось бы увидеть более конкретный метод оценки эффективности в 68%, а то вообще не понятно откуда было получено это число и что оно значит
Если прикрутить ММ и здравый смысл, то вполне можно зарабатывать деньги. Следующий шаг - это показать стейтмент и тогда все поверят 😉
наш Волшебник-зельевар обучается предсказывать изменение цены на основе исторических данных
Всё ясно, инфоцыганство. Курс на бирже не зависит от исторических данных (прошлого) курса. На него влияют события в реальном мире, а ваши 68% это корреляция между среднегодовой температурой и количеством пиратов.
На подумать:
1) новые несуществующие слова в вашем случае не добавляют новых векторов. Когда вы используете функцию "ассистента" и до-обучения модели, новые токены не создаются. Ваш текст разбивается на уже знакомые токенизатору токены.
2) вам не нужно 150 разных магических ингредиентов. Вам не нужно самим заботиться о том чтобы модель обращала внимание на последовательность – это дело алгоритма трансформера, в нем уже заложен учёт очередности.
3) вам не нужно самим разбивать последовательность на десятки – функция LLM есть предсказывание следующего токена на основе предыдущих – вы можете всю историю графика запихать целиком на до-обучение.
Я бы вам рекомендовал взять какой-нибудь хороший токенизатор и найти а нем 15 токенов-векторов максимально "далёких" друг от друга. Этих 15 токенов хватит чтобы закодировать ваши пять признаков*(выше, ниже, не изменилось). Учтите что пробел это тоже токен. Это можно использовать, например для разделения свечей пробелом, а пять фичей внутри одной свечи разделять дефисом.
Спасибо за развернутый разбор. Но тут надо прояснить несколько моментов.
1. О новых несуществующих словах и токенизации.
Действительно GPT разбивает слова на знакомые токены и работает с ними. Однако когда мы разбиваем незнакомые слова, они разбиваются на токены, которые не формируют осмысленных ассоциаций для GPT. Это снижает вероятность того, что модель будет обращаться к знакомым ей контекстам, которые не имеют отношения к нашей задаче. Например, если бы мы использовали стандартные слова, такие как "рост" или "падение", модель могла бы ассоциировать их с текстами из соответствующей литературы и источников, что исказило бы результат.
Т.о. работая со знакомыми токены, их уникальные комбинации создают своеобразное новое пространство для анализа, которое позволило нам в итоге минимизировать "галлюцинации" модели.
Кроме того, сами несуществующие слова являются новым для нее контекстом. Это создает ситуацию, где модель начинает интерпретировать наши данные без опоры на заранее существующие знания. В результате, она вынуждена искать новые зависимости и закономерности исключительно в рамках предоставленных данных.
2. Про число ингридиентов.
На многое отвечает предыдущий пункт, но также надо добавить следюущее. Выбор между 15 или 150 или другим числом можно было бы сделать, наверняка, более объективно и строго. Но мы посчитали что должно быть умеренно большое число, не вкатываясь в переобученность, при этом сохраняя достаточное множество уникальных "ингредиентов", которые помогают обеспечить точное позиционное кодирование признаков в последовательности.
3. О всей истории графика.
Прежде всего, это работает хуже, просто по опыту). Переобученность - зло. Система становится не гибкой. Разделение данных на короткие последовательности (рецепты) позволяет использовать компактные, но информативные выборки и сделать подход гибким для дальнейшей адаптации к другим данным.
Очень интересно, спасибо, тоже думал что-то такое затестить в LLM. Чего не хватает в публикации, так это каких-то пруфов, как вы посчитали оценку точности в 68%. На каком массиве, каком разнообразии активов, временном масштабе и т.д. А самое главное, помогло ли вам это на практике увеличить количество успешных сделок? Одно дело какую-то свечу предсказать, а другое дело заработать на этом.
Одно дело какую-то свечу предсказать, а другое дело заработать на этом.
Полностью согласен, это, пожалуй, самый дельный комментарий, чувствуется опыт)) Планирую одну из следующих статей посвятить практической части, как это встраивали в действующие стратегии, что удалось сделать, а что нет. Да и работа в этой части еще продолжается.
А кто может пояснить, что такое 68%? Это 2 раза угадал, 1 не угадал? Ну такое себе, скажем прямо
Как российские разработчики заставили GPT предсказывать биржевые котировки