то что я описывал, относилось к 4о, посмотрим конечно что даст о1. Но принципиальной разницы я не вижу от такого обучения. Так считаю, что подход обучения должен быть кардинально другим. Я сейчас делаю сетку слуховой коры. и там подход обучения подготавливаю с разбиением на 3и этапа: - база частотная: частоты тона и формант и других звуков, интенсивность - базовые временные паттерны: паузы, наклоны, темп и т.д. - разветвление, когда все это до обучается сразу под спектр задач от выделения спикера, до определение аудио паттернов рефлексов. то есть сначала обучаем базе и затем расширяем обучение.
Как по мне подобного подхода не хватает chatGPT и другим LLM. Когда обучение идет периодически чередуя базу и правила. Сейчас же обучение LLM это обучением базе, и там уже на авось что среди этой базы встретились правила. Мы проводили тесты. где было выявлено, что обучение зависит от порядка данных. Поэтому оно должно быть 1) обучение базе.. время - это... пространство это - 2) обучение правилам. после завтра - это время, где... то, как обучается человек. Иначе, многие важные связи могут оказаться слабыми. А так же отуncтвие четких зависимостей, где вместо этого будут просто мусорные связи.
Это не решит проблему. Я знаю про подход "chain of thoughts" и постоянно использую его добавляя https://www.promptingguide.ai/
1) рассуждай шаг за шагом 2) проверь свой ответ на соответствие биологическим значениям (если речь про биологию процесса) 3) в чем я не прав? 4) если не знаешь. напиши не знаю и не придумывай
Первый пункт - как раз про "chain of thoughts". Второй пункт - про то. чтобы модель придерживалась контекста и проверяла то что пишет. Третий пункт - чтобы модель меньше фантазировала, и сначала подвергала сомнению. то что я написал Четвертый - чтобы меньше врала.
Поэтому - "chain of thoughts" ни как не исправит ситуацию, так как я учитываю это в запросах в ручную. Без этих пунктов, ChatGPT просто превращается в рулетку. Так что введение "chain of thoughts" ситуацию не исправит. Я предлагал подобный подход в чате сбера. Только он был немного шире. Там по аналое с MOE, сами нейронки выступали в качестве орбитора. Это существенно улучило качество ответа в рамках знаний LLM модели (выше головы они не прыгнут), но при этом время одного ответа составляло от 5 до 15 минут. https://t.me/greenruff/1756 там же в комментариях я прикладывал код, чтобы каждый мог попробовать на разных LLM. Так что ChatGPT есть куда там еще расти. Но кардинально это не решает проблемы. Так как за пространственное мышление, отвечающее за причинно-следственные связи должна отвечать другая модель, как это сделано у нас в двух полушария. Один из примеров является, такого проявления является Гроккинг, описанный в данном статье https://habr.com/ru/articles/840136/
Боюсь, что это говорит не о качестве сетки. А об уровне и знаниях данного инженера.
Я стараюсь по максимуму использовать chatGPT при написании кодаи получении какой то информации быстро. Это дикий ужас. Надо тщательно перепроверять. Ошибка на ошибке.
Но ошибки ладно. Проблема гораздо хуже. Отсутствие понимания причино-следственных вещей.
1) быстро теряет контекст, и легко выкидывает важные вещи всего пару сообщений назад
2) абсолютно не понимает многие связи. Например, объясняю ему что человек не считает сколько ему нужно времени на речи и не рассчитывает кол-во вдыхаемого воздуха. Да, соглашается и тут же в одном из пунктов снова перечисляет что в зависимости от длины речи человек решает сколько вдохнуть воздуха. И так по кругу.
Всё эти LLM на сегодня это продвинутый поисковик, с возможностью обобщения и поиска связанных данных.
Но ни к ИИ, ни к замени кого то это не ведёт. Это инструмент облегчающий какие-то вещи. Либо этот инженер искал бы и писал свой код просмотрев кучу форумов либо обобщил через LLM.
Автоматизирует рутину - да, так как проверить проще, чем порой писать монотонный код. Но чтобы проверить, надо уметь самому это написать.
Не понимаю, чем хвалятся эти инженеры, когда говорят что chatGPT написал за них этот код, который бы они писали месяц. Это говорит лишь об их уровне компетенции, а не об уровне chatGPT. Значит это плохой инженер, раз эта работа заняла бы у него столько времени.
Как раз для знакомства с AR нет. Так как нужно сразу понимать всё нюансы AR. А это например отсутствие черного цвета, физику не обманешь. В то время квест это всё таки VR с переходом в MR. Я бы брал и окулюс тоже, но не для AR а для VR/MR
1) нет собственных мозгов у них нет. Они подключаются по HDMI к компу или одноплатникам. Есть usb выход, который выступает в качестве хаба (к плате подключается камера, микрофон, наушники, батарея, дисплей.
2) это именно обучающий конструктор, где если кому то хочется сделать что то не стандартное, то он может это спроектировать.
Для касок у нас другие модели в разработке, т скоро выйдут, но там и цена от 100 до 500 тыс руб.
Пока не ясно какой. Но мелкая партия. Я пробую просто разные подходы, чтобы посмотреть на результат.
В данном случае трафарет не такой как в полиграфии. Я хотел заказать трафарет в Китае и потом накладывать как в полиграфии, но в итоге решил что и так затянул с запуском. Поэтому трафарет тут проще: лазером на бумаге вырезали трафарет, прикрепили его к коробкам и напялили сверху краску.
Для крупной партии это конечно не вариант, но для мелкой отлично подходит.
Через step можно сконвертировать в AutoCAD, хотя да, часть может потеряться. Но сейчас в вузах переходят на обучение Компас из за ограничений доступа к AutoCAD или импортозамещение (точно не помню). Это же прежде всего проект для российского образования под их требования. Поэтому изменение корпуса, это как часть программы обучения Компас. Поэтому и сам корпус делался максимально простой, чтобы и школьник и студент мог освоить.
Но, да мне тоже спокойнее мысленно считать это хобби, чем думать сколько я потратил на всё это. Вот, пробую вывести как продукт для образования, чтобы через пару лет мы не оказались отстающими на 30 лет.
Я бы сказал так, конструктор типа лего для очков. Но в собранном виде, чтобы можно было сразу включить и пробовать. Либо разобрать и пилить своё, изменяя корпус (мы сделали его исходники открытыми) и какие-то модули (например кто-то хочет заменить микрофон, камеру на стерео или 3д и тд). Через неделю можно будет уже купить.
Сегодня без этих знаний ни куда. И да, школьники многие уже отлично справляются с нейронными сетями. Вузы тем более. А мы и так сильно отстаём в подаче материала.
Речь про личные инициативы школ и вузов. У них есть бюджеты, которые они готовы тратить. Но да, это частные школы и столичные вузы. А так согласен. Меня попросили разработать продукт, я разработал для них. Но в любом случае hololens в гос учреждениях без сертификации использовать не дадут. Да и задача тут была другая, именно обучающий конструктор, вроде лего в мире AR.
Нет окончательной версии тут нет. Я хотел посмотреть. на сколько будет интересна данная тема. Так как окончательный вариант как раз готовится. На девушке - это один из покупателей (то ли для себя брали, то ли стартап, то ли для обучения) и они на базе конструктора проектировали свой корпус. В этом и заключалась одна из задумок конструктора очков. чтобы можно было так же собрать быстро свой пилотный прототип.
Для обучения AR в вузах и школах в России использование Hololens проблематично из за их стоимости. Поэтому и была задача для реалий Российского рынка сделать AR очки не дороже 30-35 тыс руб, который можно было бы использовать в образовании, обучая основам AR (телефон все таки не даст такого эффекта, что дают очки), обучая CAD программам пока меняют конструкцию.
Насчет дисплеев, то тут 800x600. Но сделали 3и оптических модуля, которые для разных задач и отличаются по цене. У Sony очень большая линейка микродисплеев. Но сейчас договорились с BOE, так Sony на новые дисплеи даташиты не дадут + санкции могут в любой момент запретить их продавать. А BOE это китайская компания - их дисплеи во всех очках, включая nReal и Huawei
В статье я описывал, что первые варианты были на 3д принтере.
1) abs и pla такую точность не дадут. Я много печатаю на них и конечно пробовал. Тем более стенки толщиной 0,5мм. Но до какого то момента печатали на нём. Но потом при прототипировании использовался фото полимерный с высоким разрешением.
2) речь о коммерческом продукте, а это накладывает требования к качеству.
3) фото полимерный не подходит, так как слишком хрупкий
4) у меня большой опыт литья оптики. Часть оптики отличается в пресс формы, часть самостоятельно. В качестве основы смола с добавками, чтобы получить нужный коэф преломления. То есть изначально была выстроена оптическая схема, затем заказаны пресс формы для части оптики и изготовлены, изготовлены мастер формы для оптики которую отливаем самостоятельно.
5) нет, дисплеи у нас Sony, которые они выпускают для фотоаппаратов с драйвером. Но будем переходить на BOE. В целом цена очков в розницу выходит 35 тыс руб, но рассчитываю в дальнейшем довести до 250$ (если удастся выйти на китайский рынок, так как они были заинтересованы).
А выше у человека в комментарии claude.Не сразу заметил. Как я уже сказал claude opus справилась, остальные нет. GPT-3.5, GPT-4, GPT-4o не справились тогда. Я просто подумал. что сейчас дообучили. Видимо нет.
значит пофиксили. Мы тестировали это как раз на GPT-4 и всем что было где то 1-2 месяца назад. Справился только claude opus по-моему. GPT-4o тоже когда вышел не справился с этой задачей (если мне память не изменяет), видимо поправили это. https://t.me/SaluteTechGroup/10041 Заодно обсуждали почему это происходи. В целом там можно по слову "бананы" найти все обсуждения на эту тему.
то что я описывал, относилось к 4о, посмотрим конечно что даст о1.
Но принципиальной разницы я не вижу от такого обучения. Так считаю, что подход обучения должен быть кардинально другим. Я сейчас делаю сетку слуховой коры. и там подход обучения подготавливаю с разбиением на 3и этапа:
- база частотная: частоты тона и формант и других звуков, интенсивность
- базовые временные паттерны: паузы, наклоны, темп и т.д.
- разветвление, когда все это до обучается сразу под спектр задач от выделения спикера, до определение аудио паттернов рефлексов.
то есть сначала обучаем базе и затем расширяем обучение.
Как по мне подобного подхода не хватает chatGPT и другим LLM. Когда обучение идет периодически чередуя базу и правила.
Сейчас же обучение LLM это обучением базе, и там уже на авось что среди этой базы встретились правила.
Мы проводили тесты. где было выявлено, что обучение зависит от порядка данных.
Поэтому оно должно быть
1) обучение базе.. время - это... пространство это -
2) обучение правилам. после завтра - это время, где...
то, как обучается человек.
Иначе, многие важные связи могут оказаться слабыми.
А так же отуncтвие четких зависимостей, где вместо этого будут просто мусорные связи.
Это не решит проблему. Я знаю про подход "chain of thoughts" и постоянно использую его добавляя
https://www.promptingguide.ai/
1) рассуждай шаг за шагом
2) проверь свой ответ на соответствие биологическим значениям (если речь про биологию процесса)
3) в чем я не прав?
4) если не знаешь. напиши не знаю и не придумывай
Первый пункт - как раз про "chain of thoughts".
Второй пункт - про то. чтобы модель придерживалась контекста и проверяла то что пишет.
Третий пункт - чтобы модель меньше фантазировала, и сначала подвергала сомнению. то что я написал
Четвертый - чтобы меньше врала.
Поэтому - "chain of thoughts" ни как не исправит ситуацию, так как я учитываю это в запросах в ручную. Без этих пунктов, ChatGPT просто превращается в рулетку. Так что введение "chain of thoughts" ситуацию не исправит.
Я предлагал подобный подход в чате сбера. Только он был немного шире. Там по аналое с MOE, сами нейронки выступали в качестве орбитора. Это существенно улучило качество ответа в рамках знаний LLM модели (выше головы они не прыгнут), но при этом время одного ответа составляло от 5 до 15 минут.
https://t.me/greenruff/1756
там же в комментариях я прикладывал код, чтобы каждый мог попробовать на разных LLM. Так что ChatGPT есть куда там еще расти.
Но кардинально это не решает проблемы. Так как за пространственное мышление, отвечающее за причинно-следственные связи должна отвечать другая модель, как это сделано у нас в двух полушария. Один из примеров является, такого проявления является Гроккинг, описанный в данном статье
https://habr.com/ru/articles/840136/
Боюсь, что это говорит не о качестве сетки. А об уровне и знаниях данного инженера.
Я стараюсь по максимуму использовать chatGPT при написании кодаи получении какой то информации быстро. Это дикий ужас. Надо тщательно перепроверять. Ошибка на ошибке.
Но ошибки ладно. Проблема гораздо хуже. Отсутствие понимания причино-следственных вещей.
1) быстро теряет контекст, и легко выкидывает важные вещи всего пару сообщений назад
2) абсолютно не понимает многие связи. Например, объясняю ему что человек не считает сколько ему нужно времени на речи и не рассчитывает кол-во вдыхаемого воздуха. Да, соглашается и тут же в одном из пунктов снова перечисляет что в зависимости от длины речи человек решает сколько вдохнуть воздуха. И так по кругу.
Всё эти LLM на сегодня это продвинутый поисковик, с возможностью обобщения и поиска связанных данных.
Но ни к ИИ, ни к замени кого то это не ведёт. Это инструмент облегчающий какие-то вещи. Либо этот инженер искал бы и писал свой код просмотрев кучу форумов либо обобщил через LLM.
Автоматизирует рутину - да, так как проверить проще, чем порой писать монотонный код. Но чтобы проверить, надо уметь самому это написать.
Не понимаю, чем хвалятся эти инженеры, когда говорят что chatGPT написал за них этот код, который бы они писали месяц. Это говорит лишь об их уровне компетенции, а не об уровне chatGPT. Значит это плохой инженер, раз эта работа заняла бы у него столько времени.
Как раз для знакомства с AR нет. Так как нужно сразу понимать всё нюансы AR. А это например отсутствие черного цвета, физику не обманешь. В то время квест это всё таки VR с переходом в MR. Я бы брал и окулюс тоже, но не для AR а для VR/MR
1) нет собственных мозгов у них нет. Они подключаются по HDMI к компу или одноплатникам. Есть usb выход, который выступает в качестве хаба (к плате подключается камера, микрофон, наушники, батарея, дисплей.
2) это именно обучающий конструктор, где если кому то хочется сделать что то не стандартное, то он может это спроектировать.
Для касок у нас другие модели в разработке, т скоро выйдут, но там и цена от 100 до 500 тыс руб.
https://t.me/greenruff/1521?single
https://t.me/greenruff/1422?single
И тут с заменой оптики на другую
https://t.me/greenruff/773?single
Поэтому конструктор это компромисс.
Примеры и исходники корпуса доступны в открытом доступе. Специальный sdk он не требует. Если будет востребован, то будет писаться sdk в виде серверов.
Пока не ясно какой. Но мелкая партия. Я пробую просто разные подходы, чтобы посмотреть на результат.
В данном случае трафарет не такой как в полиграфии. Я хотел заказать трафарет в Китае и потом накладывать как в полиграфии, но в итоге решил что и так затянул с запуском. Поэтому трафарет тут проще: лазером на бумаге вырезали трафарет, прикрепили его к коробкам и напялили сверху краску.
Для крупной партии это конечно не вариант, но для мелкой отлично подходит.
Через step можно сконвертировать в AutoCAD, хотя да, часть может потеряться. Но сейчас в вузах переходят на обучение Компас из за ограничений доступа к AutoCAD или импортозамещение (точно не помню). Это же прежде всего проект для российского образования под их требования. Поэтому изменение корпуса, это как часть программы обучения Компас. Поэтому и сам корпус делался максимально простой, чтобы и школьник и студент мог освоить.
Этому "хобби" больше 10 лет.. Жирное хобби
https://vc.ru/tech/457854-kak-v-rossii-potratit-10-let-na-svoi-ar-ochki-i-tak-nichego-ne-vypustit
Но, да мне тоже спокойнее мысленно считать это хобби, чем думать сколько я потратил на всё это. Вот, пробую вывести как продукт для образования, чтобы через пару лет мы не оказались отстающими на 30 лет.
Я бы сказал так, конструктор типа лего для очков. Но в собранном виде, чтобы можно было сразу включить и пробовать. Либо разобрать и пилить своё, изменяя корпус (мы сделали его исходники открытыми) и какие-то модули (например кто-то хочет заменить микрофон, камеру на стерео или 3д и тд). Через неделю можно будет уже купить.
Конструктор называется AR-кит.
Аналогов конструктора ar очков я не припомню. Если речь про оптическую схему, то nReal, ODG и им подобные. С оптической схемой птичья ванна.
Сегодня без этих знаний ни куда. И да, школьники многие уже отлично справляются с нейронными сетями. Вузы тем более. А мы и так сильно отстаём в подаче материала.
Я собирал камеру глубины. Думал уменьшить и ставить. Делал решетку и точки для IR
https://t.me/greenruff/417
Но здесь в конструкторе, как идея в том, что школьники и студенты сами могу спроектировать свой корпус, так как его исходники мы выкладываем в CAD
Да nreal и подобное это заменяет, но задача так же была в том, чтобы они могли разработать свои очки под какие то области и опробовать mvp
Речь про личные инициативы школ и вузов. У них есть бюджеты, которые они готовы тратить. Но да, это частные школы и столичные вузы. А так согласен. Меня попросили разработать продукт, я разработал для них. Но в любом случае hololens в гос учреждениях без сертификации использовать не дадут. Да и задача тут была другая, именно обучающий конструктор, вроде лего в мире AR.
Нет окончательной версии тут нет. Я хотел посмотреть. на сколько будет интересна данная тема. Так как окончательный вариант как раз готовится. На девушке - это один из покупателей (то ли для себя брали, то ли стартап, то ли для обучения) и они на базе конструктора проектировали свой корпус. В этом и заключалась одна из задумок конструктора очков. чтобы можно было так же собрать быстро свой пилотный прототип.
Для обучения AR в вузах и школах в России использование Hololens проблематично из за их стоимости. Поэтому и была задача для реалий Российского рынка сделать AR очки не дороже 30-35 тыс руб, который можно было бы использовать в образовании, обучая основам AR (телефон все таки не даст такого эффекта, что дают очки), обучая CAD программам пока меняют конструкцию.
С регулировкой проблем нет. Много подобного делали с регулировкой
https://vc.ru/tech/457854-kak-v-rossii-potratit-10-let-na-svoi-ar-ochki-i-tak-nichego-ne-vypustit
Насчет дисплеев, то тут 800x600. Но сделали 3и оптических модуля, которые для разных задач и отличаются по цене. У Sony очень большая линейка микродисплеев. Но сейчас договорились с BOE, так Sony на новые дисплеи даташиты не дадут + санкции могут в любой момент запретить их продавать. А BOE это китайская компания - их дисплеи во всех очках, включая nReal и Huawei
В статье я описывал, что первые варианты были на 3д принтере.
1) abs и pla такую точность не дадут. Я много печатаю на них и конечно пробовал. Тем более стенки толщиной 0,5мм. Но до какого то момента печатали на нём. Но потом при прототипировании использовался фото полимерный с высоким разрешением.
2) речь о коммерческом продукте, а это накладывает требования к качеству.
3) фото полимерный не подходит, так как слишком хрупкий
4) у меня большой опыт литья оптики. Часть оптики отличается в пресс формы, часть самостоятельно. В качестве основы смола с добавками, чтобы получить нужный коэф преломления. То есть изначально была выстроена оптическая схема, затем заказаны пресс формы для части оптики и изготовлены, изготовлены мастер формы для оптики которую отливаем самостоятельно.
https://t.me/greenruff/1832?single
5) нет, дисплеи у нас Sony, которые они выпускают для фотоаппаратов с драйвером. Но будем переходить на BOE. В целом цена очков в розницу выходит 35 тыс руб, но рассчитываю в дальнейшем довести до 250$ (если удастся выйти на китайский рынок, так как они были заинтересованы).
Да, конечно знаю про него. И даже пробовал.
1) нужно точно позиционировать его.
2) трафарет будет дешевле и проще в данном случае.
Просто хотелось именно клише, чтобы было как у дорогих брендов. Где логотип имеет вдавленный рельеф.
А выше у человека в комментарии claude.Не сразу заметил. Как я уже сказал claude opus справилась, остальные нет. GPT-3.5, GPT-4, GPT-4o не справились тогда. Я просто подумал. что сейчас дообучили. Видимо нет.
значит пофиксили. Мы тестировали это как раз на GPT-4 и всем что было где то 1-2 месяца назад. Справился только claude opus по-моему. GPT-4o тоже когда вышел не справился с этой задачей (если мне память не изменяет), видимо поправили это.
https://t.me/SaluteTechGroup/10041
Заодно обсуждали почему это происходи. В целом там можно по слову "бананы" найти все обсуждения на эту тему.