Господа, это просто смешно. В Германии нет радикальных инноваций. Общественное устройство практически полностью исключает их:
Колоссальное налоговое бремя и уравниловка: хочешь зарабатывать крупные суммы денег? Будь добр отдавать минимум половину дохода и содержать толпу бездельников.
Ужасающая забюрократизированность и неэффективность всех общественных институтов: немцы делают «всё правильно» в ущерб самим себе (аналогия: неисправный красный сигнал светофора на пустой улице, и толпа людей перед ним, не знающая, как перейти дорогу).
Тотальный нон-конформизм и зашитая в ДНК боязнь новизны: исторически этой нации сильно настучали по голове за «прорывные идеи».
Кстати, сегодняшняя драматическая ситуация в восточной Европе — это прямое следствие немецкой импотенции.
Самым большим недостатком является то, что поезда на магнитной подвеске несовместимы с существующими железнодорожными путями
Это не так: колёса либо могут быть выдвижными, наподобие шасси у самолёта, либо могут быть просто частью магнитной подсистемы. Подходящий вариант подскажет время, но очевидно, что совместимость с существующей инфраструктурой принципиально важна для широкого внедрения.
А порекомендуйте какие-нибудь работы по распараллеливанию Torch для снижения требований по железу? Здесь, допустим, 16 Гб видеопамяти ещё терпимо, но ведь часто нужны какие-то сотни гигабайт…
В чём причина того, что репозиторий с кодом в режиме read-only? Вы же фактически отказываетесь от любых обновлений и багфиксов. И, кстати, я бы убедительно рекомендовал перевести документацию на английский, вплоть до того, что даже сам (теоретически) был бы готов создать PR, не будь эта возможность заблокирована.
Парадигма научных коммуникаций неожиданно расцвела в разработке программного обеспечения. Следовать git-флоу, испытывать новые технологии и тулчейны, устраивать конференции и митапы — это совершенно академическая практика, и стоит признать, что IT-сфера переняла её очень успешно.
Профессиональный разработчик сегодня — это во многом классический учёный. И да, очень качественная академическая наука делается сегодня на гитхабе, так что современный учёный просто обязан быть продвинутым айтишником.
Иронически, взлёт самых передовых AI-технологий за последнюю декаду произошёл именно в публикациях на arXiv — информатики (в отличие от физиков или химиков) просто положили болт на прогнивших паблишеров и успешно создали свой коммуникационный медиум.
Формально самой большой моделью поддерживающей русский язык является недавно выложенная Яндексом YaLM 100B. <...> С учетом ... того, что ... в инструкции по установке опущен ряд важных шагов, я решил, что примеры с этой модели особо ничего полезного к данной статье сейчас не добавят и нет смысла придерживать статью до тех пор пока их удастся получить.
А какие возникли проблемы с установкой, и о каких важных шагах идёт речь? Лично я пока что застрял на этапе запуска мегатрона, он по полной использует плоходокументированные проприетарные cuda-расширения, и их довольно болезненно собирать.
Эти вопросы лишены какого-либо измеримого количественного смысла, они подойдут разве что в качестве «затравок» для КВН в игре на отбивку шуток (жюри оценивает шутки и ставит баллы 0-10). Гораздо полезнее пытаться отвечать на осмысленные вопросы типа:
С какими швейцарскими кантонами граничит Италия?
При каком давлении и температуре коэффициент теплопроводности алмаза превышает две тысячи ватт на метр-кельвин?
(1.) Требования к GPU-памяти ≈200GB для запуска модели связаны с тем, что все выложенные веса (189GB) должны туда поместиться, верно?
(2.) Веса `layer_00`, `layer_01` и `layer_84` имеют аномально малый размер, а веса `layer_02` и `layer_83` вообще отсутствуют. Это какие-то артефакты сохранения?
(3.) Почему модель тренировалась именно 65 дней? Могла ли она быть ещё "улучшена", если бы вы тренировали её, допустим, 70 дней?
Заниматься разработкой и контентом одновременно требует слишком много усилий, по-видимому, даже работы фулл-тайм, особенно если у вас начнут появляться новые города. Вы не думали про аутсорс наполнения или (что ещё интереснее) про машинное извлечение событий из неструктурированного текста при помощи NLP?
Я бы горячо рекомендовал добавить Анталью. Там огромное и очень живое русскоязычное телеграм-коммьюнити (несколько десятков активных супер-групп, сотни поменьше). Можно даже только этими группами и ограничиться в качестве источника информации, в них каждый день публикуется кучи приглашений и анонсов.
Когда на самолёте заходишь на посадку над Стамбулом, то взгляду открываются уходящие за горизонт многоэтажки во всех направлениях, и всё это в общей массе какого-то совершенно угрюмого тёмно-коричневого цвета, лишь с очень редкими вкраплениями зелени... Я всегда высаживаюсь и предпочитаю лететь дальше на юг, в прекрасную Наталью.
Господа, это просто смешно. В Германии нет радикальных инноваций. Общественное устройство практически полностью исключает их:
Колоссальное налоговое бремя и уравниловка: хочешь зарабатывать крупные суммы денег? Будь добр отдавать минимум половину дохода и содержать толпу бездельников.
Ужасающая забюрократизированность и неэффективность всех общественных институтов: немцы делают «всё правильно» в ущерб самим себе (аналогия: неисправный красный сигнал светофора на пустой улице, и толпа людей перед ним, не знающая, как перейти дорогу).
Тотальный нон-конформизм и зашитая в ДНК боязнь новизны: исторически этой нации сильно настучали по голове за «прорывные идеи».
Кстати, сегодняшняя драматическая ситуация в восточной Европе — это прямое следствие немецкой импотенции.
И то, и другое :)
Бомба! А можете, пожалуйста, выложить STL-файлы для печати, если они обновились?
Привет, Антон! Согласована ли эта инициатива с руководством и разрешено ли использование фирменного тикера?
cf. https://habr.com/ru/post/410817/comments/#comment_18612787
Это не так: колёса либо могут быть выдвижными, наподобие шасси у самолёта, либо могут быть просто частью магнитной подсистемы. Подходящий вариант подскажет время, но очевидно, что совместимость с существующей инфраструктурой принципиально важна для широкого внедрения.
?
Класс, спасибо ?
А порекомендуйте какие-нибудь работы по распараллеливанию Torch для снижения требований по железу? Здесь, допустим, 16 Гб видеопамяти ещё терпимо, но ведь часто нужны какие-то сотни гигабайт…
В чём причина того, что репозиторий с кодом в режиме read-only? Вы же фактически отказываетесь от любых обновлений и багфиксов. И, кстати, я бы убедительно рекомендовал перевести документацию на английский, вплоть до того, что даже сам (теоретически) был бы готов создать PR, не будь эта возможность заблокирована.
Парадигма научных коммуникаций неожиданно расцвела в разработке программного обеспечения. Следовать git-флоу, испытывать новые технологии и тулчейны, устраивать конференции и митапы — это совершенно академическая практика, и стоит признать, что IT-сфера переняла её очень успешно.
Профессиональный разработчик сегодня — это во многом классический учёный. И да, очень качественная академическая наука делается сегодня на гитхабе, так что современный учёный просто обязан быть продвинутым айтишником.
Иронически, взлёт самых передовых AI-технологий за последнюю декаду произошёл именно в публикациях на arXiv — информатики (в отличие от физиков или химиков) просто положили болт на прогнивших паблишеров и успешно создали свой коммуникационный медиум.
? https://github.com/Ubikcircle/Pelevin
А какие возникли проблемы с установкой, и о каких важных шагах идёт речь? Лично я пока что застрял на этапе запуска мегатрона, он по полной использует плоходокументированные проприетарные cuda-расширения, и их довольно болезненно собирать.
Ещё бы научиться синтезировать тритий задёшево, а то сейчас его какие-то граммы обойдутся в сотни тысяч долларов.
Эти вопросы лишены какого-либо измеримого количественного смысла, они подойдут разве что в качестве «затравок» для КВН в игре на отбивку шуток (жюри оценивает шутки и ставит баллы 0-10). Гораздо полезнее пытаться отвечать на осмысленные вопросы типа:
С какими швейцарскими кантонами граничит Италия?
При каком давлении и температуре коэффициент теплопроводности алмаза превышает две тысячи ватт на метр-кельвин?
см. далее тут: https://github.com/dki-lab/GrailQA
Привет, Михаил, Алексей, Руслан!
(1.) Требования к GPU-памяти ≈200GB для запуска модели связаны с тем, что все выложенные веса (189GB) должны туда поместиться, верно?
(2.) Веса `layer_00`, `layer_01` и `layer_84` имеют аномально малый размер, а веса `layer_02` и `layer_83` вообще отсутствуют. Это какие-то артефакты сохранения?
(3.) Почему модель тренировалась именно 65 дней? Могла ли она быть ещё "улучшена", если бы вы тренировали её, допустим, 70 дней?
Заниматься разработкой и контентом одновременно требует слишком много усилий, по-видимому, даже работы фулл-тайм, особенно если у вас начнут появляться новые города. Вы не думали про аутсорс наполнения или (что ещё интереснее) про машинное извлечение событий из неструктурированного текста при помощи NLP?
Я бы горячо рекомендовал добавить Анталью. Там огромное и очень живое русскоязычное телеграм-коммьюнити (несколько десятков активных супер-групп, сотни поменьше). Можно даже только этими группами и ограничиться в качестве источника информации, в них каждый день публикуется кучи приглашений и анонсов.
А своему родному мерседесу разрешили : )
Когда на самолёте заходишь на посадку над Стамбулом, то взгляду открываются уходящие за горизонт многоэтажки во всех направлениях, и всё это в общей массе какого-то совершенно угрюмого тёмно-коричневого цвета, лишь с очень редкими вкраплениями зелени... Я всегда высаживаюсь и предпочитаю лететь дальше на юг, в прекрасную Наталью.