Обновить
-8
0
Серёжа@gotz

PHP / Go

Отправить сообщение
А сколько памяти на картах бесплатного колаба? На 16Gb Colab Pro мне удалось файнтюнить ruGPT-3 Medium, по идее, она более хорошие результаты диалогов должна выдать
Из опен-сорсных инструментов для BI наиболее интересными показались Metabase, Redash, Cube.js и Superset. Пока пробуем запустить первую версию для команды на Metabase (и это самый популярный проект на Clojure, что интересно само по себе)
Программиста, который в Go пишет так, как писали в Java много-много лет назад — сразу уволить за профнепригодность :)
Планируется ли разработка собственных GPU, вроде Goole TPU?
Планируете выкладывать языковые модели в опен-сорс, как Сбер с ruGPT-3?
Почему модель в примерах называется rugpt3large_based_on_gpt2? Это просто новый гигантский вариант на архитектуре GPT2, который лучше работает чем попытка смоделировать архитектуру реальной GPT3?
Можно ли работать с этой моделью (Large) без GPU вообще?
В открытый доступ выложены модели, которые легли в основу Салюта, или в ассистентах на продакшене более мощные?
Видеодоклады потоков будут доступны обладателям билетов после конференции?
Судя по собственному ребенку — несколько десятков? рисунков, мультиков и живых кошек приводят к стабильному распознаванию этих животных в полтора-два года даже в форме абстрактных логотипов. Конечно, перед этим в мозгах заложен некий большой базис знаний о мире и фигурах вообще. Но этот базис позволяет схватывать суть нового визуального понятия с нескольких примеров. Ну не было у людей миллионов лет наблюдений за компьютерами или смартфонами, или сотен образцов оных в поле зрения ребенка. А поди ж ты уверенно распознает в пластиковой игрушке с кнопками аналог маминого телефона :)
Все бы хорошо, но ваши хантеры даже примерно вилки ЗП не называют. Типа — а давайте пообщаемся, мы вас оценим, а потом назовем цифры. Такая непрозрачная политика на входе наводит на мысли, что и дальше в процессах будет хитрая восточно-азиатская политика базара и торга.
Я пишу веб и микросервисы на PHP, на большинстве задач типа активной работы с базой, JSON и HTML, мой фреймворк обгоняет аналоги на Go / C# и идет вровень с Java / C++

Можете сами сравнить на свежих тестах Techempower (ищите comet среди конкурсантов)

www.techempower.com/benchmarks/#section=test&runid=10218082-6e18-4513-9be4-e721bb8a1596
PHP8 — это уже и есть типизированный язык с JIT :)
Интересно бы посмотреть на производительность в сравнении со Swoole / Workerman.

Запилите тесты для Techempower Benchmark?
Спасибо за цифры! Не знал, что на CPU можно запустить со сравнимым быстродействием
Если используете SlimPHP — посмотрите в сторону Comet, в который интегрирован Slim:

github.com/gotzmann/comet

Работает без Nginx / RoadRunner и в разы быстрее (бенчмарки в репозитории есть).
Шикарный комментарий :) Мне кажется, в 2030 у нас будет больше возможностей забирать контент из более качественных и специализированных «антропогенных» источников, чем сейчас + методы фильтрации откровенно некачественной ерунды, которой и сейчас забиты форумы (по аналогии с методами добычи нефти из все более сложных источников или методов очистки руды из карьеров).
Какие из перечисленных моделей ruGPT-3 полетят на Nvidia 1650 c 4Gb памяти на борту? Не умею в machine learning, но хочется попробовать :)
У меня не получилось генерить то, к чему я привык в Ламоде :) Может, привык к хорошему. Не согласен на компромисс когда поправив спеку на 10% придется переписать условно 20% и добавить еще 30% кода чтобы все снова заработало
Когда меняется сваггер-спека и перегенерится проект — убивает все прошлые наработки.

Я сравниваю с тулингом Ламоды, там много поверх го-сваггера наработано, там действительно удобно вести разработку в парадигме specification first

Информация

В рейтинге
Не участвует
Откуда
Москва, Москва и Московская обл., Россия
Зарегистрирован
Активность