А сколько памяти на картах бесплатного колаба? На 16Gb Colab Pro мне удалось файнтюнить ruGPT-3 Medium, по идее, она более хорошие результаты диалогов должна выдать
Из опен-сорсных инструментов для BI наиболее интересными показались Metabase, Redash, Cube.js и Superset. Пока пробуем запустить первую версию для команды на Metabase (и это самый популярный проект на Clojure, что интересно само по себе)
Почему модель в примерах называется rugpt3large_based_on_gpt2? Это просто новый гигантский вариант на архитектуре GPT2, который лучше работает чем попытка смоделировать архитектуру реальной GPT3?
Судя по собственному ребенку — несколько десятков? рисунков, мультиков и живых кошек приводят к стабильному распознаванию этих животных в полтора-два года даже в форме абстрактных логотипов. Конечно, перед этим в мозгах заложен некий большой базис знаний о мире и фигурах вообще. Но этот базис позволяет схватывать суть нового визуального понятия с нескольких примеров. Ну не было у людей миллионов лет наблюдений за компьютерами или смартфонами, или сотен образцов оных в поле зрения ребенка. А поди ж ты уверенно распознает в пластиковой игрушке с кнопками аналог маминого телефона :)
Все бы хорошо, но ваши хантеры даже примерно вилки ЗП не называют. Типа — а давайте пообщаемся, мы вас оценим, а потом назовем цифры. Такая непрозрачная политика на входе наводит на мысли, что и дальше в процессах будет хитрая восточно-азиатская политика базара и торга.
Я пишу веб и микросервисы на PHP, на большинстве задач типа активной работы с базой, JSON и HTML, мой фреймворк обгоняет аналоги на Go / C# и идет вровень с Java / C++
Можете сами сравнить на свежих тестах Techempower (ищите comet среди конкурсантов)
Шикарный комментарий :) Мне кажется, в 2030 у нас будет больше возможностей забирать контент из более качественных и специализированных «антропогенных» источников, чем сейчас + методы фильтрации откровенно некачественной ерунды, которой и сейчас забиты форумы (по аналогии с методами добычи нефти из все более сложных источников или методов очистки руды из карьеров).
У меня не получилось генерить то, к чему я привык в Ламоде :) Может, привык к хорошему. Не согласен на компромисс когда поправив спеку на 10% придется переписать условно 20% и добавить еще 30% кода чтобы все снова заработало
Планируете выкладывать языковые модели в опен-сорс, как Сбер с ruGPT-3?
Можете сами сравнить на свежих тестах Techempower (ищите comet среди конкурсантов)
www.techempower.com/benchmarks/#section=test&runid=10218082-6e18-4513-9be4-e721bb8a1596
Запилите тесты для Techempower Benchmark?
github.com/gotzmann/comet
Работает без Nginx / RoadRunner и в разы быстрее (бенчмарки в репозитории есть).
Я сравниваю с тулингом Ламоды, там много поверх го-сваггера наработано, там действительно удобно вести разработку в парадигме specification first