Автор отстал от научного прогресса и не знает про семаглутид. Так что для желающих похудеть этот коммент из одной строки будет полезнее чем эта огромная статья.
Code Blocks • Add nice looking code blocks with syntax highlighting. • Copy full code block by click on its header. • Send a highlighted code block using ```language syntax.
Но синтаксис не подсвечивается. У кого-нибудь работает?
И вот это тоже не могу найти:
• View full statistics in your channels and group chats.
У меня на домашнем компьютере dragonfly в 2 раза медленнее чем redis и в 1.8 раза медленнее чем keyDB. Тестил на set, get, rpush, lrange без pipe. Запускал через докер.
upd. на всякий случай сбилдил, всё равно медленно.
Не оч понял почему вы аппелируете к "некоторым банкам". Сходить в другие банки религия не позволяет? Комиссия в $150 не должна пугать тех, кто релоцируется в Турцию.
Сравнивал на днях две операции у Numpy и CuPy - перемножение матриц и интерполяцию. CuPy выиграл в три раза перемножение, но проиграл в три раза интерполяцию. А по примитивной логике должна быть разница в десятки раз.
Если в обучающем датасете не будет зелёных крон, то обучить модель распознавать зелёные кроны на таком датасете не получится =)
Если предположить, что нужно работать с тем что есть, а именно с зимней съёмкой... Как-то обучал нейросетку распознавать засохшие кроны/деревья на летней аэрофотосъёмке с дрона и всё работало отлично. Когда из интереса нейросетке подсунули зимние фотки, то она тоже справилась. То есть можно распознавать голые зимние кроны и по ним экстраполировать зелёные кроны.
Не стал изобретать велосипед и просто выбрал самую лучшую архитектуру из тестов ImageNet. На тот момент это была EfficientNet. Так как она полностью удовлетворила потребности и была лучшей в ImageNet, то решил что дальше экспериментировать с архитектурами нет особого смысла. И была проблема в обучающем датасете - маски для деревьев раскрашивались вручную и он был мал. В этом случае бутылочным горлышком при сравнении могла стать не архитектура, а датасет. Тем не менее, есть жалобы на EfficientNet, что она не такая уж и efficient и готов в какой-то степени их поддержать: https://gist.github.com/rwightman/ccbba19a21a4e6c6c9d54c0de64c0e64. В самом конце текущей статьи есть ссылка на сравнение разных PyTorch-версий моделей CV и вот ещё сравнение: https://paperswithcode.com/sota/image-classification-on-imagenet, но тут больше по рисёчам, которые часто далеки от продакшена и эмпирики.
Не знаю, я занимался только нейронкой =(
Мне кажется оба термина тут вполне уместны, и fine tuning, и дообучение. Так как дообучающий датасет был как раз по задаче — маска для деревьев.
Бред
Почему вы хотите услышать мнение врачей, а не учёных и минздравов развитых стран? Это явная ошибка. Врачи люди довольно низкокомпетентные.
Вы мыслите как люди, которые не вакцинировались от ковида, потому что у вакцины были побочки.
Исследования - это частности. Если уж и добавлять ссылку, то вот эту: https://www.fda.gov/news-events/press-announcements/fda-approves-new-drug-treatment-chronic-weight-management-first-2014
Эта ссылка является достаточным условием, в отличие от отдельных исследований.
Автор отстал от научного прогресса и не знает про семаглутид. Так что для желающих похудеть этот коммент из одной строки будет полезнее чем эта огромная статья.
Сравнивал как-то производительность AWS Graviton 4 в своих задачах по Postgresql - было медленнее, чем x86.
Сомнительно
Никто не использует большую часть из того что вы написали. А используют то, что вы как раз не написали и что не растёт из экосистемы JS.
Как же не соврать ради красивого концепта.
Вы уж определитесь: ChatGPT-4 или ChatGPT-4 Turbo. Это разные модели. Первую превосходит, вторую нет.
Маркетологи Anthropic именно в этом месте поставили ловушку невнимательному читателю.
У вас ошибка в самом начале поста, Claude-3 Opus проигрывает ChatGPT-4 Turbo по всем тестам.
Вариант только один - copilot. Отзывы не читал, использую полгода.
Почему вообще рассматривается вариант костыльных китайских поделок из подвалов - непонятно.
Давно. Если срубить дерево и пустить на что-то полезное, а взамен вырастить новое дерево, то это уберёт CO2 из атмосферы.
Конечно есть софт, в котором всё уже продумано и сделано вместо костылей на коленке, в том числе бэкапы БД: AWS, GCP, Azure
У меня вот такое в changelog телеги:
Code Blocks
• Add nice looking code blocks with syntax highlighting.
• Copy full code block by click on its header.
• Send a highlighted code block using ```language syntax.
Но синтаксис не подсвечивается. У кого-нибудь работает?
И вот это тоже не могу найти:
• View full statistics in your channels and group chats.
Причём в превью это не показано.
Восстание машин показывают, но пока только в симулятореВот эта новость - фейк, автору незачёт.
У меня на домашнем компьютере dragonfly в 2 раза медленнее чем redis и в 1.8 раза медленнее чем keyDB. Тестил на set, get, rpush, lrange без pipe. Запускал через докер.
upd. на всякий случай сбилдил, всё равно медленно.
Не оч понял почему вы аппелируете к "некоторым банкам". Сходить в другие банки религия не позволяет? Комиссия в $150 не должна пугать тех, кто релоцируется в Турцию.
В Турции несложно и без ВНЖ получить visa/mastercard
Сравнивал на днях две операции у Numpy и CuPy - перемножение матриц и интерполяцию. CuPy выиграл в три раза перемножение, но проиграл в три раза интерполяцию. А по примитивной логике должна быть разница в десятки раз.
Космо
Если в обучающем датасете не будет зелёных крон, то обучить модель распознавать зелёные кроны на таком датасете не получится =)
Если предположить, что нужно работать с тем что есть, а именно с зимней съёмкой... Как-то обучал нейросетку распознавать засохшие кроны/деревья на летней аэрофотосъёмке с дрона и всё работало отлично. Когда из интереса нейросетке подсунули зимние фотки, то она тоже справилась. То есть можно распознавать голые зимние кроны и по ним экстраполировать зелёные кроны.
Не стал изобретать велосипед и просто выбрал самую лучшую архитектуру из тестов ImageNet. На тот момент это была EfficientNet. Так как она полностью удовлетворила потребности и была лучшей в ImageNet, то решил что дальше экспериментировать с архитектурами нет особого смысла. И была проблема в обучающем датасете - маски для деревьев раскрашивались вручную и он был мал. В этом случае бутылочным горлышком при сравнении могла стать не архитектура, а датасет. Тем не менее, есть жалобы на EfficientNet, что она не такая уж и efficient и готов в какой-то степени их поддержать: https://gist.github.com/rwightman/ccbba19a21a4e6c6c9d54c0de64c0e64. В самом конце текущей статьи есть ссылка на сравнение разных PyTorch-версий моделей CV и вот ещё сравнение: https://paperswithcode.com/sota/image-classification-on-imagenet, но тут больше по рисёчам, которые часто далеки от продакшена и эмпирики.
Не знаю, я занимался только нейронкой =(
Мне кажется оба термина тут вполне уместны, и fine tuning, и дообучение. Так как дообучающий датасет был как раз по задаче — маска для деревьев.