Обновить
4
0.1

Пользователь

Отправить сообщение

Я сожалею что ваз заблокировал Эппл, но скажите: а что он должен был сделать по получению запроса?

Тут непонятно заранее, как оно сложится - быстрее или медленнее. Так что при выборе пути можно судить только по среднему опыту, применимому к задаче.
Даже если у вас есть энтузиазм и желание использовать AI - всё равно нужно чтобы хотя бы выходило так же (энтузиазм энтузиазмом, но работу делать надо)

Тут всё довольно просто: Время описания задачи для AI + время генерации (актуально если AI локальный) + время на ревью и доработки > время для самостоятельного выполнения задачи.
То есть при одинаковом качестве результата быстрее сделать самому.

Модели - llama-3.1-lumimaid
"Гусары! Молчать!"
А можно полюбопытствовать: какой процент пользователей использует версии этой модели?

Вот вы тут шутите, да? :D
https://www.mturk.com

Выла история, "умного магазина" где ты просто забираешь товары и тебе прилетает банковский чек к оплате. Утверждалось что, это всё распознание видео, нейронные сети и всё такое, но нет, нейронными сетями работали индусы через mturk.com

Опять же: зависит от проекта. Если у вас проект в котором есть собственный "фреймворк" (условно - набор уже реализуемых фич, базовые классы, протоколы взаимодействия, предопределённые стили шрифтов и цвета, миксины с реализациями повторяющейся логики, etc) - новую фичу нужно нормально интергировать в существующую кодовую базу, использовав существующие методы и классы.
AI же просто по единственному файлу понятия не имеет об окружении. А больше просто не поместится в контекст.

Единственное, тут nvidia выпустила файнтюн llama 3.1:
https://build.nvidia.com/nvidia/llama-3_1-nemotron-70b-instruct
Размер контекста у новых llama - 131072 токена. Это объём уже достаточный для осмысленной работы с документами, но я не готов стороннему сервису отдавать все исходники целиком. Локально же его запустить можно, но ээээм... Вам понадобится что-нибудь типа две nVidia Tesla P40 (48 Gb vram).
"Запустить" же на ddr5/CPU - это быстродействие в 1 token/s, это как email отправлять, где вам собеседник через час ответит

AI обучены на среднестатистических данных из интернета, в результате они во всём разбирается как среднестатистический пользователь интернета - примерно никак... Особенно заметно на узких малоизвестных темах. Худшая же черта - все AI что я пробовал - никогда не противоречат пользователю, просто начинают в тихую галлюцинировать.

Я тут старательно пытаюсь притянуть за уши AI в своей работе... и опыт довольно печальный.
Ты или делаешь работу сам, или ревьюишь/модифицируешь то, что выдал AI. Сделать работу самому 1 - быстрее, 2 - надёжнее, 3 - мозги не ржавеют. Он "пишет" ниже среднестатистического уровня, в результате AI сделает работу может быть лучше чем джун, но вот джунов я к AI бы не подпускал - пусть учатся.

Единственная задача с которой в моей практике LLM (Codestral 22B) справился сам (со второй попытки) - на основе существующего кода составить yaml-конфиг со стилями шрифтов.

Факторами на моё первое успешное трудоустройство стали личная рекомендация уже работавшего в компании человека и моё относительно успешное участие в соревнованиях по правилам ACM. Даже не смотря на то, что учебное заведение я не закончил

Git же в принципе... в учебном курсе системы контроля версий он не был упомянут ни разу, а лабы носились, страшно сказать, на mini CD-RW диске. Я искренне надеюсь это изменилось за прошедшее время...

По поводу самого github - качестве хобби я писал моды для игр, и общался с людьми из community. Да, у большинства из них есть github аккаунт, и там есть код, и местами даже неплохой код. Вот только они не работают программистами или даже в смежной сфере. Автор самых популярных на тот момент модов для RimWorld - вообще медик.

Насколько я понимаю они используют "оффлайновый" profile для подписки приложения. Я никогда не пользовался этим "стором", но в опциях приложения есть ещё "онлайновый" profile для подписи приложения - он действует год, но для запуска приложения нужно подключение к сети

Установленное на устройство приложение при удалённое из стора остаётся на устройстве. Видимо на это расчёт.

По поводу вкладки в ссылку - я бы сказал, это претензия к IDEA.

Но вообще я разбирался что именно такого особенного в перетаскивании вкладок Vivaldi (её, например, в Firefox перетащить можно, и Firefox создаст страницу).
В списке форматов в drag'n'drop объекте, помимо собственно кастомного формата с вкладкой Vivaldi, есть формат URL содержащий ссылку на страницу открытую во вкладке. Возможно именно на неё IDEA так реагирует.
Другие браузеры URL как отдельный формат не включают, соответствунно перетащить фкладку Firefox назад в Vivaldi не получится, например.

Собственно разбирался потому что думал что проблема в Vivaldi, так как он не может принять вкладку Firefox, оказалось, что проблема в Firefox, потому что он не передаёт данные в совместимом формате.

Как именно они работают? И никогда не видел полноценной безпроблемной замены.

В Opera Presto это работало даже в перетаскиваемых объектах, причём на удивление интуитивно: перетаскивание влево/вправо выделяло текст, вверх/вверх вниз - начинало перетаскивание.

Так же и порядок выделенных элементов - в хромоподобных начинаешь выделять одно, слегка сдвишаешь мышь в часть где по логике должен кончиться текст - и половина страницы внезапно выделена, причём случайные её части.

Причём некоторых вещей из Оперы негде нет до сих пор: Выбор текста в интерактивных элементах до сих пор приключение с незвестным концом, а заставить подстроиться страницу под ширину экрана (не спрашивая мнения сайта об этом) не может ни один браузер, так как это была фича на уровне движка.

Я бы не надеялся на долгосрочные изменения, на самом деле. Многие проекты актуальные во премена ковида сейчас проваливаются/закрываются, так как большенство перестало сидеть дома и им есть чем заняться (ну хотя бы работать)

Но вообще это можно и для виртуальной реальности использовать, как вариант

Ок, мне от подкидывает другое: комедийные зарисовки, фрагменты из фильмов/мульсериалов, да, но англоязычные, всякое про D&D, каких-то блоггеров про ремонт. И ещё кучу всякой фигни, которую я либо сразу же минусую и прокручиваю, либо игнорю канал целиком. (50/50 соотношение того что можно посмотреть и что я игнорю/минусую). И видео с котами :D

edit:

покрутил сейчас шорты, вот что они мне выдали (по тематике):
- блоггер/коты
- хобби/работа с деревом
- игры/warhammer
- Software?
- блоггер/коты
- посты с сайтов/tumblr
- хобби/3d печать
- блоггер/комминксы
- коты
- что-то про гимнастику
- кулинария
- блоггер/коты
- игры/satisfactory
- посты с сайтов/tumblr
- lego
- дикая природа

Мне кажется, что рекомендации для шортов практически независимы от "основного" Youtube, кроме каналов на которые вы подписанны (просто иногда выкидывает шорты с них в ленту). Возможно вы просто получаете дефолтную выдачу для своего региона.

Ещё заметил, что эффект от оценок появляется только на следующий день. Кроме "игнорировать канал", но там эффект в том, что он просто исключается из выдачи для вас сразу после использовния кнопки.

Ну я смотрю...
Вообще, имхо, тостами пользоваться можно, как альтернативой главной и поиска: В shorts можно поставить ссылку на видео, и использовать шорт как превью. Лично у меня наверное половина таких в ленте.

А это сильно зависит от того что вы плюсуете или минусуете (хотя подождите: у вас больше не получится минусовать...)
В целом shorts смотреть можно (пока, как будет после этого изменения я не знаю), но для этого нужно довольно агрессивно минусовать/плюсовать видео, и даже игнорить целые каналы (в меню под тремя точками опция)

Ещё заметил, что в шортах рекомендательный алгоритм работает намного лучше чем на главной.
Но наверное стоит уточнить, что 95% контента на ютубе что я смотрю - англоязычный.

Среднестатистический пользователь перебирает все vpn-приложения в googleplay пока не найдёт рабочее. Или не найдёт. На этом всё.

Информация

В рейтинге
3 592-й
Откуда
Россия
Дата рождения
Зарегистрирован
Активность