Я сейчас смотрю хочу ли я купить у вас подписку и не понимаю что я под каждым пакетом получу. Там просто указанно сколько я получу fallout-крышкек-совершенно-точно-не-денег-потому-что-по-закону-нельзя, но не указанно к чему будет доступ. Просто ко всему? Я хочу попробовать коммерческие и большие открытые модели, которые я не могу запустить локально. Я бы на самом деле предпочёл в таком случае перевести какую-то сумму вместо всех этих псевдо-пакетов если они одинаковые.
Ещё немного критики: - мне нужно создать новый чат чтобы переключиться на другую группу AI - нельзя удалять/редактировать сообщения в чате - баг (llama-3.1-70b-instruct:free, повторная попытка успешна):
-
- нет количества использованных токенов/CAPS на сообщения
Вообще лучший (но не идеальный) GUI чата из тех, что я использовал - у LM Studio
И в чём разница между, скажем, llama-3.1-405b-instruct:free и llama-3.1-405b-instruct?
Он вполне мог сгалюцинировать. Не верьте ни одному слову написанному AI, в принципе. Вот как пример: это локально запущенная модель. Он относительно прав - Codestral это файнтюн Mistral для программирования. Так же как и chat gpt, он представился менее способной моделью чем я на самом деле запустил.
Впрочем, llama 3.1 70b достаточно умна, чтобы сказать, что она не знает какая именно она версия:
Ещё западные модели знают Русский постольку-поскольку, никто русскому их целенаправленно не учил. Плюс есть технические ограничения связанные с тем как кодируется кириллица, в результате русский для многих моделей просто сложнее. Хотите складных ответов - используйте либо российскую модель (вроде у Яндекса есть?) либо файнтюн на русскоязычных данных (я не увидел таких в списке BotHub).
Но в принципе ваш опыт полностью соответствует среднему по больнице при использовании AI, да. Много хайпа, мало толка.
Дело не в Яблофилии, дело отрыве от реальности. Объективно, либо Эппл подчиняется, либо повторяет судьбу Meta* (*запрещённая в России организация, бла бла бла)
И быть заблокированным на территории России и странах в которые траффик идёт транзитом через Россию? Для Amnezia исход это совершенно не поменяет, к слову.
Тут непонятно заранее, как оно сложится - быстрее или медленнее. Так что при выборе пути можно судить только по среднему опыту, применимому к задаче. Даже если у вас есть энтузиазм и желание использовать AI - всё равно нужно чтобы хотя бы выходило так же (энтузиазм энтузиазмом, но работу делать надо)
Тут всё довольно просто: Время описания задачи для AI + время генерации (актуально если AI локальный) + время на ревью и доработки > время для самостоятельного выполнения задачи. То есть при одинаковом качестве результата быстрее сделать самому.
Выла история, "умного магазина" где ты просто забираешь товары и тебе прилетает банковский чек к оплате. Утверждалось что, это всё распознание видео, нейронные сети и всё такое, но нет, нейронными сетями работали индусы через mturk.com
Опять же: зависит от проекта. Если у вас проект в котором есть собственный "фреймворк" (условно - набор уже реализуемых фич, базовые классы, протоколы взаимодействия, предопределённые стили шрифтов и цвета, миксины с реализациями повторяющейся логики, etc) - новую фичу нужно нормально интергировать в существующую кодовую базу, использовав существующие методы и классы. AI же просто по единственному файлу понятия не имеет об окружении. А больше просто не поместится в контекст.
Единственное, тут nvidia выпустила файнтюн llama 3.1: https://build.nvidia.com/nvidia/llama-3_1-nemotron-70b-instruct Размер контекста у новых llama - 131072 токена. Это объём уже достаточный для осмысленной работы с документами, но я не готов стороннему сервису отдавать все исходники целиком. Локально же его запустить можно, но ээээм... Вам понадобится что-нибудь типа две nVidia Tesla P40 (48 Gb vram). "Запустить" же на ddr5/CPU - это быстродействие в 1 token/s, это как email отправлять, где вам собеседник через час ответит
AI обучены на среднестатистических данных из интернета, в результате они во всём разбирается как среднестатистический пользователь интернета - примерно никак... Особенно заметно на узких малоизвестных темах. Худшая же черта - все AI что я пробовал - никогда не противоречат пользователю, просто начинают в тихую галлюцинировать.
Я тут старательно пытаюсь притянуть за уши AI в своей работе... и опыт довольно печальный. Ты или делаешь работу сам, или ревьюишь/модифицируешь то, что выдал AI. Сделать работу самому 1 - быстрее, 2 - надёжнее, 3 - мозги не ржавеют. Он "пишет" ниже среднестатистического уровня, в результате AI сделает работу может быть лучше чем джун, но вот джунов я к AI бы не подпускал - пусть учатся.
Единственная задача с которой в моей практике LLM (Codestral 22B) справился сам (со второй попытки) - на основе существующего кода составить yaml-конфиг со стилями шрифтов.
Факторами на моё первое успешное трудоустройство стали личная рекомендация уже работавшего в компании человека и моё относительно успешное участие в соревнованиях по правилам ACM. Даже не смотря на то, что учебное заведение я не закончил
Git же в принципе... в учебном курсе системы контроля версий он не был упомянут ни разу, а лабы носились, страшно сказать, на mini CD-RW диске. Я искренне надеюсь это изменилось за прошедшее время...
По поводу самого github - качестве хобби я писал моды для игр, и общался с людьми из community. Да, у большинства из них есть github аккаунт, и там есть код, и местами даже неплохой код. Вот только они не работают программистами или даже в смежной сфере. Автор самых популярных на тот момент модов для RimWorld - вообще медик.
Насколько я понимаю они используют "оффлайновый" profile для подписки приложения. Я никогда не пользовался этим "стором", но в опциях приложения есть ещё "онлайновый" profile для подписи приложения - он действует год, но для запуска приложения нужно подключение к сети
По поводу вкладки в ссылку - я бы сказал, это претензия к IDEA.
Но вообще я разбирался что именно такого особенного в перетаскивании вкладок Vivaldi (её, например, в Firefox перетащить можно, и Firefox создаст страницу). В списке форматов в drag'n'drop объекте, помимо собственно кастомного формата с вкладкой Vivaldi, есть формат URL содержащий ссылку на страницу открытую во вкладке. Возможно именно на неё IDEA так реагирует. Другие браузеры URL как отдельный формат не включают, соответствунно перетащить фкладку Firefox назад в Vivaldi не получится, например.
Собственно разбирался потому что думал что проблема в Vivaldi, так как он не может принять вкладку Firefox, оказалось, что проблема в Firefox, потому что он не передаёт данные в совместимом формате.
Как именно они работают? И никогда не видел полноценной безпроблемной замены.
В Opera Presto это работало даже в перетаскиваемых объектах, причём на удивление интуитивно: перетаскивание влево/вправо выделяло текст, вверх/вверх вниз - начинало перетаскивание.
Так же и порядок выделенных элементов - в хромоподобных начинаешь выделять одно, слегка сдвишаешь мышь в часть где по логике должен кончиться текст - и половина страницы внезапно выделена, причём случайные её части.
Причём некоторых вещей из Оперы негде нет до сих пор: Выбор текста в интерактивных элементах до сих пор приключение с незвестным концом, а заставить подстроиться страницу под ширину экрана (не спрашивая мнения сайта об этом) не может ни один браузер, так как это была фича на уровне движка.
Я бы не надеялся на долгосрочные изменения, на самом деле. Многие проекты актуальные во премена ковида сейчас проваливаются/закрываются, так как большенство перестало сидеть дома и им есть чем заняться (ну хотя бы работать)
Но вообще это можно и для виртуальной реальности использовать, как вариант
Ок, мне от подкидывает другое: комедийные зарисовки, фрагменты из фильмов/мульсериалов, да, но англоязычные, всякое про D&D, каких-то блоггеров про ремонт. И ещё кучу всякой фигни, которую я либо сразу же минусую и прокручиваю, либо игнорю канал целиком. (50/50 соотношение того что можно посмотреть и что я игнорю/минусую). И видео с котами :D
edit:
покрутил сейчас шорты, вот что они мне выдали (по тематике): - блоггер/коты - хобби/работа с деревом - игры/warhammer - Software? - блоггер/коты - посты с сайтов/tumblr - хобби/3d печать - блоггер/комминксы - коты - что-то про гимнастику - кулинария - блоггер/коты - игры/satisfactory - посты с сайтов/tumblr - lego - дикая природа
Я сейчас смотрю хочу ли я купить у вас подписку и не понимаю что я под каждым пакетом получу. Там просто указанно сколько я получу fallout-крышкек-совершенно-точно-не-денег-потому-что-по-закону-нельзя, но не указанно к чему будет доступ. Просто ко всему?
Я хочу попробовать коммерческие и большие открытые модели, которые я не могу запустить локально.
Я бы на самом деле предпочёл в таком случае перевести какую-то сумму вместо всех этих псевдо-пакетов если они одинаковые.
Ещё немного критики:
- мне нужно создать новый чат чтобы переключиться на другую группу AI
- нельзя удалять/редактировать сообщения в чате
- баг (llama-3.1-70b-instruct:free, повторная попытка успешна):
-
- нет количества использованных токенов/CAPS на сообщения
Вообще лучший (но не идеальный) GUI чата из тех, что я использовал - у LM Studio
И в чём разница между, скажем, llama-3.1-405b-instruct:free и llama-3.1-405b-instruct?
Он вполне мог сгалюцинировать. Не верьте ни одному слову написанному AI, в принципе.
Вот как пример: это локально запущенная модель. Он относительно прав - Codestral это файнтюн Mistral для программирования. Так же как и chat gpt, он представился менее способной моделью чем я на самом деле запустил.
Впрочем, llama 3.1 70b достаточно умна, чтобы сказать, что она не знает какая именно она версия:
Ещё западные модели знают Русский постольку-поскольку, никто русскому их целенаправленно не учил. Плюс есть технические ограничения связанные с тем как кодируется кириллица, в результате русский для многих моделей просто сложнее. Хотите складных ответов - используйте либо российскую модель (вроде у Яндекса есть?) либо файнтюн на русскоязычных данных (я не увидел таких в списке BotHub).
Но в принципе ваш опыт полностью соответствует среднему по больнице при использовании AI, да. Много хайпа, мало толка.
Дело не в Яблофилии, дело отрыве от реальности. Объективно, либо Эппл подчиняется, либо повторяет судьбу Meta* (*запрещённая в России организация, бла бла бла)
И быть заблокированным на территории России и странах в которые траффик идёт транзитом через Россию? Для Amnezia исход это совершенно не поменяет, к слову.
Я сожалею что ваз заблокировал Эппл, но скажите: а что он должен был сделать по получению запроса?
Тут непонятно заранее, как оно сложится - быстрее или медленнее. Так что при выборе пути можно судить только по среднему опыту, применимому к задаче.
Даже если у вас есть энтузиазм и желание использовать AI - всё равно нужно чтобы хотя бы выходило так же (энтузиазм энтузиазмом, но работу делать надо)
Тут всё довольно просто: Время описания задачи для AI + время генерации (актуально если AI локальный) + время на ревью и доработки > время для самостоятельного выполнения задачи.
То есть при одинаковом качестве результата быстрее сделать самому.
Модели - llama-3.1-lumimaid
"Гусары! Молчать!"
А можно полюбопытствовать: какой процент пользователей использует версии этой модели?
Вот вы тут шутите, да? :D
https://www.mturk.com
Выла история, "умного магазина" где ты просто забираешь товары и тебе прилетает банковский чек к оплате. Утверждалось что, это всё распознание видео, нейронные сети и всё такое, но нет, нейронными сетями работали индусы через mturk.com
Опять же: зависит от проекта. Если у вас проект в котором есть собственный "фреймворк" (условно - набор уже реализуемых фич, базовые классы, протоколы взаимодействия, предопределённые стили шрифтов и цвета, миксины с реализациями повторяющейся логики, etc) - новую фичу нужно нормально интергировать в существующую кодовую базу, использовав существующие методы и классы.
AI же просто по единственному файлу понятия не имеет об окружении. А больше просто не поместится в контекст.
Единственное, тут nvidia выпустила файнтюн llama 3.1:
https://build.nvidia.com/nvidia/llama-3_1-nemotron-70b-instruct
Размер контекста у новых llama - 131072 токена. Это объём уже достаточный для осмысленной работы с документами, но я не готов стороннему сервису отдавать все исходники целиком. Локально же его запустить можно, но ээээм... Вам понадобится что-нибудь типа две nVidia Tesla P40 (48 Gb vram).
"Запустить" же на ddr5/CPU - это быстродействие в 1 token/s, это как email отправлять, где вам собеседник через час ответит
AI обучены на среднестатистических данных из интернета, в результате они во всём разбирается как среднестатистический пользователь интернета - примерно никак... Особенно заметно на узких малоизвестных темах. Худшая же черта - все AI что я пробовал - никогда не противоречат пользователю, просто начинают в тихую галлюцинировать.
Я тут старательно пытаюсь притянуть за уши AI в своей работе... и опыт довольно печальный.
Ты или делаешь работу сам, или ревьюишь/модифицируешь то, что выдал AI. Сделать работу самому 1 - быстрее, 2 - надёжнее, 3 - мозги не ржавеют. Он "пишет" ниже среднестатистического уровня, в результате AI сделает работу может быть лучше чем джун, но вот джунов я к AI бы не подпускал - пусть учатся.
Единственная задача с которой в моей практике LLM (Codestral 22B) справился сам (со второй попытки) - на основе существующего кода составить yaml-конфиг со стилями шрифтов.
Факторами на моё первое успешное трудоустройство стали личная рекомендация уже работавшего в компании человека и моё относительно успешное участие в соревнованиях по правилам ACM. Даже не смотря на то, что учебное заведение я не закончил
Git же в принципе... в учебном курсе системы контроля версий он не был упомянут ни разу, а лабы носились, страшно сказать, на mini CD-RW диске. Я искренне надеюсь это изменилось за прошедшее время...
По поводу самого github - качестве хобби я писал моды для игр, и общался с людьми из community. Да, у большинства из них есть github аккаунт, и там есть код, и местами даже неплохой код. Вот только они не работают программистами или даже в смежной сфере. Автор самых популярных на тот момент модов для RimWorld - вообще медик.
Насколько я понимаю они используют "оффлайновый" profile для подписки приложения. Я никогда не пользовался этим "стором", но в опциях приложения есть ещё "онлайновый" profile для подписи приложения - он действует год, но для запуска приложения нужно подключение к сети
Установленное на устройство приложение при удалённое из стора остаётся на устройстве. Видимо на это расчёт.
По поводу вкладки в ссылку - я бы сказал, это претензия к IDEA.
Но вообще я разбирался что именно такого особенного в перетаскивании вкладок Vivaldi (её, например, в Firefox перетащить можно, и Firefox создаст страницу).
В списке форматов в drag'n'drop объекте, помимо собственно кастомного формата с вкладкой Vivaldi, есть формат URL содержащий ссылку на страницу открытую во вкладке. Возможно именно на неё IDEA так реагирует.
Другие браузеры URL как отдельный формат не включают, соответствунно перетащить фкладку Firefox назад в Vivaldi не получится, например.
Собственно разбирался потому что думал что проблема в Vivaldi, так как он не может принять вкладку Firefox, оказалось, что проблема в Firefox, потому что он не передаёт данные в совместимом формате.
Как именно они работают? И никогда не видел полноценной безпроблемной замены.
В Opera Presto это работало даже в перетаскиваемых объектах, причём на удивление интуитивно: перетаскивание влево/вправо выделяло текст, вверх/вверх вниз - начинало перетаскивание.
Так же и порядок выделенных элементов - в хромоподобных начинаешь выделять одно, слегка сдвишаешь мышь в часть где по логике должен кончиться текст - и половина страницы внезапно выделена, причём случайные её части.
Причём некоторых вещей из Оперы негде нет до сих пор: Выбор текста в интерактивных элементах до сих пор приключение с незвестным концом, а заставить подстроиться страницу под ширину экрана (не спрашивая мнения сайта об этом) не может ни один браузер, так как это была фича на уровне движка.
Я бы не надеялся на долгосрочные изменения, на самом деле. Многие проекты актуальные во премена ковида сейчас проваливаются/закрываются, так как большенство перестало сидеть дома и им есть чем заняться (ну хотя бы работать)
Но вообще это можно и для виртуальной реальности использовать, как вариант
Ок, мне от подкидывает другое: комедийные зарисовки, фрагменты из фильмов/мульсериалов, да, но англоязычные, всякое про D&D, каких-то блоггеров про ремонт. И ещё кучу всякой фигни, которую я либо сразу же минусую и прокручиваю, либо игнорю канал целиком. (50/50 соотношение того что можно посмотреть и что я игнорю/минусую). И видео с котами :D
edit:
покрутил сейчас шорты, вот что они мне выдали (по тематике):
- блоггер/коты
- хобби/работа с деревом
- игры/warhammer
- Software?
- блоггер/коты
- посты с сайтов/tumblr
- хобби/3d печать
- блоггер/комминксы
- коты
- что-то про гимнастику
- кулинария
- блоггер/коты
- игры/satisfactory
- посты с сайтов/tumblr
- lego
- дикая природа