Комментарии 83
Хороший и качественный помошник.
Я вам верю и даже могу понять почему она так делает. Но у нее явно ко мне "предвзятое" отношение?. Потому как наше общение закончилось в стиле "ой все" без возможности его продолжение. Disabled поле и кнопка для нового диалога. Вот это уже очень странное поведение.
Hidden text
А вы верьте больше ему, я с bing chat каждый день общаюсь и почти каждый день вижу плашку что 'я обучен на данных 2021 года и не знаю всего'... там gpt3.5 или аналог, но gpt4 встроен так хитро что первый вопрос обрабатывает именно им (стандартные тесты не версию через каверзные вопросы).
Войдите в свою учетную запись Майкрософт или Entra ID. Copilot в настоящее время поддерживается только в браузерах Microsoft Edge и Chrome на платформах Windows и macOS.
Мобильный браузер надо переключить в "вид для ПК"
В мобильном Safari и так работает, там это предупреждение и ниже кнопка "Войти".
Зачем придумывать костыли, если можно скачать Bing на iOS/Android?
Зачем придумывать костыли, если можно скачать
Что-то скачать и есть костыли :)
Вы думаете, что браузер ничего не кэширует?
А причём здесь браузер, его поведение в большей степени предсказуемо, в отличии от поведения непонятных "обёрток" системного webview, к тому же поднимающих компонент синхронизации данных.
Без интернета не работает...
Сейчас даже генерация изображений без интернета работает!
У MS уже давно без интернета ничего не работает. :-(
у гугла тоже
для телефонов нужен принудительно аккаунт гугла
сейчас бы за правду минусовать
не минусовал, но это ложь, для телефонов не нужен принудительно аккаунт гугла
Я отчетливо помню как настраивал телефон, и пройти этап настройки без ввода гугловского аккаунта у меня не получилось.
Я допускаю что есть нестандартный путь который обыватель назовет хакерским (а по факту где то снять процесс, и где то хитро тапнуть особую кнопку)... но это не нормально.
Главное, что смартфон без гугловских сервисов будет ущербен, приложения нормально не заработают (а чтобы заработало придется ставить варез, т.е. gapps-ы), нормального аппстор не будет и т.п.
хакерский путь- нажать кнопку "Пропустить")
на некоторых телефонах, предполагаю - более старых, может и была эта кнопка, но последние телефоны, что настраивал пропустить это было невозможно(или пропускаешь - а там другой облом в виде надо настроить то, нужОн интернет и обязательно с аккаунтом гугла), может кому-то этот мерзкий андроид еще в маг-не настраивают и потом как то не знается о принудиловке
ну если быть точным - всё таки для смартфона
а если менее предвзятым, то данный аккаунт нужен только для предварительной инициализации и закачки софта с гугл-плея, я не очень давно смартфон менял - зарегал, скачал всё что мне было интересно и вытащил оттуда симку (он мне как телефон или интернет-терминал был не нужен) - вот уже больше года всё прекрасно работает, на втором интернет включается только для банковского приложения (и только его обновляю через сайт банка, гугл плей деактивирован с момента как я подготовил смартфон к использованию) - ни разу еще не вылезло требование подключиться к интернету.
а вот именно телефон - те вообще прекрасно живут даже без этой инициализации. кнопочные. ;-)
кстати вспомнился Самсунг же с более ранней версией Андроида - кажется S4mini модель была - он вообще не требует для инициализации гугл аккаунта.... ничего скачать с гугл плея конечно не даст, но и в той комплектации, как есть без него по крайней мере загрузится (современные модели насколько помню без рега даже не дойдут до "рабочего стола") и даст возможность писать SMS, сов
Как вариант lama2 на компе запустить
Разумеется не работает. А вы предлагаете на каждый ноутбук ставить сотни гигабайт модели?
Как полгига на калькулятор на электроне, так это нормально. А скачать модель для автономной работы - проблема?
чтоб потом сами жаловались что виндувс весит террабайт, поэтому перехожу на линукс?
Ладно пол гига, но даже 7b модель будет гигов 10 в RAM занимать, если не больше.
Мне кажется, сейчас в новые ПК для программистов менее 32 Гб и не ставят.
Наверняка. Но если вы решите таки попытаться обойтись RAM без загрузки слоев в GPU, то после каждого запроса можете смело идти пить чай. По мере увеличения объема контекста ещё и поужинать можно будет. :)
не перебарщивай, с nvme диска данные грузятся не на много дольше чем копируются из ram в vram, узкое место и там и там - pci-e.
я допускаю что на текущий момент операционные системы не умеют загружать данные с nvme в vram минуя процессор (хотя технически можно зарядить dma трансфер напрямую), думаю для интернета вещей такой путь будут использовать, так как через процессор это лишние затраты времени.
Она помимо RAM ещё и память GPU требует в огромных количествах, в это главная проблема.
давно уже не проблема купить видеокарту с "много памяти" на борту - проблема только в цене таких видеокарт (350+ тр например) - вместе с тем если для вас это будет необходимый инструмент и з/п у вас нормальная - вполне сможете позволить себе её купить....
на рынке сейчас (да и давно уже) страшный дефицит таких видеокарт, и он поддерживается специально.
геймерские видеокарты с небольшим объемом gpu до 12 легко, какую-нибудь слабую 3060, 24 - с 2х ценником и не много, еще можно.. беда в том что современным нейронкам нужны сотни.
ну я про такую и пишу - а что цена завышена - так это уже лет несколько как.... Сначала "отметились" майнеры крипты, потом ковид и дефицит полупроводников... а потом судя по всему продавцам и производителям понравились высокие прибыли и высокую цену стали держать искусственно... не считая что есть куча перекупов, которые в этом им потворствуют....
Тут люди жалуются что электрон 300мб жрет, а вы о каких то сотнях тысячах рублей говорите, как это связано вообще. И таких видеокарт не существует в природе, максимум что есть это а100 с 80гб и стоимостью от 10к долларов. Для нейронок 80 Гб это мало
Это гипербола, или реально есть калькулятор на Электроне в полгига?
(Когда-то написал калькулятор на Триденте (ИЕ), до сих пор работает даже под Вин11, а весит меньше 2 мегабайт).
Скорее лёгкое преувеличение. Думаю, есть шанс уложиться в 200-300 Mb.
у меня на телефоне Самсунг год назад было 2 приложения с одним функционалом - "Сообщения" - одно занимало что-то то ли 350кб, то ли 3.5 Мб, а второе более 300Мб... Пришлось второе удалять..... память была очень нужна для нужного ПО
Калькулятор на электроне занимает место на диске, а модель должна жить в памяти gpu для нормальной работы. Понимаете разницу?
А я-то, дурак, всю жизнь думал, что для работы любого приложения нужно его сначала загрузить в ОЗУ...
Приложение то в ОЗУ, а вот данные (модель) с которыми оно работает - тоже туда. Просто считайте GPU как отдельный суперкомпьютер с тыщей процессоров и единым пространством памяти.Там скорости нужны такие, что будучи данные где то на накопителе, оно ответ по нескольку суток генерировать начнет.
Как работают нейронные сети я примерно знаю, спасибо. Я про это:
Калькулятор на электроне занимает место на диске
Его не надо грузить в ОЗУ?
Модель для рисования весит полтора гигабайта. У меня стоит.
А распакованная в оперативку?
4-8, в зависимости от настроек (float vs double и прочее), и в целом там можно пожертвовать производительностью в пользу меньшего потребления памяти, насколько я знаю
Я смотрел могу ли я поставить llama, в целом там основная проблема не оперативка, но результирующее быстродействие. на mac mini m1 оно будет работать, но скороть генерации довольно печальная (8-12 токенов в секунду, слово состоит из 1-3 токенов)
Вообще все эти модели интересны тем, что они могут работать на hi-end потребительской технике
Так в том и проблема, что даже когда есть возможности держать модели по сто гигов и резервировать оперативу под них по 32 гига, то выбора всё равно нет, никто не даст, монетизация такого не предусматривает, видимо. А интернет бывает не всегда и не везде.
Иногда поражаюсь подобным сообщениям, заключившими в себе настолько дикую простоту.
Вообще то все работает, если есть на чем работать. У друга двухпроцессорная дура с 256гб оперативки, и он вполне себе локально играется и с LLM, и с генерацией изображений, правда на последнем он упирается в видеопамять, и сейчас подумывает купить для этого что-то типа NVIDIA Tesla. Так что тут скорее скажите спасибо что хоть и с интернетом, зато работает на чем угодно)
Это что же он такое пытается генерить, что ему производственная видюха нужна? Панорамы 16к на 32к пикселей и обязательно чтобы в один проход?
Возможно "Ничего".
Не. Нужные ресурсы не зависят от запроса, только от размера картинки и чистоты модели.
Кстати, StableDiffusion 1.5 по запросу "nothing" генерировала довольно концептуальные вещи: пустые комнаты, пустые ландшафты, простые узоры, лица какие-то. А вот все последующие тупо пытаются нарисовать слово nothing в различных вариантах. Это не интересно.
Да насколько я знаю никакой конкретной цели нет, просто, как бы это сказать, щупает предел возможного в обычном (в плане форм-фактора) системнике.
А ну и да, возможно ввел в заблуждение, он таки не миллионер, и речь не о совремнной тесле, а прошлых поколений, на 24гб, типа tesla p40. Не знаю уж что он там генерирует, но запрос чисто "Нужно бооольше памяти"
Там вообще довольно бюджетная сборка если вдуматься. Порядка 150-200к вроде, как нормальный современный игровой системник. Только для других игр)
Просто для всех известных мне практических применений StableDiffusion - 8Гб за глаза хватает. Разрешение выходной картинки нельзя тупо задирать - на выходе фигня гененрироваться будет, поэтому для получения изображений высокого разрешения используется много проходов и хаки. Так что больше 8Гб особо и занять нечем: у кого есть 24 тратят их на генерацию 4х версий одновременно и подобные "оптимизации".
Мы на днях скорее всего встретимся с ним за рюмкой пива, уточню и отпишусь, после ваших комментариев самому интересно стало.
4090 без Tiled VAE на SD падает с pytorch out of memory на разрешениях в районе 2560х1600, будь то highres fix или img2img.
Ну и в целом, когда жирные картинки влезают в VRAM без тайлинга - оно приятнее и быстрее. Хотя на мой взгляд брать профессиональную карту для SD все же странно. А вот для LLM - запросто.
Сорри, вылетела из головы эта ветка, спросил у него, да@nidaleeверно написал, про stable diffusion я погорячился, хотя там ему тоже хочется именно быстрее, а не больше, он уперся в LLM. Задача которую он поставил себе - сгенерить игру которая пройдет в яндекс.игры чисто нейронками. Собсно про характеристики этой херни еще дополнить, он когда мы об этом говорили еще пожаловался что 4 терабайта ему как-то совсем не хватает, и надо что-то придумывать чтобы накидать еще ссд)
дети росли.... цена игрушек росла.... (с) не помню уже чей - в том ПК скорее всего 50-65% цена видеокарты ;-(
Когда в офис уже добавят, хотя бы в бетку
Из России не работает, только через VPN удалось зайти.
А можно глупый вопрос — а внедрение copilot в bing, хоть каким-то образом сделало эту поисковую систему конкурентной Google?
Лично для меня нет, мне привычнее просто на chat openai зайти, не вижу особой нужды переключаться. Но у меня пока просто не было причин заставлять chatgpt что-то искать в интернетах.
Я пробовал пару раз, но доходило до смешного... Что просьба не гуглить в интернете, давала лучший результат, чем конкретное упоминание промпта. (нужно было что-бы он вспомнил кое какие id из открытой базы данных, которую он точно знает).
поэтому я пока и сомневаюсь, с другой стороны внедрение copilot — это шумиха вокруг bing. я вот этот поисковик не открывал в принципе до этой статьи за 20+ лет в интернете.
Чатгпт в последних версиях умеет сам искать в интернете. Не очень понимаю зачем вообще копилот нужен. Разве что нативные интеграции и бесплатность.
А можно глупый вопрос — а внедрение copilot в bing, хоть каким-то образом сделало эту поисковую систему конкурентной Google?
на старте он был очень умным, весь диалог вел версией gpt4 и реально получалось ужасный поиск bing улучшить, было удобнее и быстрее искать с его помощью.
Но где то с лета (отловить момент сложно без тестов) майкрософт оптимизировали затраты и стали в процессе беседы подменять модель на более глупую, качество упало заметно.
Но главное остается - у них очень хорошая модель генерирующая запросы, вот бы ее в общий доступ, и прикрутить к локальному сканированию результатов поиска (в т.ч. пользовательской базы и выбранной пользователем поисковой системой) и правильной моделью для беседы.
Например на старте можно попросить ее вести поиск на английском и японском языке а ответы давать на русском, и она будет показывать какие запросы делала в процессе. Так же она умеет делать промежуточные запросы, необходимые для ответа, типа найди какие есть библиотеки с таким то функционалом и опиши плюсы и минусы, и она сразу гуглит списки библиотек, и тут же делает запросы по функционалу каждой, читает все это и дает выжимку в ответе.... и все это в контексте беседы.
openai в настройках включают тот же самый bing chat (нельзя сменить на google), я не тестировал их качество но сомневаюсь что они запилили какой то другой код, скорее всего это одно и то же.
p.s. помнить нужно всегда, что это галлюцинирующая поделка, основывающая свои результаты на маркетинговых статьях из интернета... нужно больше контроля за тем как и где искать и что читать модели, чтобы результат стал лучше.
del (интерфейс Хабра оставляет желать лучшего, так же как и результаты поиска гугла)
Лично в моём случае гугл самоустранился. Несколько месяцев назад Гугл абсолютно перестал понимать поиск по ключевым словам, перестал понимать поиск по точному совпадению и не ищет ответы на очень технические запросы. Перешёл на Bing не от хорошей жизни, но он работает явно лучше чем Гугл для меня на данный момент.
Попробуйте искать не на русском языке и с vpn
Спасибо, Потому что я думал, что это я уже поиском разучился пользоваться. В последнее время действительно были проблемы, особенно с поиском по точному совпадению. Причем далеко не в технических тематиках, и я явно уверен, что до недавнего времени (ну может полгода-год), все находилось.
Одобряю) Я тоже инфекенсер МС давно :)
Microsoft Copilot вышел в общедоступной версии