Это не значит, что система выдала оповещение о неэффективности сотрудника, и руководитель сразу побежал его увольнять. Просто ИИ подсказывает и обращает внимание на какие-то метрики или факторы, которые могут свидетельствовать о том, что работа того или иного сотрудника или всего проекта отстает от плана или подает признаки неэффективности
Сокращения происходят не из-за ИИ, а из-за того, что штат сбера сильно раздут, и во время, когда приходится ужимать бюджет, приходиться принимать решения, кого отправить под нож. И такие решения тоже должны быть эффективными, в чём помогает анализ данных.
Но люди увидят, что работников уволил ИИ и сделают себе соответствующие выводы
Учёные отмечают, что с переходом к земледелию человеческий мозг стал менее мощным...
Отмечают не учёные, а один конкретный антрополог, исходя же из вашей прикреплённой ссылки. Копнув глубже статьи журналиста о том, что говорил антрополог, оказывается, что в основном с ним не согласны с целой пачкой контр-аргументов. А в какой момент времени человек был "умнее" всего? Нашему виду чуть менее полумиллиона лет, и возьми вы ребёнка человека из 300млн лет ранее и помести в сегодня, он не будет отличаться когнитивно. Что уж говорить про освоение мотыги, с того времени человек не отличается вообще никак.
Но в этой статье вы указываете утверждение этого антрополога (которое конечно же имеет право на существование и обсуждение) как абсолютную истину, на которую опирается весь дальнейший рассказ.
У чатгпт бесплатного такой прикол был. Грузишь три картинки, не отправляя запрос, решаешь их заменить на другие три, удаляешь, а всё, лимит. То есть вижн работает прежде, чем ты отправишь ему сообщение. Или кидаешь картинку, а она не проходит цензуру, и всё, опять привет лимит
Даже если бы количество ядер действительно всегда было железно кратно двум, пользователь мог намеренно отключить одно, и отключить многопоток. Получается, и тут тоже была бы ошибка.
На самом деле выглядит не как "я нашёл решение неочевидной проблемы", а как "я победил врага, которого сам себе придумал".
"предел токенов", это не какое-то строгое число. Эффективность модели в целом зависит от текущего объёма контекста, и у всех по разному в зависимости от датасета и обучения. В среднем, пик эффективности на паре тысяч токенов, затем модель начинает потихоньку тупеть.
Это как маркетинговым числом ИСО в фотоаппаратах. Вот взять какой-нибудь старый зеркальный кэнон, у которого написано предельный исо 102'400, а рядом никон с 32'000. Первый лучше? А как бы ни так, второй значительно меньше шумит на высоких исо, а ту разницу в максимальном исо оказывается можно вытянуть в проявщике с качеством даже лучше.
Так и тут. Эти заявленные цифры едва ли могут иметь общее с реальностью, ведь фактически же работает на своих сотнях тысяч токенов? Работает. А как — вопрос другой
Конечно, если человек всю жизнь заполнял таблички в документах, а теперь начал генерить баболица в бикини, едва ли это потянет за "хорошее". А вот если инструментом воспользуется художник или дизайнер, человек связанный с визуалом и имеющий насмотренность, плюс владеющий редакторами для правок — тут уже может родиться нечто качественное, то самое искусство
"35% обращений с проблемами были связаны с питанием, значит у этих видеокарт проблемные разъёмы!" — а какая доля обращений по питанию у остальных видеокарт? А 35% обращений, это сколько в расчете обращений на 100 видеокарт? Разумеется, из-за ошибок с коннектором топовых моделей одного поколения теперь каждый такой случай будет громче прочих.
Проблемы с PCI-E 5.0 — устранены. Даже если бы кому-то пришлось временно перейти на 4.0, он от силы потерял один процент производительности, а чаще и такой разницы нет. Да, всё ещё нет устройства, который режет четвёртый стандарт. Кроме того, схожие проблемы были и на старте радеонов 9ххх, и не удивительно, стандарт новый.
Ну и аргумент, что один из двухста карт (купленных до февраля) рискует попасть на гарантийную замену, у одного парня на реддите случились кондеи – замечательные в пользу амд, да-да.
Статья чисто манипулятивная и не отражает действительности
Как писать промпты: вот вам ушат инфы про юнет, матан, шум, обучение модели, энкодер, картинки с архитектурой модели.
Но главное "чем детальнее промпт - тем точнее результат" — что вообще ни разу не правда. И для с сд (1.5, сдхл), чем длиннее промпт, тем сложнее сходимость, и для миджорни, которому в целом по-барабану, что ты там пишешь, и для далле-3, который из всех перечисленных единственный адекватно воспринимает речевой промпт благодаря прослойке в виде языковой модели.
Но ни тебе о важности весов, ни о разнице клип/буру тегов, ни о контроле в виде свапа тегов. Ну и собсно посему на ваших результатах запрос не соответствует результату. Надёргано инфы с других статей, чтоб казаться умным, а выхлопа нет
Во-первых, в 2к25 генерить на полторахе... Во-вторых, преобразование изображение куда более контролируемо в обычном i2i, либо в рефайнер, либо вообще незаслуженно забытые конструкции [х:у:когда] для свапа тегов.
Более того, сам хайрезфикс нужно забыть как страшный сон, когда есть кохяфикс, позволяющий получить хайрез результат значительно быстрее и без тайловых женерик артефактов.
Такие лоры есть, буквально так же и называются, LoRa. Однако нельзя просто взять и засунуть в него текст для обучения. Подготовка датасета тут куда более замороченная, чем разметка картинок. Понадобится немножко писать скрипты для подготовки и грамотно расписывать инструкции. Ну и требования к железу тут ещё жирнее.
Понравилось сравнение приложений в трее: базовый, простой и нормальный. Звучит одинаково
Сокращения происходят не из-за ИИ, а из-за того, что штат сбера сильно раздут, и во время, когда приходится ужимать бюджет, приходиться принимать решения, кого отправить под нож. И такие решения тоже должны быть эффективными, в чём помогает анализ данных.
Но люди увидят, что работников уволил ИИ и сделают себе соответствующие выводы
Отмечают не учёные, а один конкретный антрополог, исходя же из вашей прикреплённой ссылки. Копнув глубже статьи журналиста о том, что говорил антрополог, оказывается, что в основном с ним не согласны с целой пачкой контр-аргументов. А в какой момент времени человек был "умнее" всего? Нашему виду чуть менее полумиллиона лет, и возьми вы ребёнка человека из 300млн лет ранее и помести в сегодня, он не будет отличаться когнитивно. Что уж говорить про освоение мотыги, с того времени человек не отличается вообще никак.
Но в этой статье вы указываете утверждение этого антрополога (которое конечно же имеет право на существование и обсуждение) как абсолютную истину, на которую опирается весь дальнейший рассказ.
У меня он не справился отрисовать svg иконки ни одного мессенджера. А веб код он пишет как мудак
У чатгпт бесплатного такой прикол был. Грузишь три картинки, не отправляя запрос, решаешь их заменить на другие три, удаляешь, а всё, лимит. То есть вижн работает прежде, чем ты отправишь ему сообщение. Или кидаешь картинку, а она не проходит цензуру, и всё, опять привет лимит
Даже если бы количество ядер действительно всегда было железно кратно двум, пользователь мог намеренно отключить одно, и отключить многопоток. Получается, и тут тоже была бы ошибка.
На самом деле выглядит не как "я нашёл решение неочевидной проблемы", а как "я победил врага, которого сам себе придумал".
"предел токенов", это не какое-то строгое число. Эффективность модели в целом зависит от текущего объёма контекста, и у всех по разному в зависимости от датасета и обучения. В среднем, пик эффективности на паре тысяч токенов, затем модель начинает потихоньку тупеть.
Это как маркетинговым числом ИСО в фотоаппаратах. Вот взять какой-нибудь старый зеркальный кэнон, у которого написано предельный исо 102'400, а рядом никон с 32'000. Первый лучше? А как бы ни так, второй значительно меньше шумит на высоких исо, а ту разницу в максимальном исо оказывается можно вытянуть в проявщике с качеством даже лучше.
Так и тут. Эти заявленные цифры едва ли могут иметь общее с реальностью, ведь фактически же работает на своих сотнях тысяч токенов? Работает. А как — вопрос другой
Так и хорошего художника пойди найди.
Конечно, если человек всю жизнь заполнял таблички в документах, а теперь начал генерить баболица в бикини, едва ли это потянет за "хорошее". А вот если инструментом воспользуется художник или дизайнер, человек связанный с визуалом и имеющий насмотренность, плюс владеющий редакторами для правок — тут уже может родиться нечто качественное, то самое искусство
Автор ловко манипулирует цифрами.
"35% обращений с проблемами были связаны с питанием, значит у этих видеокарт проблемные разъёмы!" — а какая доля обращений по питанию у остальных видеокарт? А 35% обращений, это сколько в расчете обращений на 100 видеокарт? Разумеется, из-за ошибок с коннектором топовых моделей одного поколения теперь каждый такой случай будет громче прочих.
Проблемы с PCI-E 5.0 — устранены. Даже если бы кому-то пришлось временно перейти на 4.0, он от силы потерял один процент производительности, а чаще и такой разницы нет. Да, всё ещё нет устройства, который режет четвёртый стандарт. Кроме того, схожие проблемы были и на старте радеонов 9ххх, и не удивительно, стандарт новый.
Ну и аргумент, что один из двухста карт (купленных до февраля) рискует попасть на гарантийную замену, у одного парня на реддите случились кондеи – замечательные в пользу амд, да-да.
Статья чисто манипулятивная и не отражает действительности
Как писать промпты: вот вам ушат инфы про юнет, матан, шум, обучение модели, энкодер, картинки с архитектурой модели.
Но главное "чем детальнее промпт - тем точнее результат" — что вообще ни разу не правда. И для с сд (1.5, сдхл), чем длиннее промпт, тем сложнее сходимость, и для миджорни, которому в целом по-барабану, что ты там пишешь, и для далле-3, который из всех перечисленных единственный адекватно воспринимает речевой промпт благодаря прослойке в виде языковой модели.
Но ни тебе о важности весов, ни о разнице клип/буру тегов, ни о контроле в виде свапа тегов. Ну и собсно посему на ваших результатах запрос не соответствует результату. Надёргано инфы с других статей, чтоб казаться умным, а выхлопа нет
Автор кажется года на три опоздал.
Во-первых, в 2к25 генерить на полторахе... Во-вторых, преобразование изображение куда более контролируемо в обычном i2i, либо в рефайнер, либо вообще незаслуженно забытые конструкции [х:у:когда] для свапа тегов.
Более того, сам хайрезфикс нужно забыть как страшный сон, когда есть кохяфикс, позволяющий получить хайрез результат значительно быстрее и без тайловых женерик артефактов.
https://chatgpt.com/share/675cb50f-e334-8010-b3d3-e28d5a78065b
Чатгпт расписал положняк по этому закону
Это не совсем так. В штатах есть закон о добросовестном использовании произведений, защищённых авторским правом. И лавировать там непросто
использовать васян тюн, выдающий одинаковые лица.
Локальные модели не имеют никаких скрытых рассуждений. Весь ответ, токен за токеном, это и есть её "поток мыслей"
Скорее напротив, эта технология вдохновлена аналогичным уже применяемым способом картографии активности нейронов человека.
Такие лоры есть, буквально так же и называются, LoRa. Однако нельзя просто взять и засунуть в него текст для обучения. Подготовка датасета тут куда более замороченная, чем разметка картинок. Понадобится немножко писать скрипты для подготовки и грамотно расписывать инструкции. Ну и требования к железу тут ещё жирнее.