Search
Write a publication
Pull to refresh
3
0.1
Send message

Во-первых, далеко не факт, что современная LLM чувствует эмоции. Воспринимает, выражает, это бесспорно. Но вот чувствует ли - очень большой вопрос.

Во-вторых, не факт что безэмоциональный "чистый разум" будет лучше.

как он потом будет рассказывать какой он великий инноватор, если великий инноватор на самом деле Пупкин?

С непробиваемой уверенностью.

Поздновато очнулись))

Я не удивлюсь, если крупные букмекерские конторы в полный рост используют нейросети для определения коэффициентов. Это же всё статистические модели предикторы. Только наверное используют не LLM, а что-то более специализированное, благо ничего не мешает составить датасеты спортивной аналитики, а в контекст привинтить ближайшие матчи, КПД возможных игроков, список травмированных и дисквалифицированных, ну и вообще, за что играют.

Deepseek >= Qwen?

Зависит от домена. Перевод технической документации на голову выше у Qwen 2.5 Max, например. Новый Qwen3 235B A22B 2507 ещё не обкатывал, не знаю, но в старом флагмане прямо уверен.

Deepseek R1 вообще негоден для перевода - постоянно проявляет фантазию, отрываясь от оригинала. А V3, подобно Gemini 2.5 Pro, на длинных последовательностях очень часто пропускает целые предложения и даже параграфы. На коротких не сильно лучше - очень вольно обращается с терминологией.

Причем вне зависимости от промта - вероятнее всего, это проблема структуры контекстного окна и его надёжности, а не четкости следования инструкциям. Qwen же обычно такого себе не позволяет: иногда, конечно, может пропуск врандомить, но обычно можно выгрузить целый документ, и он будет переводить его целиком, до тех пор пока он в контекст помещается, а если внести в контекст терминологический словарь, то учтёт и его без проблем. У Deepseek же словарь вывалится из контекста, как будто работает Sliding Window Attention, хотя в Deepseek V3 применяется другой механизм внимания.

Я всё ещё не стал бы пользоваться нейросетевым переводом без вычитки с пристрастием, но это очень сильно ускоряет работу. В принципе, на костылях и Deepseek, и Gemini справляются, но вот именно Qwen справляется лучше всего, даже в лоб.

И надо бы попробовать Ernie. Может оказаться неплох.

(капстраны)

С чего это вдруг? Как вы провели связь между (гипотетическим или нет) атмосферным явлением, и государственным строем?

Толковый юрист не пойдёт работать на ноунейм перевоза за 60к. И даже если предложить оплату по рынку, он скорее всего сам срежется, узнав ту схему, которую постеснялись спалить.

Да и зачем этот юрист им нужен? Договоры согласовывать, архив делопроизводства вести... Долго! Он им даже за 30к только помешает! Колёса крутятся, лавеха мутится!

А то, что на лексусе из суда уехали те, у кого юрист скорее всего был, тактично опустим))

Шифрующегося pdf-файла надо взламывать паяльником.

Простите.

Работать с DeepSeek как с сервисом нельзя по той же причине, что и с моделями OpenAI. А развёртка их модели локально - дорогая и нетривиальная задача: пусть это и MoE, но все равно очень большая модель. Я бы смотрел в сторону Qwen2.5VL-32B, такую модель поднять локально будет проще. Возможно, есть какой-то отечественный провайдер DeepSeek, тогда ситуация уже лучше. Но всё равно это контрагент. Читал, что ELMA разработали сервис оцифровки документов, но в деле пока не довелось его увидеть.

ИИ это не «риски утечек». Это буквально постоянная утечка данных просто из-за принципа работы этих технологий.

Строго говоря, это неправда. Если вам зачем-то и ОЧЕНЬ сильно нужны некие нейросети на объекте критической инфраструктуры, то с чисто технической точки зрения, абсолютно любую сеть можно развернуть локально. Это полностью исключает выход данных за территорию объекта и угрозу утечки на стороне контрагента. И много других рисков, с ИБ не связанных. Конечно, не все решения доступны в локальном исполнении, и не все существующие дёшевы во внедрении, но рано или поздно локальный аналог всегда появляется, а вопрос экономической целесообразности решается отдельно в каждом конкретном случае.

А безопасность работы с локальными нейросетями в плоскости ИБ - это в первую очередь обеспечение контроля доступа. Если в нейросеть на вход всегда попадают только те данные, к которым у сотрудника итак есть доступ, и не более того, то угроз по линии службы безопасности нет. Им просто неоткуда взяться. Такие угрозы возникают, когда сети зачем-то скармливают всю информацию разом, в наивной надежде, что сетка сама разберётся и ничего лишнего никому не "расскажет", даже если её будут пробовать "уговорить". Вот такое, конечно, нужно не допускать и немедленно устранять. Но когда это сделано, всё встаёт на свои места.

Бывает, что нейросеть сама выдумывает данные или бредит, но это уже не ИБшная головная боль, а сотрудников, ответственных за внедрение. Если инженеры обоснованно считают, что ИИ нужен, и осознают связанные с внедрением риски, и все равно решают разворачивать, и им это согласовали - значит такое у них решение. Задача ИБ - четко озвучить свои требования к системе так, чтобы никакой утечки данных не было.

ИМХО, рассказывать страшилки о "постоянных утечках из-за принципов работы" - это буквально запугивать и прикрывать собственную некомпетентность в вопросе. Если локального варианта, который укладывается в бюджет и отвечает техническим требованиям нет, или его не получается интегрировать с системами контроля доступа - тогда да, ничего не внедряем до тех пор, пока эти возможности не появятся. Такая должна быть конструктивная позиция у ИБ. Но когда эти возможности появляются - тогда реализовываем по собственным, сколь угодно секьюрным, требованиям. Тестируем, проверяем уязвимости, дорабатываем. В общем, работаем как с любой другой системой.

Человек запретил БАГ на законодательном уровне. Заживём!

Ожидается, что на старте технология будет доступна

В смысле "будет"? Кем "ожидается"? Карты уже как месяц представлены, и даже официально продаются в рознице, вопрос цен и наличия оставляю за скобками.

Вы совсем там в край обленились, перепечатывать статьи с CES в феврале, или у вас новостник ошибся с датой отложенной публикации на месяц?

всё что ниже 300 гб, не даст особого буста по отношению к кпу сетапу.

Как я понял, в экспертах V3 и R1 нет повторяющихся слоёв, как у Mixtral, но помимо 256 переменных экспертов, всегда есть один постоянный. Если этого постоянного эксперта выгрузить в GPU, прирост производительности должен быть существенно выше среднего. Хотя в абсолютном выражении он все равно, наверное, небольшой.

Допотопный клиент, неспособный поддерживать раздельное туннелирование и GeoIP маршрутизацию на Windows.

Вы что именно имеете в виду под деградацией?

Сравнение существующих моделей с предшествующими, то есть грубо говоря, задачи, где ранняя GPT-3.5 справляется лучше, чем GPT-4?

Или имеется в виду качество ответов модели в длинных сессиях, с большими документами или выгрузками в контексте, против короткой сессии со сравнительно пустым контекстом?

Не согласен. Как минимум потому, что мы не живём в абстрактном вакууме.

В непроходимых тестах мы, во-первых узнаем границы возможностей существующих нейросетей. Без этого трудно себе представить их дальнейшее развитие. Разработчикам нужны не только абстрактные отчёты, но и четкие метрики, что предоставляют тесты.

А во-вторых, есть задачи, которые трансформерная LLM неспособна выполнить в принципе. Честное изучение того, где нейросеть стабильно пасует - это единственная здравая оценка границ её возможностей, и это решительно необходимо оценить, желательно задолго до того, как эффективные менеджеры прочитают очередной пресс релиз прорывной модели o7 разработки ClosedAI, и примутся считать, сколько денег они могут сэкономить, уволив кожаных мешков. Кое-где уже разгоняли инженеров, заменив их индусами на аутсорсе в проектировании систем управления самолёта. Там, конечно, все пошло не по плану, но расслабляться на этом не стоит, это будет ошибкой выжившего. Дальнейшая замена индусов на ИИ видится мне вполне логичным продолжением тренда. И тут меня тревожит не столько социально-экономический аспект массового внедрения ИИ в ответственных сферах деятельности, не связанный с этим кризис на рынке труда, сколько сохранение безопасной и бесперебойной работы подобных отраслей. Не хотелось бы, что роботы убивали людей на операционном столе из-за своих галлюцинаций, вызванных спонтанной активацией нейрона "уколоть" просто потому что нейронка распознала некий паттерн между температурой помещения и погодой на Марсе. А это невозможно выловить без изучения типичных для нейросетей ошибок мышления.

Потому что с ошибками мышления человека мы живём всю историю нашего вида, и кое-как научились строить организации и системы, которые призваны не позволять несовершенствам нашего интеллекта слишком часто становиться катастрофой. А вот генеративный ИИ существует от силы несколько лет. Он действительно серьезно отличается от человеческого. В некоторых аспектах он превосходит наш примерно настолько же, насколько калькулятор круче таблиц умножения. Но есть и проблемы. Некоторые из них были решены довольно быстро, другие не поддаются до сих пор, а какие-то с нынешней архитектурой нейросетей не будут решены никогда. Применение нейросети там, где она не справляется - это, строго говоря, противопоказание. Это, я надеюсь, все понимают. Где-то цена ошибки мизерная, либо её можно рассчитать и заложить в стоимость деятельности, а где-то она абсолютно недопустима.

И суть в том, что пул задач, выполняемых нейросетями, может рано или поздно стать настолько широким, что каждый управленец задумается о том, а не сократить ли ему собственный штат. Но сможет ли нейросеть адекватно среагировать на непредвиденную, запроектную ситуацию? У человека такой шанс есть. Не очень большой, но он существует. У современной LLM - нет даже близко. Строго говоря, у LLM вообще нет мышления. Но если в отрасли все будет идти хорошо, мы скорее всего оглянуться не успеем, как нам начнут рассказывать про AGI, который круче нобелевских лауреатов, и рекламировать его из каждого утюга. И вот тут уже нужно иметь заранее готовую подборку тестов и кейсов, где этот хвалёный AGI сядет в лужу. Чтобы регулирующие органы государства, руководство компаний и сами сотрудники могли четко и независимо установить "от обратного", где конкретная нейросеть применима, а где нет. Только так мы сможем сравнительно безболезненно воспользоваться плодами прогресса, не допуская техногенных катастроф, связанных с внедрением ИИ.

А как связана ответственность хирурга перед законом и моя собственная жизнь? Если меня хирург зарежет, мне уже будет всё равно))) (sarcasm off) очень хорошую тему подняли.

Тут, во-первых, нужно разобраться в методологии сбора статистики. Одни и те же данные можно собирать, сравнивать и выражать очень по-разному. Вот эти 30% выживаемости - они относительно чего возникают? Среднемирового показателя? Сельской клиники а Африке? Операций, выполненных ведущими специалистами в мире? Какой-то конкретной контрольной группы? И этот процент, он как выглядит в абсолютном выражении? Берём, не стесняясь, 1000000 операций: какое будет количество смертельных случаев? 10 vs 7 - это далеко не одно и то же, что 100000 vs 70000. Дальше, выживаемость считаем в какой срок, от каких причин? Её тоже можно считать по-разному - можно в первые часы непосредственно от вмешательства, а можно считать смертность за 25 лет от любых причин, и это очень разные данные, которые по-разному используются и трактуются.

Во-вторых, выживаемость - далеко не единственная метрика, есть ещё качество жизни выживших. Может вполне быть так, что при 30% повышении выживаемости, в шестьдесят раз повышается риск тяжёлой инвалидности, потому что нейросеть, допустим, без лишних вопросов ампутирует конечности и органы. Или срок и сложность реабилитации кратно больше, потому что операция более инвазивная, по тем же причинам. Многие люди вполне осознанно предпочитают смерть жизни калекой, и далеко не всем хватает сил на восстановление. А может быть наоборот - на миллион операций на 3 погибших больше, зато осложнений у оставшихся нет практически вообще, против очень плохой статистики для существующих вариантов лечения. С другой стороны, можно рассмотреть потешные случаи вроде операции по эвтаназии, где 30% выживших - это уже не плюс, а минус)) Хотя шутки шутками, паллиатив - тоже дело ответственное, и поэтому я говорю, что выживаемость не в сферическом вакууме должна рассматриваться, а вместе с качеством жизни оценкой страданий пациента.

И, наконец, кто и где публикует эти данные? Вот эти 30% - их кто конкретно заявляет? Сам разработчик нейросети в своей рекламной брошюре? Или это серьёзное независимое исследование, соответствующее всем критериям доказательной медицины?

И это я не касался вопросов доступности такой помощи и её цены, которые будут зависеть уже не столько от конкретной методики, сколько от системы здравоохранения и доступности оборудования в конкретно взятой стране. Зачастую выбора у пациента просто нет.

Допустим, вы изобрели не нейросеть-хирурга, а робота-реанематолога. Допустим, даже, что он объективно уступает человеческой бригаде по многим характеристикам и показателям. Казалось бы, зачем такой уродец нужен? А он очень нужен, потому что существуют чрезвычайные ситуации, вроде медицины катастроф и военно-полевой медицины, где может идти сортировка пострадавших и помощи на всех может не хватать, тогда абсолютно все работающие средства хороши. Может быть робот самоходный, и речь идёт о спасении жизни бойца, чья позиция всё ещё обстреливается - железкой рискнуть легче, чем жизнями людей. Ещё есть ситуации, где действуют правила золотого времени, это когда любая правильная помощь лучше ее отсутствия, то есть можно разместить такого робота в крупном ТЦ и немедленно оказывать помощь бабульке с внезапной остановкой сердца, пока к ней добирается по пробкам бригада СМП. Короче, это будет прорывом во всех ситуациях, где релевантно не сравнение с хирургом, а с отсутствием помощи вообще или со помощью случайного встречного.

Полагаю, между строк подразумевается не инференс, а fine-tune на собственном датасете. Впрочем, даже там можно обойтись без H100, и далеко не всегда такое дообучение необходимо. А в инференсе да, если я на своем домашнем ПК спокойно 32B модели поднимаю, то у бизнеса проблем с этим точно нет и не будет.

А вот что имелось в виду под вайфаями, тоже не понял)) Существует вектор утечки данных через атаку на LLM, но чтобы такое хотя бы в теории произошло, нужно иметь доступ к ней, и у нейронки должны быть необходимые данные, а это совершенно точно не тоже самое, что просто получить доступ к WiFi сети.

вырастить AGI в силиконе с нуляля))

Large Language Modelы тоже потешно смотрится

Звучит благородно, но в бизнесе так не работает. Пока рано бросать ВБ, потому что покупателям видно всё равно, пипл хавает, а диверсификация обязательно нужна. Яндекс просто очень маленький, а с Озоном все что угодно может случиться, это просто компания. Сгорит основной склад, например. Или топ-менеджеров ВБшник покусает, от чего они превратятся в зомби, и они так же бредить начнут. Что вы в таком случае будете делать? Так что работать надо как минимум на ВБ и Озоне, а если есть возможность, то вообще по всем целесообразным каналам разом, если товара для этого хватает. Чем больше каналов реализации, тем больше устойчивости за счёт их взаимного резервирования. Кроме того, алгоритмы у ВБ, Яндекса и Озона разные, так что один и тот же товар с одной и той же карточкой может выстрелить на одном маркетплейсе, а на другом - нет.

Просто ВБ - это очень плохо организованная компания. Никакой ФБС они не стимулируют - напротив, карточки с большим остатком на ФБО продвигаются намного лучше тех, где продажи идут только по ФБС, даже если товар в день заказа со склада увозить, и это в ближнем Подмосковье. Как будто бы даже выгоднее голову себе не морочить и в принципе от ФБС отказываться, но с такими приколами от складов самой площадки его нужно сохранять хотя бы на минимальном уровне, чтобы если он понадобится, процесс был отлажен, и собственные сотрудники сохраняли необходимые компетенции для того, чтобы закрывать дыру в ФБО с помощью ФБС. Ибо если этого не сделать, будет обнуление остатков. А как только продажи по карточке останавливаются, её продвижение на площадке встаёт колом, и поднять его заново будет уже очень непросто.

А причём тут Corsair, если за температуры отвечает контроллер, и он производства Phison?

Надо сказать, у Phison эта проблема частенько всплывает. Они всегда очень стремятся первыми подготовить продукт для новой шины, и вместо разработки принципиально нового контроллера, они, такое ощущение, берут существующую архитектуру на существющем техпроцессе, гонят её, добаляют исполнительные блоки, и так уходит в продакшн. Греется, но работает и ловит хайп, а что компании от него ещё надо? Потом проходит годик-полтора, и выпускают уже нормальный контроллер, который справляется с нагрузкой без перегрева, чтобы держать конкуренцию с Samsung. Так было с E16 и E18 в 4 поколении, так по всеей видимости и сейчас.

Information

Rating
7,931-st
Registered
Activity