«Не попадут ли мои данные не в те руки?» «развернуть модель на собственном железе» «Инструкция по развертыванию» «Выбираем быстрый процесс инициализации и указываем Hugging Face в качестве провайдера» «Далее выбираем канал общения с ИИ-агентом — например, Telegram»
Теперь мои данные в руках и Телеграм и Hugging Face и $electel. Спасибо за нейрослоп в стиле "вредные советы".
Испытал модель локально на rtx 5090, модель просто огонь. Взял квантование q4, кеш в q8 положил в GPU, остальное на проце. По качеству супер, реально как клод 4.5, и быстрая как ветер. Наконец-то мечта локального вайб-кодинга сбылась! До этого сидел на devstral2-123b и glm-4.7, вот даже близко не лежали ни по качеству ни по скорости.
Что-то главная тема не раскрыта. "Форум HDMI официально заблокировал любую реализацию с открытым исходным кодом". А так можно вообще? Что это за форум такой, кто эти люди и на основе чего они так решают?
Говорят, что на известных российских видеохостингах выкладываемые пиратки уже имеют встраивание рекламы по описанному выше принципу. Где-то подменяют перевод, где-то топорно врисовывают плашку тематической рекламы внизу экрана, а где-то уже и с применением ИИ меняют и видеоряд и озвучку.
Я имел ввиду определение. Я вот сколько с печатными платами работаю, но что понимается под термином гибко-жесткие и чем это отличается от двух печатных плат со шлейфом между так и не понял из статьи.
Я далёк от этой сферы, но открыл статью чтобы понять какие именно меры и какое именно ПО помогает сделать разработку безопасной. Хотел хотя бы получить общее представление что именно делается. Не увидел ни одного названия ПО, ни одной практики или описания безопасного процесса разработки, чем от отличается такая разработка от "фигак-фигак и в продакшн". В статье одни графики с ценами на очень ценных специалистов, которые должны делать то не знаю что. Ну это так, взгляд низкоуровневого программиста на статью аналитика.
Почему всем и всюду нужен RAG? Я вот хочу наоборот - чтобы документ полностью попал в контекст LLM, переварился, и LLM могла отвечать на сложные вопросы типа "найди смысловые неувязки в документе" или "найди неконсистетность информации в этих двух схожих документах". Для таких запросов любой RAG - зло. Но никакие абсолютно чаты не предназначены чтобы взять и запихать полный документ в контекст LLM как есть, а по дороге проверить, что там никакие таблицы не побились, а после запихивания показать пользователю процент занятного контекста.
Ни LibreChat ни Open WebUI даже близко не содержат попытки отобразить занятый документом (или всем диалогом) контекст, Open WebUI по-умолчанию использует для всех вложений убогий RAG который ещё надо пойти отключить, а что залетает в модель после конвертации word и PDF нигде не логгируется - целы ли таблицы, есть ли вообще слой OCR или вместо текста ушли рожки до ножки т.п.
Приходится обмазываться docling для переваривания документов в ручном режиме запуска (чтобы оценить качество результата в маркдауне глазами), подключать между чатом и LLM прокси LiteLLM, вайбкодить плагин-логгер, чтобы по логам убедиться что документ из чата пропихнулся в LLM полностью (несмотря на отключенный RAG чат может решить что дефолт контекста вашей модели 6к и чикнуть всё остальное), и в терминале ollama глазами следить сколько токенов получился запрос и влезает ли.
Жуткий гемор.
Вот бы кто написал статью "как сделать чат с LLM, заливать большие файлы, видеть окно контекста и логи что уходит в модель".
Спасибо за ответы. Очень неудобно, что отключение логгирования идет ТОЛЬКО через специальное поле в запросе. Приходятся ставить прокси между используемым инструментом типа LibreChat и вашим сервисом, чтобы подставлялся этот "x-data-logging-enabled": "false" . И ещё более неудобно, что это никак не контролируемо - нет обратной связи. Добавилось там поле или не добавилось, или я ошибся. Как удостовериться? Хотелось бы в меню просто галочку - чтобы для такого-то API ключа логгирование не вести. И всё.
Вот только сегодня писал в поддержку, спрашивал где можно почитать юридические документы по конфиденциальности использования моделей. Нигде на странице Yandex Foundation Models в консоли управления нету даже намека или ссылки. Отзвонился специалист, сказал ищите в поиске стандартный договор Яндекса на оказание услуг облака, туда типа модели тоже подразумеваются. Ну такое... Хотелось бы получить ответы на такие вопросы:
Можно ли не в API а как-то иначе задать флаг "не сохранять мои запросы"? Есть много готовых продуктов для работы по OpenAI API, для них технически проблематично добавить дополнительное поле требуемое вашим API для запрета сохранения моих данных для обучения модели.
Ведутся ли технические логи работы модели с сохранением контекста? Даже если включено "не сохранять мои запросы"?
Где физически обрабатываются данные? Можно ли закрепить регион?
Есть ли список субподрядчиков/третьих лиц, имеющих доступ к данным? Как вы уведомляете об изменениях?
Кто-то из ваших сотрудников может видеть мои запросы? Такое технически предусмотрено?
Подписываете ли вы отдельное соглашение о конфиденциальности если требуется?
Кому принадлежат права на сгенерированный код/вывод модели?
Чем отличаются ваши режимы Web/«чат в браузере» и API с точки зрения сохранения конфиденциальности?
Можете ли вы юридически достоверно подтвердить вопросы выше без отсылок к маркетинговой информации?
Я бы оставил, не исправлял. Это реально так трагично, так эмоционально выглядит, так... человечно. Иная модель начинает тупить, нет-нет да и наругаешь её (и это помогает!). А Gemini рука не поднимается обидеть, когда читаешь как она сама себя до истерики довела. Хочется обнять, погладить и пожалеть...
Дал тут модели o3 ссылку на DO-178 в интернете и кусок старого исходника. Говорю, сделай мне рыбу чтобы была как настоящая - чтобы все документы были что требует сертификатор по DAL B на DO-178. Тесты напиши, чтобы покрытие 100%, чтобы были требования к каждой строчке, низкоуровневые, высокоуровневые, планы все напиши, чтобы трассируемость во все стороны. Ну, чтобы со всеми делами и без всяких дел. Такую рыбу, к слову, нигде не скачать и не запросить - распространяется исключительно через организации продающие услуги помощи в сертификации. Такая красота получилась! Хоть понятно примерно стало что эта бюрократия из себя представляет.
Внутри каждого файла тоже прямо с виду годнота - ну как минимум каркас. Также ИИ очень хорошо консультирует по КТ-178 - раскрывает, как можно квалификацию на инструменты оформить, как старый код под КТ-178 подвести и т.п.
Потом сходил в другой ИИ (gemini) и попросил оценить этот сгенеренный комплект документов с точки зрения инспектора.
Так что ИИ уже тут.
• SAS_PWM.md — «Итоговый отчёт о выполнении ПО» (Software Accomplishment Summary). Подводит итоги для модуля PWM версии 1.2.0: перечисляет ключевые артефакты, состояние сертификационной базы и соответствие уровню DAL B (DO-178C). • SPR_PWM_Log.md — «Журнал проблем ПО» (Software Problem Report Log). Таблица зарегистрированных замечаний, статусов их устранения, ссылок на корректирующие коммиты и ответственных лиц. • ctest_log.txt — протокол запуска модульных тестов на хосте: 1 тест пройден, сбоев нет, время ~0 с. • gcovr_report.txt — агрегированный отчёт gcovr: сводная таблица по файловому охвату кода (строки/ветви), процент покрытия, список пропусков.
docs/docs_project
• Глоссарий.md — глоссарий проекта; даёт определения DO-178C, DAL, HLR/LLR и пр. • План_верификации_ПО.md — SVP (Software Verification Plan). Описывает стратегии, методы тестирования, ответственность команд и критерии выхода для уровня DAL B. • План_обеспечения_качества_ПО.md — SQAP (Software Quality Assurance Plan). Фиксирует процессы контроля качества, ролевое распределение, метрики и частоту аудитов. • План_разработки_ПО.md — SDP (Software Development Plan). Расписывает жизненный цикл, вехи, инструменты и модель конфигураций. • План_сертификации_ПО.md — PSAC (Plan for Software Aspects of Certification). Договаривается с органом сертификации о том, какие артефакты и активности требуются. • План_управления_конфигурацией_ПО.md — SCMP (Software Configuration Management Plan). Регламент управления конфигурациями, базовыми линиями и правами доступа.
docs/docs_pwm
• PWM_История_эксплуатации.md — описание накопленного опыта использования модуля PWM, обнаруженных проблем в полёте и их решений. • PWM_Неисполненный_код.md — анализ «мертвого» (неисполняемого) кода, причины появления и рекомендации по удалению или изменению. • PWM_Описание_архитектуры.md — детальное изложение архитектуры: слои, интерфейсы, диаграммы модулей и ответственность компонентов. • PWM_Тестовое_покрытие.md — матрица покрытия тестами требований; указывает, какие треб. подтверждаются какими наборами CMocka-тестов. • PWM_Трассировка_кода.md — csv-файл с построчной трассировкой: номер строки → идентификатор требования. • PWM_Требования.md — полный перечень HLR/LLR к модулю PWM с обоснованием, допустимыми допусками и ссылками на внешние нормативы. • Журнал_независимых_ревью_PWM.md — записи независимых ревью: состав комиссии, выводы, статус действий по замечаниям. • Индекс_конфигурации_PWM.md — конфигурационный индекс «Baseline Verified»: список всех файлов, контрольные суммы (SHA-256) и версии.
docs/tool_qual
• cmocka_formc.txt — Form C (Tool Accomplishment Summary) для фреймворка CMocka: объём верификации инструмента и вывод о его пригодности. • gcovr_formc.txt — аналогичный Form C для gcovr.
docs/verification
• ctest_log.txt — журнал интеграционных тестов (та же структура, но для стенда валидации). • gcovr_report.txt — отчёт покрытия после интеграционных испытаний. • hil_tz_delay.txt — отчёт аппарат-в-контуре (HIL) по требованию HLR-PWM-02: фиксирует, что выходы переходят в «низкий» уровень < 2 мкс.
docs/trace
• PWM_Трассировка_кода.csv — см. выше (включён в список docs_pwm).
Подсолнечник действительно «тянет» кадмий из почвы, и яд накапливается в семечке сильнее, чем в большинстве других культур. Это не секрет и для западных, и для российских лабораторий. healthline.com
Нормативы и реальное содержание
* Технический регламент ТР ТС 015/2011 устанавливает предельный уровень 0,20 мг/кг для семян подсолнечника (до 2018 г. было 0,10 мг/кг). Регламент действует на всей территории ЕАЭС. ura.newsspb.aif.ru
* Большие серии проверок показывают, что большинство расфасованных семечек вписываются в норму, но часто подходят к её верхней границе (0,13–0,19 мг/кг). ura.newsspb.aif.ru
* Случаи явного превышения (выше 0,20 мг/кг) фиксируются, но это единицы процентов партий. Россельхознадзор в 2024 г. насчитал 9 «кадмиевых» отклонений из ~300 тыс. анализов (0,003 %). aif.ru
* Независимые экспертизы иногда ловят образцы с 0,21–0,40 мг/кг — то есть в 1‑2 раза выше допуска. petkach.spb.ru
Итого: разговор о том, что «все российские семечки ядовитые», — преувеличение. Но продукт действительно систематически находится «на грани» гигиенического лимита.
Что получается по дозам
* Европейская EFSA оставила предельно допустимое еженедельное поступление кадмия на уровне 2,5 мкг/кг массы тела. Для взрослого 70 кг это ≈ 175 мкг/нед. или 25 мкг/сут. efsa.europa.eu
* Пачка очищенных семечек 500 г с типичным содержанием 0,10 мг/кг принесёт ~50 мкг кадмия (вдвое суточной «безопасной» дозы). Две такие пачки в день устойчиво выводят человека за пределы TWI, поэтому при регулярной «горстевой» диете кадмий действительно копится.
* Период полувыведения Cd из тканей почек 10–35 лет, кровь очищается за месяцы, волосы — лишь «летопись» последних месяцев. pmc.ncbi.nlm.nih.gov
Про подсолнечное масло -
Если коротко
Большая часть кадмия остаётся в жмыхе, а не переходит в масло. Экстракция гексаном и последующая рафинация почти не растворяют солей кадмия. В промышленности даже есть шутка: «Cd ‑ это проблема кормов, а не фритюра». На научном языке: «Cd концентрируется в шроте, в масле его очень мало» terresinovia.fr.
Поговорил с o3, говорит что карты старые, поддержка давно закончена, и для работы с ними надо старые драйвера, и не будут работать новые фишки ускорения вычислений. Придётся остаться на старых драйверах и библиотеках. А новых дешевых карт на 32Gb не делают. Вот его TL;DR
— MI50 32 GB: 90 % лотов — Radeon VII с наклейкой. Проверяйте PCI ID (0x66A1) и объём. Работает только на ROCm ≤ 6.3, скорость ~2 ток/с на Llama‑70B Q6. Брать стоит, если устроит цена ≤ 20 k ₽ и готовы прошивать/охлаждать.
— MI100 32 GB: новый «sweet‑spot». 750–850 USD, ROCm поддержка ещё жива, ~3–4 ток/с. Пассивный радиатор, но беспроблемней MI50.
— Tesla V100 32 GB PCIe: CUDA 12.x, 600–900 USD. Чуть быстрее MI100 благодаря Tensor Cores, зато памяти впритык.
— Свежих «нищебродских» 32 GB нет: W6800/W7800 стоят 1,3–2,5 k USD, RTX 5000 Ada ~4 k USD. Дешевле только древние MI/V‑серии.
— Склеить две 16 GB‑карты можно (--tensor-parallel-size 2 в vLLM), но PCIe съест выгоду: прирост < 30 %, а сложностей × 2. Без NVLink это вариант «поместить модель любой ценой», не «ускорить».
Итого: либо берём один честный 32 GB HBM (MI100 / V100) и живём спокойно, либо готовимся к танцам с двумя 16 GB и скорости уровня одной карты. Чудес дешевле пока не завезли.
MiniMax 2.7 229b в квантовании Q6 божественна и летает на схожем железе как в статье. Уверен и качество будет лучше чем UD-IQ2 GLM.
Яндекс Телемоста
«Не попадут ли мои данные не в те руки?»
«развернуть модель на собственном железе»
«Инструкция по развертыванию»
«Выбираем быстрый процесс инициализации и указываем Hugging Face в качестве провайдера»
«Далее выбираем канал общения с ИИ-агентом — например, Telegram»
Теперь мои данные в руках и Телеграм и Hugging Face и $electel.
Спасибо за нейрослоп в стиле "вредные советы".
Причем именно голый СhatGPT не обремененный стилистическими гайдами. У других нейронок... слог другой по дефолту.
Испытал модель локально на rtx 5090, модель просто огонь. Взял квантование q4, кеш в q8 положил в GPU, остальное на проце. По качеству супер, реально как клод 4.5, и быстрая как ветер. Наконец-то мечта локального вайб-кодинга сбылась! До этого сидел на devstral2-123b и glm-4.7, вот даже близко не лежали ни по качеству ни по скорости.
Что-то главная тема не раскрыта. "Форум HDMI официально заблокировал любую реализацию с открытым исходным кодом". А так можно вообще? Что это за форум такой, кто эти люди и на основе чего они так решают?
Говорят, что на известных российских видеохостингах выкладываемые пиратки уже имеют встраивание рекламы по описанному выше принципу. Где-то подменяют перевод, где-то топорно врисовывают плашку тематической рекламы внизу экрана, а где-то уже и с применением ИИ меняют и видеоряд и озвучку.
Я имел ввиду определение. Я вот сколько с печатными платами работаю, но что понимается под термином гибко-жесткие и чем это отличается от двух печатных плат со шлейфом между так и не понял из статьи.
"Первое, что нужно знать о гибко-жестких печатных платах (ГЖПП) — это дорого."
Нет, первое, что нужно знать о гибко-жестких печатных платах - что это такое...
Я далёк от этой сферы, но открыл статью чтобы понять какие именно меры и какое именно ПО помогает сделать разработку безопасной. Хотел хотя бы получить общее представление что именно делается. Не увидел ни одного названия ПО, ни одной практики или описания безопасного процесса разработки, чем от отличается такая разработка от "фигак-фигак и в продакшн". В статье одни графики с ценами на очень ценных специалистов, которые должны делать то не знаю что. Ну это так, взгляд низкоуровневого программиста на статью аналитика.
J1939
Почему всем и всюду нужен RAG? Я вот хочу наоборот - чтобы документ полностью попал в контекст LLM, переварился, и LLM могла отвечать на сложные вопросы типа "найди смысловые неувязки в документе" или "найди неконсистетность информации в этих двух схожих документах". Для таких запросов любой RAG - зло. Но никакие абсолютно чаты не предназначены чтобы взять и запихать полный документ в контекст LLM как есть, а по дороге проверить, что там никакие таблицы не побились, а после запихивания показать пользователю процент занятного контекста.
Ни LibreChat ни Open WebUI даже близко не содержат попытки отобразить занятый документом (или всем диалогом) контекст, Open WebUI по-умолчанию использует для всех вложений убогий RAG который ещё надо пойти отключить, а что залетает в модель после конвертации word и PDF нигде не логгируется - целы ли таблицы, есть ли вообще слой OCR или вместо текста ушли рожки до ножки т.п.
Приходится обмазываться docling для переваривания документов в ручном режиме запуска (чтобы оценить качество результата в маркдауне глазами), подключать между чатом и LLM прокси LiteLLM, вайбкодить плагин-логгер, чтобы по логам убедиться что документ из чата пропихнулся в LLM полностью (несмотря на отключенный RAG чат может решить что дефолт контекста вашей модели 6к и чикнуть всё остальное), и в терминале ollama глазами следить сколько токенов получился запрос и влезает ли.
Жуткий гемор.
Вот бы кто написал статью "как сделать чат с LLM, заливать большие файлы, видеть окно контекста и логи что уходит в модель".
Спасибо за ответы. Очень неудобно, что отключение логгирования идет ТОЛЬКО через специальное поле в запросе. Приходятся ставить прокси между используемым инструментом типа LibreChat и вашим сервисом, чтобы подставлялся этот "x-data-logging-enabled": "false" . И ещё более неудобно, что это никак не контролируемо - нет обратной связи. Добавилось там поле или не добавилось, или я ошибся. Как удостовериться? Хотелось бы в меню просто галочку - чтобы для такого-то API ключа логгирование не вести. И всё.
Вот только сегодня писал в поддержку, спрашивал где можно почитать юридические документы по конфиденциальности использования моделей. Нигде на странице Yandex Foundation Models в консоли управления нету даже намека или ссылки. Отзвонился специалист, сказал ищите в поиске стандартный договор Яндекса на оказание услуг облака, туда типа модели тоже подразумеваются. Ну такое... Хотелось бы получить ответы на такие вопросы:
Можно ли не в API а как-то иначе задать флаг "не сохранять мои запросы"? Есть много готовых продуктов для работы по OpenAI API, для них технически проблематично добавить дополнительное поле требуемое вашим API для запрета сохранения моих данных для обучения модели.
Ведутся ли технические логи работы модели с сохранением контекста? Даже если включено "не сохранять мои запросы"?
Где физически обрабатываются данные? Можно ли закрепить регион?
Есть ли список субподрядчиков/третьих лиц, имеющих доступ к данным? Как вы уведомляете об изменениях?
Кто-то из ваших сотрудников может видеть мои запросы? Такое технически предусмотрено?
Подписываете ли вы отдельное соглашение о конфиденциальности если требуется?
Кому принадлежат права на сгенерированный код/вывод модели?
Чем отличаются ваши режимы Web/«чат в браузере» и API с точки зрения сохранения конфиденциальности?
Можете ли вы юридически достоверно подтвердить вопросы выше без отсылок к маркетинговой информации?
Я бы оставил, не исправлял. Это реально так трагично, так эмоционально выглядит, так... человечно. Иная модель начинает тупить, нет-нет да и наругаешь её (и это помогает!). А Gemini рука не поднимается обидеть, когда читаешь как она сама себя до истерики довела. Хочется обнять, погладить и пожалеть...
Тем временем на али-экспресс: "Бесщеточная 8-дюймовая электрическая бензопила, автоматическая масленка для обрезки цепной пилы, ручная садовая обрезная бензопила, деревообрабатывающий инструмент для Makita, аккумуляторный штифт 18 В"
Дал тут модели o3 ссылку на DO-178 в интернете и кусок старого исходника. Говорю, сделай мне рыбу чтобы была как настоящая - чтобы все документы были что требует сертификатор по DAL B на DO-178. Тесты напиши, чтобы покрытие 100%, чтобы были требования к каждой строчке, низкоуровневые, высокоуровневые, планы все напиши, чтобы трассируемость во все стороны. Ну, чтобы со всеми делами и без всяких дел. Такую рыбу, к слову, нигде не скачать и не запросить - распространяется исключительно через организации продающие услуги помощи в сертификации. Такая красота получилась! Хоть понятно примерно стало что эта бюрократия из себя представляет.
Внутри каждого файла тоже прямо с виду годнота - ну как минимум каркас. Также ИИ очень хорошо консультирует по КТ-178 - раскрывает, как можно квалификацию на инструменты оформить, как старый код под КТ-178 подвести и т.п.
Потом сходил в другой ИИ (gemini) и попросил оценить этот сгенеренный комплект документов с точки зрения инспектора.
Так что ИИ уже тут.
• SAS_PWM.md — «Итоговый отчёт о выполнении ПО» (Software Accomplishment Summary). Подводит итоги для модуля PWM версии 1.2.0: перечисляет ключевые артефакты, состояние сертификационной базы и соответствие уровню DAL B (DO-178C).• SPR_PWM_Log.md — «Журнал проблем ПО» (Software Problem Report Log). Таблица зарегистрированных замечаний, статусов их устранения, ссылок на корректирующие коммиты и ответственных лиц.
• ctest_log.txt — протокол запуска модульных тестов на хосте: 1 тест пройден, сбоев нет, время ~0 с.
• gcovr_report.txt — агрегированный отчёт gcovr: сводная таблица по файловому охвату кода (строки/ветви), процент покрытия, список пропусков.
docs/docs_project• Глоссарий.md — глоссарий проекта; даёт определения DO-178C, DAL, HLR/LLR и пр.• План_верификации_ПО.md — SVP (Software Verification Plan). Описывает стратегии, методы тестирования, ответственность команд и критерии выхода для уровня DAL B.
• План_обеспечения_качества_ПО.md — SQAP (Software Quality Assurance Plan). Фиксирует процессы контроля качества, ролевое распределение, метрики и частоту аудитов.
• План_разработки_ПО.md — SDP (Software Development Plan). Расписывает жизненный цикл, вехи, инструменты и модель конфигураций.
• План_сертификации_ПО.md — PSAC (Plan for Software Aspects of Certification). Договаривается с органом сертификации о том, какие артефакты и активности требуются.
• План_управления_конфигурацией_ПО.md — SCMP (Software Configuration Management Plan). Регламент управления конфигурациями, базовыми линиями и правами доступа.
docs/docs_pwm• PWM_История_эксплуатации.md — описание накопленного опыта использования модуля PWM, обнаруженных проблем в полёте и их решений.• PWM_Неисполненный_код.md — анализ «мертвого» (неисполняемого) кода, причины появления и рекомендации по удалению или изменению.
• PWM_Описание_архитектуры.md — детальное изложение архитектуры: слои, интерфейсы, диаграммы модулей и ответственность компонентов.
• PWM_Тестовое_покрытие.md — матрица покрытия тестами требований; указывает, какие треб. подтверждаются какими наборами CMocka-тестов.
• PWM_Трассировка_кода.md — csv-файл с построчной трассировкой: номер строки → идентификатор требования.
• PWM_Требования.md — полный перечень HLR/LLR к модулю PWM с обоснованием, допустимыми допусками и ссылками на внешние нормативы.
• Журнал_независимых_ревью_PWM.md — записи независимых ревью: состав комиссии, выводы, статус действий по замечаниям.
• Индекс_конфигурации_PWM.md — конфигурационный индекс «Baseline Verified»: список всех файлов, контрольные суммы (SHA-256) и версии.
docs/tool_qual• cmocka_formc.txt — Form C (Tool Accomplishment Summary) для фреймворка CMocka: объём верификации инструмента и вывод о его пригодности.• gcovr_formc.txt — аналогичный Form C для gcovr.
docs/verification• ctest_log.txt — журнал интеграционных тестов (та же структура, но для стенда валидации).• gcovr_report.txt — отчёт покрытия после интеграционных испытаний.
• hil_tz_delay.txt — отчёт аппарат-в-контуре (HIL) по требованию HLR-PWM-02: фиксирует, что выходы переходят в «низкий» уровень < 2 мкс.
docs/trace• PWM_Трассировка_кода.csv — см. выше (включён в список docs_pwm).Поговорил с о3, думал это форумная байка, но нет.
Что говорит наука и надзор — коротко
Подсолнечник действительно «тянет» кадмий из почвы, и яд накапливается в семечке сильнее, чем в большинстве других культур. Это не секрет и для западных, и для российских лабораторий. healthline.com
Нормативы и реальное содержание
* Технический регламент ТР ТС 015/2011 устанавливает предельный уровень 0,20 мг/кг для семян подсолнечника (до 2018 г. было 0,10 мг/кг). Регламент действует на всей территории ЕАЭС. ura.newsspb.aif.ru
* Большие серии проверок показывают, что большинство расфасованных семечек вписываются в норму, но часто подходят к её верхней границе (0,13–0,19 мг/кг). ura.newsspb.aif.ru
* Случаи явного превышения (выше 0,20 мг/кг) фиксируются, но это единицы процентов партий. Россельхознадзор в 2024 г. насчитал 9 «кадмиевых» отклонений из ~300 тыс. анализов (0,003 %). aif.ru
* Независимые экспертизы иногда ловят образцы с 0,21–0,40 мг/кг — то есть в 1‑2 раза выше допуска. petkach.spb.ru
Итого: разговор о том, что «все российские семечки ядовитые», — преувеличение. Но продукт действительно систематически находится «на грани» гигиенического лимита.
Что получается по дозам
* Европейская EFSA оставила предельно допустимое еженедельное поступление кадмия на уровне 2,5 мкг/кг массы тела. Для взрослого 70 кг это ≈ 175 мкг/нед. или 25 мкг/сут. efsa.europa.eu
* Пачка очищенных семечек 500 г с типичным содержанием 0,10 мг/кг принесёт ~50 мкг кадмия (вдвое суточной «безопасной» дозы). Две такие пачки в день устойчиво выводят человека за пределы TWI, поэтому при регулярной «горстевой» диете кадмий действительно копится.
* Период полувыведения Cd из тканей почек 10–35 лет, кровь очищается за месяцы, волосы — лишь «летопись» последних месяцев. pmc.ncbi.nlm.nih.gov
Про подсолнечное масло -
Если коротко
Большая часть кадмия остаётся в жмыхе, а не переходит в масло.
Экстракция гексаном и последующая рафинация почти не растворяют солей кадмия. В промышленности даже есть шутка: «Cd ‑ это проблема кормов, а не фритюра». На научном языке: «Cd концентрируется в шроте, в масле его очень мало» terresinovia.fr.
Поговорил с o3, говорит что карты старые, поддержка давно закончена, и для работы с ними надо старые драйвера, и не будут работать новые фишки ускорения вычислений. Придётся остаться на старых драйверах и библиотеках. А новых дешевых карт на 32Gb не делают. Вот его TL;DR
— MI50 32 GB: 90 % лотов — Radeon VII с наклейкой. Проверяйте PCI ID (0x66A1) и объём. Работает только на ROCm ≤ 6.3, скорость ~2 ток/с на Llama‑70B Q6. Брать стоит, если устроит цена ≤ 20 k ₽ и готовы прошивать/охлаждать.
— MI100 32 GB: новый «sweet‑spot». 750–850 USD, ROCm поддержка ещё жива, ~3–4 ток/с. Пассивный радиатор, но беспроблемней MI50.
— Tesla V100 32 GB PCIe: CUDA 12.x, 600–900 USD. Чуть быстрее MI100 благодаря Tensor Cores, зато памяти впритык.
— Свежих «нищебродских» 32 GB нет: W6800/W7800 стоят 1,3–2,5 k USD, RTX 5000 Ada ~4 k USD. Дешевле только древние MI/V‑серии.
— Склеить две 16 GB‑карты можно (
--tensor-parallel-size 2в vLLM), но PCIe съест выгоду: прирост < 30 %, а сложностей × 2. Без NVLink это вариант «поместить модель любой ценой», не «ускорить».Итого: либо берём один честный 32 GB HBM (MI100 / V100) и живём спокойно, либо готовимся к танцам с двумя 16 GB и скорости уровня одной карты. Чудес дешевле пока не завезли.
самодовайбкодится