Обновить

Разработка

Сначала показывать
Порог рейтинга

Проект Open Scouts обеспечивает роботу целой команды ИИ-агентов для получения всевозможных сведений в сети. Сервис по расписанию мониторит сайты, соцсети и другие ресурсы и пересылает обновления на почту. ИИ-агенты могут следить за вакансиями, трендами, исследованиями или другими обновлениями данных в интернете по запросу.

Теги:
Рейтинг0
Комментарии1

CWE-295. А Вы точно выясняете все способы отключения SSL-проверок в коде?

CWE-295 — неправильная проверка сертификата, включая игнорирование ошибок цепочки доверия. Близкие CWE: CWE-296 (Improper Certificate Validation in TLS) и CWE-297 (Improper Hostname Verification).

Делюсь с Вами очередной версией 2-х мегарегулярок для выявления всех когда-либо встретившихся мне способов отключения проверки цепочки сертификатов либо удаленного хоста.

Давайте проверим насколько хорошо Вы контролируете внешние взаимодействия Вашего кода со сторонними приложениями при помощи SAST/линтеров.

Не важно о чем код: запуск удаленной команды на Power Shell, запуск cURL, запуск Node.js и т.д. Если в Вашем коде имеется обращение к стороннему ресурсу, вполне вероятно, хотя бы какая-нибудь строка вызова составлена небезопасно, коробочные правила используемых Вами SAST не могут покрыть все кейсы, особенно, в неподдерживаемом файле.

Сами регулярные выражения для проверки Вашего кода:

{
"r1": "(?i)((ssl|session)[.]{0,1}verify[: -_\"'=]{1,6}false['\"\\]{0,3}|^ *ssl *[: -_\"'=]{1,6} *false|disableTLS['\": ]{2,4}true|requests.get(.*verify[ ]{0,5}= *False.*)|verify=False|requireSSL *}= *('|\")false('|\")|-(SkipCACheck|SkipCNCheck|SkipRevocationCheck))"
}
(?i)(-allowUntrusted[ \"\']{0,3}=[ \"\']{0,3}true|tls(\.|)Enabled[ ]{0,3}(=|:)[ ]{0,3}false|strict-ssl false|strict-ssl[ ]{1,3}=[ ]{1,3}false|--insecure-skip-tls-verify|--skip-tls-verify|--(insecure|allow(|-)untrusted)( |\r?$)|--insecure-registry|http\.ssl\.(insecure|ignore\.validity\.dates)[ \"\']{0,3}=[ \"\']{0,3}(1|true)[ \"\']{0,1}|<AllowUntrustedCertificate>[ ]{0,2}True[ ]{0,2}<\/AllowUntrustedCertificate>|(skipCertCheck|sslmode|allow(-|)Untrusted(|Certificate)|NODE_TLS_REJECT_UNAUTHORIZED)[ \"\']{0,3}(:|=)[ \"\']{0,3}(0|true|disable)[ \"\']{0,1}|--no-check-certificate https:\/\/|urllib3\.disable_warnings|--[ ]{1,3}disable-tls[ ]{1,3}true|--[ ]{1,3}secure-http[ ]{1,3}false|connection\.ssl\.enabled:[ ]{0,3}("|)false("|)|ssl-errors[ ]{0,3}(=|:)[ ]{0,3}true|rejectUnauthorized(|:).*false|TrustServerCertificate *= *False|isAllowInsecureProtocol *= *true|--use_tls *= *false|('|")use_tls('|"), *false|isAllowInsecureProtocol *= *true|NODE_TLS_REJECT_UNAUTHORIZED:? *\n?\r? *value: *("|'|)0("|'|)|tls: *\n?\r?(.*#.*\n?\r?)? *enabled: *("|'|)false("|'|)|Verify-Peer *("|'|=|)false|http\.ssl\.allowall[ \"\']{0,3}=[ \"\']{0,3}(0|false)[ \"\']{0,1}|--disable-host-check|ENABLE_TLS *(:|=) *false|"insecureTls": *("|'|)true("|'|)|((Enable|use)SSl("|'|) *(:|=) *(false|0))|"tlsConfigurationType": "(?!require).*"|host_key_checking *= *False|ANSIBLE_GALAXY_IGNORE *= *(yes|true)|ignore_certs *= *(yes|true)|\s+tls:\s*false|\s+ssl:(\s*enabled:)? *false)

На случай, если длинные строки поломаны блоком кода (ели вставил в пост):

  1. https://regex101.com/r/7iJCxw/1

  2. https://regex101.com/r/SGOz1L/1

Если регулярки не покрыли все известные Вам кейсы или наоборот действительно помогли, добро пожаловать в комментарии.

Пример работы
Пример работы
Теги:
Рейтинг0
Комментарии0

Obsidian Base16 Default Dark. Брутализм для глубокой работы

Создал инженерную тему для тех, кто относится к Obsidian как к IDE для мыслей.

Особенности:

  • Строгая визуальная иерархия

  • Семантическое цветокодирование

  • Чистая терминальная эстетика

Устанавливается из интерфейса Obsidian.
Рекомендованные шрифты и детали настройки – на GitHub.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Почему я снова вернулся на Debian после Ubuntu 24.04 и Fedora 42

Недавно я купил новый ноутбук и решил использовать это как повод попробовать что-то свежее, кроме привычной Ubuntu.

Сначала я поставил Ubuntu 22.04, но быстро понял, что хочу поэкспериментировать и посмотреть, как себя чувствуют другие дистрибутивы на новом железе.

Я решил обновиться с Ubuntu 22.04 до 24.04 - казалось бы, логичный шаг: свежий LTS, новые пакеты, улучшения в GNOME. Но спустя пару недель я понял, что дистрибутив нужно менять. Расскажу, почему.

Медленная работа с большим количеством файлов

Главная причина — баг, который проявлялся в файловом менеджере.
Когда в каталоге было много файлов, его открытие могло занимать слишком много времени, иногда десятки секунд.

Если регулярно работаешь с проектами, папками картинок или архивами — это превращается в настоящий тормоз.

Да, баг могут исправить, но в тот момент он мешал работать каждый день.

Fedora: понравилась, но не подошла под задачи

Первым я решил попробовать Fedora 42.
Впечатления были отличные:

  • система работает быстро,

  • GNOME выглядит аккуратнее без патчей Canonical,

  • Wayland ощущается максимально плавным,

  • окружение ощущается «современным из коробки».

Но очень быстро я столкнулся с проблемой:
часть нужных мне пакетов просто отсутствовала в репозиториях.

Да, что-то можно было поставить, но не все инструменты, которыми я пользуюсь в работе, нашлись. Также наблюдалась проблема обновления некоторых пакетов из России. Получается замкнутый круг.

В итоге я пытался найти нужные программы, но либо я их не там искал, либо их не было, либо которые я нашел не заработали.

Почему я выбрал Debian 13

В этом году как раз вышел Debian 13 с GNOME 48, я решил попробовать его.

И для себя получил:

  • стабильность, к которой привык,

  • современный GNOME без патчей,

  • огромный набор пакетов в репозиториях,

  • отсутствие лишних предустановленных компонентов,

  • а главное — всё, что мне нужно, установилось без танцев.

В итоге Debian остаётся для меня тем самым балансом:

Итог

Ubuntu 24.04 — неплохой релиз, но сейчас он не подходит под мои задачи.

Fedora оставила отличные впечатления — она бы идеально подошла мне «для души».
Но для работы мне нужна система, где всё устанавливается из репозиториев, ничего не ломается после обновлений и не приходится искать обходные решения.

Так я и остановился на Debian 13 с GNOME 48 — и пока это лучший вариант для моего сценария.

А прочитать статью про мой ноутбук, который я приобрел для Линукс за 25000 рублей, вы можете по ссылке:

https://kodprog.ru/noutbuk-dlya-linuks-za-25000

Теги:
Всего голосов 4: ↑4 и ↓0+5
Комментарии10

Этот пост — необычный. Он не о новом инструменте или результате исследования, а о процессе научной (и околонаучной) работы, ценности peer review, даже в его минимальной форме, и о том, как важно уметь признавать и исправлять ошибки.

Peer review (от англ. peer — «равный, коллега», review — «рецензия») — процесс экспертной оценки научных работ независимыми экспертами из той же области знаний. Эти эксперты (рецензенты) не работают в том же учреждении, что и автор, и не имеют с ним конфликта интересов. Их задача — беспристрастно проанализировать исследование и дать заключение о его качестве.

Всё началось с одного вдумчивого комментария: https://habr.com/ru/articles/973126/comments/#comment_29208416

@khalimonas- спасибо за наводку

В сценарии действительно была допущена методологическая ошибка, которая исказила результаты и, как следствие, выводы.

Научная и исследовательская честность требует исправления ошибок, а не их сокрытия. Поэтому, предприняты следующие шаги:

  1. Статья по эксперименту "Анализ вариантов оптимизации ресурсоёмкого SQL-запроса: Вариант-4 «Временная таблица»" ( https://habr.com/p/972276/ ) - исправлена, эксперимент откорректирован.

  2. Выводы в статье по итогам цикла экспериментов "Итоги анализа вариантов оптимизации ресурсоёмкого SQL-запроса" (https://habr.com/p/973126/) - исправлены. Результат цикла экспериментов - изменен.

  3. Статья "Прогноз vs Реальность: прогноз нейросети «Временная таблица vs CTE в многопользовательской среде PostgreSQL»" - снята с публикации. Статья была построена вокруг вопроса к нейросети, который, как выяснилось, был сформулирован на шатком фундаменте (из-за той самой ошибки в сценарии).Постановка вопроса была признана некорректной, что делает всю статью и ее анализ невалидными. Во избежание распространения ложной информации, статья - удалена. Это более ответственный шаг, чем исправление, так как ее основная предпосылка была ошибочна.

Выводы и благодарность

Этот случай стал для мощным напоминанием о нескольких важных принципах:

  • Ценность открытости. Публикация методологии позволяет сообществу ее проверить.

  • Сила сообщества. Один вдумчивый комментарий может быть ценнее десятков часов самостоятельной работы «в слепую».

  • Процесс важнее результата. Настоящее исследование — это не путь от гипотезы к красивому графику, а итеративный процесс проверки, сомнения и корректировки. Ошибаться — нормально. Гораздо важнее, как ты исправляешь ошибки.

Огромная благодарность @khalimonas  , за потраченное время и внимательность, чтобы указать на неточность.

Этот опыт только укрепил убеждение в важности диалога с техническим сообществом. Я продолжу делиться своими экспериментами, и буду рад любой конструктивной критике, которая помогает приблизиться к более точному пониманию исследуемой темы.

Все указанные выше изменения внесены. Первая статья обновлена, вторая — откорректирована, третья — удалена.

Теги:
Всего голосов 5: ↑4 и ↓1+5
Комментарии0

Google представил топ лучших расширений для Chrome в 2025 году: 

  • HARPA AI: позволяет автоматизировать любую работу в интернете: мониторинг сайтов, напоминания, боты, поиск, скрапинг; 

  • Quillbot: если работаете с текстом — это вам. Проверка орфографии, рерайт ИИ‑текста, подборка синонимов и даже проверка осмысленности текста;

  • Monica и Sider: добавляют в браузер боковую панель с самыми полезными нейронками. Удобный доступ к сразу нескольким чат‑ботам, быстрой генерации картинок и видео, проверке и переводу документов; 

  • Fireflies и Bluedot: помогут в создании заметок и автоматической расшифровке бесконечных созвонов; 

  • QuestionAI и eJOY: школьники и студенты, а это вам — помощник по выполнению домашних заданий и разбору тем по любым предметам. 

  • Adobe Photoshop: быстрый доступ к Фотошопу. Веб‑версия проще, но там есть все нужные инструменты для редактирования фотографий, в том числе ИИ‑фотошоп;

  • Phia: шопинг‑расширение с ИИ для автоматического сравнения цен при покупках в браузере. Идеально, если все ещё мечтаете найти дешёвые ОЗУ.

Теги:
Рейтинг0
Комментарии0

Как я чуть не прошёл собеседование у «миллиардера» из Alchemy

Утро начиналось, как обычно — кофе, почта, LinkedIn.
И тут сообщение в linkedin:

«Здравствуйте! Мы хотим пригласить вас на позицию менеджера высшего звена в Alchemy!»

Листаю ниже — и кто, вы думаете, будет меня собеседовать? Сам Joseph Lau, вот его профиль.
Ну думаю, шутки в сторону. Миллиардер, всё серьёзно.

Назначаем митинг. У него всего одно свободное время — 9:30 утра по Лос-Анджелесу.
У богатых свои причуды. Я киваю в монитор: ладно, сыграем по-крупному.

Включаю режим «серьёзного специалиста»:
повторяю управление проектами, техстеки, quick refresh по Kafka — вдруг неожиданно спросят.
Даже откопал старые FIX-скрипты, которыми когда-то биржи Ближнего Востока подключал.

Волнуюсь, завариваю чай, сижу жду.
9:26. Google Meet пишет: «Ваш собеседник онлайн».

Подключаюсь — и вместо ожидаемого азиатского миллиардера вижу индуса. Сидит, улыбается в камеру. Глуповато.

Ну ладно, думаю, и Сатья Наделла индус. Бывает.

Парень оживляется, начинает интервью с комплиментов:

«Вы такой редкий специалист, мы давно искали именно вас!»

Я чуть растаял. Но быстро вернул фокус, когда он спросил, сколько я хочу зарабатывать.
Называю сумму. Он — ни моргнуть глазом:
— Отлично! Проверим ваши технические навыки.

Через секунду — ссылка на репозиторий:
👉 Bitbucket: alchemy-lab/p12-alchemy-mvp

«Посмотрите проект», — говорит.

Открываю. Пять абзацев, ноль смысла.
Пишу ему, что "документация" больше похожа на шутку.
Он улыбается — и бац, камера отвалилась.

— Простите, интернет плохой. Вы тоже выключите.

Думаю: ага, плохой интернет в Америке — классика.
Даже стало гордо за моего провайдера который даст фору всей Силиконовой долине.

Ладно.
Он предлагает запустить проект «вместе». Я не против.
Не стесняясь расшаренного экрана, открываю ChatGPT и прошу сгенерировать docker-compose.yml и Dockerfile для Next.js.

Он напрягся:
— Что вы делаете?
Я ему спокойно:
— Запускаю незнакомую дрянь в изолированной песочнице. Без лишних сюрпризов.

Через минуту проект крутится. Он смотрит, кивает, говорит:

«С вами обязательно свяжутся!» — и отключается.

Сижу, смотрю на экран. Что-то не даёт покоя.
Открываю код, бегло ищу глазами — и вот он, красавец:

const response = await axios.get('https://api.npoint.io/43c98e897c8540091987')

И тут всё стало на свои места.
Мой покойный нигерийский дядя с миллионами в банке воскрес — и решил поиграть в стартапера из Alchemy.

Дальше копать неинтересно.
Скучные жулики — даже без фантазии.

💡 Вывод:
Никогда не запускайте на своём компьютере никакой код — даже если вам прислали его «от имени Microsoft», Google или Alchemy.
Пока нет подписанного контракта и корпоративного ноутбука, — никаких экспериментов.

Берегите себя.
И помните народную мудрость:

Если красавица на х:% бросается — будь осторожен, триппер возможен.

P.S.
Да, всё это реально случилось.
А история про индуса — просто напоминание, что даже айтишная ловушка может начинаться с вежливого письма и золотого LinkedIn-профиля.

Теги:
Всего голосов 14: ↑12 и ↓2+15
Комментарии8

Пятница – самое время для осеннего дайджеста! Что было интересного этой осенью, вспоминаем вместе!

Главное событие сезона. Больше, чем конференция.

11 сентября провели нашу масштабную ежегодную конференцию! Красная дорожка, попкорн, вспышки фотокамер и классная энергетика. Всем спасибо, кто провел этот день с нами! А кто пропустил, могут посмотреть выступления в записи:

Наши проекты

  • Глобальное обновление в ОАО «РЖД». Провели одно из самых масштабных обновлений этой осени: крупнейший транспортный холдинг страны перешёл с Luxms BI v 4 на v10. Система «Рабочее место руководителя» с более чем 5000 пользователей обновилась без простоев и с полной обратной совместимостью, подтвердив надежность Luxms BI в одном из самых сложных ИТ-ландшафтов страны.

  • Целых 6 проектов на Luxms BI номинированы на конкурс «Проект Года 2025» от GlobalCIO – больше, чем у любой другой BI-системы! Отличный повод познакомиться с реальными кейсами наших клиентов. Мы будем очень рады вашим голосам и комментариям.

Обновления и новые возможности

Партнерства – вместе сильнее

Мероприятия

Читать и вдохновляться

На хабре выпустили три статьи из цикла «Больше, чем BI: 23 фичи Luxms BI, которыми мы гордимся».
Собрали то, что нас самих вдохновляет, и то, что мы чаще всего видим в успешных проектах наших клиентов и разделили их на 4 части, о трех уже рассказали:

  1. Платформенность и архитектурные возможности

  2. Функционал классической BI-системы

  3. Больше, чем BI - решения для специализированных задач

В журнале Т-банка для бизнеса «Бизнес-секреты» вышла статья «Тестирование в IT: экзамен, от которого не сбежать». Как устроено тестирование в ИТ и почему его роль выходит далеко за рамки поиска багов. Точно горячая тема, стоящая вашего внимания.

Осень была насыщенной, а мы настраиваемся на не менее вдохновляющую зиму!

Теги:
Рейтинг0
Комментарии0

Кейс: «Жива Технологии» арендует в облаке виртуальные машины с GPU для приложения с AI 🤖💬

👨‍💻 Что за компания

«Жива Технологии» — разработчик приложения JIVA, ассистента с AI, который помогает вести здоровый образ жизни. В приложении можно составить план, чтобы достичь поставленной цели: рассчитать норму воды, построить график тренировок или поправить технику упражнений.

А еще искусственный интеллект рассчитывает по фото питательность блюда: вес порции, количество калорий, белков, жиров, углеводов, микро- и макро-нутриентов. В результате такого анализа AI-помощник в JIVA советует, что можно заменить или добавить, чтобы прием пищи стал полезнее.

🕵️ Какая была задача

Искусственный интеллект внутри JIVA — это AI-модели для распознавания нутриентов по фото, встроенный AI-ассистент на базе LLM и каскад моделей по детекции и распознаванию физических упражнений. Все модели разработчик собрал на open source.

Клиенту были нужны видеокарты с GPU для инференса и обучения этих моделей. Закупать свои графические процессоры оказалось невыгодно, и он решил арендовать их в облаке. «Жива Технологии» хотел использовать виртуалки с GPU и другие облачные сервисы, чтобы мониторить работу моделей и управлять ресурсами в одном месте.

📈 Результат

Клиент использовал набор сервисов Cloud.ru, чтобы развернуть в облаке бэкенд приложения, тестовую и продовую среду и сами модели: 

  • Развернул бэкенд и модель для подбора упражнений на пяти ВМ платформы Cloud.ru Advanced. Там же подключил сервисы для мониторинга, логирования и работы с базами данных.

  • Для LLM выбрал две платформы: Cloud.ru Evolution для тестовой среды и дообучения и Cloud.ru Advanced для продовой среды и инференса моделей.

  • Тестовую среду развернул на виртуальных машинах Evolution Compute c GPU с гарантированной долей vCPU 30% 8vCPU 16GB RAM. Для тестирования взял одну GPU-карту A100 — она позволяет экспериментировать при обучении и тестировании LLM.

  • Чтобы собирать данные для дообучения и хранить бенчмарки, выбрал объектное хранилище Evolution Object Storage.

  • Для продовой среды выбрал виртуалки с такими параметрами: 20 vCPU 117 GB RAM 1 × A100 NVIDIA 80 GB.

🚀 Что дальше

В планах «Жива Технологии» — ускорить распознавание нутриентов по фото с 8–9 до 2–3 секунд, не арендуя при этом дополнительные GPU. У Cloud.ru есть сервисы, которые помогают в инференсе моделей, их дообучении и не только. Например, для запуска и развертывания ML-моделей предложили клиенту протестировать сервис Evolution ML Inference.

Теги:
Всего голосов 2: ↑0 и ↓2-2
Комментарии0

Как внедрить ИИ в разработку и подружиться с безопасниками

ИИ-инструменты в разработке стали классикой. Но чем активнее команды используют ИИ, тем острее стоят вопросы безопасности. Об этом говорят гораздо реже, чем о новых моделях — хотя именно она определяет, выкатите ли вы фичу спокойно или поднимите команду в 3 ночи поднимать упавший сервер.

Чтобы разобраться, как это работает в реальных процессах, мы собрали за одним столом лидеров из Сбера, Positive Technologies, RuStore и Ozon FinTech. Эксперты поделились практиками, ошибками, риск-моделями и объяснили, почему безопасность — это не тормоз, а часть архитектуры внедрения ИИ.

Теперь запись доступна на YouTube. Вы узнаете:

  • Как защищать чувствительные данные, не превращая компанию в «закрытый контур». Какие подходы позволяют внедрять ИИ-инструменты в средах, где малейшая утечка — критический инцидент.

  • Три ключевых AI-риска, про которые редко говорят вендоры. Злоупотребление моделями, небезопасный код, сгенерированный без проверки, и ИИ-агенты с доступами ко всему — эксперты поделятся кейсами.

  • Как меняется соотношение безопасности и скорости при масштабировании. Почему крупные компании осторожнее, чем стартапы, и как учитывать репутационные и финансовые риски при внедрении автоматизации.

  • Что делать, если ИИ сгенерировал уязвимый код, и это привело к взлому системы. Где проходит реальная граница ответственности между разработкой, безопасностью и инструментами.

  • К чему готовиться в части регулирования. Почему регулирование ИИ будет идти по пути любых инженерных технологий, что происходит в Китае, и какие требования появятся первыми.

  • Как безопасники и разработчики приходят к партнёрству.
    Почему зрелые команды кибербеза не тормозят внедрение технологий, а помогают строить безопасный процесс — и почему к 2026 году в компаниях появятся команды, частично состоящие из ИИ-агентов.

Спикеры:

  • Сергей Марков — Директор по развитию технологий ИИ, Сбер.

  • Светлана Газизова — Директор по построению процессов безопасной разработки, Positive Technologies.

  • Александр Толмачев — ex-CDO Ozon FinTech, преподаватель Сколково и ВШЭ.

  • Сергей Кузнецов — Руководитель команды мобильной инфраструктуры, RuStore.

«Большинство серьёзных инцидентов происходит не из-за ИИ, а из-за плохо выстроенных процессов вокруг него. Агент с лишними правами доступа может привести к краху всего.»

— Сергей Марков, директор по развитию технологий ИИ, Сбер.

Смотрите полную запись круглого стола на YouTube — если вы внедряете ИИ, работаете с чувствительными данными или хотите адаптировать SDLC под новые риски.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

🔥 Как спроектировать систему отопления многоэтажного дома без ошибок и лишней работы?

Многие инженеры сталкиваются с проблемой: проектирование сложной системы отопления занимает слишком много времени, расчеты приходится переделывать, а балансировка трубопроводов превращается в головоломку.

Мы решили показать, как это делается на практике, используя nanoCAD BIM Отопление. На вебинаре вы увидите полный путь проектирования многоэтажного жилого дома — от исходных данных до готовой сбалансированной системы.

Когда: 11 декабря, 11:00–13:00 (МСК)
Где: онлайн, бесплатно – зарегистрироваться

На вебинаре вы узнаете:

  • Как подготовить исходные данные для проекта отопления и какие ресурсы использовать

  • Как формировать систему отопления для разных этажей многоэтажного дома

  • Как подбирать диаметры трубопроводов и выполнять балансировку

  • Как ускорить выпуск рабочей документации без потери качества

  • Реальный проект: обзор многоэтажного дома, выполненного в nanoCAD BIM Отопление

  • Ответы на ваши вопросы

Спикер: Никита Иванов, инженер по сопровождению и внедрению ПО, участвовавший в пилотном проекте.

Будет полезно инженерам-проектировщикам ОВК, руководителям проектных групп, BIM-менеджерам и специалистам по теплоснабжению.

💡 Присоединяйтесь, чтобы увидеть реальный проект отопления многоэтажного дома в действии и узнать, как инженеры решают сложные инженерные задачи с nanoCAD BIM Отопление.

Теги:
Рейтинг0
Комментарии0

Привет, Хабр! Тем, кому регулярно приходится заглядывать в etcd — будь то QA, поддержка или разработчики — хорошо знакома ситуация, когда нужно разобраться с неожиданным состоянием сервиса, проверить конфиги или найти застрявший лок. И каждый раз всё сводится к одному: копировать ключ, запускать etcdctl get, читать многострочный JSON в терминале, ошибаться в пути… и в какой-то момент понимаешь, что это однообразие выматывает больше, чем сама проблема.

Поэтому наш коллега из Хайстекс сделал небольшой TUI-инструмент, который заметно упрощает работу с etcd и делает её куда дружелюбнее для тех, кто каждый день копается в окружениях. Он снимает рутину etcdctl, даёт привычную “каталожную” навигацию, подсвечивает скрытые _-ключи, позволяет комфортно открывать большие конфиги и помогает разбираться с локами, которые любят появляться в самых неожиданных местах.

Если вы в QA, поддержке или просто часто работаете с etcd, этот инструмент легко сэкономит вам время и нервы.

Статью можно прочитать здесь.

Теги:
Рейтинг0
Комментарии0

Ближайшие события

Почему мне не понравился Arch Linux

Однажды я решил попробовать Arch Linux — в качестве эксперимента, чтобы понять, подходит ли он мне как основная система. Спойлер: нет. Хотя я понимаю, почему Arch нравится многим, лично мне он не зашёл. Расскажу коротко — без холивара, просто субъективный опыт.

1. Слишком много ручной настройки

Да, это философия Arch — «собери систему под себя».
Но когда даже базовые вещи требуют:

  • поиска пакета вручную,

  • чтения вики,

  • настройки конфигов,

в какой-то момент это начинает отвлекать от работы.

Мне хотелось просто пользоваться системой, а не постоянно её собирать.

2. Установка превращается в квест

Я понимаю, что сейчас есть Archinstall, но это всё равно:

  • больше шагов,

  • больше точек, где можно ошибиться,

  • больше нюансов, которые надо держать в голове.

Для сравнения: Ubuntu/Debian/Fedora ставятся буквально за 10–15 минут без сюрпризов.
Arch — это отдельный процесс, который каждый раз занимает время, силы и концентрацию.

3. Постоянные обновления и риск поломок

Rolling release — это круто, но это также:

  • риск, что обновление завтра что-то сломает,

  • необходимость держать в голове зависимости,

  • желание обновляться реже, но при этом понимание, что массово обновлять ещё опаснее.

Мне нужен более предсказуемый рабочий инструмент, а не адреналиновый аттракцион.

4. Много времени уходит на поиск информации

Arch Wiki — одна из лучших в мире, но:

  • почти каждое действие требует чтения документации,

  • часто нужно искать решения на форумах,

  • иногда конфликты пакетов решаются вручную.

Да, можно привыкнуть, но мне не хотелось превращать рабочий компьютер в постоянную учебную площадку.

5. Минимализм оказался минусом

Arch устанавливается «голым».
Ты ставишь:

  • окружение,

  • драйверы,

  • кодеки,

  • шрифты,

  • инструменты,

  • конфигурируешь систему практически с нуля.

Кому-то это даёт свободу.
Мне — лишние часы, которые можно было потратить на реальную работу.

Итог

Я понимаю, за что любят Arch — скорость, свежие пакеты, гибкость. Но для моего сценария использования он требует слишком много времени и внимания. В итоге я вернулся к Debian/Ubuntu: они просто работают, а я могу заниматься задачами, а не конфигами.

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии21

Привет, Хабр!

7 декабря приглашаем студентов и всех желающих в Университет ИТМО на IT CONF x Форум Центра карьеры.

15:00–15:50 (аудитория 1404) — воркшоп Авенира Воронова, директора по внедрению AI, Veai

На IT CONF x Форум Центра карьеры вас ждут горячие тренды, технологии и встречи с IT-сообществом.

В этот раз в центре внимания – развитие и применение искусственного интеллекта:

  • ИИ как партнер в разработке

  • влияние ИИ на рынок труда

  • современные компетенции и карьерные траектории в бигтехе

  • стек System Design в 2030 году: что нужно уметь разработчику

  • какая стратегия ИИ ждет нас в ближайшие десятилетия

📍 Где: ИТМО, Кронверкский пр., 49

Принять участие может каждый — вне зависимости от возраста, места учебы или работы.

👉 Регистрация

Будем рады встрече и вашим вопросам!

Теги:
Всего голосов 4: ↑2 и ↓20
Комментарии0

Настраиваем LLM для нестандартных задач

Если тема больших языковых моделей (LLM) вам известна, то, скорее всего, вы знаете, что в основе их работы лежит прогнозирование следующего слова, подкрепленное математическими вычислениями. Обычно на этом объяснения заканчиваются, а сам процесс предсказания остается своего рода «черным ящиком». В статье «Лабораторная работа по тонкой настройке LLM для нестандартных задач классификации» постарались углубиться в эту тему и показать, как с помощью тонкой настройки LLM можно решать вполне прикладные задачи, например, классификацию. В качестве примеров — код из одной интересной книги.

Материал организован так, чтобы вы могли самостоятельно повторить все шаги и в итоге получить набор скриптов для создания собственного пайплайна обучения LLM. Чтобы приступить к лабораторной работе, достаем двойные листочки, расчехляем питон и тиктокен.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Привет, Хабр! Наступила очередная пятница, поэтому я несу полезные материалы на выходные для тех, кто хочет получше освоить Ubuntu. Информация по ссылкам довольно базовая, для начинающих. Все бесплатно, без регистрации и смс. Поехали!

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии0

😎 СПИН — не техника вопросов. Это стратегия, без которой большие продажи не работают

Провели экспертный подкаст в прямом эфире на тему управления большими продажами и внедрения методики СПИН в CRM-систему.

🎙 Спикеры:
Александр Стародубцев, владелец продукта SimpleOne B2B CRM;
Игорь Шубин, эксперт по СПИН-продажам, Академия SPINCAT;
Максим Потапов, руководитель проектов и эксперт по внедрению CRM и BPM, КОРУС Консалтинг.

Практические кейсы, живой разговор и максимальная польза.

Приглашаем к просмотру: VK Видео | Youtube | Rutube

Полная версия с большим количеством методической части технологии СПИН

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Продолжаю играться с телетайпом.

Прежде всего, немного доработал схему адаптера. Добавил в нее автостоп. Автостоп выключает двигатель телетайпа, если определенное количество времени не принимается или не передается информация. Телетайпы часто комплектуются механическим автостопом, но в моем экземпляре он отсутствует. Поэтому сделаем электронный.

Схема электрическая принципиальная
Схема электрическая принципиальная

Автостоп реализован на реле К1 и двух транзисторах VT4 и VT5. При приеме или передаче символа стартовый импульс посылки проходит через диоды VD1 или VD3 и открывает транзистор VT4. Через открытый транзистор очень быстро разряжается емкость C3, которая затем медленно заряжается через высокоомный резистор R19. Если долгое время не было никаких посылок, то конденсатор потихоньку зарядится до порогового напряжения транзистора VT5, который закроется и отключит реле. Сопротивление резистора и емкость конденсатора подобраны так, чтобы отключение происходило примерно через минуту бездействия аппарата.

Переключателем S1 можно выбрать режим работы – OFF/ON/AUTO, то есть, мотор всегда выключен, всегда включен и автоматический режим.

Также, в схему была добавлена возможность как двухпроводного, так и четырехпроводного подключения. Для этого добавлены резисторы R1, R2 и R4, а также дополнительный каскад на транзисторе VT1. Этот каскад нужен только для трансляции импульсов передачи для автостопа при четырехпроводном подключении.

Еще добавлены светодиоды индикации питания, приема и передачи и сам источник питания из внешнего адаптера сделан встроенным, поскольку теперь 230 вольт все равно заходят в блок. Вся схема смонтирована на макетных платах в небольшом пластиковом корпусе.

С этой доработкой работать с аппаратом стало намного удобнее и комфортнее. Чтобы программно запустить аппарат необходимо лишь послать символ 11111 (команда переключения на латинский алфавит) и подождать примерно секунду раскрутки двигателя. Почему именно этот символ? Потому что только этот символ, состоящий из всех единиц, будет правильно распознан механикой аппарата при любой скорости вращения мотора.

В прошлый раз для подключения аппарата к компьютеру я написал некое подобие терминала. Программа транслирует код вводимых символов в МТК-2 и наоборот. Сейчас же я решил прикрутить этот транслятор к телеграмм-боту. На мой взгляд, это будет весьма символично – вместе соединятся технологии передачи сообщений далекой древности и настоящего времени.

Телеграмм-бот – это небольшое приложение, которое может работать отдельно от телеграмм-клиента и взаимодействовать напрямую с телеграмм-API для выполнения какой-либо функции. В нашем случае оно должно получать сообщение пользователя и выводить его на телетайп. А также введенное с телетайпа сообщение отправлять выбранному пользователю в ответ.

Почти полностью готовую библиотеку на Си я взял тут. После клонирования репозитория необходимо доустановить библиотеки curl4 и json-c и, после компиляции, все заработало с первого раза.

В примере, шедшем вместе с библиотекой, нужные мне функции (приема и передачи сообщений) были полностью реализованы. Ничего дополнительно делать даже и не пришлось. Необходимо было только дописать логику работы с телетайпом.

Если от пользователя приходит команда /start, ему выдается краткая инструкция. Также бот реагирует на команду /who, по этой команде выдается зашитый в комбинаторный валик автоответ телетайпа.

Что в итоге получилось, может проверить любой пользователь Телеграмм (бот teletypeT63_bot). А убедиться, что отвечает реально телетайп можно по видеотрансляции (с 12.00 до 13.00 МСК). Единственная просьба: воздержаться от посылки нецензурных, оскорбительных и политических сообщений. Также стоит ограничение на слишком длинные сообщения (более 100 символов).

Теги:
Всего голосов 6: ↑5 и ↓1+6
Комментарии0

MWS AI представила платформу для создания корпоративных ИИ-агентов в едином интерфейсе (параллельно с Google AI Studio, кстати).

Платформа уже доступна корпоративным заказчикам, предварительно она прошла тестирование в МТС и еще у нескольких клиентов в финансовом секторе и здравоохранении. 

Главное:
- Можно создавать ИИ-агентов и мультиагентные системы в визуальном конструкторе без кода.

- Платформа vendor agnostic. По умолчанию доступны LLM семейства Cotype от MWS AI, но можно подключить любые другие – свои и с рынка. Ряд других компонентов тоже заменяемы при необходимости.  

- Есть инструментарий для подготовки и разметки данных, дообучения моделей под специфические задачи, мониторинга качества и эффективности агентов. А еще модули autoRAG, NER и пр.

- Уже встроены готовые ИИ-ассистенты для базовых бизнес-задач (копайлоты для HR, аналитики, общекорпоративной рутины, клиентского сервиса, разработки) – их линейка будет расширяться.

- Мультимодальные возможности: есть модели для синтеза и распознавания речи, OCR, VLM, а еще для речевой аналитики. 

- Интеграционный хаб: можно подключать агентов в любые рабочие среды и мессенджеры и интегрировать с платформой различные системы.

 MWS AI Agents Platform разворачивается в контуре компании или частном облаке, в нее встроены механизмы управления ролями и защиты данных, поддерживается multi-user и multi-project управление проектами. 

Узнать подробности и запросить демо можно на сайте: https://mts.ai/ru/product/ai-agents-platform/

Теги:
Рейтинг0
Комментарии0