Как стать автором
Поиск
Написать публикацию
Обновить

Разработка

Сначала показывать
Порог рейтинга

Заказ на Kubernetes готов... Курьер уже у вашего компа 🛴

Наш продакт-лид сейчас вкинул новости по Куберу, которых еще даже во внутреннем ченжлоге не было. С ними наш Куб уже не ребенок, а превращается в настоящего мужчину — это цитата.

1️⃣ Пачка обновлений кластеров:

v1.33.1 → v1.33.2
v1.32.5 → v1.32.6
v1.31.9 → v1.31.10
v1.30.13 → v1.30.14

2️⃣ Новый раздел «Сеть»:

Теперь в панели сразу видно, к какой приватной сети подключен кластер, какой CNI используется и какие подсети подов и сервисов были указаны при сетапе.

3️⃣ Обновление версий Kubernetes прямо в панели:

🙂 Для патч-версий доступно самое последнее обновление.
🙃 Для минорных можно выбрать любую доступную версию старше текущей.

3️⃣ OpenFaaS теперь в маркетплейсе:

Удобный способ запускать serverless-функции без развертывания отдельных сервисов. Например, для автоматизации, событийных задач и CI/CD-сценариев.

Забрать все обновы Кубера →

Теги:
+10
Комментарии0

LeetCode ponts кому-нибудь помогли?

Мне на LeetCode постоянно LeetCode point-ы добавляют. У кого-нибудь есть реальный пример полезного применения этих points? У меня их 26 штук уже. Делать пока с ними ничего невозможно. А что реально полезного от них можно получить? Можно ли RMT-ить их? У кого получалось

Теги:
0
Комментарии2

Подключайтесь к вебинару про миграцию в Kubernetes on Bare Metal

В 12:00 (мск) в прямом эфире расскажем, как перенести production-нагрузку в Kubernetes on Bare Metal, сократить расходы на 35% и повысить производительность сервисов.

О чем будем говорить

  • Масштабирование кластеров на выделенных серверах.

  • Удаление и переустановка нод на выделенных серверах.

  • Управление разметкой диска.

  • Кейсы клиентов: сокращение расходов на 35% и повышение производительности.

Вебинар будет особенно полезен DevOps-инженерам, техлидам, а также системным администраторам и архитекторам.

Смотреть трансляцию

📱на YouTube

📱в VK

Теги:
+6
Комментарии0

Огромное спасибо: Поддержка ChatGPT на sqlize.online восстановлена! 🎉

Привет, сообщество!

У меня есть невероятно крутые новости!

Благодаря вашей потрясающей щедрости и пожертвованиям, которые мы получили, мы собрали средства, необходимые для восстановления и продолжения интеграции ChatGPT на нашей платформе! 🥳

Ваша поддержка значит для меня очень много. Она напрямую покрывает расходы на API OpenAI, гарантируя, что такие функции, как генерация запросов на естественном языке и умная помощь по SQL, остаются доступными для всех.

Мы запустили sqlize.online как доступный инструмент для изучения и работы с SQL, и возможности ИИ являются ключевой частью этого проекта. Знание того, что многие из вас ценят этот сервис и помогли поддерживать его работу, по-настоящему мотивирует.

Это доказательство силы сообщества! Спасибо вам за веру в sqlize.online и за помощь в поддержке ресурсов для блага всех энтузиастов и профессионалов SQL.

Мы обязуемся продолжать совершенствовать sqlize.online и расширять ваши возможности в работе с данными.

Пример вопроса и ответа GPT
Пример вопроса и ответа GPT
Теги:
+3
Комментарии0

Как скрыть Webvisor от Яндекс.Метрики во вкладке "Сеть" в DevTools

Вкладка Network
Вкладка Network

При отладке фронтенда или анализе сетевых запросов в DevTools часто возникает проблема: запросы к mc.yandex.ru (Webvisor) загромождают вкладку «Сеть» и мешают сосредоточиться на действительно нужных данных. Особенно если на странице активно работает Яндекс.Метрика с включённым Webvisor.

Хорошая новость: эти запросы легко отфильтровать или полностью заблокировать. Делюсь несколькими способами, как это сделать.

Этот способ касается и других типов запросов, мне лично мешают запросы от mc.yandex.ru.

Способ 1. Фильтрация через DevTools (Network)

Если не хочется ничего ломать, просто исключите Webvisor из отображения:

  1. Откройте DevTools (F12 или Ctrl+Shift+I / Cmd+Option+I).

  2. Перейдите на вкладку Network (Сеть).

  3. В строке фильтра введите: -mc.yandex.ru

Способ 2. Полная блокировка через Request Blocking

Если вы не хотите, чтобы эти запросы вообще происходили:

  1. Откройте DevTools.

  2. Нажмите на три точки в правом верхнем углу панели → More tools (Другие инструменты) → Network request blocking (Блокировка сетевых запросов).

  3. В появившемся окне добавьте правило: *mc.yandex.ru*

  4. Включите галочку Enable request blocking.

Теперь DevTools будет блокировать запросы к Webvisor ещё до их отправки.

Способ 3. Расширения браузера (например, uBlock Origin)

Для более глобального решения можно использовать расширения:

  1. Установите uBlock Origin.

  2. В настройках фильтров добавьте правило: ||mc.yandex.ru^

Теперь все запросы к mc.yandex.ru будут блокироваться на уровне браузера.

Заключение

Webvisor — полезный инструмент аналитики, но при разработке он чаще мешает, чем помогает. В зависимости от ваших задач можно отфильтровать, заблокировать или вовсе отключить его. Выбирайте подходящий способ и работайте продуктивно.

Если у вас есть свои хаки по "чистке" вкладки Network — делитесь в комментариях 👇

Теги:
+2
Комментарии4

Выводим Соера на чистую воду разбирая дискуссию с ним про принципы SOLID

Топ перлов

  • Если ты манки-патчишь объекты, то ты функциональщик.

  • Ты должен сначала залезть на гору, а потом уже решить надо было тебе сюда или нет.

  • Если люди по разному воспринимают принцип - это здорово, ведь он подталкивает людей к размышлению.

  • SOLID позволяет легче (т.е. не задумываясь) принимать не идеальные (т.е. сомнительные) решения.

Упомянутые материалы

Копилка благодарностей

Теги:
-3
Комментарии0

ChatCaster - приложение для голосового ввода с помощью геймада.

Друзья, всех приветсвтую!

Я тут набросал небольшое приложение для игроков на ПК и людей с ограничеными возможностями, которые играют в игры в помощью геймпада. Суть в том чтобы не вводить текст руками в чаты, а нажать любую комбинацию клавиш на геймпаде (или клавиатуре), сказать голосом то что хотите написать и все. Текст будет в нужном месте.

Бонусом приложение поддерживает перевод на 5 языков (самые популярые в steam). Вы просто выбираете нужный вам язык, говорите на своем родном, весь текст будет переведен и введен там где вам нужно.

Если тут есть .net разработчики которые захотят присоединиться и доработать пару фишек или внести что-то свое, буду только благодарен.

Приложение делал один в рамках пет проекта, съело много времени, пока не могу себе позволить его развивать. Нужно дальше обучаться кодить и искать работу.

Короткое видео что оно умеет делать вот тут https://youtu.be/p_exJzcF1so

Ссылка на репозиторий если кто-то захочет поучаствовать https://github.com/KOMMEHTATOP/ChatCaster

С технической стороны это вообще мое первое приложение, те кто ищут косяки обязательно найдут, но приложение рабочее. Потребление приемлимое. И самое главное весь основной функционал работает.

Пост делаю впервые, АИ для текста не использую намеренно, готов к конструктивной критике или предложениям.

Буду рад если приложение окажется кому-то полезным.

Теги:
+4
Комментарии0

Сегодня решил сравнить размерчики OS X 10.8 и macOS 15.

Вот что увидел:

OS X 10.8: du -sh ~/Library -> 33M

macOS Sequoia: du -sh ~/Library -> 8.2G

OS X 10.8: du -sh /Library -> 842M

macOS Sequoia: du -sh /Library -> 3.8G

OS X 10.8: du -sh /System/Library -> 3.2G

macOS Sequoia: du -sh /System/Library -> (куча permission denied даже для read, спасибо SIP) -> но то что удалось считать 139G

Конечно последнее значение выглядит как фальшивое, но на остальные сквозь пальцы посмотреть нельзя. А тем временем предлагаю оценить сколько новых фишек добавилось в новой macOS за 13 лет и оценить здравость такого роста:

  1. Рост никак не оправдан, новых и полезных фишек почти 0

  2. Новых функций прибавилось много, но увеличение веса системы не соразмерно

  3. Вес вполне оправдан, так и должно быть при такой массе нововведений!

Лично я склоняюсь к варианту 2. Свои ответы можете написать в комментариях!

Теги:
+3
Комментарии7

Пошаговые инструкции сборки — больше не ад для техписов

Изначально система автоматической генерации документов требует значительных затрат. Если конфигураций оборудования всего несколько, то раздельные инструкции проще и быстрее написать вручную, чем создавать под них систему.

В нашем случае разработка самой системы динамической документации и подготовка контента для первых четырех продуктов в ней заняли в сумме около 1300 человеко-часов. Этот самый тяжелый и затратный этап включал изменение логики, наполнение и отладку системы и согласование изменений с технологами. 

На данный момент мы собрали из исходников документы для 647 конфигураций серверов. Даже при таком сравнительно небольшом количестве инструкций мы простым делением получаем затраты на один документ в размере 2 человеко-часов. Это в 12,5 раз дешевле, чем писать отдельные инструкции вручную — выше мы оценивали затраты такого подхода. В итоге с документацией справляются шесть человек — а если бы мы делали инструкции вручную, потребовалось бы не меньше 13 сотрудников. После внедрения конструктора мы оценили дальнейшие трудозатраты, продолжили работу с динамической документацией, и уже через несколько месяцев система начала окупаться.

Глеб Свистунов, руководитель отдела производственной документации YADRO, в своей статье рассказал о подходе динамической документации. С ним составлять пошаговые инструкции сборки оборудования для огромного количества конфигураций гораздо эффективней, чем вручную.

Теги:
+1
Комментарии0

Почему так важен патентный поиск при обратном инжиниринге

Обратный инжиниринг (или, как его еще называют, — реверс-инжиниринг) — это оценка имеющихся и применяемых на практике определенных объектов техники. Цель — получить информацию (техпризнаки и параметры устройства), чтобы использовать эти данные в том числе и для возможного последующего производства.

Что следует учитывать при обратном инжиниринге?

1. Оценка чужого оборудования таким образом не является нарушением патентных прав контрагента. Если, конечно, изучающий не заимствует без разрешения чужие наработки коммерческим путем. Это повлечет соответствующую, предусмотренную законом, ответственность.

2. Обратный инжиниринг производится обычно в несколько этапов:

  • Если интересующий вас партнер или производитель оборудования ушел из России, то первоначально надо оценить, какие действующие патенты есть у него. Здесь следует учитывать, что отсутствие юридической документации у проверяемого юрлица не гарантирует ничего: вполне вероятно, что защищаемая интеллектуальная собственность будет оформлена на аффилированные лица или на других (даже независимых) субъектов;

  • Далее — осуществив такой предварительный поиск, необходимо перейти к следующей фазе: важно оценить замещаемый объект (как полностью, так и по частям) на патентную чистоту. Результаты подобного исследования — правильно оформить. Например, если посредством обратного инжиниринга оценивается вещество, то следует указать его состав, а также формулу соединений. Если рассматривается то, как будет производиться тот или иной объект, — необходимо определить параметры создания его (совершенные производителем действия за промежуток времени).

3. На основе обратного инжиниринга фирмы также определяют вероятность возникновения рисков возможного нарушения прав на те или иные патенты. Оперируя полученными данными, топ-менеджеры корпораций принимают соответствующие управленческие решения.

Все слишком сложно. Можно доступнее?

Конечно. Предположим, что у вас есть изобретение или полезная модель. Вы берете и оцениваете имеющееся как в целом, так и раскладывая его на составные части, рассматривая в том числе варианты осуществления и технологию.

Дальше — полученное вы модифицируете и значительно улучшаете, изменяя глобально ключевые технологические решения. Делаете, например, больше экран смартфона, значительно увеличиваете его четкость и создаете возможность складывать в четыре раза. Такой продукт, основанный на патентах других, но сам не имеющий патента, будет считаться законным обратным инжинирингом.

Сразу отметим: грань между законным и потенциально нарушающим — очень тонкая. Для выработки правильной политики в данном направлении необходимо обратиться к патентному поверенному.  

Еще есть какие-то варианты реверс-инжиниринга?

Да. У вас есть промышленный образец. После обратного инжиниринга вы сможете получить качественные данные об используемых визуальных решениях в конкретном объекте.

Секрет производства (ноу-хау) тоже, кстати, поддается обратному инжинирингу. После его оценки — вы можете получить данные о составе используемого материала или вещества; посмотреть то, каким образом создавался объект, каковы технологические условия. Однако использовать на практике подобные сведения проблематично: обладатели секрета производства вполне могут подать в суд на нарушающего их права. 

Можно ли получить какие-либо выгоды от обратного инжиниринга?

Да. Министерство промышленности РФ реализует грантовую программу. В конце 2024 года ведомство отчитывалось о поддержке 350 проектов подобного типа за 2,5 года работы: 72 из них — перешли в стадию серийного производства, по 71-ому — на тот период времени шла подготовка к запуску.

Патентный поиск можно заказать здесь.

Теги:
+4
Комментарии2

Tesla добавила окошко с чаевыми в мобильное приложение своего роботакси. Предложение оставить «на чай» появляется на экране во время оценки беспилотной поездки. Если пользователь захочет перевести деньги, то приложение запустит картинку с дикобразом в солнцезащитных очках и кожаном костюме с подписью, что это шутка.

Теги:
+3
Комментарии3

Использование случайностей в функциональном тестировании


Для кого эта статья?

  • Инженеры по автоматизации и разработчики тестов — вам точно будет интересно.

  • Обычные разработчики, если вы заинтересованы в качестве продукта, а не считаете тесты "расплатой за грехи" или "прихотью менеджмента" — тоже.

А кого, возможно, не заинтересует

Если у вас постоянно есть падающие тесты, и никто не разбирается в причинах, а просто смотрят на процент "зелёных" и "красных", — эта статья может показаться бесполезной.

Откуда вообще эта идея?

Возможно, вы сталкивались с ситуацией, когда один и тот же тест гоняется с разными входными данными. Типичный data-driven подход: параметризуем, и всё работает.

На первый взгляд — всё логично. Но на практике:

  • увеличивается время прогона (особенно для UI-тестов);

  • растёт вероятность нестабильности (flaky-тесты);

  • тесты зачастую дублируют поведение друг друга.

Наглядный пример

Допустим, у нас есть UI-тест, проверяющий переходы по меню на сайте. Стартовая страница содержит меню для перехода на страницы A, B, C, D.

Сценарий теста:

  1. Открываем стартовую страницу.

  2. Выбираем пункт в меню.

  3. Проверяем, что оказались на нужной странице.

Что делает большинство:

  • Пишут четыре теста: переход на A, на B, на C и на D.

  • Или параметризуют тест: гоняют один и тот же сценарий с разными входными.

Но по сути, мы проверяем одну и ту же функциональность перехода по меню. Зачем гонять одни и те же шаги с разными данными?

Проблема

Если тест проверяет функциональность, то логично оставить один вариант— переход на страницу A. Экономите ресурсы, всё стабильно и функциональность проверяется. Но однажды приходит тимлид с вопросом:

Почему тесты не поймали баг с переходом на страницу D?

В этом случае экономия не оправдалась

Что делать?

Тест — это тоже код. Он может быть не стабильным. И чем чаще он запускается, тем быстрее мы понимаем, стабилен он или нет.

А теперь возвращаемся к примеру с меню:

Что, если каждый раз случайным образом выбирать один из пунктов (A, B, C, D)?

  • Экономим ресурсы: запускается один тест вместо четырёх.

  • С течением времени мы случайным образом "покроем" все пункты.

  • Чем чаще прогоняются тесты, тем быстрее мы обнаружим баг (например, если страница C не открывается).

Это не универсальное решение, но в ряде случаев — вполне разумный компромисс между экономией и эффективностью.

Это не ноу-хау

Такой подход давно известен — он называется property-based testing.

Как пример - фреймворк Hypothesis, который позволяет генерировать данные автоматически и находить пограничные случаи, о которых вы даже не думали.

Что важно помнить

  • Использование случайности не должно усложнять тест. Логика должна быть понятна и читаема.

  • Если тест упал, он должен сообщить, что именно пошло не так, даже если данные были сгенерированы случайно.

  • Рандомизация — всего лишь один из способов сделать тесты более эффективными, но это не универсальное решение

  • Иногда стоит логировать/фиксировать сгенерированные данные, особенно при падении теста — чтобы потом воспроизвести баг

Итог

Рандомизация в тестировании — мощный инструмент:

  • помогает экономить ресурсы;

  • расширяет покрытие;

  • стимулирует стабильность и надёжность тестов.

Но применять её стоит с умом: понимать, зачем, где, и в каком объёме.

А как у вас это устроено? Используете ли вы property-based подход в тестах? Или всё ещё параметризуете всё подряд? Буду рад услышать ваши мнения, кейсы и даже критику.

Теги:
+1
Комментарии2

Что мы знаем о защите АСУ ТП?

В новой статье говорим о том, как складывается ситуация с кибератаками на реальный сектор в России и в мире, кто и как атакует предприятия, какие сегменты промышленных сетей самые уязвимые и что за средства используются злоумышленниками для атак.

Теги:
+1
Комментарии0

Ближайшие события

Продолжаем принимать доклады на IT Elements 2025

Тук-тук! Это снова IT Elements — главное место встречи тех, кто делает ИТ в России.

10–11 сентября вот уже в третий раз мы соберем ИТ-сообщество в Москве. Готовьтесь к новым трекам, спикерам и грандиозной площадке! Кстати, регистрация уже открыта.

А вообще мы с хорошими новостями: до 15 августа продлили Call For Papers! Приглашаем экспертов, которые могут рассказать про сильный кейс, нестандартный опыт или нешаблонное решение поделиться своим опытом с комьюнити в рамках доклада. Главные требования — экспертность и актуальность темы. А еще важно, чтобы доклад не был представлен на других мероприятиях.

Рассматриваются заявки по основным направлениям конфы:

  • ИТ-инфраструктура

  • Сетевые технологии

  • Кибербезопасность

  • Данные и ИИ

Подать доклад

IT Elements в прошлом году это:

— 2500+ участников офлайн и 6000+ зрителей онлайн.

— 80+ докладов, дискуссий и мастер-классов.

— 125 спикеров из ведущих российских компаний: ВТБ, «Газпромнефть-Гео», «АльфаСтрахование», «Лаборатория Касперского», АЛРОСА, S7, Почта Банк, «ВымпелКом», НСИС и др.

— выставка 30+ вендоров и дистрибьюторов, а также большая лабораторная зона с воркшопами.

Станьте главным элементом IT Elements 2025 💙

Генеральный партнер конференции IT Elements — ИТ-компания «Инфосистемы Джет».

Теги:
+3
Комментарии0

Vulnerability management — непрерывный процесс поиска, выявления и устранения уязвимостей. И это — один из ключевых аспектов в поддержании информационной безопасности всей IT-инфраструктуры 🔃

📆 Когда: 7 августа в 11:00 мск

📍 Где: онлайн

На вебинаре разберем ключевые методы защиты от киберугроз на уровне контейнеров и Kubernetes.

Что вы узнаете:

  • Как устроена безопасность в Kubernetes — архитектурные особенности и «подводные камни».

  • Типовые модели атак — кто и как чаще всего атакует контейнерные среды.

  • 5 самых уязвимых компонентов системы контейнеризации — какие элементы требуют особого контроля и почему.

  • Лучшие практики защиты Kubernetes-контейнеров — от сканирования образов до политик безопасности.

  • Стратегии митигации киберрисков — как минимизировать угрозы до их реализации.

Присоединяйтесь, чтобы послушать про реальные кейсы и получить практические рекомендации по защите вашей инфраструктуры. А еще читайте статьи по теме:

Будет особенно полезно DevOps-инженерам, техническим лидерам, директорам по разработке, специалистам по кибербезопасности, а также всем, кого интересует тема безопасности Kubernetes.

Зарегистрироваться 👈

Теги:
0
Комментарии0

С моего последнего поста о Gaunt Sloth Assistant мы достигли ряда достижений.

Напоминаю, Gaunt Sloth — это открытый CLI-клиент ИИ с открытым исходным кодом, написанный на TypeScript и распространяемый через NPM.
Он работает на Linux, Windows и Mac. Основная функция — ревью PR и просто кода. Gaunt Sloth компактный, означает, не пртдётся тратить драгоценные минуты на ожидание установки этого инструмента в build pipeline. Репозиторий на GitHub: https://github.com/Galvanized-Pukeko/gaunt-sloth-assistant.

Вырезка из коммента оставленного тощим ленивцем к PR на GitHub
Вырезка из коммента оставленного тощим ленивцем к PR на GitHub

Gaunt Sloth сейчас на версии 0.9.2, и достижения с момента последнего поста включают:

  • Два новых контрибьютора

  • Создание примера workflow GitHub для ревью PR. Этот workflow есть в нашем репо, и мне удалось развернуть его в пайплайне сборки на работе: https://github.com/Galvanized-Pukeko/gaunt-sloth-assistant/blob/main/.github/workflows/review.yml (обратите внимание: использование AI-ревью в публичном репо с PR от незнакомцев может привести к утечке ваших API-ключей; do your homework)

  • Добавление возможности запускать тесты и lint, так что Gaunt Sloth может закодить фичу целиком (мы используем его для разработки его собственных функций сейчас. Это полезно как часть тестирования)

  • Улучшение цикла чата (включая функцию retry, для случаев, когда ИИ выдает раздражающее сообщение "overloaded")

  • Подтверждение работы с локальными LLM от Ollama (не все модели работают. Нужна модель с text-generation и tools)

  • Добавление пресета для OpenRouter

  • Мы пересекли отметку в 500 коммитов

Планы

Большая часть документации находится в двух Markdown-документах. Мне все еще нужно найти время или контрибьютора для создания хорошей, годной документации. Мы, вероятно, будем использовать TypeDoc чтобы скомбинировать сгенерированную документацию и Markdown.

Теги:
0
Комментарии0

Пытаясь выжать максимум из локально запущенной LLM, обнаружил, что модель Qwen2.5 14b неплохо справляется с задачей саммаризации текста. Решил таким образом немного автоматизировать ежедневный утренний процесс просмотра новостных материалов.

Что потребуется:

  • LM Studio - удобная GUI тулза для локального запуска моделей. В ней надо включить на вкладке Developer http сервер (ctrl+R)

  • ai chat - консольная утилита для работы с LLM

  • аналогичный этому конфиг для aichat

Пока никакие MCP инструменты я не прикрутил, часть работы придется сделать "руками", а именно - открыть страницы с новостями, скопировать из них текст, создать текстовые файлы и вставить в эти файлы скопированный текст. Например, хотим сделать саммари к 3 статьям: создаем 3 файла 1.txt 2.txt 3.txt и копируем в них текст соответственно из 1, 2, и 3 статей.

Все, теперь запускаем:

cat 1.txt |  aichat -m deepseek сделай саммари текста: > out1.txt && \
cat 2.txt |  aichat -m deepseek сделай саммари текста: > out2.txt && \
cat 3.txt |  aichat -m deepseek сделай саммари текста: > out3.txt

Ну все, теперь можем заниматься своими другими важными делами: завтркать, делать зарядку или еще что-то. Кстати, у меня этот процесс не ест все ресурсы системы, так что я спокойно могу писать код, серфить интернет или делать что-то другое на компьютере без тормозов.

После того, как команды завершит работу, ознакамливаемся с содержимым файлов саммаризации и дальше уже если самммари "зацепило" открываем статью в оригинале.

Вот тут еще пример с другим инструментом автоматизации работы с текстом при помощи LLM.

Теги:
+3
Комментарии0

Google DeepMind с решениями IMO 2025

Как известно, Google DeepMind тоже, следом за OpenAI, заявили о получении LLM Gemini «золотой медали» по результатам решения задач Международной математической олимпиады (ММО) 2025.

Google пока что тоже никаких подробностей технического процесса решения не публикует, поэтому непонятно, как реально вводились условия, кто, что и как именно перебирал, как форматировались записи решений, и т.д. Однако, в отличие от OpenAI, в официальном новостном сообщении Google, есть, хотя бы, минимальные намёки. Они занятные, но их почему-то пропускают.

А именно, в разделе Making the most of Deep Think mode (“Извлекая максимум из режима Deep Think”), во-первых, пишут, что внутри модели использовалась некоторая «параллельная обработка», названная «раздумыванием» (как в parallel thinking).

Цитата: “Эта конфигурация позволяет модели одновременно рассматривать и комбинировать многие возможные решения до выдачи окончательного ответа, вместо того, чтобы действовать по единственной, линейной цепочке рассуждений”. (This setup enables the model to simultaneously explore and combine multiple possible solutions before giving a final answer, rather than pursuing a single, linear chain of thought.) Насколько можно понять, речь тут как раз о переборе уже тех текстов решений, которые были бы объявлены моделью «готовыми» в типовом режиме.

Во-вторых, для получения решений «провели дополнительное обучение», подстроенное для подходящих типов задач, и ввели инструкции, подобранные уже под конкретные задачи ММО (видимо, задачи этого года – иначе нет смысла уточнять в тексте новости дважды).

Цитата: “Мы также предоставили Gemini доступ к корпусу специально отобранных высококачественных решений математических задач и добавили в инструкции некоторые подсказки и советы общего характера о том, как решать задачи ММО”. (We also provided Gemini with access to a curated corpus of high-quality solutions to mathematics problems, and added some general hints and tips on how to approach IMO problems to its instructions.)

Это как раз самый интересный кусок официального сообщения, особенно, в свете предыдущего уточнения про параллельный перебор. Фрагмент можно трактовать так, что добавили базу с содержанием решений задач именно такого типа, для которого потом спрашивали решение, а в промпте при этом ввели «советы» с желаемыми характеристиками ответов конкретных задач. А можно трактовать и несколько иначе: в процессе «настройки» корректировали входные данные, направляя вывод генерации к текстам верных доказательств (перечитайте, как там в исходнике: a curated corpus of high-quality solutions).

Деталей нет, поэтому шума в прессе много, но исходный процесс, о котором идёт речь, как обычно, тёмен.

Теги:
0
Комментарии0

Разработали Нейроаналитика — ИИ‑агента, который помогает визуализировать данные и находить в них инсайты

Агент работает на базе BI‑сервиса Yandex DataLens
Агент работает на базе BI‑сервиса Yandex DataLens

Осенью Yandex B2B Tech запускает Нейроаналитика — AI‑агента для аналитики и визуализации данных. С его помощью можно делать выводы по данным из таблиц и графиков, а также создавать и редактировать сложные визуализации. Первая версия инструмента будет доступна внешним компаниям в сентябре 2025 года — уже сейчас можно записаться в лист ожидания.

Нейроаналитик будет встроен в интерфейс Yandex DataLens в формате чата. Чтобы перестроить визуализацию или изменить расчётную формулу пользователь может сделать запрос к нейросети на естественном языке — модель поймёт запрос и скорректирует график или формулу. Это расширяет список пользователей, которым доступна новая функциональность, без необходимости погружаться в синтаксис формул и код на JavaScript.

На текущем этапе разработки сервис уже протестировали более 4 тысяч сотрудников Яндекса. Например, специалисты Яндекс Еды c помощью Нейроаналитика анализируют воронку регистраций курьеров на сервисе и конверсии, а команда исследователей Yandex Cloud ищет инсайты для отчётов.

Обновление сервиса Yandex DataLens с ИИ‑агентом будет доступно как в облаке, так и локально — по модели on‑premises. Оставить заявку на доступ к Нейроаналитику можно в этой форме.

Теги:
+4
Комментарии0

Топ 5 ошибок в работе с подписью на смарт-контрактах

Стандарту EIP-712 в Ethereum не один год и даже не три. Каждый кто работает с кошельками так или иначе сталкивался с ним воочию. Основная цель стандарта заключается в улучшение пользовательского опыта, позволяя кошелькам показывать человекочитаемые данные подписи.

Однако до сих пор у разработчиков смарт-контарактов на солидити возникает уйма ошибок, которые находятся в процессе аудита. При этом ошибки настолько детские, что аудитор может их не найти только в том случае, когда аудит вообще не проводился.

1️⃣ Отсутствие поля TYPE_HASH в составе подписи

Приводит к несовместимости со стандартом EIP-712, что влечет за собой невозможность использовать классические инструменты для создания подписи.

2️⃣ Пропуск полей в TYPE_HASH при кодировании

TYPE_HASH добавили, но описали не все поля.


// Забыли поле expiredTime, но ниже поле используется
bytes32 private constant TYPE_HASH = keccak256("Order(address user,uint256 nonce)");

...

// recoverSignature(user, nonce, expiredTime);

Часто бывает и наоборот, TYPE_HASH описан правильно, но при восстановление подписи пропустили пару полей.

3️⃣ Ошибка кодирования динамических типов

Всегда нужно помнить, что поля типа string и bytes кодируются особым образом.


keccak256(args.data) // encode bytes
keccak256(abi.encodePacked(args.str)) encode string

4️⃣ Ошибка кодирования ссылочных типов

Это подобная ошибка, как и с динамическими типами, только касается массивов и структур данных.

В кодировании массивов разработчики часто забывают, что это должен быть хеш от набора байт всех элементов массива keccak256(abi.encodePacked(array)).

Для вложенных структур данных подписи дочерняя структура описывается аналогичным образом, как родительская.


keccak256(abi.encode(
    PARENT_TYPE_HASH,
    keccak256(abi.encode(
        CHILD_TYPE_HASH, 
         ... // chield fields
     )),
      ... // parent fields
))

5️⃣ Подпись не защищена от повторного использования

Зачастую подпись не должна иметь возможность быть использованной повторно.

Для того, чтобы этого не произошло в тело подписи вводится одноразовый счетчик nonce, который делает подпись уникальной. После использования подписи на смарт-контракте счетчик увеличивается.

Вывод

Я сам помню на сколько мне тяжело давалось чтение спецификации стандарта EIP-712, когда я был молодым. Я тоже допускал ошибки, поэтому призываю не осуждать).

Копнуть EIP-712 поглубже можно со мной в нашем wiki.

@pnaydanovgoo

Теги:
0
Комментарии0