Обновить

Все потоки

Сначала показывать
Порог рейтинга

"Drinking the Kool-Aid" (c)

Обращаю внимание, что пост помечен как "юмор"

В далёкие годы, когда «хайп» назывался даже не «ажиотажем», а просто «угаром», оптимистично настроенные авторы вписали вот такой выразительный фрагмент в свою апокалиптическую повесть о людях:

— ...Например, Массачусетская машина. — Альпа покивал. Горбовский обратился к нему. — Вы, конечно, должны помнить. Сейчас о ней вспоминают редко. Угар кибернетики прошел.
— Ничего не могу вспомнить о Массачусетской машине, — сказал Банин. — Ну, ну?
— Знаете, это древнее опасение: машина стала умнее человека и подмяла его под себя… Полсотни лет назад в Массачусетсе запустили самое сложное кибернетическое устройство, когда-либо существовавшее. С каким-то там феноменальным быстродействием, необозримой памятью и все такое… И проработала эта машина ровно четыре минуты. Ее выключили, зацементировали все входы и выходы, отвели от нее энергию, заминировали и обнесли колючей проволокой. Самой настоящей ржавой колючей проволокой — хотите верьте, хотите нет.
— А в чем, собственно, дело? — спросил Банин.
— Она начала вестисебя, — сказал Горбовский.
— Не понимаю.
— И я не понимаю, но ее едва успели выключить.
— А кто-нибудь понимает?
— Я говорил с одним из ее создателей. Он взял меня за плечо, посмотрел мне в глаза и произнес только: «Леонид, это было страшно».
— Вот это здорово, — сказал Ганс.
— А, — сказал Банин. — Чушь. Это меня не интересует.
— А меня интересует, — сказал Горбовский. — Ведь ее могут включить снова. Правда, она под запретом Совета, но почему бы не снять запрет?

Стругацкие, "Далекая Радуга" (1962-64)

К счастью, или наоборот, реальность оказывается несколько иной.

Пользователи задают очередной каверзный вопрос БЯМ
Пользователи задают очередной каверзный вопрос БЯМ

И содержание новостных лент гораздо ближе к описанному К.И. Чуковским в стихотворении «Телефон»

“И такая дребедень
Целый день:
Динь-ди-лень,
Динь-ди-лень,
Динь-ди-лень!
То тюлень позвонит, то олень…”

Меж тем в замке у шефа

Большинство существующих решений, помогающих использовать ИИ в найме, нередко создают новые проблемы, а не решают старые...
Ожидалось, что ИИ сделает подбор персонала быстрее и справедливее. Но вместо этого получилась система, в которой резюме читает машина, отклики уходят в никуда, а перспективные кандидаты остаются невидимыми, потому что алгоритм не нашел нужное ключевое слово в их резюме.

Теги:
0
Комментарии0

Тестирую DeepSeek V4 Pro, DeepSeek V4 Flash и другие

На что можно потратить субботу
На что можно потратить субботу

24 апреля DeepSeek выпустил новые модели: DeepSeek V4 Pro и DeepSeek V4 Flash. А вчера, 25 апреля, так уж получилось, я тестировал для своего проекта текстовые модели. Полюбившийся мне DeepSeek 3.2 сбоил, и я решил выбрать ему замену. Так случайно я грохнул почти весь выходной день на тест.

Все API-запросы отправлялись через OpenRouter. Prompt был единым для всех запросов. Единственное, что менялось, это сами модели. Результаты вы можете увидеть в таблице выше.

В промпте LLM ставилась цель выдать свое экспертное мнение по шахматной партии. Задача реальная и для моего проекта нужная. То есть, это не тест ради теста. Ответ ожидался в виде json-файла. Обычный бейзлайн, ничего особенного. Казалось бы, несложная задачка, но мозг DeepSeek 3.2 явно взорвался, потому что раз за разом он присылал сломанный json. Конечно, можно было провалидировать и отправить на исправление, но и с этим у него были сложности. В таблице написано, что было 2 вызова, но правильнее было написать 2 часа мучений с 3.2 версией с разными провайдерами.

Таблица содержит только технические показатели. А что же с качеством? Насколько удовлетворен запрос бизнес-задачи? И вот здесь собака и порылась.

Знаете, я не ожидал Отлично. Это не могло быть в принципе. Очень хотелось верить в Хорошо, как возможное чудо от какой-нибудь GPT-5.5. Но максимум был получен Удовлетворительно и только у двух других моделей. А НЕУД у всех остальных.

Лучшие модели Anthropic и OpenAI нагородили разной чуши, но весьма складно и много. За что получили бан - НЕУД. Claude Opus 4.7 отстой. GPT-5.5 не завелась, а ее замена и моя надежда GPT-5.4 оказалась лучше антропиковского Опуса, но стреляла много и по большей части в молоко. И, заметьте, это самые дорогие модели!!!

Удовлетворительно себя показали DeepSeek V4 Pro и Gemini 3 Flash Preview от Google. Первая слишком медленная, больше 800 секунд. Поэтому победителем была выбрана более дешевая и самая быстрая гугловская модель. Согласитесь, 63 секунды удовлетворительного качества меньше, чем за 4 рубля, это же считай отлично.

Gemini 3 Flash Preview - фаворит нашего субботнего забега. Сказать, что я был сильно удивлен, ничего не сказать.

Безусловно, у каждого из нас свои задачи, сферы применения и требования. Они разные, а поэтому и модели могут вести себя по-разному. Где-то лучше, где-то хуже. Полученные мной результаты выше справедливы для моей узкой задачи, но для ваших задач эти же модели могут показать себя совершенно иначе.

Я позволил себе быть весьма эмоциональным. Воскресенье, имеют право. Я там прошелся по 5.5 и 4.7. Но реальность такова, что я программирую на Codex и Claude Code с помощью моделей GPT-5.5 и Opus-4.7 и очень ими доволен. Они отлично работают для меня в программировании, но не сработали в моей прикладной задаче. C'est la vie, такова жизнь.

Ваш Эдуард Ланчев, тестировщик-эспериментатор выходного дня.

LanChess - проект, над которым я работаю.
Вайбкодинг по Chess’ноку. 1. e4 - статья о проекте.
Ланчев ПРО ИИ - мой блог в телеграме.

Теги:
+1
Комментарии4

Открытый проект Translate Books with LLMs позволяет быстро переводить целые книги или большие на разные языки. Проект использует ChatGPT, Gemini, Mistral и DeepSeek. Можно запускать переводчик локально через Ollama. Принимает любые типы файлов: EPUB, SRT, DOCX, TXT. Сохраняет форматирование. Переводит файлы на огромное количество языков и знает русский. После перевода также еще раз проходит по тексту для литературной шлифовки и комфортного чтения.

Теги:
+11
Комментарии11

Дратути

Я слегка поиздержался в последнее время, так что готов заняться грязной работёнкой — писать статьи за деньги

Если вам надо пропиарить свой проект, раскачать корп блог, или просто привлечь внимание к чему-то важному — можете на меня положиться. Десять, сорок, а то и сотню тысяч просмотров сделаем

Да, недёшево, зато быстро и хорошо

Кроме того, можем обсудить рекламу в моих соцсетях, на круг у меня пара сотен тысяч подписчиков на разных платформах, и все они айтишники

Пишите в личку, или в телегу https://t.me/fillpackart

Теги:
+24
Комментарии5

Появилось видео, как житель Франции заработал $34 тыс. у Polymarket, нагрев градусник феном в парижском аэропорту. Букмекеры фиксировали температуру по одному незащищённому градуснику: 15 апреля было 18°C, но он нагрел его феном до 22°C и забрал выигрыш. Рынок погоды на Polymarket фиксировал по одному из градусников Météo-France, которые стоят вблизи аэропортов без охраны. Теперь рынки начали считать по градуснику из другого аэропорта, а у термометра всегда дежурит пара охранников.

Теги:
+1
Комментарии1

Оптимизация контекста для Claude Code на большом проекте (иногда и 50% экономия токенов)

Работаю над большим C++ проектом - реализация сетевого протокола. Использую Claude Code как основной инструмент. Со временем заметил: каждый новый чат начинается с того, что агент долго читает README.md, который разросся до 1000+ строк и 60 КБ.

Проблема

В CLAUDE.md была прописана команда читать README.md в начале каждого диалога, агенту нужно дать контекст проекта. Пока проект был небольшим это работало нормально. Но README рос вместе с проектом и в итоге стал содержать всё: архитектуру, логику DTLS, настройки веб-интерфейса, описание протокола, инструкции по сборке.

И как результат:

  • Агент тратит тысячи токенов на анализ файла до начала работы

  • Если задача касается только фронтенда, модель всё равно загружает детали реализации ядра протокола. Лишний контекст снижает точность ответов.

Решение

Вместо одного большого файла использовать иерархию маленьких, в отдельной папке claude-context/:

claude-context/
├── context-claude.md       # общая архитектура и навигация (~90 строк)
├── context-AC-claude.md    # Access Controller
├── context-WTP-claude.md   # WTP Agent
├── context-WEB-claude.md   # Web Interface
└── context-TESTS-claude.md # тесты

Главный файл context-claude.md содержит краткое описание проекта и таблицу-навигатор: какой файл читать для какой области. В дочерних файлах описана детализация по модулям, каждый 100-130 строк.

Инструкция в CLAUDE.md теперь выглядит так:

“Start each new conversation by reading claude-context/context-claude.md. For deeper context on specific areas, read the relevant file from that directory.”

Агент читает главный файл (90 строк), понимает область задачи, подгружает только нужный дочерний контекст.

Замер

Чтобы проверить эффект, я поставил Claude одну и ту же задачу в двух разных конфигурациях:

“Добавь тесты для WtpConfigController и WtpRadioController, проверь что если WTP address не строка, то возникает исключение std::runtime_error”

| Параметр             | README.md (60 КБ) | Иерархический контекст | Разница  |
| :------------------- | :---------------- | :--------------------- | :------- |
| Токены на сообщения  | 36.8k             | 17.6k                  | -53%     |
| Всего токенов        | 56.7k             | 37.6k                  | -34%     |
| Рост usage за задачу | +11%              | +6%                    | В 2 раза |
| Скорость анализа     | Заметная пауза    | Почти мгновенный старт |          |

Важный момент

README.md остался нетронутым - это документация для людей. Файлы в claude-context/ - отдельный артефакт, написанный под AI: плотно, без лирики, с ASCII-схемами и таблицами. Я старался не смешивать два разных назначения в одном файле.

При небольшом проекте в этом подходе смысла нет, накладные расходы на поддержку двух наборов документации не оправдаются.

Теги:
+3
Комментарии8

Препарируем Lit и находим родовые травмы

Задействованы самые современные веб-стандарты, однако:

  • Заявляется отсутствие VDOM, однако он есть, со всеми вытекающими.

  • Любое исключение капитально ломает весь компонент.

  • Неизбежные конфликты имён компонент всё ломают.

  • Адовые тормоза и потребление памяти из-за привязки к DOM.

  • Тонны бойлерплейта, если нужна кастомизация хотя бы стилей компонент.

Поблагодарить: https://boosty.to/hyoo
Обсудить: https://t.me/giper_dev

Теги:
+5
Комментарии1

🌲 Открываем регистрацию на Дебаг Кемп

Мы придумали формат, который давно хотели сами: выбираешься из города, два дня в сосновом лесу на Карельском перешейке — маршрут, костёр, мастер-классы по выживанию, нетворкинг без слайдов и питчей. Просто люди, с которыми интересно, и никакого Slack-а.

📅 6–7 июня 2026 (выходные) 👥 Всего 25 мест — маленький формат, это принципиально.

Цена растёт по мере приближения к дате. Оплатить можно частями через сплит → регистрация

Если вы 💎 практик сообщества — скидка 15% применяется при регистрации автоматически. Ещё не практик, но думаете? Сейчас самый разумный момент.

👀 Узнать больше · 📝 Регистрация

Вопросы — в чат, мы там живём.

Теги:
-4
Комментарии0

Открытый проект Viseron улучшает поток от обычных видеокамер с помощью нейросетей:

  • запись включается только в момент происшествия. Например, в кадре прошёл человек или животное;

  • умеет распознавать лица и объекты;

  • может собрать в одну сеть камеры от разных брендов;

  • все данные сохраняются локально;

  • поддерживает все популярные бренды: Hikvision, Dahua, Reolink и другие;

Теги:
0
Комментарии2

Оказывается, многие не знают как на телефоне смотреть YouTube без рекламы и без платной подписки. А всё очень просто:

  • Устанавливаете Brave Browser

  • Открываете приложение YouTube, листаете ролики, находите то что вам хочется посмотреть

  • Нажимаете на "Share/Поделиться" (эта кнопка есть и на основной странице видео, и в меню из "трёх точек" над каждым видео в списках) и выбираете среди приложение Brave Browser

  • Наслаждаетесь просмотром видео без рекламы

Brave так же продолжает проигрывать видео в фоновом режиме, когда активно другое приложение, и даже когда отключен экран телефона. А если залогиниться под своей гугл учёткой — то конечно можно и лайкать, и комментировать, и видеть свои подписки и рекомендации.

Теги:
+1
Комментарии2

TON Smart Contracts: базовый минимум за 5 минут

Если бы я наткнулся на эту статью в самом начале работы с блокчейном ТОН, это бы сэкономило мне кучу времени на понимание архитектуры и принципов работы смарт контрактов.

Что такое смарт контракт с точки зрения разработчика.

Я постараюсь уберечь вас от терминологии блокчейна, вместо этого на пальцах показать из чего состоит смарт контракт и как его собрать. Если говорить совсем просто, то смарт контракт - это ячейка в памяти, хранящая в себе:

  • Адрес

  • Баланс

  • Любые данные, которые вы туда запишите

  • Код смарт контракта

  • Текущий статус смарт контракта

Ну или если перевести вышесказанное в код, то:

class SmartContract{ 
   readonly address: string; 
   readonly balance: number; 
   readonly code: string; 
   readonly status: 'uninitialized' | 'active' | 'frozen'; 

   storage: object; 
   ... 
}

Плавное погружение...

Представьте, вы написали код класса на своем любимом языке программирования, как полагается, с полями и методами, и превратили этот код в строку. Code - это и есть код вашего смарт контракта. Он будет выполняться в блокчейне. Точкой входа в таком коде будет метод onInternalMessage или onExternalMessage. Чтобы состояние полей класса можно было сохранять и перезаписывать, к смарт контракту прилагается объект Storage , в котором хранятся значения ваших полей.

При сохранении смарт контракта в блокчейн вы отправляете { code, data } , где code - это код вашего смарт контракта, data - начальные данные. По этим двум полям вычисляется будущий адрес смарт контракта: address = hash({ code, data }). По этому адресу будет доступен ваш смарт контракт в блокчейне ТОН. На него можно совершать переводы, просматривать историю транзакцию, с него может переводить средства и вызывать другие смарт контракты.

Как происходит деплой смарт контракта.

Каждый смарт контракт платит немного комиссии по факту своего существования, в пример вспоминается налог на недвижимость. Чем больше жилплощадь - тем больше налог. Но в рамках ТОН вы платите за количество данных, которое хранит ваш смарт контракт, включая сам код вашего смарт контракта. Поэтому при создании на нем должно лежать как минимум чуть-чуть ТОН(как правило копейки). Создать смарт контракт можно 2 способами:

1) Другой смарт контракт делает перевод ТОН, прикрепляя код вашего смарт контракта вместе с начальными значениями(data) в поле Init = { code, data }. Блокчейн видит в переводе это поле и автоматически делает деплой. Статус смарт контракта становится "active".

2) Другой смарт контракт так же делает перевод ТОН, но только не прикрепляя ничего. В таком случае средства останутся висеть на адресе пустого смарт контракта, который будет выглядеть примерно так:

{ 
   "address": "401bf...3004", 
   "balance": 3000, 
   "code": "", 
   "storage": {}, 
   "status": "uninitialized" 
}

Он ждет внешнее сообщение, где в него передадут код и начальные данные таким образом, чтобы address = hash({ code, data }), только тогда он сохранит код и сможет выполняться. Для вызова внешнего сообщения используется обычное API, где передается адрес и Init = { code, data } . Запрос сначала попадет в блокчейн, после чего при совпадении адреса address = hash({ code, data }) произойдет деплой, и статус станет "active".

Заключение

В этой статье мы с вами закрепили азы архитектуры блокчейна ТОН, где каждый адрес является адресом смарт контракта. Разобрали структуру и механику создания. Рады вашему фидбеку или вопросам! Следите за нашими анонсами и новостями в Telegram.

Теги:
+2
Комментарии4

DeepSeek V4: 8 технических инноваций, de-NVIDIAfication и что это значит для рынка

Вчера OpenAI выпустил GPT-5.5. Сегодня DeepSeek выложил V4 – открытые веса, MIT-лицензия, 1М токенов контекста. Тайминг, конечно...

8 технических инноваций

Техническое описание V4 впечатляет не столько отдельными решениями, сколько плотностью инноваций – DeepSeek упаковал в один релиз больше новых техник, чем большинство лабораторий выпускают за год. Не все из них обязательно окажутся одинаково эффективными, но уровень инженерной амбиции – зашкаливающий.

1. Гибридное внимание (CSA + HCA)

Классический механизм Attention был серьёзно доработан. Теперь используется комбинация Compressed Sparse Attention и Heavily Compressed Attention, заменившая Multi-head Latent Attention из V3 и DeepSeek Sparse Attention из V3.2. У этого есть свои ньюансы и "цена". Эксперты пишут, что это может серьезно влиять на применимость модели в задачах с легаси кодом, так как компрессия контекста будет приводить к тому, что Дипсик 4 сможет корректно работать только с тем, кодом, который написал сам, а на легаси могут быть сюрпризы.

Результат: на окне в 1 миллион токенов модель потребляет лишь 27% вычислений и 10% памяти (KV-кэша) по сравнению с V3.2. Читать целые кодовые базы и книги стало экстремально дешево.

2. Оптимизатор Muon на триллионном масштабе

Индустрия привыкла к оптимизатору AdamW – он де-факто стандарт для обучения трансформеров. DeepSeek перевёл большую часть параметров на Muon – это первый публично известный случай применения Muon на модели масштаба 1.6T параметров.

Muon дал более быструю сходимость и стабильность при обучении гигантской MoE-архитектуры. Ранее он валидировался только на существенно меньших масштабах.

3. Гиперконнекции (mHC)

Классические остаточные связи (residual connections) между слоями нейросети были заменены на Manifold-Constrained Hyper-Connections. С помощью проекции на многообразие Биркгофа через итерации Синкхорна–Кноппа они устранили риск того, что сигналы "взорвутся" при обучении очень глубокой сети – проблему, которая убивала предыдущие попытки сделать обучаемые остаточные связи.

Накладные расходы: всего ~6.7% дополнительных вычислений. Техника была впервые опубликована DeepSeek в январе 2026 года.

4. Слияние знаний через On-Policy Distillation (OPD)

Вместо того чтобы в конце обучать модель всему одновременно (что приводит к размыванию компетенций), авторы пошли двухэтапным путём:

  1. Сначала обучили 10+ узких ИИ-экспертов (отдельно математик, отдельно кодер, отдельно логик и т.д.) через SFT + GRPO (reinforcement learning).

  2. Затем через On-Policy Distillation аккуратно "перелили" знания каждого эксперта в единую финальную модель.

Это устранило проблему, когда знания из одной области мешают другой – так называемое cross-domain interference.

5. Генеративный судья (GRM)

Для обучения сложным задачам DeepSeek отказался от классических скалярных "оценщиков" (как в стандартном RLHF). Вместо числовой оценки "хорошо/плохо" модель теперь сама текстово анализирует свои шаги – Generative Reward Model. Это качественно более богатая обратная связь при обучении.

6. Три режима мышления "из коробки"

Глубиной рассуждений модели можно управлять:

  • Non-Think – быстрый интуитивный ответ

  • Think-High – вдумчивый анализ

  • Think-Max – "выжми педаль в пол": модель расписывает все гипотезы, ищет краевые случаи и доказывает свой ответ (требует ≥384K контекста)

Think-Max – это режим, в котором DeepSeek замеряет свои лучшие бенчмарки. На HLE он поднимает score с 34.5 до 37.7, на SimpleQA-Verified – с 46.2 до 57.

Теги:
+3
Комментарии17

Про книжки, из Книжного стека.

«Хватит мечтать, займись делом! Почему важнее хорошо работать, чем искать хорошую работу» Кэл Ньюпорт

Отличная книга, при случае рекомендую всем знакомым. Особенно программистам, выбравшим стратегию почаще менять работу, нигде подолгу не задерживаясь и ничему особо не учась.

Меня зацепило, наверное, то, что автор изложил стратегию, похожую на предложенную мной в статье «Комплект увольнения» — на каждой работе, должности, проекте нужно стремиться получить максимум разнообразного опыта. Потому что этот опыт останется с тобой, в отличие от заработанных денег, должности и положения в конкретной организации.

Автор книги выразил ту же мысль лучше, даже показатель придумал — «карьерный капитал». Который, собственно, и надо копить. И на его увеличении сосредоточиться. Глаз немного цепляется за слово «карьерный», как будто речь о должности или положении — не обращайте на это внимания, просто слово не очень удачное выбрано. Или переводчики не нашли более подходящего.

Короче, книга прекрасная. Помогает расставить приоритеты, сосредоточиться на том, что точно важно и не пропадёт даром.

С моим опытом эта книга коррелирует процентов на 100. Изложенные в ней подходы к работе — моя карьерная стратегия как минимум уже лет 10. Где бы ты ни работал, чем бы не занимался — всегда думай, в первую очередь, о своём опыте и связах. Ничего другого ты на новую работу с собой не утащишь.

Тех же, кто концентрировался не на своём опыте, не на реальных навыках, не на результатах, а на текущем положении, возможности «войти в айти» и заработать на волне, вы можете наблюдать прямо сейчас на рынке труда. Если верить эйчарам, то ситуация там такая: кандидатов — толпы, а работать — некому. Потому что не научились, а не научились — потому что не учились. Работали на высоком рынке, рынке продавца, и думали, что так будет всегда.

Мы с Кэлом Ньюпортом утверждаем 😊: рынок труда будет постоянно меняться, а вечные ценности остаются.

Теги:
+2
Комментарии2

Ближайшие события

Привет! Если мы еще не знакомы - я пишу в основном о том, как попытаться определить грейд разработчика не привлекая его на множество собеседований.
Если Вы - .Net-разработчик, буду признательна, если пройдете этот опрос с небольшим заданием на кодинг. Ваши ответы позволят мне понять, правильно ли я двигаюсь и верные ли инструменты использую. Чем больше ваших ответов - тем проще будет мне)
Заранее спасибо!

P. S. Прекращаю рассылку ответов, спасибо всем, кто участвовал! Но если хотите помочь исследованию - буду благодарна за новых респондентов) (можно написать в комментарии, если хотите получить результаты, но проверяйте, что доступ для сообщений открыт)

Теги:
+1
Комментарии1

Вы бы доверили “толпе” предсказание будущего?

Недавно залип на тему рынков предсказаний где люди ставят на исход событий, а в итоге получается некое “коллективное мнение” в цифрах.

Сначала относился скептически, но потом задумался:
если человек рискует деньгами (или хотя бы чем-то), он ведь будет думать чуть внимательнее, чем просто “мне кажется”.

Посмотрел ради интереса разные платформы, включая одну под названием Globet Market и там довольно наглядно видно, как меняется вероятность событий со временем.

Иногда это выглядит логично, а иногда как чистая реакция толпы.

И вот не понимаю до конца:
это реально более точный способ оценки
или просто красиво оформленная версия “угадайки”?

Как думаете?

Теги:
+2
Комментарии6

В облачной и серверной версиях Диска VK WorkSpace реализованы новые возможности для повышения защищенности и восстановления корпоративных данных: расширенные аудит и поиск по общим папкам, а также корзина домена. Обновления позволяют компаниям отслеживать действия администраторов и оперативно восстанавливать удаленную информацию. 

Благодаря расширенному аудиту система более прозрачно и понятно для наблюдателя ИБ отображает действия администраторов, которые вошли от имени пользователя. Это упрощает расследование инцидентов и обеспечивает соответствие корпоративным регламентам и стандартам.

В Диске VK WorkSpace появилась корзина домена. Если пользователь удаляет файлы или папки из общей папки, они отправляются в корзину домена. Время хранения в корзине устанавливает администратор. В этот период он может восстановить папку со всем содержимым и правами доступа или удалить окончательно. Также администраторы получили доступ в корзины общих папок. Например, если бухгалтер по ошибке удалил квартальную отчетность из общей папки, она попадет в корзину общей папки, откуда можно будет ее восстановить ее за пару кликов.

Администраторам стал доступен расширенный поиск по всем общим папкам Диска. Если сотрудник потерял файл, администратор сможет его найти. Папки можно искать по названию, файлы — по названию, формату, автору, дате создания или изменения и размеру. В облачной версии Диска также можно удалять папки и файлы из результатов расширенного поиска.

Теги:
+1
Комментарии0

Почему у нас открыто десятки вкладок и это почти никогда не помогает

Поймал себя на банальной, но показательной вещи: в какой-то момент у меня в браузере было открыто больше 40 вкладок. Причём не потому, что они реально нужны просто «на потом».

Интересно, что почти у всех знакомых ситуация плюс-минус такая же. И это уже не просто привычка, а что-то вроде цифрового поведения по умолчанию.

Если посмотреть на это чуть шире, вкладки это по сути внешняя память. Мы открываем страницу не потому, что прямо сейчас её читаем, а чтобы «не потерять». То есть перекладываем задачу с мозга на браузер.

Но тут есть нюанс.

По разным опросам и исследованиям поведения пользователей:

  • значительная часть открытых вкладок никогда не пересматривается

  • люди регулярно держат открытыми десятки страниц, но активно используют только 3–5

  • визуальный перегруз (много вкладок) снижает концентрацию и увеличивает ощущение хаоса

И это ощущается на практике. Когда открыто 5 вкладок ты понимаешь, что делаешь. Когда их 30+ ты уже просто переключаешься между ними без системы.

Получается странный эффект:
мы открываем вкладки, чтобы быть более продуктивными, но в итоге создаём себе дополнительный шум.

Ещё интересный момент психологический.
Открытая вкладка даёт иллюзию прогресса. Типа: «я уже начал разбираться». Хотя по факту просто отложил решение.

Это чем-то похоже на список дел, в котором задачи не выполняются, а просто копятся.

Лично у меня есть два сценария:

  1. Либо я закрываю всё разом (и половину даже не открываю перед этим)

  2. Либо продолжаю накапливать, пока браузер не начинает тормозить

И оба варианта, если честно, далеки от идеала.

Интересно, что с этим делают другие:

  • кто-то принципиально держит не больше 5–10 вкладок

  • кто-то использует “read later” сервисы

  • кто-то вообще работает в одном окне и всё остальное закрывает

Но универсального решения, кажется, нет.

Вопрос скорее в другом:
мы правда работаем с информацией или просто создаём её иллюзию?

Теги:
+2
Комментарии9

ИИ что? Проверяем Semantic Kernel

Проекты, связанные с интеграцией искусственного интеллекта, всё чаще становятся частью повседневной разработки. Один из таких проектов — Semantic Kernel. Он представляет собой SDK для построения AI-агентов и оркестрации LLM-сценариев и активно развивается компанией Microsoft.

Однако под капотом даже самых современных решений скрывается вполне обычный C# код со всеми присущими ему проблемами. Поэтому мы проверили проект и написали статью о самых интересных ошибках в коде Semantic Kernel.

Теги:
+3
Комментарии0

Освойте навыки, которые сейчас нужны рынку — со скидкой в апреле

Рынок меняется быстрее, чем успевают обновляться резюме. Чтобы не догонять, а двигаться наравне, важно учиться на актуальных инструментах и практиках — тех, которые уже используются в работе.

В Яндекс Практикуме мы регулярно обновляем программы: добавляем работу с нейросетями, пересматриваем стек и усиливаем практическую часть, чтобы знания можно было применять сразу, а не «когда-нибудь потом».

До 30 апреля действует скидка 15% на все курсы — можно выбрать направление и начать обучение на более выгодных условиях.

Если давно откладывали переход в новую сферу или хотели прокачать навыки — это хороший момент, чтобы начать.

Выбрать курс и забрать скидку →

Теги:
+1
Комментарии0

В предыдущих постах Разбираемся в in-memory базах и Выбираем базу и думаем о данных.

Взлетаем, создал репозиторий под проект https://github.com/mathter/memifydb.git

План

План общий такой:

  • Изначально строю некоторый каркас, который буду достраивать и наполнять содержанием. Это будет удобно для прототипирования.

  • Для работы с данными создам некоторый дополнительный уровнь абстракции, что бы не привязываться к конкретному формату данных/библиотеке и менять его налету для сравнения.

Сделано

  • Данные клиента будут храниться в space’ах - это будет аналог таблиц в БД. Для начала будет только key-value space что бы можно было подумать уже сейчас о WAL клиенской библиотеке для java и сетевом уровне в целом и конечно же о транзакциях.

  • Тестовая реализация WAL, которая в проекте будет называться Log.

Run.

Теги:
0
Комментарии0