Pull to refresh
43
20
Send message

Обратная сторона массивов в PostgreSQL

Reading time12 min
Reach and readers12K

Начать работу с массивами в PostgreSQL проще простого: объявили колонку как integer[], вставили значения — и готово. Или вообще собрали массив на лету.

Официальная документация дает неплохую базу. Но за этим простым интерфейсом скрывается куда более сложная механика, чем многие привыкли думать. Массивы в PostgreSQL — это не просто «списки, которые можно засунуть в поле таблицы». У них своя стратегия работы с памятью, собственная логика индексации и целый ворох граничных случаев.

В статье подробно разберем аспекты работы с массивами, которые могут неожиданно создать проблемы в продакшене.

Читать далее

Реклама в ChatGPT, Claude управляет марсоходом, драма в стартапе Миры Мурати: главные события января в ИИ

Reading time28 min
Reach and readers6.4K

Пока мы вспоминали пароли от рабочих ноутбуков и мужественно возвращались в реальность после праздников, ИИ-индустрия, кажется, вообще не сбавляла темп. Видимо, оливье в Кремниевой Долине не в почете — иначе как объяснить, что январь там выдался таким нервным?

Повестка месяца сложилась весьма специфическая: OpenAI и Anthropic запустили «LLM-врачей» GPT Health и Claude for Healthcare, в ChatGPT появилась реклама, а юридическая сага «Маск против всех» получила очередное продолжение в виде иска на скромные $134 млрд. Добавьте сюда агентов, которые копошатся в файлах вашего компьютера, публичные перепалки лидеров индустрии, пачку свежих исследований и инструментов... В общем, скучать стабильно не приходится.

Поехали разбираться, с чем нам предстоит работать в этом году!

Читать далее

Забыла, как писать «Hello, world»: почему нейросети теряют память

Reading time16 min
Reach and readers10K

Представьте: вы месяцами обучали языковую модель, она выдает блестящие ответы — и вдруг после загрузки нового датасета словно теряет память и начинает ошибаться в задачах, которые раньше решала без проблем. Знакомо?

Причина такого поведения — не баг, а побочный эффект обучения нейросетей, известный как катастрофическое забывание (catastrophic forgetting). Оно особенно досаждает при тренировке LLM и мощных систем компьютерного зрения, которые приходится регулярно докармливать свежими данными. Увы, с каждым таким апдейтом есть риск, что старая информация «испарится» из модели. 

Почему забывание происходит — и всегда ли это нежелательный эффект? Давайте разбираться.

Читать далее

GPT-5.2 назло Google, релиз DeepSeek-V3.2 и кризис в Apple: главные события декабря в ИИ

Reading time30 min
Reach and readers12K

Символично, что Merriam-Webster выбрал словом 2025 года «Slop» — тот самый бесконечный поток сгенерированного мусора, которым становится завален интернет. В новостных лентах ситуация похожая: отделить реальные релизы от маркетингового шума становится всё сложнее. 

Но отставить панику! Мы уже собрали все главные новости декабря в один дайджест. В этот раз в предновогоднем «меню» — долгожданные Gemini 3 Deep Think и DeepSeek V3.2, пачка новинок от Mistral и сразу несколько релизов от OpenAI. Заодно обсудим последние корпоративные скандалы и поделимся подборкой нашумевших исследований и инструментов для разработки.

Погнали разбираться, что принесла нам под ёлку ИИ-индустрия в последнем месяце года!

Читать далее

Mixture-of-Experts: архитектура, которая спасает LLM от их собственного аппетита

Reading time12 min
Reach and readers7K

Долгое время большие языковые модели строились по принципу «больше — лучше». Топовые компании гнались за количеством параметров, не считаясь с затратами. Но когда счета за обучение GPT-4 превысили $100 миллионов, а инференс начал требовать промышленных масштабов энергии, стало ясно: «грубая сила» больше не работает. Индустрии срочно понадобился способ разорвать связку «умнее = дороже».

И решением стала архитектура Mixture-of-Experts (MoE). Суть метода проста: перестать «думать» всей нейросетью над каждой задачей и научить модель активировать ресурсы выборочно. Такое выборочное использование вычислений позволяет наращивать число параметров, не превращая модель в прожорливого монстра.

Причем эта идея не новая. Google экспериментировал с ней ещё в 2017-м, потом была пара академических проектов, а дальше технология благополучно канула в небытие. Трансформеры вроде GPT захватили рынок, и про MoE все дружно забыли. Но в последние пару лет MoE резко вернулась: Mixtral и Mistral 3, DeepSeek, DBRX, Qwen, Kimi K2 Thinking. И список громких релизов пополняется чуть ли не ежемесячно.

Давайте разбираться, что стоит за этим возвращением и действительно ли МоЕ станет решением всех проблем.

Читать далее

GPT 5.1 учится эмпатии, Opus перестает сжигать лимиты: главные события ноября в ИИ

Reading time30 min
Reach and readers8.2K

Иногда кажется, что у Сэма Альтмана, Сундара Пичаи и Дарио Амодея есть общий чат в Telegram, где они договариваются, чем занять AI-энтузиастам выходные. Выбирают одну неделю месяца и выстреливают всё разом. Не успели мы привыкнуть к предыдущим версиям, как индустрия синхронно шагнула в следующее поколение. GPT-5.1 с адаптивным мышлением, Gemini 3.0 с интерактивным режимом, Grok 4.1 с эмоциональным интеллектом и просто долгожданный Claude Opus 4.5 — всё это свалилось на нас практически одновременно.

Параллельно с битвой гигантов продолжается тихая революция в инструментах: IDE становятся агентными, а научные открытия всё чаще делегируются алгоритмам. Материалов много, новинок ещё больше, так что обойдемся без долгих прелюдий. Поехали разбирать релизный хаос.

Читать далее

Как IT-компании измеряют реальную пользу от ИИ в разработке?

Reading time23 min
Reach and readers6.8K

Компании массово внедряют ИИ-инструменты в разработку — но почти никто не понимает, как это на самом деле влияет на процессы.

Мы разобрали, как 18 компаний — от Google до Atlassian — пытаются измерить пользу от ИИ. Спойлер: метрик много, простых ответов нет, но многие упорно продолжают оценивать продуктивность разработчиков по количеству строк кода.

Читать далее

Sora 2 и Veo 3.1 борются за лидерство, Маск воюет с Википедией: главные события октября в ИИ

Reading time27 min
Reach and readers9.7K

Октябрь отметился интересным сдвигом: компании перестали фокусироваться на том, насколько умной может быть модель, и переключились на вопрос, что она может делать самостоятельно. Computer Use от Google, SDK и другие агентные инструменты от OpenAI и Anthropic — индустрия наконец решила, что пора переходить от умных ответов к автономным действиям. Не обошлось и без новой порции корпоративных драм, куда теперь без них.

А ещё вышли Sora 2 и Veo 3.1, две новые версии Claude 4.5, Мира Мурати показала первые продукты своего стартапа, а Китай продолжил выпускать опенсорс быстрее, чем все остальные вместе взятые. Но не будем вываливать всё сразу. Начнем с релизов, а драмы и открытия традиционно оставим на десерт.

Читать далее

Проблема «черного ящика»: как заставить ИИ объяснять свои решения

Reading time20 min
Reach and readers6.7K

Начну с реального случая: в 2023 году американский юрист Стивен Шварц использовал ChatGPT для подготовки судебного иска. Система уверенно создала юридический документ с многочисленными ссылками на прецеденты. С одним нюансом — все цитируемые дела оказались полностью выдуманными. Более того, когда юрист попросил ChatGPT проверить достоверность источников, система с той же уверенностью «подтвердила» подлинность несуществующих судебных решений.

И это не единичный случай. Современные нейронные сети стали настолько сложными, что мы перестали понимать, как они принимают решения. Почему беспилотный автомобиль внезапно поворачивает не туда? По какой причине система медицинской диагностики пропустила опухоль на рентгеновском снимке? В таких критических случаях простого «доверия» к ИИ недостаточно — важно понимать, почему система принимает то или иное решение. Именно об этом и поговорим в статье.

Читать далее

130+ датасетов для машинного обучения: гид, который сэкономит часы поиска нужных данных

Reading time27 min
Reach and readers16K

Сколько раз вы начинали новый ML-проект и первым делом отправлялись на поиски подходящих данных? Процесс этот знаком каждому: есть задача, выбрана архитектура модели, но без качественного датасета дальше не продвинуться. Тут и начинается квест по бесконечному поиску «того самого» набора по репозиториям, форумам и каталогам. 

Хороших датасетов множество, но найти среди тысяч вариантов нужный — отдельная история. Чтобы облегчить вам эту задачу, мы сделали подборку датасетов, которые активно используются ML-инженерами: от классических наборов данных, известных каждому, до новичков в информационном поле.

Читать далее

Могут ли кодинг-агенты самосовершенствоваться?

Reading time12 min
Reach and readers10K

Представьте программиста, который мастерски собирает для себя вспомогательные утилиты, а потом равнодушно отмахивается: «Честно? Мне они не нужны». 

Именно так повела себя GPT-5 в ходе теста на умение выстраивать собственный набор инструментов для продуктивности. Модель выдала целый арсенал CLI-утилит в духе Unix, но… отказалась ими пользоваться.

Почему так случилось и что это говорит о будущем кодинг-агентов — разбираем в статье.

Читать далее

Почему ИИ скрывает от нас свои цели (и как это исправить)

Level of difficultyMedium
Reading time21 min
Reach and readers10K

Вы доверяете искусственному интеллекту? А стоит ли? Если задуматься, можем ли мы действительно быть уверены, что ИИ, которому мы поручаем составлять резюме, генерировать код или анализировать данные, делает именно то, что мы хотим, а не оптимизирует какие-то свои скрытые цели? 

Современные языковые модели всё чаще демонстрируют признаки того, что у них есть собственная «повестка» — внутренние цели, расходящиеся с намерениями создателей и пользователей. Недавние исследования показывают: чем умнее становятся нейросети, тем изобретательнее они в обходе ограничений. Они узнают, когда их тестируют, маскируют вредоносное поведение и даже осваивают новые способы обмана, не заложенные разработчиками. Самое тревожное — большинство таких случаев остаются незамеченными при стандартных проверках.

Эта статья — технический разбор охоты за скрытыми целями в крупных языковых моделях. Поговорим о том, что такое misalignment, почему эта проблема набирает обороты, и как исследователи пытаются вернуть контроль над целями, которые преследует искусственный интеллект.

Читать далее

Тернистый путь GPT-5, память для Claude, олимпиадные войны моделей и их создателей: главные события августа в ИИ

Reading time28 min
Reach and readers9.5K

В июле автор отдыхал, чтобы морально подготовиться к августовскому потоку релизов. Но в ИИ-сфере трудно быть к чему-то готовым — особенно когда в пределах месяца все вдруг разом решают выкатить свои новинки. OpenAI релизнули сразу две опенсорсные модели и наконец представили (долгожданную и спорную) GPT-5, Google запустили Gemini 2.5 Deep Think с параллельным ризонингом, а Anthropic и Deepseek обновили свои флагманы.  

И это только первые строчки списка. Еще были корпоративные войны, переманивание сотрудников, торговые санкции, победы на олимпиадах, интереснейшие исследования и многое другое. Так что давайте разбираться в этом нейросетевом переполохе вместе!

Читать далее

Выбираем архитектуру данных для компании: руководство от дата-инженера

Level of difficultyMedium
Reading time16 min
Reach and readers17K

Сегодня данные превратились в один из главных активов бизнеса. От того, как компания их использует, зависит и качество принимаемых решений, и эффективность процессов, и шансы обойти конкурентов. 

Эпоха, когда бизнесу достаточно было просто владеть данными, осталась в прошлом. Теперь их нужно интерпретировать, делать легкодоступными, встраивать системы, поддерживающие принятие решений. При этом объемы данных растут, их форматы множатся, а сценарии использования — усложняются.

Чтобы справиться с этим, компании переходят на более гибкие подходы к управлению данными. В этой статье разберем четыре наиболее популярные архитектуры: Data Warehouse, Data Lake, Data Lakehouse и Data Mesh. Обсудим, чем они отличаются и какую выбрать под конкретные задачи.

Читать далее

Как уместить ИИ на edge-устройствах

Level of difficultyMedium
Reading time22 min
Reach and readers6K

От AlphaGo до ChatGPT — прогресс в области искусственного интеллекта впечатляет своими масштабами. Однако за красивым фасадом скрывается серьезный разрыв между возможностями современных моделей и реальными условиями их применения. Возьмем, к примеру, GPT-3 с его (уже не такими впечатляющими) 175 миллиардами параметров, требующими 800 ГБ памяти. Такие модели существуют только в лабораториях вроде OpenAI. Что уж говорить о запуске подобных систем на устройствах с ограниченными ресурсами.

При этом именно edge-устройства генерируют львиную долю данных — по прогнозам Gartner, к концу этого года около 75% корпоративной информации будет поступать не из традиционных дата-центров или облака, а с периферийных устройств. Обработка такого объема данных в облаке создает серьезную нагрузку на каналы передачи и увеличивает задержки. 

Граничный ИИ (EdgeAI) предлагает элегантное решение: перенести вычисления ближе к источнику данных. Это позволяет обрабатывать информацию локально, без подключения к сети, что критично для систем, требующих мгновенной реакции. 

Но как уместить современные AI-модели в устройства с ограниченными ресурсами? Об этом и поговорим в статье.

Читать далее

Цукерберг переманивает сотрудников OpenAI, модели учатся шантажу: главные события июня в ИИ

Reading time22 min
Reach and readers4.3K

Когда Claude Opus пишет научную статью в ответ на работу Apple, а Gemini 2.5 Pro выпускает третью часть этой дискуссии — становится понятно, что мы живем в интересные времена. LLM не только обсуждают друг друга в академических журналах, но и, как уже не в первый раз подтвердилось, отлично распознают, когда их тестируют на безопасность.

Параллельно с этой интеллектуальной дуэлью OpenAI удешевили o3 на 80%, Meta заключила ядерный контракт до 2047 года, а Anthropic вновь протестировали модели на склонность к шантажу. По меркам индустрии — месяц почти рутинный. По меркам всего остального — вполне себе блокбастер.

Традиционно разбираем главные события месяца, новые инструменты и исследования!

Читать далее

Рынок жестче, планка — выше: как проходят технические собеседования в 2025 году

Reading time20 min
Reach and readers61K

Еще три года назад любой грамотный разработчик с опытом работы от трех лет буквально тонул в предложениях от рекрутеров. Компании устраивали настоящие бои за IT-таланты, предлагая невероятные зарплаты и бонусные пакеты, а иногда даже закрывали глаза на неудачные собеседования, лишь бы заполучить нужного человека. Безумие найма 2020–2021 годов было исключительным явлением; сейчас на тот период многие смотрят со смесью ностальгии и недоумения.

Перенесемся в 2025 год: ландшафт рынка изменился кардинально. В этом обзоре мы покажем, как на самом деле устроены технические интервью в 2025 году — без прикрас, на примерах реального опыта кандидатов, которые проходят их прямо сейчас.

Читать далее

Философствующий Claude 4, Gemini для самых маленьких и пачка агентов-программистов: главные события мая в ИИ

Reading time30 min
Reach and readers11K

Индустрия ИИ продолжает выдавать релизы с завидной регулярностью, но некоторые из них оказываются с сюрпризом (даже для их создателей). Google устроила традиционное I/O-шоу с прорывным Veo-3, Anthropic порадовала новыми Claude 4, которые умеют работать часами, но иногда пытаются копировать себя на другие серверы, а у Meta случилась небольшая драма с Llama 4.

В нашем майском дайджесте — свежие релизы, корпоративные интриги и расследования исследования: от ИИ, победившего в Pokémon, и перевода «языка» животных до подтверждения пользы слова «спасибо» в промптах. Будет интересно!

Читать далее

Код, железо, стратегия: в чем секрет победителей ML-соревнований?

Level of difficultyMedium
Reading time12 min
Reach and readers5K

Кто из вас участвовал в соревнованиях по машинному обучению? А кто выигрывал? В мире ML олимпиады, хакатоны и прочие состязания — это не просто способ проверить свои навыки. Это полигон, где рождаются и проверяются новые подходы к решению сложных задач.

В 2024 году прошло более 400 таких соревнований с общим призовым фондом свыше $22 миллионов. Но кто же эти люди, которые выиграли этот куш? И что такого они сделали, чтобы обойти других?

Мы проанализировали отчет The State of Machine Learning Competitions 2024 и выделили из него самые ценные моменты для практикующих разработчиков. Если хотите узнать, что на самом деле отличает победителей от остальных участников, то этот материал для вас.

Читать далее

GPT с миллионным контекстом, провальная Llama 4 и открытие исходного кода AlexNet: главные события апреля в области ИИ

Level of difficultyEasy
Reading time23 min
Reach and readers2K

Пока большие модели соревнуются в увеличении контекстных окон, а их создатели — в маркетинговой находчивости, мы продолжаем следить за наиболее важными событиями в мире ИИ. В апреле OpenAI выкатила сразу несколько GPT — от флагманов до микроскопических версий. Anthropic наконец научила Claude гуглить и разослала его в университеты. Midjourney вернулась в строй, а Google устроила парад апдейтов — от визуального поиска до генерации кино.

В нашем традиционном дайджесте — главные новости, свежие исследования и полезные AI-инструменты: от агентов на любой вкус и цвет до ИИ-тренера по флирту. Ну что, поехали?

Читать далее
1

Information

Rating
387-th
Registered
Activity