
Я починил плохой перевод силами ИИ, написав расширение при помощи ИИ. И я удивлён, что до сих пор такого не сделали.
AI, ANN и иные формы искусственного разума
Я починил плохой перевод силами ИИ, написав расширение при помощи ИИ. И я удивлён, что до сих пор такого не сделали.
В первой части мы разобрали теорию text‑to‑SQL: как LLM заменяют разработчиков, почему RAG и CoT спасают от галлюцинаций и зачем Scale AI дообучает ChatGPT-4. Но теория неполна без практики! В этом материале — жёсткое тестирование моделей (ChatGPT o3-mini‑high, ChatGPT 4.1, Claude Sonnet 4, ChatGPT o3, Gemini 2.5 Pro, DeepSeek R1–0528) на бенчмарке LiveSQLBench.
6 моделей, 10 задач, сложность от ★★ до ★★★★★★★★★★. Проверим, как они считают лунные помехи, генерируют SQL для криптобирж и ищут артефакты в музеях.
Как превратить текст «Сколько было продано камер в прошлом месяце?» в осмысленный SQL‑запрос? Это и есть задача text‑to‑SQL (ее ещё называют NL2SQL). Для многих компаний сейчас очень важна возможность задавать вопросы к данным обычным языком, без изучения SQL. Для этой задачи написаны десятки инструментов, но суть одна — генерация корректного запроса из фразы на человеческом языке.
Требование проясняется примером: бизнес‑пользователь хочет узнать: «Какие топ-5 товаров по выручке за вчерашний день?» — а система превращает это в SELECT product, SUM(revenue) ... LIMIT 5
и выдаёт результат. До недавнего времени требовались сложные пайплайны или ручное кодирование, а сейчас на сцене — большие языковые модели (LLM) и всякие прокачанные методы достучаться до них.
В этой статье мы пробежимся по ретро‑ и ультрасовременным подходам к text‑to‑SQL. Плюс обзору добавим практических инсайтов.
В этой статье я расскажу о том, как правильно использовать ИИ для разработки, и почему ИИ всё ещё далеко не идеален.
Представьте, что вы развернули у себя дома полноценную языковую модель — не платного чат-бота из облака с его фильтрами, задержками и цензурой, а вполне безлимитную LLM, которая может быть и надёжным помощником по работе, и вашей вайфу… на абсолютно любую тему. И в 2025 году это уже работает неожиданно хорошо.
Ещё год назад за достойное ролевое общение приходилось платить подиской Character.AI или бороться с ограничениями, но теперь — всё иначе. Домашний чатбот не только не уступает по качеству, но и во многом выигрывает: всего за 5 минут можно добавить генерацию изображений, озвучку (TTS), понимание речи (STT) и полную автономность — без облаков, логов и подписок.
Я написал своего первого агента более двух лет назад. Это не какая-то новая технология, а просто подход к разработке программ с использованием LLM (GPT и аналоги). Для этого не нужны никакие фреймворки или познания в AI, достаточно быть программистом. Из этой статьи вам будет понятно как проектировать агентов и для каких задач они подходят, без воды и философии.
Все базируется на двух способностях нейронных сетей:
• LLM (не все) умеют возвращать JSON, их дополнительно тренируют для этого
• Программисты (не все) умеют декомпозировать задачи
Технологии сейчас слишком стремительно развиваются и оказывают влияние на многие профессии. Я — системный аналитик, и искусственный интеллект всё плотнее проникает в мою профессиональную жизнь. Сначала это даже вызывало опасения. Что ждёт меня в будущем? Сможет ли ИИ заменить меня в профессиональном плане? Можно ли этого избежать и какие новые навыки будут нужны специалистам, чтобы оставаться востребованными? Попробую ответить на эти и другие вопросы.
Термин «artificial intelligence» в английском языке означает не столько «интеллект», сколько «умение логически мыслить». Это значит, что ИИ — это не аналог человеческого интеллекта, способного познавать мир и понимать суть вещей (согласно определению Линды Готтфредсон), а лишь система, которая способна делать выводы, решать задачи, понимать сложные концепции, быстро осваивать новое и учиться на основе полученного опыта.
Несмотря на впечатляющие возможности искусственного интеллекта в области логического мышления и решения задач, его функционал пока существенно отличается от способностей человеческого интеллекта. Полноценное познание мира и понимание его сути остаются за пределами возможностей ИИ. Однако развитие технологий происходит с невероятной скоростью, и в будущем все может измениться. А чтобы лучше понимать как и что менялось в этом направлении, давайте оглянемся в прошлое.
В последние месяцы я всё чаще сталкиваюсь с одним и тем же выводом: внедрение LLM-систем (особенно с использованием RAG-подхода) тормозится не из-за самой модели, а из-за отсутствия качественных данных. Самое дорогое в процессе — это не запуск пайплайна, не подбор архитектуры, а подготовка структурированных, очищенных и корректных данных, пригодных для обучения или дообучения моделей. Всё чаще этот подход называют AI-Ready Data.
Многие пользуются YouTube, Netflix, но не подозревают о ключевых опенсорсных программах типа ffmpeg, которые работают на бэкенде этих сервисов. Похожая ситуация с нейронками, где многие знают программу Ollama для локального запуска моделей на CPU. Но мало кто понимает, что это всего лишь простенькая оболочка вокруг опенсорсной библиотеки llama.cpp на С, которая и делает инференс. Автор этой библиотеки, талантливый разработчик Георгий Герганов, мало известен широкой публике.
В гонке искусственного интеллекта доминируют гиганты с огромными вычислительными ресурсами — OpenAI, Google, Meta. Однако Telegram, благодаря сочетанию технологических активов, уникальных данных и амбициозного видения основателей, обладает шансами совершить прорыв. Как заявляет Павел Дуров: его брат Николай работает над «настоящим ИИ», способным «логически мыслить и понимать мир». В этой статье я напишу неочевидные потенциальные возможности мессенджера, которые могут обеспечить компании лидерство в AI и будущем AGI.
Современные «мыслящие» машины возникли благодаря открытиям в области физики сложных материалов.
Спиновые стекла могут оказаться самыми полезными из бесполезных вещей, когда-либо обнаруженных.
Эти материалы — обычно состоящие из металла, а не стекла — демонстрируют загадочное поведение, которое заинтересовало небольшое сообщество физиков в середине 20-го века. Спиновые стекла сами по себе не имеют какого-либо практического применения, но теории, разработанные для объяснения их странностей, в конечном итоге вызвали сегодняшнюю революцию в области искусственного интеллекта.
В 1982 году учёный, изучающий физику конденсированного состояния, Джон Хопфилд, позаимствовал теорию спиновых стёкол, чтобы построить простые сети, которые могли учиться и иметь воспоминания. Сделав это, он оживил изучение запутанных сетей цифровых нейронов, которые были в значительной степени заброшены исследователями искусственного интеллекта, — и вывел физику в новую область: изучение разума, как биологического, так и механического.
Большой Дайджест Недели. 07.07.25
Переход от имитации человеческих способностей к автономному обучению через опыт обещает разблокировать сверхчеловеческие возможности во многих областях.
Эксперименты в гибридных командах, когда людей произвольным образом объединяли с ИИ-агентами... совместимость личностных характеристик человека и ИИ критически важна...
Опенсорсный клон Perplexity...
Как оптимизировать модель Mamba для выполнения на CPU? Ускоряем код в 20 раз по сравнению с PyTorch, нарушая в процессе все правила оптимизации.
Тема разума в космосе (вселенной) малоизученная и перспективная. Знания для размышлений по ней дают философия, психология, физика, биология, космология и компьютерные науки. В настоящей работе тема подсвечена с авторской “колокольни”. Исследуется сущность возможных видов разумных существ и их расселение в космосе. Статья может показаться в чём-то предвзятой или фантастичной. Приветствую конструктивную критику.
Mamba — революция в обработке длинных последовательностей! Mamba — State Space Models vs трансформеры, что лучше?!
Исследователи Sakana AI разработали Text-to-LoRA (T2L), гиперсеть, которая динамически генерирует веса Low-Rank Adaptation (LoRA) для больших языковых моделей на основе описаний целевых задач на естественном языке. Этот метод обеспечивает эффективную адаптацию без предварительной настройки (zero-shot), превосходя установленные базовые показатели и достигая производительности, сравнимой с тонко настроенными адаптерами на ранее не встречавшихся задачах.
Разбираемся, почему самые умные нейросети со временем начинают вам поддакивать, и как это снижает их способность мыслить. Обновленный промпт для тестирования в приложении.
Tabby — self-hosted-ИИ для автодополнения кода с открытым исходным кодом.
PrimeWay закрывает больные места «самостоятельного» хостинга
Привет, это снова oldzoomer, и сейчас я расскажу, как ИИ помогает мне освободить себя от рутинных задач, и заниматься исключительно любимым делом.
Стоит только подьехать к центру города, Красной площади или Дворцовой, как ваш навигатор виснет, а GPS-точка прыгает через дороги, заводит вас во дворы и упорно считает, что вы идёте по Неве, а не по тротуару. В городских джунглях GPS сталкивается с отражениями, перекрытиями сигналов и тёмными зонами, из-за которых точность падает до нескольких десятков метров, а иногда и сотен.
Разберёмся, какие механизмы приводят к «скачкам» позиционирования и как индустрия борется с тем, чтобы вы не терялись. Детали внутри ката.