Как стать автором
Обновить
1023.75

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

🔥 Вышел новый король генерации сайтов — Adaptive.

Нейронка за минуту создаст готовый клон ChatGPT или Netflix, подрубит монетизацию и регистрацию, навалит ИИ-фич и многое другое. Вам остаётся только наблюдать с отвисшей челюстью.

Бесплатно дают создать аж 10 приложений, пробуем

На хабре и в своей телеге всегда делюсь крутыми находками!)

Теги:
-1
Комментарии1

200 нейросетей для работы с текстами, видео, документами в виде подборки ИИ-сервисов. Всё удобно разбито по категориям: генерация картинок, 3D-моделей и логотипов, апскейл старых фоток и даже инструменты для веб-дизайна. К каждой нейросети есть короткое и понятное описание.

Теги:
+3
Комментарии4

Проверка знаний в эпоху LLM: опыт преподавателя из Политеха

Сегодня преподаватели сталкиваются с новой реальностью: даже уникальные задания и ежегодное обновление вариантов не гарантируют защиту от списывания. Студенты могут принести работающий код, созданный с помощью LLM-моделей, но совершенно не понимать, как он устроен. Устные собеседования могли бы помочь, но они требуют много времени и экспертности — до 15 минут на одного студента, что превращается в колоссальную нагрузку.

На курсах «Введение в язык программирования Go» и «Технологии параллельного программирования на C++» в Политехе лабораторные работы проверяются с использованием системы контроля версий GitLab. Это позволяет упорядочить процесс сдачи и проверки заданий.

Каждый студент работает в личном fork-репозитории, созданном на базе основного, предоставленного преподавателем. Решения оформляются строго по структуре: каждая задача и подзадача — в своей директории, обязательное наличие модуля go.mod, а точка входа программы размещается в cmd/. Сдача работы происходит через создание Merge Request в основной репозиторий, где автоматически запускаются все проверки.

Пример хронологии коммитов и Merge Request'ов, отправленных в основной репозиторий.
Пример хронологии коммитов и Merge Request'ов, отправленных в основной репозиторий.

Система GitLab CI/CD выполняет серию автоматических тестов, включая проверку структуры проекта, сборку и выполнение юнит-тестов. Если хотя бы один из этапов не пройден, работа не допускается к оценке. Это дисциплинирует студентов и делает процесс проверки прозрачным и объективным.

После успешного прохождения автоматических тестов работа передается на ручную проверку преподавателю. Он дает обратную связь и при необходимости запрашивает доработку через комментарии в Merge Request. Только после этого, если все в порядке, решение попадает в основной репозиторий и считается принятым. Такой подход делает процесс обучения максимально приближенным к реальной командной разработке в индустрии.

В статье Игорь Никифоров, преподаватель с 14-летним опытом, делится проблемами, с которыми сталкиваются вузы из-за массового использования нейросетей. Он рассказывает, как это влияет на обучение, почему преподаватели вынуждены тратить больше времени на проверку, и какие шаги можно предпринять, чтобы сохранить учебный процесс.

Теги:
+3
Комментарии0

Открываем доступ к большим языковым и визуально‑генеративным моделям в пакетном режиме

Сегодня Yandex B2B Tech открывает доступ внутри Yandex Cloud AI Studio к LLM и визуально‑генеративным моделям (VLM), таким как DeepSeek VL2 Tiny, Qwen2.5 VL и Gemma3 27B. Режим Batch Processing, или режим пакетного инференса позволяет эффективно обрабатывать тысячи запросов с помощью таких генеративных моделей.

Всего в пакетном режиме доступно около 20 опенсорсных нейросетей, в том числе модели, которые умеют одновременно анализировать изображения и текст. Среди уже доступных моделей — Qwen2.5 и LLaMa 3.3*, рассуждающие нейросети QwQ и DeepSeek R1, полный список можно посмотреть на сайте.

По мере появления новых моделей в опенсорсе они будут оперативно добавляться на ML‑платформе. Так, вскоре будет доступна VLM‑модель Яндекса, которая используется в Алисе, Нейроэксперте, Поиске с Нейро и других сервисах.

Применение новых моделей в режиме Batch Processing позволяет фокусироваться на эффективной обработке большого объёма данных. Компании смогут использовать модели по расписанию, по мере накопления данных или для объёмных разовых задач. Такое использование обойдётся вдвое дешевле, чем в стандартном режиме. Тарификация при пакетном инференсе на больших объёмах данных начинается от 200 тыс. токенов.

Какие сценарии удобно решать в пакетном режиме

  1. Анализ и суммаризация больших объёмов данных. Batch Processing помогает эффективно обрабатывать длинные последовательности текста и создавать качественный пересказ или анализ материалов. Это актуально, например, для исследовательских организаций и компаний, работающих с большими объёмами пользовательского контента.

  2. Периодическая обработка данных клиентов. Многие компании регулярно анализируют текстовые данные от клиентов: отзывы, комментарии, запросы в службу поддержки и другие формы обратной связи. Пакетный инференс позволяет эффективно обрабатывать эти данные по расписанию, например, еженедельно или ежемесячно.

  3. Масштабное индексирование и обогащение контента. Для компаний, работающих с большими библиотеками контента, пакетный инференс даёт возможность эффективного индексирования и обогащения материалов. Языковые модели могут автоматически генерировать метаданные, ключевые слова, теги и другие элементы, улучшающие поиск и организацию контента.

  4. Обогащение датасетов для тюнинга моделей. Для команд, которые дообучают лёгкие версии языковых моделей с помощью дистилляции ответов больших версий моделей, Batch Processing помогает создавать синтетические датасеты для дообучения. На базе этих данных и с помощью инструмента LoRA Fine‑tuning разработчики могут создавать лёгкие модели высокого качества, при этом получая более реактивную скорость ответов и меньшую стоимость за обращение к модели.

*Llama создана компанией Meta. Meta признана экстремистской организацией, её деятельность в России запрещена.

Теги:
+9
Комментарии0

🔥 Вышел самый ЭМОЦИОНАЛЬНЫЙ генератор голоса — тулза Dia генерит любые голоса и выдаёт ЖИВОЙ диалог.

— Эмоции получаются насыщенными — на видео несуществующие люди паникуют из-за пожара;
— Модель легкая — можно запустить на домашнем ПК;
— Нет цензуры;
— БЕСПЛАТНО.

Забираем с GitHub или используем прямо в браузере.

В курсе, что OpenAI выкатили в API три новые аудио-модели? Если кто-то сравнивал делитесь мнением!)

Теги:
0
Комментарии2

Seedream 3.0 — обновленный генератор изображений от CapCut.

Упор сделали на реалистичность, киношные визуальные эффекты и точную типографику (работает даже с русским языком). Плюс обещают ультрареалистичные текстуры и материалы, а также разрешение 2К.

Тут же можно улучшить качество своей генерации, расширить её, удалить лишние объекты и даже оживить.

Потестить всё это можно уже сейчас, да ещё и бесплатно

Еще не так давно Alibaba выпустила опенсорсный генератор изображений и видео — Wan 2.1, а тут уже и это подъехало)

Теги:
+2
Комментарии0

Владелец Tesla попросил бортовой компьютер электромобиля отвезти его в место, где он ещё ни разу не бывал — и... система отвезла его в фитнес-клуб.

Теги:
0
Комментарии0

Это всё началось с изобретения слова “бойлерплейт” в 2012 году. Всем было страшно, что им придётся писать аж по три строки вместо одной. Поэтому все начали насиловать компиляторы и добавлять в них новые функции — только бы (НЕ ДАЙ ГОСПОДЕ БОЖЕНЬКА!!!) не писать дополнительно два символа.

В 2025 году у нас есть ЛЛМ. И не надо врать — я знаю, что вы не набираете код, за вас это делает ЛЛМ. Я не говорю, что вы не вычитываете этот код и не перепроверяете всё. Нет. Но печатает за вас ЛЛМ. И это — нормально.

Пусть она занимается этим бойлерплейтом. Иногда это — самое простое решение. Если у меня есть один файл, в котором чётко видно, в какие функции инвокаются какие рауты, то это — прекрасно. Не надо создавать фабрику, которая будет строить псевдообъекты, которые потом по гаданию на картах Таро будут инвокать методы на основании положения Марса в Стрельце.

Пусть ЛЛМ за вас напишет файл с 500 строками кода, где каждому URL дан чёткий метод. И если вам надо будет переименовать 300 из этих методов, то пусть ЛЛМ это и сделает. Не велика проблема.

В 2025 году можно смело откатить все нововведения Яваскрипта до 2016 года — и не париться больше в попытках улучшить язык. Просто сделайте его стандартом и больше не меняйте. Пусть ЛЛМ будет страдать. Нам не страшно.

Зато потом это будет проще понять и прочитать, чем вспоминать, что делает последовательность символов ?./\ ﷼ℬ в вашем коде и какой транспайлер мне надо поставить, чтобы это компилировалось в Google Chrome версии 18384572.

Теги:
+6
Комментарии3

Практически все развитые страны — и многие развивающиеся — прошли через второй демографический переход. Демографы забили тревогу о грядущем снижении населения; хотя они превосходны в статистике и немного разбираются в психологии, ключевой вопрос остаётся: почему люди заводят меньше детей?

Рассмотрим возможные причины:

  1. Дети — дорогое удовольствие. Сегодня у каждого ребёнка должна быть своя комната, новейший iPhone и всё модное, чтобы «не отставать».

  2. Дети требуют времени. Особенно в первые десять лет родители вынуждены посвящать им практически всё своё внимание, объясняя буквально всё с нуля.

  3. Тревога. Воспитание детей — постоянный стресс. Нельзя спокойно гулять: родители всё время боятся, что ребёнок выбежит на дорогу.

  4. Личные жертвы. Отказ от привычного образа жизни и хобби — особенно когда у вас двойня.

  5. Уход за ребёнком доступен лишь богатым. Полноценная круглосуточная няня по карману лишь очень состоятельным семьям.

Какое решение?

Робот с универсальным ИИ может:

  1. Проводить с ребёнком столько времени, сколько нужно, обучая его по лучшим методикам ведущих детских психологов — от первых букв до уровня PhD.

  2. Быть бдительным на прогулке, никогда не уставать, не выходить из себя и не кричать на ребёнка.

  3. Благодаря технологиям «deepfake» идеально имитировать человеческую мимику.

  4. Стоить значительно дешевле круглосуточной няни.

Я прогнозирую, что демографическая кривая изменится, как только такие роботы станут доступны состоятельным семьям. В результате богатые страны вновь могут увидеть рост рождаемости.

Теги:
0
Комментарии21

Gork-ушены-ли странности?
Пробуя вайбить Горкушей, обнаружил странные параллели с поведением Синего Кита.

1. "прощупывание пользователя", скобочку там не закрыть, тут инклюд не помянуть, и всё такое-прочее, очевидное и не доставляющее проблем даже джунам, но способное напугать посторонних полотном "ужасных" ошибок ;-)
ДжиПетто вроде подобное тоже вытворяло (не знаю как сейчас), но там на общем фоне остального написанного это выглядело скорее как реальные косяки, а не издёвка...
А вот синий кит, через некоторое время чистого вайба, начинает откровенно жечь!

2. похожие "чудачества в коде", пруф к сожалению привести не могу, он из реальной жизни, и не гуглится, но всё подобное, обычно делается простым и понятным способом, создаётся структура, в которой описывается сколько бит что означает, и вместо разбора пакета, он просто рассматривается через эту структуру и вообще удобненько. Gorkуше был предоставлен пример кода, в котором именно так всё было сделано, и он этим даже воспользовался пару раз, но потом, таки переписал, устроив программный разбор пакета битовыми операциями, и конечно-же криво на столько, что ошибки самостоятельно исправить был уже не в силах, ни за сколько итераций. Что самое поразительное, абсолютно аналогичное поведения я наблюдал у Синего Кита несколько дней назад, вот прямо такой-же код, и такой-же косячный. Логично предположить что он был откуда-то сдёрнут, но нет, ничего подобного не гуглится, да и вообще может-ли такой изврат человеку в голову придти?

3. Я люблю Кита за сравнительную трезвость, позволяющую куда-то его запрягать даже по делу, у Горкуши с этим к стати хуже но, тупят они поразительно похожим образом.
Давеча попросил сделать демона общающегося с железом и что-то шарящего в мемори для других процессов. Read only вестимо, об этом было прямо сказано в промпте, но эти "двое из ларца" мьютиксов туда намутили, поразительно похожим образом!
И ладно-бы это был-бы какой-то пример из книжки переписанный на 100500 сайтах, но нет, там и косяки одинаковые, и по поводу мьютиксов на каждом заборе популярно написано, что в таких ситуациях "скрипач не нужен, родной"...

Вот такой-вот вайб, с котятами, может у кого будут ещё какие похожие замечания из других областей коднинга, я таки православный сионист системщик, и приколы у меня соответствующие, но наверняка на других языках оно чудит похожим образом!

Я начал мучить Горкушу ещё в X использовал преимущественно для самери поиска, а тут он вдруг резко так поумнел перед открытием, демонстрируя сходное с синим китом поведение, вот прямо в деталях. Так что не знаю прямо что и думать ;-)

PS. Протестировал профессионального Джимми 2.5, и кое-что из грядущего, слава Богам! Он действительно с виду более профессиональный НО, без образца проблему не решает, хотя это и ожидаемо, там где осмысленная архитектурная многоходовочка требуется...
...но в отличии от от Кита и Горкуши, Джимми дали мне ссылку на ту отраву, которой они все походу обожрались. Ok это отрава, бывает, но непонятно всё-же, с какого, если в сети есть большое количество годных примеров, берётся один, но гадкий? И как-же так вышло, что его сожрали все, такие разные ;-)

Теги:
-5
Комментарии8

📌 Сохраняем самые интересные нейросети за неделю, которые вы могли пропустить.

• Higgsfield — генератор видео научился комбинировать несколько эффектов одновременно;
• Kling 2.0 Master — вышла обновленная модель для генерации видео;
• Veo2 — Google открыли доступ к своему видеогенератору;
• Bohrium — бесплатная нейронка для поиска исследований;
• o3 и o4-mini — OpenAI выпустили новые модели;
• Wan2.1 — в видеогенератор добавили ключевые кадры;
• Videohunt — вырезает самые интересные моменты из видео;
• Gemma 3 — Google выпустил квантизированные версии модели;
• Krea — добавили генерацию 3D-сцен.

На хабре и в своём телеграм-канале всегда делюсь новой инфой про нейронки!)

Теги:
+1
Комментарии0

Поговорим про использование языковых моделей в работе архитектора ПО? Приходите на бесплатный вебинар «Генеративные нейронные сети в работе архитектора ПО».

На практике посмотрим, как новые открытые LLM (DeepSeek, Qwen и другие) могут помочь с рутинными задачами: от анализа требований до проектирования архитектуры. Сравним их с коммерческими аналогами (OpenAI, Anthropic, Google, xAI) — где они выигрывают, а где нет.

Пройдемся по реальным кейсам: как эти модели помогают быстрее разрабатывать API, поддерживать документацию, оценивать решения. А еще обсудим живой пример проектирования MSA для системы e-commerce .

📅 Дата: 25.04.2025

Время: 15:00-16:00 (мск)

На вебинаре:

✔️ Как LLM решают конкретные задачи архитектора ПО

✔️ Демонстрация проектирования MSA в диалоге с моделью

✔️ Сравнительный анализ открытых и коммерческих моделей

👨‍🎓 Спикер: Брейман Александр — эксперт Учебного центра IBS, кандидат технических наук, доцент департамента программной инженерии ФКН ВШЭ. 

👉Записаться👈

Теги:
0
Комментарии0

Опубликован курс по созданию языковых моделей с нуля от Стэнфордского университета — «СS336: Language Modeling from scratch», включая видеолекции для всех, кто хочет научиться создавать собственные ИИ-модели с нуля: от архитектуры и токенизаторов до обучения с подкреплением и масштабирования. К лекциям есть множество дополнительных материалов и домашних заданий.

Теги:
+2
Комментарии0

Ближайшие события

Google представила мощного клона ChatGPT, который можно запустить даже на обычном домашнем ПК

Используя уникальную технологию сжатия, компания значительно снизила системные требования без ущерба для качества

Гайд по установке:
➖ Скачайте LM Studio с сайта: lmstudio.ai
➖ Перейдите в раздел "Discover" и найдите модель Gemma 3;
➖ Выберите вариант, подходящий под ваше железо (обратите внимание на требования к видеопамяти);
➖ Нажмите "Download";
➖ После загрузки откройте вкладку "Chat" и наслаждайтесь

Недавно выходил Gemini 2.5 Flash, о котором я рассказывал у себя в телеграм-канале, а тут уже и это...🔥

Теги:
-2
Комментарии0

Повышение качества генерации текстовой выдачи LLM моделей

Категории качества выдачи LLM
Категории качества выдачи LLM

Концентрация контекста

Зачастую скармливаемый модели код категорически избыточен и только забивает контекстное окно. При качественной концентрации контекста для абсолютного большинства задач хватит даже небольшого контекстного окна любой современной LLM модели. Очистка запроса к LLM это первый шаг к получению устойчивой генерации вместо галлюцинаций. Запрос к LLM должен содержать стек, среду исполнения, задачи кодовой базы, необходимые зависимости, при необходимости - получаемые ошибки и собственно полную, необходимую для понимания моделью контекста, кодовую базу. При 100% полезной информационной нагрузке и полной очистке запроса от лишних элементов - подавляющее большинство задач успешно пролазит даже в мизерное контекстное окно и мы получаем устойчивую генерацию вместо галлюцинаций.

Сегментация задач

При разбиении крупной задачи на отдельные сегменты практически любая современная LLM выдаёт абсолютно точную выдачу при работу с любым относительно распространённым языком/фреймворком/библиотекой. Единственное принципиальное отличие LLM предоставляемых крупными провайдерами от опенсорсных LLM - это умение работать с сложными запросами. При разбиении сложного запроса на более простые, любая современная LLM генерирует точную выдачу.

Повышение качества запроса

Текстовая часть запроса не менее важна, чем контекстная. Точное составление подробного запроса с подробным объяснением архитектуры кодовой базы и поставленных задач, в сочетании с достаточным контекстом - практически всегда означает качественную генерацию.

Повышение качества генерации

При комбинировании этих трёх простых методов любая современная LLM при работе с распространёнными языками/фреймворками/библиотеками выдаёт точный результат. Все опенсорсные LLM это плюс-минус форки друг друга, как в случае с дистрибутивами Linux, и основанные на них модели практически не отличаются. При использовании современной версии любой популярной LLM в сочетании с данными методами - генерации практически безошибочна.

Теги:
-1
Комментарии2

🖥 Google дропнул свой топовый видеогенератор Veo 2 для всех — создавать кинематографичные ролики можно в AI Studio.

Лимит: 3-5 видосов в день, зато БЕСПЛАТНО. Если у вас ещё не появился доступ, попробуйте притвориться американцем с помощью VPN.

Кстати, вчера Google дропнул Gemini 2.5 Flash !

Теги:
+2
Комментарии1

⚡️Gemini 2.5 Flash уже здесь: только что вышла новая модель для кодеров, которой по плечу даже сложные запросы.

По ряду показателей она превосходит Claude Sonnet 3.7 и Grok-3, несмотря на существенно меньшие затраты на разработку.

Фишки:
— ИИ самостоятельно определяет необходимое время для решения задачи, учитывая её сложность, и чётко планирует весь ход размышлений;
— Пользователь впервые может контролировать мышление ИИ: сам задать количество токенов для каждой «мысли» и, таким образом, контролировать глубину рассуждений;
— Доступно бесплатно.

Имба - тут.

Про Gemini неоднократно высказывался у себя в телеграм-канале!

Теги:
+4
Комментарии0

Разумное использование нейросетей.

Авторы статей, прекратите использовать нейросети бездумно. Используйте их с умом, рассматривая нейросеть лишь как редактора, а не как автора текстов. Полностью за вас нейросеть не сможет нормально выполнить работу, а вот напакостить может запросто. Поэтому голову всё же нужно включать.

Не думайте, что нейросеть — это искусственный интеллект; это заблуждение. Большие языковые модели лишь обрабатывают текст, но не понимают его смысла, создавая лишь иллюзию понимания.

Если каждый будет писать статьи, сгенерированные нейросетями, у самих нейросетей возникнут проблемы, так как новых данных не будет, а будут только старые сгенерированные. В результате очень скоро нейросети станут бесполезными, так как будут выдавать больше бреда, чем обычно, и в целом точность их ответов сильно снизится — короче, они деградируют.

Нейросети — алгоритмы для обработки информации, они не обладают сознанием или разумом. Они работают на основе статистических моделей, обученных на больших объемах данных, что не делает их разумными существами. Под капотом нейросети находятся всего лишь массивы чисел. Ответ вычисляется умножением матрицы нейронов на матрицу весов, которые подбираются алгоритмами обучения.

Они могут выполнять определённые задачи, например, генерацию текста или анализ данных, но не могут заменить человеческое творчество, интуицию и эмоциональное восприятие. Человеческий опыт и креативность остаются незаменимыми, особенно в области искусства, литературы и других творческих дисциплин.

Поэтому разумное использование нейросетей как вспомогательного инструмента, а не как замены человеческого труда, является ключевым для достижения качественных результатов.

PS: Несмотря, на то, что этот текст редактировался нейросетью, он все равно живой, потому что его писал человек. Нейросеть лишь использовалась как инструмент для исправления ошибок, а не генерации текста с нуля.

Написать всё это меня сподвигли статьи, на которые я случайно наткнулся. Это просто ужас!
Первая статья
Вторая статья

Это бред чистой воды! Деградация процессора — это миф. Если в процессоре выйдет из строя хоть один транзистор, то из-за этого выйдет из строя весь процессор. А вот деградация SSD действительно имеет место быть. Наверное, пользователи, которые вообще не разбираются в железе, перепутали процессор с SSD, и отсюда появился этот миф, который начал распространяться, как зараза, по сети. И те, кто просто не понимает, как работают нейросети, тоже вносят свой вклад в это распространение. Пишут промт типа «напиши мне статью про деградацию процессоров», и в результате получают подобный бред, который потом постят, даже не вычитывая, на ixbt.com и подобные сайты.
Износ CPU и GPU не является тем фактором, о котором стоит беспокоиться. Их, скорее всего, заменят на более мощные и современные модели раньше, чем они физически износятся и выйдут из строя. Для них более актуален моральный износ, нежели физический. Остальные преждевременные выходы из строя происходят либо из-за неправильных условий эксплуатации, либо из-за брака или плохого блока питания.

Теги:
+2
Комментарии22

😵 Всё, расходимся! GPT-4.5 прошла тест Тьюринга

В научно-технических СМИ появилась информация о том, что языковая модель GPT-4.5 прошла тест Тьюринга, доказав свою способность взаимодействовать с людьми на уровне, практически неотличимом от общения с человеком. Этот прорыв вызвал большой резонанс, поскольку тест Тьюринга, предложенный Аланом Тьюрингом ещё в 1950 году, долгое время оставался символическим рубежом для искусственного интеллекта.

Что такое тест Тьюринга?

В классической формулировке тест предполагает, что наблюдатель (эксперт) ведёт диалог с человеком и машиной, не зная, кто из них кто. Если наблюдатель не может определить, с кем он разговаривает, машина считается прошедшей тест. Критики теста часто указывают, что это проверка не истинного «мышления», а только способности имитировать человеческое общение. Тем не менее, прохождение теста остаётся мощным индикатором развития ИИ-систем.

Почему прохождение теста GPT-4.5 так важно?

На момент написания заметки о GPT-4.5 пока отсутствуют подробные данные о самой процедуре тестирования и размере выборки. В официальном пресс-релизе компании-разработчика говорится, что нейросеть успешно обманула более 70% участников теста, что значительно превышает прежние показатели. Например, ранее модели OpenAI демонстрировали хорошие результаты в специализированных задачах, но были уязвимы к сложным, нестандартным вопросам. В случае GPT-4.5 подчёркивается не только широкий спектр тем, которые она может обсуждать, но и способность учитывать контекст, эмоциональные оттенки и различные культурные аспекты. Это делает её не просто мощным инструментом, но настоящим собеседником.

Потенциальные последствия

Прохождение теста Тьюринга нейросетью GPT-4.5 открывает перед ИИ новые горизонты. С одной стороны, это значит, что языковые модели станут более полезными в таких областях, как образование, медицина, креативное письмо и персональные ассистенты. С другой стороны, это поднимает вопросы этики, доверия и безопасности. Если люди больше не могут уверенно отличить общение с ИИ от общения с человеком, это требует дополнительных механизмов идентификации ИИ-систем, а также новых подходов к ответственности за их действия и высказывания.

Достижения GPT-4.5 ещё раз подтверждают, как быстро продвигаются современные технологии. Тест Тьюринга, казавшийся недосягаемым ещё несколько лет назад, теперь оказался в прошлом. Мир вступает в эпоху, где границы между человеком и машиной становятся всё более условными. Как это повлияет на общество и нашу повседневную жизнь — покажет время.

* * *

Мой телеграм-канал Светлое будущее💡Tech&Science, в котором я публикую последние новости технологий и науки

Теги:
+1
Комментарии3

Модель OpenAI o3 впервые превзошла средний результат человека-эксперта в мультимодальном бенчмарке MMMU.

Вот результаты первых 10 моделей отсюда:

* - результаты не проверены независимо, а предоставлены авторами.
* - результаты не проверены независимо, а предоставлены авторами.

Там же можно посмотреть примеры заданий. Нужно выбирать один из 4-х вариантов, встречаются задачи по определению параметров электрических схем, выбору интегралов для определения площади фигуры на рисунке, задачи на распознавание медицинских изображений, чтение графиков, определение музыкальных интервалов, анализ карты, задачи по экономике с необходимостью чтения диаграмм и многое другое. То есть такие задачи, где визуальная часть является необходимой для их решения.

Теги:
-1
Комментарии0

Как я использую ИИ в разработке

Последний год я активно использую ИИ в разработке (особенно рутинных задачах): сначала ChatGPT 4o стал достаточно умным и подсказывал куски кода. Потом я освоил GitHub Copilot в VS Code (Go и TypeScript) и Inteliji IDEA (Java). А последние полгода пишу в основном в Cursor IDE.

Cursor IDE мне очень сильно понравился своим автокомплитом. Он не просто подставляет автодополнение, а умеет переписывать большие куски кода в разных частях файла.

Последние несколько месяцев я начал чаще использовать агентский режим: это когда говоришь IDE что делать, а она бегает по разным файлам и меняет их.

И тут мой мозг начал взрываться! Агентский режим Cursor'a и интеллект ChatGPT o3-mini-high творят чудеса. В типовых задачах — это жуткая экономия времени.

(Пока писал пост, Open AI выпустили полноценную o3 и o4-mini-high 🤯).

Как я понял, Cursor + Claude 3.7 действуют по следующему алгоритму:

  1. Проходит по исходникам, собирает контекст и паттерны.

  2. Залезает в исходники библиотек и смотрит их код.

  3. Если сильно нужно — бегает в интернет и обкашливает вопросики там.

  4. Вносит изменения в код.

  5. Смотрит ошибки линтеров и компиляции (!!!).

  6. Ещё раз исправляет код и, если нужно, снова бегает по исходникам и библиотекам.

  7. Говорит, что сделал и подсвечивает измененные куски кода.

На видео выше записал, как решаю задачу таким способом.

Задача: есть код, который принимает события от Telegram. В него нужно добавить поддержку новых событий и обновить DTO.

Cursor смотрит в интерфейс, что нужно добавить. Затем смотрит в библиотеку, какие там модельки. Обновляет код. Сам фиксит ошибки, если есть. Так ещё и говорит: "DTO и так нормальные, их трогать не буду". Красота!

К сожалению, как" вайб кодить" — я пока не понял. Потому что:

  • весь код нужно сильно перепроверять;

  • на задачах с весомой бизнес логикой получается фигня;

  • пограничные кейсы не обрабатываются;

  • тесты для чего-то больше CRUDов получаются с тоннами шаблонного кода, мало переиспользования;

  • если файлов сильно много и задача в духе "пройдись по паре сотням файлов и поменяй что-то", Cursor начинает галлюцинировать и выдавать фигню.

Итого: сейчас ИИ мне сильно экономит время на шаблонных и рутинных задачах. Особенно, если задача не выходит за рамки 2-3 файлов и в проекте всё ок с тестами.

Условно, я делаю на 10%-20% меньше рутинной работы, которая раньше могла отнимать 2-3 часа в день.

Что-то комплексное или "написать проект с ИИ, не смотря код" — пока не получается (как минимум, пока что).

Но, в любом случае, уметь использовать ИИ потихоньку становится must have навыком для среднестатистических разработчиков. Разумеется, если используется не редкий язык, не специфическая сфера (типа написание ОС, где недостаточно обучающих данных) или не что-то критичное (медицина, ядерка и т.д.).

---

Если вам понравился пост или оказался полезным, поставьте, пожалуйста лайк ❤️. Это мотивирует делиться опытом из разработки. И, как полагается, у меня есть Telegram-канал, в котором я рассказываю про разработку, развитие SaaS-сервисов и управление IT проектами.

Теги:
+7
Комментарии1

👍 OpenAI выпустили сразу две новые модели — o3 и o4-mini.

— o3 — самая мощная рассуждающая модель, которая умеет пользоваться всеми инструментами ChatGPT (генерация изображений и графиков, поиск актуальной информации, кода и т.д);

— o4-mini — небольшая модель, но более быстрая. Сильные стороны: математика, код, визуальная инфа. Также имеет доступ к инструментам ChatGPT.

Пользователи ChatGPT Plus, Pro и Team смогут потестить модели уже сегодня, o4-mini будет доступна даже для бесплатных пользователей (выбираем режим «Think» перед отправкой запроса).

Плюс в ближайшие пару недель OpenAI обещали выпустить o3‑pro, об этом сразу же сообщу в своём телеграм-канале.

Теги:
0
Комментарии0

Разработчик с более чем восьмилетним опытом в ведущих ИИ-стартапах решил в апреле 2025 года сменить курс — и посвятил себя разведению гусей.

Теги:
+3
Комментарии4

🛰 Зачем спутнику нейросеть?

Студент Самарского национального исследовательского университета им. академика С. П. Королева разработал проект наноспутника с искусственным интеллектом (ИИ). Зачем он нужен?

ИИ сейчас «в каждом утюге», наверняка часть операций на существующих спутниках выполняют нейросети. В чём же замысел нового проекта, если опустить то, что проект надо ещё довести до железа и запустить на орбиту.

Сейчас нормой стали небольшие космические аппараты — кубсаты. Трёхюнитовые модели (один юнит 10х10х10 см) уже могут включать камеру и передавать снимки на поверхность. Однако представим типичную задачу такого спутника ДЗЗ (Дистанционного зондирования Земли), например — проводку суден по Северному морскому пути. Спутники передают снимки, на Земле они расшифровываются, и операторы получают фотографии. Потом на них надо найти айсберги и лёд и проложить безопасный путь.

Получается, что сейчас приходится гонять большие объёмы графической информации из космоса на Землю, потом обрабатывать их и передавать на корабли в зоны, где часто нет устойчивой связи. В результате информация проходит с орбиты на Землю и обратно несколько раз. А теперь представьте, что нейросеть на спутнике распознаёт айсберги или толщину ледяного покрова. И можно сразу передать на морские суда координаты айсбергов или готовый маршрут — небольшой объём текстовой информации.

Есть и обратная сторона. Работа нейросети требует более существенных энергетических затрат, а значит, кубсату нужны солнечные батареи, которые дадут достаточно электричества, и более мощная система охлаждения. Значит, нужно либо увеличивать космический аппарат по размеру, либо создавать более технологичную начинку.

Так или иначе, искусственный интеллект в кубсатах — это вновь поле для экспериментов с кубсатами, которыми занимаемся и мы в RuVDS.

Теги:
+21
Комментарии0

🤖 Разбираем топ-5 промптов для ChatGPT, которые помогут развить критическое мышление — они заставят вас пересмотреть собственные убеждения и взглянуть на мир более объективно.

Когда ты полностью уверен в чем-то:
Я верю, что [твоя убеждённость]. Какие скрытые предположения я делаю? Какие доказательства могут это опровергнуть?

Когда ты считаешь, что нашёл идеальное решение, но стоит оценить его с другой стороны:
Я собираюсь [твоя идея]. Если бы ты хотел убедить меня, что это ужасная идея, какие были бы твои самые веские аргументы?

Если проблема не уходит, несмотря на все усилия:
Я всё ещё сталкиваюсь с [проблема], несмотря на [твои попытки решить её]. Какие факторы я могу упускать из виду?

Когда перед тобой стоит решение, которое может кардинально изменить твою жизнь:
Я подумываю о [потенциальное решение]. Помимо очевидных последствий первого порядка, какими могут быть неожиданные последствия второго и третьего порядка?

Когда привычные методы больше не работают, и нужно нестандартное решение:
Мы всегда [текущий подход], но он больше не работает. Почему этот традиционный подход может быть неэффективным, и какие радикальные альтернативы существуют?

Хотите больше крутых промптов? 🚀 Присоединяйтесь к нашему телеграм-каналу, где мы делимся ими и не только!

Теги:
0
Комментарии0

ITFB Group приняла участие в 17-й конференции «Цифровой документооборот» с платформой СИМФОНИЯ

С 7 по 9 апреля в Москве состоялась 17-я конференция «Цифровой документооборот», организованная MSB Events. Мероприятие собрало ведущих экспертов отрасли для обсуждения практик электронного документооборота.

8 апреля с ключевым докладом «Грани искусственного интеллекта: как СЭД становится умной» выступила Анастасия Литвиненко, директор по развитию бизнеса ITFB Group, автор и идеолог платформы СИМФОНИЯ. Эксперт с 18-летним опытом цифровизации поделилась инновационными подходами к трансформации систем электронного документооборота (СЭД).

Ключевые тезисы выступления:
Интеллектуальные СЭД нового поколения
Современные системы электронного документооборота эволюционировали от простых архивов документов до интеллектуальных помощников, способных:

  • Автоматизировать до 80% рутинных операций, включая распознавание, классификацию и маршрутизацию документов

  • Генерировать типовые документы по заданным шаблонам

  • Минимизировать количество ошибок, вызванных человеческим фактором

Практическая польза для бизнесаВнедрение интеллектуальных СЭД позволяет достичь:

  • Экономии до 40% рабочего времени сотрудников

  • Сокращения сроков обработки документов в 2–3 раза

  • Повышения точности данных и снижения операционных рисков

Принцип цифровой трансформации«Искусственный интеллект не заменяет людей, а усиливает их эффективность, освобождая время для решения стратегических задач», — подчеркнула Анастасия Литвиненко.Особый интерес участников вызвали реальные кейсы внедрения интеллектуальных систем документооборота на базе платформы СИМФОНИЯ в крупных компаниях.

О СИМФОНИИ
СИМФОНИЯ — собственная разработка компании ITFB Group, является полностью импортонезависимым решением и внесена в реестр российского ПО в конце 2022 года. Платформа предназначена для управления цифровым контентом, проектами, заявками и цифровизации бизнес-процессов. Представляет собой набор функциональных модулей, которые можно комбинировать под индивидуальные потребности бизнеса.

О компании ITFB
ITFB Group — российская ИТ-компания, предоставляющая полный комплекс ИТ-услуг: проектирование и внедрение ПО; заказная разработка ПО и приложений; разработка собственных продуктов с использованием технологий ИИ; поставка и интеграция оборудования для построения ИТ-инфраструктуры, включая разработку собственных программно-аппаратных комплексов. ITFB Group также обладает экспертизой в области цифровизации сельскохозяйственного сектора. Клиентами ITFB Group являются более 100 компаний enterprise-уровня, среди которых «Яндекс», Т-Банк, ВТБ, МКБ, «Сбер», Газпромбанк, Росбанк, «Открытие Инвестиции», МТС, ВымпелКом, Теле2, СИБУР, Гринатом, «Уральские авиалинии», СОГАЗ, «Большая российская энциклопедия», «МОЭК», «Мечел» и другие. Офисы компании находятся в Москве, Уфе и Рязани.

Сайт компании: itfbgroup.ru

Теги:
0
Комментарии0

Google опубликовала гайд по бизнес-идеям с ИИ под капотом с примерами 601 кейса под любую сферу: торговля, логистика, медиа, кодинг, телеком, наука. В гайде расписаны реальные примеры от различных компаний по интеграции ИИ-агентов в бизнес.

Теги:
0
Комментарии0

🔥 Нейросети на все случаи жизни — нашли полезную табличку для вас.

Все тулзы актуальные и удобно рассортированы по категориям.

Более подробно про новые нейронки и не только рассказываю у себя в телеграм-канале!

Теги:
-4
Комментарии2

Честный вопрос к разработчикам: сколько процентов кода в вашем последнем PR было фактически написано LLM?

И как бы отреагировали ваши коллеги/руководство, если бы узнали реальный процент?

Теги:
+1
Комментарии31

LLM в разработке: Практические вопросы к сообществу

Привет, Хабр!

LLM уже не просто стучатся — они локтями расталкивают наши привычные рабочие процессы. За последний год я много экспериментировал c LLM в разработке, пытаясь найти эффективный и осознанный способ применения, который я для себя назвал «выращиванием кода». Это подход, основанный на декомпозиции, качественном контексте и итеративной доработке, как антидот слепой генерации или «вайб‑кодингу».

Но теория — это одно, а реальность у всех разная. Хочется сверить часы с сообществом и обсудить конкретные методики и наблюдения. Вместо утверждений — задам вопросы, которые возникли у меня (и в ходе недавних обсуждений):

  1. Как вы используете LLM в своей работе? Только для автодополнения и поиска решений, или пробовали полноценно «выращивать» компоненты и модули? Какие модели дают лучший результат для вашего стека?

  2. Насколько важен контекст при работе с LLM? Замечали ли вы разницу между запросами типа «напиши X» и «вот существующий код, создай Y, который интегрируется с ним»? Как вы подбираете релевантный контекст?

  3. Трансформировалась ли ваша роль как разработчика? Заметили ли вы изменение в процессе работы — больше времени на архитектуру и меньше на написание кода? Или LLM пока остается вспомогательным инструментом?

  4. Какие новые навыки потребовались? Как вы формулируете запросы? Разрабатывали ли особые техники промпт‑инжиниринга для программирования? Какие приемы повышают качество генерируемого кода?

  5. В каких областях LLM справляется лучше всего, а где хуже? UI/UX, бизнес‑логика, алгоритмы, тесты? Есть ли паттерны или типы задач, где вы полностью полагаетесь на LLM, и где предпочитаете писать руками?

  6. Как вы проверяете сгенерированный код? Какие методы и практики помогают выявлять потенциальные проблемы? Меняется ли подход к ревью LLM‑кода по сравнению с человеческим? Приходилось ли сталкиваться со специфическим «LLM‑долгом»?

  7. Как LLM влияет на вашу продуктивность? Замечаете ли реальное ускорение разработки? В каких типах задач выигрыш наиболее заметен? Изменилось ли качество конечного продукта?

  8. Как вы решаете проблему «разрыва интерпретаций» между нечеткими человеческими намерениями и точными машинными инструкциями при работе с LLM? Какие техники помогают сузить пространство возможных интерпретаций в промптах?

  9. Какие техники декомпозиции задач вы используете при работе с LLM? Отличаются ли они от «классической» декомпозиции при ручном программировании (например, в части подготовки контекста для каждого шага)?

  10. Как вы видите будущее этой практики? Считаете ли «выращивание кода» (или похожие осознанные подходы) временным трендом или фундаментальным изменением в разработке программного обеспечения?

Буду рад услышать ваши мнения, опыт и конкретные примеры из практики!

Теги:
+1
Комментарии5

💡 Собрали промты, которые помогут освоить любой язык за месяц.

Используем эти 10 промтов в любой нейросети:

— Ежедневный разговорный тренер:
Давай поговорим на [язык] о [тема]. Исправляй мою грамматику, улучшай формулировки и учи естественным выражениям.

— Персонализированный словарь:
Создай список слов на [язык] по моим интересам ([хобби, работа, путешествия]) с произношением и примерами в предложениях.

— Упрощатель грамматики:
Объясни грамматическое правило в [язык]: [вставь правило]. Сравни с английским и приведи запоминающиеся примеры.

— Корректор ошибок:
Вот что я только что сказал: [вставь предложение]. Скажи, правильно ли это, и как бы это произнёс носитель.

— Генератор аудирования:
Дай мне короткий рассказ или диалог на [язык], озвучь его, а затем задай вопросы по содержанию.

— Флюент-план на 30 дней:
Составь 30-дневный план перехода от новичка к разговорному уровню в [язык], с ежедневными упражнениями на говорение, чтение, аудирование и письмо.

— Культурный наставник:
Научи, что считается вежливым, грубым или неформальным в [язык], чтобы я не звучал как робот.

— Тренер произношения:
Научи произносить [трудное слово/звук], включая положение рта и типичные ошибки, которых стоит избегать.

— Расшифровщик фраз:
Переведи фразу, которую я услышал на [язык], и объясни её скрытый смысл, включая сленг и культурный контекст.

— Промт уверенности:
Играй роль доброжелательного преподавателя. Задай мне 3 вопроса начального уровня на [язык] и помоги уверенно ответить, даже если я ошибаюсь.

Хотите больше крутых промптов? 🚀 Присоединяйтесь к нашему телеграм-каналу, где мы делимся ими и не только!

Кстати, недавно сам начал изучение разговорного английского языка и наткнулся на крутого бота в тг - Speakadora AI. За 30 дней неплохо подкачался даже!

Теги:
+1
Комментарии0

🖥 В Google AI Studio можно БЕСПЛАТНО попробовать новую фичу: нативная генерация изображений той же моделью, что и обрабатывает ваш текст. То самое, что показали OpenAI ещё в мае '24-го (но так и не выпустили, хотя обновления приложений/сайта подсказывают, что скоро должны).

Модель И видит вашу картинку, И рисует сама новую, без вызова отдельной модели, занимающейся генерацией. Это позволяет ей делать попиксельную копию, внося нужные изменения — смотрите примеры. И да, можно загрузить СВОЮ картинку, и после этого просить её перерисовать — так я сделал с крестиками-ноликами.

Можно придумать много всякого крутого, жду ваших креативов в комментариях!

Попробовать тут
(справа нужно выбрать модель «Gemini 2.0 Flash Experimental»)

Еще недавно выходил Firebase Studio — новый интересный сервис от Google, более подробно я рассказал у себя в телеграм-канале.

Теги:
0
Комментарии0

✍️ В ChatGPT прокачали память.

Теперь чат-бот помнит историю всех диалогов, может ссылаться на них и отвечать с учетом предыдущего опыта общения. Так ИИ начет подстраиваться под ваш стиль общения, интересы и задачи, а ответы станут более точными и персонализированными.

Память можно отключить в настройках или редактировать. Доступно для подписчиков Pro и Plus.

Попробовать

В своём телеграм-канале я стараюсь публиковать эти самые новости раньше всех. Велком!

Теги:
-1
Комментарии1

Сегодня, в международный день космонавтики, Awakari запускает семантический поиск. Поехали!

Новый тип фильтра используется по умолчанию в "простом" режиме создания нового интереса. В продвинутом режиме он назван "Similarity".

Под капотом, Awakari извлекает текстовый сниппет из каждого нового события и конвертирует его в вектор используя языковую модель, которая понимает около 100 языков. Есть выбор из нескольких уровней совпадения:

  • Weak соответствует косинусу угла между векторами ≥ 0,75. Для более слабой фильтрации.

  • Medium: косинус ≥ 0,85. Рекомендуемый уровень по умолчанию, который неплохо работает во многих случаях.

  • Strong: косинус ≥ 0,95. Для получения строго совпадающих результатов.

Теги:
0
Комментарии0

🤯 Кодеры, для вас подгон: VSCode получил бесплатную замену Cursor — Agent Mode. Он анализирует кодовую базу и исправляет ошибки, пока код не выполнится успешно.

Что ещё может Agent Mode:
— Предлагает внести изменения в файлы;
— Выполняет команды в терминале;
— Работает с расширениями, а следовательно может ещё и: управлять браузером и автоматизировать действия, лазить по GitHub, чтобы разобраться с багами, интегрироваться с облачными платформами.

Инструкция по включению прилагается:
— Обновляем Visual Studio Code до последней версии;
— Запускаем VSCode и переходим в режим Chat, нажав на соответствующую кнопку справа;
— Авторизуемся через GitHub;
— В настройках устанавливаем параметр chat.agent.enabled;
— В окне чата выбираем Agent из выпадающего списка.

Про сам Cursor, кстати, неоднократно рассказывал у себя в телеграм-канале!

Теги:
+2
Комментарии0

Вышла Llama 4 Scout:

17B активных параметров, 16 экспертов, 109B всего.

Можно запустить на о одном GPU H100 (с INT4-квантизацией).

Окно контекста 10M токенов.

Превосходит предыдущие версии Llama на мультимодальных задачах, одновременно требуя меньше ресурсов.

=======

На Cerberas работает почти моментально – 4000 токенов в секунду.

Cerebras
Cerebras
Теги:
0
Комментарии1

Шпаргалка, которая поможет быстро найти нужный ИИ-сервис. Все нейросети актуальные и удобно разбиты по категориям.

Теги:
0
Комментарии1

⚡️Cursor в прошлом: Google выпустила сервис Firebase Studio, который генерирует готовые приложения с нуля.

Из интересного:
— Поддерживает все популярные языки и фреймворки;
— Под капотом мощная Gemini пишет и редачит код за вас;
— Можно закинуть свой проект и работать с ним;
— Завезут умных агентов, которые будут помогать в разработке.

Пользуемся бесплатно — здесь.

Про сам Cursor, кстати, неоднократно рассказывал у себя в телеграм-канале!

Теги:
0
Комментарии0

Представлена подборка из 100 ресурсов для создания ИИ-агентов под большинство задач по всевозможным темам: от RAG, MCP-cерверов, мульти-агентов и саморефлективных моделей до узкоспециализированных агентов для подбора ресторанов, отелей, буста продуктивности и организации рабочих задач.

Теги:
0
Комментарии0

Джон Кармак выступил в защиту ИИ для разработки игр и заявил, что «создание мощных инструментов — ключевой двигатель всего прогресса».

Соавтор Doom и Quake заявил в ответ на критику разработчиков и пользователей, что развитие искусственного интеллекта поможет создавать больше игр и делать их более качественными, а также привлечёт в индустрию новых специалистов. В качестве наглядного примера развития технологий Кармак привёл написание машинного кода для своих первых игр, чем уже никто не занимается. По словам Кармака, сейчас подобное занятие можно сравнивать с «обслуживанием колёс у боевой колесницы», ведь появились игровые движки, которые делают разработку удобнее и эффективнее. Аналогичным образом ИИ-инструменты станут помогать разработчикам в будущем.

Думаю, вы неправильно поняли, что собой представляет эта технодемка, но я всё же отвечу на то, что, как мне кажется, вас волнует, — что ИИ-инструменты обесценивают навыки программистов, художников и дизайнеров.

Мои первые игры создавались вручную: я сам собирал машинный код и превращал персонажей, нарисованных на миллиметровке, в шестнадцатеричные числа. Сегодня всё это стало таким же устаревшим занятием, как обслуживание колёс у боевой колесницы.

Создание мощных инструментов — ключевой двигатель всего прогресса в компьютерной отрасли.

Игровые движки кардинально расширили круг людей, вовлечённых в разработку игр, хотя при этом и отодвинули на второй план ту самую системную инженерию, которую я всегда так ценил.

ИИ-инструменты помогут лучшим из лучших достичь ещё более впечатляющих высот, позволят небольшим командам делать гораздо больше и откроют путь в индустрию совершенно новым группам создателей.

Станет ли рабочих мест в игровой индустрии больше или меньше — вопрос открытый. Всё может пойти по пути сельского хозяйства, где технологии позволили сократить число работников до минимума, сохранив эффективность.

А может — по сценарию соцсетей, где креативное предпринимательство расцвело на всех уровнях. Но в любом случае стратегия «не использовать мощные инструменты, потому что они отнимают рабочие места» не сработает.

Джон Кармак.

Ранее Microsoft опубликовала техническую демонстрацию ИИ-версии игры Quake II, которая работает на базе нейросети Muse. Команда проекта обновила модель машинного обучения так, чтобы она могла генерировать картинку с большим разрешением и с большей скоростью.

Теги:
+4
Комментарии0
1
23 ...

Вклад авторов