Все потоки
Поиск
Написать публикацию
Обновить
1178.53

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга
Уровень сложности

Нет, ваша генеративная модель меня не заменит

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров24K

За последние три недели я устранил пару проблем с производительностью, что потенциально сэкономило компании несколько сотен тысяч долларов (я подрядчик, поэтому, к сожалению, не получаю никаких премий).

Как я нашёл эти проблемы? Можно назвать это необъяснимой, основанной на опыте интуицией, шестым чувством нёрда; у меня просто возникло ощущение, что с системой что-то не так. За свои двадцать с лишним лет опыта я видел множество приложений и знал, что где-то в этой системе есть узкое место.

Я создал тестовый сценарий, чтобы точно замерить пропускную способность системы от времени, запустил инстанс VisualVM и прошерстил десятки потоков, трассировок стеков, снэпшотов памяти и CPU. Я обнаружил проблемы, написал их исправления и запустил всё заново. Бум! Производительность возросла в десять с лишним раз. Мой начальник и коллеги были счастливы, а продуктивность повысилась. Меня похвалили, и я ощутил отдачу от выполненного долга.

Но стоит помнить, что, строго говоря, это не были баги. Успешно проходили все юнит-тесты и интеграционные тесты, тесты BDD, линтеры, статический анализ кода и было выполнено несколько раундов проверок кода. Проблемы заключались в двух невинных строках кода (спрятанных среди тысяч других), казалось бы, не вызывавших никаких трудностей. Слава Богу, проблемы были найдены на этапе разработки и не затронули ни одной системы в продакшене (мои коллеги теперь могли выполнять свои тесты быстрее, поэтому скорость разработки сильно возросла).

Читать далее

Илон Маск против OpenAI: Полная история от любви до ненависти

Уровень сложностиПростой
Время на прочтение26 мин
Количество просмотров19K

В 2015 Маск убеждал Сэма Альтмана не жалеть никаких денег на найм топовых спецов, чтобы спасти человечество от зловредного супер-ИИ от Google – а сейчас он публично обзывает его «лжецом, жуликом и мошенником». В 2018 Маск оценивал шансы OpenAI на успех как «нулевые» – а теперь он хочет выкупить компанию за $97 млрд. В этом лонгриде мы детально разберемся: как так вышло, что Илон сначала помог запустить самую революционную ИИ-компанию современности, а потом стал главным ее хейтером?

Читать далее

Могут ли LLM писать более качественный код, если их об этом просто попросить?

Уровень сложностиСредний
Время на прочтение19 мин
Количество просмотров36K

В ноябре 2023 года, когда OpenAI добавила в ChatGPT возможность генерации изображений DALL-E 3 через веб-интерфейс ChatGPT, на короткое время возник мем: пользователи отправляли LLM базовое изображение и несколько раз просили «сделать его более X», где X могло быть чем угодно.
Примеры
Обычный парень становится всё более «бро».

Санта становится всё более «серьёзным».

Тренд быстро сошёл на нет, потому что все эти изображения были очень похожими и скучными; к тому же они необъяснимым образом все сводились к чему-то космическому, вне зависимости от исходного изображения и промта. Тем не менее, этот тренд достаточно любопытен с научной точки зрения тем, что столь бессмысленный и нечёткий промт каким-то образом влияет на конечное изображение, и что это изменение очевидно для пользователя.

А что будет, если я попробую похожий способ с кодом? Сгенерированный LLM код вряд ли будет мусорным (хоть это и возможно), поскольку он следует строгим правилам, и в отличие, например, от изображений, его качество можно измерить объективнее.

Если код в самом деле можно улучшить, просто при помощи интерактивного промтинга, попросив LLM «написать код получше» (хоть это и очень глупо), то это приведёт к огромному росту продуктивности. А если это так, то что произойдёт, если таких итераций с кодом будет слишком много? Каким станет эквивалент «космического» кода? Есть только один способ это выяснить!
Читать дальше →

Вакцина… от рака?

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров9.5K

Вакцина… от рака? Максимально недлинный рассказ про то, как иммунные клетки атакуют злокачественную опухоль с помощью антител и почему не стоит быстро ждать иммунного ответа; а также про важнейшие виды иммунопрепаратов, технологии создания терапевтических онковакцин и принципиальный подход к использованию нейросетей в этом деле.

Читать далее

Почему заводить «Алису» в доме с детьми — плохая идея?

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров91K

Здравствуйте, я мальчик Паша и я не умею пользоваться контрацептивами могу себе позволить много наследников. А ещё я люблю новые технологии.

И вот к чему это привело...

Тестирование с интеллектом: Пилотный проект внедрения ИИ в РСХБ-Интех

Уровень сложностиСредний
Время на прочтение24 мин
Количество просмотров4.3K

Привет! Я Антон Бородин, техлид проекта внедрения ИИ в процессы тестирования в РСХБ-Интех, занимаюсь применением ML/AI технологий. В этой статье расскажу о том, как мы внедряли технологии искусственного интеллекта в тестирование, предложу методики разработки API и UI-автотестов, основанные на ИИ, — текущие гипотезы, которые мы используем в работе. И, конечно, покажу, пример использования LLM для генерации автотестов.

ИИ окружает нас везде — ему посвящают конференции, митапы, исследования, а уж какое ожидание появилось от ИИ на фондовых рынках, вы и сами видите. Заметная часть рынка растет за счет компаний, которые как-то связаны с ИИ, делают соответствующее железо, софт или применяют ИИ в работе. И да, мы тоже захотели внедрить ИИ. И не абы как, а в тестировании. В марте прошлого года мы приняли решение, что будем внедрять ИИ — и началось.

Читать далее

Один бесконечный год или помогли ли нам инопланетяне внедрить ИИ в тестирование?

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров3.1K

Внедрение искусственного интеллекта в процессы тестирования программного обеспечения — это амбициозный и сложный проект, пилот которого мы запустили в прошлом году. Я Марина Каприз, заместитель руководителя блока качества в РСХБ-Интех. В этой статье расскажу, как был организован процесс внедрения ИИ в тестирование, с какими проблемами мы столкнулись и как их преодолели.

Тестируем!

Промпты для ChatGPT, которые могут повысить качество ответов ChatGPT

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров87K

Давайте будем честными.

Простые промпты наподобие "Напиши статью из 1500 слов под заголовком: Топ-10 продуктов, которые разрушают вашу печень» не дадут вам и 1% тех результатов, которые способен дать Chat GPT.

Читать далее

Конец программирования в том виде, в котором мы его знаем

Уровень сложностиПростой
Время на прочтение17 мин
Количество просмотров128K

В СМИ много говорят о том, что разработчики ПО скоро потеряют работу из-за ИИ. Я в это не верю.

Это не конец программирования. Это конец программирования в том виде, в котором мы его знаем сегодня.

Читать далее

Отчёт о запуске DeepSeek-R1 на Xeon 6132 c 768 ГБ памяти

Уровень сложностиПростой
Время на прочтение33 мин
Количество просмотров47K

Привер, Хабр!

В копилку статей про DeepSeek, которых здесь уже великое множество, хочу забросить ещё пять копеек в виде практического отчёта о инсталляции на Xeon, о котором меня попросили в комментариях к посту «Мануал по запуску полной модели DeepSeek-R1 локально...». Кому любопытно — может заглянуть под кат, ну а тем, кто уже выполнил упражнение по установке — вероятно будет совершенно неинтересно.

Прикоснуться к ИИ

Клон ChatGPT в 3000 байтах на C, основанный на GPT-2

Время на прочтение13 мин
Количество просмотров9.8K

Эта программа представляет собой свободную от зависимостей реализацию GPT-2. Она загружает матрицу весов и файл BPE из оригинальных файлов TensorFlow, токенизирует вывод при помощи простого энкодера, работающего по принципу частотного кодирования, реализует базовый пакет для линейной алгебры, в котором заключены математические операции над матрицами, определяет архитектуру трансформера, выполняет инференс трансформера, а затем очищает вывод от токенов при помощи BPE-декодера. Всё это — примерно в 3000 байт на C.

Код достаточно эффективно оптимизирован — настолько, что малый GPT-2 на любой современной машине выдаёт отклик всего за несколько секунд. Чтобы этого добиться, я реализовал KV-кэширование и применил эффективный алгоритм перемножения матриц, а также добавил опциональный OMP-параллелизм.

Взяв это за основу, можно создать некий аналог Chat GPT — при условии, что вас не слишком волнует качество вывода (объективно говоря, вывод получается просто ужасный… но решение работает). Здесь есть некоторые глюки (особенно с обработкой символов в кодировке UTF-8), а для эксплуатации модели размером XL с широким контекстным окном может потребоваться ~100 ГБ оперативной памяти. Но, если вы просто набираете текст в кодировке ASCII при помощи малого GPT2, то такая модель должна нормально работать примерно везде.

Я выложил весь код на GitHub, поэтому можете свободно брать его там и экспериментировать с ним.

Читать далее

Ускорение LLM: универсальные методы для популярных архитектур

Время на прочтение17 мин
Количество просмотров19K

ML‑модели применяются в сервисах Яндекса уже много лет, мы накопили большой опыт в их обучении. Статьи об этом коллеги регулярно публикуют, в том числе на Хабре. Но сегодня хочу обсудить другую не менее важную задачу — ускорение инференса (процесса работы на конечном устройстве) моделей. Скорость зависит от разных условий, главным образом от архитектуры и железа, но есть множество интересных способов повлиять на неё. Особенно актуальна проблема тяжёлого инференса при использовании больших языковых моделей (LLM) — на то они и large!

Для команды YandexGPT, в которой я и тружусь вместе со своими коллегами, тема инференса LLM находится в разряде вечных вопросов. С предыдущей статьи прошёл уже почти год, опыта у нас стало больше — получилось протестировать новые подходы, которыми и хочется поделиться сегодня.

Читать далее

DeepSeek-R1 для чайников

Уровень сложностиСложный
Время на прочтение9 мин
Количество просмотров66K

В последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые такой подход эффектно показали в OpenAI o1, но, к сожалению, подробности там остаются секретными. Недавно же команда DeepSeek наделала шуму с открытыми вариантами R1 и R1-Zero, созданными поверх их собственной большой MoE-модели DeepSeek-V3. В этом посте я не стану углубляться в вопрос «чья модель лучше — o1 или R1». Зато разберу, какие главные технические детали стоят за R1, почему Zero-версия выглядит особо захватывающе, и как именно авторам удалось обучить модель мыслить.

Читать далее

Ближайшие события

DeepSeek — новый ChatGPT, Qwen — новый DeepSeek? Проверяем модели в разработке, иллюстрациях и готовке

Время на прочтение11 мин
Количество просмотров23K

Казалось бы, мир еще не успел оправиться от новостей о китайской нейросети, которая догнала ChatGPT и обвалила фондовый рынок. Но вот уже DeepSeek не справляется с потоком пользователей, а техногигант Alibaba презентовал обновленную модель — Qwen 2.5 Max. При этом решения из Китая не только бесплатны и с открытым кодом, но и кратно дешевле в разработке. С другой стороны, иной подход может сказаться на цензуре и «трудностях перевода» по сравнению с западными моделями.

Меня зовут Антон, я инженер по информационной безопасности в Selectel. В тексте сравню СhatGPT с двумя китайскими собратьями — Qwen и DeepSeek. Оценим их по нескольким критериям: логика, генерация изображений и исправного работоспособного кода. Добро пожаловать под кат!
Читать дальше →

«Будущее за узкой специализацией»: судьбоносное интервью Ляна Вэньфэна, основателя DeepSeek, посвящённое v2

Уровень сложностиПростой
Время на прочтение17 мин
Количество просмотров24K

Кремниевая долина потрясена: в сфере искусственного интеллекта назревает тектонический сдвиг, и весь мир следит за Китаем. DeepSeek-r1 произвела эффект разорвавшейся бомбы, сравнявшись по возможностям с топовыми решениями OpenAI. Восток диктует новые правила игры, и перед всем миром встаёт важный вопрос: а что если будущее ИИ создаётся вовсе не в Кремниевой долине?

Перед вами интервью с основателем DeepSeek, опубликованное в июле 2024 года. Оно состоялось вскоре после выхода в открытый доступ модели DeepSeek-v2, мгновенно сделавшей компанию известной на весь мир. В этой беседе Лян рассказывает, как маленький китайский стартап осмелился перепрыгнуть титанов индустрии и переопределить саму концепцию инноваций.

Приятного прочтения (-:

Читать далее

Как AI захватывает Хабр, и почему это всех бесит

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров14K

Если вы частый гость на Хабре, то, скорее всего, уже сталкивались с этим странным феноменом. Открываете статью, она выглядит вполне прилично: логичная структура, правильные запятые (редкость, кстати), даже мысль какая-то есть. Читаешь, вроде интересно... но что-то не так. Какой-то пластмассовый привкус остаётся после прочтения. А потом ты листаешь комментарии и видишь: «AI-генерат, автор в бан!» И ты такой: «Точно! Вот что меня смутило!»

Добро пожаловать в эру AI-контента, где искусственный интеллект строчит статьи быстрее, чем ты успеешь допить свой утренний кофе. И проблема в том, что Хабр превращается в свалку бездушных, однотипных текстов, которые вроде бы и правильные, но читать их невозможно. Давайте разберёмся, почему это раздражает.

Читать далее

Интервью с DeepSeek: в чем смысл жизни и свиных крылышек

Время на прочтение15 мин
Количество просмотров27K

Китайский стартап DeepSeek выпустил в открытый доступ свою большую языковую модель DeepSeek-R1, которая, как заявлено, лучше аналогов от OpenAI, а обучение этой модели было гораздо дешевле. Кроме того, DeepSeek действительно открытая и ее можно запустить локально.

В этой статье вас ждет действительно простая инструкция по развертыванию локальной модели DeepSeek. А также короткое, но разнообразное интервью на русском языке с DeepSeek-R1, ее локальной копией, ChatGPT-4o и ChatGPT-o1.
Читать дальше →

LLM против детских вопросов: смотрим, как GPT o1, QwenLM и DeepSeek справятся с детскими задачами

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров17K

Как часто сейчас в ИТ сообществе можно услышать про невероятные успехи LLM моделей? ИИ написал диссертацию за 30 минут, ИИ пишет программы на уровне middle разработчика, ИИ диагностирует болезнь с точностью 99.99999% и много много других впечатляющих заголовков пестрят на сотнях сайтов. И это не говоря о том, что создатели таких ИИ моделей заявляют, что через 2-3 года ИИ станет умнее человека чуть ли не в каждой сфере жизни.

А так ли это? Давайте поищем парочку не совсем хитрых, но интересных задач, с которыми может справиться даже ребенок (немного подумав, конечно), но не может справиться современный ИИ.

Ознакомиться

Как установить и использовать ИИ модель DeepSeek R-1 на вашем компьютере

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров299K

Многие говорят о DeepSeek R-1 - новой языковой ИИ-модели с открытым исходным кодом, созданной китайской ИИ-компанией DeepSeek. Некоторые пользователи утверждают, что по возможностям рассуждения она не уступает или даже превосходит модель o1 от OpenAI.

В настоящее время DeepSeek можно использовать бесплатно, что является отличной новостью для пользователей, но вызывает некоторые вопросы. Как при таком резком росте числа пользователей они справляются с затратами на сервера?

Ведь эксплуатационные расходы на оборудование не могут быть дешевыми, верно?

Единственный логичный ответ здесь - данные. Данные - это жизненная сила ИИ-моделей. Вероятно, они собирают данные о пользователях, чтобы использовать их в своей модели квантовой торговли или для другой формы монетизации.

Поэтому, если вы беспокоитесь о конфиденциальности данных, но при этом хотите использовать R1, не предоставляя свои данные, лучший способ - запустить модель локально.

Читать далее

Заменяем хабраюзеров ИИ-агентами. Гайд по browser-use

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров17K

TLDR: видео с результатом в конце статьи

Библиотека browser-use невероятно стрельнула практически в день релиза, на текущий момент это около 16 тысяч звезд на Гитхабе, и сотни восторженных отзывов на Reddit, в Твиттере, и так далее. Команду, создавшую browser-use даже приняли в YC. У неё революционная точность по сравнению с другими "ИИ агентами использующий браузер" (89% против Runner H с 67%).

Я очень удивился, что на Хабре всё ещё нет статьи с описание того, что это, и как это использовать. Сегодня мы это исправим: мы сделаем ИИ, который будет читать статьи на Хабре, и писать комментарии о том, почему продукт, описанный в статье, никому не нужен.

Добро пожаловать в мир ИИ-агентов!

Вклад авторов