Все потоки
Поиск
Написать публикацию
Обновить
1178.43

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга
Уровень сложности

Сэм Альтман знает, как достичь AGI. Я тоже, и сейчас расскажу как

Уровень сложностиСредний
Время на прочтение15 мин
Количество просмотров47K

«Теперь мы уверены, что знаем, как построить AGI в том виде, в каком мы традиционно его понимали… Сейчас это звучит как научная фантастика, и даже говорить об этом как-то безумно. Все в порядке — мы уже были там раньше и не против оказаться там снова.» Такое сообщение 6 января опубликовал Сэм Альтман.

Человечество нашло дорогу, по которой можно дальше и дальше улучшать качество моделей, и мы не видим здесь никакого предела. Про эту дорогу знает Альтман, и скоро узнаете вы.

Поехали в AGI

ChatGPT и молодое поколение

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров32K

Интересный пост увидел на реддите про то, как молодое поколение использует ChatGPT для бездумного решения домашних заданий заданий

Под катом мое мнение, небольшой исторический экскурс и предложения по улучшению системы образования.

Давайте обсуждать, ждет ли нас «Идиократия»

Читать далее

Senior. Туда и обратно: что я сначала не понимал в своей карьере, а потом как понял

Время на прочтение14 мин
Количество просмотров54K
За шесть лет в IT, и в команде Machine Learning Technologу Research «Лаборатории Касперского» в частности, я прошел путь от стажера до Data Science Team Lead. Шел честно :) И на каждой ступени проходил через разные нюансы, о которых и хочу рассказать в этой статье. Полагаю, мой опыт будет полезен как начинающим коллегам, чтобы увидеть для себя недостающие аспекты профессионального роста, так и более опытным специалистам, чтобы отрефлексировать свой опыт и задуматься о том, что помогло им в карьере. Кстати, было бы здорово послушать и о ваших аспектах роста в комментариях :)


Читать дальше →

Я не знаю, как заставить вас осознать, что ChatGPT незаметно творит

Уровень сложностиПростой
Время на прочтение11 мин
Количество просмотров119K

Я прочитала в Forbes статью Джонатана Гиллхэма, основателя Originality.ai. Он сказал, что большинство людей думают, что могут распознать ИИ, но они ошибаются. По его словам, мы больше не можем отличить ИИ от человека, и единственный способ отличить его - это совместное использование человеческих глаз и инструментов обнаружения ИИ.

Вы можете назвать меня скептиком, но он - генеральный директор компании, занимающейся обнаружением ИИ, поэтому я хотела убедиться в этом сама. Смогу ли я увидеть разницу, и сможет ли это сделать ИИ.

Для начала мне нужно было, чтобы ChatGPT написал кое-что для меня.

Приготовьтесь.

Читать далее

Создаем воспоминания. Осваиваем FLUX, LoRA и ComfyUI

Время на прочтение7 мин
Количество просмотров28K

Разбираюсь на праздниках с дообучением моделей для генерации изображений. Было интересно, насколько сложно дообучить модель для генерации изображений по тексту в домашних условиях, сколько нужно обучающих данных и как затем генерировать качественные фотографии и иллюстрации.

Чтобы через время не забыть про особенности процесса и как-то его зафиксировать, решил поделиться наработками. Под катом подробности и еще немного фотографий АБССС.

Читать

ChatGPT без VPN за 10 минут (и установка нативного приложения)

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров209K

Уверен, многие читатели Хабра знакомы с этим способом, ведь он существует не первый день. Чтобы сэкономить ваше время, я скажу всего два слова: comss DNS.

Все остальные - велком под кат :-)

Читать далее

о3 теснит программистов? Как OpenAI снова всех удивила

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров22K

Привет, Хабр! Меня зовут Владимир Крылов. Я профессор математики, научный консультант Artezio и автор телеграм-канала Ai4Dev. Наша команда внимательно следит за развитием технологий ИИ и их влиянием на разработку ПО. Последний анонс OpenAI заставил меня написать о новых технологиях по горячим следам. Обычно я предпочитаю дожидаться реальных результатов тестирования. Однако презентация с последнего дня рождественского мероприятия OpenAI сломала все барьеры.

Читать далее

Сбер выкладывает GigaChat Lite в открытый доступ

Уровень сложностиСредний
Время на прочтение18 мин
Количество просмотров28K

Салют, Хабр! В начале ноября мы делились с вами новостями о нашем флагмане GigaChat MAX и пообещали рассказать подробнее о процессе создания наших Pretrain-моделей. Пришло время сдержать слово и даже пойти дальше! 

Предобучение больших языковых моделей — это одна из наиболее ресурсозатратных стадий, которая непосредственно влияет на весь дальнейший процесс обучения GigaChat. От успешности обучения Pretrain-модели напрямую зависит качество всех следующих этапов обучения, например, Alignment и Vision. Поэтому сегодня мы хотим поделиться весами младшей модели линейки GigaChat версий base и instruct. Модель называется GigaChat-20B-A3B, так как построена на перспективной МоЕ-архитектуре!

Но и это ещё не всё. Вместе с весами мы делимся с сообществом улучшенной реализацией DeepSeek МоЕ, а также кодом для механизма концентрации (а что это такое — читайте дальше ;)). Важно отметить, что хотя GigaChat-20B-A3B обучался на триллионах токенов преимущественно русского текста, он ещё способен на хорошем уровне понимать другие языки. Так что мы делимся мультиязычной моделью. О том, как запускать модель, какие версии доступны и как пользоваться контролируемой генерацией с помощью механизма концентрации, расскажем прямо сейчас!

Узнать что такое MoE

Смарт-функции в Алисе: как LLM помогает понять, чего хочет пользователь

Время на прочтение41 мин
Количество просмотров8K

Так уж вышло, что раз в несколько лет мы переписываем сервис, отвечающий за диалоговое взаимодействие в Алисе. В прошлый раз мы распиливали монолит на микросервисы, переходили от концепции интента к концепции сценария и улучшали качество классификации. Этот рефакторинг позволил нам научиться горизонтально масштабироваться, ускорил выпуск фичей и дал возможность существенно улучшить качество работы диалогового движка. На этой инфраструктуре мы жили 5 лет.

Совсем недавно мы начали новый виток развития Алисы: мы хотим поместить в самое сердце (точнее, в самый мозг) нашего диалогового движка большую языковую модель. В этом году мы уже добавили в Алису возможность отвечать с помощью LLM на любые вопросы, а теперь взялись за то, чтобы Алиса стала более универсальной и могла выполнять любые задачи пользователя.

Например, пользователь может сказать: «Алиса, выключи телевизор, когда закончится этот матч». До появления смарт‑функций Алиса ответила бы, что «этого пока не умеет», так как подобной задаче её не обучали. Теперь нейросеть сама разложит запрос на два действия — посмотрит, сколько осталось до конца, и поставит таймер выключения на это время. Или если в запросе будут разного типа задачи, например одна про контент, а другая — про звук, Алиса тоже разложит их на понятные для нее части и выполнит: «Алиса, включи первый фильм на громкости 20».

Дальше я расскажу, как мы это собираемся делать.

Читать далее

Запускаем 8B LLM в браузере: AQLM.rs

Время на прочтение4 мин
Количество просмотров16K

Меня долгое время интересовал запуск больших языковых моделей на пользовательских устройствах: есть что‑то в том, чтобы запустить одну из лучших языковых моделей на обычном домашнем компьютере или на мобильном телефоне, помещающемся в карман.

В этом посте я расскажу о своём пет‑проекте AQLM.rs. Я написал инференс модели Llama 3.1 8B, работающий в браузере на WebAssembly без использования GPU, с помощью алгоритма сжатия, разработанного нашей лабораторией.

Попробовать можно на сайте проекта, подробности под катом.

Читать далее

Как я взломал одну из самых топовых нейросетей (Claude 3.5 Sonnet) для студенческой научной статьи

Уровень сложностиСредний
Время на прочтение33 мин
Количество просмотров22K

Я — простой студент, который обучается по направлению «Информационная безопасность». Так вышло, что по программе мне нужно было написать научную статью по теме ИБ. Будучи авантюристом я выбрал тему, которая была мне ближе и интереснее... и так получилось, что в пылу энтузиазма я немного перевыполнил свой план. К сожалению, я был ограничен в объеме по написанию научной статьи, и много интересного материала пришлось вырезать или сократить. Поэтому, тут я хотел бы написать полную версию моей статьи, во всяком случаи, какой я бы хотел ее видеть.

Как итог - у меня получилось полностью снять защиту в современной и защищенной языковой модели, и написать программу которая это автоматизирует. Эта модель признана одной из лучших.

Читать далее

Почему LLM так плохо играют в шахматы (и что с этим делать)

Уровень сложностиПростой
Время на прочтение14 мин
Количество просмотров11K

В своём последнем посте я говорил об одной загадке: все большие языковые модели (LLM) ужасно играют в шахматы. Все, за исключением gpt-3.5-turbo-instruct, которая по какой-то причине умеет играть на уровне продвинутого любителя. И это несмотря на то, что этой модели больше года и она намного меньше новых моделей. Что происходит?

Я предложил четыре возможных объяснения:

Теория 1: достаточно большие базовые модели хороши в шахматах, но это свойство не сохраняется после их подстройки под чат-модели.

Теория 2: по какой-то причине gpt-3.5-turbo-instruct обучали на большем объёме шахматных данных.

Теория 3: в некоторых архитектурах LLM есть нечто магическое.

Теория 4: существует «конкуренция» между разными типами данных, поэтому чтобы LLM могла хорошо играть в шахматы, большая доля данных должна быть информацией о шахматных партиях.

В Интернете нашлось ещё множество других теорий. Самые распространённые из них:

Теория 5: OpenAI жульничает.

Теория 6: на самом деле LLM не могут играть в шахматы.

Я провёл новые эксперименты. Хорошие новости — ошибались все!

В этом посте я покажу, что новые чат-модели достаточно хорошо могут играть в шахматы, если вы готовы зайти достаточно далеко, чтобы разобраться в составлении промтов. А затем я изложу свою теорию о происходящем.

Читать далее

«Охота на электроовец: большая книга искусственного интеллекта» или как написать книгу про ИИ без регистрации и SMS

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров18K

История о том, как за 6 лет я написал двухтомник, посвящённый искусственному интеллекту и машинному обучению

Читать далее

Ближайшие события

Нелогичные и зарегулированные города: почему нейросети плохо приживаются в городском проектировании

Уровень сложностиПростой
Время на прочтение14 мин
Количество просмотров11K

Боже, как я устал отбиваться от вопросов: «а какую нейросеть вы используете?».

Я работаю в лаборатории «Интеллектуальные технологии городского планирования» Университета ИТМО, и мой основной профиль — различные аспекты процедурной генерации в урбанистике. Мы делаем алгоритмы, способные проектировать самостоятельно или помогать проектировать живым людям разные штуки — парки, пешеходные дорожки, районы жилой застройки. Там, где у мясных мешков уходят месяцы на рисование генеральных планов в автокаде, наш алгоритм может сгенерировать результат за минуты окей, это наш рекламный слоган, в реальности все сложнее, но так тоже иногда получается.

И все, буквально все задают нам вопрос про то, какую нейросеть мы используем для генерации.

Никакую, блин! Нет у нас нейросетей. Шок! Сенсация!

На самом деле это очень больной вопрос. ИИ технологии сейчас захайпаны так, что бизнес готов к себе тащить что угодно, лишь бы поставить значок «содержит ИИ» на свой товар. Но вот представление о сфере у этого бизнеса зачастую очень примитивное. ИИ = нейросеть, и все тут.

Масла в огонь еще подливают студенты и разные исследователи‑дилетанты. Обычно это люди с программистским бэкграундом, но без опыта в урбанистике и городском планировании. Они привыкли любую проблему решать в духе: «ща быстренько данных в ML модельку накидаем и она нам всё сделает». И каждый раз объяснять им, почему в урбанистике у них вряд ли из этого выйдет что‑то практически применимое, поднадоело. Так что я решил описать ключевые проблемы тут, на Хабре.

Итак, почему же не удается (и не удастся в обозримом будущем) засунуть в какую‑нибудь ИИ‑ML‑DeepLerning‑%еще N хайповых слов%‑модель карты и проекты существующей застройки и заставить ее сгенерировать вам хоть новый квартал, хоть новый город?

Читать далее

Нейросетевой апскейлинг дома: вторая молодость для классических мультфильмов

Уровень сложностиСредний
Время на прочтение11 мин
Количество просмотров9.5K


В мире цифрового контента существует множество старых видеозаписей, которые заслуживают второй жизни. Будь то любимый мультфильм с потрескавшейся VHS-кассеты или редкий аниме-сериал с DVD, качество которого оставляет желать лучшего, у каждого есть свои «цифровые раритеты», которые хочется сохранить и улучшить.

С помощью нейросетей можно это осуществить. Сначала мы рассмотрим наш инструментарий, а затем сразу перейдём к кейсам использования. Каждый пример будет сопровождаться сравнениями, видео и скриншотами, чтобы показать реальный процесс и результат улучшения качества. Причём сделать эти шаги может каждый — бесплатно и без глубоких знаний в области нейронных сетей. Однако, как и любая обработка оригинального материала, этот подход может вызывать разные мнения.

Внимание: все видео в статье загружены на ютуб.
Читать дальше →

GigaChat MAX — новая, сильная модель GigaChat

Уровень сложностиСредний
Время на прочтение22 мин
Количество просмотров40K

Салют, Хабр! Прошедший сезон оказался богат на релизы: ровно год назад мы делились новостями о GigaChat Pro, затем весной рассказали об увеличении контекста и улучшении возможностей модели, а совсем недавно завершили обучение GigaChat Vision: мы научили GigaChat понимать картинки и уже пишем про это статью.

Наши модели непрерывно развиваются, обретая всё больше новых функций, и сегодня повод рассказать о них. Встречайте наш новый GigaChat MAX!

GigaChat MAX

State Space Models. Mamba

Уровень сложностиСложный
Время на прочтение15 мин
Количество просмотров9.5K

Ни для кого не секрет, что доминирующей на данный момент архитектурой в области Deep Learning являются трансформеры. Они произвели настоящий фурор и стали основой для самых известных LLM. На данный момент они используются почти во всех фундаментальных моделях, от тех, что с открытым исходным кодом, таких как Mistral, до закрытых, таких как ChatGPT. Однако, трансформеры не лишены некоторых недостатков. Сегодня мы разберём архитектуру под названием Mamba, которая претендует на то, чтобы стать соперником трансформеров и решить их уязвимости.

Читать далее

Сгенерированный ИИ код сделает вас плохим программистом

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров16K

Возможно, вас это устроит, если вы не стремитесь к самосовершенствованию и не хотите гордиться своей работой.

Для начала уточню, что под использованием сгенерированного ИИ кода я подразумеваю ситуацию, когда ИИ пишет код за вас, а не когда вы используете ИИ как инструмент обучения, чтобы лучше познать тонкости языков программирования и библиотек (по этому поводу у меня тоже есть своё мнение). Но если вы когда-нибудь применяли эти инструменты для того, чтобы ИИ писал код на основании имён методов или комментариев с нечётко описанной функциональностью, или вы используете ИИ для изучения и понимания собственной кодовой базы, чтобы не делать этого самостоятельно, то эта статья — про для вас.
Читать дальше →

Пишем Wake-on-LAN сервис на ESP8266 при помощи ChatGPT

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров14K


Мне нужен простой девайс с веб-страницей, заходя на которую, я смогу будить спящие компьютеры при помощи Wake-on-LAN магического пакета.

Готовые варианты для этой задачи уже есть, но все они имеют недостатки, которые были исправлены в моей версии этого приложения.

О том, как я писал прошивку и веб-страницу через ChatGPT, поведаю далее в статье.
Читать дальше →

Эксперимент: даём ChatGPT полный доступ к компьютеру

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров82K

Это статья написана от души и для души. Она не является: инструкцией, примером для подражания, призывом к действию или чем-то подобным.

Я абсолютный новичок в программировании, поэтому могу ошибаться в некоторых (или даже во многих) вещах. Я бы, наверное, даже не писал эту статью. Однако, проведя некоторое время в сети, мне так и не удалось найти похожий на мой проект. Именно поэтому я решил поделиться своей идеей с вами.

Читать далее

Вклад авторов