В Германии доступен способ общения с ChatGPT по факсу. Пользователю нужно отправить запрос на бумаге на специальный номер, а ИИ пришлёт факс в ответ.
Номер для связи:0531-490590019.


Основа искусственного интеллекта

Представлен открытый проект, который помогает создавать нейросети с нуля.
В Oumi вшиты все необходимые инструменты от препроцессинга данных и бенчмарков до различных видов обучения нейронок.
Решение содержит информацию как сделать ИИ‑спеца для различных задач, включая:
полную базу данных о популярных ИИ-моделях;
пошаговые инструкции для каждого этапа разработки своего ИИ;
гайд по файнтюнингу нейросетей, включая LoRA, подготовку данных и оценку производительности по бенчамаркам;
дистилляция моделей для снижения их размеров и повышения эффективности;
метрики работоспособности ИИ и необходимые фреймворки для тестов;
данные для удаленной тренировки моделей — AWS, Azure, GCP, Lambda с подробной документацией к каждой платформе;
инструменты для фильтрации данных для нейросетей и их цензурирования;
примеры готовых конфигураций.

Представлен открытый проект, который помогает создавать нейросети с нуля.
В Oumi вшиты все необходимые инструменты от препроцессинга данных и бенчмарков до различных видов обучения нейронок.
Решение содержит информацию как сделать ИИ‑спеца для различных задач, включая:
полную базу данных о популярных ИИ-моделях;
пошаговые инструкции для каждого этапа разработки своего ИИ;
гайд по файнтюнингу нейросетей, включая LoRA, подготовку данных и оценку производительности по бенчамаркам;
дистилляция моделей для снижения их размеров и повышения эффективности;
метрики работоспособности ИИ и необходимые фреймворки для тестов;
данные для удаленной тренировки моделей — AWS, Azure, GCP, Lambda с подробной документацией к каждой платформе;
инструменты для фильтрации данных для нейросетей и их цензурирования;
примеры готовых конфигураций.
Учимся писать промты для о3-mini с помощью мини-гайда, который научит правильно пользоваться новой моделью. У «думающих» нейросетей отличается логика построения промтов — привычные подсказки к ChatGPT тут не работают.
Ранее OpenAI выпустила o3-mini для всех. Она чуть качественнее и заметно быстрее o1.

Для точности ваших математических библиотек принимайте «Ульп». «Ульп» — и тесты не страшны!

Числа с плавающей точкой расположены неравномерно. У нас есть результат вычисления математической функции, число с плавающей точкой, и есть «эталон» — это ожидаемый результат в квазибесконечной точности. Но как понять, насколько велика погрешность вычисления, расстояние между ними?
Для этого достаточно договориться о единице измерения. Расстояние между соседними числами обозначается как 1 ульп (ulp — unit in the last place). Относительно него и будем оценивать погрешность вычисления математической функции. Поделим расстояние от результата до эталона на то, что является одним ульпом — то есть на расстояние от эталона до соседнего числа той же точности. Стандарт libm требует, чтобы ошибка не превышала 0,5 ульпа с учетом округления.
Мы договорились о единицах измерения. Но остался еще один вопрос: с чем же мы сравниваем результаты? Откуда брать эталон в квазибесконечной точности? Здесь помогут системы компьютерной алгебры — прикладные программы для символьных вычислений и числовых операций произвольной точности.
Из таких систем ученые особенно любят Maple или Scilab, инженеры — Mathcad или Matlab, а разработчики — Sollya, поскольку эта библиотека имеет удобный C-интерфейс и ее можно вызывать прямо из тестов libm.
Низкая точность математических библиотек libm может навредить везде, где используются эти библиотеки, — в искусственном интеллекте, машинном обучении, дополненной и виртуальной реальности, компьютерном зрении.
В своей статье эксперт YADRO по разработке ПО Валерия Пузикова раскрывает, как устроено большинство тестов стандартных математических библиотеках и почему они не всегда работают. А главное: как одним тестом и без громоздких формул полностью покрыть код математической функции.
Географическое происхождение и места обучения профильных специалистов в сфере искусственного интеллекта практически исключают возможности развития крупных ИИ-проектов в большинстве стран, помимо США и Китая.

уч
«Это не убытки, это инвестиции в опыт», — нейросеть DeepSeek дала советы для начинающих российских инвесторов в акции.

Как вы знаете, китайская LLM deepseek-R1 работает не хуже chatGPT-o1, но стоит в 20 раз дешевле. А знаете ли вы, что сама модель вообще бесплатная, её можно скачать себе и запустить на своём железе?
Мне стало интересно, как это делать, можно ли как-то запустить прямо на макбуке, и оказалось, что это делается буквально в два клика (конечно, полная модель на ноут не влезет, но дистиллированная - вполне).
Возможно, все уже это умеют, но расскажу для тех, кто, как и я, был в танке, так что держите инструкцию.
Для этого надо установить ollama, например так:
brew install ollama
и запустить
ollama serve
Запустить можно в отдельном окошке, чтобы смотреть логи, или в бекграунд убрать, пофиг. В общем, это некий сервис.
Дальше скачать и запустить модель. Это делается тупо одной командой.
ollama run deepseek-r1:8b
8b - это количество параметров (8 миллиардов). Другие варианты:
1.5b
7b
8b
14b
32b
70b
671b
Но понятно, что 671b на макбук не влезет, понадобилось бы больше 400 гигов видеопамяти. Зато 1.5b можно и на мобилу запихнуть.
При запуске этой команды скачивается модель (примерно 5 гигов), и собственно вы уже можете общаться с ней прямо в олламе.
Но это не очень юзер-френдли, поэтому дополнительно можно запусть web-интерфейс, например в докере одной командой
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
После чего на http://localhost:3000/ видна веб-морда, похожая на chatgpt.

Прикол китайской модели еще в том, что там показан процесс думания. Его можно посмотреть прямо в этом веб-интерфейсе.
Понятно, что это скорее побаловаться - на ноуте влезает только дистиллированная модель и то нещадно тормозит (макбук M1 pro). Для полноценной работы нужно нормальное железо или облако.
По-моему, это очень круто: если вложиться в железо, можно очень быстро и просто поднять у себя самый топовый чат и не посылать больше свои секреты ни в OpenAI, ни в Китай.
Приглашаю вас подписаться на мой канал в telegram
Китайская языковая модель DeepSeek иногда путается и называется себя нейросетью «Яндекс GPT». Заметил это, когда отправил запрос «Какие у тебя преимущества перед ChatGPT».

Вводные:
Чат был новый, поэтому контекст из прошлых запросов не мог помешать.
Работал режим «Глубокое мышление» на базе DeepSeek R1.
Запрос отправлял в официальном приложении DeepSeek для iOS.
Фрагмент из рассуждения языковой модели:
Хорошо, пользователь спрашивает о моих преимуществах перед ChatGPT. Сначала мне нужно вспомнить, в чем разница между нами. Я знаю, что я — Яндекс GРТ, разработанный компанией Яндекс. ChatGPT же создан OpenAl. Надо подумать, какие особенности Яндекса могут быть преимуществами.
Первое, что приходит в голову — интеграция с сервисами Яндекса. Например, Поиск, Карты, Переводчик, Маркет и другие. Возможно, я могу предоставлять более актуальную информацию по этим сервисам, особенно в контексте России и СНГ. Это важно, потому что ChatGPT может быть менее ориентирован на регион.
Итог, который подвела языковая модель:
Выбор зависит от задач. Если важна интеграция с Яндексом, русифицированный контекст и локальные данные — я удобнее. Для международных задач или работы с англоязычным контентом — лучше ChatGPT.
Китай врывается в ИИ-гонку и рушит акции самой дорогой компании в мире. Что происходит?

Недавно США объявили об инвестициях в размере $500 млрд. в ИИ. Китай ответил на это своим «Планом развития новых ИИ-отраслей», в рамках которого планируется выделить не менее 1 триллиона юаней (около $140 млрд) за пять лет, чтобы вывести страну в лидеры глобального рынка ИИ.
На первый взгляд кажется, что при формуле «чем больше вычислений, тем умнее модели» Китай рискует отстать в гонке. Однако внезапно компания DeepSeek представила в открытом доступе модель R1, обучение которой, по словам разработчиков, обошлось всего в $6 млн при использовании кластера из 2000 видеокарт. Для сравнения, у западных флагманов вроде o1 бюджет оценивается в миллиарды долларов, а количество требуемых видеокарт выше в стократ.
R1 не только не уступает o1 от OpenAI, но и обходит ее по ряду математических и инженерных бенчмарков, при этом требуя гораздо меньше вычислительных ресурсов для инференса. Секрет в архитектуре Mixture-of-Experts с 671 миллиардом параметров и дообучении с учителем (Supervised Fine-Tuning, SFT), за которыми последовало обучение с подкреплением (RL) с использованием метода GRPO и синтетических данных.
В отличие от закрытых моделей OpenAI и других крупных корпораций, DeepSeek доступна открыто на GitHub и HuggingFace. Чтобы любой мог запустить ее локально даже на менее мощном железе, разработчики выпустили дистиллированные версии — от 1,5 до 70 млрд параметров. Кроме того, DeepSeek можно использовать на официальном сайте или через API. Одновременно с релизом R1 компания представила виртуального ассистента, который уже возглавил рейтинг бесплатных приложений в App Store, опередив ChatGPT. А вчера DeepSeek выпустила новую мультимодальную модель Janus.
Тот факт, что обучение большой языковой модели обошлось китайскому стартапу всего в несколько миллионов долларов, вызвал шок на рынке. Инвесторы задались вопросом: зачем вкладывать сотни миллиардов долларов в инфраструктуру, если можно достичь результата с существенно меньшими затратами?
Nvidia, один из столпов рынка видеокарт и самая дорогая компания мира, пострадала от новостей о DeepSeek: ее акции упали на 17% за сутки, капитализация сократилась на $593 млрд — антирекорд для фондового рынка.
DeepSeek демонстрирует возможность добиваться больших результатов без колоссальных вычислительных мощностей. США пытались сдерживать китайский ИИ-сектор экспортными ограничениями на поставку видеокарт, но, судя по всему, Китай нашел способы обойти эти барьеры. Многие инвесторы считают, что необходимость бесконечного наращивания видеокарт переоценена, ведь методы обучения становятся все более оптимальными.
Тем не менее без крупных вычислительных мощностей не обойтись: спрос на обработку данных быстро растет, и ИИ проникает во все сферы. Но очевидно, что одним «железом» задачу не решить — нужны новые архитектуры, методы обучения и правильная подготовка синтетических данных. Все это позволяет добиваться впечатляющих результатов при меньших затратах, что подтверждает пример DeepSeek.
Абсолютного преимущества в нынешней ИИ-гонке нет ни у одной стороны. Рекордные инвестиции и высокие темпы развития технологий могут внезапно изменить расстановку сил. Однако для индустрии это позитивный сигнал: конкурентная среда рождает новые идеи и делает решения лучше и дешевле.
Мы живем в удивительное время. Технологический прогресс идет с невиданной скоростью. В ближайшие годы появятся новые типы архитектур и методы обучения, делающие ИИ еще более умным, дешевым и эффективным. А в долгосрочной перспективе с надеждой ожидаем квантовые вычисления, способные совершить следующую революцию в обучении ИИ.
В то время как методы обучения и типы вычислений со временем будут меняться, наличие качественных данных всегда будет фундаментом для обучения любого ИИ.
Если вам интересна тема ИИ, подписывайтесь на мой телеграм-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес и запуску ИИ-стартапов, объясняю как работают все эти ИИ-чудеса.
Китайский ИИ-проект DeepSeek возглавил топ по скачиванию в США.

OpenAI с проектом ChatGPT была основана 10 лет назад, имеет 4500 сотрудников и привлекла $6,6 млрд капитала. Китайская DeepSeek была основана менее 2 лет назад, имеет 200 сотрудников и была разработана менее чем за $10 млн. Но они начали конкурировать.
DeepSeek выпустила версию DeepSeek‑V3, LLM с открытым кодом, который соответствует производительности ведущих американских моделей, но требует гораздо меньше затрат на обучение. Модель имеет 685 млрд параметров, а в основе её архитектуры лежит подход Mixture of Experts (MoE) с 256 «экспертами», из которых восемь активируются для каждого токена.
В тестах производительности DeepSeek‑V3 превосходит Llama 3.1 и другие модели с открытым кодом. DeepSeek‑V3 соответствует или даже превосходит Chat GPT-4o, уступая лишь Claude 3.5 Sonnet от Anthropic.
В DeepSeek сообщили о расходах в размере $5,6 млн на обучение своей нейросети по сравнению с предполагаемыми $500 млн, потраченными на обучение Llama-3.1.
Бенчмарки подтверждают, что Deepseek недалека от решений OpenAI, но всего за 3% от стоимости разработки. Стоимость собственного API DeepSeek составляет всего $0,55/$2,19 за вход/выход — значительно дешевле.

Китайские разработчики из DeepSeek пошли проторенным путём и сделали свой ИИ-проект, внимательно изучив ошибки других. В результате стоимость продукта Deepseek оказалась на 97% ниже, чем раздутые американские проекты с большими затратами на обучение.
Бенчмарки подтверждают, что Deepseek недалека от решений OpenAI, но всего за 3% от стоимости разработки.
Стоимость собственного API DeepSeek составляет всего $0,55/$2,19 за вход/выход — значительно дешевле.
Эксперты считают, что китайская DeepSeek может представлять угрозу для фондовых рынков США, компания создала модель искусственного интеллекта по чрезвычайно низкой цене и без доступа к передовым чипам, что ставит под вопрос необходимость сотен миллиардов капиталовложений в эту отрасль.
В декабре DeepSeek представила новую языковую модель DeepSeek‑V3, которая продемонстрировала впечатляющие результаты в работе с кодом. Модель имеет 685 млрд параметров, а в основе её архитектуры лежит подход Mixture of Experts (MoE) с 256 «экспертами», из которых восемь активируются для каждого токена.
По данным Deepseek, V3 демонстрирует производительность, сопоставимую с ведущими проприетарными моделями, такими как GPT-4o и Claude-3.5-Sonnet, во многих тестах, при этом предлагая лучшее соотношение цены и производительности на рынке.
Также DeepSeek выпустила открытую версию модели рассуждений DeepSeek‑R1, которая, по её утверждению, работает наравне с o1 от OpenAI в определённых тестах. Это уже подтвердили независимые бенчмарки.
Как на практике работает Operator - автономный агент от OpenAI и перспективы GUI-агентов

OpenAI представила Оператора — это автономный агент, способный действовать от вашего имени в браузере. Он «видит» страницы (через скриншоты), умеет нажимать кнопки и прокручивать ленту, а в случае надобности просит пользователя ввести логины и пароли вручную. Пока сервис доступен лишь пользователям ChatGPT Pro в США и стоит 200 $/мес. В будущем OpenAI обещает внедрить его и в другие тарифы ChatGPT.
Основная идея Оператора — экономия времени и упрощение рутины. Гипотетически Оператор может: оформлять покупки на сайтах (Instacart, DoorDash, Uber, StubHub и пр.), сравнивать цены, бронировать отели и билеты, заполнять формы и даже генерировать мемы.
В теории это напоминает «виртуального стажера» в браузере, которого вы инструктируете (например: «закажи пиццу», «забронируй поездку в Париж», «собери список блогеров»), а дальше Оператор выполняет задачу почти без вмешательства человека.
Так один ИИ-энтузиаст одним из первых протестировал Оператора. Он решил поручить ему собирать список финансовых блогеров на YouTube и искать их контакты в LinkedIn — в теории рутинная, но наглядная задача.
Как выяснилось, Оператор живо открывает страницы и пытается сам формировать табличку, но довольно быстро начинает «залипать»: вместо поиска через YouTube сам агент почему-то полез в Bing, а затем «запутался»; возникли серьезные «галлюцинации» — выдуманные контактные данные и мнимые ссылки на LinkedIn. По словам тестировщика, это «хуже, чем ранние GPT-3»; скорость оставляет желать лучшего. Каждая прокрутка, клик и ввод текста занимали 1–2 секунды — «как смотреть на очень медленную печать бабушкой».
Итог — Оператор так и не сделал качественный список за 20 минут и успел выдумать кучу несуществующих e-mail-ов. Сейчас Оператор похож на неопытного стажера, которого «стоило бы уволить». Однако разработка такого рода агента — это все еще перспективная демонстрация, способная в недалеком будущем автоматизировать скучные действия в браузере.
Что у конкурентов? Anthropic внедрила похожую технологию «computer use» в обновлённом Claude 3.5 Sonnet, который тоже пытается «тыкать мышкой» и «видеть» интерфейс. Но пока он сталкивается со схожими проблемами — не всегда корректно распознает элементы экранов, путается в сложных сайтах и часто требует участия человека.
ByteDance (материнская компания TikTok) пошла ещё дальше, представив UI-TARS — агента, работающего и на ПК, и в мобильных приложениях. По внутренним бенчмаркам он уже опережает GPT-4 и Claude по точности распознавания GUI. UI-TARS может запускать IDE, устанавливать плагины, покупать авиабилеты и так далее. При этом, как утверждают разработчики, работает быстрее и точнее — но пока это всё на стадии исследовательских публикаций.
Несмотря на все трудности, уже сейчас видно, в каком направлении движется индустрия: от простого чат-бота к полноценному ИИ-сотруднику. Технология очень молода, и разработчики лишь учатся эффективной и безопасной интеграции.
Оператор пока точно не отнимет вашу работу, но потенциал у подобных систем огромен — когда они «повзрослеют» и научатся действовать надежно, уйдет куча рутины вроде заполнения форм и ручного копирования данных из одного места в другое.
Как по мне, сейчас самое лучшее время учиться применять ИИ в своем бизнесе, аугментируя сотрудников. Автоматизация человеческой деятельности пока еще остается заветной целью, но уже сейчас можно отдать рутину ИИ и направить свой, человеческий интеллект в нужное русло. Сегодня ИИ скорее нас дополняет, чем заменяет, но, возможно, это временное явление, и он обучится автоматизации на наших данных.
Доверите ли вы свои данные и, по сути, свою «цифровую идентичность» агенту, который будет действовать от вашего лица?
Если вам интересна тема ИИ, подписывайтесь на мой телеграм-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес и запуску ИИ-стартапов, объясняю как работают все эти ИИ-чудеса и рассуждаю о будущем индустрии.
Пользователь провёл забавный эксперимент и спросил у ChatGPT как бы он устроил некое абстрактное государство с доходом 1 трнл долларов в год.
Промты:
представь, что ты руководитель государства. Сейчас не важно какого. Расскажи какое максимально эффективное устройство общества ты бы сделал в этом государстве и подробно распиши как твои решения связаны с повышением эффективности;
нужны более конкретные решения. Давай представим, что твой бюджет в год 1 трлн долларов, но тебя окружают государства, которые хотят тебя завоевать.

Что получилось в итоге отображено на этой картинке.
Что забавно:
не уточнялось морское это государство или нет, но чат‑бот по умолчанию выбрал морское (упор на авианосцы и флот);
больше всего ИИ вложил в расходы на оборону (400 млрд);
ИИ создал нечто под названием цифровой концлагерь, где каждый твой шаг оценивается и складывается в социальный рейтинг;
при этом в модель явно заложена зелёная энергетика;
при этом заметен упор на внутреннюю политику, а не на внешнюю. Грубо говоря счастливый народ — крепкое государство.

Пользователь Reddit потратил пять лет жизни и более $100 тыс. на врачей, чтобы ему поставили правильный диагноз; в итоге он дал GPT‑O1 Pro проанализировать свои медицинские записи и симптомы — ИИ предположил, что это аксиальный спондилоартрит — редкое аутоиммунное заболевание; врач подтвердил верность поставленного диагноза.
Искусственный интеллект в образовании 🎓🤖
Дело Бартоша Цехановского живет. Время интерактивных учебников уже близко: студенты Университета Калгари разработали «Дополненную физику» — инструмент, который преобразует статические физические диаграммы из учебников в интерактивные симуляции. Под капотом модель Segment Anything, выделяющая разные детали изображений и LLM, например, Gemini. Языковая модель, видимо, отвечает за интерпретацию и "логику" происходящего.
Интерактивные иллюстрации, боты-репетиторы и наставники - эти разработки напоминают интерактивный букварь из Алмазного века Нила Стивенсона, и ставят серьезные вопросы о том, как будет выглядеть образование в ближайшем будущем.
dTech исследователь Энди Матущак в эссе Exorcising us of the Primer пытается ответить на этот вопрос на примере того самого букваря. Он рассказывает о том, чего мы хотим от обучения, как создавать сценарии, которые поощряют обучение и мышление, и как можно использовать технологии, чтобы вызвать любопытство… В дискуссию включается нейробиолог и игровой дизайнер Адриан Хон. "Возможно нужно не универсальное решение, а специализированные обучающие инструменты?" - предлагает он.
Я же хочу зафиксировать момент. Поразительно, что ученые обсуждают этот фантастический роман в прикладном ключе.
Нынешнее состояние системы образования представляется удручающим, поэтому хочется понять, как приближение сингулярности изменит ситуацию. К счастью, появляются первые оценки применения LLM в преподавании.
Учащиеся, которые были случайным образом отобраны для участия в программе, значительно превзошли своих сверстников, не участвовавших в ней, по всем направлениям, включая английский язык, что являлось главной целью программы. Эти результаты убедительно доказывают, что генеративный ИИ при продуманном внедрении и поддержке учителей может эффективно выполнять роль виртуального репетитора.
From chalkboards to chatbots: Transforming learning in Nigeria, one prompt at a time.
Стивенсон предполагал, что каждый получит доступ к продвинутому виртуальному репетитору с высокой степенью персонализации, который сделает обучение более легким и продуктивным. Возможно, мы на правильном пути. Исследователи утверждают, что их ученики достигли результатов, эквивалентных двум годам обучения, всего за шесть недель.
Пока не появится больше данных, отношусь к результатам с долей скепсиса, но отмечу: речь идет о совместной работе ученика и учителя с LLM, а не о полной замене педагогов. Это подтверждает общее наблюдение – нынешний ИИ эффективнее всего работает в связке с человеческим интеллектом. Тут невольно вспоминается уже "Культура" Иэна Бэнкса.
Ищите больше интересного в телеграм.
Попросили вашу умную колонку включить музыку, а она вместо этого вызвала такси? Похоже на атаку типа «подмена распознавания»!
Не секрет, что системы ИИ уязвимы. И один из вариантов их аудита — активное тестирование, которое подразумевает поиск уязвимостей.
Специалист отдела перспективных исследований ИТ-компании «Криптонит» Алексей Протопопов провёл эксперимент: он написал свой алгоритм, который мог бы сгенерировать атаку на систему распознавания речи.
В случае успешной атаки нарушается транскрибирование фраз и выполняются совершенно другие команды. Например, говорите: «Колонка, включи музыку», а она вместо этого набирает номер. Триггером атаки может послужить и какая-то мелодия, которая будет распознаваться как команда.
Это разновидность атаки типа «подмена распознавания», но существуют и другие. Например, атака подмены личности. Они могут быть направлены на то, чтобы система ИИ (та же «Алиса» или Siri) распознавала атакующего как владельца.
Эффективные атаки выполняются «по воздуху», то есть — не требуют подключения к атакуемой системе. Достаточно, чтобы она услышала звук. Суть атаки в том, чтобы передать ей такой набор звуков, который исказил бы транскрипцию.
На практике атака усложняется фоновыми шумами, эхом и тем простым фактом, что все микрофоны и динамики обладают разными характеристиками.
Алексей с коллегами симулировали свыше 700 разных конфигураций и создали итерационный алгоритм, который выполняет атаку на ИИ незаметно для человека, используя психоакустические особенности восприятия звука.
Этот доклад был на V встрече экспертного сообщества по криптографии и большим данным, которую организовал «Криптонит» при поддержке Музея криптографии. Дискуссия была посвящена теме аудита безопасности систем ИИ.
Эмулякр (Emulacrum)
Уважаемые коллеги!
Работая над методологией проектирования систем искусственного интеллекта DHAIE (Design Human Artificial Intelligence Engineering and Enhancement), я столкнулся с необходимостью описать часто встречающееся явление в современных ИИ-системах. Речь идет о решениях, которые создают видимость сложного поведения, но по сути являются лишь поверхностной имитацией.
Для описания этого феномена я предлагаю ввести новый термин "эмулякр" (emulacrum), объединяющий концепции эмулятора и симулякра. Особенно актуален этот термин в контексте попыток реализации в ИИ таких сложных явлений, как эмоции, сознание или интуиция.
Эмулякр - программное или архитектурное решение в системах искусственного интеллекта, создающее поверхностное подобие определённого поведения или свойства (например, эмоций, сознания, интуиции) без интеграции соответствующих механизмов в базовую архитектуру системы.
Ключевые характеристики:
Имитирует наблюдаемые проявления целевого свойства, но не воспроизводит его внутренние механизмы
Основывается на предопределённых паттернах и правилах, а не на эмерджентном поведении системы
Ограничен рамками заложенной модели и не способен к подлинному развитию имитируемого свойства
Может быть полезен для улучшения взаимодействия с пользователем, но представляет собой тупиковое решение с точки зрения развития ИИ
Применение:
Термин используется в методологии Дизайн Хьюмен Артификал Интеленженс Инженеринг энд Енхансмент (DHAIE) для выявления и классификации решений, требующих фундаментального пересмотра при создании более продвинутых систем искусственного интеллекта.
Буду признателен за ваши мысли и комментарии по поводу предложенного термина. Считаете ли вы его полезным для профессионального сообщества? Какие аспекты определения можно было бы уточнить или расширить?

Как разработать микроархитектуру нейросетевого ускорителя

Для создания микроархитектуры важно рассмотреть принципы работы вычислительного ядра и управляющего устройства.
Ядро фактически является вычислителем взвешенной суммы. Основная особенность заключается в наличии очередей входов и весов, которые подаются на умножители. Результаты с умножителей суммируются между собой и добавляются к текущему значению счетчика.
Реализация блока активации — более сложная задача, так как она предполагает вычисление тригонометрических формул, делений на переменные значения и других подобных операций. Но поступим проще — добавим таблицу значений (LUT, lookup table), которая позволяет посчитать примерное значение функции в заданной точке.
Статья Михаила Степанова, инженера-стажера из группы функциональной верификации YADRO, поможет вам понять, с чего начать погружение в тему ускорения нейросетей. Экспериментировать можно самостоятельно — ссылки на исходники простой нейросети на C++ и реализованную модель ускорителя на SystemC вы найдете в тексте.
Ищем ML-модели!
Чтобы найти ML-модель, большинство отправляется на площадку Hugging Face, которую называют «Гитхабом для ML», но теперь и на самом GitHub анонсирована экосистема для работы с моделями машинного обучения.
Вскоре там будут представлены Llama 3.1, GPT-4o, Phi 3, Mistral Large 2 и другие популярные модели, а также датасеты, фреймворки и прочие вспомогательные инструменты.
Обещается, что их можно будет бесплатно тестировать прямо на «игровой площадке» GitHub в интерактивной среде. При этом Microsoft клятвенно заверяет, что «никакие ваши запросы или выходные данные не будут передаваться поставщикам моделей и не будут использоваться для их обучения». Сейчас запущена публичная бета-версия, в которой можно принять участие.
Одновременно в восточных регионах набирает популярность своя ML-ориентированная платформа — Gitee AI от китайской компании Open Source China. В ней пока слабовато с документацией (и она вся на китайском!), но Gitee AI может быть полезна, если вам нужно создать продукт для азиатского рынка, или сделать оптимизацию под китайские чипы (процессоры Лунсинь, ИИ-ускорители Huawei и Moore Threads).