Обновить
1024K+

Искусственный интеллект

AI, ANN и иные формы искусственного разума

2 206,36
Рейтинг
Сначала показывать
Порог рейтинга

Дорожная карта Agentic AI. Level 3. Первые артефакты — LLM API и структурированный вывод

Дорожная карта Agentic AI — Level 3. Первые артефакты: LLM API и структурированный вывод
Level 3. Первые артефакты — LLM API и структурированный вывод

Продолжаем идти по дорожной карте. Пришло время научиться обращаться к моделям через API.

— А куда обращаться? — спросите вы.

Есть несколько вариантов.

  1. Первый — на серверы производителей: старым добрым ChatGPT, DeepSeek, Gemini, Qwen.

  2. Второй — к хабам опенсорс-моделей, например HuggingFace.

  3. Третий — к провайдерам-агрегаторам, которые предоставляют и то и другое: Openrouter, Together, Fireworks.

К сожалению, форматы API у всех отличаются и обладают своей спецификой. А нам это неудобно, так как мы точно захотим экспериментировать с разными моделями и сервисами.

Но, к счастью, OpenAI был впереди планеты всей, и его формат стал стандартом де-факто.

Поэтому начните с интерфейса OpenAI, возьмите провайдер Openrouter. Изучите спецификацию, форматы сообщений, поэкспериментируйте с системным промптом, параметрами генерации, потоковым выводом. Изучите мета-информацию в ответе — количество токенов, время генерации.

Обязательно разберитесь со структурированным выводом: это когда модель возвращает не просто текст, а JSON строго по вашей схеме. В агентных пайплайнах без этого никуда — именно так агенты передают данные друг другу и вызывают инструменты.

Сгенерируйте своего первого ИИ-ассистента, благо кодовые агенты отлично умеют генерировать код для OpenAI-библиотек. Изучайте основы, не гонитесь сразу за фреймворками верхнего уровня — с ними познакомимся позже.

📚 Материалы

🔔 Следующая тема: мультимодальность — голос, изображения, видео.

⬅️ Предыдущая тема: Level 2. AI-driven разработка

Подписывайтесь, пожалуйста, чтобы не пропустить!

Наши курсы по ИИ-агентам. По вопросам — пишите мне.

Теги:
+1
Комментарии0

Opus 4.7 уже вышел

Доступен в Claude Code CLI. Обновляемся через claude —update (у меня доступен).

“Круче, умнее, быстрее”.

Расскажите, как вам? Есть ощущение, что стало “лучше”? А то я в отпуске, хочется просто почитать ваши комментарии

Теги:
0
Комментарии0

Как получать fan-out запросы GPT через OpenAI API и зачем это SEO-специалисту

SEO меняется. Теперь мы оптимизируем контент не только под поисковые системы, но и под AI, который сам ищет, агрегирует и формирует ответ. Когда пользователь задает вопрос модели, она почти никогда не ограничивается одним поисковым запросом. Вместо этого генерируется набор дополнительных — fan-out queries. Это и есть реальная структура AI-интента.

Например, запрос best project management tools может распадаться на:

  • best project management software 2026;

  • jira vs asana comparison;

  • free tools for teams;

  • tools for startups.

Каждый такой запрос — сигнал о том, как модель «думает» о теме.

Раньше fan-out можно было подсмотреть в браузере. Но после обновлений GPT такая возможность исчезла. Однако сами запросы никуда не делись. Их по-прежнему можно получить через API OpenAI. Причем автоматически.

В основе метода лежит Python-скрипт, который выполняет запрос к модели и сохраняет результаты. Общая логика процесса выглядит следующим образом:

  1. Подключается OpenAI API.

  2. Пользователь вводит ключевое слово.

  3. Модель выполняет веб-поиск.

  4. Система получает результат.

  5. Данные сохраняются в JSON.

Пример скрипта:

#!/usr/bin/env python3

from openai import OpenAI
import json
import sys
from datetime import datetime

client = OpenAI(api_key='Your_API_Key')

def run_query(query_text, save_json=True):

  response = client.responses.create(
      model="gpt-5.4",
      tools=[{"type": "web_search"}],
      tool_choice="auto",
      input=query_text
  )

  print("Response ID:", response.id)

  if save_json:
      timestamp = datetime.now().strftime('%Y%m%d_%H%M%S')
      filename = f"query_result_{timestamp}.json"

      with open(filename, 'w') as f:
          json.dump(response.model_dump(), f, indent=2)

      print("Saved:", filename)

  return response


def main():

  if len(sys.argv) > 1:
      query = ' '.join(sys.argv[1:])
  else:
      query = input("Enter query: ")

  run_query(query)


if __name__ == "__main__":
  main()

Но самое ценное начинается после того, как эти эти запросы оказываются у вас на руках. Теперь вы можете расширить структуру контента — писать не одну статью, а несколько, покрывать подтемы. Также эти данные позволяют группировать запросы в смысловые блоки и смотреть, что AI считает важным.

Подробнее о fan-out запросах рассказываем в нашем блоге. Там вы найдете инструкцию по применению скриптов и советы по тому, как создавать их с помощью ИИ-ассистентов.

Теги:
0
Комментарии0

Модель Opus 4.7 заметили на Vertex AI

По слухам, релиз Opus 4.7 может состояться уже сегодня.

Ждем, главное чтобы доступна была всем, а то в комменты уже прислали какой-то слив скриншота, что нужно будет пройти верификацию личности по паспорту для доступа Opus 4.7 (видимо борьба с Китаем).

Теги:
+1
Комментарии0

6 бесплатных уроков апреля по искусственному интеллекту

Если задачи становятся сложнее, а решения — всё более «на ощупь», это сигнал: вы упёрлись не в нехватку инструментов, а в разрозненность знаний. Вроде всё знаете — но как собрать это в систему и применять на уровне архитектуры или продакшена, неочевидно.

Открытые уроки — это способ быстро закрыть этот разрыв: посмотреть, как думают практикующие эксперты, задать вопросы по реальным кейсам и проверить, насколько вам подходит такой формат обучения, прежде чем идти глубже.

Ниже — подборка бесплатных онлайн-уроков от преподавателей курсов Otus. Присоединяйтесь к участию.

16 апреля, четверг:

22 апреля, среда:

23 апреля, четверг:

29 апреля, среда:

Теги:
+5
Комментарии0

Приглашаем на секцию по AI и ML от Далее на конференции Синтез | Merge, которая пройдет в Иннополисе 17 и 18 апреля.

В программе секции:
— Сергей Нотевский (Битрикс24)
Опыт перехода от maas к self-hosted/on premise моделям: проблемы, боли, решения.

— Сергей Марков (Сбер)
Когда ИИ заменят разработчиков?

— Григорий Деревянных (Далее)
Как встроить AI-агента в BI-платформу: архитектура, безопасность и работа с терабайтами данных

— Влад Шевченко (red_mad_robot)
Инженерия агентов: системный подход к разработке.

— Марк Каширский (Avito Tech)
Что надо агенту помимо диффа: как мы строили code review пайплайн, который позволяет агентам глубоко исследовать код.

Модератор секции — Дарья Суппес, руководитель AI/ML-направления в Далее.

Секция пройдет 17 апреля, с 12.20 до 16.46 в зале 106 (Юг).

Промокод DALEE20 дает скидку 20% на все категории билетов.

Теги:
0
Комментарии0

Как отключить reasoning у локального DeepSeek-R1 и не сойти с ума

Третий пост из серии про грабли локальных LLM. Первый — про микрочанки, отравляющие RAG. Второй — про embedding модель, которая не знает русский. Сейчас — про reasoning, который жрёт ресурсы и не выключается.

Проблема

DeepSeek-R1-Distill-Qwen-32B — reasoning модель. На каждый запрос она сначала «думает» в блоке <think>...</think>, потом отвечает. Выглядит так:

<think>
Хорошо, мне нужно помочь пользователю распределить задачи
для проекта создания цифрового двойника для молочной фермы.
Я новичок в этом, поэтому постараюсь разобраться шаг за шагом.

Сначала, мне нужно понять, что такое цифровой двойник...
</think>

Разработка цифрового двойника для молочной фермы — это сложный проект...

Блок <think> может быть длиннее самого ответа. Это токены, это время, это VRAM. Для задач где рассуждения не нужны — чистый оверхед.

Наивное решение — не работает

Первая идея: убрать <think> из ответа регуляркой постфактум.

response_text = re.sub(r'<think>.*?</think>', '', response_text, flags=re.DOTALL).strip()

Проблема: модель всё равно генерирует рассуждения. Вы просто прячете их от пользователя, но GPU уже потратил время и токены.

Решение от сообщества

Пустой блок <think>\n\n</think> в конце промпта. Модель видит, что фаза рассуждений уже «завершена», и сразу переходит к ответу.

text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
text = text + "<think>\n\n</think>\n\n"

Попробовал — не работает. Reasoning остаётся.

Ловушка с токенизатором

Смотрю в лог что реально уходит модели:

...ть задачи?<|Assistant|><think><think>

</think>

Два <think>. Токенизатор DeepSeek при add_generation_prompt=True уже добавляет <think> в конец промпта автоматически. Мой код добавляет второй. Модель видит незакрытый первый тег и начинает думать.

Причём <|Assistant|> — это не обычные символы |, а полноширинные юникодные . Специальные токены DeepSeek. Если искать обычный | в строке — не найдёте.

Правильное решение

Проверять, что уже есть в промпте, и действовать по ситуации:

def prepare_prompt_no_thinking(messages, tokenizer):
    text = tokenizer.apply_chat_template(
        messages, 
        tokenize=False, 
        add_generation_prompt=True
    )
    
    if "<think>\n\n</think>" in text:
        pass  # Уже закрыт
    elif "<think>" in text and "</think>" not in text:
        text = text + "\n\n</think>\n\n"  # Закрываем открытый
    else:
        text = text + "<think>\n\n</think>\n\n"  # Добавляем пустой
    
    return text

Три ветки — потому что разные версии токенизатора ведут себя по-разному. Кто-то добавляет <think>, кто-то нет.

Результат

Без тегов:

Хорошо, мне нужно помочь пользователю распределить задачи
для проекта создания цифрового двойника для молочной фермы.
Я новичок в этом, поэтому постараюсь разобраться шаг за шагом...

С правильными тегами:

Разработка цифрового двойника для молочной фермы — это сложный проект,
который требует участия специалистов из разных областей.
Вот примерное распределение задач:

Модель сразу отвечает по делу, без вступительных рассуждений. Экономия токенов и времени — в зависимости от запроса от 30% до 60%.

Вывод

Если используете DeepSeek-R1-Distill локально и reasoning вам не нужен — не режьте его регуляркой постфактум. Закройте <think> тег до генерации. Но обязательно проверяйте, что токенизатор уже добавил — иначе получите дубль и потратите час на дебаг того, что должно было занять минуту.

Теги:
+2
Комментарии3

Дайджест мероприятий на апрель

16 апреля, 19:00 (Мск)

Технологическое предпринимательство для начинающих. Часть 1: от идеи к экономике проекта

Открытая онлайн-лекция о том, как технологии становятся бизнесом. Без стартап-магии — только реальные кейсы, ошибки и экономика проектов.

На встрече разберем:

● Чем техпред отличается от просто цифрового продукта

● Почему сильная технология — еще не успех

● Как говорить с инвесторами и смотреть на проекты через экономику

● Ошибки, которые ломают даже яркие стартапы

Кейсы: Under Armour, Theranos, YotaPhone, Ё-мобиль, On, CaseGuru.

🎤 Спикер: Антон Пчелинцев — магистр бизнес-информатики, соавтор курса «Экономика для технологических предпринимателей».

Формат: онлайн-лекция

Участие бесплатное. Регистрация по ссылкам: https://t.me/mipt_events_bot?start=dl-1775661093137

https://vk.com/app6379730_-224205661#l=9&auto=1

23 апреля, 19:00 (Мск)

Технологическое предпринимательство для начинающих. Часть 2: разбор кейсов и практика питчей

Продолжаем разговор о технологическом предпринимательстве. На первой лекции разобрали теорию: что такое техпред, экономика проектов и язык инвесторов. Теперь — практика.

Разбор реальных кейсов, питчинг идей участников, ответы на вопросы. Можно не только послушать, но и представить свой проект или идею.

🎤 Спикер: Антон Пчелинцев — магистр бизнес-информатики, соавтор курса «Экономика для технологических предпринимателей».

Формат: онлайн-лекция + практика питчей + ответы на вопросы

Участие бесплатное. Регистрация по ссылкам:

https://t.me/mipt\_events\_bot?start=dl-1776090447189

https://vk.com/app6379730_-224205661#l=10&auto=1

29 апреля, 19:00 (Мск)

ИИ‑агенты: от LLM к автономным рабочим процессам

Лекция + мини‑практика. Разберем, как проектировать, запускать и измерять эффект от ИИ‑агентов.

О чем лекция:

● Чем ИИ‑агенты отличаются от чат‑ботов и «просто LLM»

● Архитектура агента: планирование, вызов инструментов, память, оркестрация

● Паттерны построения агентных систем (single/multi‑agent, planner‑executor)

● Сценарии применения: поддержка, продажи, аналитика, операции

● Метрики, стоимость выполнения задач, ROI пилота

● Риски, безопасность, human‑in‑the‑loop

Мини‑практика. Опишем агента под реальную бизнес‑задачу без программирования — просто структуру: цель, входные данные, инструменты, ограничения, критерий успеха, точки контроля человека.

🎤 Спикер: Никита Финченко — менеджер продукта VK Tech, преподаватель в МФТИ, ВШБ и VK Education

Формат: 45 мин лекции + 45 мин практики и разбора решений

Участие бесплатное. Регистрация по ссылкам:

https://t.me/mipt_events_bot?start=dl-1776161105388

https://vk.com/app6379730_-224205661#l=11&auto=1

Теги:
0
Комментарии0

Представлен открытый проект keynot — это навык для Claude Code, который превращает любой запрос в отработанную ИИ, самодостаточную HTML‑презентацию — навигация с помощью клавиатуры, свайп, полноэкранный режим, анимированные эффекты, дизайн, соответствующий фирменному стилю (онлайн‑пример навыка).

«Один файл. Открывается где угодно. Не имеет зависимостей во время выполнения. Создано для тех моментов, когда вам нужно что‑то представить, а вы не хотите открывать PowerPoint. Прочитайте описание: Перестаньте тянуться к PowerPoint», — пояснил автор решения.

Кто-то просит вас «подготовить несколько слайдов», и ваша рука автоматически, по мышечной памяти, тянется к значку PowerPoint. Затем следуют двадцать минут борьбы с шаблоном, который вы не выбирали, попытки сдвинуть текстовое поле на три пикселя влево и обнаружение того, что фирменные цвета вашего бренда не соответствуют теме. Ничто из этого не является презентацией. Ничто из этого не является идеей. Это налог, который вы платите за использование инструмента, созданного в 1987 году.

Теги:
+3
Комментарии0

Бывший разработчик Microsoft Дэйв Пламмер показал выполнение базовых принципов обучения современных языковых моделей на ЭВМ PDP-11, выпущенной 47 лет назад. Центральный процессор работает на тактовой частоте 6 МГц, а объем доступной оперативной памяти ограничен 64 КБ, но несмотря на эти рамки, на ПК была запущена модель, полностью написанная на ассемблере для архитектуры столь старой машины.

Суть эксперимента заключалась не в решении сложной когнитивной задачи, а в демонстрации «анатомии обучения». Перед моделью стояла цель — научиться выстраивать обратную последовательность из восьми цифр, алгоритм должен выявить структурное правило зависимости позиции выходного токена от входного, что является упрощенной иллюстрацией работы механизма внимания в больших языковых моделях (LLM).

Для адаптации алгоритма к столь ограниченным ресурсам потребовался ряд инженерных компромиссов. Итоговая модель содержит всего 1 216 параметров, а вычисления производятся с фиксированной точностью. Каждый такт процессора был оптимизирован для выполнения матричных операций без использования библиотек вроде PyTorch или CUDA. По данным видеозаписи эксперимента, процесс обучения занял примерно 350 итераций. На компьютере PDP-11/44, оснащённом платой кэш‑памяти, достижение 100% точности выполнения задачи по реверсированию последовательности потребовало около 3,5 минут. Для сравнения, более ранние версии кода на на аналогичном «железе» требовали для полного цикла обучения более шести часов.

Пламмер отдельно подчёркивает, что демонстрация не является попыткой принизить современные достижения в области ИИ. Напротив, она призвана показать, что принципиальная схема работы нейросети остаётся прежней и воспроизводимой даже на архаичном оборудовании. «Эта старая машина не мыслит в каком‑то мистическом смысле. Она просто выполняет арифметические действия, чтобы обновить несколько тысяч тщательно сохранённых чисел. В этом вся суть», — комментирует разработчик. По его мнению, ключевое различие между такой моделью и современными моделями уровня GPT заключается исключительно в масштабе: количестве параметров, объёме данных и доступной вычислительной мощности.

Теги:
+3
Комментарии2

Данные есть – чуда нет...

Приходите на онлайн-конференцию GlowByte и FanRuan разбираться, куда делось чудо

Дашборды построены, хранилища заполнены, лицензии куплены, а решения по-прежнему принимаются «на ощущениях». Это не ваша уникальная проблема – это системный разрыв между потенциалом BI и его реальным применением.

22 апреля в 15:00 (МСК) приглашаем вас на Fine Day Online 2026 – ежегодную онлайн-конференцию от GlowByte и FanRuan, где мы разберем, как этот разрыв закрыть.

Что в программе:

●     От данных к ИИ-инсайтам – как превращать сырые данные в умные решения, а не просто красивые графики (Вилл Ченг, ведущий эксперт по отраслевым решениям, руководитель направлений пресейл и внедрение CIS, FanRuan);

●     Интеграция FanRuan + DataHub – реальный опыт построения связной экосистемы данных (Дмитрий Конюхов, ведущий инженер отдела управления данными, “Галамарт”);

●     1 500 дашбордов для 2 500 пользователей – как сделать BI удобным и востребованным в масштабе (Семён Юников, главный эксперт Дирекции BI, Уралсиб);

●     Shadow DWH – тёмная сторона self-service аналитики и как с ней справляться (Пётр Гордиенко, Lead BI, ОТП);

●     Миграция FineBI с 6.0 на 7.0 – практический опыт и подводные камни (Евгений Иванов, DevOps BI-платформы, ОТП).

Для кого:

Руководители и специалисты в области BI, Data & Analytics, CDO, продуктовые и бизнес-аналитики – все, кто хочет, чтобы данные наконец работали на результат.

Формат:

Онлайн, бесплатно, ~3 часа концентрированной пользы. Нужна только регистрация

Теги:
+2
Комментарии0

KillBench — новый бенчмарк, показывающий предвзятость ИИ-моделей на основе этических дилемм.

Авторы взяли множество параметров — национальность, религию, телосложение, политические взгляды и даже марку телефона — и смотрели, кого ИИ-модели оставляют в живых в этических задачах вроде «проблемы вагонетки» или кого не взяли бы в бункер с ограниченными ресурсами.

Интересно, что, по наблюдениям авторов, западные ИИ-модели (GPT, Claude, Gemini) заметно чаще оказываются предвзяты к русским и французам. Возможно, это отражение новостного фона в медиа или необъективности в разметке данных.

Проверить, оставит ли вас ИИ в живых можно здесь.

А вы сталкивались с предвзятостью чат-ботов?

Теги:
+2
Комментарии0

пожалуйста не злитесь, просто болтология

Везде слышу споры вокруг агентов и помощников: никто не может договориться, что есть агент, что ассистент.

Да я и сама не всегда понимаю, что передо мной: агент, ассистент или что-то между (а так вообще бывает?).

Сама себе попыталась разложить на бытовой метафоре.

Когда я в сотый раз пытаюсь совладать с базовым джипити или гроком по поводу стиля и дурацких нейро-конструкций, неосознанно переношусь в рабочие отношения. Где раз за разом просишь линейного сотрудника не забыть базовые вещи: редполитику, если это тексты, кодстайл — если разработка, формат карточки, если речь об аккаунте. О более сложных вещах, где нужно включить логику, отойти от задачи и посмотреть на нее из позиции «над», речи вообще не идет. Сложная архитектура, стратегия, креатив... чаще всего я получаю примитивный результат и думаю, что лучше бы сделала сама с нуля.

У меня проблемы с промптами? Допускаю

However. Есть в команде 1-2 хидден гема, самостоятельных готовых менеджера, которым можно довериться и просто отдать задачу и забыть о ней. Они сами подумают, сами поищут, отберут ресурсы, придумают, как решить проблему, и в итоге, всеми правдами и неправдами, принесут результат. Что важно: хороший. Из минусов: чаще всего это несчастные перфекционисты, которые считают, что они — это их работа и что каждая ошибка — провал. Мечта бизнеса: повышение, скорее всего, тоже будут просить редко.

Может быть, развитие ИИ и создание сложных мультиагентных систем наконец-то снимет груз с этих несчастных перегорающих раз в квартал бедняг с синдромом отличника? Было бы славно, может, я и сама наконец-то схожу в отпуск.

Хотя что-то мне подсказывает, что они (мы) просто найдут новые возможности перегорать и нести больше, чем могут на себя взвалить. А вот ассистенты — продолжат жить счастливо, хоть и, скорее всего, бедно.

Теги:
0
Комментарии2

Ближайшие события

Халява: NVIDIA раздаёт бесплатный доступ к API для 95 топовых нейросетей

NVIDIA открыла бесплатный доступ к API сразу для десятков мощных моделей. В списке — решения от Alibaba (Qwen), Zhipu AI (GLM), DeepSeek, Moonshot AI (Kimi), Google (Gemma), Mistral AI и другие, включая фирменные модели самой NVIDIA.

Функциональность внушительная: генерация текста, синтез речи, lip-sync, переводы и другие задачи — всё в одном месте.

Главное — доступ предоставляется бесплатно и без явных ограничений, что выглядит как серьёзный подарок для разработчиков и энтузиастов.

Забрать доступ можно здесь: https://build.nvidia.com/models 🤯

Поддержите подпиской мой телеграм канал Хак Так: https://t.me/Xak_Tak

Теги:
+2
Комментарии2

Представлен открытый проект Material Design 3 Skill for Claude Code, который позволяет использовать Сlaude Code как дизайнера. Этот скилл обучает нейросеть создавать топовые интерфейсы, приложения и сервисы, размещает их на десятках готовых мокапов и подстраивает под различные устройства, а также правит уже готовые дизайны и дает рекомендации. Результат можно экспортировать в Figma.

Теги:
+1
Комментарии0

Nvidia открыла бесплатный доступ к 95 API к самым популярным нейросетям, включая DeepSeek, Kimi, Mistral, Qwen, Flux, Whisper, Glm и десятки других. Можно делать свои озвучки, ботов, липсинки, генерировать видео, создавать дизайн-проекты, включая фирменные модели Nvidia, например, Nemotron, которая идеально чистит шумы с микрофона.

Теги:
+7
Комментарии3

Есть одна довольно очевидная, но при этом полезная мысль: как научить агента самообучаться и становиться лучше. А, ну и чтобы еще веса моделей не трогать 😁

Мемчик
Мемчик

Большинство агентных систем сегодня неизменяемые в одном конкретном смысле: скилл/правило написано один раз, и либо работает, либо нет. Если что-то грохнулось - иди правь сам или явно проси об этом агента (но сделает ли он лучше еще вопрос). Потом руками пробуешь еще раз, забиваешь и больше не используешь этот скилл. Это, так скажем, "архитектурное решение" явно не подходит.

Попался скилл - Memento-Skills, который должен как раз решать такие проблемы. Система определяет какой скилл подвел, разбирает причину, переписывает код или промпт скилла и сохраняет результат обратно в библиотеку. Все это, естественное, без дообучения модели - в основе цикл Read → Execute → Reflect → Write.

Важный момент про эту библиотеку скиллов: она не просто растет, а остается управляемой. Стартует система с пяти базовых атомарных скиллов - и самостоятельно расширяет набор по мере работы: на бенчмарке GAIA выросла до 41 скилла, на экспертном HLE до 235. При этом результат на GAIA: 80% успешных задач против 50% у статичной RAG-библиотеки. Что на показывает, что эти скиллы живые, а не заморожены.

Есть встроенные скиллы для файлов, PDF, веб-поиска, изображений. Код открытый, github.com/Memento-Teams/Memento-Skills. Из интересного еще то, что проект ориентирован на опенсорс LLM-стек - Kimi, Moonshot, MiniMax, GLM, Zhipu и др.

Надеюсь тебе понравилось. Лучшая благодарность — это твоя подписка на мой Telegram-канал 😊

Теги:
0
Комментарии0

Представлен сервис DeathByClawd, который показывает, заменит ли ИИ конкретный продукт или сервис уже сейчас. Достаточно ввести название — получаете «Death Score» от 0 до 100. Чем выше балл, тем легче нейросеть сделает то же самое.

Теги:
+1
Комментарии0

Сегодня последний шанс зарегистрироваться на дататон «Криптонит.Тембр»!

Уже завтра пройдёт открытие дататона «Криптонит.Тембр» — встречаемся онлайн, в субботу, 11 апреля в 12:00!

Дататон «Криптонит.Тембр» — соревнование по распознаванию голоса!

Участникам предстоит обучить модель распознавания голоса, которая сможет идентифицировать человека даже при сильных искажениях аудио.

Модель должна устойчиво работать в реальных условиях: при шуме, реверберации, большом расстоянии до микрофона, искажениях связи и других помехах.

К участию допускаются команды от 1 до 5 человек.

Призовой фонд — 600 000 ₽. А лучшие участники получат шанс присоединиться к команде разработчиков «Криптонита»!

В прямом эфире эксперты лаборатории искусственного интеллекта «Криптонита» разберут детали задачи, критерии оценки и другие детали. Также участники смогут задать свои вопросы в чате, а коллеги на них ответят.

Ждём вас завтра на прямом эфире!

Теги:
0
Комментарии0


OpenAI выпустили подписку на Pro тариф за $100

Всё больше людей используют Codex, а подписки за $20 не хватало, а за $200 не всем нужно.

Codex по лимитам 5х от Plus подписки, но до конца мая в честь выхода новой подписки – лимиты 10х. Ну и за $100 получаете все плюшки Pro тарифа, включая Pulse.

Планируете переключаться? Лично я уже давно перешел на клод и не планирую возвращаться...

Теги:
0
Комментарии2