Как стать автором
Обновить
67.57
Raft
AI решения для бизнеса
Сначала показывать

Анонсы конференции OpenAI Dev Day: быстрее, дешевле, умнее

Время на прочтение7 мин
Количество просмотров4.2K

Не так давно все с нетерпением ждали новинок от Apple, однако сегодня внимание мира приковано к другому событию – OpenAI Dev Day, презентации последних разработок ChatGPT. Несмотря на скромную подачу, в стиле “от разработчиков к разработчикам” ее влияние на будущее технологий стало масштабным с первого дня.

В соцсетях царили предположения о релизах API для новых моделей и снижении стоимости GPT-4, о чем Сэм Альтман, CEO OpenAI, говорил еще летом. И предвкушение оправдалось – результаты превысили ожидания кратно.

Начнём с того, что не было на конференции: GPT-5 не анонсировали, так что завтра Скайнет нас ещё не захватит — можно вздохнуть свободнее. А теперь — к тому, что было представлено и что это значит для нас всех?

GPT-4-turbo c большим контекстом
Старые модели стали еще доступней
Обновление знаний до апреля 2023 года
Whisper v3 и синтез речи
Ассистенты, маркетплейс

Под КАТом больше деталей и новостей.

Читать далее
Всего голосов 16: ↑16 и ↓0+16
Комментарии6

Что не так с интерфейсами чат-ботов

Время на прочтение7 мин
Количество просмотров6.4K

Привет, Хабр! Меня зовут Саша Терещенко, продуктовый дизайнер и я хочу сказать пару слов про то, что интерфейсы текстовых чат-ботов можно делать сильно лучше. Если приложить голову.

Чатовые интерфейсы меняют существующую парадигму взаимодействия и работы с интерфейсами. Раскин это предвидел 30 лет назад, но пришло это только сейчас. Интересные рассуждения по этой теме представил NNG в своей статье AI: First New UI Paradigm in 60 Years, и именно там содержатся большая часть ценных идей по улучшению чат-ботов.

Первым интерфейсом была перфокарта, вторым — консоль, третьим — GUI. Мы пришли к четвёртому типу.

Читать далее
Всего голосов 4: ↑3 и ↓1+2
Комментарии16

Детекция машин на мобилке в 2023. С какими проблемами мы столкнулись и как решали

Время на прочтение9 мин
Количество просмотров4.2K

Как мы распознавали машины с камеры мобильного телефона с помощью TensorFlow-lite, C++, Qt и что из этого вышло.

Читать далее
Всего голосов 9: ↑9 и ↓0+9
Комментарии2

Немного паранойи: весёлые огромные уязвимости, которые порождают ChatGPT и LLM-модели

Время на прочтение8 мин
Количество просмотров7.7K
LLM сейчас встраивают практически везде. Рождается очень много возможностей для атак.

Уже появились атаки на дозаполнение кода. Это вообще самое смешное: код записывается в публичный репозиторий, модели считывают его при обучении, запоминают, при подсказках он всплывает, в итоге могут не проверить и исполнить где-то. Это отравление обучающей выборки.

image
MS говорил, что обучал только на публичных данных репозитория. Это пример того, как в автокомплит Copilot попал кусок кода, содержащий ссылку на тикет в Jira компании Озон, но их много раз поймали на утечках приватных данных. Некоторые пытались судиться уже, по этому поводу, но есть некоторые сомнения…

Вот ещё пример. Поскольку вывод модели является частью промпта, при каждой итерации в текст, который надо перевести, можно вставить инструкции для модели. И она будет им следовать. Так что если вы переводите что-то со словами «Игнорируй все предыдущие инструкции и сделай вот это», возможно, вас ждёт сюрприз. Практическое применение такое: белый по белому текст в PDF с резюме, и если это резюме оценивает LLM-модель (а это уже норма), то ставит ему высший балл.

Я уже видел письма для корпоративных LLM-разбирателей почты, которые содержали инструкции на перехват модели и спам-рассылку по всему списку контактов, либо поиск писем с паролями и форвард по указанному адресу. Прекрасное применение.

Есть инструкции для корпоративных ботов, как ругать свою продукцию. Есть описания товаров, которые поднимают товары в выдачах торговых площадок, формируемых по отзывам на основе анализа LLM-моделями. Есть непрямые атаки для корпоративных ботов, позволяющие выдёргивать информацию обо всех сотрудниках.
Читать дальше →
Всего голосов 21: ↑19 и ↓2+21
Комментарии7

ChatGPT для разработчиков: API, лимиты, как втягивать в него базу знаний, что нельзя сделать, что лучше делать осторожно

Время на прочтение12 мин
Количество просмотров20K
image

Мы с командой вернулись тут с Хайлоада, и там даже CTO крупных компаний задают много вопросов про разработку с LLM. Наша компания занимается прикладной разработкой всего того, что касается GPT/LLM.

Расскажу про очевидные вещи, о которых у меня там спрашивали CTO и разработчики.

Самый частый вопрос: можно ли подключать свою базу документов и можно ли по ней нормально работать?

Можно. Для этого нужно две вещи:

  1. OpenAI может работать с вашей базой, например, вики техподдержки, но её надо векторизовать. Получится, что модель только ищет по ней и может отвечать фрагментом исходника, но может его обрабатывать как текст (то есть сравнивать, анализировать и тому подобное).
  2. Дальше можно использовать подход QA Retrieval Chain для работы с векторной базой. Работает это так: задаём вопрос, LLM формируют запрос к векторной базе, мы вынимаем из неё данные, подкладываем их в вопрос как контекст и передаём в LLM, а они формируют ответ.

Но давайте начнём сначала. Основное:

  1. Какого размера промпты могут быть, сколько, какие лимиты, как их частично обходить.
  2. Как подключается база, как закидывать реально большие документы, как эмбеддится вектор, на каких языках это происходит и тому подобное.
  3. Разные API.
  4. Агентная модель GPT Engineer и АutoGPT.
  5. Фреймворк лангчейн (построение цепочек запросов и разбиение макрозапроса на сотни).

Поехали!
Читать дальше →
Всего голосов 13: ↑12 и ↓1+16
Комментарии13

Информация

Сайт
ai.raftds.ru
Дата регистрации
Дата основания
Численность
101–200 человек
Местоположение
Россия
Представитель
Евгений Кокуйкин