Как стать автором
Обновить
0
0

Пользователь

Отправить сообщение

Специалисты по информатике объединили два «красивых» метода доказательства

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров1.6K

Как доказать, что что-то истинно? Для математиков ответ прост: начните с базовых предположений и шаг за шагом дойдите до вывода. ЧТД, доказательство завершено. Если где-то есть ошибка, эксперт, внимательно прочитавший доказательство, сможет её заметить. В противном случае доказательство должно быть верным. Математики придерживаются этого базового подхода уже более 2 000 лет.

Затем, в 1980-х и 1990-х годах, учёные-информатики переосмыслили, каким может быть доказательство. Они разработали головокружительное разнообразие новых подходов, и когда пыль осела, два изобретения стали особенно заметны: доказательства с нулевым знанием, которые могут убедить скептика в истинности утверждения, не раскрывая причин его истинности, и вероятностно проверяемые доказательства, которые могут убедить читателя в истинности доказательства, даже если он видит лишь несколько крошечных фрагментов.

Читать далее
Всего голосов 10: ↑8 и ↓2+10
Комментарии2

Как я адаптировал v2rayN для России или российские источники geo файлов для v2ray/sing-box/etc

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров34K

Сегодня был выпущен мажорный релиз v2rayN v7.0, а вместе с ним и моя серия коммитов, которые добавляют поддержку пресета "Россия".

Для его работы так же был создан российский источник geo файлов для v2ray/sing-box/etc.

Читать далее
Всего голосов 46: ↑46 и ↓0+51
Комментарии75

Виды и обзор движков машинного перевода: Яндекс переводчик, Google Translate и DeepL

Уровень сложностиПростой
Время на прочтение11 мин
Количество просмотров3K

Многие компании или их сотрудники хоть раз использовали для своих задач онлайн-переводчики. Это быстро, удобно, но результат не всегда точный. Однако такой перевод иногда имеет неприятные последствия: его могут неправильно понять клиенты или бизнес-партнеры, что может испортить репутацию.

В прошлой публикации мы с командой делали обзор на лучшие программы локализации в 2024 году, вы можете прочитать его по этой ссылке. Сегодня же мы рассмотрим популярные движки машинного перевода (МП): Яндекс переводчик, Google Translate и DeepL. Оценим возможности каждого, сравним плюсы и минусы, для каких задач подходит тот или иной переводчик и расскажем, почему лучше не переводить важные документы онлайн. В данной статье будут упоминаться сторонние исследования и тестирования переводчиков с указанными на них ссылками. Приятного чтения! 

Читать далее
Всего голосов 5: ↑4 и ↓1+6
Комментарии13

Построим GPT: с нуля и шаг за шагом

Уровень сложностиПростой
Время на прочтение11 мин
Количество просмотров21K

В этой статье я построил GPT архитектуру на данных из произведений Шекспира и получил достаточно впечатляющие результаты.

Читать далее
Всего голосов 35: ↑34 и ↓1+41
Комментарии18

Рецензия на книгу “Базовая математика для искусственного интеллекта”

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров12K

Сегодня обзор новой книги по математическому аппарату ИИ — для всех вовлеченных в анализ данных и построение ML/DL моделей. «Базовая математика для искусственного интеллекта» (Essential Math for AI: Next‑Level Mathematics for Efficient and Successful AI Systems) от издательства O'Reilly Media, в переводе от БХВ Петербург — это фолиант на 600 стр. для дата-сайентистов всех уровней. Полезность книги — в обширном материале по мат.аппарату ИИ, собранном в одном месте.

Читать далее
Всего голосов 17: ↑15 и ↓2+22
Комментарии16

DETR: Бесконечная история

Уровень сложностиСложный
Время на прочтение13 мин
Количество просмотров2.6K

Всем привет, с вами команда Layer!
Мы рады сообщить, что совсем скоро выйдет наша новая исследовательская работа, посвященная поиску моментов в видео, релевантных пользовательскому запросу. Мы хотим сделать эту работу как можно более доступной для каждого, кто хочет глубже разобраться в теме. Поэтому мы решили написать этот небольшой туториал, посвященный семейству моделей DETR, так как они используются не только для детекции котиков на картинках, но и в таких необычных доменах, как детекция моментов в видео. Мы уверены, что среди читателей многие знакомы с основами DETR, однако подозреваем, что не все могли следить за её развитием. Всё‑таки по сравнению с YOLO, DETRу пиара явно не достает. В этой статье мы предлагаем краткий обзор эволюции модели, чтобы помочь вам лучше ориентироваться в новых исследованиях. Если же вы впервые слышите о DETR или хотите освежить свои знания, то бегом читать — тык, если после прочтения остались вопросы, то можно ознакомиться с этими видео — тык, тык.

Давайте детальнее разберёмся, что ждёт вас в этом туториале. Сначала мы рассмотрим недостатки оригинальной версии DETR, а затем перейдём к архитектурным улучшениям, которые либо устранили эти проблемы, либо заметно их сгладили. Начнём с Deformable DETR — модели, которая оптимизировала вычисления. Затем обратим внимание на Conditional DETR и DAB DETR — архитектуры, которые существенно переосмыслили роль queries в модели. Далее мы погрузимся в особенности DN‑DETR, который стабилизирует one‑to‑one matching. После этого детально разберём DINO DETR — модель, которая объединяет и улучшает идеи DN‑DETR и DAB‑DETR, а также переизобретает RPN для детекционных трансформеров. И в завершение нашего путешествия мы познакомимся с CO‑DETR, который объединил классические детекторы, такие как ATSS, Faster RCNN, и модели типа DETR, установив новые SOTA метрики на COCO.

Читать далее
Всего голосов 24: ↑20 и ↓4+22
Комментарии0

Никакого праздника без GPU: дообучение BERT на Vertex AI

Уровень сложностиСредний
Время на прочтение17 мин
Количество просмотров2.1K

Этот материал посвящён ускорению обучения моделей с использованием бессерверных заданий. В частности, речь пойдёт о том, как запускать обучение с применением Pytorch, GPU и платформы Vertex.

Читать далее
Всего голосов 9: ↑9 и ↓0+18
Комментарии0

Добавление собственных данных в LLM с помощью RAG

Уровень сложностиСредний
Время на прочтение28 мин
Количество просмотров31K

Этот материал посвящён тому, как добавлять собственные данные в предварительно обученные LLM (Large Language Model, большая языковая модель) с применением подхода, основанного на промптах, который называется RAG (Retrieval‑Augmented Generation, генерация ответа с использованием результатов поиска).

Большие языковые модели знают о мире многое, но не всё. Так как обучение таких моделей занимает много времени, данные, использованные в последнем сеансе их обучения, могут оказаться достаточно старыми. И хотя LLM знакомы с общеизвестными фактами, сведения о которых имеются в интернете, они ничего не знают о ваших собственных данных. А это — часто именно те данные, которые нужны в вашем приложении, основанном на технологиях искусственного интеллекта. Поэтому неудивительно то, что уже довольно давно и учёные, и разработчики ИИ‑систем уделяют серьёзное внимание вопросу расширения LLM новыми данными.

До наступления эры LLM модели часто дополняли новыми данными, просто проводя их дообучение. Но теперь, когда используемые модели стали гораздо масштабнее, когда обучать их стали на гораздо больших объёмах данных, дообучение моделей подходит лишь для совсем немногих сценариев их использования. Дообучение особенно хорошо подходит для тех случаев, когда нужно сделать так, чтобы модель взаимодействовала бы с пользователем, используя стиль и тональность высказываний, отличающиеся от изначальных. Один из отличных примеров успешного применения дообучения — это когда компания OpenAI доработала свои старые модели GPT-3.5, превратив их в модели GPT-3.5-turbo (ChatGPT). Первая группа моделей была нацелена на завершение предложений, а вторая — на общение с пользователем в чате. Если модели, завершающей предложения, передавали промпт наподобие «Можешь рассказать мне о палатках для холодной погоды», она могла выдать ответ, расширяющий этот промпт: «и о любом другом походном снаряжении для холодной погоды?». А модель, ориентированная на общение в чате, отреагировала бы на подобный промпт чем‑то вроде такого ответа: «Конечно! Они придуманы так, чтобы выдерживать низкие температуры, сильный ветер и снег благодаря…». В данном случае цель компании OpenAI была не в том, чтобы расширить информацию, доступную модели, а в том, чтобы изменить способ её общения с пользователями. В таких случаях дообучение способно буквально творить чудеса!

Читать далее
Всего голосов 22: ↑22 и ↓0+22
Комментарии1

Как анонимно продать или купить крипту

Время на прочтение5 мин
Количество просмотров54K

Сервис по мониторингу обменников Exnode

Как известно, анонимность — одно из базовых прав человека. В мае 2015 года Совет по правам человека ООН опубликовала доклад, который прямо называет анонимное использование интернета частью базовых прав человека:

«Шифрование и анонимность позволяют людям осуществлять свои права на свободу мнений и их свободное выражение в цифровой век и ввиду этого должны заслуженно пользоваться надёжной защитой», — из доклада ООН, 22.05.2015 г.

Особенно актуальна эта задача при обращении с финансами. Фиат и биткоин изначально задумывались как анонимные и приватные деньги, но на практике в 21 веке государство стремится отслеживать все транзакции, а личность пользователя можно вычислить, если он не принял меры безопасности.
Читать дальше →
Всего голосов 65: ↑63 и ↓2+76
Комментарии166

Llama 3.1 и Mistral Large 2

Время на прочтение2 мин
Количество просмотров6.2K

В прошлом месяце вышли две интересных модели - Llama 3.1, улучшенная версия Llama 3, и Mistral Large 2.

Самое заметное отличие Llama 3.1 от предыдущих моделей - у нее есть версия 405B- 405 миллиардов обучаемых параметров. Это самая большая открытая языковая модель, и опубликованные метрики показывают ее производительность на уровне GPT-4. Тесты проводились как на общих бенчмарках, например MMLU, так и специализированных - на код и математику.

Для меня особенно интересными показались улучшенные мультиязычные возможности этой модели, так как я давно экспериментирую с обучением LLM на мультиязычных данных, моя последняя модель ruslandev/llama-3-8b-gpt-4o-ru1.0 превзошла GPT-3.5 на русскоязычной версии бенчмарка MT-Bench.

Llama 3.1 поддерживает семь языков, кроме английского - французский, немецкий, хинди, итальянский, португальский, испанский и тайский. Русского в списке нет, как легко заметить, но это не значит, что в корпусе базовой модели нет примеров на русском. Есть, и предостаточно, это становится очевидно при файнтюнинге. У меня есть мой собственный датасет для файнтюнинга ruslandev/tagengo-rus-gpt-4o, который я сгенерировал из преимущественно русскоязычных промптов датасета Tagengo с помощью GPT-4o.

Теперь о минусах модели Llama 3.1 - файнтюнинг 405B версии обойдется дорого, так как даже при сжатии в 4bit необходимо выделить около 200 ГБ VRAM для такой задачи. Поэтому я файнтюнил версию 8b на вышеупомянутом датасете, арендуя две видеокарты A100 на облачном сервисе immers.cloud. Но я не заметил особого превосходства версии 3.1 над третьей версией. Даже наоборот, я столкнулся с несколькими проблемами - например, 3.1 после файнтюнинга на моем датасете показала тенденцию прерывать генерацию, не завершив ответ - до причины я так и не докопался, но у Llama 3 такой проблемы не было. 

Читать далее
Всего голосов 8: ↑8 и ↓0+12
Комментарии8

Как дообучать LLM с помощью Supervised Fine-Tuning

Время на прочтение15 мин
Количество просмотров7.2K

Обычно большие языковые модели (large language model, LLM) обучают в несколько этапов, включающих предварительное обучение и множество этапов fine-tuning (см. ниже). Предварительное обучение — это дорогостоящий процесс (например, требующий многих сотен тысяч долларов на вычислительные ресурсы), однако fine-tuning модели LLM (или контекстное обучение) по сравнению с этим гораздо дешевле (например, сотни долларов или даже меньше). Учитывая широкую доступность и бесплатность (даже для коммерческого использования) предварительно обученных LLM (например, MPT, Falcon или LLAMA-2), мы можем создавать большой спектр мощных приложений благодаря fine-tuning моделей под нужные задачи.


Этапы обучения LLM

На текущем этапе исследований ИИ одним из самых широко применяемых видов fine-tuning моделей LLM стал supervised fine-tuning (SFT). При этой методике курируемый датасет высококачественных выходных данных LLM применяется для непосредственного fine-tuning модели. SFT прост и дёшев в использовании, это полезный инструмент выравнивания языковых моделей, ставший популярным даже за пределами исследовательского сообщества опенсорсных LLM. В этой статье мы вкратце расскажем о принципах SFT, рассмотрим исследования по этой теме и приведём примеры того, как практикующие специалисты могут с лёгкостью пользоваться SFT, написав всего несколько строк кода на Python.
Читать дальше →
Всего голосов 4: ↑4 и ↓0+5
Комментарии4

Я больше не верю публичным датасетам

Уровень сложностиПростой
Время на прочтение12 мин
Количество просмотров11K

Когда я прочитал новость о том, что исследователи MIT обнаружили вплоть до 10% ошибок в разметке самых популярных датасетов для обучения нейросетей, то решил, что нужно рассказать и о нашем опыте работы с публичными датасетами.

Уже более пяти лет мы занимаемся анализом сетевого трафика и машинным обучением моделей обнаружения компьютерных атак. И часто используем для этого публичные наборы обучающих данных. Расскажу, с какими сложностями мы при этом столкнулись и почему больше не верим публичным датасетам.

Читать далее
Всего голосов 24: ↑23 и ↓1+31
Комментарии14

Отвязное приключение: в гостях у разработчика «ГЭГ» (часть 2)

Уровень сложностиПростой
Время на прочтение18 мин
Количество просмотров4.6K
image

На прошлой неделе была опубликована первая часть интервью с Ярославом Кемницем – одним из ключевых создателей культового отечественного проекта «ГЭГ: Отвязное приключение». В этой беседе Ярослав Юрьевич поделился своими воспоминаниями о зарождении студии ZES't Corporation и первых шагах в разработке ГЭГа. Благодаря этому мы погрузились в атмосферу тех времен и узнали, как команда преодолевала технические ограничения и какие трудности встречались на пути создания игр в России середины 90-х годов. Кроме того, он рассказал, кто стоял за необычным юмором «ГЭГа», как сотрудники попадали на работу в студию и многие другие интересные детали разработки. Все это вы можете прочитать, перейдя по ссылке. Ну а сегодня я предлагаю вашему вниманию вторую часть этого увлекательного разговора с Ярославом Кемницем. Уверен, вы найдёте для себя еще много интересного! Итак, начинаем!
Читать дальше →
Всего голосов 36: ↑35 и ↓1+51
Комментарии5

GEOINT: местонахождение главаря банды, разыскиваемого ФБР

Время на прочтение4 мин
Количество просмотров9.3K

Замечательный кейс о том, как понты и завышенная самооценка выдали местоположение главаря банды, включённого в список самых разыскиваемых ФБР преступников.

На минуточку, за «голову» этого чувака была объявлена награда 2 млн долларов. Но вот как попался наш герой и причём тут геопространственная разведка, читайте под катом.

Читать далее
Всего голосов 18: ↑14 и ↓4+18
Комментарии21

Отвязное приключение: в гостях у разработчика «ГЭГ»

Уровень сложностиПростой
Время на прочтение13 мин
Количество просмотров7.1K
image

Помните ли вы уникальную игру «ГЭГ: Отвязное приключение»? В своё время она буквально взорвала сознание игроков, предложив нечто совершенно оригинальное и ни на что не похожее. Те, кто хотя бы раз столкнулся с ней, уже никогда не забудут увиденное. Я сам принадлежу к числу тех, кто наблюдал за проектом со стороны, не играя в него самостоятельно, но даже этого было достаточно, чтобы он осталась в моей памяти навсегда, оставив неизгладимый след.
Сегодня я хочу предложить вам эксклюзивное интервью с Ярославом Кемницем – одним из авторов этого знакового для отечественного геймдева проекта. В нём он расскажет историю появления студии «ZES't Corporation», поделится множеством интересных подробностей о создании «ГЭГ: Отвязное приключение», а также забавными воспоминаниями тех лет. Прочитав это интервью, вы узнаете, как раньше создавались игры, в какой атмосфере проходил этот процесс, и получите отличное настроение, окунувшись в ностальгический вайб нашего прошлого. Даже если вы не фанат этой игры или никогда о ней не слышали, это интервью наверняка подарит вам удовольствие и позволит ощутить тёплую атмосферу ушедшей эпохи!
Читать дальше →
Всего голосов 52: ↑50 и ↓2+62
Комментарии21

Установка LLM на скромном VPS

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров9.6K

«Я тебя завалю, если ещё раз упомянешь AI», — писал автор нашумевшей статьи. В самом деле, хайп вокруг ИИ всем надоел. Но мы всё-таки рискнём поговорить о том, какую LLM поставить на своём сервере и зачем.

Сразу упомянем, что на серверах RUVDS установлены видеокарты NVIDIA Quadro P4000 (на фото). Карты довольно слабенькие, так что подойдут скорее для проектов в образовательных целях и т. д. Тем более что под VPS выделяется максимум 1 ГБ видеопамяти. Но даже в таких спартанских условиях можно запустить LLM.

Кстати, о VPS с видеокартой. Несколько лет назад мы уже писали о сферах их применения и даже проводили тесты. Всё это можно найти здесь.
Читать дальше →
Всего голосов 32: ↑30 и ↓2+46
Комментарии17

Что изменилось за последние 25 лет в медицине и почему вас часто лечат по старинке

Время на прочтение9 мин
Количество просмотров21K
image

Мы, медики, весьма консервативны и очень не любим рисковать. Все изменения у нас приживаются с большим скрипом и после миллиона тонн проверок. Ответственность за чужое здоровье, а порой и жизнь не даёт нам права нырять во что-то новое и незнакомое с обрыва. Даже если это (может быть?) поможет лечить людей лучше.

Когда технология или методика прошла испытания, это ещё не значит, что врач сразу же возьмётся её применять. Скорее, даже нет. Потому что если предыдущий метод работает — лучше не трогать.

Иногда это полезно, а иногда, как показывает практика, — нет. У нас не оборачивают сломанную руку сеткой полимера, чтобы можно было чесаться, а закатывают в старый добрый гипс. Не ставят трубки в нос при операции по исправлению перегородки носа, а впихивают 4 метра бинта (буквально), чтобы пациент дышал только ртом первые сутки, а потом это одним движением выдёргивают. Не ставят импланты зубов сразу после удаления кисты в кисту (медицински лучше, но пускай пациент пострадает два раза вместо одного, такова традиция).

В общем, короткий обзор того, что поменялось.
Читать дальше →
Всего голосов 78: ↑72 и ↓6+79
Комментарии132

Простой приёмник прямого преобразования для любительской связи на 40, 80 м

Уровень сложностиСредний
Время на прочтение7 мин
Количество просмотров14K

Легендарная, можно сказать, схема однополосного приёмника за авторством Владимира Тимофеевича Полякова — превеликого популяризатора любительского радио и связной техники прямого преобразования, с которой нередко начинало свою работу в эфире целое поколение советского юношества. Лаконичная, простая в изготовлении и настройке, на ширпотребных элементах и с удовлетворительными параметрами. Собрана на тогдашней элементной базе и от оригинала [1] отличается модульным исполнением, более или менее напоминающим характерную конструкцию ВЧ приборов. Радио собрано с мелкими доработками, предложенными С. Э. Беленецким [2].
Читать дальше →
Всего голосов 97: ↑97 и ↓0+123
Комментарии180

Что нового в мире обхода блокировок Интернета в середине 2024

Уровень сложностиПростой
Время на прочтение13 мин
Количество просмотров161K

Представляю вашему вниманию короткий обзор что же произошло в России и в мире в области цензуры интернета и того, как этому противостоят энтузиасты. На всякий случай напоминаю, что статья «Надежный обход блокировок в 2024: протоколы, клиенты и настройка сервера от простого к сложному» заблокирована на Хабре для пользователей из РФ, но по‑прежнему без проблем открывается через прокси/VPN с иностранных адресов. Ну а мы сейчас разберем, что же изменилось с тех пор.

Сегодня в программе: Замедление YouTube — проблемы с Google Cache или намеренное вредительство? Можно ли заблокировать Shadowsocks и как РКН смог это сделать? Новые транспорты в XRay: HTTPUpgrade и SplitTunnel. Новости из мира Tor, и многое другое.

Читать далее
Всего голосов 167: ↑162 и ↓5+190
Комментарии105

Как понять, нужно ли переплачивать за пиво, или основы прикладной статистики

Время на прочтение8 мин
Количество просмотров51K

Я люблю пиво, однако я не какой-то там эксперт, оголтелая фанатка крафта или, не дай господи, пивной сомелье. Я простая работяга умственного труда, которой иногда в пятницу хочется бахнуть прохладного хмельного напитка. И вот, в пятницу по дороге домой у меня есть превеликое множество вариантов, куда заглянуть на чарочку пенного. Дешевые разливные пивнухи, бары при крафтовых пивоварнях или просто магазин, иногда попроще, иногда подороже.

Но вот только понять я одного не могу. Порой приходишь в бар, просишь пива. И тебе вроде бы даже приносят в красивой кружке, и вроде бы вкусно, но за что 500 рублей за 0.5 литра? Если я в магазине баночку за 80 рублей куплю, будет заметно хуже?

Что же, подумала я, не зря же училась? Расчехляем бумажку с ручкой, будем выяснять, оправдана ли для меня лично переплата. А заодно ознакомимся с азами математической статистики — пожалуй, одной из важнейших дисциплин в науке в целом.

Читать далее
Всего голосов 105: ↑89 и ↓16+90
Комментарии182
1
23 ...

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность