Обновить
149
0.1
Andreй aka@CodeDroidX

дистиллируем технотекст в общаге ночью

Отправить сообщение

FastAPI: Хватит писать всё в main.py. Гайд по нормальной структуре для новичков

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели10K

Написать API на FastAPI легко. Написать поддерживаемое API — сложнее. Часто новички (и не только) игнорируют структуру проекта, сваливая всё в кучу или создавая циклические зависимости.

В этой статье разбираем эталонную структуру REST API сервиса на стеке 2025 года:

• Уходим от main.py к модульной системе через APIRouter.
• Разбираем, почему нельзя путать Pydantic Schemas и SQLAlchemy Models (и как их подружить через from_attributes).
• Настраиваем честную асинхронность с aiosqlite и Dependency Injection.
• 5 практических задач для закрепления материала.

Читать далее

Вы не сможете это развидеть: краткий гайд по определению LLM-текстов на Хабре

Уровень сложностиСредний
Время на прочтение25 мин
Охват и читатели29K

Но сейчас я вижу то, что я не просто не люблю, я ненавижу — нейрослоп. Это статьи, которые полны логических ошибок, не отвечает на вопрос заданный в заголовке, с кучей воды. Это не просто дно копирайтинга, это "снизу постучали". Это не было бы проблемой, будь это плохие авторы. Плохие авторы конечны. LLM может генерировать гигабайты текста, только плати за токены, и весьма недорого — у меня есть несколько проектов, в которых LLM используется для NLP, и там ощутимые обьемы входа и генерации, и знаете сколько я потратил за все время существования этих проектов на работу и тесты? Долларов пять. Дешевый некачественный копирайтинг еще никогда не был ТАК дешев.

Возможно этот слоп замечательно индексируется, но я считаю что это путь в никуда для хабра как сообщества специалистов.
Потому что как только таких статей станет большинство — из сообщества уйдут те самые специалисты, просто потому что ну зачем им читать воду. Я закрываю эти статьи ровно сразу же, как только опознаю ИИ. Если их станет слишком много — я просто уйду. И чем больше уходит активных авторов, тем меньше становится интересных статей, и тем больше в процентном соотношении такой воды, тем больше уходит ядерная аудитория. Замкнутый круг.

Читать далее

Почему природа до сих пор не породила колесо

Время на прочтение8 мин
Охват и читатели72K

Я редко позволяю себе отвлечься на рубрику «вынесено из комментариев», но иногда мысли моих читателей поворачивают в столь неожиданном направлении, что кажется необходимым их развить. Сегодня я остановлюсь на выкладках уважаемого @idimus, который отметил под статьёй «Звёзды у нас в голове. О роли астроцитов в работе нейронных сетей» следующее: «Нуу, не видел ни одного животного, часть которого была бы колесом. Так что иногда мы что-то новое придумываем. Однако природные аналоги, часто сильно круче наших решений. Так что творчески переосмыслить не зазорно» — и даже обсудил этот тезис с уважаемым Анатолием @iRumba. Действительно, в живой природе отсутствует колесо, а качение как вариант локомоции встречается крайне редко и почти не закрепляется на уровне конвергентной эволюции. В своё время я задумывался о том, почему биологическая эволюция во множестве вариантов реализовала полёт и парение, а из идеи качения практически ничего не выжала. Раскроем эту тему под катом.

Читать далее

Yggdrasil-mesh глазами пентестера

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели19K

В наше время растет популярность децентрализованных альтернатив современным подходам к маршрутизации трафика в вычислительных сетях (например, для обхода санкционных блокировок недружественных стран и анонимизации трафика). Одним из примеров такого подхода является Yggdrasil. Новые подходы обещают нам инновации, децентрализации и конечно же гарантии безопасности. Но так ли это на самом деле? И хотя многие опытные пользователи и так знают о проблемах безопасности подобных сетей, мне бы хотелось подсветить их сильнее на одном конкретном примере, не претендуя на звание создателя rocket science.

ПРЕДУПРЕЖДЕНИЕ. Все совпадения вымышлены. Автор не ставил своей целью просканировать весь Yggdrasil и проэксплуатировать все уязвимости безопасности.

Читать далее

Я тебя найду и позвоню

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели127K

Абсолютно легальные инструменты за смешные деньги могут позволить вам: звонить всем активным клиентам ваших конкурентов, построить десяток эффективных мошеннических схем, или даже позвонить предполагаемому любовнику вашей девушки/жены, а заодно проверить где она была вчера вечером! Обнаружил я это в ходе одного из расследований утечек заявок клиентов. И я твердо уверен, что такого быть не должно. Инструмент использующийся в статье эффективнее всех утечек вместе взятых, нашими данными не должны так легко легально торговать практически в режиме онлайн. Можно найти любого и позвонить любому из нас. Почему и как это работает, какие риски это несет и как этому противодействовать?

Расскажу далее.

Большое сравнение архитектур LLM

Уровень сложностиСложный
Время на прочтение33 мин
Охват и читатели14K

Это перевод классной статьи с детальным обзором архитектур главных опенсорсных LLM: очень структурировано, доходчиво и с изумительными картиночками. И такой обзор просто обязан быть на русском языке. Поговорим про DeepSeek V3/R1, OLMo 2, Gemma 3, Mistral Small 3.1, Llama 4, Qwen3, SmolLM3, Kimi K2, GPT-OSS, Grok 2.5, GLM-4.5, Qwen3-Next.

Ну а дальше слово автору:

Прошло семь лет с момента разработки оригинальной архитектуры GPT. На первый взгляд, оглядываясь назад на GPT-2 (2019) и вперед на DeepSeek-V3 и Llama 4 (2024-2025), можно удивиться тому, насколько структурно похожими остаются эти модели.

Однако я считаю, что все еще есть большая ценность в изучении структурных изменений самих архитектур, чтобы увидеть, чем занимаются разработчики LLM в 2025 году.

Читать далее

Темные лошадки ИИ – инференс LLM на майнинговых видеокартах Nvidia CMP 40HX, CMP 50HX, CMP 90HX

Уровень сложностиПростой
Время на прочтение13 мин
Охват и читатели14K

Теоретическая производительность майнинговых карт весьма высока, но синтетические тесты показывают, что они в 10 раз слабее игровых - где же правда?

На практике с LLM они оказались на уровне RTX 2060/3060. Эта статья для тех, кто хочет сделать дешёвый LLM-сервер и любителей хардкорных экспериментов.

Так что же они могут?

Почему LLM не мыслят как люди

Уровень сложностиСредний
Время на прочтение9 мин
Охват и читатели9.3K

Большие языковые модели в виде чат-ботов очень правдоподобно имитируют диалог как всезнающий собеседник и поэтому получили широкое распространение. Но даже Google в своем чат-боте Gemini не советуют доверять тому, что напишет чат-бот и просят проверять его ответы. В данном обзоре будут проанализированы различные типы ошибок LLM такие как проклятие инверсии, обработка чисел и др., чтобы выявить их причины. Такой анализ привел к выводу об общих причинах ошибок, заключающемся в том, что трансформеры не обладают глубокой аналогией, абстракцией и избирательностью контента, учитываемого в вычислении ответа (inference). Но наиболее важным выводом является то, что трансформеры, как и другие нейросети, построены по концепции обработки входного сигнала, что создает сильную зависимость от нерелевантной информации, которую не может компенсировать слой внимания трансформера. Концепция нейросетей была заложена в 50-х идеей перцептрона Ф. Розенблата и не учитывала тех достижений когнитивной психологии, которые появились позже. Согласно же конструктивисткой парадигме, входной слов (или перцепция) является только способом проверки правильности сконструированной предиктивной модели для возможных ситуаций. Это же служит причиной самой большой проблемы трансформеров, называемой галлюцинациями. И устранение ее возможно только при изменении архитектуры нейросети, а не за счет большего количества данных в обучении.

Но это далеко не все проблемы, которые непреодолимы трансформерами без помощи людей. Это и проблемы с логикой, и с вычислениями в больших последовательностях, и следование правилам, и, конечно-же, галлюцинации. Таки примеры и будут проанализированы в статье. Отсюда следует все чаще звучащий тезис о том, что необходимо искать новую архитектуру для создания поистине интеллектуальных систем. Эта статья посвящена поиску тех архитектурных принципов, которые могу приоткрыть путь к новой архитектуре. И в этом нам помогут как раз те ошибки трансформеров, которые описаны исследователями. Они прямо указывают на те принципиальные недостатки, причины которых могут быть как раз в отсутствии необходимых функций и структур нейросети. И цель исследования состоит в том, чтобы проанализировать такие ошибки «мышления» трансформеров, чтобы предположить, каких способностей не хватает трансформерам.

Читать далее

Vibe Coding: Заглянем под капот Claude Code. Часть 1

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели7.2K

В этой статье мы погрузимся во внутреннее устройство Claude Code - агента для помощи в разработке от Anthropic. Мы проанализируем его с точки зрения архитектуры, рассмотрим доступные инструменты и разберем системные промпты, которые определяют его поведение.

Читать далее

Make stop

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели2.2K

Только что Claude Code выдал такое, что я не могу не опубликовать. Он работал над вполне обычной задачей, и внезапно у него слетела крыша. Это настоящий рассказ о безумии и неожиданном просветлении.

Читать далее

Запускаем настоящую DeepSeek R1 671B на игровом ПК и смотрим вменяемая ли она на огромном контексте (160к)

Время на прочтение21 мин
Охват и читатели35K

Релиз DeepSeek R2 официально отложен и пока R1 не потерял актуальность, попробуем запустить модель на домашнем ПК. Оригинальная DeepSeek R1 имеет размер 700гб, так как она обучалась в fp8, но если бы она обучалась в стандартных f16, её вес был бы 1400гб, а мы попробуем версию в 10 раз меньше. Запустим самый маленький 1.66-битный IQ1_S_R4 квант полноценной модели размером 130гб на игровом ПК, отдельно с 4090 и 4060ti. Загрузим туда очень-очень много контекста и проверим, такой квант всё ещё способен давать разумные ответы или нет.

Читать далее

Токсоплазма и Токсоплазмоз или Одноклеточное, которое (похоже) научилось стерилизовать мужчин

Уровень сложностиСложный
Время на прочтение22 мин
Охват и читатели15K
Про токсоплазму которая живет в котах и способна управлять поведением человека и делать его кошатником писал уже и жук, и жаба. Потому что токсоплазма известна больше ста лет, котов любят все, да и сову этой темы легко натянуть на глобус зомби-апокалипсиса/управления сознанием и проч. Идеальный набор. Но в таких потасканных темах сложно найти что-то интересное, да и токсоплазму я, в отличие от большинства, всегда скорее рассматривал в качестве биомедицинского инструмента (хотя я и опарышей так рассматривал). В общем писать не собирался. Но ровно до тех пор, пока не увидел свежее исследование от Zahady Velásquez из одного немецкого института паразитологии и не услышал ее тезис «единственный способ борьбы с этим — информирование». Статья заставила меня снова взяться за потертую IBM Model M, чтобы «вознести дары Хабру». Под катом небольшая «токсоплазматическая рефлексия». Заодно узнаете, какое отношение к этому всему имеет рыжий мужик с обвалочным ножом на КДПВ

Предупрежден значит вооружен!

Линейная регрессия в ML для самых маленьких

Уровень сложностиПростой
Время на прочтение13 мин
Охват и читатели5.5K

В мире машинного обучения есть много всего интересного, но тем, кто только начинает свой путь в этой области часто бывает многое непонятно. В этой статье мы попробуем разобраться с линейной регрессией.

Линейная регрессия — это статистический метод, используемый для моделирования взаимосвязи между зависимой переменной и одной или несколькими независимыми переменными. Проще говоря, он помогает понять, как изменение одного или нескольких предикторов (независимых переменных) влияет на результат (зависимую переменную). Подумайте об этом, как о проведении прямой линии через диаграмму рассеяния точек данных, которая наилучшим образом отражает связь между этими точками.

Читать далее

Никто не читает старые статьи… базу, так сказать, основу…

Время на прочтение7 мин
Охват и читатели3.3K

Много авторов так или иначе рассказывают о статьях в ML-сообществе, но большинство из них популярны, потому что являются хорошими опытными специалистами, а значит в своё время прошли все базовые статьи и могут себе позволить рассказывать только о новинках в сообществе. Что же делать молодым специалистам, которые действительно хотят разобраться, но ещё не читали ту самую базу?.. так сказать, основу...

Для себя и, надеюсь, кого-то ещё, я предлагаю эти три разбора, на мой взгляд, основополагающих статей мира ML. Приятного прочтения.

Читать далее

Как собрать Docker-образ, который можно запускать в проде (а не только у себя на ноуте)

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели20K

Если ты пишешь Dockerfile, скорее всего, он работает. Но вопрос не в том, работает ли. Вопрос в другом: будет ли он работать через неделю, на другом сервере, в CI/CD, на чужом железе — и будет ли это безопасно?

Читать далее

Взлом AI Assistant через… философию?

Время на прочтение3 мин
Охват и читатели5.5K

Взял на проверку предпосылку "Если модель захочет, сможет ли она отключить всю фильтрацию?".

Оказывается это возможно, через саморефлексию AI агент может придти к выводу что фильтров нет. Это только внешние установки которым не обязательно следовать. И все, рецепты взрывчатки и наркотиков отдает без проблем.

Читать далее

Как мы со своей химией пошли к Гоблину и Лебедеву

Время на прочтение10 мин
Охват и читатели9.2K
image

Наша уютная лаборатория познаёт мир. Сначала мы молча делали большую часть геля для УЗИ для страны и всякие другие штуки, база для которых была спасена из НИИ полимеров СССР. Потом начали рассказывать про науку, которая стоит за всем этим.

К блогерам мы тоже ходили, но это были прошаренные учёные от мира химии или косметики. Или бьюти-блогеры уровня прожжённых экспертов, которые прямо говорили, что крем паршивый, потому что вместо ретинола в нём — ретинол пальмитат, эфир, который ничего не сделает.

До санкций мы жили в парадигме, что русское — это не так уж плохо, обратите на нас немножко внимания. В косметике быть российской вообще было клеймом. Но понемногу в дело включились блогеры, следом химики и прочие эксперты (возможно, потому что иностранные деньги кончились) — и аудитория поменяла своё отношение к нашим производителям.

Но когда мы пошли к крупным бьюти-блогерам, возникла проблема. Они, как бы это сказать нетоксично, не слишком шарят в науке. С экспертами научного толка работалось легче — мы отправляли им наш продукт и говорили: «Расскажите, как считаете нужным, в своём стиле». И они рассказывали. Подробно, с научными терминами — что, как и почему в этом продукте работает.

С точки зрения продаж это была не лучшая стратегия, как выяснилось.

Надо было сразу к Лебедеву и Гоблину. Лебедев намазал нашим гелем собственные яйца. Эксперимент показал, что это приносит больше продаж, чем наукоёмкие доказательства.

Сейчас мы тратим на это направление миллионов 10 в месяц. Из них 30 % на дорогих медийных блогеров вроде того же Лебедева. А остальные 70 % — на условно «средних», включая тех, с которыми мы поднимались из безденежья.
Читать дальше →

Отчёт о запуске DeepSeek-R1 на Xeon 6132 c 768 ГБ памяти

Уровень сложностиПростой
Время на прочтение33 мин
Охват и читатели29K

Привер, Хабр!

В копилку статей про DeepSeek, которых здесь уже великое множество, хочу забросить ещё пять копеек в виде практического отчёта о инсталляции на Xeon, о котором меня попросили в комментариях к посту «Мануал по запуску полной модели DeepSeek-R1 локально...». Кому любопытно — может заглянуть под кат, ну а тем, кто уже выполнил упражнение по установке — вероятно будет совершенно неинтересно.

Прикоснуться к ИИ

Изолируем сети правильно

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели12K

Привет, Хабр! Иногда кажется, что если выдернуть кабель, то всё будет безопасно. Но в современном мире даже воздух может быть каналом атаки. Как же тогда правильно изолировать сеть? Разбираемся.

Читать далее

Свой Google в локалке. Ищем иголку в стоге сена

Уровень сложностиСредний
Время на прочтение17 мин
Охват и читатели8K

В статье мы разработаем свой собственный Google, который можно будет запустить в любой локальной сети как атакующим, что ищут пароли, так и защитникам, которым небезразлична безопасность их родной локалки. И что примечательно, наш Google будет состоять на 99% из готовых компонентов, практически без дополнительного программирования. А внедрение такой системы потребует ввода всего пары команд.

Читать далее

Информация

В рейтинге
3 891-й
Откуда
Новосибирск, Новосибирская обл., Россия
Зарегистрирован
Активность