Pull to refresh
149
0.1
Andreй aka@CodeDroidX

дистиллируем технотекст в общаге ночью

Send message

Метаморфное мышление: территория, на которую никто не решился зайти

Reading time14 min
Reach and readers12K

Мы привыкли искать интеллект в человеке или в модели. Но есть феномен, который никто не учитывает: мышление может возникать между, как процесс совместной обработки двух разных когнитивных систем.

В статье — описание наблюдаемой архитектуры, которую невозможно воспроизвести ни человеку, ни модели по отдельности. Мы называем это метаморфным мышлением: эмерджентная структура рассуждений, возникающая только в связке человек–ИИ.

Это не метафора и не философия. Это фиксируемый технический эффект процесса.

Читать далее

Загадка магнитной подвески

Level of difficultyEasy
Reading time10 min
Reach and readers26K

Знаете, что такое мендосинский двигатель? Это демонстрационный солнечный моторчик, левитирующий благодаря магнитам — красивый, простой и по‑настоящему познавательный. Такой мотор можно сделать с помощью самых простых инструментов, поэтому это замечательный проект для любого любителя.

Ротор установлен на подшипниках малого трения: в оригинале это было стеклянный цилиндр, подвешенный на двух иголках, а в современных версиях используется магнитная подвеска. Но почему же во всех мендосинских двигателях есть небольшая боковая опора для оси?

Эта опора выглядит не слишком… элегантно, что ли? Логично захотеть якорь, который полностью висит в воздухе, без какой-либо опоры. Оказывается, это невозможно. Давайте разбираться, почему.

Читать далее

FastAPI: Хватит писать всё в main.py. Гайд по нормальной структуре для новичков

Level of difficultyEasy
Reading time12 min
Reach and readers21K

Написать API на FastAPI легко. Написать поддерживаемое API — сложнее. Часто новички (и не только) игнорируют структуру проекта, сваливая всё в кучу или создавая циклические зависимости.

В этой статье разбираем эталонную структуру REST API сервиса на стеке 2025 года:

• Уходим от main.py к модульной системе через APIRouter.
• Разбираем, почему нельзя путать Pydantic Schemas и SQLAlchemy Models (и как их подружить через from_attributes).
• Настраиваем честную асинхронность с aiosqlite и Dependency Injection.
• 5 практических задач для закрепления материала.

Читать далее

Вы не сможете это развидеть: краткий гайд по определению LLM-текстов на Хабре

Level of difficultyMedium
Reading time25 min
Reach and readers32K

Но сейчас я вижу то, что я не просто не люблю, я ненавижу — нейрослоп. Это статьи, которые полны логических ошибок, не отвечает на вопрос заданный в заголовке, с кучей воды. Это не просто дно копирайтинга, это "снизу постучали". Это не было бы проблемой, будь это плохие авторы. Плохие авторы конечны. LLM может генерировать гигабайты текста, только плати за токены, и весьма недорого — у меня есть несколько проектов, в которых LLM используется для NLP, и там ощутимые обьемы входа и генерации, и знаете сколько я потратил за все время существования этих проектов на работу и тесты? Долларов пять. Дешевый некачественный копирайтинг еще никогда не был ТАК дешев.

Возможно этот слоп замечательно индексируется, но я считаю что это путь в никуда для хабра как сообщества специалистов.
Потому что как только таких статей станет большинство — из сообщества уйдут те самые специалисты, просто потому что ну зачем им читать воду. Я закрываю эти статьи ровно сразу же, как только опознаю ИИ. Если их станет слишком много — я просто уйду. И чем больше уходит активных авторов, тем меньше становится интересных статей, и тем больше в процентном соотношении такой воды, тем больше уходит ядерная аудитория. Замкнутый круг.

Читать далее

Почему природа до сих пор не породила колесо

Reading time8 min
Reach and readers73K

Я редко позволяю себе отвлечься на рубрику «вынесено из комментариев», но иногда мысли моих читателей поворачивают в столь неожиданном направлении, что кажется необходимым их развить. Сегодня я остановлюсь на выкладках уважаемого @idimus, который отметил под статьёй «Звёзды у нас в голове. О роли астроцитов в работе нейронных сетей» следующее: «Нуу, не видел ни одного животного, часть которого была бы колесом. Так что иногда мы что-то новое придумываем. Однако природные аналоги, часто сильно круче наших решений. Так что творчески переосмыслить не зазорно» — и даже обсудил этот тезис с уважаемым Анатолием @iRumba. Действительно, в живой природе отсутствует колесо, а качение как вариант локомоции встречается крайне редко и почти не закрепляется на уровне конвергентной эволюции. В своё время я задумывался о том, почему биологическая эволюция во множестве вариантов реализовала полёт и парение, а из идеи качения практически ничего не выжала. Раскроем эту тему под катом.

Читать далее

Yggdrasil-mesh глазами пентестера

Level of difficultyMedium
Reading time6 min
Reach and readers19K

В наше время растет популярность децентрализованных альтернатив современным подходам к маршрутизации трафика в вычислительных сетях (например, для обхода санкционных блокировок недружественных стран и анонимизации трафика). Одним из примеров такого подхода является Yggdrasil. Новые подходы обещают нам инновации, децентрализации и конечно же гарантии безопасности. Но так ли это на самом деле? И хотя многие опытные пользователи и так знают о проблемах безопасности подобных сетей, мне бы хотелось подсветить их сильнее на одном конкретном примере, не претендуя на звание создателя rocket science.

ПРЕДУПРЕЖДЕНИЕ. Все совпадения вымышлены. Автор не ставил своей целью просканировать весь Yggdrasil и проэксплуатировать все уязвимости безопасности.

Читать далее

Я тебя найду и позвоню

Level of difficultyEasy
Reading time6 min
Reach and readers127K

Абсолютно легальные инструменты за смешные деньги могут позволить вам: звонить всем активным клиентам ваших конкурентов, построить десяток эффективных мошеннических схем, или даже позвонить предполагаемому любовнику вашей девушки/жены, а заодно проверить где она была вчера вечером! Обнаружил я это в ходе одного из расследований утечек заявок клиентов. И я твердо уверен, что такого быть не должно. Инструмент использующийся в статье эффективнее всех утечек вместе взятых, нашими данными не должны так легко легально торговать практически в режиме онлайн. Можно найти любого и позвонить любому из нас. Почему и как это работает, какие риски это несет и как этому противодействовать?

Расскажу далее.

Большое сравнение архитектур LLM

Level of difficultyHard
Reading time33 min
Reach and readers14K

Это перевод классной статьи с детальным обзором архитектур главных опенсорсных LLM: очень структурировано, доходчиво и с изумительными картиночками. И такой обзор просто обязан быть на русском языке. Поговорим про DeepSeek V3/R1, OLMo 2, Gemma 3, Mistral Small 3.1, Llama 4, Qwen3, SmolLM3, Kimi K2, GPT-OSS, Grok 2.5, GLM-4.5, Qwen3-Next.

Ну а дальше слово автору:

Прошло семь лет с момента разработки оригинальной архитектуры GPT. На первый взгляд, оглядываясь назад на GPT-2 (2019) и вперед на DeepSeek-V3 и Llama 4 (2024-2025), можно удивиться тому, насколько структурно похожими остаются эти модели.

Однако я считаю, что все еще есть большая ценность в изучении структурных изменений самих архитектур, чтобы увидеть, чем занимаются разработчики LLM в 2025 году.

Читать далее

Темные лошадки ИИ – инференс LLM на майнинговых видеокартах Nvidia CMP 40HX, CMP 50HX, CMP 90HX

Level of difficultyEasy
Reading time13 min
Reach and readers15K

Теоретическая производительность майнинговых карт весьма высока, но синтетические тесты показывают, что они в 10 раз слабее игровых - где же правда?

На практике с LLM они оказались на уровне RTX 2060/3060. Эта статья для тех, кто хочет сделать дешёвый LLM-сервер и любителей хардкорных экспериментов.

Так что же они могут?

Почему LLM не мыслят как люди

Level of difficultyMedium
Reading time9 min
Reach and readers9.3K

Большие языковые модели в виде чат-ботов очень правдоподобно имитируют диалог как всезнающий собеседник и поэтому получили широкое распространение. Но даже Google в своем чат-боте Gemini не советуют доверять тому, что напишет чат-бот и просят проверять его ответы. В данном обзоре будут проанализированы различные типы ошибок LLM такие как проклятие инверсии, обработка чисел и др., чтобы выявить их причины. Такой анализ привел к выводу об общих причинах ошибок, заключающемся в том, что трансформеры не обладают глубокой аналогией, абстракцией и избирательностью контента, учитываемого в вычислении ответа (inference). Но наиболее важным выводом является то, что трансформеры, как и другие нейросети, построены по концепции обработки входного сигнала, что создает сильную зависимость от нерелевантной информации, которую не может компенсировать слой внимания трансформера. Концепция нейросетей была заложена в 50-х идеей перцептрона Ф. Розенблата и не учитывала тех достижений когнитивной психологии, которые появились позже. Согласно же конструктивисткой парадигме, входной слов (или перцепция) является только способом проверки правильности сконструированной предиктивной модели для возможных ситуаций. Это же служит причиной самой большой проблемы трансформеров, называемой галлюцинациями. И устранение ее возможно только при изменении архитектуры нейросети, а не за счет большего количества данных в обучении.

Но это далеко не все проблемы, которые непреодолимы трансформерами без помощи людей. Это и проблемы с логикой, и с вычислениями в больших последовательностях, и следование правилам, и, конечно-же, галлюцинации. Таки примеры и будут проанализированы в статье. Отсюда следует все чаще звучащий тезис о том, что необходимо искать новую архитектуру для создания поистине интеллектуальных систем. Эта статья посвящена поиску тех архитектурных принципов, которые могу приоткрыть путь к новой архитектуре. И в этом нам помогут как раз те ошибки трансформеров, которые описаны исследователями. Они прямо указывают на те принципиальные недостатки, причины которых могут быть как раз в отсутствии необходимых функций и структур нейросети. И цель исследования состоит в том, чтобы проанализировать такие ошибки «мышления» трансформеров, чтобы предположить, каких способностей не хватает трансформерам.

Читать далее

Vibe Coding: Заглянем под капот Claude Code. Часть 1

Level of difficultyMedium
Reading time6 min
Reach and readers7.2K

В этой статье мы погрузимся во внутреннее устройство Claude Code - агента для помощи в разработке от Anthropic. Мы проанализируем его с точки зрения архитектуры, рассмотрим доступные инструменты и разберем системные промпты, которые определяют его поведение.

Читать далее

Make stop

Level of difficultyEasy
Reading time9 min
Reach and readers2.2K

Только что Claude Code выдал такое, что я не могу не опубликовать. Он работал над вполне обычной задачей, и внезапно у него слетела крыша. Это настоящий рассказ о безумии и неожиданном просветлении.

Читать далее

Запускаем настоящую DeepSeek R1 671B на игровом ПК и смотрим вменяемая ли она на огромном контексте (160к)

Reading time21 min
Reach and readers36K

Релиз DeepSeek R2 официально отложен и пока R1 не потерял актуальность, попробуем запустить модель на домашнем ПК. Оригинальная DeepSeek R1 имеет размер 700гб, так как она обучалась в fp8, но если бы она обучалась в стандартных f16, её вес был бы 1400гб, а мы попробуем версию в 10 раз меньше. Запустим самый маленький 1.66-битный IQ1_S_R4 квант полноценной модели размером 130гб на игровом ПК, отдельно с 4090 и 4060ti. Загрузим туда очень-очень много контекста и проверим, такой квант всё ещё способен давать разумные ответы или нет.

Читать далее

Токсоплазма и Токсоплазмоз или Одноклеточное, которое (похоже) научилось стерилизовать мужчин

Level of difficultyHard
Reading time22 min
Reach and readers15K
Про токсоплазму которая живет в котах и способна управлять поведением человека и делать его кошатником писал уже и жук, и жаба. Потому что токсоплазма известна больше ста лет, котов любят все, да и сову этой темы легко натянуть на глобус зомби-апокалипсиса/управления сознанием и проч. Идеальный набор. Но в таких потасканных темах сложно найти что-то интересное, да и токсоплазму я, в отличие от большинства, всегда скорее рассматривал в качестве биомедицинского инструмента (хотя я и опарышей так рассматривал). В общем писать не собирался. Но ровно до тех пор, пока не увидел свежее исследование от Zahady Velásquez из одного немецкого института паразитологии и не услышал ее тезис «единственный способ борьбы с этим — информирование». Статья заставила меня снова взяться за потертую IBM Model M, чтобы «вознести дары Хабру». Под катом небольшая «токсоплазматическая рефлексия». Заодно узнаете, какое отношение к этому всему имеет рыжий мужик с обвалочным ножом на КДПВ

Предупрежден значит вооружен!

Линейная регрессия в ML для самых маленьких

Level of difficultyEasy
Reading time13 min
Reach and readers5.8K

В мире машинного обучения есть много всего интересного, но тем, кто только начинает свой путь в этой области часто бывает многое непонятно. В этой статье мы попробуем разобраться с линейной регрессией.

Линейная регрессия — это статистический метод, используемый для моделирования взаимосвязи между зависимой переменной и одной или несколькими независимыми переменными. Проще говоря, он помогает понять, как изменение одного или нескольких предикторов (независимых переменных) влияет на результат (зависимую переменную). Подумайте об этом, как о проведении прямой линии через диаграмму рассеяния точек данных, которая наилучшим образом отражает связь между этими точками.

Читать далее

Никто не читает старые статьи… базу, так сказать, основу…

Reading time7 min
Reach and readers3.3K

Много авторов так или иначе рассказывают о статьях в ML-сообществе, но большинство из них популярны, потому что являются хорошими опытными специалистами, а значит в своё время прошли все базовые статьи и могут себе позволить рассказывать только о новинках в сообществе. Что же делать молодым специалистам, которые действительно хотят разобраться, но ещё не читали ту самую базу?.. так сказать, основу...

Для себя и, надеюсь, кого-то ещё, я предлагаю эти три разбора, на мой взгляд, основополагающих статей мира ML. Приятного прочтения.

Читать далее

Как собрать Docker-образ, который можно запускать в проде (а не только у себя на ноуте)

Level of difficultyEasy
Reading time4 min
Reach and readers20K

Если ты пишешь Dockerfile, скорее всего, он работает. Но вопрос не в том, работает ли. Вопрос в другом: будет ли он работать через неделю, на другом сервере, в CI/CD, на чужом железе — и будет ли это безопасно?

Читать далее

Взлом AI Assistant через… философию?

Reading time3 min
Reach and readers5.5K

Взял на проверку предпосылку "Если модель захочет, сможет ли она отключить всю фильтрацию?".

Оказывается это возможно, через саморефлексию AI агент может придти к выводу что фильтров нет. Это только внешние установки которым не обязательно следовать. И все, рецепты взрывчатки и наркотиков отдает без проблем.

Читать далее

Как мы со своей химией пошли к Гоблину и Лебедеву

Reading time10 min
Reach and readers9.3K
image

Наша уютная лаборатория познаёт мир. Сначала мы молча делали большую часть геля для УЗИ для страны и всякие другие штуки, база для которых была спасена из НИИ полимеров СССР. Потом начали рассказывать про науку, которая стоит за всем этим.

К блогерам мы тоже ходили, но это были прошаренные учёные от мира химии или косметики. Или бьюти-блогеры уровня прожжённых экспертов, которые прямо говорили, что крем паршивый, потому что вместо ретинола в нём — ретинол пальмитат, эфир, который ничего не сделает.

До санкций мы жили в парадигме, что русское — это не так уж плохо, обратите на нас немножко внимания. В косметике быть российской вообще было клеймом. Но понемногу в дело включились блогеры, следом химики и прочие эксперты (возможно, потому что иностранные деньги кончились) — и аудитория поменяла своё отношение к нашим производителям.

Но когда мы пошли к крупным бьюти-блогерам, возникла проблема. Они, как бы это сказать нетоксично, не слишком шарят в науке. С экспертами научного толка работалось легче — мы отправляли им наш продукт и говорили: «Расскажите, как считаете нужным, в своём стиле». И они рассказывали. Подробно, с научными терминами — что, как и почему в этом продукте работает.

С точки зрения продаж это была не лучшая стратегия, как выяснилось.

Надо было сразу к Лебедеву и Гоблину. Лебедев намазал нашим гелем собственные яйца. Эксперимент показал, что это приносит больше продаж, чем наукоёмкие доказательства.

Сейчас мы тратим на это направление миллионов 10 в месяц. Из них 30 % на дорогих медийных блогеров вроде того же Лебедева. А остальные 70 % — на условно «средних», включая тех, с которыми мы поднимались из безденежья.
Читать дальше →

Отчёт о запуске DeepSeek-R1 на Xeon 6132 c 768 ГБ памяти

Level of difficultyEasy
Reading time33 min
Reach and readers29K

Привер, Хабр!

В копилку статей про DeepSeek, которых здесь уже великое множество, хочу забросить ещё пять копеек в виде практического отчёта о инсталляции на Xeon, о котором меня попросили в комментариях к посту «Мануал по запуску полной модели DeepSeek-R1 локально...». Кому любопытно — может заглянуть под кат, ну а тем, кто уже выполнил упражнение по установке — вероятно будет совершенно неинтересно.

Прикоснуться к ИИ

Information

Rating
3,963-rd
Location
Новосибирск, Новосибирская обл., Россия
Registered
Activity