В марте 2025 года Компьютерный исторический музей (Computer History Museum) совместно с Google опубликовал исходный код AlexNet — нейросети, которая в 2012 году привлекла внимание к возможностям глубокого обучения. Исследователи и энтузиасты получили полные исходники модели, ставшей одним из ключевых этапов в развитии компьютерного зрения. Почему эта сеть настолько важна для ИТ, а ее вклад считают значимым? Давайте разбираться.

Откуда столько шума
Доступность исходников — заметное событие, ведь речь идет о нейросети, которая в 2012 году принесла своей команде (о ней — ниже) победу в конкурсе ImageNet Large Scale Visual Recognition Challenge (ILSVRC). Разработчики AlexNet показали, что глубокие сверточные нейросети способны превзойти традиционные алгоритмы компьютерного зрения, основанные на ручном выделении признаков, таких как SIFT и HOG. Возможно, в том числе благодаря этому проекту сейчас у нас есть ChatGPT, DeepSeek, Grok и другие модели.
На GitHub выложили не только код, но и параметры, обученные на миллионах картинок ImageNet. До этого в сеть выкладывалась только ранняя версия cuda-convnet от Алексея Крижевского, заточенная под скромный набор данных CIFAR-10 без полной реализации AlexNet с весами. Теперь в открытом доступе — оригинальный код AlexNet с обученными параметрами. К слову, это результат пятилетних переговоров Компьютерного исторического музея с Google, которой перешли права после покупки стартапа DNNResearch, основанного авторами модели.
Почему целых пять лет? Основные сложности связаны с юридическими вопросами: нужно было согласовать право на обнародование исходников, тип лицензии и допустимость распространения параметров, обученных на ImageNet. К тому же для Google публикация исторического кода вовсе не приоритетная задача. Команда не слишком торопилась с прояснением юридических тонкостей, что тоже повлияло на сроки. Публикации удалось добиться только благодаря усилиям и настойчивости сотрудников музея.
Организаторы подчеркивают, что это не просто техническое событие, а момент исторической значимости. «CHM гордится тем, что представляет исходный код AlexNet 2012 года, изменившей отрасль искусственного интеллекта», — говорится в описании на GitHub. Теперь этот код стал доступен для всех, от студентов до профессиональных разработчиков, и открывает новые возможности для обучения, исследований и некоммерческих проектов.
История создания AlexNet

AlexNet — это не просто набор слоев и функций активации, а результат совместной работы трех исследователей: Алексея Крижевского, Ильи Суцкевера и Джеффри Хинтона. История проекта началась в Университете Торонто, где Алексей работал над докторской диссертацией под руководством Хинтона — признанного гуру нейросетей. Илья Суцкевер, талантливый аспирант, внес ключевой вклад в оптимизацию и обучение модели. Ну а Джеффри Хинтон выступал научным руководителем проекта и сыграл важнейшую роль в развитии идей глубокого обучения, на которых основывалась AlexNet. Вместе они создали нечто большее, чем просто алгоритм — заложили фундамент современной эры ИИ.
Все началось с амбициозной задачи: конкурс ImageNet ставил перед участниками цель — классифицировать миллион изображений, распределенных по тысяче категорий. Традиционные методы машинного обучения, такие как SVM или случайные леса, уже достигли своего предела. Команда решила развить идеи сверточных нейросетей (CNN), предложенные Яном Лекуном, и впервые масштабировала их до такой глубины и размера, которые раньше не использовались. Для этого нужно было хорошее оборудование, и команда его собрала, невзирая на затраты.

Нейросеть AlexNet развернули на двух графических процессорах NVIDIA GTX 580 с 3 Гб памяти каждый. GPU, выпущенные в 2010 году, обладали вычислительной мощностью около 1,5 TFLOPS для операций с плавающей запятой (float32) и стоили примерно 500 долларов на момент выхода. В 2012 году такие GPU были весьма мощными и производительными, но даже у них были ограничения — в частности, объем памяти. 3 Гб оказалось недостаточно, чтобы разместить всю модель целиком, поэтому сеть разделили на две части и распределили вычисления между двумя графическими процессорами. Такое решение позволило эффективно использовать параллельные вычисления и справиться с огромным количеством параметров — 60 млн.
Обучение AlexNet на наборе данных ImageNet, содержащем 1,2 миллиона изображений, заняло от пяти до шести дней и потребовало 90 эпох. Именно использование GPU стало ключевым моментом, так как процессоры того времени (CPU) не могли обеспечить достаточную скорость для таких глубоких сетей. GTX 580 поддерживали CUDA, что позволило команде оптимизировать вычисления, такие как свертки и матричные операции, и ускорить процесс обучения в десятки раз по сравнению с традиционными подходами. Все это и обеспечило победу AlexNet в конкурсе ImageNet 2012 года.
А она, победа, была впечатляющей. Нейросеть снизила ошибку классификации изображений в метрике top-5 с 26,2% до 15,3%, опередив ближайшего конкурента почти на 11%.
Интересный факт: название AlexNet — это не просто сокращение от Artificial Learning EXperiment, а отсылка к имени Алексея Крижевского, главы проекта. После успеха он стал звездой в мире ИИ, позже присоединившись к Google, а Илья Суцкевер стал сооснователем OpenAI. Хинтон же продолжил свои исследования, получив в 2018 году премию Тьюринга за вклад в глубокое обучение.
Влияние AlexNet на современные технологии
Победа AlexNet в 2012 году была не просто техническим достижением — она запустила цепную реакцию, которая изменила ИИ-отрасль. До этого глубокие нейросети считались слишком сложными и ресурсоемкими, но AlexNet доказала обратное. Ее архитектура — сверточные слои, функция активации ReLU, нормализация и dropout для предотвращения переобучения — стала классикой, на которой строятся современные модели.
Сегодня ее влияние заметно повсюду. Системы распознавания лиц в смартфонах, алгоритмы автопилотов в автомобилях Tesla, диагностика рака по снимкам МРТ — все это отголоски идей, заложенных в AlexNet. Она вдохновила разработку более сложных сетей, таких как VGG, ResNet и Inception, которые ушли далеко вперед, но корни их успеха уходят к той самой модели 2012 года. Именно победа AlexNet сделала использование GPU стандартом в обучении нейросетей, а компании вроде NVIDIA — ключевыми игроками на рынке ИИ-оборудования.
Еще AlexNet изменила сам подход к машинному обучению. Если раньше исследователи полагались на вручную созданные признаки (features), то теперь они доверились нейросетям, самостоятельно выделяющим закономерности в данных. Это открыло путь к развитию компьютерного зрения, которое сегодня лежит в основе технологий дополненной реальности, видеонаблюдения и даже генеративных моделей, таких как DALL-E.
Сегодня, когда нейросети вроде GPT-4 или LLaMA содержат десятки, а порой и сотни миллиардов параметров, AlexNet с ее 60 миллионами кажется скромной. Но именно она доказала, что увеличение глубины и использование мощных вычислений способны существенно повысить эффективность нейросетей.