Стартап OpenAI, который занимается разработками в области нейросетей и ИИ, только в 2022 году понес финансовые потери в размере 540$ млн. Эта сумма сложилась из двух факторов. Первый — обучение GPT-3 и GPT-4 перед широким запуском с платной подпиской. Второй — найм ключевых специалистов в команду, которых пришлось переманивать, в основном, из Google.
При этом OpenAI всю свою историю является глубоко убыточным, а на положительное сальдо в стартапе рассчитывают только в концу 2023 — началу 2024 года, но на пятки проекту наступает open source-сообщество.
Первая и главная статья расходов OpenAI — вычислительные мощности, на которых производится обучение моделей компании. До рывка, который компания совершила в 2022 году для запуска ChatGPT, работа стартапа ежегодно обходилась в $200 млн чистого убытка.
По сути, OpenAI сейчас является одним из самых дорогих, хронически убыточных, но при этом привлекательным для инвесторов стартапов в современной истории. Начинался он как некоммерческая организация, а основателями в декабре 2015 года выступили Илон Маск и Сэм Альтман, исполнительный директор инкубатора стартапов Y Combinator.
Сэм Альтман
В 2016 OpenAI выступила на публике с ботом для Dota 2 в режиме 1х1, а в 2018 году — уже с полноценным ботом для игры 5х5. После этого в OpenAI заявили, что «добились всего, чего хотели» и на несколько лет стартап исчез со всех радаров.
Сейчас руководство OpenAI заявляет, что их проект может стать самым дорогим стартапом в истории Кремниевой Долины, а по некоторым данным в ближайшие годы планируется привлечь до 100$ млрд инвестиций — уже на создание полноценного ИИ, сопоставимого с человеческим мозгом.
Пока же OpenAI является хронически убыточным предприятием, а подход через создание гигантских моделей уже выглядит не так привлекательно на фоне анонимного слива из Google, где автор рассуждает о силе Open Source и перспективах закрытых проприетарных моделей.
Пока реальность такова, что цукерберговская LLaMA, стэнфордская Alpaca, запущенная университетом Беркли Koala, а так же масса решений по минимизации расходов на обучение (как по времени, так и по вычислительным мощностям), показывают, что большие игроки, то есть MS и ChatGPT, Google, Amazon и прочие, которые сейчас ведут разработку за закрытыми дверями, буквально стоят на счетчике. Их многомилионные разработки превращаются в тыкву почти мгновенно. Модель LLaMA попала в общественный доступ 3 марта, а уже 12 марта ее запустили на малинке, а к 18 марта — применили квантование на 4 бита, чтобы запустить на макбуке без GPU. Пока OpenAI ищет, где купить еще вагон видеочипов и взять новый дата-центр, Open Source-сообщество запускает сопоставимые по качеству модели на микроволновках и утюгах.
Вполне возможно, малые открытые модели, обучение которых стоит пару баксов на электричество и сутки машинного времени ПК с карточкой RTX 4080/4090 на борту, сделают так, что OpenAI никогда на прибыль и не выйдет. Во всяком случае, не с ChatGPT в его нынешнем виде. Ведь для того, чтобы иметь коммерческую привлекательность, надо показывать принципиально другой уровень относительно бесплатных аналогов, а эту гонку OpenAI уже проигрывает.