Очень много вопросов, что такое ИИ-ускоритель. Это TPU, GPU? для инференса, обучения? Смею предположить исходя из того, что происходит в Китае Tesla ещё не скоро достигнет того, что Nvidia, хотя бы потому, что это не их core бизнес. Мой тезис в том, что неважно, что там будет - nvidia или какая-то инновационная инновационность от Tesla, но всё равно понадобится память, nvme и куча того, что делает из dgx экосистему для ml, а не условно jetson, заточенный под конкретную задачу. https://techfundingnews.com/coreweave-openai-65b-deal-ai-cloud-infra-ventures/ - посчитайте из этого кол-во видео-плат. Думаю, порядки понятны. И это только новые датацентры... по v3 не так мало данных (как и по v1 и v2 так то), но упор на передачу данных и понятно почему - куплен новый спектр, который, скорее всего, уйдёт по d2d, что ещё более увеличит утилизацию. Опять таки, чтобы использовать спутники как ДЦ, скорее всего 4 лазерных терминала будет мало и тут уже кучу куча вопросов. Я уверен, будут специализированные группировки и судя по Starshield, SpaceX ставит на ретрансляторы...
посмотрите что входит в dgx. потребление видео-платы не равно потреблению compute-среды. ну и сколько он весит.
посмотрите сколько площадь батарей МКС, мощность мкс и какая там площадь батарей. я это в статье указывал. спутник старлинка не сможет производить электричества больше чем МКС.
спутники старлинк летают не на солнечно-синхронной орбите, а не leo, поэтому оптимального освещения не будет.
посмотрите сколько видеоплат потребляет OpenAI для обучения и какая реально мощность даже в пределах одной стойки.
Очень много вопросов, что такое ИИ-ускоритель. Это TPU, GPU? для инференса, обучения? Смею предположить исходя из того, что происходит в Китае Tesla ещё не скоро достигнет того, что Nvidia, хотя бы потому, что это не их core бизнес.
Мой тезис в том, что неважно, что там будет - nvidia или какая-то инновационная инновационность от Tesla, но всё равно понадобится память, nvme и куча того, что делает из dgx экосистему для ml, а не условно jetson, заточенный под конкретную задачу.
https://techfundingnews.com/coreweave-openai-65b-deal-ai-cloud-infra-ventures/ - посчитайте из этого кол-во видео-плат. Думаю, порядки понятны. И это только новые датацентры...
по v3 не так мало данных (как и по v1 и v2 так то), но упор на передачу данных и понятно почему - куплен новый спектр, который, скорее всего, уйдёт по d2d, что ещё более увеличит утилизацию.
Опять таки, чтобы использовать спутники как ДЦ, скорее всего 4 лазерных терминала будет мало и тут уже кучу куча вопросов.
Я уверен, будут специализированные группировки и судя по Starshield, SpaceX ставит на ретрансляторы...
и кстати, почему старлинк должен перестать выполнять свою основную задачу по передаче данных и заменить массив ФАР на массив GPU?
посмотрите что входит в dgx. потребление видео-платы не равно потреблению compute-среды. ну и сколько он весит.
посмотрите сколько площадь батарей МКС, мощность мкс и какая там площадь батарей. я это в статье указывал. спутник старлинка не сможет производить электричества больше чем МКС.
спутники старлинк летают не на солнечно-синхронной орбите, а не leo, поэтому оптимального освещения не будет.
посмотрите сколько видеоплат потребляет OpenAI для обучения и какая реально мощность даже в пределах одной стойки.
как раз про выделенные речь и веду, а про ретрансляторы в конце статьи и написано.
только на ритегах и гравитационных манёврах... при этом потребление gpu и оборудования КА несравнимы...
что-то на CDN-ном :)
с КПД солнечных батарей и скоростью их деградации имхо далеко не уехать
у них появился атомный реактор, чтобы питать 100 видео-карт?
всё так
тем что если можно сократить объем передаваемых данных, то можно использовать всяческий ground segment as a service, да хоть тот же сатноз или соникс.
про это в одной из 3х статей (их будет несколько) как раз будет. Смысл как раз очевиден. Не проливать через наземный сегмент терабайты данных.
это как раз в конце статьи :)
Такое бывает очень часто в нашей индустрии...