Pull to refresh

Comments 7

Так и было, особенно когда пытались разобраться почему не запускается тренировка моделей на этой машине, кучу инженеров подключили.

а в чем преимущество A4500 перед потребительскими типа rtx3090. глянул характеристики там тот же GA102, по TDP меньше, видимо за счет более холодной памяти + undervolt?

Он не лучше, просто сервер с A4500 нам дали бесплатно на год. А за свои деньги в соотношении цена / производительность самый лучший - RTX 3090.

Интересная у Вас работа... Когда пошла мода на ИИ я прикинул и решил не лезть - неподъёмная задача для полилинейной логики современного оборудования. Тут "однотактовые" операции над образами произвольного размера нужны, хотя бы 2D, а для формирования даже простой геометрической модели нашего слоя мироздания - 3D, да ещё в динамике. Некоторые абстрактные модели требуют и больших мерностей. При структуризации они, конечно, сводятся к полилинейным конструкциям разной сложности, но без слоя, связывающего их с сенсорным или абстрактно-информационным потоком все эти модели - как дерево без почвы - на дрова, разве что, годятся. А как раз слой первообраза в современное оборудование и не лезет...

Тем не менее, отрасль развивается, и уже имеет коммерческий смысл, что отрадно. Особенно интересные перспективы именно у Вашей области, так как все известные живые и искусственные языки в основе своей - уже полилинейны.

Из Вашей статьи я заключил, что обработке подвергаются сырые текстовые данные и их переводы, сделанные мясными переводчиками. Но это же просто гигантский объём информации... Неужели исходные данные предварительно не структурируются? Если бы мясные переводчики действовали таким способом - большинство бы уже лечились у специалистов по установке мозгов на место, по причине перманентных тормозов и глюков)

Эти же хитрые создания всегда вставляют между сырыми данными и понятийным древом структурное древо языка, то есть сжимают без потерь входящие данные на несколько порядков, а заодно минимизируют количество возможных межъязыковых связей, отсекая большую часть шумов ещё на этапе первичной структуризации, не касающейся остальных языков. После такой обработки понятийные деревья различных языков, описывающих один и тот же набор объектов, не просто коррелируют - они выходят идентичными. Чем мясные переводчики (пока ещё) бессовестно пользуются, обставляя кремниевых в некоторых областях вчистую)

Применяется ли подобный приём в современном моделировании естественных языков?

Исходные данные предварительно структурируются (у нас написана куча скриптов), например, чтобы не было избыточности и при этом охватить всю семантику языка. Шумы надо добавлять, чтобы сделать устойчивость, когда текст на перевод подается с ошибками. Если просто взять много данных и натренировать модель - на выходе будет очень плохое качество.

То есть, в настоящий момент организованного научного подхода к проблеме нет, но есть много частных решений... Жаль.. Однако, кому-то повезёт сделать прорыв, в скором времени, и снизить аппаратные требования до приемлемого уровня. А потом появится куча жестяных говорилок, неотличимых на слух от среднестатистического аборигена)

Тексты с ошибками, кроме простой орфографии - настоящая беда. Даже для мясных переводчиков. Тут уже интуиция требуется, то есть доступ к дополнительной информации за пределами видимого. Вот будет весело, когда машины начнут проявлять зачатки яснознания - нам тогда останется только разнести планету или освободить место более продвинутому виду. У нас-то это дело скорее редкое исключение, чем правило. И даже не сомневаюсь по какому пути ломонёмся всей толпой - не впервой уже, плавали, и тонули, столько раз. И каждый раз забываем...

Sign up to leave a comment.

Articles