Search
Write a publication
Pull to refresh

Comments 22

GigaChat 2 MAX занимает первое место среди AI-моделей


Но отстаёт от deepseek V3. Про R1 неизвестно. Про Соннет неизвестно.

Меня этот Gigachat тупо забанил за неудобные вопросы, на которые он не захотел публично отвечать.

Или видеокарта приобрела Сбер, если понимаете о чем я.

Кстати, таки вопрос, а на чём они тренируются? Я так понимаю, они сливают откуда-то open-weights и доучивают её на своих картах? Тогда откуда карты? Или они просто умно пишут промпты. Наверное-таки карты, потому что всё-таки нелпохо натренировали.

У кого-нибудь есть ссылки на хороший обзор того, откуда ноги растут у русскоговорящих убивцев чатаГПТ?

Были же тут на Хабре статьи, где сберовский гигабаян признавался, что он chatgpt3 (на тот момент).

Это обычные галлюцинации модели, частично лечатся тюном на подобных вопросах и системным промптом, но периодически может рандом проскользнуть. Не стоит их воспринимать всерьез. Недавно видел топик на реддите про то как Клод 3.7 утверждал что его создали OpenAI.

Прекрасно лечится не вставлять в промт то, что не нужно вставлять. Понятно. Ну вы вроде взрослый человек.

Вообще не понял что вы пытались сказать. Модель сама по себе (без тюна) понятия не имеет кто она - GPT4o, Claude 3.7 или тот же GigaChat. Она выдаст наиболее вероятную последовательность токенов на основе своего претрейна - а это, в большинстве случаев, будет что-то связанное с ChatGPT, поскольку он наиболее популярный и чаще всех встречается в наскрэйпленных с интернета данных.

Они же начинали еще до всяких проблем с картами. Думаю несколько тысяч карт то у них есть.

Вроде у GigaChat'а кастомная архитектура, т.е. они не дотюнивают open weight решения. Яндекс тоже этим раньше занимался (до YandexGPT 5), но у них совсем плохо получалось, в итоге сейчас используют Qwen 2.5 в качестве базы.

У Сбера карточки есть, не гигантские кластеры из десятков тысяч H100, конечно, но есть. Вроде после апгрейда у Кристофари где-то несколько тысяч A100.

Спасибо. Хотел это узнать.

Судим по результатам. Карточки может и есть, только в аренду сдаются, по результатам там отдувается один комп в подсобке с безумно разогнанной 4090 и сверху большая нашлепка в виде цензуры.

Вы сильно недооцениваете кол-во ресурсов необходимое для тренировки с нуля (т.е. включая претрейн) даже 32/70 млрд моделей. Более чем уверен, что все эти гпушки активно юзаются, плюс подозревают что у них там и h100 есть, ввезенные окольными путями.

Странный вопрос, откуда карты. Купили, конечно.

Вам интересно, как конкретно они обошли санкции? Подобную схему вам никто не расскажет, а примерная и так всем известна. Через третьи страны, например через Гонконг.

UI мое почтение. Зумеры ливнут сразу. Мне потребовалось 40 секунд войти в режим чата.

Неограниченно зацензуренная из-за чекистов модель..невозможно ничего обсуждать..почти на любой вопрос отказывается отвечать чуть копнешь в сексологи,психологию,историю и тд

Да, обсуждение не задалось… То есть получается, что любимое развлечение - добейся от модели галлюцинации или ответа экстремистского характера, чтобы публично похихикать и потыкать этим в разработчика, больше не доступно?! Досадно. Одно утешает, кожаные мешки остаются востребованными для общения, обсуждения и галлюцинаций!

У меня одного оно через десяток строк кода в ответе на любой промпт и при использовании любой модели останавливается с ошибкой "Что-то пошло не так. Проверьте интернет-соединение"?

Вот где API-токен получали - туда и идите!

Уже выросло, наверное, поколение, которое не понимает в чем шутка, но все равно все еще смешно! )

Sign up to leave a comment.

Other news