Все потоки
Поиск
Написать публикацию
Обновить
-3
-0.1

Пользователь

Отправить сообщение

По моим наблюдениям все копайлоты мелкомягких - отстой.

Где-то я это уже видел. о3 сбегал из окружения, лама копировала себя, вот и антропик не отстают и пиарят новые модели как могут.

А было приятно, ощущался живее дефолтного 4o бота.

Мы просто брали пароли с компа, вставляли флешку с автораном и получали сохраненные пароли. Пару двоек исправил, но скандал был. За ночь рейтинг школы обвалился, исправлять исправленные оценки никто не стал)

Какая настольгия, форк бомбы еще живы.

У них не нормально с распространением и лицензиями. Они своровали софт, затерли лицензии и ПРОДАЮТ LINUX под видом отечественного ПО. А чинуши ставят закон, чтобы все использовали данное ПО. Госам приходится ставить вторую систему астры или другой ненужной ерунды, чтобы если пришли с проверкой не платить штрафы.

В цифровом концлагере жаловаться не положено?

Если из под палки не заставят, то никто этим пользоваться не будет. Нужно попускать этих горе разрабов астры и тех кто вводит её обязательное внедрение.

На кого расчитана статья? Любой школьник сейчас может заказать подобных плат с алика и накодить умный дом, фреймворков для которого более чем достаточно. В любом случае спасибо за статью, хоть поржал с кортинки.

А мне модель понравилась. Это первая лама, говорящяя по русски. Плюс маверик прошел мои тесты на логику. Единственный минус - размер. Ждем бегемота, он обещает быть жирным.

Я занимаюсь сейчас проектом парсинга документации из pdf, реализовал проект, который разбивает документ на скрины и отправляет в мультимодальную llm, на выходе идеальный документ в markdown с таблицами. Может стоит парсить не код, а скрины контента? Кстати стоимость небольшая, используя qwen 2.5vl-70b 90 страниц стоят примерно 0.3$, плюс есть функционал перевода документа налету.

Хз, я лично отменил подписку и перешел на grok и sonnet с r1 в cursor. Модели oai объективно тупее и сама экосистема чата у них провалилась. Ждем r2, claude 4, надеямся на llama4 и посмотрим на gpt5, чем бы оно небыло.

Считаю, что не все отечественные решения проверены. T-lite (дообученный qwen) и дообученные модели vikhr не были протестированны. Они сделаны по лучшим стандартам отечественных разработок (взяли иностранное и переделали на отечественное).

Вы точно про наши вузы? Учился в радике, половина пар просто надиктовывались с методички, никакого интереса не было.

Слышали что нибудь про модель ChatGPT? И я нет, но у автора она есть. Вроде не много цифр нужно, одна-две, чтобы написать конкретную модель.

Нам нужна просто умная модель! где llama4?

Да блядь, эти пидарасы из OpenAI опять обосрались! Как же заебали эти хуесосы, которые нихуя не могут сделать нормально! 18 месяцев дрочили свой ебаный GPT-5, а толку - хуй да нихуя! Orion, блядь, назвали, а по факту - говно залупное!

Сначала тянули время, как последние бляди, потом оказалось, что их ебаные обучения, на которые они слили охулиарды баксов, нихуя не дали! Ну, охуеть теперь, данные у них, видите ли, не те! Может, надо было сразу думать о том, что вы, блядь, делаете, а не дрочить свои маняфантазии?

И что теперь? Эти пидорасы наняли каких-то хуеплётов, чтобы те писали им код и решали задачки, да еще и синтетические данные от другой модели юзают! Да вы, блядь, совсем ебанулись? Это же просто пиздец, товарищи! Вместо того, чтобы сделать нормальную модель, они занимаются какой-то хуйнёй, прикрываясь громкими названиями и охуенно большими бюджетами!

Зашкварился AT командами

1

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность