видеокарты в 10-ки тысяч долларов с видеопамятью под 100гб.
Причем их нужно десятки, просто чтобы запустить модель. Опенсорсный Deepseek — 700b параметров, Kimi — триллион. Сколько у закрытых Gemini/Claude/GPT неизвестно, но точно в разы больше.
Для меня нормальным стало пачками создавать одноразовые скрипты на несколько десятков / сотен строк кода, которые выполнили свою задачу, и больше не будут использоваться никогда.
Удали строки с небуквенными символами, сшей pdf'ы из фотографий, попутно перевернув их вертикально, сделай загрузчик субтитров с ютуба, сделай прочитыватель pdf с удалением лишних переносов итд.
Бывает такая рутина, которую руками пришлось бы делать часы.
А говорят, данные закончились. Игры это отличные RL среды, в любой из них можно совершенствоваться бесконечно. Да и игр человечество успело наклепать много.
— Anthropic планирует выйти на положительный денежный поток к 2027 году (OpenAI — не раньше 2030 года).
— В этом году прогноз выручки OpenAI ($13 млрд) почти втрое выше, чем у Anthropic ($4,7 млрд).
— В 2028 году Anthropic планирует получить до $17 млрд свободных денежных средств, тогда как OpenAI прогнозирует убыток почти в $47 млрд.
— Реалистичный сценарий Anthropic на 2028 год: $3,6 млрд свободного денежного потока при выручке $32,5 млрд.
— Более 80% доходов Anthropic до 2028 года будет приходиться на продажи бизнес-клиентам через API и приложения.
— Годовая выручка (последний месяц 12) от Claude Code приближается к $1 млрд (в июле было $400 млн). Текущая годовая выручка Anthropic (на основе последнего месяца) — около $7 млрд.
— Валовая маржа с учётом бесплатных пользователей у Anthropic: прошлый год: −109%, текущий год: 47%
LLM конечно стали меньше галлюцинировать, но чем тема более редкая, тем хуже они справляются.
Посмотрел статью про Interslavic/межславянский язык, там многое просто выдумано Гроком. Примеры слов — полный рандом, во фразах есть ошибки, описание алфавита неправильное.
Может допилят ещё, не знаю. Сделать комментарии/репорты об ошибках, кросспроверку разными нейросетками, явное отделение ИИ-комментариев от оригинального контента... Альфа-версия в конце концов.
Но в таком виде сайту сложно доверять, боюсь представить как они на этом собрались обучать Grok 5
Ошибки это не какое-то уникальное свойство чат-ботов. На Stackoveflow встречаются неправильные ответы, мы сами часто ошибаемся и.т.д. В любом случае, проверять на правильность обычно быстрее, чем делать самому.
Да и исправлять ошибки они тоже умеют, свои и чужие. И в кодинге пригождалось, и в работе с данными на иностранных языках.
Да для этого даже взлом не обязателен. Ещё год назад народ экспериментировал с AutoGPT, которая в том числе способна тратить деньги с кредитной карточки пользователя. Могу себе представить открытую модель, которая сама себя скачает с HuggingFace, а потом сама себя задеплоит на облачный сервер.
> Devin can handle coding, testing, and deployment autonomously in multiple programming languages.
Но для этого нужен совершенно другой уровень автономности, конечно.
TIOBE это рейтинг, в котором JAVA с промежутком в три года успевает прыгнуть с 13% до 20% и обратно, а C сначала проваливается по популярности в три раза, а потом "востанавливает позиции" и становится языком года. Кажется, единственная причина по которой он так популярен по сравнению со статистикой Гитхаба или Stackoverflow — тяга к сенсациям.
Выбор модели важен... Gemini склонна к такому, GPT-5.2 поменьше, Claude Opus почти адекватный.
А ещё мне помогает просить критический взгляд. "Проверь на прочность" и всё такое.
Ещё пробовал интересный прием, не признаваться, что это твоя работа. Условное "Друг предложил идею, но я что-то сомневаюсь. Оцени, пожалуйста."
Причем их нужно десятки, просто чтобы запустить модель. Опенсорсный Deepseek — 700b параметров, Kimi — триллион. Сколько у закрытых Gemini/Claude/GPT неизвестно, но точно в разы больше.
Для меня нормальным стало пачками создавать одноразовые скрипты на несколько десятков / сотен строк кода, которые выполнили свою задачу, и больше не будут использоваться никогда.
Удали строки с небуквенными символами, сшей pdf'ы из фотографий, попутно перевернув их вертикально, сделай загрузчик субтитров с ютуба, сделай прочитыватель pdf с удалением лишних переносов итд.
Бывает такая рутина, которую руками пришлось бы делать часы.
Гугл тоже в некотором роде изобретатель технологии, трансформер они придумали
В некоторых сферах только. Эрудиция, математика, языковые способности.
На lmarena.ai у него не очень хороший рейтинг в Coding, хуже sonnet 4.5 и gpt 5.1. Я пробовал немного, такое же чувство.
А вот с креативными способностями лучше, тексты интересно пишет.
Представляю, какие древности можно найти в ледниках Гренландии и Антарктиды
"Проблему", серьезно? LLM используют длинные тире, потому что это грамматически правильно.
То, что человекам обычно лень их писать, это уже другой вопрос.
А говорят, данные закончились. Игры это отличные RL среды, в любой из них можно совершенствоваться бесконечно. Да и игр человечество успело наклепать много.
Ожидают
https://www.theinformation.com/articles/anthropic-projects-70-billion-revenue-17-billion-cash-flow-2028?utm_source=ti_app (оригинал за пейволлом)
https://t.me/seeallochnaya/3049?single (текст отсюда)
LLM конечно стали меньше галлюцинировать, но чем тема более редкая, тем хуже они справляются.
Посмотрел статью про Interslavic/межславянский язык, там многое просто выдумано Гроком. Примеры слов — полный рандом, во фразах есть ошибки, описание алфавита неправильное.
Может допилят ещё, не знаю. Сделать комментарии/репорты об ошибках, кросспроверку разными нейросетками, явное отделение ИИ-комментариев от оригинального контента... Альфа-версия в конце концов.
Но в таком виде сайту сложно доверять, боюсь представить как они на этом собрались обучать Grok 5
Так самостоятельные решения открытых проблем тоже были
https://x.com/pi010101/status/1974909578983907490?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
http://x.com/sebastienbubeck/status/1958198661139009862
https://scottaaronson.blog/?p=9183
https://arxiv.org/pdf/2508.03685
После появления Figure и Unitree скорее
Такие цифры были ещё в октябре https://habr.com/ru/companies/bothub/news/854782/. Статистика по Гуглу, но другой нет
Жалко что в исследовании нет Deep Research от гугла и от OpenAI.
Gemini и o3 в топах по способности удерживаться от галлюцинаций.
Он же невесомый, 1.18 кг. Одной рукой поднял и переставил
Ошибки это не какое-то уникальное свойство чат-ботов. На Stackoveflow встречаются неправильные ответы, мы сами часто ошибаемся и.т.д. В любом случае, проверять на правильность обычно быстрее, чем делать самому.
Да и исправлять ошибки они тоже умеют, свои и чужие. И в кодинге пригождалось, и в работе с данными на иностранных языках.
Да для этого даже взлом не обязателен. Ещё год назад народ экспериментировал с AutoGPT, которая в том числе способна тратить деньги с кредитной карточки пользователя. Могу себе представить открытую модель, которая сама себя скачает с HuggingFace, а потом сама себя задеплоит на облачный сервер.
> Devin can handle coding, testing, and deployment autonomously in multiple programming languages.
Но для этого нужен совершенно другой уровень автономности, конечно.
Опус стоит 75$ за миллион токенов, а эта штука 15$. Сравнивать нужно с Claude Sonnet.
TIOBE это рейтинг, в котором JAVA с промежутком в три года успевает прыгнуть с 13% до 20% и обратно, а C сначала проваливается по популярности в три раза, а потом "востанавливает позиции" и становится языком года. Кажется, единственная причина по которой он так популярен по сравнению со статистикой Гитхаба или Stackoverflow — тяга к сенсациям.
Убедительная статья на тему: https://blog.nindalf.com/posts/stop-citing-tiobe/