Не гарантия скорого результата, Tri Alpha Energy уже седьмой экспериментальный реактор строят, например. (Но каждый новый — больше и лучше, конечно)
ставка на цифровых двойников и ИИ
Интересно, что тут ИИ работает на этапе разработки реактора. Но в целом не новая идея, тот же Deepmind уже не один год сотрудничает с разными термоядерными стартапами.
видеокарты в 10-ки тысяч долларов с видеопамятью под 100гб.
Причем их нужно десятки, просто чтобы запустить модель. Опенсорсный Deepseek — 700b параметров, Kimi — триллион. Сколько у закрытых Gemini/Claude/GPT неизвестно, но точно в разы больше.
Для меня нормальным стало пачками создавать одноразовые скрипты на несколько десятков / сотен строк кода, которые выполнили свою задачу, и больше не будут использоваться никогда.
Удали строки с небуквенными символами, сшей pdf'ы из фотографий, попутно перевернув их вертикально, сделай загрузчик субтитров с ютуба, сделай прочитыватель pdf с удалением лишних переносов итд.
Бывает такая рутина, которую руками пришлось бы делать часы.
А говорят, данные закончились. Игры это отличные RL среды, в любой из них можно совершенствоваться бесконечно. Да и игр человечество успело наклепать много.
— Anthropic планирует выйти на положительный денежный поток к 2027 году (OpenAI — не раньше 2030 года).
— В этом году прогноз выручки OpenAI ($13 млрд) почти втрое выше, чем у Anthropic ($4,7 млрд).
— В 2028 году Anthropic планирует получить до $17 млрд свободных денежных средств, тогда как OpenAI прогнозирует убыток почти в $47 млрд.
— Реалистичный сценарий Anthropic на 2028 год: $3,6 млрд свободного денежного потока при выручке $32,5 млрд.
— Более 80% доходов Anthropic до 2028 года будет приходиться на продажи бизнес-клиентам через API и приложения.
— Годовая выручка (последний месяц 12) от Claude Code приближается к $1 млрд (в июле было $400 млн). Текущая годовая выручка Anthropic (на основе последнего месяца) — около $7 млрд.
— Валовая маржа с учётом бесплатных пользователей у Anthropic: прошлый год: −109%, текущий год: 47%
LLM конечно стали меньше галлюцинировать, но чем тема более редкая, тем хуже они справляются.
Посмотрел статью про Interslavic/межславянский язык, там многое просто выдумано Гроком. Примеры слов — полный рандом, во фразах есть ошибки, описание алфавита неправильное.
Может допилят ещё, не знаю. Сделать комментарии/репорты об ошибках, кросспроверку разными нейросетками, явное отделение ИИ-комментариев от оригинального контента... Альфа-версия в конце концов.
Но в таком виде сайту сложно доверять, боюсь представить как они на этом собрались обучать Grok 5
Ошибки это не какое-то уникальное свойство чат-ботов. На Stackoveflow встречаются неправильные ответы, мы сами часто ошибаемся и.т.д. В любом случае, проверять на правильность обычно быстрее, чем делать самому.
Да и исправлять ошибки они тоже умеют, свои и чужие. И в кодинге пригождалось, и в работе с данными на иностранных языках.
Да для этого даже взлом не обязателен. Ещё год назад народ экспериментировал с AutoGPT, которая в том числе способна тратить деньги с кредитной карточки пользователя. Могу себе представить открытую модель, которая сама себя скачает с HuggingFace, а потом сама себя задеплоит на облачный сервер.
> Devin can handle coding, testing, and deployment autonomously in multiple programming languages.
Но для этого нужен совершенно другой уровень автономности, конечно.
Не гарантия скорого результата, Tri Alpha Energy уже седьмой экспериментальный реактор строят, например. (Но каждый новый — больше и лучше, конечно)
Интересно, что тут ИИ работает на этапе разработки реактора. Но в целом не новая идея, тот же Deepmind уже не один год сотрудничает с разными термоядерными стартапами.
Разве, а проблемы 333 и 897? В последнее время достаточно кучно пошло
Выбор модели важен... Gemini склонна к такому, GPT-5.2 поменьше, Claude Opus почти адекватный.
А ещё мне помогает просить критический взгляд. "Проверь на прочность" и всё такое.
Ещё пробовал интересный прием, не признаваться, что это твоя работа. Условное "Друг предложил идею, но я что-то сомневаюсь. Оцени, пожалуйста."
Причем их нужно десятки, просто чтобы запустить модель. Опенсорсный Deepseek — 700b параметров, Kimi — триллион. Сколько у закрытых Gemini/Claude/GPT неизвестно, но точно в разы больше.
Для меня нормальным стало пачками создавать одноразовые скрипты на несколько десятков / сотен строк кода, которые выполнили свою задачу, и больше не будут использоваться никогда.
Удали строки с небуквенными символами, сшей pdf'ы из фотографий, попутно перевернув их вертикально, сделай загрузчик субтитров с ютуба, сделай прочитыватель pdf с удалением лишних переносов итд.
Бывает такая рутина, которую руками пришлось бы делать часы.
Гугл тоже в некотором роде изобретатель технологии, трансформер они придумали
В некоторых сферах только. Эрудиция, математика, языковые способности.
На lmarena.ai у него не очень хороший рейтинг в Coding, хуже sonnet 4.5 и gpt 5.1. Я пробовал немного, такое же чувство.
А вот с креативными способностями лучше, тексты интересно пишет.
Представляю, какие древности можно найти в ледниках Гренландии и Антарктиды
"Проблему", серьезно? LLM используют длинные тире, потому что это грамматически правильно.
То, что человекам обычно лень их писать, это уже другой вопрос.
А говорят, данные закончились. Игры это отличные RL среды, в любой из них можно совершенствоваться бесконечно. Да и игр человечество успело наклепать много.
Ожидают
https://www.theinformation.com/articles/anthropic-projects-70-billion-revenue-17-billion-cash-flow-2028?utm_source=ti_app (оригинал за пейволлом)
https://t.me/seeallochnaya/3049?single (текст отсюда)
LLM конечно стали меньше галлюцинировать, но чем тема более редкая, тем хуже они справляются.
Посмотрел статью про Interslavic/межславянский язык, там многое просто выдумано Гроком. Примеры слов — полный рандом, во фразах есть ошибки, описание алфавита неправильное.
Может допилят ещё, не знаю. Сделать комментарии/репорты об ошибках, кросспроверку разными нейросетками, явное отделение ИИ-комментариев от оригинального контента... Альфа-версия в конце концов.
Но в таком виде сайту сложно доверять, боюсь представить как они на этом собрались обучать Grok 5
Так самостоятельные решения открытых проблем тоже были
https://x.com/pi010101/status/1974909578983907490?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
http://x.com/sebastienbubeck/status/1958198661139009862
https://scottaaronson.blog/?p=9183
https://arxiv.org/pdf/2508.03685
После появления Figure и Unitree скорее
Такие цифры были ещё в октябре https://habr.com/ru/companies/bothub/news/854782/. Статистика по Гуглу, но другой нет
Жалко что в исследовании нет Deep Research от гугла и от OpenAI.
Gemini и o3 в топах по способности удерживаться от галлюцинаций.
Он же невесомый, 1.18 кг. Одной рукой поднял и переставил
Ошибки это не какое-то уникальное свойство чат-ботов. На Stackoveflow встречаются неправильные ответы, мы сами часто ошибаемся и.т.д. В любом случае, проверять на правильность обычно быстрее, чем делать самому.
Да и исправлять ошибки они тоже умеют, свои и чужие. И в кодинге пригождалось, и в работе с данными на иностранных языках.
Да для этого даже взлом не обязателен. Ещё год назад народ экспериментировал с AutoGPT, которая в том числе способна тратить деньги с кредитной карточки пользователя. Могу себе представить открытую модель, которая сама себя скачает с HuggingFace, а потом сама себя задеплоит на облачный сервер.
> Devin can handle coding, testing, and deployment autonomously in multiple programming languages.
Но для этого нужен совершенно другой уровень автономности, конечно.