Не понимаю, почему вы противопоставляете моему утверждению статью, в которой автор говорит то же самое. Кстати, её пережёвывали на Хабре, ещё когда она вышла (тогда же я её и читал). Вольфрам как раз там попытался осмыслить этот побочный эффект. А когда в 2017 году была предложена эта технология - никто, влючая Вольфрама, и понятия не имел, что случится, когда через пару лет её станут масштабировать.
А этой кучки грязных фокусников нет никакой теории того, чем они занимаются (интеллекта), а есть только электронный попугай, создающий иллюзии ответа.
Вы смешиваете в кучу фокусников и вполне себе настоящих учёных, которые на этих фокусников работают (за немалые деньги, между прочим).
В начале 2020-х алгоритм, который создавался просто для прогнозирования окончания строки на основе её начала, стал вести беседы. Да ещё и на языках, которым его специально не обучали (просто тексты на этих языках были в датасете). Это было ошеломительным побочным эффектом. Если бы ещё 10 лет назад кто-то такое предположил, его бы окрестили фантазёром и мошенником.
экосистемы приложений ChatGPT и Claude пересекаются всего на 11%. OpenAI превращается в потребительское "суперприложение" с интеграциями в путешествия, шоппинг и еду. Anthropic делает ставку на профессиональную инфраструктуру — финансовые терминалы, инструменты разработчиков, корпоративные интеграции. Две компании, которые еще год назад соревновались за одну и ту же аудиторию, разошлись по разным рынкам.
Вот, собственно, и вся причина. Просто OpenAI больше ориентирована на частников, а Anthropic - на корпоративных клиентов. И история с Пентагоном тут вообще ни при чём.
Конкретно DeepSeek сейчас выигрывает только по цене. Но со дня на день грозится выпустить новую версию.
Если в обычном режиме чата, без агентов, с какими-нибудь мини-моделями давать им сложные алгоритмические задачи, то не стоит ожидать чего-то впечатляющего.
Попросить LLM: "Что-то всё тормозит. Сделай, чтобы не тормозило". На будущее добавить, чтобы при разработке максимально оптимизировала код всеми известными человечеству способами оптимизации.
Такие задачи решаются без проблем. А вот что делать, когда LLM просто не может одолеть какой-то баг из-за недостатка контекста или просто в силу ограниченного интеллекта, пока не ясно. Обычно просто выходит новая версия Клода \ GPT \ Gemini и на какое-то время поднимает эту планку.
Вот только очередь и на то, и на другое уже выстроилась. И если прошляпить момент, то можно вообще остаться без всего.
А как их отличить?
Не понимаю, почему вы противопоставляете моему утверждению статью, в которой автор говорит то же самое. Кстати, её пережёвывали на Хабре, ещё когда она вышла (тогда же я её и читал). Вольфрам как раз там попытался осмыслить этот побочный эффект. А когда в 2017 году была предложена эта технология - никто, влючая Вольфрама, и понятия не имел, что случится, когда через пару лет её станут масштабировать.
А для чего рядом с Manus проставлена звёздочка?
Вот только сделал он это лишь спустя 10 лет после деления атома Кокфортом и Уолтоном (за что им дали нобелевку).
Вы смешиваете в кучу фокусников и вполне себе настоящих учёных, которые на этих фокусников работают (за немалые деньги, между прочим).
В начале 2020-х алгоритм, который создавался просто для прогнозирования окончания строки на основе её начала, стал вести беседы. Да ещё и на языках, которым его специально не обучали (просто тексты на этих языках были в датасете). Это было ошеломительным побочным эффектом. Если бы ещё 10 лет назад кто-то такое предположил, его бы окрестили фантазёром и мошенником.
Так есть же диффузионные языковые модели.
Он всю жизнь профессионально прогоняет буллщит. Талант у него такой.
Ядерных реакторов тоже не существовало в "эпоху открытия деления атома".
А что, у Клода и GPT есть студенческие подписки?
Вот, собственно, и вся причина. Просто OpenAI больше ориентирована на частников, а Anthropic - на корпоративных клиентов. И история с Пентагоном тут вообще ни при чём.
А какой провайдер лучше? Уж не Ростелеком ли?
Если не хочется, чтобы ваши чаты читал кто-то ещё, то включайте оконечное шифрование, т. е. общайтесь через приватные чаты.
Они в принципе закрыты для большинства людей с материальной точки зрения, вне зависимости от того, согласные они или несогласные.
Все эти проблемы прекрасно видны, если просто написать LLM-ке "привет" в режиме рассуждения.
Так в чём преимущество Телеги перед Максом?
Такое ощущение, что вы описываете ChatGPT уровня 2023 года. Если пользуетесь обычными чатами на сайте, то попробуйте https://aistudio.google.com/apps
Для ChatGPT есть десктопное приложение Codex - https://apps.microsoft.com/detail/9plm9xgg6vks?hl=en-US&gl=US
Ну а у Клода есть Claude Code \ Cowork, только не бесплатно.
В случае с китайцами есть такие:
https://agent.minimax.io/
https://www.kimi.com/agent
https://chat.z.ai/
https://chat.qwen.ai/ (режим "веб-разработка" через плюсик слева)
Конкретно DeepSeek сейчас выигрывает только по цене. Но со дня на день грозится выпустить новую версию.
Если в обычном режиме чата, без агентов, с какими-нибудь мини-моделями давать им сложные алгоритмические задачи, то не стоит ожидать чего-то впечатляющего.
Попросить LLM: "Что-то всё тормозит. Сделай, чтобы не тормозило". На будущее добавить, чтобы при разработке максимально оптимизировала код всеми известными человечеству способами оптимизации.
Такие задачи решаются без проблем. А вот что делать, когда LLM просто не может одолеть какой-то баг из-за недостатка контекста или просто в силу ограниченного интеллекта, пока не ясно. Обычно просто выходит новая версия Клода \ GPT \ Gemini и на какое-то время поднимает эту планку.
Просто 90% галлюцинаций - как-то уж слишком многовато.
Чем, если не секрет?