Сейчас код в основном ИИ пишет, в целом он сам по себе старается лучшие практики использовать, в крайнем случае его можно направлять, если плохо поддерживаемый код начал писать
ToM бывает буквальной и функциональной. LLM отлично справляются с первой и ужасно со второй. Одно из исследований на эту тему: https://arxiv.org/pdf/2412.19726
По этому вопросу нет консенсуса. Функционализм рассматривает мышление как реализацию определённых вычислительно‑каузальных функций независимо от носителя; в этой рамке возможны системы, демонстрирующие мыслительные операции без признаков автономного «Я» и рефлексивной субъектности.
"языковой модели мира" не существует, ни в мозге, ни в теории;
Существуют языковые модели когниции (linguistic world models, mental models encoded in language), обсуждаемые в когнитивной лингвистике (например, у Дж. Лакоффа и Р. Лэнгакера). Кроме того, философы вроде Джерри Фодора, Стивена Пинкера и Ноэма Хомского допускали, что структуры языка отражают когнитивную структуру мышления, пусть и не исчерпывают её. Так что в целом нельзя сказать, что когнитивистика отрицает глубокую связь между языком и мышлением.
Ну тут зависит от задачи. Простые, но многословные бойлерплейты, к примеру, ИИ напишет быстрее. Хоть бы и потому, что при обучении он "видел" много таких.
Там тоже много нюансов. Кажется, мало кто в индустрии знает как правильно работать с мультиагентностью. Есть проекты типа claude-flow, созданные для автоматизации управления роем агентов, но они не универсальны и имеют свои ограничения.
Этого все же недостаточно, чтобы "хорошо готовить" ИИ. Пробовали инструменты умного управления контекстом? Пробовали claude-flow? Пробовали traycer и различные системы декомпозиции задач? Конечно, кодовые ассистенты это не панацея, но качество генерации ими кода сильно зависит от навыков программиста работать с ИИ.
А есть какой-то репозиторий с примерами кода для дообучения или хоть что-то воспроизводимое? Иначе практической пользы от статьи 0. Рассказ о том, что крупный банк умеет дообучать модели через LoRA - это не какое-то сверхдостижение, достойное статьи.
NotebookLM, если требование запускать локально необязательно. Если хочется локально, доступно множество инструментов для организации базы знаний и интеграции с LLM, вот некоторые из них: Open WebUI, LM Studio, Msty Studio, Librechat, Cherry Studio, Chatbox, AnythingLLM, GPT4All.
Cursor живее всех живых, с чего ему умирать? У Antogravity пока и нет особых преимуществ, кроме щедрых бесплатных лимитов на gemini 3
Сейчас код в основном ИИ пишет, в целом он сам по себе старается лучшие практики использовать, в крайнем случае его можно направлять, если плохо поддерживаемый код начал писать
Какой UI предполагается для этого кода? В консольке взаимодействовать? Но зачем, когда есть готовые мощные решения с продуманным UI как Msty Studio?
ToM бывает буквальной и функциональной. LLM отлично справляются с первой и ужасно со второй. Одно из исследований на эту тему: https://arxiv.org/pdf/2412.19726
По этому вопросу нет консенсуса. Функционализм рассматривает мышление как реализацию определённых вычислительно‑каузальных функций независимо от носителя; в этой рамке возможны системы, демонстрирующие мыслительные операции без признаков автономного «Я» и рефлексивной субъектности.
Существуют языковые модели когниции (linguistic world models, mental models encoded in language), обсуждаемые в когнитивной лингвистике (например, у Дж. Лакоффа и Р. Лэнгакера). Кроме того, философы вроде Джерри Фодора, Стивена Пинкера и Ноэма Хомского допускали, что структуры языка отражают когнитивную структуру мышления, пусть и не исчерпывают её. Так что в целом нельзя сказать, что когнитивистика отрицает глубокую связь между языком и мышлением.
Ну тут зависит от задачи. Простые, но многословные бойлерплейты, к примеру, ИИ напишет быстрее. Хоть бы и потому, что при обучении он "видел" много таких.
Там тоже много нюансов. Кажется, мало кто в индустрии знает как правильно работать с мультиагентностью. Есть проекты типа claude-flow, созданные для автоматизации управления роем агентов, но они не универсальны и имеют свои ограничения.
Этого все же недостаточно, чтобы "хорошо готовить" ИИ. Пробовали инструменты умного управления контекстом? Пробовали claude-flow? Пробовали traycer и различные системы декомпозиции задач? Конечно, кодовые ассистенты это не панацея, но качество генерации ими кода сильно зависит от навыков программиста работать с ИИ.
Нет никаких доказательств того, что языковая модель мира в мозге человека принципиально по другому устроена, чем в LLM.
А что такое "мышление"? Как вы поняли, что LLM к нему не способны?
А есть какой-то репозиторий с примерами кода для дообучения или хоть что-то воспроизводимое? Иначе практической пользы от статьи 0. Рассказ о том, что крупный банк умеет дообучать модели через LoRA - это не какое-то сверхдостижение, достойное статьи.
Думаю, текст скорее AI-free
Это неверное утверждение.
Перечисленные мной системы это умеют из коробки, например, в Msty Studio эта функциональность называется Knowledge stacks.
NotebookLM, если требование запускать локально необязательно. Если хочется локально, доступно множество инструментов для организации базы знаний и интеграции с LLM, вот некоторые из них: Open WebUI, LM Studio, Msty Studio, Librechat, Cherry Studio, Chatbox, AnythingLLM, GPT4All.
Если атакующий может деплоить произвольный код в прод, то брешь в безопасности не в LLM
Только нужно иметь приличный GPU
Увеличение окна едва ли даст качественное улучшение генерации кода, скорее просто conversation condensing будет реже происходить
Это не так. Качество генерации упало из-за багов в инфре и инструментах компиляции, это уже вылечили:
https://www.anthropic.com/engineering/a-postmortem-of-three-recent-issues