С Claude code Opus это уже произошло, когда вышла Sonnet 4.5. Реддит месяц с ума сходил, вайб-кодеры подписки отменяли.
Думаю, это хорошо - в итоге получается зрелый умнейший инструмент для профессионалов. А генерировать десятками тысяч трэш-проекты становится нерентабельно.
Смахивает на опыт человека, который под ИИ для разработки подразумевает чаты. Или использует дешёвые модели со странными инструментами, а то и вовсе selfhosted 30b какую-то.
Эти модели, тем более квантированные, ничего осмысленного накодить не помогут. Минимум 72b и контекстом от 32k. Только вот таким моделям нужно 128+ RAM и могучую 4090/5090 для выгрузки части слоёв и контекста.
Ну это же рекрутёры выставляют непробиваемые автофильтры? Это же странные интервьюеры превратили собеседования в отдельный скилл, слабо связанный с реальной работой? Почему удивляетесь, что появилось противодействие?
Так ничто же не мешает масштабировать сервисы, если они грамотно спроектированы. Лежал-то не весь сайт, а частями. Тем более, об этих акция известно сильно заранее, можно ресурс-пул расширить. Это последствия внедрения микрофронтендов? Или монолит в режиме "цитадель" (раз уж заказы упали)?
А почему у вас при каждом коллабе с Mihuyo падает сайт, мобильное приложение, заказы произвольно меняют статусы? Не миллиарды же приходят, а про увеличение нагрузки известно заранее.
Вводится двойным дефисом, в Word и телеграме на автомате ставлю: клац-клац.
А вообще, дичь конечно. Люди начинают писать хуже, чтобы не сойти за ИИ: тире, точки в конце сообщения, форматирование абзацев, заглавные.
С Claude code Opus это уже произошло, когда вышла Sonnet 4.5. Реддит месяц с ума сходил, вайб-кодеры подписки отменяли.
Думаю, это хорошо - в итоге получается зрелый умнейший инструмент для профессионалов. А генерировать десятками тысяч трэш-проекты становится нерентабельно.
А в Perplexity прям сразу кнопка есть, сохранить в PDF/md. Жаль, что ответы GPT-5 там сильно отличаются от ChatGPT с Plus.
Смахивает на опыт человека, который под ИИ для разработки подразумевает чаты. Или использует дешёвые модели со странными инструментами, а то и вовсе selfhosted 30b какую-то.
Чем этот проект лучше AnythingLLM? Там есть свои эмбеддеры, векторные базы.
Эти модели, тем более квантированные, ничего осмысленного накодить не помогут. Минимум 72b и контекстом от 32k. Только вот таким моделям нужно 128+ RAM и могучую 4090/5090 для выгрузки части слоёв и контекста.
Ну это же рекрутёры выставляют непробиваемые автофильтры? Это же странные интервьюеры превратили собеседования в отдельный скилл, слабо связанный с реальной работой? Почему удивляетесь, что появилось противодействие?
Так ничто же не мешает масштабировать сервисы, если они грамотно спроектированы. Лежал-то не весь сайт, а частями. Тем более, об этих акция известно сильно заранее, можно ресурс-пул расширить. Это последствия внедрения микрофронтендов? Или монолит в режиме "цитадель" (раз уж заказы упали)?
А почему у вас при каждом коллабе с Mihuyo падает сайт, мобильное приложение, заказы произвольно меняют статусы? Не миллиарды же приходят, а про увеличение нагрузки известно заранее.