Вообще ничего не понятно. Smarty это что-то про php шаблоны. По крайне мере - так утверждает гугл, а я ему больше верю чем 5 ллм из 30ти в данном посте.
Выходит , что даже название, которое упоминается 10 раз - не оригинальное.
Старый способ, который предлагает варианты слов, оказался всё ещё работает, но не может исправить «succes». (такая хрень примерно с релиза нейро). Сейчас потестил на русском - оказывается на RU работает Ок..
Про текущий способ исправления одного слова с нейро:
Дважды щёлкнуть по тексту;
Нажать «Редактировать»;
Выбрать «Исправить ошибки»;
Заменить выделенный текст.
По привычке путь с ПКМ еще дольше: ПКМ + «Исправить все ошибки» -> начать сначала.
Было бы удобно, если бы на правой кнопке мыши, помимо «Исправить все ошибки», была доступна функция «Исправить слово»...
Это все очень интересно. Но верните старый способ исправления правописания одного слова. Через правый клик.
Опечатался, или иностранное слово подчёркивает красным - а исправить нельзя. Ваша исправлялка делает это через Ж. Тоесть...через 7 кликов вместо двух. (Ладно видимо с посл.обновлением одно слово исправить в 4 клика можно...если не промахнуться в нужное меню. )
А ещё эта штука ломает абзацы, что прям ставит под сомнение, а нужна ли она. Проще в gpt закинуть и скопировать обратно. это быстрее.
Важно отметить, что выбор автора статьи, темы и модели GPT играет решающую роль в успешности публикации, получении кармы и позитивного фитбека от читателей.
Выражаю свои сомнения, что на BQ это будет быстрее\удобнее клика. Особенно для объединения\пересечения ключей.
постгря
sql server (хотя пример 50 к 2 минутам - это про многомерность выше...)
юзеры ну 50к день наверное
в совокупности звучит, как прод с витринами.
А без партиционирования и без ограничений - даже петабайт можно получить на 1 запросе, который не предусматривает группировку.
Обсуждение было про много ли данных. Если все в витринах\вьюшках. Какая разница сколько данных в хвосте 100гб или 100тб? они фактически в холодном хранилище.
В целом, у меня нет цели продать клик, за это не платят( Выше была просто многомерная боль. И OLAP на клике - отличная идея... Вместо куба с ограничениями - получаем многомерные срезы. Чтений данных будет много - мы же не ограничиваем себя агрегациями какими-то.
Только задумайтесь, зачем 5 аналитиков, если есть олап и можно оставить одного аналитика? П-рофит.
CH cloud существует и активно создают коннекторы...лишают так сказать возможности копаться в настройках. Поэтому не совсем корректно сравненивать локальную и облако.
Но 2.5mln - это запросы пользователей, а не аналитиков? Здесь уже кроется разница - СН больше про аналитические запросы. 80tb(это довольно много...без сжатия же? Или это объем чтения в BQ? ). Но главное - пара запросов по неиндексированным колонкам - может скушать весь бюджет BQ или нет? Мы за раз прочитаем 1TB и заплатим 6$? (Ну может я что-то не понимаю)
Для примера, json событие внутри которого массив(динамический из строк) и вложенный словарь: массив можно просто в колонку вставить, словарь разложить на индексы и значения в 2 колонки... и даже при сотнях миллионов записей поиск по массиву(который очевидно не проиндексирован) - секунды/десятки секунд. Как с таким будет BQ работать?
Склоняюсь к тому, что вам он и не нужен был. Тоже имеет место быть.
А мотивация - простая, если запрос выполнялся 50 минут, а стал 2 минуты. Это очень мотивирует)
Если вы аналитик который не любит кофе пить (попить кофе пока ждёте запрос) - клик пушка.
Про "ад" - не очень понятно, если вы про приведённые ошибки с max_* - это скорее к админам, чем к аналитикам. У "дефолтного" sql- неоптимизированный запрос - сожрет cpu, не выполнится(за разумное время) в итоге, а разгребать это админам. А здесь обычный оом...впрочем, таких проблем практически не было...
sql почти дефолтный...тут скорее вопрос какие у вас данные. CH не любит джойны..
Непонятно чего они наберутся. Опыт переливания воды из одного стакана в другой - бесполезный опыт. А зп это косвенный показатель полезной работы. Сомнительная полезность, если компания не хочет оплачивать труд...а значит или работа такая, что воду переливать...илм джун уйдёт через 3 2 1...набравшись этого опыта, за пару недель.
Ситуации бывают разные, если вы не стоите сервис - это одно , а если вы грепаете логи. Удачи поднимать клик, можно под это завезти отдельную задачу, подключить разработку, админов, 10 команд, запланировать все на q4....вместо простого jq + 100 строчек кода.
Вы же вкусе, что к клику нужен некий буфер т.к. туда нельзя писать по 1 записи?
Пример искусственный, но на вскидку сразу: вам прилетают какие-то json(с разными полями) которые вы обрабатываете(классика программиста переложить 1 json в другой). Произошёл всплеск запросов. Возможно, у вас даже кибана и графана есть...но...кто?
А) У вас лапки?
Б) Не умею решать задачи?
С) вы клик побежите поднимать?
Д) я же говорил этим тупым менеджерам: перекладывать json в json нужно с постгрей, админами.
Пусть сами в excel считают...между прочим, отличный вариант, если побежите поднимать клик - загляните сначала в excel.
нужно знать 256 алгоритмов сортировки, уметь решать олимпиадные задачи за минимальное время, писать код в блокноте без современных инструментов для разработки. Зачем? В чем смысл? В реальной работе это почти никогда не пригодится,
Классика "а мне не нужны алгоритмы и никому из моих знакомых", все это идёт сразу за "до мидла дорастешь через 2 года".
Программист- слишком обширное понятие. Кому-то не нужно, он рисует html формочки 5 лет и ему Ок.
Кому-то было ненужно он клепал сервисы с API, а потом потребовался такой же сервис, но с изворотом... и знай он (например) СУЩЕСТВОВАНИИ вероятностного алгоритма подсчёта уникальных пользователей - все прошло бы гладко...но он не знает, не слышал. И давай решать "в лоб". Все лагает тормозит. 5ть исправлений той же задачи.
Но да, алгоритмы не нужны.
Может до мидлов за год могут только те, кто учится?
Статья написана ради классов: программист кто сидел на жопе ровно приходит на собеседование и негодует, что его заставляют всякие умности рассказывать, он же так классно умеет писать автотесты.
Ps не слушайте его и учите алгоритмы, если хотите развиваться конечно.
Данные собраны и размечены. Бывают такие "конкурсы", где "ну вот тут что-то есть, а остальное сами из интернета".
Небольшой призовой? - отлично грандмастера кегли не будут время тратить. Для всех своя ниша.
чем больше соревнований с призовыми тем лучше.
Статья - какие-то общие слова про RAG , зато с названием в заголовке и упоминанием smarty14 раз. *Карл 14*.
Заставили меня потерять время на чтение сего и на гугл, догадки конечно были сразу...но Smarty упомянутое 14 раз..
А в комментах спрашивают про модель/детали. Ну может Smarty упомянутое 14 раз - это деталь. А нет, это php что-то.
Вообще ничего не понятно. Smarty это что-то про php шаблоны. По крайне мере - так утверждает гугл, а я ему больше верю чем 5 ллм из 30ти в данном посте.
Выходит , что даже название, которое упоминается 10 раз - не оригинальное.
А кто такие создатели плюс сити? Неужели компания на букву Я?
Как же они добились 1млн пользователей с 0 за 1 неделю.
Разве что рассылки на гос.услугах не было.
Старое заблуждение, что идеи чего-то стоят.
Не хотите чтобы вашу идею "украли" храните её глубоко внутри с мыслями "вот идея на миллион".
Важна реализация и как хорошо продукт работает.
Если он копирайтер, то понятно почему его погнали. Ничего не понятно из написанного.
2 месяца входят в эти 5? Или он 2 месяца что-то учил чтобы устроиться, а после испыталки его погнали.
Тут как бы возникают вопросики: что нужно учить 2 месяца. Кандидат не дотягивал?
>>Один созвон все прояснил
можно в чате прояснить, или чем он был занят..тоже не очень понятно.
На «Реддите» остается проблема с абзацами.
Про исправление "одного слова":
Старый способ, который предлагает варианты слов, оказался всё ещё работает, но не может исправить «succes». (такая хрень примерно с релиза нейро). Сейчас потестил на русском - оказывается на RU работает Ок..
Про текущий способ исправления одного слова с нейро:
Дважды щёлкнуть по тексту;
Нажать «Редактировать»;
Выбрать «Исправить ошибки»;
Заменить выделенный текст.
По привычке путь с ПКМ еще дольше: ПКМ + «Исправить все ошибки» -> начать сначала.
Было бы удобно, если бы на правой кнопке мыши, помимо «Исправить все ошибки», была доступна функция «Исправить слово»...
опечатки важнее исправлять, чем весь текст.
Это все очень интересно. Но верните старый способ исправления правописания одного слова. Через правый клик.
Опечатался, или иностранное слово подчёркивает красным - а исправить нельзя. Ваша исправлялка делает это через Ж. Тоесть...через 7 кликов вместо двух. (Ладно видимо с посл.обновлением одно слово исправить в 4 клика можно...если не промахнуться в нужное меню. )
А ещё эта штука ломает абзацы, что прям ставит под сомнение, а нужна ли она. Проще в gpt закинуть и скопировать обратно. это быстрее.
«Под ударом окажутся junior и middle»
Сеньоры рассуждают, что не будет джунов.
Плот твист: ИИ развился, нужны только джуны(на низкой зп), а по 10 созвонов в день проводит уже сам ИИ.
Множественные ответы, добавили 2 категории а число "галочек" сохранили старым.
пример: вектор словарей вида [ {'произвольное_название_1': скор 0.8 } ... ]
Выражаю свои сомнения, что на BQ это будет быстрее\удобнее клика. Особенно для объединения\пересечения ключей.
sql server (хотя пример 50 к 2 минутам - это про многомерность выше...)
в совокупности звучит, как прод с витринами.
Обсуждение было про много ли данных. Если все в витринах\вьюшках. Какая разница сколько данных в хвосте 100гб или 100тб? они фактически в холодном хранилище.
В целом, у меня нет цели продать клик, за это не платят( Выше была просто многомерная боль. И OLAP на клике - отличная идея... Вместо куба с ограничениями - получаем многомерные срезы. Чтений данных будет много - мы же не ограничиваем себя агрегациями какими-то.
Только задумайтесь, зачем 5 аналитиков, если есть олап и можно оставить одного аналитика? П-рофит.
CH cloud существует и активно создают коннекторы...лишают так сказать возможности копаться в настройках. Поэтому не совсем корректно сравненивать локальную и облако.
Но 2.5mln - это запросы пользователей, а не аналитиков? Здесь уже кроется разница - СН больше про аналитические запросы. 80tb(это довольно много...без сжатия же? Или это объем чтения в BQ? ). Но главное - пара запросов по неиндексированным колонкам - может скушать весь бюджет BQ или нет? Мы за раз прочитаем 1TB и заплатим 6$? (Ну может я что-то не понимаю)
Для примера, json событие внутри которого массив(динамический из строк) и вложенный словарь: массив можно просто в колонку вставить, словарь разложить на индексы и значения в 2 колонки... и даже при сотнях миллионов записей поиск по массиву(который очевидно не проиндексирован) - секунды/десятки секунд. Как с таким будет BQ работать?
Склоняюсь к тому, что вам он и не нужен был. Тоже имеет место быть.
А мотивация - простая, если запрос выполнялся 50 минут, а стал 2 минуты. Это очень мотивирует)
Думаю просто недостаточно данных.
Каков порядок данных/запросов, что BQ устраивает?
Если вы аналитик который не любит кофе пить (попить кофе пока ждёте запрос) - клик пушка.
Про "ад" - не очень понятно, если вы про приведённые ошибки с max_* - это скорее к админам, чем к аналитикам. У "дефолтного" sql- неоптимизированный запрос - сожрет cpu, не выполнится(за разумное время) в итоге, а разгребать это админам. А здесь обычный оом...впрочем, таких проблем практически не было...
sql почти дефолтный...тут скорее вопрос какие у вас данные. CH не любит джойны..
Непонятно чего они наберутся. Опыт переливания воды из одного стакана в другой - бесполезный опыт. А зп это косвенный показатель полезной работы. Сомнительная полезность, если компания не хочет оплачивать труд...а значит или работа такая, что воду переливать...илм джун уйдёт через 3 2 1...набравшись этого опыта, за пару недель.
Прям блочишь по юзер агенту или повесил плашку и радуешься?
Впрочем если сайт никому не нужен, то можно даже закрыть его. Результат один, зато пользователи я.браузера точно не проберутся к вам на сайт
Может вы хотели сказать программировать? Или это такая ловушка? И вы скажете, что дизайнеры тоже в ИТ.
Так вот, если вопрос "мешают ли отличия заниматься программированием" - да мешают.
Но если нет цели быть в топ5% специалистов и устраивает "средний" уровень - то можно попробовать.
Ситуации бывают разные, если вы не стоите сервис - это одно , а если вы грепаете логи. Удачи поднимать клик, можно под это завезти отдельную задачу, подключить разработку, админов, 10 команд, запланировать все на q4....вместо простого jq + 100 строчек кода.
Вы же вкусе, что к клику нужен некий буфер т.к. туда нельзя писать по 1 записи?
Пример искусственный, но на вскидку сразу: вам прилетают какие-то json(с разными полями) которые вы обрабатываете(классика программиста переложить 1 json в другой). Произошёл всплеск запросов. Возможно, у вас даже кибана и графана есть...но...кто?
А) У вас лапки?
Б) Не умею решать задачи?
С) вы клик побежите поднимать?
Д) я же говорил этим тупым менеджерам: перекладывать json в json нужно с постгрей, админами.
Пусть сами в excel считают...между прочим, отличный вариант, если побежите поднимать клик - загляните сначала в excel.
Классика "а мне не нужны алгоритмы и никому из моих знакомых", все это идёт сразу за "до мидла дорастешь через 2 года".
Программист- слишком обширное понятие. Кому-то не нужно, он рисует html формочки 5 лет и ему Ок.
Кому-то было ненужно он клепал сервисы с API, а потом потребовался такой же сервис, но с изворотом... и знай он (например) СУЩЕСТВОВАНИИ вероятностного алгоритма подсчёта уникальных пользователей - все прошло бы гладко...но он не знает, не слышал. И давай решать "в лоб". Все лагает тормозит. 5ть исправлений той же задачи.
Но да, алгоритмы не нужны.
Может до мидлов за год могут только те, кто учится?
Статья написана ради классов: программист кто сидел на жопе ровно приходит на собеседование и негодует, что его заставляют всякие умности рассказывать, он же так классно умеет писать автотесты.
Ps не слушайте его и учите алгоритмы, если хотите развиваться конечно.