All streams
Search
Write a publication
Pull to refresh
1
0
Send message

Старое заблуждение, что идеи чего-то стоят.

Не хотите чтобы вашу идею "украли" храните её глубоко внутри с мыслями "вот идея на миллион".

Важна реализация и как хорошо продукт работает.

Если он копирайтер, то понятно почему его погнали. Ничего не понятно из написанного.

2 месяца входят в эти 5? Или он 2 месяца что-то учил чтобы устроиться, а после испыталки его погнали.

Тут как бы возникают вопросики: что нужно учить 2 месяца. Кандидат не дотягивал?

>>Один созвон все прояснил

можно в чате прояснить, или чем он был занят..тоже не очень понятно.

На «Реддите» остается проблема с абзацами.


Про исправление "одного слова":

Старый способ, который предлагает варианты слов, оказался всё ещё работает, но не может исправить «succes». (такая хрень примерно с релиза нейро). Сейчас потестил на русском - оказывается на RU работает Ок..

Про текущий способ исправления одного слова с нейро:

  • Дважды щёлкнуть по тексту;

  • Нажать «Редактировать»;

  • Выбрать «Исправить ошибки»;

  • Заменить выделенный текст.

По привычке путь с ПКМ еще дольше: ПКМ + «Исправить все ошибки» -> начать сначала.

Было бы удобно, если бы на правой кнопке мыши, помимо «Исправить все ошибки», была доступна функция «Исправить слово»...

опечатки важнее исправлять, чем весь текст.

Это все очень интересно. Но верните старый способ исправления правописания одного слова. Через правый клик.

Опечатался, или иностранное слово подчёркивает красным - а исправить нельзя. Ваша исправлялка делает это через Ж. Тоесть...через 7 кликов вместо двух. (Ладно видимо с посл.обновлением одно слово исправить в 4 клика можно...если не промахнуться в нужное меню. )

А ещё эта штука ломает абзацы, что прям ставит под сомнение, а нужна ли она. Проще в gpt закинуть и скопировать обратно. это быстрее.

Важно отметить, что выбор автора статьи, темы и модели GPT играет решающую роль в успешности публикации, получении кармы и позитивного фитбека от читателей.

«Под ударом окажутся junior и middle»

Сеньоры рассуждают, что не будет джунов.

Плот твист: ИИ развился, нужны только джуны(на низкой зп), а по 10 созвонов в день проводит уже сам ИИ.

Множественные ответы, добавили 2 категории а число "галочек" сохранили старым.

Офигенно будет. У меня прям похожая etl есть с расчетами по данным из больших структур внутри одного поля

пример: вектор словарей вида [ {'произвольное_название_1': скор 0.8 } ... ]

Выражаю свои сомнения, что на BQ это будет быстрее\удобнее клика. Особенно для объединения\пересечения ключей.

постгря 

sql server (хотя пример 50 к 2 минутам - это про многомерность выше...)

юзеры ну 50к день наверное

в совокупности звучит, как прод с витринами.

А без партиционирования и без ограничений - даже петабайт можно получить на 1 запросе, который не предусматривает группировку.

Обсуждение было про много ли данных. Если все в витринах\вьюшках. Какая разница сколько данных в хвосте 100гб или 100тб? они фактически в холодном хранилище.

В целом, у меня нет цели продать клик, за это не платят( Выше была просто многомерная боль. И OLAP на клике - отличная идея... Вместо куба с ограничениями - получаем многомерные срезы. Чтений данных будет много - мы же не ограничиваем себя агрегациями какими-то.

Только задумайтесь, зачем 5 аналитиков, если есть олап и можно оставить одного аналитика? П-рофит.

CH cloud существует и активно создают коннекторы...лишают так сказать возможности копаться в настройках. Поэтому не совсем корректно сравненивать локальную и облако.

Но 2.5mln - это запросы пользователей, а не аналитиков? Здесь уже кроется разница - СН больше про аналитические запросы. 80tb(это довольно много...без сжатия же? Или это объем чтения в BQ? ). Но главное - пара запросов по неиндексированным колонкам - может скушать весь бюджет BQ или нет? Мы за раз прочитаем 1TB и заплатим 6$? (Ну может я что-то не понимаю)

Для примера, json событие внутри которого массив(динамический из строк) и вложенный словарь: массив можно просто в колонку вставить, словарь разложить на индексы и значения в 2 колонки... и даже при сотнях миллионов записей поиск по массиву(который очевидно не проиндексирован) - секунды/десятки секунд. Как с таким будет BQ работать?

Склоняюсь к тому, что вам он и не нужен был. Тоже имеет место быть.

А мотивация - простая, если запрос выполнялся 50 минут, а стал 2 минуты. Это очень мотивирует)

Думаю просто недостаточно данных.

Каков порядок данных/запросов, что BQ устраивает?

Если вы аналитик который не любит кофе пить (попить кофе пока ждёте запрос) - клик пушка.

Про "ад" - не очень понятно, если вы про приведённые ошибки с max_* - это скорее к админам, чем к аналитикам. У "дефолтного" sql- неоптимизированный запрос - сожрет cpu, не выполнится(за разумное время) в итоге, а разгребать это админам. А здесь обычный оом...впрочем, таких проблем практически не было...

sql почти дефолтный...тут скорее вопрос какие у вас данные. CH не любит джойны..

Непонятно чего они наберутся. Опыт переливания воды из одного стакана в другой - бесполезный опыт. А зп это косвенный показатель полезной работы. Сомнительная полезность, если компания не хочет оплачивать труд...а значит или работа такая, что воду переливать...илм джун уйдёт через 3 2 1...набравшись этого опыта, за пару недель.

Прям блочишь по юзер агенту или повесил плашку и радуешься?

Впрочем если сайт никому не нужен, то можно даже закрыть его. Результат один, зато пользователи я.браузера точно не проберутся к вам на сайт

Заниматься ИТ

Может вы хотели сказать программировать? Или это такая ловушка? И вы скажете, что дизайнеры тоже в ИТ.

Так вот, если вопрос "мешают ли отличия заниматься программированием" - да мешают.

Но если нет цели быть в топ5% специалистов и устраивает "средний" уровень - то можно попробовать.

Месяц назад тестил в код ру сеточек - закрыл и чуть не выбросил ноут. Всё настолько плохо.

Вряд ли ассистент сможет во что-то, во что чат не мог от слова совсем.

Думаю мы услышим, что ИИ наступил, когда они доучат их.

Для меня разнеэицей в CE и полной IDE был удалённый запуск кода. Ssh/docker/wsl - и т.д.

Тут этого видимо нет, как и в СЕ?

Открыл ссылку на пиратский ресурс - за вами сразу с мигалками выехали и на 10 лет за #?

Сомнительная идея с "наказывайте потребителя".

На градио легче только если ты его уже знаешь. Streamlit - простой как пробка. Файлик app.py перезапускается на КАЖДЫЙ новый клик, streamlit выполняет файл заново с "новыми аргументами". Проще чем это уже не будет. Для демо за 3 минуты - ничего проще нет.

Это же кстати самая большая проблема - чуть сложнее код написать...можно...но с костылями.

Такой подход максимально соотвествует парадигме юпитер ноутбуков - к ноутбуку прикрутили удобные виджеты.

Набор виджетов - разный, как плюс streamlit выглядит поприятнее.

Так ещё же от разрабов гугла mesop вышел.

Нейросеть писала? Старый перевод? Зачем ссылки на уже deprecated experimental_memo методы?

Лаконичный, но бессмысленный ответ.

Github copilot хотел такое внедрить...но в закрытой бете.

А остальные...., разве что: ДА - "но посылку я вам не отдам(с)".

(Ах.да есть ещё пару ноунеймов стартапов, которые не могут .env из анализа исключить...они уж точно могут все и даже больше..даже AGI продадут.).

Information

Rating
4,786-th
Registered
Activity