Pull to refresh
36
0.1
SkyCat@SkyCat

ИТ

Send message

А куда? Везде плюс-минус одно и то же за те же деньги. Присматривались к AmoCRM. Но там и своих проблем хватает, судя по отзывам.

Пользуюсь по работе предмаксимальным тарифом (Профессиональный) Битрикс24 с 2018 года. Раньше он как-то по-другому назывался, но теперь так.
Слова комментатора подтверждаю. На протяжении этих лет Битрикс становился всё толще и медленнее. Мобильным приложением в качестве мессенджера пользоваться очень тяжело: долго, медленно, грустно.
Стабильно раз в полгода-год пункты навигации куда-то переезжают, прячутся в других разделах, исчезают. Задача со звездочкой: найдите Контакт-центр. )
Раньше лента (главный экран) была довольно информативной - там и активность задач была и бизнес-процессы. Теперь для задач сделали отдельную ленту, задачи превратили в чаты, все фильтры задач убрали.

На самом деле, писать можно долго, просто смысла нет особого. Лучше всё равно не станет, сейчас у них тренд явно видно - Копилот, AI.

Вы правы — при выборе процессора на потребляемую мощность смотрю в последнюю очередь. Отталкиваюсь от решаемых задач. В данном случае взял процессор, который был в наличии.

Она ничего не забирает. ) Этой видюхе сложно даже картинку на экран выводить.

Насчет N150 ничего не могу сказать. Но вот процессор из 2011 года:

OS: Debian GNU/Linux 13 (trixie) x86_64
Kernel: Linux 6.12.73+deb13-amd64
Uptime: 6 days, 20 hours, 21 mins
Packages: 435 (dpkg)
Shell: zsh 5.9
Terminal: /dev/pts/0
CPU: AMD FX(tm)-8120 (8) @ 3.42 GHz
GPU: NVIDIA GeForce 210 [Discrete]
Memory: 3.65 GiB / 31.30 GiB (12%)
Swap: 5.11 GiB / 12.11 GiB (42%)
Disk (/): 11.90 GiB / 226.36 GiB (5%) - btrfs
Disk (/var/backup): 2.83 TiB / 3.64 TiB (78%) - btrfs
Disk (/var/files): 563.77 GiB / 5.46 TiB (10%) - btrfs
Disk (/var/lib/docker): 11.73 GiB / 119.24 GiB (10%) - btrfs
Disk (/var/media): 5.08 TiB / 7.97 TiB (64%) - btrfs
Disk (/var/media2): 953.48 GiB / 4.77 TiB (20%) - btrfs

А вот вот контейнеры на нем:

ntfy
homepage
onlyoffice
immich_server
immich_machine_learning
thumbnail-server
notification-server
seafile
valkey
postgres
unbound
authentik_server
authentik_worker
joplin
caddy
dockhand
mariadb

На этом же сервере крутится Plex Media Server.
Во время обработки видео в Immich смотрю 4k через Plex. Load average в эти моменты около 12-15.

Не за что.
Еще вот тут есть информация:
https://cursor.com/dashboard?tab=usage - подробная статистика по времени, модели, стоимости и использованных токенах.
https://cursor.com/dashboard?tab=billing - статистика суммарно за период по моделям, токенам и стоимости.

В общем-то, довольно подробно указан расход денег. Не хватает, пожалуй, информации, какой из режимов взаимодействия (Agent, Plan, Ask, Debug) сколько потребляет.

Я не нашел, как в продуктах от Jetbrains включить вирианты взаимодействия с LLM (Agent, Plan и т. д.) и выбор LLM. Если этого нет, то непонятно, по каким тарифам и какая LLM будет работать.

Это давно уже было. Просто раньше по-умолчанию не показывалось. Если нажать на информацию об остатке лимита, то появляется подробная информация:

При чем тут вендоры? Банально в новом телефоне не удастся авторизоваться.

Memory bank тоже создает файлы *.md в процессе работы. Вся информация о текущей разработке и истории хранится там.

Сейчас тестирую два инструмента для реализации общей памяти (мультиагентность) и сохранение истории написания кода:

1. Общая память — Openmemory от Mem0. Пока еще очень глючное решение (пришлось самому исправлять код, чтобы это заработало). По задумке авторов, позволяет сохранять в базе данных какие‑то свои мысли, идеи, инструкции для написания кода и т. д. Позволяет подключать много ИИ‑агентов, которые могут работать с этой общей памятью. Пока не удалось разобраться, как заставить Cursor использовать эту память в автоматическом режиме.
2. История запросов и разработки — Cursor Memory Bank. Представляет из себя сборник подробных инструкций для ИИ‑агента по разработке кода: планирование разработки, разработка, итоговая информация для сохранения, архивирование с обогащением базы знаний о проекте. Всем хорошая эта штука, кроме нескольких моментов:
— очень быстрый расход лимитов на ИИ‑агенты (может за одну задачу легко сожрать 3–4 миллиона токенов)
— если не поставить четкую и подробную задачу либо не уточнить ее на этапе планирования, может накодить тонну мусора

В общем, я тут пытался заставить работать Docker через прокси. Результат не очень хороший - docker compose build ни в какую работать через прокси не хочет. Пришлось делать свое локальное зеркало для Docker. Для этих целей арендовал дешевую VPS в Финляндии.

Сделал с помощью этой инструкции: https://github.com/f4k3lol/docker-mirror
Теперь все работает прекрасно - и pull и build.

Скажите, пожалуйста, а кто-нибудь получил электронную версию после покупки бумажной? Мне что-то не прислали.
Вот как раз на Win10 в домене вчера решил проблему. Первый коммент.
Только вчера это делал.

Никаких локальных установок не нужно. Достаточно поставить одну галочку в GPO.
Computer Configuration > Administrative Templates > System, "Specify settings for optional component installation and component repair"

Или по-русски:
Конфигурация компьютера - Политики - Административные шаблоны - Система - Укажите параметры для установки необязательных компонентов и восстановления компонентов.

Галка "Скачайте содержимое для восстановления и дополнительные компоненты непосредственно из Центра обновлений Windows..."


Подробности и обсуждение в этой теме.
Xiaomi Mi A1 с последними обновлениями — все устанавливается и работает.
Можно использовать велосипеды из статьи (один метод открытия dbf через Excel чего стоит), а можно поставить это приложение на Python и горя не знать. Оно за вас не только базу будет импортировать, но еще и правильные запросы для поискового движка Sphinx создаст.
1
23 ...

Information

Rating
4,793-rd
Location
Ярославль, Ярославская обл., Россия
Registered
Activity