Основная гипотеза была - если дать ИИ перечень примеров и рассказать, что спам, а что - нет, то он будет корректно классифицировать все входящие сообщения.
Посмотрел по коммитам - первый коммит год назад.
Опыт разработки у меня - 5 лет, коммерческой разработкой занимался мало, основная работа - инвестиции в недвигу.
Минусы автора подтверждаю:
Постоянно что-то падает, особенно после "улучшений".
При всей простоте телеграмма сочетаний ситуаций, которые надо отрабатывать (постим в канал или группу или комментарием на пост, какие поля в профиле заполнены, какое содержание привязанного канала автора, какие сторизы), дофига. Много времени ушло на отлов багов.
Попытка работать только на бесплатных LLM привела не только к куче потраченного времени, но и к необходимости создания собственного AI Gateway (чтобы на лету переключаться между разными провайдерами в случае отказа). Это вообще отдельная история. :)
Спамеры постоянно придумывают новые тактики, и для них надо искать решения.
Но!!!!
Психологических плюсов у того, что я сделал этот проект куча:
Свое г##но не пахнет. Условный чаткипер всегда был бы у меня поводом поныть.
Для меня это отдых и хобби, программирую с 7 лет. (Хотя и с 30-летним перерывом :)))
Было очень интересно погрузиться в удивительный мир спамеров. На какой-то спам я тоже откликался и доходил до момента, когда тебе нужно "перевести 100USDT на специальный кошелёк, с которого возвращается в 3 раза больше".
Вырос как руководитель - ведь ИИ четко исполняет то, что ему поручаешь, зная то, что ты ему объяснил. Поэтому все эти тренировки с ИИ-агентом привели к тому, что в реальной жизни я стал чётче давать поручения.
Было интересно на этом проекте вспомнить, каким неуклюжим был ИИ-кодинг год назад, и как он вырос.
Я написал бота, который смотрит переписку в групповом рабочем чате, утром за прошедший день извлекает выданные задачи, выделяет из них ещё не выполненные и добавляет их в Telegram чек-лист с указанием инициалов исполнителя.
Итого в чате всегда свежий список задач к исполнению.
Ну и расшифровка голосовиков, ессно.
Решилась проблема "выдал поручение и забыл".
Сделано на n8n + telegram http-mtproto bridge + OpenRouter.
HTTP-Mtproto bridge нужен, потому что:
В telegram bot api пока что нет методов работы с чеклистами и приходится их создавать от имени юзербота.
n8n не умеет обращаться к mtproto, поэтому пришлось сделать микросервис, который принимает на вход payload по http и конвертирует его в команду mtproto. (github)
Как я понял из переписки в комментариях, эта теория выведена из долгих разговоров в ИИ.
У ИИ есть два опасных свойства:
Глюки и неспособность оценить собственную уверенность в правильности ответа. Другими словами, может пороть дичь с покерфейсом.
Тенденция валидировать собеседника. То есть, она с гораздо большей вероятностью будет искать подтверждение утверждениям пользователя, чем их опровержение.
В частности, из-за этого ИИ не пригоден как психолог - в какие бы дебри саморазрушения не уходил собеседник, ИИ всегда будет это одобрять.
В сочетании со свойством человеческой психики искать везде взаимосвязи, тандем человек - ИИ может при наличии фиксации на определенном утверждении нагенерить бесконечное количество теорий.
Читая теорию автора, мне показалось, стоя наблюдаю то же самое — результат того, что к ИИ принесли утверждение и заставили искать подтверждения.
Проверочным упражнением можно было бы попробовать запросить у ИИ опровержения этой теории и сравнить объем подтверждений и опровержений.
Лайфхак - если подключить к этому workflow mcp-сервер телеграмма (с поиском по чатам, например, fast-mcp-telegram), то можно вместо дайджеста статьей из веба делать дайджест из любимых канальчиков телеграмма, на постоянную проверку которых не хватает времени.
Понравилась структура сущностей (project brief, decisions, system patterns, links), но кажется, что он сильно жрет контекстное окно из-за длинной стратегии, обилия инструментов и необходимости многоступенчатой работы с инструментами.
Ты пробовал другие инструменты памяти?
Просто text-file based memory rules а ля cline memory bank?
У меня достаточно достойные (по моей оценке :))) ) результаты получаются при подключении к голому Курсору двух подходов - памяти (просто на .md файлах, по системе Cline Memory Bank) и новой фичи планирования Курсора - перед большими изменениями сначала задать мне вопросы, построить и обсудить со мной план работ и подходы.
Нарадоваться не могу - уже забыл, когда код руками писал.
В том числе все рефакторинги тоже делает ИИ.
Получается гораздо быстрее, чем если бы я писал сам.
Плюс заметил психологический эффект - стал меньше уставать, чем раньше, когда надо было весь контекст держать в голове самостоятельно.
Проще поставить https://ai-antispam.ru
Раз статью написал психолог, предлагаю поговорить о психологическом аспекте.
У меня похожая история.
На Cursor написал антиспам-бота для своего канала, но пользуются ещё и друзья-коллеги для своих.
Сайт: https://ai-antispam.ru
Github: https://github.com/leshchenko1979/tg_ai_blocker
Основная гипотеза была - если дать ИИ перечень примеров и рассказать, что спам, а что - нет, то он будет корректно классифицировать все входящие сообщения.
Посмотрел по коммитам - первый коммит год назад.
Опыт разработки у меня - 5 лет, коммерческой разработкой занимался мало, основная работа - инвестиции в недвигу.
Минусы автора подтверждаю:
Постоянно что-то падает, особенно после "улучшений".
При всей простоте телеграмма сочетаний ситуаций, которые надо отрабатывать (постим в канал или группу или комментарием на пост, какие поля в профиле заполнены, какое содержание привязанного канала автора, какие сторизы), дофига. Много времени ушло на отлов багов.
Попытка работать только на бесплатных LLM привела не только к куче потраченного времени, но и к необходимости создания собственного AI Gateway (чтобы на лету переключаться между разными провайдерами в случае отказа). Это вообще отдельная история. :)
Спамеры постоянно придумывают новые тактики, и для них надо искать решения.
Но!!!!
Психологических плюсов у того, что я сделал этот проект куча:
Свое г##но не пахнет. Условный чаткипер всегда был бы у меня поводом поныть.
Для меня это отдых и хобби, программирую с 7 лет. (Хотя и с 30-летним перерывом :)))
Было очень интересно погрузиться в удивительный мир спамеров. На какой-то спам я тоже откликался и доходил до момента, когда тебе нужно "перевести 100USDT на специальный кошелёк, с которого возвращается в 3 раза больше".
Вырос как руководитель - ведь ИИ четко исполняет то, что ему поручаешь, зная то, что ты ему объяснил. Поэтому все эти тренировки с ИИ-агентом привели к тому, что в реальной жизни я стал чётче давать поручения.
Было интересно на этом проекте вспомнить, каким неуклюжим был ИИ-кодинг год назад, и как он вырос.
Так что я и согласен с автором, и нет.
Звучит дорого :)
Какая монетизация отобъет всю эту инфраструктуру и инженеров?
Слушайте, я для поиска специально навертел mcp-сервер: https://github.com/leshchenko1979/fast-mcp-telegram
С его помощью и с помощью глобального поиска Телеги каждое утро присылаю себе из ТГ дайджест новостей по ключевым словам.
Было бы очень интересно послушать, каких возможностей поиска вам не хватает.
Гайз, как инвестор в недвижимость, скажу, что важно риск невостребованности локации закрыть не только в моменте (что решаете вы), но и в перспективе.
С ПВЗ (да и не только) есть ещё риск того, что в выгодной локации откроется много франшизных ПВЗ - конкурентов.
Или (ВБ так любит делать) - после пробива локации через франчайзи открывается ПВЗ от головной компании и весь поток грузится туда.
Видимо нет. Попробовал зайти на https://aistudio.google.com/apikey и получил стандартную страницу, что сервис недоступен в моем регионе.
У меня есть что-то подобное, но вид сбоку.
Я написал бота, который смотрит переписку в групповом рабочем чате, утром за прошедший день извлекает выданные задачи, выделяет из них ещё не выполненные и добавляет их в Telegram чек-лист с указанием инициалов исполнителя.
Итого в чате всегда свежий список задач к исполнению.
Ну и расшифровка голосовиков, ессно.
Решилась проблема "выдал поручение и забыл".
Сделано на n8n + telegram http-mtproto bridge + OpenRouter.
HTTP-Mtproto bridge нужен, потому что:
В telegram bot api пока что нет методов работы с чеклистами и приходится их создавать от имени юзербота.
n8n не умеет обращаться к mtproto, поэтому пришлось сделать микросервис, который принимает на вход payload по http и конвертирует его в команду mtproto. (github)
Я использую бесплатные модели от OpenRouter.
Загоняешь 10$ им на счёт и получаешь 1000 запросов в день к бесплатным моделям: https://openrouter.ai/models?max_price=0
А у меня вопросик к старожилам - Gemini API пропускает запросы из России с аккаунта, который он считает российским?
Произвольные люди могут встать и громко заявить "Ху#ня!". :)
ИИ-модель не может - ее обучают угождать.
Как я понял из переписки в комментариях, эта теория выведена из долгих разговоров в ИИ.
У ИИ есть два опасных свойства:
Глюки и неспособность оценить собственную уверенность в правильности ответа. Другими словами, может пороть дичь с покерфейсом.
Тенденция валидировать собеседника. То есть, она с гораздо большей вероятностью будет искать подтверждение утверждениям пользователя, чем их опровержение.
В частности, из-за этого ИИ не пригоден как психолог - в какие бы дебри саморазрушения не уходил собеседник, ИИ всегда будет это одобрять.
В сочетании со свойством человеческой психики искать везде взаимосвязи, тандем человек - ИИ может при наличии фиксации на определенном утверждении нагенерить бесконечное количество теорий.
Читая теорию автора, мне показалось, стоя наблюдаю то же самое — результат того, что к ИИ принесли утверждение и заставили искать подтверждения.
Проверочным упражнением можно было бы попробовать запросить у ИИ опровержения этой теории и сравнить объем подтверждений и опровержений.
Бот "Антиспам" - @ai_spam_blocker_bot
Лайфхак - если подключить к этому workflow mcp-сервер телеграмма (с поиском по чатам, например, fast-mcp-telegram), то можно вместо дайджеста статьей из веба делать дайджест из любимых канальчиков телеграмма, на постоянную проверку которых не хватает времени.
Зачем вам дока (а это по сути гид по доке) on-premise?
Посмотрел ConPort.
Понравилась структура сущностей (project brief, decisions, system patterns, links), но кажется, что он сильно жрет контекстное окно из-за длинной стратегии, обилия инструментов и необходимости многоступенчатой работы с инструментами.
Ты пробовал другие инструменты памяти?
Просто text-file based memory rules а ля cline memory bank?
Бэкенд, питон. Фреймворки все попсовые - telethon, fastapi, pandas, streamlit.
Если нужно использовать что-то новое (fastmcp) или редкое (vectorbt) - прошу спрашивать примеры применения у context7 или искать в веб.
Для непопулярных стеков подключали Context7?
С приходом ИИ мир меняется, и с ним меняется и набор основных навыков.
Я например, считаю, что если у вас ИИ плохо пишет - значит вы дали мало контекста и плохо поставили задачу.
Либо забыли в промпте или в правилах написать "перед исполнением задай мне вопросы".
Очень возможно, но таких задач может быть в проекте не так уж и мало
Такое должно решаться правилом "Перед любыми изменениями задай мне вопросы, построй план и согласуй со мной."
Ну и новая фича планирования в Курсоре - просто огонь, пробовали?
У меня достаточно достойные (по моей оценке :))) ) результаты получаются при подключении к голому Курсору двух подходов - памяти (просто на .md файлах, по системе Cline Memory Bank) и новой фичи планирования Курсора - перед большими изменениями сначала задать мне вопросы, построить и обсудить со мной план работ и подходы.
Нарадоваться не могу - уже забыл, когда код руками писал.
В том числе все рефакторинги тоже делает ИИ.
Получается гораздо быстрее, чем если бы я писал сам.
Плюс заметил психологический эффект - стал меньше уставать, чем раньше, когда надо было весь контекст держать в голове самостоятельно.