Обновить
16K+
4
Константин@dilmah949

Пользователь

6
Рейтинг
11
Подписчики
Отправить сообщение

Извините, но своим демо-хранилищем я точно не поделюсь, там же мои личные данные!

Экспортировать данные из облака Телеграмм можно так:

Все заработало, как задумывалось!

Ну не прелесть ли!!!

Dataview: Полезные запросы

Все сообщения за сегодня

TABLE chat_name, message_count
FROM "Telegram_Export"
WHERE date = date(today)
SORT chat_name ASC

Сообщения из конкретного канала

TABLE file.link AS "Дата", message_count AS "Сообщений"
FROM "Telegram_Export/Channels"
WHERE contains(chat_name, "Название канала")
SORT date DESC

Чаты с наибольшим количеством сообщений

TABLE sum(message_count) AS "Всего сообщений"
FROM "Telegram_Export"
GROUP BY chat_name
SORT sum(message_count) DESC
LIMIT 10

Сообщения с медиафайлами

TABLE file.link AS "Заметка", chat_name AS "Чат"
FROM "Telegram_Export"
WHERE contains(file.text, "![") OR contains(file.text, "](")
SORT date DESC
LIMIT 50

Поиск по тегам

TABLE date, chat_name
FROM #telegram AND #daily-note
SORT date DESC

Статистика по типам чатов

TABLE length(rows) AS "Количество чатов"
FROM "Telegram_Export"
GROUP BY chat_type

Frontmatter заметок

Используйте эти поля в Dataview-запросах для фильтрации.

Каждая заметка содержит метаданные:

---
chat_type: channel
chat_name: Название канала
chat_id: 123456789
date: 2024-01-15
message_count: 42
tags: [telegram, daily-note]
---

Так вручную выстраиваются связи графа

  1. #теги (фильтрация статей по тегам)

  2. [[статья источник]] [[статья приемник]] (можно ходить верх вниз по статьям)

Так с применением метаданных (мой скрипт их тоже формирует) и расширения DataView https://habr.com/ru/articles/710356/

Либо автоматизированно по смыслу с помощью ИИ (расширение Smart Connections)

Топ-5 идей применения Telegram → Obsidian конвертера

1. 📰 Автоматическая выжимка новостей по теме

Суть: Агрегация контента из множества каналов в единый дайджест.

Пример реализации:

Тема: "Искусственный интеллект"
Источники: Библиотека программиста, AI Community, NLP News, etc.

Ежедневный дайджест:
├── 🔥 Тренды дня (3-5 ключевых постов)
├── 📚 Новые исследования (ссылки + краткое описание)
├── 💼 Вакансии и события (отфильтрованные)
├── 🛠️ Инструменты и обновления (список ссылок)
└── 🔗 Связанные заметки из вашей базы

Как настроить в Obsidian:

  • Используйте теги: #ai-news, #daily-digest, #source:telegram

  • Создайте шаблон дайджеста с Dataview-запросом:

    TABLE file.link as "Пост", from as "Канал", date as "Дата"
    FROM #ai-news
    WHERE date = date(today)
    SORT date DESC
    

2. 🧠 Персональная база знаний (Second Brain)

Суть: Превращение разрозненных сообщений в структурированную систему знаний.

Пример структуры:

Telegram_Export/
├── Topics/
│   ├── Python/
│   │   ├── Синтаксис и основы
│   │   ├── Библиотеки (pandas, numpy, fastapi)
│   │   ├── Best practices
│   │   └── Ресурсы для изучения
│   ├── DevOps/
│   │   ├── Docker и Kubernetes
│   │   ├── CI/CD пайплайны
│   │   └── Мониторинг и логирование
│   └── Career/
│       ├── Подготовка к собеседованиям
│       ├── Портфолио и резюме
│       └── Нетворкинг и сообщества

Преимущества:

  • 🔍 Мгновенный поиск по всем сохранённым материалам

  • 🔗 Автоматические связи между темами (через Smart Connections)

  • 📊 Визуализация знаний через Graph View

  • 🔄 Обновление базы при новом экспорте

3. 🔬 Исследовательский ассистент

Суть: Агрегация профессионального контента для анализа трендов и подготовки материалов.

Сценарии использования:

Задача Как помогает конвертер Литературный обзор Сбор статей, исследований, мнений экспертов из профильных каналов Анализ рынка Отслеживание анонсов продуктов, инвестиций, партнёрств Подготовка доклада Быстрый доступ к цитатам, статистике, примерам из экспорта Мониторинг конкурентов Архив публикаций и активностей ключевых игроков

Пример запроса в Obsidian:

"Покажи все посты про 'нейросети для обработки изображений' за последние 3 месяца"

Реализация через AI-поиск:

  • Индексируйте заметки через Ollama + nomic-embed-text

  • Используйте семантический поиск вместо ключевых слов

  • Получайте релевантные результаты даже при неточных формулировках

4. ✍️ Воркфлоу для создания контента

Суть: Использование экспортированного Telegram-контента как источника для блогов, статей, постов.

Процесс:

1. Сбор сырья
   └── Экспорт каналов → Obsidian → папка "Sources/Telegram"

2. Обработка и структурирование
   └── Теги: #idea, #quote, #statistic, #example
   └── Связи: [[Статья про X]] ← [[Источник 1]], [[Источник 2]]

3. Генерация черновика
   └── Шаблон статьи с авто-подстановкой цитат и ссылок
   └── AI-помощник (Copilot/Ollama) для расширения тезисов

4. Публикация
   └── Экспорт в Markdown → платформа (Habr, Telegram, сайт)

Преимущества:

  • ⏱️ Экономия времени на поиск источников

  • 🎯 Цитаты и факты всегда под рукой с указанием источника

  • 🔄 Легко обновлять материал при появлении новой информации

5. 👥 Командная база знаний для проектов

Суть: Архивация рабочих чатов для сохранения контекста, решений и ресурсов.

Подходит для:

  • Хакатонов и временных команд

  • Удалённых команд, общающихся в Telegram

  • Менторских программ и образовательных проектов

Пример структуры для хакатона:

Hackathon_LCT25/
├── Team/
│   ├── Участники и роли
│   ├── Контакты и доступы
│   └── Расписание и дедлайны
├── Task/
│   ├── Техническое задание
│   ├── Критерии оценки
│   └── Чек-лист готовности
├── Resources/
│   ├── API и документация
│   ├── Примеры кода из чата
│   └── Полезные ссылки
├── Decisions/
│   ├── Архитектурные решения
│   ├── Выбор стека технологий
│   └── Распределение задач
└── Retrospective/
    ├── Что сработало
    ├── Что можно улучшить
    └── Идеи для следующих проектов

Дополнительные возможности:

  • 📤 Экспорт итогов в PDF/Markdown для отчётности

  • 🔐 Разграничение доступа через папки Obsidian

  • 🔄 Инкрементальное обновление при новых сообщениях

🎯 Бонус: Гибридные сценарии

Комбинация Результат 1 + 2 Персональный новостной дайджест с автоматической категоризацией 2 + 4 База знаний → черновики статей → публикация 3 + 5 Исследовательская команда с общим архивом источников 1 + 3 + 4 Аналитический блог с автоматическим сбором и обработкой новостей

💡 Советы по внедрению

  1. Начните с малого — выберите 1-2 канала для тестового экспорта

  2. Стандартизируйте теги — создайте список #тегов до начала импорта

  3. Используйте шаблоны — подготовьте шаблоны заметок для разных типов контента

  4. Автоматизируйте рутину — настройте скрипт экспорта по расписанию (cron)

  5. Регулярно ревью — раз в неделю просматривайте новые заметки и проставляйте связи

Итог: Конвертер превращает Telegram из “чёрной дыры” для информации в структурированный источник знаний, который можно использовать для обучения, работы, творчества и исследований. 🚀

Времени нет, небольшие дополнения:

  1. Smart Converter оставил только для умного поиска

  2. Заменил на Copilot

  3. На нем реализовал спарку Qwen3.5Plus + text-embedding-3-smal (онлайн)

  4. Провайдер OpenRouter

  5. Доп. статья по настройке Copilot

В официальном клиенте Telegram есть официальный способ загрузки данных. Я использовал его. НО! вот мой проект https://github.com/Inna949Festchuk/telegram_obsidian_sync/tree/main который красивенько закидывает все чатики и группы с медиа в Obsidian, а там с помощью доп. расширения преобоазуются в эмбендинги и связываются в граф. Таким образом получаем базу знаний - Ваша личная RAG. И с ней можно общаться с помощью Qwen3 Goder Next или других ИИ-агентов ;) Как вам такая идейка? Ставьте звездочки, форкайте, пульте :)

Вот и я хотел спросить, что думаете про QWEN3 Coder Next в сравнении с Claud Code?

извините, я не понял, локальная версия n8n бесплатная? и что у нее за лицензия?

Здравствуйте! Хочу нескромно предложить в продолжение/дополнение к Вашей статье материал из своей https://habr.com/ru/articles/853736/

как? как мне сделать чтобы

import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI

# Load environment variables
load_dotenv() 
# Initialize the ChatOpenAI instance 
llm = ChatOpenAI(model="gpt-4o-mini") 
# Test the setup 
response = llm.invoke("Hello! Are you working?") 
print(response.content)

не возвращал

openai.PermissionDeniedError: Error code: 403 - {'error': {'code': 'unsupported_country_region_territory', 'message': 'Country, region, or territory not supported', 'param': None, 'type': 'request_forbidden'}}

кто-нибудь дайте современный способ!!! Спасибо!

как? как мне сделать чтобы

import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI

# Load environment variables
load_dotenv() 
# Initialize the ChatOpenAI instance 
llm = ChatOpenAI(model="gpt-4o-mini") 
# Test the setup 
response = llm.invoke("Hello! Are you working?") 
print(response.content)

не возвращал

openai.PermissionDeniedError: Error code: 403 - {'error': {'code': 'unsupported_country_region_territory', 'message': 'Country, region, or territory not supported', 'param': None, 'type': 'request_forbidden'}}

кто-нибудь дайте современный способ!!! Спасибо!

как? как мне сделать чтобы

import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI

# Load environment variables
load_dotenv() 
# Initialize the ChatOpenAI instance 
llm = ChatOpenAI(model="gpt-4o-mini") 
# Test the setup 
response = llm.invoke("Hello! Are you working?") 
print(response.content)

не возвращал

openai.PermissionDeniedError: Error code: 403 - {'error': {'code': 'unsupported_country_region_territory', 'message': 'Country, region, or territory not supported', 'param': None, 'type': 'request_forbidden'}}

кто-нибудь дайте современный способ!!! Спасибо!

Мне понравилась книга "REST APIs with Django", она очень проста для понимания новичкам и в это первый источник, где толково описаны термины "аутентификация" и "авторизация"

Вот тут можете ознакомиться с источниками для получения спутниковых снимков https://sovzond.ru/press-center/articles/ers/5823/. В частности, эти наборы были получены вот от сюда https://earthexplorer.usgs.gov/.

Интересненько!

Вот она истинная борьба с корупцией)

1

Информация

В рейтинге
1 051-й
Откуда
Калининград (Кенигсберг), Калининградская обл., Россия
Дата рождения
Зарегистрирован
Активность