Обновить

Комментарии 13

Все же хотелось бы вместо Obsidian - аналог на Open Source. Какие ближайшие Open Source современные аналоги? Пять лет назад смотрел Joplin и Logseq.

Вообще аналог любой программы типа Obsidian сейчас через vibe повторить не так сложно. Планировал "как-нибудь попробовать", а "под капот" сразу заложить Linked Data: Obsidian - > semantic Obsidian по сценарию MediaWiki -> semantic MediaWiki . Собрать бы заинтересованных под такой проект.

Обсидиан достаточно сильно оброс плагинами. ЕсЛи вам через вайб повторить обсидиан выглядит просто, то уж данный конвертер вы поправите под все что вам надо.

 ЕсЛи вам через вайб повторить обсидиан выглядит просто

Небольшой абзац текста - задачи и команда: "Выполни".

В папке ver1 - рабочее приложение с запуском на github pages. Сделал, когда токены сгорали (т.е. не очень нужно пока), поэтому еще глубоко не смотрел результат, но "внешне" - работает (и это был всего один промпт).

А где там обсидиан? просто из html/md файлов собрать бложик это вроде и раньше проблемой не было. Обсидиан это в первую очередь офлайн приложение. которое работает с файлами вот здесь и сейчас. Не особо правда подходящий под зетель, но это не так важно. И интересен он не сам по себе, а в купе с плагинами. ну и тут еще применимо правило Парето. за сравнительно короткие сроки вы накидаете MVP, а вот оставшиеся 20 процентов хорошо если 80 процентов времени скушают, а не будут по экспоненте расти)) не говоря уже про то что поддерживать вайбкоженое приложение такое себе.

 Обсидиан это в первую очередь офлайн приложение. которое работает с файлами вот здесь и сейчас. 

Для начала можно на github pages

А где там обсидиан? 

А что там не так? Вроде просил его "повторить Обсидиан"

Времени нет, небольшие дополнения:

  1. Smart Converter оставил только для умного поиска

  2. Заменил на Copilot

  3. На нем реализовал спарку Qwen3.5Plus + text-embedding-3-smal (онлайн)

  4. Провайдер OpenRouter

  5. Доп. статья по настройке Copilot

Интересно было почитать, спасибо. А можно рассказать немного о примерах использования. Какие задачи решаются в итоге благодаря такой базе?

Топ-5 идей применения Telegram → Obsidian конвертера

1. 📰 Автоматическая выжимка новостей по теме

Суть: Агрегация контента из множества каналов в единый дайджест.

Пример реализации:

Тема: "Искусственный интеллект"
Источники: Библиотека программиста, AI Community, NLP News, etc.

Ежедневный дайджест:
├── 🔥 Тренды дня (3-5 ключевых постов)
├── 📚 Новые исследования (ссылки + краткое описание)
├── 💼 Вакансии и события (отфильтрованные)
├── 🛠️ Инструменты и обновления (список ссылок)
└── 🔗 Связанные заметки из вашей базы

Как настроить в Obsidian:

  • Используйте теги: #ai-news, #daily-digest, #source:telegram

  • Создайте шаблон дайджеста с Dataview-запросом:

    TABLE file.link as "Пост", from as "Канал", date as "Дата"
    FROM #ai-news
    WHERE date = date(today)
    SORT date DESC
    

2. 🧠 Персональная база знаний (Second Brain)

Суть: Превращение разрозненных сообщений в структурированную систему знаний.

Пример структуры:

Telegram_Export/
├── Topics/
│   ├── Python/
│   │   ├── Синтаксис и основы
│   │   ├── Библиотеки (pandas, numpy, fastapi)
│   │   ├── Best practices
│   │   └── Ресурсы для изучения
│   ├── DevOps/
│   │   ├── Docker и Kubernetes
│   │   ├── CI/CD пайплайны
│   │   └── Мониторинг и логирование
│   └── Career/
│       ├── Подготовка к собеседованиям
│       ├── Портфолио и резюме
│       └── Нетворкинг и сообщества

Преимущества:

  • 🔍 Мгновенный поиск по всем сохранённым материалам

  • 🔗 Автоматические связи между темами (через Smart Connections)

  • 📊 Визуализация знаний через Graph View

  • 🔄 Обновление базы при новом экспорте

3. 🔬 Исследовательский ассистент

Суть: Агрегация профессионального контента для анализа трендов и подготовки материалов.

Сценарии использования:

Задача Как помогает конвертер Литературный обзор Сбор статей, исследований, мнений экспертов из профильных каналов Анализ рынка Отслеживание анонсов продуктов, инвестиций, партнёрств Подготовка доклада Быстрый доступ к цитатам, статистике, примерам из экспорта Мониторинг конкурентов Архив публикаций и активностей ключевых игроков

Пример запроса в Obsidian:

"Покажи все посты про 'нейросети для обработки изображений' за последние 3 месяца"

Реализация через AI-поиск:

  • Индексируйте заметки через Ollama + nomic-embed-text

  • Используйте семантический поиск вместо ключевых слов

  • Получайте релевантные результаты даже при неточных формулировках

4. ✍️ Воркфлоу для создания контента

Суть: Использование экспортированного Telegram-контента как источника для блогов, статей, постов.

Процесс:

1. Сбор сырья
   └── Экспорт каналов → Obsidian → папка "Sources/Telegram"

2. Обработка и структурирование
   └── Теги: #idea, #quote, #statistic, #example
   └── Связи: [[Статья про X]] ← [[Источник 1]], [[Источник 2]]

3. Генерация черновика
   └── Шаблон статьи с авто-подстановкой цитат и ссылок
   └── AI-помощник (Copilot/Ollama) для расширения тезисов

4. Публикация
   └── Экспорт в Markdown → платформа (Habr, Telegram, сайт)

Преимущества:

  • ⏱️ Экономия времени на поиск источников

  • 🎯 Цитаты и факты всегда под рукой с указанием источника

  • 🔄 Легко обновлять материал при появлении новой информации

5. 👥 Командная база знаний для проектов

Суть: Архивация рабочих чатов для сохранения контекста, решений и ресурсов.

Подходит для:

  • Хакатонов и временных команд

  • Удалённых команд, общающихся в Telegram

  • Менторских программ и образовательных проектов

Пример структуры для хакатона:

Hackathon_LCT25/
├── Team/
│   ├── Участники и роли
│   ├── Контакты и доступы
│   └── Расписание и дедлайны
├── Task/
│   ├── Техническое задание
│   ├── Критерии оценки
│   └── Чек-лист готовности
├── Resources/
│   ├── API и документация
│   ├── Примеры кода из чата
│   └── Полезные ссылки
├── Decisions/
│   ├── Архитектурные решения
│   ├── Выбор стека технологий
│   └── Распределение задач
└── Retrospective/
    ├── Что сработало
    ├── Что можно улучшить
    └── Идеи для следующих проектов

Дополнительные возможности:

  • 📤 Экспорт итогов в PDF/Markdown для отчётности

  • 🔐 Разграничение доступа через папки Obsidian

  • 🔄 Инкрементальное обновление при новых сообщениях

🎯 Бонус: Гибридные сценарии

Комбинация Результат 1 + 2 Персональный новостной дайджест с автоматической категоризацией 2 + 4 База знаний → черновики статей → публикация 3 + 5 Исследовательская команда с общим архивом источников 1 + 3 + 4 Аналитический блог с автоматическим сбором и обработкой новостей

💡 Советы по внедрению

  1. Начните с малого — выберите 1-2 канала для тестового экспорта

  2. Стандартизируйте теги — создайте список #тегов до начала импорта

  3. Используйте шаблоны — подготовьте шаблоны заметок для разных типов контента

  4. Автоматизируйте рутину — настройте скрипт экспорта по расписанию (cron)

  5. Регулярно ревью — раз в неделю просматривайте новые заметки и проставляйте связи

Итог: Конвертер превращает Telegram из “чёрной дыры” для информации в структурированный источник знаний, который можно использовать для обучения, работы, творчества и исследований. 🚀

Мне вот тяжело работать с большим объёмом информации. Как в обсидиане можно простым способом структурировать уже сохранённые заметки? Пытался ИИ прикрутить, но ему не хватает контекста, чтобы увидеть цельную картину.

Добавил папку обсидиана в anythingllm - ллм не понимает, что видит заметки из обсидиана и повторяет что у него нет доступа, ссылаясь на сами заметки.

Так вручную выстраиваются связи графа

  1. #теги (фильтрация статей по тегам)

  2. [[статья источник]] [[статья приемник]] (можно ходить верх вниз по статьям)

Так с применением метаданных (мой скрипт их тоже формирует) и расширения DataView https://habr.com/ru/articles/710356/

Либо автоматизированно по смыслу с помощью ИИ (расширение Smart Connections)

Dataview: Полезные запросы

Все сообщения за сегодня

TABLE chat_name, message_count
FROM "Telegram_Export"
WHERE date = date(today)
SORT chat_name ASC

Сообщения из конкретного канала

TABLE file.link AS "Дата", message_count AS "Сообщений"
FROM "Telegram_Export/Channels"
WHERE contains(chat_name, "Название канала")
SORT date DESC

Чаты с наибольшим количеством сообщений

TABLE sum(message_count) AS "Всего сообщений"
FROM "Telegram_Export"
GROUP BY chat_name
SORT sum(message_count) DESC
LIMIT 10

Сообщения с медиафайлами

TABLE file.link AS "Заметка", chat_name AS "Чат"
FROM "Telegram_Export"
WHERE contains(file.text, "![") OR contains(file.text, "](")
SORT date DESC
LIMIT 50

Поиск по тегам

TABLE date, chat_name
FROM #telegram AND #daily-note
SORT date DESC

Статистика по типам чатов

TABLE length(rows) AS "Количество чатов"
FROM "Telegram_Export"
GROUP BY chat_type

Frontmatter заметок

Используйте эти поля в Dataview-запросах для фильтрации.

Каждая заметка содержит метаданные:

---
chat_type: channel
chat_name: Название канала
chat_id: 123456789
date: 2024-01-15
message_count: 42
tags: [telegram, daily-note]
---

Все заработало, как задумывалось!

Ну не прелесть ли!!!

Экспортировать данные из облака Телеграмм можно так:

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации