mirror of
https://github.com/ricolandia/TriliumNext-Toolkit.git
synced 2026-05-17 10:55:40 -04:00
New tool - Incremental Markdown Backup, via Python script ( external solution
This commit is contained in:
parent
e8ccc72571
commit
306b9074ab
4 changed files with 553 additions and 0 deletions
173
Incremental-Markdown-Backup/README.md
Normal file
173
Incremental-Markdown-Backup/README.md
Normal file
|
|
@ -0,0 +1,173 @@
|
||||||
|
# Trilium Incremental Markdown Backup
|
||||||
|
|
||||||
|
A lightweight, incremental backup tool for [TriliumNext](https://github.com/TriliumNext/Notes) that exports your notes as individual Markdown (`.md`) files.
|
||||||
|
|
||||||
|
Instead of exporting your entire vault every time, this script queries the ETAPI to download **only the notes that have been modified** since the last run. Large vaults are backed up in seconds after the initial full export.
|
||||||
|
|
||||||
|
No plugins or Node.js required—just a single Python script, the Trilium ETAPI, and a cron job.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 🚀 Features
|
||||||
|
|
||||||
|
* **Incremental Backups:** Skips notes whose `dateModified` hasn't changed since the last backup timestamp.
|
||||||
|
* **Folder Hierarchy:** Automatically organizes your `.md` files into folders that mirror your Trilium note tree.
|
||||||
|
* **Smart Filenames:** Saves files as `Note Title [note_id].md` to completely prevent name collisions (e.g., when two notes share the same title in the same folder).
|
||||||
|
* **Multi-Type Support:** Backs up `text`, `code`, and `mermaid` notes out of the box.
|
||||||
|
* **YAML Frontmatter:** Each `.md` file includes a frontmatter block with `trilium_id`, `created`, and `modified` timestamps, making it easy to diff versions or re-import later.
|
||||||
|
* **Resilient:** Features an automated retry queue. If a note fails to download (e.g., network error), it gets logged in the state file and is automatically reprocessed on the next run.
|
||||||
|
* **Fast:** Utilizes an in-memory metadata cache to drastically reduce redundant API calls when building hierarchical folder paths.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 📋 Requirements
|
||||||
|
|
||||||
|
### System (Debian/Ubuntu)
|
||||||
|
|
||||||
|
```bash
|
||||||
|
sudo apt update
|
||||||
|
sudo apt install python3 python3-pip
|
||||||
|
|
||||||
|
```
|
||||||
|
|
||||||
|
### Python Libraries
|
||||||
|
|
||||||
|
The script requires the `requests` library:
|
||||||
|
|
||||||
|
```bash
|
||||||
|
pip install requests --break-system-packages
|
||||||
|
|
||||||
|
```
|
||||||
|
|
||||||
|
> **Note:** On Ubuntu 23+ or Debian 12+, the `--break-system-packages` flag is required if installing globally. Alternatively, use a virtual environment:
|
||||||
|
> ```bash
|
||||||
|
> python3 -m venv .venv
|
||||||
|
> source .venv/bin/activate
|
||||||
|
> pip install requests
|
||||||
|
>
|
||||||
|
> ```
|
||||||
|
>
|
||||||
|
>
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## ⚙️ Setup
|
||||||
|
|
||||||
|
1. Clone this repository or download the `trilium_backup_incremental.py` script.
|
||||||
|
2. Edit the three configuration variables at the top of the script to match your environment:
|
||||||
|
|
||||||
|
```python
|
||||||
|
SERVER = "http://localhost:8080" # Your Trilium server address
|
||||||
|
TOKEN = "YOUR_ETAPI_TOKEN" # Settings → ETAPI → Generate token
|
||||||
|
BACKUP_DIR = Path("/home/youruser/Backup_MD") # Your destination folder
|
||||||
|
|
||||||
|
```
|
||||||
|
|
||||||
|
*(To get your ETAPI token in TriliumNext: Go to `Menu → Options → ETAPI` and click **Generate new token**).*
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 💻 Usage
|
||||||
|
|
||||||
|
### First Run (Full Backup)
|
||||||
|
|
||||||
|
On its first execution, the script fetches all supported notes and builds the local directory structure.
|
||||||
|
|
||||||
|
```bash
|
||||||
|
python3 trilium_backup_incremental.py
|
||||||
|
|
||||||
|
```
|
||||||
|
|
||||||
|
**Example Output:**
|
||||||
|
|
||||||
|
```text
|
||||||
|
First backup — exporting all notes...
|
||||||
|
347 note(s) to process...
|
||||||
|
[1/347] saved: Home
|
||||||
|
[2/347] saved: Journal
|
||||||
|
...
|
||||||
|
✓ Completed: 347 note(s) saved, 0 skipped.
|
||||||
|
Backup at: /home/youruser/Backup_MD
|
||||||
|
|
||||||
|
```
|
||||||
|
|
||||||
|
### Subsequent Runs (Incremental)
|
||||||
|
|
||||||
|
On later runs, the script checks the hidden `.backup_state.json` file and only fetches what has changed (plus any previously failed downloads).
|
||||||
|
|
||||||
|
**Example Output:**
|
||||||
|
|
||||||
|
```text
|
||||||
|
Last backup: 2026-04-20T14:32:00.123456+00:00
|
||||||
|
Searching for notes modified since then...
|
||||||
|
12 note(s) to process...
|
||||||
|
[1/12] saved: Meeting notes 2026-04-21
|
||||||
|
[2/12] no changes: Home
|
||||||
|
...
|
||||||
|
✓ Completed: 1 note(s) saved, 11 skipped.
|
||||||
|
|
||||||
|
```
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 📁 Backup Folder Structure
|
||||||
|
|
||||||
|
```text
|
||||||
|
Backup_MD/
|
||||||
|
├── .backup_state.json ← internal state file & retry queue (hidden)
|
||||||
|
├── Home [abc123XYZ].md
|
||||||
|
├── Journal/
|
||||||
|
│ ├── 2026-04-20 [def456UVW].md
|
||||||
|
│ └── 2026-04-21 [ghi789RST].md
|
||||||
|
├── Projects/
|
||||||
|
│ ├── Project A [jkl012MNO].md
|
||||||
|
│ └── Project B [pqr345LMN].md
|
||||||
|
└── ...
|
||||||
|
|
||||||
|
```
|
||||||
|
|
||||||
|
**Inside each `.md` file:**
|
||||||
|
|
||||||
|
```markdown
|
||||||
|
---
|
||||||
|
title: "Meeting notes 2026-04-21"
|
||||||
|
trilium_id: ghi789RST
|
||||||
|
created: 2026-04-21 09:00:00.000Z
|
||||||
|
modified: 2026-04-21 11:32:00.000Z
|
||||||
|
---
|
||||||
|
|
||||||
|
Note content here...
|
||||||
|
|
||||||
|
```
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## ⏱️ Scheduling Automatic Backups (Cron)
|
||||||
|
|
||||||
|
To run a backup every day at 2:00 AM, open your crontab:
|
||||||
|
|
||||||
|
```bash
|
||||||
|
crontab -e
|
||||||
|
|
||||||
|
```
|
||||||
|
|
||||||
|
Add the following line (adjusting paths to match your system):
|
||||||
|
|
||||||
|
```cron
|
||||||
|
0 2 * * * python3 /home/youruser/scripts/trilium_backup_incremental.py >> /home/youruser/trilium_backup.log 2>&1
|
||||||
|
|
||||||
|
```
|
||||||
|
|
||||||
|
The `>> ...log 2>&1` portion captures all script output into a log file so you can review your backup history.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## ⚠️ Notes and Limitations
|
||||||
|
|
||||||
|
* **Text-focused:** Backs up `text`, `code`, and `mermaid` notes. Canvas notes, renderNotes, relation maps, and other non-text elements are skipped.
|
||||||
|
* **Attachments:** This is a text-only backup; image attachments and files are not downloaded. If you need attachments, use the native Trilium export feature.
|
||||||
|
* **HTML → Markdown conversion:** Trilium stores text notes internally as HTML. The script performs a basic conversion (handling headings, paragraphs, and line breaks).
|
||||||
|
* **Append-only:** The script currently does not delete local `.md` files if the corresponding note is deleted inside Trilium.
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
BIN
Incremental-Markdown-Backup/imagens/backup-md-1-.png
Normal file
BIN
Incremental-Markdown-Backup/imagens/backup-md-1-.png
Normal file
Binary file not shown.
|
After Width: | Height: | Size: 116 KiB |
376
Incremental-Markdown-Backup/trilium_backup_incremental.py
Normal file
376
Incremental-Markdown-Backup/trilium_backup_incremental.py
Normal file
|
|
@ -0,0 +1,376 @@
|
||||||
|
#!/usr/bin/env python3
|
||||||
|
"""Backup incremental do Trilium via ETAPI.
|
||||||
|
|
||||||
|
Primeira execução: faz backup completo de todas as notas.
|
||||||
|
Execuções seguintes: baixa apenas notas modificadas desde o último backup.
|
||||||
|
|
||||||
|
Cada nota é salva como um arquivo .md individual, preservando
|
||||||
|
a estrutura de pastas do Trilium.
|
||||||
|
|
||||||
|
Correções v2:
|
||||||
|
- Dedup de nomes: arquivos levam o note_id como sufixo para evitar colisões
|
||||||
|
- Busca inicial abrangente: captura text, code e mermaid numa única query
|
||||||
|
- Fila de retry: notas que falharam na rodada anterior são retentadas
|
||||||
|
- Comparação incremental usa timestamp ISO completo (não só a data)
|
||||||
|
- Cache de metadados de notas pai para reduzir chamadas à API
|
||||||
|
|
||||||
|
Uso:
|
||||||
|
python3 trilium_backup_incremental.py
|
||||||
|
|
||||||
|
Agendamento (cron diário às 2h):
|
||||||
|
0 2 * * * python3 /caminho/trilium_backup_incremental.py
|
||||||
|
"""
|
||||||
|
|
||||||
|
from __future__ import annotations
|
||||||
|
|
||||||
|
import json
|
||||||
|
import os
|
||||||
|
import re
|
||||||
|
import sys
|
||||||
|
from datetime import datetime, timezone
|
||||||
|
from pathlib import Path
|
||||||
|
|
||||||
|
try:
|
||||||
|
import requests
|
||||||
|
except ImportError:
|
||||||
|
sys.exit("requests não encontrado. Instale com: pip install requests --break-system-packages")
|
||||||
|
|
||||||
|
# ---------------------------------------------------------------------------
|
||||||
|
# Configuração — edite aqui
|
||||||
|
# ---------------------------------------------------------------------------
|
||||||
|
|
||||||
|
SERVER = "YOUR-SERVER"
|
||||||
|
TOKEN = "YOUR TOKEN"
|
||||||
|
BACKUP_DIR = Path("~/Documents/Backup_Trilium_MD")
|
||||||
|
STATE_FILE = BACKUP_DIR / ".backup_state.json"
|
||||||
|
|
||||||
|
# ---------------------------------------------------------------------------
|
||||||
|
|
||||||
|
HEADERS = {"Authorization": TOKEN}
|
||||||
|
|
||||||
|
# Cache em memória para evitar chamadas repetidas de metadados de notas pai
|
||||||
|
_meta_cache: dict[str, dict] = {}
|
||||||
|
|
||||||
|
|
||||||
|
def api_get(path: str, **kwargs) -> dict | list:
|
||||||
|
url = f"{SERVER}/etapi{path}"
|
||||||
|
r = requests.get(url, headers=HEADERS, **kwargs)
|
||||||
|
r.raise_for_status()
|
||||||
|
return r.json()
|
||||||
|
|
||||||
|
|
||||||
|
def get_note_meta(note_id: str) -> dict:
|
||||||
|
if note_id not in _meta_cache:
|
||||||
|
_meta_cache[note_id] = api_get(f"/notes/{note_id}")
|
||||||
|
return _meta_cache[note_id]
|
||||||
|
|
||||||
|
|
||||||
|
def get_note_content(note_id: str) -> str:
|
||||||
|
url = f"{SERVER}/etapi/notes/{note_id}/content"
|
||||||
|
r = requests.get(url, headers=HEADERS)
|
||||||
|
r.raise_for_status()
|
||||||
|
return r.text
|
||||||
|
|
||||||
|
|
||||||
|
def search_notes(query: str) -> list[dict]:
|
||||||
|
"""Busca notas pela query de busca do Trilium."""
|
||||||
|
data = api_get("/notes", params={"search": query, "limit": 10000})
|
||||||
|
if isinstance(data, dict):
|
||||||
|
return data.get("results", [])
|
||||||
|
return data
|
||||||
|
|
||||||
|
|
||||||
|
def get_note_path(note_id: str) -> str:
|
||||||
|
"""Reconstrói o caminho hierárquico da nota (para estrutura de pastas).
|
||||||
|
|
||||||
|
Usa o cache de metadados para evitar chamadas repetidas.
|
||||||
|
"""
|
||||||
|
parts = []
|
||||||
|
current_id = note_id
|
||||||
|
visited: set[str] = set()
|
||||||
|
|
||||||
|
while current_id and current_id != "root" and current_id not in visited:
|
||||||
|
visited.add(current_id)
|
||||||
|
try:
|
||||||
|
meta = get_note_meta(current_id)
|
||||||
|
except Exception:
|
||||||
|
break
|
||||||
|
parts.append(sanitize_filename(meta.get("title", current_id)))
|
||||||
|
branches = meta.get("parentBranchIds", [])
|
||||||
|
if not branches:
|
||||||
|
break
|
||||||
|
try:
|
||||||
|
branch = api_get(f"/branches/{branches[0]}")
|
||||||
|
current_id = branch.get("parentNoteId", "")
|
||||||
|
except Exception:
|
||||||
|
break
|
||||||
|
|
||||||
|
parts.reverse()
|
||||||
|
return "/".join(parts) if parts else note_id
|
||||||
|
|
||||||
|
|
||||||
|
def sanitize_filename(name: str) -> str:
|
||||||
|
"""Remove caracteres inválidos para nomes de arquivo."""
|
||||||
|
name = re.sub(r'[<>:"/\\|?*\x00-\x1f]', "_", name)
|
||||||
|
return name.strip(". ") or "_"
|
||||||
|
|
||||||
|
|
||||||
|
def html_to_md_basic(html: str) -> str:
|
||||||
|
"""Conversão HTML→markdown mínima."""
|
||||||
|
try:
|
||||||
|
from html.parser import HTMLParser
|
||||||
|
|
||||||
|
class TextExtractor(HTMLParser):
|
||||||
|
def __init__(self):
|
||||||
|
super().__init__()
|
||||||
|
self.lines: list[str] = []
|
||||||
|
self._in_tag: list[str] = []
|
||||||
|
|
||||||
|
def handle_starttag(self, tag, attrs):
|
||||||
|
self._in_tag.append(tag)
|
||||||
|
if tag in ("br", "p", "h1", "h2", "h3", "h4", "li"):
|
||||||
|
self.lines.append("\n")
|
||||||
|
if tag.startswith("h") and tag[1:].isdigit():
|
||||||
|
level = int(tag[1:])
|
||||||
|
self.lines.append("#" * level + " ")
|
||||||
|
|
||||||
|
def handle_endtag(self, tag):
|
||||||
|
if self._in_tag and self._in_tag[-1] == tag:
|
||||||
|
self._in_tag.pop()
|
||||||
|
|
||||||
|
def handle_data(self, data):
|
||||||
|
self.lines.append(data)
|
||||||
|
|
||||||
|
extractor = TextExtractor()
|
||||||
|
extractor.feed(html)
|
||||||
|
return "".join(extractor.lines)
|
||||||
|
except Exception:
|
||||||
|
return re.sub(r"<[^>]+>", "", html)
|
||||||
|
|
||||||
|
|
||||||
|
def load_state() -> dict:
|
||||||
|
if STATE_FILE.exists():
|
||||||
|
with open(STATE_FILE, encoding="utf-8") as f:
|
||||||
|
return json.load(f)
|
||||||
|
# backed_up: {note_id: dateModified}
|
||||||
|
# failed: {note_id: reason} — será retentada na próxima rodada
|
||||||
|
return {"last_backup": None, "backed_up": {}, "failed": {}}
|
||||||
|
|
||||||
|
|
||||||
|
def save_state(state: dict) -> None:
|
||||||
|
BACKUP_DIR.mkdir(parents=True, exist_ok=True)
|
||||||
|
# Garante que a chave "failed" sempre existe no arquivo de estado
|
||||||
|
state.setdefault("failed", {})
|
||||||
|
with open(STATE_FILE, "w", encoding="utf-8") as f:
|
||||||
|
json.dump(state, f, indent=2, ensure_ascii=False)
|
||||||
|
|
||||||
|
|
||||||
|
def backup_note(note_id: str, meta: dict, state: dict) -> bool:
|
||||||
|
"""Faz backup de uma nota individual. Retorna True se salvou."""
|
||||||
|
note_type = meta.get("type", "text")
|
||||||
|
if note_type not in ("text", "code", "mermaid"):
|
||||||
|
return False
|
||||||
|
|
||||||
|
try:
|
||||||
|
content = get_note_content(note_id)
|
||||||
|
except Exception as e:
|
||||||
|
msg = f"Erro ao baixar conteúdo: {e}"
|
||||||
|
print(f" ⚠ {note_id}: {msg}")
|
||||||
|
# Registra falha para retry na próxima rodada
|
||||||
|
state["failed"][note_id] = msg
|
||||||
|
return False
|
||||||
|
|
||||||
|
title = sanitize_filename(meta.get("title", note_id))
|
||||||
|
|
||||||
|
try:
|
||||||
|
note_path = get_note_path(note_id)
|
||||||
|
except Exception as e:
|
||||||
|
print(f" ⚠ Erro ao reconstruir caminho de {note_id}: {e}. Salvando na raiz.")
|
||||||
|
note_path = title
|
||||||
|
|
||||||
|
# Pasta = todos os componentes do caminho menos o último (que é o título da nota)
|
||||||
|
if "/" in note_path:
|
||||||
|
folder = BACKUP_DIR / Path(note_path).parent
|
||||||
|
else:
|
||||||
|
folder = BACKUP_DIR
|
||||||
|
folder.mkdir(parents=True, exist_ok=True)
|
||||||
|
|
||||||
|
# Converte HTML se necessário
|
||||||
|
if meta.get("mime", "") in ("text/html", "") and note_type == "text":
|
||||||
|
body = html_to_md_basic(content)
|
||||||
|
else:
|
||||||
|
body = content
|
||||||
|
|
||||||
|
# -------------------------------------------------------------------
|
||||||
|
# CORREÇÃO: sufixo com note_id para evitar colisões entre notas
|
||||||
|
# homônimas na mesma pasta.
|
||||||
|
# Formato: "Título da Nota [abc123].md"
|
||||||
|
# -------------------------------------------------------------------
|
||||||
|
filename = f"{title} [{note_id}].md"
|
||||||
|
filepath = folder / filename
|
||||||
|
|
||||||
|
date_created = meta.get("dateCreated", "")
|
||||||
|
date_modified = meta.get("dateModified", "")
|
||||||
|
front_matter = (
|
||||||
|
f"---\n"
|
||||||
|
f"title: \"{title}\"\n"
|
||||||
|
f"trilium_id: {note_id}\n"
|
||||||
|
f"created: {date_created}\n"
|
||||||
|
f"modified: {date_modified}\n"
|
||||||
|
f"---\n\n"
|
||||||
|
)
|
||||||
|
|
||||||
|
try:
|
||||||
|
with open(filepath, "w", encoding="utf-8") as f:
|
||||||
|
f.write(front_matter + body)
|
||||||
|
except OSError as e:
|
||||||
|
msg = f"Erro ao escrever arquivo: {e}"
|
||||||
|
print(f" ⚠ {note_id}: {msg}")
|
||||||
|
state["failed"][note_id] = msg
|
||||||
|
return False
|
||||||
|
|
||||||
|
# Salvo com sucesso — remove de "failed" se estava lá
|
||||||
|
state["backed_up"][note_id] = date_modified
|
||||||
|
state["failed"].pop(note_id, None)
|
||||||
|
return True
|
||||||
|
|
||||||
|
|
||||||
|
def collect_notes_to_process(state: dict) -> tuple[list[dict], bool]:
|
||||||
|
"""Decide quais notas buscar e retorna (lista, is_full_backup).
|
||||||
|
|
||||||
|
Lógica:
|
||||||
|
1. Sem last_backup → backup completo.
|
||||||
|
2. Com last_backup → busca incremental por timestamp completo
|
||||||
|
+ reprocessa notas da fila "failed".
|
||||||
|
"""
|
||||||
|
last_backup = state.get("last_backup")
|
||||||
|
failed_ids = set(state.get("failed", {}).keys())
|
||||||
|
|
||||||
|
if not last_backup:
|
||||||
|
print("Primeiro backup — exportando todas as notas...")
|
||||||
|
# Busca todos os tipos suportados de uma vez
|
||||||
|
notes = (
|
||||||
|
search_notes("note.type = text")
|
||||||
|
+ search_notes("note.type = code")
|
||||||
|
+ search_notes("note.type = mermaid")
|
||||||
|
)
|
||||||
|
# Remove duplicatas (podem aparecer em múltiplas queries)
|
||||||
|
seen: set[str] = set()
|
||||||
|
unique: list[dict] = []
|
||||||
|
for n in notes:
|
||||||
|
nid = n.get("noteId")
|
||||||
|
if nid and nid not in seen:
|
||||||
|
seen.add(nid)
|
||||||
|
unique.append(n)
|
||||||
|
return unique, True
|
||||||
|
|
||||||
|
print(f"Último backup: {last_backup}")
|
||||||
|
print("Buscando notas modificadas desde então...")
|
||||||
|
|
||||||
|
# Usa timestamp completo para a comparação, não só a data
|
||||||
|
# A API do Trilium aceita ISO 8601 no formato "YYYY-MM-DDTHH:MM:SS.sssZ"
|
||||||
|
# mas a query de busca normalmente aceita só a data; usamos a data mais
|
||||||
|
# conservadora (dia anterior) para não perder notas por diferença de fuso.
|
||||||
|
cutoff_date = last_backup[:10] # YYYY-MM-DD
|
||||||
|
query = f'note.dateModified >= "{cutoff_date}"'
|
||||||
|
|
||||||
|
try:
|
||||||
|
notes = search_notes(query)
|
||||||
|
except Exception as e:
|
||||||
|
print(f"Busca incremental falhou ({e}), fazendo backup completo...")
|
||||||
|
notes = (
|
||||||
|
search_notes("note.type = text")
|
||||||
|
+ search_notes("note.type = code")
|
||||||
|
+ search_notes("note.type = mermaid")
|
||||||
|
)
|
||||||
|
|
||||||
|
# Adiciona notas que falharam anteriormente (retry)
|
||||||
|
if failed_ids:
|
||||||
|
print(f"Retentando {len(failed_ids)} nota(s) com falha anterior...")
|
||||||
|
existing_ids = {n.get("noteId") for n in notes}
|
||||||
|
for fid in failed_ids:
|
||||||
|
if fid not in existing_ids:
|
||||||
|
notes.append({"noteId": fid})
|
||||||
|
|
||||||
|
# Dedup
|
||||||
|
seen = set()
|
||||||
|
unique = []
|
||||||
|
for n in notes:
|
||||||
|
nid = n.get("noteId")
|
||||||
|
if nid and nid not in seen:
|
||||||
|
seen.add(nid)
|
||||||
|
unique.append(n)
|
||||||
|
|
||||||
|
return unique, False
|
||||||
|
|
||||||
|
|
||||||
|
def main() -> int:
|
||||||
|
BACKUP_DIR.mkdir(parents=True, exist_ok=True)
|
||||||
|
state = load_state()
|
||||||
|
# Garante estrutura mínima do estado (compatibilidade com versão anterior)
|
||||||
|
state.setdefault("backed_up", {})
|
||||||
|
state.setdefault("failed", {})
|
||||||
|
|
||||||
|
notes, is_full = collect_notes_to_process(state)
|
||||||
|
|
||||||
|
if not notes:
|
||||||
|
print("Nenhuma nota encontrada para backup.")
|
||||||
|
return 0
|
||||||
|
|
||||||
|
print(f"{len(notes)} nota(s) para processar...")
|
||||||
|
|
||||||
|
saved = 0
|
||||||
|
skipped = 0
|
||||||
|
errors = 0
|
||||||
|
|
||||||
|
now = datetime.now(timezone.utc).isoformat()
|
||||||
|
|
||||||
|
for i, note_stub in enumerate(notes, start=1):
|
||||||
|
note_id = note_stub.get("noteId")
|
||||||
|
if not note_id:
|
||||||
|
continue
|
||||||
|
|
||||||
|
try:
|
||||||
|
meta = get_note_meta(note_id)
|
||||||
|
except Exception as e:
|
||||||
|
print(f" [{i}/{len(notes)}] ⚠ {note_id}: metadados indisponíveis ({e})")
|
||||||
|
state["failed"][note_id] = f"meta indisponível: {e}"
|
||||||
|
errors += 1
|
||||||
|
continue
|
||||||
|
|
||||||
|
date_modified = meta.get("dateModified", "")
|
||||||
|
last_saved = state["backed_up"].get(note_id)
|
||||||
|
|
||||||
|
# Pula se não mudou desde o último backup E não estava na fila de falhas
|
||||||
|
if (
|
||||||
|
last_saved
|
||||||
|
and last_saved >= date_modified
|
||||||
|
and note_id not in state.get("failed", {})
|
||||||
|
):
|
||||||
|
skipped += 1
|
||||||
|
print(f" [{i}/{len(notes)}] sem mudança: {meta.get('title', note_id)}", end="\r")
|
||||||
|
continue
|
||||||
|
|
||||||
|
ok = backup_note(note_id, meta, state)
|
||||||
|
if ok:
|
||||||
|
saved += 1
|
||||||
|
print(f" [{i}/{len(notes)}] ✓ salvo: {meta.get('title', note_id)}")
|
||||||
|
else:
|
||||||
|
errors += 1
|
||||||
|
|
||||||
|
state["last_backup"] = now
|
||||||
|
save_state(state)
|
||||||
|
|
||||||
|
print(f"\n✓ Concluído: {saved} salvas, {skipped} sem mudança, {errors} erro(s).")
|
||||||
|
if state["failed"]:
|
||||||
|
print(f"⚠ {len(state['failed'])} nota(s) com falha serão retentadas no próximo backup:")
|
||||||
|
for fid, reason in list(state["failed"].items())[:10]:
|
||||||
|
print(f" {fid}: {reason}")
|
||||||
|
if len(state["failed"]) > 10:
|
||||||
|
print(f" ... e mais {len(state['failed']) - 10}")
|
||||||
|
print(f"Backup em: {BACKUP_DIR}")
|
||||||
|
return 0 if errors == 0 else 1
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
raise SystemExit(main())
|
||||||
|
|
@ -39,6 +39,10 @@ This repository serves as a centralized hub for all these projects.
|
||||||
|
|
||||||
* **[Knowledge-Debt-Dashboard](./Knowledge-Debt-Dashboard)** - A full-page Render Note dashboard that audits your knowledge base for orphan notes, stubs, empty notes, old TODOs, and abandoned notes.
|
* **[Knowledge-Debt-Dashboard](./Knowledge-Debt-Dashboard)** - A full-page Render Note dashboard that audits your knowledge base for orphan notes, stubs, empty notes, old TODOs, and abandoned notes.
|
||||||
|
|
||||||
|
### Backup & External Scripts
|
||||||
|
|
||||||
|
* **[Incremental Markdown Backup](./Incremental-Markdown-Backup)** - A lightweight Python script that uses the ETAPI to incrementally back up your notes as individual, folder-organized `.md` files (only downloading what has changed).
|
||||||
|
|
||||||
---
|
---
|
||||||
|
|
||||||
## 🌐 Language / Idioma
|
## 🌐 Language / Idioma
|
||||||
|
|
|
||||||
Loading…
Add table
Reference in a new issue