v0.4 — Ottimizzazione LLM e profili immagine #1
HEGOM61ita
announced in
Announcements
Replies: 1 comment
-
|
📄 Manuale aggiornato — Il file CONFIGURATION.md è stato completamente rivisto per riflettere tutte le novità della v0.4: parametri LLM avanzati (num_ctx, num_batch, keep_alive), profili ottimizzazione con target_size corretti, ordinamento gallery, badge visivi, filtri log tab e molto altro. |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
Cosa cambia nella v0.4
Prestazioni LLM drasticamente migliorate
Le chiamate al modello Ollama (Qwen3-VL) sono state ottimizzate su più fronti. Il modello viene ora pre-caricato in VRAM allo startup dell'app tramite warmup automatico, eliminando il ritardo alla prima elaborazione. Con l'opzione keep_alive (attiva di default), il modello resta permanentemente in memoria GPU senza doversi ricaricare tra un batch e l'altro.
Quando si generano tag, titolo e descrizione per la stessa foto, l'immagine viene ora estratta e convertita una sola volta invece di tre, risparmiando elaborazione inutile.
Parametri LLM completamente configurabili
I parametri di generazione Ollama (num_ctx, num_batch, keep_alive, oltre a temperature, top_k, top_p già presenti) sono ora tutti regolabili dalla sezione Configurazione dell'interfaccia, nella scheda parametri avanzati. Questo permette di bilanciare qualità e velocità in base alla propria GPU.
Profili immagine adattati ai modelli reali
Le dimensioni delle immagini inviate a ogni modello AI sono state corrette per corrispondere all'input nativo effettivo:
Questo riduce il tempo di elaborazione senza alcuna perdita di qualità nei risultati.
Prompt LLM più affidabili senza BioCLIP
Quando BioCLIP non ha ancora identificato la specie, i prompt al modello LLM usavano una regola troppo aggressiva ("non identificare mai le specie") che causava allucinazioni: ad esempio, una mangusta veniva taggata come "mucca", un gufo delle nevi come "gatto".
Ora l'approccio è prudente: se il modello riconosce con sicurezza l'animale, usa il nome italiano corretto (fenicottero, mangusta); se non è sicuro, usa un termine generico (uccello, animale). Questo elimina le identificazioni errate mantenendo quelle corrette.
Beta Was this translation helpful? Give feedback.
All reactions