AILA Nano
AILA in formato compatto. Per LLM piccoli o contesti limitati.
Versione compatta dell'AILA — pensata per quando lavori con modelli linguistici piccoli o contesti limitati (token budget stretto, edge inference, modelli specializzati). È la stessa ontologia, ridotta all'essenziale operativo: il kernel più stringato, un decoder dei simboli per il bootstrap rapido, e un benchmark che misura la fedeltà rispetto alla versione completa.
Quando usarla
- LLM con < 100K tokens di context window
- Modelli piccoli (1-7B parametri) dove il prompt grande satura attenzione
- Onboarding rapido prima di passare al kernel completo
- Embedding in prompt template / system message dove ogni token conta
Tutti i download di questa sezione3 file›
- Nano Kernelmd↓/downloads/ontologia/aila/nano/EAR_NANO_KERNEL_AILA_v1_0.md
- Symbol Decodermd↓/downloads/ontologia/aila/nano/AILA_SYMBOL_DECODER_v1_0.md
- Nano Kernel Benchmarkmd↓/downloads/ontologia/aila/nano/EAR_NANO_KERNEL_BENCHMARK_REPORT.md
Documenti
Nano Kernel
mdVersione compatta (~2500 token) del kernel EAR-AILA per LLM piccoli e contesti ristretti.
#aila#nano#kernel#compatto
Symbol Decoder
mdCompanion del nano kernel: tabella di decodifica zero-ambiguità per i simboli AILA.
#aila#nano#decoder#simboli
Nano Kernel Benchmark
mdValidazione empirica del nano kernel su Qwen2.5 0.5B-7B e DeepSeek Base: scoperta dell'uncanny valley.
#aila#nano#benchmark#validazione