Go On Mind — AI Model CDN

CDN de modelos de inteligência artificial otimizados para inferência local no browser via WebGPU.
Parte da arquitetura Local-First AI do Go On Mind.

CDN operacional — servindo modelos via Cloudflare Pages

📦 Modelos Disponíveis

Modelos quantizados em q4f16 (4-bit, float16 compute) via MLC-LLM para máxima eficiência em WebGPU.

Phi 3.5 Mini Instruct
High-End
💾 ~2.1GB 🧠 RAM: 8GB+ ⚡ Melhor raciocínio
Llama 3.2 3B Instruct
Medium
💾 ~1.8GB 🧠 RAM: 6GB+ ⚖️ Bom equilíbrio
TinyLlama 1.1B Chat
Low-End
💾 ~0.6GB 🧠 RAM: 4GB+ 🚀 Mais rápido

🔗 Endpoints

📋 Status do Manifesto