Backend + WebUI sederhana untuk menjalankan AI Assistant menggunakan Ollama dan FastAPI.
UI didesain modern & responsif menggunakan TailwindCSS.
- π Integrasi dengan Ollama API (local LLM seperti Llama2, Mistral, dll).
- π¬ Chat API (/chat) + Streaming API (/chat-stream).
- π₯οΈ WebUI cantik berbasis HTML + TailwindCSS.
- π CORS sudah diaktifkan (siap untuk frontend custom).
mantap-ai/ βββ main.py # FastAPI backend βββ templates/ β βββ index.html # UI Chat (Frontend) βββ static/ # file CSS/JS tambahan βββ README.md
- Clone repo
git clone https://github.com/Bangkah/mantap-ai.git cd mantap-ai
- Buat virtual environment (opsional)
python -m venv venv source venv/bin/activate # Linux/Mac venv\Scripts\activate # Windows source venv/bin/activate.fish #fish shell 
- Install dependencies
pip install -r requirements.txt 
- Kalau requirements.txt belum ada, minimal install:
pip install fastapi uvicorn requests jinja2 
- Pastikan Ollama sudah jalan
ollama serve 
- Jalankan server
uvicorn main:app --reload --host 0.0.0.0 --port 8000 
GET / β Halaman UI (chat interface).
GET /health β Cek status backend & koneksi Ollama.
GET /models β List model yang tersedia di Ollama.
POST /chat β Kirim prompt & dapatkan jawaban.
POST /chat-stream β Chat dengan response streaming.
UI dibuat minimalis, modern, dan responsif:
Chat bubble dengan warna berbeda (user vs bot).
Animasi loading ... saat menunggu jawaban AI.
Gradient background & rounded card style.
Pull request & issue sangat diterima! Feel free untuk kembangkan fitur seperti:
π₯ Dark mode toggle
π History chat
π Export chat ke file

