AI lokal semakin naik daun di Indonesia. Dengan inisiatif seperti Sahabat-AI, serta akses mudah ke model seperti Mistral, LLaMA, atau OpenHermes, kini developer bisa menjalankan AI langsung dari laptop mereka — tanpa internet, tanpa langganan mahal.
Salah satu cara paling praktis menjalankan LLM lokal adalah dengan menggabungkan dua alat: Ollama dan ekstensi Continue untuk VSCode. Artikel ini akan membimbing kamu langkah demi langkah mengaktifkan AI lokal di editor kesayanganmu.
1. Apa Itu Ollama dan Continue?
Ollama
Ollama adalah platform yang memungkinkan kamu menjalankan model bahasa besar (LLM) secara lokal, langsung di perangkatmu. Mendukung model seperti:
llama3
mistral
openhermes
codellama
sahabatai
Semua model bisa dijalankan tanpa koneksi internet, setelah diunduh pertama kali.
Continue
Continue adalah ekstensi VSCode yang membuatmu bisa chatting dengan LLM — baik itu dari cloud (GPT-4, Claude) atau lokal via Ollama.
2. Instalasi Ollama
a. Cek Sistem Operasi
Ollama mendukung:
- Windows 11 (via WSL)
- macOS (M1/M2/M3 dan Intel)
- Linux
b. Instal Ollama
macOS/Linux:
curl -fsSL https://ollama.com/install.sh | sh
Windows:
Download installer dari: https://ollama.com/download
c. Uji Coba Menjalankan Model:
ollama run mistral
atau model Bahasa Indonesia:
ollama run gemma2-9b-cpt-sahabatai-v1-instruct:q3_k_l
terdapat 3 ukuran sahabatai s, m dan l ganti huruf paling akhir untuk mengganti ukuran Jika berhasil, kamu bisa ngobrol langsung dari terminal.
3. Instal Continue di VSCode
a. Instalasi
Cari “Continue” di VSCode Marketplace atau klik di sini.
b. Buka Panel Continue
Setelah terpasang, klik ikon “Continue” di sidebar VSCode.
c. Hubungkan ke Ollama
Buka Command Palette → “Continue: Open Config File” → ubah isinya seperti ini:
{
"models": [
{
"title": "Mistral (Ollama)",
"provider": "ollama",
"model": "mistral"
},
{
"title": "Sahabat-AI (Bahasa Indonesia)",
"provider": "ollama",
"model": "Supa-AI/gemma2-9b-cpt-sahabatai-v1-instruct"
}
]
}
Pastikan Ollama aktif di port default
http://localhost:11434
4. Studi Kasus Penggunaan
Contoh Prompt:
- “Tolong buatkan validasi email di JavaScript.”
- “Jelaskan kode ini baris per baris.”
- “Optimalkan fungsi sorting berikut.”
Cocok Untuk:
- Refactor dan review kode
- Menulis helper function
- Belajar syntax bahasa baru
- Chatting dengan LLM berbahasa Indonesia (menggunakan Sahabat-AI)
5. Troubleshooting
Masalah | Solusi |
---|---|
Port 11434 tidak bisa dibuka | Periksa firewall / pastikan Ollama aktif |
Model tidak ditemukan | Jalankan ollama pull sesuai nama model (misalnya sahabatai) |
Laptop terasa lambat | Coba gunakan model ringan seperti tinyllama |
6. Kesimpulan
Ollama dan Continue adalah kombinasi ideal untuk developer Indonesia yang ingin:
- Akses AI lokal tanpa biaya bulanan
- Tetap produktif meski offline
- Menjaga privasi data kode
- Mengakses LLM yang memahami Bahasa Indonesia seperti Sahabat-AI
Dengan tren seperti Sahabat-AI, membiasakan diri dengan LLM lokal sejak dini akan menjadi investasi keterampilan yang sangat relevan.
Punya pertanyaan atau pengalaman sendiri menjalankan LLM lokal? Tinggalkan komentar di bawah ya!