Cara Menjalankan LLM Lokal di VSCode: Ollama + Continue untuk Developer Indonesia

Cara Menjalankan LLM Lokal di VSCode: Ollama + Continue untuk Developer Indonesia

Pelajari cara menggunakan model bahasa lokal seperti Mistral atau Sahabat-AI secara offline melalui Ollama dan ekstensi Continue di Visual Studio Code. Cocok untuk developer Indonesia yang ingin solusi AI mandiri dan hemat biaya.

Penulis: Novian Hidayat
Tanggal: 2 Juli 2025

AI lokal semakin naik daun di Indonesia. Dengan inisiatif seperti Sahabat-AI, serta akses mudah ke model seperti Mistral, LLaMA, atau OpenHermes, kini developer bisa menjalankan AI langsung dari laptop mereka — tanpa internet, tanpa langganan mahal.

Salah satu cara paling praktis menjalankan LLM lokal adalah dengan menggabungkan dua alat: Ollama dan ekstensi Continue untuk VSCode. Artikel ini akan membimbing kamu langkah demi langkah mengaktifkan AI lokal di editor kesayanganmu.


1. Apa Itu Ollama dan Continue?

Ollama

Ollama adalah platform yang memungkinkan kamu menjalankan model bahasa besar (LLM) secara lokal, langsung di perangkatmu. Mendukung model seperti:

  • llama3
  • mistral
  • openhermes
  • codellama
  • sahabatai

Semua model bisa dijalankan tanpa koneksi internet, setelah diunduh pertama kali.

Continue

Continue adalah ekstensi VSCode yang membuatmu bisa chatting dengan LLM — baik itu dari cloud (GPT-4, Claude) atau lokal via Ollama.


2. Instalasi Ollama

a. Cek Sistem Operasi

Ollama mendukung:

  • Windows 11 (via WSL)
  • macOS (M1/M2/M3 dan Intel)
  • Linux

b. Instal Ollama

macOS/Linux:

curl -fsSL https://ollama.com/install.sh | sh

Windows:

Download installer dari: https://ollama.com/download

c. Uji Coba Menjalankan Model:

ollama run mistral

atau model Bahasa Indonesia:

ollama run gemma2-9b-cpt-sahabatai-v1-instruct:q3_k_l

terdapat 3 ukuran sahabatai s, m dan l ganti huruf paling akhir untuk mengganti ukuran Jika berhasil, kamu bisa ngobrol langsung dari terminal.


3. Instal Continue di VSCode

a. Instalasi

Cari “Continue” di VSCode Marketplace atau klik di sini.

b. Buka Panel Continue

Setelah terpasang, klik ikon “Continue” di sidebar VSCode.

c. Hubungkan ke Ollama

Buka Command Palette → “Continue: Open Config File” → ubah isinya seperti ini:

{
  "models": [
    {
      "title": "Mistral (Ollama)",
      "provider": "ollama",
      "model": "mistral"
    },
    {
      "title": "Sahabat-AI (Bahasa Indonesia)",
      "provider": "ollama",
      "model": "Supa-AI/gemma2-9b-cpt-sahabatai-v1-instruct"
    }
  ]
}

Pastikan Ollama aktif di port default http://localhost:11434


4. Studi Kasus Penggunaan

Contoh Prompt:

  • “Tolong buatkan validasi email di JavaScript.”
  • “Jelaskan kode ini baris per baris.”
  • “Optimalkan fungsi sorting berikut.”

Cocok Untuk:

  • Refactor dan review kode
  • Menulis helper function
  • Belajar syntax bahasa baru
  • Chatting dengan LLM berbahasa Indonesia (menggunakan Sahabat-AI)

5. Troubleshooting

MasalahSolusi
Port 11434 tidak bisa dibukaPeriksa firewall / pastikan Ollama aktif
Model tidak ditemukanJalankan ollama pull sesuai nama model (misalnya sahabatai)
Laptop terasa lambatCoba gunakan model ringan seperti tinyllama

6. Kesimpulan

Ollama dan Continue adalah kombinasi ideal untuk developer Indonesia yang ingin:

  • Akses AI lokal tanpa biaya bulanan
  • Tetap produktif meski offline
  • Menjaga privasi data kode
  • Mengakses LLM yang memahami Bahasa Indonesia seperti Sahabat-AI

Dengan tren seperti Sahabat-AI, membiasakan diri dengan LLM lokal sejak dini akan menjadi investasi keterampilan yang sangat relevan.


Punya pertanyaan atau pengalaman sendiri menjalankan LLM lokal? Tinggalkan komentar di bawah ya!

Diskusi

Lanjutkan Membaca