Membangun AI Assistant Pribadi Pakai Ollama + LangChain (Tanpa Cloud!)

Membangun AI Assistant Pribadi Pakai Ollama + LangChain (Tanpa Cloud!)

Buat AI chatbot sendiri dengan model lokal seperti Mistral — tanpa koneksi internet, tanpa langganan cloud. Panduan ini menunjukkan cara menggunakan Ollama dan LangChain untuk membangun AI Assistant pribadi di laptop Anda.

Penulis: Novian Hidayat
Tanggal: 2 Juli 2025

Pernahkah Anda membayangkan memiliki asisten AI seperti ChatGPT yang berjalan sepenuhnya lokal di laptop Anda? Tanpa perlu koneksi internet, tanpa mengirim data pribadi ke cloud, dan tentunya, tanpa biaya langganan bulanan. Dulu ini terdengar seperti fiksi ilmiah, tetapi sekarang ini menjadi kenyataan yang sangat bisa diakses.

Dengan menggabungkan dua alat open-source yang sangat powerful, Ollama dan LangChain, kita bisa membangun AI Assistant pribadi yang tangguh.

Artikel ini adalah panduan praktis untuk membangun AI Assistant pribadi Anda sendiri menggunakan model bahasa lokal seperti Mistral atau Sahabat-AI yang dioptimalkan untuk Bahasa Indonesia. Setelah mengikuti tutorial ini, Anda akan memiliki chatbot yang bisa:

  • Menjawab pertanyaan teknis yang kompleks.
  • Menjadi “rekan sparring” untuk brainstorming ide.
  • Menjelaskan atau merefaktor potongan kode.
  • Dan semua ini berjalan dengan aman di dalam mesin Anda sendiri!

1. Mengapa Lokal? Mengapa Sekarang? Alasan di Balik Revolusi AI Pribadi

Dulu, menjalankan Large Language Model (LLM) membutuhkan hardware sekelas data center. Kini, berkat kemajuan dalam kuantisasi model (membuat model lebih kecil tanpa kehilangan banyak kemampuan), model AI yang kuat seperti Sahabat-AI dan Mistral dapat dijalankan dengan lancar di laptop standar (RAM 8–16 GB).

Ini membuka tiga keuntungan besar:

  • Privasi dan Keamanan Absolut: Saat Anda bertanya tentang kode proyek rahasia atau data sensitif perusahaan, tidak ada satu byte pun yang keluar dari laptop Anda. Semua pemrosesan terjadi secara lokal. Ini adalah game-changer untuk keamanan data.
  • Kebebasan dari Biaya dan Ketergantungan Internet: Lupakan biaya langganan bulanan atau tagihan API per token. Setelah model diunduh, ia gratis untuk digunakan selamanya. Anda bisa bekerja di kafe tanpa Wi-Fi, di pesawat, atau di mana pun inspirasi datang.
  • Kustomisasi Tanpa Batas: Anda memegang kendali penuh. Anda bisa melakukan fine-tuning model dengan data Anda sendiri, mengubah system prompt untuk menciptakan persona AI yang unik (misalnya, “Asisten Penulis Kode yang Sarkastik”), atau bahkan menggabungkan beberapa model untuk tugas yang berbeda.

2. Arsitektur dan Alat yang Digunakan

Sistem kita akan terdiri dari dua komponen utama yang bekerja sama:

AlatFungsiAnalogi
OllamaMesin LLM Lokal. Ini adalah “mesin mobil” yang bertugas menjalankan model AI dan menyediakan API lokal yang sederhana untuk berinteraksi dengannya.
LangChainKerangka Kerja (Framework) Aplikasi AI. Ini adalah “sasis dan sistem kemudi” yang menghubungkan logika aplikasi Python kita ke mesin Ollama, memungkinkan kita membangun fitur canggih seperti memori percakapan.
PythonBahasa Pemrograman. “Bahan bakar” yang akan kita gunakan untuk menulis logika aplikasi kita.

3. Langkah 1: Menghidupkan “Mesin” dengan Ollama

Ollama menyederhanakan proses yang dulu sangat rumit. Ia mengurus semua detail teknis untuk menjalankan LLM di berbagai sistem operasi.

a. Instal Ollama

Buka terminal Anda dan jalankan perintah ini. Skrip ini akan mendeteksi sistem operasi Anda dan menginstal semuanya secara otomatis.

# Untuk macOS & Linux
curl -fsSL https://ollama.com/install.sh | sh

Untuk pengguna Windows, unduh installer dari situs resmi ollama.com.

b. Unduh dan Jalankan Model AI

Setelah Ollama terinstal, “menarik” sebuah model semudah menggunakan Docker.

Untuk Model Internasional (Mistral): Mistral adalah model serbaguna yang sangat baik dalam coding dan bahasa Inggris.

ollama run mistral

Untuk Model Bahasa Indonesia (Sahabat-AI): Model ini di-finetune khusus untuk percakapan dan konteks Bahasa Indonesia.

ollama run Supa-AI/gemma2-9b-cpt-sahabatai-v1-instruct:q3_k_s

Setelah Anda menjalankan perintah di atas, Ollama akan mengunduh model (hanya sekali) dan langsung membuka sesi chat di terminal Anda. Anda sudah bisa mulai berinteraksi! Ini membuktikan bahwa “mesin” AI Anda sudah berjalan.


4. Langkah 2: Membangun “Otak” dengan LangChain & Python

Sekarang, kita akan menulis kode Python untuk berinteraksi dengan mesin Ollama secara terprogram.

a. Siapkan Lingkungan Python

Buat direktori proyek baru dan instal pustaka yang diperlukan.

mkdir ai-assistant-lokal
cd ai-assistant-lokal
python -m venv venv
source venv/bin/activate  # Di Windows, gunakan `venv\Scripts\activate`

pip install langchain langchain-community ollama

b. Kode AI Assistant Sederhana (Interaktif di Terminal)

Buat file bernama main.py. Kode ini akan membuat chatbot sederhana dengan memori percakapan.

# main.py
from langchain_community.llms import Ollama
from langchain.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain.chains import ConversationChain
from langchain.memory import ConversationBufferMemory

print("AI Assistant Pribadi Anda telah aktif. Ketik 'keluar' untuk berhenti.")

# Inisialisasi model dari Ollama. Ganti dengan model yang Anda inginkan.
# Pastikan model ini sudah Anda 'pull' dengan `ollama run <nama_model>`
llm = Ollama(model="mistral") 

# Membuat memori untuk menyimpan riwayat percakapan
# `return_messages=True` penting agar bisa digunakan di prompt template
memory = ConversationBufferMemory(return_messages=True)

# Membuat prompt template yang mendukung riwayat percakapan
# `MessagesPlaceholder` adalah tempat di mana LangChain akan menyisipkan riwayat chat
prompt_template = ChatPromptTemplate.from_messages([
    ("system", "You are a helpful AI assistant."),
    MessagesPlaceholder(variable_name="history"),
    ("human", "{input}")
])

# Membuat "rantai" (chain) percakapan
# Ini menggabungkan prompt, model, dan memori
conversation_chain = ConversationChain(
    llm=llm,
    prompt=prompt_template,
    memory=memory,
    verbose=True # Set ke True untuk melihat apa yang terjadi di balik layar
)

# Loop untuk percakapan interaktif
while True:
    user_input = input("Anda: ")
    if user_input.lower() == 'keluar':
        print("Sampai jumpa!")
        break
    
    # Menjalankan chain dengan input pengguna
    response = conversation_chain.predict(input=user_input)
    print("AI:", response)

Cara Menjalankan: Buka terminal Anda, pastikan virtual environment aktif, lalu jalankan:

python main.py

Coba ajukan pertanyaan, lalu ajukan pertanyaan lanjutan yang merujuk pada jawaban sebelumnya. Anda akan melihat bahwa AI-nya “ingat” percakapan Anda!


5. Langkah 3: Memberikan Wajah dengan Antarmuka Web

Membuat API sederhana adalah langkah selanjutnya untuk menghubungkan asisten Anda ke antarmuka grafis (GUI) apa pun.

a. Instal FastAPI

pip install fastapi "uvicorn[standard]"

b. Contoh Kode api.py

# api.py
from fastapi import FastAPI
from pydantic import BaseModel
from langchain_community.llms import Ollama

app = FastAPI(title="AI Assistant Lokal API")
llm = Ollama(model="mistral") # Sesuaikan dengan model Anda

class ChatRequest(BaseModel):
    message: str

@app.post("/chat", summary="Kirim pesan ke AI")
async def chat(request: ChatRequest):
    """
    Menerima prompt dari pengguna dan mengembalikan respons dari LLM.
    """
    prompt = request.message
    try:
        response = llm.invoke(prompt)
        return {"response": response}
    except Exception as e:
        return {"error": str(e)}

# Cara menjalankan: uvicorn api:app --reload

Dengan API ini, Anda bisa membuat frontend sederhana menggunakan HTML dan JavaScript (fetch), atau framework favorit Anda seperti Vue, React, atau Svelte untuk menciptakan pengalaman chat yang lebih kaya.


6. Ide Kasus Penggunaan untuk Asisten Lokal Anda

Sekarang Anda memiliki fondasi yang kuat. Berikut beberapa hal yang bisa Anda bangun:

  • AI Penjelas Kode: Buat skrip yang mengambil file kode, mengirimkannya ke AI, dan meminta penjelasan baris per baris.
  • Penerjemah Prompt: Minta AI untuk menerjemahkan ide prompt sederhana dalam Bahasa Indonesia menjadi prompt yang kaya dan detail dalam Bahasa Inggris untuk Midjourney.
  • Asisten Brainstorming: Atur system prompt menjadi “Kamu adalah seorang creative director yang selalu memberikan ide-ide out-of-the-box” untuk membantu Anda mencari ide konten.
  • Rangkuman Dokumen: Buat alat yang bisa merangkum file PDF atau teks panjang yang ada di folder lokal Anda (ini adalah langkah selanjutnya yang melibatkan LangChain dan document loaders).

7. Kesimpulan: Kekuatan AI Kini di Tangan Anda

Membangun AI Assistant pribadi kini bukan lagi hal yang mustahil. Dengan alat open-source seperti Ollama dan LangChain, batasan teknis dan biaya telah dihilangkan. Anda tidak lagi hanya menjadi pengguna, tetapi juga menjadi pencipta dan pengontrol teknologi AI Anda sendiri.

Dengan menggunakan model yang dioptimalkan untuk Bahasa Indonesia seperti Sahabat-AI, Anda bisa membangun solusi AI yang benar-benar:

  • Lokal: Aman dan selalu tersedia.
  • Fleksibel: Disesuaikan untuk kebutuhan spesifik Anda.
  • Gratis: Tanpa biaya tersembunyi.

Sekarang giliran Anda. Sudah coba membangun AI lokal Anda sendiri? Ceritakan pengalaman atau proyek Anda di kolom komentar

Diskusi

Lanjutkan Membaca