🏠 Ana Sayfa 📖 Sözlük 💬 Doküman asistanı
Ana sayfaPlatform & AltyapıDataiku: Genel Bakış

📈Dataiku LLM Mesh ve Analitik

Dataiku, Komtaş'ın merkezi analitik ve LLM yönetim platformudur. LLM Mesh, farklı AI sağlayıcılarını tek bir governance katmanı altında birleştirmektedir.

7.1 LLM Mesh Konfigürasyonu

ÖzellikAçıklamaKomtaş Konfigürasyonu
Multi-Model RoutingGöreve göre otomatik model seçimiHaiku (yüksek hacim) → Sonnet (standart) → Opus (kritik)
Fallback ChainModel başarısız olursa alternatifClaude → GPT-4o → Gemini Pro
Rate LimitingKullanıcı/departman bazlı limit100 req/min kullanıcı, 1000 req/min departman
Cost ControlBütçe limitleri ve uyarılarGünlük $50/kullanıcı, aylık $2000/departman
Audit TrailTüm LLM çağrılarının kaydıLangfuse entegrasyonu

7.2 Dataiku ile Güvenli PoC Geliştirme

📌 PoC Checklist
Dataiku'da bir AI PoC geliştirirken aşağıdaki adımları takip edin:
  1. Veri Hazırlama: Dataset'i Dataiku'ya yükle, PII taraması yap (Presidio entegrasyonu), veri kalitesi kontrolleri
  2. Prompt Studio: Prompt'ları Prompt Studio'da geliştir ve A/B test et, versiyonla
  3. LLM Mesh Bağlantısı: İzin verilen model listesinden seç, cost estimate'i gör, API Gateway üzerinden çağır
  4. RAG Pipeline: Qdrant koleksiyonu bağla, chunk stratejisi belirle, RAGAS ile değerlendir
  5. Agent Hub: Agent tanımla, araçları kaydet, iş akışını test et
  6. Responsible AI Check: Bias testi çalıştır, fairness metrikleri kontrol et, model kartı doldur
  7. Güvenlik İncelemesi: Guardrail konfigürasyonunu doğrula, pen test için red team talebi oluştur
  8. Üretim Onayı: RAGAS kalite kapısını geç, güvenlik ekibi onayı al, deployment kararı
import dataiku
from dataiku.llm import LLMClient

# Dataiku LLM Mesh üzerinden model erişimi
def get_llm_client(model_tier: str = "standard") -> LLMClient:
    """
    LLM Mesh üzerinden model al
    model_tier: "economy" | "standard" | "premium"
    """
    project = dataiku.api_client().get_project("KOMTAS_COPILOT")
    
    model_mapping = {
        "economy": "claude-haiku-connection",    # claude-haiku-4-5
        "standard": "claude-sonnet-connection",   # claude-sonnet-4-6
        "premium": "claude-opus-connection"        # claude-opus-4-6
    }
    
    llm_id = model_mapping.get(model_tier, "claude-sonnet-connection")
    return project.get_llm(llm_id)

# Prompt Studio versiyonlama
def get_versioned_prompt(prompt_name: str, version: str = "production") -> str:
    project = dataiku.api_client().get_project("KOMTAS_COPILOT")
    prompt = project.get_prompt(prompt_name, version=version)
    return prompt.get_template()

# RAG recipe
def run_rag_recipe(query: str, collection: str) -> str:
    """Dataiku üzerinden Qdrant RAG pipeline"""
    llm = get_llm_client("standard")
    
    # Retrieval
    contexts = retrieve_from_qdrant(collection, query)
    
    # Generation
    response = llm.new_completion().with_messages([
        {"role": "system", "content": get_versioned_prompt("rag-system-prompt")},
        {"role": "user", "content": f"Bağlam:\n{contexts}\n\nSoru: {query}"}
    ]).execute()
    
    return response.text
📌 Kod Notları
  • LLM Mesh: Dataiku'nun tüm LLM sağlayıcılarını tek API arkasına çektiği soyutlama katmanıdır. Model değiştirmek için yalnızca get_llm()'e verilen ID'yi güncellemek yeterlidir; uygulama kodu değişmez.
  • new_completion(): Hem streaming hem de tek seferlik yanıt modunu destekler. Üretim ortamında with_structured_output=True ile Pydantic model doğrulaması eklemek yanıt güvenilirliğini artırır.
  • temperature=0: Deterministik (tekrar üretilebilir) çıktı için kullanılır. Sınıflandırma ve veri çıkarma görevlerinde 0; yaratıcı görevlerde 0.7–1.0 önerilir.