Ana sayfa ›
Platform & Altyapı ›
Dataiku: Genel Bakış
📈Dataiku LLM Mesh ve Analitik
Dataiku, Komtaş'ın merkezi analitik ve LLM yönetim platformudur. LLM Mesh, farklı AI sağlayıcılarını tek bir governance katmanı altında birleştirmektedir.
7.1 LLM Mesh Konfigürasyonu
| Özellik | Açıklama | Komtaş Konfigürasyonu |
|---|---|---|
| Multi-Model Routing | Göreve göre otomatik model seçimi | Haiku (yüksek hacim) → Sonnet (standart) → Opus (kritik) |
| Fallback Chain | Model başarısız olursa alternatif | Claude → GPT-4o → Gemini Pro |
| Rate Limiting | Kullanıcı/departman bazlı limit | 100 req/min kullanıcı, 1000 req/min departman |
| Cost Control | Bütçe limitleri ve uyarılar | Günlük $50/kullanıcı, aylık $2000/departman |
| Audit Trail | Tüm LLM çağrılarının kaydı | Langfuse entegrasyonu |
7.2 Dataiku ile Güvenli PoC Geliştirme
📌 PoC Checklist
Dataiku'da bir AI PoC geliştirirken aşağıdaki adımları takip edin:
- Veri Hazırlama: Dataset'i Dataiku'ya yükle, PII taraması yap (Presidio entegrasyonu), veri kalitesi kontrolleri
- Prompt Studio: Prompt'ları Prompt Studio'da geliştir ve A/B test et, versiyonla
- LLM Mesh Bağlantısı: İzin verilen model listesinden seç, cost estimate'i gör, API Gateway üzerinden çağır
- RAG Pipeline: Qdrant koleksiyonu bağla, chunk stratejisi belirle, RAGAS ile değerlendir
- Agent Hub: Agent tanımla, araçları kaydet, iş akışını test et
- Responsible AI Check: Bias testi çalıştır, fairness metrikleri kontrol et, model kartı doldur
- Güvenlik İncelemesi: Guardrail konfigürasyonunu doğrula, pen test için red team talebi oluştur
- Üretim Onayı: RAGAS kalite kapısını geç, güvenlik ekibi onayı al, deployment kararı
import dataiku
from dataiku.llm import LLMClient
# Dataiku LLM Mesh üzerinden model erişimi
def get_llm_client(model_tier: str = "standard") -> LLMClient:
"""
LLM Mesh üzerinden model al
model_tier: "economy" | "standard" | "premium"
"""
project = dataiku.api_client().get_project("KOMTAS_COPILOT")
model_mapping = {
"economy": "claude-haiku-connection", # claude-haiku-4-5
"standard": "claude-sonnet-connection", # claude-sonnet-4-6
"premium": "claude-opus-connection" # claude-opus-4-6
}
llm_id = model_mapping.get(model_tier, "claude-sonnet-connection")
return project.get_llm(llm_id)
# Prompt Studio versiyonlama
def get_versioned_prompt(prompt_name: str, version: str = "production") -> str:
project = dataiku.api_client().get_project("KOMTAS_COPILOT")
prompt = project.get_prompt(prompt_name, version=version)
return prompt.get_template()
# RAG recipe
def run_rag_recipe(query: str, collection: str) -> str:
"""Dataiku üzerinden Qdrant RAG pipeline"""
llm = get_llm_client("standard")
# Retrieval
contexts = retrieve_from_qdrant(collection, query)
# Generation
response = llm.new_completion().with_messages([
{"role": "system", "content": get_versioned_prompt("rag-system-prompt")},
{"role": "user", "content": f"Bağlam:\n{contexts}\n\nSoru: {query}"}
]).execute()
return response.text
📌 Kod Notları
- LLM Mesh: Dataiku'nun tüm LLM sağlayıcılarını tek API arkasına çektiği soyutlama katmanıdır. Model değiştirmek için yalnızca
get_llm()'e verilen ID'yi güncellemek yeterlidir; uygulama kodu değişmez. - new_completion(): Hem streaming hem de tek seferlik yanıt modunu destekler. Üretim ortamında
with_structured_output=Trueile Pydantic model doğrulaması eklemek yanıt güvenilirliğini artırır. - temperature=0: Deterministik (tekrar üretilebilir) çıktı için kullanılır. Sınıflandırma ve veri çıkarma görevlerinde 0; yaratıcı görevlerde 0.7–1.0 önerilir.