Saját termék · AI integráció

Kokó AI Platform — Saját AI ügyfélszolgálati ökoszisztéma

Miért építettünk saját AI ügyfélszolgálati platformot, amikor a piacon van tucatnyi chatbot? Mert egyik sem volt magyar, GDPR-konform, és egyik sem érte el a 3 másodperces válaszidőt költséghatékonyan. Ez az út a nullától a termelésig.

75%
API-költség csökkentés
<3s
Válaszidő
24/7
Elérhetőség
10+
Mikroszolgáltatás
PythonGemini 2.0 FlashChatwootDockerPostgreSQLRedisGoogle Calendar APIDiscord.py

A probléma

Magyar KKV-k és nagyvállalatok folyamatosan jöttek hozzánk AI chatbot kéréssel. A piacon elérhető megoldások (Intercom, Drift, ChatBot.com) 3 problémát produkáltak:

  1. Nyelvi minőség: magyarul akadozó, néha hibás válaszokat generáltak.
  2. GDPR-kockázat: US-szervereken tároltak ügyféladatot → potenciális bírság.
  3. Költség: egy aktív widget havi 50-150 e Ft-ba került API-hívások miatt, nagy cégeknek több százezer.

Az ügyfelek nem akartak kompromisszumot — mi megoldást. Így született meg a Kokó.

A megoldás — Kokó architektúra

A Kokó egy Python alapú mikroszolgáltatás-architektúra, Gemini 2.0 Flash AI motorral. Kulcsinnováció a saját Gemini Context Caching réteg: ismétlődő tudásbázis-elemeket cache-elünk, csak az ügyfélspecifikus részt küldjük a Gemini-nek.

Ez a cache-layer adta a 75%-os költségcsökkentést. Egy tipikus ügyfélkérdés token-köre: 3000 token (tudásbázis) + 100 token (kérdés). Ebből a 3000 token-ből 2500 ismétlődik más kérdésekben is — ezt mi cacheeljük 30 napig. Csak a 500 token kerül ténylegesen újra a Gemini-hez.

Főbb komponensek

Fejlesztési timeline

1. hét — Discovery

BMAD Business Discovery: pontos KPI-ok, architektúra, adatfolyam-tervezés

2-3. hét — Core chat engine

Gemini integráció, Chatwoot-widget, alap konverzáció-flow

4. hét — Context Caching

A legkritikusabb rész: a cache-layer fejlesztése és benchmarking

5. hét — Integrációk

Email, Discord, Google Calendar, időpontfoglaló UI

6. hét — Admin + Analytics

Tudásbázis-kezelő felület, dashboard, konfigurációs eszközök

7-8. hét — Finomhangolás + pilot

2 ügyfélnél élesítés, adatok alapján optimalizálás

Kihívás: a „Mi volt a rendelésem?" probléma

Az első pilot során egy ügyfelünknél (webshop) a Kokó meglepő hibát produkált: amikor egy vevő megkérdezte „mi a rendelésem státusza", a bot random válaszolt, hogy „kiszállítás alatt" — de valójában nem ellenőrizte a rendelést.

A gyökérok: a Gemini hallucinált, mert nem volt function calling implementálva a rendelés-adatokhoz. Ezt megoldandó beraktuk a function calling réteget (Tool use), amely a Gemini kérésére a backend lekérdezi a tényleges rendelést.

Tanulság: bármennyire jó egy LLM, ha nincs deterministic adat-hozzáférése, hallucinálni fog. A Tool/Function Calling nem opcionális — kritikus.

Az eredmény — számokkal

Mit adott ez az ügyfeleinknek

A Kokó-val felvérteződő ügyfelek jellemzően:

„A Kokó indulása óta a support team már tud a panaszokkal foglalkozni, nem az egyszerű kérdésekkel. Egyszerűen jobb helyen tudjuk használni az emberi energiát." — ügyféltámogatási vezető, fintech partner (név anonimizálva NDA miatt)

Tanulságok a MyForge Labs-nak

A Kokó építése volt az első nagyobb BMAD-módszeres projektünk. Amit tanultunk:

  1. A BMAD Architect agent már a tervezésnél felvetette a cache-layer szükségességét. Enélkül 3× drágább lenne most a termék.
  2. A QA agent szisztematikus pre-mortem-je 4 kritikus bug-ot megelőzött (pl. a fenti hallucinált „rendelés státusz" problémát mi már az architektúra szintjén sejtettük).
  3. Saját termék = több szabadság, de több belső prioritás-harc is. A Product Owner agent sokat segített a „mit NE csináljunk most" kérdésben.

A Kokó jelenleg 5 aktív ügyfélnél fut, havi 150 000+ üzenetet kezel. 2026 végéig 15-20 ügyfélre célzunk.

Szeretnéd a Kokót a cégednél kipróbálni?

2 hetes pilot, ingyenes — ha beválik, marad; ha nem, kiszállsz semmi kötelezettség nélkül.

Kapcsolódó oldalak