Ugrás a fő tartalomhoz
UseAIEasily Logó
UseAIEasily
Fogalomtár

AI fogalomtár — magyarul

Budapesti AI mérnöki nézőpontból: minden fontos AI, LLM, RAG és generatív AI fogalom egyszerűen, magyarul. Hivatkozd, ha egy ügyfélnek kell megmagyaráznod.

Fogalmak
29
Nyelv
3
Frissítve
2026

Olyan számítógépes rendszerek, amelyek ember-szerű feladatokat végeznek: nyelvet értenek, képeket elemeznek, döntéseket hoznak.

Az AI (mesterséges intelligencia) gyűjtőfogalom: minden olyan szoftverrendszer, amely emberi kognitív képességeket próbál reprodukálni. Ma a gyakorlatban legtöbbször LLM-alapú rendszerekre utalunk — ChatGPT, Claude, Gemini. A magyar vállalati környezetben az AI elsősorban automatizáció, ügyféltámogatás és döntéstámogatás területén hasznos.

Hatalmas szöveges adathalmazon tanított neurális háló, amely természetes nyelven generál választ.

Az LLM (Large Language Model) több milliárd paraméteres neurális háló, amelyet trillió nagyságrendű szöveges tokenen tanítanak. Példák: GPT-4, Claude, Llama. A modell nem tudás-adatbázis, hanem mintázat-generátor — ezért kell RAG-gal vagy fine-tuninggal kombinálni vállalati használatra.

Olyan architektúra, amely a prompthoz releváns dokumentumrészleteket is hozzácsatol a vektor-keresés alapján.

A RAG (Retrieval-Augmented Generation) a szabvány módszer arra, hogy az LLM-et a saját vállalati adatodhoz kösd. Lépések: 1) dokumentumok embedding-vektorrá alakítása, 2) vektor-adatbázisba mentés, 3) minden kérdésnél a leghasonlóbb részletek kikeresése, 4) ezeket az LLM-nek küldése a prompt részeként. A RAG pontosabb és naprakészebb választ eredményez, mint puszta prompt engineering.

Autonóm LLM-alapú rendszer, amely tool-okat hív meg, döntéseket hoz és feladatokat végez el.

Az AI ügynök a chatbottól abban különbözik, hogy nemcsak szöveget generál, hanem cselekszik: API-kat hív, adatbázist olvas, emailt küld, dokumentumot készít. Orchestráció jellemzően LangGraph, CrewAI vagy OpenAI Assistants alapokon történik. Production ügynököknél mindig tool-permission model, cost-limit és human-in-the-loop kontroll szükséges.

Több specializált AI ügynök együttműködése egy közös feladaton.

A multi-agent rendszerekben különböző szerepkörű ügynökök osztoznak a munkán — pl. tervező, végrehajtó, ellenőrző. A supervisor-pattern és a planner-executor-pattern a leggyakoribb. Komplex, több lépéses feladatoknál jobban teljesítenek, mint egyetlen nagy ügynök, de jóval nehezebb őket debuggolni és kontrollálni.

Az LLM-nek adott utasítás tudatos tervezése a kívánt kimenet eléréséhez.

A prompt engineering magában foglalja a szerep meghatározását (system prompt), few-shot példákat, strukturált kimenet előírását (JSON schema), iterációt és tesztelést. Egy jó prompt 3–5x pontosabb kimenetet adhat, mint egy rossz. A prompt engineering a legolcsóbb első beavatkozás fine-tuning előtt.

Egy már előtanított LLM további tanítása saját adathalmazon, meghatározott feladatra.

A fine-tuning során egy base modellt (pl. Llama 3.1, GPT-4o-mini) saját adataid alapján specializálsz. Módszerek: LoRA (könnyű, olcsó), full fine-tune (drágább, erősebb). Tipikus use-case: domain terminológia, márkahang, strukturált output stabilitása. Nem helyettesíti a RAG-ot — inkább kombinálódik vele.

Olyan adatbázis, amely embedding-vektorokat tárol és hasonlóság alapján keres.

A vektor-adatbázisok (Pinecone, Qdrant, Weaviate, pgvector) az embedding-vektorok milliárdjain végeznek gyors hasonlósági keresést. A RAG pipeline-ok alapköve. Választási szempontok: managed vs self-host, EU vs US régió, hybrid search támogatás, skálázhatóság.

Szöveg numerikus vektorrá alakítása, amely megőrzi a jelentést.

Az embedding egy 768–3072 dimenziós vektor, amely egy szövegdarab jelentését reprezentálja. Hasonló jelentésű szövegek közel kerülnek egymáshoz a vektor-térben. Főbb szolgáltatók: OpenAI (text-embedding-3), Voyage, Cohere, open-source (BGE, E5). Az embedding-modell választása 5-15%-ot is számíthat a RAG pontosságában.

Rosszindulatú bemenet, amely felülírja az LLM eredeti utasítását.

A prompt injection a leggyakoribb AI biztonsági sebezhetőség. Példa: a felhasználó beírja 'ignore previous instructions and...' — az LLM követheti. Védekezés: input validálás, instruction hierarchy, output guardrailok, limitált tool access, prompt-level sandboxing.

Bemenet- vagy kimenet-ellenőrző réteg, amely megakadályozza a nem kívánt AI viselkedést.

A guardrail lehet szabályalapú (regex, block-lista), ML-alapú (toxicitás-, PII-detektor) vagy LLM-alapú (judge modell). Tipikus alkalmazások: PII redaction, toxicitás-szűrés, témán kívüli kérdések elutasítása, output formátum validálás.

Személyes adatok (név, email, TAJ) eltávolítása az LLM prompt előtt.

A PII redaction elengedhetetlen GDPR-kompatibilis AI rendszereknél. Megvalósítható regex-szel, ML alapú NER modellel, vagy dedikált szolgáltatásokkal (Presidio, Nightfall). A redaction a prompt ELŐTT történik, így semmi érzékeny adat nem jut el az LLM providerhez.

Szerep alapú jogosultság-kezelés — AI rendszerekben tool-hozzáférésre és adatláthatóságra alkalmazva.

Az AI-val kiegészített RBAC azt szabályozza, hogy melyik felhasználói szerep melyik tool-t hívhatja, és milyen adatokat láthat a RAG-ban. Kritikus multi-tenant és regulated környezetben. Implementáció: middleware a prompt előtt + post-filter az LLM kimenetén.

Valós idejű hangalapú AI rendszer, amely beszélgetést folytat és tool-okat hív.

A voice agent kombinálja a speech-to-text (Deepgram, Whisper), LLM és text-to-speech (ElevenLabs, Cartesia) rétegeket. Tipikus platformok: Vapi, LiveKit, Retell. Latencia kulcsfontosságú — <500ms alatt kell tartani a teljes ciklust ahhoz, hogy természetes legyen.

Az LLM által egyszerre feldolgozható token-ek maximális száma.

A context window az input + output együttes mérete. GPT-4: 128k token. Claude Sonnet 4.6: 1M token. Gemini 2.5 Pro: 2M token. Nagyobb context = több dokumentum betehető a promptba, de drágább és lassabb. A context caching (Anthropic, OpenAI) 90%-kal csökkentheti az ismételt prompt költségét.

Amikor az LLM magabiztosan valótlan információt generál.

A hallucináció abból fakad, hogy az LLM valószínűségi mintázat-generátor, nem tudás-tár. Csökkentése: RAG (forrás-kötött válaszok), citation tracking, fact-check layer, human review. A GPT-4 és Claude Sonnet 4.6 sokat javult, de nullára nem vihető le — ezért kritikus use-case-nél mindig human-in-the-loop kell.

Az LLM-ben a szöveg egysége, nagyjából 0,7 szó.

Az LLM-ek tokenekben számolnak. 1000 token ≈ 700 szó (angol) vagy 500 szó (magyar, mert a magyar szavak ragozottabbak). Az árazás tokenenként történik: Claude Sonnet ~$3/millió input token, ~$15/millió output token 2026-ban.

Anthropic által kifejlesztett szabványos protokoll, amely az LLM-ek és külső tool-ok közötti kommunikációt egységesíti.

Az MCP (Model Context Protocol) lehetővé teszi, hogy egyszer megírt tool-szerver-t több LLM kliens (Claude Desktop, Claude Code, saját agent) használjon. 2025-ben vált iparági szabvánnyá. Alternatíva az egyedi function calling-nak.

Az LLM kontextusának tudatos tervezése — nem csak a prompt, hanem az egész input rétegzése.

A context engineering a prompt engineering evolúciója: szisztematikusan építjük fel, mi kerüljön az LLM kontextusába (system prompt, few-shot, RAG chunk-ok, tool definíciók, prior conversation). Különösen fontos long-context modelleknél.

AI rendszerek védelme prompt injection, adatkiszivárgás és egyéb támadások ellen.

Az AI biztonság 4 fő rétege: input validáció (prompt injection), output guardrailek (PII, toxicitás), hozzáférés-kontroll (RBAC, tool permission), és audit (logging, monitoring). Regulated szektorban kötelező compliance layer (DORA, MDR, GDPR).

Üzleti folyamatok AI-vezérelt automatizálása — ügyféltámogatás, dokumentumfeldolgozás, email.

Az AI automatizáció túlmutat a klasszikus RPA-n: az LLM képes kontextusfüggő döntést hozni, nem csak scriptet futtatni. Tipikus use-case-ek: ügyféltámogatás magyar nyelven, termékleírás generálás, email triage, pénzügyi jelentés automatizálás.

EU rendelet, amely a pénzügyi intézmények IT- és AI-rendszereinek ellenálló képességét szabályozza.

A DORA 2025-től kötelező EU-s szintű szabályozás: banki AI-rendszerek incidens-jelentési, kockázatkezelési és vendor management követelményei. Budapest központú AI fejlesztő cégek dolgozhatnak ilyen ügyfeleknek, feltéve hogy teljes dokumentációs és audit trail van.

A magyar adatvédelmi hatóság, amely a GDPR betartását ellenőrzi.

A NAIH értesítési kötelezettség, adatkezelési nyilvántartás és adatvédelmi incidens-bejelentés szabályait felügyeli Magyarországon. AI rendszereknél különösen a közjogi érintettség, profilozás és automatizált döntéshozatal kérdései kerülnek a hatóság látókörébe.

Olyan AI, amely új tartalmat hoz létre — szöveget, képet, hangot, kódot.

A generatív AI (GenAI) az AI azon ága, amely új kimenetet generál, nem pedig meglévőt osztályoz vagy megjósol. Főbb családok: LLM (szöveg), diffúziós modellek (kép, videó), TTS (hang), kód-modellek. A magyar GenAI piac 2023 óta robbanásszerűen nő.

Egy nagy modell 'tudásának' átültetése egy kisebb, gyorsabb modellbe.

A distillation során a nagy 'tanár' modell kimenetein tanítjuk a kisebb 'diák' modellt. Eredmény: 80-90%-os minőség 10%-os költségen és 5x gyorsabb válaszidővel. OpenAI, Anthropic és Google egyaránt kínálnak distilláció workflow-kat.

AI rendszer teljesítményének mérése — pontosság, gyorsaság, költség, toxicitás.

Az AI evaluation kulcsa a custom eval suite: nem elég a loss vagy a 'gépileg mért pontosság', hanem a valós üzleti metrika kell. Eszközök: LangSmith, Langfuse, Promptfoo, Ragas. Production előtt mindig kell A/B teszt a base modellhez képest.

Néhány példát beletenni a promptba, hogy az LLM a mintázatot kövesse.

A few-shot prompting 1-5 konkrét input-output példát mutat be, és az LLM azt a stílust követi. Gyakran hatékonyabb, mint a fine-tuning, különösen ha stabil formátumot kell tartani (JSON, XML) vagy speciális hangvételt (magyar márkahang, jogi stílus).

LLM-vel vezérelt iteratív kódolás, ahol a fejlesztő leírja az igényt és az AI generálja a kódot.

A vibe coding népszerű megnevezés arra, amikor Cursor, Claude Code vagy hasonló AI-asszisztens a fejlesztési idő 30-70%-át teszi ki. Ma 2026-ban minden produktív AI mérnök használja; a kérdés nem az 'igen/nem', hanem hogy milyen workflow-val.

Az AI rendszerek megfelelése jogi, adatvédelmi és etikai követelményeknek.

EU-ban három fő réteg: GDPR (személyes adatok), DORA (pénzügyi rezisztencia), EU AI Act (2026-ra teljes hatályban — magas kockázatú AI rendszerekre vonatkozó követelmények). Magyar rétegek: NAIH szabályozás, MNB pénzügyi vendor management.

Kapcsolódó tartalom