Szabálytávolság alapú szabálybázis redukció a szakértői tudásbázissal bővített FRIQ-learning környezetben

Szerzők

DOI:

https://doi.org/10.35925/j.multi.2022.1.8

Kulcsszavak:

megerősítéses tanulás, heurisztikusan gyorsított megerősítéses tanulás, szakértői tudásbázis, tudásbázis csökkentés, Q-learning, fuzzy Q-learning

Absztrakt

A szakértői tudásbázissal bővített fuzzy szabály-interpoláció alapú Q-learning (FRIQ-learning) megerősítéses tanulási rendszerben a szakértői által definiált tudásbázis a tanulási folyamat során kiegészül a rendszer által létrehozott fuzzy szabályokkal. A rendszer a tanulási folyamat során hangolja (és optimalizálja) a tudásbázist leíró fuzzy szabályok antecedensét és konzekvensét is, amely következtében előfordulhat olyan eset, hogy több szabály közel kerül egymáshoz. Az egymáshoz közel kerülő szabályok összevonásával (redukálásával) a rendszer tudásbázisának a mérete csökkenthető. A tudásbázis redukálási módszer a szabályok közötti távolságot (és így a szabályközelség mértékét) az antecedens (állapot-akció) dimenzióban határozza meg. Ez azonban problémát okozhat olyan esetekben mikor a szabályok antecedens univerzumokban közelinek számítanak, azonban a konzekvensükben (Q-érték) nagy eltérés mutatkozik, tehát az általuk leírt Q-függvényben meredek lejtő található. Jelen cikk célja szakértői heurisztikával bővített FRIQ-learning tudásbázis redukálási módszerének kiegészítése (finomítása) olyan módon, hogy az a szabályközelség (és egyben a szabálytávolság) meghatározásánál a szabályok konzekvens (Q-érték) dimenzióját is figyelembe vegye.

##submission.downloads##

Megjelent

2022-07-30