A rekurrens neurális hálózatok (RNN) olyan típusú neurális hálózatok, amelyek képesek kezelni időbeli függőségeket és sorozatos adatokat. A hagyományos neurális hálózatokkal ellentétben a RNN-k emlékeznek az előző lépések során feldolgozott információkra, és ezáltal lehetővé teszik a kontextus alapú tanulást és előrejelzést.
A RNN-kben a neuronok olyan visszacsatolt kapcsolatokkal rendelkeznek, amelyek lehetővé teszik az előző időpillanatokban feldolgozott információk áramlását a jelenlegi időpillanatba. Ez a belső állapot (hidden state) lehetővé teszi a hálózatnak, hogy megtartsa az időbeli kontextust és az előző lépések információit.
A RNN struktúrája megengedi, hogy bemeneti adatokat sorban feldolgozzon, például szekvenciális adatokat vagy idősorokat. Az idősorok során a RNN-nek képesnek kell lennie az időbeli dinamikák vagy mintázatok felismerésére és tanulására. Emiatt a RNN-k széles körben alkalmazhatók olyan feladatokban, mint a beszédfelismerés, szöveggenerálás, gépi fordítás, idősorok előrejelzése és sok más.
A RNN-k tanítása hasonló a többi neurális hálózathoz. Az adatokat több időpillanaton keresztül táplálják be a hálózatba, és az algoritmus a bemeneti adatok és a kívánt kimenetek közötti hibát minimalizálja a súlyok finomhangolásával. Az időbeli visszacsatolás és az előző lépések információinak figyelembevétele segíti a hálózatokat abban, hogy megtanulják az időbeli folyamatokat vagy sorozatokat.
A hagyományos RNN-eknek azonban van egy korlátja, amelyet az ún. „rövid távú függőség probléma” jelent. Ez azt jelenti, hogy a hálózatok nehezen tudnak hosszabb időbeli függőségeket vagy információkat tárolni. Ennek kiküszöbölésére fejlesztették ki a hosszú rövid távú memóriával (Long Short-Term Memory, LSTM) és a Gated Recurrent Unit (GRU) típusú hálózatokat, amelyek hatékonyan kezelik ezt a problémát és lehetővé