1 of 15

MÉLY GÉPI TANULÁS (DEEP LEARNING)

2 of 15

NEURÁLIS HÁLÓZATOK

  • A mély gépi tanulás (Deep Learning) a gépi tanulási technikák egy alcsoportja, amiben mesterséges neurális hálózatokat (Neural Networks) használunk. 

3 of 15

NEURÁLIS HÁLÓZATOK

A mesterséges neurális hálózatok a biológiai idegrendszer (pl. az emberi agy) információfeldolgozásának működését próbálják utánozni.

4 of 15

NEURÁLIS HÁLÓZATOK

Nagyszámú, erősen összefüggő, együttműködő processzáló elemek, a neuronok végzik a számítások alapegységeit. Egy neuron az x bemeneti értékek w-vel súlyozott lináris kombinációját számolja ki, majd egy nem-lineáris f aktivációs függvényt alkalmaznak. Azaz egy neuron y kimeneti értéke:

5 of 15

NEURÁLIS HÁLÓZATOK

A neurális hálózatok a neuronok ún. rétegeiből (layer) épülnek fel. Az információ csak rétegről rétegre, egy irányba, előre (forward), a bemeneti rétegtől (input layer) a kimeneti réteg (output layer) felé, vagy hátrafelé (backward), a kimeneti rétegtől a bemeneti felé terjedhet. Csak az egymást követő rétegek közt vezetnek élek, egy rétegen belül, réteget "átugorva" nem vezetnek élek.

6 of 15

NEURÁLIS HÁLÓZAT TANÍTÁSA

A neurális háló tanításánál a cél a w élsúlyok beállítása, úgy hogy a legutolsó, kimeneti rétegen a neuronok értéke a lehető legközelebb kerüljön az elvárt értékekhez, azaz minimalizáljuk a hibát (loss function).

7 of 15

NEURÁLIS HÁLÓZAT TANÍTÁSA

A neurális hálók tanítása ún. online gépi tanulási módon történik, ami azt jelenti, hogy egyetlen tanítópéldával tudjuk frissíteni a w súlyokat. Ehhez az aktuális súlyokkal (=modellel) predikálunk, kiszámoljuk a hibát majd a kimenetről visszafelé terjesztjük/elosztjuk a hibát a megelöző réteg neuronjai közt (backpropagation).

8 of 15

NEURÁLIS HÁLÓZAT TANÍTÁSA

Mivel a tanító példák sorrendje nem számít, ezért általában összekeverjük azokat és egyessével adjuk be a tanuláshoz. Ahhoz, hogy a (nagyon) sok súlyt be tudjuk kalibrálni, általában többször végigmegyünk a tanító adatbázisunk példáin. Epochnak hívjuk azt amikor a tanító adatbázisunk összes példáját egyszer odaadtuk a tanításhoz.

9 of 15

MÉLY GÉPI TANULÁS

A mély gépi tanulás (deep learning) olyan neurális hálózatokat jelent, amelyekben több rejtett réteg található, azaz "mély".

10 of 15

MÉLY GÉPI TANULÁS

Az intuíció a több rejtett réteg mögött az, hogy minden réteg egy másfajta, egyre absztraktabb reprezentációját képes adni a bemeneti adatnak.

11 of 15

MÉLY GÉPI TANULÁS

Mivel az egyes rétegek különböző reprezentációt adnak, ezért kiindulhatunk nyers adatokból is, nincs szükség jellemzőkinyerésre, hiszen az alsóbb rétegek felfoghatóak úgy, mint nyersadatból jellemzőkinyerés és - a klasszikus gépi tanulási módszerekkel szemben - itt nem kell kézzel jellemzőket definiálnunk, a háló megtanulja azokat.�

12 of 15

MÉLY GÉPI TANULÁS

13 of 15

KONVOLÚCIÓS HÁLÓZATOK

Egy tömörítési trükk a konvolúciók használata. A Konvulúciós Neurális Hálózatok (Convolutional Neural Networks, CNN) egy olyan speciális hálózat, amiben mozgó ablakokkal/szűrőkkel tömörítjük a bemeneti információt.

Az ablakok megosztják a w súlyaikat, azaz ugyanazokat a súlyokat tanuljuk a rejtett réteg minden egyes neuronjához, ezzel drasztikusan csökkentve a tanulandó súlyok számát.

14 of 15

Neural Network

https://www.youtube.com/watch?v=aircAruvnKk&t=649s&ab_channel=3Blue1Brown

15 of 15

Titkos

Tisztelt Kutatók!��A MILab online szeminárium sorozat következő előadásának időpontja:�2023. február 1, szerda, 16:00��Az előadást Molontay Roland, Nagy Marcell és Pintér József tartja (BME Természettudományi Kar, HSDSLab), címe:��Értelmezhető gépi tanulás és alkalmazása a felsőoktatásban és az orvostudományban��Az előadás összefoglalója:�A legkorszerűbb gépi tanulási modellek (pl. mély neurális hálózatok, boosting algoritmusok) általában sokkal jobb prediktív teljesítmény elérésére képesek, mint egyszerűbb társaik (pl. lineáris regresszió, döntési fa). Ugyanakkor a bonyolult modellek használatával sokat veszítünk a modellek átláthatóságából, interpetálhatóságából, ami sok esetben gátat szab a "fekete dobozként" működő modellek valós alkalmazhatóságának. Az elmúlt években éppen ezért sok figyelem irányult az értelmezhető gépi tanulásra és a megmagyarázható mesterséges intelligenciára (XAI: eXplainable Artificial Intelligence).Az előadásban bemutatunk néhány olyan technikát, amellyel a fekete doboz módszerek, különösen a neurális hálók eredményei is jobban értelmezhetővé válnak (SHAP, LIME, layer-wise relevance propagation, integrated gradient method). Továbbá megmutatjuk, hogy a BME Human and Social Data Science Laboratóriumban hogyan használtunk különböző XAI technikákat az egyetemi lemorzsolódás és különböző betegségek súlyosságának korai azonosítására.��A szemináriumot teams környezetben rendezzük meg, a csatlakozáshoz szükséges link az alábbi:�https://teams.microsoft.com/l/meetup-join/19%3ameeting_Mzc2MTAwZmEtMWI1MC00MWQ3LWI1MzMtODhkMTg0ZjBmNTU1%40thread.v2/0?context=%7b%22Tid%22%3a%226a3548ab-7570-4271-91a8-58da00697029%22%2c%22Oid%22%3a%226fde4801-a4ed-4075-b609-906d96729a61%22%7d