ABCDEFGHIJKLMNOPQRSTUVWXYZ
1
IdőpontElőadó(k)Témavezető
(ha van)
Cím Absztrakt
2
9:00 - 9:15Simon Péter
Zempléni András
Lukács András
BevezetésA mesterséges intelligencia téma az ELTE Matematikai Intézetben, a TKP pályázat és koncepciójának bemutatása
3
9:15 - 9:30Molnár AndrásFekete Imre
Simon Péter
Differenciálegyenletek trajektóriakomponenseinek megtanulásaDifferenciálegyenletek trajektóriakomponenseinek megtanulására ad egy lehetséges megközelítést az úgynevezett adjungált egyenlet, melynek segítségével egy kezdetiérték-probléma paraméterei illeszthetők. Szó lesz a módszer elméleti alapjairól, illetve néhány numerikus példáról.
4
9:30 - 9:45Izsák FerencPDE-ek numerikus megoldása neurális hálókkalAz alapmegdások módszere és a Trefftz-módszer kiválóan alkalmas arra, hogy neurális hálók segítségével implementáljuk. Ennek elveit és részleteit ismertetem.
5
9:45 - 10:00Tóth ÁrpádDirichlet sajátértékproblémák a síkonA Laplace operátor sajátértékei egy síkbeli D tartományon fontos és analitikusan nehezen kezelhető invariánsai D-nek. Az alkalmazások szempontjából sokszor a legkisebb sajátérték a mérvadó. Ezek vizsgálatára a gépi tanulás módszerei új megközelítést adhatnak.
6
10:00 - 10:15Hidy Gábor
Bakos Bence
Lukács AndrásRákos szövetek szegmentálásaOrvosi képfeldolgozási feladatokban gyakori az adathalmaz kiegyensúlyozatlansága és zajos annotációja. Az ezeket ellensúlyozó különböző technikák ötvözésével (módosított mintavételezés, domain-specifikus veszteségfüggvények) próbálunk minél jobb eredményt elérni a feladatunkon, amely célja rákszegmentáció tüdőszöveteken.
7
10:15 - 10:30
8
10:30 - 10:45Vas BernadettLukács AndrásDiabetikus retinopátia osztályozása Konvolúciós neurális hálókkal való klasszifikáláskor nehezítheti a tanulást ha zajosan címkézett az adathalmazunk. A diabetikus retinopátia súlyosság szerinti osztályozásánál erősen jelentkezik ez a probléma, mert a súlyosság szerinti címkézésnél a szomszédos osztályok nagyon hasonlítanak egymásra. Mely súlyossági fokozatot tanulják legnehezebben a hálók? Mennyire számít a kapott eredmények szempontjából, hogy zajos, ámde nagy adathalmazon tanítottuk a modelljeinket?
9
10:45 - 11:00 Károlyi GellértLukács AndrásMűholdfelvétel klasszifikációTermészetes képi feladatokon az (ImageNeten) előtanított hálók jellemzően rövidebb tanítással képesek jobb eredményt produkálni, mint a véletlen súlyokkal inicializált hálók. Speciális adathalmazok esetében, amik nem is hasonlítanak természetes képekre, azonban megoszló tapasztalatok vannak az előtanított súlyok fontosságáról. Mitől függ, hogy javítanak-e az eredményeken? Milyen trükköket lehet bevetni, hogy felhasználhassuk az előtanított súlyokat, ha az adathalmaz dimenziója is más? A BigEarthNet adathalmaz segítségével vizsgáljuk ezeket a jelenségeket.
10
11:00 - 11:15Madarasi Péter
Mihálykó András
Ács Judit
Lukács András
IP solverek gyorsítása gráf konvolúciós hálók segítségévelAz egészértékű programozási feladatok megoldására használt solverek számos heurisztikát felhasználva működnek. Ezek közül némelyik nagyon lassan kiszámítható. Célunk ezen heurisztikák imitálása gráf konvolúciós neurális hálók segítségével, hogy így gyorsítsuk fel a solverek futását.
11
11:15 - 11:45Boros Dániel
Ivkovic Iván
Kovács Dávid
Lukács András
Márkus László
Sztochasztikus folyamatok paraméterbecslése neurális hálók segítségévelVannak olyan sztochasztikus folyamatok, melyeknek ugyan nagy gyakorlati jelentősége van, mégsem ismert rájuk kellően hatékony becslési módszer. Ha azonban egy adott folyamatot tudunk generálni, akkor lényegében végtelen sok tanuló adaton betaníthatunk egy neurális hálót a paraméterek becslésére. Célunk ily módon becslési módszereket konstruálni.
12
11:45 - 12:00Csáji Balázs CsanádKernel módszerek és sztochasztikus garanciáikKernel módszereket széleskörben alkalmaznak a gépi tanulásban, a jelfeldolgozásban és a (nemparametrikus) statisztikában. Tipikus alkalmazásaik az osztályozás, a regresszió és a sűrűségfüggvény becslés. Egy újabb, ígéretes kutatási irány (feltételes) valószínűségi eloszlások reprodukáló magú Hilbert terekbe ágyazása. A jelen kutatás célja egyrészt eloszlás-független, nem-aszimptotikus sztochasztikus garanciák kutatása kernel módszerekhez, másrészt új módszerek kidolgozása, pl., kernel átlag beágyazások empirikus adatokból való rekurzív becslésére.
13
12:00 - 13:00
14
13:00 - 13:15Marton PéterLukács AndrásBiztosítási szerződések törlésének modellezése gépi tanulással és lineáris módszerrelA GLM, Random Forest, Friedman GBM, LGBM, CatBoost módszerek összehasonlítása, beleértve a regressziós és klasszfikációs algoritmust különböző célfüggvényekkel, monotonitási feltétel, kategorikus változók Boosting-optimalizált numerikus átkódolása (továbbiakban PBIN), hibrid modell.
15
13:15 - 13:30Csanády BálintLukács AndrásDilated Convolutional Neural Networks for Lightweight Diacritics RestorationDiacritics restoration has become a ubiquitous task in the Latin-alphabet-based English-dominated Internet language environment. We describe a small footprint 1D dilated convolution-based approach which operates on a character-level. Our solution surpasses the performance of similarly sized models and is also competitive with larger models. A special feature of our solution is that it even runs locally in a web browser.
16
13:30 - 13:45Fischer KornélLukács AndrásFehérjék másodlagos szerkezetének prediktálása Temporal Convolutional Network segítségévelA legjobb módszer a másodlagos fehérje szerkezet megjóslására homológiára épül, ezekkel elérhető akár 84%-os pontosság is. Homológ szekvenciák felhasználása nélkül a legjobb eredményt, 75%-ot Moffat és Jones (2021) S4PRED programja nyújtja. AZ előadásban bemutatom e módszer reprodukálása során és az abban alkalmazott mélytanulási modell lecserélésével kapott eredményinket.
17
13:45 - 14:00Ispánovity PéterMikromechanikai folyamatok előrejelzéseAz anyagok mikroszerkezetében jelenlévő inhomogenitás sztochasztikus deformációs folyamatokhoz vezet, melyek a mikronos mérettartományban jelentős technológiai kihívásokat okoznak. Az előadás során áttekintjük azokat a kísérleti és szimulációs munkáinkat, ahol a gépi tanulási módszerek várhatóan hozzájárulnak majd a mikronos-skálájú viselkedés jobb megértéséhez és előrejelzéséhez.
18
14:00- 14:15Máthé GergelyCsabai IstvánPlazmaszféra diagnosztika konvolúciós neurális hálókkal és transzformersz modellekkelA Föld plazmaszférájában, a mágneses erővonalak mentén az átellenes hemiszférába terjedő villámok jeleinek modulációjából a közeg jellemző fizikai paraméterei meghatározhatóak (elektron suruseg n_eq, L héj L). A probléma megoldásához a spektrogramokon megjelenő whistler jelek szegmentálása majd azok inverziója szükséges. Előbbi feladatot általában kézi annotációval végzik, ami nem skáláz a rendelkezésre álló adatmennyiséggel. Ennek a problémának a megoldására kidolgozott, különböző megközelítéséket alkalmazó módszereinket részletezem előadásomban illetve bemutatom távlati terveinket is.
19
14:15 - 14:30Villányi ViktóriaSziklai PéterAdatbiztonságPKI-t (nyilvános kulcsú infrastruktúrát) nem igénylő biztonságos titkosítások. A jelszóalapú kulcscsere protokollok létrehozása, biztonságának elemzése egy akár diszkrét logaritmus probléma megoldására képes támadó jelenlétében.
20
14:30 - 14:45
21
14:45 - 15:00Backhausz ÁgnesJárványterjedés többrétegű hálózatokonA hálózatkutatás témakörén belül a járványterjedés modellezése napjaink egyik leginkább aktuális kérdése. Ezen belül a többrétegű hálózatokat vizsgálva számos nyitott kérdés van azzal kapcsolatban, hogy milyen információkat kell összegyűjtenünk, ha jó becsléseket szeretnénk készíteni a járványterjedés paramétereiről. Az előadásban az eddig elért eredményeket, további lehetséges irányokat foglaljuk össze.
22
15:00 - 15:15Varga DánielMutually Almost Unbiased Bases in dimension 6Egy régóta megoldatlan algebrai problémában kísérlünk meg részleges előrelépést tenni gradiens alapú optimalizálás és computer algebra segítségével.
23
15:15 - 15:30Szabó KristófZombori ZsoltDreaming to ProveEgy automazitált tételbizonyító rendszer legfőbb komponense a bizonyítási lépéseket meghatározó logika, de ezen kívül fontos az is, hogy képes legyen kiértékelni ezeket a lépéseket. Az utóbbi komponens segítségével, mely esetünkben a leanCop rendszer, átalakítjuk a tételbizonyítási feladatot egy megerősítéses tanulásra alkalmas környezetté. Majd ezen a környezeten a DreamerV2 algoritmus segítségével tanítunk egy neurális hálót. A DreamerV2 sajátossága, hogy az optimális policy mellett a környezetét is megpróbálja megtanulni. Ez által az ágens képes anélkül több lépéssel is előre tervezni, hogy interakcióban kellene lépni a környezettel, azaz a leanCop rendszerrel.
24
15:30 - 15:45Rásonyi MiklósRekurzív eljárások konvergenciájaA gépi tanulásban alapvetőek a különböző rekurzív eljárások paraméterek optimalizálására. Például a sztochasztikus gradiens, a Kiefer-Wolfowitz algoritmus és ezek zajos változatai,például a Langevin algoritmus. Ezek konvergenciájára vonatkozó új becslésekről fogok beszélni.
25
15:45 - 16:00Keszegh BalázsHipergráfok színezéseiEgy általános sejtés hipergráfok színezéseiről egy természetes feltétel mellett garantál polikromatikus színezhetőséget. Ez a feltétel geometriai módon definiált hipergráfcsaládokra automatikusan teljesül, és sok esetben a következmény is bizonyított. Emiatt lenne fontos eldönteni, hogy a sejtés a maga általánosságában is igaz-e, ezzel megoldva sok geometriai esetben a kérdést. Amennyiben a sejtés nem igaz, ellenpélda keresésében klasszikus programokon kívül a legfrissebb mesterséges intelligáncián alapuló ellenpélda keresési módszerek is segítségünkre lehetnek.
26
16:00 - 16:15Pálvölgyi DömötörA sík és gömbök kromatikus számaiSejtések a sík és gömbök kromatikus számának javításával kapcsolatban.
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100