1 | ||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
2 | Argomento-Titolo del percorso - Topic/title of the path of excellence | Docente Teacher | A chi si rivolge Target audience for the proposal | Descrizione percorso di eccellenza | Path of Excellence Description | Contatto docente teacher's contact | Link utile - Useful link | |||||||||||||||||||||||||||
3 | WiFi e EEG Signal Analysis in Different Application Contexts | Avola Danilo | Applied Computer Science and Artificial Intelligence L-31 Informatica - L-31 Informatica - erogato in modalità prevalentemente a distanza L-31 Computer Science - LM-18 | PRIMA PROPOSTA: Analisi dei Segnali Wi-Fi e EEG in Diverse Applicazioni I segnali Wi-Fi e i segnali EEG sono entrati oggi in una nuova era di ricerca che permette, ad esempio, di utilizzare il segnale Wi-Fi come se fosse una videocamera; e utilizzare i segnali EEG per rendere più umani e simili a noi i robot. SECONDA PROPOSTA: UAVs per i Sistemi di Sicurezza Gli Unmanned Aerial Vehicles (UAVs) sono droni leggeri e versatili che vengono sempre più spesso utilizzati per missioni in ambito civile e militare. Il nostro compito, con i progetti SEARCHER e DRAGONS è rendere queste unità sempre più intelligenti, autonome e senzienti. I progetti mirano a costruire unità versatili per diversificate missione in vari tipi di ambiente: ostile, post-evento catastrofico, ricerca persone scomparse, e molti altri. | FIRST PROPOSAL: WiFi e EEG Signal Analysis in Different Application Contexts Wi-Fi signals and EEG signals have entered a new era of research, allowing us, for example, to use the Wi-Fi signal as if it were a video camera and use EEG signals to make robots more human and similar to us. SECOND PROPOSAL: UAVs for Security Systems Unmanned Aerial Vehicles (UAVs) are light and versatile drones increasingly used for civil and military missions. With the SEARCHER and DRAGONS projects, our task is to make these units increasingly intelligent, autonomous, and sentient. The projects aim to build versatile units for diversified missions in various types of environments: hostile, post-catastrophic events, search for missing persons, and many others. | avola@di.uniroma1.it | Maggiori informazioni sui progetti sono disponibili alla pagina: More information on the projects is available on the page: https://daniloavola.site.uniroma1.it/didattica | |||||||||||||||||||||||||||
4 | Artificial Intelligence for Trading | Bartolini Novella | Applied Computer Science and Artificial Intelligence L-31 Computer Science - LM-18 | Artificial Intelligence for Trading Questa attività affronta temi di ricerca pionieristici nel campo dell'intelligenza artificiale per i mercati finanziari. Gli studenti impareranno a progettare strategie e algoritmi di trading basati sull'intelligenza artificiale e a valutare le prestazioni e l'impatto. Impareranno inoltre ad analizzare e utilizzare i dati storici di mercato per effettuare simulazioni di mercato realistiche. Questa attività è altamente basato sulla ricerca. I prerequisiti includono familiarità con la statistica e la teoria della probabilità, l'algebra lineare e il calcolo, un forte background algoritmico e la programmazione in Python. Il corso offrirà agli studenti opportunità uniche di interagire con esperti e di lavorare su problemi reali e con dati reali. | This activity addresses pioneering research issues in the field of artificial intelligence for financial markets. Students will learn how to design AI based trading strategies and algorithms, and will learn how to assess their performance and impact. They will also learn how to analyze and use historical market data to perform realistic market simulations. The AFC is highly research based. Prerequisites include familiarity in statistics and probability theory, linear algebra and calculus, strong algorithmic background, and Python programming. The course will enable unique opportunities for the students to interact with experts and work on real problems and with real data. | novella@di.uniroma1.it | https://sites.google.com/view/novellabartolini/AI4Trading | |||||||||||||||||||||||||||
5 | Network Tomography | Bartolini Novella Arrigoni Viviana | Applied Computer Science and Artificial Intelligence L-31 Computer Science - LM-18 | Network Tomography Il degrado delle prestazioni nei servizi di rete indica principalmente guasti esistenti, attacchi in corso o problemi software "silenziosi". La tomografia di rete impiega tecniche analitiche che permettono di dedurre lo stato dei nodi e dei collegamenti interni delle reti che non possono essere ispezionate direttamente (ad esempio, reti non proprie o reti avversarie). Questa inferenza indiretta della rete si ottiene attraverso l'analisi dei risultati delle misurazioni end-to-end, prese da posizioni e percorsi strategici all'interno della rete. Il nostro piano prevede lo studio degli algoritmi esistenti e lo sviluppo di nuovi approcci per massimizzare l'identificabilità dello stato della rete o delle congestioni anomale. Questo obiettivo sarà raggiunto riducendo al minimo lo sforzo di monitoraggio, il suo impatto e la sua riconoscibilità. Il programma è ideale per gli studenti interessati alla modellazione matematica e ai problemi intellettualmente stimolanti. La difficoltà dell'approccio metodologico sarà adattata alle capacità analitiche e di implementazione degli studenti, nonché ai loro studi ed esperienze precedenti. Anche gli studenti che sono inclini all'implementazione e allo sviluppo di sistemi sono altamente incoraggiati a partecipare. Condurremo esperimenti utilizzando sia emulatori che sistemi di rete reali, tra cui data center, sistemi cloud e reti definite dal software (SDN). | Performance degradation in network services primarily indicates existing failures, ongoing attacks, or 'silent' software issues. Network tomography employs analytical techniques that infer the state of internal nodes and links in networks that cannot be directly inspected (for example, networks you don't own or adversarial networks). This indirect network inference is achieved through the analysis of end-to-end measurement outcomes, taken from strategic positions and paths within the network. Our plan involves studying existing algorithms and developing new approaches to maximize the identifiability of the network state or anomalous congestion. This will be achieved while minimizing the monitoring effort, along with its impact and recognizability. The program is ideally suited for students interested in mathematical modeling and intellectually challenging problems. The methodological approach's difficulty will be tailored to the students' analytical and implementation skills, as well as their previous studies and experience. Students who are inclined towards implementation and system development are also highly encouraged to participate. We will conduct experiments using both emulators and real network systems, which include data centers, cloud systems, and software-defined networks (SDN). | novella@di.uniroma1.it | https://drive.google.com/file/d/1T3Htf4pvTP0hFxn403S0DpjIDXOyWXTR/view?usp=sharing | |||||||||||||||||||||||||||
6 | Computational models | Bottoni Paolo Gaspare | Computer Science - LM-18 | Si studieranno le caratteristiche di un nuovo modello computazionale per processi sequenziali comunicanti e se ne esploreràl'estensione a processi concorrenti e paralleli | Students will study the features of a new computational model for comunicating sequential processes and explore its possible extension to concurrent and parallel processes | bottoni@di.uniroma1.it | https://www.di.uniroma1.it/it/docenti/bottoni-paolo | |||||||||||||||||||||||||||
7 | Algoritmi per la geometria computazionale/Computational Geometry Algorithms | Calamoneri Tiziana | Computer Science - LM-18 | La geometria computazionale è quel ramo dell'algoritmica che si occupa di risolvere efficientemente problemi geometrici in modo automatico. Gli algoritmi di geometria computazionale richiedono tipicamente strutture dati abbastanza sofisticate. Percorsi di questo tipo prevedono lo studio approfondito di algoritmi che risolvono problemi geometrici con particolare attenzione al loro costo computazionale. Il problema esatto sarà selezionato insieme allo studente, a seconda dei suoi interessi. | Computational geometry is the branch of Algorithms dealing with efficient solutions to geometric problems. Typically, computational geometry algorithms require sophisticated data structures. Studies in this context consist of studying some notable examples of computational geometry algorithms with particular attention to their computational complexity. The exact problem will be selected after discussing it with the interested student, trying to address her/his interests | calamo@di.uniroma1.it | https://sites.google.com/di.uniroma1.it/tiziana-calamoneri/home-page/teaching | |||||||||||||||||||||||||||
8 | Algoritmi su grafi per la network medicine/ Graph algorithms for network medicine | Calamoneri Tiziana | Computer Science - LM-18 | In informatica, i grafi e le reti sono strutture dati atte ad immagazzinare informazioni; in altre parole, sono gli oggetti migliori per rappresentare sistemi complessi che rappresentano interazioni binarie o relazioni tra varie entità. La network medicine è un'applicazione relativamente recente della teoria dei grafi e degli algoritmi su grafi per l'identificazione, la prevenzione e il trattamento delle malattie. Da quando è stata proposta la network medicine, gli approcci basati su grafi hanno offerto strumenti efficaci per esplorare sistematicamente la complessità intrinseca delle malattie, portando all'identificazione delle loro specificità, identificando nuove mutazioni geniche ad esse associate. Più recentemente, i grafi sono stati sfruttati anche per la medicina personalizzata, ovvero l'uso sistematico delle caratteristiche individuali del paziente per determinare quale opzione terapeutica abbia maggiori probabilità di determinare un risultato migliore per il paziente. La nostra ricerca si sviluppa in questo contesto: sfruttiamo i grafi per modellare alcune informazioni mediche disponibili in relazione a diversi tipi di cancro, al fine di capire perché alcuni pazienti reagiscono positivamente a un certo trattamento farmacologico mentre questo fallisce su altri pazienti, che apparentemente hanno lo stesso quadro clinico. Il problema esatto da gestire verrà selezionato dopo aver discusso con gli studenti interessati, cercando di affrontare i loro interessi e dando loro la possibilità di esprimere idee originali. | In computer science, graphs and networks are widely exploited data structures to store information; namely, they are the best objects to represent systems as complex sets of binary interactions or relations between various entities. Network medicine is a relatively recent application of graph theory and graph algorithms towards the identification, prevention, and treatment of diseases. Since when network medicine has been proposed, the graph-based approaches have offered effective tools to systematically explore the intrinsic complexity of diseases, leading to the identification of disease specificities, identifying new disease-associated gene mutations. More recently, graphs have been exploited also for personalized medicine, that is the systematic use of individual patient characteristics to determine which treatment option is most likely to result in a better average outcome for the patient. Our research is developed in this context: we exploit graphs to model some available medical information in connection with several kinds of cancer, in order to understand why some patients positively react to certain drug treatment while it fails on other patients, with apparently the same clinical situation. The exact problem to handle will be selected after discussing with the interested students, trying to address their interests and giving them the possibly to express original ideas. | calamo@di.uniroma1.it | https://sites.google.com/di.uniroma1.it/tiziana-calamoneri/home-page/teaching | |||||||||||||||||||||||||||
9 | Algoritmi su grafi per risolvere problemi in Biologia/ Graph algorithms for solving problems in biology | Calamoneri Tiziana | Applied Computer Science and Artificial Intelligence L-31 Informatica - L-31 Informatica - erogato in modalità prevalentemente a distanza L-31 | La bioinformatica non riguarda solo la biologia: ha anche un profondo impatto sulle scienze computazionali. La biologia è diventata rapidamente una grande fonte di nuovi problemi nell'ambito informatico ed è stata senza dubbio l'obiettivo di un maggior numero di algoritmi che qualsiasi altra scienza fondamentale. Alcuni problemi biologici possono essere risolti modellandoli come problemi su grafi. Gli studi in questo contesto consistono nell'approfondire prima il problema biologico, e poi i modelli e le soluzioni conosciute. L'esatto problema da trattare sarà selezionato dopo averne discusso con gli studenti interessati (anche dipendentemente dal fatto che siano studenti di triennale o di magistrale), cercando di assecondare i loro interessi e dando loro la possibilità di dare idee originali. | Bioinformatics affects more than just biology: it also has a profound impact on the computational sciences. Biology has rapidly become a large source of new problems in computer science and has arguably been the target for more algorithms than any of the other fundamental sciences. Some biological problems can be solved by modeling them as graph problems. Studies in this context consist in deepening first the biological problem, and then known models and solutions. The exact problem to handle will be selected after discussing with the interested students, trying to address their interests, and giving them the possibility to express original ideas. | calamo@di.uniroma1.it | https://sites.google.com/di.uniroma1.it/tiziana-calamoneri/home-page/teaching | |||||||||||||||||||||||||||
10 | Simulation of Cyber Attacks detection and response | Casalicchio Emiliano | Computer Science - LM-18 | Il percorso di eccellenza si sviluppa al confine tra Event Driven Simulation e Cyber Security. Nello specifico si studierà il problema della simulazione di attacchi cyber, delle tecniche di identificazione e di quelle di risposta, al fine di: valutare le prestazioni dei sistemi di self-protection; e di sviluppare nuove soluzioni che avanzano lo stato dell’arte nell’ambito dei sistemi di self-protection. Il percorso di eccellenza si inquadra nel progetto di ricerca nazionale “PANACEA: A Model-based Framework for Self-Protecting Systems”, PRIN 2022 | The path of excellence develops on the border between Event Driven Simulation and Cyber Security. Specifically, the problem of simulating cyber attacks, detection and response techniques will be studied, in order to: evaluating the performance of self-protection systems; and to develop new solutions that advance the state of the art in the field of self-protection systems. The path of excellence is part of the national research project “PANACEA: A Model-based Framework for Self-Protecting Systems”, PRIN 2022 | casalicchio@di.uniroma1.it | ||||||||||||||||||||||||||||
11 | Parallel and Distributed Computing | De Agostino Sergio | Computer Science - LM-18 | Background teorico e applicazioni del calcolo parallelo e distribuito alle tematiche attuali dell' informatica. | Theoretical background and nowadays applications of parallel and distributed computingg | deagostino@di.uniroma1.it | ||||||||||||||||||||||||||||
12 | Cracking Passwords with Deep Neural Networks | De Gaspari Fabio | Computer Science - LM-18 | Le Generative artificial neural networks come Dall-E e GPT4 dimostrano risultati impressionanti nella generazione di immagini e testi. Questo percorso di eccellenza va a studiare l'applicazione di queste architetture alla modellazione e generazione di password human-like per valutare la forza delle password scelte da utenti e per rendere password cracking più efficiente. | Generative artificial neural networks such as Dall-E and GPT4 show impressive results in image and text generation tasks. This path of excellence studies the applicability of generative architectures to the generation and modeling of human-like passwords with the goal of evaluating password strength and to make password cracking more efficient. | degaspari@di.uniroma1.it | https://sites.google.com/di.uniroma1.it/degaspari/home | |||||||||||||||||||||||||||
13 | Co-Design of Interconnection Networks for Deep Learning Workloads | De Sensi Daniele | Applied Computer Science and Artificial Intelligence L-31 Informatica - L-31 Informatica - erogato in modalità prevalentemente a distanza L-31 Computer Science - LM-18 | Le costanti innovazioni nell’Intelligenza Artificiale (AI) e nel Machine Learning (ML) hanno portato a miglioramenti significativi in diverse applicazioni. La precisione senza precedenti, comparabile a quella umana, raggiunta da alcuni modelli allo stato dell’arte è stata possibile grazie alla progettazione di modelli più grandi e più complessi. Ad esempio, i modelli di Natural Language Processing sono cresciuti in dimensione da centinaia di milioni di parametri nel 2018, a centinaia di miliardi di parametri nel 2022. Tuttavia, addestrare tali modelli è un processo costoso e richiede l’utilizzo di grandi sistemi distribuiti per diversi giorni. Ad esempio, addestrare il modello GLaM sviluppato da Google ha richiesto l’utilizzo di 1024 TPUs (*Tensor Processing Units*) per 24 giorni consecutivi, consumando 456 MWh. Questi sistemi distribuiti utilizzati per l’addestramento a larga scala sono composti da diversi acceleratori (TPUs e GPUs), interconnesse tramite una rete ad alte prestazioni. Tuttavia, le prestazioni degli acceleratori crescono molto più velocemente in confronto ai miglioramenti nella banda di rete. Ad esempio, sebbene siano bastati solo 2 anni e mezzo per assistere ad un incremento di un fattore 10 nelle prestazioni delle GPU, c’è stato bisogno di aspettare 10 anni per vedere la banda di rete crescere di un fattore 10. Di conseguenza, la rete sta velocemente diventando il collo di bottiglia, limitando le prestazioni e la scalabilità, e impedendo lo sviluppo di modelli di machine learning più grandi e complessi. Per questo motivo, i ricercatori e l’industria stanno progettando reti di interconnessione ottimizzate per il training di modelli di machine learning a larga scala [1]. Lo studente studierà le problematiche relative all’addestramento distribuito di modelli di ML reali a larga scala, con un’attenzione particolare ai colli di bottiglia introdotti dalla rete, e alle soluzioni per mitigarli (quantizzazione, sparsificazione, etc…). Lo studente svilupperà tecniche per mitigare tali problemi. Questo percorso di eccellenza può essere direzionato verso livelli diversi dello stack (progettazione di rete, algoritmi di routing, software sugli endpoints) e sarà ritagliato sull’esperienza, capacità, e preferenze dello studente. [1] Hoefler, Torsten and Bonato, Tommaso and De Sensi, Daniele and Di Girolamo, Salvatore and Li, Shigang and Heddes, Marco and Belk, Jon and Goel, Deepak and Castro, Miguel and Scott, Steve (2022). *HammingMesh: A Network Topology for Large-Scale Deep Learning* # | The ever-growing advances in Artificial Intelligence (AI) and Machine Learning (ML) have led to significant improvements in many different applications. The unprecedented human-level accuracy achieved by state-of-the-art models has been possible thanks to the design of larger and more complex models. For example, *Natural Language Processing* models have grown in size from hundreds of millions of parameters in 2018 to hundreds of billions of parameters in 2022. However, training such models is an expensive process and requires using large distributed systems for several days. For example, the training of Google’s GLaM language model was completed in 24 days using 1,024 TPUs (*Tensor Processing Units*), consuming 456 MWh. Such distributed systems used for large-scale training are composed of several accelerators (TPUs or GPUs), interconnected through a high-performance network. However, the performance of the accelerators grows at a much higher rate compared to improvements in network bandwidth. For example, while it took only 2.5 years for the GPU performance to increase by a factor of 10, it took 10 years for the network bandwidth to increase by 10x. As a consequence, the network is quickly becoming the bottleneck, limiting performance and scalability, and hampering the development of larger and more complex ML models. For this reason, researchers and industry are starting to co-design interconnection networks optimized for the training of large machine learning models [1]. The student will study the issues related to the large-scale distributed training of real-world ML models, with a particular focus on network bottlenecks, and on solutions to mitigate those bottlenecks (quantization, sparsification, etc…). The student will develop techniques for mitigating those issues. This excellence path can be targeted towards different levels of the stack (network design, routing algorithms, endpoint software) and will be tailored on the student’s expertise, skills, and preferences. [1] Hoefler, Torsten and Bonato, Tommaso and De Sensi, Daniele and Di Girolamo, Salvatore and Li, Shigang and Heddes, Marco and Belk, Jon and Goel, Deepak and Castro, Miguel and Scott, Steve (2022). *HammingMesh: A Network Topology for Large-Scale Deep Learning* | desensi@di.uniroma1.it | https://danieledesensi.github.io/ | |||||||||||||||||||||||||||
14 | Low-Earth Orbit (LEO) Satellite Networks | De Sensi Daniele | Applied Computer Science and Artificial Intelligence L-31 Informatica - L-31 Informatica - erogato in modalità prevalentemente a distanza L-31 Computer Science - LM-18 | Negli ultimi anni, la significativa riduzione nel costo di produzione e lancio dei satelliti ha aperto una nuova corsa allo spazio. Costellazioni composte da migliaia di satelliti in Low-Earth Orbit (LEO) vengono lanciate fornendo, ad esempio, connettività Internet in qualsiasi punto del pianeta, coprendo aree dove normalmente l’infrastruttura terrestre non arriverebbe a causa dell’inaccessibilità geografica e al costo elevato [1]. Queste reti sono già realtà. Starlink, la costellazione LEO proposta da SpaceX composta da più di 40000 satelliti, ha già più di 1600 satelliti in orbita, e sta iniziando a fornire accesso Internet ad utenti in diverse parti del mondo, aprendo una nuova corsa allo spazio per costruire servizi Internet globali basati su satelliti. Lo studente studierà le sfide esistenti nelle reti LEO (ad esempio, routing, affidabilità), potenzialmente progettando nuove soluzioni per affrontare alcune di queste sfide, e le valuterà tramite infrastrutture di simulazione esistenti. Questo percorso di eccellenza sarà ritagliato sull’esperienza, capacità e preferenze dello studente. [1] Simon Kassing et al. "Exploring the ‘Internet from space’ with Hypatia” | Significant reductions in satellite production and launch costs have opened up a new space race in recent years. Constellations consisting of thousands of Low-Earth Orbit (LEO) satellites are being deployed, providing, for example, global Internet connectivity everywhere on the earth, where most areas cannot access the Internet by the terrestrial infrastructure due to the geographic accessibility and high deployment cost [1]. These networks are already a reality. Starlink, SpaceX's proposed low-Earth orbit constellation of 40,000+ satellites, already has 1,600+ satellites in orbit and has started offering Internet access to users across the globe, opening a new "space race" to build satellite-based global Internet services. The student will study existing challenges in LEO networks (e.g., routing, reliability), potentially designing new solutions to address some of those challenges and evaluating them through existing simulation infrastructures. This excellence path will be tailored to the student's expertise, skills, and preferences. [1] Simon Kassing et al. "Exploring the 'Internet from space' with Hypatia." | desensi@di.uniroma1.it | https://danieledesensi.github.io/ | |||||||||||||||||||||||||||
15 | Anomaly detection with probabilistic diffusion models and with LLM-powered symbolic reasoning | Galasso Fabio | Computer Science - LM-18 | La detection automatica di anomalie consente di identificare il comportamento inaspettato di persone (per un malore improvviso o per comportamenti violenti) e di guidare gli operatori in sicurezza (rilevando pericoli ed errori procedurali in catene di montaggio in smart industry). Questo percorso d’eccellenza propone di approfondire la recente ricerca del nostro Perception and Intelligence Lab (PINLab), pubblicata in conferenze A++ (ad esempio ICCV'23: https://github.com/aleflabo/MoCoDAD; CVPR'23 wks: https: //www.pinlab.org/hypad) e riviste di alto profilo (AIM'23: https://www.sciencedirect.com/science/article/abs/pii/S0933365722002068). L’attività considera modelli probabilistici di Latent Diffusion, reti neurali iperboliche per la stima dell'incertezza e Transformer Networks, compresi Large Foundation Language Models come GPT. Il candidato selezionato collaborerà con il Prof. Fabio Galasso (https://fgalasso.bitbucket.io/), con ricercatori del PINLab in Sapienza (https://www.pinlab.org/) e altri collaboratori internazionali. | Anomaly detection allows to identify the unexpected behavior of people (sudden illness or misbehavior) and to guide them safely (detecting hazards and procedural mistakes in smart manufacturing). This honor program proposes to extend very recent research from our Perception and Intelligence Lab (PINLab) which has been published at top conferences (e.g. ICCV’23: https://github.com/aleflabo/MoCoDAD ; CVPR’23 wks: https://www.pinlab.org/hypad ) and journals (AIM’23: https://www.sciencedirect.com/science/article/abs/pii/S0933365722002068 ). Research will consider Latent Probabilistic Diffusion Models, Hyperbolic Neural Networks for the estimation of uncertainty, and Transformer Networks, including large foundation language models such as GPT. The successful applicant will collaborate with Prof. Fabio Galasso (https://fgalasso.bitbucket.io/ ), with scientists from the PINLab in Sapienza (https://www.pinlab.org/) and with international collaborators. | galasso@di.uniroma1.it | https://www.pinlab.org/ | |||||||||||||||||||||||||||
16 | Human motion: self-supervised learning, forecasting and synthesis | Galasso Fabio | Computer Science - LM-18 | La previsione del movimento futuro consente alle macchine di collaborare con le persone (ad esempio con bracci robotici di cobots in smart manufacturing) e di navigare tra loro (cani robot che consegnano oggetti e autonomous driving). Questo percorso d’eccellenza propone di approfondire la recente ricerca del nostro Perception and Intelligence Lab (PINLab), pubblicata in conferenze A++ (ICLR'23: https://github.com/paolomandica/HYSP ; ECCV'22 https:// github.com/AlessioSam/CHICO-PoseForecasting ; ICCV'21: https://github.com/FraLuca/STSGCN ) e riviste di alto profilo (PR'23: https://arxiv.org/abs/2203.11878 ). Modelli d’interesse includono Graph Convolutional Networks (GCN) e Transformer Networks, imparati con Self-Supervised Learning e con contezza dell’incertezza. Il candidato selezionato collaborerà con il Prof. Fabio Galasso (https://fgalasso.bitbucket.io/), con ricercatori del PINLab in Sapienza (https://www.pinlab.org/) e altri collaboratori internazionali. | Forecasting the future motion of people allows machines to collaborate with them (robotic arms of cobots in smart manufacturing) and to navigate among them (dog robots delivering items and autonomous cars). This honor program proposes to extend very recent research from our Perception and Intelligence Lab (PINLab) which has been published at top conferences (e.g. ICLR’23: https://github.com/paolomandica/HYSP ; ECCV’22 https://github.com/AlessioSam/CHICO-PoseForecasting ; ICCV’21: https://github.com/FraLuca/STSGCN ) and journals (PR’23: https://arxiv.org/abs/2203.11878 ). Models include Graph Convolutional Networks (GCN) and Transformer Networks, learned with Self-Supervision and with Uncertainty awareness. The successful applicant will collaborate with Prof. Fabio Galasso (https://fgalasso.bitbucket.io/ ), with scientists from the PINLab in Sapienza (https://www.pinlab.org/) and with international collaborators. | galasso@di.uniroma1.it | https://www.pinlab.org/ | |||||||||||||||||||||||||||
17 | Artificial Intelligence for Personalised In Silico Medicine / Intelligenza Artificiale per la Medicina Personalizzata in Silico | Mancini Toni Tronci Enrico | Applied Computer Science and Artificial Intelligence L-31 Informatica - L-31 Informatica - erogato in modalità prevalentemente a distanza L-31 Computer Science - LM-18 | Una delle direzioni di ricerca più innovative della medicina consiste nel progettare cure farmacologiche personalizzate, cioè che massimizzino le probabilità di successo sul singolo paziente. Questo, oltre a portare a cure più rapide e efficaci, riduce l’utilizzo di farmaci e i rischi di effetti collaterali. Grazie alla Systems Biology, sono disponibili modelli matematici meccanicistici di organi e di interi apparati del corpo umano. Questi modelli, tipicamente basati su equazioni differenziali, dipendono da molti parametri, allo scopo di catturare le diversità fisiologiche dei singoli individui. Durante il percorso di eccellenza, lo studente imparerà metodologie e tecniche di Intelligenza Artificiale per: 1. personalizzare modelli matematici di organi e interi apparati del corpo umano ad un singolo paziente, mediante un’opportuna attività di identificazione dei valori dei parametri; 2. modellare trattamenti farmacologici in opportuni linguaggi formali e manipolabili automaticamente; 3. verifica automatica in silico (ovvero sul modello matematico personalizzato del paziente) di un trattamento farmacologico; 4. sintesi automatica in silico di trattamenti farmacologici ottimizzati per il singolo paziente. | One of the most innovative research directions in medicine is to design personalised drug treatments, that is, treatments that maximise the likelihood of success for the individual patient. This, in addition to leading to faster and more effective treatments, reduces drug use and the risks of side effects. Thanks to Systems Biology, mechanistic mathematical models of organs and entire systems of the human body are available. These models, typically based on differential equations, depend on many parameters to capture the physiological diversity of individuals. During the programme, students will learn Artificial Intelligence methodologies and techniques to: 1. customise mathematical models of organs and entire systems of the human body to an individual patient by identifying the most appropriate parameter values; 2. model drug treatments in suitable formal languages that can be manipulated automatically; 3. automatic in silico verification (i.e., on the patient's customised mathematical model) of drug treatment; 4. automatic in silico synthesis of drug treatments optimised for individual patients. | Per maggiori informazioni, contattare Toni Mancini: http://tmancini.di.uniroma1.it For more information, contact Toni Mancini: http://tmancini.di.uniroma1.it | http://tmancini.di.uniroma1.it/index.php?page=teaching.eccellenza | |||||||||||||||||||||||||||
18 | AI and Deep Learning | Masi Iacopo | Computer Science - LM-18 Applied Computer Science and Artificial Intelligence L-31 | I sistemi di AI basati su apprendimento hanno fatto passi da gigante nel risolvere task cognitivi molto complessi con eccellenti performance, come riconoscere correttamente un volto fra milioni o sintetizzare in maniera impeccabile immagini che anche gli esseri umani faticano a distinguere dalle immagini naturali [A]. Nonostante ciò, ci sono ancora diversi problemi aperti da risolvere che sono legati all’impatto dell’AI nella società. Questi problemi includono la robustezza di questi sistemi; come si garantisce la privacy dei dati multimedia a fronte di un uso scorretto dell’AI; come rendere l’AI più interpretabile. Il candidato lavorerà su aspetti teorici e pratici dell’apprendimento automatico e del deep learning applicando tali concetti a domini visuali quali immagini e video. Alcuni argomenti inerenti sono i seguenti: 1) attacchi avversari a reti neurali e relativi meccanismi di difesa 2) studiare la relazione fra attacchi avversari ed Energy-Based Models (EBM) 3) sintesi di immagini invertendo un classificatore [B] 4) come ingegnerizzare del rumore avversario per dati multimediali in maniera da tutelare la privacy da attacchi basati su AI ma non danneggiare la percezione umana 5) Modelli generativi e apprendimento di distribuzioni ad alta dimensionalità con modelli di diffusione e score-matching 6) modelli ibridi che sono allo stesso tempo generativi e discriminativi. Gli studenti avranno uno sguardo da vicino sullo stato dell’arte in AI e Deep Learning e lavoreranno “hands-on” nell’applicare idee di ricerca a nuovi problemi, consolidando le basi teoriche. In alcuni casi, il percorso di eccellenza può aprire porte verso collaborazioni con gruppi di ricerca internazionali. Il percorso è ottimo per studenti della laurea magistrale ma può andare bene anche per studenti eccellenti alla laurea triennale in ACSAI. [A] thispersondoesnotexist.com [B] https://arxiv.org/abs/2209.11549 | Learning-based Artificial Intelligent (AI) systems have made extraordinary leaps in solving highly complex cognitive tasks with superhuman performance, such as correctly recognizing a face image among millions or generating synthetic images that humans find difficult to distinguish from natural images [A]. However, there are still several open problems that need to be solved in the future relating to the impact of AI on society. These problems include the robustness of those systems, how to preserve human privacy given the recent misuse of AI, and how to make AI explainable. The candidate will work on theoretical and practical aspects of machine learning and deep learning, as well as their application to the visual domain--images and videos. A few relevant topics are as follows: 1) adversarial attacks on Neural Nets (NN) and defenses from attacks, 2) the relationship between adversarial attacks and Energy-Based Models (EBM), 3) Image synthesis by inverting a classifier [B], 4) how to design adversarial noise to "protect" multimedia data 5) Generative modeling and learning of high-dimensional distributions with diffusion models or score-matching 6) hybrid models that are generative and discriminative at the same time. Students will gain a glimpse of the state of the art of AI and Deep Learning, as well as work hands-on on applying research ideas to novel problems and consolidating the theoretical foundations. In some cases, it may open a window to international research collaborations. The program is a good fit for master's students, but outstanding bachelor students in ACSAI may also be suitable. References: [A] thispersondoesnotexist.com [B] https://arxiv.org/abs/2209.11549 | masi@di.uniroma1.it | https://iacopomasi.github.io | |||||||||||||||||||||||||||
19 | Arithmetic Circuits for Quantum Computers/Circuiti aritmetici per Quantum Computer | Massini Annalisa | Applied Computer Science and Artificial Intelligence L-31 Informatica - L-31 Informatica - erogato in modalità prevalentemente a distanza L-31 Computer Science - LM-18 | Negli ultimi anni sono stati proposti molti circuiti e dispositivi che implementano le operazioni fondamentali per il calcolo quantistico. Progettare computer quantistici richiede, tra le altre cose, la progettazione di circuiti per l’esecuzione di operazione aritmetiche. I circuiti quantistici utilizzano porte logiche che sfruttano proprietà della meccanica quantistica e hanno caratteristiche diverse dai circuiti usati nei computer tradizionali. Le porte quantistiche sono rappresentate da matrici unitarie e, tipicamente, si usano porte quantistiche reversibili per progettare circuiti che risultino reversibili. L'obiettivo del presente percorso di eccellenza è studiare lo stato dell’arte dei circuiti quantistici, e analizzare in particolare circuiti quantistici aritmetici, dato che i circuiti rappresentano il modo di implementare algoritmi nel calcolo quantistico. Alla fine dell’attività lo studente saprà utilizzare i concetti del Quantum computing per ideare e progettare circuiti aritmetici, possibilmente utilizzando anche rappresentazioni numeriche non convenzionali. | In recent years, many circuits and devices have been proposed that implement the fundamental operations for quantum computing. Designing quantum computers requires, among other things, designing circuits to perform arithmetic operations. Quantum circuits use logic gates that exploit properties of quantum mechanics and have different characteristics from circuits used in traditional computers. Quantum gates are represented by unitary matrices, and typically, reversible quantum gates are used to design circuits that are reversible. The goal of this path of excellence is to study the state of the art of quantum circuits, and to analyze arithmetic quantum circuits in particular, since circuits represent the way of implementing algorithms in quantum computing. By the end of the activity, the student will know how to use the concepts of quantum computing to devise and design arithmetic circuits, possibly also using unconventional numerical representations. | massini@di.uniroma1.it | ||||||||||||||||||||||||||||
20 | Blockchain Technology | Mei Alessandro | Applied Computer Science and Artificial Intelligence L-31 | Attività di avvicinamento alla ricerca scientifica nel campo delle tecnologie blockchain, delle criptovalute e della sicurezza in Internet. | Introduction to scientific research activities in the field of blockchain technologies, cryptocurrencies, and internet security. | mei@di.uniroma1.it | ||||||||||||||||||||||||||||
21 | Context-Aware interaction for car parking related predictions | Panizzi Emanuele | Applied Computer Science and Artificial Intelligence L-31 Informatica - L-31 Informatica - erogato in modalità prevalentemente a distanza L-31 Computer Science - LM-18 | In questo percorso di eccellenza la studentessa o lo studente imparerà 1) come raccogliere dati in macchina utilizzando i sensori nello smartphone del conducente, 2) come addestrare i modelli per prevedere il comportamento degli utenti relativo all'utilizzo dell'auto e 3) come adattare l'interfaccia utente e la UX in base al comportamento previsto e al contesto. Le metodologie e le tecnologie studiate saranno applicate al caso dello smart-parking. | In this honors program the student will learn 1) how to collect data in the car using the sensors in the driver’s smartphone, 2) how to train models to predict user behaviour related to car usage, and 3) how to adapt the UI and the UX based on the predicted behaviour and the context. The methodologies and technologies studied will be applied to the case of smart-parking. | panizzi@di.uniroma1.it | gamificationlab.di.uniroma1.it | |||||||||||||||||||||||||||
22 | Counterfactual explainability in e-health applications | Paola Velardi | Computer Science - LM-18 | The counterfactual approach to explainable AI (XAI) seeks to provide understanding of AI systems through the provision of counterfactual explanations, explanations concerning how a model’s inputs would need to change in order to yield an output of a specific kind. The shape of a counterfactual explanation is: “The prediction is <prediction>. Had a small subset of features been different <foil>, the prediction would have been <counterfactual prediction> instead.” It seeks for the minimum changes in the input x that would change the prediction y=f(x). | The student will study state of the art systems in counterfactual XAI, open iissues, and apply it to the healthcare domain. | velardi@di.uniroma1.it, prenkaj@di.uniroma1.it | https://arxiv.org/pdf/2010.10596.pdf | |||||||||||||||||||||||||||
23 | Logic for Strategic Reasoning | Perelli Giuseppe | Computer Science - LM-18 | Studio e analisi di Logiche per il ragionamento strategico nell'ambito della verifica e sintesi di sistemi multi-agente. | Study and analysis of Logics for strategic reasoning in the context of verification and synthesis of Multi-Agent Systems. | perelli@di.uniroma1.it | https://giuseppeperelli.github.io/ | |||||||||||||||||||||||||||
24 | Progettazione di un processore RISC-V su FPGA | Pontarelli Salvatore | Informatica - L-31 | Il RISC-V è uno standard open source di un ISA per processori RISC. Il progetto iniziale, sponsorizzato dall'università della California, Berkeley, si basa sull’idea di sviluppare da zero un set di istruzioni open source facilmente estensibile che potesse essere immediatamente utilizzato in diversi ambiti a causa della licenza permissiva utilizzata per diffondere l’ISA. Tale idea ha rappresentato una svolta nel mondo della Computer Architecture, consentendo a questa architettura di competere oggi con i maggiori produttori di CPU (Intel, AMD, ARM). Negli ultimi anni sono stati sviluppate CPU bassate sull’ISA RISC-V per tantissimi domini applicativi: IoT, sistemi embedded, calcolo ad alte prestazioni, applicazioni di AI e Computer vision. L’obiettivo del percorso di eccellenza è di acquisire le conoscenze necessarie per progettare un processore RISC-V in linguaggio SystemVerilog ed implementarlo su di un FPGA di ultima generazione. Lo studente apprenderà come utilizzare i tool software di progettazione digitale per la progettazione la simulazione e l’implementazione di FPGA di sistemi digitali complessi. Verranno inoltre selezionate una serie di periferiche da integrare con il processore RISC-V (ethernet, VGA, USB) che consentiranno di utilizzare il RISC-V come un sistema embedded. | RISC-V is an open-source standard of an ISA for RISC processors. The initial project, sponsored by the University of California, Berkeley, is based on the idea of developing from scratch an easily extensible open-source instruction set that can be immediately used in different scenarios also due to the permissive license used for the ISA. This idea represented a turning point in the Computer Architecture world, allowing this architecture to compete with the major CPU manufacturers (Intel, AMD and ARM). In recent years CPUs based on ISA RISC-V have been developed for many application domains, from IoT to embedded systems, high-performance computing, AI and Computer vision applications. This project aims to acquire the necessary skills to design a RISC-V processor in SystemVerilog and implement it on a last-generation FPGA. The student will learn how to use digital design software tools for designing, simulating, and implementing FPGAs of complex digital systems. A series of peripherals to be integrated with the RISC-V processor (ethernet, VGA, USB) will also be selected, which will allow you to use the RISC-V as an embedded system. | salvatore.pontarelli@uniroma1.it | ||||||||||||||||||||||||||||
25 | Virtual Humans | Spinelli Indro | Computer Science - LM-18 | Creare umani virtuali realistici costituisce un obiettivo ambizioso ma cruciale per il progresso della realtà aumentata e dell'interazione uomo-macchina. Attualmente, i modelli esistenti richiedono un considerevole quantitá di tempo per generare un movimento completo basandosi su una descrizione testuale. L'obiettivo prioritario di questo percorso d'eccellenza è accelerare significativamente tale processo, sfruttando appieno le potenzialità dei database vettoriali. | Creating realistic virtual humans is an ambitious yet crucial goal for advancing augmented reality and human-machine interaction. Currently, existing models require a considerable amount of time to generate complete movement based on textual descriptions. The primary objective of this excellence path is to significantly expedite this process by fully leveraging the potential of vector databases. | spinelli@di.uniroma1.it | https://spindro.github.io | |||||||||||||||||||||||||||
26 | Linguaggi di Programmazione Quantistica / Quantum Programming Languages | Zuliani Paolo | Applied Computer Science and Artificial Intelligence L-31 Informatica - L-31 Informatica - erogato in modalità prevalentemente a distanza L-31 Computer Science - LM-18 | Studio approfondito di linguaggi ad alto livello per la programmazione di calcolatori quantistici. | In-depth study of high-level languages for programming quantum computers. | zuliani@di.uniroma1.it |