Workshop AI Responsabile e Affidabile
29 maggio - 30 maggio, Area della Ricerca del CNR di Pisa - Blue 8
Gli avanzamenti nella ricerca e nello sviluppo di sistemi di Intelligenza Artificiale, sempre più sofisticati e precisi, hanno portato alla possibilità di poter applicare questi sistemi in settori importanti, ma spesso anche critici. Per assicurare la diffusione e l'accettazione dei sistemi di Intelligenza Artificiale e poter quindi sfruttare il loro grande potenziale è necessario sviluppare un'Intelligenza Artificiale Responsabile che rispetti i principi etici e legali individuati dall'Europa, come trasparenza, fairness, privacy, e non solo. Solamente sviluppando sistemi rispettosi dei principi etico-legali possiamo agevolare e concretizzare la collaborazione tra esperti di dominio e sistemi di Intelligenza Artificiale in modo tale da poter garantire l'implementazione di un'Intelligenza Artificiale di cui l'uomo possa fidarsi e capace di migliorare e rafforzare il potenziale delle capacità umane.
Ad ogni presentazione è allocato uno slot di 15' + 5' per discussione/domande.
Industry link: Daniele Regoli (Intesa Sanpaolo)
Chairs
Università di Pisa
Università di Bologna
Consiglio Nazionale delle Ricerche
Programma
Location: Blue 829 May 14:00 |
Fairness, Privacy and SecurityToward a cost-effective fairness-aware ML lifecycle
[PDF]
[Presentazione]
Fairness, Debiasing and Privacy in Computer Vision and Medical Imaging
[PDF]
[Presentazione]
An Analysis of the Impact of Differentially Private Data on Recommendation
[PDF]
[Presentazione]
AI Security and Safety: The PRALab Research Experience
[PDF]
[Presentazione]
Challenges in social-aware decentralized AI
[PDF]
|
29 May 16:00-16:30 |
Coffee Break |
29 May 16:30 |
Humane Machine InteractionLet the AI assisted medicine remain human - Developing a care centered model of ethical decision making in AI based healthcare
[PDF]
[Presentazione]
Towards Empathetic Care Robots
[PDF]
[Presentazione]
Human Understanding Capabilities of Symbiotic AI systems in FAIR (Future Artificial Intelligence Research)
[PDF]
[Presentazione]
Un Agente in Grado di Giustificare le Proprie Azioni
[PDF]
[Presentazione]
Counterfactual Reasoning for Responsible AI Assessment
[PDF]
[Presentazione]
|
30 May 08:30 |
ExplainabilityMaking AI trustworthy in multimodal and healthcare scenarios
[PDF]
[Presentazione]
Arg-XAI: a Tool for Explaining Machine Learning Results
[PDF]
[Presentazione]
Trustworthy AI for Next Generation Networks: the Fed-XAI innovative paradigm from the Hexa-X EU Flagship Project
[PDF]
A Conditional and Multi-preferential Approach to Verification and Explanation of Neural Network Models in Answer Set Programming
[PDF]
Machine learning for recognition of individuals from motion capture time series: performance and explainability
[PDF]
[Presentazione]
|
30 May 11:00-11:30 |
Coffee Break |
30 May 11:30 |
Sustainability & TrustworthinessTrustworthy AI in Video Surveillance: The IMMAGINA Project
[PDF]
[Presentazione]
Responsible and Reliable AI at PICUS Lab
[PDF]
[Presentazione]
Responsible AI through a Software Engineering lens @ Serlab
[PDF]
[Presentazione]
Intelligenza artificiale per l'analisi delle nuvole di punti per il patrimonio culturale
[PDF]
Trustworthy AI at KDD Lab
[PDF]
Reliable and Explainable AI in Trieste
[PDF]
[Presentazione]
|