Projects

Pasquale FOGGIA Projects

TECNOLOGIE SEMANTICHE PER L¿ANALISI DI VIDEO, IMMAGINI ED AUDIO.

Il progetto mira ad utilizzare i recenti sviluppi del Semantic Web in termini di linguaggi, common sense knowledge e tecnologie abilitanti per migliorare le performance degli algoritmi e dei sistemi sviluppati nel laboratorio MIVIA (Macchine Intelligenti e Visione Aritificiale) del DIEM. L'idea è quella di realizzare sistemi avanzati di Congitive Vision [1], che attraverso semantic e knowledge technologies sono in grado di contestualizzare (rispetto all’ambiente, alle proprietà e relazioni tra i diversi elementi della scena) il riconoscimento di forme, oggetti e comportamenti.L'utilizzo delle tecnologie del Semantic Web per l'analisi la comprensione e la correlazione di informazioni complesse e di grandi dimensioni (large dataset) sta avendo un interesse sempre più crescente in diversi settori scientifico disciplinari a partire, ovviamente, dall'information retrieval, data/text mining fino alla genomica e all'astrofisica. Ovviamente il settore della computer vision non è esente da questa influenza come dimostrano le survey [4]-[8] in cui viene dato uno spazio rilevante alle potenzialità offerte da tali tecnologie. Come viene evidenziato dai primi lavori [2] e [3] i problemi principali sono il costo di realizzazione della knowledge base, le limitate capacità espressive dei linguaggi ed le performance dei sistemi di inferenza. Come dimostrato in [9],[10] i recenti avanzamenti tecnologici del Semantic Web in termini di linguaggi (OWL2) e tecnologie (resoner incrementali, linguaggi di interrogazione e sistemi di storage) aprono nuove prospettive in termini di capacità di inferenza anche su basi di conoscenza di una certa consistenza. Sulla base di tali considerazioni gli aspetti distintivi del progetto sono:- Definizione di common sense knowledge per la video analytics;- Definizione, analisi e valutazione di approcci ibridi top-down basati su ontologie) e bottom-up basati su pattern recognition;- Definizione, analisi e valutazione di approcci ontology based per video analytics su large dataset (big data);Referenze.[1]D. Vernon Cognitive Vision – The Development of a Discipline disponibile su ftp://ftp.cordis.europa.eu/pub/ist/docs/dir_e/cognitive_vision.pdf[2]J. Hobbs, R. Nevatia, and B. Bolles, “An ontology for video event representation,” in Proc. IEEEWorkshop Event Detection Recognit., 2004, p. 119.[3]A. R. J. Francois, R. Nevatia, J. Hobbs, and R. C. Bolles, “Verl: An ontology framework for representing and annotating video events,” IEEE MultiMedia Mag., vol. 12, no. 4, pp. 76–86, Oct.-Dec. 2005.[4]Zhang, D., Islam, M.M., Lu, G.A review on automatic image annotation techniques (2012) Pattern Recognition, 45 (1), pp. 346-362.[5]Liu, Y., Zhang, D., Lu, G., Ma, W.-Y. A survey of content-based image retrieval with high-level semantics (2007) Pattern Recognition, 40 (1), pp. 262-282.[6]Rodríguez, N.D., Cuéllar, M.P., Lilius, J., Calvo-Flores, M.D. A survey on ontologies for human behavior recognition, in ACM Computing Surveys Volume 46, Issue 4, April 2014, Article number 43.[7]Turaga, P., Chellappa, R., Subrahmanian, V.S., Udrea, O. Machine recognition of human activities: A survey (2008) IEEE Transactions on Circuits and Systems for Video Technology, 18 (11), pp. 1473-1488.[8] Poppe, R., A survey on vision-based human action recognition, journal of Image and Vision Computing,2010, volume 28,6, pages 976-990.[9]Meditskos, G. and Dasiopoulou, S. and Efstathiou, V. and Kompatsiaris, I., SP-ACT: A hybrid framework for complex activity recognition combining OWL and SPARQL rules, IEEE International Conference on Pervasive Computing and Communications Workshops, PerCom Workshops 2013,pages 25-30.[10]Riboni, D., Pareschi, L., Radaelli, L., Bettini, C. Is ontology-based activity recognition really effective? IEEE International Conference on Pervasive Computing and Communications Workshops, PERCOM Workshops 2011, pp. 427-431.

DepartmentDipartimento di Ingegneria dell'Informazione ed Elettrica e Matematica applicata/DIEM
FundingUniversity funds
FundersUniversità  degli Studi di SALERNO
Cost4.774,77 euro
Project duration7 November 2014 - 6 November 2016
Research TeamRITROVATO Pierluigi (Project Coordinator)
FOGGIA Pasquale (Researcher)
PERCANNELLA Gennaro (Researcher)
VENTO Mario (Researcher)