Analisi Features per Classificazione Torte
Machine Learning

Analisi Features per Classificazione Torte

Valutare feature artigianali e deep per la classificazione fine-grained di dolci

I descrittori convoluzionali catturano anche le sfumature della glassa; le feature artigianali non tengono il passo.

Home/Ricerca/Analisi Features per Classificazione Torte

Informazioni Progetto

Corso
Machine Learning
Autori
Andrea Alberti
Data
febbraio 2024
Pagine
5
Visualizza Codice

Tecnologie

Pythonpvml libraryPVMLNetNumPyOpenCVMatplotlib

Abstract

Confrontati descrittori hand-crafted e feature derivate da CNN per classificare 15 categorie di torte (1.800 immagini). Le statistiche di basso livello (istogramma dei colori, direzione dei bordi, matrice di co-occorrenza) alimentavano un MLP ma si sono fermate al 31% di accuratezza, mentre le mappe di PVMLNet (layer −5) abbinate a un MLP hanno raggiunto il 90% sul test. Il transfer learning con PVMLNet fine-tunata si è fermato all’80%, evidenziando il valore delle rappresentazioni profonde.

Informazioni

Il dataset di 15 tipologie di torte (cioccolato, tiramisù, cheesecake, ecc.) è suddiviso 100/20 per classe in train/test. I descrittori artigianali—istogrammi di colore, istogrammi di direzione dei bordi, matrici di co-occorrenza—sono concatenati e normalizzati (mean-var, min-max, max-abs) prima di entrare in un MLP. Nonostante l’ottimizzazione, le prestazioni si fermano al 31% per l’elevata variabilità intra-classe. Si passa allora a PVMLNet: le attivazioni intermedie dai layer −1 a −7 vengono confrontate, con il layer −5 appiattito che raggiunge il 90% e converge in <100 epoche. Il transfer learning sostituisce l’ultimo layer di PVMLNet con l’MLP addestrato, ma il fine-tuning completo si ferma all’80%, inferiore all’approccio di feature extraction. L’analisi degli errori tramite confusion matrix evidenzia confusioni ricorrenti (es. chocolate-mousse vs ice-cream cake) e suggerisce idee di data augmentation.

Risultati Chiave

90%
Accuracy
90%
Neural Features
31%
Low-Level Features
80%
Transfer Learning

Scoperte Principali

  • L’MLP basato sul solo istogramma di colore si è stabilizzato intorno al 21% di accuratezza dopo 5.000 epoche; aggiungere gli istogrammi dei bordi l’ha portato al 31%.
  • Le attivazioni del layer −5 di PVMLNet appiattite in un MLP hanno raggiunto il 90% di accuratezza con meno di 100 epoche.
  • Il fine-tuning di PVMLNet tramite transfer learning ha ottenuto l’80% di accuratezza, 10 punti percentuali in meno rispetto alla pipeline di feature extraction.
  • L’analisi delle confusioni ha mostrato chocolate-mousse, apple-pie e tiramisù spesso confuse con ice-cream, carrot o chocolate cake per la somiglianza visiva.

Metodologia

Extract color histograms, edge-direction histograms and GLCM features for MLP baselinesNormalise handcrafted features with mean-variance, min-max and max-abs scalingCompare PVMLNet intermediate activations (layers −1…−7) and flatten layer −5Train MLPs on handcrafted and CNN-derived features in runs ≤100 epochsReplace PVMLNet’s final layer with the trained MLP head for transfer-learning experiments
Analisi Features per Classificazione Torte | Andrea Alberti | Andrea Alberti