Guida a Spazio di Input e Trasformazioni Lineari

Questo articolo sullo spazio latente è estratto da un video che ho realizzato per Data Masters.
Data Masters è un’AI Academy italiana che offre percorsi di formazione nei settori della Data Science, del Machine Learning e dell’Intelligenza Artificiale.
Se vuoi maggiori informazioni sui corsi e materiali divulgativi, puoi visitare il sito datamasters.it.

Introduzione: cos'è lo spazio latente e perche conta

Per costruire una comprensione solida sul concetto di spazio latente, conviene partire da una domanda semplice: come sono rappresentati i dati nello spazio di input e come possono essere trasformati?

In questa guida vediamo proprio questo passaggio: dallo spazio vettoriale di partenza alle trasformazioni lineari che riorganizzano la geometria dei dati. È il ponte concettuale che aiuta a capire, in seguito, come nascono rappresentazioni latenti utili ai modelli.

Spazio vettoriale e rappresentazione dei dati

Uno spazio vettoriale è un insieme di vettori descrivibili tramite coordinate numeriche. Per il machine learning questo significa che ogni osservazione del dataset puo essere interpretata come un vettore nello spazio delle feature.

Se abbiamo due feature, ogni dato e rappresentabile nel piano. Se ne abbiamo tre, nello spazio tridimensionale. In generale, con n feature lavoriamo in uno spazio n-dimensionale.

Questa prospettiva e utile perchè rende esplicito il legame tra struttura del dataset e geometria:

- le feature definiscono gli assi;

- ogni campione e un punto (o vettore);

- il dataset e una distribuzione di punti nello spazio di input.

Spazio di input: dal punto dati alla geometria complessiva

Lo spazio di input non è solo un contenitore astratto. E l'ambiente geometrico in cui i dati esistono prima dell'elaborazione del modello.

Quando il modello apprende, non sta solo leggendo valori isolati: sta operando su relazioni, distanze e direzioni tra vettori. Per questo capire lo spazio di input e cruciale per capire, dopo, lo spazio latente.

Trasformazione lineare: che cosa succede ai vettori

Una trasformazione lineare applica una regola a tutti i vettori dello spazio di partenza. Gli effetti tipici sono stiramento, compressione, rotazione o ribaltamento.

Due proprieta restano valide:

- l'origine resta fissa;

- le rette restano rette.

In altre parole, la trasformazione puo cambiare in modo marcato la forma dello spazio, ma lo fa in maniera coerente con la struttura lineare.

Matrice di trasformazione: il meccanismo matematico

La trasformazione lineare viene implementata tramite una matrice di trasformazione. Se moltiplichiamo una matrice \( A \) per un vettore colonna v, otteniamo un nuovo vettore \( A * v \)

Interpretazione pratica:

- \(v\) rappresenta il dato nello spazio di input;

- \(A\) definisce la regola della trasformazione;

- \(A * v\) rappresenta quel dato nello spazio trasformato.

Quando A e una matrice identita, lo spazio non cambia. Modificando i coefficienti, cambiano anche le coordinate dei vettori trasformati, e quindi la disposizione complessiva dei dati.

Da n dimensioni a m dimensioni: perche e centrale per lo spazio latente

Un punto chiave è che non siamo obbligati a restare nella stessa dimensionalità. Con una matrice \(m x n \) possiamo trasformare un vettore in input a n dimensioni in un vettore a m dimensioni.

Questo significa che possiamo:

- mantenere la dimensione: \(m = n\)

- aumentarla: \(m > n\)

- ridurla: \(m < n\)

Questa mappatura da \(n\) dimensioni a \(m\) dimensioni è uno dei motivi per cui il tema e cosi rilevante nei fondamenti matematici delle reti neurali e nella costruzione di rappresentazioni latenti.

Collegamento con le reti neurali

Le reti neurali trasformano progressivamente le rappresentazioni dei dati. Le trasformazioni lineari sono una parte essenziale del processo, ma da sole non bastano a catturare strutture molto complesse.

Per questo, nei passaggi successivi entrano in gioco le non linearita: sono quelle che aumentano la capacità del modello di modellare relazioni non banali e costruire uno spazio latente piu espressivo.

Capire spazio vettoriale, spazio di input, trasformazione lineare e matrice di trasformazione e il modo migliore per affrontare in modo serio il concetto di spazio latente.

Prima di arrivare a concetti piu avanzati, questa base chiarisce cosa sta succedendo dietro le quinte: il modello prende dati rappresentati come vettori e li trasforma in nuove rappresentazioni, con una geometria progressivamente piu adatta al compito.

Tutti i post della serie