Files
classificatore_immagini/percettroni.h

397 lines
12 KiB
C

#include <stdio.h>
#include <stdlib.h>
#include <math.h>
char *file_pesi = "rete_pesi.bin";
#include "mnist/mnist_manager.h"
/* char *file_immagini = "mnist/t10k-images.idx3-ubyte";
char *file_label = "mnist/t10k-labels.idx1-ubyte"; */
char *file_immagini = "mnist/train-images.idx3-ubyte";
char *file_label = "mnist/train-labels.idx1-ubyte";
//#include "cifar-10/cifar10_manager.h";
//char *file_immagini = "cifar-10/data_batch_1.bin";
// char *file_immagini = "cifar-10/data_batch_2.bin";
// char *file_immagini = "cifar-10/data_batch_3.bin";
// char *file_immagini = "cifar-10/data_batch_4.bin";
// char *file_immagini = "cifar-10/data_batch_5.bin";
//char *file_immagini = "cifar-10/test_batch.bin";
// #include "xor_manager.h"
// Siccome il char è un byte che rappresenta il valore tra 0 e 255. Per evitare confusioni definisco il tipo "byte" come in Java
typedef unsigned char byte;
double LRE = 1.414;
double soglia_sigmoide = 0.5;
typedef struct
{
double *pesi;
double bias;
int size;
} Percettrone;
typedef struct
{
Percettrone *percettroni;
int size;
} Layer;
typedef struct
{
Layer *layers;
int size;
} ReteNeurale;
double randomico();
Percettrone inzializza_percettrone(int);
ReteNeurale inizializza_rete_neurale(int, int, int);
Layer inizializza_layer(int, int);
double sigmoide(Percettrone p, double *);
double derivata_sigmoide(double);
double **elabora_sigmoidi(ReteNeurale, Istanza);
double **elabora_gradienti(ReteNeurale, double, double **);
void discesa_gradiente(ReteNeurale, double **, double **);
double calcola_gradiente_disceso(ReteNeurale, int, int, double **);
void aggiorna_pesi(ReteNeurale*, double**, double**, Istanza);
void correggi_pesi_percettrone_double(Percettrone *, int, double **, double);
void correggi_pesi_percettrone_byte(Percettrone *, Istanza, double, int);
int previsione(double);
void salvaReteNeurale(const char *, ReteNeurale *);
ReteNeurale *caricaReteNeurale(const char *);
/*
################# INIZIALIZZAZIONI ################################
*/
// Questa funzione genera un valore reale random compreso nell'intervallo [-1, 1]
double randomico()
{
// Genero numeri nell'intervallo [-1,1]
return ((double)(rand() % 101 * 0.01 * 2.0) - 1.0);
}
Percettrone inizializza_percettrone(int n_pesi)
{
Percettrone p;
p.pesi = (double *)malloc(sizeof(double) * n_pesi);
for (int i = 0; i < n_pesi; i++)
{
p.pesi[i] = randomico();
}
p.bias = randomico();
p.size = n_pesi;
return p;
}
Layer inizializza_layer(int n_percettroni, int n_pesi)
{
Layer layer;
layer.percettroni = (Percettrone *)malloc(sizeof(Percettrone) * n_percettroni);
for (int i = 0; i < n_percettroni; i++)
{
layer.percettroni[i] = inizializza_percettrone(n_pesi);
}
layer.size = n_percettroni;
return layer;
}
ReteNeurale inizializza_rete_neurale(int numero_layers, int numero_percettroni_iniziali, int numero_input)
{
ReteNeurale r;
r.layers = (Layer *)malloc(sizeof(Layer) * numero_layers);
r.size = numero_layers;
// Funzione esponenziale inversa layer 5
for (int livello = 0; livello < numero_layers; livello++)
{
double esponente = (double)livello / (double)numero_layers;
double frazione = (double)1 / (double)numero_percettroni_iniziali;
int numero_percettroni_livello = (int)((double)numero_percettroni_iniziali * pow(frazione, esponente));
if (livello == numero_layers - 1)
numero_percettroni_livello = 1;
// printf("esponente %f -> frazione: %f\n", esponente, frazione);
printf("Layer %d -> percettroni: %d\n", livello, numero_percettroni_livello);
if (livello == 0)
r.layers[livello] = inizializza_layer(numero_percettroni_livello, numero_input);
else
r.layers[livello] = inizializza_layer(numero_percettroni_livello, r.layers[livello - 1].size);
}
return r;
}
/*
################# PREVISIONI ################################
*/
double **elabora_gradienti(ReteNeurale rete_neurale, double gradiente_errore, double **sigmoidi)
{
double **gradienti = (double **)malloc(sizeof(double *) * rete_neurale.size);
// Alloco la dimensione per ogni layer
for (int indice_layer = 0; indice_layer < rete_neurale.size; indice_layer++)
{
gradienti[indice_layer] = (double *)malloc(sizeof(double) * rete_neurale.layers[indice_layer].size);
}
// Gradiente del percettrone output
gradienti[rete_neurale.size - 1][0] = gradiente_errore * derivata_sigmoide(sigmoidi[rete_neurale.size - 1][0]);
discesa_gradiente(rete_neurale, sigmoidi, gradienti);
return gradienti;
}
double sigmoide(Percettrone p, double *valori)
{
double sommatoria = 0.0;
for (int i = 0; i < p.size; i++)
{
sommatoria += (valori[i] * p.pesi[i]);
// printf("valore [%f] peso[%f] ", valori[i], p.pesi[i]);
}
sommatoria += p.bias;
double risultato = 1.0 / (1.0 + exp(-sommatoria));
// printf(" sommatoria %f -> %f\n",sommatoria, risultato);
return risultato;
}
double derivata_sigmoide(double valore)
{
return (valore * (1.0 - valore));
}
int previsione(double valore)
{
if (valore >= soglia_sigmoide)
return 1;
else
return 0;
}
void discesa_gradiente(ReteNeurale rete, double **sigmoidi, double **gradienti)
{
for (int indice_layer = rete.size - 2; indice_layer >= 0; indice_layer--)
{
for (int indice_percettrone = 0; indice_percettrone < rete.layers[indice_layer].size; indice_percettrone++)
{
double derivata_attivazione = sigmoidi[indice_layer][indice_percettrone] * (1.0 - sigmoidi[indice_layer][indice_percettrone]);
double gradiente_disceso = calcola_gradiente_disceso(rete, indice_layer + 1, indice_percettrone, gradienti);
gradienti[indice_layer][indice_percettrone] = gradiente_disceso * derivata_attivazione;
}
}
}
double calcola_gradiente_disceso(ReteNeurale rete, int livello, int indice_peso, double **gradienti)
{
double sommatoria = 0.0;
for (int indice_percettrone = 0; indice_percettrone < rete.layers[livello].size; indice_percettrone++)
{
sommatoria += (gradienti[livello][indice_peso] * rete.layers[livello].percettroni[indice_percettrone].pesi[indice_peso]);
}
return sommatoria;
}
double **elabora_sigmoidi(ReteNeurale rete, Istanza istanza)
{
double **sigmoidi = (double **)malloc(sizeof(double *) * rete.size);
double *inputs = (double *)malloc(sizeof(double *) * N_INPUTS);
for (int i = 0; i < N_INPUTS; i++)
{
inputs[i] = (double)istanza.dati[i];
}
sigmoidi[0] = (double *)malloc(sizeof(double) * rete.layers[0].size);
for (int indice_percettrone = 0; indice_percettrone < rete.layers[0].size; indice_percettrone++)
{
sigmoidi[0][indice_percettrone] = sigmoide(rete.layers[0].percettroni[indice_percettrone], inputs);
}
for (int indice_layer = 1; indice_layer < rete.size; indice_layer++)
{
sigmoidi[indice_layer] = (double *)malloc(sizeof(double) * rete.layers[indice_layer].size);
for (int indice_percettrone = 0; indice_percettrone < rete.layers[indice_layer].size; indice_percettrone++)
{
sigmoidi[indice_layer][indice_percettrone] = sigmoide(rete.layers[indice_layer].percettroni[indice_percettrone], sigmoidi[indice_layer - 1]);
}
}
return sigmoidi;
}
/*
################# CORREZIONI ################################
*/
void aggiorna_pesi(ReteNeurale *rete_neurale, double **sigmoidi, double **gradienti, Istanza istanza)
{
for (int indice_peso = 0; indice_peso < rete_neurale->layers[rete_neurale->size - 1].percettroni[0].size; indice_peso++)
{
// Determino gradiente del peso
double gradiente_peso = gradienti[rete_neurale->size - 1][0] * sigmoidi[rete_neurale->size - 2][indice_peso];
rete_neurale->layers[rete_neurale->size - 1].percettroni[0].pesi[indice_peso] += gradiente_peso * LRE;
}
rete_neurale->layers[rete_neurale->size - 1].percettroni[0].bias += gradienti[rete_neurale->size - 1][0] * LRE;
// Applico la correzione dal penultimo layer andando indietro fino al secondo (il primo si fa diverso)
for (int indice_layer = rete_neurale->size - 2; indice_layer >= 0; indice_layer--)
{
// Applico la correzione a tutti i percettroni del layer dal primo a seguire
for (int indice_percettrone = 0; indice_percettrone < rete_neurale->layers[indice_layer].size; indice_percettrone++)
{
// Devo prendere il gradiente del percettrone e moltiplicarlo con gli input associati ai pesi
if (indice_layer != 0)
{
correggi_pesi_percettrone_double(&rete_neurale->layers[indice_layer].percettroni[indice_percettrone], indice_layer, sigmoidi, gradienti[indice_layer][indice_percettrone]);
}
else
{
correggi_pesi_percettrone_byte(&rete_neurale->layers[0].percettroni[indice_percettrone], istanza, gradienti[0][indice_percettrone], indice_percettrone);
}
}
}
}
void correggi_pesi_percettrone_double(Percettrone *p, int layer, double **input, double gradiente_percettrone)
{
for (int indice_peso = 0; indice_peso < p->size; indice_peso++)
{
// Determino il gradiente del peso
double gradiente_peso = gradiente_percettrone * input[layer - 1][indice_peso];
// Modifico il peso
p->pesi[indice_peso] += (gradiente_peso * LRE);
}
p->bias += (gradiente_percettrone * LRE);
}
void correggi_pesi_percettrone_byte(Percettrone *p, Istanza input, double gradiente_percettrone, int indice_percettrone)
{
for (int indice_peso = 0; indice_peso < p->size; indice_peso++)
{
// Determino il gradiente del peso
double gradiente_peso = gradiente_percettrone * (double)input.dati[indice_peso];
// Modifico il peso Qui si impalla perchè per qualche ragione arriva size elevatissimo
p->pesi[indice_peso] += (gradiente_peso * LRE);
}
p->bias += (gradiente_percettrone * LRE);
}
/*
################# IMPORT EXPORT ################################
*/
void salvaReteNeurale(const char *filename, ReteNeurale *rete)
{
FILE *file = fopen(filename, "wb");
if (!file)
{
perror("Errore nell'apertura del file");
exit(EXIT_FAILURE);
}
// Scrivi il numero di layer
fwrite(&rete->size, sizeof(int), 1, file);
// Scrivi ogni layer
for (int i = 0; i < rete->size; i++)
{
Layer *layer = &rete->layers[i];
fwrite(&layer->size, sizeof(int), 1, file);
// Scrivi ogni percettrone nel layer
for (int j = 0; j < layer->size; j++)
{
Percettrone *perc = &layer->percettroni[j];
fwrite(&perc->size, sizeof(int), 1, file);
fwrite(perc->pesi, sizeof(double), perc->size, file);
fwrite(&perc->bias, sizeof(double), 1, file);
}
}
fclose(file);
}
ReteNeurale *caricaReteNeurale(const char *filename)
{
FILE *file = fopen(filename, "rb");
if (!file)
{
perror("Errore nell'apertura del file");
return NULL;
}
ReteNeurale *rete = malloc(sizeof(ReteNeurale));
if (!rete)
{
perror("Errore nell'allocazione della memoria");
return NULL;
}
// Leggi il numero di layer
fread(&rete->size, sizeof(int), 1, file);
rete->layers = malloc(rete->size * sizeof(Layer));
if (!rete->layers)
{
perror("Errore nell'allocazione della memoria");
return NULL;
}
// Leggi ogni layer
for (int i = 0; i < rete->size; i++)
{
Layer *layer = &rete->layers[i];
fread(&layer->size, sizeof(int), 1, file);
layer->percettroni = malloc(layer->size * sizeof(Percettrone));
if (!layer->percettroni)
{
perror("Errore nell'allocazione della memoria");
return NULL;
}
// Leggi ogni percettrone nel layer
for (int j = 0; j < layer->size; j++)
{
Percettrone *perc = &layer->percettroni[j];
fread(&perc->size, sizeof(int), 1, file);
perc->pesi = malloc(perc->size * sizeof(double));
if (!perc->pesi)
{
perror("Errore nell'allocazione della memoria");
return NULL;
}
fread(perc->pesi, sizeof(double), perc->size, file);
fread(&perc->bias, sizeof(double), 1, file);
}
}
fclose(file);
return rete;
}