salve mi sono approcciato da poco come autodidatta all'informatica per il piacere di programmare, sono ancora agli inizi però ho provato a fare uno dei tanti esercizi trovati in rete e mi sono bloccato...
l'esercizio è banale: media di due numeri.
int a, b;
float media;
printf("inserisci il primo numero: \n");
scanf("%d", &a);
printf("inserisci il secondo numero: \n");
scanf("%d", &b);
media = ( a + b ) / 2;
printf("la media tra i due numeri è %f\n\n\n", media);
questo è quello scritto da me che però come risultato non esce un decimale, se invece modifico le variabili a e b non come interi ma come decimali funziona come dovrebbe.
come mai ?
Cioè due numeri (interi) la cui somma da un numero (intero) il quale diviso due da un secondo numero (decimale) perché non è corretto ?
Se invece volessi lasciare le variabili a e b intere, funziona inserendo un quarta variabile (somma) che però deve essere decimale... come può la somma di due numeri interi essere decimali? solo se intendo quei due numeri come x.0 e y.0... auto (
grazie in anticipo!!
l'esercizio è banale: media di due numeri.
int a, b;
float media;
printf("inserisci il primo numero: \n");
scanf("%d", &a);
printf("inserisci il secondo numero: \n");
scanf("%d", &b);
media = ( a + b ) / 2;
printf("la media tra i due numeri è %f\n\n\n", media);
questo è quello scritto da me che però come risultato non esce un decimale, se invece modifico le variabili a e b non come interi ma come decimali funziona come dovrebbe.
come mai ?
Cioè due numeri (interi) la cui somma da un numero (intero) il quale diviso due da un secondo numero (decimale) perché non è corretto ?
Se invece volessi lasciare le variabili a e b intere, funziona inserendo un quarta variabile (somma) che però deve essere decimale... come può la somma di due numeri interi essere decimali? solo se intendo quei due numeri come x.0 e y.0... auto (
grazie in anticipo!!