- 104
- 3
- CPU
- i5-10500 3.2Ghz
- Dissipatore
- Non specificato
- Scheda Madre
- Non specificata
- HDD
- M.2 251GB e M.2 500GB
- RAM
- 16GB DDR4 2666mhz
- GPU
- Grafica Intel® UHD 630
- Audio
- Non specificata
- Monitor
- 1920x1080 27"
- PSU
- Non specificato
- Case
- Non specificato
- Periferiche
- Nono specificato
- Net
- Eolo
- OS
- Ubuntu
Non so davvero come rendere questo programma più semplice.
Il programma deve effettuare la somma di due numeri presi in input, ma cioè che se uscito fuori è al limite del pauroso.
La mia prima idea è stata quella di creare due buffer entrambi di 5byte(il numero massimo di cifre rappresentabili con 16 bit in base 10) da riempire con i valori presi in input(un valore per ogni cifra), i quali verranno "tradotti" da ASCCI a numero "vero e proprio" all'interno degli stessi buffer, quindi mi sarei ritrovato con due buffer si interi dove ogni valore era la cifra di un numero, in questo modo mi sarei sommato i due buffer e avrei dovuto riconvertire tutti i valori in ASCII per ristamparli a schermo.
Ovviamente con vari controlli per evitare che non vengano inseriti lettere, con la stessa interruzione della lettura digitando il carattere 13(CL).
Ho iniziato a scrivere il programma am mi sembra davvero esagerato, e davvero necessario fare tutto ciò per sommare due numeri a 16bit, se l'avrei scritto su un architettura a 32bit averi dovuto creare un buffer di troppi byte
C'è un modo migliore di fare ciò?
Inviato da MI 8 tramite App ufficiale di Tom\'s Hardware Italia Forum
Il programma deve effettuare la somma di due numeri presi in input, ma cioè che se uscito fuori è al limite del pauroso.
La mia prima idea è stata quella di creare due buffer entrambi di 5byte(il numero massimo di cifre rappresentabili con 16 bit in base 10) da riempire con i valori presi in input(un valore per ogni cifra), i quali verranno "tradotti" da ASCCI a numero "vero e proprio" all'interno degli stessi buffer, quindi mi sarei ritrovato con due buffer si interi dove ogni valore era la cifra di un numero, in questo modo mi sarei sommato i due buffer e avrei dovuto riconvertire tutti i valori in ASCII per ristamparli a schermo.
Ovviamente con vari controlli per evitare che non vengano inseriti lettere, con la stessa interruzione della lettura digitando il carattere 13(CL).
Ho iniziato a scrivere il programma am mi sembra davvero esagerato, e davvero necessario fare tutto ciò per sommare due numeri a 16bit, se l'avrei scritto su un architettura a 32bit averi dovuto creare un buffer di troppi byte
C'è un modo migliore di fare ciò?
Inviato da MI 8 tramite App ufficiale di Tom\'s Hardware Italia Forum