KRAiZEE
Grünschnabel
Hi erstmal!
Ich hab da 'n echt fettes Problem!
Übermorgen muss das Proggi fertig sein (mach gerade 'ne Umschulung zum Anwendungsentwickler).
Also die Aufgabe:
Die Aufgabestellung ist ziemlich schwammig, ich soll einen Dualtaschenrechner als Windows-Konsolenanwendung erstellen, mit Menue, der multipliziert & addiert, soweit so gut...
Mein Problem ist:
Wenn ich das mit einem Array realisieren will, denke ich müsste ich mir erstmal
überlegen ob 8bit, 16bit, etc. (berichtigt mich bitte wenn ich falsch liege) doch wie würde das funktionieren? Ausgegangen von 8 bit könnte das Ergebnis der Rechnung demnach maximal den Wert 256 darstellen. Die Ausgabe müsste also z.B. in 16bit laufen um sowas wie 11111111 * 11111111 überhaupt noch berechnen zu können !?
Ich dreh mich da irgendwie Mental im Kreis..
Vielleicht hat da jemand 'n netten Denkanstoß für mich....
KRAiZEE 2004
Ich hab da 'n echt fettes Problem!
Übermorgen muss das Proggi fertig sein (mach gerade 'ne Umschulung zum Anwendungsentwickler).
Also die Aufgabe:
Die Aufgabestellung ist ziemlich schwammig, ich soll einen Dualtaschenrechner als Windows-Konsolenanwendung erstellen, mit Menue, der multipliziert & addiert, soweit so gut...
Mein Problem ist:
Wenn ich das mit einem Array realisieren will, denke ich müsste ich mir erstmal
überlegen ob 8bit, 16bit, etc. (berichtigt mich bitte wenn ich falsch liege) doch wie würde das funktionieren? Ausgegangen von 8 bit könnte das Ergebnis der Rechnung demnach maximal den Wert 256 darstellen. Die Ausgabe müsste also z.B. in 16bit laufen um sowas wie 11111111 * 11111111 überhaupt noch berechnen zu können !?
Ich dreh mich da irgendwie Mental im Kreis..
Vielleicht hat da jemand 'n netten Denkanstoß für mich....
KRAiZEE 2004