Der Grundgedanke war/ist:
Nicht überall ist schnelles Internet verfügbar. Schnelle Computer sind hingegegn fast überall vorhanden. Warum also nicht geringe Bandbreite durch Prozessorleistung ausgleichen?
Die gewünschte Datei wird analysiert, verschiedene Formeln werden durchgetestet (die dann eben erstmal noch gefunden werden müssen) und die kleinste Formel wird an den Client gesendet, der daraus dann wieder die Datei "berechnet".
Angenommen man kauft sich ein digitales Produkt mit 8 Gb größe, dann dauert es je nach Anbindung Stunden oder gar Tage, bis diese 8 Gb herunter geladen sind. Wenn ich jetzt aber etwas abstrakt denke und z.B. eine Formel/Rechnung habe, die einige Mb groß wäre, dann kann ein Computer die ursprüngliche Datei in einer viel kürzeren Zeit neu berechnen. Man kann (und sollte auch, da der Arbeitsspeicher begrenzt ist) die 8 Gb dann auch aufteilen, z.B. in 100 Mb Pakete. In der Berechnungsdatei stehen dann die Formeln aller Pakete und am Ende werden diese wieder zusammen gesetzt.
Die Formel könnte z.B. aus Wurzeln bestehen oder aus Potenzen, die eine möglichst große Zahl ergeben und der "Rest" wird übergeben: 1234^56789+1287218738172
Das ist halt alles nur theoretisch ... die Ursprungsfrage zielt darauf ab überhaupt eine Zahl zu bekommen, an der ich die Machbarkeit testen kann.