Discussion:
Prozessorleistung einst und jetzt (was: Linux-Neuling)
Add Reply
Diedrich Ehlerding
2024-01-10 15:32:35 UTC
Antworten
Permalink
DAS klingt mir nun eher nach ein konzeptionellem Problem :-)
Zu meiner Studi-Zeit hat DER Zentral-Computer 12 MB RAM und es
reichte fuer ALLE. Gleichzeitig. Interaktiv.
Na ja - die konnten damit auch nicht viel machen.
Es reichte fuer (fast) alle wissenschaftliche Anwendungen einer
grossen Universitaet.
Es gab nur noch wenige zusaetzliche Spezial-Workstations in den
Instituten, hauptsaechlich fuer Grafik.
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte. Die
Briefe, die man heute auf dem Computer schreibt, werden aber nicht
schneller fertig als damals an der Schreibmaschine - sie werden nur
bunter und schöner.

Andererseits erinnere ich mich an einen Vortrag (um 1980 rum), in dem
jemand über einen Vektorrechner berichtete (wenn ich mich recht
erinnere, eine Maschine von CDC), damals ein Wunderwerk der Technik, der
dann, wenn die Anwendung eben vektorisierbar war (aber auch nur dann)
für seine Zeit gigantische Rechenleistungen von einigen 100 MFlops
erreichte. Zum Beispiel hatte der deutsche Wetterdienst wohl so eine
Maschine.

Was mit in Erinnerung geblieben ist aus dem Vortrag, war der Hinweis,
dass bei entsprechend komplexen Problemen Rechenleistung so gut wie nie
ausrecht - das Beispiel war damals die Wettervorhersage, bei der ein
dreidimensionales Gitter von Datenpunkten als Näherung für die
Atmosphäre bereitgestellt wird. Der Vortragende sagte damals ungefähr
"unsere Klimamodelle sind heute [also damals] so, dass wir mit unserer
Hardware die Chance haben, ein Gitter mit einer Kantenlänge von 10 km
waagerecht und 100 m vertikal zu berechnen und die Temperatur auf +-2°.
Die Landwirte bräuchten aber, etwa im Zusammenhang der Frage 'wo muss
ich Wasser versprühen, um meine Obstbaumblüten vor Frost zu schützen',
eine Auflösung von möglichst 100 m horizontal und 10 m vertikal, das
macht also den Faktor 10^5 in der Zahl der Gitterpunkte, und dazu kommt
dann die Temperaturgenauigkeit, und die Gleichungssysteme, die wir da
berechnen, haben eine Komplexität O(x^2) oder O(x^3), d.h. - einen
milliardenfach schnelleren Prozessor hätten wir gern, und natürlich auch
einen milklionenfach größeren Hauptspeicher".

(Ich lenke um; hat nix mehr mit Linux zu tun, nur noch mit Nostalgie)
--
gpg-Key (DSA 1024) D36AD663E6DB91A4
fingerprint = 2983 4D54 E00B 8483 B5B8 C7D1 D36A D663 E6DB 91A4
HTML-Mail wird ungeleſen entſorgt.
Michael Kraemer
2024-01-10 16:17:37 UTC
Antworten
Permalink
Post by Diedrich Ehlerding
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte. Die
Briefe, die man heute auf dem Computer schreibt, werden aber nicht
schneller fertig als damals an der Schreibmaschine - sie werden nur
bunter und schöner.
Und auch bei "richtigen" Anwendungen wird man nicht schneller fertig
wenn mehr Rechenleistung da ist.
Man erfindet dann grössere Problemstellungen und wartet am Ende
doch wieder Stunden oder gar Tage auf das Ergebnis.
Kay Martinen
2024-01-10 17:05:56 UTC
Antworten
Permalink
Post by Michael Kraemer
Post by Diedrich Ehlerding
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte. Die
Briefe, die man heute auf dem Computer schreibt, werden aber nicht
schneller fertig als damals an der Schreibmaschine - sie werden nur
bunter und schöner.
Und verschwenden mehr... von allen Ressourcen.
Post by Michael Kraemer
Und auch bei "richtigen" Anwendungen wird man nicht schneller fertig
wenn mehr Rechenleistung da ist.
Effizienter Briefeschreiben geht eben nur mit "KI" [Aktuelle Sau im Dorf] :)

Klar, Ich schaffe mir gleich einen Virtuellen Briefkasten in "Cloud
Seven" an.
Post by Michael Kraemer
Man erfindet dann grössere Problemstellungen und wartet am Ende
doch wieder Stunden oder gar Tage auf das Ergebnis.
Irgendwie mußte ich an ein Altes Franzis RPB Buch denken, über den Laser.

"Der Laser ist eine Technologie die noch nach einer Anwendung sucht"

Stand dort - aus der Frühzeit der Erforschung.

Sicher ist nur eines. Die Anwendungen WERDEN gefunden wenn die
Möglichkeiten erst da sind. Klimamodelle, Uni-Mainframe, Laser,
Vorratsdatenspeicherung, Chatkontrolle, etc. ppp.

<ironie> Es wäre ja schließlich auch "sträflicher Leichtsinn" gewesen
den Deutschen damals die Forschung zu überlassen... dann lieber selbst
machen, bauen und... bis heute sind die USA das einzige Land das
Nuklearwaffen auf ein anderes abgefeuert hat. </ironie>

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Marcel Mueller
2024-01-10 17:43:56 UTC
Antworten
Permalink
Post by Michael Kraemer
Und auch bei "richtigen" Anwendungen wird man nicht schneller fertig
wenn mehr Rechenleistung da ist.
Man erfindet dann grössere Problemstellungen und wartet am Ende
doch wieder Stunden oder gar Tage auf das Ergebnis.
Nach meinen Erfahrungen wird Software immer so programmiert, dass sie
den gut ausgestatteten Rechner des Entwicklers nicht völlig lahm legt.
Auf dem Rechner der User funktioniert das nur deswegen einigermaßen gut,
weil der zwei Jahre später, wenn er das Produkt auf seiner Kiste hat,
mindestens gleichschnell ist.


Marcel
Arno Welzel
2024-01-10 21:57:07 UTC
Antworten
Permalink
Post by Marcel Mueller
Post by Michael Kraemer
Und auch bei "richtigen" Anwendungen wird man nicht schneller fertig
wenn mehr Rechenleistung da ist.
Man erfindet dann grössere Problemstellungen und wartet am Ende
doch wieder Stunden oder gar Tage auf das Ergebnis.
Nach meinen Erfahrungen wird Software immer so programmiert, dass sie
den gut ausgestatteten Rechner des Entwicklers nicht völlig lahm legt.
Auf dem Rechner der User funktioniert das nur deswegen einigermaßen gut,
weil der zwei Jahre später, wenn er das Produkt auf seiner Kiste hat,
mindestens gleichschnell ist.
Das gilt nur, wenn der Entwickler immer die aller neueste Hardware hat.
Das ist keinesfalls immer gegeben.
--
Arno Welzel
https://arnowelzel.de
Stefan Möding
2024-01-11 06:48:51 UTC
Antworten
Permalink
Post by Arno Welzel
Das gilt nur, wenn der Entwickler immer die aller neueste Hardware hat.
Das ist keinesfalls immer gegeben.
Da läuft die Anwendung ja auch nur mit 5 Demo-Datensätzen.
Dafür reicht es dann ja auch.
--
Stefan
Arno Welzel
2024-01-11 17:14:54 UTC
Antworten
Permalink
Post by Stefan Möding
Post by Arno Welzel
Das gilt nur, wenn der Entwickler immer die aller neueste Hardware hat.
Das ist keinesfalls immer gegeben.
Da läuft die Anwendung ja auch nur mit 5 Demo-Datensätzen.
In meiner Welt nicht. Da gehört zur Abnahme der Software *zwingend* auch
ein Lasttest dazu.
--
Arno Welzel
https://arnowelzel.de
Kay Martinen
2024-01-11 17:34:52 UTC
Antworten
Permalink
Post by Arno Welzel
Post by Stefan Möding
Post by Arno Welzel
Das gilt nur, wenn der Entwickler immer die aller neueste Hardware hat.
Das ist keinesfalls immer gegeben.
Da läuft die Anwendung ja auch nur mit 5 Demo-Datensätzen.
In meiner Welt nicht. Da gehört zur Abnahme der Software *zwingend* auch
ein Lasttest dazu.
Mit 100% Last auf jedem Kern bis die Hardware kocht?

Ein Echter Test muß doch bis an die Schmerzgrenze gehen sonst macht's
keinen Sinn. ;-)

Erinnere mich dunkel an (SATA) Chips die bei zu viel Temperatur Fehler
machten und das Dateisystem korrumpierten...

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Gerrit Heitsch
2024-01-11 17:53:37 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Arno Welzel
Post by Stefan Möding
Post by Arno Welzel
Das gilt nur, wenn der Entwickler immer die aller neueste Hardware hat.
Das ist keinesfalls immer gegeben.
Da läuft die Anwendung ja auch nur mit 5 Demo-Datensätzen.
In meiner Welt nicht. Da gehört zur Abnahme der Software *zwingend* auch
ein Lasttest dazu.
Mit 100% Last auf jedem Kern bis die Hardware kocht?
Ein Echter Test muß doch bis an die Schmerzgrenze gehen sonst macht's
keinen Sinn. ;-)
Erinnere mich dunkel an (SATA) Chips die bei zu viel Temperatur Fehler
machten und das Dateisystem korrumpierten...
Intel hatte mal welche bei denen die SATA-Ports nach ein paar Monaten
ausfallen konnten:

https://www.anandtech.com/show/4142/intel-discovers-bug-in-6series-chipset-begins-recall

Später dann auch noch einen Fehler in der C2000-Serie der Atom-CPUs:

https://www.theregister.com/2017/02/06/cisco_intel_decline_to_link_product_warning_to_faulty_chip/

Den konnte man aber selber fixen wenn man löten kann:

https://schultschik.de/technik/synology-ds415-intel-c2000-bug-reparatur



Gerrit
Markus Elsken
2024-01-11 22:50:38 UTC
Antworten
Permalink
Moin!
Post by Kay Martinen
Mit 100% Last auf jedem Kern bis die Hardware kocht?
Volle Last ja, aber kochen darf da nichts. Da müssen selbst bei 100%
noch Reserven sein. Nicht unüblich, dass so ein Server die nächsten
Jahre bei maximaler Last verbringt, das muss er ohne Zucken aushalten.

mfg Markus
Ignatios Souvatzis
2024-01-13 15:36:07 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Arno Welzel
Post by Stefan Möding
Post by Arno Welzel
Das gilt nur, wenn der Entwickler immer die aller neueste Hardware hat.
Das ist keinesfalls immer gegeben.
Da läuft die Anwendung ja auch nur mit 5 Demo-Datensätzen.
In meiner Welt nicht. Da gehört zur Abnahme der Software *zwingend* auch
ein Lasttest dazu.
Mit 100% Last auf jedem Kern bis die Hardware kocht?
Das ist ja nicht der Sinn des ganzen. Nein, mit realistisch großen
Datensätzen, dann fällt auf, ob der geneigte Entwickler unnötigerweise
einen exponentiell (oder auch nur kubisch) wachsenden Algorithmus
irgendwo einsetzt oder sonst einen Engpass hineinkonstruiert hat.

-is
Kay Martinen
2024-01-13 17:56:21 UTC
Antworten
Permalink
Post by Ignatios Souvatzis
Post by Kay Martinen
Post by Arno Welzel
Post by Stefan Möding
Post by Arno Welzel
Das gilt nur, wenn der Entwickler immer die aller neueste Hardware hat.
Das ist keinesfalls immer gegeben.
Da läuft die Anwendung ja auch nur mit 5 Demo-Datensätzen.
In meiner Welt nicht. Da gehört zur Abnahme der Software *zwingend* auch
ein Lasttest dazu.
Mit 100% Last auf jedem Kern bis die Hardware kocht?
Das ist ja nicht der Sinn des ganzen. Nein, mit realistisch großen
Datensätzen, dann fällt auf, ob der geneigte Entwickler unnötigerweise
einen exponentiell (oder auch nur kubisch) wachsenden Algorithmus
irgendwo einsetzt oder sonst einen Engpass hineinkonstruiert hat.
Würde dann nicht auch die Last auf der CPU immer höher werden, oder
wenn's nicht weiter geht, der Durchsatz einbrechen?

Ich hätte korrekter sein und stattdessen "bis die Software kocht"
schreiben sollen.

Die HW bremst sich ja schon eine weile lang selbst aus wenn's ihr zu
warm wird. Was dann allerdings; bei steigender Arbeitslast auch wieder
zum kochen neigt. Nein, nicht die HW, sondern den Prüfer (Ziel verfehlt
=neuprogrammieren) :-)


Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Arno Welzel
2024-01-15 20:09:36 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Arno Welzel
Post by Stefan Möding
Post by Arno Welzel
Das gilt nur, wenn der Entwickler immer die aller neueste Hardware hat.
Das ist keinesfalls immer gegeben.
Da läuft die Anwendung ja auch nur mit 5 Demo-Datensätzen.
In meiner Welt nicht. Da gehört zur Abnahme der Software *zwingend* auch
ein Lasttest dazu.
Mit 100% Last auf jedem Kern bis die Hardware kocht?
Wenn "die Hardware kocht" unter Last, dann ist sie fehlerhaft.

Nein, ich meine Lasttests, die sicherstellen, dass die die Software und
Umgebung, in der sie läuft, die geforderte Leistung sicherstellt. Und
das sind ggf. auch mal mindestens 1000 HTTP-Requests pro Sekunde inkl.
Anfragen an die Datenbank, in der einige TB an Daten liegen.
--
Arno Welzel
https://arnowelzel.de
Marcel Mueller
2024-01-11 07:29:48 UTC
Antworten
Permalink
Post by Arno Welzel
Post by Marcel Mueller
Nach meinen Erfahrungen wird Software immer so programmiert, dass sie
den gut ausgestatteten Rechner des Entwicklers nicht völlig lahm legt.
Auf dem Rechner der User funktioniert das nur deswegen einigermaßen gut,
weil der zwei Jahre später, wenn er das Produkt auf seiner Kiste hat,
mindestens gleichschnell ist.
Das gilt nur, wenn der Entwickler immer die aller neueste Hardware hat.
Das ist keinesfalls immer gegeben.
Der Entwickler hat nicht die neueste, aber zum Kaufzeitpunkt gut
ausgestattete Hardware, denn die Entwickertools sind wahrlich keine
Kostverächter.
Aber die meisten Entwickler, die ich kenne (und das sind einige) achten
überhaupt nicht darauf, welche Datenstrukturen sie verwenden, und es ist
ihnen auch vollkommen egal, ob dabei in jedem Schleifendurchlauf nochmal
der gesamte Arbeitsvorrat durchsucht wird, also quadratische
Komplexität. Erst wenn eine Stelle wirklich ein Problem macht, wird
optimiert.

Es gibt eine alte Entwickler-Regel: first make it work, then make it
fast. Die produziert genau jene, verbreitete Software, die alle zum
Entwicklungszeitpunkt verfügbaren Systemressourcen effizient verbraucht.
Und wenn man berücksichtigt, dass "make it fast" nicht selten bedeutet
"wegschmeißen und neu machen", ist die vermeintliche Ersparnis durch
diese Vorgehensweise auch gar nicht mehr so groß.

Das ist halt eine ökonomische Sache. Die Entwickler bezahlt der
Softwarehersteller, das Blech (Rechner) bezahlt der Kunde, also
Ressourcenverbrauch egal.

Es gibt eine Entwicklung, die das ändern könnte: SAAS. Wenn Software nur
noch als Service im Netz bereit gestellt wird, muss der betreibende auf
einmal das Blech selber bezahlen. Und jetzt kann es ökonomisch sinnvoll
werden, auf den Ressourcenverbrauch der Software zu achten.

Ich fand die obige Regel schon immer falsch. Man sollte immer die
optimalen Datenstrukturen und Algorithmen verwenden, und nur wenn das
signifikanten Mehraufwand bedeutet, überlegen, ob es an der jeweiligen
Stelle auch lohnt. Aber dazu muss man halt auch erst mal verinnerlichen,
was Algorithmen und Datenstrukturen sind, und nicht nur Copy & Paste von
Stackoverflow beherrschen.


Marcel
Arno Welzel
2024-01-11 17:17:14 UTC
Antworten
Permalink
Marcel Mueller, 2024-01-11 08:29:

[...]
Post by Marcel Mueller
Aber die meisten Entwickler, die ich kenne (und das sind einige) achten
überhaupt nicht darauf, welche Datenstrukturen sie verwenden, und es ist
ihnen auch vollkommen egal, ob dabei in jedem Schleifendurchlauf nochmal
der gesamte Arbeitsvorrat durchsucht wird, also quadratische
Komplexität. Erst wenn eine Stelle wirklich ein Problem macht, wird
optimiert.
Die würden bei mir rausfliegen. Ja, das meine ich ernst. Ja, ich kann
sowas entscheiden.
Post by Marcel Mueller
Es gibt eine alte Entwickler-Regel: first make it work, then make it
fast. Die produziert genau jene, verbreitete Software, die alle zum
Entwicklungszeitpunkt verfügbaren Systemressourcen effizient verbraucht.
Diese Regel ist Schwachsinn. Genauso wie "never change a running
system", wenn es um Sicherheitsupdates geht.
Post by Marcel Mueller
Und wenn man berücksichtigt, dass "make it fast" nicht selten bedeutet
"wegschmeißen und neu machen", ist die vermeintliche Ersparnis durch
diese Vorgehensweise auch gar nicht mehr so groß.
Genau deswegen macht man es auch nicht so.
Post by Marcel Mueller
Das ist halt eine ökonomische Sache. Die Entwickler bezahlt der
Softwarehersteller, das Blech (Rechner) bezahlt der Kunde, also
Ressourcenverbrauch egal.
In meiner Welt nicht.
Post by Marcel Mueller
Es gibt eine Entwicklung, die das ändern könnte: SAAS. Wenn Software nur
noch als Service im Netz bereit gestellt wird, muss der betreibende auf
einmal das Blech selber bezahlen. Und jetzt kann es ökonomisch sinnvoll
werden, auf den Ressourcenverbrauch der Software zu achten.
Genau das passiert zunehmend.
--
Arno Welzel
https://arnowelzel.de
Kay Martinen
2024-01-11 17:23:45 UTC
Antworten
Permalink
Post by Marcel Mueller
Post by Arno Welzel
Post by Marcel Mueller
Nach meinen Erfahrungen wird Software immer so programmiert, dass sie
den gut ausgestatteten Rechner des Entwicklers nicht völlig lahm legt.
Auf dem Rechner der User funktioniert das nur deswegen einigermaßen gut,
weil der zwei Jahre später, wenn er das Produkt auf seiner Kiste hat,
mindestens gleichschnell ist.
Noch'n Schweinezyklus?
Post by Marcel Mueller
Post by Arno Welzel
Das gilt nur, wenn der Entwickler immer die aller neueste Hardware hat.
Das ist keinesfalls immer gegeben.
Dann könnte man Gute und Schlechte Entwickler unterscheiden - wenn man
wüsste welche HW sie im Einsatz hatten bei $Produkt_X??? ;-)

Wenn $Produkt_X auf Kundenhardware schnell genug läuft UND

War die "Erst"-HW älter muß er ja gut sein.
War die "Erst"-HW neuer muß er schlecht sein.

Wenn es so einfach wäre.... Toll oder? ;)
Post by Marcel Mueller
Der Entwickler hat nicht die neueste, aber zum Kaufzeitpunkt gut
ausgestattete Hardware, denn die Entwickertools sind wahrlich keine
Kostverächter.
Und immer dieser Kostendruck sich wegen neuerer Tools immer neue HW
anschaffen zu müssen - oder?
Post by Marcel Mueller
Aber die meisten Entwickler, die ich kenne (und das sind einige) achten
überhaupt nicht darauf, welche Datenstrukturen sie verwenden, und es ist
ihnen auch vollkommen egal, ob dabei in jedem Schleifendurchlauf nochmal
der gesamte Arbeitsvorrat durchsucht wird, also quadratische
Komplexität. Erst wenn eine Stelle wirklich ein Problem macht, wird
optimiert.
Es gibt eine alte Entwickler-Regel: first make it work, then make it
fast. Die produziert genau jene, verbreitete Software, die alle zum
Entwicklungszeitpunkt verfügbaren Systemressourcen effizient verbraucht.
Und wenn man berücksichtigt, dass "make it fast" nicht selten bedeutet
"wegschmeißen und neu machen", ist die vermeintliche Ersparnis durch
diese Vorgehensweise auch gar nicht mehr so groß.
Das ist halt eine ökonomische Sache. Die Entwickler bezahlt der
Softwarehersteller, das Blech (Rechner) bezahlt der Kunde, also
Ressourcenverbrauch egal.
Es gibt eine Entwicklung, die das ändern könnte: SAAS. Wenn Software nur
noch als Service im Netz bereit gestellt wird, muss der betreibende auf
einmal das Blech selber bezahlen. Und jetzt kann es ökonomisch sinnvoll
werden, auf den Ressourcenverbrauch der Software zu achten.
Das damit einhergehende "SW gehört nicht dir, du kannst sie nur Leasen"
Plus Online-Zwang finde ich dabei am (ver)störendsten.
Post by Marcel Mueller
Ich fand die obige Regel schon immer falsch. Man sollte immer die
optimalen Datenstrukturen und Algorithmen verwenden, und nur wenn das
signifikanten Mehraufwand bedeutet, überlegen, ob es an der jeweiligen
Stelle auch lohnt. Aber dazu muss man halt auch erst mal verinnerlichen,
was Algorithmen und Datenstrukturen sind, und nicht nur Copy & Paste von
Stackoverflow beherrschen.
Und mir fällt hierbei auf das immer (nur) noch von "Entwicklern" die
Rede ist, und nicht mehr von Programmierern.

Liegt das NUR daran das es oft "Developer" heißt und übersetzt wird,
oder sind die echten Programmierer ausgestorben? Vielleicht weil sie für
X Zeilen Code länger brauchten als $Timeslot befielt - und die Qualität
der Arbeit sowieso niemand mehr nach mißt (nicht kann oder will)?

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Marcel Mueller
2024-01-11 18:28:38 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Marcel Mueller
Der Entwickler hat nicht die neueste, aber zum Kaufzeitpunkt gut
ausgestattete Hardware, denn die Entwickertools sind wahrlich keine
Kostverächter.
Und immer dieser Kostendruck sich wegen neuerer Tools immer neue HW
anschaffen zu müssen - oder?
Das ist nicht primär treibend. Der Wechsel auf Win11 hat ähnlich viel
zusätzlich verbraucht, wie 2 Major Updates der Entwickertools.
Die üblichen ca. 5 Jahre Nutzungsdauer bekommt man schon hin.
Post by Kay Martinen
Post by Marcel Mueller
Es gibt eine Entwicklung, die das ändern könnte: SAAS. Wenn Software nur
noch als Service im Netz bereit gestellt wird, muss der betreibende auf
einmal das Blech selber bezahlen. Und jetzt kann es ökonomisch sinnvoll
werden, auf den Ressourcenverbrauch der Software zu achten.
Das damit einhergehende "SW gehört nicht dir, du kannst sie nur Leasen"
Plus Online-Zwang finde ich dabei am (ver)störendsten.
Das stört halt immer weniger Leute. Es gibt ja auch Vorteile.
Ich bin auch kein Freund davon, da es die Kosten mittelfristig hoch
treibt und häufig zu Kompatibilitätsproblemen kommt.
Post by Kay Martinen
Und mir fällt hierbei auf das immer (nur) noch von "Entwicklern" die
Rede ist, und nicht mehr von Programmierern.
Liegt das NUR daran das es oft "Developer" heißt und übersetzt wird,
Keine Ahnung. Das ist für mich synonym.


Marcel
Kay Martinen
2024-01-11 20:17:38 UTC
Antworten
Permalink
Post by Marcel Mueller
Post by Kay Martinen
Und mir fällt hierbei auf das immer (nur) noch von "Entwicklern" die
Rede ist, und nicht mehr von Programmierern.
Liegt das NUR daran das es oft "Developer" heißt und übersetzt wird,
Keine Ahnung. Das ist für mich synonym.
Wenn ich drüber nachdenke ist ein Entwickler aus meiner; eher externen;
Sicht viel mehr so was wie der Oberarchitekt eines Projektes. Also der,
der die Richtung vorgibt, die Teile organisiert, der einen Plan hat
(hoffentlich). Und vielleicht nicht mal selbst programmiert - oder es
könnte. Und Programmierer sind dann diejenigen die das was "entwickelt"
wurde umsetzen - müssen - in Code.

Das mag Theoretisch, Verkopft und Dysfunktional anmuten aber, mal
Ehrlich: In den Letzten Jahren habe ich den Eindruck das es zutreffen
könnte bei all den Fehlern die grade noch so entdeckt werden,
vermeidbaren Fehlentwicklungen und Bugs über die <irgendwer> gestolpert
ist - nur nicht der Hersteller. Okay, das ist nur die Halbe Wahrheit
denn es kommt ja noch mehr dazu.

Aber da denke ich unwillkürlich an den einen Specht der die Zivilisation
zerhacken könnte - wenn Häuser so gebaut würden wie Programme. :)


Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Günter Frenz
2024-01-11 22:55:27 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Marcel Mueller
Post by Kay Martinen
Und mir fällt hierbei auf das immer (nur) noch von "Entwicklern"
die Rede ist, und nicht mehr von Programmierern.
Liegt das NUR daran das es oft "Developer" heißt und übersetzt wird,
Keine Ahnung. Das ist für mich synonym.
Wenn ich drüber nachdenke ist ein Entwickler aus meiner; eher
externen; Sicht viel mehr so was wie der Oberarchitekt eines
Projektes. Also der, der die Richtung vorgibt, die Teile organisiert,
der einen Plan hat (hoffentlich). Und vielleicht nicht mal selbst
programmiert - oder es könnte. Und Programmierer sind dann diejenigen
die das was "entwickelt" wurde umsetzen - müssen - in Code.
Die letzteren sind nach der Berufsausbildung meist Fachinformatiker der
Fachrichtung Anwendungs_entwicklung_. Die Fachinformatiker gibt es
außerdem noch in den Geschmacksrichtungen Systemintegration, Daten- und
Prozessanalyse und Digitale Vernetzung. Die letzten beiden erst seit
2020, die anderen beiden schon seit 1997.

Bis denn
Günter
Marcel Mueller
2024-01-12 02:50:44 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Marcel Mueller
Post by Kay Martinen
Und mir fällt hierbei auf das immer (nur) noch von "Entwicklern" die
Rede ist, und nicht mehr von Programmierern.
Liegt das NUR daran das es oft "Developer" heißt und übersetzt wird,
Keine Ahnung. Das ist für mich synonym.
Wenn ich drüber nachdenke ist ein Entwickler aus meiner; eher externen;
Sicht viel mehr so was wie der Oberarchitekt eines Projektes. Also der,
der die Richtung vorgibt, die Teile organisiert, der einen Plan hat
(hoffentlich). Und vielleicht nicht mal selbst programmiert - oder es
könnte. Und Programmierer sind dann diejenigen die das was "entwickelt"
wurde umsetzen - müssen - in Code.
Diese Nomenklatur ist in der Branche nicht üblich. Was Du beschreibst
wäre ein Software-Architekt. Entwickler sind die Exekutiven.
Programmierer sagt heute keiner mehr. Suche mal nach einer
Stellenausschreibung für Programmierer. Aber die Tätigkeit heißt z.T.
immer noch Programmieren.
Post by Kay Martinen
Das mag Theoretisch, Verkopft und Dysfunktional anmuten aber, mal
Ehrlich: In den Letzten Jahren habe ich den Eindruck das es zutreffen
könnte bei all den Fehlern die grade noch so entdeckt werden,
vermeidbaren Fehlentwicklungen und Bugs über die <irgendwer> gestolpert
ist - nur nicht der Hersteller. Okay, das ist nur die Halbe Wahrheit
denn es kommt ja noch mehr dazu.
Bugs und Sicherheitslücken gibt und gab es immer. Der höhere
Vernetzungsgrad macht es nur einfacher, sie aus sicherer Entfernung und
massenhaft auszunutzen. Heißt, die Anforderungen sind stark gestiegen.

Hier ging es aber eher um die Rechenleistung früher und heute. Und da
musste man sich vor 40 Jahren halt wesentlich mehr Mühe geben. Es ist
also mehr Aufwand in die Programme geflossen. Das lohnt heute kaum noch,
denn eine Regel lautet: "Blech ist immer billiger als Menschen."
Das liegt natürlich zum guten Teil daran, dass sich unsere Haushalte für
Staat und Infrastruktur zum erheblichen Teil aus Lohnnebenkosten
finanzieren und für die Technik zumeist keine Steuern anfallen.
Post by Kay Martinen
Aber da denke ich unwillkürlich an den einen Specht der die Zivilisation
zerhacken könnte - wenn Häuser so gebaut würden wie Programme. :)
Werden sie zum Teil. Siehe Erbeben in der Türkei oder das Kaufhaus in
Asien, das damals zusammengeklappt ist.

Der Vergleich müsste aber eher dahin gehen, dass die Häuser aufgrund von
Veränderungen heute häufig Unwettern und Erdbeben hoher Stärke
ausgesetzt sind, und deshalb robuster ausfallen müssen.

Habe neulich ein Haus mit Panzerglas im EG gesehen. War schon irgendwie
surreal, wenn man aus dem Fenster in ein "Aquarium" mit Dreckwasser blickt.


Marcel
p***@pocnet.net
2024-01-12 09:51:38 UTC
Antworten
Permalink
Post by Kay Martinen
Das damit einhergehende "SW gehört nicht dir, du kannst sie nur Leasen"
Software "gehört" einem schon seit langem nicht (mehr). Man erwarb "früher"
ein Nutzungsrecht durch Einmalzahlung. Heute lässt man sich den Schweinezyklus
"Bug gefunden, gefixt, dafür zwei neue eingebaut" durch zyklische Bezahlung
versüßen.
Post by Kay Martinen
Und mir fällt hierbei auf das immer (nur) noch von "Entwicklern" die
Rede ist, und nicht mehr von Programmierern.
Liegt das NUR daran das es oft "Developer" heißt und übersetzt wird,
Vermutlich.
Post by Kay Martinen
oder sind die echten Programmierer ausgestorben?
Du meinst jene die nicht in Pascal programmieren? ;-)
--
:wq! PoC
Stefan Möding
2024-01-12 10:29:47 UTC
Antworten
Permalink
Post by p***@pocnet.net
Software "gehört" einem schon seit langem nicht (mehr). Man erwarb "früher"
ein Nutzungsrecht durch Einmalzahlung. Heute lässt man sich den Schweinezyklus
"Bug gefunden, gefixt, dafür zwei neue eingebaut" durch zyklische Bezahlung
versüßen.
Das Nutzungsrecht war aber meist unbegrenzt und solange man die Hardware
hatte, konnte man die Software auch nutzen. Auch nachdem der Lieferant
lange von der Bildfläche verschwunden war.

Das Streaming von Musik und Filmen ist ja das gleiche Thema. Ich behalte
meine CDs/DVDs daher als Backup.
--
Stefan
p***@pocnet.net
2024-01-12 14:15:27 UTC
Antworten
Permalink
Post by Stefan Möding
Post by p***@pocnet.net
Software "gehört" einem schon seit langem nicht (mehr). Man erwarb "früher"
ein Nutzungsrecht durch Einmalzahlung. Heute lässt man sich den Schweinezyklus
"Bug gefunden, gefixt, dafür zwei neue eingebaut" durch zyklische Bezahlung
versüßen.
Das Nutzungsrecht war aber meist unbegrenzt und solange man die Hardware
hatte, konnte man die Software auch nutzen.
Ja, das stimmt.
Post by Stefan Möding
Auch nachdem der Lieferant lange von der Bildfläche verschwunden war.
Die heutzutage selbstverständliche Always-On-Verfügberkeit der
Internetanbindung durch DSL hat nicht nur Vorteile.
Post by Stefan Möding
Das Streaming von Musik und Filmen ist ja das gleiche Thema. Ich behalte
meine CDs/DVDs daher als Backup.
Auch optische Medien altern und zeigen Lesefehler, btdt. Nicht nur die
gebrannten, auch die gekauften. Wobei die gekauften zwar erheblich länger
halten, aber nicht so lange wie Schallplatten. :-)
--
:wq! PoC
Dennis Grevenstein
2024-01-12 16:32:32 UTC
Antworten
Permalink
Post by p***@pocnet.net
Auch optische Medien altern und zeigen Lesefehler, btdt. Nicht nur die
gebrannten, auch die gekauften. Wobei die gekauften zwar erheblich länger
halten, aber nicht so lange wie Schallplatten. :-)
Da hast Du sicher nicht unrecht, aber das Problem ist grundsätzlich
altbekannt. Wenn Archäolgen irgendwo jahrtausende alte Steintafeln
ausgraben, dann sind die in der Regel auch nicht mehr so lesbar
wie am ersten Tag.
Ich frage mich mittlerweile auch, ob nicht das Festhalten an alten
Medien ebenso ein Problem sein könnte und man vielleicht im Interesse
der Haltbarkeit ein dislokales backup auf einem anderen Datenträger
in einem Format braucht, das sich problemlos hin- und herkopieren
lässt. Ich persönlich habe z.B. keine LPs mehr, keine MCs, nur
wenige CDs. Mir ist mal meine damalige Lieblings-CD mitsamt dem
Autoradio gestohlen worden... Aber mp3s sind mir in 25 Jahren
noch keine verloren gegangen.

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhaeuser
gate. All those moments will be lost in time, like tears in rain."
p***@pocnet.net
2024-01-12 22:03:06 UTC
Antworten
Permalink
Ich frage mich mittlerweile auch, ob nicht das Festhalten an alten Medien
ebenso ein Problem sein könnte
Das ist so, aber nur die halbe Antwort auf die Gesamtfragestellung.
und man vielleicht im Interesse der Haltbarkeit ein dislokales backup auf
einem anderen Datenträger in einem Format braucht, das sich problemlos hin-
und herkopieren lässt.
Nur so lässt sich das Problem mildern.

Die Fragestellung inwieweit sich mehr oder weniger einst weit verbreitete aber
doch proprietäre Formate in einer wie auch immer gearteten Zukunft noch
verwerten lassen steht auf einem anderen Blatt.
--
:wq! PoC
Raimund Huemmer
2024-01-13 08:49:31 UTC
Antworten
Permalink
Post by Dennis Grevenstein
Ich frage mich mittlerweile auch, ob nicht das Festhalten an alten
Medien ebenso ein Problem sein könnte und man vielleicht im Interesse
der Haltbarkeit ein dislokales backup auf einem anderen Datenträger
in einem Format braucht, das sich problemlos hin- und herkopieren
lässt.
Und dann bräuchte es noch ein Verfahren um deterministisch zu bestimmen,
wie lange
Post by Dennis Grevenstein
Ich persönlich habe z.B. keine LPs mehr, keine MCs, nur
wenige CDs. Mir ist mal meine damalige Lieblings-CD mitsamt dem
Autoradio gestohlen worden... Aber mp3s sind mir in 25 Jahren
noch keine verloren gegangen.
gruss,
Dennis
--
Life's too short to read boring signatures
Raimund Huemmer
2024-01-13 08:57:25 UTC
Antworten
Permalink
Post by Dennis Grevenstein
Ich frage mich mittlerweile auch, ob nicht das Festhalten an alten
Medien ebenso ein Problem sein könnte und man vielleicht im Interesse
der Haltbarkeit ein dislokales backup auf einem anderen Datenträger
in einem Format braucht, das sich problemlos hin- und herkopieren
lässt.
Und dann bräuchte es noch ein Verfahren um deterministisch zu bestimmen,
wie lange die Daten noch halten ... ;-)
Post by Dennis Grevenstein
Aber mp3s sind mir in 25 Jahren
noch keine verloren gegangen.
Hier auch. Erstaunlich, dass nun schon wieder 25 Jahre vergangen sind
mit mp3 Musik.

Gruß
Raimund
--
Life's too short to read boring signatures
Stefan Ram
2024-01-13 11:00:35 UTC
Antworten
Permalink
Post by Raimund Huemmer
Hier auch. Erstaunlich, dass nun schon wieder 25 Jahre vergangen sind
mit mp3 Musik.
"21. Jahrhundert" ist für mich so etwas wie Zukunft.
Aber nun sind praktisch schon 25 % davon vergangen.
Stefan Möding
2024-01-13 11:06:08 UTC
Antworten
Permalink
Post by Raimund Huemmer
Hier auch. Erstaunlich, dass nun schon wieder 25 Jahre vergangen sind
mit mp3 Musik.
Womit man erwarten kann, dass mp3 auch noch etliche Jahre unterstützt
wird. Zumindest so lange, bis es mir dann auch egal ist...

Lokale Datensicherung ist ein lösbares Problem, womit die eigene mp3
Sammlung die sicherste Form sein dürfte, um seine Lieblingsmusik noch
etliche Jahre hören zu können. Jedenfalls erscheint es mir sinnvoller,
als ein Streaming-Abo, wo ich keinerlei Kontrolle über das Angebot habe.
--
Stefan
Dennis Grevenstein
2024-01-13 11:18:28 UTC
Antworten
Permalink
Post by Stefan Möding
Lokale Datensicherung ist ein lösbares Problem, womit die eigene mp3
Sammlung die sicherste Form sein dürfte, um seine Lieblingsmusik noch
etliche Jahre hören zu können. Jedenfalls erscheint es mir sinnvoller,
als ein Streaming-Abo, wo ich keinerlei Kontrolle über das Angebot habe.
Das sind ja tatsächlich 2 verschiedene Dinge. Zum einen das Problem,
dass die Musik zu spielen aufhört, wenn ich nicht mehr jeden Monat
bezahle. Und zusätzlich das Problem des Angebots. Es gibt keine
Garantie, dass mein Lieblings-content nicht irgendwann mal verändert,
aus dem Angebot gelöscht oder an moderne Sensibilitäten angepasst
wird. Darauf aufbauend dann das Problem des Zugangs, falls der
Anbieter morgen entscheidet, nur noch bestimmte Systeme zu unterstützen
oder eine neue Form von DRM verlangt. Dann könnte man auf einmal
draußen bleiben müssen.

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhaeuser
gate. All those moments will be lost in time, like tears in rain."
Gerrit Heitsch
2024-01-13 17:17:08 UTC
Antworten
Permalink
Post by Dennis Grevenstein
Das sind ja tatsächlich 2 verschiedene Dinge. Zum einen das Problem,
dass die Musik zu spielen aufhört, wenn ich nicht mehr jeden Monat
bezahle. Und zusätzlich das Problem des Angebots. Es gibt keine
Garantie, dass mein Lieblings-content nicht irgendwann mal verändert,
aus dem Angebot gelöscht oder an moderne Sensibilitäten angepasst
wird. Darauf aufbauend dann das Problem des Zugangs, falls der
Anbieter morgen entscheidet, nur noch bestimmte Systeme zu unterstützen
oder eine neue Form von DRM verlangt. Dann könnte man auf einmal
draußen bleiben müssen.
Kurz: Nur was du auf eigenen Systemen in einem DRM-freien Format hast
ist auch wirklich deins.

Gerrit
Stefan Ram
2024-01-14 07:52:21 UTC
Antworten
Permalink
Post by Gerrit Heitsch
Kurz: Nur was du auf eigenen Systemen in einem DRM-freien Format hast
ist auch wirklich deins.
... einem DRM-freien Format und mit ausreichend Sicherungskopien ...

Ein Mann, der gerade 70 geworden ist, hat eine Wahrscheinlichkeit
von zirka 3 Prozent, in seinem (laufenden) 71. Lebensjahr zu sterben.
- Daher ist es für ihn wahrscheinlich angemessen, wenn das Risiko
eines Verlusts nicht-lebenswichtiger Unterhaltungsmusik auf
weniger als 0,03 Prozent in diesem Zeitraum reduziert wird,
also auf ein Hunderstel der Wahrscheinlichkeit zu sterben.

Dann ist das Risiko der Trennung des Mannes von seiner
Musiksammlung durch seine Sterbewahrscheinlichkeit dominiert;
es wird durch eine zusätzliche Erhöhung der Sicherheit der
Verfügbarkeit der Musiksammlung nicht mehr wesentlich reduziert.
Kay Martinen
2024-01-14 15:13:04 UTC
Antworten
Permalink
Post by Stefan Ram
Post by Gerrit Heitsch
Kurz: Nur was du auf eigenen Systemen in einem DRM-freien Format hast
ist auch wirklich deins.
... einem DRM-freien Format und mit ausreichend Sicherungskopien ...
Ein Mann, der gerade 70 geworden ist, hat eine Wahrscheinlichkeit
von zirka 3 Prozent, in seinem (laufenden) 71. Lebensjahr zu sterben.
- Daher ist es für ihn wahrscheinlich angemessen, wenn das Risiko
eines Verlusts nicht-lebenswichtiger Unterhaltungsmusik auf
weniger als 0,03 Prozent in diesem Zeitraum reduziert wird,
also auf ein Hunderstel der Wahrscheinlichkeit zu sterben.
So für sich gesehen ist das richtig. Der Verlust wichtiger
Körperfunktionen ist schlimmer. Lieblings-musik könnte nur den
Heilungsprozess psychologisch unterstützen, denke ich. Wenn er nicht tot
ist.
Post by Stefan Ram
Dann ist das Risiko der Trennung des Mannes von seiner
Musiksammlung durch seine Sterbewahrscheinlichkeit dominiert;
es wird durch eine zusätzliche Erhöhung der Sicherheit der
Verfügbarkeit der Musiksammlung nicht mehr wesentlich reduziert.
[Advocatus Diaboli]

Ist das ein Vorschlag die Musiksammlung mit einem Kill-DRM Zu dongeln
das an den Tod ihres Besitzers gekoppelt ist?

User tot = Musiksammlung Sicher entfernen (J/J/ALLES)?

Welche Content-Mafia hat sich das ausgedacht? :)

Ich habe noch Alte 78'er Platten von meiner Tante. Teils aus ihrer
Jugend (z.b. Lachpolka, Fred Bertelsmann - Der lachende Vagabund)

Analog zu obiger Vermutung müßte ich vor meinem Ableben testamentarisch
festlegen da die bei meinem Tot vernichtet würden. Sonst könnte ich sie
ja der nächsten Generation weiter vererben und so weiter...

"Yogiii, dem Ranger wird das nicht gefallen!" ;-)

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Gerrit Heitsch
2024-01-16 16:26:25 UTC
Antworten
Permalink
Post by Stefan Ram
Post by Gerrit Heitsch
Kurz: Nur was du auf eigenen Systemen in einem DRM-freien Format hast
ist auch wirklich deins.
... einem DRM-freien Format und mit ausreichend Sicherungskopien ...
Backups werden hierbei vorausgesetzt.

Gerrit
Kay Martinen
2024-01-16 22:24:32 UTC
Antworten
Permalink
Post by Gerrit Heitsch
Post by Stefan Ram
Post by Gerrit Heitsch
Kurz: Nur was du auf eigenen Systemen in einem DRM-freien Format hast
ist auch wirklich deins.
... einem DRM-freien Format und mit ausreichend Sicherungskopien ...
Backups werden hierbei vorausgesetzt.
Also früher wurden die gern "dezentral" gelagert. ;-)

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Gerrit Heitsch
2024-01-17 09:47:33 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Gerrit Heitsch
Post by Gerrit Heitsch
Kurz: Nur was du auf eigenen Systemen in einem DRM-freien Format hast
ist auch wirklich deins.
    ... einem DRM-freien Format und mit ausreichend Sicherungskopien ...
Backups werden hierbei vorausgesetzt.
Also früher wurden die gern "dezentral" gelagert. ;-)
Sollte man auch jetzt noch tun. Kann sich in Details aber von der damals
üblichen Praxis unterscheiden. ;)

Gerrit
Kay Martinen
2024-01-14 14:42:17 UTC
Antworten
Permalink
Post by Gerrit Heitsch
Post by Dennis Grevenstein
Das sind ja tatsächlich 2 verschiedene Dinge. Zum einen das Problem,
dass die Musik zu spielen aufhört, wenn ich nicht mehr jeden Monat
bezahle. Und zusätzlich das Problem des Angebots. Es gibt keine
Garantie, dass mein Lieblings-content nicht irgendwann mal verändert,
aus dem Angebot gelöscht oder an moderne Sensibilitäten angepasst
wird. Darauf aufbauend dann das Problem des Zugangs, falls der
Anbieter morgen entscheidet, nur noch bestimmte Systeme zu unterstützen
oder eine neue Form von DRM verlangt. Dann könnte man auf einmal
draußen bleiben müssen.
Das früher übliche "aus dem Radio aufnehmen" ist ja mit Tools wie
Radiotracker oder Streamwriter auch deutlich einfacher geworden.

Man muß zwar öfter mal nacharbeiten und reingesabbel durch löschen der
schlechtesten Aufnahme aussondern aber ansonsten gehts.

(Wobei ich; zu u.g.; davon ausgehe das auch internet-radio GEMA Zahlt.
Wenn nicht sollte man das evtl. mal prüfen [Piratensender?])
Post by Gerrit Heitsch
Kurz: Nur was du auf eigenen Systemen in einem DRM-freien Format hast
ist auch wirklich deins.
+1 Genau darum (o.g.) werde ich kein Streaming-abo haben. Aber die
jeweiligen Anbieter unternehmen ja allesamt die größten Anstrengungen
einem möglichst jede legale Alternative zu vermiesen. Und es scheint als
wäre es ihnen sogar recht wenn sie potentielle Kunden dadurch eher in
die Illegalität drängen. Denn dann können sie umso härter Geschütze
auffahren.

Und zugleich verhungern die eigentlichen Künstler weil die Content-Mafia
ihnen nur Brotkrumen vor die Füße wirft.Bekommen die von obigen
Strafzahlungen überhaupt was ab?

Das ist Schon irgendwie analog zu den Bauern und ihren Protesten. DIE
stellen die Rohstoffe her die von den Lebensmittel-Konzernen gebraucht
werden. Aber wegen irgendwelcher "Gründe" bekommen die anscheinend eher
immer weniger für ihr "Produkt" haben aber dennoch Ausgaben und
Innovationen zu tätigen - weil der Verbraucher "Öko" will - oder die
Marketing-Fuzzies meinen "Öko" sei Hipp und verkaufe sich besser/teurer.

Hmm, Gibt es keine Biologisch-dynamisch-ökologisch angebaute Musik? :)

Themenbezug: Prozessleistung statt Prozessor-leistung. ;)

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Joerg Walther
2024-01-13 11:48:41 UTC
Antworten
Permalink
Post by Stefan Möding
Lokale Datensicherung ist ein lösbares Problem, womit die eigene mp3
Sammlung die sicherste Form sein dürfte, um seine Lieblingsmusik noch
etliche Jahre hören zu können.
Oder flac, das ist sogar Open Source.
Post by Stefan Möding
Jedenfalls erscheint es mir sinnvollßer,
als ein Streaming-Abo, wo ich keinerlei Kontrolle über das Angebot habe.
Ack. Ich sag nur Amazon und Orwell 1984. Das ist zwar ein Buch, aber das
Problem ist das gleiche.

-jw-
--
And now for something completely different...
Michael Kraemer @ home
2024-01-13 09:30:13 UTC
Antworten
Permalink
Post by Dennis Grevenstein
Ich persönlich habe z.B. keine LPs mehr, keine MCs, nur
wenige CDs. Mir ist mal meine damalige Lieblings-CD mitsamt dem
Autoradio gestohlen worden... Aber mp3s sind mir in 25 Jahren
noch keine verloren gegangen.
Das verschiebt das Problem aber nur,
denn auch die mp3's residieren auf einem $MEDIUM.
Und man braucht ein $PROGAMM um sie auf einem $GERAET hoerbar abspielen zu koennen.
Eine bis ans Lebensende $SORGLOSLOESUNG gibt es bisher mE nicht.
Dennis Grevenstein
2024-01-13 10:19:19 UTC
Antworten
Permalink
Post by Michael Kraemer @ home
Das verschiebt das Problem aber nur,
denn auch die mp3's residieren auf einem $MEDIUM.
Und man braucht ein $PROGAMM um sie auf einem $GERAET hoerbar abspielen zu koennen.
Eine bis ans Lebensende $SORGLOSLOESUNG gibt es bisher mE nicht.
Eben deshalb die notwendige Möglichkeit zum umkopieren und konvertieren.
Ewig sorglos ist man damit natürlich nicht, aber in meiner persönlichen
Erfahrung hat sich so ein lächerliches Format wie mp3 als sehr langlebig
erwiesen. Nichtmal Apple würde sich trauen, "aus Sicherheitsgründen"
morgen kein mp3 mehr zu unterstützen.

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhaeuser
gate. All those moments will be lost in time, like tears in rain."
Joerg Walther
2024-01-13 11:53:29 UTC
Antworten
Permalink
Post by Michael Kraemer @ home
Das verschiebt das Problem aber nur,
denn auch die mp3's residieren auf einem $MEDIUM.
Und man braucht ein $PROGAMM um sie auf einem $GERAET hoerbar abspielen zu koennen.
Eine bis ans Lebensende $SORGLOSLOESUNG gibt es bisher mE nicht.
Nö, aber alle paar Jahre umkopieren auf $NEUESMEDIUM wird mit jeder
Mediengeneration eigentlich immer einfacher.
Hier: Von CD/DVD auf 2 TB HDDs, nervig, viele Medien einlegen; jetzt:
alles auf eine 18 TB HDD (natürlich mit Zwilling), also muss ich in
Zukunft nur eine HDD auf eine neue kopieren, das braucht dann
wahrscheinlich zwei Tage, aber ich muss ja nicht danebensitzen dabei.

-jw-
--
And now for something completely different...
Gerrit Heitsch
2024-01-13 17:15:07 UTC
Antworten
Permalink
Post by Michael Kraemer @ home
Post by Dennis Grevenstein
Ich persönlich habe z.B. keine LPs mehr, keine MCs, nur
wenige CDs. Mir ist mal meine damalige Lieblings-CD mitsamt dem
Autoradio gestohlen worden... Aber mp3s sind mir in 25 Jahren
noch keine verloren gegangen.
Das verschiebt das Problem aber nur,
denn auch die mp3's residieren auf einem $MEDIUM.
Ja, aber man kann sie problemlos auf $MEDIUM_NEU kopieren wenn $MEDIUM
am Verschwinden ist.
Post by Michael Kraemer @ home
Und man braucht ein $PROGAMM um sie auf einem $GERAET hoerbar abspielen zu koennen.
Die gibts in Soft- und Hardware überall. Erstere sogar teilweise mit
Source womit die Portierung auf $GERAET_NEU möglich wird.

Gerrit
Kay Martinen
2024-01-14 15:20:53 UTC
Antworten
Permalink
Post by Michael Kraemer @ home
Post by Dennis Grevenstein
Ich persönlich habe z.B. keine LPs mehr, keine MCs, nur
wenige CDs. Mir ist mal meine damalige Lieblings-CD mitsamt dem
Autoradio gestohlen worden... Aber mp3s sind mir in 25 Jahren
noch keine verloren gegangen.
Das verschiebt das Problem aber nur,
denn auch die mp3's residieren auf einem $MEDIUM.
Und man braucht ein $PROGAMM um sie auf einem $GERAET hoerbar abspielen zu koennen.
Eine bis ans Lebensende $SORGLOSLOESUNG gibt es bisher mE nicht.
Dafür gibt es auch Lösungen. Z.b. das man $PLAYER und $GERAET ebenso
archiviert wie $OS für $PLAYER. Warum sollten die Bits auf $MEDIUM_1
langsamer/schneller verrotten als auf $MEDIUM_2 mit der Software.

Und wenn $GERÄT die Grätsche macht könnte man immer noch
$VIRTUELLES_GERÄT auf $NEU_GERÄT simulieren. Dann muß man ggf. nur
zusätzlich auch noch $ALTEN_HYPERVISOR archivieren.

- Done -

$LEBENSENDE ist zudem zu 100% Subjekt-abhängig. $SORGLOSLOESUNG ebenso.



Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Diedrich Ehlerding
2024-01-15 18:25:45 UTC
Antworten
Permalink
Post by Kay Martinen
Und wenn $GERÄT die Grätsche macht könnte man immer noch
$VIRTUELLES_GERÄT auf $NEU_GERÄT simulieren. Dann muß man ggf. nur
zusätzlich auch noch $ALTEN_HYPERVISOR archivieren.
Nee, der alte Hypervisor läuft auf dem neuen Gerät im Zweifel nicht.
Man braucht einen neuen Hypervisor, der in der Lage ist, die alte
Hardware zu emulieren.
+ $OS ???
Datenträger fürs Betriebssystem kann man archivieren. Oder man zieht ein
Image der Platte des $ALT_GERAET und spielt das dann in die VM ein.
--
gpg-Key (DSA 1024) D36AD663E6DB91A4
fingerprint = 2983 4D54 E00B 8483 B5B8 C7D1 D36A D663 E6DB 91A4
HTML-Mail wird ungeleſen entſorgt.
Michael Kraemer
2024-01-16 09:08:01 UTC
Antworten
Permalink
Post by Kay Martinen
Dafür gibt es auch Lösungen. Z.b. das man $PLAYER und $GERAET ebenso
archiviert wie $OS für $PLAYER. Warum sollten die Bits auf $MEDIUM_1
langsamer/schneller verrotten als auf $MEDIUM_2 mit der Software.
Und wenn $GERÄT die Grätsche macht könnte man immer noch
$VIRTUELLES_GERÄT auf $NEU_GERÄT simulieren. Dann muß man ggf. nur
zusätzlich auch noch $ALTEN_HYPERVISOR archivieren.
- Done -
Einklich will ich nur $MUSIK hören. Minimalinvasiv.
Kay Martinen
2024-01-16 22:34:50 UTC
Antworten
Permalink
Post by Michael Kraemer
Post by Kay Martinen
Dafür gibt es auch Lösungen. Z.b. das man $PLAYER und $GERAET ebenso
archiviert wie $OS für $PLAYER. Warum sollten die Bits auf $MEDIUM_1
langsamer/schneller verrotten als auf $MEDIUM_2 mit der Software.
Und wenn $GERÄT die Grätsche macht könnte man immer noch
$VIRTUELLES_GERÄT auf $NEU_GERÄT simulieren. Dann muß man ggf. nur
zusätzlich auch noch $ALTEN_HYPERVISOR archivieren.
- Done -
Einklich will ich nur $MUSIK hören. Minimalinvasiv.
Wer nicht! Heute ist es eben "Modern" wenn man ein Streaming-Abo hat.
Und die Anbieter möchten dir sicherlich gern alles verkaufen. <Sarcasm>

Vielleicht hab ich das jetzt mit was anderem Verwexelt aber bei einigen
Solcher "Lösungen" soll die Software sogar in der Lage sein Dateien auf
deinem Rechner zu durchsuchen - und ggf. auch zu löschen.

Bei Online-Games erinnere ich an AntiCheat-Tools (Punkbuster?) die
Cheats wohl auch proaktiv entfernen konnen, Steam konnte die Lokale
Half-Life ID in eine Online umwandeln, die Lokale Installation brauchst
du nicht mehr, darfst du auch nicht mehr verwenden und was der
Musikbranche so alles ein fiel ist ja schon legende.

Zu Zeiten von Napster u. Co. sollen die wg. des Tauschgedankens auch
Musik gescannt haben. Es würde mich überhaupt nicht wundern wenn z.b.
eine Windows Desktop-App eines Streamers einfach mal den Musik-ordner
scannt... und dann weg wirft. Weil, du hast ja nun ein Abo da brauchst
du den alten Quark ja nicht mehr. <beg>

Das wär' dann maximalinvasiv.

Aber das ist wie Terror- und Kinderporno-Bekämpfung. Für das $RECHT (TM)
tun sie alles - egal welche Kollateralschäden das verursacht.

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Arno Welzel
2024-01-17 10:44:57 UTC
Antworten
Permalink
Post by Michael Kraemer @ home
Post by Dennis Grevenstein
Ich persönlich habe z.B. keine LPs mehr, keine MCs, nur
wenige CDs. Mir ist mal meine damalige Lieblings-CD mitsamt dem
Autoradio gestohlen worden... Aber mp3s sind mir in 25 Jahren
noch keine verloren gegangen.
Das verschiebt das Problem aber nur,
denn auch die mp3's residieren auf einem $MEDIUM.
Und das wiederum kann redundant mehrfach vorliegen. Wenn eine Kopie
kaputt sein sollte, nutzt man eben die Sicherung.
Post by Michael Kraemer @ home
Und man braucht ein $PROGAMM um sie auf einem $GERAET hoerbar abspielen zu koennen.
Dass die Unterstützung für MP3 bei Computern oder mobilen Geräten
verschwindet, ist für die kommenden 5-10 Jahre nicht zu erwarten. Und
selbst wenn ein Hersteller ankündigt, dass er MP3 bei künftigen Geräten
nicht mehr unterstützen wird, kann man ja die entsprechenden älteren
Geräte vorher nochmal redundant anschaffen und einlagern oder die Daten
umwandeln in ein Format, was mit wenig Aufwand abspielbar ist. Die
Wiedergab unkomprimierter PCM-Daten kann man sich notfalls selber
programmieren oder jemanden damit beauftragen, das für einen zu tun.

Aber auch die Wiedergabe von MP3 gibt es als frei verfügbaren Code:

<https://github.com/lieff/minimp3>
Post by Michael Kraemer @ home
Eine bis ans Lebensende $SORGLOSLOESUNG gibt es bisher mE nicht.
Nein, aber Lösungen, die sehr lange ohne besonderen Aufwand dafür
ausreichen und besser sind, als nur ein einziges Medium, wie CD, zu
besitzen, was nur auf passenden Abspielgeräten nutzbar ist.
--
Arno Welzel
https://arnowelzel.de
Gerrit Heitsch
2024-01-13 17:11:05 UTC
Antworten
Permalink
Post by Stefan Möding
Das Streaming von Musik und Filmen ist ja das gleiche Thema. Ich behalte
meine CDs/DVDs daher als Backup.
Die halten auch nicht ewig. Es ist eine gute Idee, die zu rippen und
damit in einer Form zu haben in der Backups kein Problem mehr sind.

Gerrit
Gerrit Heitsch
2024-01-14 07:34:31 UTC
Antworten
Permalink
Post by Gerrit Heitsch
Das Streaming von Musik und Filmen ist ja das gleiche Thema.  Ich
behalte
meine CDs/DVDs daher als Backup.
Die halten auch nicht ewig. Es ist eine gute Idee, die zu rippen und
damit in einer Form zu haben in der Backups kein Problem mehr sind.
Wenn man nicht zu hohe Ansprüche stellt gibt es noch eine Alternative.
So habe ich z.b. einige Marvel Blockbuster auf DVD. Aber wenn die im TV
laufen; vorzugsweise mal im ÖR mit HD; dann nehme ich sie doch gern noch
auf.
Das VIDEO_TS u.a. von der Scheibe auf die Platte kopieren ging hier
zwar, aber beim Abspielversuch war das Ergebnis variabel, von "Falsche
Datei erwischt" bis "geht nicht" über "Player mag das nicht" was so
alles dabei.
Komisch... klappt hier gut. Wenn man VLC oder mplayer die .IFO-Datei zum
Abspielen gibt läuft der Film.
Und Backups davon habe ich bisher keine gemacht. Wozu auch wenn die
Original DVD vorhanden ist. Da sei "Napster-Mode" vor die weg zu
schmeißen. ;-)
Von Wergwerfen hat keiner was gesagt.

Gerrit
Kay Martinen
2024-01-14 15:23:40 UTC
Antworten
Permalink
Post by Gerrit Heitsch
Post by Gerrit Heitsch
Das Streaming von Musik und Filmen ist ja das gleiche Thema.  Ich
behalte
meine CDs/DVDs daher als Backup.
Die halten auch nicht ewig. Es ist eine gute Idee, die zu rippen und
damit in einer Form zu haben in der Backups kein Problem mehr sind.
Wenn man nicht zu hohe Ansprüche stellt gibt es noch eine Alternative.
So habe ich z.b. einige Marvel Blockbuster auf DVD. Aber wenn die im TV
laufen; vorzugsweise mal im ÖR mit HD; dann nehme ich sie doch gern noch
auf.
Das VIDEO_TS u.a. von der Scheibe auf die Platte kopieren ging hier
zwar, aber beim Abspielversuch war das Ergebnis variabel, von "Falsche
Datei erwischt" bis "geht nicht" über "Player mag das nicht" was so
alles dabei.
Komisch... klappt hier gut. Wenn man VLC oder mplayer die .IFO-Datei zum
Abspielen gibt läuft der Film.
Dann war's evtl. Kodi der hier ein Problem damit hat. Den benutze ich
sowieso lieber.
Post by Gerrit Heitsch
Und Backups davon habe ich bisher keine gemacht. Wozu auch wenn die
Original DVD vorhanden ist. Da sei "Napster-Mode" vor die weg zu
schmeißen. ;-)
Von Wergwerfen hat keiner was gesagt.
Das klang; nebenan?; etwas anders.

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Gerrit Heitsch
2024-01-16 16:28:06 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Gerrit Heitsch
Post by Gerrit Heitsch
Das Streaming von Musik und Filmen ist ja das gleiche Thema.  Ich
behalte
meine CDs/DVDs daher als Backup.
Die halten auch nicht ewig. Es ist eine gute Idee, die zu rippen und
damit in einer Form zu haben in der Backups kein Problem mehr sind.
Wenn man nicht zu hohe Ansprüche stellt gibt es noch eine Alternative.
So habe ich z.b. einige Marvel Blockbuster auf DVD. Aber wenn die im TV
laufen; vorzugsweise mal im ÖR mit HD; dann nehme ich sie doch gern noch
auf.
Das VIDEO_TS u.a. von der Scheibe auf die Platte kopieren ging hier
zwar, aber beim Abspielversuch war das Ergebnis variabel, von "Falsche
Datei erwischt" bis "geht nicht" über "Player mag das nicht" was so
alles dabei.
Komisch... klappt hier gut. Wenn man VLC oder mplayer die .IFO-Datei zum
Abspielen gibt läuft der Film.
Dann war's evtl. Kodi der hier ein Problem damit hat. Den benutze ich
sowieso lieber.
Der eigentlich auch nicht... Zumindest hier.

Gerrit
Arno Welzel
2024-01-15 20:14:07 UTC
Antworten
Permalink
Kay Martinen, 2024-01-11 18:23:

[...]
Post by Kay Martinen
Und mir fällt hierbei auf das immer (nur) noch von "Entwicklern" die
Rede ist, und nicht mehr von Programmierern.
Das liegt vielleich auch daran, dass Programmieren genau genommen eine
andere Tätigkeit als Entwickeln ist. Früher bedeutete das, dass man das
Programm, was ein Entwickler geschrieben hat, in den Computer übertragen
hat, ohne verstehen zu müssen, was das Programm eigentlich tut - z.B.
indem man den vorliegenden Quelltext auf Lochkarten übertragen hat, die
dann von einem Computer gelesen wurden.
Post by Kay Martinen
Liegt das NUR daran das es oft "Developer" heißt und übersetzt wird,
oder sind die echten Programmierer ausgestorben? Vielleicht weil sie für
X Zeilen Code länger brauchten als $Timeslot befielt - und die Qualität
der Arbeit sowieso niemand mehr nach mißt (nicht kann oder will)?
Nein, "to develop" heißt "entwickeln" und "program" eben "programmieren".

Es gibt auch Programmierer außerhalb der IT, z.B. Programmierer von
Filmprogrammen im Kino oder auf Festivals. Die drehen auch nicht die
Flme selber, sondern sorgen nur dafür, dass die Vorführungen so gelegt
sind, dass die Filme auch alle in der vorgesehenen Zeit gezeigt werden
können.
--
Arno Welzel
https://arnowelzel.de
Peter J. Holzer
2024-01-15 18:00:04 UTC
Antworten
Permalink
Und ganz ehrlich, das mit dem immer Messen halte ich auch für
Zeitverschwendung. Das dauert oft länger als es einfach zu machen.
Wie willst Du denn den Erfolg einer Optimierung bewerten, wenn es keine
Messungen dazu gibt?
Er interessiert mich nicht. Ich nehme einfach immer die für das
Zugriffsmuster geeigneten Datenstrukturen. Das wäre sicher nicht in
jedem Fall erforderlich, aber darüber nachdenken ist schon zu viel.
Mit anderen Worten: Du verlässt Dich auf Dein Bauchgefühl. Das kann
täuschen (und wenn Du es nicht regelmäßig überprüfst, täuscht es sogar
sicher).

hp
Marcel Mueller
2024-01-15 22:31:16 UTC
Antworten
Permalink
Post by Peter J. Holzer
Er interessiert mich nicht. Ich nehme einfach immer die für das
Zugriffsmuster geeigneten Datenstrukturen. Das wäre sicher nicht in
jedem Fall erforderlich, aber darüber nachdenken ist schon zu viel.
Mit anderen Worten: Du verlässt Dich auf Dein Bauchgefühl. Das kann
täuschen (und wenn Du es nicht regelmäßig überprüfst, täuscht es sogar
sicher).
Das klappt ganz gut. Aber ich komme auch noch aus der Zeit, wo man
Datenträger schnarchlangsam waren, Speicher knapp und man DB-Kernels in
Assembler geschrieben hat.
Aber darum geht es ja gar nicht. Ich bin ja schon zufrieden, wenn man
den passenden Datensatz in den gerade zusammengesuchten Daten nicht
jedes einzelne mal per Schleife über alles sucht, sondern halt eine
Hashtable oder irgendeinen anderen assoziativen Container nutzt. Damit
trifft man durchaus auch nicht immer das Optimum, aber wenigstens ist es
nicht O(n²).


Marcel
Marcel Mueller
2024-01-15 22:54:44 UTC
Antworten
Permalink
Wenn ich für eine Stelle, wo das offensichtlich die passende
Datenstruktur ist, eine Hashtable benutze, statt linear ein Array zu
durchsuchen, ist das dann bereits eine Optimierung?
Im Prinzip, ja.
Oder nur gesunder Menschenverstand bzw. normales Programmierer-
Handwerk?
Wo ist der Unterschied?
Und ganz ehrlich, das mit dem immer Messen halte ich auch für
Zeitverschwendung. Das dauert oft länger als es einfach zu machen.
"Messen" muss ja nicht heißen, dass Du Hotspots auf Source-Zeilenebene
aufspürst.
Alleine die Testfälle zu präparieren und reproduzierbare Messbedingungen
zu schaffen, kostet oft schon unverhältnismäßig viel Zeit. Vor allem,
wenn Shared Resources, wie VM-Hosts oder Datenbanken im Spiel sind.
Aber einfach einer Vermutung hinterherzulaufen und dann zu sagen "ist
jetzt optimiert", ohne einmal einen echten Durchlauf gemacht zu haben,
klappt nur, wenn Du richtig vermutet hasst.
Natürlich.
Aber ich will ja auch keinen Prozessschritt Optimierung. Man sollte halt
gleich so optimal implementieren, wie es mit moderatem Aufwand möglich
ist. Damit hält man sich viele, gleichwohl nicht alle
Optimierungsanforderungen vom Hals.
In Memory klappt das fast immer, bei relationalen Datenbanken eher so
lala. Die machen was sie wollen, selbst bei identischen Daten und Abfragen.
Solange sich niemand beschwert oder das Monitoring anschlägt oder die
Batchlaufzeit spürbar zu lang ist, bin ich im 80%-Fall und fange nicht
an zu optimieren.
Ich habe einfach zu viele, dumme Optimierungen machen müssen. Darunter
waren auch Batch-Läufe, die mehr als 4 Wochen brauchen. Und wenn dann
jeden Monat ein neuer fällig ist, wird es allmählich eng mit
Wartungsintervallen. Als ich fertig war, waren es noch 20 Minuten.
In der letzten Firma, ist mir in den ersten Tagen tierisch auf den
Zeiger gegangen, dass die Software zum Starten immer über 3 Minuten
braucht. In einem halben Tag war es zumindest weniger als die Hälfte -
bei weitgehend unbekanntem Code. Das hat man doch bei 10 Entwicklern,
die ständig Compilieren und neu starten in kürzester Zeit wieder raus.
Und da war mutmaßlich auch nichts dabei, was man nicht hätte gleich
richtig machen können. Mittlerweile sind wir trotz komplexer gewordener
Anwendung bei 20 Sekunden. Da habe ich immer mal den einen oder anderen
"Beifang" optimiert, wenn Änderungen anstanden.


Marcel
Michael Kraemer @ home
2024-01-11 10:44:43 UTC
Antworten
Permalink
Post by Marcel Mueller
Post by Michael Kraemer
Und auch bei "richtigen" Anwendungen wird man nicht schneller fertig
wenn mehr Rechenleistung da ist.
Man erfindet dann grössere Problemstellungen und wartet am Ende
doch wieder Stunden oder gar Tage auf das Ergebnis.
Nach meinen Erfahrungen wird Software immer so programmiert, dass sie
den gut ausgestatteten Rechner des Entwicklers nicht völlig lahm legt.
Auf dem Rechner der User funktioniert das nur deswegen einigermaßen gut,
weil der zwei Jahre später, wenn er das Produkt auf seiner Kiste hat,
mindestens gleichschnell ist.
Ich dachte da mehr an Anwendungen der Sorte Wettervorhersage fuer morgen.
Die sollte moeglichst innert 24h fertig sein.
Einen schnelleren Rechner laesst man dann halt genauer rechnen, aber immer noch
24h lang.
Ich glaube nicht, dass der Wetterdienst frueher Feierabend macht, wenn der
Rechner schneller ist.
Kay Martinen
2024-01-11 17:31:58 UTC
Antworten
Permalink
Post by Michael Kraemer @ home
Post by Marcel Mueller
Post by Michael Kraemer
Und auch bei "richtigen" Anwendungen wird man nicht schneller fertig
wenn mehr Rechenleistung da ist.
Man erfindet dann grössere Problemstellungen und wartet am Ende
doch wieder Stunden oder gar Tage auf das Ergebnis.
Nach meinen Erfahrungen wird Software immer so programmiert, dass sie
den gut ausgestatteten Rechner des Entwicklers nicht völlig lahm legt.
Auf dem Rechner der User funktioniert das nur deswegen einigermaßen gut,
weil der zwei Jahre später, wenn er das Produkt auf seiner Kiste hat,
mindestens gleichschnell ist.
Ich dachte da mehr an Anwendungen der Sorte Wettervorhersage fuer morgen.
Die sollte moeglichst innert 24h fertig sein.
Einen schnelleren Rechner laesst man dann halt genauer rechnen, aber immer noch
24h lang.
Ich glaube nicht, dass der Wetterdienst frueher Feierabend macht, wenn der
Rechner schneller ist.
Bei solchen Anwendungen ist es sicher vernünftig einen Gewissen
Zeitrahmen ein halten zu können. Ich vermute da werden die Aktuellen
Modelle genommen und was sie an zeit und daten brauchen und dann
extrapoliert ob man mit "Schweineteurer_SuperHardware X" schneller
fertig würde. Und ob man dies Schneller Fertig in eine Signifikante
Verbesserung des Modells umwandeln kann. Und dann wird eben die HW
bestellt und muß eine Zeit Y durchhalten in der es wohl nur kleine
Optimierungen geben wird.

Kurz: Am Ende hat man sauviel geld ausgegeben und wird immer noch genau
gleich schnell fertig aber das Ergebnis ist genauer als vorher.

IMHO hat man früher mit einem Gröberen Raster an Datenpunkten modelliert
als heute. Weil es zu Zeit X mit HW Y und Software Z halt nicht genauer
ging. Heute kommt dann halt noch Unfähigkeit und entstehender BLOAT dazu. ;)

In Prä-IT zeiten wußten die Leute im Grunde nur das es abends dunkel
wird. Alles andere war schon Luxus. Heute ist dagegen doch
Schlaraffenland (abgebrannt).

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Diedrich Ehlerding
2024-01-13 15:09:05 UTC
Antworten
Permalink
Post by Michael Kraemer
Post by Diedrich Ehlerding
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte. Die
Briefe, die man heute auf dem Computer schreibt, werden aber nicht
schneller fertig als damals an der Schreibmaschine - sie werden nur
bunter und schöner.
Und auch bei "richtigen" Anwendungen wird man nicht schneller fertig
wenn mehr Rechenleistung da ist.
Das klassische Beispiel bei "richtigen" Anwendungen ist SAP. Ich hatte
seinerzeit, so um 2000 +- ein paar wenige Jahre, beruflich zu tun mit
Unternehmen, die von SAP/R2 auf SAP/R3 umstellten. Die
Betriebswirtschaft war (damals, also bei den ersten R3-Versionen) nicht
groß unterschiedlich zu R2, aber es war halt bunt und ansatzweise
mausbedienbar. Die reine CPU-Leistung der Datenbank- und
Applicationserver war um 2 bis 3 Größenordnungen höher als die der alten
Mainframes, die da abgelöst wurden, aber trotzdem waren alle davon
überzeugt, dass "SAP" die Abkürzung für "Sanduhr-Anzeige-Programm" sei.
Auch der Plattenplatzbedarf wuchs bei dieser Umstellung ungefähr um den
Faktor 100 (und in den Folgejahren nochmals um den Faktor 10);
zugegebenermaßen war aber die Hardware nicht mehr viel teurer als vorher
der dicke Mainframe.

Damals habe ich aber vor allem was gelernt, wie man um verschwenderische
Hardwarenutzung herumargumentiert. Damals gab es eine geflügelten
Lehrsatz: der Ressourcenbedarf einer SAP-Installation ist nach dem
upgrade der Version um 30% höher. Genauer gesagt, es ist um 30% höher
als vorher geplant, und das gilt auch, wenn man diesen Lehrsatz bei der
Planung schon berücksichtigt hat. Nur aus SAP-Sicht galt das alles
nicht, denn die messen die Leistung eines Systems in der Einheit SAPS
(der Leistungsbedarf eines Standardusers). Und natürlich braucht ein
Standarduser vor und nach der Umstellung genau ein SAPS Leistung. Nur
die Hardware wird immer schwächer - ein System, das vorher 200 User
tragen konnte, also eine Leistung von 200 SAPS hatte, leistete nachher
nur noch 150 SAPS.
--
gpg-Key (DSA 1024) D36AD663E6DB91A4
fingerprint = 2983 4D54 E00B 8483 B5B8 C7D1 D36A D663 E6DB 91A4
HTML-Mail wird ungeleſen entſorgt.
Marcel Mueller
2024-01-15 23:27:13 UTC
Antworten
Permalink
Post by Diedrich Ehlerding
Das klassische Beispiel bei "richtigen" Anwendungen ist SAP. Ich hatte
seinerzeit, so um 2000 +- ein paar wenige Jahre, beruflich zu tun mit
Unternehmen, die von SAP/R2 auf SAP/R3 umstellten. Die
Betriebswirtschaft war (damals, also bei den ersten R3-Versionen) nicht
groß unterschiedlich zu R2, aber es war halt bunt und ansatzweise
mausbedienbar. Die reine CPU-Leistung der Datenbank- und
Applicationserver war um 2 bis 3 Größenordnungen höher als die der alten
Mainframes, die da abgelöst wurden, aber trotzdem waren alle davon
überzeugt, dass "SAP" die Abkürzung für "Sanduhr-Anzeige-Programm" sei.
Auch der Plattenplatzbedarf wuchs bei dieser Umstellung ungefähr um den
Faktor 100 (und in den Folgejahren nochmals um den Faktor 10);
zugegebenermaßen war aber die Hardware nicht mehr viel teurer als vorher
der dicke Mainframe.
Man kann SAP viel vorwerfen, aber wenn man lieb zu dem ist, kann man da
sogar ziemlich gute Performance raus holen. Vor allem in puncto
Skalierbarkeit sind die ganz vorne dabei. Mag sein, dass das in der
Anfangszeit von R3 noch nicht so war. Ich war einige Jahre später
unterwegs, so eher in der Zeit 6.20 bis 7.50.
Fakt ist allerdings auch, dass da viel räudiger Code existiert, von SAP
ausgelieferter einschließlich. Und da kommt eben genauso Mist raus, wie
in anderen Plattformen. Ein schneller Kernel ist halt nur die halbe Miete.

Wir hatten mal eine Anwendung auf einem Webserver (nicht SAP). Das war
eine selber gehäkelte In-Memory Dokumenten-DB, also sauschnell, aber
faktisch trotzdem I/O-bound. Was soll ich sagen, die hat um die 10k
Dokumente/s aus der Persistenzschicht in den Speicher gepumpt. Die
Anwendung hatte in ihrem Datenmodell aber auch Daten aus Fremdsystemen,
die Online geladen wurden. Aus SAP kamen immer noch um die 1000
Dokumente/s - durchaus ordentlich für einen vergleichsweise komplexen
FUBA. Nur ein anderes System, auf LAMP-Basis, das hat mit 10/s alles
runter gezogen. Vor allem hat letzteres überhaupt nicht skaliert.
Während man bei den ersten beiden durch Parallelisierung problemlos
nochmal einen Faktor 10 holen konnte, wurde es bei der LAMP Kiste bei
einem halben Dutzend Requests schon langsamer als mit einem, trotz 16
CPU-Kernen.
Der Webserver war übrigens eine Hasenkiste. VM mit 2 Kernen und 8GB RAM,
in das dank Deduplication ein vielfach höherer Datenbestand reingeladen
werden konnte. Mehr als 10% CPU Last hatte der eher selten. Und Speicher
war üblicherweise auch noch 1/3 frei.


Marcel
Stefan Ram
2024-01-10 16:31:13 UTC
Antworten
Permalink
Post by Diedrich Ehlerding
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte.
Ja. Allerdings werden die Wachstumsraten, die man für einzelne
Kerne hat, seit 2005 kaum noch größer. Herb Sutter schrieb
etwas zu diesem Thema in Dr. Dobb's Journal, 30(3), March 2005.

Wir kamen von dem 1-MHz-6502 zu Prozessoren mit 1 GHz, sagen wir um
das Jahr 2000 herum. Solch eine Vertausendfachung der Taktfrequenz
haben wir seitdem nicht einmal nährungsweise wieder erlebt.

Ähnlich empfinde ich es bei der Kapazität von Festplatten.
Marco Moock
2024-01-10 16:35:18 UTC
Antworten
Permalink
Post by Stefan Ram
Ähnlich empfinde ich es bei der Kapazität von Festplatten.
Da gab es die doch mehrfach. Überlege mal, eine Platte von 1995 hatte
~500 MB, eine aus 2015 hatte problemlos 1000 GB.
Beides in normalen PCs der damaligen zeit verbaut.
Kay Martinen
2024-01-10 17:10:39 UTC
Antworten
Permalink
Post by Stefan Ram
Post by Diedrich Ehlerding
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte.
Ja. Allerdings werden die Wachstumsraten, die man für einzelne
Kerne hat, seit 2005 kaum noch größer. Herb Sutter schrieb
etwas zu diesem Thema in Dr. Dobb's Journal, 30(3), March 2005.
Wir kamen von dem 1-MHz-6502 zu Prozessoren mit 1 GHz, sagen wir um
das Jahr 2000 herum. Solch eine Vertausendfachung der Taktfrequenz
haben wir seitdem nicht einmal nährungsweise wieder erlebt.
Jetzt fehlt doch noch eine Vertausendfachung des Durchsatzes beim
Nadelöhr Arbeitsspeicher. Oder; noch heftiger; beim Durchsatz zu
Massenspeichern.

Stell dir vor was das für Auswirkungen hätte?

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Hermann Riemann
2024-01-10 20:23:41 UTC
Antworten
Permalink
Post by Kay Martinen
   Wir kamen von dem 1-MHz-6502 zu Prozessoren mit 1 GHz, sagen wir um
   das Jahr 2000 herum. Solch eine Vertausendfachung der Taktfrequenz
   haben wir seitdem nicht einmal nährungsweise wieder erlebt.
Das Problem dabei ist die Wärmeabfuhr.
Was war der 68000 noch so kühl.
Post by Kay Martinen
Jetzt fehlt doch noch eine Vertausendfachung des Durchsatzes beim
Nadelöhr Arbeitsspeicher. Oder; noch heftiger; beim Durchsatz zu
Massenspeichern.
Mit optischer Datenübertragung mittels Laser Dioden und
und 3D Digitalkameras..
Post by Kay Martinen
Stell dir vor was das für Auswirkungen hätte?
Hohe Temperaturen und Programmierprobleme.
--
<http://www.hermann-riemann.de>
Gerrit Heitsch
2024-01-10 20:39:48 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Diedrich Ehlerding
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte.
   Ja. Allerdings werden die Wachstumsraten, die man für einzelne
   Kerne hat, seit 2005 kaum noch größer. Herb Sutter schrieb
   etwas zu diesem Thema in Dr. Dobb's Journal, 30(3), March 2005.
   Wir kamen von dem 1-MHz-6502 zu Prozessoren mit 1 GHz, sagen wir um
   das Jahr 2000 herum. Solch eine Vertausendfachung der Taktfrequenz
   haben wir seitdem nicht einmal nährungsweise wieder erlebt.
Jetzt fehlt doch noch eine Vertausendfachung des Durchsatzes beim
Nadelöhr Arbeitsspeicher.
Hatten wir doch... Hier steht ein Rechner, nicht ganz neu, dem
memtest86+ einen Speicherdurchsatz (nicht Cache!) von 17 GB/sec
bescheinigt. Der 1 MHz 6502 hatte deutlich weniger... 2 MB/sec, davon
die Hälfte für den Videocontroller.

Ansonsten haben Grafikkarten oft sehr hohen Speicherdurchsatz, aber eben
nicht bei jeder Anwendung.

Gerrit
Arno Welzel
2024-01-10 22:04:36 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Stefan Ram
Post by Diedrich Ehlerding
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte.
Ja. Allerdings werden die Wachstumsraten, die man für einzelne
Kerne hat, seit 2005 kaum noch größer. Herb Sutter schrieb
etwas zu diesem Thema in Dr. Dobb's Journal, 30(3), March 2005.
Wir kamen von dem 1-MHz-6502 zu Prozessoren mit 1 GHz, sagen wir um
das Jahr 2000 herum. Solch eine Vertausendfachung der Taktfrequenz
haben wir seitdem nicht einmal nährungsweise wieder erlebt.
Jetzt fehlt doch noch eine Vertausendfachung des Durchsatzes beim
Nadelöhr Arbeitsspeicher. Oder; noch heftiger; beim Durchsatz zu
Massenspeichern.
NVMe-SSDs sind schon bei mehr als 3 GB/s angekommen. Damit schreibt man
1 TB Daten in weniger als 10 Minuten voll.

Und DDR5-RAM erreicht auch schon über 50 GB/s. Selbst DDR4 kommt schon
auf über 30 GB/s.

Der 6502 schaffte mit 1 Mhz rechnerisch maximal 500 KB/s, da ein NOP 2
Taktzyklen braucht. Schneller können Daten mit dem 6502 nicht aus dem
RAM gelesen werden. Wenn ich nicht völlig falsch rechne, ergibt das
gegenüber 50 GB/s Faktor 100.000, also weit mehr als Faktor 1000.
Post by Kay Martinen
Stell dir vor was das für Auswirkungen hätte?
Reicht Dir das, was ein aktueller PC kann, nicht?
--
Arno Welzel
https://arnowelzel.de
Gerrit Heitsch
2024-01-11 07:50:47 UTC
Antworten
Permalink
Post by Arno Welzel
Post by Kay Martinen
Post by Stefan Ram
Post by Diedrich Ehlerding
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte.
Ja. Allerdings werden die Wachstumsraten, die man für einzelne
Kerne hat, seit 2005 kaum noch größer. Herb Sutter schrieb
etwas zu diesem Thema in Dr. Dobb's Journal, 30(3), March 2005.
Wir kamen von dem 1-MHz-6502 zu Prozessoren mit 1 GHz, sagen wir um
das Jahr 2000 herum. Solch eine Vertausendfachung der Taktfrequenz
haben wir seitdem nicht einmal nährungsweise wieder erlebt.
Jetzt fehlt doch noch eine Vertausendfachung des Durchsatzes beim
Nadelöhr Arbeitsspeicher. Oder; noch heftiger; beim Durchsatz zu
Massenspeichern.
NVMe-SSDs sind schon bei mehr als 3 GB/s angekommen. Damit schreibt man
1 TB Daten in weniger als 10 Minuten voll.
Die schaffen das durchgehend? Auch wenn sie zwischendrin Blocks löschen
müssen?

Gerrit
Michael van Elst
2024-01-11 08:11:57 UTC
Antworten
Permalink
Die schaffen das durchgehend? Auch wenn sie zwischendrin Blocks löschen
müssen?
Jein. Es gibt/gab zumindest Modelle, die knapp 2GB durchgehend schreiben
konnten. Aber allgemein wird zur Kostensenkung ein schneller Cache
verwendet und wenn der voll ist, wird es langsamer. Bei schlechten
Exemplaren geht es auf 100MB/s runter nachdem ein paar zehn GB am
Stück geschrieben wurden.

Zweites Limit ist, gerade bei den ganz schnellen Exemplaren, die Temperatur.
Da wird dann ohne ausreichende Kühlung gedrosselt.
Arno Welzel
2024-01-11 17:21:36 UTC
Antworten
Permalink
[...]
Post by Gerrit Heitsch
Post by Arno Welzel
Post by Kay Martinen
Jetzt fehlt doch noch eine Vertausendfachung des Durchsatzes beim
Nadelöhr Arbeitsspeicher. Oder; noch heftiger; beim Durchsatz zu
Massenspeichern.
NVMe-SSDs sind schon bei mehr als 3 GB/s angekommen. Damit schreibt man
1 TB Daten in weniger als 10 Minuten voll.
Die schaffen das durchgehend? Auch wenn sie zwischendrin Blocks löschen
müssen?
Wozu sollten sie Blocks löschen müssen, wenn sie noch leer sind ;-).

Im Ernst: ja, 3 GB/s wird nicht konstant durchgehalten, irgenwann geht
es dann auf unter 1 GB/s runter. Aber wenn ich hier testweise Daten von
einer NVMe-SSD auf die andere kopiere, geht es mit 2,8 GB/s los und da
bleibt dann recht lange so, bis es dann auf etwa 800-900 MB/s landet.
--
Arno Welzel
https://arnowelzel.de
Markus Elsken
2024-01-10 23:36:48 UTC
Antworten
Permalink
Moin!
Post by Kay Martinen
Jetzt fehlt doch noch eine Vertausendfachung des Durchsatzes beim
Nadelöhr Arbeitsspeicher.
Wie war der Durchsatz bei einem alten 8-Bitter unter 1MHz und was
schafft heute Epyc 9754 mit seinen 12 DDR5-Kanälen?
Post by Kay Martinen
Oder; noch heftiger; beim Durchsatz zu
Massenspeichern.
Floppy, Datasette, Lochstreifen? Oder doch schon eine MFM-Platte (wenn
alles optimal lief ca. 500kB/s bei Interleave 1) gegen ein RAID aus 16
oder 24 PCIe-SSDs (PCIe5x4, also 15,75GB/s x16 bzw. x24)?

mfg Markus
Stefan Ram
2024-01-11 06:50:50 UTC
Antworten
Permalink
Post by Markus Elsken
Wie war der Durchsatz bei einem alten 8-Bitter unter 1MHz und was
schafft heute Epyc 9754 mit seinen 12 DDR5-Kanälen?
(Es folgt keine direkte Antwort auf Deine Frage, aber etwas,
das zum Thema gehört.)

Tabelle nach Chandler Carruth (2014):

CPUS HAVE A HIERARCHICAL CACHE SYSTEM

One cycle on a 3 GHz processor 1 ns
L1 cache reference 0.5 ns
Branch mispredict 5 ns
L2 cache reference 7 ns 14x L1 cache
Mutex lock/unlock 25 ns
Main memory reference 100 ns 20xL2, 200xL1
Compress 1K bytes with Snappy 3,000 ns
Send 1K bytes over 1 Gbps network 10,000 ns 0.01 ms
Read 4K randomly from SSD 150,000 ns 0.15 ms
Read 1 MB sequentially from memory 250,000 ns 0.25 ms
Round trip within same datacenter 500,000 ns 0.5 ms
Read 1 MB sequentially From SSD 1,000,000 ns 1 ms 4x memory
Disk seek 10,000,000 ns 10 ms 20xdatacen. RT
Read 1 MB sequentially from disk 20,000,000 ns 20 ms 80xmem.,20xSSD
Send packet CA->Netherlands->CA 150,000,000 ns 150 ms
Peter J. Holzer
2024-01-11 09:14:53 UTC
Antworten
Permalink
Post by Stefan Ram
CPUS HAVE A HIERARCHICAL CACHE SYSTEM
One cycle on a 3 GHz processor 1 ns
^^^^^ ^^^^^^
Hmm.

hp
Andreas Kohlbach
2024-01-10 22:11:15 UTC
Antworten
Permalink
Post by Stefan Ram
Post by Diedrich Ehlerding
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte.
Und einen "Apollo-Computer" hat man seit Jahrzehnten in seiner
Hosentasche.
Post by Stefan Ram
Ja. Allerdings werden die Wachstumsraten, die man für einzelne
Kerne hat, seit 2005 kaum noch größer. Herb Sutter schrieb
etwas zu diesem Thema in Dr. Dobb's Journal, 30(3), March 2005.
Wir kamen von dem 1-MHz-6502 zu Prozessoren mit 1 GHz, sagen wir um
das Jahr 2000 herum. Solch eine Vertausendfachung der Taktfrequenz
haben wir seitdem nicht einmal nährungsweise wieder erlebt.
Da erinnere ich mich an die späten 90er, als Hobbyisten mit
Flüssigkeits-Kühlung versuchten, eine XXX MHz mit 1 GHz zu takten. Und
die Bilder dazu. Die zeigten einen Computer mit vielen Schläuchen, als ob
er an ein Lebenserhaltungssystem einer Notaufnahme angeschlossen war.

Um 2005 scheint mir auch das Ende der Fahnenstange erreicht gewesen zu
sein, was die Leistung *einer* CPU anbetraf. Dann gab es eigentlich nur
noch immer mehr Kerne in /einer/ CPU. Auch wenn Betriebssysteme jeden Kern
als eigene CPU listen.

[...]
--
Andreas
Gerrit Heitsch
2024-01-11 07:55:47 UTC
Antworten
Permalink
Post by Andreas Kohlbach
Um 2005 scheint mir auch das Ende der Fahnenstange erreicht gewesen zu
sein, was die Leistung *einer* CPU anbetraf. Dann gab es eigentlich nur
noch immer mehr Kerne in /einer/ CPU.
Ja, aber die Kerne wurden auch wieder schneller. Ich hab hier aktuell
einen Ryzen 5 5600X. Davor steckten in demselben Board ein Ryzen 5 1600
und ein Ryzen 5 3600. Es sind immer 6 Kerne (2 Threads pro Kern). Der
Rechner wurde mit jeder Aufrüstung merkbar schneller.

Gerrit
Stefan Ram
2024-01-11 08:30:00 UTC
Antworten
Permalink
Post by Gerrit Heitsch
Ja, aber die Kerne wurden auch wieder schneller.
Heute spielen natürlich auch die GPUs eine wichtige Rolle.
Das war eine gewisse Überraschung. Geht vielleicht auf [Behnke 2010]
zurück, ein wichtiger Schritt bei den neuronalen Netzen.

Web 2023:

|Ich brauche eine mit Nvidia RTX 4090 GPU. Die 4090 muß es
|nämlich sein, weil ich für KI-Zeug vor allem viel
|Videospeicher brauche, und nur die 4090 hat 24 Gibioktett.
...
|eine RTX 4090 kostet ungefähr 2000 Mark – und gibt es von
|unterschiedlichen Herstellern, die da alle ihre eigene
|Kühlung und so weiter draufknallen
...
Web 2023 (eventuell leicht editiert ["Gibioktett"])

[Behnke 2010]

Dominik Scherer, Andreas C. Müller, and Sven Behnke:
"Evaluation of Pooling Operationsin Convolutional
Architectures for Object Recognition," In 20th International
Conference Artificial Neural Networks(ICANN), pp. 92–101,
2010. doi: 10.1007/978-3-642-15825-4_10 .
Stefan Ram
2024-01-11 08:52:38 UTC
Antworten
Permalink
Post by Stefan Ram
|eine RTX 4090 kostet ungefähr 2000 Mark – und gibt es von
Oops, ja ... Ich habe ein Programm, welches alle Webseiten
automatisch umschreibt, bevor ich sie sehe. Diese
Programm ersetzt "Euro" durch "Mark" (und "Gbyte" o.Ä. durch
"Gibioktett"). "Mark" hatte ich nicht bemerkt, sonst hätte
ich es vor dem Posten rückgängig gemacht.
Peter J. Holzer
2024-01-11 09:18:55 UTC
Antworten
Permalink
Post by Stefan Ram
Post by Stefan Ram
|eine RTX 4090 kostet ungefähr 2000 Mark – und gibt es von
Oops, ja ... Ich habe ein Programm, welches alle Webseiten
automatisch umschreibt, bevor ich sie sehe. Diese
Programm ersetzt "Euro" durch "Mark"
Ich hoffe, dein Programm multipliziert auch alle Zahlen korrekt mit
1,95583 (und dividiert sie durch den VPI 2000).

hp
Kay Martinen
2024-01-11 09:43:15 UTC
Antworten
Permalink
Post by Stefan Ram
Post by Stefan Ram
|eine RTX 4090 kostet ungefähr 2000 Mark – und gibt es von
Oops, ja ... Ich habe ein Programm, welches alle Webseiten
automatisch umschreibt, bevor ich sie sehe. Diese
Greasemonkey? :)

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Arno Welzel
2024-01-11 17:26:26 UTC
Antworten
Permalink
Stefan Ram, 2024-01-11 09:30:

[...]
Post by Stefan Ram
|Ich brauche eine mit Nvidia RTX 4090 GPU. Die 4090 muß es
|nämlich sein, weil ich für KI-Zeug vor allem viel
|Videospeicher brauche, und nur die 4090 hat 24 Gibioktett.
...
|eine RTX 4090 kostet ungefähr 2000 Mark – und gibt es von
|unterschiedlichen Herstellern, die da alle ihre eigene
|Kühlung und so weiter draufknallen
Was soll "Mark" sein? 4090 kostet um die 2000 EUR, nicht "Mark".
--
Arno Welzel
https://arnowelzel.de
Peter J. Holzer
2024-01-11 09:29:53 UTC
Antworten
Permalink
Post by Gerrit Heitsch
Post by Andreas Kohlbach
Um 2005 scheint mir auch das Ende der Fahnenstange erreicht gewesen zu
sein, was die Leistung *einer* CPU anbetraf. Dann gab es eigentlich nur
noch immer mehr Kerne in /einer/ CPU.
Ja, aber die Kerne wurden auch wieder schneller.
Ja. Ich war überrascht um wieviel schneller mein aktueller Laptop (mit
"13th Gen Intel(R) Core(TM) i5-13600H") als mein 5 Jahre alter Desktop
(mit "Intel(R) Core(TM) i7-7700T CPU @ 2.90GHz") ist. Die maximale
Taktfrequenz ist nur 26% höher (4.8 GHz statt 3.8 Ghz) aber bei vielen
Workloads ist er um 50% schneller, bei manchen sogar doppelt so schnell.
Gut, vielleicht ist auch das RAM schneller.

hp
Dennis Grevenstein
2024-01-11 09:54:32 UTC
Antworten
Permalink
Post by Peter J. Holzer
Ja. Ich war überrascht um wieviel schneller mein aktueller Laptop (mit
"13th Gen Intel(R) Core(TM) i5-13600H") als mein 5 Jahre alter Desktop
Taktfrequenz ist nur 26% höher (4.8 GHz statt 3.8 Ghz) aber bei vielen
Workloads ist er um 50% schneller, bei manchen sogar doppelt so schnell.
Gut, vielleicht ist auch das RAM schneller.
vielleicht wirkt bei Euch ja auch noch so eine Konditionierung von
früher nach, wo alle gelernt haben, dass mehr MHz/GHz schneller ist.
Eine Zeit lang haben die Hersteller versucht, den CPUs eine Art
"Quantispeed" rating zu verpassen (AMD hatte das angefangen?) und
mittlerweile kapiert niemand mehr irgendwas. Oftmals zählt nur
noch so eine ganz einfach Heuristik "wenn die Zahl größer ist,
dann muss es besser sein", so wie Intel vor Jahrzehnten Werbung
mit 386er und 486er gemacht hat. Die Kunden scheinen intellektuell
überfordert. Apple hat die Zeichen erkannt und benennt CPUs noch
mit einfachen Zahlen und einem lächerlichen Zusatz Pro, Max, Ultra
wie in der Waschmittelwerbung.

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhaeuser
gate. All those moments will be lost in time, like tears in rain."
Michael Kraemer @ home
2024-01-11 10:36:38 UTC
Antworten
Permalink
Post by Dennis Grevenstein
vielleicht wirkt bei Euch ja auch noch so eine Konditionierung von
früher nach, wo alle gelernt haben, dass mehr MHz/GHz schneller ist.
Eine Zeit lang haben die Hersteller versucht, den CPUs eine Art
"Quantispeed" rating zu verpassen (AMD hatte das angefangen?) und
mittlerweile kapiert niemand mehr irgendwas.
Zumal "CPU" im Sinne eines monolithischen Etwas auch nicht mehr zutreffend ist,
bei den vielen Funktionseinheiten die eine heutige CPU hat.
IBM zB hat bei ihren neueren POWERs die "CPU-Zeit" neu und etwas eigenwillig
definiert.
Also nicht mehr nur die Zeit, die ein Progamm auf der CPU rechnet,
sondern auch den Nutzungsgrad der "CPU" reinmultipliziert.
Das macht benchmarking nicht grade einfacher.
Peter J. Holzer
2024-01-11 14:04:18 UTC
Antworten
Permalink
Post by Dennis Grevenstein
Post by Peter J. Holzer
Ja. Ich war überrascht um wieviel schneller mein aktueller Laptop (mit
"13th Gen Intel(R) Core(TM) i5-13600H") als mein 5 Jahre alter Desktop
Taktfrequenz ist nur 26% höher (4.8 GHz statt 3.8 Ghz) aber bei vielen
Workloads ist er um 50% schneller, bei manchen sogar doppelt so schnell.
Gut, vielleicht ist auch das RAM schneller.
vielleicht wirkt bei Euch ja auch noch so eine Konditionierung von
früher nach, wo alle gelernt haben, dass mehr MHz/GHz schneller ist.
Nein, mehr die Erfahrung der letzten 15 Jahre, dass der
Performance-Gewinn durch einen neuen Rechner eher bescheiden ist,
jedenfalls was die CPU anlangt. SSD statt HD hat viel gebracht. Stetig
wachsendes RAM war auch fein. Aber bei den CPUs hat sich wenig getan.
Insofern war ich skeptisch (und dann positiv überrascht) als als Ersatz
für 5 Jahre alte Desktops mit i7 neue Laptops mit i5 angekündigt waren.

hp
Arno Welzel
2024-01-11 17:29:08 UTC
Antworten
Permalink
Peter J. Holzer, 2024-01-11 15:04:

[...]
Post by Peter J. Holzer
Nein, mehr die Erfahrung der letzten 15 Jahre, dass der
Performance-Gewinn durch einen neuen Rechner eher bescheiden ist,
jedenfalls was die CPU anlangt. SSD statt HD hat viel gebracht. Stetig
wachsendes RAM war auch fein. Aber bei den CPUs hat sich wenig getan.
Man muss nur lange genug warten ;-)

Als ich vor einiger Zeit einen Xeon E5-1650 v2 mit DDR3-RAM samt
Mainboard durch einen AMD FX5800X mit DDR4-RAM ersetzt habe, war der
Unterschied *sehr* deutlich - etwa Faktor 2-3 schneller.
--
Arno Welzel
https://arnowelzel.de
Gerald E¡scher
2024-01-11 19:38:15 UTC
Antworten
Permalink
Post by Dennis Grevenstein
vielleicht wirkt bei Euch ja auch noch so eine Konditionierung von
früher nach, wo alle gelernt haben, dass mehr MHz/GHz schneller ist.
Ich nicht. Ich habe Anfang der 90er gelernt, dass bei gleicher
Taktfrequenz ein i486 etwa doppelt so schnell ist wie ein i386. Damals
hat sich noch kein DAU für Taktfrequenzen interessiert.
Post by Dennis Grevenstein
Eine Zeit lang haben die Hersteller versucht, den CPUs eine Art
"Quantispeed" rating zu verpassen (AMD hatte das angefangen?)
Davor gab es das "P-Rating". https://de.wikipedia.org/wiki/P-Rating
--
Gerald
Andreas Kohlbach
2024-01-11 21:23:22 UTC
Antworten
Permalink
Post by Dennis Grevenstein
Post by Peter J. Holzer
Ja. Ich war überrascht um wieviel schneller mein aktueller Laptop (mit
"13th Gen Intel(R) Core(TM) i5-13600H") als mein 5 Jahre alter Desktop
Taktfrequenz ist nur 26% höher (4.8 GHz statt 3.8 Ghz) aber bei vielen
Workloads ist er um 50% schneller, bei manchen sogar doppelt so schnell.
Gut, vielleicht ist auch das RAM schneller.
vielleicht wirkt bei Euch ja auch noch so eine Konditionierung von
früher nach, wo alle gelernt haben, dass mehr MHz/GHz schneller ist.
64 Bit ist schneller als 32. ;-)

Diese Linux-Installation (nun im dritten Host) muss ich um 2010
aufgesetzt haben. Damals gab es schon 64 Bit CPUs in Desktops und
Laptops. Ein Bekannter meinte auch, er müsse unbedingt Windows 7 64 Bit
installieren.

Es gab sogar Werbung, die die Vorteile seines Produktes allein an der
Tatsache festmachte, eine CPU mit der doppelten "Bitzahl" seiner
Konkurrenten zu haben.

Ich war der Meinung, dass sie 32 zu 64 nichts nimmt. Die Sache vielleicht
gar langsamer macht. Vielleicht hatte ich aus diesem Grund für Linux
32 Bit (PAE) gewählt, was ich heute noch mit mir rum schleppe.

PS: Auf dem neueren Rechner läuft 64 Bit Debian. Der scheint im
Lichtjahre schneller als der 32 Bitter zu sein, was aber an seiner
wesentlich besseren Ausstattung liegt.

PS2: Ich will 8 Bit zurück! War doch die beste Zeit. :-)
--
Andreas
Arno Welzel
2024-01-11 17:25:03 UTC
Antworten
Permalink
[...]
Post by Andreas Kohlbach
Post by Stefan Ram
Wir kamen von dem 1-MHz-6502 zu Prozessoren mit 1 GHz, sagen wir um
das Jahr 2000 herum. Solch eine Vertausendfachung der Taktfrequenz
haben wir seitdem nicht einmal nährungsweise wieder erlebt.
Da erinnere ich mich an die späten 90er, als Hobbyisten mit
Flüssigkeits-Kühlung versuchten, eine XXX MHz mit 1 GHz zu takten. Und
die Bilder dazu. Die zeigten einen Computer mit vielen Schläuchen, als ob
er an ein Lebenserhaltungssystem einer Notaufnahme angeschlossen war.
Das ist heute immer noch so. Flüssigkühlung gehört bei anspruchsvolleren
"Gamer"-PCs zum Standard:

<https://www.caseking.de/king-mod-systems-gaming-pc-red-nebula-amd-ryzen-7-7800x3d-4070-ti-custom-wakue-sipc-638.html>
Post by Andreas Kohlbach
Um 2005 scheint mir auch das Ende der Fahnenstange erreicht gewesen zu
sein, was die Leistung *einer* CPU anbetraf. Dann gab es eigentlich nur
noch immer mehr Kerne in /einer/ CPU. Auch wenn Betriebssysteme jeden Kern
als eigene CPU listen.
Ja, das ist ja auch sinnvoll. Software profitiert davon, Dinge
*parallel* ausführen zu können.
--
Arno Welzel
https://arnowelzel.de
Andreas Kohlbach
2024-01-11 22:14:51 UTC
Antworten
Permalink
Post by Arno Welzel
[...]
Post by Andreas Kohlbach
Post by Stefan Ram
Wir kamen von dem 1-MHz-6502 zu Prozessoren mit 1 GHz, sagen wir um
das Jahr 2000 herum. Solch eine Vertausendfachung der Taktfrequenz
haben wir seitdem nicht einmal nährungsweise wieder erlebt.
Da erinnere ich mich an die späten 90er, als Hobbyisten mit
Flüssigkeits-Kühlung versuchten, eine XXX MHz mit 1 GHz zu takten. Und
die Bilder dazu. Die zeigten einen Computer mit vielen Schläuchen, als ob
er an ein Lebenserhaltungssystem einer Notaufnahme angeschlossen war.
Das ist heute immer noch so. Flüssigkühlung gehört bei anspruchsvolleren
<https://www.caseking.de/king-mod-systems-gaming-pc-red-nebula-amd-ryzen-7-7800x3d-4070-ti-custom-wakue-sipc-638.html
Klar. Das wird auch immer so sein. Mir ging es aber darum, dass 1 GHz
Ende der 90er offenbar als die Schallgrenze angesehen wurde.

Heute schüttelt jede aktuelle CPU Takte über 1 GHz lässig aus dem Ärmel.
--
Andreas
Diedrich Ehlerding
2024-01-12 19:51:42 UTC
Antworten
Permalink
Post by Arno Welzel
Das ist heute immer noch so. Flüssigkühlung gehört bei
Ich warte noch darauf, dass die Gamer zur Kühling mit flüssigem
Stickstoff greifen. So wie anno dunnemals die Eta10
<https://en.wikipedia.org/wiki/ETA10>
--
gpg-Key (DSA 1024) D36AD663E6DB91A4
fingerprint = 2983 4D54 E00B 8483 B5B8 C7D1 D36A D663 E6DB 91A4
HTML-Mail wird ungeleſen entſorgt.
Kay Martinen
2024-01-12 21:31:24 UTC
Antworten
Permalink
Post by Diedrich Ehlerding
Post by Arno Welzel
Das ist heute immer noch so. Flüssigkühlung gehört bei
Denn den PC in einen Kühlschrank stellen reicht nicht. ;)
Post by Diedrich Ehlerding
Ich warte noch darauf, dass die Gamer zur Kühling mit flüssigem
Stickstoff greifen.
Das stelle ich mir anspruchsvoll vor. Ob eine Unterkühlte heutige CPU da
überhaupt noch anläuft - oder gleich zerspringt. Frostschaden. ;-)
Post by Diedrich Ehlerding
So wie anno dunnemals die Eta10
<https://en.wikipedia.org/wiki/ETA10>
Beim überfliegen fiel mir nix auf ob es da Probleme gäbe.

Ich denke heutige CPU's haben viel kleinere Strukturbreiten und müssen
m.E. erst mal ein bißchen warm (plusgrade) werden bevor man sie "runter
kühlt. Die Damalige Technik ist vermutlich eher für einen KALT-Start
geeignet gewesen. CMOS-Gatter auf Platine zusammen geschaltet = CPU wird
ja heute nicht mehr benutzt.

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Marcel Mueller
2024-01-13 14:16:41 UTC
Antworten
Permalink
Post by Andreas Kohlbach
Und einen "Apollo-Computer" hat man seit Jahrzehnten in seiner
Hosentasche.
Meinst Du HP-Apollo, also für die ganz großen Hosentaschen?
Post by Andreas Kohlbach
Da erinnere ich mich an die späten 90er, als Hobbyisten mit
Flüssigkeits-Kühlung versuchten, eine XXX MHz mit 1 GHz zu takten. Und
die Bilder dazu. Die zeigten einen Computer mit vielen Schläuchen, als ob
er an ein Lebenserhaltungssystem einer Notaufnahme angeschlossen war.
Das kam der Sache doch auch ziemlich nahe. ;-)
Post by Andreas Kohlbach
Um 2005 scheint mir auch das Ende der Fahnenstange erreicht gewesen zu
sein, was die Leistung *einer* CPU anbetraf. Dann gab es eigentlich nur
noch immer mehr Kerne in /einer/ CPU. Auch wenn Betriebssysteme jeden Kern
als eigene CPU listen.
IPC hat sich schon noch signifikant verbessert. Nur beim Takt ging es
seither deutlich langsamer.


Marcel
Kay Martinen
2024-01-13 14:33:55 UTC
Antworten
Permalink
Post by Marcel Mueller
Post by Andreas Kohlbach
Und einen "Apollo-Computer" hat man seit Jahrzehnten in seiner
Hosentasche.
Meinst Du HP-Apollo, also für die ganz großen Hosentaschen?
Ich fürchte er meine den Apollo Guidance Computer (AGC). Das große mit
dem fädelkernspeicher und der "Fernbedienung" (DSKY?). :)
Post by Marcel Mueller
Post by Andreas Kohlbach
Da erinnere ich mich an die späten 90er, als Hobbyisten mit
Flüssigkeits-Kühlung versuchten, eine XXX MHz mit 1 GHz zu takten. Und
die Bilder dazu. Die zeigten einen Computer mit vielen Schläuchen, als ob
er an ein Lebenserhaltungssystem einer Notaufnahme angeschlossen war.
Das kam der Sache doch auch ziemlich nahe. ;-)
Weiß nicht warum aber ich mußte hier an den Buckaroo Banzai Film (mit
Peter Weller) denken wo der US-Präsi ähnlich verkabelt wg. angeblicher
Alien-Aggressoren einen Umschlag öffnet. Heraus fiel die

"Declaration of War - Short Form" :-)

Ok, ich schweife ab, mit CPU hat das nur in so fern zu tun das es auch
einen Kampf gibt - um Moores Law - und ob es noch stimmt oder nicht.
Post by Marcel Mueller
Post by Andreas Kohlbach
Um 2005 scheint mir auch das Ende der Fahnenstange erreicht gewesen zu
sein, was die Leistung *einer* CPU anbetraf. Dann gab es eigentlich nur
noch immer mehr Kerne in /einer/ CPU. Auch wenn Betriebssysteme jeden Kern
als eigene CPU listen.
IPC hat sich schon noch signifikant verbessert. Nur beim Takt ging es
seither deutlich langsamer.
Quasi seitwärts. Bei gleichem Takt mehr nebenbei erledigen... 100 Kerne
sind ja keine Seltenheit mehr. Nicht mainstream aber auch nicht
exotisch. Welche Alte Anlage hatte so viele Rechenkerne und ab wann?


Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Thomas Koenig
2024-01-13 15:56:00 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Marcel Mueller
Post by Andreas Kohlbach
Und einen "Apollo-Computer" hat man seit Jahrzehnten in seiner
Hosentasche.
Meinst Du HP-Apollo, also für die ganz großen Hosentaschen?
Ich fürchte er meine den Apollo Guidance Computer (AGC). Das große mit
dem fädelkernspeicher und der "Fernbedienung" (DSKY?). :)
NOR is all that you need!

Das war damals die absolute Spitze des Bedienkomforts, dass man
da Zahlen angezeigt hat und Zahlen eintippen konnte.

Nix Lochstreifen irgendwo reinstecken...
Kay Martinen
2024-01-14 02:20:10 UTC
Antworten
Permalink
Post by Kay Martinen
Post by Marcel Mueller
Post by Andreas Kohlbach
Und einen "Apollo-Computer" hat man seit Jahrzehnten in seiner
Hosentasche.
Meinst Du HP-Apollo, also für die ganz großen Hosentaschen?
Also ich will nicht wissen wie groß Dein Apollo ist, und in welcher
Hosentasche er sich rumtreibt. ;-)
Man sagt doch "Platz ist in der kleinsten Hütte". Da wird das auch mit
den Hosentaschen funktionieren. In unsere passen nur Handys; und ein
kleiner Adonis zum Taschenpingpong spielen; aber bei Donald Trump paßt
auch noch ein Ego mit überbreite hinein. ;)

Der schleppt bestimmt auch keine Server oder Workstation mit sich rum,
der LÄSST rechnen.

Falls du auf den Griechischen Gott anspielst: Das der ein großes Gemächt
hätte kann ich zumindest bei WP nicht finden. Ob das eine UL ist?
Post by Kay Martinen
Ich fürchte er meine den Apollo Guidance Computer (AGC). Das große mit
dem fädelkernspeicher und der "Fernbedienung" (DSKY?). :)
Ja. Ich hatte angenommen, daran sollte man als erstes bei
"Apollo-Computer" denken.
Wenn wir hier in einer Raumfahrtgruppe wären ganz bestimmt. Aber so
denken die meisten wohl eher an Apollo/Domain oder solche
Namensähnlichkeiten. Es mag auch nicht jeder ein Faible für Raumfahrt
haben, so wie ich.

Bye/
/Kay
--
"Kann ein Wurstbrot die Welt retten?" :-)
Hermann Riemann
2024-01-10 19:17:57 UTC
Antworten
Permalink
Post by Diedrich Ehlerding
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte. Die
Briefe, die man heute auf dem Computer schreibt, werden aber nicht
schneller fertig als damals an der Schreibmaschine - sie werden nur
bunter und schöner.
Suche mal nach Vergleich Cray gegen raspberry pi.
Ignatios Souvatzis
2024-01-13 15:32:55 UTC
Antworten
Permalink
Post by Diedrich Ehlerding
DAS klingt mir nun eher nach ein konzeptionellem Problem :-)
Zu meiner Studi-Zeit hat DER Zentral-Computer 12 MB RAM und es
reichte fuer ALLE. Gleichzeitig. Interaktiv.
Na ja - die konnten damit auch nicht viel machen.
Es reichte fuer (fast) alle wissenschaftliche Anwendungen einer
grossen Universitaet.
Es gab nur noch wenige zusaetzliche Spezial-Workstations in den
Instituten, hauptsaechlich fuer Grafik.
Ja. Heute haben wir CPU-Leistung am Arbeitsplatz, die um mehrere
Größenordnungen höher ist als damals für die ganze Uni reichte. Die
Briefe, die man heute auf dem Computer schreibt, werden aber nicht
schneller fertig als damals an der Schreibmaschine - sie werden nur
bunter und schöner.
IBTD. Bunter, ja, oft aber hässlicher und nicht lesbarer.

Die Corporate Identity meines AG verlangt nach einem Font, bei dem
l und I nicht unterscheidbar sind. Ein Latex-Style, den die Physiker
dafuer gebaut haben ,hat eine Option fuer Leute, die Formeln
brauchen, die einen serifen-behafteten Font verwendet. Aber mit
der Warnung, dass das dann die CI-Richtlinien bricht.

-is
Stefan Möding
2024-01-14 13:03:30 UTC
Antworten
Permalink
Post by Ignatios Souvatzis
Die Corporate Identity meines AG verlangt nach einem Font, bei dem
l und I nicht unterscheidbar sind. Ein Latex-Style, den die Physiker
dafuer gebaut haben ,hat eine Option fuer Leute, die Formeln
brauchen, die einen serifen-behafteten Font verwendet. Aber mit
der Warnung, dass das dann die CI-Richtlinien bricht.
Ich hatte auch mal so einen Fall, wo alle Dokumente per Word-Vorlagen die
eigens für diese Firma entwickelten TrueType-Fonts genutzt haben. Ohne
die Fonts sah das natürlich Schei... aus. Dazu waren die Fonts mit einer
restriktiven Lizenz ausgestattet, so dass damit auch das Einbetten in PDFs
verhindert wurde.

--
Stefan
Marcel Mueller
2024-01-16 07:34:39 UTC
Antworten
Permalink
Post by Ignatios Souvatzis
Die Corporate Identity meines AG verlangt nach einem Font, bei dem
l und I nicht unterscheidbar sind.
So was ähnliches hatten wir auch mal. Der Font kam halt von der
Druckmaschine, und konnte da auch etwas. Aber auf dem Rechner, mit
damals 1/10 der Auflösung sah das einfach unmöglich und auch schlecht
lesbar aus.


Marcel
Peter J. Holzer
2024-01-16 19:04:38 UTC
Antworten
Permalink
Post by Marcel Mueller
Post by Ignatios Souvatzis
Die Corporate Identity meines AG verlangt nach einem Font, bei dem
l und I nicht unterscheidbar sind.
Das ist allerdings bei den meisten Sans-Serif-Schriften der Fall
(zumindest, solange I und l nicht unmittelbar nebeneinander stehen).
Post by Marcel Mueller
So was ähnliches hatten wir auch mal. Der Font kam halt von der
Druckmaschine, und konnte da auch etwas. Aber auf dem Rechner, mit
damals 1/10 der Auflösung sah das einfach unmöglich und auch schlecht
lesbar aus.
Bei uns war's Futura. Der lizensierte Font sah im Druck gut aus (ob man
Futura als Brotschrift verwenden sollte, lasse ich jetzt mal
dahingestellt), aber am Bildschirm war er (in Prä-Anti-Aliasing-Zeiten)
eine Katastrophe.

hp
Marcel Mueller
2024-01-16 19:31:34 UTC
Antworten
Permalink
Post by Peter J. Holzer
Post by Marcel Mueller
So was ähnliches hatten wir auch mal. Der Font kam halt von der
Druckmaschine, und konnte da auch etwas. Aber auf dem Rechner, mit
damals 1/10 der Auflösung sah das einfach unmöglich und auch schlecht
lesbar aus.
Bei uns war's Futura. Der lizensierte Font sah im Druck gut aus (ob man
Futura als Brotschrift verwenden sollte, lasse ich jetzt mal
dahingestellt), aber am Bildschirm war er (in Prä-Anti-Aliasing-Zeiten)
eine Katastrophe.
Mit Anti-Aliasing ist die Schrift dann halt so unscharf, dass es nicht
mehr auffällt. Anstrengend für's Auge sind unscharfe Schriften aber immer.


Marcel
Peter J. Holzer
2024-01-16 19:37:33 UTC
Antworten
Permalink
Post by Marcel Mueller
Mit Anti-Aliasing ist die Schrift dann halt so unscharf, dass es nicht
mehr auffällt. Anstrengend für's Auge sind unscharfe Schriften aber immer.
I beg to differ.

hp
Lesen Sie weiter auf narkive:
Loading...