Discussion:
Triumph of the Nerds
(zu alt für eine Antwort)
Joerg Walther
2024-04-06 07:37:13 UTC
Permalink
Gestern zum zweiten Mal nach langer Zeit wieder angeschaut (fliegt im
Usenet rum, YT hat's auch, aber als mittelschlechter VHS-Transfer), ist
das eine immer noch sehenswerte Doku über die Anfänge des PCs, beginnend
mit dem Altair bis zum Release von Windows 95. Immer wieder interessant
zu hören ist die Story, wie IBM, um einen eigenen PC zu haben, sich mit
Intel und Microsoft einlässt und sich dabei gleich zweimal ins Knie
schießt.
Wer das in dramatisierter Form sehen möchte: Es gibt eine 40teilige
Serie (in vier Staffeln) namens Halt and Catch Fire, die ich damals auf
Prime sah und die meiner Meinung sehr empfehlenswert ist.

-jw-
--
And now for something completely different...
Michael Pachta
2024-04-06 08:06:00 UTC
Permalink
Post by Joerg Walther
Gestern zum zweiten Mal nach langer Zeit wieder angeschaut (fliegt im
Usenet rum,
Was bedeutet "fliegt im Usenet rum"?
Joerg Walther
2024-04-06 09:37:26 UTC
Permalink
Post by Michael Pachta
Post by Joerg Walther
Gestern zum zweiten Mal nach langer Zeit wieder angeschaut (fliegt im
Usenet rum,
Was bedeutet "fliegt im Usenet rum"?
Dass man es aus den alt.binaries.* laden kann, so man denn einen Account
bei einem Newsserver hat, der die aufliegen hat.

-jw-
--
And now for something completely different...
Kay Martinen
2024-04-06 09:14:33 UTC
Permalink
Post by Joerg Walther
Wer das in dramatisierter Form sehen möchte: Es gibt eine 40teilige
Serie (in vier Staffeln) namens Halt and Catch Fire, die ich damals auf
Ich mag mir kaum vorstellen wie man mit dem Thema 4 Staffeln einer Serie
a 10 Episoden füllen könnte. Und was heißt bitte "damals"?

Prime meint hier wohl den Amazon-Streamingdienst. Noch so ein
Möchtegern-Monopolist. Das brauche ich echt nicht dem auch noch Geld in
den Rachen zu werfen.

Bye/
/Kay
--
nix
Joerg Walther
2024-04-06 09:39:51 UTC
Permalink
Post by Kay Martinen
Ich mag mir kaum vorstellen wie man mit dem Thema 4 Staffeln einer Serie
a 10 Episoden füllen könnte. Und was heißt bitte "damals"?
Es war sehr, sehr unterhaltsam und auch spannend gemacht, das wurde hier
innerhalb kurzer Zeit weggeschaut. Damals war 2014-2017, entdeckt hatte
ich die Serie aber wohl erst 2016 oder 2017.
Post by Kay Martinen
Prime meint hier wohl den Amazon-Streamingdienst. Noch so ein
Möchtegern-Monopolist. Das brauche ich echt nicht dem auch noch Geld in
den Rachen zu werfen.
Du kannst es auch von TPB laden, nimm halt ein VPN. :)

-jw-
--
And now for something completely different...
Arno Welzel
2024-04-08 10:27:27 UTC
Permalink
Post by Joerg Walther
Post by Kay Martinen
Ich mag mir kaum vorstellen wie man mit dem Thema 4 Staffeln einer Serie
a 10 Episoden füllen könnte. Und was heißt bitte "damals"?
Es war sehr, sehr unterhaltsam und auch spannend gemacht, das wurde hier
innerhalb kurzer Zeit weggeschaut. Damals war 2014-2017, entdeckt hatte
ich die Serie aber wohl erst 2016 oder 2017.
Post by Kay Martinen
Prime meint hier wohl den Amazon-Streamingdienst. Noch so ein
Möchtegern-Monopolist. Das brauche ich echt nicht dem auch noch Geld in
den Rachen zu werfen.
Du kannst es auch von TPB laden, nimm halt ein VPN. :)
TPB scheint aber aktuell Probleme zu haben. Eine Suche führt da zu
keinem Ergebnis.
--
Arno Welzel
https://arnowelzel.de
Joerg Walther
2024-04-08 11:33:48 UTC
Permalink
Post by Arno Welzel
Post by Joerg Walther
Du kannst es auch von TPB laden, nimm halt ein VPN. :)
TPB scheint aber aktuell Probleme zu haben. Eine Suche führt da zu
keinem Ergebnis.
Stimmt. Als ich es vorgestern ausprobierte, wurde noch ein 46GB großes
Paket mit allen vier Staffeln gefunden. Vielleicht geht es ja bald
wieder...

-jw-
--
And now for something completely different...
Sebastian Barthel
2024-04-17 17:33:21 UTC
Permalink
Post by Joerg Walther
Gestern zum zweiten Mal nach langer Zeit wieder angeschaut (fliegt im
Usenet rum, YT hat's auch, aber als mittelschlechter VHS-Transfer), ist
das eine immer noch sehenswerte Doku über die Anfänge des PCs, beginnend
mit dem Altair bis zum Release von Windows 95. Immer wieder interessant
zu hören ist die Story, wie IBM, um einen eigenen PC zu haben, sich mit
Intel und Microsoft einlässt und sich dabei gleich zweimal ins Knie
schießt.
Irgendwie ist das ja auch eine krude Story.

Vor allem aber haben sich die Leute in der Zeit ganz sicherlich nicht als
"Nerds" bezeichnet. Vielleicht als Gurus oder Freaks oder sowas. Aber
"Nerd" ist sowas von 2000 und kommt wahrscheinlich erst so richtig mit bzw
nach Neo (Matrix) in den allgemeinen Sprachgebrauch.
Stefan Ram
2024-04-17 20:45:29 UTC
Permalink
Post by Sebastian Barthel
Vor allem aber haben sich die Leute in der Zeit ganz sicherlich nicht als
"Nerds" bezeichnet. Vielleicht als Gurus oder Freaks oder sowas. Aber
"Nerd" ist sowas von 2000 und kommt wahrscheinlich erst so richtig mit bzw
nach Neo (Matrix) in den allgemeinen Sprachgebrauch.
"Nerd" ist für mich erst einmal ein englisches Wort. Im Betreff
"Triumph of the Nerds" steht es in einem englischen Kontext.

Als ein, ursprünglich eher abwertender, Slang-Begriff ist es im
Englischen seit den 50er Jahren bezeugt.

Seit 2004 steht das Wort auch im Duden, und einige Quellen berichten
vom Ausdruck "Rache der Nerds" als Ausdruck der 90er Jahre. Wenn etwas
2004 im Duden ankam, war es wahrscheinlich schon seit einigen Jahren
in einzelnen Kreisen unterwegs.

Ich würde auch sagen, daß nach meiner Erinnerung im Deutschen
"Computer-Freak" in den 80er Jahren durchaus verständlich war, aber
"Nerd" hätte man damals im Deutschen wohl eher nicht verstanden.
Diedrich Ehlerding
2024-04-18 06:46:05 UTC
Permalink
Post by Stefan Ram
Seit 2004 steht das Wort auch im Duden, und einige Quellen berichten
vom Ausdruck "Rache der Nerds" als Ausdruck der 90er Jahre. Wenn etwas
2004 im Duden ankam, war es wahrscheinlich schon seit einigen Jahren
in einzelnen Kreisen unterwegs.
Mindestens seit den 1990er Jahren, meint die Allwissende:
<https://de.wikipedia.org/wiki/Computerfreak>

Dazu passt:
<https://books.google.com/ngrams/graph?content=nerd&year_start=1980&year_end=2012&corpus=de-2019&smoothing=0>
--
gpg-Key (DSA 1024) D36AD663E6DB91A4
fingerprint = 2983 4D54 E00B 8483 B5B8 C7D1 D36A D663 E6DB 91A4
HTML-Mail wird ungeleſen entſorgt.
Stefan Ram
2024-04-18 09:36:49 UTC
Permalink
Ja. Das Wort wurde im Deutschen spätestens 1998 von Max Goldt
verwendet, der schrieb:

|Vor einem Jahr aber hörte ich erstmals das Wort nerd.
. . .
|Von einer Amerikanerin erfuhr ich, daß man während ihrer
|Highschoolzeit vor zwanzig Jahren zuerst kein passendes Wort
|für diese bei den Studentinnen weniger beliebten Kommilitonen
|gekannt habe, aber plötzlich wäre nerd aufgetaucht, und alle
|wären für dieses dringend benötigte Wort dankbar gewesen wie
|für einen lange herbeigesehnten Regenschauer."
. . .
Max Goldt

Den Typ des Nerds gab es sicher schon bevor es das Wort
überhaupt gab.

In den USA wurde die heutige Bedeutung von "nerd" durch die
Fernsehserie "Happy Days" (1974-1984) richtig populär.

Leider habe ich einen Entwurf dieses Postings verloren.
Darin stand wohl auch noch, daß man im Deutschsprachigen das
Wort "Nerd" seit WIMRE 2009 bei Synchronisationen übernimmt.
Außerdem nannte ich noch den Titel eines Buches zum Wort.

Verwandte Begriffe sind auch noch: "Radiobastler" und "Hacker".

In den 90ern wurde "nerd" teilweise mit "Musterschüler" oder
"Trottel" übersetzt. Es fehlte anscheinend ein deutsches Wort
für genau diesen Begriff.

In gedruckten Medien im Deutschen findet man das Wort seit
1996 nur ganz vereinzelt. 2007/2008 etwas häufiger, aber immer
noch vereinzelt. Ab 2009 beginnt dann der Siegeszug des Wortes,
vielleicht zusammenhängend mit dem, was ich im vorvorvorigen
Absatz über Synchronisationen schrieb.
Stefan Ram
2024-04-18 09:49:18 UTC
Permalink
Post by Stefan Ram
In gedruckten Medien im Deutschen findet man das Wort seit
1996 nur ganz vereinzelt. 2007/2008 etwas häufiger, aber immer
In meinen eigenen Postings taucht das Wort zuerst 2003 auf,
als ich etwas aus einer HTML-Spezifikation zitierte:

|who may mature into a <EM>Nerd</EM> or <EM>Geek</EM>

. Ich verwende es dann erstmals 2006 in de.etc.sprache.deutsch:

|That must be some degenerated nerd club.
|
|A real student's club would ask new members to
|take part in disgusting hazing ritual

("ritual/s/"). Im Deutschen verwendete ich es erstmals 2010:

|Als Nerd kenne ich zwar Programmiersprachen, aber keine Menschen

. Zum Thema wurde das Wort dann in einem meiner Postings
erstmals 2014:

|Den Begriff »nerd« gab es spätestens 1951. OED:
|
|»1951 Newsweek 8 Oct. 28 In Detroit, someone who once would be
|called a drip or a square is now, regrettably, a nerd.«
|
|1950 gab es eine Geschichte »If I Ran the Zoo« mit einem Wesen
|namens »Nerd«, die vielleicht Ursprung des Begriffs sein könnte.
|
|Natürlich mag sich der Begriff - wie jeder Begriff - heute
|etwas verändert haben. Nerds werden heute öfter mit Geeks
|verwechselt. Ein Geek kauft sich jedes neue Eifohn, ein Nerd
|sitzt eher mit einem alten Notebook in der Mathematikbibliothek,
|und wirkt autistischer als ein Geek. Da Geeks allgemein noch
|angesehener sind als Nerds, wird das Wort »Geek« manchmal
|auch verdeckend für Nerds verwendet. Es gibt Bücher, die
|eigentlich Nerds behandeln, aber von »Geeks« sprechen,
|vielleicht da der Verlag »Nerd« wohl schon als zu negativ
|besetzt ansah.

.
Hermann Riemann
2024-04-21 15:18:38 UTC
Permalink
Post by Stefan Ram
Post by Sebastian Barthel
Vor allem aber haben sich die Leute in der Zeit ganz sicherlich nicht als
"Nerds" bezeichnet. Vielleicht als Gurus oder Freaks oder sowas. Aber
"Nerd" ist sowas von 2000 und kommt wahrscheinlich erst so richtig mit bzw
nach Neo (Matrix) in den allgemeinen Sprachgebrauch.
"Nerd" ist für mich erst einmal ein englisches Wort. Im Betreff
"Triumph of the Nerds" steht es in einem englischen Kontext.
Als ein, ursprünglich eher abwertender, Slang-Begriff ist es im
Englischen seit den 50er Jahren bezeugt.
Ich bin mir nicht sicher ob sich Nerd auf computer bezieht.
Post by Stefan Ram
Seit 2004 steht das Wort auch im Duden, und einige Quellen berichten
vom Ausdruck "Rache der Nerds" als Ausdruck der 90er Jahre. Wenn etwas
2004 im Duden ankam, war es wahrscheinlich schon seit einigen Jahren
in einzelnen Kreisen unterwegs.
Ich würde auch sagen, daß nach meiner Erinnerung im Deutschen
"Computer-Freak" in den 80er Jahren durchaus verständlich war, aber
"Nerd" hätte man damals im Deutschen wohl eher nicht verstanden.
Damals gab es noch schöne Beschreibungen:

<https://www.bernd-leitenberger.de/echte-programmierer.shtml>
<http://www.kehrholff.de/Humor/ComputerFreaks.htm>
<http://www.kehrholff.de/Humor/ComputerFreaksFrau.htm>
--
<http://www.hermann-riemann.de>
Stefan Reuther
2024-04-18 17:41:24 UTC
Permalink
Post by Sebastian Barthel
Post by Joerg Walther
Gestern zum zweiten Mal nach langer Zeit wieder angeschaut (fliegt im
Usenet rum, YT hat's auch, aber als mittelschlechter VHS-Transfer), ist
das eine immer noch sehenswerte Doku über die Anfänge des PCs, beginnend
mit dem Altair bis zum Release von Windows 95. Immer wieder interessant
zu hören ist die Story, wie IBM, um einen eigenen PC zu haben, sich mit
Intel und Microsoft einlässt und sich dabei gleich zweimal ins Knie
schießt.
Irgendwie ist das ja auch eine krude Story.
Vor allem aber haben sich die Leute in der Zeit ganz sicherlich nicht als
"Nerds" bezeichnet.
1997 wurde Slashdot gegründet, mit dem Untertitel "News for nerds. Stuff
that matters". Spätestens da war das Wort zumindest in meinem Umfeld
angekommen.


Stefan
Arno Welzel
2024-04-19 16:44:49 UTC
Permalink
Sebastian Barthel, 2024-04-17 19:33:

[...]
Post by Sebastian Barthel
Vor allem aber haben sich die Leute in der Zeit ganz sicherlich nicht als
"Nerds" bezeichnet. Vielleicht als Gurus oder Freaks oder sowas. Aber
"Nerd" ist sowas von 2000 und kommt wahrscheinlich erst so richtig mit bzw
nach Neo (Matrix) in den allgemeinen Sprachgebrauch.
Nein, *andere* Menschen haben die Leute, die mit Computern rumgebastelt
haben, als "Nerd" bezeichnet. Und sich selbst haben die Leute auch nicht
als "Guru" oder "Freak" bezeichnet. Aber ich bin erst seit Anfang der
1980er dabei, mag sein, dass das in den 1970ern anders war.
--
Arno Welzel
https://arnowelzel.de
Kay Martinen
2024-04-20 20:34:45 UTC
Permalink
Post by Arno Welzel
[...]
Post by Sebastian Barthel
Vor allem aber haben sich die Leute in der Zeit ganz sicherlich nicht als
"Nerds" bezeichnet. Vielleicht als Gurus oder Freaks oder sowas. Aber
"Nerd" ist sowas von 2000 und kommt wahrscheinlich erst so richtig mit bzw
nach Neo (Matrix) in den allgemeinen Sprachgebrauch.
Nein, *andere* Menschen haben die Leute, die mit Computern rumgebastelt
haben, als "Nerd" bezeichnet. Und sich selbst haben die Leute auch nicht
als "Guru" oder "Freak" bezeichnet. Aber ich bin erst seit Anfang der
1980er dabei, mag sein, dass das in den 1970ern anders war.
Zeitlich hier ebenfalls und ich sehe das auch so. 'Nerd' war zumindest
früher eine eher abwertende Bezeichnung; von anderen; für Leute mit
einseitigen Interessen. Wobei Computer-Interesse m.E. einfach nur ein
damals neues Feld war - mit dem Aufkommen billiger Homecomputer wurde
das dann in der Masse bekannter.

ODER: Siehe auch


;-)

Bye/
/Kay
--
nix
F. W.
2024-04-24 05:41:03 UTC
Permalink
Post by Joerg Walther
Gestern zum zweiten Mal nach langer Zeit wieder angeschaut (fliegt
im Usenet rum, YT hat's auch, aber als mittelschlechter
VHS-Transfer), ist das eine immer noch sehenswerte Doku über die
Anfänge des PCs, beginnend mit dem Altair bis zum Release von Windows
95.
Ich hoffe, dass auch die etwas unbekannteren Aspekte zum tragen kommen:
das unsägliche Verhalten der Deutschen Bundespost in Bezug auf
Mailboxen, die Killer-Strategie von Microsoft, das Ansehen in der
Gesellschaft, das sich seit den Sechzigern nicht geändert hatte und die
wahnsinnig hohen Preise.
Post by Joerg Walther
Immer wieder interessant zu hören ist die Story, wie IBM, um einen
eigenen PC zu haben, sich mit Intel und Microsoft einlässt und sich
dabei gleich zweimal ins Knie schießt. Wer das in dramatisierter Form
sehen möchte: Es gibt eine 40teilige Serie (in vier Staffeln) namens
Halt and Catch Fire, die ich damals auf Prime sah und die meiner
Meinung sehr empfehlenswert ist.
IBM hatte den PC nie ernst genommen. Man befürchtete, dass
Privatpersonen einen Computer nicht ausreichend gut verwalten können.
Schon gar nicht in Firmen. Die Sicherheit würde vernachlässigt und zum
großen Problem, das Kriege auslösen und Gesellschaften sprengen könnte.

FW
Dennis Grevenstein
2024-04-24 08:49:31 UTC
Permalink
Post by F. W.
IBM hatte den PC nie ernst genommen. Man befürchtete, dass
Privatpersonen einen Computer nicht ausreichend gut verwalten können.
Schon gar nicht in Firmen. Die Sicherheit würde vernachlässigt und zum
großen Problem, das Kriege auslösen und Gesellschaften sprengen könnte.
Das klingt sehr edel. Ich dachte eher, die hatten Angst, dass man ihnen
dann keine mainframes mehr abkauft auf lange Sicht und dann am Ende
einreisst, dass Leute nicht alles, was mit Computer zu tun hat, bei
IBM kaufen.

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhaeuser
gate. All those moments will be lost in time, like tears in rain."
F. W.
2024-04-24 09:38:30 UTC
Permalink
Post by Dennis Grevenstein
Post by F. W.
IBM hatte den PC nie ernst genommen. Man befürchtete, dass
Privatpersonen einen Computer nicht ausreichend gut verwalten
können. Schon gar nicht in Firmen. Die Sicherheit würde
vernachlässigt und zum großen Problem, das Kriege auslösen und
Gesellschaften sprengen könnte.
Das klingt sehr edel. Ich dachte eher, die hatten Angst, dass man
ihnen dann keine mainframes mehr abkauft auf lange Sicht und dann am
Ende einreisst, dass Leute nicht alles, was mit Computer zu tun hat,
bei IBM kaufen.
Ich war erst 1992 bei der IBM (bis 1997). Damals sagte man mir, dass man
vor allem Sorge um die Sicherheit habe. Laien Computer überlassen? Die
IBM hatte damals überwiegend Banken und Versicherungen als Kunden. Man
konnte sich nicht vorstellen, dass diese Daten sicher sein könnten, wenn
nicht oder schlecht ausgebildete Menschen diese Computer verwalten.

Und so ein bisschen haben diese alten, weißen Männer ja auch Recht
behalten. Patche ich eine AS/400 ist die Firma sicher. Patche ich einen
Netzwerkserver, muss ich alle PC, alle Router, Modems und Gateways auch
noch patchen. Vergesse ich eine Komponente, kann das gesamte Netz
gefährdet sein. Für IBMer ein Alptraum. Banken und Versicherungen!

"Ein Sack Flöhe hüten, wobei jeder Floh einen Sprengsatz trägt!"

Gefährdet waren die Mainframes nicht. Sie sind bis heute ungefährdet.
Mainframes sind eine eigene Klasse. Gerade die heutigen z-Systeme. Die
können viel, was man mit PCs nicht erreichen kann. Sie funktionieren
auch teilweise ganz anders (Booten, Partitionieren).

Die Leute auch. Dort ärgert oder wundert sich niemand über COBOL. Man
hat die Einstellung, dass programmiertes Knowhow immer Geld gekostet hat
und dieses Geld nicht verloren gehen sollte, nur weil heute gefühlt alle
drei Jahre die "weltbeste" Programmiersprache wechselt.

Ich habe 1995 COBOL-Programme gesehen, deren Kommentar "(c) 1969 IBM"
lautet. Das ist kein Witz.

Gefährdet waren die Mehrplatzsysteme wie die IBM/36 bzw. später die
AS/400. Und die hat ja auch gelitten. Auch wenn sich hartnäckig das
Gerücht hält, dass Microsoft sehr lange eine AS/400 genutzt hat, weil
man den eigenen Servern nicht traute.

FW
Michael Kraemer
2024-04-24 14:28:05 UTC
Permalink
Post by F. W.
Ich war erst 1992 bei der IBM (bis 1997). Damals sagte man mir, dass man
vor allem Sorge um die Sicherheit habe. Laien Computer überlassen? Die
IBM hatte damals überwiegend Banken und Versicherungen als Kunden.
Das betraf wohl hauptsächlich das Mainframe-Segment.
Das musste aber ab 1990 kräftig Federn lassen,
zugunsten von UNIX, PCs, Software. Also lauter Teufelszeug.
Post by F. W.
Man
konnte sich nicht vorstellen, dass diese Daten sicher sein könnten, wenn
nicht oder schlecht ausgebildete Menschen diese Computer verwalten.
Und so ein bisschen haben diese alten, weißen Männer ja auch Recht
behalten. Patche ich eine AS/400 ist die Firma sicher. Patche ich einen
Netzwerkserver, muss ich alle PC, alle Router, Modems und Gateways auch
noch patchen. Vergesse ich eine Komponente, kann das gesamte Netz
gefährdet sein. Für IBMer ein Alptraum. Banken und Versicherungen!
Das mit der Sicherheit dürfte zT auch vorgeschoben sein.
Ich denke, das war auch eine Mentalitätsfrage, bei IBM wie deren Kunden.
Man war es halt gewohnt, dass man eine ganze Abteilung und mehrere
Dutzend Leute braucht, um einen Mainframe am Laufen zu halten.
Rechner wurden aber auch damals schon nicht nur von Banken und
Versicherungen benutzt.
Die Vorstellung, dass man nur 1 Person braucht, um 1 Rechner zu betüdeln,
war der IBM ebenso fremd wie konservativen RZ-Chefs.
Erst recht, dass das Verhältnis sich umkehren könnte,
also dass 1 oder 2 Leute sich um viele Dutzend Rechner kümmern würden.
In den 1980ern wurde das aber normal, zumindest in der UNIX/VMS-Welt.
Thomas Koenig
2024-04-24 18:55:26 UTC
Permalink
Post by F. W.
Gefährdet waren die Mainframes nicht. Sie sind bis heute ungefährdet.
Mainframes sind eine eigene Klasse. Gerade die heutigen z-Systeme. Die
können viel, was man mit PCs nicht erreichen kann. Sie funktionieren
auch teilweise ganz anders (Booten, Partitionieren).
Ich erinnere mich noch an die bunten 3270-Emulator-Fenster unter
bei Leuten, die kommerziell tätig waren, bei einem Großkonzern,
für den ich damals gearbeitet habe.

Und dann kam die SAP-Einführung, und die Mainframes wurden
abgeschafft, und
Post by F. W.
Die Leute auch. Dort ärgert oder wundert sich niemand über COBOL. Man
hat die Einstellung, dass programmiertes Knowhow immer Geld gekostet hat
und dieses Geld nicht verloren gehen sollte, nur weil heute gefühlt alle
drei Jahre die "weltbeste" Programmiersprache wechselt.
... das alte, vermutlich Cobol-basierte System auch.

Was die Programmiersprache du jour angeht, hast du recht. Ich habe
mal die Wartung eines Fortran-Programms aus den 1980ern übernommen.
Einmal mit gfortran durchnudeln, um ein paar VAXismen zu entdecken
und zu ersetzen, das war's.
Post by F. W.
Ich habe 1995 COBOL-Programme gesehen, deren Kommentar "(c) 1969 IBM"
lautet. Das ist kein Witz.
Hatte IBM 1969 enn überhaupt schon Copyright-Vermerke? Ich dachte,
das Fehlen von solchen wäre u.a. der Grund, warum alte Versionen
von MVS und Vorgängern frei verfügbar sind.
Post by F. W.
Gefährdet waren die Mehrplatzsysteme wie die IBM/36 bzw. später die
AS/400. Und die hat ja auch gelitten.
Immerhin machen die Mainframes zusammen mit den POWER-Systemen noch
so die 10 Milliarden Dollar Umsatz. Das ist nicht wirklich wenig.
Und die Margen sind... Pharmafirmen werden da blass im Vergleich.
p***@pocnet.net
2024-04-24 20:53:16 UTC
Permalink
Post by F. W.
Gefährdet waren die Mainframes nicht. Sie sind bis heute ungefährdet.
Äh. Jein. Erstens kommts auch da drauf an, was man für'n OS drauf tut, oder
welche FOSS-Kompenenten man z. B. in OMVS laufen lässt. Zweitens ist auch bei
den Kisten das Netzwerk ein Haupteinfallstor, seit die Betriebssysteme (bzw.
deren VTAMs) nicht nur ausschließlich SNA sprechen.
Post by F. W.
Die Leute auch. Dort ärgert oder wundert sich niemand über COBOL. Man
hat die Einstellung, dass programmiertes Knowhow immer Geld gekostet hat
und dieses Geld nicht verloren gehen sollte, nur weil heute gefühlt alle
drei Jahre die "weltbeste" Programmiersprache wechselt.
Ja, das ist eine der Hauptsachen in dem Umfeld. Das "Mindset".
Post by F. W.
Ich habe 1995 COBOL-Programme gesehen, deren Kommentar "(c) 1969 IBM"
lautet. Das ist kein Witz.
Jo. Der COBOL-Compiler vom MVS Turnkey-System stammt auch noch aus den 1960ern
:-)
Post by F. W.
Gefährdet waren die Mehrplatzsysteme wie die IBM/36 bzw. später die AS/400.
Warum?
Post by F. W.
Und die hat ja auch gelitten.
Was genau meinst Du damit?
--
:wq! PoC
F. W.
2024-04-30 11:33:47 UTC
Permalink
Post by p***@pocnet.net
Post by F. W.
Gefährdet waren die Mehrplatzsysteme wie die IBM/36 bzw. später die AS/400.
Warum?
In den Markt zielten Novell bzw. Microsoft. Und es gilt der Spruch aus
"Jurassic Park", dass man doch ganz viele Computer mit ganz wenig
Personal fahren kann. Das war das Versprechen.
Post by p***@pocnet.net
Post by F. W.
Und die hat ja auch gelitten.
Was genau meinst Du damit?
Der AS/400-Markt ging stark zurück. Obwohl man sie zuletzt als Server
nutzen konnte und Linux drauf lief. Es galt der Billigheimer mit
Klickibunti.

Eine Verwaltung, die ich damals betreute und der ich riet, bei der
AS/400 zu bleiben, hat heute lauter Windows-Terminals. Grund:
Administration von vielen Einplatzsystemen wurde viel zu teuer.

FW
Sebastian Barthel
2024-04-30 13:11:02 UTC
Permalink
Post by F. W.
Post by p***@pocnet.net
Post by F. W.
Gefährdet waren die Mehrplatzsysteme wie die IBM/36 bzw. später die AS/400.
Warum?
In den Markt zielten Novell bzw. Microsoft. Und es gilt der Spruch aus
"Jurassic Park", dass man doch ganz viele Computer mit ganz wenig
Personal fahren kann. Das war das Versprechen.
Das wird auch mal irgendwann passieren.
Irgendwann wird man solche Komplett-Blobs ala Container aufspielen und
spätestens wenn sich das irgendwie im "BIOS" breit macht, daß die
Maschine sich sowas selbsttätig runterlädt (nicht das BIOS Update sondern
das OS inkl Anwendungen), werden die Leute es auch einfach einschalten
und nutzen.

Strenggenommen gibt es das ja schon, nur eben nicht vollatuomatisch und
Consumerfreundlich.

Dann braucht es nur noch ein kleines Team von "Administratoren", nämlich
die, diese dicken Pakete zusammenstellen.
Post by F. W.
Post by p***@pocnet.net
Post by F. W.
Und die hat ja auch gelitten.
Was genau meinst Du damit?
Der AS/400-Markt ging stark zurück. Obwohl man sie zuletzt als Server
nutzen konnte und Linux drauf lief. Es galt der Billigheimer mit
Klickibunti.
Eine Verwaltung, die ich damals betreute und der ich riet, bei der
Administration von vielen Einplatzsystemen wurde viel zu teuer.
Das spricht ja noch nichtmal gegen die AS/400 - nur gegen deren
Verwaltungstools. Hätten ja mal bei Sun einkaufen gehen könne, dort ging
sowas (soweit ich weiß). Und wahrscheinlich hätte das sogar klappen
können, weil dies Gerät und der Sun Markt sich eher nicht direkt im Wege
standen und Sun eigentlich (irgendwann) schon daran interessiert war,
seine Software überall hin zu drücken, was leider nicht wirklich geklappt
hat, trotz verschenktem (sehr guten) OS und Office und Intel
Lauffähigkeit.

Gruß
SBn
p***@pocnet.net
2024-05-01 11:15:17 UTC
Permalink
Post by Sebastian Barthel
Post by F. W.
In den Markt zielten Novell bzw. Microsoft. Und es gilt der Spruch aus
"Jurassic Park", dass man doch ganz viele Computer mit ganz wenig
Personal fahren kann. Das war das Versprechen.
Das wird auch mal irgendwann passieren.
Eher nicht.
Post by Sebastian Barthel
Irgendwann wird man solche Komplett-Blobs ala Container aufspielen und
spätestens wenn sich das irgendwie im "BIOS" breit macht, daß die Maschine
sich sowas selbsttätig runterlädt (nicht das BIOS Update sondern das OS inkl
Anwendungen), werden die Leute es auch einfach einschalten und nutzen.
Strenggenommen gibt es das ja schon, nur eben nicht vollatuomatisch und
Consumerfreundlich.
Dann braucht es nur noch ein kleines Team von "Administratoren", nämlich
die, diese dicken Pakete zusammenstellen.
Und wer kümmert sich um die vielen Fehler, die in den Einzelteilen der "Pakete"
stecken?

Wenn ich mir so angucke, in welche Richtung der Softwaretrend geht, dann
stimme ich Deiner Einschätzung absolut nicht zu. Alles wird immer größer,
komplexer, undsurchsichtiger, mit immer noch mehr Abstraktionsschichten, mit
"agile", um die neuen Bugs noch schneller zum Kunden zu kriegen.

Das Ganze hinreichend einzuhegen und so hinzubiegen dass die Anwender damit
auch abseits der theoretisch tollen Ideen der Antwickler arbeiten können wird
immer eine gewisse Menge an Personal erfordern. Und mit zunehmender
Komplexität auch welches was mehr als nur "müssen wir neu installieren" kann.
--
:wq! PoC
Sebastian Barthel
2024-05-02 18:49:22 UTC
Permalink
Post by p***@pocnet.net
Post by Sebastian Barthel
Post by F. W.
In den Markt zielten Novell bzw. Microsoft. Und es gilt der Spruch aus
"Jurassic Park", dass man doch ganz viele Computer mit ganz wenig
Personal fahren kann. Das war das Versprechen.
Das wird auch mal irgendwann passieren.
Eher nicht.
Post by Sebastian Barthel
Irgendwann wird man solche Komplett-Blobs ala Container aufspielen und
spätestens wenn sich das irgendwie im "BIOS" breit macht, daß die
Maschine sich sowas selbsttätig runterlädt (nicht das BIOS Update
sondern das OS inkl Anwendungen), werden die Leute es auch einfach
einschalten und nutzen.
Strenggenommen gibt es das ja schon, nur eben nicht vollatuomatisch und
Consumerfreundlich.
Dann braucht es nur noch ein kleines Team von "Administratoren",
nämlich die, diese dicken Pakete zusammenstellen.
Und wer kümmert sich um die vielen Fehler, die in den Einzelteilen der "Pakete"
stecken?
Die sind dann vielleicht immer noch da, aber das Ganze hat immerhin den
Charme, daß man erstmal getestet lauffähige Systeme ausliefert.
Post by p***@pocnet.net
Wenn ich mir so angucke, in welche Richtung der Softwaretrend geht, dann
stimme ich Deiner Einschätzung absolut nicht zu. Alles wird immer
größer, komplexer, undsurchsichtiger, mit immer noch mehr
Abstraktionsschichten, mit "agile", um die neuen Bugs noch schneller zum
Kunden zu kriegen.
Das Ganze hinreichend einzuhegen und so hinzubiegen dass die Anwender
damit auch abseits der theoretisch tollen Ideen der Antwickler arbeiten
können wird immer eine gewisse Menge an Personal erfordern. Und mit
zunehmender Komplexität auch welches was mehr als nur "müssen wir neu
installieren" kann.
Ich stimme ja voll zu, daß es eigenartig ist, daß da immer noch ein Layer
draufgepackt wird und man so immer mehr "Zeug" anhäuft.

Letztlich wird das aber nicht endlos so gehen können. Vielleicht wird
sowas ja auch mal automatisiert (KI (?)) bereinigt und wieder auch eine
Basis zurückgeschrieben. Wahrscheinlicher ist aber wohl wirklich, daß es
erstmal noch eine Weile so weitergeht, denn RAM und Rechenleistung sind
ja da.
Stefan Ram
2024-05-02 19:11:28 UTC
Permalink
Post by Sebastian Barthel
Ich stimme ja voll zu, daß es eigenartig ist, daß da immer noch ein Layer
draufgepackt wird und man so immer mehr "Zeug" anhäuft.
Ein Beispiel wäre die Speicherverwaltung.

C hat eine Speicherverwaltung, bei welcher der Programmierer
viel arbeiten muß und viel falsch machen kann.

Nun wurde ja neulich eine Warnung aus der Regierung der
Vereinigten Staaten vor solchen Sprachen wie C bekannt.
Sie seien fehlerträchtig und daher riskant.

Python hat eine Speicherverwaltung, die auf der von C aufbaut,
aber vieles automatisiert. Sie ist für Programmierer einfacher
und weniger fehlerträchtig. Also eine Art von "Schicht".

Für mich paßt es nicht ganz, wenn eine Regierung, sich "per
Mikromanagement" in die Wahl von Programmiersprachen einmischt.
Aber man könnte auch sagen, daß die EDV-Abteilungen eine Menge
falsch machen müssen, bevor eine Regierung sich so weit herabläßt!

Zwei Fehler, die ich sehe:

1.) (Besonders früher) C und C++ wurden für Anfängerkurse
eingesetzt, wodurch der falsche Eindruck entstand,
daß es einfach beherrschbare Sprachen seien.

2.) In der Folge wurden vielleicht Programmierer an C-Projekte
gelassen, die dafür nicht richtig ausgebildet waren.

Heute werden solche Fehler etwas korrigiert, indem mehr Python
eingesetzt wird.

Ich halte C und C++ für großartige und unverzichtbare Sprachen
(man muß sehen, inwiefern Rust oder Go ein Ersatz sein können),
aber für sie muß man richtig ausgebildet und ausgewählt worden sein!

Dann wird C++ damit beworben, daß gleichwertige Software in C++ in
der Regel weniger Energie verbraucht als in höheren Sprachen (weniger
Schichten). Ja, das ist ein starkes Argument für C++ bei immer mehr
exergiehungrigen Rechenzentren. Aber man muß C++ eben auch können.
p***@pocnet.net
2024-05-02 21:16:05 UTC
Permalink
Post by Stefan Ram
Ich halte C und C++ für großartige und unverzichtbare Sprachen
(man muß sehen, inwiefern Rust oder Go ein Ersatz sein können),
aber für sie muß man richtig ausgebildet und ausgewählt worden sein!
Dann wird C++ damit beworben, daß gleichwertige Software in C++ in
der Regel weniger Energie verbraucht als in höheren Sprachen (weniger
Schichten). Ja, das ist ein starkes Argument für C++ bei immer mehr
exergiehungrigen Rechenzentren. Aber man muß C++ eben auch können.
Danke. Du sprichst mir aus der Seele.
--
:wq! PoC
Thomas Koenig
2024-05-03 07:46:28 UTC
Permalink
Post by Stefan Ram
Post by Sebastian Barthel
Ich stimme ja voll zu, daß es eigenartig ist, daß da immer noch ein Layer
draufgepackt wird und man so immer mehr "Zeug" anhäuft.
Ein Beispiel wäre die Speicherverwaltung.
C hat eine Speicherverwaltung, bei welcher der Programmierer
viel arbeiten muß und viel falsch machen kann.
So isses.
Post by Stefan Ram
Nun wurde ja neulich eine Warnung aus der Regierung der
Vereinigten Staaten vor solchen Sprachen wie C bekannt.
Sie seien fehlerträchtig und daher riskant.
Und recht haben sie...
Post by Stefan Ram
Python hat eine Speicherverwaltung, die auf der von C aufbaut,
aber vieles automatisiert. Sie ist für Programmierer einfacher
und weniger fehlerträchtig. Also eine Art von "Schicht".
Python als interpretierte Sprache ist allerdings extrem langsam, wenn
nicht gerade compilierter C-Code aufgerufen wird - da ist mal schnell
ein Faktor von 100 drin.
Post by Stefan Ram
Für mich paßt es nicht ganz, wenn eine Regierung, sich "per
Mikromanagement" in die Wahl von Programmiersprachen einmischt.
Sie schreiben es ja auch nicht vor (könnten sie gar nicht, außer
für Regierungsaufträge, und wie gut da funktioniert hat, hat man
ja bei Ada gesehen...)
Post by Stefan Ram
Aber man könnte auch sagen, daß die EDV-Abteilungen eine Menge
falsch machen müssen, bevor eine Regierung sich so weit herabläßt!
Machen sie.
Post by Stefan Ram
1.) (Besonders früher) C und C++ wurden für Anfängerkurse
eingesetzt, wodurch der falsche Eindruck entstand,
daß es einfach beherrschbare Sprachen seien.
2.) In der Folge wurden vielleicht Programmierer an C-Projekte
gelassen, die dafür nicht richtig ausgebildet waren.
Heute werden solche Fehler etwas korrigiert, indem mehr Python
eingesetzt wird.
Python ist aus Effizienzgründen keine vernünftige Lösung, einfach
zu langsam. Es gibt genügend andere Sprachen, die Fehler in der
Speicherverwaltung und Buffer overruns durch Features in der Sprache
zbw. Compilerflags vermeiden können und trotzdem als kompilierte
Sprachen (entweder von Anfang an oder JIT) effizienter sind.

Vielleicht ein weniger bekanntes Beispiel: Fortran hat allocatable
arrays, die automatisch deallkokiert werden, wenn sie out of
scope gehen. Außerdem können da Arraygrenzen automatisch übergeben
werden. Beispiel:

subroutine foo()
integer :: n
real, allocatable, dimension(:) :: b
read (*,*) n
allocate b(n)
! ... do stuff
write (*,*) b
end subroutine foo

Dabei wird b vom Compiler automatisch deallokiert.

Damit ist "use after free" vermeidbar.
Post by Stefan Ram
Ich halte C und C++ für großartige und unverzichtbare Sprachen
C++ ist sehr mächtig, leidet aber unter feature stampede. Die ganze
Sprache zu verstehen, ist für Normalmenschen praktisch unmöglich.
Post by Stefan Ram
(man muß sehen, inwiefern Rust oder Go ein Ersatz sein können),
aber für sie muß man richtig ausgebildet und ausgewählt worden sein!
Naja, jedes Projekt sollte sich vernünftigerweise auf eine Untermenge
von C++ beschränken, sonst wird es uferlos. Und jeder nimmt eine
andere Untermenge...

Und sichere Speicherverwaltung, mehrdimensionale Arrays o.ä. wird dann
wieder über Klassen definiert, die im Zweifelsfall schlecht gewartet
und inkompatibel sind.
Post by Stefan Ram
Dann wird C++ damit beworben, daß gleichwertige Software in C++ in
der Regel weniger Energie verbraucht als in höheren Sprachen (weniger
Schichten). Ja, das ist ein starkes Argument für C++ bei immer mehr
exergiehungrigen Rechenzentren. Aber man muß C++ eben auch können.
Die Klassen erzeugen über den vptr erst mal zusäztlichen Aufwand.

Aber wenn du C++ in der neuesten Version vollumfänglich
beherrschst, dann bist du einer der ganz Wenigen auf dieser Welt,
vermutlich an zwei Händen abzählbar (evtl. im Binärsystem).
Peter J. Holzer
2024-05-03 18:21:04 UTC
Permalink
Post by Thomas Koenig
Python ist aus Effizienzgründen keine vernünftige Lösung, einfach
zu langsam.
Kommt darauf an, was man macht. Fast alle meinen Python-Programme
verbringen 90+% der Zeit damit, zu warten - auf den Benutzer, auf das
Netzwerk, auf die Datenbank ... Wenn ich die in C neu schreiben würde,
würden sie um maximal 10 % schneller werden (Amdahls Law).

hp
Arno Welzel
2024-05-03 20:03:33 UTC
Permalink
Post by Stefan Ram
Post by Sebastian Barthel
Ich stimme ja voll zu, daß es eigenartig ist, daß da immer noch ein
Layer draufgepackt wird und man so immer mehr "Zeug" anhäuft.
Ein Beispiel wäre die Speicherverwaltung.
C hat eine Speicherverwaltung, bei welcher der Programmierer viel
arbeiten muß und viel falsch machen kann.
Genau genommen hat C *keine* Speicherverwaltung. Genau das ist ja das
Problem.

malloc() und free() sind keine Sprachkonstrukte von C sondern nur
Aufrufe an das Betriebssystem, für die Prozess eine Speicherblock mit
einer bestimmten Größe zu reservieren. Die Größe des Blockes zu
beachten, wenn man z.B. Daten dort hin schreiben lässt, obliegt allein
dem Programmierer.

C selbst ist völlig egal, ob der Programmierer in einen 10 KB großen
Block versucht, 20 KB Daten aus einer Datei abzulegen. Ebenso gibt es in
C keine echten Strings, sondern nur Pointer auf Speicheradressen. Ein
String ist nur durch ein 0-Byte terminiert - aber es keinerlei
Information darüber, wie lang der String maximal werden darf und
Funktionen wie strcpy() kopieren einfach so lange wie es geht, egal ob
der Zielbuffer groß genug ist oder nicht.

Im günstigsten Fall hindert das Betriebssystem Zugriff auf
Speicherbereiche, die er Prozess nicht hat (unter Windows ist das dann
die berüchtigte "Allgemeine Schutzverletzung"). Im ungünstigsten Fall
überschreibt das Programm dann seine eigenen Daten oder Code, der sich
den Speicher mit Daten teilt - das wiederum ist ein klassischer Angriff,
weil ein Angreifer mit Pufferüberlauf auch eigenen Code einschleusen kann.
Post by Stefan Ram
Nun wurde ja neulich eine Warnung aus der Regierung der Vereinigten
Staaten vor solchen Sprachen wie C bekannt. Sie seien fehlerträchtig
und daher riskant.
Ja, zurecht.
Post by Stefan Ram
Python hat eine Speicherverwaltung, die auf der von C aufbaut, aber
vieles automatisiert. Sie ist für Programmierer einfacher und weniger
fehlerträchtig. Also eine Art von "Schicht".
Zumindest *weiß* Python wie groß Speicherblöcke sind und kennt auch
Garbage Collection. Das ist um Größenordnungen zuverlässiger als C.

Zudem wurde Python ursprünglich nicht dafür entwickelt, compiliert,
sondern interpretiert zu werden. Die Standardimplementierung ist CPython
- ein Interpreter, der Aufrufe von C-Bibliotheksfunktionen aus Python
heraus erlaubt.
Post by Stefan Ram
Für mich paßt es nicht ganz, wenn eine Regierung, sich "per
Mikromanagement" in die Wahl von Programmiersprachen einmischt. Aber
man könnte auch sagen, daß die EDV-Abteilungen eine Menge falsch
machen müssen, bevor eine Regierung sich so weit herabläßt!
Solange etwas nicht per Gesetz reguliert wird, wird vieles falsch
gemacht, weil es eben billiger ist. Sicherheitsgurte und Zulassungen für
den Straßenverkehr waren vor vielen Jahrzehnten auch nicht
vorgeschrieben. Die Zahl der Verkehrstoten hat dann aber doch dazu
geführt, dass man Standards vorgegeben hat - das hätten die
Autohersteller auch selber machen können, aber niemand hätte für ein
Auto mehr Geld bezahlt, nur weil es "sicherer" ist oder einen
Sicherheitsgurt verlangt, weil er gehört hat, dass das im Falle eines
Unfalls mutmaßlich Leben retten könnte.
Post by Stefan Ram
1.) (Besonders früher) C und C++ wurden für Anfängerkurse eingesetzt,
wodurch der falsche Eindruck entstand, daß es einfach beherrschbare
Sprachen seien.
An welchen "Anfängerkurse" denkst Du hier? BASIC wurde bereits 1964
entwickelt und wesentlich häufiger gerade im Bereich von Schule und
Ausbildung für "Anfänger" genutzt. Wenn es etwas anspruchsvoller sein
sollte, dann Pascal, was auch schon 1972 explizit als Lehrsprache
entwickelt wurde.

Heutzutage ist es eher Java oder Kotlin.

Aber das C oder C++ in "Anfängerkursen" vorkommt, habe ich selten erlebt.
Post by Stefan Ram
2.) In der Folge wurden vielleicht Programmierer an C-Projekte
gelassen, die dafür nicht richtig ausgebildet waren.
Heute werden solche Fehler etwas korrigiert, indem mehr Python
eingesetzt wird.
Ich halte C und C++ für großartige und unverzichtbare Sprachen (man
muß sehen, inwiefern Rust oder Go ein Ersatz sein können), aber für
sie muß man richtig ausgebildet und ausgewählt worden sein!
C ist ein etwas besserer Makroassembler (Makros hat C ja auch von
Assemblern übernommen) und C++ baut im Kern auf C auf und erbt damit
auch alle "Schweinereien" von C. Einzig durch Code-Analyse von Compilern
hofft man, die größten Löcher schon vor dem Einsatz des Programms finden
zu können. Aber die ganzen Schichten mit Templates und STL sind nichts
anderes als eine Verschönerung der Syntax ohne echten Sicherheitsgewinn
der Sprasche.
Post by Stefan Ram
Dann wird C++ damit beworben, daß gleichwertige Software in C++ in
der Regel weniger Energie verbraucht als in höheren Sprachen
(weniger Schichten). Ja, das ist ein starkes Argument für C++ bei
immer mehr exergiehungrigen Rechenzentren. Aber man muß C++ eben auch
können.
Viele der einst als "langsam" und "ineffizent" betrachtete Sprachen
arbeiten mittlerweile mit Compilern, und wenn es auch nur
Just-in-time-Compiler sind. Das holt *sehr* viel raus. Node.js oder
Kotlin sind durchaus ernstzunehmende Umgebungen.
--
Arno Welzel
https://arnowelzel.de
p***@pocnet.net
2024-05-02 21:14:56 UTC
Permalink
Post by Sebastian Barthel
Post by p***@pocnet.net
Und wer kümmert sich um die vielen Fehler, die in den Einzelteilen der
"Pakete" stecken?
Die sind dann vielleicht immer noch da, aber das Ganze hat immerhin den
Charme, daß man erstmal getestet lauffähige Systeme ausliefert.
Die Frage ist dann, an wem die Tests dann hängen bleiben. Ich habe ein ganz
ganz schlechtes Bild von der modernen Art Software zu entwickeln, von der
massiven Updatefrequenz die den Anwendern zugemutet wird und der Qualität
dessen was die Anwender an Fehlern und UI-Grausamkeiten erdulden müssen.
Post by Sebastian Barthel
Post by p***@pocnet.net
Das Ganze hinreichend einzuhegen und so hinzubiegen dass die Anwender
damit auch abseits der theoretisch tollen Ideen der Antwickler arbeiten
können wird immer eine gewisse Menge an Personal erfordern. Und mit
zunehmender Komplexität auch welches was mehr als nur "müssen wir neu
installieren" kann.
Ich stimme ja voll zu, daß es eigenartig ist, daß da immer noch ein Layer
draufgepackt wird und man so immer mehr "Zeug" anhäuft.
Das ist nicht eigenartig, das ist ein "hammer schon immer so gemacht".
Komplexität wird immer nur weiter versteckt. Das geht so lange gut, wie alles
Hand in Hand zusammenarbeitet und tut...
Post by Sebastian Barthel
Letztlich wird das aber nicht endlos so gehen können.
Tja, die Frage ist: Was wird passieren?

Ich hoffe dass wenn es passiert, ich eines hoffentlich natürlichen Todes
gestorben sein werde. Wir machen uns immer abhängiger von Hard- und Software
und seit einigen Jahren zunehmend von Infrastruktur ("Cloud"), deren
Wackeligkeit und Anfälligkeit gegen Angriffe mehrfach bewiesen wurde.
Post by Sebastian Barthel
Vielleicht wird sowas ja auch mal automatisiert (KI (?)) bereinigt und
wieder auch eine Basis zurückgeschrieben.
KI, die Zaubertechnologie, die in Zukunft alle Probleme lösen könnte. Ich bin
froh, dass an der Tech-Front hier endlich mal ganz langsam gesunde
Ernüchterung zu Tage tritt. Aber bis dahin werden noch viele Unternehmen
versuchen auf den Zug aufzuspringen um sich ihr Stück vom Kuchen zu sichern.
Post by Sebastian Barthel
Wahrscheinlicher ist aber wohl wirklich, daß es erstmal noch eine Weile so
weitergeht, denn RAM und Rechenleistung sind ja da.
Ja, definitiv. Aber gleichzeitig erhöht sich die Angriffsfläche durch mehr
Code. Es bleibt spannend.
--
:wq! PoC
Arno Welzel
2024-05-02 17:46:43 UTC
Permalink
[...]
Post by Sebastian Barthel
Post by F. W.
In den Markt zielten Novell bzw. Microsoft. Und es gilt der Spruch aus
"Jurassic Park", dass man doch ganz viele Computer mit ganz wenig
Personal fahren kann. Das war das Versprechen.
Das wird auch mal irgendwann passieren.
Irgendwann wird man solche Komplett-Blobs ala Container aufspielen und
spätestens wenn sich das irgendwie im "BIOS" breit macht, daß die
Maschine sich sowas selbsttätig runterlädt (nicht das BIOS Update sondern
das OS inkl Anwendungen), werden die Leute es auch einfach einschalten
und nutzen.
Das *ist* schon so - nennt sich PXE und gibt es schon seit Jahren. In
größeren Firmen richtet niemand mehr jeden Computer von Hand ein. Die
werden per LAN-Verbindung komplett automatisch aufgesetzt und danach
läuft dann nicht selten ein System wie Microsoft 365 oder Azure Cloud
Client.
Post by Sebastian Barthel
Strenggenommen gibt es das ja schon, nur eben nicht vollatuomatisch und
Consumerfreundlich.
Dann braucht es nur noch ein kleines Team von "Administratoren", nämlich
die, diese dicken Pakete zusammenstellen.
Die gibt es schon.
--
Arno Welzel
https://arnowelzel.de
Sebastian Barthel
2024-05-02 18:44:47 UTC
Permalink
Post by Arno Welzel
[...]
Post by Sebastian Barthel
Post by F. W.
In den Markt zielten Novell bzw. Microsoft. Und es gilt der Spruch aus
"Jurassic Park", dass man doch ganz viele Computer mit ganz wenig
Personal fahren kann. Das war das Versprechen.
Das wird auch mal irgendwann passieren.
Irgendwann wird man solche Komplett-Blobs ala Container aufspielen und
spätestens wenn sich das irgendwie im "BIOS" breit macht, daß die
Maschine sich sowas selbsttätig runterlädt (nicht das BIOS Update
sondern das OS inkl Anwendungen), werden die Leute es auch einfach
einschalten und nutzen.
Das *ist* schon so - nennt sich PXE und gibt es schon seit Jahren. In
größeren Firmen richtet niemand mehr jeden Computer von Hand ein. Die
werden per LAN-Verbindung komplett automatisch aufgesetzt und danach
läuft dann nicht selten ein System wie Microsoft 365 oder Azure Cloud
Client.
OK. PXE habe ich zumindest schonmal gehört.

Und auch bei Sun gab es das in gewisser Weise mit den Sun Ray Teilen
schon, auch wenn ThinClient schon noch bißchen anders funktioniert als
das oben gemeint, aber die hatten wohl auch Fernwartungssoftware, mit der
man auch die normalen Arbeitsstationen "regulieren" konnte.

Bei Apple kann man auch irgendwie so ein Paket für Phones / Pads kaufen,
womit man nur bestimmte Sachen für den User freischaltet und die Software
kommt immer aktualisiert (wie das eben da so üblich ist) für alle
bestellten 500 Geräte übers Netz. Ist eher für Firmen gedacht und macht
privat sicher keinen Sinn, war aber vor ca 2 Jahren (?) bei denen
wirklich was Neues und ernst gemeint. Habe leider nicht mehr parat, wie
das hieß. Man brauchte dafür auch einen Ansprechpartner, der das
technisch umsetzt und Apple hat eine Bestätigung der Geschäftsführung als
Bedingung gehabt, damit sie das ausliefern. Dann aber konnte man die 500
Telefone komplett vorkonfektioniert und eingerichtet auch direkt an die
echten Empfänger schicken lassen. Keine Ahunung, ob das Bestand hatte,
aber es klang interessant - v.a. auch aus so einer Software-Entwickelt-
Sich Perspektive.
Arno Welzel
2024-05-03 20:09:57 UTC
Permalink
Post by Sebastian Barthel
Post by Arno Welzel
[...]
Post by Sebastian Barthel
Post by F. W.
In den Markt zielten Novell bzw. Microsoft. Und es gilt der Spruch aus
"Jurassic Park", dass man doch ganz viele Computer mit ganz wenig
Personal fahren kann. Das war das Versprechen.
Das wird auch mal irgendwann passieren.
Irgendwann wird man solche Komplett-Blobs ala Container aufspielen und
spätestens wenn sich das irgendwie im "BIOS" breit macht, daß die
Maschine sich sowas selbsttätig runterlädt (nicht das BIOS Update
sondern das OS inkl Anwendungen), werden die Leute es auch einfach
einschalten und nutzen.
Das *ist* schon so - nennt sich PXE und gibt es schon seit Jahren. In
größeren Firmen richtet niemand mehr jeden Computer von Hand ein. Die
werden per LAN-Verbindung komplett automatisch aufgesetzt und danach
läuft dann nicht selten ein System wie Microsoft 365 oder Azure Cloud
Client.
OK. PXE habe ich zumindest schonmal gehört.
PXE gibt es seit etwa 25 Jahren:

<https://datatracker.ietf.org/doc/id/draft-henry-remote-boot-protocol-00.txt>

Praktisch im Einsatz für den beschriebenen Zweck, Betriebssysteme
unbeaufsichtigt auf Computer per LAN zu installieren, kenne ich das seit
etwa 2004, also auch schon gut 20 Jahre.

[...]
Post by Sebastian Barthel
Bei Apple kann man auch irgendwie so ein Paket für Phones / Pads kaufen,
womit man nur bestimmte Sachen für den User freischaltet und die Software
kommt immer aktualisiert (wie das eben da so üblich ist) für alle
bestellten 500 Geräte übers Netz. Ist eher für Firmen gedacht und macht
privat sicher keinen Sinn, war aber vor ca 2 Jahren (?) bei denen
wirklich was Neues und ernst gemeint. Habe leider nicht mehr parat, wie
das hieß. Man brauchte dafür auch einen Ansprechpartner, der das
technisch umsetzt und Apple hat eine Bestätigung der Geschäftsführung als
Bedingung gehabt, damit sie das ausliefern. Dann aber konnte man die 500> Telefone komplett vorkonfektioniert und eingerichtet auch direkt an die
echten Empfänger schicken lassen. Keine Ahunung, ob das Bestand hatte,
aber es klang interessant - v.a. auch aus so einer Software-Entwickelt-
Sich Perspektive.
MDM - Mobile Device Management.

Ich kenne das schon seit mindestens 2012 - damals habe ich für eine
Firma gearbeitet, die Firmenkunden genau *damit* versorgt hat, also
Management von iPhone/iPad in der Weise, dass der Endbenutzer nur die
Software nutzen kann, die der Arbeitgeber ihm freigegeben hat. Dazu
wurde ein Dienst von Apple genutzt, der schon damals für Firmenkunden
angeboten wurde.
--
Arno Welzel
https://arnowelzel.de
Thomas Koenig
2024-04-30 17:40:16 UTC
Permalink
Post by F. W.
Der AS/400-Markt ging stark zurück. Obwohl man sie zuletzt als Server
nutzen konnte und Linux drauf lief. Es galt der Billigheimer mit
Klickibunti.
Linux auf AS/400?

AS/400 läuft ja schon lange auf POWER, was wegen TIMI anscheinend
keine (großen?) Umzugsschwierigkeiten gab. Mittlerweile sind
das ja Power-Maschinen, auf denen halt IBM i läuft.

Auf den gleichen(?) Power-Maschinen läuft natürlich auch Linux
und AIX (ausgesprochen "aches") aber zu sagen, Linux würde auf
AS/400 laufen, ist schon ein bisschen weit hergeholt.

Immerhin ist es nett, einen Login auf so einer Maschine zu haben:
$ cat /proc/cpuinfo | tail
processor : 191
cpu : POWER10 (architected), altivec supported
clock : 2950.000000MHz
revision : 2.0 (pvr 0080 0200)

timebase : 512000000
platform : pSeries
model : IBM,9043-MRX
machine : CHRP IBM,9043-MRX
MMU : Radix

(Und ja, wegen SMTirgendwas sind das tatsächlich nur 24 Cores)
Post by F. W.
Eine Verwaltung, die ich damals betreute und der ich riet, bei der
Administration von vielen Einplatzsystemen wurde viel zu teuer.
Blöde Frage: Was ist ein Windows-Terminal?
Peter J. Holzer
2024-05-01 05:17:18 UTC
Permalink
Post by Thomas Koenig
Post by F. W.
Eine Verwaltung, die ich damals betreute und der ich riet, bei der
Administration von vielen Einplatzsystemen wurde viel zu teuer.
Blöde Frage: Was ist ein Windows-Terminal?
Aus dem Kontext würde ich raten: Thin-Clients, die zu einem Windows
Terminal Server verbinden. Sie sind also wieder zu einer zentralisierten
Lösung zurückgekehrt, nur jetzt mit einem Windows-Server statt einer
AS/400.

hp
Hermann Riemann
2024-05-01 07:10:20 UTC
Permalink
Post by Thomas Koenig
Frage: Was ist ein Windows-Terminal?
Für mich war das erste Windows-Terminal
ein PC mit windows 3.1
welches in einem Fenster ein
mainframe Terminal emulierte.
p***@pocnet.net
2024-05-01 11:40:31 UTC
Permalink
Post by Thomas Koenig
Post by F. W.
Der AS/400-Markt ging stark zurück. Obwohl man sie zuletzt als Server
nutzen konnte und Linux drauf lief. Es galt der Billigheimer mit
Klickibunti.
Linux auf AS/400?
Nein, das nicht. Dank der Geheimniskrämerei in Rochester ist es schwierig bis
unmöglich, Linux auf die ältere Hardware zu portieren. (Was aus meiner Sicht
auch irgendwie sinnfrei ist: Linux läuft auf jedem popeligen Wintel-Blech,
warum dafür die für OS/400 spezialisierte Hardware ver(sch)wenden?)

Dummerweise ist "AS/400" an dieser Stelle ein ziemlich generischer Term für
die gesamte Plattformreihe geworden, weswegen sich solche Mißverständnisse
recht einfach ergeben können.
Post by Thomas Koenig
AS/400 läuft ja schon lange auf POWER
Du meinst OS/400. :-)
Post by Thomas Koenig
was wegen TIMI anscheinend keine (großen?) Umzugsschwierigkeiten gab.
Mittlerweile sind das ja Power-Maschinen, auf denen halt IBM i läuft.
"Kommt drauf an". Die Umstellung von proprietären CISC-CPUs auf PowerPC in den
1990ern ging tatsächlich ohne mir bekannte Schwierigkeiten von sich.

Dann kam Leif Svalgaard und hat ein "Buch" geschrieben, "AS/400 Machine-Level
Programming", mit einigen *sehr* interessanten Ausführungen zu (lokalen)
Sicherheitslücken bis hin zu OS/400 V4. Findet sich im Netz als PDF.

IBM musste daraufhin (mit jedem Release ein bisschen, damit nicht alle
existierende Software von jetzt auf Nachher auf die Bretter geht) unter der
Haube so einiges umbauen, was das Thema Umzug ohne Quellcode an einige
Bedingungen knüpfte. Stichwort "observability" des Codes im resultierenden
Programmobjekt. Wenn das fehlte, musste man neu kompilieren. Meistens fehlte
es, wegen "Schutz des geistigen Eigentums", aka, wir lassen uns nicht in den
Quellcode schauen. "Wir" waren die Firmen, die Software für die Plattform
entwickelt haben.
Post by Thomas Koenig
Auf den gleichen(?) Power-Maschinen läuft natürlich auch Linux und AIX
(ausgesprochen "aches") aber zu sagen, Linux würde auf AS/400 laufen, ist
schon ein bisschen weit hergeholt.
Genau. Siehe oben.
--
:wq! PoC
Thomas Koenig
2024-05-01 12:18:08 UTC
Permalink
Post by p***@pocnet.net
Post by Thomas Koenig
AS/400 läuft ja schon lange auf POWER
Du meinst OS/400. :-)
Eigentlich IBM i :-)
Post by p***@pocnet.net
Post by Thomas Koenig
was wegen TIMI anscheinend keine (großen?) Umzugsschwierigkeiten gab.
Mittlerweile sind das ja Power-Maschinen, auf denen halt IBM i läuft.
"Kommt drauf an". Die Umstellung von proprietären CISC-CPUs auf PowerPC in den
1990ern ging tatsächlich ohne mir bekannte Schwierigkeiten von sich.
Dann kam Leif Svalgaard und hat ein "Buch" geschrieben, "AS/400 Machine-Level
Programming", mit einigen *sehr* interessanten Ausführungen zu (lokalen)
Sicherheitslücken bis hin zu OS/400 V4. Findet sich im Netz als PDF.
Interessant, muss ich mal schauen.
Post by p***@pocnet.net
IBM musste daraufhin (mit jedem Release ein bisschen, damit nicht alle
existierende Software von jetzt auf Nachher auf die Bretter geht) unter der
Haube so einiges umbauen, was das Thema Umzug ohne Quellcode an einige
Bedingungen knüpfte. Stichwort "observability" des Codes im resultierenden
Programmobjekt. Wenn das fehlte, musste man neu kompilieren. Meistens fehlte
es, wegen "Schutz des geistigen Eigentums", aka, wir lassen uns nicht in den
Quellcode schauen. "Wir" waren die Firmen, die Software für die Plattform
entwickelt haben.
Hm, das mit der "observability" verstehe ich nicht. Mussten da
Debugging-Informationen mit eincompiliert sein oder so etwas?
p***@pocnet.net
2024-05-01 20:44:26 UTC
Permalink
Post by Thomas Koenig
Post by p***@pocnet.net
Post by Thomas Koenig
AS/400 läuft ja schon lange auf POWER
Du meinst OS/400. :-)
Eigentlich IBM i :-)
Touché. ;-)
Post by Thomas Koenig
Post by p***@pocnet.net
Dann kam Leif Svalgaard und hat ein "Buch" geschrieben, "AS/400
Machine-Level Programming", mit einigen *sehr* interessanten Ausführungen
zu (lokalen) Sicherheitslücken bis hin zu OS/400 V4. Findet sich im Netz
als PDF.
Interessant, muss ich mal schauen.
Ist tatsächlich sehr interessant zu lesen, auch wenn ich als
Hobbyprogrammierer nicht so ganz verstehe was der da veranstaltet.

Das ist der gleiche Leif, der mit einem Kollegen zusammen Fast400 verkaufte:
Ein Stück Software, was die von IBM ins OS eingebaute Bremse löste.

IBM wollte in den späten 1990ern mit allen Mitteln die Anwender vom Green
Screen weg kriegen. Und hat deswegen angefangen eine Serverlinie
rauszubringen. Die Server und "normalen" Maschinen waren faktisch gleich, aber
während Serversoftware (webserver!) ohne Einbußen lief, wurde 5250 auf ein
"für administrative Aufgaben ausreichende Geschwindigkeit" gedrosselt.

Und weil es eben existierende Software gab, die nunmal 5250 als
Anwenderschnittstelle benutzte, hat sich IBM die "richtigen" Maschinen teuer
bezahlen lassen.

So gut die Ingenieursleistung ist, die die Leute bei IBM immer wieder bewiesen
haben, so abscheulich finde ich deren Geschäftspraktiken.
Post by Thomas Koenig
Post by p***@pocnet.net
IBM musste daraufhin (mit jedem Release ein bisschen, damit nicht alle
existierende Software von jetzt auf Nachher auf die Bretter geht) unter der
Haube so einiges umbauen, was das Thema Umzug ohne Quellcode an einige
Bedingungen knüpfte. Stichwort "observability" des Codes im resultierenden
Programmobjekt. Wenn das fehlte, musste man neu kompilieren. Meistens
fehlte es, wegen "Schutz des geistigen Eigentums", aka, wir lassen uns
nicht in den Quellcode schauen. "Wir" waren die Firmen, die Software für
die Plattform entwickelt haben.
Hm, das mit der "observability" verstehe ich nicht. Mussten da
Debugging-Informationen mit eincompiliert sein oder so etwas?
Ich finde interessanterweise auf Anhieb nix dazu im Web und habe mich selbst
auch nicht damit auseinandergesetzt. Wenn ich mich recht erinnere ging das
über einfache Debugging-Infos hinaus. Möglicherweise sogar eine Kopie des
Codes? Bei Interesse kann ich mal bei einem Bekannten nach Literaturangaben
fragen.
--
:wq! PoC
F. W.
2024-05-02 05:31:49 UTC
Permalink
Post by Thomas Koenig
Blöde Frage: Was ist ein Windows-Terminal?
So blöd ist die Frage nicht.

Microsoft gab mal eine Windows NT Terminal Edition. Das war eigentlich
das Projekt "Hydra" von Citrix, was integriert wurde. Mit einem
speziellen Protokoll konnten sich Rechner an den Windows NT Server
anmelden und die Oberfläche des Servers wurde auf die Clients gespiegelt.

Das hatte den Charme, dass man ein Programm auf den Server installieren
und pflegen konnte, das zeitgleich auf allen Terminals angesteuert
werden konnte. Das Verwalten von vielen "PC" war deutlich leichter, da
man ja nur einen "PC" aktuell halten musste.

Als Client reichte ein Terminal mit einem winzigen BIOS oder Linux.

Linux hatte das auch später (LTSP). Da wurde allerdings per LAN ein
Linux an die Clients geschickt, das dort startete. Und das nahm dann die
Verbindung zum Server auf.

FW
Dennis Grevenstein
2024-05-02 05:54:09 UTC
Permalink
Post by F. W.
Das hatte den Charme, dass man ein Programm auf den Server installieren
und pflegen konnte, das zeitgleich auf allen Terminals angesteuert
werden konnte. Das Verwalten von vielen "PC" war deutlich leichter, da
man ja nur einen "PC" aktuell halten musste.
Das hatten wir an der Uni mal im Einsatz für die PC pools. Ein
zentraler server und dann 30 clients drangeklemmt. Das war ins
Hirn der user nicht reinzubekommen, dass die 30 clients nur
den Bildschirm anzeigen. Das war unglaublich langsam und ich
musste da an die alten Geschichten mit den diskless (dickless)
workstations denken. Windows terminal server war damals eine
absolut furchtbare Sache, vermutlich vor allem weil die Entscheider
den Hardware-Aufwand nicht einschätzen konnten.

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhaeuser
gate. All those moments will be lost in time, like tears in rain."
F. W.
2024-05-03 07:25:41 UTC
Permalink
workstations denken. Windows terminal server war damals eine absolut
furchtbare Sache, vermutlich vor allem weil die Entscheider den
Hardware-Aufwand nicht einschätzen konnten.
Meine Bestellung an HP: "Sagen Sie mir, wie viel RAM der Server verträgt
und schicken Sie mir das."

Klappte. War teuer. Aber anstelle von 30 PC musste man nur einen
aufrüsten. Haben sogar die Chefs verstanden. Ich glaube, ich hatte
damals 48 GB RAM.

Ja, und dann stand eine Zeit lang ein Rack mit NT-Servern im Wert von
12.000.- € da. Funktionierte jahrelang tadellos. Da ich mich schon
aufschalten konnte (VPN ins LAN, dann WTS) regelte ich Updates und
Backup-Kontrolle von allen möglichen Orten aus.

FW
Thomas Koenig
2024-05-03 08:35:22 UTC
Permalink
Post by F. W.
workstations denken. Windows terminal server war damals eine absolut
furchtbare Sache, vermutlich vor allem weil die Entscheider den
Hardware-Aufwand nicht einschätzen konnten.
Meine Bestellung an HP: "Sagen Sie mir, wie viel RAM der Server verträgt
und schicken Sie mir das."
Klappte. War teuer. Aber anstelle von 30 PC musste man nur einen
aufrüsten. Haben sogar die Chefs verstanden. Ich glaube, ich hatte
damals 48 GB RAM.
Wann war das denn?

Zum Vergleich: Bei mir hatte ich 2015 eine Workstation unter
dem Schreibtisch, die 512 GB hatte, allerdings war sie damit
überausgestattet - 256 GB hätten es auch getan.
F. W.
2024-05-03 09:20:28 UTC
Permalink
Post by Thomas Koenig
Post by F. W.
workstations denken. Windows terminal server war damals eine absolut
furchtbare Sache, vermutlich vor allem weil die Entscheider den
Hardware-Aufwand nicht einschätzen konnten.
Meine Bestellung an HP: "Sagen Sie mir, wie viel RAM der Server verträgt
und schicken Sie mir das."
Klappte. War teuer. Aber anstelle von 30 PC musste man nur einen
aufrüsten. Haben sogar die Chefs verstanden. Ich glaube, ich hatte
damals 48 GB RAM.
Wann war das denn?
Zum Vergleich: Bei mir hatte ich 2015 eine Workstation unter
dem Schreibtisch, die 512 GB hatte, allerdings war sie damit
überausgestattet - 256 GB hätten es auch getan.
Ah, sorry. Da fehlte eine 0.

FW
Arno Welzel
2024-05-03 20:13:32 UTC
Permalink
Post by F. W.
Post by Thomas Koenig
Post by F. W.
workstations denken. Windows terminal server war damals eine absolut
furchtbare Sache, vermutlich vor allem weil die Entscheider den
Hardware-Aufwand nicht einschätzen konnten.
Meine Bestellung an HP: "Sagen Sie mir, wie viel RAM der Server verträgt
und schicken Sie mir das."
Klappte. War teuer. Aber anstelle von 30 PC musste man nur einen
aufrüsten. Haben sogar die Chefs verstanden. Ich glaube, ich hatte
damals 48 GB RAM.
Wann war das denn?
Zum Vergleich: Bei mir hatte ich 2015 eine Workstation unter
dem Schreibtisch, die 512 GB hatte, allerdings war sie damit
überausgestattet - 256 GB hätten es auch getan.
Ah, sorry. Da fehlte eine 0.
Wie? 5120 GB RAM und 2560 GB hätten es auch getan?
--
Arno Welzel
https://arnowelzel.de
Arno Welzel
2024-05-03 20:12:42 UTC
Permalink
Post by F. W.
workstations denken. Windows terminal server war damals eine absolut
furchtbare Sache, vermutlich vor allem weil die Entscheider den
Hardware-Aufwand nicht einschätzen konnten.
Meine Bestellung an HP: "Sagen Sie mir, wie viel RAM der Server verträgt
und schicken Sie mir das."
Klappte. War teuer. Aber anstelle von 30 PC musste man nur einen
aufrüsten. Haben sogar die Chefs verstanden. Ich glaube, ich hatte
damals 48 GB RAM.
So kaufe ich privat immer noch Mainboards - immer mit dem Maximum, was
mit verfügbaren Speichermodulen an RAM auf das Board passt. So hat mein
aktueller PC 128 GB RAM bekommen ;-). Brauche ich das vollumfänglich?
Nein, aktuell nicht wirklich. Aber so 30-40 GB sind eigentlich immer
belegt und bei mir wird Hardware privat auch schon mal 7-8 Jahre genutzt.
--
Arno Welzel
https://arnowelzel.de
Peter J. Holzer
2024-05-02 17:31:42 UTC
Permalink
Post by F. W.
Post by Thomas Koenig
Blöde Frage: Was ist ein Windows-Terminal?
So blöd ist die Frage nicht.
Microsoft gab mal eine Windows NT Terminal Edition. Das war eigentlich
das Projekt "Hydra" von Citrix, was integriert wurde. Mit einem
speziellen Protokoll konnten sich Rechner an den Windows NT Server
anmelden und die Oberfläche des Servers wurde auf die Clients gespiegelt.
Das gibt es immer noch und wird auch viel verwendet: Vom Remote Desktop
fürs Home Office über Server-Administration bis zu fetten
Multi-User-Servern. Basiert alles auf der gleichen Technologie. Selbst
WLAN-Beamer damit habe ich schon gesehen.

hp
Arno Welzel
2024-05-02 17:50:28 UTC
Permalink
Post by F. W.
Post by Thomas Koenig
Blöde Frage: Was ist ein Windows-Terminal?
So blöd ist die Frage nicht.
Microsoft gab mal eine Windows NT Terminal Edition. Das war eigentlich
das Projekt "Hydra" von Citrix, was integriert wurde. Mit einem
speziellen Protokoll konnten sich Rechner an den Windows NT Server
anmelden und die Oberfläche des Servers wurde auf die Clients gespiegelt.
Nicht die "Oberfläche des Servers", sondern jeder Client hatte seine
*eigene* Oberfläche für die Benutzersitzung, mit der man sich angemeldet
hat.

Mehrbenutzerfähigkeit haben alle nachfolgenden Windows-Versionen (2000,
XP etc.) dann auch gehabt - es wurde nur mit technischen Mitteln
unterbunden, das bei Nicht-Server-Versionen zu nutzen. Aber es gab Tools
von Drittherstellern, die eine vergleichbare Funktion auch bei
Client-Versionen von Windows bereitgestellt haben.
Post by F. W.
Das hatte den Charme, dass man ein Programm auf den Server installieren
und pflegen konnte, das zeitgleich auf allen Terminals angesteuert
werden konnte. Das Verwalten von vielen "PC" war deutlich leichter, da
man ja nur einen "PC" aktuell halten musste.
Als Client reichte ein Terminal mit einem winzigen BIOS oder Linux.
Ja, RDP als Protokoll dafür braucht nicht viel.
--
Arno Welzel
https://arnowelzel.de
p***@pocnet.net
2024-05-01 11:07:47 UTC
Permalink
Post by F. W.
Post by p***@pocnet.net
Post by F. W.
Gefährdet waren die Mehrplatzsysteme wie die IBM/36 bzw. später die AS/400.
Warum?
In den Markt zielten Novell bzw. Microsoft.
Ah, sorum.
Post by F. W.
Und es gilt der Spruch aus "Jurassic Park", dass man doch ganz viele
Computer mit ganz wenig Personal fahren kann. Das war das Versprechen.
Hat gut geklappt. ;-)
Post by F. W.
Post by p***@pocnet.net
Post by F. W.
Und die hat ja auch gelitten.
Was genau meinst Du damit?
Der AS/400-Markt ging stark zurück. Obwohl man sie zuletzt als Server nutzen
konnte und Linux drauf lief. Es galt der Billigheimer mit Klickibunti.
Tja, der Preis entscheidet ganz oft. Auch wenn's unterm Strich bei genauer
Betrachtung dann doch nicht so einfach ist mit dem Billiger.
Post by F. W.
Eine Verwaltung, die ich damals betreute und der ich riet, bei der AS/400 zu
bleiben, hat heute lauter Windows-Terminals. Grund: Administration von
vielen Einplatzsystemen wurde viel zu teuer.
Ich bin nicht überrascht.
--
:wq! PoC
p***@pocnet.net
2024-04-24 09:08:13 UTC
Permalink
Post by F. W.
IBM hatte den PC nie ernst genommen.
Falsch. Sie kamen damit aber zu spät, als sie die PS/2-Linie rausbrachten und
versuchten, mit Mirochannel verlorenes Terrain wieder zu erhalten.

Hat gut geklappt, wie wir heute wissen. ;-)
Post by F. W.
Man befürchtete, dass Privatpersonen einen Computer nicht ausreichend gut
verwalten können.
Privatpersonen waren noch nie im Fokus von IBM.
Post by F. W.
Schon gar nicht in Firmen. Die Sicherheit würde vernachlässigt und zum
großen Problem, das Kriege auslösen und Gesellschaften sprengen könnte.
Ja, "think big" konnten und können sie gut. ;-)
--
:wq! PoC
F. W.
2024-04-24 09:40:42 UTC
Permalink
Post by p***@pocnet.net
Post by F. W.
IBM hatte den PC nie ernst genommen.
Falsch. Sie kamen damit aber zu spät, als sie die PS/2-Linie
rausbrachten und versuchten, mit Mirochannel verlorenes Terrain
wieder zu erhalten.
Hat gut geklappt, wie wir heute wissen. ;-)
Das war erst mit PS/2 also 1987. Der IBM PC wurde im Herbst 1980
vorgestellt ("Project CHESS").
Post by p***@pocnet.net
Post by F. W.
Man befürchtete, dass Privatpersonen einen Computer nicht
ausreichend gut verwalten können.
Privatpersonen waren noch nie im Fokus von IBM.
Eben!
Post by p***@pocnet.net
Post by F. W.
Schon gar nicht in Firmen. Die Sicherheit würde vernachlässigt und
zum großen Problem, das Kriege auslösen und Gesellschaften
sprengen könnte.
Ja, "think big" konnten und können sie gut. ;-)
Immerhin machen sie fast ununterbrochen Gewinne. Und den CIOs von Banken
und Versicherungen, von Nachrichtendiensten und Regierungen brauchst Du
nicht mit PC-Netzwerke zu kommen. Der Backbone ist immer ein Mainframe.

FW
Hermann Riemann
2024-04-24 15:31:13 UTC
Permalink
Post by p***@pocnet.net
Privatpersonen waren noch nie im Fokus von IBM.
OS/2 gegen windows 95?
p***@pocnet.net
2024-04-24 20:57:49 UTC
Permalink
Post by Hermann Riemann
Post by p***@pocnet.net
Privatpersonen waren noch nie im Fokus von IBM.
OS/2 gegen windows 95?
OS/2 wurde nicht im Hinblick auf Privatanwender entwickelt.

Auch AS/400's wurden nicht für Privatanwender entwickelt und ich
besitze/verwende eine, oder mehrere, je nachdem. ;-)
--
:wq! PoC
Hermann Riemann
2024-04-25 08:04:45 UTC
Permalink
Post by p***@pocnet.net
Post by Hermann Riemann
Post by p***@pocnet.net
Privatpersonen waren noch nie im Fokus von IBM.
OS/2 gegen windows 95?
OS/2 wurde nicht im Hinblick auf Privatanwender entwickelt.
Auch AS/400's wurden nicht für Privatanwender entwickelt und ich
besitze/verwende eine, oder mehrere, je nachdem. ;-)
Für IBM sind Privatanwender Randerscheinungen.

Ich hatte OS/2 und später auch IBM C++.
Deren Entwicklungsmethode schien mir zu sein,
erst des Programm komplett auf Papier zu entwickeln
und dann abtippen ( zu lassen).

Wenn ich in deren von GUI erzeugte sourcen
eigenen Text ein tipppte und dann die GUI änderte,
war mein Text weg.

Wie gut Emulator Herkules für IBM Maschinen war,
weiss ich nicht.

Als ich mich mal für eine IBM Kugelkopfmaschine
interessierte, wurde ich an einen Vertreter verwiesen.

Siemens hat bezüglich mainframe Betriebssysteme
Privatanwender praktisch ausgesperrt.
Den EDOR hätte ich manchmal gerne gehabt.
Und software, an deren Entwicklung ich beteiligt war,
hätte ich eventuell auch noch gerne gehabt.
Mich würde z.B. interessieren, wie lange
eine Übersetzung mit einem Emulator auf meinen PC
dauert, die früher auf einer mainframe ca 2 Stunden brauchte.
Mein software Basteltrieb ist noch vorhanden.
Allerdings ..
Damals musste man noch Plattenplatz beantragen..

Siemens hat beim ECB85 ( 8 Bit Rechner mit 8085 CPU )
ein interssantes System gehabt.
Insbesondere die code Verschiebung mit
Anpassung absoluter Adressen war nützlich.

Ich hatte später für längere Zeit eine ausrangierte MX2.
( Betriebssystem Sinix ( Unix an Siemens angepasst )
16 Bit CPU NS32016 oder so etwa
Programmiersprache K&R C ( kein Ansi)
Editor Maxed. )
Wegen proprietärer IO konnte ich das System
nicht mit meinen computer verbinden.
--
<http://www.hermann-riemann.de>
p***@pocnet.net
2024-04-25 08:59:04 UTC
Permalink
Post by Hermann Riemann
Post by p***@pocnet.net
Post by Hermann Riemann
Post by p***@pocnet.net
Privatpersonen waren noch nie im Fokus von IBM.
OS/2 gegen windows 95?
OS/2 wurde nicht im Hinblick auf Privatanwender entwickelt.
Auch AS/400's wurden nicht für Privatanwender entwickelt und ich
besitze/verwende eine, oder mehrere, je nachdem. ;-)
Für IBM sind Privatanwender Randerscheinungen.
Siehe Quote oben: Schrieb ich doch!
Post by Hermann Riemann
Wie gut Emulator Herkules für IBM Maschinen war, weiss ich nicht.
Wieso "war"? Angeblich ist er nicht besonders effizient, aber was bei den
heutigen Host-CPUs noch beim Gast ankommt ist deutlich mehr als was das echte
Blech von Anno Dazumal zu bieten hatte.

Den Emulator (Hercules) schreibt man mit c. Hilft beim Finden im Netz...
--
:wq! PoC
Dennis Grevenstein
2024-04-25 11:52:24 UTC
Permalink
Post by Hermann Riemann
Wie gut Emulator Herkules für IBM Maschinen war,
weiss ich nicht.
Sehr gut eigentlich. Halt langsam, aber stört ja auch nicht mehr.
Es gibt Leute, die so turn-key Installationen gebastelt haben,
mit denen man schnell in diese Welt mal reingucken kann.
Ich habe vor wirklich sehr vielen Jahren mal das SuSE Linux für
S390 ausprobiert. Das war wirklich sehr sehr langsam, aber sah
im Prinzip so aus wie ein normales Linux.
Das Grundproblem der ganzen Emulatoren hat sich eben mit der
Zeit und schnelleren CPUs gelöst oder zumindest deutlich verringert.

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhaeuser
gate. All those moments will be lost in time, like tears in rain."
Gerald E¡scher
2024-04-25 14:47:19 UTC
Permalink
Post by p***@pocnet.net
Post by Hermann Riemann
Post by p***@pocnet.net
Privatpersonen waren noch nie im Fokus von IBM.
OS/2 gegen windows 95?
OS/2 wurde nicht im Hinblick auf Privatanwender entwickelt.
OS/2 wurde als Nachfolger von DOS sehr wohl auch für Privatanwender
entwickelt.

Später, als Micro$oft OS/2 längst hingeschmissen hatte, hat IBM
versucht, OS/2 Warp 3 an Privatanwender zu vermarkten, leider nicht
sehr erfolgreich.
--
Gerald
Joerg Walther
2024-04-25 16:59:16 UTC
Permalink
Post by Gerald E¡scher
Später, als Micro$oft OS/2 längst hingeschmissen hatte, hat IBM
versucht, OS/2 Warp 3 an Privatanwender zu vermarkten, leider nicht
sehr erfolgreich.
Genau diese Version lag dann irgendwann als kostenlose Beigabe
irgendeiner Computerzeitschrift bei und genau diese Version habe ich
dann noch jahrelang benutzt. Das lief damals stabiler als alles andere,
was auf dem Markt war.

-jw-
--
And now for something completely different...
Gerald E¡scher
2024-04-26 13:04:29 UTC
Permalink
Post by Joerg Walther
Post by Gerald E¡scher
Später, als Micro$oft OS/2 längst hingeschmissen hatte, hat IBM
versucht, OS/2 Warp 3 an Privatanwender zu vermarkten, leider nicht
sehr erfolgreich.
Genau diese Version lag dann irgendwann als kostenlose Beigabe
irgendeiner Computerzeitschrift bei und genau diese Version habe ich
dann noch jahrelang benutzt.
Warp 3 wurde leider auch auf Escom PCs mit nur 4 MB(!) RAM
vorinstalliert. Auf die Art verscheucht man nur die potentielle
Kundschaft, denn mit 4 MB ist Warp ziemlich lahm, es wird ständig
geswapt, und WINOS2 ist so gut wie unbrauchbar.
Post by Joerg Walther
Das lief damals stabiler als alles andere,
was auf dem Markt war.
Im PC-Bereich, ja. Auf Workstations gab es noch VMS und *NIX.
--
Gerald
Joerg Walther
2024-04-26 13:38:35 UTC
Permalink
Post by Gerald E¡scher
Post by Joerg Walther
Genau diese Version lag dann irgendwann als kostenlose Beigabe
irgendeiner Computerzeitschrift bei und genau diese Version habe ich
dann noch jahrelang benutzt.
Warp 3 wurde leider auch auf Escom PCs mit nur 4 MB(!) RAM
vorinstalliert. Auf die Art verscheucht man nur die potentielle
Kundschaft, denn mit 4 MB ist Warp ziemlich lahm, es wird ständig
geswapt, und WINOS2 ist so gut wie unbrauchbar.
Das mit Escom wusste ich noch, aber 4 MB RAM? Da ging ja gerade so
Windows 3.1. Ich hatte damals einen PC mit afaicr 16 MB, das
funktionierte gut und ich hatte wohl Works für Windows als
Textverarbeitung mit WinOS2.

-jw-
--
And now for something completely different...
p***@pocnet.net
2024-04-27 10:42:10 UTC
Permalink
Post by Gerald E¡scher
Post by p***@pocnet.net
Post by Hermann Riemann
OS/2 gegen windows 95?
OS/2 wurde nicht im Hinblick auf Privatanwender entwickelt.
OS/2 wurde als Nachfolger von DOS sehr wohl auch für Privatanwender
entwickelt.
http://youtu.be/FmiwiUeEn4k
Aus Sicht von Microsoft, ja. Aus Sicht von IBM, nein. Aus den bereits
genannten Gründen.

So ist das halt wenn man von dem OS/2 spricht, an dem aber zwei Köche
rumfummeln. ;-) Selbst die c't hatte in den entsprechenden Ausgaben Mühe den
Unterschied zwischen Microsoft OS/2 und IBM Betriebs-System/2 herauszustellen,
bzw. für Einsicht zu sorgen was es mit den zwei unterschiedlichen Herstellern
und Versionen (?) auf sich hatte.
Post by Gerald E¡scher
Später, als Micro$oft OS/2 längst hingeschmissen hatte, hat IBM versucht,
OS/2 Warp 3 an Privatanwender zu vermarkten, leider nicht sehr erfolgreich.
Eben, später. Erstens kam die Erkenntnis zu spät (ebenso wie bei den PS/2,
siehe anderswo in diesem Thread) und zweitens war da die grundlegende
Entwicklung per se schon abgeschlossen.
--
:wq! PoC
Dennis Grevenstein
2024-04-27 13:18:50 UTC
Permalink
Post by p***@pocnet.net
Eben, später. Erstens kam die Erkenntnis zu spät (ebenso wie bei den PS/2,
siehe anderswo in diesem Thread) und zweitens war da die grundlegende
Entwicklung per se schon abgeschlossen.
Da bleibt ja immer noch offen, welche Art von Absprache es gab zwischen
IBM und Microsoft. Vielleicht war das klar geregelt, dass OS/2 nicht
den MS-DOS Privat-Markt abgraben durfte. Als dann OS/2 3 gemeinschaftlich
geplatzt war und MS auf NT gesetzt hat, waren solche Absprachen dann
natürlich nicht mehr relevant und IBM wusste wir hier besprochen halt
sowieso nicht, wie man Zeug vermarktet. Man sollte jedenfalls nicht
annehmen, dass es nur Dummheit war, dass MS sich da keinen Konkurrenten
in einer Kooperation rangezüchtet hat.

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhaeuser
gate. All those moments will be lost in time, like tears in rain."
Sebastian Barthel
2024-04-30 13:25:05 UTC
Permalink
Post by Dennis Grevenstein
Post by p***@pocnet.net
Eben, später. Erstens kam die Erkenntnis zu spät (ebenso wie bei den PS/2,
siehe anderswo in diesem Thread) und zweitens war da die grundlegende
Entwicklung per se schon abgeschlossen.
Da bleibt ja immer noch offen, welche Art von Absprache es gab zwischen
IBM und Microsoft. Vielleicht war das klar geregelt, dass OS/2 nicht den
MS-DOS Privat-Markt abgraben durfte. Als dann OS/2 3 gemeinschaftlich
geplatzt war und MS auf NT gesetzt hat, waren solche Absprachen dann
natürlich nicht mehr relevant und IBM wusste wir hier besprochen halt
sowieso nicht, wie man Zeug vermarktet. Man sollte jedenfalls nicht
annehmen, dass es nur Dummheit war, dass MS sich da keinen Konkurrenten
in einer Kooperation rangezüchtet hat.
Bei Microsoft kann das durchaus auch Kalkül gewesen sein. Die hatten zu
Beginn der OS/2 Entwicklung mehrere heiße Eisen im Feuer und haben auf
allen Ebenen zumindest mitgespielt. Es gab DOS und Win3 und auch noch
Xenix (was da wohl schon nicht mehr so hieß, aber direkte Verknüpfungen
zu ihnen hatte und wo sie wahrscheinlich auch immer noch mitgesprochen
haben).

Jetzt zu Logik: Das Schlimmste was ihnen hätte passieren können, wäre
doch gewesen, wenn eine große eingeführte Computerfirma in ihren einzigen
großen Gewinnmarkt eingebrochen wäre und sie dort verdrängt hätte. Um dem
vorzubeugen, ist es doch eine gute Strategie genau diesem Anbieter
vorzuschlagen, zusammen ein "richtiges" OS für kleine Microrechner zu
bauen. Wenn es klappt, hat man die Absprache und verliert nur den
(kleinen) Submarkt der echten IBM PCs von IBM selbst. Und noch besser,
wenn es nicht klappt mit der Entwiklung, dann hat man diesen gefährlichen
"Partner" erstmal auch Jahre hin gebunden und die eigentliche Gefahr
(s.o.) eingedämmt. Währenddessen sind die anderen Sachen dann auf dem
Stand, wo man eigentlich hinwollte und man hat jede Menge KnowHow und
Einblicke for free erhalten.

Man muß mal sehen, ob sich nicht mal jemand noch in einem Interview oder
einer History Veranstaltung (50 Jahre Longhorn) äußert, wie das
eigentlich genau lief mit diesem OS/2 Projekt und was die eigentlichen
Beweggründe waren, es anzustoßen.
Dennis Grevenstein
2024-04-30 14:40:45 UTC
Permalink
Post by Sebastian Barthel
Jetzt zu Logik: Das Schlimmste was ihnen hätte passieren können, wäre
doch gewesen, wenn eine große eingeführte Computerfirma in ihren einzigen
großen Gewinnmarkt eingebrochen wäre und sie dort verdrängt hätte. Um dem
vorzubeugen, ist es doch eine gute Strategie genau diesem Anbieter
vorzuschlagen, zusammen ein "richtiges" OS für kleine Microrechner zu
bauen. Wenn es klappt, hat man die Absprache und verliert nur den
(kleinen) Submarkt der echten IBM PCs von IBM selbst. Und noch besser,
wenn es nicht klappt mit der Entwiklung, dann hat man diesen gefährlichen
"Partner" erstmal auch Jahre hin gebunden und die eigentliche Gefahr
(s.o.) eingedämmt. Währenddessen sind die anderen Sachen dann auf dem
Stand, wo man eigentlich hinwollte und man hat jede Menge KnowHow und
Einblicke for free erhalten.
Kann natürlich sein. Wobei in der IT natürlich sehr viele Projekte
angestoßen, hochgelobt als das nächste große Ding und dann doch wieder
beerdigt werden...
Gegen Deine Idee spricht natürlich, dass MS für NT ganz andere
große Ideen hatte und es von Anfang an nicht als PC = x86 System
geplant hatte, sondern NT anfangs auf i860 und MIPS entwickelte.
Da gab es schon grundlegend unterschiedliche Designziele und MS
entschied sich dann im direkten Vergleich für NT.

Es gibt dieses schöne alte Bild vom Microsoft staff 1977.
Manchmal muss man die Zeit auch mitdenken. Wenn Du also Microsoft
1985 bist, willst Du dann irgendwelches 4D Schach gegen IBM
spielen, um hinterrücks einen Konkurrenten auszubooten oder
ergreifst Du eine Chance für eine möglicherweise sehr wichtige
Kooperation, weil Du weisst, wie schlecht Dein DOS Betriessystemkern
wirklich ist?

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhaeuser
gate. All those moments will be lost in time, like tears in rain."
Sebastian Barthel
2024-05-02 19:01:11 UTC
Permalink
Post by Dennis Grevenstein
Post by Sebastian Barthel
Jetzt zu Logik: Das Schlimmste was ihnen hätte passieren können, wäre
doch gewesen, wenn eine große eingeführte Computerfirma in ihren
einzigen großen Gewinnmarkt eingebrochen wäre und sie dort verdrängt
hätte. Um dem vorzubeugen, ist es doch eine gute Strategie genau diesem
Anbieter vorzuschlagen, zusammen ein "richtiges" OS für kleine
Microrechner zu bauen.
Kann natürlich sein. Wobei in der IT natürlich sehr viele Projekte
angestoßen, hochgelobt als das nächste große Ding und dann doch wieder
beerdigt werden...
Gegen Deine Idee spricht natürlich, dass MS für NT ganz andere große
Ideen hatte und es von Anfang an nicht als PC = x86 System geplant
hatte, sondern NT anfangs auf i860 und MIPS entwickelte.
Da gab es schon grundlegend unterschiedliche Designziele und MS
entschied sich dann im direkten Vergleich für NT.
Mag sein, daß sie das tatsächlich trennen wollten. Also NT für die großen
Geräte und W95 und OS/2 nur für kleines Gerät.

Ich hatte allerdings immer den Eindruck, daß die schon auch sehr
strategisch geschickt agiert haben, wann immer es möglich war. Die
einzige wirkliche Pleite, die sie hinnehmen mußten, war, wenn man sich so
History Filmchen und Interviews anschaut, der Deal mit Commodore und dem
BASIC, was sie dort nur ein einziges Mal hin verkauft haben. Vielleicht
ist es auch genau dieser Deal, der letztlich zu dem Microsoft geführt
hat, was es dann geworden ist (Bindung an jeden PC etc).
Post by Dennis Grevenstein
Es gibt dieses schöne alte Bild vom Microsoft staff 1977.
Manchmal muss man die Zeit auch mitdenken. Wenn Du also Microsoft 1985
bist, willst Du dann irgendwelches 4D Schach gegen IBM spielen, um
hinterrücks einen Konkurrenten auszubooten oder ergreifst Du eine Chance
für eine möglicherweise sehr wichtige Kooperation, weil Du weisst, wie
schlecht Dein DOS Betriessystemkern wirklich ist?
Würde das aber nicht bedeuten, daß man alle Kapazitäten in so ein
wichtiges Projekt steckt und versucht das zu einem schnellen Erfolg zu
führen ? Und genau das haben sie doch m.E. nicht gemacht.
Und am Schluß haben sie die IBM mit dem Kram einfach komplett sitzen
lassen.
Dennis Grevenstein
2024-05-02 20:18:07 UTC
Permalink
Post by Sebastian Barthel
Mag sein, daß sie das tatsächlich trennen wollten. Also NT für die großen
Geräte und W95 und OS/2 nur für kleines Gerät.
bzw. am Anfang OS/2 als professionelles System (aus Sicht von Microsoft)
und "für kleines Gerät" aus Sicht von IBM. Das war schliesslich lange
vor Windows95.
Post by Sebastian Barthel
Würde das aber nicht bedeuten, daß man alle Kapazitäten in so ein
wichtiges Projekt steckt und versucht das zu einem schnellen Erfolg zu
führen ? Und genau das haben sie doch m.E. nicht gemacht.
Und am Schluß haben sie die IBM mit dem Kram einfach komplett sitzen
lassen.
Würdest Du Dich denn total an IBM ketten wollen? Es war denen bestimmt
klar, dass DOS Schrott ist, wenn sie z.B. XENIX in house haben. Trotzdem
muss es alles DOS kompatibel sein. Da macht Windows durchaus Sinn, wenn
es die Kunden kaufen.
Der deal wäre doch wohl gewesen, dass IBM OS/2 2.X entwickelt, während
MS OS/2 3.X macht, aber in der Zeit an 2.X mitverdient. Wenn Du also
überzeugt bist, 3.X auf die Beine stellen zu können und gleichzeitig
mit DOS/Windows "genug" Geld verdienst, was willst Du dann mit der
Kooperation? Da war es doch sinnvoller nach 1.X die Trennung zu
machen und dann alles selbst zu erledigen.

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhaeuser
gate. All those moments will be lost in time, like tears in rain."
Kay Martinen
2024-04-27 23:40:31 UTC
Permalink
Post by Hermann Riemann
Post by p***@pocnet.net
Privatpersonen waren noch nie im Fokus von IBM.
OS/2 gegen windows 95?
OS/2 war m.E. Immer eher mit dem Fokus Banken & Versicherungen verbunden
und damit mit Firmenkunden.

Windows 95 (MS) hat dagegen nicht anstinken können. Das war als
Spielzeug für Massen PCs gut genug damit der nicht "nackt" (=Ohne OS)
daher kam. Erst mit der NT-Linie mag sich das geändert haben aber da war
OS/2 bei IBM m.e. schon im Abgesang und es mußte Ersatz her. Linux war
noch zu Exotisch also gab's doch eigentlich nur einen Kandidaten - von
Spezialitäten (**ix) abgesehen.

Bye/
/Kay
--
nix
Hermann Riemann
2024-04-29 04:26:34 UTC
Permalink
Post by Kay Martinen
Post by Hermann Riemann
Post by p***@pocnet.net
Privatpersonen waren noch nie im Fokus von IBM.
OS/2 gegen windows 95?
OS/2 war m.E. Immer eher mit dem Fokus Banken & Versicherungen verbunden
und damit mit Firmenkunden.
Der MS Flugsimulator für DOS funktionierte unter OS/2,
nicht aber unter windows 95.
Post by Kay Martinen
Windows 95 (MS) hat dagegen nicht anstinken können.
An meinem Arbeitsplatz musste ich als Terminal eine Zeit lang
windows 3.1 verwenden.
Später hatte ich mal die Wahl windows9? oder NT.
OS/2 und Linux wurde wegen einheitlicher Verwaltung
nicht gestattet.
Post by Kay Martinen
Das war als Spielzeug für Massen PCs gut genug
damit der nicht "nackt" (=Ohne OS) daher kam.
Es gab MS und DR DOS. OS/2 war noch vor windows 95
PCs waren eine Massenware mit geringer Gewinnspanne pro PC.
Microsoft hat, soweit ich mich erinnere, von Händler,
die andere OS aussperrten, geringere Lizenzgebühren verlangt.
Post by Kay Martinen
Erst mit der NT-Linie mag sich das geändert haben
windows NT war stabiler, also war es gut für die Firma,
Auf windows 95 funktionierten mehr Spiele,
also war es gut für zu Hause.
Post by Kay Martinen
aber da war OS/2 bei IBM m.e. schon im Abgesang
und es mußte Ersatz her.
Vielleicht weil M$ internet teilweise beherrschte.
Ich erinnere mich noch an häufige Meldung der Art:
"Für diese Seite wird internet exploder verlangt."

( Vorläufer für "Für diese Seite wird JavaScript verlangt."?)
Post by Kay Martinen
Linux war noch zu Exotisch also gab's doch eigentlich
nur einen Kandidaten - von Spezialitäten (**ix) abgesehen.
Linux mit einfache Fenster Oberfläche ( anfangs X dann KDE )
gab es 1996 mit SuSE 4.2
War das eine Erholung.
--
<http://www.hermann-riemann.de>
p***@pocnet.net
2024-04-29 16:11:14 UTC
Permalink
Post by Hermann Riemann
Post by Kay Martinen
OS/2 war m.E. Immer eher mit dem Fokus Banken & Versicherungen verbunden
und damit mit Firmenkunden.
Der MS Flugsimulator für DOS funktionierte unter OS/2,
nicht aber unter windows 95.
Und was soll uns das jetzt sagen?

Dass IBM/MS es geschafft hat, der DOS-Box eine hohe Kompatibilität zu
verleihen. Nicht dass OS/2 als Spiele-OS entwickelt wurde.
Post by Hermann Riemann
Linux mit einfache Fenster Oberfläche ( anfangs X dann KDE )
gab es 1996 mit SuSE 4.2
War das eine Erholung.
KDE ist eine Desktopoberfläche die X (die Infastruktur die XFree/XOrg zu
Verfügung stellt) nutzt. Wenn, solltest Du die frühen Windowmanager (twm,
fvwm, olwm, etc.) mit KDE verlgeichen.
--
:wq! PoC
Hermann Riemann
2024-04-30 09:32:57 UTC
Permalink
Post by p***@pocnet.net
Post by Hermann Riemann
Post by Kay Martinen
OS/2 war m.E. Immer eher mit dem Fokus Banken & Versicherungen verbunden
und damit mit Firmenkunden.
Der MS Flugsimulator für DOS funktionierte unter OS/2,
nicht aber unter windows 95.
Und was soll uns das jetzt sagen?
M$ legt nicht so viel Wert auf Aufwärstkompatibilität.
Die DOS shell in windows 9x stürzte bei Dateinamensspiel ab.

Die meisten meiner Spiele unter windows 9* funktionierten
unter windows XP nicht mehr.
Post by p***@pocnet.net
Dass IBM/MS es geschafft hat, der DOS-Box eine hohe Kompatibilität zu
verleihen. Nicht dass OS/2 als Spiele-OS entwickelt wurde.
Die Hälfte der Zeit am PC könnte vielleicht für Spiel verwendet werden.
Post by p***@pocnet.net
Post by Hermann Riemann
Linux mit einfache Fenster Oberfläche ( anfangs X dann KDE )
gab es 1996 mit SuSE 4.2
War das eine Erholung.
KDE ist eine Desktopoberfläche die X (die Infastruktur die XFree/XOrg zu
Verfügung stellt) nutzt. Wenn, solltest Du die frühen Windowmanager (twm,
fvwm, olwm, etc.) mit KDE vergleichen.
Reines X. wie auf uralt Unix Systeme war anders.
Alles grau und einfach aufgebaut.
KDE sah (und sieht teilweise noch ) nach windows 95 aus.
u.a. bunte Icons in Taskleiste.
--
<http://www.hermann-riemann.de>
Stefan Ram
2024-04-30 09:43:32 UTC
Permalink
Post by Hermann Riemann
Die Hälfte der Zeit am PC könnte vielleicht für Spiel verwendet werden.
Ich habe viel Nethack gespielt, und 2003 ist mir der Aufstieg
gelungen. Dazu habe ich WIMRE mehrere Tage lang hintereinander
jeweils viele Stunden gespielt. Außerdem spiele ich "86856527", wobei
mein maximaler Punktestand 90 beträgt. Beides sind in gewissem Sinne
"Retro-Games", und außerdem älter als 10 Jahre, also hier passend.

Beide Spiele sind von der Art her so, daß sie im Prinzip auch
auf Heimrechnern der 80er Jahre laufen würden. "86856527"
könnte im Prinzip sicher auch auf Heimrechnern der 70er
laufen, bei Nethack könnte das wegen der vielen komplexen
Regeln der Speicher überfordern, aber einfache Versionen
von Hack sollten dort laufen können.
p***@pocnet.net
2024-04-30 11:13:54 UTC
Permalink
Post by Hermann Riemann
Die Hälfte der Zeit am PC könnte vielleicht für Spiel verwendet werden.
In Firmen? Das war der Ausgangspunkt der Diskussion: IBM hat den
Privatanwender nicht im Fokus.
Post by Hermann Riemann
Reines X. wie auf uralt Unix Systeme war anders.
Alles grau und einfach aufgebaut.
Ja, twm. Das ist ein Fenstermanager, aber keine Desktopumgebung wie z. B. KDE.
Du vergleichst Äpfel mit Birnen.
Post by Hermann Riemann
KDE sah (und sieht teilweise noch ) nach windows 95 aus.
u.a. bunte Icons in Taskleiste.
Belese Dich bitte über den Unterschied zwischen X als grafisches Ausgabesystem
auf der einen Seite und auf vollumfängliche "Desktops" (also inklusive
"Dateimanager" und wie auch immer gearteten Programmstarter) wie KDE. Letztere
benutz(t)en X als Basis (vor Wayland).
--
:wq! PoC
Sebastian Barthel
2024-04-30 13:33:06 UTC
Permalink
Post by p***@pocnet.net
Post by Hermann Riemann
Die Hälfte der Zeit am PC könnte vielleicht für Spiel verwendet werden.
In Firmen? Das war der Ausgangspunkt der Diskussion: IBM hat den
Privatanwender nicht im Fokus.
Gerade dort. Ich sag mal 20248 und Moorhuhn ...
Post by p***@pocnet.net
Post by Hermann Riemann
Reines X. wie auf uralt Unix Systeme war anders.
Alles grau und einfach aufgebaut.
Ja, twm. Das ist ein Fenstermanager, aber keine Desktopumgebung wie z.
B. KDE. Du vergleichst Äpfel mit Birnen.
Zustimmung. twm ist einfach nur gruselig, auch wenn es sich für Leute,
die da zu der als "NEU" kennengelernt haben, irgendwie wie eine neue Welt
angefühlt haben mag.

Das soll jetz tnicht heißen, daß es schlecht ist, aber die Optik und die
Art der Bedienung ist schon SEHR weit weg von dem, was der "Consumer" so
erwartet hätte. Das Teil ist schon sehr "nerdig" ...
Thomas Klix
2024-04-30 14:30:13 UTC
Permalink
Post by Sebastian Barthel
[...]
Post by p***@pocnet.net
Post by Hermann Riemann
Reines X. wie auf uralt Unix Systeme war anders.
Alles grau und einfach aufgebaut.
Ja, twm. Das ist ein Fenstermanager, aber keine Desktopumgebung wie z.
B. KDE. Du vergleichst Äpfel mit Birnen.
Zustimmung. twm ist einfach nur gruselig, auch wenn es sich für Leute,
die da zu der als "NEU" kennengelernt haben, irgendwie wie eine neue Welt
angefühlt haben mag.
Für mich war damals fvwm die "Offenbarung". Das hatte dann alles, wie
ich es wollte. Müsste glatt mal probieren, wie sich das heute
anfühlt...

Bei den Desktops bin ich stabil bei xfce.

Thomas
Thomas Klix
2024-04-30 14:46:21 UTC
Permalink
Post by Thomas Klix
[...]
Für mich war damals fvwm die "Offenbarung". Das hatte dann alles, wie
ich es wollte. Müsste glatt mal probieren, wie sich das heute
anfühlt...
Nunja. Kann man machen. Zur Not.
Ist dann doch etwas unzeitgemäß...

Thomas
Sebastian Barthel
2024-05-02 19:16:58 UTC
Permalink
Post by Thomas Klix
Post by Thomas Klix
[...]
Für mich war damals fvwm die "Offenbarung". Das hatte dann alles, wie
ich es wollte. Müsste glatt mal probieren, wie sich das heute
anfühlt...
Nunja. Kann man machen. Zur Not.
Ist dann doch etwas unzeitgemäß...
Thomas
Claude's Tab WM - ctwm - ist eine hübsche Alternative zu beiden und es
gibt dafür elegante Styles. Fühlt sich aber auch ein wenig "klassisch" an.
Stefan+ (Stefan Froehlich)
2024-04-30 15:10:24 UTC
Permalink
Post by Sebastian Barthel
Post by p***@pocnet.net
Ja, twm. Das ist ein Fenstermanager, aber keine Desktopumgebung
wie z. B. KDE. Du vergleichst Äpfel mit Birnen.
Zustimmung. twm ist einfach nur gruselig, auch wenn es sich für
Leute, die da zu der als "NEU" kennengelernt haben, irgendwie wie
eine neue Welt angefühlt haben mag.
TBH ist mir ein twm zwar einen Tick zu rudimentär, im Vergleich zu
den völlig überladenen Umgebungen wie KDE aber noch allemal lieber.
Ansosnten hätte ich damals 1995 ja gleich bei Windows...
Post by Sebastian Barthel
Das Teil ist schon sehr "nerdig" ...
Naja, sind wir hier denn nicht alle nerdig?

Servus,
Stefan
--
http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich
Offizieller Erstbesucher(TM) von mmeike

Stefan. Für kolossale Tage in harten Galaxien!
(Sloganizer)
Peter J. Holzer
2024-04-30 17:08:42 UTC
Permalink
Post by Sebastian Barthel
Post by p***@pocnet.net
Post by Hermann Riemann
Die Hälfte der Zeit am PC könnte vielleicht für Spiel verwendet werden.
In Firmen? Das war der Ausgangspunkt der Diskussion: IBM hat den
Privatanwender nicht im Fokus.
Gerade dort. Ich sag mal 20248 und Moorhuhn ...
Post by p***@pocnet.net
Post by Hermann Riemann
Reines X. wie auf uralt Unix Systeme war anders.
Alles grau und einfach aufgebaut.
Bei uns wars schwarz-weiß, weil wir nur Monochrom-Bildschirme und
Graphikkarten hatten. Aber prinzipiell konnte X auch damals schon Farbe.
Post by Sebastian Barthel
Post by p***@pocnet.net
Ja, twm. Das ist ein Fenstermanager, aber keine Desktopumgebung wie z.
B. KDE. Du vergleichst Äpfel mit Birnen.
Zustimmung. twm ist einfach nur gruselig, auch wenn es sich für Leute,
die da zu der als "NEU" kennengelernt haben, irgendwie wie eine neue Welt
angefühlt haben mag.
TWM ist 1987 erschienen. Meiner Erinnerung nach war der nicht sehr viel
anders als die "Consumer"-Fenstersysteme jener Zeit (Mac, Atari, Amiga).
Windows war noch bei Version 1.0 und das hatte erstens niemand und
zweitens war es *wirklich* gruselig ;-)

hp
Gerrit Heitsch
2024-05-01 06:15:00 UTC
Permalink
Post by Peter J. Holzer
TWM ist 1987 erschienen. Meiner Erinnerung nach war der nicht sehr viel
anders als die "Consumer"-Fenstersysteme jener Zeit (Mac, Atari, Amiga).
Windows war noch bei Version 1.0 und das hatte erstens niemand und
zweitens war es *wirklich* gruselig ;-)
twm habe ich eine Weile benutzt. War ein ziemlicher Aufwand den zu
konfigurieren, aber wenn man den investiert hat, hatte man viele
Möglichkeiten.

Und sobald ctwm rauskam, habe ich auf den gewechselt, der konnte
virtuelle Bildschirme.

Gerrit
p***@pocnet.net
2024-05-01 11:49:01 UTC
Permalink
Post by Peter J. Holzer
Post by Sebastian Barthel
Zustimmung. twm ist einfach nur gruselig, auch wenn es sich für Leute,
die da zu der als "NEU" kennengelernt haben, irgendwie wie eine neue Welt
angefühlt haben mag.
TWM ist 1987 erschienen. Meiner Erinnerung nach war der nicht sehr viel
anders als die "Consumer"-Fenstersysteme jener Zeit (Mac, Atari, Amiga).
Ähm. Doch.

Dass man ein neues Fenster erstmal als Outline am Cursor kleben hatte zum
Platzieren kenne ich von keiner anderen Plattform (Defaulteinstellung, konnte
man aber anpassen). Und, dass man zum Fenstergröße Ändern erstmal das
Größenfeld oben rechts (?) berühren musste und dann an den Fensterrändern
zerren war auch sehr unintuitiv.
--
:wq! PoC
p***@pocnet.net
2024-05-01 11:46:10 UTC
Permalink
Post by Sebastian Barthel
Post by p***@pocnet.net
In Firmen? Das war der Ausgangspunkt der Diskussion: IBM hat den
Privatanwender nicht im Fokus.
Gerade dort. Ich sag mal 20248 und Moorhuhn ...
Merkwürdiges Arbeitsumfeld.
Post by Sebastian Barthel
Post by p***@pocnet.net
Ja, twm. Das ist ein Fenstermanager, aber keine Desktopumgebung wie z.
B. KDE. Du vergleichst Äpfel mit Birnen.
Zustimmung. twm ist einfach nur gruselig, auch wenn es sich für Leute,
die da zu der als "NEU" kennengelernt haben, irgendwie wie eine neue Welt
angefühlt haben mag.
Ja. Wobei ich für mich sagen kann, dass es als "man kann Fenster verschieben"
auf dem Zweitdisplay okay war, sehr ressourcensparend. :-)
Post by Sebastian Barthel
Das soll jetz tnicht heißen, daß es schlecht ist, aber die Optik und die
Art der Bedienung ist schon SEHR weit weg von dem, was der "Consumer" so
erwartet hätte. Das Teil ist schon sehr "nerdig" ...
Ja, in der Tat.
--
:wq! PoC
Sebastian Barthel
2024-04-30 13:34:30 UTC
Permalink
Post by p***@pocnet.net
Post by Hermann Riemann
Die Hälfte der Zeit am PC könnte vielleicht für Spiel verwendet werden.
In Firmen? Das war der Ausgangspunkt der Diskussion: IBM hat den
Privatanwender nicht im Fokus.
Post by Hermann Riemann
Reines X. wie auf uralt Unix Systeme war anders.
Alles grau und einfach aufgebaut.
Ja, twm. Das ist ein Fenstermanager, aber keine Desktopumgebung wie z.
B. KDE. Du vergleichst Äpfel mit Birnen.
edit ... " die das zu der Zeit als "NEU" kennengelernt haben "...
Hermann Riemann
2024-04-30 16:34:27 UTC
Permalink
Post by p***@pocnet.net
Post by Hermann Riemann
Die Hälfte der Zeit am PC könnte vielleicht für Spiel verwendet werden.
In Firmen? Das war der Ausgangspunkt der Diskussion: IBM hat den
Privatanwender nicht im Fokus.
Post by Hermann Riemann
Reines X. wie auf uralt Unix Systeme war anders.
Alles grau und einfach aufgebaut.
Ja, twm. Das ist ein Fenstermanager, aber keine Desktopumgebung wie z. B. KDE.
Ich weiß nicht wie das Ding damals hieß.
Es war vom Sehen und Benutzung grob vergleichbar mit Atari ST,
nur hatte es mehr Fenster und mehr Bildschirm Pixel.

Etliche Konsolen verwenden gingen auch vor KDE.
Post by p***@pocnet.net
Du vergleichst Äpfel mit Birnen.
Ich verwende immer noch meist Konqueror als Dateimanager.
Womit ich Konsolen .. damals öffnete weiß ich nicht mehr.
Post by p***@pocnet.net
Post by Hermann Riemann
KDE sah (und sieht teilweise noch ) nach windows 95 aus.
u.a. bunte Icons in Taskleiste.
Belese Dich bitte über den Unterschied zwischen X als grafisches Ausgabesystem
auf der einen Seite und auf vollumfängliche "Desktops" (also inklusive
"Dateimanager" und wie auch immer gearteten Programmstarter) wie KDE. Letztere
benutz(t)en X als Basis (vor Wayland).
Ich werde meine Bücher über X wohl nicht mehr lesen.
--
<http://www.hermann-riemann.de>
p***@pocnet.net
2024-05-01 11:50:37 UTC
Permalink
Post by Hermann Riemann
Ich werde meine Bücher über X wohl nicht mehr lesen.
Da reichen ein paar Blicke auf die entsprechenden Wikipedia-Artikel. Am besten
die aus der angelsächsischen.
--
:wq! PoC
Joerg Walther
2024-04-24 14:59:27 UTC
Permalink
Post by F. W.
Post by Joerg Walther
Gestern zum zweiten Mal nach langer Zeit wieder angeschaut (fliegt
im Usenet rum, YT hat's auch, aber als mittelschlechter
VHS-Transfer), ist das eine immer noch sehenswerte Doku über die
Anfänge des PCs, beginnend mit dem Altair bis zum Release von Windows
95.
das unsägliche Verhalten der Deutschen Bundespost in Bezug auf
Mailboxen, die Killer-Strategie von Microsoft, das Ansehen in der
Gesellschaft, das sich seit den Sechzigern nicht geändert hatte und die
wahnsinnig hohen Preise.
Da das eine amerikanische Doku ist, kann die DBP natürlich nicht vor,
die restlichen von dir genannten Aspekte aber tun es.

-jw-
--
And now for something completely different...
Chr. Maercker
2024-04-28 17:35:17 UTC
Permalink
Post by F. W.
IBM hatte den PC nie ernst genommen. Man befürchtete, dass
Privatpersonen einen Computer nicht ausreichend gut verwalten können.
Damals war ich in der Tat verwundert, dass ausgerechnet der
Dinosaurier-Produzent IBM die Entwicklung eines Standard-PCs erfolgreich
in Angriff nahm. Gelungen ist es nur zum Teil, zum einen dank der
schlechtesten, damals verfügbaren 16Bit-CPU, zum anderen dank so
genannter "IBM-Kompatibler". Apple hat beides vermieden und ist vor
allem an letzterem gescheitert.
Post by F. W.
Schon gar nicht in Firmen. Die Sicherheit würde vernachlässigt und zum
großen Problem, das Kriege auslösen und Gesellschaften sprengen könnte.
Damit lagen sie, rückwirkend betrachtet, nicht völlig daneben. ;-)
--
CU Chr. Maercker.
Thomas Koenig
2024-04-28 20:24:42 UTC
Permalink
Post by Chr. Maercker
Post by F. W.
IBM hatte den PC nie ernst genommen. Man befürchtete, dass
Privatpersonen einen Computer nicht ausreichend gut verwalten können.
Damals war ich in der Tat verwundert, dass ausgerechnet der
Dinosaurier-Produzent IBM die Entwicklung eines Standard-PCs erfolgreich
in Angriff nahm. Gelungen ist es nur zum Teil,
Das hat viel besser geklappt, als sich irgendwer hätte träumen lassen
(am wenigsten IBM).
Post by Chr. Maercker
zum einen dank der
schlechtesten, damals verfügbaren 16Bit-CPU,
So weh es auch tut, ein lobendes Wort zu *x86 zu sagen: Was wäre
die Alternative gewesen? Der Entwurf war aus Kostengründen auf
einen 8-bit-Bus ausgerichtet, und der 68008 kam erst später.
Chr. Maercker
2024-04-28 21:26:48 UTC
Permalink
Post by Thomas Koenig
Das hat viel besser geklappt, als sich irgendwer hätte träumen lassen
(am wenigsten IBM).
So kann man es natürlich auch sehen.
Post by Thomas Koenig
So weh es auch tut, ein lobendes Wort zu *x86 zu sagen: Was wäre
die Alternative gewesen? Der Entwurf war aus Kostengründen auf
einen 8-bit-Bus ausgerichtet, und der 68008 kam erst später.
Vor Jahren hatte ich gelesen, i8086/8088 wäre nur deswegen genommen
worden, weil Motorola vorübergehend Lieferprobleme von einigen Wochen
hatte. Dass Leiterplatten für 16Bit-Bus mit damaliger Technologie recht
aufwändig und damit teuer waren, ist indes ein weit plausibleres Argument.
--
CU Chr. Maercker.
Sebastian Barthel
2024-04-30 13:43:53 UTC
Permalink
Post by Chr. Maercker
Post by Thomas Koenig
Das hat viel besser geklappt, als sich irgendwer hätte träumen lassen
(am wenigsten IBM).
So kann man es natürlich auch sehen.
Post by Thomas Koenig
So weh es auch tut, ein lobendes Wort zu *x86 zu sagen: Was wäre die
Alternative gewesen? Der Entwurf war aus Kostengründen auf einen
8-bit-Bus ausgerichtet, und der 68008 kam erst später.
Vor Jahren hatte ich gelesen, i8086/8088 wäre nur deswegen genommen
worden, weil Motorola vorübergehend Lieferprobleme von einigen Wochen
hatte. Dass Leiterplatten für 16Bit-Bus mit damaliger Technologie recht
aufwändig und damit teuer waren, ist indes ein weit plausibleres Argument.
Und: es gab schon jede Menge Leute mit Erfahrung auf 8080 Architekturen,
was ja wohl so weit davon nicht weg ist. Programme und Bibliotheken für
8080 bzw. 8085 lassen sich wohl ohne weiteres in gültigen 8086 Code
umwandeln.

Da ja allgemein gilt "Was der Bauer nicht kennt, ißt er nicht" ist
möglicherweise sogar diese direkte Weiterverwendbarkeit von einmal
erworbenem Wissen ein wesentlicher Grund für den Erfolg des IBM PC.

Zumindest neben der unglaublichen Menge von 1MB (mehr oder weniger
direkt) adressierbarem Speicher.
Chr. Maercker
2024-05-02 18:07:56 UTC
Permalink
Post by Sebastian Barthel
Und: es gab schon jede Menge Leute mit Erfahrung auf 8080 Architekturen,
was ja wohl so weit davon nicht weg ist. Programme und Bibliotheken für
8080 bzw. 8085 lassen sich wohl ohne weiteres in gültigen 8086 Code
umwandeln.
Z80-Programme vermutlich nicht und auch sonst nicht in allen Fällen,
dennoch prinzipiell ACK.
Post by Sebastian Barthel
Da ja allgemein gilt "Was der Bauer nicht kennt, ißt er nicht" ist
möglicherweise sogar diese direkte Weiterverwendbarkeit von einmal
erworbenem Wissen ein wesentlicher Grund für den Erfolg des IBM PC.
Ehrlich gesagt habe ich gerade *weil* ich die Programmierung von 8080
und Z80 und vor allem die engen Grenzen von ersterem kannte, sofort
Gefallen an den Befehlssätzen von Z8000 wie auch M68000 gefunden:
- frei programmierbare Register ohne ewiges Hin und Herladen von und zum
Akkumulator
- Adressierung von 8 bzw. 16 MBytes lang durch, ohne solche schwer
überschaubaren Überlappungen wie beim 8086
- leistungsfähgies Interruptsystem direkt ab CPU
- Peripherie-Chips vom Feinsten (MMU)
- ...
Post by Sebastian Barthel
Zumindest neben der unglaublichen Menge von 1MB (mehr oder weniger
direkt) adressierbarem Speicher.
Nebst mehr oder weniger komplizierter Adressierung dieses mickrigen
MBytes ... ;-)
--
CU Chr. Maercker.
Hermann Riemann
2024-05-02 18:48:20 UTC
Permalink
Post by Chr. Maercker
Post by Sebastian Barthel
Und: es gab schon jede Menge Leute mit Erfahrung auf 8080 Architekturen,
was ja wohl so weit davon nicht weg ist. Programme und Bibliotheken für
8080 bzw. 8085 lassen sich wohl ohne weiteres in gültigen 8086 Code
umwandeln.
Z80-Programme vermutlich nicht und auch sonst nicht in allen Fällen,
dennoch prinzipiell ACK.
Der größte Unterschied zwischen Z80 und 8085 war bei mir
der PIO mode 2.
Post by Chr. Maercker
Post by Sebastian Barthel
Da ja allgemein gilt "Was der Bauer nicht kennt, ißt er nicht" ist
möglicherweise sogar diese direkte Weiterverwendbarkeit von einmal
erworbenem Wissen ein wesentlicher Grund für den Erfolg des IBM PC.
Ehrlich gesagt habe ich gerade *weil* ich die Programmierung von 8080
und Z80 und vor allem die engen Grenzen von ersterem kannte, sofort
- frei programmierbare Register ohne ewiges Hin und Herladen von und zum
Akkumulator
- Adressierung von 8 bzw. 16 MBytes lang durch, ohne solche schwer
überschaubaren Überlappungen wie beim 8086
Nein der Z8000 hatte auch 64k Segmente.
Der 68000 war bei der Adressierung Typ 32 bit,
auch wenn davon nur 24 Bit benutzbar waren.
Post by Chr. Maercker
- leistungsfähgies Interruptsystem direkt ab CPU
- Peripherie-Chips vom Feinsten (MMU)
Der Atari ST hatte keine MMU.
Und damit ging damals auch kein Linux, höchstens Minix.
Post by Chr. Maercker
Post by Sebastian Barthel
Zumindest neben der unglaublichen Menge von 1MB (mehr oder weniger
direkt) adressierbarem Speicher.
Nebst mehr oder weniger komplizierter Adressierung dieses mickrigen
MBytes ... ;-)
Der 64180 konnte 512 KB ( Z80 + zusätzliche Befehle )
und wenn man PIO Bits zur erweiterten Adressierung verwendete
war man beim Z80 auch nicht auf 64 k beschränkt.
--
<http://www.hermann-riemann.de>
Stefan Ram
2024-04-29 10:51:48 UTC
Permalink
Post by Chr. Maercker
Damals war ich in der Tat verwundert, dass ausgerechnet der
Dinosaurier-Produzent IBM die Entwicklung eines Standard-PCs erfolgreich
in Angriff nahm.
Ich frage mich, ob der Erfolg hier vielleicht einfach an dem
Namen "IBM" lag. Gewisse Leute vertrauten dem Namen, egal
welche technische Eigenschaften das Produkt nun hat.

Ich hatte in den 80ern ja einen Amiga, aber als ich mir dann einen
IBM-kompatiblen Rechner kaufte, war ich erst einmal erstaunt wie
schnell "dir" auf einer Disk ist. Das war auf dem Amiga deutlich
langsamer. - Es war also auch nicht alles auf dem Gebiet der
IBM-Kompatiblen technisch unterlegen, etwa um das Jahr 1990 herum.

Das wird dann natürlich irgendwann einmal zu einem selbst-
fördernden Prozeß: Wenn ein Computer erfolgreich ist, sei
er auch technisch minderwertig, motiviert das mehr Hersteller
dafür gute Graphikkarten und so weiter herzustellen, und so
verbessert sich durch den Erfolg dann auch die Technik.

Dies würde allerdings weniger zum Betreff "Triumph of the Nerds"
passen.
Arno Welzel
2024-04-29 11:21:54 UTC
Permalink
Post by Stefan Ram
Post by Chr. Maercker
Damals war ich in der Tat verwundert, dass ausgerechnet der
Dinosaurier-Produzent IBM die Entwicklung eines Standard-PCs erfolgreich
in Angriff nahm.
Ich frage mich, ob der Erfolg hier vielleicht einfach an dem
Namen "IBM" lag. Gewisse Leute vertrauten dem Namen, egal
welche technische Eigenschaften das Produkt nun hat.
Nicht nur - IBM hat sich die Idee eines Bus für Erweiterungskarten vom
Apple II abgeschaut, was Jobs ja partout nicht haben wollte und beim
ersten Mac dann endgültig begraben hat.

Das war auch ein erheblicher Aspekt: man liefert eine Grundkonfiguration
aus und die Kunden können bei Bedarf auch bessere Grafik, mehr Speicher,
zusätzliche Schnittstellen etc. einfach dazubekommen.
Post by Stefan Ram
Ich hatte in den 80ern ja einen Amiga, aber als ich mir dann einen
IBM-kompatiblen Rechner kaufte, war ich erst einmal erstaunt wie
schnell "dir" auf einer Disk ist. Das war auf dem Amiga deutlich
langsamer. - Es war also auch nicht alles auf dem Gebiet der
IBM-Kompatiblen technisch unterlegen, etwa um das Jahr 1990 herum.
Der Amiga hat auch ein *deutlich* komplexeres Betriebssystem mit
Multitasking etc. gehabt.
--
Arno Welzel
https://arnowelzel.de
Gerrit Heitsch
2024-04-30 05:33:13 UTC
Permalink
Post by Stefan Ram
Ich hatte in den 80ern ja einen Amiga, aber als ich mir dann einen
IBM-kompatiblen Rechner kaufte, war ich erst einmal erstaunt wie
schnell "dir" auf einer Disk ist. Das war auf dem Amiga deutlich
langsamer. - Es war also auch nicht alles auf dem Gebiet der
IBM-Kompatiblen technisch unterlegen, etwa um das Jahr 1990 herum.
Das lag eher am Filesystem und nicht an der Hardware. Auf dem Amiga
wurden auch, wenn du in der GUI gearbeitet hast, beim Öffnen eines
Verzeichnisses, die ganzen Icon-Files (*.info) geladen. Das waren Bilder
und konnten fast beliebige Größe haben. Das dauert natürlich länger als
nur Einträge aus der FAT zu laden.
Post by Stefan Ram
Das wird dann natürlich irgendwann einmal zu einem selbst-
fördernden Prozeß: Wenn ein Computer erfolgreich ist, sei
er auch technisch minderwertig, motiviert das mehr Hersteller
dafür gute Graphikkarten und so weiter herzustellen, und so
verbessert sich durch den Erfolg dann auch die Technik.
Ja... kenne ich noch. Den Amiga als Spielekiste bezeichnen, aber kaum
hatte der PC bei Grafik und Sound aufgeholt...

Gerrit
Stefan Ram
2024-04-30 08:37:01 UTC
Permalink
Post by Gerrit Heitsch
Das lag eher am Filesystem und nicht an der Hardware. Auf dem Amiga
wurden auch, wenn du in der GUI gearbeitet hast, beim Öffnen eines
Verzeichnisses, die ganzen Icon-Files (*.info) geladen.
(Oben würde man eigentlich "auch wenn du /nicht/ in der GUI
gearbeitet hast" erwarten.)

Aber der Punkt war vielleicht eher der, daß Verzeichnissegmente
beim Amiga über die ganze Disk verstreut sein konnten:

|The Amiga FS doesn't seem very efficient. You need to follow
|long linked lists which is highly inefficient since those
|cannot easily be cached.
. . .
|Well neither FAT nor AmigaFS are particularly special when it
|comes to efficiency, but the only time AmigaFS is less
|efficient than FAT is when listing a directory's contents
|which does require jumping around the disk

. Die Blöcke hatten beim Amiga auch redundante Daten, um eine
Reparatur zu unterstützen, wenn das Verzeichnis verloren geht, und
die Disks hatten eine Bitmap, die eine Art "Mini-Journal" darstellt
und es erlaubt bei Schreibfehlern, oft die meisten Daten zu retten.
Gerrit Heitsch
2024-04-30 15:55:55 UTC
Permalink
Post by Stefan Ram
Post by Gerrit Heitsch
Das lag eher am Filesystem und nicht an der Hardware. Auf dem Amiga
wurden auch, wenn du in der GUI gearbeitet hast, beim Öffnen eines
Verzeichnisses, die ganzen Icon-Files (*.info) geladen.
(Oben würde man eigentlich "auch wenn du /nicht/ in der GUI
gearbeitet hast" erwarten.)
Aber der Punkt war vielleicht eher der, daß Verzeichnissegmente
|The Amiga FS doesn't seem very efficient. You need to follow
|long linked lists which is highly inefficient since those
|cannot easily be cached.
. . .
|Well neither FAT nor AmigaFS are particularly special when it
|comes to efficiency, but the only time AmigaFS is less
|efficient than FAT is when listing a directory's contents
|which does require jumping around the disk
. Die Blöcke hatten beim Amiga auch redundante Daten, um eine
Reparatur zu unterstützen, wenn das Verzeichnis verloren geht, und
die Disks hatten eine Bitmap, die eine Art "Mini-Journal" darstellt
und es erlaubt bei Schreibfehlern, oft die meisten Daten zu retten.
Etwas gelernt haben sie aber auch, für Festplatten gab es später dann
das FastFileSystem (FFS) was etwas besser organisiert war. Hatte aber
weniger Redundanz.

Was noch dazukam, beim Amiga wurde immer eine ganze Spur der Floppy
gelesen und im Speicher dekodiert, auch wenn du nur einen Sektor
brauchtest. Deshalb konnte der Amiga 880KB auf einer Diskette
unterbringen wo es bei DOS nur 720 KB waren. AFAIK sparte man sich die
Gaps zwischen den Sektoren, womit der Controller im PC Amiga-formatierte
Disketten nicht lesen konnte.

Gerrit
Sebastian Barthel
2024-04-30 13:54:37 UTC
Permalink
Post by Chr. Maercker
Damals war ich in der Tat verwundert, dass ausgerechnet der
Dinosaurier-Produzent IBM die Entwicklung eines Standard-PCs erfolgreich
in Angriff nahm.
Ich frage mich, ob der Erfolg hier vielleicht einfach an dem Namen
"IBM" lag. Gewisse Leute vertrauten dem Namen, egal welche technische
Eigenschaften das Produkt nun hat.
Davon darf man sicherlich ausgehen.
Das wird dann natürlich irgendwann einmal zu einem selbst- fördernden
Prozeß: Wenn ein Computer erfolgreich ist, sei er auch technisch
minderwertig, motiviert das mehr Hersteller dafür gute Graphikkarten
und so weiter herzustellen, und so verbessert sich durch den Erfolg
dann auch die Technik.
Dies würde allerdings weniger zum Betreff "Triumph of the Nerds"
passen.
Die Nerds dieser Zeit hätten wahrscheinlich auch ein Z80 System mit einem
CP/M deutlich bevorzugt.

Wahrscheinlich - wenn auch vielleicht noch nicht 1981 - trifft es
"Triumph of the billigstes Angebot" langfristig deutlich besser. Schön zu
sehen auch am Ende vom Amiga, als die PC Grafikkarten plötzlich so
unglaublich gut und bunt und schnell UND billig werden, daß da auch die
Commodore eigene Chipproduktion gar nicht mehr mithalten kann, wobei das
doch noch beim C64 deren riesiger (Kosten)Vorteil war.
Andreas Eder
2024-04-30 20:57:26 UTC
Permalink
Post by Sebastian Barthel
Die Nerds dieser Zeit hätten wahrscheinlich auch ein Z80 System mit einem
CP/M deutlich bevorzugt.
Ja, klar. Das war viel besser.

'Andreas
--
ceterum censeo redmondinem esse delendam
Lesen Sie weiter auf narkive:
Loading...