Discussion:
Schnellster Computer!
(zu alt für eine Antwort)
olaf
2020-12-10 17:54:10 UTC
Permalink
Hier, auf zum Schwanzvergleich. Wer hatte den schnellsten Computer:



Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit bin
ich wohl schonmal der Oberlooser, seufz.

Olaf
Christian Potzinger
2020-12-10 20:38:31 UTC
Permalink
Post by olaf
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum.
Damit bin ich wohl schonmal der Oberlooser, seufz.
Amateur !11! Ich hatte den ZX-81. DER konnte langsam...
--
ryl: G'Kar
Ralf Kiefer
2020-12-10 21:14:44 UTC
Permalink
Post by olaf
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit bin
ich wohl schonmal der Oberlooser, seufz.
Ich hatte mich für einen Apple IIe entschieden. Der war ab Werk gar
nicht mal schlecht: 36sec statt >75sec beim TI99/4A. Schwanzvergleich:
mit der schwäbischen Beschleunigerkarte hätte der im Jahr 1987 für
dieses BASIC-Programm um die 3sec benötigt.

Gruß, Ralf
olaf
2020-12-11 05:42:26 UTC
Permalink
Post by Ralf Kiefer
Post by olaf
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit bin
ich wohl schonmal der Oberlooser, seufz.
Ich hatte mich für einen Apple IIe entschieden. Der war ab Werk gar
Apple][+ (Nachbau) hatte ich spaeter auch, aber der hat gebraucht
2000DM gekostet. Sowas haette ich mir als 15jaehriger noch nicht
leisten koennen. Ich musste die Kohle immer selbst erarbeiten.

Den TI konnte ich damals gebraucht fuer 300DM kaufen, 6Monate spaeter
als ich gemerkt habe das Assembler wichtig ist und wie dumm die kiste
war hab ich den wieder fuer 300DM verkauft.
Post by Ralf Kiefer
mit der schwäbischen Beschleunigerkarte hätte der im Jahr 1987 für
dieses BASIC-Programm um die 3sec benötigt.
Pah. Ich hatte ein 3Prozessor-Apple! Einen 6502 und Z80 auf dem
Mainboard und einen 68008 als Steckkarte. Und ich hatte zwei 2x80T
Laufwerke, einen AD-Wandler, 80Z, Epromer, Timer+Seriel-Karte, 128k
Saturn und eine vollprogrammierbare BOSS-1. :-p

Olaf
Hermann Riemann
2020-12-11 07:11:05 UTC
Permalink
Post by olaf
Post by Ralf Kiefer
Post by olaf
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit bin
ich wohl schonmal der Oberlooser, seufz.
Ich habe mit HP 35 angefangen.
Post by olaf
Post by Ralf Kiefer
Ich hatte mich für einen Apple IIe entschieden. Der war ab Werk gar
Fertig Rechner waren mir bis auf ZX81 vor Atari ST zu teuer.
Post by olaf
Pah. Ich hatte ein 3Prozessor-Apple! Einen 6502 und Z80 auf dem
Mainboard und einen 68008 als Steckkarte. Und ich hatte zwei 2x80T
Laufwerke, einen AD-Wandler, 80Z, Epromer, Timer+Seriel-Karte, 128k
Saturn und eine vollprogrammierbare BOSS-1. :-p
Pah! :-)
Ich *habe*, wenn auch nicht betriebsbereit
elektor Z80 Platine (2 K B RAM 2 KB EPROM) auf Bus:
selbst gefädelter PIO Karte wegen PIO mode 2
EPROM Karte mit 28 K EPROMs ( 2732 )
statischer RAM Karte 16 K mit 48Z02
dynamische RAM Karte 64 K ( mit kalter Lötstelle ?)
damals Verbunden mit elektor 6502 auf Bus:
Grafikkarte mit 6845
?Floppy controller mittels SIO + etlichen 74XX TTLs

ESCO 6502 Doppelplatine
dazu elektor EPROMMER

Dazu nie verwendet:

PECAZ (8039 CPU)
Karte mit 64180 CPU und 512 KB DRAM
2? Karten mit 6802 CPU
Unbestückt mit 68000 CPU ( KAT-Ce 1.451
Fast bestückt Vport 50 für 80186 CPU
..

( teilweise sichtbar ganz unten in
Loading Image...
Platten meist mit PATA, kein direkt mit SATA )

Hermann
derzeit für seine Raspberry pis, Arduinos und touchscreens
auf software und Kabelsuche.
--
http://www.hermann-riemann.de
Ralf Kiefer
2020-12-11 11:22:34 UTC
Permalink
Post by olaf
Apple][+ (Nachbau) hatte ich spaeter auch, aber der hat gebraucht
2000DM gekostet.
Hier 2500DM für einen fast nicht gebrauchten IIe mit Monitor III und
einem Diskettenlaufwerk, allerdings mit 110V-Trafo davor, weil US-Gerät.
Das sukzessive Nachrüsten kostete ein Mehrfaches davon.
Post by olaf
Sowas haette ich mir als 15jaehriger noch nicht
leisten koennen.
Ok, ich war Student und hatte vorher bereits viele Stunden an der Uni an
den Apple II verbracht, d.h. mir war es das wert. Neu hätte meine
Ausstattung über 4000DM gekostet.
<www.ralf-kiefer.de/TEMP/apple2uebungsraum.jpg>
(Uni KA ab WS81/82, das Foto bzw. der Film ist vermutlich 1983
entstanden)
Von diesen Räumen gab es mehrere. Es war eine dreistellige Zahl an
Rechnern.
Post by olaf
Den TI konnte ich damals gebraucht fuer 300DM kaufen, 6Monate spaeter
als ich gemerkt habe das Assembler wichtig ist und wie dumm die kiste
war hab ich den wieder fuer 300DM verkauft.
Es müßte Spätherbst 1984 (oder 1983?) gewesen sein, als hierzulande
durchdrang, daß die TI99/4A in den USA im Ausverkauf verramscht werden.
Das war relativ zu sehen, aber immerhin unter 1000DM. Ein "Onkel aus
Amerika" kam zu Weihnachten nach Europa, und der war kurz vorher spontan
zum Rechnerbeschaffungsbeauftragten geworden. Leider vergeblich. Sonst
hätte ich mich ebenso mit dem TI rumplagen "dürfen".
Post by olaf
Pah. Ich hatte ein 3Prozessor-Apple! Einen 6502 und Z80 auf dem
Mainboard
Die laufen nur nie gleichzeitig, sondern alternierend. D.h. eine CPU
ziehen wir bei dieser Zählung ab ;-)

Gruß, Ralf
Dennis Grevenstein
2020-12-11 16:44:18 UTC
Permalink
Post by Ralf Kiefer
Ok, ich war Student und hatte vorher bereits viele Stunden an der Uni an
den Apple II verbracht, d.h. mir war es das wert. Neu hätte meine
Ausstattung über 4000DM gekostet.
<www.ralf-kiefer.de/TEMP/apple2uebungsraum.jpg>
(Uni KA ab WS81/82, das Foto bzw. der Film ist vermutlich 1983
entstanden)
Von diesen Räumen gab es mehrere. Es war eine dreistellige Zahl an
Rechnern.
Das Bild habe ich auch schon mal gesehen. Lustig finde ich diesen
"DEFEKT allein genügt NICHT als FEHLERANGABE" Spruch, ganz gross
an die Wand geschrieben. Das ist noch so ein Relikt aus der Zeit
als Männer noch echte Männer waren und user im Zweifel sowieso
zu blöd und schon überfordert mit der Aufgabe geradeaus den Weg
zum RZ zu finden und dabei Kaugummi zu kauen.
Im Grunde kann man ja froh sein, dass diese Zeiten weitestgehend
vorbei sind.

Allerdings...
Letztens habe ich an der Uni gesessen und ein Rechner eines Studenten
hatte sich aufgehängt.
Ich: "Drück mal auf den reset Knopf".
Er: zeigt auf den eject Knopf vom DVD-ROM: "Den da?".

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhäuser
gate. All those moments will be lost in time, like tears in rain."
Hermann Riemann
2020-12-11 17:04:22 UTC
Permalink
Post by Dennis Grevenstein
Post by Ralf Kiefer
<www.ralf-kiefer.de/TEMP/apple2uebungsraum.jpg>
(Uni KA ab WS81/82, das Foto bzw. der Film ist vermutlich 1983
entstanden)
Von diesen Räumen gab es mehrere. Es war eine dreistellige Zahl an
Rechnern.
Das Bild habe ich auch schon mal gesehen. Lustig finde ich diesen
"DEFEKT allein genügt NICHT als FEHLERANGABE" Spruch, ganz gross
an die Wand geschrieben.
Bei Atari ST (Basic?) hieß es "something is wrong"
oder so ähnlich.
Ralph Spitzner
2020-12-12 08:23:08 UTC
Permalink
Post by Hermann Riemann
Post by Ralf Kiefer
<www.ralf-kiefer.de/TEMP/apple2uebungsraum.jpg>
Bei Atari ST (Basic?) hieß es "something is wrong"
oder so ähnlich.
mein Memotech MTX512gab ein sehr aufschlussreiches "mistake" zum besten...

-rasp
Kay Martinen
2020-12-12 15:53:22 UTC
Permalink
Post by Ralph Spitzner
Post by Hermann Riemann
Post by Ralf Kiefer
<www.ralf-kiefer.de/TEMP/apple2uebungsraum.jpg>
Bei Atari ST (Basic?) hieß es "something is wrong"
oder so ähnlich.
mein Memotech MTX512gab ein sehr aufschlussreiches "mistake" zum besten...
Da lob ich mir die (meist sehr) aussagekräftigen Fehlermeldungen meines
Unicomal-80 Moduls für den C-128. Das stößt einen nach dem RETURN am
Ende der Zeile sofort auf genau die stelle die's nicht versteht und ist
erst ruhig wenn es sie gefressen hat. Die liste der Fehlermeldungstexte
hat AFAIR mehr als zweihundert Einträge und wir auch noch dynamisch
erweitert durch Zeilennummer und keyword. Einen schnöden "SYNTAX ERROR"
wie Basic gab es nicht. Und man konnte mit 'SCAN' das Programm auf
logische Fehler abklopfen bevor man es zum ersten mal startet.


Kay
--
Posted via leafnode
Thomas Koenig
2020-12-13 10:48:17 UTC
Permalink
Post by Ralph Spitzner
Post by Hermann Riemann
Post by Ralf Kiefer
<www.ralf-kiefer.de/TEMP/apple2uebungsraum.jpg>
Bei Atari ST (Basic?) hieß es "something is wrong"
oder so ähnlich.
mein Memotech MTX512gab ein sehr aufschlussreiches "mistake" zum besten...
Selber nie gesehen, weil falsche Generation, aber es gab wohl
einen Compiler für einen Minicomputer, der nach erfolgreicher
Compilierung "None of your errors have been found." ausgab.
Kay Martinen
2020-12-13 11:31:08 UTC
Permalink
Post by Thomas Koenig
Post by Ralph Spitzner
Post by Hermann Riemann
Post by Ralf Kiefer
<www.ralf-kiefer.de/TEMP/apple2uebungsraum.jpg>
Bei Atari ST (Basic?) hieß es "something is wrong"
oder so ähnlich.
IMHO warf der Atari ST dann auch Bomben um die Schwere des Fehlers zu
zeigen. Amiga hatte den "Guru Meditation Error" und mein C-128 ist
einfach irgendwo hängen geblieben oder versuchte einen zügellosen neustart.
Post by Thomas Koenig
Post by Ralph Spitzner
mein Memotech MTX512gab ein sehr aufschlussreiches "mistake" zum besten...
Selber nie gesehen, weil falsche Generation, aber es gab wohl
einen Compiler für einen Minicomputer, der nach erfolgreicher
Compilierung "None of your errors have been found." ausgab.
Logikrätsel?

Ich lese grade über die unix-philosophie. "Wenn ein Programm nix zu
sagen hat soll es schweigen" finde ich gut.

Obiges heißt also das keine Userfehler auftraten. Es heißt aber nicht
das keine Compilerfehler auftraten. :)

Oder kam danach ein "Much of our errors have been found"?

Andererseits sind Computer gut darin die Fehler der Menschen in Software
zu replizieren. Und Fehler machen ja nur Menschen, nicht Computer. Also
sind Computerfehler eigentlich Menschenfehler. Da Computer-Hardware auch
von Menschen geplant und gebaut wird sind auch Hardware-fehler =
Menschenfehler.

Welcher Idiot kam auf die Idee so etwas unser Schicksal an zu vertrauen?

Wie das zu FeFe's Lieblingsspruch passt "Computerfehler, kann man nix
machen!" darf sich jetzt jeder selbst ausrechnen. Aber nicht mogeln, mit
einer P5 CPU (FDIV-Bug) :-)=)

Kay
--
Posted via leafnode
Thomas Koenig
2020-12-13 12:13:31 UTC
Permalink
Post by Kay Martinen
Post by Thomas Koenig
Post by Ralph Spitzner
Post by Hermann Riemann
Post by Ralf Kiefer
<www.ralf-kiefer.de/TEMP/apple2uebungsraum.jpg>
Bei Atari ST (Basic?) hieß es "something is wrong"
oder so ähnlich.
IMHO warf der Atari ST dann auch Bomben um die Schwere des Fehlers zu
zeigen. Amiga hatte den "Guru Meditation Error" und mein C-128 ist
einfach irgendwo hängen geblieben oder versuchte einen zügellosen neustart.
Post by Thomas Koenig
Post by Ralph Spitzner
mein Memotech MTX512gab ein sehr aufschlussreiches "mistake" zum besten...
Selber nie gesehen, weil falsche Generation, aber es gab wohl
einen Compiler für einen Minicomputer, der nach erfolgreicher
Compilierung "None of your errors have been found." ausgab.
Logikrätsel?
Die Leute, die den Compiler geschrieben haben, wussten halt, dass
es so was wie ein fehlerfreies Programm nicht gibt und dass der
Compiler auch nicht alles finden kann :-)
Post by Kay Martinen
Ich lese grade über die unix-philosophie. "Wenn ein Programm nix zu
sagen hat soll es schweigen" finde ich gut.
Wen das Themenfeld interessiert, dem kann ich ein geniales Buch empfehlen:

UNIX A History and a Memoir, Brian Kernighan, ISBN 978-169597855-3

(Ja, das ist der Kernighan von "Kernighan & Richie",
"The C Programming Language", dem besten Buch über eine
Programmiersprache, das ich jemals gelesen habe).

Und wenn wir gerade bei Büchern sind, noch zwei weitere Bücher:

Abstracting Away the Machine: The History of the FORTRAN Programming
Language. Mark Jones Lorenzo, ISBN 978-1082395949

Und schließlich der Klassiker schlechthin:

The Soul of A New Machine. Tracy Kidder, ISBN 978-0316491976.
Gerrit Heitsch
2020-12-13 13:10:57 UTC
Permalink
Post by Kay Martinen
Ich lese grade über die unix-philosophie. "Wenn ein Programm nix zu
sagen hat soll es schweigen" finde ich gut.
Den Result-Code soll es aber bitte melden damit die Shell $? setzen kann.

Gerrit
Kay Martinen
2020-12-13 15:53:52 UTC
Permalink
Post by Gerrit Heitsch
Post by Kay Martinen
Ich lese grade über die unix-philosophie. "Wenn ein Programm nix zu
sagen hat soll es schweigen" finde ich gut.
Den Result-Code soll es aber bitte melden damit die Shell $? setzen kann.
Du meinst bestimmt (auch!) ERRORLEVEL... [räusper] denn das hier ist ja
d.a.f.c.

:)

Gibt es denn Programme die keinen Fehlercode zurückgeben? Ich denke mir
jedes tut das. Und wenn es selbst das nicht tut kommt von der shell
selbst ein Beendigungscode. Konvention ist m.E. 0 = Alles Ok. und alles
<> 0 für irgendeinen Fehler. Wobei die Belegung eher nicht Standard ist.

Meine Fido- und Mailbox-Software damals in den 90'n hat exzessiv damit
gearbeitet und über das aufrufende batchfile alles gesteuert was dazu
gehörte. Inkl. der übergabe vom Mailer [Leave FOSSIL hot] zurück in den
Batch, dortiges aufrufen eines line-spezifischen vorher erstellten
batches durch den dann wiederum die bbs-soft die laufende Verbindung
übernahm. Für BBS-Caller! Im BBS-batch dann genau das gleiche inkl. Exit
to Mailer.

Wundert mich rückblickend überhaupt nicht das ich SysV Init seltsam
bekannt fand. ;-) Ist auch nur ein batch der einen anderen batch aufruft
oder zurück kehrt um noch'n batch auf zu rufen. Nur das unter DOS, OS/2
der vaterprozess halt nicht 'init' oder 'bash' hieß sondern COMMAND.COM
oder CMD.EXE

AFAIR hab ich damals gedacht linux würde da was neues bringen... und
dann kam systemd.... :-/

Kay
--
Posted via leafnode
Gerrit Heitsch
2020-12-13 16:02:00 UTC
Permalink
Post by Kay Martinen
AFAIR hab ich damals gedacht linux würde da was neues bringen... und
dann kam systemd.... :-/
Und du hast was neues bekommen... Nur ob das besser ist als das alte,
gewohnte...?

Gerrit
Kay Martinen
2020-12-13 17:06:06 UTC
Permalink
Post by Gerrit Heitsch
Post by Kay Martinen
AFAIR hab ich damals gedacht linux würde da was neues bringen... und
dann kam systemd.... :-/
Und du hast was neues bekommen... Nur ob das besser ist als das alte,
gewohnte...?
Das eine war in den 90'rn und wie viele Monate gibt es das andere jetzt? :-)



Kay
--
Posted via leafnode
Arno Welzel
2020-12-14 15:35:29 UTC
Permalink
Post by Kay Martinen
Post by Gerrit Heitsch
Post by Kay Martinen
AFAIR hab ich damals gedacht linux würde da was neues bringen... und
dann kam systemd.... :-/
Und du hast was neues bekommen... Nur ob das besser ist als das alte,
gewohnte...?
Das eine war in den 90'rn und wie viele Monate gibt es das andere jetzt? :-)
systemd ist jetzt über 10 Jahre alt und ich will nicht zurück zu SysV
Init, nur weil es "alt und gewohnt" ist.
--
Arno Welzel
https://arnowelzel.de
Gerrit Heitsch
2020-12-14 15:40:53 UTC
Permalink
Post by Arno Welzel
Post by Kay Martinen
Post by Gerrit Heitsch
Post by Kay Martinen
AFAIR hab ich damals gedacht linux würde da was neues bringen... und
dann kam systemd.... :-/
Und du hast was neues bekommen... Nur ob das besser ist als das alte,
gewohnte...?
Das eine war in den 90'rn und wie viele Monate gibt es das andere jetzt? :-)
systemd ist jetzt über 10 Jahre alt und ich will nicht zurück zu SysV
Init, nur weil es "alt und gewohnt" ist.
Solange man ihn auf das minimale beschränkt... Also nur den
Systemstartup handlen lässt und den Rest mit bewährten Tools erledigt
gehts so...

Gerrit
Hanno Foest
2020-12-14 15:57:16 UTC
Permalink
Post by Arno Welzel
systemd ist jetzt über 10 Jahre alt
und immer noch scheiße.
Post by Arno Welzel
und ich will nicht zurück zu SysV
Init, nur weil es "alt und gewohnt" ist.
Zurück? Ich bin da nie weg.

Hanno
--
The modern conservative is engaged in one of man's oldest exercises in
moral philosophy; that is, the search for a superior moral justification
for selfishness.
- John Kenneth Galbraith
Christian Corti
2020-12-14 15:48:53 UTC
Permalink
Post by Arno Welzel
systemd ist jetzt über 10 Jahre alt und ich will nicht zurück zu SysV
Init, nur weil es "alt und gewohnt" ist.
Ich sehe das so, systemd ist für reinen Serverbetrieb absolut
ungeeignet. Da reichen die einfachsten init-Skripte, und alle anderen an
systemd angeflanschten Dinge braucht man da nicht.

Christian

PS: Sorry, ich wollte mich ja nie über *hüstel* auslassen...
Arno Welzel
2020-12-21 18:39:16 UTC
Permalink
Post by Christian Corti
Post by Arno Welzel
systemd ist jetzt über 10 Jahre alt und ich will nicht zurück zu SysV
Init, nur weil es "alt und gewohnt" ist.
Ich sehe das so, systemd ist für reinen Serverbetrieb absolut
ungeeignet. Da reichen die einfachsten init-Skripte, und alle anderen an
systemd angeflanschten Dinge braucht man da nicht.
Mir reichen "einfachste init-Skripte" auf dem Server definitiv nicht.
--
Arno Welzel
https://arnowelzel.de
Guido Grohmann
2020-12-14 16:53:44 UTC
Permalink
Post by Arno Welzel
Post by Kay Martinen
Post by Gerrit Heitsch
Post by Kay Martinen
AFAIR hab ich damals gedacht linux würde da was neues bringen... und
dann kam systemd.... :-/
Und du hast was neues bekommen... Nur ob das besser ist als das alte,
gewohnte...?
Das eine war in den 90'rn und wie viele Monate gibt es das andere jetzt? :-)
systemd ist jetzt über 10 Jahre alt und ich will nicht zurück zu SysV
Init, nur weil es "alt und gewohnt" ist.
Upstart war deutlich flotter als systemd und kompatibel zu SysV.

Guido
Gerrit Heitsch
2020-12-14 17:03:44 UTC
Permalink
Post by Guido Grohmann
Post by Arno Welzel
Post by Kay Martinen
Post by Gerrit Heitsch
Post by Kay Martinen
AFAIR hab ich damals gedacht linux würde da was neues bringen... und
dann kam systemd.... :-/
Und du hast was neues bekommen... Nur ob das besser ist als das alte,
gewohnte...?
Das eine war in den 90'rn und wie viele Monate gibt es das andere jetzt? :-)
systemd ist jetzt über 10 Jahre alt und ich will nicht zurück zu SysV
Init, nur weil es "alt und gewohnt" ist.
Upstart war deutlich flotter als systemd und kompatibel zu SysV.
Upstart und systemd haben beide Probleme, nur unterschiedliche. Upstart
hat es hier hin und wieder nicht geschafft ein NFS share zu mounten.
Dafür hat Systemd beim Shutdown Probleme wenn man aus Versehen den
NFS-Server schon runtergefahren hat. Dann hängt die Kiste.

Gerrit
Arno Welzel
2020-12-21 18:40:00 UTC
Permalink
Post by Gerrit Heitsch
Post by Guido Grohmann
Post by Arno Welzel
Post by Kay Martinen
Post by Gerrit Heitsch
Post by Kay Martinen
AFAIR hab ich damals gedacht linux würde da was neues bringen... und
dann kam systemd.... :-/
Und du hast was neues bekommen... Nur ob das besser ist als das alte,
gewohnte...?
Das eine war in den 90'rn und wie viele Monate gibt es das andere jetzt? :-)
systemd ist jetzt über 10 Jahre alt und ich will nicht zurück zu SysV
Init, nur weil es "alt und gewohnt" ist.
Upstart war deutlich flotter als systemd und kompatibel zu SysV.
Upstart und systemd haben beide Probleme, nur unterschiedliche. Upstart
hat es hier hin und wieder nicht geschafft ein NFS share zu mounten.
Dafür hat Systemd beim Shutdown Probleme wenn man aus Versehen den
NFS-Server schon runtergefahren hat. Dann hängt die Kiste.
Kann ich nicht bestätigen.
--
Arno Welzel
https://arnowelzel.de
Gerrit Heitsch
2020-12-21 18:41:26 UTC
Permalink
Post by Arno Welzel
Post by Gerrit Heitsch
Post by Guido Grohmann
Post by Arno Welzel
Post by Kay Martinen
Post by Gerrit Heitsch
Post by Kay Martinen
AFAIR hab ich damals gedacht linux würde da was neues bringen... und
dann kam systemd.... :-/
Und du hast was neues bekommen... Nur ob das besser ist als das alte,
gewohnte...?
Das eine war in den 90'rn und wie viele Monate gibt es das andere jetzt? :-)
systemd ist jetzt über 10 Jahre alt und ich will nicht zurück zu SysV
Init, nur weil es "alt und gewohnt" ist.
Upstart war deutlich flotter als systemd und kompatibel zu SysV.
Upstart und systemd haben beide Probleme, nur unterschiedliche. Upstart
hat es hier hin und wieder nicht geschafft ein NFS share zu mounten.
Dafür hat Systemd beim Shutdown Probleme wenn man aus Versehen den
NFS-Server schon runtergefahren hat. Dann hängt die Kiste.
Kann ich nicht bestätigen.
Ich schon... Vielleicht fährt sie nach 20 min oder mehr dann endlich
runter, aber nicht vorher. Nur, solange will ich nicht warten.

Gerrit
Stefan Weimar
2020-12-21 20:59:23 UTC
Permalink
Moin,
Post by Arno Welzel
Post by Gerrit Heitsch
Upstart und systemd haben beide Probleme, nur unterschiedliche. Upstart
hat es hier hin und wieder nicht geschafft ein NFS share zu mounten.
Dafür hat Systemd beim Shutdown Probleme wenn man aus Versehen den
NFS-Server schon runtergefahren hat. Dann hängt die Kiste.
Kann ich nicht bestätigen.
Bei einem (Debian) Live-System aus dem Netz gestartet fährt der systemd
beim Shutdown regelmäßig das Netzwerk 'runter und wundert sich dann, daß
er anschließend den NFS-Server mit dem Root-FS nicht mehr erreichen
kann. Reproduzierbar. :-(

Viele Grüße
Stefan
--
make -it ./work
Andreas Kohlbach
2020-12-22 00:34:30 UTC
Permalink
Post by Stefan Weimar
Bei einem (Debian) Live-System aus dem Netz gestartet fährt der systemd
beim Shutdown regelmäßig das Netzwerk 'runter und wundert sich dann, daß
er anschließend den NFS-Server mit dem Root-FS nicht mehr erreichen
kann. Reproduzierbar. :-(
Ich hatte es bei einem Mandrake (oder war es schon Mandriva?) 2004, dass
Linux beim Shutdown reproduzierbar hing, wenn Windows 98, dessen
Dateisystem über SMB verbunden war, vorher heruntergefahren wurde. Meldet
sich wohl nicht ab. Wir haben dann Linux erst beendet. Windows selbst
hatte damit aber keine Probleme, und fuhr sofort herunter.

IIRC gab es nach dem Wechsel auf Windows 2000 keine Probleme mehr.
--
Andreas

PGP fingerprint 952B0A9F12C2FD6C9F7E68DAA9C2EA89D1A370E0
Ignatios Souvatzis
2020-12-14 17:39:28 UTC
Permalink
Post by Kay Martinen
Gibt es denn Programme die keinen Fehlercode zurückgeben?
Das originale IEFBR14 tat das nicht. Irgendwann haben Leute aber
angefangen, es wie ein normales Programm in der JCL zu benutzen,
so dass der undefinierte return code in Register 15 auffiel; und
so hat ein upgrade von IEFBR14 noch ein SR R15,R15 vor das BR 14
gesetzt, und damit seine Bruttogeschwindigkeit halbiert.

-is
Kay Martinen
2020-12-14 18:56:47 UTC
Permalink
Post by Ignatios Souvatzis
Post by Kay Martinen
Gibt es denn Programme die keinen Fehlercode zurückgeben?
Das originale IEFBR14 tat das nicht. Irgendwann haben Leute aber
angefangen, es wie ein normales Programm in der JCL zu benutzen,
so dass der undefinierte return code in Register 15 auffiel; und
so hat ein upgrade von IEFBR14 noch ein SR R15,R15 vor das BR 14
gesetzt, und damit seine Bruttogeschwindigkeit halbiert.
Lieferst du den Kontext-bezug noch nach oder hast du es auf einen
USER_DUMMIE-MODE:=ON angelegt?

Und wie hat sich das auf die Nettogeschwindigkeit ausgewirkt?

:-)

Ansonsten kann ich nur mit

COMMAND NOT FOUND
LANGUAGE NOT DETECTED
ILLEGAL OPCODE
REGISTER MISMATCH

und

STACK OVERFLOW in PlanHirn_2 (Generic Haluter-Error 1)

antworten. ;)

Kay
--
Posted via leafnode
Diedrich Ehlerding
2020-12-14 19:56:26 UTC
Permalink
Kay Martinen meinte:

[IEFBR14]
Post by Kay Martinen
Lieferst du den Kontext-bezug noch nach oder hast du es auf einen
USER_DUMMIE-MODE:=ON angelegt?
IEFBR14 ist/war funktional sehr ungefähr das, was in Tunixen heutztage
als /bin/true bekannt ist.

Damit du nicht dumm stirbst, und alle anderen Jungspunde hierzugruppe,
die nice auf Ächter™ Hardware™ gelernt haben, auch nicht: Opa erzählt
jetzt vom Krieg und erklärt die Details.

Dein Vorredner hat mal IBM Mainframes (S/3[679}0 z-Series) in
Maschinensprache programmiert. Sowas war in den 1960/1970er Jahren
durchaus üblich. "BR 14" ist in der dortigen Architektur die lowlevel-
Konvention für "return();" m.a.W. ein Maschinenbefehl zum Rücksprung aus
einem Programm ins rufende Programm (wenn das nach Standardkonventionen
aufgerufen wurde - muss man nicht so machen, aber es machen alle so)
bzw. zur Beendigung eines vom Betriebssystem gestarteten User-Programms.
Ein vorheriger Befehl in Maschinensprache "SR 15,15" löscht das Register
(subtrahiert seinen Inalt von sich selbst), das in dem der Returncode
per Konvention zurückrwartet wird, setzt also per Konvention den
Returncode 0; die zwei bBefehle "SR 16,15; BR 14" entsprechen also einem
"return(0);". Dadruch, dass dieses "Programm" (bestehend aus lediglich
4 Bytes Code) dann aber zwei statt einen Maschinenbefehl lang ist,
verdoppelt sich sein Zeitbedarf, bei den damaligen S/370-Maschinen also
von ca 0,1 µsec auf 0,2 µsec ...

Der Name "IEFBR14" bedeutet, dekodiert, "Utility von IBM" (alle
Utilities hießen IEFirgendwas), und "BR14" ist eben das, was es tut;
siehe oben.

Neinb, das ist kein dummer WWitz ... man sollte es nicht glauben, aber
ein solches "Programm", das nun wirklich /gar/ /nichts/ tut, wurde
(wird immer noch?) als Utlility von IBM ausgeliefert ... und frühe
Versionen hatten offenbar den Bug, dass kein konventionbsgerechter
Returncode geliefert wurde,

<https://www.ibm.com/support/knowledgecenter/zosbasics/com.ibm.zos.zdatamgmt/zsysprogc_utilities_IEFBR14.htm>
--
gpg-Key (DSA 1024) D36AD663E6DB91A4
fingerprint = 2983 4D54 E00B 8483 B5B8 C7D1 D36A D663 E6DB 91A4
HTML-Mail wird ungeleſen entſorgt.
Diedrich Ehlerding
2020-12-14 19:57:24 UTC
Permalink
Kay Martinen meinte:

[IEFBR14]
Post by Kay Martinen
Lieferst du den Kontext-bezug noch nach oder hast du es auf einen
USER_DUMMIE-MODE:=ON angelegt?
IEFBR14 ist/war funktional sehr ungefähr das, was in Tunixen heutztage
als /bin/true bekannt ist.

Damit du nicht dumm stirbst, und alle anderen Jungspunde hierzugruppe,
die nie auf Ächter™ Hardware™ gelernt haben, auch nicht: Opa erzählt
jetzt vom Krieg und erklärt die Details.

Dein Vorredner hat mal IBM Mainframes (S/3[679}0 z-Series) in
Maschinensprache programmiert. Sowas war in den 1960/1970er Jahren
durchaus üblich. "BR 14" ist in der dortigen Architektur die lowlevel-
Konvention für "return();" m.a.W. ein Maschinenbefehl zum Rücksprung aus
einem Programm ins rufende Programm (wenn das nach Standardkonventionen
aufgerufen wurde - muss man nicht so machen, aber es machen alle so)
bzw. zur Beendigung eines vom Betriebssystem gestarteten User-Programms.
Ein vorheriger Befehl in Maschinensprache "SR 15,15" löscht das Register
(subtrahiert seinen Inalt von sich selbst), das in dem der Returncode
per Konvention zurückrwartet wird, setzt also per Konvention den
Returncode 0; die zwei bBefehle "SR 16,15; BR 14" entsprechen also einem
"return(0);". Dadruch, dass dieses "Programm" (bestehend aus lediglich
4 Bytes Code) dann aber zwei statt einen Maschinenbefehl lang ist,
verdoppelt sich sein Zeitbedarf, bei den damaligen S/370-Maschinen also
von ca 0,1 µsec auf 0,2 µsec ...

Der Name "IEFBR14" bedeutet, dekodiert, "Utility von IBM" (alle
Utilities hießen IEFirgendwas), und "BR14" ist eben das, was es tut;
siehe oben.

Neinb, das ist kein dummer WWitz ... man sollte es nicht glauben, aber
ein solches "Programm", das nun wirklich /gar/ /nichts/ tut, wurde
(wird immer noch?) als Utlility von IBM ausgeliefert ... und frühe
Versionen hatten offenbar den Bug, dass kein konventionbsgerechter
Returncode geliefert wurde,

<https://www.ibm.com/support/knowledgecenter/zosbasics/com.ibm.zos.zdatamgmt/zsysprogc_utilities_IEFBR14.htm>
--
gpg-Key (DSA 1024) D36AD663E6DB91A4
fingerprint = 2983 4D54 E00B 8483 B5B8 C7D1 D36A D663 E6DB 91A4
HTML-Mail wird ungeleſen entſorgt.
Thomas Koenig
2020-12-14 23:22:54 UTC
Permalink
Post by Diedrich Ehlerding
Neinb, das ist kein dummer WWitz ... man sollte es nicht glauben, aber
ein solches "Programm", das nun wirklich /gar/ /nichts/ tut, wurde
(wird immer noch?) als Utlility von IBM ausgeliefert ... und frühe
Versionen hatten offenbar den Bug, dass kein konventionbsgerechter
Returncode geliefert wurde,
Natürlich braucht man so ein Programm. Wo soll man den sonst die
DD-Statements anhängen, wenn man mal eine Datei (verzeihung, ein
Dataset) katalogisieren oder löschen will?

Zur Erklärung: Die Job Control Language (JCL) von MVS ist so
ungefähr die Skriptsprache aus der Hölle. Ein Job besteht darin
aus mehreren Steps, in jedem Step wird über ein EXEC-Statement ein
Programm ausgeführt, und man definiert sich über DD-Statements
Dateien mit verschiedenen Eigenschaften wie z.B. Record-Größe
Dateityp, Blockgröße, ob eine Datei neu angelegt oder gelöscht
werden soll etc.

Und ja, da hat das UNIX-Kommando seinen Namen und seine Syntax her
(teilweise).

Naja, und da man DD-Statements nur als Teil von EXEC-Statements
haben kann, braucht man günstigerweise ein "tunix"-programm, und
das ist nun mal IEFBR14. Ich kenne aber gerade sonst kein Utility
mit IEF, viele gehen mit IEB... los, beispielsweise IEBGENER.
Diedrich Ehlerding
2020-12-15 08:04:35 UTC
Permalink
Post by Thomas Koenig
Naja, und da man DD-Statements nur als Teil von EXEC-Statements
haben kann, braucht man günstigerweise ein "tunix"-programm, und
das ist nun mal IEFBR14. Ich kenne aber gerade sonst kein Utility
mit IEF, viele gehen mit IEB... los, beispielsweise IEBGENER.
Mir fällt auch weiter keins ein; die allwissende Kristallgoogle weist
hin auf

<https://ibmmainframes.com/about232.html>
| In OS/360, the first letter was almost always "I", and the programs
| produced by the job management group (including IEFBR14) all used the
| prefix "IEF". Other common prefixes included "IEB" for data-set
| utility programs, "IEH" for system utility programs, and "IEW" for
| program-linkage and loading.

Ob es noch andere gab, weiß ich nicht (mehr).
--
gpg-Key (DSA 1024) D36AD663E6DB91A4
fingerprint = 2983 4D54 E00B 8483 B5B8 C7D1 D36A D663 E6DB 91A4
HTML-Mail wird ungeleſen entſorgt.
Ignatios Souvatzis
2020-12-15 09:24:58 UTC
Permalink
[...] IEFBR14. Ich kenne aber gerade sonst kein Utility
mit IEF, viele gehen mit IEB... los, beispielsweise IEBGENER.
Das sollen die Kuerzel der Arbeitsgruppe sein, die sie geschrieben hat,
also IEF bzw. IEB.

-is
--
A medium apple... weighs 182 grams, yields 95 kcal, and contains no
caffeine, thus making it unsuitable for sysadmins. - Brian Kantor
Kay Martinen
2020-12-15 17:20:04 UTC
Permalink
Post by Ignatios Souvatzis
[...] IEFBR14. Ich kenne aber gerade sonst kein Utility
mit IEF, viele gehen mit IEB... los, beispielsweise IEBGENER.
Das sollen die Kuerzel der Arbeitsgruppe sein, die sie geschrieben hat,
also IEF bzw. IEB.
Ich erinnere mich nur noch lebhafter an meine Versuche mit Autocad 10
etwas zu zeichnen, und den meistbenutzten Befehl (IMHO) /REGENALL
weil das ein schlaffer DOS PC ohne CoPro war dessen Grafik nach einer
weile nicht mehr mitkam. O.g. Befehl machte den Schirm frei und
zeichnete alles neu. Man konnte zusehen... :-)


Kay
--
Posted via leafnode
Hermann Riemann
2020-12-15 18:08:38 UTC
Permalink
Post by Kay Martinen
Ich erinnere mich nur noch lebhafter an meine Versuche mit Autocad 10
etwas zu zeichnen, und den meistbenutzten Befehl (IMHO) /REGENALL
weil das ein schlaffer DOS PC ohne CoPro war dessen Grafik nach einer
weile nicht mehr mitkam. O.g. Befehl machte den Schirm frei und
zeichnete alles neu. Man konnte zusehen... :-)
Zuschauen und warten?

Mein erster privater Versuch, Text auszugeben war auf einen Plotter.
Das war derart langsam, dass ich mir deswegen den ersten Drucker zulegte.

Auf einer Ausstellung sah ich einmal
wie langsam Buchstaben nach Buchstabe auf einem Bildschirm erschien.
Als Ursache wurde mir "vorschriftsmäßig programmiert" angegeben.

Altes mainframe Gefühl kam auf,
wenn man auf eimen PC den swap deaktivierte,
mit einem eigenen Programm ( malloc memset )
fast den ganzen Speicher beanspruchte
und dann den Editor vi verwendete.

Wenn ich heutzutage meine schnelle Maus
über USB-Hub oder KVM switch an raspberry pi <=3 anschließe,
weiß ich bei Maus Bewegung nicht, wo der Zeiger logisch ist.
Die Bewegung auf dem Bildschirm ist fast Zeitlupen Wiedergabe.

Hermann
der auch mal versucht hatte,
die Daten mit 2 Schalter ( Entprellung) bitweise einzugeben.
--
http://www.hermann-riemann.de
Kay Martinen
2020-12-15 19:14:34 UTC
Permalink
Post by Hermann Riemann
Post by Kay Martinen
etwas zu zeichnen, und den meistbenutzten Befehl (IMHO) /REGENALL
weil das ein schlaffer DOS PC ohne CoPro war dessen Grafik nach einer
weile nicht mehr mitkam. O.g. Befehl machte den Schirm frei und
zeichnete alles neu. Man konnte zusehen... :-)
Zuschauen und warten?
Sicher. Das war entweder ein 286-12 oder 386-25. Und für letzteren habe
ich später erst meinen ersten CoPro gekauft.
Post by Hermann Riemann
Mein erster privater Versuch, Text auszugeben war auf einen Plotter.
Das war derart langsam, dass ich mir deswegen den ersten Drucker zulegte.
COPY CON: PRN: hätte als Schreibmaschine gereicht - bei einem Drucker.
Beim Plotter vermutlich nicht. Aber obiges hab ich zu
Homecomputer-Zeiten mit BASIC auf meinem Riteman C+ schon gemacht - weil
ich dort keinen Text-Editor hatte.
Post by Hermann Riemann
Auf einer Ausstellung sah ich einmal
wie langsam Buchstaben nach Buchstabe auf einem Bildschirm erschien.
Als Ursache wurde mir "vorschriftsmäßig programmiert" angegeben.
Jaja, jeder Sprung ins BIOS kostete Zeit. Darum wurde früher gewiß mehr
ähem "Maschinen-nah" programmiert. Am lahmen BIOS vorbei.
Post by Hermann Riemann
Altes mainframe Gefühl kam auf,
wenn man auf eimen PC den swap deaktivierte,
mit einem eigenen Programm ( malloc memset )
fast den ganzen Speicher beanspruchte
und dann den Editor vi verwendete.
War das etwa ein frühes Linux? Windows kennt zwar Swap aber m.E. keinen
vi. Und DOS konnte garnicht swappen - außer im RAM. :)


Kay
--
Posted via leafnode
Hermann Riemann
2020-12-16 09:40:09 UTC
Permalink
Post by Kay Martinen
Sicher. Das war entweder ein 286-12 oder 386-25. Und für letzteren habe
ich später erst meinen ersten CoPro gekauft.
Post by Hermann Riemann
Mein erster privater Versuch, Text auszugeben war auf einen Plotter.
Das war derart langsam, dass ich mir deswegen den ersten Drucker zulegte.
COPY CON: PRN: hätte als Schreibmaschine gereicht - bei einem Drucker.
Beim Plotter vermutlich nicht. Aber obiges hab ich zu
Homecomputer-Zeiten mit BASIC auf meinem Riteman C+ schon gemacht - weil
ich dort keinen Text-Editor hatte.
Das mit dem Plotter war ein ECB85
https://de.wikipedia.org/wiki/ECB85
Die Verbindung erfolgte per hex codierter Maschinecode
über die parallel Schnittstelle.

Die Langsamkeit war auf dem Plotter,
wo die Wartezeit mechanisch bei der Bewegung des Kopfes lag.
Mit Schrittmotor wurde jeder "Pixel" angesteuert.
Post by Kay Martinen
Post by Hermann Riemann
Auf einer Ausstellung sah ich einmal
wie langsam Buchstaben nach Buchstabe auf einem Bildschirm erschien.
Als Ursache wurde mir "vorschriftsmäßig programmiert" angegeben.
Jaja, jeder Sprung ins BIOS kostete Zeit. Darum wurde früher gewiß mehr
ähem "Maschinen-nah" programmiert. Am lahmen BIOS vorbei.
Man kann Pixel über eine Menge an Unterprogrammen einzeln setzen,
oder byteweise 8 Pixel im Speicher bzw IO herumschieben.
Post by Kay Martinen
Post by Hermann Riemann
Altes mainframe Gefühl kam auf,
wenn man auf eimen PC den swap deaktivierte,
mit einem eigenen Programm ( malloc memset )
fast den ganzen Speicher beanspruchte
und dann den Editor vi verwendete.
War das etwa ein frühes Linux?
Ganz so früh war es nicht. Schon ein Linux mit grafischer Oberfläche.
Post by Kay Martinen
Windows kennt zwar Swap aber m.E. keinen vi.
Unter windows gab es früher ein .exe um damit teilweise Linux zu machen.
Post by Kay Martinen
Und DOS konnte garnicht swappen - außer im RAM. :)
Ja, die MMU konnte bis ca 16 MB Speicher
in den Bereich virtuell oberhalb 640k verlegen

Heutzutage frage ich mich,
ob eine CPU mit 16 MB cache für DOS ohne Hauptspeicher auskäme.

Commanche könnte ich damit nicht spielen.
Da hatte ich beim 486 Reaktionsprobleme,
weil die Vermutlich ihre Zeitsteuerung mittels Schleifen erledigte.
--
http://www.hermann-riemann.de
Ignatios Souvatzis
2020-12-15 09:35:17 UTC
Permalink
Post by Diedrich Ehlerding
[IEFBR14]
Post by Kay Martinen
Lieferst du den Kontext-bezug noch nach oder hast du es auf einen
USER_DUMMIE-MODE:=ON angelegt?
IEFBR14 ist/war funktional sehr ungefähr das, was in Tunixen heutztage
als /bin/true bekannt ist.
... und frühe
Versionen hatten offenbar den Bug, dass kein konventionbsgerechter
Returncode geliefert wurde,
[...]
Post by Diedrich Ehlerding
Dein Vorredner hat mal IBM Mainframes (S/3[679}0 z-Series) in
Maschinensprache programmiert.
Zuviel der Ehre (aber ich kannte jemanden, der das tat). PASCAL, FORTRAN,
PL/I, natuerlich JCL, und etwas REXX.
Post by Diedrich Ehlerding
(wird immer noch?) als Utlility von IBM ausgeliefert ...
Bestimmt immer noch. Sonst funktionieren doch 1/3 aller JCL-Skripte nicht.
JCL ist sehr mächtig, was Dateioperationen angeht, benötigt aber immer
ein auszuführendes Programm pro Jobstep. (/bin/sh hat dafür das ":" )

-is
Hermann Riemann
2020-12-15 10:26:08 UTC
Permalink
Post by Kay Martinen
Gibt es denn Programme die keinen Fehlercode zurückgeben? Ich denke mir
jedes tut das.
sudo rm -r / 2> /dev/null

Hermann
der das aus Sicherheitsgründen nicht ausprobieren mag.
--
http://www.hermann-riemann.de
Diedrich Ehlerding
2020-12-15 11:17:04 UTC
Permalink
Post by Hermann Riemann
Post by Kay Martinen
Gibt es denn Programme die keinen Fehlercode zurückgeben? Ich denke
mir jedes tut das.
sudo rm -r / 2> /dev/null
Hermann
der das aus Sicherheitsgründen nicht ausprobieren mag.
Oh, das wird schon einen returncopde liefern. Das Betrioebssystem, die
Shell, der Code von sudo und rm sind ja noch alle im memorycache, und
Files werden erst wirklich gelöscht, wenn der letzte Prozess sie
geschlossen hat.

"echo $?" wird also wohl noch gehen ... viel mehr abewr wohl nicht mehr.
--
gpg-Key (DSA 1024) D36AD663E6DB91A4
fingerprint = 2983 4D54 E00B 8483 B5B8 C7D1 D36A D663 E6DB 91A4
HTML-Mail wird ungeleſen entſorgt.
Hermann Riemann
2020-12-15 13:50:47 UTC
Permalink
Post by Hermann Riemann
Post by Kay Martinen
Gibt es denn Programme die keinen Fehlercode zurückgeben? Ich denke
mir jedes tut das.
sudo rm -r / 2> /dev/null
Hermann
der das aus Sicherheitsgründen nicht ausprobieren mag.
Oh, das wird schon einen returncopde liefern. Das Betriebssystem, die
Shell, der Code von sudo und rm sind ja noch alle im memorycache, und
Files werden erst wirklich gelöscht, wenn der letzte Prozess sie
geschlossen hat.
"echo $?" wird also wohl noch gehen ... viel mehr aber wohl nicht mehr.
; shutdown -h 0 anhängen?

Als Alternative bietet sich noch an mit parted alle partitions löschen.
Oder die / partition den Typ swap zuzuordnen.
..

Hermann
dem die SD-Karte von seimen raspberry pi
ungewollt neu aufgebaut wurde.
--
http://www.hermann-riemann.de
Thomas Orgelmacher
2020-12-19 11:20:24 UTC
Permalink
Post by Kay Martinen
IMHO warf der Atari ST dann auch Bomben um die Schwere des Fehlers zu
zeigen.
Die Art der Exception, nicht die Schwere.


Gruß, Thomas
--
I have seen things you lusers would not believe. I've seen Sun
monitors on fire off the side of the multimedia lab. I've seen
NTU lights glitter in the dark near the Mail Gate. All these
things will be lost in time, like the root partition last week.
Kay Martinen
2020-12-11 21:14:02 UTC
Permalink
Post by Dennis Grevenstein
Lustig finde ich diesen
"DEFEKT allein genügt NICHT als FEHLERANGABE" Spruch, ganz gross
an die Wand geschrieben. Das ist noch so ein Relikt aus der Zeit
als Männer noch echte Männer waren und user im Zweifel sowieso
In der heutigen Zeit wo man Waren ohne Angabe von Gründen retour
schicken kann, sicher. Aber im Handwerk; auch damals; war's doch nicht
anders wie heute. Der Kunde hat meist keine Ahnung von Elektro oder
Computer und kann lediglich feststellen das etwas nicht so funktioniert
wie es vorher funktionierte. Da bekommt man dann die Nutzlose
Information "Ist Defekt" und muß dann selbst raus finden ob nur die
Glühlampe durch brannte, ein Floppystecker losgewackelt ist oder (anfang
meiner Lehre) irgendein Witzbold das schaltwerk einer Waschmaschine ähhh
"kreativ neu verdrahten wollte" mit dem Ergebnis das nichts mehr ging.
später mit Version IV und Modula. In den frühen 1980er Jahren kamen
ziemlich viele Informatik-Anfänger in der Uni an ohne zuvor an einem
Rechner gesessen zu sein.
Gilt man heute schon als Computererfahren wenn man einen Quadcore mit X
GB RAM in der Hosentasche gassi führt?
Im Studentenwohnheim waren Computerbesitzer
extrem rar. Da gab's nicht mal auf jedem Flur überhaupt einen.
Das ist schon etwas schade und ein Effekt der Masse. Früher war man als
Computer-besitzer und -versteher schon irgendwie was besonderes. Ein
Nerd zwar, aber einer von Wenigen.

Obwohl ich glaube der Begriff Nerd kommt eher von den Typen die Neidisch
waren auf die die mit Computern um konnten - weil sie selbst es nicht
konnten.
Post by Dennis Grevenstein
Ich: "Drück mal auf den reset Knopf".
Er: zeigt auf den eject Knopf vom DVD-ROM: "Den da?".
Man "könnte" die Tasten umverdrahten...
Vielleicht wäre ein deutscher Begriff eingängiger gewesen? "Rücksetzen",
"Neustart" ;-)
Da würden mir noch andere Begriffe einfallen. Z.b. "Urstart-Initiator".

Und leider bekomme ich grad wieder Tränen in den Augen weil ich an den
B.A.f.H denke und die Geschichte mit dem Laptop-vertreter der im
Brustton der Überzeugung meinte das Gerät Bräuche keinen Reset-Taster
mehr weil Windows9x ja so sicher sei... und den Kollegen für unbestimmte
Zeit in den Zustand ROFL versetzte.
Wieso erwartest Du eigentlich von der jungen Generation, daß sie weiß,
was ein optisches Laufwerk ist?
Gab es eigentlich Apple Computer bei denen das bewegen des Laufwerkes
auf den Papierkorb.... den USB Stick physisch aus der Buchse wirft?

Ich bin (fast) wild entschlossen diese Idee mal zu realisieren -
irgendwann wenn mir langweilig ist.
Bei der Cloud gibt's keinen
Auswurfknopf. Du wirst alt ;-)
Doch doch. Er ist nur versteckt. In der Stromversorgung des RZ.

Es geht ALLES. Man muß nur WOLLEN! ;)

Hack Back ohne Heck Meck und schwupps ist der DoS feddisch.

Ich kenne ein OS das die Systembenutzer 'halt' und 'reboot' kennt. Und
beim Installieren deren Passworte setzen will. Ihr wißt was ein
'joe-account' ist? :-)

Kay
--
Posted via leafnode
Ignatios Souvatzis
2020-12-12 19:22:46 UTC
Permalink
Post by Kay Martinen
Da würden mir noch andere Begriffe einfallen. Z.b. "Urstart-Initiator".
Guck dir mal Eumel an.

-is
Ignatios Souvatzis
2020-12-12 19:21:15 UTC
Permalink
Post by Kay Martinen
Obwohl ich glaube der Begriff Nerd kommt eher von den Typen die Neidisch
waren auf die die mit Computern um konnten - weil sie selbst es nicht
konnten.
Nerd ist nur eine alternative Schreibung von Knurd, welches die
Inversion von Drunk ist - also einer der wenigen, die nicht ihre
ganze Freizeit besoffen verbringen. Stammt vermutlich aus der
US-College-Kultur, wo die Jüngelchen und Mädels erstmals nicht
unter der Aufsicht der Elternhäuser sind und alles ausprobieren,
was sie vorher nicht durften.

-is
Ralf Kiefer
2020-12-12 22:39:28 UTC
Permalink
Ach du meinst jetzt so Sachen wie in "American Pie" oder "Eis am Stiel".
Ich schaue mir gerade "The Graduate" an, dessen silberne Scheibe mir
vorhin zulief. Alles unter der Aufsicht von vielen Eltern :-)

Gruß, Ralf
Dennis Grevenstein
2020-12-11 21:29:11 UTC
Permalink
Ich hatte es hier schon mal gezeigt. Vor zwei jahren machte sich ein
Bekannter aus dem mittlerweile dort im Untergeschoß eingezogenen RZ auf
diesen Raum zu suchen. Er fand ihn nicht wesentlich verändert vor. Die
Apple II waren natürlich schon vor über 30Jahren abgebaut worden, aber
der Schriftzug war nicht mal vollständig deckend überpinselt worden.
Manches überdauert.
interessant. Da merkt man, dass Institutionen sich langsamer
bewegen als Individuen.
Bedenke die Zeit! Die Apple-II-Pool-Räume [1] waren während der ersten
Jahre für die Erst- und Zweitsemester Informatik, später auch für andere
Anfänger in Programmierkursen anfangs mit UCSD II.1 (Apple Pascal),
später mit Version IV und Modula. In den frühen 1980er Jahren kamen
ziemlich viele Informatik-Anfänger in der Uni an ohne zuvor an einem
Rechner gesessen zu sein. Im Studentenwohnheim waren Computerbesitzer
extrem rar. Da gab's nicht mal auf jedem Flur überhaupt einen.
Ich kann es mir vorstellen, aber es klingt auch ein bisschen wie
eine "eternal september" Legende, die möglicherweise im Detail
übertrieben ist.
Vielleicht wäre ein deutscher Begriff eingängiger gewesen? "Rücksetzen",
"Neustart" ;-)
Ich glaube das ist heute kaum noch ein Problem. Die Leute sprechen
relativ gut englisch.
Wieso erwartest Du eigentlich von der jungen Generation, daß sie weiß,
was ein optisches Laufwerk ist? Bei der Cloud gibt's keinen
Auswurfknopf.
In meiner Wahrnehmung sind die Scheiben noch ein aktuelles
Medium. Mir ist aber in der Situation dann auch der Gedanke
gekommen, dass das vielleicht zuviel verlangt war.
Du wirst alt ;-)
Das bestimmt.

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhäuser
gate. All those moments will be lost in time, like tears in rain."
Michael Welle
2020-12-12 08:17:22 UTC
Permalink
Hallo,
[...]
Post by Dennis Grevenstein
Vielleicht wäre ein deutscher Begriff eingängiger gewesen? "Rücksetzen",
"Neustart" ;-)
Ich glaube das ist heute kaum noch ein Problem. Die Leute sprechen
relativ gut englisch.
Wieso erwartest Du eigentlich von der jungen Generation, daß sie weiß,
was ein optisches Laufwerk ist? Bei der Cloud gibt's keinen
Auswurfknopf.
In meiner Wahrnehmung sind die Scheiben noch ein aktuelles
Medium. Mir ist aber in der Situation dann auch der Gedanke
gekommen, dass das vielleicht zuviel verlangt war.
letzten Monat bekam ich eine CD von einem Prof auf den Tisch. Der hatte
keine Moeglichkeit gefunden, die auszulesen. Das Laufwerk in meinem
Arbeitsplatz, vermutlich nie benutzt, machte Geraeusche, als wenn es
gleich die Spaene der Plastikzahnraeder rausblaest, hat sich aber doch
wacker geschlagen ;).

Die meiste verkaufte Hardware der letzten Jahre duerfte auch einen
Reset-Knopf mehr haben. Meine Studies tun sich oft ziemlich schwer, ihre
Geraete zu bedienen. 'Wo haben Sie denn ihre Loesung im Dateisystem
abgelegt? Navigieren Sie mal dahin.' fuehrt oft schon zum mentalen stack
overflow. Ich orakele mal, dass das den Mobiltelephon geschuldet ist.
Gibt natuerlich auch viele Ausnahmen. Insg. scheint aber weniger
Interesse an tieferen technischen Zusammenhaengen da zu sein, als zu
meiner Studienzeit.

VG
hmw
Ralf Kiefer
2020-12-12 22:39:27 UTC
Permalink
Post by Michael Welle
Insg. scheint aber weniger
Interesse an tieferen technischen Zusammenhaengen da zu sein, als zu
meiner Studienzeit.
Da käme zusätzlich noch eine weitere Vermutung ins Spiel: der IQ der
1990er-Generation war der vorläufige Höhepunkt der menschlichen
Entwicklung (hier in Europa). Seither geht's bergab.

Gruß, Ralf
Dennis Grevenstein
2020-12-13 02:46:02 UTC
Permalink
Post by Ralf Kiefer
Da käme zusätzlich noch eine weitere Vermutung ins Spiel: der IQ der
1990er-Generation war der vorläufige Höhepunkt der menschlichen
Entwicklung (hier in Europa). Seither geht's bergab.
Um hier fair zu sein, werden Trends wie der "reversed Flynn effect"
auf die Allgemeinbevölkerung bezogen und studentische samples sind
natürlich keine Allgemeinbevölkerung, sondern allgemein mit mehr
Intelligenz versorgt. Um einen schönen reversed Flynn effect signifikant
zu bekommen, muss man z.B. das Alter der Personen und die Art des
samples (studentisch vs. allgemein vs. mixed) statistisch kontrollieren,
sonst kommt da nichts brauchbares raus.

Reference:
Pietschnig, J., & Gittler, G. (2015). A reversal of the Flynn effect
for spatial perception in German-speaking countries: Evidence from a
cross-temporal IRT-based meta-analysis (1977–2014). Intelligence, 53,
145-153. http://dx.doi.org/10.1016/j.intell.2015.10.004

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhäuser
gate. All those moments will be lost in time, like tears in rain."
Ralf Kiefer
2020-12-13 14:43:21 UTC
Permalink
Post by Dennis Grevenstein
Um hier fair zu sein, werden Trends wie der "reversed Flynn effect"
auf die Allgemeinbevölkerung bezogen und studentische samples sind
natürlich keine Allgemeinbevölkerung, sondern allgemein mit mehr
Intelligenz versorgt.
Zum Thema Studenten bzw. Akademiker fallen mir ein paar Sachen ein:
- Der Anteil der Abiturienten an der Gesamtschülerzahl stieg ab den
frühen 1970er Jahren (das hing mit der Verräterpartei in Bonn zusammen,
AFAIR) kontinuierlich an. Der Anstieg dieses Anteils war allerdings
nicht durch die entsprechende IQ-Zunahme gedeckt.
- Die Anforderungen in den Abituraufgaben sanken kontinuierlich. Das
gilt natürlich nur für die Fächer, in denen eine Vergleichbarkeit
möglich ist, also tendentiell die heute MINT genannten. Konkret:
Mathe-Abituraufgaben der frühen 1970er waren selbst für Leistungskurs
Mathe um 1980 bereits ziemlich schwer. Die heutigen Abiturienten wären
dagegen nicht mal ansatzweise in der Lage das 1980er Abitur zu schaffen.
Und das liegt nicht nur an G8.
- Die Folge: Die Hochschulen beginnen heute mit Stoff, der vor 40Jahren
Bestandteil des (deutschen) Abiturs war.
- Studenten aus anderen Bildungssystemen absolvierten vor 40Jahren ein
oder zwei Vorsemester, damit nicht nur sprachlich alles klappte, sondern
auch das Niveau des deutschen Abitur erreicht wurde. Heute bräuchten
deutsche Abiturienten ebenso aus sprachlichen wie aus thematischen
Gründen solche Vorsemester. Also beginnen die Hochschulen auf anderem
Niveau. Und das zieht sich als Zeitverlust durch das gesamte Studium
durch. Über Bachelor/Master im Vergleich zu Diplom verliere ich besser
keine Worte, weil ich sonst vielleicht Sarrazin zitieren würde ...
- Heute studieren ungefähr 50% aller Schulabgänger AFAIK. Und das liegt
auch an der Verlagerung von Ausbildungsangeboten von der Industrie zum
Staat. Das spart der Industrie enorm Kosten und "sozialisiert" diese.
Das geht natürlich nur wg. ausreichend niederen Anforderungen.

Aus https://de.wikipedia.org/wiki/Flynn-Effekt ein paar markante Zitate:
"So sinke nach 10 Jahren Exposition mit Privatfernsehen der IQ um 1,8
Punkte." [1]
"Ein weiterer Faktor könne Immigration sein. So zeigen niederländische
Daten, dass Kinder von Immigranten schlechter bei Intelligenztests
abschneiden als ethnisch niederländische Kinder"
"2017 revidierte Flynn seine Aussagen und stellte ein Sinken des IQ in
vielen westlichen Ländern fest, nachdem er erneut Daten aus
verschiedenen Ländern gesammelt hatte. Er führte das auf das
"Verschwinden anspruchsvoller Bücher" zurück. Dieser Umstand wirke sich
negativ auf das logische Denken aus."

Der Herr Flynn könnte sich ggf. noch ein paar Gedanken zum heutigen
Einfluß von Facebook, Instagramm, Youtube [2] u.ä. machen.

Fazit: Ein Vergleich zwischen Gesamtbevölkerung und Akademikern ist über
die Zeit nicht trivial möglich. Der Abstand dürfte allerdings nicht mehr
sehr groß sein.
Post by Dennis Grevenstein
Um einen schönen reversed Flynn effect signifikant
zu bekommen, muss man z.B. das Alter der Personen und die Art des
samples (studentisch vs. allgemein vs. mixed) statistisch kontrollieren,
sonst kommt da nichts brauchbares raus.
ACK


Gruß, Ralf

[1] Der Unterschied zum haushaltszwangsabgabenfinanzierten Fernsehen
dürfte gering ausfallen, IMHO.
<www.ralf-kiefer.de/TEMP/Zeiten.JPG>
[2] Wenn ich mir z.B. den Youtube-Held "Rezo Lol Ey" anschaue und
bedenke, welchen Einfluß der mit seiner Darstellung sogar auf
Wahlergebnisse hat, wird's mir übel. Dabei meine ich ausdrücklich nicht
seine Ziele und Inhalte (denen ich teilweise ausdrücklich zustimme),
sondern die Form.
Dennis Grevenstein
2020-12-13 16:07:33 UTC
Permalink
Post by Ralf Kiefer
Über Bachelor/Master im Vergleich zu Diplom verliere ich besser
keine Worte, weil ich sonst vielleicht Sarrazin zitieren würde ...
An der Stelle kann ich Dich beruhigen. Wieder Pietschnig & Gittler (2015):

"Other potential reasons that have been cited for decreasing IQ test
scores such as changing population ability levels due to non-Western
immigration (e.g., Rindermann & Thompson, 2014) or dysgenic fertility
patterns (e.g., Lynn, 2011) do not seem suitable to contribute
substantially to our present findings. On the one hand, effects of
immigration on national IQ levels were observed not to be long-lasting
with performance gaps diminishing over time (te Nijenhuis, de Jong,
Evers, & van der Flier, 2004). On the other hand, both immigration
and dysgenic fertility effects have been shown to be too small to
provide substantial contributions for our present findings
(Meisenberg & Kaul, 2010; Rindermann & Thompson, 2014)."

auch schön:
Bratsberg, B., & Rogeberg, O. (2018). Flynn effect and its reversal
are both environmentally caused. Proceedings of the National Academy of
Sciences, 115(26), 6674-6678. https://dx.doi.org/10.1073%2Fpnas.1718793115

zu lesen hier:
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6042097/

"we show that the increase, turning point, and decline of the Flynn
effect can be recovered from within-family variation in intelligence
scores. This establishes that the large changes in average cohort
intelligence reflect environmental factors and not changing composition
of parents, which in turn rules out several prominent hypotheses for
retrograde Flynn effects."

Ich bin natürlich jetzt kein Experte für Intelligenz. Um da jetzt
ernsthaft eine Aussage zu treffen, müsste man sich schon einlesen.
Aber dass sowas eine brauchbare Erklärung für eine wahrgenommene
Unfähigkeit mit Computern umzugehen ist, das fällt mir doch schwer
zu glauben.

Ich glaube mittlerweile haben Computer einfach die besondere
Magie verloren und sind vom weltverändernden Stück high-tech
zum Alltagsgegenstand geworden: mehr wie ein Toaster oder ein
Kühlschrank. Da liest auch keiner eine Betriebsanleitung. Wir
erwarten einfach, dass es funktioniert ohne die Details zu
kennen. Als mein Toaster neu war, ging der nach 3 Wochen kaputt.
Dann wollte ich ihn umtauschen und die haben das repariert.
Auf dem Reparaturzettel stand: "neue controller Platine und
firmware update". Ich habe mich nicht schuldig gefühlt, weil
ich meinen Toaster nicht selbst debuggen und das Problem
technisch korrekt eingrenzen konnte.

gruss,
Dennis
--
"I've seen things you people wouldn't believe. Attack ships on fire off the
shoulder of Orion. I watched C-beams glitter in the dark near the Tannhäuser
gate. All those moments will be lost in time, like tears in rain."
Arno Welzel
2020-12-14 15:40:02 UTC
Permalink
Michael Welle:

[...]
Post by Michael Welle
Die meiste verkaufte Hardware der letzten Jahre duerfte auch einen
s/einen/keinen
Post by Michael Welle
Reset-Knopf mehr haben. Meine Studies tun sich oft ziemlich schwer, ihre
Geraete zu bedienen. 'Wo haben Sie denn ihre Loesung im Dateisystem
abgelegt? Navigieren Sie mal dahin.' fuehrt oft schon zum mentalen stack
overflow. Ich orakele mal, dass das den Mobiltelephon geschuldet ist.
Gibt natuerlich auch viele Ausnahmen. Insg. scheint aber weniger
Interesse an tieferen technischen Zusammenhaengen da zu sein, als zu
meiner Studienzeit.
Ja, weil die Endgeräte sowas meist auch nicht mehr erfordern. Dokumente
speichert man halt, ohne nachzudenken, wo das dann genau im Dateisystem
ist. Dafür hat man ja einen Dateimanager, der das standardmäßig anzeigt.
Aber diese Entwicklung hat schon vor über 30 Jahren angefangen mit dem
mac und später Windows 95, 2000 und XP. Heute siehst selbst eine gängige
Linux-Distribution in der GUI so aus, dass man nicht unbedingt wissen
muss, wo genau Dateien liegen.
--
Arno Welzel
https://arnowelzel.de
Hermann Riemann
2020-12-14 17:17:43 UTC
Permalink
Post by Arno Welzel
[...]
Post by Michael Welle
Die meiste verkaufte Hardware der letzten Jahre duerfte auch einen
s/einen/keinen
Post by Michael Welle
Reset-Knopf mehr haben. Meine Studies tun sich oft ziemlich schwer, ihre
Geraete zu bedienen. 'Wo haben Sie denn ihre Loesung im Dateisystem
abgelegt? Navigieren Sie mal dahin.' fuehrt oft schon zum mentalen stack
overflow. Ich orakele mal, dass das den Mobiltelephon geschuldet ist.
Gibt natuerlich auch viele Ausnahmen. Insg. scheint aber weniger
Interesse an tieferen technischen Zusammenhaengen da zu sein, als zu
meiner Studienzeit.
Ja, weil die Endgeräte sowas meist auch nicht mehr erfordern. Dokumente
speichert man halt, ohne nachzudenken, wo das dann genau im Dateisystem
ist. Dafür hat man ja einen Dateimanager, der das standardmäßig anzeigt.
Aber diese Entwicklung hat schon vor über 30 Jahren angefangen mit dem
mac und später Windows 95, 2000 und XP. Heute siehst selbst eine gängige
Linux-Distribution in der GUI so aus, dass man nicht unbedingt wissen
muss, wo genau Dateien liegen.
Ein Frage der Genauigkeit.
Die Zuordnung Dateiinhalt zu Block Spur etc auf Festplatte
war für Anwender vielleicht zu IBM Zeiten relevant.

Vermutlich meinst Du sofwaremäßig bezüglich Verzeichnis ( bzw. Ordner
je nach browser )

In windows gab es so etwas wie "eigene Dateien" in Linux $HOME

Hermann
der damals andere Vorstellungen von "eigen" hatte und stattdessen
:D verwendete
und sich heutzutage im (Müllplatz?) $HOME nicht zu hause fühlt,
und daher eine partition der Aŕt /hd/ich verwendet
( / liegt auf SSD "Platte" )
--
http://www.hermann-riemann.de
Kay Martinen
2020-12-14 18:04:23 UTC
Permalink
Post by Arno Welzel
Post by Michael Welle
Reset-Knopf mehr haben. Meine Studies tun sich oft ziemlich schwer, ihre
Geraete zu bedienen. 'Wo haben Sie denn ihre Loesung im Dateisystem
abgelegt? Navigieren Sie mal dahin.' fuehrt oft schon zum mentalen stack
overflow. Ich orakele mal, dass das den Mobiltelephon geschuldet ist.
S.u.
Post by Arno Welzel
Post by Michael Welle
Gibt natuerlich auch viele Ausnahmen. Insg. scheint aber weniger
Interesse an tieferen technischen Zusammenhaengen da zu sein, als zu
meiner Studienzeit.
Dem stimme ich zu. Bei anderen sehe ich es deutlicher - als bei mir
selbst. Aber ich bemerke gelegentlich das ich auch nicht mehr sofort in
die Tiefe gehe wenn etwas nicht funktioniert. Meist ist es auch wirklich
einfacher der Suchmaschine des geringsten Mißtrauens ein paar
Stichwort-brocken vor zu werfen und bekommt; leider nicht immer;
ein-von-mehreren best practice lösungen. Eine veraltete, eine für's
aktuelle und eine für ein "so soll das in zukunft" sein - wenn diese
denn je eintritt!

In die Tiefe gehen und selbst suchen ist da dann oft nur noch notwendig
wenn das GoogleFu versagt oder das Problem zu abwegig ist. Und auch dann
schlägt erst mal oft die Faulheit zu. Wenn es kein Totaler DoS war...
Post by Arno Welzel
Ja, weil die Endgeräte sowas meist auch nicht mehr erfordern. Dokumente
speichert man halt, ohne nachzudenken, wo das dann genau im Dateisystem
ist. Dafür hat man ja einen Dateimanager, der das standardmäßig anzeigt.
Das ist es nicht allein. Die UI bildet das Dateisystem nicht wirklich
ab, es wird dann IMHO als "Flach" empfunden obwohl es das nicht ist.

Ich denke da an die Unterschiede zwischen Win9x, Win XP und Win 7

Da bin nicht nur ich gelegentlich mal im Falschen Ordner gelandet und
deren Virtualisierung, Lokalisierung und die "Bibliotheken" tun ihr übriges.
Post by Arno Welzel
Aber diese Entwicklung hat schon vor über 30 Jahren angefangen mit dem
mac und später Windows 95, 2000 und XP. Heute siehst selbst eine gängige
Linux-Distribution in der GUI so aus, dass man nicht unbedingt wissen
muss, wo genau Dateien liegen.
Aber bei einem Linux hast du immerhin konkretere Anhaltspunkte wo etwas
zu finden ist. Userdateien z.b. generell unter /home/<username> und
Programme unter /usr logs unter /var/log u.s.w. auch mit mehr detail.
Aber eine Vorabeinstellung; wie beim Schlaufon; das Bild-programme
direkt und NUR Bilder unter /home/user/Bilder zeigen u.s.w. erkenne ich
nicht.

Ich hab derartiges früher mal unter Windows versucht, programme unter
\bin zu installieren aber manche machen das einfach nicht mit oder
erlaubten es nicht. Gleiches mit logs denn etliche schreiben nichts in
logs. Und d:\home ist zwar ganz nett aber wenn man das nicht konkret mit
den mitteln des OS und FÜR ALLES umbiegen kann dann zerfleddert es die
eigenen Dateien eher noch mehr.

Man geht also den Weg des Geringsten Wiederstandes und läßt es so wie's
ist auch um der Altersfaulheit zu schmeicheln. :-)

Da kann man den jüngeren kaum vorwerfen das sie das; zumeist eh
verdeckte; dateisystem ihrer Schlaufone nicht kennen. Wie auch. Das ist
ja nicht gewollt (IMO) und security by obscurity.

Und nicht zuletzt gibt es für Computer-Dummies ja tools wie "Visible
Filesystem" (sehr schön zu sehen in "Jurassic Park"). Ein deratiges Tool
hab ich irgendwo mal gefunden, spaßeshalber installiert und fand es
schon lustig. Für 5 minuten. Und bin dann wieder zum 'mc' oder einem 'ls
al' oder 'cd ../irgendwas [TAB...] zurück gegangen. ;)

Kay
--
Posted via leafnode
Arno Welzel
2020-12-21 18:43:14 UTC
Permalink
Kay Martinen:

[...]
Post by Kay Martinen
Da kann man den jüngeren kaum vorwerfen das sie das; zumeist eh
verdeckte; dateisystem ihrer Schlaufone nicht kennen. Wie auch. Das ist
ja nicht gewollt (IMO) und security by obscurity.
Aus Sicht von Anwendungen haben Schlaufone kein Dateisystem. Direkter
Zugriff auf das Dateisystem ist aus Sicherheitsgründen in der Regel
schlicht nicht vorgesehen.

(Ja, ich programmiere selber Anwendungen für Android)
--
Arno Welzel
https://arnowelzel.de
Kay Martinen
2020-12-21 20:59:55 UTC
Permalink
Post by Arno Welzel
[...]
Post by Kay Martinen
Da kann man den jüngeren kaum vorwerfen das sie das; zumeist eh
verdeckte; dateisystem ihrer Schlaufone nicht kennen. Wie auch. Das ist
ja nicht gewollt (IMO) und security by obscurity.
Aus Sicht von Anwendungen haben Schlaufone kein Dateisystem. Direkter
Das meinte ich doch, ist wie ein Flat-Memory-Modell nur auf Dateisystem.
Anders gesagt: Ein Verzeichnis für alles und begrenzte Sichtweisen der
Apps oder jede Apptyp hat sein Verzeichnis und sieht darum die anderen
nicht. Kommt auf's gleiche raus.
Post by Arno Welzel
Zugriff auf das Dateisystem ist aus Sicherheitsgründen in der Regel
schlicht nicht vorgesehen.
Security by Obscurity. "Unter" diesen Datenverzeichnissen liegt dann
doch sicher eine Cloudschicht die alles dorthin wegsynchronisiert. Und
wenn sie geknackt wird... ?


Kay
--
Posted via leafnode
Arno Welzel
2020-12-11 07:51:28 UTC
Permalink
Post by olaf
http://youtu.be/H05hM_Guoqk
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit bin
ich wohl schonmal der Oberlooser, seufz.
Bei mir ging es mit dem VC20 los, später Atari 800XL, dann Atari 130XE
und Atari 1040STe mit SM125, externer SCSI-Platte und HP Deskjet 500.
Danach kamen PCs.
--
Arno Welzel
https://arnowelzel.de
Hermann Riemann
2020-12-11 10:19:51 UTC
Permalink
Post by Arno Welzel
Bei mir ging es mit dem VC20 los,
Bei mir begann 1975 die home computer Aktivitäten
mit dem "Nachbau" Beginn von computer 74 von elektor.
Eigene Vorstellungen ..
Etliche TTL ICs habe ich noch.

8-bit Fertigcomputer im Gehäusewaren mir bis auf ZX81 zu teuer,
zu unpraktisch.
8-Bit Rechner (außer ZX81) habe ich noch selber über hex Tastatur
programmiert. Bis auf die ersten beiden sogar noch das Betriebssystem.
Post by Arno Welzel
später Atari 800XL, dann Atari 130XE
und Atari 1040STe mit SM125,
Die Selbstbauphase endete mit Atari ST-Serie
ST+ STM und STE
Post by Arno Welzel
externer SCSI-Platte
Erst die Atari 10 MB Festplatte
später 40 MM Syquest Wechselplatte
Post by Arno Welzel
und HP Deskjet 500.
Zu 8 Bit und Atari Zeiten hatte ich Nadeldrucker.
Epson TX80 dann Schinwa CP80, dann NEC CP6
Post by Arno Welzel
Danach kamen PCs.
Erst 286 PCs, die ich als Prozessrechner für Atari ST verwenden wollte,
praktisch aber nur für computer Spiele verwendete.

Atari nach AMD 386 PCs 40? Mhz war die große Wende.
8 dann 16 MB RAM ( IBM fordete gleichartige Speicher)
80 MB Syquest Wechselplatte,
Tseng Grafikkarte wegen hoher Auflösung
Mit 3 belegten Platten,
eine für DOS ( vielleicht auch noch eine windows 3.11)
eine für OS/2
eine für Linux 0.99*

Der bei Atari ST zuletzt verwendete Monitor
NEC Multisync 3D tat dann erstmal bei den PCs ihren Dienst.

..

Hermann
nicht sicher, ob auch andere derartige
Erinnerungen haben.
--
http://www.hermann-riemann.de
Arno Welzel
2020-12-14 15:48:14 UTC
Permalink
Post by Hermann Riemann
Post by Arno Welzel
Bei mir ging es mit dem VC20 los,
Bei mir begann 1975 die home computer Aktivitäten
mit dem "Nachbau" Beginn von computer 74 von elektor.
1975 war ich erst 6 Jahre alt.

Aber ab Anfang der 1980er habe ich bereits eifrig Schaltungen gelötet
und auchmit TTL und I/O-Bausteinen experimentiert. Für die 8-Bit-Ataris
hatte ich sogar einen 4-Bit-D/A-Wandler inkl. Treiber gebaut, so dass
man per BASIC Klänge über ein virtuelles Gerät digitalsiieren und
abspielen konnte. Ich war erstaunt, wie komplex das Betriebssystem bei
den 8-Bit-Ataris damals schon war.

[...]
Post by Hermann Riemann
Post by Arno Welzel
Danach kamen PCs.
Erst 286 PCs, die ich als Prozessrechner für Atari ST verwenden wollte,
praktisch aber nur für computer Spiele verwendete.
Mein erster PC war gleich ein Pentium 75. Alles darunter fand ich im
Vergleich zum Atari STe das Geld nicht wert. Segmentierter Speicher
statt 32-Bit-Adressraum, nur DOS und Windows 3.1 und Linux damals auch
noch sehr rudimentär.

Der Atari lebt heute noch und auch die von mir dafür entwickelte
Desktop-Umgebung gibt es nicht ;-)

<https://arnowelzel.de/vintage-computing-festival-berlin-2016>

<https://github.com/arnowelzel/thing>
--
Arno Welzel
https://arnowelzel.de
Peter Heitzer
2020-12-11 08:13:27 UTC
Permalink
Post by olaf
http://youtu.be/H05hM_Guoqk
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit bin
ich wohl schonmal der Oberlooser, seufz.
Der Oric-1 ist leider nicht im Vergleich, dürfte aber in der Geschwindigkeit
dem VC20 ähnlich sein.
--
Dipl.-Inform(FH) Peter Heitzer, ***@rz.uni-regensburg.de
Frank Hucklenbroich
2020-12-11 09:44:45 UTC
Permalink
Post by olaf
http://youtu.be/H05hM_Guoqk
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit bin
ich wohl schonmal der Oberlooser, seufz.
Den TI99/4A hatte ich auch! Feines Gerät!

Grüße,

Frank
olaf
2020-12-11 09:57:50 UTC
Permalink
Post by Frank Hucklenbroich
Den TI99/4A hatte ich auch! Feines Gerät!
Ja, die Tastatur. Und wir koennen damit angeben mit 16Bit
angefangen zu haben. :)

Aber er erklaert in einem seiner Videos den Innenaufbau. Das Teil ist
einfach nur absurd zusammengeschustert. Deshalb war der auch so lahm.

Und ich weiss noch das ich damals irgendwas externes anschliessen
wollte (Floppy?). Dafuer brauchte man dann eine Erweiterungskiste die
auch schon 1kDM kosten sollte. (ohne Floppy) Ne, das Teil war einfach
nur krank.

Die Gummitastatur des ZX war natuerlich viel schlechter. Aber das
Konzept das man nur eine Taste fuer einen Befehl druecken musste hat
viel wieder wett gemacht.

Olaf
Gerrit Heitsch
2020-12-11 10:04:10 UTC
Permalink
Post by olaf
Post by Frank Hucklenbroich
Den TI99/4A hatte ich auch! Feines Gerät!
Ja, die Tastatur. Und wir koennen damit angeben mit 16Bit
angefangen zu haben. :)
Aber er erklaert in einem seiner Videos den Innenaufbau. Das Teil ist
einfach nur absurd zusammengeschustert. Deshalb war der auch so lahm.
Ja, der BASIC-Interpreter war selbst interpretiert, die CPU hatte nur
256 Bytes direkt erreichbares RAM und der Zugriff auf das RAM des
Videocontrollers musste durch diesen erfolgen.

Gerrit
Ralf Kiefer
2020-12-11 11:22:34 UTC
Permalink
Post by olaf
Aber das
Konzept das man nur eine Taste fuer einen Befehl druecken musste hat
viel wieder wett gemacht.
AFAIR hatte das auch schon viel früher der Commodore PET. Meine schwache
Erinnerung an den sagt mir, daß man die BASIC-Tokens sozusagen direkt
eintippen konnte.

Gruß, Ralf
Gerrit Heitsch
2020-12-11 12:00:28 UTC
Permalink
Post by Ralf Kiefer
Post by olaf
Aber das
Konzept das man nur eine Taste fuer einen Befehl druecken musste hat
viel wieder wett gemacht.
AFAIR hatte das auch schon viel früher der Commodore PET. Meine schwache
Erinnerung an den sagt mir, daß man die BASIC-Tokens sozusagen direkt
eintippen konnte.
Nein... Aber du konntest Befehle abkürzen... PRINT war '?', LOAD war L +
SHIFT-O.

Gerrit
Frank Hucklenbroich
2020-12-11 12:27:57 UTC
Permalink
Post by olaf
Post by Frank Hucklenbroich
Den TI99/4A hatte ich auch! Feines Gerät!
Ja, die Tastatur. Und wir koennen damit angeben mit 16Bit
angefangen zu haben. :)
Aber er erklaert in einem seiner Videos den Innenaufbau. Das Teil ist
einfach nur absurd zusammengeschustert. Deshalb war der auch so lahm.
Und ich weiss noch das ich damals irgendwas externes anschliessen
wollte (Floppy?). Dafuer brauchte man dann eine Erweiterungskiste die
auch schon 1kDM kosten sollte.
Ja, so eine silberne Kiste war das. Extension Unit hieß die glaube ich.
Hatte ich aber auch nicht, war mir viel zu teuer.

Nicht zu verwechseln mit dem Extended-Basic-Modul, das seinerzeit auch
satte 300 DM gekostet hat. Dann gab es noch einen Speech-Synthesizer, der
seitlich angesteckt wurde, dann konnte das Ding sogar sprechen (ich glaube
dafür brauchte man aber zwingend das teure Extended-Basic-Modul, um den
anzusteuern).
Es gab auch mindestens ein Spiel, das mit dem Speech-Synthesizer arbeitete,
wo man mit so einem Raumschiff herumflog. Da gab es dann Befehle von der
Roboterstimme, das war schon immens cool damals und Jahre bevor der C-64
sowas konnte (kennt noch jemand BeachHead 2, wo die abgeschossenen Soldaten
immer so grausig geschrieen haben? Und natürlich das "böse" Wolfenstein2).

Grüße,

Frank
Gerrit Heitsch
2020-12-11 10:02:49 UTC
Permalink
Post by Frank Hucklenbroich
Post by olaf
http://youtu.be/H05hM_Guoqk
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit bin
ich wohl schonmal der Oberlooser, seufz.
Den TI99/4A hatte ich auch! Feines Gerät!
Ja, aber nur wenn man nicht genauer hinschaut. Die Archtitektur war doch
etwas sehr merkwürdig.

Gerrit
Rainer Knaepper
2020-12-11 10:29:00 UTC
Permalink
Post by olaf
http://youtu.be/H05hM_Guoqk
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit
bin ich wohl schonmal der Oberlooser, seufz.
Den Benchmark würde ich gern auf dem ZX81 im "slow"-Modus sehen, also
mit Bildschirmausgabe. Ich würde was mit 5 Minuten raten ;-)

Ich habe meine ersten Schritte auf einem CBM8032 getan, einen eigenen
Rechner konnte ich mir sehr lange nicht leisten.

Nach einem abgelegten ZX81 und einem geliehenen C64 (allererste
Version) kam ein +4 aus diesem Aldi-Abverkauf ins Haus.

Da mit dem nicht viel los war, was Spiele anging, ist der neben dem
Gebrauch als Schreibmaschine (ja, mit ÜMLÄUTEN auf dem star NL10!)
ziemlich bald Basis für Elektronik-Kram geworden, u.a. hatte ich eine
Schrittmotosteuerung drangestrickt, A/D-wandler, ne Lichtsteuerung, so
Bastelkram halt. Weil Basic mit peeks und pokes für Steuerungen nicht
so der Renner ist, kam ich da ziemlich schnell auf Assembler.

Ein einfaches Spiel in Basic habe ich auch dafür geschrieben und bei
einem Wettbewerb damit einen Trostpreis gewonnen. Das ist latürnich
nie irgendwo veröffentlicht worden (war auch eher schlecht gemacht),
aber die grundlegende Spielidee fand ich Jahre später in einem
kommerziellen Produkt wieder. (was mit Umweltschutz, saurem Regen und
Wald retten oder so)

Danach war die Spielcomputerzeit vorbei, es kam ein selbstgebauter
286/16 ins Haus, mi Hercules-Grafik und paperwhite Bildschirm. Wieder
(fast) nix mit Spielen ;-)

Den "Benchmark" aus dem Video habe ich vorhin mal auf einen arduino
UNO R3 geworfen, mit Ausgabe auf so ein LCD über I2C
(LiquidCrystal_I2C.h). Zwischen der Ausgabe der Punkteihe in der
Schleife und der direkten Ausgabe eines strings ".........." ist kaum
ein Zeitunterschied zu sehen (allerdings meßbar). Ich muß die innere
schleife schon bis 10.000 zählen lassen, um eine gut sichtbare
Verzögerung zu erhalten ;-)

Ok, da ist latürnich kein Interpreter im Weg.

Rainer
--
Von "guter Musik" sind doch diese ganzen zusammengecasteten
Jammercombos meilenweit entfernt. Das ging mit den "No Angels" los
und ist seitdem noch viel schlimmer geworden.
(Frank Adam in de.rec.musik.rock+pop)
Michael Noe
2020-12-13 13:23:57 UTC
Permalink
Post by olaf
http://youtu.be/H05hM_Guoqk
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit bin
ich wohl schonmal der Oberlooser, seufz.
Oha, da besitze ich ja die Computer-Rakete schlechthin: einen Amstrad
CPC 464, Optik very British. :-)

War schon damals bekannt für seinen sehr flotten BASIC-Interpreter von
Locomotive Software, zudem weit mächtiger als das damals auf vielen
8-Bit-Rechnern verbreitete Microsoft BASIC, gerade bezüglich
Grafik/Sound/Massenspeicher.

Was habe ich auf dem Geräte extrem viel programmiert. :-)

Wie es der Zufall will, ist meine neueste Hardwareanschaffung dafür
gestern eingetroffen:
<https://www.sellmyretro.com/offer/details/36061>

Werde ich im Weihnachtsurlaub ausführlich testen. Samt Pinball Dreams:



Man beachte das Scrolling auf einem Rechner ohne Hardware-Scrolling. ;-)
--
Gruß

Michael
Gerrit Heitsch
2020-12-13 13:26:28 UTC
Permalink
Post by Michael Noe
Post by olaf
http://youtu.be/H05hM_Guoqk
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit bin
ich wohl schonmal der Oberlooser, seufz.
Oha, da besitze ich ja die Computer-Rakete schlechthin: einen Amstrad
CPC 464, Optik very British. :-)
War schon damals bekannt für seinen sehr flotten BASIC-Interpreter von
Locomotive Software, zudem weit mächtiger als das damals auf vielen
8-Bit-Rechnern verbreitete Microsoft BASIC, gerade bezüglich
Grafik/Sound/Massenspeicher.
Ja, aber einen hirntoten Editor. Während ich schon Jahre vorher den
Bildschirmeditor beim Commodore PET gewöhnt war kam der CPC mit einem
Zeileneditor.

Machte ihn für mich unbrauchbar.

Gerrit
Michael Noe
2020-12-13 14:19:15 UTC
Permalink
Post by Gerrit Heitsch
Post by Michael Noe
Oha, da besitze ich ja die Computer-Rakete schlechthin: einen Amstrad
CPC 464, Optik very British. :-)
War schon damals bekannt für seinen sehr flotten BASIC-Interpreter von
Locomotive Software, zudem weit mächtiger als das damals auf vielen
8-Bit-Rechnern verbreitete Microsoft BASIC, gerade bezüglich
Grafik/Sound/Massenspeicher.
Ja, aber einen hirntoten Editor. Während ich schon Jahre vorher den
Bildschirmeditor beim Commodore PET gewöhnt war kam der CPC mit einem
Zeileneditor.
Machte ihn für mich unbrauchbar.
Ist halt eben ein Zeileneditor. ;-)

Aber wenn mal gewohnt, war der trotzdem nicht schlecht. Man hat halt in
der entsprechenden Zeile nicht mit den Cursor-Tasten, sondern samt der
Copy-Taste navigiert, um diese zu editieren. Zeitlich eigentlich kaum
ein Unterschied.

So richtig hirntot war etwa das (Microsoft) BASIC 2.0 für den Commodore
64. Ohne Peeks/Pokes eigentlich so gut wie überhaupt nicht sinnvoll zu
benutzen, dazu noch recht langsam. Von arg simplen Programmen vielleicht
mal abgesehen.

Dazu war auf dem CPC unter BASIC sogar mehr RAM frei als auf dem C64,
trotz weit mächtigerem Befehlsumfang.

Ich mag den C64, aber ganz sicher nicht wegen dessen BASIC, was
eigentlich mit dessen größte Schwachstelle war, bereits der Floppy-
Zugriff war ein Witz und wirkte schon arg drangebastelt. Vermutlich war
das BASIC des PET auch nicht besser oder gleich primitiv, oder?

Schlimm war aber auch das Microsoft BASIC für AmigaOS 1.x. Teils sehr
gute Ansätze, aber arg langsam und halt nur mit AmigaOS < 2 kompatibel.
--
Gruß

Michael
Gerrit Heitsch
2020-12-13 14:47:41 UTC
Permalink
Post by Michael Noe
Post by Gerrit Heitsch
Post by Michael Noe
Oha, da besitze ich ja die Computer-Rakete schlechthin: einen Amstrad
CPC 464, Optik very British. :-)
War schon damals bekannt für seinen sehr flotten BASIC-Interpreter von
Locomotive Software, zudem weit mächtiger als das damals auf vielen
8-Bit-Rechnern verbreitete Microsoft BASIC, gerade bezüglich
Grafik/Sound/Massenspeicher.
Ja, aber einen hirntoten Editor. Während ich schon Jahre vorher den
Bildschirmeditor beim Commodore PET gewöhnt war kam der CPC mit einem
Zeileneditor.
Machte ihn für mich unbrauchbar.
Ist halt eben ein Zeileneditor. ;-)
Aber wenn mal gewohnt, war der trotzdem nicht schlecht. Man hat halt in
der entsprechenden Zeile nicht mit den Cursor-Tasten, sondern samt der
Copy-Taste navigiert, um diese zu editieren. Zeitlich eigentlich kaum
ein Unterschied.
Doch, schon, vor allem wenn man mehrere Zeilen editieren wollte.
Post by Michael Noe
So richtig hirntot war etwa das (Microsoft) BASIC 2.0 für den Commodore
64. Ohne Peeks/Pokes eigentlich so gut wie überhaupt nicht sinnvoll zu
benutzen, dazu noch recht langsam. Von arg simplen Programmen vielleicht
mal abgesehen.
Volle Zustimmung hier, es musste schnell gehen Basic V2 war verfügbar
und brauchte fast keine Anpassungen. Es hat auch noch andere Probleme
beim Handling von Strings und der Garbage-Collection. Ich war vom CBM
4032 schon besseren gewöhnt und später kam mit den Nachfolgern des C64
auch besseres BASIC. Schon das BASIC V3.5 der 264er-Reihe lässt kaum
Wünsche offen, dazu noch der eingebaute Monitor mit
Mini-Assembler/Disassembler. Selbes beim BASIC V7 des C128.
Post by Michael Noe
Dazu war auf dem CPC unter BASIC sogar mehr RAM frei als auf dem C64,
trotz weit mächtigerem Befehlsumfang.
Der hat aber gerantiert Bankswitching benutzt um ROM und RAM je nach
Bedarf einzublenden, oder? Beim C64 war die Hardware dazu auch
vorhanden, aber BASIC V2 hat beim Start eine Konfig von RAM/ROM/IO
eingestellt und dann nicht mehr angefasst.

BASIC V3.5 auf dem 264er hingegen benutzte Bankswitching ausgiebig, auf
64 KB erweitert meldet ein C16 beim Einschalten 60671 Bytes free.
Post by Michael Noe
Ich mag den C64, aber ganz sicher nicht wegen dessen BASIC, was
eigentlich mit dessen größte Schwachstelle war, bereits der Floppy-
Zugriff war ein Witz und wirkte schon arg drangebastelt. Vermutlich war
das BASIC des PET auch nicht besser oder gleich primitiv, oder?
BASIC 4.0 war recht gut... Es hatte bessere Befehle für Disk-Zugriff
(CATALOG/DIRECTORY, DLOAD, DSAVE, DS$...) und besseres Handling von
Strings, eine Garbagecollection konnte den Rechner nicht mehr für
Minuten lahm legen.

Die Planung beim C64 war eine serielle Floppyschnittstelle unter
Verwendung des Schieberegisters im 6526. Das wäre schnell gewesen. Nur
sind die dafür nötigen Leiterbahnen im Layout der Platine untergegangen
und als man es merkte waren schon einige tausend Platinen produziert.
Also sparte man sich das Redesign der 1541 mit 6526 statt 6522 und
implementierte ziemlich langsames Bitbanging für den Datentransfer. Der
C128 bekam dann die eigentlich für den C64 geplante Implementation und
war bei Verwendung einer 1570/71/81 auch angenehm schnell.

Gerrit
Andreas Bockelmann
2020-12-14 08:12:53 UTC
Permalink
Die Planung beim C64 war eine serielle Floppyschnittstelle unter Verwendung
des Schieberegisters im 6526. Das wäre schnell gewesen. Nur sind die dafür
nötigen Leiterbahnen im Layout der Platine untergegangen und als man es
merkte waren schon einige tausend Platinen produziert. Also sparte man sich
das Redesign der 1541 mit 6526 statt 6522 und implementierte ziemlich
langsames Bitbanging für den Datentransfer. Der C128 bekam dann die
eigentlich für den C64 geplante Implementation und war bei Verwendung einer
1570/71/81 auch angenehm schnell.
Ich weiß nicht mehr genau wie er es gemacht hatte, aber ein Schulfreund
hatte damals "Hyperload" geschrieben und veöffentlicht. Das mit reiner
Software so schnell, dass er sogar den Interleave auf den Disketten geändert
hatte um schneller lesen/schreiben zu können. Die Übertragung auf dem Kabel
war längst nicht sein Flaschenhals. Von dem Honorar für das veröffentlichte
Listing bezahlte er seinen Führerschein.

Es ging schon einiges auf dem 64er. Und einen Diskettenkatalog bekam ich auf
Druck der Retore-Taste, das hatte ich mir selbst ins ROM gebrannt, alleine
schon um zu beweisen, dass man auch diese Taste sinnvoll belegen konnte.
--
Mit freundlichen Grüßen
Andreas Bockelmann
Gerrit Heitsch
2020-12-14 08:22:36 UTC
Permalink
Post by Andreas Bockelmann
Post by Gerrit Heitsch
Die Planung beim C64 war eine serielle Floppyschnittstelle unter
Verwendung des Schieberegisters im 6526. Das wäre schnell gewesen. Nur
sind die dafür nötigen Leiterbahnen im Layout der Platine
untergegangen und als man es merkte waren schon einige tausend
Platinen produziert. Also sparte man sich das Redesign der 1541 mit
6526 statt 6522 und implementierte ziemlich langsames Bitbanging für
den Datentransfer. Der C128 bekam dann die eigentlich für den C64
geplante Implementation und war bei Verwendung einer 1570/71/81 auch
angenehm schnell.
Ich weiß nicht mehr genau wie er es gemacht hatte, aber ein Schulfreund
hatte damals "Hyperload" geschrieben und veöffentlicht. Das mit reiner
Software so schnell, dass er sogar den Interleave auf den Disketten
geändert hatte um schneller lesen/schreiben zu können. Die Übertragung
auf dem Kabel war längst nicht sein Flaschenhals.
Die Frage dabei ist, konnte er während das Ladens den Bildschirm
eingeschaltet lassen oder nicht? Die 40 Badlines die VIC pro Frame
brauchte und während der die CPU angehalten wurde konnten einem das
Timing schon etwas zerhacken.

Gerrit
Michael van Elst
2020-12-14 10:38:32 UTC
Permalink
Die Frage dabei ist, konnte er während das Ladens den Bildschirm
eingeschaltet lassen oder nicht? Die 40 Badlines die VIC pro Frame
brauchte und während der die CPU angehalten wurde konnten einem das
Timing schon etwas zerhacken.
Es gab minimal langsamere Varianten, die sich mit den Badlines
synchronisierten, so dass der Bildschirm eingeschaltet bleiben konnte.
--
--
Michael van Elst
Internet: ***@serpens.de
"A potential Snark may lurk in every tree."
Andreas Bockelmann
2020-12-14 11:16:36 UTC
Permalink
Post by Michael van Elst
Die Frage dabei ist, konnte er während das Ladens den Bildschirm
eingeschaltet lassen oder nicht? Die 40 Badlines die VIC pro Frame
brauchte und während der die CPU angehalten wurde konnten einem das
Timing schon etwas zerhacken.
Es gab minimal langsamere Varianten, die sich mit den Badlines
synchronisierten, so dass der Bildschirm eingeschaltet bleiben konnte.
Es gab so viele Schnelladesoftware und -erweiterungen für den 64er, dass man
die Übersicht verlieren konnte.

Zum Schluss hatte ich das fest im ROM mit einem Parallelkabel zwischen 64er
und 1541
--
Mit freundlichen Grüßen
Andreas Bockelmann
Arno Welzel
2020-12-14 15:52:12 UTC
Permalink
Post by Andreas Bockelmann
Post by Michael van Elst
Die Frage dabei ist, konnte er während das Ladens den Bildschirm
eingeschaltet lassen oder nicht? Die 40 Badlines die VIC pro Frame
brauchte und während der die CPU angehalten wurde konnten einem das
Timing schon etwas zerhacken.
Es gab minimal langsamere Varianten, die sich mit den Badlines
synchronisierten, so dass der Bildschirm eingeschaltet bleiben konnte.
Es gab so viele Schnelladesoftware und -erweiterungen für den 64er, dass man
die Übersicht verlieren konnte.
Was hat man denn außer Speed-DOS und Dolphin DOS ernsthaft genutzt? ;-)
--
Arno Welzel
https://arnowelzel.de
Kay Martinen
2020-12-14 18:07:45 UTC
Permalink
Post by Arno Welzel
Post by Andreas Bockelmann
Post by Michael van Elst
Die Frage dabei ist, konnte er während das Ladens den Bildschirm
eingeschaltet lassen oder nicht? Die 40 Badlines die VIC pro Frame
brauchte und während der die CPU angehalten wurde konnten einem das
Timing schon etwas zerhacken.
Es gab minimal langsamere Varianten, die sich mit den Badlines
synchronisierten, so dass der Bildschirm eingeschaltet bleiben konnte.
Es gab so viele Schnelladesoftware und -erweiterungen für den 64er, dass man
die Übersicht verlieren konnte.
Was hat man denn außer Speed-DOS und Dolphin DOS ernsthaft genutzt? ;-)
Hydraload hieß das tool das ich hier meist verwendete. Die du anführst
waren IMHO keine reine Software sondern Hybride aus HW und SW oder ein
Steckmodul das Geld kostete. Damals wurde bei uns viel... ähem...
"getauscht". Aber lasse das nicht den Freiherrn von G. hören! :-)


Kay
--
Posted via leafnode
Andreas Bockelmann
2020-12-15 18:55:38 UTC
Permalink
Post by Kay Martinen
Aber lasse das nicht den Freiherrn von G. hören! :-)
Günni war immerhin so anständig sich selbst zu richten.
<https://www.heise.de/newsticker/meldung/Rechtsanwalt-von-Gravenreuth-ist-tot-936776.html>
--
Mit freundlichen Grüßen
Andreas Bockelmann
Diedrich Ehlerding
2020-12-16 08:15:03 UTC
Permalink
Post by Kay Martinen
Damals wurde bei uns viel... ähem...
"getauscht".
Du meinst wohl: da wurden völlig legitim angefertigte und
sicherheitshalber extern gelagerte Datensicherungen auf Herz und Nieren
bezüglich Lesbarkeit der Medien, Ablauffähigkeit der Programme und
Vollständigkeit der Sicherung geprüft.
--
gpg-Key (DSA 1024) D36AD663E6DB91A4
fingerprint = 2983 4D54 E00B 8483 B5B8 C7D1 D36A D663 E6DB 91A4
HTML-Mail wird ungeleſen entſorgt.
Kay Martinen
2020-12-16 14:20:53 UTC
Permalink
Post by Diedrich Ehlerding
Post by Kay Martinen
Damals wurde bei uns viel... ähem...
"getauscht".
Du meinst wohl: da wurden völlig legitim angefertigte und
sicherheitshalber extern gelagerte Datensicherungen auf Herz und Nieren
bezüglich Lesbarkeit der Medien, Ablauffähigkeit der Programme und
Vollständigkeit der Sicherung geprüft.
Ja nun, was man halt unter einer Dezentralen Datensicherung verstehen
mag. Machen doch heute alle so, denke nur an das ganze "Klaut" gedöns.

FeFe neulich so zum Google-ausfall: "Da will man doch hin mit seinen
Firmen Emails" :-)=)

LoL Wenn BKA, Zitis o.a. zugriff haben/bekommen auf die DE-Cloud... dann
sind die Daten darin GE-Klaut!

Wo man hin schaut, überall Diebe!

Kay
--
Posted via leafnode
Andreas Bockelmann
2020-12-14 11:12:50 UTC
Permalink
Post by Gerrit Heitsch
Post by Andreas Bockelmann
Post by Gerrit Heitsch
Die Planung beim C64 war eine serielle Floppyschnittstelle unter
Verwendung des Schieberegisters im 6526. Das wäre schnell gewesen. Nur
sind die dafür nötigen Leiterbahnen im Layout der Platine untergegangen
und als man es merkte waren schon einige tausend Platinen produziert.
Also sparte man sich das Redesign der 1541 mit 6526 statt 6522 und
implementierte ziemlich langsames Bitbanging für den Datentransfer. Der
C128 bekam dann die eigentlich für den C64 geplante Implementation und
war bei Verwendung einer 1570/71/81 auch angenehm schnell.
Ich weiß nicht mehr genau wie er es gemacht hatte, aber ein Schulfreund
hatte damals "Hyperload" geschrieben und veöffentlicht. Das mit reiner
Software so schnell, dass er sogar den Interleave auf den Disketten
geändert hatte um schneller lesen/schreiben zu können. Die Übertragung auf
dem Kabel war längst nicht sein Flaschenhals.
Die Frage dabei ist, konnte er während das Ladens den Bildschirm
eingeschaltet lassen oder nicht? Die 40 Badlines die VIC pro Frame brauchte
und während der die CPU angehalten wurde konnten einem das Timing schon
etwas zerhacken.
natürlich wurde der Bildschirm abgeschaltet. Der C64 konnte ja nicht einmal
auf seine Datasette mit eingeschaltetem Bildschirm zugreifen.
--
Mit freundlichen Grüßen
Andreas Bockelmann
Gerrit Heitsch
2020-12-14 11:18:37 UTC
Permalink
Post by Andreas Bockelmann
Post by Gerrit Heitsch
Post by Andreas Bockelmann
Post by Gerrit Heitsch
Die Planung beim C64 war eine serielle Floppyschnittstelle unter
Verwendung des Schieberegisters im 6526. Das wäre schnell gewesen.
Nur sind die dafür nötigen Leiterbahnen im Layout der Platine
untergegangen und als man es merkte waren schon einige tausend
Platinen produziert. Also sparte man sich das Redesign der 1541 mit
6526 statt 6522 und implementierte ziemlich langsames Bitbanging für
den Datentransfer. Der C128 bekam dann die eigentlich für den C64
geplante Implementation und war bei Verwendung einer 1570/71/81 auch
angenehm schnell.
Ich weiß nicht mehr genau wie er es gemacht hatte, aber ein
Schulfreund hatte damals "Hyperload" geschrieben und veöffentlicht.
Das mit reiner Software so schnell, dass er sogar den Interleave auf
den Disketten geändert hatte um schneller lesen/schreiben zu können.
Die Übertragung auf dem Kabel war längst nicht sein Flaschenhals.
Die Frage dabei ist, konnte er während das Ladens den Bildschirm
eingeschaltet lassen oder nicht? Die 40 Badlines die VIC pro Frame
brauchte und während der die CPU angehalten wurde konnten einem das
Timing schon etwas zerhacken.
natürlich wurde der Bildschirm abgeschaltet. Der C64 konnte ja nicht
einmal auf seine Datasette mit eingeschaltetem Bildschirm zugreifen.
Natürlich konnte er das, diverse Turbo-Tapes machten es vor. Nur bei den
Kernal-Routinen hat man sich die Mühe nicht gegeben. Wahrscheinlich
damit man sich den Aufwand bei der Portierung sparte, der VIC-II war der
erste mit Badlines, alle Videochips davor hatten keine, man brauchte
also keinen Code der damit zurechtkam.

Gerrit
Chr. Maercker
2020-12-14 17:55:43 UTC
Permalink
Post by Gerrit Heitsch
Post by Michael Noe
Oha, da besitze ich ja die Computer-Rakete schlechthin: einen Amstrad
CPC 464, Optik very British. :-)
War schon damals bekannt für seinen sehr flotten BASIC-Interpreter von
Locomotive Software, zudem weit mächtiger als das damals auf vielen
8-Bit-Rechnern verbreitete Microsoft BASIC, gerade bezüglich
Grafik/Sound/Massenspeicher.
Und das, obwohl der CPC schaltungstechnisch weit unter den Möglichkeiten
des Z80-Systems blieb:
- IM1
- 8255 statt PIO
Post by Gerrit Heitsch
Ja, aber einen hirntoten Editor. Während ich schon Jahre vorher den
Bildschirmeditor beim Commodore PET gewöhnt war kam der CPC mit einem
Zeileneditor.
Machte ihn für mich unbrauchbar.
Hätte man einklich Tasword für die BASIC-Programme nehmen können?
Erinnere mich nicht mehr, ob der Plain-Text speichern konnte oder nur
sein eigenes Format. Wegen Tasword hab ich Wordstar später nur mit ganz
spitzen Fingern angefasst, kein Vergleich das.
--
CU Chr. Maercker.
Peter Heitzer
2020-12-16 07:55:59 UTC
Permalink
Post by Chr. Maercker
Post by Michael Noe
Oha, da besitze ich ja die Computer-Rakete schlechthin: einen Amstrad
CPC 464, Optik very British. :-)
War schon damals bekannt für seinen sehr flotten BASIC-Interpreter von
Locomotive Software, zudem weit mächtiger als das damals auf vielen
8-Bit-Rechnern verbreitete Microsoft BASIC, gerade bezüglich
Grafik/Sound/Massenspeicher.
Und das, obwohl der CPC schaltungstechnisch weit unter den Möglichkeiten
- IM1
- 8255 statt PIO
Der 8255 bietet ggü. der PIO 24 anstelle 16 I/O Anschlüsse. Bei Verwendung
der PIO hätte man vmtl. 2 PIOs benötigt. Ohne spezielle Z80 Peripherie
ergibt IM2 auch keinen Sinn.
--
Dipl.-Inform(FH) Peter Heitzer, ***@rz.uni-regensburg.de
Andreas Kohlbach
2020-12-21 15:17:22 UTC
Permalink
Post by olaf
http://youtu.be/H05hM_Guoqk
Leider hatte ich ja den TI99/4A und danach den ZX Spektrum. Damit bin
ich wohl schonmal der Oberlooser, seufz.
ZX SpeCtrum. Soviel Zeit muss sein. ;-)
--
Andreas

PGP fingerprint 952B0A9F12C2FD6C9F7E68DAA9C2EA89D1A370E0
olaf
2020-12-21 17:26:59 UTC
Permalink
Post by Andreas Kohlbach
ZX SpeCtrum. Soviel Zeit muss sein. ;-)
Pah! Weisst du wie lange das schon her ist?

Ich hab aber noch einen QL im Keller. Da gibt es ja keine
Rechtschreibprobleme. :-D

Olaf
Kay Martinen
2020-12-21 18:32:31 UTC
Permalink
Post by olaf
Post by Andreas Kohlbach
ZX SpeCtrum. Soviel Zeit muss sein. ;-)
Pah! Weisst du wie lange das schon her ist?
Ich hab aber noch einen QL im Keller. Da gibt es ja keine
Rechtschreibprobleme. :-D
Weil das ein Englischer Computer ist. Lenkrad RECHTS, Dampfmaschine
links? :-)

SCNR


Kay
--
Posted via leafnode
Andreas Kohlbach
2020-12-22 00:29:05 UTC
Permalink
Post by Kay Martinen
Post by olaf
Post by Andreas Kohlbach
ZX SpeCtrum. Soviel Zeit muss sein. ;-)
Pah! Weisst du wie lange das schon her ist?
Ich hab aber noch einen QL im Keller. Da gibt es ja keine
Rechtschreibprobleme. :-D
Weil das ein Englischer Computer ist. Lenkrad RECHTS, Dampfmaschine
links? :-)
Wie *muss* man das ZX in Spectrum eigentlich aussprechen?

Ich erinnere mich, wie haben "Zett Ix" gesagt. Briten sagen "Zed Ex" und
von Amis auf Youtube höre ich "Zee Ex". Die Briten revanchieren sich dann
mit [Zilog] "Zed 80", obwohl es "Zee" heißen sollte, da er auch den USA
stammt. Aber Deutsche sagen sicher auch "Zett 80".
--
Andreas

https://news-commentaries.blogspot.com/
Wolf gang P u f f e
2020-12-22 08:54:41 UTC
Permalink
Post by Andreas Kohlbach
Post by Kay Martinen
Post by olaf
Post by Andreas Kohlbach
ZX SpeCtrum. Soviel Zeit muss sein. ;-)
Pah! Weisst du wie lange das schon her ist?
Ich hab aber noch einen QL im Keller. Da gibt es ja keine
Rechtschreibprobleme. :-D
Weil das ein Englischer Computer ist. Lenkrad RECHTS, Dampfmaschine
links? :-)
Wie *muss* man das ZX in Spectrum eigentlich aussprechen?
Ich erinnere mich, wie haben "Zett Ix" gesagt. Briten sagen "Zed Ex" und
von Amis auf Youtube höre ich "Zee Ex". Die Briten revanchieren sich dann
mit [Zilog] "Zed 80", obwohl es "Zee" heißen sollte, da er auch den USA
stammt. Aber Deutsche sagen sicher auch "Zett 80".
Wolf gang P u f f e
2020-12-22 08:56:02 UTC
Permalink
Post by Andreas Kohlbach
Wie *muss* man das ZX in Spectrum eigentlich aussprechen?
Ich erinnere mich, wie haben "Zett Ix" gesagt. Briten sagen "Zed Ex" und
von Amis auf Youtube höre ich "Zee Ex". Die Briten revanchieren sich dann
mit [Zilog] "Zed 80", obwohl es "Zee" heißen sollte, da er auch den USA
stammt. Aber Deutsche sagen sicher auch "Zett 80".
Moment.
Ich bin auch Deutscher und sage U880. ;-)
Gerrit Heitsch
2020-12-22 09:01:20 UTC
Permalink
Post by Wolf gang P u f f e
Post by Andreas Kohlbach
Wie *muss* man das ZX in Spectrum eigentlich aussprechen?
Ich erinnere mich, wie haben "Zett Ix" gesagt. Briten sagen "Zed Ex" und
von Amis auf Youtube höre ich "Zee Ex". Die Briten revanchieren sich dann
mit [Zilog] "Zed 80", obwohl es "Zee" heißen sollte, da er auch den USA
stammt. Aber Deutsche sagen sicher auch "Zett 80".
Moment.
Ich bin auch Deutscher und sage U880. ;-)
U<nummer> ist aber die Positionsangabe für ein IC auf einer Platine,
nicht die Bezeichnung des ICs selber. Hat man das damals in der DDR
missverstanden?

Gerrit
Wolf gang P u f f e
2020-12-22 09:15:33 UTC
Permalink
Post by Gerrit Heitsch
Post by Wolf gang P u f f e
Post by Andreas Kohlbach
Wie *muss* man das ZX in Spectrum eigentlich aussprechen?
Ich erinnere mich, wie haben "Zett Ix" gesagt. Briten sagen "Zed Ex" und
von Amis auf Youtube höre ich "Zee Ex". Die Briten revanchieren sich dann
mit [Zilog] "Zed 80", obwohl es "Zee" heißen sollte, da er auch den USA
stammt. Aber Deutsche sagen sicher auch "Zett 80".
Moment.
Ich bin auch Deutscher und sage U880. ;-)
U<nummer> ist aber die Positionsangabe für ein IC auf einer Platine,
nicht die Bezeichnung des ICs selber. Hat man das damals in der DDR
missverstanden?
Positionsangabe?
U880 ist eine IC-Bezeichnung, wie Z80 auch.
https://de.wikipedia.org/wiki/MME_U880
Gerrit Heitsch
2020-12-22 09:28:47 UTC
Permalink
Post by Wolf gang P u f f e
Post by Gerrit Heitsch
Post by Wolf gang P u f f e
Post by Andreas Kohlbach
Wie *muss* man das ZX in Spectrum eigentlich aussprechen?
Ich erinnere mich, wie haben "Zett Ix" gesagt. Briten sagen "Zed Ex" und
von Amis auf Youtube höre ich "Zee Ex". Die Briten revanchieren sich dann
mit [Zilog] "Zed 80", obwohl es "Zee" heißen sollte, da er auch den USA
stammt. Aber Deutsche sagen sicher auch "Zett 80".
Moment.
Ich bin auch Deutscher und sage U880. ;-)
U<nummer> ist aber die Positionsangabe für ein IC auf einer Platine,
nicht die Bezeichnung des ICs selber. Hat man das damals in der DDR
missverstanden?
Positionsangabe?
U880 ist eine IC-Bezeichnung, wie Z80 auch.
Nein, schau mal auf eine Platine drauf. Jeder Platz für ein IC hat dort
eine Nummer die mit 'U' beginnt.

Deshalb frage ich ob man in der DDR hier etwas missverstanden hat.

Gerrit
Hans-Juergen Lukaschik
2020-12-22 10:16:47 UTC
Permalink
Hallo Gerrit,

am Dienstag, 22 Dezember 2020 10:28:47
Post by Wolf gang P u f f e
Positionsangabe?
U880 ist eine IC-Bezeichnung, wie Z80 auch.
Nein, schau mal auf eine Platine drauf. Jeder Platz fÃŒr ein IC hat
dort eine Nummer die mit 'U' beginnt.
HÀttest du doch den Link angeklickt. Da hÀttest du ein Bild gefunden,
mit U880 auf einem IC.

MfG Hans-JÃŒrgen
--
http://lukaschik.de/rezepte/
www.fischereiverein-rietberg.net
Fischrezepte: www.fischereiverein-rietberg.net/?category_name=rezepte
SeefischREZ: www.fischereiverein-rietberg.net/?category_name=seefisch
Guido Grohmann
2020-12-22 10:27:21 UTC
Permalink
Post by Gerrit Heitsch
Nein, schau mal auf eine Platine drauf. Jeder Platz für ein IC hat dort
eine Nummer die mit 'U' beginnt.
Wie kommst du auf dieses schmale Brett? Nur weil du *eine* PLatine
kennst, auf der ICs mit U bezeichnet wurden und hier *ein* IC mit
*einer* Bezeichnung U880 auftaucht?
Post by Gerrit Heitsch
Deshalb frage ich ob man in der DDR hier etwas missverstanden hat.
Selber denken ist wohl nicht?

Es gab übrigens DDR- Schaltkreise mit den Buchstaben A, B, C, D, E, U, V
und diese Liste erhebt keinen Anspruch auf Vollständigkeit. Das hättest
du aber spätestens nach deiner ersten Frage auch selber herausfinden
können, wenn du gewollt hättest. Statt dessen schreibst/mutmaßt du nur
Unfug.

Guido

Peter Heitzer
2020-12-22 09:06:19 UTC
Permalink
Post by Wolf gang P u f f e
Post by Andreas Kohlbach
Wie *muss* man das ZX in Spectrum eigentlich aussprechen?
Ich erinnere mich, wie haben "Zett Ix" gesagt. Briten sagen "Zed Ex" und
von Amis auf Youtube höre ich "Zee Ex". Die Briten revanchieren sich dann
mit [Zilog] "Zed 80", obwohl es "Zee" heißen sollte, da er auch den USA
stammt. Aber Deutsche sagen sicher auch "Zett 80".
Moment.
Ich bin auch Deutscher und sage U880. ;-)
Ue achd achdzsch ;-)
--
Dipl.-Inform(FH) Peter Heitzer, ***@rz.uni-regensburg.de
Lesen Sie weiter auf narkive:
Loading...