Page 22

BIT 03-2017

Geschäftsprozesse Elektronische Rechnung 50 Jahre Datenverarbeitung im Wandel Von Lochkarten zu Superrechnern In Zeiten von Superrechnern und der Allgegenwärtigkeit von Computern gilt der Begriff „elektronische Datenverarbeitung“ (EDV) heute als antiquiert. Dabei ist es gerade einmal ein halbes Jahrhundert her, dass die EDV ihren Kinderschuhen zu entwachsen begann. Von den Lochkarten über speicherprogrammierte Maschinen und Magnetbänder, Papierausdrucke sowie der Mikroverfilmung bis zu digitalen Dokumenten hat sich einiges gewandelt, aber die Logik ist dieselbe geblieben. Anfang der 60er Jahre begannen speicherprogrammierte, elektronische Rechner-Systeme die Lochkarten abzulösen. Langsam. Denn diese befanden sich noch bis in die 1980er Jahre im Einsatz. International Business Machines (IBM) brachten führend die ersten speicherprogrammierten Anlagen auf den Markt und galten als das Synonym für elektronische Datenverarbeitung. 1959 erschien die legendäre 1400er- Serie. In Deutschland bot Siemens den Amerikanern Paroli. Als Datenträger dienten immer noch die Lochkarten, aber auch Magnetplatten und vor allen Dingen Magnetbänder, die kilometerlang in den Archivregalen hingen. Haltbare Alternativen In den 60er Jahren entstanden hierzulande die ersten Rechenzentren. Zu den typischen Datenverarbeitungsjobs gehörten Lohn- und Gehaltsabrechnung, Adressverwaltung, Versand mit Fakturierung, Lagerwirtschaft und Statistiken für Produktionsplanung. Magnetbänder hatten den Nachteil, dass mit der Zeit Daten verloren gingen, wenn nicht laufend auf neue Bänder umkopiert wurde. Die Reparaturen waren oft fehlerhaft und auto - matische Reparaturversuche defekter Daten führten zu weiteren Fehlern. Deshalb begannen Unternehmen mit den aufkommenden elektrostatischen Druckern und Schnelldruckern, Papier stapelweise zu bedrucken. Eine haltbare Alternative zur Archivierung bot ab Anfang der 70er Jahre der Computer Output on Microfilm (COM). Dabei brachten Anlagen die Daten für den Bruchteil des Geldes auf Mikrofilm – ein Verfahren, das bis in die 90er Jahre großflächig an - gewendet wurde. Schon in den 60er Jahren erfolgte die Mikroverfilmung von Papiervorlagen vom allgemeinen Schriftgut bis hin zu großformatigen Zeichnungen. Dafür wurden so genannte Schrittschalt- und Durchlauf - kameras eingesetzt, bevor in der ersten Hälfte der 80er Jahre die ersten Papier- Scanner auf der Bildfläche erschienen. Das war, noch bevor Mitarbeiter des Kernforschungszentrums Cern 1992 auf Grundlage des Internets das heutige World Wide Web entwickelten. Digitalisierung ahoi Mit den wachsenden technischen Möglichkeiten entstand die Idee, auch Schriftgut zu digitalisieren – der Umbruch von der Mikroverfilmung zur Digitalisierung hatte begonnen. Die Nachfrage nach Archivierung nahm zu. Wurde zunächst Serverhosting angeboten, auf das via Standleitung zugegriffen werden konnte, erfolgte später in den 90er Jahren mit der Entwicklung des World Wide Webs der Zugriff auf die bereitgestellte IT-Infrastruktur über das Internet. Das Cloud- Computing trat seinen Siegeszug an. Außerdem dienten optische Speicher - systeme zur Datenspeicherung (CD-ROM, DVD, Blu-Ray-Disc), deren Ära allerdings schnell vorüberging. Heute werden die Daten auf Chips gespeichert. Die Logik ist dieselbe wie eh und je. Auch an der Wichtigkeit der Datenqualität hat sich nichts geändert. Nur die Datenerfassung erfolgt zunehmend automatisiert. Zudem kommt es immer mehr darauf an, Daten in verschiedenen Formaten aus hybriden Kanälen zusammenzuführen, aus ihnen Informationen zu gewinnen und Mehrwert zu generieren. Ein Blick zurück – Links: Ab 1964 sind programmierbare Lochkartenlocher dokumentiert, wie z. B. der IBM 29. Rechts: Das Mikroplanfilm (Mikrofiche) Lesegerät diente zur Anzeige der Mikrobilder. 22 | BIT 3–2017


BIT 03-2017
To see the actual publication please follow the link above