cmag I-intro - Volker Watschounek

Transcription

cmag I-intro - Volker Watschounek
c mag
Fachzeitschrift für Informationstechnologien
Crossmedia Publishing
Neues Paradigma: Vom Byte zum Papier
Print + Online + E-Paper
. Crossmedia Publishing in Verlagen
. E-Paper: vom Hoffnungs- zum Umsatzträger
Zwei Regalmeter auf einem USB-Stick
Über Kreuz mit Crossmedia
. Zur Wandelbarkeit von Sprache
. Paid Content
www.c-mag.de
Kleinvieh macht auch Mist
. Praxisbericht Bibliographisches Institut F. A. Brockhaus AG
August 05 - Ausgabe #1
Danke Essen . Rückblick DMS Expo
Was vom „E“ übrig blieb . E-Learning in der Praxis
Von Ajax zu BackBase . Web-Technologien
Gut gemeint statt gut gemacht . Elektronische Signaturen
Was ist dran am großen Run? . Hersteller-CMS versus Open Source
Gut versteckt . Firmenportrait arago AG
Cases . Gesundheitswesen (Online Datenbank), Handel (RFID)
Deutschland Euro 7,60
September 2005
��
��
��
��
��
��
��
��������
�������
��������
��������
����������
��������
��������
������������������������������������
�������������������������������������������������������������������������������������������������
���������������������������������������������������������������������������������������������������
������������������������������������������������������������������������������������������������
����������������������������������������������������������������������������������������
����������������������������� ������������������������������������������������������������
003
in eigener Sache
Der Werbemarkt kriselt, die Wirtschaft stagniert. Eine neue
Zeitschrift zu platzieren grenzt an Wahnsinn. Trotzdem
sind wir der Ansicht, dass es sich lohnt. Mediensoziologische Fakten, ein neues Verständnis von Text und Bild,
von Wissen und Wissensvermittlung haben uns davon
überzeugt, dass es sich trotzdem lohnt. Vor Ihnen liegt das
c//mag, die Fachzeitschrift für Informationstechnologien,
mit journalistischem Format. Recherchiert, kritisch, frei
von Zwängen.
Titel, Schwerpunkt und Alltag prägen das c//mag. Auf 80
Seiten bilden wir auf Grundlage unseres „Themensenors“
ab, was den Markt bewegt.
Vor ein paar Jahren war Tomorrow Focus völlig überzeugt
vom Crossmedia Publishing. Nach den seither gemachten
Erfahrungen sucht das Unternehmen mittlerweile nach
neuen Ansätzen. Dennoch ist Crossmedia Publishing seit
letztem Jahr wieder angesagt. Mehr dazu im Titel.
Im Schwerpunkt finden sich die „Leib- und Magenthemen“
der Branche. Nicht alles, sondern das, was wert ist zu berichten. Diesmal: elektronische Signaturen, E-Learning,
Typo3 und Webtechnologie von BackBase.
Alltag ist Kino. Daumenkino. Lesen Sie, welche Case es in
das Heft geschafft hat. Wer diesmal in den Nesseln sitzt.
Und freuen Sie sich auf die nächste Ausgabe. Am 21. November auf Ihrem Schreibtisch.
Viel Spaß beim Lesen!
Volker Watschounek, Uwe Hentschel
004
Register der erwähnten Unternehmen und Organisationen
Abaton 59
Acolada 10
Active Solution Software 59
Adaptive Path 50
Adobe 43
Adolf Grimme Institut 46
Agfa 39
AIIM 41, 44
Apple 75
arago 62
Arbortext 22
AuthentiDate 43
Autobild.de 21
Axel Springer 26
BackBase 50
Berliner Morgenpost 21
Bertelsmann 24, 39
Beta Systems 43
bgm business group munich 59
Bibliographisches Institut und F.A. Brockhaus 10, 22, 26
Billentis 55
Börsenverein des Deutschen Buchhandels e.V. 18
Canonical 13
Car4you 21
CeBIT 39
Ceyoniq 39, 43
Colorcube digital media lab 59
ContentServ 14
CoreMedia 14, 31
CoreMedia 72
Cybay New Media 72
d.velop 42
daa Systemhaus 45
Data Becker 24
Deutsche Bank 74
DIACC Content Computing 59
Dicom 67
Digital Collections Verlagsgesellschaft 21
DIHK - Deutscher Industrie- und Handelskammerstag 47
DMS Expo 39, 42
Dresdner Bank 64
DWL 67
EASY Software 39, 41, 43
ELO 44
EMC Documentum 43
Erichsen Digital 59
FileMaker 69
FileNet 45
FIRSTGATE 30
Frankfurter Allgemeine Zeitung GmbH 10
Süddeutsche Zeitung 10, 20
Gabler Verlag 32
Gartner 66
GFT Solutions 44
GFT Technologies 67
GLI GmbH 54
Google 50, 66
Gruner + Jahr 14
Hewlett Packard 15
Hummingbird Fulcrum Technologies GmbH 5
IBM 15, 42, 67, 74, 75
IC Surselva AG 59
IETF - Internet Engineering Task Force 56
IHK 55
Imperia 14, 72
INEX 55, 57
Interwoven 14
IVW 20
Janusmedia 14
Kölner Stadtanzeiger 21
MBB Institut für Medien- und Kompetenzforschung 46
mediamid digital services 31, 43
METRO Group, 70
Microsoft 23, 44
MSH Medien System Haus 21
Musikwoche 21
Nordkurier 21
Nordwest-Zeitung 20
Open Text 44, 66
Ostseezeitung 21
Plan2net-Wien 59
PLANinterNET 55
pool/munich 59
punkt de Baden/Karlsruhe 59
RedDot Solutions 5, 14, 72
RIM - Research in Motion 12
Rhein Zeitung 20
RZ-Online 21
Saperion 42
Scanpoint Europe 43
Schweizer Buchhändler-und Verleger-Verband 18
Schweriner Volkszeitung 21
Seagate Technolgy 14
SER Solutions 39, 40
Skyfillers 59
Snowflake productions 59
SorageTek 67
Stellent 67
STIEBEL ELTRON 72
StorageTek 67
Stuttgarter Messe 39
Styria-Verlag 21
Sun 15
Sybase 22
Symantec 66
Target-E 59
Technotrans 43
TELE 5 14
Thawte 13
TOMMOROW FOCUS 31
Toyota 75
T-Systems 74
TU Dresden 18
Typoheads 59
Universität Graz 24
Universität Passau 18
Universität St. Gallen 30
VDZ - Verband Deutscher Zeitschriftenverleger e.V. 18, 29
Verband Österreichischer Zeitungen 18
VeriSign 13
Vignette Deutschland 14
ZWH - Zentralstelle für die Weiterbildung im Handwerk e.V. 47
005
Highlight
Der Kolibri geht sammeln
Als wir die Neuigkeit erfahren, ist die Nachricht gerade mal
45 Minuten frisch. Der Chairman Nils Metger verkündet
sie auf den RedDot Days in Gelsenkirchen persönlich – mit
hochgekrempelten Hemdsärmeln („die Krawatte liegt noch
im Auto“) und ohne Tamtam. Hummingbird und RedDot:
Man kennt sich seit einigen Jahren aus einer nach und nach
intensivierten Kooperation. Beide können nicht nur auf der
Produktseite, wo sich die Unternehmen ergänzen, sondern
auch so. Das alles, neudeutsch gesprochen, macht Sinn.
Wenn da nicht Franz Müntefering und die Heuschrecken
gewesen wären und die Angst vor dem Ausverkauf deutscher Unternehmen. Blödsinn, schreien die einen, die Globalisierung ist nicht mehr aufzuhalten. Aber das will ja auch
keiner. Hilfe, schreien die anderen, der Staat muss deutsche
Unternehmen schützen. Aber das will ja auch keiner. Woher
also dieser Anflug von Wehmut? Vielleicht, weil die Einsicht
in das Unvermeidliche nicht immer schön ist.
Nils Metger hat es schmucklos und pragmatisch formuliert:
RedDot kann die notwendigen internationalen Schritte
nicht aus eigener Kraft tun. Für langwierige Verhandlungen mit Kapitalgebern und den Aufbau der notwendigen
Unternehmensstrukturen und deren Konsolidierung hat
RedDot einfach keine Zeit. Hummingbird hat, was RedDot
braucht: die internationale Präsenz von Unternehmen und
Marke. RedDot hat, was Hummingbird braucht: großenteils
komplementäre Produkte, eine starke nationale Marke,
Innovationskraft und nicht zuletzt Marktanteile. Ein gutes
Geschäft, sagen die Asiaten, ist eines, wenn beide Parteien zufrieden sind. Das scheint hier der Fall zu sein, zum
Leidwesen der Mitbewerber. Was die Beteuerungen des
amerikanischen Marketings wert sind, über den Erhalt von
Unternehmen und Marke wert sind, wird man in einem Jahr
besser beurteilen können. Immerhin gibt es hier eine realistische Chance, dass die Vorhaben auch umgesetzt werden.
006
Papier statt Screen
Am Anfang ist der Code. Falsch. Am Anfang ist das leere
Blatt Papier. Auch wer in allem Prpgrammiersprachen
zu Hause ist, sollte nach der Ansicht von Hans-Christian
Boos seine Gedanken zuerst auf dem Papier strukturieren.
Denn: „Nur wer ein Problem sortiert angeht und sich nicht
auf die Programmiersprache versteift, wird das Problem
lösen können. Wie später dann der Code aussieht, ist völlig
zweitrangig.“ Ungewöhnliches von einem ungewöhnlichen
Unternehmensgründer.  Seite 60
����������������� �������
���������������������������
��������������������������
����������������������������������
�������������������������������������� ������������������
������������������������������������������������������������������
��������������������������������������������������������������
���������������������� �����������������������������������
����������������������������������������������������������������
����������� ���� ������������������������������� ���� ������
������������������������������������� ���������������������
������������������������������������������������������������
��������������������������������������������������������� ���
������������ ���� �������� ���� ������ �������� ���������������
������������
������� ������� ���������� ������� ���� ����������� ��������� ������
����������������������� ���������� ����������� ���� ���� �����
���������������������������������������������������������������
����������������������������������� ������������������������������
�������������������������� ����������������������������������
���� ���� ����������� ������ ����������������������������� ��
������������������ ������������������������ ���������������������
������������������������������������������������������������
��������������������������������������������������������������
������������������ ���������
������� ����������
������ �������������� �����
������������������������������� �����������
������������������������������
���������������������������������������������������������
����������
�������
�������
�����������������������
������
���
���
�����������������������
���
����������
���
���
����������������
��������
���
�����������������������
��������������������
���
����������������������
���
������������
����������
����
�����������
��������������
���
������������
�����
���
��������
���������������
���
���������������
������
���
��������
��������
���
�����������
��������
���
�������������
��������
���
��������������������������������
������� ������� ��������������������� ����������
008
Inhalt
in eigener Sache
Firmenregister
Highlight
Panorama
Crossmedia Publishing
3
4
5
10-15
Titel
Neues Paradigma: Vom Byte zum Papier
16-19
Crossmedia Publishing in Verlagen
Print + Online + E-Paper
20-21
E-Paper: vom Hoffnungs- zum Umsatzträger
Zwei Regalmeter auf einem USB-Stick
22-24
Praxis Bibliographisches Institut F. A. Brockhaus AG (BIFAB)
I
Interview BIFAB
26
Über Kreuz mit Crossmedia
27
Zur Wandelbarkeit von Sprache
Kleinvieh macht auch Mist
28-30
Paid Content
was die Anbieter schreiben
Galerie
31
33-37
hier parkt der Chef
Schwerpunkt
Danke, Essen
38-41
Rückblick DMS Expp
Im Westen was Neues
42-45
Rundgang DMS Expo
Was vom „E“ übrig blieb
46-48
E-Learning in der Praxis
Von Ajax zu BackBase
50-52
Web-Technologien
Gut gemeint statt gut gemacht
55-56
Elektronische Signaturen
I
Interviews INEX GmbH, AuthentiDate International AG
57
009
Inhalt
Was ist dran am großen Run?
58-61
Hersteller-CMS versus Open Source
Gut versteckt
62-64
Firmenportrait arago AG
Alltag
News Unternehmen
66-67
Wenn der Arzt sich selbst hilft
68-69
Case: IT im Gesundheitswesen
4 Buchstaben für mehr Effizienz
70-71
Case: RFID-Lösung im Einsatz
nachgefragt: zu Gast bei Stiebel Eltron
in die Nesseln
populäre Irrtümer
Ausblick
Impressum
72
74
75
76
78
N
010
Panorama
[email protected]
Das ghet wicklirch!
Seit dem 1. August ist es amtlich. Deutschland verabschiedet
sich von den alten Rechtschreibregeln. Ganz Deutschland
– nein, zwei Bundesländer halten an der Übergangszeit fest.
Für sie gilt: Was in Hessens Schulen und in weiten Teilen des
Landes als falsch geschrieben gilt, ist in Bayern und Nordrhein-Westfalen (NRW) richtig. Jedenfalls noch bis zum
1. August 2006. Oder länger? Vielleicht setzen die Gremien
die neue Rechtschreibreform doch noch außer Kraft, und
alles bleibt, wie es war. Oder: Alles bleibt anders. Die Presselandschaft macht es vor: Frankfurter Allgemeine Zeitung
und Süddeutsche Zeitung beispielsweise halten an den alten
Regeln fest.
Fehler oder nicht?
Das ist eine spannende Frage. Wie gehen damit die Hersteller von Redaktionssystemen um? Werden sie von jetzt
bis August 2006 Länderversionen des Rechtschreibmoduls
anbieten? Wird der Brockhaus gar seine „Duden-LinguisticEngine“ mit Länder-Wappen versehen und deutlich kenntlich machen: „Diese Version gilt nur für Bayern und NRW?
Oder wird die Situation einfach stillschweigend hingenommen? Schließlich lernen Schüler von klein auf im Deutschunterricht die Regeln des Schreibens – egal ob neue oder alte
Rechtschreibung. Es ist demnach unwichtig, ob Anbieter
von Redaktionssystemen entsprechende Module nach neuer
oder alter Rechtschreibung anbieten. Das doppelte Regelwerk beachtet? Geldverschwendung ist es allemal!? Nur
eine einheitliche bundesweite Regelung kann hier Abhilfe
schaffen. Nicht wirklich. Untersuchungen belegen, dass ein
Großteil der Bevölkerung des Schreibens nicht mächtig ist.
Mit ein wenig Glück findet jeder auch in der Tageszeitung
Buchstabendreher, fehlende Satzzeichen oder auch falsche
Satzzeichen. Wem kreiden wir das an? Dem Redakteur?
Dem Chef vom Dienst? Der Zeitung? Dem System?
Viele deutsche Rechtschreibungen
Jeder, der schon einmal länger am Bildschirm gearbeitet
hat, wird Verständnis dafür aufbringen. Das Auge versucht
am Bildschirm, das natürliche Zwinkern und damit die Befeuchtung der Augen zu unterdrücken. Fazit: Augentrockenheit, zunehmende Unkonzentriertheit – und damit erhöhte
Fehleranfälligkeit. „Duden Sirius XML Proof“ stellte im
Frühjahr 2005 einen Weg vor, wie Redakteure Medien fehlerfrei gestalten. Gemeinsam mit der Acolada GmbH stellte
das Bibliographische Institut und F.A. Brockhaus AG (BIFAB) das erste Werkzeug für die Rechtschreib- und Grammatikprüfung von Daten im SGML- und XML-Format vor:
basierend auf der neuen Rechtschreibreform. Die „DudenLinguistic-Engine“ bietet dem Anwender drei Sprachoptionen (Deutschland, Österreich, Schweiz) und vier Schreibstile (progressiv, konservativ, tolerant und Dudenempfehlung)
an. Sie entspricht dem aktuellen Stand der deutschen
Rechtschreibung. Der gesamtdeutschen Rechtschreibung?
Nein, die Enklaven Bayern und Nordrhein-Westfalen leisten
Widerstand. Dort gilt durchaus als richtig, was im restlichen
Deutschland falsch ist - was das Programm aus Mannheim
als Fehler („alte Schreibform“) anzeigt. Sollte das BIFAB
noch ein wenig Zeit investieren und die Fehlermeldung um
die Extravaganzen der Länder Bayern und NRW erweitern?
Oder sollten wir es schlichtweg vergessen – ganz nach dem
Motto: Es macht doch sowieso jeder, was er will? Schließlich
wissen wir, das es nchit witihcg ist in wlecehr Rneflogheie
die Bstachuebn in eneim Wrot flgoen. Das ezniige was wcthiig ist, ist dass der estre und der leztte Bstabchue an der
ritihcegn Pstoiion snid. Der Rset knan ein ttoaelr Bsinöldn
sien, tedztorm knan man ihn onhe Pemoblre lseen. Das ist
so, wiel wir nciht jeedn Bstachuebn enzelin leesn, snderon
das Wrot als gseatems. Ehct ksras! Das ghet wicklirh!
�����������������������������������
�����������
���������������������
���������������������
��������������������������������������������
��������������������������������������
���������������������������������������
����������������������������������������
������������������������������
����������������
�������������������������������������������
�������������������������������������������������������������������������������������������������������
����������������������������������������������������������������������������������������������������������
�������������������������������������������������������������������������������������
������������������
������������������������������
�������������������������������
����������������������������
���������������������������
����������������
012
Panorama
Die Brombeere:
vom Spiel- zum Werkzeug
Eine Brombeere (Rubus fruticosus agg.) erobert die Herzen
derer, die den technischen Fortschritt stets an forderster
Front begleiten. Eine digitale Brombeere, älter als ein Jahr,
wird hochgejubelt. Nein, nicht die kleine rote wohl schmeckende Frucht ist gemeint, sondern ein kleines Gerät, das
die Herzen der immer online Erreichbaren höher schlagen
lässt. In den letzten zwei Jahren hat es das kleine handliche
Gerät geschafft, mit 3 Millionen verkauften Geräten den
Markt der mobilen Endgeräte zu erobern. Den heiß geliebten Handheld auf die Plätze zu verweisen. Einer Studie von
Research in Motion (RIM) (de.wikipedia.org/wiki/Research_
in_Motion), Hersteller und Vermarkter für mobile Kommunikationssysteme, zufolge, setzte sich die digitale Brombeere,
in Fachkreisen bekannt als Blackberry, mit einem Zuwachs
von mehr als zwanzig Prozent gestiegener Verbreitung an
die Spitze des Markts der Personal Digital Assistants (PDA).
Was macht den Charme dieses kleinen Gerätes aus? Wo unterscheidet sich Blackberry vom Handy?
„always on“ mal positiv
Im Wesentlichen gleichen die Funktionen des Blackberrys
denen eines PDA. Er bietet die Möglichkeit, an jedem Ort
mit Netz E-Mails zu senden und zu empfangen – selbstständig. Denn anders als beim Handy muss sich der Anwender
nicht über den Client am Server einwählen. Er ist permanent verbunden. Damit werden auch alle anderen Daten
von Adressbuch, Kalender, To-Do-Listen, verbundene Dokumente auf dem aktuellen Stand gehalten. Das manuelle
Aufbauen einer Verbindung jedweder Art entfällt. Dank der
Push-Technologie (de.wikipedia.org/wiki/Push) wird das
Altern von Daten verhindert. Verschiebt beispielsweise die
Sekretärin eines Vertriebsmitarbeiters im Outlookkalender den Nachmittagstermin von 15 auf 16 Uhr, werden
[email protected]
sowohl die Daten des Exchange-Servers als auch die Daten des Blackberrys in der Hosentasche des Mitarbeiters
aktualisiert. Gleiches gilt für Adressen, Telefonnummern,
verknüpfte Dokumenten und kundenspezifische Daten. Erstaunlich daran: Trotz permanenter Verfügbarkeit reduziert
die unverdauliche Brombeere Kosten. Kosten, die bei der
Synchronisation von Daten entstehen.
zum Arbeiten gedacht
Im Backoffice arbeitet der Blackberry Enterprise Server
(BES). Über direkte Schnittstellen steht er mit den firmeneigenen Systemen wie Groupware, Microsoft Exchange,
Novell, Groupwise oder Lotus Domino in Kontakt. Der
BES überwacht die Mailbox des Benutzers auf eingehende
Mails und leitet diese an das Network Operation Center
(NOC) von RIM weiter. Von dort werden die Mails an den
Mobilfunkprovider geschickt und dann per Funk an den
Blackberry übertragen. Auf dem gleichen Weg funktioniert
die Übertragung von Kalendereinträgen, To-Dos, Adressen
und Notizen (Push-Dienst). Werden die Einträge auf dem
Blackberry erfasst oder E-Mails geschrieben, erfolgt die
Datenübertragung in umgekehrte Richtung auf das Groupware-System.
Neben der Synchronhaltung der Daten ermöglicht der BES
Firmen erhöhte Sicherheitseinstellungen. Beispielsweise
kann der Administrator kontrollieren und definieren, welche Anwendungen installiert sein dürfen (inkl. Ferninstallation). Das gibt dem Administrator auch bei Verlust oder
Diebstahl die Möglichkeit, alle sensiblen Daten umgehend
zu löschen (solange noch Verbindung zum Server besteht).
Was sich in Geschäftskreisen etablierte, soll jetzt auch den
Privatanwender erreichen. Damit diese den vollen Funktionsumfang des Blackberrys nutzen können, stellen die Mobilfunkprovider Server zur Verfügung, die die Basisdienste
>>
013
Panorama
wie E-Mail bereitstellen. Die Synchronisation von Terminen
und Adressen bleibt vorerst jedoch Firmen mit ExchangeServern vorbehalten.
Fazit
Der Handheld Blackberry hält seinen Benutzer, solange
eine Verbindung besteht, immer auf dem Laufenden – über
Termine, Adressen Dokumente und andere Daten. Befindet
sich der Anwender in einem Funkloch, so ist in der Regel
auch die Verbindung zum Blackberry Enterprise Server gestört. Für solche Fälle empfehlen wir, die Ruhe zu bewahren
– und besonders im Sommer vielleicht doch die leckeren
kleinen Beeren im Gepäck zu haben. Lehenn sie sich einfach
zurück und genießen sie den Geschmack der in 120 Arten
weit verbreiteten Rubus fruticosus agg.
das Gut-Linux vom Kap
Was sagt eigentlich das Web über die Bedeutung des Wortes
„Ubuntu“? Hier ist Ubuntu abwechselnd ein traditionsreiches, ein afrikanisches bzw. altes afrikanisches Wort, das
wahlweise aus den Sprachen der Zulu und der Xhosa, der
südafrikanischen Sprachfamilie Nguni, der Bantu- oder
Bemba-Sprache kommt und so viel bedeutet wie Menschenwürde, Menschlichkeit, Gemeinsinn, Menschlichkeit und
Gemeinsinn, Menschlichkeit zu anderen, Menschenwürde
und achtsames Miteinander, für die Menschen, Menschlichkeit anderen gegenüber, „ich bin, was ich bin, weil alle
wir sind“, gegenseitige Großzügigkeit, Zusammenarbeit
oder auch „das, was den Menschen zum Menschen macht“.
Liest sich alles ganz gut und ist hoffentlich keine „urban
legend“ oder Gepardenforelle. Auf jeden Fall ein schöner
Name für eine Linux-Distribution, mit der anscheinend
auch Anfänger klarkommen. Ubuntu ist von Canonical
(www.canonical.com) angeschoben worden, dem Unternehmen von Mark Shuttleworth. Der Südafrikaner verfügt seit
dem Verkauf seiner Firma Thawte an VeriSign 1999 über
500 Mio. US Dollar Spielgeld und war der zweite Tourist im
Weltraum. Im Juli hat Shuttleworth die Ubuntu Distribution an die neu gegründete Ubuntu Foundation übergeben,
die er gleich noch mit 10 Mio. US Dollar ausgestattet hat.
Dort soll die Software weiter gepflegt und kostenlos bereitgestellt werden. Die freie Entwicklung soll damit unabhängig vom kommerziellen Support sein.
auf zur nächsten Version
Auf jeden Fall eine schöne Geschichte oder sagen wir besser,
der schöne Anfang einer Geschichte. Denn bei Ubuntu ist
es nicht geblieben. Ubuntu basiert auf Debian (einer ausschließlich aus freier Software bestehenden Linux-Distribution) und arbeitet mit der Desktop-Umgebung GNOME,
für den im September eine neue Version erscheinen soll. Kubuntu hingegen arbeitet mit dem KDE-Desktop, deshalb das
„K“. Dass es Ubuntu gibt, hat nicht allen Debian-Entwicklern gefallen. Deshalb gibt es jetzt das „Rückwärts-Ubuntu“,
Utnubu genannt, mit dem Teile von Ubuntu wiederum in
Debian integriert werden. Aber das sollte niemanden erschrecken, wenn man sich vor Augen hält, dass die Vielzahl
der verschieden benamten Linux-Distributionen auf nicht
einmal eine Hand voll „Kern-Versionen“ zurückgeht. Bei
Distrowatch (www.distrowatch.com) steht Ubuntu an der
Spitze der Top Ten der Pagehits, bei Linux Weekly News
(www.lwn.net) an neunter Stelle der populärsten LinuxDistributionen.
das Geschäftsmodell kommt später
Kein Zweifel: Ubuntu hat die Charts wie keine zweite Distribution gestürmt. Was bislang fehlt: ein funktionierendes
Geschäftsmodell rund um die Distribution. Aber das wird
sicherlich noch kommen. Wenn erst einmal die Ubuntu
Foundation mit regelmäßigen Release- und Support-Zyklen
für Kontinuität gesorgt hat, wird sich schon jemand finden,
der mit Ubuntu Geld verdienen möchte. Bis dahin freuen
sich erst einmal die Anwender und die Admins über so etwas wie „plug and play“.
014
Panorama
Digitale Aktentasche
Virusattacken, Hardwaredefekte, Überspannungsschäden.
Viele Szenarien führen zu einem Datenverlust. Regelmäßige
Datensicherung ist wichtiger denn je und wird trotzdem
gerne vergessen. Wer viel unterwegs ist, weiß wie lästig
Backups sind. Halt!, ruft der Innendienst seinen Außendienstmitarbeitern zu. Daten sind unser Kapital! Sichern!
das erste Mal
Doch irgendwann ist es immer das erste Mal. Die Kundendatei ist einfach weg. Die letzten Einträge? Das Backup, so
der Admin gestern eines gemacht hat, liegt auf dem Server,
600 Kilometer weit entfernt. Sch... Backup, geht das nicht
einfacher? Ja. Aber nicht mit dem Notebook allein. Denn
oft steckt im Notebook eine überdimensionale Festplatte
– 60 GB, die zu 80 Prozent voll ist. Davon ein Backup auf
DVD oder CD zu ziehen, ist alles andere als praktikabel.
Die Älteren unter uns – die 1965 und früher Geborenen
– erinnern sich da an ganz andere Zeiten. Damals passte
der Festplatteninhalt eines PCs auf 40 Disketten. (Anm. d.
Red.: Mein erster Rechner hatte eine 500 MB-Platte!) Heute
reichen nicht einmal 100 CDs oder 15 DVDs – weshalb fürs
Handgepäck eine externe Festplatte zu empfehlen ist.
Schöner speichern
Es geht auch einfacher, schneller und schicker als mit 40
Disketten oder 40 CDs. Und zwar mit intelligenten externen
Festplatten. Damit können Anwender einen Speicher installieren, der nicht nur für das normale Backup schnell ist,
sondern auch für Echtzeit-Anwendungen. Mit Kapazitäten
bis zu 500 GB sind externe Festplatten wie die von Seagate
die Lösung für unterwegs: als Videoarchiv, Musikarchiv oder
den riesigen Berg von Daten. Liest sich gut, ist gut. Denn
solche Festplatten sind
nicht einfache Volumes,
auf denen man Dateien
parkt, sondern die Backupsoftware ist schon mit
drin. Seien wir ehrlich: So
eine Festplatte ist wie ein
ganzer Rechner unter dem
Arm. Mit allen, natürlich
legal, erworbenen DVDs.
Dem digitalen Fotoarchiv
der letzten fünf Jahre, seit
[email protected]
man die Digitalkamera und das erste Kind hat. Der Kollege
meint: Und das Musikarchiv. Ich sage: Das kann man sich
zur Not klein rechnen. MP3s sind nicht die Welt. Dafür gibt
es doch iRivers. Oder USB-Sticks bei Saturn. Zu teuer, sagt
der Kollege, krieg ich als Werbegeschenk für Umme. Aber
das ist eine andere Geschichte.
vor dem Kadi
Gruner+Jahr launcht neue Website
mit Interwoven Teamsite. RedDot
hat das Nachsehen. Vignette löst
beim ZDF Imperia ab. Unter Federführung von janusmedia führt Tele
5 konzernweit ContentServ ein. Last
not least löst Bild.T- Online den Vertrag mit Vignette und setzt auf CoreMedia, dem Hamburger Spezialisten für Crossmedia Publishing. Die
Liste fortzusetzen, ist nicht schwer:
Die Hintergründe der gescheiterten
Projekte zu erfahren, dagegen sehr. Liegt es daran, dass
der Markt lieber über Erfolgsmeldungen spricht? Ist es ein
ungeschriebenes Gesetz, sich im stillen Kämmerlein über
gescheiterte Projekte zu freuen?
Der Markt ist groß, und der Kunde ist weit. Die Marktübersicht von Oliver Tschau (www.contentmanager.de) listet in
neun Gruppierungen mehr als 650 Anbieter auf. Dopplungen nicht ausgeschlossen. Die genaue Zahl liegt irgendwo
dazwischen: zwischen Sein und Nichtsein. Gehen wir davon
aus, dass etwa 400 Produkte unter eigenem Label segeln –
und dass jedes Unternehmen im Jahr zwei Kunden gewinnt.
Das bedeutet: Hersteller und Partner implementieren jedes
Jahr 800 Systeme. 800 erfolgreiche Implementierungen? 800
Erfolgsgeschichten?
Komisch, man hört nur Gutes. Es sei denn, man schaltet den
Flurfunk an. Oder hört dem Vertriebler der Konkurrenz zu.
Der weiß Bescheid. Udo Röbel, ehemaliger Chefredakteur
von Bild.T-Online, weiß es genauer. Oder nicht. Er habe
sich bei Bild.T-Online für ein starkes Redaktionssystem
eingesetzt. Auf die Frage, ob das System den versprochenen
Erfolg gebracht hat, antwortet Röbel: „Das kann ich nicht
beurteilen, ich habe das System nie im Einsatz gesehen.“
Das Nachhaken bei der Konzernleitung brachte ebenso wenig Licht ins Dunkel. Die Presseabteilung wollte sich nicht
äußern. Eins ist sicher: Das von Röbel bevorzugte System
ist heute, Jahre nachdem der Chefredakteur Bild.T-Online
>>
������������������������
verließ, nicht im Einsatz. Ein Systemanbieter aus Hamburg
machte das Rennen. Nachdem Millionen für das erste System ausgegeben wurden? Gab es Schadensersatzforderungen von Bild.T-Online? Ja. Vor Gericht forderte A von B und
B von A. Das Urteil - nichts Genaues weiß man nicht. Oder
doch: Fragen Sie den Vertriebler.
���
�� � � � � � �
�
� ����
�����������
Qui bono?
Open-Source-Lizenz ist eine Software-Lizenz, die den Prinzipien der Open-Source-Initiative folgt: weltweit arbeiten
Entwickler gemeinsam an dem Code eines Programms. Der
Code ist frei, öffentlich zugängig, und die Entwicklung wird
zentral organisiert. Es gibt keine kommerziellen Hintergedanken - weitgehend. Damit ein Quellcode die begehrte
Open-Source-Lizenz erhält, muss er folgende Kriterien erfüllen: Die Lizenz darf niemanden darin hindern, die Software zu verkaufen oder sie mit anderer Software zusammen
in einer Software-Distribution weiterzugeben. Lizenzgebühren sind untersagt. (1) Die Software muss im Quellcode
für alle Nutzer verfügbar sein. (2) Die Lizenz muss explizit
das Verteilen von Software erlauben, die auf einer modifizierten Version des Originalquellcodes beruht. Die Lizenz
(???) kann verlangen, dass solche Änderungen zu einem
neuen Namen oder eine neue Versionsnummer der Software
führen und solche Änderungen dokumentiert werden. (3)
Die Lizenz darf den Verwendungszweck der Software nicht
einschränken. Non-Profit-Software von Idealisten für User.
Und für Unternehmen, die mit Open Source Geld verdienen
möchten. Zurzeit sind 58 Open-Source-Lizenzen bekannt,
teilweise sogar von Konzernen freigegeben. Dazu zählen unter anderem Academic Free License, Eiffel Forum License,
IBM Public License, Mozilla Public License Public License
1.0 (MPL), Nokia Open Source License.
wirklich frei oder nur ein taktischer Schachzug?
Auffällig ist, wer mittlerweile alles Fan von Open Source
ist, beispielsweise IBM und Sun. Die IT-Branche versteht
das nicht und kritisiert das Engagement. So macht sich
HP-Vize-Präsident Martin Fink auf der LinuxWorld in
San Francisco nicht zum ersten Mal für die Reduktion der
zahlreichen Open-Source-Lizenzen stark. An dieser Stelle
sollten sich Beobachter die Frage stellen: Cui bono? Wem
nützt es? Was verspricht sich HP davon, wenn es weniger
Open-Source-Lizenzen gibt? Oder: Sieht IBM dort ein lukratives neues Geschäftsfeld für seine Global Services? Open
Source ist spannend. Noch spannender ist, wer die Idee vor
seinen Karren spannen will.
����
�����������
�����������
��� ���
���
���� ������
�������
����������
�������
����������
�����
��������������������
��������
�������
�����������
��������
�����
�������
����������
����������
����������
����������
����������
����������
����������
����������
�����������������������
����������������������
���������������������������������������������
�����������������������������������������������
������������������������������������������������
���������������������������������������������
����������������������������������������������������
����������������������������������������������
��������������������������������������������
������������������������������������������
��������������������������������������������������
�����������������������������������������������
�����������������������
������������������������������������������
� � �� � � � �� � � � � � �
���������
�������������
������������
Crossmedia Publishing
Neues Paradigma: Vom Byte zum Papier
16-19
Crossmedia Publishing in Verlagen
Print + Online + E-Paper
Wolfgang Laier
20-21
Volker Watschounek
22-24
Der Wandel der Gesellschaft geht einher mit dem Umbruch der Medienlandschaft. Nach dem Zeitalter des Konsums, der Mode (50er Jahre) und der Globalisierung (90er
Jahre) steht ein Wandel hin zu einer sozialen Entwicklung
der Gesellschaft ins Haus. Das stellt Verlage vor neue Herausforderungen. Auch Leser werden sich im Umgang mit
Medien neue Gewohnheiten aneignen müssen. Wie sieht
nun das Medienhaus der Zukunft aus? Wie stellt sich dieses
Medienhaus den neuen Anforderungen? Was ist notwendig,
um es zukunftsgerecht auf- und auszubauen? Und: Wie
kann der Umbau finanziert werden?
E-Paper: vom Hoffnungs- zum Umsatzträger
Zwei Regalmeter auf einem USB-Stick
Praxis Bibliographisches Institut F. A. Brockhaus AG (BIFAB)
Interview BIFAB
26
Über Kreuz mit Crossmedia
27
Zur Wandelbarkeit von Sprache
Kleinvieh macht auch Mist
28-30
Paid Content
was die Anbieter schreiben
31
Vom Verlag zum Informationsunternehmen
Verlage sind historisch gewachsen. Ihr Ursprung liegt in der
Beherrschung des Publizierens und Druckens. Online spielt
allzu häufig eine untergeordnete Rolle. Die Entwicklung
vom Verlag zum Informationsunternehmen erweitert die
alten Konzepte. Sie fordert eine grundlegende Neuausrichtung in der Marktorientierung der Verlage. Die mediale
Wertschöpfungskette verlängert sich. Verlage decken immer
mehr Stufen in der Wertschöpfungskette ab. Das geht einher mit dem strategischen Wandel vom „gesellschaftlichen
Auftrag“ hin zum „renditeorientierten Handeln“ mit Informationen. Für Verleger klassischer Prägung ist das eine
unerträgliche Vorstellung.
Die digitalen Medien setzen sich immer deutlicher als
Werbe- und Informationsplattform durch. Die Folge ist
die Umkehr der traditionellen Reihenfolge von Print nach
Online. Inhalte werden online erzeugt und im Druck umgesetzt. Print bleibt dennoch der stärkere Umsatzmotor.
Online nimmt einen zunehmenden Anteil am Gesamtum-
Titel
017
• Crossmedia Publishing in Verlagen
Neues Paradigma:
Vom Byte zum Papier
Inhalte sind digital geworden. Das ist nichts Neues. Wie
Inhalte wahrgenommen, interpretiert und genutzt werden
schon. Paradigmawechsel: Inhalte werden im Internet für
Printpublikationen produziert. Die Wertschöpfungskette
ist länger und feiner ausdifferenziert.
satz ein. Neueste Untersuchungen zeigen, dass die Onlinenutzung keine spürbare Auswirkung auf die Nutzung von
Printmedien hat. Im Bezug auf TV-Medien sieht das anders
aus. Hier hat der Verdrängungswettbewerb begonnen. Der
Onlinebereich wird im Gegensatz zum Printbereich in der
Zukunft stärker anwachsen. Die Konsequenz:
Inhalte werden zukünftig verstärkt aus dem Onlinebereich
heraus generiert oder bestimmt, da hier eine höhere Aktualität
und Reichweite vorherrscht. Diese werden dann zur weiteren
Verwendung im Printbereich und in digitalen Medien wie
PDA, E-Book oder mobilen Endgeräten eingesetzt. Printprodukte können in Teilbereichen der Produktion als „Nebenprodukt“ angesehen werden, wobei diese jedoch auch mittel- und
langfristig immer noch den größten Anteil am Umsatz eines
Verlags einnehmen werden.
Am Anfang aller Überlegungen zur Gestaltung einer zukunftsfähigen Verlagsstruktur stehen die Fragen: Wer liest
was, und wo wird in Zukunft gelesen? Immer mehr Menschen nehmen Informationen über neue Kanäle auf. Es ist
zu erwarten, dass Innovationen wie E-Paper oder E-Book
in modifizierter Form ihren Durchbruch erreichen, insbesondere deswegen, da sich die Konzepte für den Einsatz auf
mobilen Endgeräten eignen.
Mit der Einführung des digitalen Fernsehens ist ein weiteres Medium hinzugekommen. Hier wird Integration mit
bestehenden Medien wie dem Internet stattfinden. Dazu
kommen Aspekte wie Interaktivität und die damit verbundene Anpassung der Angebots- und Werbeformen. Ein
erfolgreiches Beispiel, wie schnell und unkonventionell sich
die neue Mediennutzung durchsetzt, zeigt Podcasting. Bei
Podcasting werden nicht nur selbst produzierte Audiodateien (Podcasts) über das Internet im Format eines Weblogs
mit speziellem RSS-Feed bereitgestellt, sondern auch - in
Verbindung mit MP3-Playern - Radio im Internet gesendet.
Audio-, Video- und Weblogs haben sich im Fahrwasser von
DSL im Internet in kürzester Zeit in der Mediennutzung
etabliert.
Push, Pull und Communities
Insgesamt ist zu erwarten, dass Informationen künftig
stärker über Push-Technologien angeboten werden (siehe
auch Seite 8, Blackberry). Nicht nur E-Mails werden zeitnah distribuiert. Auch SMS-Benachrichtigungen oder ein
aktiver Newsversand über Newskanäle findet nicht mehr
ausschließlich über Pull-Technologien statt. Der Leser stellt
sich seinen Mix aus Informationen selbst zusammen. Er
erhält die Informationen, die er lesen möchte, gezielt und
unaufgefordert. Es ist zu beobachten, dass Verlage ihre Inhalte vermehrt in Communities generieren und crossmedial
in anderen Ausgabemedien verwerten. Das führt dazu, dass
Leser unmittelbar die Informationsangebote mitbestimmen. Darüber hinaus werden multimediale und zukünftig
auch interaktive Angebote vermehrt zum Einsatz kommen.
Die Impulse, aus Verlagen mediale Dienstleistungsunternehmen zu formen, müssen rechtzeitig aus Eigenhandlungen der Verlage erfolgen und nicht durch Marktzwänge. Die
Durchdringung der digitalen und multimedialen Medien,
wie Internet und mobile Endgeräte, macht es notwendig,
Systeme und Prozesse im Verlagswesen neu zu strukturieren oder zu entwickeln. Die Komplexität der einzelnen
018
Titel
Teilprozesse erfordert ein Mehr an Abläufen, welche in die
täglichen Arbeitsprozesse integriert werden müssen. Dabei
müssen Konzepte zur Refinanzierung des Umbaus entwickelt werden.
„Produktionssysteme“ der Verlage wandeln sich
Die im Verlagswesen eingesetzten Systeme sind durch Medienbrüche gekennzeichnet. Die Diversifikation der Medien
zieht nur langsam eine Diversifikation der Produktionswege
nach sich. Der Übergang von einem homogenen Medium
hin zu einem vielseitig verknüpften und heterogenen Medium ist verstellt. Die Zusammenführung der einzelnen
Prozesse zu einem integrierten Gesamtprozess schreitet besonders in traditionell gewachsenen Bereichen nur langsam
voran. Das liegt daran, dass der Übergang mit einem großen
finanziellen Aufwand verbunden ist. Und der ist für kleine
und mittelständische Verlagshäuser schwer zu bewältigen.
Bestehende Verlagskulturen und -strukturen behindern
eine neue Wettbewerbsorientierung und ein tief greifendes
Veränderungs- und Innovationsmanagement. Verschiedene Beispiele zeigen, dass neue Konzepte durchaus zum
Erfolg führen können. Viele Verlagshäuser haben punktuelle Erweiterungen vorgenommen. Angebote wie E-Paper
wurden in das Portfolio mit aufgenommen. Der nächste
und schwierigste Schritt besteht darin, Angebote zu etablieren und profitabel zu machen. Wie schwierig die Anläufe
sind, zeigt das Beispiel „paid content“ (Seite 28 ff.). Verlage
werden über kurz oder lang gezwungen sein, ihre Systeme
umzustellen. Dabei wird die crossmediale Produktion und
die Verwendung von Inhalten in verschiedenen Medien eine
der zentralen Anforderungen einnehmen. Die Zukunft des
Verlagswesens wird dadurch geprägt sein, dass mehr Prozesse von der Technik gesteuert werden. Verlagshäuser, die auf
eine konservative Strategie mit wenig Risiko setzen, werden
langfristig nicht überleben. Eine vergleichbare Entwicklung
zeichnet sich in den letzten Jahren bei den Media-Agenturen
ab. Agenturen, die auf Print gesetzt haben, sind von Agenturen verdrängt worden, die verstärkt auf IT/Online gesetzt
haben. Deshalb besitzt für Verlage der Wandel zum Informationsunternehmen erste Priorität.
zum Thema
Verband Deutscher Zeitschriftenverleger e.V. www.vdz.de • Börsenverein des Deutschen Buchhandels e.V. www.boersenblatt.net
• Verband Österreichischer Zeitungen www.voez.at • Schweizer
Buchhändler- und Verleger-Verband (SBVV) www.swissbooks.ch • TU
Dresden weim.wiwi.tu-dresden.de • Universität Passau www.im.unipassau.de
(2) ein verändertes Leseverhalten,
(3) veränderte Produktionsprozesse,
(4) Erlös- und Geschäftsmodelle müssen umgestellt
werden.
Onlineangebote sind stärker in die bestehenden Geschäftsprozesse zu integrieren. Sie werden fester Bestandteil einer
unternehmensweiten Prozess- und IT-Infrastruktur. Durch
die Anforderungen und die Komplexität bei Generierung,
Pflege und Aktualisierung von Inhalten sind Systeme notwendig, die zum einen refinanzierbar sind, zum anderen
die Möglichkeit bieten, unterschiedlichste Prozesse zu integrieren.
Print und Online wachsen zusammen
Konsequenterweise werden in der Produktion Systeme
eingesetzt, die eine Mehrfachverwertung der Inhalte in verschiedenen Medien, mindestens jedoch die medienneutrale
Datenhaltung ermöglichen. Viele Verlagshäuser stehen vor
der Frage, ob sie für Print und Online ein gemeinsames
Redaktionssystem verwenden. Oder ob sie für die einzelnen
Kanäle separate Lösungen mit definierten Schnittstellen
wählen. Die meisten Verlage setzen zurzeit auf getrennte
Systeme. Das ist das Ergebnis eines über die Jahre hinweg
betriebenen schrittweisen Ausbaus der Systeme. Es fehlte
und fehlt der Mut zum radikalen Schnitt. Wobei sich der
Umbau zu einem integrierten Redaktionssystem nur lohnt,
wenn Inhalte für Print und Online gleichermaßen relevant
sind und intensiv ausgetauscht werden. Wesentlich dabei:
Alle Inhalte werden medienneutral gespeichert. Medienbrüche werden vermieden.
Zusammenfassung
Strategische Konzepte und praktische Erfahrungen
Es gilt anzufangen. Sich den Herausforderungen zu stellen.
Den Trend positiv mitzugestalten. In der Praxis heißt das:
(1) Generierung und Verteilung von Inhalten über
zusätzliche Medien wie Internet oder mobile Endgeräte
Fazit der derzeitigen Entwicklung ist, dass die Verzahnung
der Inhalte eine stärkere Integration von Print- und Onlineredaktion notwendig macht. Das bedeutet: Immer mehr
Prozesse werden aus der IT heraus gesteuert. Das bringt
mittel- bis langfristig eine komplette Veränderung der
Verlagsstrukturen mit sich. Eine wichtige Anforderung an
019
die Verlagssysteme besteht darin, die unterschiedlichsten
Geschäftsprozesse abzubilden. Ziel ist es, neue Erlösmodelle
und Geschäftsprozesse marktreif zu machen und dabei Kosten zu minimieren. Das Konzept eines zukunftsfähigen Verlagssystems basiert auf einer Service-orientierten Architektur (SOA), die sich durch die Aufteilung in unterschiedliche
Funktionsbausteine („Services“) auszeichnet. In ihrer Modularisierung und Flexibilität gleichen die Systeme denen
anderer Branchen. Rationalisierungs- und Wirkungsgrade
stehen im Vordergrund. Positiv: Für die Module können
eigene und unabhängige Workflows erstellt werden. Dabei
kann auf einen Vorrat an internen und externen Funktionalitäten zugegriffen werden. Große Verlagsunternehmen
setzen derzeit verstärkt auf SOA. Die Idee des „Business
Process Engineering“ hat das Verlagswesen erreicht.
Merkmale des „Systems der Zukunft“
Eine zeitgemäße Plattform verfügt über ein heterogenes und
systemübergreifendes Daten-Management sowie über Tools
zur Modellierung und Unterstützung von Geschäftsprozessen. Die Architektur ermöglicht die Wiederverwendung von
Anwendungen und Daten, indem diese als Software-Module
oder Services innerhalb des Gesamtsystems ablaufen. Daten
werden medienneutral in Systemen gespeichert. Darüber
hinaus ist das System in der Lage, unterschiedlichste Erlösmodelle zu integrieren, um die operative und strategische
Entwicklung des Verlages zu unterstützen.
Die heutigen, monolithischen Systeme erfüllen die beschriebenen Anforderungen nur bedingt. Oft sind sie starr, was
zu hohen Folgekosten führt. Verlage stehen vor der Frage,
ob sie die bestehenden Systeme erweitern oder durch neue
Systeme komplett ersetzen.
Nicht anders geht es den Versandhäusern und Katalogherstellern. Die gehören zwar nicht zu den klassischen
Verlagen, stehen aber vor ähnlichen Aufgaben: komplexe
Datenhaltung und variables Publizieren. In den letzten
Jahren fand eine Parallelentwicklung statt: die Publikation
von Katalogen als Print- und Online-Version. Dafür waren
und sind überwiegend getrennte Systeme verantwortlich.
Das bedeutet im Zeitalter von XML oft doppelte Arbeit,
gerade bei der Neuaufnahme und Pflege von Artikeln. Der
Aufwand erhöht sich, wenn diese Prozesse gänzlich vom
Warenwirtschaftssystem abgekoppelt sind. Sicher gibt es
eine Reihe von Anbietern, die aus der XML-Welt kommen
und leistungsstarke Publishing-Lösungen anbieten. Bildund Textelemente werden von ihnen universell in verschiedene Kanäle ausgegeben. Die verlagsweite medienneutrale
Datenhaltung, die Integration eines Asset-Managements
und Warenwirtschaftssystems sowie die Möglichkeit, unternehmensübergreifend die Katalogproduktion in fremde
Geschäftsprozesse einzubinden, ist ein sehr komplexer Vorgang - und trotz gelungener Ansätze eher noch eine Vision.
Ausblick
In der Zusammenführung der digitalen Welt und der PrintMedien entsteht ein neues Bild, was Medien sind und leisten. Der Wandel in der Mediennutzung wird zu veränderten
Produktionssystemen führen. Das spiegelt sich schon jetzt
in dem Engagement der Systemhersteller wider. Deren Ziel
sind Systeme, die als integrierte und einheitliche Plattform
den verschiedenartigen Ansprüchen und Erfordernissen gerecht werden. Das Medienhaus der Zukunft kommt an solchen Veränderungen jedoch vorbei. Im Mittelpunkt stehen:
(1) Einsatz und Vernetzung unterschiedlicher, komplexer
Informationssysteme in allen Bereichen,
(2) Erhöhung der Wertschöpfung durch Mehrfachverwertung der redaktionell erstellten Inhalte,
(3) Intensivierung des Kundenmanagement,
(4) neue Geschäftsfelder: Print, Online, E-paper, E-book,
(5) Radio, TV, Shops, Communities u. a.,
(6) Internationalisierung und Konzentrationsprozesse,
(7) Qualifizierung und Mobilisierung der Mitarbeiter.
Das Medienhaus der Zukunft ist in der Lage, aus eigenen
oder fremd genutzten Datenpools innerhalb kürzester Zeit
neue Produkte und Geschäftsmodelle zu entwickeln – unabhängig von den ausgebenden Medien. Digital allein reicht
keineswegs, Printobjekte der nächsten Generation geben
dem Papier „den Lead“ zurück. Das Erstellen und Konfektionieren von Inhalten wird in eine digitale Produktionsstraße eingebunden, die sich an der Strategie und den Zielen
des Unternehmens ausrichtet. Schnittstellen zu anderen
Systemen wie Warenwirtschaft, CRM oder E-Shops werden
die Wertschöpfungsketten verlängern. Verlage werden so zu
ganz normalen Unternehmen. Und werden aufgrund ihrer
Inhalte doch auch immer etwas Besonderes bleiben.
Wolfgang Laier
Diplomierter Betriebswirt, Geschäftsführer der
Enterra GmbH, Jahrgang 1967, entwirft Konzepte
für Redaktionssysteme und Medienhäuser.
020
Titel
• E-Paper: vom Hoffnungs- zum Umsatzträger
Print + Online + E-Paper
Man spricht nicht mehr über E-Paper. Man hat es. Rund 120
digitale Ausgaben von Zeitungen und Zeitschriften gab es
Mitte 2005 allein in Deutschland – weitere kommen laufend
hinzu. Seit der ersten Einführung einer „E-Paper“-Ausgabe
Katka Riefler
durch die Rhein-Zeitung aus Koblenz im Jahr 2001 hat dieses
Konzept seinen Siegeszug angetreten.
Die strategische Motivation der Zeitungshäuser ist dabei weniger die Erwartung, innerhalb kurzer Zeit viel Geld zu verdienen, als vielmehr das eigene Produktportfolio abzurunden. Digitale Ausgaben erreichen heute einen qualifizierten
Nischenmarkt: Leser auf Reisen oder im Ausland lassen sich
schnell und günstig mit dem Quasi-Printprodukt erreichen.
Die bezahlten E-Paper-Exemplare werden von der IVW als
Auflage gezählt, was in Zeiten sinkender Printauflagen ein
gewichtiges Argument ist. Und nicht zuletzt ist den Verlagen
jedes Produkt willkommen, das der „Kostenlosmentalität“
der Internetnutzer entgegenzuwirken hilft.
Niedrige, aber steigende Abo-Zahlen
Rund 4.200 zahlende Abonnenten hat die Süddeutsche Zeitung in nur acht Monaten für ihr E-Paper gewonnen. Die
elektronische Ausgabe ist seit August 2004 kostenpflichtig.
Abonnenten der SZ zahlen drei Euro zusätzlich pro Monat.
Das reine Online-Abo ist mit 19,90 Euro rund ein Drittel
billiger als die gedruckte Zeitung. Rund 1.400 Bezieher hat
die Nordwest-Zeitung in Oldenburg 6 Monate nach der
Einführung von ihrem Produkt überzeugen können – auch
dies eine beachtliche Zahl für ein bezahltes Online-Angebot.
Ein Blick auf die IVW-Auswertung zeigt in beiden Fällen,
dass die Verlage mit E-Paper in der Regel die Leser der gedruckten Zeitung und weniger neue Zielgruppen erreichen.
Während sich bei der SZ immerhin 860 Leser für das reine
Online-Angebot entschieden haben, sind es bei dem Regionalverlag nur 45.
Hinter diesen zunächst verblüffenden Zahlen versteckt sich
häufig eine Geschäftsstrategie: Firmenkunden, die mehrere
Zeitungsexemplare beziehen, möchten die Zeitungslektüre
verstärkt im Firmennetzwerk ermöglichen. Wenn der Verlag
dies mit Hilfe einer E-Paper-Lösung ermöglicht, werden
diese Exemplare von der IVW als Auflage ausgewiesen.
Ende Juli 2005 meldete die Süddeutsche Zeitung den ersten E-Paper-Abschluss mit einem Großkunden: Rund und
22.000 Mitarbeiter der HypoVereinsbank lesen die SZ am
Bildschirm. Die Deutschland-Ausgabe der SZ steht bereits
am Vorabend um 20 Uhr online, die Münchner Stadtausgabe einschließlich der Landkreisausgaben spätestens um
sechs Uhr morgens. In den Niederlanden und in den USA
wird E-Paper auch gerne für den elektronischen Belegversand genutzt: Anzeigenkunden erhalten zeitkritisch die
Zeitungsseite, auf der ihre Anzeige erschienen ist. Kritik an
Platzierung oder Umfeld kann dem Verlag so schneller mitgeteilt werden. Zudem erleichtert das elektronische Format
die Archivierung.
Der Aufwand für die Produktion von E-Paper-Ausgaben ist
je nach Umfang der bereitgestellten Funktionalität und der
technischen Ausgangsbasis unterschiedlich. Einfache PDFAusgaben stellen Zeitungshäuser vielfach mit Bordmitteln
ins Netz. Anbieter von Redaktions- und Archivsystemen
bieten vielfach ein E-Paper-Modul an, mit dem mit vergleichsweise wenig Zusatzaufwand digitale Ausgaben direkt aus den Produktionsdaten der Zeitung erstellt werden
können. Daneben gibt es Lösungen, die unabhängig von
021
„Rieflers Welt“
RZ-Online GmbH www.e-paper.de • MSH Medien System Haus
GmbH & Co. KG www.msh.de • COMYAN Internet & Intranet Solutions GmbH www.comyan.com • Digital Collections Verlagsgesellschaft mbH www.digicol.de
der Produktionsweise E-Paper aus einem für die Printproduktion geeigneten PDF erstellen können. Dieser Ansatz
scheint auf den ersten Blick kostengünstiger. Der Grad der
Automatisierbarkeit einer Lösung schwankt jedoch. Manche
Lösungen erfordern eine erhebliche Nacharbeit. Sorgfältig
sollten Zeitungsverlage prüfen, ob die favorisierte technische
Lösung mit verschiedenen Lokalausgaben umgehen kann.
Zwitter aus Print und Online
Verschiedene Untersuchungen zum Nutzerverhalten zeigen, dass ein E-Paper aus Sicht der Nutzer genau das ist,
was der Leser erwartet: ein Zwitter zwischen Print- und
Onlineprodukt. Entsprechend werden Printfunktionalitäten wie Blättern oder das Springen zu speziellen Ressorts
ebenso erwartet wie onlinetypische Möglichkeiten wie die
Volltextsuche. Erste Erfahrungen zeigen, dass speziell ein
Archivzugang einen besonderen Nutzungsanreiz darstellt.
Verlage, die wie beispielsweise die Rhein-Zeitung mit dem
E-Paper-Abo eine umfangreiche Archivnutzung verbinden,
sind in der Regel erfolgreicher als restriktive Angebote.
Interaktive Zusatzoptionen wie beispielsweise Links zu
weiterführenden Informationen oder die Integration von
Multimediaelementen finden sich in den E-Paper-Ausgaben
von Zeitungen selten. Zwar ließe sich damit theoretisch die
Attraktivität des Produkts steigern. Angesichts der geringen
Nutzerzahl lohnt sich der Produktionsaufwand jedoch weder für die Zeitung noch für die Anzeigenkunden. Anders
ist die Situation bei Zeitschriften. Da dort die Lebensdauer
einer einzelnen Ausgabe länger ist, kommt Zusatzinhalten
eine höhere Bedeutung bei. Ein schönes Beispiel aus jüngerer Zeit ist die digitale Ausgabe der Musikwoche. Deren
„livepaper“ bietet Seiten zum Umblättern, Sounds, Videos,
Links und die Anbindung an die größte Datenbank der
Branche. Abrufbar sind Musiktitel, Hintergrundinformationen zu Interpreten, aktuelle Charts und vieles mehr.
Diese Art E-Publikation mit ihrer Vielzahl an Möglichkeiten stellt eine Alternative zur gedruckten Zeitschrift als auch
zum herkömmlichen Onlineauftritt dar. Sie könnte geeignet sein, neue Zielgruppen zu erreichen. Bei Tageszeitungen
und den dort verbreiteten E-Paper-Varianten ist dies nicht
der Fall. Von deren Online-Auftritten erwarten sich Nutzer
nicht nur Hintergrund zum bekannten, bereits gedruckt
veröffentlichten Geschehen, sondern laufend aktualisierte
Information – einem solchen Anspruch kann keine noch
so multimedial vernetzte E-Paper-Ausgabe gerecht werden.
Insofern wäre es für Zeitungen wenig zukunftsträchtig, ihre
Online-Auftritte durch E-Paper-Ausgaben zu ersetzen.
Kombi von Print und Online nutzt auch Anzeigen
Durchaus zukunftsfähig ist aber die Kombination von Online und Print, nicht zuletzt bei der Zeitungsproduktion und
ganz speziell für den Anzeigenteil. Der amerikanische Zeitungsverlegerverband „Newspaper Association of America“
(NAA) forderte bereits 2003 die Abkehr von Print-zentriertem Denken. Chris Hendricks, Vizepräsident der McClatchy Zeitungsgruppe, formulierte dies in einem Interview
mit der Zeitschrift „Editor and Publisher“ zugspitzt. „Zur
Zeit scheint der Produktionszyklus rückwärts organisiert
zu sein. Wir erstellen ein genuin schmalbandiges Produkt
(die Zeitung). Wir erfassen und speichern nur, was wir
für das gedruckte Produkt benötigen. Wir nehmen dann
die Druckdaten und schicken sie in Breitbandmedien, die
Unmittelbarkeit, Quantität und Qualität der Informationen
verlangen. Ich glaube, dass wir in 10 Jahren weit auf dem
Weg fortgeschritten sein werden, den Produktionszyklus
umzukehren und zuerst Breitbandprodukte und erst dann
schmalbandige Produkte zu erzeugen.“
Die zentrale Datenhaltung und die Umkehr der Produktionsweisen steht bei europäischen Verlagen ganz oben auf
der Prioritätenliste. Neue Printprodukte wie beispielsweise
die „Car4you“-Zeitung in der Schweiz oder „Autobild.de
– automarkt“ des Axel Springer-Verlag werden komplett
oder zum Großteil aus Online-Datenbanken generiert. Der
österreichische Styria-Verlag setzt auf eine zentrale Datenbank als Basis für alle Produkte. Für Anzeigenkunden sind
interaktive Prospektbeilagen interessant, die als E-Paper
veröffentlicht werden. Solche Angebote gibt es bei Kölner
Stadtanzeiger, Berliner Morgenpost, Nordkurier, Ostseezeitung und der Schweriner Volkszeitung. Dabei wird nicht
nur der Prospekt auf den Bildschirm gebracht. Nutzer können gezielt nach Artikeln suchen und Details vergrößern.
Katja Riefler
Jahrgang 1963, Politologin,
im Nebenfach Philosophie und Amerikanistik.
Riefler arbeitet als Medienberaterin, Fachjournalistin und Fachautorin.
022
Titel
• Praxisbericht Bibliographisches Institut F. A. Brockhaus AG
Zwei Regalmeter
auf einem USB-Stick
Lexika sind eine Welt für sich. Das gilt für die Werke selbst und
für deren Herausgeber. Universelles Wissen findet auf immer
Uwe Hentschel
Volker Watschounek
kleineren Medien Platz. Wissen ist mobil geworden. Und auch
die „Hersteller“ von Wissen haben sich gewandelt.
1988 fusionierte das Bibliographische Institut, in dem der
Duden erscheint, mit F. A. Brockhaus. Das Unternehmen
firmierte fortan als Verlag Bibliographisches Institut und
F. A. Brockhaus AG, kurz BIFAB. Der Blick zurück auf die
traditionsreiche Geschichte hat nicht den Blick auf die
Zukunft verstellt. Anfang der Neunziger entschied sich das
Verlagsmanagement für die Einführung eines SGML-basierten Redaktionssystems. Das Eigengewächs wird heute
im Haus noch weiterentwickelt. Als Backend kommt eine
SQL-Datenbank zum Einsatz, der SGML-Editor kommt
von Arbortext.Ein Anfang war gemacht: Inhalte „zu zerlegen“ und medienneutral auszugeben. Das Schreiben der
Document Type Definitions (DTDs), mit denen die Daten
modelliert und in das Redaktionssystem überführt wurden,
haben seinerzeit zwei externe Dienstleister übernommen.
raus aus dem Satz und rein in SGML
Als erstes Werk wurde ein Duden-Wörterbuch konvertiert.
Für BIFAB, wo das Wissen über die logische inhärente
Struktur der Inhalte lag, ging es im ersten Schritt um ein
einfaches Ziel: Die neuen Daten wieder auf den selben
druckfähigen Stand der alten Satzdaten zu bringen. Bernd
Kreissig ist Geschäftsführer der Tochterfirma Brockhaus
Duden Neue Medien GmbH. Er ist seit 1994 mit dabei.
Kreissig hat die Anfänge auf dem Weg in die „neue Zeit“
miterlebt. „In einer semantischen Markup-Sprache wie
SGML zeichnet man unter sachlichen Aspekten aus, etwa
ein halbfett zu druckendes Nebenstichwort genau an der
Wortgrenze, ohne umgebende Interpunktion. Im guten
Satz gilt jedoch die Regel, dass sich die Formatierung eines
Satzzeichens nach dem vorangegangenen Wort richtet. Also
ob das Komma fett oder mager gedruckt wird. Das mussten
wir erst einmal nachbauen, um das Wörterbuch drucken zu
können.“Den rückblickend entscheidenden Schritt in der
Professionalisierung beim Erstellen digitaler Medien tat
BIFAB 1993. Da erschien das erste Dudenwörterbuch in der
Reihe der PC-Bibliothek. Eine Softwarereihe, die es bis heute gibt, mittlerweile unter dem Namen „Office-Bibliothek“.
Damit hat BIFAB den Grundstein gelegt, für die Technologie und die internen Prozesse.
023
Wettbewerb angenommen
Das erste wirklich große crossmediale Produkt entstand
1995. In einem Joint Venture mit Microsoft wurde die die
LexiROM herausgebracht, eine Zusammenstellung mehrerer ein- und zweisprachiger Wörterbücher zusammen mit
einem Lexikon auf CD-ROM. Microsoft hatte das SoftwareKnow-how, BIFAB lieferte die Inhalte. Bei der Datenhaltung
hatte indes BIFAB die Nase vorn. Während Microsoft noch
mit RTF-Dateien hantierte, arbeiteten die Mannheimer bereits mit SGML als Basisformat.
Vom Erfolg der LexiROM beflügelt, entschloss sich Microsoft einige Jahre später, im Alleingang ein eigenes Lexikon
auf dem Markt zu bringen: die Encarta. Die erste Encarta
kam im Herbst 1997 auf den Markt und war ein durchschlagender Erfolg. Ein Jahr später zog BIFAB mit dem
Brockhaus multimedial nach. Erstmals erschien damit ein
größeres Lexikon in digitaler Form. Dabei wurde der Inhalt
gezielt an die Bedingungen des Bildschirms angepasst. Und
erstmals war die Preisfindung nicht vom Buch, sondern
vom Marktumfeld bestimmt.
Bernd Kreissig über die Marktanteile heute: „Wir gehören
zu den wenigen Firmen, die es geschafft haben, Microsoft
den ersten Platz streitig zu machen. Darauf sind wir richtig
stolz, keine Frage. Heute steht es etwa 2:1 bei den Marktanteilen für uns. “ BIFAB und Microsoft vereinigen etwa 80 bis
90 Prozent im Markt der multimedialen Lexika auf sich. Andere Anbieter wie Bertelsmann oder Data Becker bedienen
den Markt mehr oder weniger nur noch mit ihrer Backlist.
aus der alten ...
Wie groß die Strecke ist, die BIFAB seit Anfang der Neunziger zurückgelegt hat, zeigen ein paar technische Anekdoten. „Als ich anfing“, sagt Kreissig, „fand ich auf meinem
Schreibtisch zwei PCs ohne Peripheriegeräte. Das SGML-
Redaktionssystem lief auf Sun-Workstations, so wie auch
heute noch. Für die kaufmännische Seite gab es ein AS/400System. Aber PCs? Gab es nur wenige im Haus. Ich musste
an meinem ersten Arbeitstag erst mal losgehen und Monitor
und Tastatur kaufen. Das hatte man schlicht vergessen.“
Auch Internet gab es im Verlag noch nicht wirklich. Das
BIFAB-Netz war nicht mit dem Internet verbunden, weil es
keine Firewall dahinter gab. Dann also lieber kein weltweites
Netz. Für E-Mails hatte man einen einzelnen Rechner ausserhalb des Firmennetzwerks eingerichtet, der mit dem Web
verbunden war. Zwischen dem internen Mailserver und
„Versende-Rechner“ bestand eine serielle UUCP-Verbindung, also aus Sicherheitsgründen kein Routing. „Wer eine
Mail abgeschickt und das kurz darauf bedauert hatte, ist
zum Rechner gerannt und hat das Kabel gezogen. Wennderjenige schnell genug war, hat das geklappt.“ Bevor es endlich
Web und E-Mail für alle gab, war der Rechner mit seinen
38.400 Baud Übertragungsgeschwindigkeit schließlich 24
Stunden am Tag damit beschäftigt, den Stapel der ein- und
ausgehenden E-Mails abzuarbeiten.
... in die neue Welt.
Heute geht es um Technologien, die Crossmedia-Publishing
ergänzen: Sprach- und Retrievaltechnologien. Der Schritt
zu einer medienneutralen Datenhaltung ist vollzogen. Der
wichtigste Partner an der Seite von BIFAB bei der Sprachtechnologie ist das Institut für angewandte Informationsforschung (IAI) an der Universität Saarbrücken. „Die für
uns zentralen Fragen liegen im Morphologiesystem, das
heißt, der korrekten Analyse und Behandlung von Wortformen. Daneben geht es um verschiedene Parser, die Sätze
segmentieren und versuchen, die Formen der natürlichen
Sprache in entsprechende logische Strukturen im Rechner
abzubilden.“ Die gemeinsamen Entwicklungen finden auch
Eingang in den Duden-Korrektor für die automatische Kor-
024
Titel
rektur in der Textverarbeitung. Oder als natürlichsprachliche Abfragemöglichkeit in der „Brockhaus Enzyklopädie
digital“, die im Herbst auf der Buchmesse vorgestellt wird.
Im zweiten wichtigen Bereich, beim Retrieval, der Suche
und Indexierung in den Datenbanken, arbeitet BIFAB seit
1992 mit dem Institut für Hypermediasysteme (HMS) an
der technischen Universität Graz zusammen. Hier geht es
um das Entwickeln und Implementieren von Algorithmen,
die die Fundstellen der Treffer nach Relevanz sortieren: Das
„Brockhaus Wissensnetz“, ein computergeneriertes Kontextnetz, bietet unter den Einträgen im Lexikon Vorschläge
zu art- oder themenverwandten Begriffen an.
Neue Technik, neue Produkte
Nicht jede Publikation ist heute beim BIFAB crossmedial
– das Gros der Titel wird nach wie vor gedruckt. Daran
wird sich wenig ändern. Typischerweise sind die hochauflagigen Titel aber fast alle crossmedial. Das Flaggschiff ist
die „Brockhaus Enzyklopädie digital“. Sie passt auf einen
USB-Stick und braucht nicht installiert, sondern nur gestartet zu werden. Ein Gigabyte Daten auf dem Stick beträgt
die reine Textmenge, inklusive Software und Indizes. Die
komplementäre Multimediakomponente gibt es auf zwei
DVDs mit jeweils 9 Gigabyte. Sind die installiert, koexistiert
der Stick mit einem riesigen Medienpool an multimedialen
Einträgen.
Nicht nur für dieses Produkt hat BIFAB einen Datenpool
aufgebaut, den interne und externe Redakteure pflegen. Für
den 3-D Globus existiert eine Geodatenbank. Diese stellt
selbst die Google-Earth-Software in den Schatten. Zwei
Millionen Einträge von kartographischen Verlagen und
Herstellern von Geoinformationssystemen mussten dafür
überprüft werden. Das solche Projekte erst mit einer Nutzung über das Kernprodukt hinaus rentabel werden, ist klar.
Beispielsweise über eine Lizensierung der Softwaremodule.
Crossmedial als Wissensaufgabe
Gibt es für crossmediale Produkte Grenzen? Oder tun sich
mit neuen Technologien zugleich neue Türen auf? Bernd
Kreissig sieht in der Verbindung vom Wissen über die
Sprache und Wissen über die Dinge den Schlüssel für die
zukünftige Entwicklung. „Heute erkennt man im XML noch
die Reste des klassischen Wörterbuch-Textes. Zukünftige
Systeme haben sicher noch wesentlich komplexere interne
Informationsstrukturen und zeichnen sich sich dadurch
aus, das wir mit Instanzen von Begriffen arbeiten. Das heißt,
wir werden Methoden der objektorientierten Softwareentwicklung auf unser Gebiet anwenden. Die Verzahnung von
Wortwissen und Sachwissen wird zunehmen. Je mehr man
über die Begriffe und ihre Eigenheiten weiß, desto mehr
weiß man auch über ihre Beziehungen untereinander.“
Technologie potenziert Wissen
Was heute unter Crossmedia subsumiert wird, ist nach
Kreissigs Ansicht erst der Anfang dessen was möglich ist.
Vorerst jedoch sind Anbieter und Anwender wieder zu realistischen Vorstellungen zurückgekehrt, zu dem, was Crossmedia bedeutet und was damit machbar ist. Statt mit Visionen setzen sich Verlage wieder stärker mit den Produkten
auseinander. Allein die aufwendige Infrastruktur will erst
einmal refinanziert werden. Mit XML strukturierte Inhalte
wollen erst einmal verkauft werden. Da sind die Marktchancen wichtiger als ein schnelles „time to market“, wenn man
keine Umsätze erzielt. Reines Transportieren von Inhalten
aus Medium A nach Medium B reicht nach Meinung von
Kreissig ebenfalls nicht aus. Er sieht gerade in der Verfeinerung von Software und den entsprechenden Technologien
den Wert der Inhalte und deren Nutzung steigen.
026
Titel
Neun Fragen an Klaus Holoch
Duden, Meyers, Brockhaus - klangvolle
Namen im Verlagswesen. Das Bibliographische Institut & F.A. Brockhaus (BIFAB)
steht für 200 Jahre Verlagsgeschichte. Und
für crossmediales Publizieren. Volker Watschounek
sprach mit Klaus Holoch, Leiter Presse- und Öffentlichkeitsarbeit beim BIFAB.
Was hat das Verlagsgeschäft der Brockhaus AG im 20. Jahrhundert am deutlichsten verändert?
Brockhaus feiert dieses Jahr sein 200-jähriges Jubiläum.
Die letzten 20 Jahre waren spannender als die ganzen
180 Jahre davor. In Sekunden mit jedem rund um den
Globus kommunizieren zu können, ist revolutionär. Die
technische Entwicklung, nicht nur in der Produktausprägung, sondern bei den Kommunikationsmitteln, hat die
Verlagswelt völlig verändert.
Mit den neuen Medien sind neue Vertriebskanäle entstanden. Wie wirkt sich das auf ein Verlagshaus aus?
Ich habe früher behauptet, es würde nicht lange dauern,
bis die neuen Medien die klassischen Lehrmaterialien wie
Bücher und Lexika verdrängt hätten. Die Wette habe ich
immer verloren. Die Medien haben sich verändert, sicher.
Und es gibt verschiedenste Formen von Nutzung und Bedürfnissen. Die Inhalte müssen sich dem anpassen. Das
Buch bleibt jedoch ein wichtiger Baustein, darauf gehe
ich heute jede Wette ein.
Hat sich dadurch das Geschäft mit den Druck-Erzeugnissen
verändert? Was bedeutet das für Print?
Wenn wir ein Produkt wie den Duden „Deutsche Rechtschreibung“ auf den Markt bringen, kann man dieses
Werk mit CD-ROM im Buch kaufen. Der Nutzer hat
den gleichen Inhalt dann fürs Regal und für den Rechner.
Das heißt, wir sind auf allen Plattformen unterwegs. Der
Kunde kauft ein Produkt und hat beide Ausprägungen.
Zurück zu den Druck-Erzeugnissen – hat sich auch der
Herstellungsprozess verändert?
Natürlich, mit dem technischen Fortschritt verändern
sich die Arbeitsweisen. Und das Thema digitale Aufbereitung und der Weg der Daten zur Druckerei – da verdichtet sich alles. Der Weg von dem, was in den Rechner
eingegeben wird, und dem, was als fertiges gedrucktes
Produkt rauskommt, beschleunigt sich. Es sind weitaus
weniger Arbeitsschritte notwendig als früher. Die Technik ist turboschnell – und das muss man ausnutzen.
Was verstehen Sie unter Crossmedia Publishing?
Klassisch auf das Produkt bezogen bedeutet das, dass
wir das gleiche Produkt mit den gleichen Inhalten auf
verschiedenen Plattformen anbieten. Buch plus CD-Rom
plus Internet – in einem einzigen Produkt. Es ist immer
der gleiche Inhalt, nur greifen Sie zu einer jeweils anderen
Produktausprägung.
Sind die Inhalte in Buch, CD-ROM und Internet identisch?
Beim „Duden – deutsche Rechtschreibung“ sind sie identisch. Aber wenn Sie den Brockhaus multimedial nehmen, werden wir dem Medium gerecht: mit animierten
Inhalten, Tonbeispielen, Videosequenzen. Hier sind wir
crossmedial. In der neuen Brockhaus Enzyklopädie gibt
es Hinweise auf Audiosequenzen oder andere Inhalte.
Zum Buch gehört eine Audiodatenbank mit der BerlinRede von Kennedy oder der Ansprache von Einstein zur
Gründung der deutschen Rundfunkstationen.
Wie richtet man einen Verlag heute crossmedial aus?
Ein Verlag entwickelt sich weiter, indem er sich auf die
Kundenbedürfnisse von morgen vorbereitet. Im Bereich
Duden beschäftigt sich eine ganze Abteilung mit dem
Thema Sprachtechnologie. Wir machen uns dort Gedanken, wie eine Lösung aussehen kann, damit Sie Ihre Texte
völlig fehlerfrei in den Computer eingeben können.
Wie schließen Sie mediale Lücken? Wird das BIFAB künftig
eigene Fotografen, Kameraleute etc. beschäftigen?
Wenn nötig, schicken wir in der Tat Fotografen und
Kameraleute los. Ansonsten kaufen wir Nutzungsrechte
an Bildern und anderem Quellenmaterial weltweit und
bauen damit unseren Fundus aus. Diese Aufgabe hatten
wir bei der Produktion der Brockhaus Enzyklopädie. Das
ist ein unglaublicher logistischer Aufwand, den richtigen
Ansprechpartner und Rechteinhaber zu finden. Aber das
ist die Stärke eines Verlagshauses, unsere Stärke.
Axel Springer kauft sich bei Sat.1/ProSieben AG ein. Ein
neuer Mediengigant entsteht. Mit welchen Folgen?
Das ist ja keine überraschende Entwicklung. Wer das
beobachtet hat, konnte schon im letzten Jahr feststellen,
dass sich Axel Springer nicht mehr als Verlag bezeichnet,
sondern als Medienhaus; was ich schon immer erwartet
hatte. Die einzige Frage ist die, warum Springer das nicht
schon früher gemacht hat. Bevor die Amerikaner bei
Pro7/Sat.1 eingestiegen sind. Ich halte das verlegerisch
auf jeden Fall für sinnvoll.
Vielen Dank für das Gespräch.
027
Über Kreuz mit Crossmedia
Crossmedia-Publishing-Lösungen werden mit dem Hinweis vermarktet,
dass damit identische Inhalte für die unterschiedlichsten Medien rationell
aufbereitet und Layouts zentral gesteuert werden. Wie es dabei den Inhalten ergeht, erfährt man nicht. Man hat ja den Begriff Inhalt längst mit dem
Terminus Content ersetzt. Content wird irgendwann verfasst, in einer Datenbank abgelegt und dann nur noch aufbereitet.
Crossmedia Publishing beschreibt das Verfahren, mithilfe einer medienneutralen Datenbank einer definierten Zielgruppe das konsistente Erscheinungsbild eines Unternehmens oder eines Produktes des Unternehmens
medienübergreifend näher zu bringen, schreiben die Definitionsakrobaten
von Wikipedia. In den Datenbanken sind aber Informationen gespeichert,
in Form von Texten. Und Texte haben keine medienneutrale Existenz.
Ich habe kürzlich bei dem Chefredakteur einer großen Tageszeitung probeweise den Begriff Crossmedia Publishing fallen gelassen. Er reagierte mit
einem müden Lächeln. CMP sei im Journalismus längst an seine Grenzen
gekommen. Er wolle eine gute Zeitung und dazu ein gutes Internet-Angebot machen. Das bedeute aber, dass ein und dasselbe Thema, ein und
dieselbe Nachricht ganz unterschiedlich formuliert werden müssen.
Zugegeben, Journalismus lebt vom Inhalt seiner Publikationen. Und wer
davon lebt, kann es sich schlicht nicht leisten, für unterschiedliche Rezeptionsweisen dieselben Texte unredigiert zu übernehmen. Mit jedem neuen
Medium bekommt ein Text einen neuen Verwendungszweck. Er braucht
nicht nur eine andere Länge, sondern auch einen anderen Aufbau, andere
Satzstrukturen. Von Überschriften und anderen Hinweis- und Verweiselementen ganz zu schweigen.
Vielen Texten geht es genauso, wenn sie aus ihrem Print-Umfeld ohne
Veränderung in ein anderes Medium kopiert werden: Sie verlieren an Verständlichkeit, einfach, weil die Rezeptionsbedingungen andere sind. Das
Web, die CD mit ihrer Vielfalt an eigenen Textsorten verlangen andere Sätze, einen anderen Rhythmus. Oft werden einfach Texte aus Handbüchern
auf die Website gestellt oder Webtexte in den Geschäftsbericht kopiert. Wer
kann sich eine solche Haltung auf Dauer wirklich leisten?
Jedes Medium - ob Schrift, Telegraphie, Fernseher oder Computer - hat seine ihm eigene Technologie und seine eigene Welt der Sprache. Darin liegt
seine Herausforderung für jeden, der es zur Kommunikation gebraucht. Je
nach Medium gibt es unterschiedliche Artikulationsformen, die von der
technischen und sprachlichen Genese des Mediums bestimmt sind. Die
Verantwortung für den richtigen Spracheinsatz liegt deshalb nicht bei den
Herstellern von Redaktionssystemen, sondern bei den Medien selbst. Es ist
Aufgabe der Medien zu erkennen, welcher Kanal mit welchen sprachlichen
Mitteln bedient wird und wie crossmediale Kommunikation funktioniert.
Crossmedia Publishing ist also keine Frage der kanalisierten Vermarktung
und Distribution von Inhalten, sondern eine redaktionelle Aufgabe.
Jürg Häusermann
028
Titel
• Paid Content
Kleinvieh macht
auch Mist
„Bezahlinhalte“ bereiten den Verlagen seit Jahren Kopfschmerzen.
Wer wann wo für was bezahlt, darüber gehen die Meinungen ausMarion Freudenschuss
Florian Stahl
einander. Mit neuen Arten, im Netz zu bezahlen, wachsen aber
wieder die Chancen derer, die mit Inhalten Geld verdienen wollen.
Informationen und Medieninhalte werden seit Jahren nicht
mehr überall kostenfrei angeboten. Die rein werbefinanzierten Angebote erhalten von so genannten Bezahlinhalten Konkurrenz. Qualitativ betrachtet. Nicht nur die viel
diskutierten Angebote von MP3s zählen dazu. Nachdem
große Zeitungshäuser die ersten Erfolge verzeichnen, versuchen zunehmend kleine Verlage, Nachrichten und Artikel
kostenpflichtig zu verkaufen. Selbst Wetterinformationen
sind nicht mehr überall kostenfrei - die Qualität der Daten
bestimmt den Preis.
Kritische Medientheoretiker und Internetnutzer diskutieren
schon länger über das Recht auf kostenfreie Informationen.
In Foren und Blogs wird es für sie zum Grundrecht der User.
Es darf aber nicht vergessen werden, dass Paid Content so
alt ist wie das Internet. Denn bei wissenschaftlichen, technischen oder medizinischen Informationen als auch bei Finanzthemen gab es noch nie Zweifel, dass Inhalte auch kostenpflichtig sein – müssen. Ist das den Kritikern nicht klar?
Jetzt, da sich bezahlte Inhalte durchsetzen, scheint es. Und es
zum Thema
Anbieter von Zahlungssystemen:
ALBIS Zahlungsdienste GmbH www.albis-zahlungssysteme.de • Deutsche Telekom AG www.t-pay.de • FIRSTGATE AG www.firstgate.de
• in medias res GmbH www.geldhandy.info • NetDebit GmbH
www.netdebit.de • PayPal Ltd. www.paypal.com • SYNAPSY Mobile
Networks GmbH www.synapsy.de • TeleCash KommunikationsService GmbH www.telecash.de • Telekurs Card Solutions GmbH
www.saferpay.com • Vodafone D2 GmbH www.vodafone.de • Wapme Systems AG www.simcash.de • Wire Card AG www.wirecard.de •
WorldPay Ltd. www.worldpay.com
geht weniger um die Art des Contents als vielmehr darum,
welchen Anforderungen die Angebote von Paid Content
genügen müssen. Zweifelsfrei bedeutet die Umsatzentwicklung im Internet für die Unternehmen und Konsumenten
eine große Chance: qualitative hochwertige Informationen
und Medieninhalte in den unterschiedlichsten Ausgabekanälen darzustellen und überall abrufen zu können.
Was ist eigentlich alles Paid Content?
Paid Content umfasst nach Auffassung der Autoren jegliche
kostenpflichtigen digitalen Inhalten in rein digitalen Medien. Beispiele sind das Word Wilde Web oder mobile Endgeräte (SMS, WAP). Paid Content ist dabei nicht gleich Paid
Services. Digitale Inhalte unterscheiden sich von digitalen
Services dadurch, dass sie weiterzugeben und auszutauschen
sind. Digitale Inhalte lassen sich ohne Qualitätseinbußen
von mehreren nutzen. Digitale Services haben dagegen den
Charakter eines Rechtes, das ausgeübt wird, jedoch nicht
weitergegeben werden darf. Mit dem Weitergeben verliert
der Käufer das Recht der Ausübung.
Boumans (Electronic Media Reporting) klassifiziert Paid
Content nach dem Preis und der Anzahl Nutzer. Er unterscheidet zwei Top-Kategorien: Informationen für Geschäftskunden (zu denen wissenschaftliche, technische und
medizinische Inhalte als auch die große Menge an Finanz-,
Management- und Industrieinhalten zählen) sowie Informationen für Privatkunden. Weiter unterscheidet er nach
Informationen für Nischen-Konsumenten (Inhalte zu Gesundheit, Computer) als auch Informationen für Massen-
029
0
5
10
15
20
25
30
% Anteil Anbieter
Arts & Media
% Anteil Kunden
% Anteil der Verkäufe
Business
% Anteil Umsatz
Computers
Games
Verbands Deutscher Zeitschriftenverleger (VDZ) hängt das
mit der langen Nutzungsdauer der nicht aktualisierbaren
Inhalte zusammen. Je länger die Nutzungsdauer ist, desto
schwerer die Werbefinanzierung. Werbung stellt an den
Inhalt den Anspruch der Aktualität. Formate mit geringem
Werbepotenzial geben so betrachtet keine Alternative zu
Paid Content.
Health
Tendenz zu bezahlten Inhalten
Home
News
Recreation
References
Science
Society
Sports
Adult
Shopping
Quelle: Institut für Medien- und Kommunikationsmanagement, St. Gallen
• Grafik: c//mag
Verteilung der Anbieter, der Kunden, der Anzahl der (Verkaufs-)
Transaktionen und des Umsatzes auf einzelne Kategorien
markt (Zeitung, Zeitschriften, Musik, Filme). Ein anderer
Ansatz, Inhalte zu gliedern, ist der des angebotenen Formats
(Text, Audio, Video, Grafik, Bilder) oder des Themas (Business, Computer, Games, Gesundheit, Nachrichten, Erholung, Nachschlagewerke, Wissenschaft, Sport, Adult-Entertainment). Die Diskussion, das wird klar, dreht sich bei Paid
Content im Wesentlichen um zu bezahlende Inhalte für den
privaten Konsum - nicht für Business Contents.
verschiedene Erlösmodelle
Informationen und Medieninhalte werden über unterschiedliche Erlösmodelle angeboten. Werbung oder das
kostenpflichtige Angebot sind nur Beispiele. Auch eine
staatliche Finanzierung der Informationsproduktion wie
beispielsweise bei der Veröffentlichung von Gesetzestexten
ist denkbar. In diesem Zusammenhang muss auch erwähnt
sein, dass Paid Content nicht für alle digitalen Informationen sinnvoll ist. Es gibt Formate, die aufgrund geringer
Zahlungsbereitschaft gar nicht oder nur zum Teil finanziert
werden können. Umgekehrt existieren Formate, die nur
kostenintensiv zu erstellen sind - für die Werbung keine Alternative zur Refinanzierung darstellt. Nach einer Studie des
Im Internet ist der Wandel von kostenfreien zu kostenpflichtigen Angeboten festzustellen. Grund dafür sind die
sich verändernden ökonomischen Rahmenbedingungen.
Das hängt mit dem Rückgang der Werbeausgaben als auch
mit den neu verfügbaren Technologien zur Abrechnung und
dem Schutz der Angebote selbst zusammen. Aus ökonomischer Perspektive werden Informationen kostenpflichtig angeboten, wenn sie über drei Eigenschaften verfügen: Einzigartigkeit, Exklusivität und ein usabilitygerechtes Angebot.
Die Einzigartigkeit von Informationen und Medieninhalten ist durch das ökonomische Instrument der Preis- und
Produktdifferenzierung zu erzielen. Ein usabilitygerechtes
Angebot von Paid Content hängt eng mit dem jeweiligen
Abrechnungsverfahren und dem Micropayment-System
zusammen. Die Exklusivität der Informationen verleiht
dem Anbieter eine Marktmacht, die ein kostenpflichtiges
Angebot erlaubt.
neue Technologien ermöglichen neue
Abrechnungsmodelle
Neben den ökonomischen Voraussetzungen spielen Technologien eine große Rolle. Und seit 2000 ist ein Wandel
der Geschäftsmodelle feststellbar. Im Internet existieren
Micropayment-Lösungen und Technologien für das Digital Rights Management. International betrachtet - mit
grossen Unterschieden bei den Mechanismen der Micropayment-Lösungen. In den USA, wo seit Mitte der 90er Jahre
verschiedene Informationen und Medieninhalte digital
und kostenpflichtig angeboten werden, dominiert neben
PayPal die Bezahlung per Kreditkarte. Europa und insbesondere Deutschland sind dagegen weltweit führend bei
Bezahlverfahren der Micropayment-Anbieter. Dazu später.
In den USA bedeutet die Abrechnung über Kreditkarte für
Anbieter von Informationen hohe Gebühren. Nicht zuletzt
deshalb setzten sich in Amerika zur Abrechnung Abonnement-Modelle durch. Dabei wird nicht der Einzelbeitrag,
sondern ein ganzes Abonnement inklusive Recerchemöglichkeiten zeitlich gebündelt und der Betrag via Kreditkarte
030
Titel
Pay per Click
53%
12%
6%
Pay per Click und
Club/Membership
höchste Umsatz pro Transaktion jedoch wird nicht mit
Adult-Entertainment-Inhalten, sondern bei Online-DatingAnbietern realisiert. Das liegt an deren Abonnement-Abrechnungsmodell.
Prepaid per Click/Use
Fazit
4%
Club/Membership
Prepaid per Minute
21%
3%
Pay per Click und Prepaid
Quelle: Institut für Medien- und Kommunikationsmanagement, St. Gallen
• Grafik: c//mag
Formen der Abrechnung: Verteilung der Angebote entsprechend
der angewendeten Abrechnungsverfahren.
abgerechnet. Gleichzeitig bedeutet dies, dass Informationen,
die nicht im Abonnement bezogen werden und sich nicht
über Werbung finanzieren lassen, in den USA bis heute
nicht digital angeboten werden. In Europa hingegen sind
Abrechnungsmodelle wie Pay per Click, Pay per Use oder
Pay per Unit dominierend. Das liegt daran, dass verfügbare Micropayment-Technologien wie „Switch-Point“ in
den Niederlanden, FIRSTGATE in Deutschland und deren
„Click&Buy“-Allianzen in ganz Europa eine kostengünstige
Abrechnung selbst von Kleinstbeträgen ermöglichen. Der
Unterschied zu den USA liegt darin, dass der Betrag nicht
bei den einzelnen Konsumenten über die Zeit, sondern über
die Anzahl der Transaktionen bei verschiedenen Anbietern
kumuliert wird.
Da das Angebot von Informationen aller Art eine einfache
Weitergabe der Güter ermöglicht, ist für das kostenpflichtige Angebot im Internet ein funktionierendes Digital Rights
Management (DRM) notwendig. Die Technologien des
DRM erlauben es, das Copyright zu schützen, was insbesondere bei dem kostenpflichtigen Angebot der Paid-ContentKategorien Musik und Video von zentraler Bedeutung ist.
Erfolgreiche Geschäftsmodelle von Paid Content auf
mobilen Endgeräten sind im Wesentlichen Klingeltöne,
Begrüßungstöne oder auch Hintergrundbilder. Neue Technologien wie UMTS oder WI-FI oder WLAN werden jedoch
Voraussetzungen für neue Geschäftsmodelle - insbesondere
den kostenpflichtigen Download von Musik- und Videodateien - schaffen.
Das Angebot von kostenpflichtigen digitalen Informationen und Medieninhalten auf Netzwerken wie dem Internet
oder den Netzwerken von Mobile Operators ist nicht neu.
Anders als von Medientheoretikern angenommen ist die
Bereitschaft der Konsumenten hoch. Neu ist, dass Medieninhalte für den privaten Massenmarkt kostenpflichtig und
digital über das Internet unter dem Begriff „Paid Content“
vertrieben werden. Nicht nur die Anbieter freuen sich über
die bereits erwirtschafteten Umsätze. Auch die Konsumenten erkennen die Vorteile. Für sie gilt: Hochwertige Informationen sind zeit- und ortsunabhängig verfügbar. Die
Vision, die 1995 die beiden amerikanischen Wissenschaftler
MacKie-Mason und Varian formulierten, wird Realität:
„For the full potential of the Internet to be realized it will
be necessary to develop methods to charge for the value of
information services available on the network.”
Marion Freudenschuss
Studierte Betriebswirtin, Promotion an der
Universität St. Gallen und Wien, stellvertretende Geschäftsführerin der W4 Services GmbH.
Segment Manager Residential Business bei
Swisscom Mobile.
Wer bezahlt was wofür?
Unter den zahllosen digitalen Angeboten für den privaten
Konsum sind Musik, Online-Games, Online-Dating, Online-Nachrichten und Adult Entertainment im Internet sowie
Klingeltöne, Bilder und Adult Entertainment auf mobilen
Endgeräten die dominanten Geschäftsmodelle. Das meiste
Geld wird derzeit mit Adult Entertainment verdient, gefolgt von Online-Games und Musik. Der durchschnittlich
Florian Stahl
Studierter Betriebswirt an der Universität Zürich.
Promotion an der Universität St. Gallen.
Zur Zeit an der Columbia Business School,
Columbia University, New York.
031
Was die Anbieter schreiben
Crossmedia Publishing ist mehr als die Auslieferung und
Mehrfachverwendung von Daten in On- und Offline
Welten. Häufig spricht man in diesem Zusammenhang
auch von Single-Source-Publishing. Hersteller von DTPSoftware haben reagiert und integrieren ausgereifte
Import-Möglichkeiten auf XML-Basis. Häufig ist sie aber
aufgrund fehlender strukturierter Daten nicht wirklich
einsetzbar oder erfordert hohe manuelle Nacharbeit.
Die Anforderungen an Publishing-Systeme haben sich
stark gewandelt. Zur Print-Welt ist das Publizieren von
Audio-Daten hinzugekommen. So genannte Podcasts sind
Trend geworden. E-Paper ist - neben der Webseite - ein
Muss für jede Publikation. Lösungen für die crossmediale
Publikation von Leserbeiträgen und -meinungen sind der
logisch nächste Schritt, so Matthias Tausenpfund von der
Tomorrow Focus AG, München.
Ein erfolgreiches Instrument zur Abbildung von
Crossmedia-Publishing-Konzepten ermöglicht es, Inhalte
unabhängig vom Layout zu erfassen und zu verwalten. Im
Rahmen des Publikationsprozesses werden die Inhalte dann
für die unterschiedlichen Darstellungskanäle bereitgestellt.
Hierzu zählen Internet, Newsletter, Printpublikationen,
Teletext und mobile Anwendungen. Wichtig ist uns die
vollständige Integration neuer Funktionen in bereits
bestehende Infrastrukturen. Zur Realisierung der unterschiedlichen Szenarien ist in der Regel eine prozessorientierte Herangehensweise erforderlich, findet Christian
Batz, Vorstandsvorsitzender der Imperia AG.
Um am Markt bestehen zu können, ist Crossmedia
Publishing unumgänglich. Die medienneutrale Speicherung
von verschiedenen Inhalten hat mit dem Internet an
Bedeutung gewonnen. Sie ermöglicht die Wiederverwertung
und eine daraus resultierende Kosten- und Zeitersparnis.
Der steigende Konkurrenz- und Preisdruck im Printgewerbe
verdeutlicht den Trend. Die Entwicklung von Crossmedia
Publishing geht in Richtung webbasierender Systeme.
Eine wichtige Rolle spielen dabei Schnittstellen und XMLTechnologien. Die Zukunft ist vom Zusammenspiel der
einzelnen Komponenten geprägt, so Peter M. Hofer, CEO
mediamid digital services GmbH, Wien.
��������������������
��������������������������������������������������������������������
��������������������������������������������������
����������������������������������������
������������������������������������������������
����������������������������������
�������������������
��������������������
�����
���������������������
��������������������������������������������
��������������������������������������������������������
��������������������
���������������������������
�������������������������
���������������������������
�������������������������
�����
�����������������������������������������������
�� � � � ����������������
�����
�������������������
��������������������
���������������������������
�������������������������
�������������������
ausgegraben ...
Six Offene Systeme GmbH
Sielminger Str. 63
79771 Leinfelden-Echterdingen
Fon 0711-99091-0, Fax 0711-99091-99
[email protected], wwww.six.de
InterRed GmbH
Marienborner Str. 25
57074 Siegen
Fon 0271-30377-0, Fax 0271-2390591
[email protected], www.interred.de
NOEO OHG
Des Inhalts liebster
Zustand: crossmedial.
Feldstr. 57c
82140 Olching
Fon 0700-0666-7000, Fax 08142-449222
[email protected], www.noeo.de
Enterra Software GmbH
Wernher-von-Braun-Str. 4
69214 Eppelheim
Dem Inhalt sind Ausgabemedien schnuppe. Er braucht eine
strukturierte, medienneutrale Datenhaltung. Entsprechende XML-Editoren und –Schnittstellen. Damit entscheiden die
Anbieter selbst – ob das Printmedium oder Onlinemedium
die Führung übernimmt. Die Eingabe ist immer gleich: am
Computer. Die Inhalte werden übergeben. Der Anspruch
aller Anbieter: die „Produktionsstraße“ flexibel an den Produktanforderungen ausrichten. Mit Lösungen, wie sie von
den nebenstehenden Unternehmen angeboten werden.
Fon 06221-75218-0, Fax 06221-7379707
[email protected], www.enterra.de
mediamid digital services GmbH
Alserstraße 44/6-7
1090 Wien, Österreich
Fon +43(1)955-1444-12, Fax +43(1)955-1444-20
[email protected], www.mediamid.com
TOMORROW FOCUS AG
Steinhauserstr. 1-3
81677 München
Fon 089-9250-1256, Fax 089-9250-1515
[email protected]
www.tomorrow-focus.de
Galerie
Besser parken.
München, Hamburg, Köln - Hennef, Stuttgart, Berlin. Die IT-Landkarte in
Deutschland besteht aus Ballungszentren und vereinzelten Einschlüssen in
den weißen Flecken.
Und temporären Clustern: den Messen und Kongressen. Dann machen sich
die Vorstände, neudeutsch CEOs, die Geschäftsführer und Vertriebler auf
den Weg. Zum Beispiel nach Essen.
Anders als bei solchen Gelegenheiten sehen die alltäglichen Wege aus. Kürzer, aber nicht unbedingt stressfreier. Wer in München wohnt, versucht seit
Jahren vergeblich, die Großbaustelle Allianz-Arena und Mittlerer Ring zu
umfahren. Dabei wird entpuppt sich manche Abkürzung als Alptraum.
So wird der Parkplatz vor der Firma zum ersehnten Hafen, Ruhepol nach
der Staufahrt. Allein dafür lohnt es sich, Chef zu werden: für den sicheren
Parkplatz. Und nicht noch zehnmal um den Block fahren zu müssen.
Dabei nimmt, wie wir in unseren Gesprächen erfahren haben, die ein oder
andere kalorienbewusste Führungskraft statt des Aufzugs gerne die Treppe.
Oder kommt gleich mit dem Fahrrad.
Wir haben von unseren Besuchen ein paar dieser Plätze mitgebracht. Arbeitstitel: „hier parkt der Chef“. Mal unspektakulär, mal überraschend.
033
034
Gallerie
27. Juli, 11:41 Uhr. Hennef liegt im Kreis Siegburg. Dort gibt es das schöne
Kennzeichen SU – was lokale Autofahrer gerne mit „Sau unterwegs“ übersetzen.
1. August, 15:22 Uhr. Gescher in Berlin. Überall Volkswagen – am Markenbild von VW hat der
Autokanzler zwei Legislaturperioden gearbeitet.
035
12. Juli, 17:13 Uhr. München. Der Abrieb der Reifen lässt auf eine sportliche Fahrweise
schließen: Bridgestone oder Michelin?
1. Juli, 10:11 Uhr. Hier parkt eine gesundheitsbewusste Führungskraft, die nicht den Aufzug benutzt,
sondern Treppen steigt. Zwei mal fünf Minuten Workout frei Haus jeden Tag.
036
Gallerie
30. Juni, 13:34 Uhr. Langweilige Familienautos waren gestern. Dieses Münchner Exemplar
sollte man der Post empfehlen.
21. Juli, 10:51 Uhr. Harald Schmidt fährt auch Jaguar. Wir sind aber in der Schwabenmetropole.
Um so überraschender, keinen Daimler vorzufinden.
037
24. Juni, 13:39 Uhr. Hier erkennt man den Chef am hochgekrempelten rechten Hosenbein.
Der Anzug für offizielle Anlässe hängt im Büroschrank.
30. Juni, 11:25 Uhr. Wenn das Auto in der Werkstadt steht.
DMS
Hallen 1 und 2 / Hall 1 and 2
038
Digital Management Solutions
Europas führende Fachmesse und -konferenz
für Enterprise Content- und Dokumentenmanagement
Schwerpunkt
27.-29. Sept. 2005, Messe Essen
Stand / as of: 29.08.2005
Restaurant
Vertical
Spot
32m² 8
234m²
Forum ITC
3
9
2035
5
26
17,5
70m²
12m²
AG
4 LIB Kisters
12m²
Headway
12m² 4
Infopark
1050
200m²
10
40m²
1040
Red
dot
8 48m²
4
5
14,5
Deutsche
Post
7,5
8
1010
1002
4
1000 3,5
3,5
4
14m²
D.velop
1015
4
14m²
HSP
1003 1005
5,5
Cendris
36m² 2205
4
2,3
4,7
17,5
5
18
4
8
Telekopie
32m²
m
83
²
L
2300
10
30m²
Itesoft
1490 1495 1498
7,5
5
4
4
4
20m²20m²
Arexera
5 Forcont
5
1360
Nestor
B
L.V.D. Gierke
C
48m² 1470
8
11
15
1350
3,5
6
1530 120m²
1320 1323 1325
9
36m²
BancTec
1425 1500
4
16m²
Dokument Dialog
13
11
24m²
BTA
1595
6
48m²
2500
32m²
Profi20m²
forms
Streamserv
Research
Engineers
1520
1596
8
1690
5
9,5
10
1100
8
5 20m²
2840
8 32m²
4
2830
4
13
daa
13
1655
12
3
Compart
9
VOI
Forum
42m² 126,5 26m²
2810
INCOM
36m²
130m² 1620
5,5
Veranstalter:
2610
4
1740
VOI
63m² 1760
6
2805
8
11
44m² 2800
Invaris
1890 1895 3 3
6
4
9,5 72m² 1775
9
9
10
20,5
4
CMPWEKA
18m²
1770
14,5
Captiva
3
4
Beta
Systems
1570
117m² 1650
4
2738
12m² 16m²
Center
16m² IS-Report
60m²
Kodak
IBML 8
3
2
4 tools 2700
2600
2705
4
7
1531
5
4
12
9
12m²
2730
50m² 10
204m²
Media
IT Verlag
16m² 16m²
Group Technologies
mid
2405
13
6,5
3
Unthan
12m²
10 Imaging
4 2732
10m²
Captaris
6 24m²
2860
5 20m²
2850
5
ELO
12
100m² 2510
DICOM
1560
8
7
4
Open
Text
10
7,5
1590 1593
5
4
22
10
2630
2750
15
20m²
15m²
Datawin
H&T
80m²
10
100m²
15
9
2307 2400 2403
1460 120m²
5
2532
60m²
6
G
10
2650
Microsoft
Readsoft
E
F
B&L
PDV
DoWindream
cu- Konica Minolta
tec
20 m²
13m²
DOG
3,5 Vignette jdk
2565
4
I
10
2780
7,5
Fachpresse
100m²
Stand
16m²
2560 4
6,5
5
38m²
4
Mobius 4
R.O.W.
220m²
BancTec
5
D
SIACON
16m²
1473 1475
Heilig &
Schubert
2564
H
SAP
2305
16m²
2567
26m²
27m² 2410
9
4
5
4
5
15m²
F+G
5
DCS
7
wissensmanagement
2563
FormScape 3
2420
2302
40m²
J
K
12
Stellent
6
9
Kühn & ISIS
5,5 Weyh
Papyrus
33m²1330 50m²
1335
8
1115
Lufthansa
Systems
3,7
,
12
170m²
50m² 1008 80m²
270m²
OCE
17
9
15
10
FileNET
1255
126m²
Saperion 10
GFT
5
EMC
Documentum
12
12,3
12
16,8
A
M
4
2
Mail
6.25m²
tec
Dr. Binner
Consulting
Corner
2430
105m²
16m²
20m²
FTD Snowbound
175m²
P
4 com
merce
5
55m²
1220
1130
216m²
2
Ortec
3
27
18,5
32m²
1275
121m²
IBM
324m²
2100
Fujitsu 11
8
12
1055
1030 1035
6
4
8
40m²
Avision 5
1020
5
InoTec
O
Document Sciences Corporation
5,5
Plustek
1001
3
7
5
I.R.I.S.
1172
AL
24m²
1060
1173
4
1180
75m²
1073
A2IA
16m² 4
1171
5 Elsag
Group 1 3 6 Anydoc Abbyy 6
1070 1170 23m²
42m²1175 48m² 1270
6,5
7,5
4
11m²
Exstream 9m²
13,5m²
Pride
33m²
5
30m²
18
3
4
N
Hewlett Packard 3,5
2310
9
10
MACH AG
S
Step one
12m² 4
1080
1065
2
4
12
Decodetron
52,5m²
GID
26m²
Microform
4 24m²
1395
1390
6
6,5
11
24m²
20m² Meta Archiv16m²
Europ.
Zeutschel SCP
12m²
4
depot
Reseller KGS
15m²
1190 1192 1195 1197 1200
4
5
5
5
4
15
4,5 3
IT 1095
1090
3
6,5
24
O
20m²
2680
12
12
10
4
Six Offene
Systeme
2000
3
2210
6
2355
15
Insiders
10
“Das digitale Büro”
2350
8
60m²
2015
4
10
5 TIS
5
Itella
10,5 2213 40m² 2215
273m²
Präsentation
5
7
5
21m²
20m² D-Trust
Behrens
Taube
4 20m² AIIM
2245 3
2322
2240
International
8
48m²
Exchange
20m²
4 Intarsys
4
IQDoQ
2320 2325
48m²
2230
6
12
5
20m²
Ceyoniq
10,5
Scanpoint
1081
4
8
4
Doc
9m²
stream
2012
80m²
Hummingbird
Exor
9m² 3
3 Seman
9m² byte
tec
2250 2255
3 3
EASY
9
2
4
Competence 13
Spot
2480
Getty2562
15
Pressezentrum
VIP
Lounge
7
2280 2285
2262
9m²
9m² FCT
PBS
3
2260 2265
26
2030
4
12m²
3
2055
2050
büro
10
Decos
Ontaris
VOI
200m²
60m²
Chef15m²
2180
10
6
24m²
Umicore
Messebüro
4
28m²
7
70m²
20
4
Servotech
16m²
2053 3
3
Planet 4
12m²
2010
T- Systems
2290
7
13
20m²
2080
12
2070
4
3
23,5
V
14,5 O
I
1778
039
• Rückblick DMS Expo
Danke,
Essen
Kilo-, Mega-, Gigabyte. Stuttgart, Essen,
Köln. Stationen auf dem Weg zu einer
europäischen Leitmesse für DokumentenManagement. Rückblick.
Am Anfang war das Magazin. Das Objekt hieß „Gigatrend“,
erschien 1986 zum ersten Mal und wurde 1991 vom Fachverlag für Büro und Organisationstechnik (FBO) in BadenBaden gekauft. Dort gab es schon ein Heft namens „Mikrodok“, ein Heft, das sich mit Mikrografie befasste. Und weil
die Themen sich ergänzten, entstand die „Infodok“, ein
Magazin über „Information und Dokumentation“.
Chefredakteur des alten und neuen Titels war Gerhard Klaes, vielen bekannt als Initiator und langjähriger Organisator
der DMS Expo. „Die ersten Überlegungen, etwas mehr für
die Branche zu tun, gab es so um 1993“, erinnert sich Klaes,
„einen Kongress zu dem größer gewordenen Themenfeld.“
Er war es, der 1993 den „Infodok-Kongress“ in Sindelfingen
initiierte, den Vorläufer der DMS Expo. Inzwischen hatte
sich 1991 der Verband Organsiations- und Informationssysteme (VOI) gegründet. Zusammen mit Klaes überlegte der
VOI, wie der Verband nach vorne zu bringen sei. Treibende
Kräfte dabei: Gerhard Klaes und Dr. Klaus Engelhardt. Der
VOI betreute als Träger die Inhalte. Bei dem ersten zweitägigen Kongress waren 20 Unternehmen aus dem Bereich
Mikrografie und Retrieval präsent; insgesamt 120 Kongress-
Teilnehmer, die dort Technologien und Lösungen kennen
lernen wollten. Ein guter Start, um mehr daraus zu machen,
wie Klaes damals befand.
1995: die erste „echte“ DMS
Erfahrungsgemäß bleibt alles anders. 1995 wurde der FBOVerlag von Gabler gekauft. Auf einmal gehörten Magazin
und Kongress zum großen Bertelsmann Konzern. Aus den
vielen Ideen, wie die Themenlandschaft und die Leser-BlattBindung auszubauen sei, wurde nichts. Gabler hatte zwar
artverwandte Themengebiete, wollte sich aber nicht richtig
an dem Kongress engagieren. Der erwartete Rückenwind
blieb aus. Gabler konzentrierte sich, so würde man heute sagen, auf sein Kerngeschäft. Und so wurden Klaes zumindest
keine Steine in den Weg gelegt, als er mit seiner eigenen Firma Compunication startete. Unter eigener Regie baute Klaes den Infodok-Kongress zu einer Messe um: zu der DMS
Expo. Die erste „echte“ DMS fand 1995 auf der Stuttgarter
Messe statt. Kein einfaches Unterfangen, überhaupt dort
unterzukommen. Als Termin wurde die Zeit nach den Fe-
040
Schwerpunkt
rien gewählt. Das begrüßten vor allem die Aussteller,
denn erfahrungsgemäß beginnt im Spätsommer das
Jahresendgeschäft. Außerdem ist damit der zeitliche
Abstand zur CeBIT groß genug.
Wenig Konkurrenz, viele Aussteller
Konkurrenz gab es damals in Deutschland wenig,
höchstens durch International Media Communication (IMC). Der IMC ist eine US-Messe, die in Europa
an wechselnden Standorten Kongresse veranstaltete.
Das Hin und Her war nicht im Interesse der Aussteller. Und dafür war der IMC zu teuer. Es gab auch
keinen zeitlich fixierten „follow up“ für die Kongresse.
Da der nächste Kongress des IMC erst für 1997 geplant war, blieb für die DMS Expoausreichend Zeit,
die Messe zu etablieren.
Nach dem Erfolg der ersten DMS Expo 1995, mit
rund 120 Ausstellern und guten Besucherzahlen,
wurde der Standort Stuttgart im folgenden Jahr zu
einem Problem. Zeitgleich sollte in Stuttgart eine
Messe zur Metallverarbeitung stattfinden. Kurzerhand lud die Stuttgarter Messe im Februar 1996 die
DMS Expo aus. Glücklicherweise befand sich die
Schwabenmetropole mitten im Wahlkampf. Innovationen waren „in“, und so konnte beim damaligen
Oberbürgermeister Rommel die Entscheidung eine
Woche später wieder rückgängig gemacht werden. Im Herbst
1996 fand die Messe zum zweiten Mal statt - allerdings ohne
jegliche Unterstützung der Stuttgarter Messe-Leitung. „Da
haben wir uns nach einem neuen Veranstaltungsort umgesehen - und ich habe den Marketingchef der Essener Messe,
Elmar Braun, zu uns eingeladen. Ich fragte ihn, ob das nicht
etwas für ihn wäre.“ Und die Idee sagte ihm zu. Im selben
Jahr gab es den direkten Vergleich zum IMC, der in Düsseldorf stattfand und nicht unbedingt gut organisiert war, so
die weit verbreitete Meinung. Wegen der eklatanten Mängel
fiel der direkte Vergleich zwischen den beiden Veranstaltungen eindeutig zu Gunsten der DMS Expo aus. Und zwar so
gut, dass die Organisatoren schon frühzeitig die gesamte
Standfläche der DMS 1998 verkauft hatten.
von null auf hundert in sieben Jahren
„Das war der eigentliche Startschuss für die Messe“, so
Klaes, „wir haben ab da bis 2001 jedes Jahr die Messefläche
fast verdoppeln können.“ Und zwar auf annähernd 30.000
Quadratmeter im Jahr 2001. Wer einen Namen im Markt
hatte, war dabei. Es war die Zeit, in der, wer etwas auf sich
hielt, an den Neuen Markt ging. Die Zeit des Hypes, der internetbasierten Geschäftsmodelle und Innovationen. SER,
Ceyoniq, IBM, Agfa, FileNet, EASY – die DMS wurde zum
Branchenereignis. Es entstand der Begriff der „europäischen
Leitmesse“: zurecht, wenn man sich die Ausstellerlisten aus
dieser Zeit anschaut.
Im Marketing hatte man in dieser Zeit unkonventionelle
Ideen ausprobiert. Wie 1999, als die Messe handgeschriebene 50.000 Postkarten mit einem Motiv von der Ostsee
verschickte. Die Karten waren nach China geschickt worden, wo der vorgegebene Text in Handarbeit Karte für Karte
abgeschrieben wurde: „Lieber Klaus, viele Grüße aus dem
Urlaub. Vergiss bitte nicht, dich auf der DMS anzumelden.“
Gerhard Klaes erinnert sich: „Das war der Knaller schlechthin. Wir hatten damals beim Statistischen Bundesamt nachgefragt, welches in der Altersgruppe zwischen 25-45 Jahren
der am meisten verbreitete Vorname ist. Die Altersgruppe
deckte sich in etwa mit unserer Zielgruppe. Nach der Aussendung bombardierten uns Anfragen. Welchen Klaus wir
meinen, wo wir das haben machen lassen und so weiter.“
Parallel zu der Aktion gab es eine begleitende Website: Wer
ist Klaus? Mit Informationen zur Aktion und natürlich zur
041
größten Aussteller der vergangenen Jahre ins Trudeln. Von
einem Tag auf den anderen fehlte ein Drittel der Messefläche. Es kam zu einem Domino-Effekt, gleich eine ganze Reihe namhafter Aussteller blieb fern. Zählte für die Branche
1999 und 2000 die Konferenz zur Messe noch zu den Jahreshöhepunkten, bei der sich aktiennotierte Unternehmen den
Analysten präsentierten, herrschte jetzt Depression.
unbefriedigende Entwicklung
DMS Expo - in Essen. Nebenbei hatte sich 1997 die Gelegenheit ergeben, die Infodok vom Gabler Verlag zurückzukaufen. Das Magazin wurde neu ausgerichtet und hieß
fortan „info21“. Als Magazin der DMS erschien es nicht nur
zur Messe – es begleitete Aussteller und Besucher konstant
durch das Jahr. Die beiden ergänzten sich: „Das Magazin
passte zur Messe und umgekehrt“, sagt Klaes. 1999 der
nächste Entwicklungsschritt, ein Partner aus den USA. Advanstart betreute 120 Messen und Veranstaltungen weltweit.
Ziel der Amerikaner war es, in Europa zu wachsen. Anfang
2000 übernahm Advanstar die Messe, das Magazin und den
Veranstalter, die „Gruppe 21“.
2001: Einbruch und Stagnation
Es lief jedoch anders, als der Messeveranstalter und auch
die Hersteller sich es gewünscht hätten. In Folge des Terroranschlags auf das World Trade Center stürzte die Börse ab
und erholte sich bis heute nicht wirklich vom Crash. Was
als „New Economy“ der Hoffnungsträger stetiger Innovation und Prosperität war, stellte sich als Luftschloss heraus.
Anfang 2002 gerieten mit SER, EASY und Ceyoniq die drei
Für den neuen Veranstalter waren in der Summe die Entwicklungen des Marktes und der DMS Expo unbefriedigend. Hinzu kam, dass es an der einen oder anderen Stelle
mentalitätsbedingte Reibungen gab. Reibungen, die sich
nicht schlichten ließen. Die vormals eher familiär betreute
Messe wurde zum Profit Center ohne Kontakt zur Stimmung draußen. Insgesamt wurde zu wenig für die Hersteller
getan, findet Klaes, der Ende 2001 Advanstar verließ. In den
folgenden Jahren gab es verschiedene Anläufe, die Messe mit
begleitenden Kongressen attraktiver zu gestalten. So richtete
2002 die AIIM einen Kongress aus, und der VOI begann,
kleinere Packages anzubieten und seine Foren zu etablieren.
Schließlich versuchte Advanstar 2004, eine eigene Konferenz
auszurichten. Doch anders als in England oder den USA
verfangen solche Vermarktungsmaßnahmen in Deutschland wohl nicht. Während in den angelsächsischen Ländern
Konferenzen im Vordergrund stehen und Zugpferd für die
Messen sind, ist es hierzulande umgekehrt. Schließlich wurde die DMS Expo , als sich Advanstar als Veranstalter komplett aus Europa zurückzog, an die koelnMesse verkauft.
von Essen nach Köln
Dort will sich die Messegesellschaft stärker im IT-Bereich
positionieren. Während die ORGATEC immer deutlicher
zu einer reinen Büromesse geworden ist, haben die Kölner
mit der exponet und der CRM-expo zwei Messen im Portfolio, die überregionale Strahlkraft besitzen. In diesem Jahr
liegt die koelnMesse mit der DMS Expo gut im Plan: Die
Ausstellungsfläche in Essen wird geringfügig zunehmen, bei
der Zahl der Besucher rechnen die Domstädter wieder mit
knapp 17.000. Die Zahl der Aussteller übersteigt die 300erGrenze. Was wird sich nun ändern in 2006? Das Messegelände in Köln-Deutz wird die DMS Expo in einem anderen
Licht erscheinen lassen. Und „Cologne“ ist internationalen
Besuchern geläufiger als Essen. „You mean ... Essen?“ Ein
Rest Wehmut bleibt. Aber die Kölner werden das schon machen. Die Messe liegt ja auf der richtigen Rheinseite.
(uhe)
042
Schwerpunkt
• Rundgang DMS Expo
Im Westen
was Neues
Konsolidierung, Neuanfang, Kontinuität. Das trifft
auf die DMS Expo zu. Viel Bekanntes, wenig wirklich
Björn Negelmann
Neues. Und doch lohnt sich der Besuch in Essen mit
einem Stopp an dem ein oder anderen Stand.
Den Vergleich mit der CeBIT oder der SYSTEMS braucht
die DMS Expo nicht zu scheuen. Die Entwicklung in den
Hallen 1 und 2 der letzten Jahre zeigt, dass sich die Messe
substanziell weiterentwickelt hat. Jeder Anbieter von Rang
und Namen ist vertreten. Das hat sich herumgesprochen.
Anbieter und Hersteller von Software-Lösungen richten
ihre Entwicklungszyklen und Produkt-Releases deutlich
auf diesen Termin hin aus. Damit ist die Messe ein wichtiges Trendbarometer. Mit diesem redaktionellen Rundgang
sammeln wir für Sie die wichtigsten Neuerungen ein. Ein
Rundgang, der Appetit auf Essen macht.
Saperion AG (H1 1115)
Beim Zugang zur Messe kommt der Messebesucher seit
mehreren Jahren nicht umhin, das gelb-orange Markenbild des Unternehmens SAPERION wahrzunehmen. Zur
diesjährigen Messe präsentiert das Unternehmen „moderne Methoden zur effizienten Informationsverteilung und
-bearbeitung. Die Methoden erlauben eine schnelle und
automatisierte Weiterleitung an die richtigen Zielpersonen
und Applikationen im Unternehmen“. SAPERION folgt
damit als Anbieter einer umfassenden Infrastrukturlösung
den ganzheitlichen Ansprüchen im Bereich der unternehmensweiten Dokumentenverarbeitung. Hier geht es nicht
mehr darum, dass Dokumente elektronisch erfasst werden,
sondern auch im Geschäftsprozess integriert sind. Im Fokus
der Messepräsentation steht dabei das Modul SAPERION
DocFlow, welches die integrierte Prozessmanagement-Fähigkeit des Lösungskonzeptes repräsentiert.
www.saperion.de/de/ecm/aktuelles/eventkalender/dms_expo_
2005.html
d.velop AG (H1 1130)
Nur ein paar Schritte weiter steht der Besucher am Stand eines anderen „Alteingesessenen“ der DMS Expo: die d.velop
AG. Das Unternehmen stellt auf der Messe zahlreiche neue
Funktionen des Systems d.3 vor. Neben mobilen Lösungen
mit PDAs, BlackBerry und weiteren Handhelds stehen bei
der Messepräsentation vor allem Unternehmensprozesse im
Vordergrund, für die d.velop vorkonfektionierte Lösungen
bietet. Hierzu gehören Postkorblösungen, die elektronische
Rechnungseingangsprüfung sowie das Vertragsmanagement. Weiterhin informiert d.velop über Schnittstellen zur
Microsoft-Business-Lösung Axapta für den Mittelstand, zu
der ERP-Suite Bison, zu den Kommunikationslösungen von
Tobit David sowie über die Integration und Recherche in
MS Office 2003.
www.d-velop.de/d.web/homepage/de/news/eventcalendar/
20050927dms.shtml
IBM Deutschland (H1 1255)
Gleich am nächsten Stand kommt der Besucher zu einem
der Schwergewichte im ECM/DMS-Markt. Unter dem Motto „INTEGRATE - MANAGE - ARCHIVE“ präsentiert sich
043
zum Thema
Bei
AuthentiDate
(www.authentidate.de)
und
StreamServe
(www.streamserve.de) geht es um elektronische Rechnungen. Die
neue Lösung soll über ein herstellerneutrales, modulares Design
verfügen und die Anbindung von ERP, CRM und Archivsystemen
möglich machen. Nach der Fusion stellen die Beta Systems Software AG (www.betasystems.de) und Kleindienst erstmals gemeinsam
aus. Neben den ECM-Lösungen werden Neuentwickungen der
VIDiDOC-Suite gezeigt. Eine integrierte Lösung für Dokumentenmanagement, Vorgangsbearbeitung und Archivierung zeigt die
MACH AG (www. www.mach.de). Der Web-basierte Web InformationManager hat neue Funktionen bekommen. mediamid digital
services (www.mediamid.com) präsentiert sein rein Web-basiertes
Media Asset Management. Außerdem sind die Österreicher mit
Lösungen für Content Management und Portalen vertreten. Mit
ihrem neuen Service-Angebot WebArchiv ist Scanpoint Europe
(www.scanpoint.de) vertreten. Damit werden Dokumente revisionssicher ausgelagert. Technotrans (www.technotrans.de) zeigt, was
docuglobe (www.docuglobe.de) mittlerweile kann. Mit dieser Lösung
adressiert man kleinere und mittelständische Unternehmen.
IBM mit seinen Business-Partnern vor dem Hintergrund
eines ganzheitlichen Lösungsansatzes. Das Unternehmen
zeigt aktuelle Enterprise-Content-Management-Lösungen
für den „sicheren und kundenspezifischen Zugang zu Geschäftsdokumenten aus unterschiedlichen Quellen“. „So
unterschiedlich die Probleme der Unternehmenskunden
aussehen, sie alle fragen nach effizienteren Geschäftsprozessen und der Verbesserung des Kundenservice“, sagt
Dr. Günter Scholz, IBM EMEA Segment Leader, Content
Management Software. Mit leistungsfähigen und kundenspezifischen Lösungen für die Bereitstellung aller relevanten
Kontextinformationen für Mitarbeiter, Partner und Kunden,
die Dokumentation von Geschäftsinformationen, Archivierungslösungen für die Entlastung von SAP-Systemen oder
Mail-Servern und nicht zuletzt zur Erfüllung gesetzlicher
Anforderungen z.B. im Rahmen von GdPDU oder Basel II
versucht IBM diese Probleme „aus einer Hand“ zu lösen.
www-5.ibm.com/de/events/dms2005/index.html
Adobe Systems (H1 1255)
Mit am Stand von IBM zeigt Adobe Lösungen für die Erstellung, Verteilung, Verwaltung und Kontrolle elektronischer
Dokumente. Wie weit die digitale Kette mittlerweile reicht,
die ein Unternehmen mit PDF-Dokumeten organisieren
kann. An der Sicherheit dieser Dokumente arbeitet Adobe
mit weiteren Entwicklungen im Bereich der elektronischen
Signatur. Gemeinsam mit IBM demonstriert Adobe die Erstellung, Verwaltung und Verarbeitung von Formularen in
IBM-DB2-Content-Management-Umgebungen.
www.adobe.de/aboutadobe/pressroom/pr/jun2005/Airbus.pdf
EMC DOCUMENTUM (H1 1360)
Schon halb auf dem Weg in die Halle 2 lässt sich am Stand
von EMC Documentum über die Ausgestaltung des bisher
noch überwiegend nur konzeptionell behandelten Ansatzes
des „Information Lifecycle Management“ informieren. So
hat EMC Documentum einen namhaften Branchenexperten auf den Stand eingeladen, um in exklusiven Beratungsgesprächen mit Kunden zum Thema Kostenreduzierung
und Wirtschaftlichkeit durch den Einsatz von ECM zu
diskutieren. Außerdem hält Roy Sanford, Vice President
Markets & Alliances bei EMC, eine Keynote zum Thema
„ILM Architectures to Enhance the Value of ECM“ auf der
begleitenden DMS-Fachkonferenz. Technologisch zeigt das
Unternehmen mit der Enterprise-Content-ManagementLösung EMC Documentum 5.3 „die weltweit erste ECMPlattform, die auf einer einheitlichen Architektur basiert“.
Sie bietet Anwendern neue Services, die über die klassischen
Content-Management-Funktionen wie Datenerstellung, verwaltung und -speicherung hinausgehen. Dazu gehören
unter anderem Prozess- und Collaboration-Services sowie
die Datensuche über verschiedene Repositories.
www.documentum.de/news_events/news/pr2005/12_
DMS.htm
Ceyoniq Technology GmbH (H2 2015)
Kommt man über den wichtigsten Zugang in Halle 2, so ist
an dem zweistöckigen Messestand der Ceyoniq Technology GmbH kein Vorbeikommen. Nachdem im letzten Jahr
die überarbeitete Infrastruktur n scale vorgestellt wurde,
steht der diesjährige Messeauftritt deutlicher im Zeichen
der Anwendung. Neben Ceyoniq präsentieren dabei auch
die Ceyoniq-Partner wie die IT-Unternehmen advice IT
Consulting, Dynevo, Foxray, Havi Solutions und IP Systeme
verschiedene Branchenlösungen, die auf Basis der n-scalePlattform umgesetzt wurden. Darüber hinaus erhält der
Messebesucher einen Einblick in die neue n-scale GDPdU
Edition zur Abbildung aktueller steuerrelevanter Anforderungen.
www.ceyoniq.com/de/ueberct/events/dms2005/dmsaktion.cfm
EASY SOFTWARE AG (H2 2030)
Gleich nebenan bei der EASY SOFTWARE AG bilden anwenderorientierte DMS-Lösungen für alle Branchen und
Unternehmen den Schwerpunkt. Dabei wird der gesamte
Dokumentenfluss eines Unternehmens abgebildet - von
der Erfassung über die Workflow-basierte, abteilungsübergreifende Bereitstellung auf verschiedenen Plattformen
und Arbeitsumgebungen bis hin zur endgültigen revisionssicheren Ablage. Im Zuge dessen werden auch zahlreiche
044
Schwerpunkt
Neuheiten vorgestellt, darunter die Produktversionen EASY
ENTERPRISE.i 3.50 sowie EASY ENTERPRISE.x 2.0, die
beide ab Oktober 2005 erhältlich sein werden.
www.easy.de/dyn/epctrl/con/easy002101/cat/easy002056/
mod/easy002006/pri/easy
AIIM (H2 2325)
Die AIIM (The Association for Information and Image
Management) versteht sich als “the international authority
on Enterprise Content Management (ECM). We represent
users and suppliers of the tools that capture, store, manage,
preserve and deliver content in support of business processes”. Für die AIIM ist die DMS Expo „a must attend date and
venue for IT decision makers and providers in information
and document management“. Auf dem AIIM-Stand kann
sich der Besucher über die wichtigen internationalen Trends
und Entwicklungen im ECM/DMS-Sektor informieren und
Kontakte im Rahmen des „International Exchange“-Programmes knüpfen.
www.aiim.org.uk/events/dms/dms.asp
GFT Solutions (H2 2302)
Nach der AIIM geht es zur GFT Solutions, die mit der neuen
Lösung GFT InSpire eine leistungsfähige Lösung zur Abbildung von Geschäftsprozessen außerhalb des klassischen
Dokumentenmanagements vorstellt. Im Fokus steht das
Thema der Integration von Dokumenten im Rahmen des
Business Process Management. Gemeinsam mit Partnern
stellt das Hamburger Unternehmen beispielhafte Anwendungen aus dem Produktportfolio vor.
http://www.hyparchiv.de/index.php?site=245894e41ba708b77
e2fa6ba1cdcbfbd&event=24
Microsoft (H2 2630)
Auch wenn Microsoft kein eigenes Archiv-Backend im
klassischen Sinne aufweist, so bietet es doch verschiedene
Infrastruktur-Services, welche die zentralisierte Ablage, Verwaltung und Nutzung von Dokumenten in die Office-Welt
einbinden. Im Mittelpunkt des Messeauftrittes stehen daher
der SharePoint-Portal-Server wie auch der BizTalk-Server.
Zusammen mit Bearingpoint und Hewlett-Packard werden
verschiedene Referenz- und Projektlösungen vorgestellt.
Zudem präsentieren sich auf dem Stand vor allem verschiedene Windows-Server-basierte Best-of-Breed-Lösungen:
Axinom mit AxCMS als leistungsfähiges CMS, meridio mit
einem Archiv-Backend für den SharePoint-Portal-Server,
Workshare und hypernet von Coextant mit DokumentenWorkflow-Systemen und der Mind Business GmbH als Anbieter des Mind-Mapping-Werkzeuges MindManager.
ELO (H2 2610)
Auf dem Rückweg in die Halle 1 verschafft ein Stopp
bei der ELO Digital Office GmbH einen Einblick in die
Neuentwicklungen des Stuttgarter Unternehmens. Mit
qualifizierten Partnern werden innovative Dokumentenmanagement- und Archivierungslösungen vorgestellt. Schwerpunkte bilden: die Vorstellung einer neuen Server-basierten
E-Mail-Archivierung für Microsoft Exchange sowie attraktive Lizenzmodelle für den DocXtractor (selbstlernende
Klassifizierungskomponente) und das Capture-Tool für den
ELO-Client. Interessant ist die Teilnahme von Karl Heinz
Mosbach, Geschäftsführer ELO Digital Office GmbH, am
Best Practice Panel zu den Themen Information Lifecycle
Management und Enterprise Content Management.
www.elo.info/presse/pressemeldungen/dms2005.htm
OpenText (H2 2510)
VOI (H1 1760/1778)
Alle, die sich mit dem Thema der unternehmensweit integrierten Informations- und Dokumentenverwaltung,
neudeutsch Enterprise-Content-Management, tiefer beschäftigen wollen, sollten bei OpenText in der ECM Lounge
einkehren. Neben dem dargebotenen Lösungsspektrum lässt
sich mit etwas Glück eine Ausgabe des dritten und letzten
Bands des „Einmaleins des ECM“ von Tom Jenkins, Chairman von Open Text, erstehen. Das Buch trägt den Titel „Enterprise Content Management – Methods“ und beschreibt
anhand von 33 Kundenbeispielen Best-Practices-Strategien
zur schrittweisen Einführung von ECM-Lösungen. Im Rahmen der ECM-Vision zeigt OpenText dabei die Integration
in Unternehmensanwendungen wie SAP und Microsoft.
Als Branchenverband der Informations- und Dokumentenmanagement-Branche bietet der VOI seinen Mitgliedern
eine eigene Standfläche. Damit macht der Verband den
Gedanken seiner Community auch optisch deutlich. Gestützt wird dieser Ansatz an allen drei Messetagen durch die
Diskussions- und Talkrunden im VOI-Forum. Jeden Vormittag lädt der VOI zum Morningtalk. Moderiert werden
die Runden von Bernhard Zöller (Dienstag: Situation des
Dokumentenmanagements im Mittelstand), Peter S. Nowak
(Mittwoch: Status quo und Optionen für die kommenden
Jahre) und Guido Schmitz (Donnerstag: Input- meets Outputmanagement). Nachmittags bietet der VOI wie gewohnt
interessante Roundtable-Gespräche an, bei denen verschiedene Experten zur Diskussion laden.
www.ixos.com/local/de/home-de/nws-pressreleases.htm?id=1
4688
www.voi.de/pres.phtml?FID=561.2113.1&La=1&call=detail
045
daa Systemhaus AG (H1 1620)
Auf dem Rückweg zum Ausgang kann sich der Besucher
noch bei der daa Systemhaus AG über die effiziente Verwaltung von Dokumenten und Belegen rund um das ERPSystem von SAP R/3 informieren. Die SAP-Lösungen für die
Dokumenten-Management- und Archivierungs-Software
scanview stellen einen Ausstellungsschwerpunkt der daa
dar. Dabei steht die automatische Rechnungseingangsbearbeitung in SAP im Vordergrund. Diese umfasst die
automatische Belegerfassung und -erkennung, einen SAPGenehmigungsworkflow im Web sowie die anschließende
Verbuchung in SAP. Der Workflow wird vom daa-Partner
CAS AG auf dem Messestand vorgestellt. Für die komfortable Archivierung von SAP-Belegen in scanview stehen die
SAP-Connectoren zur Verfügung.
www.daa.de/news.php3?id=123
FileNet (H1 1350)
Zu guter Letzt in diesem redaktionellen Rundgang, aber
nicht minder bedeutend im deutschen DMS-Markt, bietet
sich ein kurzer Abstecher zu FileNet an. Das Unternehmen
präsentiert auf der DMS Expo seine neueste Version des
FileNet P8, in der Version 3.5. Mit dem Plattform-Upgrade
können Unternehmen und Behörden ein breites Spektrum
an Anforderungen für Content- und Process-Management
sowie für Compliance erfüllen. Wesentliche neue Funktionalitäten stehen zur Verfügung, einschließlich der Content
Federation Services (CFS), die eine Integration der FileNet
P8 ECM-Plattform mit zahlreichen Content Repositories
von FileNet sowie von anderen Anbietern ermöglichen. Den
Unternehmen verspricht FileNet damit, dass sie mit einem
einzigen Enterprise -Content-Katalog sämtliche Inhalte ihrer Organisationen verwalten und somit die Geschäftsprozesse verbessern, Compliance-Risiken entschärfen sowie die
Komplexität und die Kosten der IT reduzieren können.
www.filenet.com/Deutsch/News/Pressemitteilungen/FN_
DMS05.asp
(1) Zentrales Thema der DMS Expo 2005 ist einmal mehr
der unternehmensweit integrierende Informations- und
Dokumentenmanagement-Ansatz unter dem Schlagwort
Enterprise-Content-Management. Dazu werden die wesentlichen Potenziale der elektronischen Geschäftsprozesse
gesehen. In der Realität stehen die Unternehmen hier aber
noch ganz am Anfang eines weiten Weges. Nur wenige
Großunternehmen haben bereits vollständig integrierende
Lösungsimplementierungen. Der Mittelstandsbereich sucht
vielmehr die integrierte als die integrierende Lösung.
(2) Die weit reichenden Lösungsangebote für die Umsetzung zeichnen sich vor allem durch integrationsfähige
Informations- und Dokumentenmanagement-Konzepte
aus. Wirklich integrierende Lösungen, die den Dokumentenprozess über den gesamten Lebenszyklus und über alle
Phasen hinweg abdecken können, sind derzeit nur vereinzelt
zu finden.
(3) Neben dem ECM-Thema bestimmen die ComplianceAnforderungen, die Entlastung der Mail-Systeme durch
eine entsprechende Mail-Archivierung sowie die speziellen
Anforderungen des Mittelstandes die Themenfahrpläne der
berücksichtigten Anbietern.
Fazit
Insgesamt ist die DMS Expo natürlich wieder eine Reise
nach Essen wert. Verschiedene Neuerscheinungen, Lösungsupdates wie die Themen der begleitenden Informations-,
Foren- und Kongressveranstaltungen unterstreichen die
inhaltliche Bedeutung der Messe und des begleitenden
Kongresses. Aber auch hinsichtlich der Abdeckung des
Lösungsmarktes muss festgestellt werden, dass die Messe
einen kompakten, aber dennoch umfangreichen Einblick in
die Branche bietet und der Bezeichnung als führende Veranstaltung in diesem Bereich durchaus gerecht wird. Von
daher kann man Ihnen als Besucher nur einen informativen
Messebesuch wünschen.
Die wichtigsten Entwicklungen im Überblick
Wie bei jedem Messebesuch beschränkt sich der Rundgang
auf einen begrenzten Ausschnitt der Messeofferten. Am
Ende des Besuchs steht man immer am selben Punkt: Eine
Flut von Informationen will sortiert, tausend verschiedene
Eindrücke bewertet werden. Sozusagen echtes Input-Management.
Im Rahmen der Recherche lassen sich Aspekte als Entwicklungstrends und Merkmale des derzeitigen Status quo der
ECM/DMS-Technologien festhalten. Das sind:
Björn Negelmann
Geschäftsführer [n:sight] market & technology
research, analysiert IT-Systeme und unterstützt
zahlreiche Unternehmen bei der Spezifikation
und Auswahl von IT-Systemen.
046
Schwerpunkt
• E-Learning in der Praxis
Was vom
„E“ übrig blieb
Nach hochfliegenden Hoffnungen und deren Ernüchterung
ist E-Learning im Alltag angekommen. Nicht der große
Sprung zum Wissensmanagement ist heute gefragt. Es zählt,
was funktioniert. Und da gibt es mittlerweile einiges.
E-Commerce, E-Shops, E-Markets und so weiter – eine
Menge „E´s“ haben das Licht der Welt erblickt, seit IBM seine „E-Business“-Kampagne startete. Eines der E-Schlagworte: E-Learning. E-Learning sollte irgendwie alles können:
unternehmensweites Wissensmanagement , die Mitarbeiter
mit Multimedia-Anwendungen an den entlegensten Orten
schlau machen, überhaupt neue Wege der Lernens erschließen. Manchmal war E-Learning aber auch nichts weiter als
ein blankes Fenster ins Web. Aus E-Learning wurde Blended
Learning, als man erkannte, dass der Bildschirm allein nicht
immer die Lösung ist. Blended war die Lösung: ein Mix aus
Altbewährtem und Neuentwickeltem.
Die Trends im Rückblick
Lutz Goertz vom MBB Institut für Medien- und Kompetenzforschung hatte Anfang 2003 zehn Trends beim
Thema E-Learning ausgemacht (www.ecin.de/state-of-theart/10elearningtrends/). Die Thesen waren als Summe der
gerade abgelaufenen LearnTec in Karlsruhe formuliert
worden. Beteiligt war das Adolf Grimme Institut mit aktuellen Marktbeobachtungen. Der Tenor damals: immer noch
Verständnis- und Angebotslücken zwischen Markt und Anbietern, Marktbereinigung, fehlende „Killerapplikationen“
und mangelnde Akzeptanz durch die Nutzer. Und damit
auch der Unternehmen. Was gilt davon heute noch, was
hat sich verändert? Für Goertz am wichtigsten: „Dass es die
Killerapplikation immer noch nicht gibt, weder in der Technik noch bei den Einsatzbereichen.“ E-Learning ist seiner
Meinung nach bislang nicht in der Lebenswirklichkeit des
Alltags angekommen. „Was brauchen Angestellte wirklich
an Informationen über Rentenversicherungen? Oder, was
ändert sich, wenn die Mehrwertsteuer um einen Prozentpunkt hochgeht? Das wären alles lupenreine Einsatzfelder
für E-Learning, nur tut sich in diesem Bereich gar nichts.“
Ein weiterer Punkt: besser integrierte statt rein technische
Lösungen. „Es gibt einen Trend in Richtung ‚Rapid E-Learning’ oder ‚Knowledge Management on Demand’. Also statt
der tollen 100-Prozent-Lösung lieber eine Lösung, die sofort Unterstützung gewährt, dafür aber nicht komplett sein
muss.“
An der anhaltenden Marktbereinigung auf Seiten der Hersteller sowie der ökonomisch schwierigen Situation der
Weiterbildungsdienstleister hat sich hingegen nichts geändert. Positiv vermerkt Goertz, dass sich die Einstellung der
Nutzer spürbar verbessert hat: E-Learning wird zunehmend
als Chance gesehen. Die Motivation des Einzelnen zur Weiterbildung und zum Lernen steigt. Insgesamt konstatiert
047
nin
n
System
g
e
ng
atio
ement
Ler
Ba
se
d
ed
We
b
abor
ll
d Co
Manag
Tr
ai
ni
ng
Base
ng Con
tent
nd
rni
Lea
E-
Web
Ble
Learni
Lern
Goertz, dass der Hype um E-Learning definitiv vorbei ist
und eher durch de Begriff „Lernlösungen“ ersetzt werde. In
diesen Lösungen ist die E-Learning-Komponente integriert
worden, ohne allerdings im Vordergrund zu stehen. Dort
steht – wieder – das Lernen. „Der Computer ist nun einmal
da, aber eine zeitlang haben die technischen Möglichkeiten
wohl en Blick auf das Wesentliche verstellt.
Co
u
mp
ter
s
Ba
ed
in
Tra
ing
en
zur Professionalisierung von E-Learning. Auf nationaler
und europäischer Ebene arbeiten Gremien daran, Rahmensysteme zu entwickeln, die Richtlinien für die Produktion
von Inhalten und Einführung der Lernmethoden an die
Hand geben sollen, zum Beispiel mit der DIN PAS 1032.
Hier hat das DIN Institut von sich aus Initiative gezeigt.
E-Learning in der Aus- und Weiterbildung
Was gibt es Neues?
Die interessantesten Entwicklungen sieht Goertz im Bereich des Content-Sharing sowie der Standardisierung von
Inhalten. „Beim Content-Sharing gibt bereits die ersten
Marktplätze. Dort können aus einem Pool einzelne Informationsmodule präsentiert und abgerufen werden, was
gerade für Inhouse- oder freiberufliche Trainer in Zukunft
interessant ist.“ Das MMB betreut bereits einen solchen
Marktplatz, das Content Sharing Webkolleg in NordrheinWestfalen. Andere universitäre Marktplätze im Web wie das
EducaNext Portal (www.educanext.org) oder die UPB, die
„Universal Brokerage Platform for Learning Ressources“
(www.ist-universal.org), haben den Praxistest bestanden und
werden aktiv genutzt. In der Standardisierung von Inhalten
und deren „Normung“ sieht Goertz einen weiteren Trend
Eine der funktionierenden Lösungen, die zugleich ein
Aushängeschild für E-Learning ist, stammt aus der Zentralstelle für die Weiterbildung im Handwerk e.V. (ZWH): die
„Meisterqualifizierung Online“. Der ZWH will E-Learning
verstärkt bei den Bildungsträgern integrieren, um auch
da flexible Lernangebote machen zu können. Gemeinsam
mit dem Deutschen Industrie- und Handelskammertag
(DIHK) macht der ZWH Qualifizierungen, die wiederum
zu Fortbildungsprüfungen führen. Dr. Beate Kramer hat das
Projekt von Anfang an betreut. „Die Akzeptanz der Nutzer,
der Durchdringungsgrad in der Ausbildung, ist gewachsen.
Wir sehen, dass sich diese Art zu lernen, Schritt für Schritt
durchsetzt. Man braucht nur ein Stück weit Zeit, um diesen
Lernweg in die Breite zu bringen.“ Die Nachfrage beim der
ZWH nach derartigen Qualifizierungsangeboten steigt.
048
Schwerpunkt
Ausschlaggebend dafür ist nach Meinung von Kramer „die
Perspektive, mit der wir die kleinen und mittleren Unternehmen betrachten. Und daraus Strategien entwickeln, wie
deren Mitarbeiter trotz stärkerer Anspannung im Beruf und
finanziellen Einschränkungen motiviert werden können.“
Inhalte teilen stärkt Netzwerke
Dr. Bernd Simon von der Wirtschaftsuniversität Wien bestätigt, dass E-Learning wiederkommt, durch die Hintertür,
ohne das Etikett „E-Learning“. Und: was bislang weniger
im Fokus von E-Learning stand, war Content Sharing.
„Der Gebrauch von so genannten Open-Content-Lizenzen
nimmt weiter zu. Hierbei will der Urheber kein Geld mit
seinen Inhalte verdienen, jedoch gewisse Rechte daran wahren.“ Kontrollieren lässt sich die Verwendung letztlich aber
nicht. Ein durchgängiges Digital Rights Management ist
mit persönlichen Inhalten einfach nicht zu machen. Doch
scheint sich im Netz eine neue Sicht auf Inhalte und den
Umgang damit durchzusetzen. Die „Intellectual Property“
wird stärker im organsierten Rahmen wie beispielsweise der
2/05_Anz_DudKorr_21x14_4c
05.09.2005
16:47 Uhr
Seite 1
������������������������������
���������������������
������������������
������� ������������� ����������������
��������������������������������������
�����������������������
������������������
����
����������������������
������������������
������� �������������� �����������������
������������������������������������������������������
������������������������������������������������
���������������������������������������� ����������
���������������� ����������������������������������
�������������������������������������
�����������������������������
����������������������������������������
�������������������������������������
����������������������������������
��������������������������
����������������
Universal Brokerage Plattform wahrgenommen. Die NetzOrganisation „Creative Commons“ (creativecommons.org)
beschreibt, ähnlich wie die General Public Licence für
lizenzfreie Software, den Umgang mit Inhalten und deren
Gebrauch. Natürlich ebenfalls, ohne zu kontrollieren. Für
Simon sind die Ideen von Content Sharing und Open Source artverwandt: „Es geht in beiden Fällen um Netzwerke von
Personen. Inhalte sind Artefakte, mit denen sich die Personen austauschen, eigentlich eine soziale Handlung.“ Den
stittigen Punkt der „Quality of Service“ bei Software-Modulen für E-Learning sieht Simon übrigens nicht: „Es gibt hier
genauso eine Qualitätssicherung wie bei kommerziellen
Sytemen. In vielen Fällen sogar auf einem höheren Level.“
In seinen Augen finden zukünftig die wesentlichen Entwicklungen im Bereich der technischen und inhaltlichen Standardisierung der Lerninhalte statt. „Die Standardisierung
nach Vorschrift funktioniert nicht. Allenfalls die schrittweise
Angleichung von Vorgehensweisen, von Dokumentationen
und anderen Methoden, die aus dem Qualitätsmanagement
kommen, werden eine Standardisierung von Inhalten nach
sich ziehen.“
�������������������������������������
����������������������������������������
�������������������
�������������������������������������������
�������������������������������������������
��������������������������
������������������������������������� ����������
���������������������������������������������
��������������������������������������������
����������������������������������
�������������������
��������������������
������������������
������� ������
������� �����������������
������������������������
��������������������
������������������
������� ������
������� �����������������
���������������
�����
�
�
�
�
�
�
���
�����
�
�
�
�
�
�
�
����
����������������������������������������������������������
���������������������������������������������������������
�������������������������������������������������������������
�����������������������������������������������������������
�����������������������
���������������������������������������������������������
������������������������������������������������������
�����������������������
�������������������������������������������
��������������������������
�������������������������������������������������
������������������
���������������������������������
� �����������������������������
� �������������������������
� ���������������������������������
� ����������������������
� ��������������������
� �����������������������
� ������������������������
� �����������������������������������
�����������������������
� ��������������������������
� ������������������
� �����������������
� ��������������������������������������
���������������
���������������������������������
��������������������������������
����������������������������������
���������
������������������������������
���������������
������������������������
������� ��� ��� �����
������� ��� ��� ��������
�����������������
���������������
������������
050
Schwerpunkt
• Web-Technologien
Von Ajax
zu Backbase
Im Internet machen Startup-Unternehmen wieder
von sich reden. Die nächste Generation der Gründer
versteht das Medium und seine Probleme besser als
die Dotcoms. Überaschenderweise stammen die
Technologien und Konzepte noch aus den Zeiten
Mark Schiefelbein
des Goldrausches. Dazu zählt auch BackBase.
ue
u
7


u
Die Wartezeiten vor dem Browser, bis eine Seite geladen
ist, sind kürzer geworden. Interaktive Webseiten oder Anwendungen werden in ihrer Leistungsfähigkeit dennoch
ausgebremst. Ein Weg aus dem Dilemma: Den Datentransfer von Webseiten und Anwendungen sparsamer und
effizienter machen.Um Daten zwischen Server und Browser
auszutauschen, muss üblicherweise jede einzelne Webseite
neu geladen werden. Frames waren ein früher Ansatz, nicht
jedes Mal die komplette Datenmenge auf die Leitung zu
schicken. Ajax geht einen Schritt weiter, indem nur ein Teil
der Daten auf die Reise geschickt wird. Google war Vorreiter
der Ajax-Bewegung mit Applikationen wie „Gmail”, „Google Suggests” und „Google Maps”: Web-Applikationen, deren
Benutzeroberflächen extrem anwenderfreundlich, schnell
und funktionsreich sind und dadurch denen von DesktopApplikationen ähneln.
u
7
e
67
e
r
u
e
7
6
e
r
u
r7
7
6
Ajax ist DHTML.
Jesse James Garret von der Beraterfirma Adaptive Path hat
der Technologie den Namen Ajax gegeben: „Asynchronous
JavaScript+XML”. Ajax-Applikationen verwenden ausschließlich DHTML. Garret führt drei wichtige technische
Neuerungen des Modells an:
(1) Eine „client-site engine”, das heißt, eine SoftwareBibliothek, die im Browser aktiv ist, fungiert als Vermittler zwischen Benutzeroberfläche und Server.
(2) Aktionen des Anwenders werden von der „client-site
engine” verwaltet, anstatt jedes Mal einen ServerZugriff zu benötigen.
(3) Die Kommunikation zwischen der „client-site engine”
und dem Server erfolgt durch XML-Daten.
051
zum Thema
Die Backbase Ajax-Software arbeitet mit ca. 85 Tags und 200 Attributen die XHTML erweitern. BXML enthält unter anderem Tags für:
• Die Definition des Applikations-Layouts
(z. B. b:panel oder b:window)
• Das Styling der Oberfläche (so genannte ‚Skins’ oder Themen)
• Eine reichhaltige Sammlung von interaktiven Controls
(z. B. b:menu oder b:slider)
• Möglichkeit zum Einbinden von Multimedia-Elementen
(Flash, Audio, SVG)
• Abhandeln von Events und Ausführen von Commands
• Formalisieren von „Behaviors“ (display, hide, loading data,
animations etc.)
• Form Felder und Validierung (konditionelle Felder,
•
•
•
•
•
•
6
e
u

7
•
e
u
•
Feld-Validierung)
Animation von UI-Elementen (FX System)
Interaktion mit UI-Elementen (z.B. b:drag oder b:resize)
Unterstützung der Browser-Funktionalität „back/forward“
und „bookmarking“ Funktionalität
On-demand-Laden von UI-Code und -Daten
Client-side targeting (XPath)
Client-side transformations (XSLT)
Erweitern von BXML mit kundenspezifischen Tags
Implementieren von client-side business logic
User erreichen mit Ajax zweierlei, was in herkömmlichen
DHTML-Applikationen gegenseitig ausgeschlossen war.
Zum einen sind Ajax-Applikationen extrem “reich”, das bedeutet, aus Anwendersicht voller Funktionen und einfach zu
bedienen. Gleichzeitig bieten Ajax-Applikationen aber auch
alle Vorteile von Web-Applikationen. Dass liegt daran, das
ein Standard-Webbrowser die einzige Voraussetzung bildet.
Es sind keine Plug-ins oder Applets auf dem Client nötig.
plikationen in kurzer Zeit entwickeln können. Entwickler
fordern daher eine neue Generation der Ajax-Software, die
zwei wichtige Kriterien erfüllt:
(1) Die Ajax-Software muss alle Funktionalitäten enthalten,
die Web-Entwickler benötigen, um eine vollständige,
benutzerfreundliche Oberfläche für komplexe WebApplikationen zu entwickeln.
(2) Die AjaxSoftware muss es dem Entwickler erlauben,
Ajax-Oberflächen schnell und einfach zu entwickeln.
Eine Alternative kommt aus den Niederlanden
Das Unternehmen Backbase wurde 2003 in Amsterdam mit
der Zielsetzung gegründet, Entwicklern eine umfassende
und entwicklerfreundliche Ajax-Plattform zu bieten. Seit
2005 wird Backbase von der holländischen Regierung mit
Subventionen in Höhe von Euro 1,3 Millionen unterstützt.
Das Team ist inzwischen auf 40 Mitarbeiter gewachsen. In
den Niederlanden hat Backbase unter anderem ein Unterhaltungs-Portal für Heineken implementiert, das der jungen
Zielgruppe des Unternehmens bislang ungekannte Interaktivität bietet. Auch die niederländische Presseagentur ANP
setzt bei ihrem Live-Portal für Pressemitteilungen auf die
Weiterentwicklung von Ajax
Anfang Juni hat das Unternehmen sein Geschäft weltweit
ausgebreitet und bietet Entwicklern seine „Community Edition“ für nicht kommerzielle Zwecke kostenlos an. Auf der
Website www.backbase.com können Entwickler die Software herunterladen und sich in der Community mit anderen
Entwicklern austauschen.
Nicht alles ist Gold, was glänzt
Neben viel Lob gibt es auch kritische Stimmen zum AjaxModell. Die Kritik zielt hauptsächlich auf Schwierigkeiten
bei der Entwicklung und dem Unterhalt von Ajax-Benutzeroberflächen ab. Die Probleme ergeben sich durch umfangreichen Einsatz von JavaScript:
(1) Kompatibilitätsprobleme zwischen verschiedenen
Browsern erfordern Browser-spezifischen Code.
(2) JavaScript ist nicht gut geeignet für komplexere
Anwendungen.
Zusammenfassend kann man sagen, dass die Richtung von
Ajax stimmt. Allerdings muss die Ajax-Technologie weiter
entwickelt werden, um zu der Plattform zu werden, mit der
Web-Entwickler weltweit stabile und interaktive Web-Ap-
Noch ein Beispiel eines „Single Page Interfaces“ (SPI).
Alle Informationen sind übersichtlich auf einer Seite
präsentiert: Die Forumauswahl als „Clamshell“ links. Die
Forumbeiträge als Baum oben. Der ausgewählte Beitrag
als Textareal unten. Und der Editor zum Erstellen der
Antwort als Pop-up.
054
Schwerpunkt
dem Server und dem BPC basiert
auf XML-Dokumenten, die eine
Kombination von reinen Daten
(XML) und Oberflächendefinition
(BXML) enthalten.
Der optionale Backbase Server
dient als Brücke zum Back-end. Der
BPS hat eine äußerst flexible XMLArchitektur, mithilfe derer Daten
aus vielfältigen System (Datenbanken, J2EE, .NET) und insbesondere
auch aus Webservices geladen werden können, um dann an Controls
in der Backbase-Oberfläche gebunden zu werden.
Fazit
wie Backbase funktioniert
Backbase macht da weiter, wo Ajax aufhört
Die Abbildung auf der folgenden Seite erläutert das Grundprinzip von der Lösung. Die Architektur enthält drei
Grundkomponenten:
(1) Den Backbase Presentation Client (BPC), eine AjaxEngine, die in den Browser geladen wird;
(2) die Backbase eXtensible Markup Language (BXML),
eine Erweiterung des HTML-Wortschatzes um zusätzliche GUI-Funktionalitäten und
(3) den (optionalen) Backbase Presentation Server (BPS).
Der Anwender öffnet seine System-Oberfläche wie üblich
im Browser mit einem URL. Backbase-BXML-Seiten haben
eine *.html-Erweiterung und werden vom Web Server wie
normale HTML-Seiten behandelt. Im Browser wird dann
als Erstes der BPC geladen, der im Weiteren BXML interpretiert und in ein DOM übersetzt, was durch den Browser
gerendert wird.
Der BPC übernimmt den weiteren asynchronen Datenaustausch. Daten werden direkt vom Server geladen, ohne eine
neue Seite aufzubauen. Dadurch, dass nur die benötigten
Daten geladen werden und die Oberfläche nur partiell verändert wird, bietet sich dem Endanwender eine extrem reaktionsschnelle Oberfläche. Der Datenaustausch zwischen
Als Fortschreibung der Ajax-Software bleibt Backbase dem Ajax-Ansatz treu und macht dort weiter, wo
Ajax aufhört. Die Lösung bedient
sich einer Architektur, die die heutigen Web-Standards
(W3C) unterstützt und keine weiteren Systemvoraussetzungen außer einem Webbrowser erfordert. Mit einem Umfang
von weniger als 30 KB ist der BPC extrem Ressourcen-effizient.
Wo eigene Ajax-Ansätze schnell zu unübersichtlichen
Ansammlungen von JavaScript Widgets anwachsen, bietet
Backbase eine robuste „client-site engine“, den „Backbase
Presentation Client“ (BPC), mit der Entwickler ihre AjaxApplikationen programmieren. Der Ansatz einer horizontalen Erweiterung von DHTML macht BXML-Programmieren einfach. BXML ist wie XHTML deklarativ und bietet
etwa 85 neue Tags als logische Erweiterung zur Entwicklung
von interaktiven Benutzeroberflächen im Standard-Browser. Backbase bietet damit eine vollständige Ajax-Plattform,
die das Präsentationstier für J2EE, .NET, PHP und andere
Server-side Technologien darstellt.
Mark Schiefelbein
Abschluss Computer Science and Engineering,
Universität von Arizona, Tucson und FriedrichAlexander-Universität, Erlangen.
Seit Anfang 2005 Director Product
Management, BackBase.
����������������������������������
����������������������
��� ���� ���� �������� ����
���������������������������������������
������������������
�����������������
�������������
�����������������������������
����������
���������������
�����������������
����������������������
��������������
����������������������
��������������������������
�������
������ �����
���� ������
��
�
�� ���
���
�����������
��
����� �����
�
����
�����
�����
��������
����
�
�
�
�
�
�
���
�������������
���������������������������������
����������������������������
������������������
�����������������������������������
����������
����������
� ���������������������������������������������������������������������������������
������������
�������������������������
��������������������
� ����������������������������������������������������������������
� ������������������������������������������������������������
� ������������������������������������������������������������������������������
� ���������������������������������������������������������������������������������������
� ���������������������������������������������������������������������������
� �����������������������������������������������������������������������
�������������
��������������������������������
� ������������������������������������������������������������
� ��������������������������������������������������������������������������
�����������������
���������������������������
� ������������������������������������������������
� �������������������������������������������������������������
� ��������������������������������������������������������������������������������������������
� ����������������������������������������������������������������������������
�����������������
����������������������������
���������
��������������
������������������������������
��������������������������������
� �����������������������������������������������
� ����������������������������������������������������������������
��������������������
����������������������������
������������
������������������������������������������������
� � �� � �� � � � �� � � �� �� � � �
�������������
������������
�����������������������������������
������������������������
���������������������
�������������������������������
����������������������������������
��������������������������������
� �����������������������������������������������
������������
�������������
�������������������
�������
������������
054
Schwerpunkt
• Elektronische Signaturen
Gut gemeint
statt
gut gemacht
Sie sollte Großes leisten, die elektronische Signatur.
So wurde mit deutscher Gründlichkeit ein Signaturgesetz
verabschiedet. Eines, das mit Abstand die sicherste Lösung
darstellt. So sicher, dass kaum jemand damit arbeiten will.
Gut zwei Jahre, nachdem die elektronische Signatur rechtskräftig geworden ist, stehen die Software-Anbieter in den
Startlöchern. Nach Branchenmeinungen sind zurzeit über
170 Anbieter international auf dem Markt, um Unternehmen Lösungen für die rechtskonforme Erstellung von Rechnungen und deren Versand zu verkaufen. Tendenz steigend.
Denn nur wer - in Deutschland - nach dem Signaturgesetz
handelt, ist vorsteuerabzugsberechtigt. Dass der Fiskus ein
Auge auf die Rechnungen der Unternehmen geworfen hat,
wundert nicht: Einige Mrd. Euro, so schätzt der Bund, beträgt allein in Deutschland der Schaden durch Karussellgeschäfte. Gemeint sind Geschäfte, bei denen es um den Missbrauch durch Abzug unberechtigt angegebener Vorsteuer
im Geschäftsverkehr geht.
Von Kanonen und Spatzen
Die Anbieter wären bereit: Sind es die Unternehmen auch?
Für Heiko Mehnen ist die Antwort klar. „Die Wirtschaft
will das einfach nicht. Vielleicht gar nicht oder auch nur
noch nicht.“ Der Geschäftsführer der GLI GmbH in Haar
bei München war 1986 der einzige deutsche Teilnehmer
im Gremium der Uno, in dem die Grundbausteine von
EDIFACT entwickelt wurden. Es ist ein Verfahren, welches
noch heute überwiegend für den b2b-Datenaustausch genutzt wird. Die Bausteine waren Basis für die Syntax eines
EDI-Standards, die der ISO zur Normung als ISO-Standard
9735 übergeben wurden. Mehnen kennt die Wege des
elektronischen Rechnungsversands seit den Anfängen von
Electronic Data Interchange (EDI). Rund zehn Prozent der
Unternehmen in Deutschland nutzen seiner Schätzung nach
EDI, nur etwa 0,5 Prozent oder sogar weniger die elektronische Signatur. Alle anderen übermitteln die Rechnungen mit
dem Fax und als Briefpost. Das, obwohl alle Dokumente wie
Lieferscheine, Bestellungen oder Gutschriften längst digital
verarbeitet und verschickt werden können. Das Fax wird
von vielen als sicheres Dokument angesehen. Rechtlich ist es
jedoch problematisch, sobald beim Versand oder Empfang
ein Faxserver zum Einsatz kommt. Werden Rechnungen
elektronisch verschickt, wird häufig als umständliche Notlösung die Sammelrechnung zur Ausweisung der monatlich
zusammengefassten Umsatzsteuer eines Geschäftspartners
genutzt. „Der Gesetzgeber hat in Deutschland sicher das
Richtige gewollt, aber nicht die richtigen Mittel gewählt“,
findet Mehnen. Die elektronische Signatur sei in den Augen
vieler Unternehmen zu schwerfällig, zu kompliziert und zu
teuer. Ihre Zukunft zu ungewiss. „Fast jedes Unternehmen,
egal welcher Größe, will abwarten, in welche Richtung die
Entwicklung geht. Ob die Finanzämter wirklich prüfen oder
ob es preiswertere Lösungen gibt. Ob nicht doch irgendwann eine einfachere Signatur wie die „fortgeschrittene Signatur“ ausreicht. Der Umsatzsteuerbetrug könnte auch mit
anderen Mitteln kontrolliert und unterbunden werden.“
055
Halbwahrheiten statt Informationen
Rolf Schmoldt ist einer der Fachleute, dessen Vorschläge
bei den fortgeschrittenen Formulierungen des Signaturgesetzes mit aufgenommen wurden. Der Praktiker beschäftigt
sich seit Jahren mit biometrischen Verfahren, Public-KeyInfrastrukturen (PKI) und der Elektronischen Signatur.
Schmoldt kennt das Gesetz in- und auswendig. Er findet,
dass zu viele Halbwahrheiten verbreitet werden, auch von
Seiten der Hersteller und Berater. „Hier wird immer noch zu
viel verwechselt: Geht es um den Nachweis eines unveränderten Dokuments? Um die sichere Übermittlung? Um die
Authentizität von Urheber oder Empfänger? Der gesamte
Themenkreis ist hochkomplex. Er wird nur von wenigen
Anbietern in Gänze zu den Unternehmen kommuniziert.“
Die Sinnfrage der elektronischen Signatur stellt sich für
Schmoldt allerdings nicht: „Der Gesetzgeber wollte eine
Lösung, die die Authentizität von Personen und Integrität
eines Dokumentes abdeckt.“ Dabei hätte weniger durchaus
mehr sein können. Für die Authentizität, die Sicherstellung,
dass es sich um eine bestimmte juristische oder natürliche
Person handelt, braucht ein Unternehmen nicht zwingend
die elektronische Signatur. Es geht auch anders und einfacher. Gerade am Point of Sale (PoS) bieten sich biometrische Verfahren wie die Unterschriftenerkennung an. Hier
wird aus Druck und Geschwindigkeit des Stiftes auf einem
Pad ein Algorythmus ermittelt und verschlüsselt, der genauso fälschungssicher ist wie beispielsweise die Iris-Erkennung. Zudem ließe sich die Unterschrift auch als juristische
Willenserklärung nutzen.
Was der Markt hergibt
Mittlerweile wird eine ganze Reihe von Lösungsansätzen
für die Unternehmen angeboten, die mitmachen wollen.
Aus Herstellersicht werden, wieder einmal, auch die kleinen und mittleren Unternehmen adressiert. Gemeinsam
mit 56 IHKs in Deutschland hat die DE-CODA GmbH so
genannte Startpakete geschnürt. Die sollen Unternehmen
den Einstieg in die elektronische Signatur erleichtern. Das
Paket beinhaltet eine Smart-Card, ausgestellt von einem
authorisierten Zertifizierungsdienstleister, ein Lesegerät
sowie entsprechende Software. Ein anderer Anbieter wie
die Task-IT, die im Herbst mit INEX auf den Markt kommt,
positioniert sich mit Kampfpreisen von unter 100 Euro für
die Grundausstattung. Oder es werden von einer Vielzahl
von Unternehmen wie der PLANinterNET GmbH vergleichbar mit Online-Banking PIN und TAN-Nummern
bestellt, womit sich die Benutzer über den Browser und
zum Thema
„Bei einer elektronischen Signatur handelt es sich um elektronische
Daten, die die Authentizität und Integrität von elektronischen
Informationen, meist elektronische Dokumente, sicherstellen
sollen.“ [...] „Das Signaturgesetz unterscheidet zwischen der
elektronischen Signatur an sich, die daher häufig als einfache
elektronische Signatur bezeichnet wird, der fortgeschrittenen elektronischen Signatur und der qualifizierten elektronischen Signatur.
Letztere erfordert ein gültiges Zertifikat und die Erzeugung mit
einer sicheren Signaturerstellungseinheit (SSEE).“ (de.wikipedia.org)
Billentis www.billentis.com • Bundesamt für Sicherheit in der Informationstechnik (BSI) www.bsi.de • Bundesministerium des Inneren
www.staat-modern.de • Bundesnetzagentur www.bundesnetzagent
ur.de • DFN-CERT Services GmbH www.dfn-pca.de • GLI GmbH
www.gli.de • JurPC www.jurpc.de • pol-di.net e.V. www.politikdigital.de • SigLab e.V. Verein zür Förderung der elektr. Signatur
www.siglab.de • Signature Perfect KG www.signature-perfect.com
eine SSL-geschützte Verbindung anmelden. Die separate
Signiereinheit, in der ein Webserver arbeitet, ist nicht größer als eine Zigarettenschachtel. Bruno Koch von Billentis
aus der Schweiz ist unabhängiger Berater und beobachtet
den Markt seit Jahren. „Seit 2004, wo in den EU-Ländern
b2b-Rechnungen akzeptiert werden müssen, erleben wir
einen echten Boom bei den elektronischen Rechnungen.
Das Marktvolumen hierfür beträgt europaweit in diesem
Jahr etwas 300 Mio. Euro.“ Koch legt Wert auf die begriffliche Unterscheidung zwischen der elektronischen Rechnung
und der elektronischen Signatur. „Das eine ist ein digitales
Dokument, das andere der gesetzliche Rahmen für ein Set
von 4 verschiedenen Dateien“. Erst zusammen ergibt beides
einen Sinn: „Eine digitalisierte Rechnung oder ein signiertes
Dokument allein schafft ja noch keinen Mehrwert. Erst in
der Kombination von beidem senken Unternehmen ihre
Kosten und erfüllen die rechtlichen Anforderungen.“
International bedingt tauglich
Die Probleme beim grenzüberschreitenden Rechnungsaustausch sind mit dem deutschen Weg der elektronischen
Signatur keineswegs behoben. Allerdings vereinfacht die Ursprungslandregel den Datenverkehr deutlich: Bei elektronischen Rechnungen gelten, von allen EU-Ländern akzeptiert,
die gesetzlichen Regelungen des Ursprungslandes, in dem
die Rechnung gestellt wurde. Ein Umstand, der selbst in den
Arbeitsgruppen der EU nicht immer bekannt ist. Auf EUEbene reicht mehrheitlich die so genannte „fortgeschrittene
Signatur“ aus, im Gegensatz zu Deutschland, wo die „qualifizierte Signatur“ verlangt wird. Der Unterschied besteht
in den Sicherheitsanforderungen: Bei fortgeschrittenen
Signaturen können neben zertifikatsbasierten Identifizie-
������������������
������������
�����������
�� �� �� ��� �� ��
�� � �� � �� �
rungsverfahren auch andere Verfahren verwendet werden.
Im Klartext: Hier können entsprechend der EU-Signaturrichtlinie auch nur juristische Personen, also Unternehmen selbst, zur Identifizierung zum Zuge kommen. Die
qualifizierte Signatur - mit höheren Anforderungen - wird
außer von Deutschland von nur wenigen EU-Ländern wie
Litauen, Tschechien oder Spanien unterstützt. Diese Länder
spielen beim b2b-Datenaustausch international eine eher
nachrangige Rolle. Dort geht es wahrscheinlich eher um
Anwendungen im Bereich E-Government. Österreich hingegen, ein Land, in dem die elektronische Signatur bereits
früh zur Anwendung kam, arbeitet mit der fortgeschrittenen Signatur.
Wenn auch nicht bei der Signatur selbst, so doch zumindest
beim Datenverkehr, bahnt sich eine grenzübergreifende
Lösung an. Die Internet Engineering Task Force (IETF)
wurde beauftragt, einen kostengünstigen und sicheren Weg
für den Austausch von Daten zu beschreiben. Stand der
Dinge sind die beiden auf Internetprokollen basierenden
Spezifikationen AS1 (SMTP) und AS2 (HTTP). AS steht
dabei für „Applicability Statement“. Dahinter steckt die
Idee von EDI-INT, einem „EDI over Internet“. So können
mit AS2 unterschiedliche Formate wie EDIFACT, XML
oder CSV sicher übertragen werden, wobei sich eine Reihe
von Sicherheitsoptionen spezifizieren lassen, beispielsweise
Datenversand, sichere HTTPS-Verbindung, Verschlüsselung
oder Verwendung digitaler Zertifikate.
Fazit
Führende Systemhersteller im Vergleich
Basierend auf umfangreichem
ECM Funktionsmodell
Mit achtseitigen Lösungsprofilen
zu jedem Anbieter
Inkl. Fachartikel zu Merkmalen und
Abgrenzung des Systemmarktes
Unabhängiges Knowhow
zu deutschen Systemmärkten
Noch ist keinesfalls sicher, ob die Unternehmen, die jetzt
die qualifizierte elektronische Signatur einführen, auch
auf das richtige Pferd setzen. Zwar ist mit dem deutschen
Signaturgesetz ein rechtsverbindlicher Standard etabliert
worden, doch nur national. Ob sich irgendwann die flexiblere fortgeschrittene Signatur oder gar ein anderer Weg
durchsetzen wird, bleibt offen. Zu viel ist auf nationaler und
internationaler Ebene in Bewegung. Zu wenig hat sich der
Gebrauch der Signatur bislang im Alltag etabliert. Dass die
Unternehmen ihre Investitionsentscheidungen erst einmal
zurückstellen, wundert nicht. Es wird noch eine Weile dauern, bis Unternehmen, Hersteller, Berater und Finanzämter
alle denselben Wissens- und Ausrüstungsstand haben, den
die elektronische Signatur verlangt. Falls es dann noch die
elektronische Signatur in ihrer heutigen Form gibt.
(uhe)
Mehr Infos im Web: http:/www.n-sight.de
oder per E-Mail:[email protected]
057
INEX GmbH
AuthentiDate International AG
Helmut Ohl, Vertriebsleiter der im September gegründeten INEX GmbH, über INEX-D und INEX-C. Mit diesen
Lösungen steigen auch kleine und mittlerer Unternehmen in den elektronischen Rechnungsversand ein.
Jan C. Wendenburg, Vorsitzender des Vorstands bei der
AuthentiDate International AG über die Einsatzmöglichkeiten der elektronischen Signatur.
Die elektronische Signatur für unter 100 EUR – geht das
überhaupt?
Ja, in der letzten Ausbaustufe werden zwei Alternativen
angeboten: der Kauf eines SmartCard Readers inklusive
Software bzw. die Signierung über einen Dienstleister.
Welches Problem lösen Unternehmen mit dem Paket?
Der Lieferant kann mit INEX-D Dokumente wie Lieferscheine oder Rechnungen papierlos erstellen und versenden. Man spart also die gesamte Versandlogistik. Der
Besteller arbeitet mit INEX-C, womit die Integration der
vom Lieferanten versendeten Daten ohne Medienbruch
und ohne manuelle Erfassung möglich wird.
Es geht also um eine Softwarelösung, die PDF-Dokumente
ausgibt? Die Dokumente ausgibt, die im Nachhinein nicht
mehr veränderbar sind?
INEX-D gibt die Daten sowohl im PDF-Format als
auch als csv-Datei aus. Letzteres ist notwendig, um die
medienbruchfreie Integration in das EDV-System des
Bestellers bzw. INEX-C zu realisieren. Letztendlich sind
die Dokumente veränderbar. Sofern eine Veränderung
vorgenommen wird, verliert aber die digitale Signatur
ihre Gültigkeit.
Ab welchem Rechnungsaufkommen lohnt sich die Installation?
Eine Studie der Universität Frankfurt besagt, dass der
Lieferant pro Rechnung ca. 4 EUR und der Besteller bis
zu 30,00 EUR einsparen kann. Für den Lieferanten lohnt
sich somit der Einsatz bei ca. 30 Rechnungen, für den Besteller ist der Einsatz ab ca. 1.000 Rechnungen rentabel.
INEX kann aber nicht nur für Rechnungen eingesetzt
werden.
Wird es weitere INEX-Produkte oder Dienstleistungen in
dem Bereich geben?
Auf der Bestellerseite ist eine Erweiterung geplant,
die den Nutzen noch weiter steigen lässt. Auch ist die
INEX–Lösung nicht auf kaufmännische Anwendungen
begrenzt, hier ergeben sich weitere Ansätze.
Für welches Rechnungsaufkommen ist die AuthentiDateSignatur-Lösung gedacht?
Für jedes Volumen. Ab ca. 10.000 Rechnungen jährlich
sollte man den Einsatz einer Signaturlösung in der eigenen IT-Infrastruktur anstreben. Für kleinere Volumina
bieten AuthentiDate und Partner die Signaturlösung im
ASP-Betrieb an.
Welchen Nutzen haben AuthentiDate-Kunden von der
Partnerschaft mit StreamServe?
Durch Kombination der StreamServe und AuthentiDate
Lösung erhalten Kunden eine umfassende Lösung aus
einer Hand, ohne Schnittstellenverluste und praktisch
erprobt. Rechnungsprozesse können von der Erstellung
über Konvertierung, Signatur, Signaturprüfung und
Verarbeitung im ERP-System abgebildet werden. Für die
Kunden ein schneller Weg, um Kosten zu senken.
Ab welcher Unternehmensgröße?
Dies richtet sich in erster Linie nicht nach der Größe des
Unternehmens. Entscheidender ist der Faktor „Wie viele
Rechnungen versendet oder empfängt das Unternehmen?“ Je höher das Volumen, desto höher der Aufwand
für Druck oder Porto, desto größer die Einsparung.
In welchem Bereich und ab wann senken Unternehmen
damit ihre Kosten?
Die Unternehmen können sofort nach Einsatz der Signaturlösung Kosten senken. Einzelne Prozesskosten werden
sofort gesenkt oder ganz eleminiert, z.B. Portokosten.
Wird die Signatur auch zukünftig streng gehandhabt?
Ja, ich gehe davon aus. Nur die hohen Anforderungen
garantieren für alle Unternehmen rechtssichere und geschützte elektronische Daten.
Welche Rolle spielt hier die revisionssichere Archivierung?
Eine sehr wichtige. Gerade Rechnungen müssen mindestens 10 Jahre archiviert werden, auch elektronische
Rechnungen. Viele Archivsysteme wie z. B. Ceyoniq, Easy,
GFT Hyparchiv, Saperion, SER, OCR u. a. bieten bereits
die Möglichkeit, Signaturen im Archiv zu prüfen und so
signierte Rechnungen langfristig zu archivieren.
058
Schwerpunkt
• Hersteller-CMS versus Open Source
Was ist dran
am großen Run?
Wie profitabel sind CMS-Lösungen? Wann lohnt sich ihr Einsatz?
Ist die Funktionalität von Open-Source-Systemen eingeschränkt?
Stefan Bauer
Können Open-Source-Lösungen gegen kommerzielle ContentManagement-Systeme bestehen? Ein Überblick.
Die Verlockung, von einem kostenlosen Softwaresystem
zu profitieren, ist groß. Experten und Anwender loben die
Systeme in den höchsten Tönen. Doch das Wissen darum,
was dieser Schritt in der Praxis bedeutet und wann genau
ein Open-Source-Content-Management-Systemen (CMS)
die beste Wahl ist und wann nicht, ist eher gering. Neben
dem Vorteil wegfallender Lizenzkosten bieten Open-Source-Systeme den Vorteil, bei Entwicklung und Anpassung an
individuelle Lösungen besonders flexibel zu sein. Darüber
hinaus wird Open Source ständig weiterentwickelt, verbessert und angepasst – von einer großen Zahl hoch qualifizierter Entwickler, die ihren Code unentgeltlich zur Verfügung
stellen.
Mit einer installierten Basis von 122.000 Anwendungen (von
der Typo3 Association im März 2005 geschätzt) zählt Typo3
weltweit zu den am meisten verbreiteten Open Source CMS.
Die große Zahl der Anwender spricht für Stabilität, Professionalität und Mehrwert von Typo3. Doch wie macht sich
Typo3 im Vergleich zu kommerziellen Produkten? Stimmt
die Qualität? Gibt es versteckte Risiken? Und wo liegen die
wahren Einsparungspotenziale?
Basiswissen
Ob Internet, Intranet oder Extranet – Online-Kommunikation spielt sich auf einer Vielzahl von Plattformen ab. Für
TYPO
Unternehmen ergeben sich so nicht nur wirtschaftliche,
sondern auch organisatorische Herausforderungen. Nicht
wenige Firmen aktualisieren ihre Inhalte noch manuell und
setzen Sitemaps, Übersichtsseiten oder zeitgesteuerte Inhalte ein, die direkt in den Code eingefügt werden. Insgesamt
haben sich auf breiter Front Content-Management-Systeme
durchgesetzt, die eine wirtschaftliche Pflege der Inhalte
gewährleisten und den Verwaltungsaufwand für Webseiten
reduzieren.
Der Markt für CMS-Lösungen ist jedoch groß und wenig
transparent: Die Spannbreite reicht von kostenlosen OpenSource-Lösungen über kleinen Out-of-the-Box-Angeboten
bis hin zu hochpreisigen Systemen im Enterprise-Bereich.
059
Insgesant haben sich drei Arten von Systemen etabliert: individuell entwickelte CMS, Enterprise CMS, Open Source
CMS.
Individuell entwickelte CMS
Agenturen entwickeln auf Basis unterschiedlicher Programmiersprachen und Datenbanken ein auf den jeweiligen
Kunden zugeschnittenes CMS. Der Kunde bindet sich dabei
eng an die ausführende Agentur. Meist sind die Systeme so
komplex aufgebaut, dass andere Programmierer sich erst
mit einem hohen Zeitaufwand einarbeiten müssen. Bei einem Agenturwechsel ist es dann nicht selten sinnvoller, ein
komplett neues System entwickeln zu lassen, statt das bestehende anzupassen. Je nach Code-Umfang und Anforderungen ist ein individuell programmiertes System günstiger in
der Anschaffung als eine kommerzielle Lösung. Doch Vorsicht: Dieser Kostenvorteil schwindet mit jeder nachträglichen Änderung. Zusätzliche Funktionen führen zu einem
entsprechend hohen Aufwand bei der Programmierung.
Gerade noch ein Schnäppchen kann auf diese Weise schnell
ein Fass ohne Boden werden.
Enterprise CMS
Im EnterpriseSegment gibt es viele Anbieter - hier ist von
der Ente bis zum Mercedes alles zu haben. Es handelt sich
um fertige Lösungen, die gegen eine einmalige oder monatliche Lizenzgebühr erworben werden. Oft fallen zusätzliche
Kosten für den Betrieb an. In der Regel bieten diese Systeme
gute Basisfunktionen, die aber nicht zwingend die Anforderungen des Kunden komplett abdecken. Müssen zusätzliche
Funktionen entwickelt und implementiert werden, so ist
das oft nur über den Hersteller oder dessen Systemintegratoren möglich, woraus sich ebenfalls eine Einschränkung im
Handlungsspielraum ergibt.
Open Source CMS
Wie die Bezeichnung Open Source schon sagt, liegen bei
diesen Systemen die Quellen offen. Jeder kann den Code
benutzen und sich an deren Weiterentwicklung beteiligen.
Ein Open Source CMS wird nicht nur von kommerziellen
Firmen, sondern von einer weltweiten Gemeinschaft freier
Programmierer entwickelt. Für den Fortbestand der Systeme bedeutet das die ständige Weiterentwicklung. Sie hängt
weniger von der Marktstrategie einzelner Firmen ab, als
vielmehr von dem Interesse und dem Engagement weltweit
verstreuter Entwickler. Ein Potenzial, mit dem einzelne
zum Thema
„TYPO3 ist ein Content Management Framework für kleine bis
mittelgroße Unternehmen. Es vereint die Vorteile zweier Welten:
Umfangreiche „Out-of-the-box“ Funktionalität mit einer großen
Auswahl an frei definierten Standard-Modulen. Jede Funktion ist
denkbar – es muss sich nur jemand finden, der die Anpassung programmiert.“ So beschreibt das Typo3-Netzwerk (www.typo3.de) den
Gedanken der Open Source Software.
Deutschland
rtplan [21] webconcepts & Solution berlin www.artplan21.de •
bgm business group munich typo3.bgm-gmbh.de • Colorcube
– digital media lab www.colorcube.de • DIACC Content Computing
www.diacc.de • pool/munich www.dpool.net • Target-E www.targete.com • punkt de GmbH - Baden/Karlsruhe www.punkt.de • Erichsen Digital GmbH www.pflegefall.biz • Skyfillers www.skyfillers.com
Österreich
Abaton GmbH www.abaton.at • Active Solution Software AG
www.activesolution.at • Plan2net-Wien www.plan2net.at • Typoheads www.typoheads.com • Web consulting www.web-consulting.at
Schweiz
IC Surselva AG www.icsurselva.ch/intern • snowflake productions
gmbh www.snowflake.ch
Unternehmen schlichtweg nicht mithalten können. Die
Akzeptanz von Open Source wird am Beispiel von Linux
& Co deutlich: Spätestens seit der Empfehlung des Bundesrechnungshofes und des Bundesinnenministers Otto Schily
wird Linux nicht nur in der Wirtschaft und im Deutschen
Bundestag, sondern auch auf allen Ebenen der Verwaltung
eingesetzt. Und da Linux wie die meisten Open-SourceSysteme der Gnu Public Licence unterliegt, fallen keine
Lizenzgebühren an.
Agenturen setzen verstärkt auf Typo3
Aufgrund seiner zahlreichen Vorteile wird Typo3 von WebAgenturen und anderen Internet-Dienstleistern vielfach
eingesetzt. Zusätzliche Anwendungen, die so genannten
Extensions von Typo3, sind je nach Anforderungen und
bei Bedarf ohne großen Aufwand zu integrieren. Zu den
Stärken von Typo3 zählt das breite Angebot an Entwicklungsressourcen. Es entsteht durch die einheitliche Architektur des Systems und wächst ständig weiter. Das spart im
Vergleich zu kommerziellen Systemen Zeit und Geld: Ein
Programmierer kann sofort loslegen, ohne sich in herstellerspezifische Anforderungen einarbeiten zu müssen.
Ein anderer Vorteil ist die Unabhängigkeit von der Vertriebs-, Preis- und Supportpolitik kommerzieller Hersteller.
Wie wertvoll die daraus entstehenden Gestaltungsspielräume sein können, wissen besonders die Unternehmen,
die auf eine proprietäre Lösung gesetzt haben und deren
Hersteller das Produkt nicht weiterentwickelt oder in einer
060
Schwerpunkt
anderen Lösung versteckt hat, vom Markt weggekauft wurde oder ganz verschwand.
Die weite Welt des Open Source
Was die Funktionalität und die Entwicklungsmöglichkeiten
angeht, kann man grundsätzlich sagen: Bei Typo3 gibt es
nichts, was es nicht gibt. Neben der bereits sehr umfangreichen Basisinstallation entstehen ständig neue Erweiterungen und Module. Angefangen bei Newsletter-Tools
über Shopsysteme bis hin zu Community-Modulen wie
Chats und Foren finden Entwickler in den einschlägigen
Foren alles. Mithilfe dieser Erweiterungen lässt sich eine
asisinstallation leicht an die Kundenbedürfnisse anpassen,
ohne Sondermodule selbst programmieren zu müssen. Fast
ganz ausgeschlossen ist, dass Module bei kommerziellen
Herstellern nachgekauft werden müssen. Bei der Vielfalt an
Extensions ist aber eine gewissenhafte Prüfung der Module
angeraten. Nicht alle Erweiterungen sind von gleich hoher
Qualität. Der Entwickler muss wissen, was er tut.
Preiskampf versus Qualität
Jeder kann sich Typo3 herunterladen, testen und für die
Erstellung von CMS-basierten Websites nutzen. Websites,
die mit Typo3 gestaltet wurden, sind daher in der Regel
günstiger. Vor allem, wenn es um kleine oder private Internetauftritte geht, ist Typo3 ein Geschenk: professionelle
CMS-Technologie zum Nulltarif – auch wenn es sich nur
um eine Basisinstallation von Typo3 handelt. Für diesen
Anwendungsbereich ist Typo3 absolut empfehlenswert.
Eine Art Volks-CMS, mit dem jeder - theoretisch - ohne
besondere Vorkenntnisse unentgeltlich arbeiten kann. Was
natürlich den ureigensten Intentionen von Open-SourceSoftware entspricht.
Sobald Typo3 professionell eingesetzt wird, gelten andere
Regeln. Etwa, dass sehr kleine Dienstleister oder Freelancer
in der Regel nicht über die notwendigen Ressourcen verfügen, um das Potenzial von Typo3 umzusetzen. Denn wie die
meisten Open-Source-Systeme verlangt Typo3 eine ständige
und intensive Beschäftigung mit den neusten Entwicklungen: Die Teilnahme an Workshops und Seminaren, das Engagement in Typo3-Gremien oder gar die Vorstellung selbst
programmierter Module. Nicht selten kommt es daher im
Low-Budget-Segment zu einer unzureichenden Anpassung
der Basisinstallation an die Bedürfnisse des Kunden. Auch
die Extensions werden oft nicht eingehend genug geprüft.
Renommierte Agenturen gehen mittlerweile sogar dazu
über, Eigenentwicklungen mit dem eigenen Namen zu versehen und damit einen Qualitätsstandard zu etablieren, zu
„branden“. Da Qualität eng mit Supportfragen und möglicherweise sogar mit Haftungsfragen verknüpft ist, sollte
berücksichtigt werden, dass für diese im Zweifelsfall kein
Softwarehaus, sondern die implementierende Agentur zuständig ist.
Wo wird nun wirklich gespart?
Zunächst schlägt zu Buche, dass keine Lizenzkosten anfallen.
Das zahlt sich besonders dann aus, wenn weitere Domains
auf demselben Kernsystem aufgebaut werden, z. B. für die
multilingualen Länderversionen eines Online-Auftritts.
Solche Zusatzdomains sind bei vielen kommerziellen CMSHerstellern oft mit zusätzlichen Kosten verbunden.
Der Implementierungsaufwand durch den Dienstleister
kostet erfahrungsgemäß nicht weniger als bei einem kommerziellen CMS, da sich die Art der Anpassungen grundsätzlich kaum unterscheidet: Auch hier wird ein Basissystem
an individuelle Bedürfnisse angepasst. Berücksichtigt man
den hohen und für ein wirklich vernünftiges Resultat notwendigen Aufwand an Wissen und Können, so sollte klar
sein, dass anspruchsvolle Lösungen mit Typo3 ebenfalls ihr
Geld kosten - und wert sind.
Weitere Einsparungsmöglichkeiten gibt es im Projektmanagement und im Support. Durch den Einsatz von Typo3
hat ein Kunde nur einen Ansprechpartner. Die Zuständigkeiten für Supportfragen und Nachbesserungen sind klar
definiert und gehen nicht im Bermuda-Dreieck von Hersteller, Integrator und Kunde unter.
061
Die größten Einsparpotenziale liegen jedoch bei den Extras.
Für den Einsatz von Extensions muss kein weiterer Obolus
an einen Software-Hersteller entrichtet werden. Hier fällt
lediglich der obligatorische Anpassungsaufwand und ein
gewisser Aufwand für die Auswahl des besten Moduls an. Es
kann auch bei Typo3 durchaus vorkommen, dass keine adäquate Extension angeboten wird und diese Extension erst
neu programmiert werden muss. Das hat natürlich höhere
Kosten zur Folge. Anders als bei kommerziellen CMS-Herstellern, die ein neues Modul nach der Fertigstellung auch
anderen Kunden anbieten können, freut sich in diesem Fall
die Typo3-Community über die vom Kunden finanzierte
Neuentwicklung. Natürlich nur, wenn die Extension auch
freigegeben wird.
In Projekten nicht verwendete Mittel werden so immer
häufiger für Extra-Features verwendet, die bei der ersten
Planung aus finanziellen Gründen nicht berücksichtigt
worden sind. Oder fließen direkt ins Online-Marketing des
Unternehmens.
Fazit
Flexibilität und Kostenersparnisse lassen immer mehr Unternehmen auf Typo3 aufmerksam werden. Dabei ist es aber
nicht immer der Preis, der den Ausschlag gibt. Viel wichtiger
ist Integratoren und Entwicklern, dass mit Typo3 ausreichend Entwicklungspotenzial und Flexibilität vorhanden
ist. Am allerwichtigsten aber ist, dem Anwender begreiflich
zu machen, dass Open Source nicht gleichzusetzen ist mit
‚kostenlos‘. Höchstens mit ‚flexibel‘, ‚billiger‘ und ‚unabhängig‘. Aber das ist ja schon eine ganze Menge.
Stefan Bauer
Diplom-Informatiker, Jahrgang 1969,
Geschäftsführer TARGET-E GmbH.
����������������������������
������������������������������������������������
��������������������������������������������������
�����������������������������������������������
��������������������������������������������������
�������������������������������������������������������
��������������������
062
Firmenportrait
Gut versteckt
Die Gegend, in der wir uns befinden, sieht so gar nicht nach Hype aus. Von
der Hauptverkehrsstraße geht es ab in ein Wohngebiet, Block um Block mit
dem Traum des Mittelstands ausstaffiert: das Einfamilienhaus. Stimmt die
Adresse überhaupt? An einer Ansammlung aufgebockter Bungalows die
Hausnummer 3. Aha. Hier also ist arago. Stimmt, da steht ja „Eingang“.
erst mal Papier
Wir haben einen Termin mit Hans Christian Boos, 33 Jahre alt. Da liegt die
Vermutung nahe, dass so einer noch New Economy ist. Oder zumindest
war. Das alles hier sieht aber überhaupt nicht nach New Economy aus. Und
richtig: Als wir später im Gespräch denVerdacht äußern, Boos sei trotz seiner jungen Jahre doch eher „old school“, grinst er verschmitzt und nickt.
Boos pflegt seine ganz eigene Philosophie. „Ich verlange von meinen Mitarbeitern, das sie sich zuerst damit befassen, wie sie überhaupt von A nach
B kommen. Was ist die Pre-Condition, was ist die Post-Condition. Und
dass sie algorithmisch ihren Vektor auf Papier aufschreiben.“ Ob er dafür
irgendwelche Methoden hat oder mit Tools arbeitet, frage ich. „Keine Tools
– Papier! Denn die spannende Arbeit ist nicht das Coden selbst, sondern
die Arbeit herauszufinden, welchen Code man schreibt. Erst dann wählt
man die Sprache aus.“
063
Zunächst aber beginnen wir unseren Termin mit einem Rundgang durch
die Firma. arago, das sind rund 60 Mitarbeiter in Frankfurt in einem Gebäudecluster, wo hinter jeder Ecke noch eine weitere liegt. Ganz schön hier
– schön verwinkelt und im Sommer wohl auch schön tropisch unter den
Glasdächern. Dafür ist die Nidda in der Nähe, ein Flüsschen, das in den
Main mündet und stromaufwärts durch die Wetterau führt, das Apfelreservoir für den gefürchteten Apfelwein. Alles in allem fühlt man sich hier
weniger wie in einer Firmenzentrale als in einem weit verzweigten Wohnzimmer, in dem eine gesittete Dauer-LAN-Party stattfindet. Aber keine
Bange, hier wird auch an Wochenenden gearbeitet.
Drin im Code
Dann sitzen wir im Garten, in einem lauschigen Häuschen, und Hans
Christian Boos kommt. Die langen weißen Haare zum Pferdeschwanz
gebunden, lila Sonnenbrille auf und einen stylischen Nadelstreifenanzug
an. Cool. Das Erste, was man über Hans Christian Boos wissen und gleich
darauf wieder vergessen sollte: Boos ist Albino und verfügt nur über einen
Bruchteil der normalen Sehkraft. Und bedauert diejenigen, die ebenfalls
ein Handikap haben, aber nur sich selbst bedauern. Nicht sein Ding. Der
erste Rechner? Mit 10, ein Epson HX 20 mit 40Zeichen-Display. Programmiert wurde in – na- „Für einen wirklich logisch denkenden Menschen
türlich – Basic. Dann kam ein Osbourne und gibt es nur fünf Operationen, und eine davon ist
anschließend ein Sinclair ZX81, alles Geräte, die „tue nichts“.
heute im Technikmuseum stehen. Der Sinclair
hatte den Vorteil: Es gab keine Spiele, die musste man selbst programmieren. Also wurden Listings aus Magazinen abgetippt und nebenbei der
Code verbessert. Als Boos 13 war, hat der Vater eines Freundes beschlossen,
dass die Kids reif genug seien zu lernen, wie man einen Compiler baut.
„Und dann haben wir bei einem kommerziellen Makroprozessor-Projekt
mitgemacht: 50 Leute, und jeder ist besser als man selbst. Kann ich nur
jedem Programmierer raten, so etwas mal mitzumachen.“ Oder mit einer Comparex zu arbeiten und dafür Lochkarten zu stanzen. „Man lernt,
warum sich Dokumentation lohnt, spätestens dann, wenn der Stapel mal
runtergeflogen ist.“
Online mit Barbara_
Preise bleiben da nicht aus, in diesem Fall bei „Jugend forscht“, für die
Entwicklung einer ergonomischen Benutzeroberfläche. „Im Keller hatten
wir einen CGA-Farbmonitor, mit 4 Farben. Damals waren Klimadiagramme angesagt, da haben wir einfach mal in Basic
„Ich schätze diese alten IT-Hasen: Die stimmen losgemalt. Irgendwann hatten wir Spaghetticode
vorher die Schnittstellen ab, und dann muss hin- und sagten: Jetzt fangen wir noch einmal an
terher nichts mehr geändert werden.“
und zwar richtig. In Turbo Pascal.“ Die erste
Version war auf Papier, damals schon. Das Ergebnis wurde prämiert und die Rechte des mittlerweile auch kommerziell
erfolgreichen Programms später an den Vater zurückgereicht. Der hatte als
Englisch- und Geografie-Lehrer das Ganze damals initiiert.
064
Firmenportrait
Wie es sich gehört, hat sich Boos noch mit dem Akustik-Koppler und 300
Baud durch die Vorläufer des Internets gehangelt, durch US-Universitäten
und das US-Wirtschaftsministerium. Das Fidonet war schon ein Messageboard, und wer etwas auf sich hielt, hatte seine eigene Mailbox. Die von
Boos hieß „Tequilla Sunrise BBS“. Danach gab es den Internet Relay Chat
(IRC), der immer nebenher mitlief. Auch an der FH Konstanz, wo Boos
mit 16 die Unix-Rechner der Studenten admi„Ich möchte nicht altklug erscheinen, aber ich nistriert. „Es gab in Deutschland nur eine ganz
glaube nicht, dass sich die IT so schnell bewegt, kleine Community, die immer online war. Wenn
wie sie tut.“
man eine Frage ins IRC stellte, kam zehn Minuten später eine Antwort, weil alle anderen auch
gerade in der Arbeit am Rechner saßen.“ Zur Hochzeit gab es dann das
Original 24 Razormodem, mit dem Boos damals Tag und Nacht gechattet
hat, wenn Barbara_ mal nicht in Zürich war.
fast forward arago
Sprung in die Neunziger. Die Dresdner Bank hat gerade Kleinwort-Benson
gekauft, und Boos vernetzt die internationalen Standorte der ResearchTochter; als studentischer Praktikant. Und hat damit seinen ersten Kunden
für arago, 1995 gegründet. Am Start steht erst einmal IT-Sicherheit im
Mittelpunkt. Kein Wunder: Wer wie Boos Rechner und Systeme in- und
auswendig kennt, kennt auch die Lücken. Mit den Jahren wird daraus
Informationslogistik und –modellierung, und der Zusatz „Institut für
komplexes Datenmanagement“ bewahrheitet sich immer mehr. arago wird
2002 zur AG, die Gesellschafter bleiben unverändert. Der Internet-Hype ist
vorbei, arago ist immer noch da. Und zwar genau so, wie Boos es sich von
Anfang an gewünscht hat: klein und fein – expandierend.
Die Zeit ist vorbei, wir schalten die Geräte aus und verabschieden uns,
nachdem die Assistentin schon mit bittender Miene auf den nächsten
Termin von Hans-Christian Boos hinweist. Wir bekommen noch eine Präsentation, woran arago gerade arbeitet. Ein Tool, mit dem Unternehmen
die Leistungsfähigkeit, die Auslastung und den aktuellen Betrieb ihrer IT
messen können. Kein System, das beim Kunden läuft, sondern „einfach“
die Erhebung von Messdaten von Rechnern und Anwendungen, die an
ein Cockpit gemeldet werden, in das sich der Kunde einwählt. Ein ASPModell mit klarer Preisgestaltung und einer technisch brillianten Lösung.
Respekt.
www.arago.de
�
�
�
��������� ��������������
���������������������������������������������
��������������������������������������������������������������������������������
����������������������������������������������������������������������������
������������������������������������������������������������������������������
�����������������������������������������������������������������������������
���� ���� ��������������� ������� ������ ���� ��������� ��������������� ����������
�������� ����������� ��������� ���� ����� ������� ��������� ����� ������� �����
���������������������������������
��
�
��
��
�� ��������������������� ������������������������������������������������ ���������������������������
���������������������������������������������������������������������������������������������������������������������������������������������������������������������
�������������������������������������������������������������������������������������������������������������������������������������������������������������������
066
Alltag
News Unternehmen
Google scant Bücher
Im Kern geht es darum, das Wissen der Welt zu sichern und zu digitalisieren. Es ist ein
Projekt von kaum zu fassendem Ausmaß. Ein Projekt, das Jahre dauert. Ein Vorhaben
der Superlative: In einem Scan-Marathon will der Suchmaschinenbetreiber Google
das Wissen der Welt digitalisieren - zumindest das der englischsprachigen. Die Bibliotheken von vier Universitäten (Michigan, Harvard, Stanford, Oxford) und die The
New York Public Library beteiligen sich an der Erfassung.
Eines Tages, so die Vision, soll alles Wissen über das Internet abrufbar sein. Dabei will
Google auch aktuelle Veröffentlichungen als Volltext in seinen Suchindex aufnehmen
- ähnlich wie Amazon. Surfer, die bei ihrer Google-Anfrage ein Buch finden, können
direkt auf eine Seite weitergeleitet werden, auf der sie das Buch bestellen können.
Symantec steigert Umsatz und Gewinn
Dotcom-Fieber in China
Der amerikanische Sicherheitsspezialist Symantec erzielt im ersten Quartal seines
Geschäftsjahres 700 Millionen US-Dollar Umsatz. Nach Auskunft des Unternehmens
entspricht das zum Vergleichsquartal des Vorjahrs einem Zuwachs von 26 Prozent: einem Nettogewinn von199 Millionen US-Dollar. Dem gegenüber stehen 128 Millionen
US-Dollar ein Jahr zuvor. Der Umsatz mit Unternehmensprodukten wuchs um 23
Prozent. Er beträgt 49 Prozent des gesamten Umsatzes. Der Umsatz des mittlerweile
übernommenen Herstellers von Backup-Lösungen Veritas betrug im vorigen Quartal
529 Millionen US-Dollar. Das entspricht einem Zuwachs von 9 Prozent. Eine Prognose
mochte Symantec noch nicht abgeben.
Keine Frage: Dass Storage und Security zusammenwachsen, ist in dieser Branche der Megatrend. Aber Veritas wurde schon sehr teuer eingekauft. Dass Symantec keine Prognose
abgeben will, spricht Bände, obwohl man jetzt echten Einblick in die Bücher hat. Der
Beweis, dass die Übernahme Sinn macht, wurde noch nicht erbracht.
Ende der 90er Jahre des letzten Jahrhunderts genügte
es schon, wenn eine neue Firma die Toplevel-Domain
*.com im Namen trug. So kurios die Ideen waren:
Capital Venture wurde locker gemacht. Jeder wollte
teilhaben - an dem Boom. Die Geldgeber standen
Schlange. Sorgfältig erstellte Bilanzen, real erwirtschaftete Gewinne und zahlende Kunden schienen
überflüssig zu sein. Bestimmend für viele Geschäftsmodelle wurde die möglichst starke Internetpräsenz.
Bekanntlich ist diese Internetblase ab 2000 zerplatzt.
Doch mittlerweile zieht das Dotcom-Fieber wieder
seine Kreise – im Reich der Mitte. In der Volksrepublik China.
Verluste durch Pishing
Zahlen von Open Text für IV. Quartal 2005
Open Text hat die vorläufigen Ergebnisse für das vierte
Quartal 2005 bekannt gegeben. Danach erzielte das Unternehmen im dritten Quartal einen Umsatz zwischen
108-112 Mio. US-Dollar, im Vergleich zu erwarteten 115125 Mio US-Dollar. Im Vergleichszeitraum des Vorjahres
erzielte das Unternehmen 105 Mio. US-Dollar. John
Shackleton, President und CEO der Open Text Corporation, zeigte sich enttäuscht über das Ergebnis und
kündigte Restrukturierungsmaßnahmen an.
Mit etlichen Übernahmen, u. a. der hiesigen Ixos Software
AG, hat sich Open Text wohl zu früh auf ein deutlicheres
Anziehen des ECM-Marktes eingestellt. Ohne Akquisitionen hätte Open Text sogar Umsatzrückgänge zu verzeichnen. Das deutet auf größere interne Probleme hin.
Das Unternehmen sollte das bald in den Griff bekommen
– sonst zieht der Markt an, und Open Text sieht nur von der
Seitenlinie aus zu, wie die Konkurrenten vorbeiziehen.
Gartner untersucht Pishing-Attacken. Einer aktuellen Untersuchung nach haben Spionageangriffe auf Kredit- und Bankkarten in den letzten zwölf Monaten Schäden von
2,75 Milliarden Dollar verursacht. So genannte Pisher greifen sensible Daten wie PINs
online ab, entwickeln gefälschte Kredit- oder Bankkarten und heben einfach Geld von
fremden Konten ab - und gehen auf Shopping-Tour. Ingesamt befragte Gartner 5000
US-Bankkunden. Das Forschungsunternehmen geht davon aus, dass drei Millionen
Amerikaner jeweils etwa 900 Dollar verloren haben. Kriminelle „haben Erfolg, wenn
die Bank, die die Karten ausgibt, die Sicherheits-Codes auf dem Magnetstreifen während der Autorisierung von Transaktionen nicht validiert“, so Avivah Litan, Direktor
von Gartner Research. Es sei Aufgabe der Banken, Schäden zu minimieren. Bankkarten speichern den Sicherheitscode auf dem Magnetstreifen und in zwei Spuren. Ein
Code verknüpft die Karte mit der Kontonummer und bildet damit für den Nutzer
neben der PIN eine weitere Sicherheitsschicht. Aber rund die Hälfte der Banken prüfe
den Code nicht, so Litant - denn dann müssten die Banksinstitute die Hauptcomputer austauschen.
Leichtsinn der Endkunden ist zweifelsohne eine Sicherheitslücke, die Betrug überhaupt
erst ermöglicht. Aber dank Gartner wissen wir jetzt: Auch Banken hätten die Möglichkeiten, Betrügereien schwerer zu machen. Interne Schlampereien und zu wenig Investitionsbereitschaft werden letztendlich auf dem Rücken der Kunden ausgetragen
Leserschaft von Weblogs legt zu
Mit der Zahl der Blogs steigt weltweit der Traffic. Private wie kommerzielle Online-Journale freuen sich über den regen Besucherzustrom. Und immer mehr
Internet-Nutzer widmen sich bei ihren privaten wie geschäftlichen Surf-Sessions dem Lesen von anderer Leute Weblogs. News it‘s what‘s different. Das führt
zu einem rasant steigenden Traffic, berichtet der US-Marktforscher comScore.
Im ersten Quartal 2005 hat ein Drittel aller US-User einen Blog besucht. Die
50 meistbesuchten Blog-Websites, inklusive Blog-Hosts wie Blogs.com und
Blogspot.com, erreichen dabei ein Fünftel der aktiven Internet-User in den
USA.
kommentiert von Engelbert Hörmannsdorfer, Börsen-Infodienst BetaFaktor, www.betafaktor.de
StorageTek gehört jetzt endgültig zu Sun
Mit der Zustimmung der Aktionäre ist nun StorageTek
seit 1. September offizieller Teil von Sun Microsystems.
Die Vereinbarung sieht vor, dass StorageTek zu einer
Sun-Tochtergesellschaft wird und komplett in den Besitz
von Sun Microsystems übergeht. StorageTek-Aktionäre
erhalten 37 US-Dollar in bar für jede öffentlich gehandelte StorageTek-Aktie. Der Gesamtwert der Transaktion
beläuft sich auf 4,1 Milliarden US-Dollar. Es wird jetzt
spannend zu sehen, welche Produkte aus den Sun- und
StorageTek-Linien überleben. Suns Storage-Boss Mark
Canepa meint, es werde jetzt einige Wochen dauern, bis
klar sei, wie die zukünftige Roadmap aussehe. Auf jeden
Fall werde das Thema Storage ein wichtiger Punkt auf
dem quartalsweisen Sun-Produktankündigungstermin
am 12. September in New York.
Sun will mit StorageTek endlich aufrüsten. Obwohl der Storage-Markt insgesamt wuchs, hat Sun in den letzten zwei
Jahren beständig Marktanteile verloren. Vor allem bringt
StorageTek kaum Software in die Ehe mit, die Sun nicht
auch schon (in anderer Form) hätte. Und für eine reine
Hardware-Akquisition war der Deal relativ teuer.
Dicom: Nein zum deutschen Aktienmarkt
Und schon zeigt eine Auslandsgesellschaft dem deutschen
Aktienmarkt den Rücken: Die in London notierte Dicom
Group Plc hat zum Ende des Jahres das Delisting von der
Frankfurter Börse beantragt. »Nachdem es uns in den letzten Jahren nicht gelungen ist, eine gute Basis institutioneller
Investoren in Deutschland aufzubauen«, erläutert Dicom-IRSprecherin Dr. Bettina Moschner, »hat das Unternehmen den
Entschluss gefasst, die Investor-Relations-Arbeit verstärkt auf
Großbritannien zu fokussieren. Momentan gehen wir davon
aus, dass 12 Prozent unserer gesamten Aktien in Europa ohne
UK gehalten werden.«
Immerhin waren die deutschen Anleger im Januar 2000 gut genug, eine Kapitalerhöhung im Rahmen eines Neuer-Markt-Listings mit einem Bruttoerlös von 75 Millionen Euro zu bedienen.
Der Mohr hat seine Schuldigkeit getan, der Mohr kann gehen.
Mit dem Geld akquirierte man seinerzeit endgültig das USUnternehmen Kofax Image Products, deren Produkte heute den
größten Teil des Dicom-Technologie-Portfolios darstellen.
KFZ-Kennzeichen mit RFID-Funkchips
Das Projekt wird genau beäugt. Zum einen von den Befürwortern, die mit
besser überwachbaren Fahrzeugen mögliche Terrorangriffe verhindern wollen, andererseits von den Kritikern, die den Einbau als einen weiteren Schritt
zur totalen Überwachung von Privatpersonen sehen. Auch die Amerikaner
beobachten nach Informationen des ORF sehr genau. Sie selbst unterstützen
bereits ein ähnliches Projekt, bei dem die Technik zur Identifikation von
Fahrzeugen im Teststadium ist.
Die Chips in den ‚E-Plates‘ sind größer als die RFID-Tags, die auf Warenverpackungen zu finden sind. Sie verfügen über eine eigene Batterie, um Daten
über größere Distanzen zu übertragen. Das bringt Vorteile für die Sicherheitskräfte, können die doch Mautprellern schnell auf die Spur kommen. Für
die britische Hauptstadt besteht seit 2003 eine Mautpflicht, die mit einem
Kamerasystem kontrolliert wird.
Profitieren können davon grundsätzlich auch Autobesitzer. Anmeldung und
Versicherung lassen sich mit den RFID-Tags schneller abwickeln. Aber auch
die Nachteile sind nicht von der Hand zu weisen: Die Kennzeichen sind
zehnmal teurer als herkömmliche Nummernschilder.
IBM kauft Kundendaten-Integrationsspezialisten DWL
Computergigant IBM kauft mit DWL einen Spezialisten für Customer Data
Integration (CDI). DWL-Middleware auf Java-Grundlagen wie J2EE und EJB
läuft im Hintergrund und integriert bei größeren Firmen die Kundendaten über
angepasste Spezialsoftware in verschiedene Geschäftsbereiche. Den Kaufpreis
gaben beide Firmen nicht bekannt.
IT-Dienstleister GFT legt zu
Stellent mit Rekordergebnis im ersten Quartal
Der IT-Dienstleister GFT Technologies hat im ersten
Halbjahr 2005 seinen Umsatz gesteigert. Vor Steuer
erwirtschaftete das Unternehmen einen kleinen Gewinn. Der Umsatz habe im Halbjahr 58,3 Millionen
Euro betragen, im zweiten Quartal 30,1 Millionen
Euro, teilte das börsennotierte Unternehmen mit. In
den gleichen Zeiträumen des Vorjahrs lag der Umsatz
noch bei 57,4 beziehungsweise 28,9 Millionen Euro.
Das Ergebnis vor Steuern (EBT) lag im Halbjahr bei
213.000 Euro, im gleichen Zeitraum des Vorjahrs war ein
Verlust von 3,2 Millionen Euro entstanden. Im zweiten
Quartal betrug das EBIT minus 52.000 Euro nach einem
Minus von 1,6 Millionen Euro im gleichen Vorjahresquartal. Unter dem Strich steht ein Netto-Fehlbetrag von
527.071 Euro für das zweite Quartal nach einem Verlust
von 1,9 Millionen Euro im gleichen Vorjahresquartal.
Stellent, Inc. (Nasdaq: STEL) gibt seine Ergebnisse für das erste Fiskalquartal
2006 bekannt. Der Umsatz für das Quartal notiert US$ 28,6 Millionen, was
einer Steigerung von 26 Prozent gegenüber demselben Vorjahresquartal entspricht. Auf Basis der allgemein anerkannten Grundsätze ordnungsgemäßer
Buchführung nach GAAP beträgt der Nettogewinn für das erste Quartal US$
1,1 Millionen oder US$ 0,04 pro Aktie verglichen mit einem Nettoverlust von
US$ 3,8 Millionen im selben Vorjahreszeitraum. Der Proforma-Nettogewinn
für das erste Quartal belief sich auf US$ 1,7 Millionen bzw. US$ 0,06 pro Aktie.
Was nun Stellent? Im Geschäftsjahr 2006 (01.04.2005-31.03.2006) wollen wir
etwa 15 Prozent wachsen. Profitabilität genießt höchste Priorität. Nur wenn wir
weiter so arbeiten, können wir die mit der Version 8 geplanten Erweiterungen wie
höhere Skalierbarkeit und verbesserte Integrationen mit Desktop-, E-Mail und
ERP-Systemen finanzieren und in den Ausbau des Vertriebsnetzes nach Osteuropa investieren“, so Josef Huber, Managing Director Central and Eastern Europe
Stellent GmbH.
068
Alltag
• IT im Gesundheitswesen
Wenn der Arzt sich
selbst hilft
Gesundheitsreformen und gesetzliche Vorgaben wie
die Gesundheitskarte sind das eine. Das andere sind
Ärzte und Heilberufler, die sich auf eigene Faust mit
IT und Vernetzungsprozessen auseinandersetzen.
Zum Beispiel mit Datenbanksystemen, die nicht
gleich in die ganze Welt exportiert werden müssen,
sondern einfach mal die tägliche Arbeit erleichtern.
Welche Stolperstellen hält die Praxis parat, und wie nutzt
der Betroffene die Erkenntnisse für den Arbeitsalltag? Selber
machen oder Spezialisten beauftragen?
Elektronische Abrechnung mit den Krankenkassen
Die Spitzenverbände der gesetzlichen Krankenkassen optimierten die Leistungsabrechnung und ihre Kostenstruktur,
indem sie beispielsweise für Heilberufe die elektronische
Abrechnung von Leistungsdaten anordneten. Am Beispiel
der Heilberufe wurde recherchiert, was das für Kassen
und die betroffenen Leistungserbringer bedeutet. Exemplarischer Fall: eine logopädische Praxis. Sie zählt zu den
sonstigen Leistungserbringern. Die Spitzenverbände der
Krankenkassen haben für diese Gruppe auf Basis des Paragraphen § 302 Absatz 2 SGB 5 die elektronische Abrechnung
angeordnet. Seit 2003 ist das Verfahren im Einsatz. Wer nach
der festgelegten Frist noch analog abrechnet, dem werden 5
Prozent der Leistungssumme abgezogen. Das motiviert zum
Wechsel.
Bei der Recherche stellte sich heraus, dass die verantwortlichen Mitarbeiter bei den Krankenkassen sehr kooperativ
sind; bei Detailfragen kostet das bislang so eindeutig festgelegte Procedere aber Zeit und Nerven. Theoretisch gibt
es für die Abrechnung diverse Stufenprozesse: angefangen
vom elektronischen Datenträger per CD bis hin zum Datenaustausch über das Internet. Die Internetabrechnung ist
klar definiert und unter www.datenaustausch.de im Detail
nachzulesen. Das Verfahren ist in allen Sicherheitsfragen
durchdacht: Ix-Nummer, Schlüsselkennung, Anmeldung
und Zertifizierung beim Trust Center; es gibt standardisierte Anbieter und Prozessabläufe. Spezialisierte Software- und
Systemhäuser stehen als Kooperationspartner zur Auswahl.
Kein Thema, solange das Verfahren über Abrechnungsfirmen abgewickelt wird. Sobald jedoch der Ehrgeiz erwacht,
selbst zu organisieren und sich einzuarbeiten, werden Ärzte,
die nach der geeigneten Software suchen, im Nebenberuf zum „ITler“. Diese Zeit haben nur wenige, zumal die
Vorkenntnisse für den elektronischen Datenabgleich nicht
vorausgesetzt werden können. Im Fall der hier beschriebenen logopädischen Praxis gab es den Anspruch, die Daten
aus dem eigenentwickelten Verwaltungssystem selbst zu
managen. Mit dem Ergebnis, dass mindestens 20 der zugelassenen Softwarehäuser angesprochen werden mussten,
um eine Einzelplatzlizenz für die Generierung der Sicherheitsschlüssel zu erhalten. Von diesen Unternehmen waren
nur drei wirklich kooperativ. De anderen bestanden auf
„Full Service“. Nach fast sechs Monaten Vorbereitungszeit,
erheblichem Aufwand bei der Auswahl geeigneter Anbieter,
Reisekosten, Systemabstürzen läuft das internetbasierte
elektronische Abrechnungssystem. Und wird von den verschiedenen Abrechnungsstellen der gesetzlichen Krankenkassen akzeptiert.
Patientenverwaltung und Onlinetherapie im Alltag
Um das Beispiel der logopädischen Praxis weiterzuführen:
Die Patientenverwaltung ist die Basis eines erfolgreichen
Managements. Sie bildet das Herzstück. Die Arztpraxis
entwickelt seit 1999 Datenbanksysteme auf der Basis von
relationalen Datenbanken. „Wir haben frühzeitig erkannt,
dass Datenbanksysteme sowohl Zeit- als auch Patientenmanagement enorm erleichtern. Die Patientendatenbank
ist die Grundlage für effektives Arbeiten, und ich kann
069
Logopädische Praxis André Eska, André Eska, [email protected] • FileMaker GmbH, Michael Valentin, [email protected]
über Jahre den Verlauf von Krankheitsbildern des Patienten, die Art der Behandlung nachvollziehen. Nachdem
wir diverse Datenbanken getestet haben, fiel die Wahl auf
die plattformübergreifende Entwicklersoftware Filemaker
(www.filemaker.de). Sie ist für Entwickler ohne klassische
Programmierkenntnisse eine wunderbare Basis, denn ich
kann Bild, Text und Audiodaten erstellen und diese maßgeschneidert miteinander kombinieren“, sagt André Eska,
Leiter der Praxis.
selbst ist der Arzt
Der ausgebildete Logopäde behandelt Patienten mit Sprach-,
Sprech- und Stimmstörungen und macht aus seiner Leidenschaft für das Programmieren kein Hehl. Er entwickelt
in Zusammenarbeit mit Langzeit-Patienten Therapieprogramme für den Einsatz am heimischen PC. Diese kommen
ergänzend zu der „Vor Ort“-Therapie zum Einsatz und
erlauben ihm den Sofortzugriff auf die Basis- und Auswertungsdaten des Patienten. Mittlerweile sind die Lernprogramme und Anwender-Daten komplett webfähig aufbereitet worden. Das alles ohne fremde Programmierleistung, mit
dem System Filemaker Server Advanced 7.0. Das Programm
bietet diverse Web-Publishing- und Connectivity-Optionen
zum effizienten Verwalten von Datenbank-Lösungen im
Inter- und Intranet. Für den Nutzer, den Patienten, ist das
sehr komfortabel. Er benötigt keine spezielle Lern-Software,
muss keine besonderen Features auf dem heimischen PC installieren. Mit einem Klick auf den Browser findet er sofort
alle Anleitungen patientengerecht aufbereitet.
die Patienten „gehen online“
Bei der Onlinetherapie können bis zu 100 Patienten zeitgleich auf den geschützten Pool an Therapieübungen zugreifen. In Echtzeit weist der Therapeut mit einer E-Mail
seinem Patienten eine individuelle Übung oder ein Auswertungsprogramm zu. Der Patient meldet sich beim System an
und erhält seinen persönlichen Sicherheitsschlüssel in Form
eines Passworts. Mit diesem Schlüssel hat er gleichzeitig die
Berechtigung erhalten, das Übungs-Programm unbegrenzt
oder für eine vom Therapeuten definierte Zeitspanne zu
nutzen. Die Schwierigkeitsgrade können dabei variiert werden. Der Therapeut bekommt sofort nach der Rücksendung
der Patienten-Ergebnisse als Mail einen Eindruck vom Erfolg und Misserfolg und kann reagieren. Alle Prozesse werden in einer zentralen Datenbank gespeichert. „Natürlich
kann man einen Pool von Programmierern mit komplexen
Modellen wie die der Onlinetherapie beauftragen. Aber
zum Thema
Technischer Hintergrund zum Praxismodell Onlinetherapie
(www.eskalog.de):
• Filemakeranwendungen, FM Server Advanced 7.0 2003
• bis zu 100 Anwenderpatienten haben den gleichzeitigen Zugriff
auf die Datenbank
• Lösungen und Programme werden dem Patienten webbasiert
über den Browser angezeigt
• Zusatzsoftware ist nicht mehr notwendig
Procedere: Der Patient erhält seinen elektronischen Schlüssel zur
Identifizierung; der Therapeut weist ihm eine bestimmte Übung
zu, die Ergebnisdaten werden in Echtzeit in der zentralen Patientendatei abgespeichert.
• Bausteinprinzip Therapie: Patienten-DB; Therapieübungen/
Lernprogramme, Auswertungs-DB, Patientenverwaltung,
Statistik
• Interaktion mit UI-Elementen (z.B. b:drag oder b:resize)
• Unterstützung der Browser „back/forward“ und „bookmarking“
Funktionalität:
• On-demand-Laden
aus der Erfahrung heraus ist die inhaltliche Vermittlung
der Schwerpunkte und vor allem der Zeit- und Kostenaufwand bei Anpassungs- und Kontrollprozessen nicht zu
unterschätzen. Demzufolge haben wir kontinuierlich mit
Filemaker und Filemaker Developer gearbeitet und jedes
Programm immer wieder angepasst. Das braucht viel Zeit,
Disziplin und Geduld, aber ich kann auf neue Situationen
sofort reagieren und umprogrammieren“, beschreibt der
Logopäde seine Strategie.
Auswertung des Datenmaterials
Ein wichtiger Aspekt bei der Onlinetherapie, die mittlerweile beträchtliche Mengen an Datenmaterial bereitstellt, ist
der wissenschaftliche Nutzen, die Statistiken. Der Therapeut
erhält einen guten Überblick, welche Zuordnungsübungen
beispielsweise für Aphasiker (Patienten mit Wortfindungsstörungen) besonders häufig eingesetzt wurden, wie lange
im Durchschnitt das Lösen der Aufgaben dauert, wie sowohl
Frustrationsgrenzen als auch Erfolgserlebnisse eine Rolle
spielen. Bestimmten Krankheitsbildern werden komplexe
Programmmodule zugeordnet. Die Datenbank beinhaltet
inzwischen Tausende von Patientendaten und ist für wissenschaftliche Erhebungen hochinteressant. Das kommt letztlich beiden zugute: dem Patienten und dem Therapeuten.
Denn: Ohne Vertrauensbasis zwischen den beiden Seiten
sind solche Programme nicht zu entwickeln.
Claudia Burkhardt
070
Alltag
• RFID-Lösung im Einsatz
Vier Buchstaben für
mehr Effizienz
Jährlich kaufen rund sechs Milliarden Menschen
weltweit Waren im Wert von mehr als 6.300 Milliarden Euro ein. Bevor der Handel die gewünschten
Lebensmittel, Haushaltswaren, Elektronikprodukte
und Textilien in den Regalen präsentiert, legen die
Produkte einen weiten Weg zurück: Sobald die Bestellung eines Handelsunternehmens eingegangen
ist, stellen in der Produktionsstätte Mitarbeiter des
Herstellers die georderten Artikel zusammen und
versehen Pakete und Paletten mit speziellen Etiketten für den Transport. Diese Etiketten enthalten die
so genannte Nummer der Versandeinheit. Sie wird
durch einen Barcode visualisiert.
An verschiedenen Stationen entlang der Prozesskette erfassen Mitarbeiter mit einem Barcode-Scanner die Nummer
der Versandeinheit. Ist kein Scanner zur Hand oder der
Barcode nicht lesbar – das passiert des Öfteren auch beim
Einkaufen im Supermarkt – gibt das Personal die Nummer
manuell über die Tastatur eines PCs ein. Darüber hinaus
wird jeder Karton und jede Palette sowohl beim Warenausgang des Lieferanten oder Logistikspezialisten als auch beim
Wareneingang des Handelsunternehmens einer Feinkontrolle unterzogen. Stimmt die Lieferung in Art und Umfang
mit der Bestellung überein?
Dieses Vorgehen hat Schwachstellen: Zum einen ist es aufwändig, zeitraubend – und fehleranfällig. Zum anderen
können Handel und Industrie nicht lückenlos nachvollziehen, an welcher Stelle der Prozesskette eine Lieferung sich
gerade befindet.
Bessere Zusammenarbeit dank innovativer
Technologie
Zur Optimierung der Lieferprozesse hat der Handel die
Radiofrequenz-Identifikation, oder kurz RFID, für sich
entdeckt. RFID ermöglicht es, Daten berührungslos zu
übertragen. Dafür benötigen Hersteller und Industrie so genannte RFID-Transponder und -Lesegeräte sowie Systeme,
die die gelesenen Daten weiterverarbeiten. Um Versandeinheiten unverwechselbar zu kennzeichnen, speichert der
Lieferant auf dem Transponder eine Zahlenkombination,
die einmalig vergeben wird. Den so genannten elektronischen Produktcode, kurz EPC. Er ist mit dem System der
europäischen Artikelnummerierung (EAN) zu vergleichen.
Er enthält zusätzlich eine Seriennummer, die die eindeutige
Identifikation des Kartons oder der Palette ermöglicht. So
lässt sich über den EPC eine Versandeinheit innerhalb der
Prozesskette jederzeit lokalisieren und authentifizieren. Das
ist besonders für die Warenrückverfolgung und bei Rückrufaktionen wichtig. Die hohe Transparenz in der Prozesskette
erlaubt es Industrie und Handel, noch enger und effizienter
zusammenzuarbeiten. Den Partnern ist es möglich, ihr Lagervolumen deutlich zu reduzieren und Kosten zu sparen.
Die METRO Group hat die Potenziale der RFID-Technolo-
071
METRO Group, Antonia Voerste (Unternehmenskommunikation), [email protected], www.metrogroup.de
gie frühzeitig erkannt. Seit November 2004 führt der weltweit drittgrößte Handelskonzern RFID schrittweise entlang
der gesamten Prozesskette ein. Dabei liegt der Schwerpunkt
der Einführung darauf, das Bestands- und Lagermanagement zu optimieren.
Radio Frequency Identification (RFID)
Radio Frequency Identification (RFID) (engl. für Funk-Erkennung) ist
eine Methode, um Daten berührungslos und ohne Sichtkontakt lesen
und speichern zu können.
RFID wird als Oberbegriff für die komplette technische Infrastruktur
verwendet. Ein RFID-System umfasst
• den Transponder (auch RFID-Etikett, -Chip, -Tag, -Label, Funketikett
oder -chip genannt),
• die Sende-Empfangs-Einheit (auch Reader genannt) und,
• die Integration mit Servern, Diensten und sonstigen Systemen
wie z. B. Kassensystemen oder Warenwirtschaftssystemen (vgl.
Middleware).
Standards bringen Sicherheit
Angesichts der rasanten Entwicklung der Technologie sind
international gültige Standards und Richtlinien für den
Einsatz von RFID essenziell wichtig. Denn nur auf der Basis
von Standards haben die Unternehmen auch Investitionssicherheit. EPCglobal hat sich als internationales Gremium
der Aufgabe angenommen, gemeinsam mit den Beteiligten
solche Standards zu entwickeln.
Die Daten werden auf dem RFID-Transponder gespeichert und per
Radiowellen verfügbar gemacht. Bei niedrigen Frequenzen geschieht
dies induktiv über ein Nahfeld, bei höheren über ein elektromagnetisches Fernfeld. Die Entfernung, über die ein RFID-Transponder
ausgelesen werden kann, schwankt aufgrund der Ausführung
(passiv/aktiv), benutzten Frequenzbands, Sendestärke und Umwelteinflüssen zwischen wenigen Zentimetern und mehr als einem Kilometer. (de.wikipedia.org) (Anm. d. Red.: Weltweit hat sich noch kein
Standard durchgesetzt, sodass bei einem transatlantischen Handelsverkehr unterschiedliche Frequenzen zu bedienen sind.)
Dr. Gerd Wolfram, METRO Group
eige_RzCMM.fh 02.09.2005 9:27 Uhr Seite 1
C
M
Y
CM
MY
CY CMY
K
�����������������������������
����������������������������������
������������������������������
�����������������������������������
�������������������
�����������������������������
���������������������
������������������������
�������������
����������������������
�����������������
������������������
����������������������������������������������������������������������������������������
072
nachgefragt
[email protected]
zu Gast bei STIEBEL ELTRON
Nach der öffentlichen Ausschreibung stehen in dem so
genannten Pitch sich nicht selten „unbekannte Größen“ gegenüber. Unternehmen wie RedDot oder CoreMedia zählen
zu den „bekannten Größen“. Wie sieht es mit Systemen wie
„additor“ oder „Open 2C Basic“ aus? Selbst Branchenkenner
stoßen bei einem Pitch auf die ein oder andere Unbekannte
- wie eben gelesen. In der Präsentation des Vertrieblers sieht
alles dann ganz einfach aus. Und wenn der Kunde Funktionalität auf Funktionalität einfordert, heißt es: Können wir!
Alles nur eine Frage der Schnittstellen oder so. Reihum zufriedene Gesichter, Problem gelöst.
Schnitt.
Wie sieht es nach Ablauf des Projektes aus? Pflichtenheft
nur zur Hälfte erfüllt? Kostenrahmen gesprengt? Anwender
entnervt? Wir fragen nach. Diesmal bei STIEBEL ELTRON.
Dort war die Website bis 2003 von statischen Inhalten
geprägt. Die Seiten wurden extern gehostet und gepflegt.
Dadurch gab es für die Mitarbeiter nur sehr eingeschränkte
Möglichkeiten, etwas zu ändern, ob nun bei Inhalten, Gestaltung oder Struktur. Was möglich war: Inhalte für die
Website zu liefern. „Das Gerüst war einfach zu starr“, sagt
Daniela Zbick, Leiterin der Internetabteilung bei STIEBEL ELTRON. Deshalb stand bei STIEBEL ELTRON der
Wunsch, die Website selbst zu steuern, auf dem Wunschzettel an oberster Stelle. Das Internet nicht nur als Werbeplattform in das Tagesgeschäft mit einzubeziehen, sondern Synergien zwischen Information und Werbung herszustellen.
Praktische Tipps aus der Themenwelt des Unternehmens
mit Verkaufsförderung, Vermarktung, Beobachtung des Besucherverhaltens und Imageförderung zu verbinden. Und
zwar ohne IT-Inseln und lokalen Excel-Sheeds, sondern im
Rahmen der bestehenden EDV.
Unter der Leitung von Norbert Weber, Leiter Zentrale
Vertriebsorganisation, schrieb STIEBEL ELTRON einen
Kunde... ... www.stiebel-eltron.com
Lizenz... ... ECMS Imperia 6.5, Personalisierung Rule
Based, Melin, uCrop
Shopsystem... ... PHP-/Oracle-Lösung
Datenbank... ... Oracle 0i
Sonstige... ... SAP R/3, CRM VKIS, Workflow-Plug-Ins,
Hardware Entwicklungs-/Liveserver,
Dual PIII-Systeme
Projektdauer... ... 6 Monate
Anzahl Redakteure... ... 25
Wettbewerb aus. Das Ziel: die passende Agentur und das
passende CMS zu finden. Die Gewinner: Cybay New Media,
eine Agentur aus Hannover, und Imperia. Die wichtigsten,
gemeinsam bestimmten Kriterien:
(1) Flexible Abbildung vorhandener Unternehmensprozesse,
(2) Produktkatalog mit SAP/R3-Anbindung,
(3) ein CMS mit offener Architektur und einfacher
Benutzerführung und
(4) personalisierte Shops, Kataloge und Suchen für Partner
und Presse-Vertreter.
Im März 2003 begann Cybay New Media damit, die 6erVersion von Imperia bei Stiebel Eltron zu implementieren.
Sechs Monate später spielte Cybay New Media das Update
auf. Seitdem ist bei STIEBEL ELTRON die 7er-Version im
Einsatz.
vom großen Plan zum Alltag
Mit der 7er-Version von Imperia ist das Unternehmen zufrieden. Norbert Weber findet, „wir haben mit dem CMS
von Imperia die richtige Wahl getroffen. Unser Ziel, die
Etablierung eines zentralen CMS mit intelligenten Schnittstellen zu unseren Backend-Systemen, haben wir mit der
offenen Workflow-Engine des Systems erreicht. Auch die
Fachabteilungen schätzen die neuen Möglichkeiten.“ Und
Daniela Zbick hat in den letzten drei Jahren keine gravierenden Mängel festgestellt. Aus ihrer Sicht hat sich die Anschaffung des Systems bezahlt gemacht.
Zbick hat aber auch einsehen müssen, dass ein CMS nicht
so komfortabel ist wie eine lokale Dateiverwaltung mit dem
Explorer unter Windows. Dateien zu verschieben, ist hier
wesentlich aufwändiger. Kein drag & drop, und Benutzerfreundlichkeit, sondern eben „drin im System“. So betrachtet hat Imperia den Upload von Dateien nicht wirklich gut
im Griff. Besonders wenn mehrere Dateien hochgeladen
werden sollen. Das Hochladen und online Stellen von zehn
Bildern kann schon einmal ein längerer Task werden. „Da
klickt man sich schon mal einen wunden Finger und hat
genug Zeit, sich einen Kaffee zu holen“, so die Abteilungsleiterin stellvertretend für die 25 Redakteure. Zbick würde
es begrüßen, liefe der Prozess schneller automatsich. Ihr
Traum: ein Massenupload von 10 Dateien mit einem Klick.
„Doch daran gewöhnt man sich!“ Eine weitere wünschenswerte Funktion wäre die Anbindung an das bestehende
Mail-System, so Norbert Weber, damals Projektleiter von
STIEBEL ELTRON.
�������������������������������������
��������������������������
���������������
����������������������������
���������������
���������������������� ������������� ������������������������������� ��� � ������� ��� � �����������
������������������������������������������������������������������ ������ ������� ������ ������������
�������������������������������
���������
���� �
�
������������
������ � ���������������
��������������� �������������������� ����
����������������������������
074
Alltag
in die Nesseln
[email protected]
ten, breiten wir besser den Mantel des höflichen Schweigens.
Ebenso über die ERP/CRM-Erfolge der Rotmonder.
besser als jede Abk.: das Akronym
die tun was ...
Gehen Sie doch zu einem großen Anbieter, da wissen Sie
gleich, was Sie bekommen. Wissen wir das wirklich? Hatte
nicht die Deutsche Bank völlig andere Ansichten als IBM
Global Services hinsichtlich des Leistungsumfangs des
größten Outsorcing-Vorhabens in der Finanzwirtschaft?
Und hat irgendjemand mal die von der Deutschen Bank
hinter vorgehaltener Hand verbreitete Meinung aufgegriffen, wonach jetzt alles teurer und schlechter sei?
kein Großprojekt ohne „Maut-Appeal“
War nicht die Website der Bundesagentur für Arbeit durch
Accenture zu einem permanenten und sehr realen Witz
mutiert, der gestandene CMS-Dienstleister monatlang ein
Dauergrinsen ins Gesicht zwang? Und ist nicht T-Systems
jetzt auch noch mit seiner kaum performanten und nur bedingt anpassbaren ALG2-Lösung auf Grund gelaufen? Die
Bundesagentur erwägt, das gesamte Projekt vollsätndig neu
entwickeln zu lassen. T-Systems besteht auf die Weiterentwicklung der Software und will die Mängel so schnell wie
möglich beseitigen. Natürlich! Das würde ich anstelle der
T-Systems auch wollen. Dort hat man ja bereits ausreichend
Erfahrungen mit der Maut gesammelt.
Dänemark, du hast es besser
Was ist los im Staate Dänemark? Sind denn die Softwarehersteller besser dran? Eben haben sich noch alle vier erfolgsverwähnten Anbieter mit großem Markting- und PR-Aufwand auf kostenlose Suchlösungen gestürzt, da stampfen
alle erfahrenen Suchanbieter ihre Marketingbudgets ein
und ducken sich ins Gebüsch - in der Hoffnung, jemand
ganz Großes würde den Laden übernehmen. Über Studien,
die Microsoft als einen der größten ECM-Anbieter bewer-
Dass ganze Akronymfamilien wie CRM, SCM oder gar der
ewige Enterprise Service Bus der seeligen TIBCOs endlich
praktischen Nutzwert nachweisen müssen, kam leider etwas
zu spät. Da war die Abschreibung schon passiert. Dass aber
auch die IT-Dienstleister mittlerweile einen echten Existenzbeweis schuldig bleiben, sollte zumindest den institutionellen Anlegern und den zukünftigen Rentnern zu denken
geben. Denn spannend wird die ganze Sache, wenn in 8 bis
12 Jahren die ersten Probleme bei BfA und LVA auftauchen,
denn die Mikrofilme sind längst entsorgt. Und wer nicht
selbst vorgesorgt hat, wird den Taktstock der Digitalisierung
ins Kreuz bekommen. Vor allem, wenn die Zusatzrente auch
noch auf IT-Aktien basiert.
des einen Leid, des anderen Freud
Und wer schon heute lauffähige Systeme inklusive Betriebssystem und Anwendungsssoftware für die Zukunft
bereitstellt, wird die Langzeitarchivierung revolutionieren.
Der kann dann pro Stunde Datenbanknutzung aus dem
Jahr 1997 15.000 Euro verlangen. Das ist eine Nische für all
die abseits stehenden Spezialisten der AS/400, HP NonStop/
Tandem und für diverse Unix-Derivate mit Hang zur Hardwarefrickelei. Glücklicherweise machen die Dienstleister bei
solch rückwärtsgewandtem Quatsch nicht mit und verdienen schon heute das meiste Geld mit Umgehungslösungen,
die weder gestern noch heute noch morgen die Pflichtenhefte erfüllen ... aua.
(ano)
075
populäre Irrtümer
der Irrtum schlechthin
„Nichts ist unmöglich ... Toyota.“ Der japanische Automobilkonzern erklärte den Werbeslogan zur Firmenphilosophie: und hat ihn in einer gelungenen Kampagne gekonnt
umgesetzt. Wortspielerei. Genialer Schachzug. Wenig andere Botschaften haben einen ähnlich hohen Wiedererkennungseffekt geschaffen. Werden so häufig zitiert. I, täglichen
Leben, in Sitcoms - sinnfrei oder als Floskel.
Ähnlich kraftvoll benutzen Menschen populistische Aussagen und Zitate. Sie geben Rednern die Möglichkeit, sich zu
der richtigen Zeit und mit den richtigen Worten in Szene
zu setzen. Sich Gehör zu verschaffen. Spannungsbögen
auf- und abzubauen. Je nach Auffassungsgabe der Zuhörer
werden aus gewagten Aussagen Irrtümer. Zu „Schmarrn“,
wie der Bayer sagen tät. In der Welt rund um High Tech und
Computer gäbe es einen „Informationsschmarn“. Wohlbekömmlich garniert mit Zitaten von Bill Gates, Thomas
Watson und anderen. Worte, die sich heute wie maßlose
Übertreigungen lesen. Übertreibungen, die sich bewahrheitet haben. Die visionäre Botschaften waren oder nur strategisch platzierte pseudowissenschaftliche Aussagen.
„Ich habe die Länge und Breite dieses Landes bereist und
mit den besten Leuten geredet, und ich kann Ihnen versichern, daß Datenverarbeitung ein Tick ist, welcher dieses
Jahr nicht überleben wird.“ Der Chef des US-Verlages Prentice Hall, 1957. „OS/2 wird die Plattform der 90er werden“,
Bill Gates, 1989. „Ich denke, dass es vielleicht einen Weltmarkt für vielleicht fünf Computer gibt“, Thomas Watson,
Vorsitzender vom IBM, 1944. Oder: „Computer der Zukunft
werden mehr als 1,5 Tonnen wiegen“, die Zeitschrift Popular
Mechanics, 1949.
Hätte einer der Zitierten mit seinen Worten Recht behalten,
nicht vorzustellen, wie und womit dieser Text hier entstünde. Gäbe es Microsoft Word? Gäbe es InDesign oder Quark?
Gäbe es E-Mails? Nein. Texte entstünden auf gusseisernen
Schreibmaschinen. Würden mit dem Pferd oder der Postkutsche in den Satz gebracht. Der Einsatz der Fortbewegungsmittel steht nicht in Frage. Damit verstärkt sich der
Eindruck, dass die Aussagen der genannten Personen wohl
doch eher blanke Propaganda waren. Und sind. Teil einer
strategischen Firmenphilosophie. Oder von öffentlich ausgetragenen Privatfeden - hallo Larry. Zitate, die in Sinnund Zweifelsfragen gern benutzt werden, um Sachverhalte
zu beschreiben. Um Werbung für das Unternehmen zu
machen. Microsoft, IBM und Apple ist das an dieser Stelle
gelungen. Andere wirken eher unbeholfen, zum Beispiel die
vielen vielen Marktführer. (Anm. der Redaktion – Zitatetassen eines Unternehmens zeigen wir in einer der nächsten
Ausgaben. Merke: News it’s was different.)
076
Alltag
Ausblick
[email protected]
Ausgabe #2 05
Das Titelthema des nächsten Heftes: Langzeitarchivierung.
Wie lange sind Daten auf welchem Speicher sicher? Ist
Papier wirklich überholt? Wie sieht der Lebenszyklus von
Daten aus?
Wie funktioniert Datenrettung? c//mag fragt nach beim
dem Unternehmen nach, das Daten von Festplatten aus dem
World Trade Center wiederhergestellt hat.
Zum Thema Usability und Barrierefreiheit klopft c//mag
bei der tekom an. Der Verband steht für technische Innovation in Deutschland und kennt den Stand der Dinge.
Die Max-Planck-Gesellschaft hat in Saarbrücken ein Institut für Software-Systeme gegründet. „Forschungsobjekt
Software-Systeme“ - was wird erforscht?
Eine neue ECM/CMS neue Studie zeigt die Entwicklungen
im Markt auf.
Ab Ausgabe #1 06 gibt es eine Serie im c//mag, die sich durch
das ganze Jahr ziehen wird. Thema und Umfang werden im
nächsten Heft vorgestellt.
Bis zum nächsten Mal!
Inserenten in dieser Ausgabe
[n:sight] market & technology research 56
BARC - Business Application Research Center 7
Bibliographisches Institut und F.A. Brockhaus 48, 73
Canon Deutschland GmbH U2
d.velop U3
DMS Expo 49
Enterra Software 32
IBM U4
InterRed 32
Kwick-Box 61
mediamid digital Services 11
NOEO 32
Penton Media 15, 53
Seagate 65
Six Offene Systeme 32
Stellent 7
TOMORROW FOCUS Technologies 25, 32
VOI e.V. 31
Schwer korrekt.
Die ersten 30 Abos gehen mit dem Duden
Korrektor raus.
Leser werben > Coupon abschicken > Prämie sichern
Ja, ich habe einen Abonnenten geworben. Ich erhalte meine Prämie, selbst wenn ich kein
c//mag Abonnement bin. Bitte schicken Sie meine Prämie, den Duden Korrektor, an folgende Adresse:
Ja, ich abonniere das c//mag für mindestens 1 Jahr zum Preis von 42 Euro inklusive Versand.
Das Abo verlängert sich automatisch um ein Jahr, wenn ich nicht 4 Wochen vor Ablauf der Bezugszeit
schriftlich kündige. Ich zahle
per Rechnung
bequem per Bankeinzug
als Fax an 01 80. 5 26 05 50 54 66 (12 Cent/min)
als Post an hw medien OHG, Bernardstraße 47-49, 63067 Offenbach
Der neue Abonnement darf innerhalb der letzten 6 Monate nicht Bezieher des c//mag gewesen sein.
Sie erhalten die Werbeprämie innerhalb von 4 Wochen nach Bezahlung des neuen Abonnements.
078
Impressum
Verlag
hw medien OHG, Bernardstr. 47-49, 63067 Offenbach
fon +69. 82 37 61 04, fax +69. 82 37 78 36, leo +69. 82 37 78 37
[email protected], www.c-mag.de
Herausgeber
Uwe Hentschel ([email protected])
Chefredaktion
Volker Watschounek ([email protected])
redaktionelle Mitarbeit
Ulrich Baumgärtner, Stefan Bauer, Claudia Burkhardt, Marion
Freudenschuss, Jürg Häusermann, Engelbert Hörmanndorfer,
Wolfgang Laier, Björn Negelmann, Katja Riefler, Mark Schiefelbein, Florian Stahl, Dr. Gerd Wolfram
Schlussredaktion
Jochen Wilhelm, www.kwick-box.de
c//mag Abonnement Inland
Inland: 6 Ausgaben jährlich 38,00 EUR inkl. Versandkosten zzgl.
Mehrwertsteuer
Ausland: 6 Ausgaben jährlich 47,00 EUR inkl. Versandkosten zzgl.
Mehrwertsteuer
Falls 4 Wochen vor Ablauf des Abonnements keine Kündigung
eingeht, verlängert sich das Abonnement um ein weiteres Jahr.
Design
Stephanie Heck, FormSieben GmbH
Sponsoren-Abonnements
Beirat
Aries GmbH & co.KG, Burda Ciscom GmbH, Coextant Systems
International AG, MATERNA GmbH, Open Text AG,Red Dot
Solutions AG, Six Offene Systeme
Professor Harald Gerlach, Lehrstuhl „Technische Dokumentation“, Fachhochschule Neu-Ulm.
Professor Jürg Häusermann, Lehrstuhl Medienpraxis Medienanalyse und Medienproduktion, Universität Tübingen.
Wir bedanken uns für die freundliche Unterstützung
Doktor Ulrich Kampffmeyer, Unternehmensberater, Analyst, Autor und langjähriger Vorstand von DMS-Branchenverbänden wie
IMC, AIIM und VOI e.V.
Firmen-Abonnements: Aries GmbH & co.KG, Burda Ciscom
GmbH, Coextant Systems International AG, MATERNA GmbH,
Open Text AG,Red Dot Solutions AG, Six Offene Systeme
Prof. Dr. Hermann Maurer, Institut für Informationsverarbeitung
und Computergestützte neue Medien (IICM), Technische Universität Graz.
Kameraausstattung von Minolta.
Prof. Dr. Bernd Reusch, Lehrstuhl 1 (Automaten- und Schaltwerktheorie, Computational Intelligence, Universität Dortmund.
Vielen Dank für die redaktionelle Unterstützung von Projekt
Consult und Jürg Häusermann.
Disclaimer
Die in dieser Ausgabe veröffentlichten Beiträge sind urheberrechtlich geschützt und liegen in der Verantwortung des betreffenden
Autors. Die Haftung für die Richtigkekit der Veröffentlichung
kann trotz Prüfung durch die Redaktion und vom Herausgeber
nicht übernommen werden. Alle Angaben erfolgen nach bestem
Wissen, jedoch ohne Gewähr. Nachdruck, auch auszugsweise, nur
mit Genehmigung des Verlages gestattet.
�������������������
��� ������ �������� �������� ��� ���� ��������� �������
��� ���� ������� ������
���������������������
���������������������
�������������������
���
���
����������������������
��
���������������������
��������
�������������������
���������������������������������������������������������������������������������������������
��������������� ��������������������������������������������������������
������������������������������������� ��������������������������������������������������������������������������
�����������������������������������������������������������������������������������������������������������������������������������
������������������������������������������������������������������������������������������������������������������������������������
������������������������������������������
����������������������������������������������
���������������������������������������������������������������������������������������������������������������������������������������������������������������� �����������������������������������������������
����������������