cmag I-intro - Volker Watschounek
Transcription
cmag I-intro - Volker Watschounek
c mag Fachzeitschrift für Informationstechnologien Crossmedia Publishing Neues Paradigma: Vom Byte zum Papier Print + Online + E-Paper . Crossmedia Publishing in Verlagen . E-Paper: vom Hoffnungs- zum Umsatzträger Zwei Regalmeter auf einem USB-Stick Über Kreuz mit Crossmedia . Zur Wandelbarkeit von Sprache . Paid Content www.c-mag.de Kleinvieh macht auch Mist . Praxisbericht Bibliographisches Institut F. A. Brockhaus AG August 05 - Ausgabe #1 Danke Essen . Rückblick DMS Expo Was vom „E“ übrig blieb . E-Learning in der Praxis Von Ajax zu BackBase . Web-Technologien Gut gemeint statt gut gemacht . Elektronische Signaturen Was ist dran am großen Run? . Hersteller-CMS versus Open Source Gut versteckt . Firmenportrait arago AG Cases . Gesundheitswesen (Online Datenbank), Handel (RFID) Deutschland Euro 7,60 September 2005 �� �� �� �� �� �� �� �������� ������� �������� �������� ���������� �������� �������� ������������������������������������ ������������������������������������������������������������������������������������������������� ��������������������������������������������������������������������������������������������������� ������������������������������������������������������������������������������������������������ ���������������������������������������������������������������������������������������� ����������������������������� ������������������������������������������������������������ 003 in eigener Sache Der Werbemarkt kriselt, die Wirtschaft stagniert. Eine neue Zeitschrift zu platzieren grenzt an Wahnsinn. Trotzdem sind wir der Ansicht, dass es sich lohnt. Mediensoziologische Fakten, ein neues Verständnis von Text und Bild, von Wissen und Wissensvermittlung haben uns davon überzeugt, dass es sich trotzdem lohnt. Vor Ihnen liegt das c//mag, die Fachzeitschrift für Informationstechnologien, mit journalistischem Format. Recherchiert, kritisch, frei von Zwängen. Titel, Schwerpunkt und Alltag prägen das c//mag. Auf 80 Seiten bilden wir auf Grundlage unseres „Themensenors“ ab, was den Markt bewegt. Vor ein paar Jahren war Tomorrow Focus völlig überzeugt vom Crossmedia Publishing. Nach den seither gemachten Erfahrungen sucht das Unternehmen mittlerweile nach neuen Ansätzen. Dennoch ist Crossmedia Publishing seit letztem Jahr wieder angesagt. Mehr dazu im Titel. Im Schwerpunkt finden sich die „Leib- und Magenthemen“ der Branche. Nicht alles, sondern das, was wert ist zu berichten. Diesmal: elektronische Signaturen, E-Learning, Typo3 und Webtechnologie von BackBase. Alltag ist Kino. Daumenkino. Lesen Sie, welche Case es in das Heft geschafft hat. Wer diesmal in den Nesseln sitzt. Und freuen Sie sich auf die nächste Ausgabe. Am 21. November auf Ihrem Schreibtisch. Viel Spaß beim Lesen! Volker Watschounek, Uwe Hentschel 004 Register der erwähnten Unternehmen und Organisationen Abaton 59 Acolada 10 Active Solution Software 59 Adaptive Path 50 Adobe 43 Adolf Grimme Institut 46 Agfa 39 AIIM 41, 44 Apple 75 arago 62 Arbortext 22 AuthentiDate 43 Autobild.de 21 Axel Springer 26 BackBase 50 Berliner Morgenpost 21 Bertelsmann 24, 39 Beta Systems 43 bgm business group munich 59 Bibliographisches Institut und F.A. Brockhaus 10, 22, 26 Billentis 55 Börsenverein des Deutschen Buchhandels e.V. 18 Canonical 13 Car4you 21 CeBIT 39 Ceyoniq 39, 43 Colorcube digital media lab 59 ContentServ 14 CoreMedia 14, 31 CoreMedia 72 Cybay New Media 72 d.velop 42 daa Systemhaus 45 Data Becker 24 Deutsche Bank 74 DIACC Content Computing 59 Dicom 67 Digital Collections Verlagsgesellschaft 21 DIHK - Deutscher Industrie- und Handelskammerstag 47 DMS Expo 39, 42 Dresdner Bank 64 DWL 67 EASY Software 39, 41, 43 ELO 44 EMC Documentum 43 Erichsen Digital 59 FileMaker 69 FileNet 45 FIRSTGATE 30 Frankfurter Allgemeine Zeitung GmbH 10 Süddeutsche Zeitung 10, 20 Gabler Verlag 32 Gartner 66 GFT Solutions 44 GFT Technologies 67 GLI GmbH 54 Google 50, 66 Gruner + Jahr 14 Hewlett Packard 15 Hummingbird Fulcrum Technologies GmbH 5 IBM 15, 42, 67, 74, 75 IC Surselva AG 59 IETF - Internet Engineering Task Force 56 IHK 55 Imperia 14, 72 INEX 55, 57 Interwoven 14 IVW 20 Janusmedia 14 Kölner Stadtanzeiger 21 MBB Institut für Medien- und Kompetenzforschung 46 mediamid digital services 31, 43 METRO Group, 70 Microsoft 23, 44 MSH Medien System Haus 21 Musikwoche 21 Nordkurier 21 Nordwest-Zeitung 20 Open Text 44, 66 Ostseezeitung 21 Plan2net-Wien 59 PLANinterNET 55 pool/munich 59 punkt de Baden/Karlsruhe 59 RedDot Solutions 5, 14, 72 RIM - Research in Motion 12 Rhein Zeitung 20 RZ-Online 21 Saperion 42 Scanpoint Europe 43 Schweizer Buchhändler-und Verleger-Verband 18 Schweriner Volkszeitung 21 Seagate Technolgy 14 SER Solutions 39, 40 Skyfillers 59 Snowflake productions 59 SorageTek 67 Stellent 67 STIEBEL ELTRON 72 StorageTek 67 Stuttgarter Messe 39 Styria-Verlag 21 Sun 15 Sybase 22 Symantec 66 Target-E 59 Technotrans 43 TELE 5 14 Thawte 13 TOMMOROW FOCUS 31 Toyota 75 T-Systems 74 TU Dresden 18 Typoheads 59 Universität Graz 24 Universität Passau 18 Universität St. Gallen 30 VDZ - Verband Deutscher Zeitschriftenverleger e.V. 18, 29 Verband Österreichischer Zeitungen 18 VeriSign 13 Vignette Deutschland 14 ZWH - Zentralstelle für die Weiterbildung im Handwerk e.V. 47 005 Highlight Der Kolibri geht sammeln Als wir die Neuigkeit erfahren, ist die Nachricht gerade mal 45 Minuten frisch. Der Chairman Nils Metger verkündet sie auf den RedDot Days in Gelsenkirchen persönlich – mit hochgekrempelten Hemdsärmeln („die Krawatte liegt noch im Auto“) und ohne Tamtam. Hummingbird und RedDot: Man kennt sich seit einigen Jahren aus einer nach und nach intensivierten Kooperation. Beide können nicht nur auf der Produktseite, wo sich die Unternehmen ergänzen, sondern auch so. Das alles, neudeutsch gesprochen, macht Sinn. Wenn da nicht Franz Müntefering und die Heuschrecken gewesen wären und die Angst vor dem Ausverkauf deutscher Unternehmen. Blödsinn, schreien die einen, die Globalisierung ist nicht mehr aufzuhalten. Aber das will ja auch keiner. Hilfe, schreien die anderen, der Staat muss deutsche Unternehmen schützen. Aber das will ja auch keiner. Woher also dieser Anflug von Wehmut? Vielleicht, weil die Einsicht in das Unvermeidliche nicht immer schön ist. Nils Metger hat es schmucklos und pragmatisch formuliert: RedDot kann die notwendigen internationalen Schritte nicht aus eigener Kraft tun. Für langwierige Verhandlungen mit Kapitalgebern und den Aufbau der notwendigen Unternehmensstrukturen und deren Konsolidierung hat RedDot einfach keine Zeit. Hummingbird hat, was RedDot braucht: die internationale Präsenz von Unternehmen und Marke. RedDot hat, was Hummingbird braucht: großenteils komplementäre Produkte, eine starke nationale Marke, Innovationskraft und nicht zuletzt Marktanteile. Ein gutes Geschäft, sagen die Asiaten, ist eines, wenn beide Parteien zufrieden sind. Das scheint hier der Fall zu sein, zum Leidwesen der Mitbewerber. Was die Beteuerungen des amerikanischen Marketings wert sind, über den Erhalt von Unternehmen und Marke wert sind, wird man in einem Jahr besser beurteilen können. Immerhin gibt es hier eine realistische Chance, dass die Vorhaben auch umgesetzt werden. 006 Papier statt Screen Am Anfang ist der Code. Falsch. Am Anfang ist das leere Blatt Papier. Auch wer in allem Prpgrammiersprachen zu Hause ist, sollte nach der Ansicht von Hans-Christian Boos seine Gedanken zuerst auf dem Papier strukturieren. Denn: „Nur wer ein Problem sortiert angeht und sich nicht auf die Programmiersprache versteift, wird das Problem lösen können. Wie später dann der Code aussieht, ist völlig zweitrangig.“ Ungewöhnliches von einem ungewöhnlichen Unternehmensgründer. Seite 60 ����������������� ������� ��������������������������� �������������������������� ���������������������������������� �������������������������������������� ������������������ ������������������������������������������������������������������ �������������������������������������������������������������� ���������������������� ����������������������������������� ���������������������������������������������������������������� ����������� ���� ������������������������������� ���� ������ ������������������������������������� ��������������������� ������������������������������������������������������������ ��������������������������������������������������������� ��� ������������ ���� �������� ���� ������ �������� ��������������� ������������ ������� ������� ���������� ������� ���� ����������� ��������� ������ ����������������������� ���������� ����������� ���� ���� ����� ��������������������������������������������������������������� ����������������������������������� ������������������������������ �������������������������� ���������������������������������� ���� ���� ����������� ������ ����������������������������� �� ������������������ ������������������������ ��������������������� ������������������������������������������������������������ �������������������������������������������������������������� ������������������ ��������� ������� ���������� ������ �������������� ����� ������������������������������� ����������� ������������������������������ ��������������������������������������������������������� ���������� ������� ������� ����������������������� ������ ��� ��� ����������������������� ��� ���������� ��� ��� ���������������� �������� ��� ����������������������� �������������������� ��� ���������������������� ��� ������������ ���������� ���� ����������� �������������� ��� ������������ ����� ��� �������� ��������������� ��� ��������������� ������ ��� �������� �������� ��� ����������� �������� ��� ������������� �������� ��� �������������������������������� ������� ������� ��������������������� ���������� 008 Inhalt in eigener Sache Firmenregister Highlight Panorama Crossmedia Publishing 3 4 5 10-15 Titel Neues Paradigma: Vom Byte zum Papier 16-19 Crossmedia Publishing in Verlagen Print + Online + E-Paper 20-21 E-Paper: vom Hoffnungs- zum Umsatzträger Zwei Regalmeter auf einem USB-Stick 22-24 Praxis Bibliographisches Institut F. A. Brockhaus AG (BIFAB) I Interview BIFAB 26 Über Kreuz mit Crossmedia 27 Zur Wandelbarkeit von Sprache Kleinvieh macht auch Mist 28-30 Paid Content was die Anbieter schreiben Galerie 31 33-37 hier parkt der Chef Schwerpunkt Danke, Essen 38-41 Rückblick DMS Expp Im Westen was Neues 42-45 Rundgang DMS Expo Was vom „E“ übrig blieb 46-48 E-Learning in der Praxis Von Ajax zu BackBase 50-52 Web-Technologien Gut gemeint statt gut gemacht 55-56 Elektronische Signaturen I Interviews INEX GmbH, AuthentiDate International AG 57 009 Inhalt Was ist dran am großen Run? 58-61 Hersteller-CMS versus Open Source Gut versteckt 62-64 Firmenportrait arago AG Alltag News Unternehmen 66-67 Wenn der Arzt sich selbst hilft 68-69 Case: IT im Gesundheitswesen 4 Buchstaben für mehr Effizienz 70-71 Case: RFID-Lösung im Einsatz nachgefragt: zu Gast bei Stiebel Eltron in die Nesseln populäre Irrtümer Ausblick Impressum 72 74 75 76 78 N 010 Panorama [email protected] Das ghet wicklirch! Seit dem 1. August ist es amtlich. Deutschland verabschiedet sich von den alten Rechtschreibregeln. Ganz Deutschland – nein, zwei Bundesländer halten an der Übergangszeit fest. Für sie gilt: Was in Hessens Schulen und in weiten Teilen des Landes als falsch geschrieben gilt, ist in Bayern und Nordrhein-Westfalen (NRW) richtig. Jedenfalls noch bis zum 1. August 2006. Oder länger? Vielleicht setzen die Gremien die neue Rechtschreibreform doch noch außer Kraft, und alles bleibt, wie es war. Oder: Alles bleibt anders. Die Presselandschaft macht es vor: Frankfurter Allgemeine Zeitung und Süddeutsche Zeitung beispielsweise halten an den alten Regeln fest. Fehler oder nicht? Das ist eine spannende Frage. Wie gehen damit die Hersteller von Redaktionssystemen um? Werden sie von jetzt bis August 2006 Länderversionen des Rechtschreibmoduls anbieten? Wird der Brockhaus gar seine „Duden-LinguisticEngine“ mit Länder-Wappen versehen und deutlich kenntlich machen: „Diese Version gilt nur für Bayern und NRW? Oder wird die Situation einfach stillschweigend hingenommen? Schließlich lernen Schüler von klein auf im Deutschunterricht die Regeln des Schreibens – egal ob neue oder alte Rechtschreibung. Es ist demnach unwichtig, ob Anbieter von Redaktionssystemen entsprechende Module nach neuer oder alter Rechtschreibung anbieten. Das doppelte Regelwerk beachtet? Geldverschwendung ist es allemal!? Nur eine einheitliche bundesweite Regelung kann hier Abhilfe schaffen. Nicht wirklich. Untersuchungen belegen, dass ein Großteil der Bevölkerung des Schreibens nicht mächtig ist. Mit ein wenig Glück findet jeder auch in der Tageszeitung Buchstabendreher, fehlende Satzzeichen oder auch falsche Satzzeichen. Wem kreiden wir das an? Dem Redakteur? Dem Chef vom Dienst? Der Zeitung? Dem System? Viele deutsche Rechtschreibungen Jeder, der schon einmal länger am Bildschirm gearbeitet hat, wird Verständnis dafür aufbringen. Das Auge versucht am Bildschirm, das natürliche Zwinkern und damit die Befeuchtung der Augen zu unterdrücken. Fazit: Augentrockenheit, zunehmende Unkonzentriertheit – und damit erhöhte Fehleranfälligkeit. „Duden Sirius XML Proof“ stellte im Frühjahr 2005 einen Weg vor, wie Redakteure Medien fehlerfrei gestalten. Gemeinsam mit der Acolada GmbH stellte das Bibliographische Institut und F.A. Brockhaus AG (BIFAB) das erste Werkzeug für die Rechtschreib- und Grammatikprüfung von Daten im SGML- und XML-Format vor: basierend auf der neuen Rechtschreibreform. Die „DudenLinguistic-Engine“ bietet dem Anwender drei Sprachoptionen (Deutschland, Österreich, Schweiz) und vier Schreibstile (progressiv, konservativ, tolerant und Dudenempfehlung) an. Sie entspricht dem aktuellen Stand der deutschen Rechtschreibung. Der gesamtdeutschen Rechtschreibung? Nein, die Enklaven Bayern und Nordrhein-Westfalen leisten Widerstand. Dort gilt durchaus als richtig, was im restlichen Deutschland falsch ist - was das Programm aus Mannheim als Fehler („alte Schreibform“) anzeigt. Sollte das BIFAB noch ein wenig Zeit investieren und die Fehlermeldung um die Extravaganzen der Länder Bayern und NRW erweitern? Oder sollten wir es schlichtweg vergessen – ganz nach dem Motto: Es macht doch sowieso jeder, was er will? Schließlich wissen wir, das es nchit witihcg ist in wlecehr Rneflogheie die Bstachuebn in eneim Wrot flgoen. Das ezniige was wcthiig ist, ist dass der estre und der leztte Bstabchue an der ritihcegn Pstoiion snid. Der Rset knan ein ttoaelr Bsinöldn sien, tedztorm knan man ihn onhe Pemoblre lseen. Das ist so, wiel wir nciht jeedn Bstachuebn enzelin leesn, snderon das Wrot als gseatems. Ehct ksras! Das ghet wicklirh! ����������������������������������� ����������� ��������������������� ��������������������� �������������������������������������������� �������������������������������������� ��������������������������������������� ���������������������������������������� ������������������������������ ���������������� ������������������������������������������� ������������������������������������������������������������������������������������������������������� ���������������������������������������������������������������������������������������������������������� ������������������������������������������������������������������������������������� ������������������ ������������������������������ ������������������������������� ���������������������������� ��������������������������� ���������������� 012 Panorama Die Brombeere: vom Spiel- zum Werkzeug Eine Brombeere (Rubus fruticosus agg.) erobert die Herzen derer, die den technischen Fortschritt stets an forderster Front begleiten. Eine digitale Brombeere, älter als ein Jahr, wird hochgejubelt. Nein, nicht die kleine rote wohl schmeckende Frucht ist gemeint, sondern ein kleines Gerät, das die Herzen der immer online Erreichbaren höher schlagen lässt. In den letzten zwei Jahren hat es das kleine handliche Gerät geschafft, mit 3 Millionen verkauften Geräten den Markt der mobilen Endgeräte zu erobern. Den heiß geliebten Handheld auf die Plätze zu verweisen. Einer Studie von Research in Motion (RIM) (de.wikipedia.org/wiki/Research_ in_Motion), Hersteller und Vermarkter für mobile Kommunikationssysteme, zufolge, setzte sich die digitale Brombeere, in Fachkreisen bekannt als Blackberry, mit einem Zuwachs von mehr als zwanzig Prozent gestiegener Verbreitung an die Spitze des Markts der Personal Digital Assistants (PDA). Was macht den Charme dieses kleinen Gerätes aus? Wo unterscheidet sich Blackberry vom Handy? „always on“ mal positiv Im Wesentlichen gleichen die Funktionen des Blackberrys denen eines PDA. Er bietet die Möglichkeit, an jedem Ort mit Netz E-Mails zu senden und zu empfangen – selbstständig. Denn anders als beim Handy muss sich der Anwender nicht über den Client am Server einwählen. Er ist permanent verbunden. Damit werden auch alle anderen Daten von Adressbuch, Kalender, To-Do-Listen, verbundene Dokumente auf dem aktuellen Stand gehalten. Das manuelle Aufbauen einer Verbindung jedweder Art entfällt. Dank der Push-Technologie (de.wikipedia.org/wiki/Push) wird das Altern von Daten verhindert. Verschiebt beispielsweise die Sekretärin eines Vertriebsmitarbeiters im Outlookkalender den Nachmittagstermin von 15 auf 16 Uhr, werden [email protected] sowohl die Daten des Exchange-Servers als auch die Daten des Blackberrys in der Hosentasche des Mitarbeiters aktualisiert. Gleiches gilt für Adressen, Telefonnummern, verknüpfte Dokumenten und kundenspezifische Daten. Erstaunlich daran: Trotz permanenter Verfügbarkeit reduziert die unverdauliche Brombeere Kosten. Kosten, die bei der Synchronisation von Daten entstehen. zum Arbeiten gedacht Im Backoffice arbeitet der Blackberry Enterprise Server (BES). Über direkte Schnittstellen steht er mit den firmeneigenen Systemen wie Groupware, Microsoft Exchange, Novell, Groupwise oder Lotus Domino in Kontakt. Der BES überwacht die Mailbox des Benutzers auf eingehende Mails und leitet diese an das Network Operation Center (NOC) von RIM weiter. Von dort werden die Mails an den Mobilfunkprovider geschickt und dann per Funk an den Blackberry übertragen. Auf dem gleichen Weg funktioniert die Übertragung von Kalendereinträgen, To-Dos, Adressen und Notizen (Push-Dienst). Werden die Einträge auf dem Blackberry erfasst oder E-Mails geschrieben, erfolgt die Datenübertragung in umgekehrte Richtung auf das Groupware-System. Neben der Synchronhaltung der Daten ermöglicht der BES Firmen erhöhte Sicherheitseinstellungen. Beispielsweise kann der Administrator kontrollieren und definieren, welche Anwendungen installiert sein dürfen (inkl. Ferninstallation). Das gibt dem Administrator auch bei Verlust oder Diebstahl die Möglichkeit, alle sensiblen Daten umgehend zu löschen (solange noch Verbindung zum Server besteht). Was sich in Geschäftskreisen etablierte, soll jetzt auch den Privatanwender erreichen. Damit diese den vollen Funktionsumfang des Blackberrys nutzen können, stellen die Mobilfunkprovider Server zur Verfügung, die die Basisdienste >> 013 Panorama wie E-Mail bereitstellen. Die Synchronisation von Terminen und Adressen bleibt vorerst jedoch Firmen mit ExchangeServern vorbehalten. Fazit Der Handheld Blackberry hält seinen Benutzer, solange eine Verbindung besteht, immer auf dem Laufenden – über Termine, Adressen Dokumente und andere Daten. Befindet sich der Anwender in einem Funkloch, so ist in der Regel auch die Verbindung zum Blackberry Enterprise Server gestört. Für solche Fälle empfehlen wir, die Ruhe zu bewahren – und besonders im Sommer vielleicht doch die leckeren kleinen Beeren im Gepäck zu haben. Lehenn sie sich einfach zurück und genießen sie den Geschmack der in 120 Arten weit verbreiteten Rubus fruticosus agg. das Gut-Linux vom Kap Was sagt eigentlich das Web über die Bedeutung des Wortes „Ubuntu“? Hier ist Ubuntu abwechselnd ein traditionsreiches, ein afrikanisches bzw. altes afrikanisches Wort, das wahlweise aus den Sprachen der Zulu und der Xhosa, der südafrikanischen Sprachfamilie Nguni, der Bantu- oder Bemba-Sprache kommt und so viel bedeutet wie Menschenwürde, Menschlichkeit, Gemeinsinn, Menschlichkeit und Gemeinsinn, Menschlichkeit zu anderen, Menschenwürde und achtsames Miteinander, für die Menschen, Menschlichkeit anderen gegenüber, „ich bin, was ich bin, weil alle wir sind“, gegenseitige Großzügigkeit, Zusammenarbeit oder auch „das, was den Menschen zum Menschen macht“. Liest sich alles ganz gut und ist hoffentlich keine „urban legend“ oder Gepardenforelle. Auf jeden Fall ein schöner Name für eine Linux-Distribution, mit der anscheinend auch Anfänger klarkommen. Ubuntu ist von Canonical (www.canonical.com) angeschoben worden, dem Unternehmen von Mark Shuttleworth. Der Südafrikaner verfügt seit dem Verkauf seiner Firma Thawte an VeriSign 1999 über 500 Mio. US Dollar Spielgeld und war der zweite Tourist im Weltraum. Im Juli hat Shuttleworth die Ubuntu Distribution an die neu gegründete Ubuntu Foundation übergeben, die er gleich noch mit 10 Mio. US Dollar ausgestattet hat. Dort soll die Software weiter gepflegt und kostenlos bereitgestellt werden. Die freie Entwicklung soll damit unabhängig vom kommerziellen Support sein. auf zur nächsten Version Auf jeden Fall eine schöne Geschichte oder sagen wir besser, der schöne Anfang einer Geschichte. Denn bei Ubuntu ist es nicht geblieben. Ubuntu basiert auf Debian (einer ausschließlich aus freier Software bestehenden Linux-Distribution) und arbeitet mit der Desktop-Umgebung GNOME, für den im September eine neue Version erscheinen soll. Kubuntu hingegen arbeitet mit dem KDE-Desktop, deshalb das „K“. Dass es Ubuntu gibt, hat nicht allen Debian-Entwicklern gefallen. Deshalb gibt es jetzt das „Rückwärts-Ubuntu“, Utnubu genannt, mit dem Teile von Ubuntu wiederum in Debian integriert werden. Aber das sollte niemanden erschrecken, wenn man sich vor Augen hält, dass die Vielzahl der verschieden benamten Linux-Distributionen auf nicht einmal eine Hand voll „Kern-Versionen“ zurückgeht. Bei Distrowatch (www.distrowatch.com) steht Ubuntu an der Spitze der Top Ten der Pagehits, bei Linux Weekly News (www.lwn.net) an neunter Stelle der populärsten LinuxDistributionen. das Geschäftsmodell kommt später Kein Zweifel: Ubuntu hat die Charts wie keine zweite Distribution gestürmt. Was bislang fehlt: ein funktionierendes Geschäftsmodell rund um die Distribution. Aber das wird sicherlich noch kommen. Wenn erst einmal die Ubuntu Foundation mit regelmäßigen Release- und Support-Zyklen für Kontinuität gesorgt hat, wird sich schon jemand finden, der mit Ubuntu Geld verdienen möchte. Bis dahin freuen sich erst einmal die Anwender und die Admins über so etwas wie „plug and play“. 014 Panorama Digitale Aktentasche Virusattacken, Hardwaredefekte, Überspannungsschäden. Viele Szenarien führen zu einem Datenverlust. Regelmäßige Datensicherung ist wichtiger denn je und wird trotzdem gerne vergessen. Wer viel unterwegs ist, weiß wie lästig Backups sind. Halt!, ruft der Innendienst seinen Außendienstmitarbeitern zu. Daten sind unser Kapital! Sichern! das erste Mal Doch irgendwann ist es immer das erste Mal. Die Kundendatei ist einfach weg. Die letzten Einträge? Das Backup, so der Admin gestern eines gemacht hat, liegt auf dem Server, 600 Kilometer weit entfernt. Sch... Backup, geht das nicht einfacher? Ja. Aber nicht mit dem Notebook allein. Denn oft steckt im Notebook eine überdimensionale Festplatte – 60 GB, die zu 80 Prozent voll ist. Davon ein Backup auf DVD oder CD zu ziehen, ist alles andere als praktikabel. Die Älteren unter uns – die 1965 und früher Geborenen – erinnern sich da an ganz andere Zeiten. Damals passte der Festplatteninhalt eines PCs auf 40 Disketten. (Anm. d. Red.: Mein erster Rechner hatte eine 500 MB-Platte!) Heute reichen nicht einmal 100 CDs oder 15 DVDs – weshalb fürs Handgepäck eine externe Festplatte zu empfehlen ist. Schöner speichern Es geht auch einfacher, schneller und schicker als mit 40 Disketten oder 40 CDs. Und zwar mit intelligenten externen Festplatten. Damit können Anwender einen Speicher installieren, der nicht nur für das normale Backup schnell ist, sondern auch für Echtzeit-Anwendungen. Mit Kapazitäten bis zu 500 GB sind externe Festplatten wie die von Seagate die Lösung für unterwegs: als Videoarchiv, Musikarchiv oder den riesigen Berg von Daten. Liest sich gut, ist gut. Denn solche Festplatten sind nicht einfache Volumes, auf denen man Dateien parkt, sondern die Backupsoftware ist schon mit drin. Seien wir ehrlich: So eine Festplatte ist wie ein ganzer Rechner unter dem Arm. Mit allen, natürlich legal, erworbenen DVDs. Dem digitalen Fotoarchiv der letzten fünf Jahre, seit [email protected] man die Digitalkamera und das erste Kind hat. Der Kollege meint: Und das Musikarchiv. Ich sage: Das kann man sich zur Not klein rechnen. MP3s sind nicht die Welt. Dafür gibt es doch iRivers. Oder USB-Sticks bei Saturn. Zu teuer, sagt der Kollege, krieg ich als Werbegeschenk für Umme. Aber das ist eine andere Geschichte. vor dem Kadi Gruner+Jahr launcht neue Website mit Interwoven Teamsite. RedDot hat das Nachsehen. Vignette löst beim ZDF Imperia ab. Unter Federführung von janusmedia führt Tele 5 konzernweit ContentServ ein. Last not least löst Bild.T- Online den Vertrag mit Vignette und setzt auf CoreMedia, dem Hamburger Spezialisten für Crossmedia Publishing. Die Liste fortzusetzen, ist nicht schwer: Die Hintergründe der gescheiterten Projekte zu erfahren, dagegen sehr. Liegt es daran, dass der Markt lieber über Erfolgsmeldungen spricht? Ist es ein ungeschriebenes Gesetz, sich im stillen Kämmerlein über gescheiterte Projekte zu freuen? Der Markt ist groß, und der Kunde ist weit. Die Marktübersicht von Oliver Tschau (www.contentmanager.de) listet in neun Gruppierungen mehr als 650 Anbieter auf. Dopplungen nicht ausgeschlossen. Die genaue Zahl liegt irgendwo dazwischen: zwischen Sein und Nichtsein. Gehen wir davon aus, dass etwa 400 Produkte unter eigenem Label segeln – und dass jedes Unternehmen im Jahr zwei Kunden gewinnt. Das bedeutet: Hersteller und Partner implementieren jedes Jahr 800 Systeme. 800 erfolgreiche Implementierungen? 800 Erfolgsgeschichten? Komisch, man hört nur Gutes. Es sei denn, man schaltet den Flurfunk an. Oder hört dem Vertriebler der Konkurrenz zu. Der weiß Bescheid. Udo Röbel, ehemaliger Chefredakteur von Bild.T-Online, weiß es genauer. Oder nicht. Er habe sich bei Bild.T-Online für ein starkes Redaktionssystem eingesetzt. Auf die Frage, ob das System den versprochenen Erfolg gebracht hat, antwortet Röbel: „Das kann ich nicht beurteilen, ich habe das System nie im Einsatz gesehen.“ Das Nachhaken bei der Konzernleitung brachte ebenso wenig Licht ins Dunkel. Die Presseabteilung wollte sich nicht äußern. Eins ist sicher: Das von Röbel bevorzugte System ist heute, Jahre nachdem der Chefredakteur Bild.T-Online >> ������������������������ verließ, nicht im Einsatz. Ein Systemanbieter aus Hamburg machte das Rennen. Nachdem Millionen für das erste System ausgegeben wurden? Gab es Schadensersatzforderungen von Bild.T-Online? Ja. Vor Gericht forderte A von B und B von A. Das Urteil - nichts Genaues weiß man nicht. Oder doch: Fragen Sie den Vertriebler. ��� �� � � � � � � � � ���� ����������� Qui bono? Open-Source-Lizenz ist eine Software-Lizenz, die den Prinzipien der Open-Source-Initiative folgt: weltweit arbeiten Entwickler gemeinsam an dem Code eines Programms. Der Code ist frei, öffentlich zugängig, und die Entwicklung wird zentral organisiert. Es gibt keine kommerziellen Hintergedanken - weitgehend. Damit ein Quellcode die begehrte Open-Source-Lizenz erhält, muss er folgende Kriterien erfüllen: Die Lizenz darf niemanden darin hindern, die Software zu verkaufen oder sie mit anderer Software zusammen in einer Software-Distribution weiterzugeben. Lizenzgebühren sind untersagt. (1) Die Software muss im Quellcode für alle Nutzer verfügbar sein. (2) Die Lizenz muss explizit das Verteilen von Software erlauben, die auf einer modifizierten Version des Originalquellcodes beruht. Die Lizenz (???) kann verlangen, dass solche Änderungen zu einem neuen Namen oder eine neue Versionsnummer der Software führen und solche Änderungen dokumentiert werden. (3) Die Lizenz darf den Verwendungszweck der Software nicht einschränken. Non-Profit-Software von Idealisten für User. Und für Unternehmen, die mit Open Source Geld verdienen möchten. Zurzeit sind 58 Open-Source-Lizenzen bekannt, teilweise sogar von Konzernen freigegeben. Dazu zählen unter anderem Academic Free License, Eiffel Forum License, IBM Public License, Mozilla Public License Public License 1.0 (MPL), Nokia Open Source License. wirklich frei oder nur ein taktischer Schachzug? Auffällig ist, wer mittlerweile alles Fan von Open Source ist, beispielsweise IBM und Sun. Die IT-Branche versteht das nicht und kritisiert das Engagement. So macht sich HP-Vize-Präsident Martin Fink auf der LinuxWorld in San Francisco nicht zum ersten Mal für die Reduktion der zahlreichen Open-Source-Lizenzen stark. An dieser Stelle sollten sich Beobachter die Frage stellen: Cui bono? Wem nützt es? Was verspricht sich HP davon, wenn es weniger Open-Source-Lizenzen gibt? Oder: Sieht IBM dort ein lukratives neues Geschäftsfeld für seine Global Services? Open Source ist spannend. Noch spannender ist, wer die Idee vor seinen Karren spannen will. ���� ����������� ����������� ��� ��� ��� ���� ������ ������� ���������� ������� ���������� ����� �������������������� �������� ������� ����������� �������� ����� ������� ���������� ���������� ���������� ���������� ���������� ���������� ���������� ���������� ����������������������� ���������������������� ��������������������������������������������� ����������������������������������������������� ������������������������������������������������ ��������������������������������������������� ���������������������������������������������������� ���������������������������������������������� �������������������������������������������� ������������������������������������������ �������������������������������������������������� ����������������������������������������������� ����������������������� ������������������������������������������ � � �� � � � �� � � � � � � ��������� ������������� ������������ Crossmedia Publishing Neues Paradigma: Vom Byte zum Papier 16-19 Crossmedia Publishing in Verlagen Print + Online + E-Paper Wolfgang Laier 20-21 Volker Watschounek 22-24 Der Wandel der Gesellschaft geht einher mit dem Umbruch der Medienlandschaft. Nach dem Zeitalter des Konsums, der Mode (50er Jahre) und der Globalisierung (90er Jahre) steht ein Wandel hin zu einer sozialen Entwicklung der Gesellschaft ins Haus. Das stellt Verlage vor neue Herausforderungen. Auch Leser werden sich im Umgang mit Medien neue Gewohnheiten aneignen müssen. Wie sieht nun das Medienhaus der Zukunft aus? Wie stellt sich dieses Medienhaus den neuen Anforderungen? Was ist notwendig, um es zukunftsgerecht auf- und auszubauen? Und: Wie kann der Umbau finanziert werden? E-Paper: vom Hoffnungs- zum Umsatzträger Zwei Regalmeter auf einem USB-Stick Praxis Bibliographisches Institut F. A. Brockhaus AG (BIFAB) Interview BIFAB 26 Über Kreuz mit Crossmedia 27 Zur Wandelbarkeit von Sprache Kleinvieh macht auch Mist 28-30 Paid Content was die Anbieter schreiben 31 Vom Verlag zum Informationsunternehmen Verlage sind historisch gewachsen. Ihr Ursprung liegt in der Beherrschung des Publizierens und Druckens. Online spielt allzu häufig eine untergeordnete Rolle. Die Entwicklung vom Verlag zum Informationsunternehmen erweitert die alten Konzepte. Sie fordert eine grundlegende Neuausrichtung in der Marktorientierung der Verlage. Die mediale Wertschöpfungskette verlängert sich. Verlage decken immer mehr Stufen in der Wertschöpfungskette ab. Das geht einher mit dem strategischen Wandel vom „gesellschaftlichen Auftrag“ hin zum „renditeorientierten Handeln“ mit Informationen. Für Verleger klassischer Prägung ist das eine unerträgliche Vorstellung. Die digitalen Medien setzen sich immer deutlicher als Werbe- und Informationsplattform durch. Die Folge ist die Umkehr der traditionellen Reihenfolge von Print nach Online. Inhalte werden online erzeugt und im Druck umgesetzt. Print bleibt dennoch der stärkere Umsatzmotor. Online nimmt einen zunehmenden Anteil am Gesamtum- Titel 017 • Crossmedia Publishing in Verlagen Neues Paradigma: Vom Byte zum Papier Inhalte sind digital geworden. Das ist nichts Neues. Wie Inhalte wahrgenommen, interpretiert und genutzt werden schon. Paradigmawechsel: Inhalte werden im Internet für Printpublikationen produziert. Die Wertschöpfungskette ist länger und feiner ausdifferenziert. satz ein. Neueste Untersuchungen zeigen, dass die Onlinenutzung keine spürbare Auswirkung auf die Nutzung von Printmedien hat. Im Bezug auf TV-Medien sieht das anders aus. Hier hat der Verdrängungswettbewerb begonnen. Der Onlinebereich wird im Gegensatz zum Printbereich in der Zukunft stärker anwachsen. Die Konsequenz: Inhalte werden zukünftig verstärkt aus dem Onlinebereich heraus generiert oder bestimmt, da hier eine höhere Aktualität und Reichweite vorherrscht. Diese werden dann zur weiteren Verwendung im Printbereich und in digitalen Medien wie PDA, E-Book oder mobilen Endgeräten eingesetzt. Printprodukte können in Teilbereichen der Produktion als „Nebenprodukt“ angesehen werden, wobei diese jedoch auch mittel- und langfristig immer noch den größten Anteil am Umsatz eines Verlags einnehmen werden. Am Anfang aller Überlegungen zur Gestaltung einer zukunftsfähigen Verlagsstruktur stehen die Fragen: Wer liest was, und wo wird in Zukunft gelesen? Immer mehr Menschen nehmen Informationen über neue Kanäle auf. Es ist zu erwarten, dass Innovationen wie E-Paper oder E-Book in modifizierter Form ihren Durchbruch erreichen, insbesondere deswegen, da sich die Konzepte für den Einsatz auf mobilen Endgeräten eignen. Mit der Einführung des digitalen Fernsehens ist ein weiteres Medium hinzugekommen. Hier wird Integration mit bestehenden Medien wie dem Internet stattfinden. Dazu kommen Aspekte wie Interaktivität und die damit verbundene Anpassung der Angebots- und Werbeformen. Ein erfolgreiches Beispiel, wie schnell und unkonventionell sich die neue Mediennutzung durchsetzt, zeigt Podcasting. Bei Podcasting werden nicht nur selbst produzierte Audiodateien (Podcasts) über das Internet im Format eines Weblogs mit speziellem RSS-Feed bereitgestellt, sondern auch - in Verbindung mit MP3-Playern - Radio im Internet gesendet. Audio-, Video- und Weblogs haben sich im Fahrwasser von DSL im Internet in kürzester Zeit in der Mediennutzung etabliert. Push, Pull und Communities Insgesamt ist zu erwarten, dass Informationen künftig stärker über Push-Technologien angeboten werden (siehe auch Seite 8, Blackberry). Nicht nur E-Mails werden zeitnah distribuiert. Auch SMS-Benachrichtigungen oder ein aktiver Newsversand über Newskanäle findet nicht mehr ausschließlich über Pull-Technologien statt. Der Leser stellt sich seinen Mix aus Informationen selbst zusammen. Er erhält die Informationen, die er lesen möchte, gezielt und unaufgefordert. Es ist zu beobachten, dass Verlage ihre Inhalte vermehrt in Communities generieren und crossmedial in anderen Ausgabemedien verwerten. Das führt dazu, dass Leser unmittelbar die Informationsangebote mitbestimmen. Darüber hinaus werden multimediale und zukünftig auch interaktive Angebote vermehrt zum Einsatz kommen. Die Impulse, aus Verlagen mediale Dienstleistungsunternehmen zu formen, müssen rechtzeitig aus Eigenhandlungen der Verlage erfolgen und nicht durch Marktzwänge. Die Durchdringung der digitalen und multimedialen Medien, wie Internet und mobile Endgeräte, macht es notwendig, Systeme und Prozesse im Verlagswesen neu zu strukturieren oder zu entwickeln. Die Komplexität der einzelnen 018 Titel Teilprozesse erfordert ein Mehr an Abläufen, welche in die täglichen Arbeitsprozesse integriert werden müssen. Dabei müssen Konzepte zur Refinanzierung des Umbaus entwickelt werden. „Produktionssysteme“ der Verlage wandeln sich Die im Verlagswesen eingesetzten Systeme sind durch Medienbrüche gekennzeichnet. Die Diversifikation der Medien zieht nur langsam eine Diversifikation der Produktionswege nach sich. Der Übergang von einem homogenen Medium hin zu einem vielseitig verknüpften und heterogenen Medium ist verstellt. Die Zusammenführung der einzelnen Prozesse zu einem integrierten Gesamtprozess schreitet besonders in traditionell gewachsenen Bereichen nur langsam voran. Das liegt daran, dass der Übergang mit einem großen finanziellen Aufwand verbunden ist. Und der ist für kleine und mittelständische Verlagshäuser schwer zu bewältigen. Bestehende Verlagskulturen und -strukturen behindern eine neue Wettbewerbsorientierung und ein tief greifendes Veränderungs- und Innovationsmanagement. Verschiedene Beispiele zeigen, dass neue Konzepte durchaus zum Erfolg führen können. Viele Verlagshäuser haben punktuelle Erweiterungen vorgenommen. Angebote wie E-Paper wurden in das Portfolio mit aufgenommen. Der nächste und schwierigste Schritt besteht darin, Angebote zu etablieren und profitabel zu machen. Wie schwierig die Anläufe sind, zeigt das Beispiel „paid content“ (Seite 28 ff.). Verlage werden über kurz oder lang gezwungen sein, ihre Systeme umzustellen. Dabei wird die crossmediale Produktion und die Verwendung von Inhalten in verschiedenen Medien eine der zentralen Anforderungen einnehmen. Die Zukunft des Verlagswesens wird dadurch geprägt sein, dass mehr Prozesse von der Technik gesteuert werden. Verlagshäuser, die auf eine konservative Strategie mit wenig Risiko setzen, werden langfristig nicht überleben. Eine vergleichbare Entwicklung zeichnet sich in den letzten Jahren bei den Media-Agenturen ab. Agenturen, die auf Print gesetzt haben, sind von Agenturen verdrängt worden, die verstärkt auf IT/Online gesetzt haben. Deshalb besitzt für Verlage der Wandel zum Informationsunternehmen erste Priorität. zum Thema Verband Deutscher Zeitschriftenverleger e.V. www.vdz.de • Börsenverein des Deutschen Buchhandels e.V. www.boersenblatt.net • Verband Österreichischer Zeitungen www.voez.at • Schweizer Buchhändler- und Verleger-Verband (SBVV) www.swissbooks.ch • TU Dresden weim.wiwi.tu-dresden.de • Universität Passau www.im.unipassau.de (2) ein verändertes Leseverhalten, (3) veränderte Produktionsprozesse, (4) Erlös- und Geschäftsmodelle müssen umgestellt werden. Onlineangebote sind stärker in die bestehenden Geschäftsprozesse zu integrieren. Sie werden fester Bestandteil einer unternehmensweiten Prozess- und IT-Infrastruktur. Durch die Anforderungen und die Komplexität bei Generierung, Pflege und Aktualisierung von Inhalten sind Systeme notwendig, die zum einen refinanzierbar sind, zum anderen die Möglichkeit bieten, unterschiedlichste Prozesse zu integrieren. Print und Online wachsen zusammen Konsequenterweise werden in der Produktion Systeme eingesetzt, die eine Mehrfachverwertung der Inhalte in verschiedenen Medien, mindestens jedoch die medienneutrale Datenhaltung ermöglichen. Viele Verlagshäuser stehen vor der Frage, ob sie für Print und Online ein gemeinsames Redaktionssystem verwenden. Oder ob sie für die einzelnen Kanäle separate Lösungen mit definierten Schnittstellen wählen. Die meisten Verlage setzen zurzeit auf getrennte Systeme. Das ist das Ergebnis eines über die Jahre hinweg betriebenen schrittweisen Ausbaus der Systeme. Es fehlte und fehlt der Mut zum radikalen Schnitt. Wobei sich der Umbau zu einem integrierten Redaktionssystem nur lohnt, wenn Inhalte für Print und Online gleichermaßen relevant sind und intensiv ausgetauscht werden. Wesentlich dabei: Alle Inhalte werden medienneutral gespeichert. Medienbrüche werden vermieden. Zusammenfassung Strategische Konzepte und praktische Erfahrungen Es gilt anzufangen. Sich den Herausforderungen zu stellen. Den Trend positiv mitzugestalten. In der Praxis heißt das: (1) Generierung und Verteilung von Inhalten über zusätzliche Medien wie Internet oder mobile Endgeräte Fazit der derzeitigen Entwicklung ist, dass die Verzahnung der Inhalte eine stärkere Integration von Print- und Onlineredaktion notwendig macht. Das bedeutet: Immer mehr Prozesse werden aus der IT heraus gesteuert. Das bringt mittel- bis langfristig eine komplette Veränderung der Verlagsstrukturen mit sich. Eine wichtige Anforderung an 019 die Verlagssysteme besteht darin, die unterschiedlichsten Geschäftsprozesse abzubilden. Ziel ist es, neue Erlösmodelle und Geschäftsprozesse marktreif zu machen und dabei Kosten zu minimieren. Das Konzept eines zukunftsfähigen Verlagssystems basiert auf einer Service-orientierten Architektur (SOA), die sich durch die Aufteilung in unterschiedliche Funktionsbausteine („Services“) auszeichnet. In ihrer Modularisierung und Flexibilität gleichen die Systeme denen anderer Branchen. Rationalisierungs- und Wirkungsgrade stehen im Vordergrund. Positiv: Für die Module können eigene und unabhängige Workflows erstellt werden. Dabei kann auf einen Vorrat an internen und externen Funktionalitäten zugegriffen werden. Große Verlagsunternehmen setzen derzeit verstärkt auf SOA. Die Idee des „Business Process Engineering“ hat das Verlagswesen erreicht. Merkmale des „Systems der Zukunft“ Eine zeitgemäße Plattform verfügt über ein heterogenes und systemübergreifendes Daten-Management sowie über Tools zur Modellierung und Unterstützung von Geschäftsprozessen. Die Architektur ermöglicht die Wiederverwendung von Anwendungen und Daten, indem diese als Software-Module oder Services innerhalb des Gesamtsystems ablaufen. Daten werden medienneutral in Systemen gespeichert. Darüber hinaus ist das System in der Lage, unterschiedlichste Erlösmodelle zu integrieren, um die operative und strategische Entwicklung des Verlages zu unterstützen. Die heutigen, monolithischen Systeme erfüllen die beschriebenen Anforderungen nur bedingt. Oft sind sie starr, was zu hohen Folgekosten führt. Verlage stehen vor der Frage, ob sie die bestehenden Systeme erweitern oder durch neue Systeme komplett ersetzen. Nicht anders geht es den Versandhäusern und Katalogherstellern. Die gehören zwar nicht zu den klassischen Verlagen, stehen aber vor ähnlichen Aufgaben: komplexe Datenhaltung und variables Publizieren. In den letzten Jahren fand eine Parallelentwicklung statt: die Publikation von Katalogen als Print- und Online-Version. Dafür waren und sind überwiegend getrennte Systeme verantwortlich. Das bedeutet im Zeitalter von XML oft doppelte Arbeit, gerade bei der Neuaufnahme und Pflege von Artikeln. Der Aufwand erhöht sich, wenn diese Prozesse gänzlich vom Warenwirtschaftssystem abgekoppelt sind. Sicher gibt es eine Reihe von Anbietern, die aus der XML-Welt kommen und leistungsstarke Publishing-Lösungen anbieten. Bildund Textelemente werden von ihnen universell in verschiedene Kanäle ausgegeben. Die verlagsweite medienneutrale Datenhaltung, die Integration eines Asset-Managements und Warenwirtschaftssystems sowie die Möglichkeit, unternehmensübergreifend die Katalogproduktion in fremde Geschäftsprozesse einzubinden, ist ein sehr komplexer Vorgang - und trotz gelungener Ansätze eher noch eine Vision. Ausblick In der Zusammenführung der digitalen Welt und der PrintMedien entsteht ein neues Bild, was Medien sind und leisten. Der Wandel in der Mediennutzung wird zu veränderten Produktionssystemen führen. Das spiegelt sich schon jetzt in dem Engagement der Systemhersteller wider. Deren Ziel sind Systeme, die als integrierte und einheitliche Plattform den verschiedenartigen Ansprüchen und Erfordernissen gerecht werden. Das Medienhaus der Zukunft kommt an solchen Veränderungen jedoch vorbei. Im Mittelpunkt stehen: (1) Einsatz und Vernetzung unterschiedlicher, komplexer Informationssysteme in allen Bereichen, (2) Erhöhung der Wertschöpfung durch Mehrfachverwertung der redaktionell erstellten Inhalte, (3) Intensivierung des Kundenmanagement, (4) neue Geschäftsfelder: Print, Online, E-paper, E-book, (5) Radio, TV, Shops, Communities u. a., (6) Internationalisierung und Konzentrationsprozesse, (7) Qualifizierung und Mobilisierung der Mitarbeiter. Das Medienhaus der Zukunft ist in der Lage, aus eigenen oder fremd genutzten Datenpools innerhalb kürzester Zeit neue Produkte und Geschäftsmodelle zu entwickeln – unabhängig von den ausgebenden Medien. Digital allein reicht keineswegs, Printobjekte der nächsten Generation geben dem Papier „den Lead“ zurück. Das Erstellen und Konfektionieren von Inhalten wird in eine digitale Produktionsstraße eingebunden, die sich an der Strategie und den Zielen des Unternehmens ausrichtet. Schnittstellen zu anderen Systemen wie Warenwirtschaft, CRM oder E-Shops werden die Wertschöpfungsketten verlängern. Verlage werden so zu ganz normalen Unternehmen. Und werden aufgrund ihrer Inhalte doch auch immer etwas Besonderes bleiben. Wolfgang Laier Diplomierter Betriebswirt, Geschäftsführer der Enterra GmbH, Jahrgang 1967, entwirft Konzepte für Redaktionssysteme und Medienhäuser. 020 Titel • E-Paper: vom Hoffnungs- zum Umsatzträger Print + Online + E-Paper Man spricht nicht mehr über E-Paper. Man hat es. Rund 120 digitale Ausgaben von Zeitungen und Zeitschriften gab es Mitte 2005 allein in Deutschland – weitere kommen laufend hinzu. Seit der ersten Einführung einer „E-Paper“-Ausgabe Katka Riefler durch die Rhein-Zeitung aus Koblenz im Jahr 2001 hat dieses Konzept seinen Siegeszug angetreten. Die strategische Motivation der Zeitungshäuser ist dabei weniger die Erwartung, innerhalb kurzer Zeit viel Geld zu verdienen, als vielmehr das eigene Produktportfolio abzurunden. Digitale Ausgaben erreichen heute einen qualifizierten Nischenmarkt: Leser auf Reisen oder im Ausland lassen sich schnell und günstig mit dem Quasi-Printprodukt erreichen. Die bezahlten E-Paper-Exemplare werden von der IVW als Auflage gezählt, was in Zeiten sinkender Printauflagen ein gewichtiges Argument ist. Und nicht zuletzt ist den Verlagen jedes Produkt willkommen, das der „Kostenlosmentalität“ der Internetnutzer entgegenzuwirken hilft. Niedrige, aber steigende Abo-Zahlen Rund 4.200 zahlende Abonnenten hat die Süddeutsche Zeitung in nur acht Monaten für ihr E-Paper gewonnen. Die elektronische Ausgabe ist seit August 2004 kostenpflichtig. Abonnenten der SZ zahlen drei Euro zusätzlich pro Monat. Das reine Online-Abo ist mit 19,90 Euro rund ein Drittel billiger als die gedruckte Zeitung. Rund 1.400 Bezieher hat die Nordwest-Zeitung in Oldenburg 6 Monate nach der Einführung von ihrem Produkt überzeugen können – auch dies eine beachtliche Zahl für ein bezahltes Online-Angebot. Ein Blick auf die IVW-Auswertung zeigt in beiden Fällen, dass die Verlage mit E-Paper in der Regel die Leser der gedruckten Zeitung und weniger neue Zielgruppen erreichen. Während sich bei der SZ immerhin 860 Leser für das reine Online-Angebot entschieden haben, sind es bei dem Regionalverlag nur 45. Hinter diesen zunächst verblüffenden Zahlen versteckt sich häufig eine Geschäftsstrategie: Firmenkunden, die mehrere Zeitungsexemplare beziehen, möchten die Zeitungslektüre verstärkt im Firmennetzwerk ermöglichen. Wenn der Verlag dies mit Hilfe einer E-Paper-Lösung ermöglicht, werden diese Exemplare von der IVW als Auflage ausgewiesen. Ende Juli 2005 meldete die Süddeutsche Zeitung den ersten E-Paper-Abschluss mit einem Großkunden: Rund und 22.000 Mitarbeiter der HypoVereinsbank lesen die SZ am Bildschirm. Die Deutschland-Ausgabe der SZ steht bereits am Vorabend um 20 Uhr online, die Münchner Stadtausgabe einschließlich der Landkreisausgaben spätestens um sechs Uhr morgens. In den Niederlanden und in den USA wird E-Paper auch gerne für den elektronischen Belegversand genutzt: Anzeigenkunden erhalten zeitkritisch die Zeitungsseite, auf der ihre Anzeige erschienen ist. Kritik an Platzierung oder Umfeld kann dem Verlag so schneller mitgeteilt werden. Zudem erleichtert das elektronische Format die Archivierung. Der Aufwand für die Produktion von E-Paper-Ausgaben ist je nach Umfang der bereitgestellten Funktionalität und der technischen Ausgangsbasis unterschiedlich. Einfache PDFAusgaben stellen Zeitungshäuser vielfach mit Bordmitteln ins Netz. Anbieter von Redaktions- und Archivsystemen bieten vielfach ein E-Paper-Modul an, mit dem mit vergleichsweise wenig Zusatzaufwand digitale Ausgaben direkt aus den Produktionsdaten der Zeitung erstellt werden können. Daneben gibt es Lösungen, die unabhängig von 021 „Rieflers Welt“ RZ-Online GmbH www.e-paper.de • MSH Medien System Haus GmbH & Co. KG www.msh.de • COMYAN Internet & Intranet Solutions GmbH www.comyan.com • Digital Collections Verlagsgesellschaft mbH www.digicol.de der Produktionsweise E-Paper aus einem für die Printproduktion geeigneten PDF erstellen können. Dieser Ansatz scheint auf den ersten Blick kostengünstiger. Der Grad der Automatisierbarkeit einer Lösung schwankt jedoch. Manche Lösungen erfordern eine erhebliche Nacharbeit. Sorgfältig sollten Zeitungsverlage prüfen, ob die favorisierte technische Lösung mit verschiedenen Lokalausgaben umgehen kann. Zwitter aus Print und Online Verschiedene Untersuchungen zum Nutzerverhalten zeigen, dass ein E-Paper aus Sicht der Nutzer genau das ist, was der Leser erwartet: ein Zwitter zwischen Print- und Onlineprodukt. Entsprechend werden Printfunktionalitäten wie Blättern oder das Springen zu speziellen Ressorts ebenso erwartet wie onlinetypische Möglichkeiten wie die Volltextsuche. Erste Erfahrungen zeigen, dass speziell ein Archivzugang einen besonderen Nutzungsanreiz darstellt. Verlage, die wie beispielsweise die Rhein-Zeitung mit dem E-Paper-Abo eine umfangreiche Archivnutzung verbinden, sind in der Regel erfolgreicher als restriktive Angebote. Interaktive Zusatzoptionen wie beispielsweise Links zu weiterführenden Informationen oder die Integration von Multimediaelementen finden sich in den E-Paper-Ausgaben von Zeitungen selten. Zwar ließe sich damit theoretisch die Attraktivität des Produkts steigern. Angesichts der geringen Nutzerzahl lohnt sich der Produktionsaufwand jedoch weder für die Zeitung noch für die Anzeigenkunden. Anders ist die Situation bei Zeitschriften. Da dort die Lebensdauer einer einzelnen Ausgabe länger ist, kommt Zusatzinhalten eine höhere Bedeutung bei. Ein schönes Beispiel aus jüngerer Zeit ist die digitale Ausgabe der Musikwoche. Deren „livepaper“ bietet Seiten zum Umblättern, Sounds, Videos, Links und die Anbindung an die größte Datenbank der Branche. Abrufbar sind Musiktitel, Hintergrundinformationen zu Interpreten, aktuelle Charts und vieles mehr. Diese Art E-Publikation mit ihrer Vielzahl an Möglichkeiten stellt eine Alternative zur gedruckten Zeitschrift als auch zum herkömmlichen Onlineauftritt dar. Sie könnte geeignet sein, neue Zielgruppen zu erreichen. Bei Tageszeitungen und den dort verbreiteten E-Paper-Varianten ist dies nicht der Fall. Von deren Online-Auftritten erwarten sich Nutzer nicht nur Hintergrund zum bekannten, bereits gedruckt veröffentlichten Geschehen, sondern laufend aktualisierte Information – einem solchen Anspruch kann keine noch so multimedial vernetzte E-Paper-Ausgabe gerecht werden. Insofern wäre es für Zeitungen wenig zukunftsträchtig, ihre Online-Auftritte durch E-Paper-Ausgaben zu ersetzen. Kombi von Print und Online nutzt auch Anzeigen Durchaus zukunftsfähig ist aber die Kombination von Online und Print, nicht zuletzt bei der Zeitungsproduktion und ganz speziell für den Anzeigenteil. Der amerikanische Zeitungsverlegerverband „Newspaper Association of America“ (NAA) forderte bereits 2003 die Abkehr von Print-zentriertem Denken. Chris Hendricks, Vizepräsident der McClatchy Zeitungsgruppe, formulierte dies in einem Interview mit der Zeitschrift „Editor and Publisher“ zugspitzt. „Zur Zeit scheint der Produktionszyklus rückwärts organisiert zu sein. Wir erstellen ein genuin schmalbandiges Produkt (die Zeitung). Wir erfassen und speichern nur, was wir für das gedruckte Produkt benötigen. Wir nehmen dann die Druckdaten und schicken sie in Breitbandmedien, die Unmittelbarkeit, Quantität und Qualität der Informationen verlangen. Ich glaube, dass wir in 10 Jahren weit auf dem Weg fortgeschritten sein werden, den Produktionszyklus umzukehren und zuerst Breitbandprodukte und erst dann schmalbandige Produkte zu erzeugen.“ Die zentrale Datenhaltung und die Umkehr der Produktionsweisen steht bei europäischen Verlagen ganz oben auf der Prioritätenliste. Neue Printprodukte wie beispielsweise die „Car4you“-Zeitung in der Schweiz oder „Autobild.de – automarkt“ des Axel Springer-Verlag werden komplett oder zum Großteil aus Online-Datenbanken generiert. Der österreichische Styria-Verlag setzt auf eine zentrale Datenbank als Basis für alle Produkte. Für Anzeigenkunden sind interaktive Prospektbeilagen interessant, die als E-Paper veröffentlicht werden. Solche Angebote gibt es bei Kölner Stadtanzeiger, Berliner Morgenpost, Nordkurier, Ostseezeitung und der Schweriner Volkszeitung. Dabei wird nicht nur der Prospekt auf den Bildschirm gebracht. Nutzer können gezielt nach Artikeln suchen und Details vergrößern. Katja Riefler Jahrgang 1963, Politologin, im Nebenfach Philosophie und Amerikanistik. Riefler arbeitet als Medienberaterin, Fachjournalistin und Fachautorin. 022 Titel • Praxisbericht Bibliographisches Institut F. A. Brockhaus AG Zwei Regalmeter auf einem USB-Stick Lexika sind eine Welt für sich. Das gilt für die Werke selbst und für deren Herausgeber. Universelles Wissen findet auf immer Uwe Hentschel Volker Watschounek kleineren Medien Platz. Wissen ist mobil geworden. Und auch die „Hersteller“ von Wissen haben sich gewandelt. 1988 fusionierte das Bibliographische Institut, in dem der Duden erscheint, mit F. A. Brockhaus. Das Unternehmen firmierte fortan als Verlag Bibliographisches Institut und F. A. Brockhaus AG, kurz BIFAB. Der Blick zurück auf die traditionsreiche Geschichte hat nicht den Blick auf die Zukunft verstellt. Anfang der Neunziger entschied sich das Verlagsmanagement für die Einführung eines SGML-basierten Redaktionssystems. Das Eigengewächs wird heute im Haus noch weiterentwickelt. Als Backend kommt eine SQL-Datenbank zum Einsatz, der SGML-Editor kommt von Arbortext.Ein Anfang war gemacht: Inhalte „zu zerlegen“ und medienneutral auszugeben. Das Schreiben der Document Type Definitions (DTDs), mit denen die Daten modelliert und in das Redaktionssystem überführt wurden, haben seinerzeit zwei externe Dienstleister übernommen. raus aus dem Satz und rein in SGML Als erstes Werk wurde ein Duden-Wörterbuch konvertiert. Für BIFAB, wo das Wissen über die logische inhärente Struktur der Inhalte lag, ging es im ersten Schritt um ein einfaches Ziel: Die neuen Daten wieder auf den selben druckfähigen Stand der alten Satzdaten zu bringen. Bernd Kreissig ist Geschäftsführer der Tochterfirma Brockhaus Duden Neue Medien GmbH. Er ist seit 1994 mit dabei. Kreissig hat die Anfänge auf dem Weg in die „neue Zeit“ miterlebt. „In einer semantischen Markup-Sprache wie SGML zeichnet man unter sachlichen Aspekten aus, etwa ein halbfett zu druckendes Nebenstichwort genau an der Wortgrenze, ohne umgebende Interpunktion. Im guten Satz gilt jedoch die Regel, dass sich die Formatierung eines Satzzeichens nach dem vorangegangenen Wort richtet. Also ob das Komma fett oder mager gedruckt wird. Das mussten wir erst einmal nachbauen, um das Wörterbuch drucken zu können.“Den rückblickend entscheidenden Schritt in der Professionalisierung beim Erstellen digitaler Medien tat BIFAB 1993. Da erschien das erste Dudenwörterbuch in der Reihe der PC-Bibliothek. Eine Softwarereihe, die es bis heute gibt, mittlerweile unter dem Namen „Office-Bibliothek“. Damit hat BIFAB den Grundstein gelegt, für die Technologie und die internen Prozesse. 023 Wettbewerb angenommen Das erste wirklich große crossmediale Produkt entstand 1995. In einem Joint Venture mit Microsoft wurde die die LexiROM herausgebracht, eine Zusammenstellung mehrerer ein- und zweisprachiger Wörterbücher zusammen mit einem Lexikon auf CD-ROM. Microsoft hatte das SoftwareKnow-how, BIFAB lieferte die Inhalte. Bei der Datenhaltung hatte indes BIFAB die Nase vorn. Während Microsoft noch mit RTF-Dateien hantierte, arbeiteten die Mannheimer bereits mit SGML als Basisformat. Vom Erfolg der LexiROM beflügelt, entschloss sich Microsoft einige Jahre später, im Alleingang ein eigenes Lexikon auf dem Markt zu bringen: die Encarta. Die erste Encarta kam im Herbst 1997 auf den Markt und war ein durchschlagender Erfolg. Ein Jahr später zog BIFAB mit dem Brockhaus multimedial nach. Erstmals erschien damit ein größeres Lexikon in digitaler Form. Dabei wurde der Inhalt gezielt an die Bedingungen des Bildschirms angepasst. Und erstmals war die Preisfindung nicht vom Buch, sondern vom Marktumfeld bestimmt. Bernd Kreissig über die Marktanteile heute: „Wir gehören zu den wenigen Firmen, die es geschafft haben, Microsoft den ersten Platz streitig zu machen. Darauf sind wir richtig stolz, keine Frage. Heute steht es etwa 2:1 bei den Marktanteilen für uns. “ BIFAB und Microsoft vereinigen etwa 80 bis 90 Prozent im Markt der multimedialen Lexika auf sich. Andere Anbieter wie Bertelsmann oder Data Becker bedienen den Markt mehr oder weniger nur noch mit ihrer Backlist. aus der alten ... Wie groß die Strecke ist, die BIFAB seit Anfang der Neunziger zurückgelegt hat, zeigen ein paar technische Anekdoten. „Als ich anfing“, sagt Kreissig, „fand ich auf meinem Schreibtisch zwei PCs ohne Peripheriegeräte. Das SGML- Redaktionssystem lief auf Sun-Workstations, so wie auch heute noch. Für die kaufmännische Seite gab es ein AS/400System. Aber PCs? Gab es nur wenige im Haus. Ich musste an meinem ersten Arbeitstag erst mal losgehen und Monitor und Tastatur kaufen. Das hatte man schlicht vergessen.“ Auch Internet gab es im Verlag noch nicht wirklich. Das BIFAB-Netz war nicht mit dem Internet verbunden, weil es keine Firewall dahinter gab. Dann also lieber kein weltweites Netz. Für E-Mails hatte man einen einzelnen Rechner ausserhalb des Firmennetzwerks eingerichtet, der mit dem Web verbunden war. Zwischen dem internen Mailserver und „Versende-Rechner“ bestand eine serielle UUCP-Verbindung, also aus Sicherheitsgründen kein Routing. „Wer eine Mail abgeschickt und das kurz darauf bedauert hatte, ist zum Rechner gerannt und hat das Kabel gezogen. Wennderjenige schnell genug war, hat das geklappt.“ Bevor es endlich Web und E-Mail für alle gab, war der Rechner mit seinen 38.400 Baud Übertragungsgeschwindigkeit schließlich 24 Stunden am Tag damit beschäftigt, den Stapel der ein- und ausgehenden E-Mails abzuarbeiten. ... in die neue Welt. Heute geht es um Technologien, die Crossmedia-Publishing ergänzen: Sprach- und Retrievaltechnologien. Der Schritt zu einer medienneutralen Datenhaltung ist vollzogen. Der wichtigste Partner an der Seite von BIFAB bei der Sprachtechnologie ist das Institut für angewandte Informationsforschung (IAI) an der Universität Saarbrücken. „Die für uns zentralen Fragen liegen im Morphologiesystem, das heißt, der korrekten Analyse und Behandlung von Wortformen. Daneben geht es um verschiedene Parser, die Sätze segmentieren und versuchen, die Formen der natürlichen Sprache in entsprechende logische Strukturen im Rechner abzubilden.“ Die gemeinsamen Entwicklungen finden auch Eingang in den Duden-Korrektor für die automatische Kor- 024 Titel rektur in der Textverarbeitung. Oder als natürlichsprachliche Abfragemöglichkeit in der „Brockhaus Enzyklopädie digital“, die im Herbst auf der Buchmesse vorgestellt wird. Im zweiten wichtigen Bereich, beim Retrieval, der Suche und Indexierung in den Datenbanken, arbeitet BIFAB seit 1992 mit dem Institut für Hypermediasysteme (HMS) an der technischen Universität Graz zusammen. Hier geht es um das Entwickeln und Implementieren von Algorithmen, die die Fundstellen der Treffer nach Relevanz sortieren: Das „Brockhaus Wissensnetz“, ein computergeneriertes Kontextnetz, bietet unter den Einträgen im Lexikon Vorschläge zu art- oder themenverwandten Begriffen an. Neue Technik, neue Produkte Nicht jede Publikation ist heute beim BIFAB crossmedial – das Gros der Titel wird nach wie vor gedruckt. Daran wird sich wenig ändern. Typischerweise sind die hochauflagigen Titel aber fast alle crossmedial. Das Flaggschiff ist die „Brockhaus Enzyklopädie digital“. Sie passt auf einen USB-Stick und braucht nicht installiert, sondern nur gestartet zu werden. Ein Gigabyte Daten auf dem Stick beträgt die reine Textmenge, inklusive Software und Indizes. Die komplementäre Multimediakomponente gibt es auf zwei DVDs mit jeweils 9 Gigabyte. Sind die installiert, koexistiert der Stick mit einem riesigen Medienpool an multimedialen Einträgen. Nicht nur für dieses Produkt hat BIFAB einen Datenpool aufgebaut, den interne und externe Redakteure pflegen. Für den 3-D Globus existiert eine Geodatenbank. Diese stellt selbst die Google-Earth-Software in den Schatten. Zwei Millionen Einträge von kartographischen Verlagen und Herstellern von Geoinformationssystemen mussten dafür überprüft werden. Das solche Projekte erst mit einer Nutzung über das Kernprodukt hinaus rentabel werden, ist klar. Beispielsweise über eine Lizensierung der Softwaremodule. Crossmedial als Wissensaufgabe Gibt es für crossmediale Produkte Grenzen? Oder tun sich mit neuen Technologien zugleich neue Türen auf? Bernd Kreissig sieht in der Verbindung vom Wissen über die Sprache und Wissen über die Dinge den Schlüssel für die zukünftige Entwicklung. „Heute erkennt man im XML noch die Reste des klassischen Wörterbuch-Textes. Zukünftige Systeme haben sicher noch wesentlich komplexere interne Informationsstrukturen und zeichnen sich sich dadurch aus, das wir mit Instanzen von Begriffen arbeiten. Das heißt, wir werden Methoden der objektorientierten Softwareentwicklung auf unser Gebiet anwenden. Die Verzahnung von Wortwissen und Sachwissen wird zunehmen. Je mehr man über die Begriffe und ihre Eigenheiten weiß, desto mehr weiß man auch über ihre Beziehungen untereinander.“ Technologie potenziert Wissen Was heute unter Crossmedia subsumiert wird, ist nach Kreissigs Ansicht erst der Anfang dessen was möglich ist. Vorerst jedoch sind Anbieter und Anwender wieder zu realistischen Vorstellungen zurückgekehrt, zu dem, was Crossmedia bedeutet und was damit machbar ist. Statt mit Visionen setzen sich Verlage wieder stärker mit den Produkten auseinander. Allein die aufwendige Infrastruktur will erst einmal refinanziert werden. Mit XML strukturierte Inhalte wollen erst einmal verkauft werden. Da sind die Marktchancen wichtiger als ein schnelles „time to market“, wenn man keine Umsätze erzielt. Reines Transportieren von Inhalten aus Medium A nach Medium B reicht nach Meinung von Kreissig ebenfalls nicht aus. Er sieht gerade in der Verfeinerung von Software und den entsprechenden Technologien den Wert der Inhalte und deren Nutzung steigen. 026 Titel Neun Fragen an Klaus Holoch Duden, Meyers, Brockhaus - klangvolle Namen im Verlagswesen. Das Bibliographische Institut & F.A. Brockhaus (BIFAB) steht für 200 Jahre Verlagsgeschichte. Und für crossmediales Publizieren. Volker Watschounek sprach mit Klaus Holoch, Leiter Presse- und Öffentlichkeitsarbeit beim BIFAB. Was hat das Verlagsgeschäft der Brockhaus AG im 20. Jahrhundert am deutlichsten verändert? Brockhaus feiert dieses Jahr sein 200-jähriges Jubiläum. Die letzten 20 Jahre waren spannender als die ganzen 180 Jahre davor. In Sekunden mit jedem rund um den Globus kommunizieren zu können, ist revolutionär. Die technische Entwicklung, nicht nur in der Produktausprägung, sondern bei den Kommunikationsmitteln, hat die Verlagswelt völlig verändert. Mit den neuen Medien sind neue Vertriebskanäle entstanden. Wie wirkt sich das auf ein Verlagshaus aus? Ich habe früher behauptet, es würde nicht lange dauern, bis die neuen Medien die klassischen Lehrmaterialien wie Bücher und Lexika verdrängt hätten. Die Wette habe ich immer verloren. Die Medien haben sich verändert, sicher. Und es gibt verschiedenste Formen von Nutzung und Bedürfnissen. Die Inhalte müssen sich dem anpassen. Das Buch bleibt jedoch ein wichtiger Baustein, darauf gehe ich heute jede Wette ein. Hat sich dadurch das Geschäft mit den Druck-Erzeugnissen verändert? Was bedeutet das für Print? Wenn wir ein Produkt wie den Duden „Deutsche Rechtschreibung“ auf den Markt bringen, kann man dieses Werk mit CD-ROM im Buch kaufen. Der Nutzer hat den gleichen Inhalt dann fürs Regal und für den Rechner. Das heißt, wir sind auf allen Plattformen unterwegs. Der Kunde kauft ein Produkt und hat beide Ausprägungen. Zurück zu den Druck-Erzeugnissen – hat sich auch der Herstellungsprozess verändert? Natürlich, mit dem technischen Fortschritt verändern sich die Arbeitsweisen. Und das Thema digitale Aufbereitung und der Weg der Daten zur Druckerei – da verdichtet sich alles. Der Weg von dem, was in den Rechner eingegeben wird, und dem, was als fertiges gedrucktes Produkt rauskommt, beschleunigt sich. Es sind weitaus weniger Arbeitsschritte notwendig als früher. Die Technik ist turboschnell – und das muss man ausnutzen. Was verstehen Sie unter Crossmedia Publishing? Klassisch auf das Produkt bezogen bedeutet das, dass wir das gleiche Produkt mit den gleichen Inhalten auf verschiedenen Plattformen anbieten. Buch plus CD-Rom plus Internet – in einem einzigen Produkt. Es ist immer der gleiche Inhalt, nur greifen Sie zu einer jeweils anderen Produktausprägung. Sind die Inhalte in Buch, CD-ROM und Internet identisch? Beim „Duden – deutsche Rechtschreibung“ sind sie identisch. Aber wenn Sie den Brockhaus multimedial nehmen, werden wir dem Medium gerecht: mit animierten Inhalten, Tonbeispielen, Videosequenzen. Hier sind wir crossmedial. In der neuen Brockhaus Enzyklopädie gibt es Hinweise auf Audiosequenzen oder andere Inhalte. Zum Buch gehört eine Audiodatenbank mit der BerlinRede von Kennedy oder der Ansprache von Einstein zur Gründung der deutschen Rundfunkstationen. Wie richtet man einen Verlag heute crossmedial aus? Ein Verlag entwickelt sich weiter, indem er sich auf die Kundenbedürfnisse von morgen vorbereitet. Im Bereich Duden beschäftigt sich eine ganze Abteilung mit dem Thema Sprachtechnologie. Wir machen uns dort Gedanken, wie eine Lösung aussehen kann, damit Sie Ihre Texte völlig fehlerfrei in den Computer eingeben können. Wie schließen Sie mediale Lücken? Wird das BIFAB künftig eigene Fotografen, Kameraleute etc. beschäftigen? Wenn nötig, schicken wir in der Tat Fotografen und Kameraleute los. Ansonsten kaufen wir Nutzungsrechte an Bildern und anderem Quellenmaterial weltweit und bauen damit unseren Fundus aus. Diese Aufgabe hatten wir bei der Produktion der Brockhaus Enzyklopädie. Das ist ein unglaublicher logistischer Aufwand, den richtigen Ansprechpartner und Rechteinhaber zu finden. Aber das ist die Stärke eines Verlagshauses, unsere Stärke. Axel Springer kauft sich bei Sat.1/ProSieben AG ein. Ein neuer Mediengigant entsteht. Mit welchen Folgen? Das ist ja keine überraschende Entwicklung. Wer das beobachtet hat, konnte schon im letzten Jahr feststellen, dass sich Axel Springer nicht mehr als Verlag bezeichnet, sondern als Medienhaus; was ich schon immer erwartet hatte. Die einzige Frage ist die, warum Springer das nicht schon früher gemacht hat. Bevor die Amerikaner bei Pro7/Sat.1 eingestiegen sind. Ich halte das verlegerisch auf jeden Fall für sinnvoll. Vielen Dank für das Gespräch. 027 Über Kreuz mit Crossmedia Crossmedia-Publishing-Lösungen werden mit dem Hinweis vermarktet, dass damit identische Inhalte für die unterschiedlichsten Medien rationell aufbereitet und Layouts zentral gesteuert werden. Wie es dabei den Inhalten ergeht, erfährt man nicht. Man hat ja den Begriff Inhalt längst mit dem Terminus Content ersetzt. Content wird irgendwann verfasst, in einer Datenbank abgelegt und dann nur noch aufbereitet. Crossmedia Publishing beschreibt das Verfahren, mithilfe einer medienneutralen Datenbank einer definierten Zielgruppe das konsistente Erscheinungsbild eines Unternehmens oder eines Produktes des Unternehmens medienübergreifend näher zu bringen, schreiben die Definitionsakrobaten von Wikipedia. In den Datenbanken sind aber Informationen gespeichert, in Form von Texten. Und Texte haben keine medienneutrale Existenz. Ich habe kürzlich bei dem Chefredakteur einer großen Tageszeitung probeweise den Begriff Crossmedia Publishing fallen gelassen. Er reagierte mit einem müden Lächeln. CMP sei im Journalismus längst an seine Grenzen gekommen. Er wolle eine gute Zeitung und dazu ein gutes Internet-Angebot machen. Das bedeute aber, dass ein und dasselbe Thema, ein und dieselbe Nachricht ganz unterschiedlich formuliert werden müssen. Zugegeben, Journalismus lebt vom Inhalt seiner Publikationen. Und wer davon lebt, kann es sich schlicht nicht leisten, für unterschiedliche Rezeptionsweisen dieselben Texte unredigiert zu übernehmen. Mit jedem neuen Medium bekommt ein Text einen neuen Verwendungszweck. Er braucht nicht nur eine andere Länge, sondern auch einen anderen Aufbau, andere Satzstrukturen. Von Überschriften und anderen Hinweis- und Verweiselementen ganz zu schweigen. Vielen Texten geht es genauso, wenn sie aus ihrem Print-Umfeld ohne Veränderung in ein anderes Medium kopiert werden: Sie verlieren an Verständlichkeit, einfach, weil die Rezeptionsbedingungen andere sind. Das Web, die CD mit ihrer Vielfalt an eigenen Textsorten verlangen andere Sätze, einen anderen Rhythmus. Oft werden einfach Texte aus Handbüchern auf die Website gestellt oder Webtexte in den Geschäftsbericht kopiert. Wer kann sich eine solche Haltung auf Dauer wirklich leisten? Jedes Medium - ob Schrift, Telegraphie, Fernseher oder Computer - hat seine ihm eigene Technologie und seine eigene Welt der Sprache. Darin liegt seine Herausforderung für jeden, der es zur Kommunikation gebraucht. Je nach Medium gibt es unterschiedliche Artikulationsformen, die von der technischen und sprachlichen Genese des Mediums bestimmt sind. Die Verantwortung für den richtigen Spracheinsatz liegt deshalb nicht bei den Herstellern von Redaktionssystemen, sondern bei den Medien selbst. Es ist Aufgabe der Medien zu erkennen, welcher Kanal mit welchen sprachlichen Mitteln bedient wird und wie crossmediale Kommunikation funktioniert. Crossmedia Publishing ist also keine Frage der kanalisierten Vermarktung und Distribution von Inhalten, sondern eine redaktionelle Aufgabe. Jürg Häusermann 028 Titel • Paid Content Kleinvieh macht auch Mist „Bezahlinhalte“ bereiten den Verlagen seit Jahren Kopfschmerzen. Wer wann wo für was bezahlt, darüber gehen die Meinungen ausMarion Freudenschuss Florian Stahl einander. Mit neuen Arten, im Netz zu bezahlen, wachsen aber wieder die Chancen derer, die mit Inhalten Geld verdienen wollen. Informationen und Medieninhalte werden seit Jahren nicht mehr überall kostenfrei angeboten. Die rein werbefinanzierten Angebote erhalten von so genannten Bezahlinhalten Konkurrenz. Qualitativ betrachtet. Nicht nur die viel diskutierten Angebote von MP3s zählen dazu. Nachdem große Zeitungshäuser die ersten Erfolge verzeichnen, versuchen zunehmend kleine Verlage, Nachrichten und Artikel kostenpflichtig zu verkaufen. Selbst Wetterinformationen sind nicht mehr überall kostenfrei - die Qualität der Daten bestimmt den Preis. Kritische Medientheoretiker und Internetnutzer diskutieren schon länger über das Recht auf kostenfreie Informationen. In Foren und Blogs wird es für sie zum Grundrecht der User. Es darf aber nicht vergessen werden, dass Paid Content so alt ist wie das Internet. Denn bei wissenschaftlichen, technischen oder medizinischen Informationen als auch bei Finanzthemen gab es noch nie Zweifel, dass Inhalte auch kostenpflichtig sein – müssen. Ist das den Kritikern nicht klar? Jetzt, da sich bezahlte Inhalte durchsetzen, scheint es. Und es zum Thema Anbieter von Zahlungssystemen: ALBIS Zahlungsdienste GmbH www.albis-zahlungssysteme.de • Deutsche Telekom AG www.t-pay.de • FIRSTGATE AG www.firstgate.de • in medias res GmbH www.geldhandy.info • NetDebit GmbH www.netdebit.de • PayPal Ltd. www.paypal.com • SYNAPSY Mobile Networks GmbH www.synapsy.de • TeleCash KommunikationsService GmbH www.telecash.de • Telekurs Card Solutions GmbH www.saferpay.com • Vodafone D2 GmbH www.vodafone.de • Wapme Systems AG www.simcash.de • Wire Card AG www.wirecard.de • WorldPay Ltd. www.worldpay.com geht weniger um die Art des Contents als vielmehr darum, welchen Anforderungen die Angebote von Paid Content genügen müssen. Zweifelsfrei bedeutet die Umsatzentwicklung im Internet für die Unternehmen und Konsumenten eine große Chance: qualitative hochwertige Informationen und Medieninhalte in den unterschiedlichsten Ausgabekanälen darzustellen und überall abrufen zu können. Was ist eigentlich alles Paid Content? Paid Content umfasst nach Auffassung der Autoren jegliche kostenpflichtigen digitalen Inhalten in rein digitalen Medien. Beispiele sind das Word Wilde Web oder mobile Endgeräte (SMS, WAP). Paid Content ist dabei nicht gleich Paid Services. Digitale Inhalte unterscheiden sich von digitalen Services dadurch, dass sie weiterzugeben und auszutauschen sind. Digitale Inhalte lassen sich ohne Qualitätseinbußen von mehreren nutzen. Digitale Services haben dagegen den Charakter eines Rechtes, das ausgeübt wird, jedoch nicht weitergegeben werden darf. Mit dem Weitergeben verliert der Käufer das Recht der Ausübung. Boumans (Electronic Media Reporting) klassifiziert Paid Content nach dem Preis und der Anzahl Nutzer. Er unterscheidet zwei Top-Kategorien: Informationen für Geschäftskunden (zu denen wissenschaftliche, technische und medizinische Inhalte als auch die große Menge an Finanz-, Management- und Industrieinhalten zählen) sowie Informationen für Privatkunden. Weiter unterscheidet er nach Informationen für Nischen-Konsumenten (Inhalte zu Gesundheit, Computer) als auch Informationen für Massen- 029 0 5 10 15 20 25 30 % Anteil Anbieter Arts & Media % Anteil Kunden % Anteil der Verkäufe Business % Anteil Umsatz Computers Games Verbands Deutscher Zeitschriftenverleger (VDZ) hängt das mit der langen Nutzungsdauer der nicht aktualisierbaren Inhalte zusammen. Je länger die Nutzungsdauer ist, desto schwerer die Werbefinanzierung. Werbung stellt an den Inhalt den Anspruch der Aktualität. Formate mit geringem Werbepotenzial geben so betrachtet keine Alternative zu Paid Content. Health Tendenz zu bezahlten Inhalten Home News Recreation References Science Society Sports Adult Shopping Quelle: Institut für Medien- und Kommunikationsmanagement, St. Gallen • Grafik: c//mag Verteilung der Anbieter, der Kunden, der Anzahl der (Verkaufs-) Transaktionen und des Umsatzes auf einzelne Kategorien markt (Zeitung, Zeitschriften, Musik, Filme). Ein anderer Ansatz, Inhalte zu gliedern, ist der des angebotenen Formats (Text, Audio, Video, Grafik, Bilder) oder des Themas (Business, Computer, Games, Gesundheit, Nachrichten, Erholung, Nachschlagewerke, Wissenschaft, Sport, Adult-Entertainment). Die Diskussion, das wird klar, dreht sich bei Paid Content im Wesentlichen um zu bezahlende Inhalte für den privaten Konsum - nicht für Business Contents. verschiedene Erlösmodelle Informationen und Medieninhalte werden über unterschiedliche Erlösmodelle angeboten. Werbung oder das kostenpflichtige Angebot sind nur Beispiele. Auch eine staatliche Finanzierung der Informationsproduktion wie beispielsweise bei der Veröffentlichung von Gesetzestexten ist denkbar. In diesem Zusammenhang muss auch erwähnt sein, dass Paid Content nicht für alle digitalen Informationen sinnvoll ist. Es gibt Formate, die aufgrund geringer Zahlungsbereitschaft gar nicht oder nur zum Teil finanziert werden können. Umgekehrt existieren Formate, die nur kostenintensiv zu erstellen sind - für die Werbung keine Alternative zur Refinanzierung darstellt. Nach einer Studie des Im Internet ist der Wandel von kostenfreien zu kostenpflichtigen Angeboten festzustellen. Grund dafür sind die sich verändernden ökonomischen Rahmenbedingungen. Das hängt mit dem Rückgang der Werbeausgaben als auch mit den neu verfügbaren Technologien zur Abrechnung und dem Schutz der Angebote selbst zusammen. Aus ökonomischer Perspektive werden Informationen kostenpflichtig angeboten, wenn sie über drei Eigenschaften verfügen: Einzigartigkeit, Exklusivität und ein usabilitygerechtes Angebot. Die Einzigartigkeit von Informationen und Medieninhalten ist durch das ökonomische Instrument der Preis- und Produktdifferenzierung zu erzielen. Ein usabilitygerechtes Angebot von Paid Content hängt eng mit dem jeweiligen Abrechnungsverfahren und dem Micropayment-System zusammen. Die Exklusivität der Informationen verleiht dem Anbieter eine Marktmacht, die ein kostenpflichtiges Angebot erlaubt. neue Technologien ermöglichen neue Abrechnungsmodelle Neben den ökonomischen Voraussetzungen spielen Technologien eine große Rolle. Und seit 2000 ist ein Wandel der Geschäftsmodelle feststellbar. Im Internet existieren Micropayment-Lösungen und Technologien für das Digital Rights Management. International betrachtet - mit grossen Unterschieden bei den Mechanismen der Micropayment-Lösungen. In den USA, wo seit Mitte der 90er Jahre verschiedene Informationen und Medieninhalte digital und kostenpflichtig angeboten werden, dominiert neben PayPal die Bezahlung per Kreditkarte. Europa und insbesondere Deutschland sind dagegen weltweit führend bei Bezahlverfahren der Micropayment-Anbieter. Dazu später. In den USA bedeutet die Abrechnung über Kreditkarte für Anbieter von Informationen hohe Gebühren. Nicht zuletzt deshalb setzten sich in Amerika zur Abrechnung Abonnement-Modelle durch. Dabei wird nicht der Einzelbeitrag, sondern ein ganzes Abonnement inklusive Recerchemöglichkeiten zeitlich gebündelt und der Betrag via Kreditkarte 030 Titel Pay per Click 53% 12% 6% Pay per Click und Club/Membership höchste Umsatz pro Transaktion jedoch wird nicht mit Adult-Entertainment-Inhalten, sondern bei Online-DatingAnbietern realisiert. Das liegt an deren Abonnement-Abrechnungsmodell. Prepaid per Click/Use Fazit 4% Club/Membership Prepaid per Minute 21% 3% Pay per Click und Prepaid Quelle: Institut für Medien- und Kommunikationsmanagement, St. Gallen • Grafik: c//mag Formen der Abrechnung: Verteilung der Angebote entsprechend der angewendeten Abrechnungsverfahren. abgerechnet. Gleichzeitig bedeutet dies, dass Informationen, die nicht im Abonnement bezogen werden und sich nicht über Werbung finanzieren lassen, in den USA bis heute nicht digital angeboten werden. In Europa hingegen sind Abrechnungsmodelle wie Pay per Click, Pay per Use oder Pay per Unit dominierend. Das liegt daran, dass verfügbare Micropayment-Technologien wie „Switch-Point“ in den Niederlanden, FIRSTGATE in Deutschland und deren „Click&Buy“-Allianzen in ganz Europa eine kostengünstige Abrechnung selbst von Kleinstbeträgen ermöglichen. Der Unterschied zu den USA liegt darin, dass der Betrag nicht bei den einzelnen Konsumenten über die Zeit, sondern über die Anzahl der Transaktionen bei verschiedenen Anbietern kumuliert wird. Da das Angebot von Informationen aller Art eine einfache Weitergabe der Güter ermöglicht, ist für das kostenpflichtige Angebot im Internet ein funktionierendes Digital Rights Management (DRM) notwendig. Die Technologien des DRM erlauben es, das Copyright zu schützen, was insbesondere bei dem kostenpflichtigen Angebot der Paid-ContentKategorien Musik und Video von zentraler Bedeutung ist. Erfolgreiche Geschäftsmodelle von Paid Content auf mobilen Endgeräten sind im Wesentlichen Klingeltöne, Begrüßungstöne oder auch Hintergrundbilder. Neue Technologien wie UMTS oder WI-FI oder WLAN werden jedoch Voraussetzungen für neue Geschäftsmodelle - insbesondere den kostenpflichtigen Download von Musik- und Videodateien - schaffen. Das Angebot von kostenpflichtigen digitalen Informationen und Medieninhalten auf Netzwerken wie dem Internet oder den Netzwerken von Mobile Operators ist nicht neu. Anders als von Medientheoretikern angenommen ist die Bereitschaft der Konsumenten hoch. Neu ist, dass Medieninhalte für den privaten Massenmarkt kostenpflichtig und digital über das Internet unter dem Begriff „Paid Content“ vertrieben werden. Nicht nur die Anbieter freuen sich über die bereits erwirtschafteten Umsätze. Auch die Konsumenten erkennen die Vorteile. Für sie gilt: Hochwertige Informationen sind zeit- und ortsunabhängig verfügbar. Die Vision, die 1995 die beiden amerikanischen Wissenschaftler MacKie-Mason und Varian formulierten, wird Realität: „For the full potential of the Internet to be realized it will be necessary to develop methods to charge for the value of information services available on the network.” Marion Freudenschuss Studierte Betriebswirtin, Promotion an der Universität St. Gallen und Wien, stellvertretende Geschäftsführerin der W4 Services GmbH. Segment Manager Residential Business bei Swisscom Mobile. Wer bezahlt was wofür? Unter den zahllosen digitalen Angeboten für den privaten Konsum sind Musik, Online-Games, Online-Dating, Online-Nachrichten und Adult Entertainment im Internet sowie Klingeltöne, Bilder und Adult Entertainment auf mobilen Endgeräten die dominanten Geschäftsmodelle. Das meiste Geld wird derzeit mit Adult Entertainment verdient, gefolgt von Online-Games und Musik. Der durchschnittlich Florian Stahl Studierter Betriebswirt an der Universität Zürich. Promotion an der Universität St. Gallen. Zur Zeit an der Columbia Business School, Columbia University, New York. 031 Was die Anbieter schreiben Crossmedia Publishing ist mehr als die Auslieferung und Mehrfachverwendung von Daten in On- und Offline Welten. Häufig spricht man in diesem Zusammenhang auch von Single-Source-Publishing. Hersteller von DTPSoftware haben reagiert und integrieren ausgereifte Import-Möglichkeiten auf XML-Basis. Häufig ist sie aber aufgrund fehlender strukturierter Daten nicht wirklich einsetzbar oder erfordert hohe manuelle Nacharbeit. Die Anforderungen an Publishing-Systeme haben sich stark gewandelt. Zur Print-Welt ist das Publizieren von Audio-Daten hinzugekommen. So genannte Podcasts sind Trend geworden. E-Paper ist - neben der Webseite - ein Muss für jede Publikation. Lösungen für die crossmediale Publikation von Leserbeiträgen und -meinungen sind der logisch nächste Schritt, so Matthias Tausenpfund von der Tomorrow Focus AG, München. Ein erfolgreiches Instrument zur Abbildung von Crossmedia-Publishing-Konzepten ermöglicht es, Inhalte unabhängig vom Layout zu erfassen und zu verwalten. Im Rahmen des Publikationsprozesses werden die Inhalte dann für die unterschiedlichen Darstellungskanäle bereitgestellt. Hierzu zählen Internet, Newsletter, Printpublikationen, Teletext und mobile Anwendungen. Wichtig ist uns die vollständige Integration neuer Funktionen in bereits bestehende Infrastrukturen. Zur Realisierung der unterschiedlichen Szenarien ist in der Regel eine prozessorientierte Herangehensweise erforderlich, findet Christian Batz, Vorstandsvorsitzender der Imperia AG. Um am Markt bestehen zu können, ist Crossmedia Publishing unumgänglich. Die medienneutrale Speicherung von verschiedenen Inhalten hat mit dem Internet an Bedeutung gewonnen. Sie ermöglicht die Wiederverwertung und eine daraus resultierende Kosten- und Zeitersparnis. Der steigende Konkurrenz- und Preisdruck im Printgewerbe verdeutlicht den Trend. Die Entwicklung von Crossmedia Publishing geht in Richtung webbasierender Systeme. Eine wichtige Rolle spielen dabei Schnittstellen und XMLTechnologien. Die Zukunft ist vom Zusammenspiel der einzelnen Komponenten geprägt, so Peter M. Hofer, CEO mediamid digital services GmbH, Wien. �������������������� �������������������������������������������������������������������� �������������������������������������������������� ���������������������������������������� ������������������������������������������������ ���������������������������������� ������������������� �������������������� ����� ��������������������� �������������������������������������������� �������������������������������������������������������� �������������������� ��������������������������� ������������������������� ��������������������������� ������������������������� ����� ����������������������������������������������� �� � � � ���������������� ����� ������������������� �������������������� ��������������������������� ������������������������� ������������������� ausgegraben ... Six Offene Systeme GmbH Sielminger Str. 63 79771 Leinfelden-Echterdingen Fon 0711-99091-0, Fax 0711-99091-99 [email protected], wwww.six.de InterRed GmbH Marienborner Str. 25 57074 Siegen Fon 0271-30377-0, Fax 0271-2390591 [email protected], www.interred.de NOEO OHG Des Inhalts liebster Zustand: crossmedial. Feldstr. 57c 82140 Olching Fon 0700-0666-7000, Fax 08142-449222 [email protected], www.noeo.de Enterra Software GmbH Wernher-von-Braun-Str. 4 69214 Eppelheim Dem Inhalt sind Ausgabemedien schnuppe. Er braucht eine strukturierte, medienneutrale Datenhaltung. Entsprechende XML-Editoren und –Schnittstellen. Damit entscheiden die Anbieter selbst – ob das Printmedium oder Onlinemedium die Führung übernimmt. Die Eingabe ist immer gleich: am Computer. Die Inhalte werden übergeben. Der Anspruch aller Anbieter: die „Produktionsstraße“ flexibel an den Produktanforderungen ausrichten. Mit Lösungen, wie sie von den nebenstehenden Unternehmen angeboten werden. Fon 06221-75218-0, Fax 06221-7379707 [email protected], www.enterra.de mediamid digital services GmbH Alserstraße 44/6-7 1090 Wien, Österreich Fon +43(1)955-1444-12, Fax +43(1)955-1444-20 [email protected], www.mediamid.com TOMORROW FOCUS AG Steinhauserstr. 1-3 81677 München Fon 089-9250-1256, Fax 089-9250-1515 [email protected] www.tomorrow-focus.de Galerie Besser parken. München, Hamburg, Köln - Hennef, Stuttgart, Berlin. Die IT-Landkarte in Deutschland besteht aus Ballungszentren und vereinzelten Einschlüssen in den weißen Flecken. Und temporären Clustern: den Messen und Kongressen. Dann machen sich die Vorstände, neudeutsch CEOs, die Geschäftsführer und Vertriebler auf den Weg. Zum Beispiel nach Essen. Anders als bei solchen Gelegenheiten sehen die alltäglichen Wege aus. Kürzer, aber nicht unbedingt stressfreier. Wer in München wohnt, versucht seit Jahren vergeblich, die Großbaustelle Allianz-Arena und Mittlerer Ring zu umfahren. Dabei wird entpuppt sich manche Abkürzung als Alptraum. So wird der Parkplatz vor der Firma zum ersehnten Hafen, Ruhepol nach der Staufahrt. Allein dafür lohnt es sich, Chef zu werden: für den sicheren Parkplatz. Und nicht noch zehnmal um den Block fahren zu müssen. Dabei nimmt, wie wir in unseren Gesprächen erfahren haben, die ein oder andere kalorienbewusste Führungskraft statt des Aufzugs gerne die Treppe. Oder kommt gleich mit dem Fahrrad. Wir haben von unseren Besuchen ein paar dieser Plätze mitgebracht. Arbeitstitel: „hier parkt der Chef“. Mal unspektakulär, mal überraschend. 033 034 Gallerie 27. Juli, 11:41 Uhr. Hennef liegt im Kreis Siegburg. Dort gibt es das schöne Kennzeichen SU – was lokale Autofahrer gerne mit „Sau unterwegs“ übersetzen. 1. August, 15:22 Uhr. Gescher in Berlin. Überall Volkswagen – am Markenbild von VW hat der Autokanzler zwei Legislaturperioden gearbeitet. 035 12. Juli, 17:13 Uhr. München. Der Abrieb der Reifen lässt auf eine sportliche Fahrweise schließen: Bridgestone oder Michelin? 1. Juli, 10:11 Uhr. Hier parkt eine gesundheitsbewusste Führungskraft, die nicht den Aufzug benutzt, sondern Treppen steigt. Zwei mal fünf Minuten Workout frei Haus jeden Tag. 036 Gallerie 30. Juni, 13:34 Uhr. Langweilige Familienautos waren gestern. Dieses Münchner Exemplar sollte man der Post empfehlen. 21. Juli, 10:51 Uhr. Harald Schmidt fährt auch Jaguar. Wir sind aber in der Schwabenmetropole. Um so überraschender, keinen Daimler vorzufinden. 037 24. Juni, 13:39 Uhr. Hier erkennt man den Chef am hochgekrempelten rechten Hosenbein. Der Anzug für offizielle Anlässe hängt im Büroschrank. 30. Juni, 11:25 Uhr. Wenn das Auto in der Werkstadt steht. DMS Hallen 1 und 2 / Hall 1 and 2 038 Digital Management Solutions Europas führende Fachmesse und -konferenz für Enterprise Content- und Dokumentenmanagement Schwerpunkt 27.-29. Sept. 2005, Messe Essen Stand / as of: 29.08.2005 Restaurant Vertical Spot 32m² 8 234m² Forum ITC 3 9 2035 5 26 17,5 70m² 12m² AG 4 LIB Kisters 12m² Headway 12m² 4 Infopark 1050 200m² 10 40m² 1040 Red dot 8 48m² 4 5 14,5 Deutsche Post 7,5 8 1010 1002 4 1000 3,5 3,5 4 14m² D.velop 1015 4 14m² HSP 1003 1005 5,5 Cendris 36m² 2205 4 2,3 4,7 17,5 5 18 4 8 Telekopie 32m² m 83 ² L 2300 10 30m² Itesoft 1490 1495 1498 7,5 5 4 4 4 20m²20m² Arexera 5 Forcont 5 1360 Nestor B L.V.D. Gierke C 48m² 1470 8 11 15 1350 3,5 6 1530 120m² 1320 1323 1325 9 36m² BancTec 1425 1500 4 16m² Dokument Dialog 13 11 24m² BTA 1595 6 48m² 2500 32m² Profi20m² forms Streamserv Research Engineers 1520 1596 8 1690 5 9,5 10 1100 8 5 20m² 2840 8 32m² 4 2830 4 13 daa 13 1655 12 3 Compart 9 VOI Forum 42m² 126,5 26m² 2810 INCOM 36m² 130m² 1620 5,5 Veranstalter: 2610 4 1740 VOI 63m² 1760 6 2805 8 11 44m² 2800 Invaris 1890 1895 3 3 6 4 9,5 72m² 1775 9 9 10 20,5 4 CMPWEKA 18m² 1770 14,5 Captiva 3 4 Beta Systems 1570 117m² 1650 4 2738 12m² 16m² Center 16m² IS-Report 60m² Kodak IBML 8 3 2 4 tools 2700 2600 2705 4 7 1531 5 4 12 9 12m² 2730 50m² 10 204m² Media IT Verlag 16m² 16m² Group Technologies mid 2405 13 6,5 3 Unthan 12m² 10 Imaging 4 2732 10m² Captaris 6 24m² 2860 5 20m² 2850 5 ELO 12 100m² 2510 DICOM 1560 8 7 4 Open Text 10 7,5 1590 1593 5 4 22 10 2630 2750 15 20m² 15m² Datawin H&T 80m² 10 100m² 15 9 2307 2400 2403 1460 120m² 5 2532 60m² 6 G 10 2650 Microsoft Readsoft E F B&L PDV DoWindream cu- Konica Minolta tec 20 m² 13m² DOG 3,5 Vignette jdk 2565 4 I 10 2780 7,5 Fachpresse 100m² Stand 16m² 2560 4 6,5 5 38m² 4 Mobius 4 R.O.W. 220m² BancTec 5 D SIACON 16m² 1473 1475 Heilig & Schubert 2564 H SAP 2305 16m² 2567 26m² 27m² 2410 9 4 5 4 5 15m² F+G 5 DCS 7 wissensmanagement 2563 FormScape 3 2420 2302 40m² J K 12 Stellent 6 9 Kühn & ISIS 5,5 Weyh Papyrus 33m²1330 50m² 1335 8 1115 Lufthansa Systems 3,7 , 12 170m² 50m² 1008 80m² 270m² OCE 17 9 15 10 FileNET 1255 126m² Saperion 10 GFT 5 EMC Documentum 12 12,3 12 16,8 A M 4 2 Mail 6.25m² tec Dr. Binner Consulting Corner 2430 105m² 16m² 20m² FTD Snowbound 175m² P 4 com merce 5 55m² 1220 1130 216m² 2 Ortec 3 27 18,5 32m² 1275 121m² IBM 324m² 2100 Fujitsu 11 8 12 1055 1030 1035 6 4 8 40m² Avision 5 1020 5 InoTec O Document Sciences Corporation 5,5 Plustek 1001 3 7 5 I.R.I.S. 1172 AL 24m² 1060 1173 4 1180 75m² 1073 A2IA 16m² 4 1171 5 Elsag Group 1 3 6 Anydoc Abbyy 6 1070 1170 23m² 42m²1175 48m² 1270 6,5 7,5 4 11m² Exstream 9m² 13,5m² Pride 33m² 5 30m² 18 3 4 N Hewlett Packard 3,5 2310 9 10 MACH AG S Step one 12m² 4 1080 1065 2 4 12 Decodetron 52,5m² GID 26m² Microform 4 24m² 1395 1390 6 6,5 11 24m² 20m² Meta Archiv16m² Europ. Zeutschel SCP 12m² 4 depot Reseller KGS 15m² 1190 1192 1195 1197 1200 4 5 5 5 4 15 4,5 3 IT 1095 1090 3 6,5 24 O 20m² 2680 12 12 10 4 Six Offene Systeme 2000 3 2210 6 2355 15 Insiders 10 “Das digitale Büro” 2350 8 60m² 2015 4 10 5 TIS 5 Itella 10,5 2213 40m² 2215 273m² Präsentation 5 7 5 21m² 20m² D-Trust Behrens Taube 4 20m² AIIM 2245 3 2322 2240 International 8 48m² Exchange 20m² 4 Intarsys 4 IQDoQ 2320 2325 48m² 2230 6 12 5 20m² Ceyoniq 10,5 Scanpoint 1081 4 8 4 Doc 9m² stream 2012 80m² Hummingbird Exor 9m² 3 3 Seman 9m² byte tec 2250 2255 3 3 EASY 9 2 4 Competence 13 Spot 2480 Getty2562 15 Pressezentrum VIP Lounge 7 2280 2285 2262 9m² 9m² FCT PBS 3 2260 2265 26 2030 4 12m² 3 2055 2050 büro 10 Decos Ontaris VOI 200m² 60m² Chef15m² 2180 10 6 24m² Umicore Messebüro 4 28m² 7 70m² 20 4 Servotech 16m² 2053 3 3 Planet 4 12m² 2010 T- Systems 2290 7 13 20m² 2080 12 2070 4 3 23,5 V 14,5 O I 1778 039 • Rückblick DMS Expo Danke, Essen Kilo-, Mega-, Gigabyte. Stuttgart, Essen, Köln. Stationen auf dem Weg zu einer europäischen Leitmesse für DokumentenManagement. Rückblick. Am Anfang war das Magazin. Das Objekt hieß „Gigatrend“, erschien 1986 zum ersten Mal und wurde 1991 vom Fachverlag für Büro und Organisationstechnik (FBO) in BadenBaden gekauft. Dort gab es schon ein Heft namens „Mikrodok“, ein Heft, das sich mit Mikrografie befasste. Und weil die Themen sich ergänzten, entstand die „Infodok“, ein Magazin über „Information und Dokumentation“. Chefredakteur des alten und neuen Titels war Gerhard Klaes, vielen bekannt als Initiator und langjähriger Organisator der DMS Expo. „Die ersten Überlegungen, etwas mehr für die Branche zu tun, gab es so um 1993“, erinnert sich Klaes, „einen Kongress zu dem größer gewordenen Themenfeld.“ Er war es, der 1993 den „Infodok-Kongress“ in Sindelfingen initiierte, den Vorläufer der DMS Expo. Inzwischen hatte sich 1991 der Verband Organsiations- und Informationssysteme (VOI) gegründet. Zusammen mit Klaes überlegte der VOI, wie der Verband nach vorne zu bringen sei. Treibende Kräfte dabei: Gerhard Klaes und Dr. Klaus Engelhardt. Der VOI betreute als Träger die Inhalte. Bei dem ersten zweitägigen Kongress waren 20 Unternehmen aus dem Bereich Mikrografie und Retrieval präsent; insgesamt 120 Kongress- Teilnehmer, die dort Technologien und Lösungen kennen lernen wollten. Ein guter Start, um mehr daraus zu machen, wie Klaes damals befand. 1995: die erste „echte“ DMS Erfahrungsgemäß bleibt alles anders. 1995 wurde der FBOVerlag von Gabler gekauft. Auf einmal gehörten Magazin und Kongress zum großen Bertelsmann Konzern. Aus den vielen Ideen, wie die Themenlandschaft und die Leser-BlattBindung auszubauen sei, wurde nichts. Gabler hatte zwar artverwandte Themengebiete, wollte sich aber nicht richtig an dem Kongress engagieren. Der erwartete Rückenwind blieb aus. Gabler konzentrierte sich, so würde man heute sagen, auf sein Kerngeschäft. Und so wurden Klaes zumindest keine Steine in den Weg gelegt, als er mit seiner eigenen Firma Compunication startete. Unter eigener Regie baute Klaes den Infodok-Kongress zu einer Messe um: zu der DMS Expo. Die erste „echte“ DMS fand 1995 auf der Stuttgarter Messe statt. Kein einfaches Unterfangen, überhaupt dort unterzukommen. Als Termin wurde die Zeit nach den Fe- 040 Schwerpunkt rien gewählt. Das begrüßten vor allem die Aussteller, denn erfahrungsgemäß beginnt im Spätsommer das Jahresendgeschäft. Außerdem ist damit der zeitliche Abstand zur CeBIT groß genug. Wenig Konkurrenz, viele Aussteller Konkurrenz gab es damals in Deutschland wenig, höchstens durch International Media Communication (IMC). Der IMC ist eine US-Messe, die in Europa an wechselnden Standorten Kongresse veranstaltete. Das Hin und Her war nicht im Interesse der Aussteller. Und dafür war der IMC zu teuer. Es gab auch keinen zeitlich fixierten „follow up“ für die Kongresse. Da der nächste Kongress des IMC erst für 1997 geplant war, blieb für die DMS Expoausreichend Zeit, die Messe zu etablieren. Nach dem Erfolg der ersten DMS Expo 1995, mit rund 120 Ausstellern und guten Besucherzahlen, wurde der Standort Stuttgart im folgenden Jahr zu einem Problem. Zeitgleich sollte in Stuttgart eine Messe zur Metallverarbeitung stattfinden. Kurzerhand lud die Stuttgarter Messe im Februar 1996 die DMS Expo aus. Glücklicherweise befand sich die Schwabenmetropole mitten im Wahlkampf. Innovationen waren „in“, und so konnte beim damaligen Oberbürgermeister Rommel die Entscheidung eine Woche später wieder rückgängig gemacht werden. Im Herbst 1996 fand die Messe zum zweiten Mal statt - allerdings ohne jegliche Unterstützung der Stuttgarter Messe-Leitung. „Da haben wir uns nach einem neuen Veranstaltungsort umgesehen - und ich habe den Marketingchef der Essener Messe, Elmar Braun, zu uns eingeladen. Ich fragte ihn, ob das nicht etwas für ihn wäre.“ Und die Idee sagte ihm zu. Im selben Jahr gab es den direkten Vergleich zum IMC, der in Düsseldorf stattfand und nicht unbedingt gut organisiert war, so die weit verbreitete Meinung. Wegen der eklatanten Mängel fiel der direkte Vergleich zwischen den beiden Veranstaltungen eindeutig zu Gunsten der DMS Expo aus. Und zwar so gut, dass die Organisatoren schon frühzeitig die gesamte Standfläche der DMS 1998 verkauft hatten. von null auf hundert in sieben Jahren „Das war der eigentliche Startschuss für die Messe“, so Klaes, „wir haben ab da bis 2001 jedes Jahr die Messefläche fast verdoppeln können.“ Und zwar auf annähernd 30.000 Quadratmeter im Jahr 2001. Wer einen Namen im Markt hatte, war dabei. Es war die Zeit, in der, wer etwas auf sich hielt, an den Neuen Markt ging. Die Zeit des Hypes, der internetbasierten Geschäftsmodelle und Innovationen. SER, Ceyoniq, IBM, Agfa, FileNet, EASY – die DMS wurde zum Branchenereignis. Es entstand der Begriff der „europäischen Leitmesse“: zurecht, wenn man sich die Ausstellerlisten aus dieser Zeit anschaut. Im Marketing hatte man in dieser Zeit unkonventionelle Ideen ausprobiert. Wie 1999, als die Messe handgeschriebene 50.000 Postkarten mit einem Motiv von der Ostsee verschickte. Die Karten waren nach China geschickt worden, wo der vorgegebene Text in Handarbeit Karte für Karte abgeschrieben wurde: „Lieber Klaus, viele Grüße aus dem Urlaub. Vergiss bitte nicht, dich auf der DMS anzumelden.“ Gerhard Klaes erinnert sich: „Das war der Knaller schlechthin. Wir hatten damals beim Statistischen Bundesamt nachgefragt, welches in der Altersgruppe zwischen 25-45 Jahren der am meisten verbreitete Vorname ist. Die Altersgruppe deckte sich in etwa mit unserer Zielgruppe. Nach der Aussendung bombardierten uns Anfragen. Welchen Klaus wir meinen, wo wir das haben machen lassen und so weiter.“ Parallel zu der Aktion gab es eine begleitende Website: Wer ist Klaus? Mit Informationen zur Aktion und natürlich zur 041 größten Aussteller der vergangenen Jahre ins Trudeln. Von einem Tag auf den anderen fehlte ein Drittel der Messefläche. Es kam zu einem Domino-Effekt, gleich eine ganze Reihe namhafter Aussteller blieb fern. Zählte für die Branche 1999 und 2000 die Konferenz zur Messe noch zu den Jahreshöhepunkten, bei der sich aktiennotierte Unternehmen den Analysten präsentierten, herrschte jetzt Depression. unbefriedigende Entwicklung DMS Expo - in Essen. Nebenbei hatte sich 1997 die Gelegenheit ergeben, die Infodok vom Gabler Verlag zurückzukaufen. Das Magazin wurde neu ausgerichtet und hieß fortan „info21“. Als Magazin der DMS erschien es nicht nur zur Messe – es begleitete Aussteller und Besucher konstant durch das Jahr. Die beiden ergänzten sich: „Das Magazin passte zur Messe und umgekehrt“, sagt Klaes. 1999 der nächste Entwicklungsschritt, ein Partner aus den USA. Advanstart betreute 120 Messen und Veranstaltungen weltweit. Ziel der Amerikaner war es, in Europa zu wachsen. Anfang 2000 übernahm Advanstar die Messe, das Magazin und den Veranstalter, die „Gruppe 21“. 2001: Einbruch und Stagnation Es lief jedoch anders, als der Messeveranstalter und auch die Hersteller sich es gewünscht hätten. In Folge des Terroranschlags auf das World Trade Center stürzte die Börse ab und erholte sich bis heute nicht wirklich vom Crash. Was als „New Economy“ der Hoffnungsträger stetiger Innovation und Prosperität war, stellte sich als Luftschloss heraus. Anfang 2002 gerieten mit SER, EASY und Ceyoniq die drei Für den neuen Veranstalter waren in der Summe die Entwicklungen des Marktes und der DMS Expo unbefriedigend. Hinzu kam, dass es an der einen oder anderen Stelle mentalitätsbedingte Reibungen gab. Reibungen, die sich nicht schlichten ließen. Die vormals eher familiär betreute Messe wurde zum Profit Center ohne Kontakt zur Stimmung draußen. Insgesamt wurde zu wenig für die Hersteller getan, findet Klaes, der Ende 2001 Advanstar verließ. In den folgenden Jahren gab es verschiedene Anläufe, die Messe mit begleitenden Kongressen attraktiver zu gestalten. So richtete 2002 die AIIM einen Kongress aus, und der VOI begann, kleinere Packages anzubieten und seine Foren zu etablieren. Schließlich versuchte Advanstar 2004, eine eigene Konferenz auszurichten. Doch anders als in England oder den USA verfangen solche Vermarktungsmaßnahmen in Deutschland wohl nicht. Während in den angelsächsischen Ländern Konferenzen im Vordergrund stehen und Zugpferd für die Messen sind, ist es hierzulande umgekehrt. Schließlich wurde die DMS Expo , als sich Advanstar als Veranstalter komplett aus Europa zurückzog, an die koelnMesse verkauft. von Essen nach Köln Dort will sich die Messegesellschaft stärker im IT-Bereich positionieren. Während die ORGATEC immer deutlicher zu einer reinen Büromesse geworden ist, haben die Kölner mit der exponet und der CRM-expo zwei Messen im Portfolio, die überregionale Strahlkraft besitzen. In diesem Jahr liegt die koelnMesse mit der DMS Expo gut im Plan: Die Ausstellungsfläche in Essen wird geringfügig zunehmen, bei der Zahl der Besucher rechnen die Domstädter wieder mit knapp 17.000. Die Zahl der Aussteller übersteigt die 300erGrenze. Was wird sich nun ändern in 2006? Das Messegelände in Köln-Deutz wird die DMS Expo in einem anderen Licht erscheinen lassen. Und „Cologne“ ist internationalen Besuchern geläufiger als Essen. „You mean ... Essen?“ Ein Rest Wehmut bleibt. Aber die Kölner werden das schon machen. Die Messe liegt ja auf der richtigen Rheinseite. (uhe) 042 Schwerpunkt • Rundgang DMS Expo Im Westen was Neues Konsolidierung, Neuanfang, Kontinuität. Das trifft auf die DMS Expo zu. Viel Bekanntes, wenig wirklich Björn Negelmann Neues. Und doch lohnt sich der Besuch in Essen mit einem Stopp an dem ein oder anderen Stand. Den Vergleich mit der CeBIT oder der SYSTEMS braucht die DMS Expo nicht zu scheuen. Die Entwicklung in den Hallen 1 und 2 der letzten Jahre zeigt, dass sich die Messe substanziell weiterentwickelt hat. Jeder Anbieter von Rang und Namen ist vertreten. Das hat sich herumgesprochen. Anbieter und Hersteller von Software-Lösungen richten ihre Entwicklungszyklen und Produkt-Releases deutlich auf diesen Termin hin aus. Damit ist die Messe ein wichtiges Trendbarometer. Mit diesem redaktionellen Rundgang sammeln wir für Sie die wichtigsten Neuerungen ein. Ein Rundgang, der Appetit auf Essen macht. Saperion AG (H1 1115) Beim Zugang zur Messe kommt der Messebesucher seit mehreren Jahren nicht umhin, das gelb-orange Markenbild des Unternehmens SAPERION wahrzunehmen. Zur diesjährigen Messe präsentiert das Unternehmen „moderne Methoden zur effizienten Informationsverteilung und -bearbeitung. Die Methoden erlauben eine schnelle und automatisierte Weiterleitung an die richtigen Zielpersonen und Applikationen im Unternehmen“. SAPERION folgt damit als Anbieter einer umfassenden Infrastrukturlösung den ganzheitlichen Ansprüchen im Bereich der unternehmensweiten Dokumentenverarbeitung. Hier geht es nicht mehr darum, dass Dokumente elektronisch erfasst werden, sondern auch im Geschäftsprozess integriert sind. Im Fokus der Messepräsentation steht dabei das Modul SAPERION DocFlow, welches die integrierte Prozessmanagement-Fähigkeit des Lösungskonzeptes repräsentiert. www.saperion.de/de/ecm/aktuelles/eventkalender/dms_expo_ 2005.html d.velop AG (H1 1130) Nur ein paar Schritte weiter steht der Besucher am Stand eines anderen „Alteingesessenen“ der DMS Expo: die d.velop AG. Das Unternehmen stellt auf der Messe zahlreiche neue Funktionen des Systems d.3 vor. Neben mobilen Lösungen mit PDAs, BlackBerry und weiteren Handhelds stehen bei der Messepräsentation vor allem Unternehmensprozesse im Vordergrund, für die d.velop vorkonfektionierte Lösungen bietet. Hierzu gehören Postkorblösungen, die elektronische Rechnungseingangsprüfung sowie das Vertragsmanagement. Weiterhin informiert d.velop über Schnittstellen zur Microsoft-Business-Lösung Axapta für den Mittelstand, zu der ERP-Suite Bison, zu den Kommunikationslösungen von Tobit David sowie über die Integration und Recherche in MS Office 2003. www.d-velop.de/d.web/homepage/de/news/eventcalendar/ 20050927dms.shtml IBM Deutschland (H1 1255) Gleich am nächsten Stand kommt der Besucher zu einem der Schwergewichte im ECM/DMS-Markt. Unter dem Motto „INTEGRATE - MANAGE - ARCHIVE“ präsentiert sich 043 zum Thema Bei AuthentiDate (www.authentidate.de) und StreamServe (www.streamserve.de) geht es um elektronische Rechnungen. Die neue Lösung soll über ein herstellerneutrales, modulares Design verfügen und die Anbindung von ERP, CRM und Archivsystemen möglich machen. Nach der Fusion stellen die Beta Systems Software AG (www.betasystems.de) und Kleindienst erstmals gemeinsam aus. Neben den ECM-Lösungen werden Neuentwickungen der VIDiDOC-Suite gezeigt. Eine integrierte Lösung für Dokumentenmanagement, Vorgangsbearbeitung und Archivierung zeigt die MACH AG (www. www.mach.de). Der Web-basierte Web InformationManager hat neue Funktionen bekommen. mediamid digital services (www.mediamid.com) präsentiert sein rein Web-basiertes Media Asset Management. Außerdem sind die Österreicher mit Lösungen für Content Management und Portalen vertreten. Mit ihrem neuen Service-Angebot WebArchiv ist Scanpoint Europe (www.scanpoint.de) vertreten. Damit werden Dokumente revisionssicher ausgelagert. Technotrans (www.technotrans.de) zeigt, was docuglobe (www.docuglobe.de) mittlerweile kann. Mit dieser Lösung adressiert man kleinere und mittelständische Unternehmen. IBM mit seinen Business-Partnern vor dem Hintergrund eines ganzheitlichen Lösungsansatzes. Das Unternehmen zeigt aktuelle Enterprise-Content-Management-Lösungen für den „sicheren und kundenspezifischen Zugang zu Geschäftsdokumenten aus unterschiedlichen Quellen“. „So unterschiedlich die Probleme der Unternehmenskunden aussehen, sie alle fragen nach effizienteren Geschäftsprozessen und der Verbesserung des Kundenservice“, sagt Dr. Günter Scholz, IBM EMEA Segment Leader, Content Management Software. Mit leistungsfähigen und kundenspezifischen Lösungen für die Bereitstellung aller relevanten Kontextinformationen für Mitarbeiter, Partner und Kunden, die Dokumentation von Geschäftsinformationen, Archivierungslösungen für die Entlastung von SAP-Systemen oder Mail-Servern und nicht zuletzt zur Erfüllung gesetzlicher Anforderungen z.B. im Rahmen von GdPDU oder Basel II versucht IBM diese Probleme „aus einer Hand“ zu lösen. www-5.ibm.com/de/events/dms2005/index.html Adobe Systems (H1 1255) Mit am Stand von IBM zeigt Adobe Lösungen für die Erstellung, Verteilung, Verwaltung und Kontrolle elektronischer Dokumente. Wie weit die digitale Kette mittlerweile reicht, die ein Unternehmen mit PDF-Dokumeten organisieren kann. An der Sicherheit dieser Dokumente arbeitet Adobe mit weiteren Entwicklungen im Bereich der elektronischen Signatur. Gemeinsam mit IBM demonstriert Adobe die Erstellung, Verwaltung und Verarbeitung von Formularen in IBM-DB2-Content-Management-Umgebungen. www.adobe.de/aboutadobe/pressroom/pr/jun2005/Airbus.pdf EMC DOCUMENTUM (H1 1360) Schon halb auf dem Weg in die Halle 2 lässt sich am Stand von EMC Documentum über die Ausgestaltung des bisher noch überwiegend nur konzeptionell behandelten Ansatzes des „Information Lifecycle Management“ informieren. So hat EMC Documentum einen namhaften Branchenexperten auf den Stand eingeladen, um in exklusiven Beratungsgesprächen mit Kunden zum Thema Kostenreduzierung und Wirtschaftlichkeit durch den Einsatz von ECM zu diskutieren. Außerdem hält Roy Sanford, Vice President Markets & Alliances bei EMC, eine Keynote zum Thema „ILM Architectures to Enhance the Value of ECM“ auf der begleitenden DMS-Fachkonferenz. Technologisch zeigt das Unternehmen mit der Enterprise-Content-ManagementLösung EMC Documentum 5.3 „die weltweit erste ECMPlattform, die auf einer einheitlichen Architektur basiert“. Sie bietet Anwendern neue Services, die über die klassischen Content-Management-Funktionen wie Datenerstellung, verwaltung und -speicherung hinausgehen. Dazu gehören unter anderem Prozess- und Collaboration-Services sowie die Datensuche über verschiedene Repositories. www.documentum.de/news_events/news/pr2005/12_ DMS.htm Ceyoniq Technology GmbH (H2 2015) Kommt man über den wichtigsten Zugang in Halle 2, so ist an dem zweistöckigen Messestand der Ceyoniq Technology GmbH kein Vorbeikommen. Nachdem im letzten Jahr die überarbeitete Infrastruktur n scale vorgestellt wurde, steht der diesjährige Messeauftritt deutlicher im Zeichen der Anwendung. Neben Ceyoniq präsentieren dabei auch die Ceyoniq-Partner wie die IT-Unternehmen advice IT Consulting, Dynevo, Foxray, Havi Solutions und IP Systeme verschiedene Branchenlösungen, die auf Basis der n-scalePlattform umgesetzt wurden. Darüber hinaus erhält der Messebesucher einen Einblick in die neue n-scale GDPdU Edition zur Abbildung aktueller steuerrelevanter Anforderungen. www.ceyoniq.com/de/ueberct/events/dms2005/dmsaktion.cfm EASY SOFTWARE AG (H2 2030) Gleich nebenan bei der EASY SOFTWARE AG bilden anwenderorientierte DMS-Lösungen für alle Branchen und Unternehmen den Schwerpunkt. Dabei wird der gesamte Dokumentenfluss eines Unternehmens abgebildet - von der Erfassung über die Workflow-basierte, abteilungsübergreifende Bereitstellung auf verschiedenen Plattformen und Arbeitsumgebungen bis hin zur endgültigen revisionssicheren Ablage. Im Zuge dessen werden auch zahlreiche 044 Schwerpunkt Neuheiten vorgestellt, darunter die Produktversionen EASY ENTERPRISE.i 3.50 sowie EASY ENTERPRISE.x 2.0, die beide ab Oktober 2005 erhältlich sein werden. www.easy.de/dyn/epctrl/con/easy002101/cat/easy002056/ mod/easy002006/pri/easy AIIM (H2 2325) Die AIIM (The Association for Information and Image Management) versteht sich als “the international authority on Enterprise Content Management (ECM). We represent users and suppliers of the tools that capture, store, manage, preserve and deliver content in support of business processes”. Für die AIIM ist die DMS Expo „a must attend date and venue for IT decision makers and providers in information and document management“. Auf dem AIIM-Stand kann sich der Besucher über die wichtigen internationalen Trends und Entwicklungen im ECM/DMS-Sektor informieren und Kontakte im Rahmen des „International Exchange“-Programmes knüpfen. www.aiim.org.uk/events/dms/dms.asp GFT Solutions (H2 2302) Nach der AIIM geht es zur GFT Solutions, die mit der neuen Lösung GFT InSpire eine leistungsfähige Lösung zur Abbildung von Geschäftsprozessen außerhalb des klassischen Dokumentenmanagements vorstellt. Im Fokus steht das Thema der Integration von Dokumenten im Rahmen des Business Process Management. Gemeinsam mit Partnern stellt das Hamburger Unternehmen beispielhafte Anwendungen aus dem Produktportfolio vor. http://www.hyparchiv.de/index.php?site=245894e41ba708b77 e2fa6ba1cdcbfbd&event=24 Microsoft (H2 2630) Auch wenn Microsoft kein eigenes Archiv-Backend im klassischen Sinne aufweist, so bietet es doch verschiedene Infrastruktur-Services, welche die zentralisierte Ablage, Verwaltung und Nutzung von Dokumenten in die Office-Welt einbinden. Im Mittelpunkt des Messeauftrittes stehen daher der SharePoint-Portal-Server wie auch der BizTalk-Server. Zusammen mit Bearingpoint und Hewlett-Packard werden verschiedene Referenz- und Projektlösungen vorgestellt. Zudem präsentieren sich auf dem Stand vor allem verschiedene Windows-Server-basierte Best-of-Breed-Lösungen: Axinom mit AxCMS als leistungsfähiges CMS, meridio mit einem Archiv-Backend für den SharePoint-Portal-Server, Workshare und hypernet von Coextant mit DokumentenWorkflow-Systemen und der Mind Business GmbH als Anbieter des Mind-Mapping-Werkzeuges MindManager. ELO (H2 2610) Auf dem Rückweg in die Halle 1 verschafft ein Stopp bei der ELO Digital Office GmbH einen Einblick in die Neuentwicklungen des Stuttgarter Unternehmens. Mit qualifizierten Partnern werden innovative Dokumentenmanagement- und Archivierungslösungen vorgestellt. Schwerpunkte bilden: die Vorstellung einer neuen Server-basierten E-Mail-Archivierung für Microsoft Exchange sowie attraktive Lizenzmodelle für den DocXtractor (selbstlernende Klassifizierungskomponente) und das Capture-Tool für den ELO-Client. Interessant ist die Teilnahme von Karl Heinz Mosbach, Geschäftsführer ELO Digital Office GmbH, am Best Practice Panel zu den Themen Information Lifecycle Management und Enterprise Content Management. www.elo.info/presse/pressemeldungen/dms2005.htm OpenText (H2 2510) VOI (H1 1760/1778) Alle, die sich mit dem Thema der unternehmensweit integrierten Informations- und Dokumentenverwaltung, neudeutsch Enterprise-Content-Management, tiefer beschäftigen wollen, sollten bei OpenText in der ECM Lounge einkehren. Neben dem dargebotenen Lösungsspektrum lässt sich mit etwas Glück eine Ausgabe des dritten und letzten Bands des „Einmaleins des ECM“ von Tom Jenkins, Chairman von Open Text, erstehen. Das Buch trägt den Titel „Enterprise Content Management – Methods“ und beschreibt anhand von 33 Kundenbeispielen Best-Practices-Strategien zur schrittweisen Einführung von ECM-Lösungen. Im Rahmen der ECM-Vision zeigt OpenText dabei die Integration in Unternehmensanwendungen wie SAP und Microsoft. Als Branchenverband der Informations- und Dokumentenmanagement-Branche bietet der VOI seinen Mitgliedern eine eigene Standfläche. Damit macht der Verband den Gedanken seiner Community auch optisch deutlich. Gestützt wird dieser Ansatz an allen drei Messetagen durch die Diskussions- und Talkrunden im VOI-Forum. Jeden Vormittag lädt der VOI zum Morningtalk. Moderiert werden die Runden von Bernhard Zöller (Dienstag: Situation des Dokumentenmanagements im Mittelstand), Peter S. Nowak (Mittwoch: Status quo und Optionen für die kommenden Jahre) und Guido Schmitz (Donnerstag: Input- meets Outputmanagement). Nachmittags bietet der VOI wie gewohnt interessante Roundtable-Gespräche an, bei denen verschiedene Experten zur Diskussion laden. www.ixos.com/local/de/home-de/nws-pressreleases.htm?id=1 4688 www.voi.de/pres.phtml?FID=561.2113.1&La=1&call=detail 045 daa Systemhaus AG (H1 1620) Auf dem Rückweg zum Ausgang kann sich der Besucher noch bei der daa Systemhaus AG über die effiziente Verwaltung von Dokumenten und Belegen rund um das ERPSystem von SAP R/3 informieren. Die SAP-Lösungen für die Dokumenten-Management- und Archivierungs-Software scanview stellen einen Ausstellungsschwerpunkt der daa dar. Dabei steht die automatische Rechnungseingangsbearbeitung in SAP im Vordergrund. Diese umfasst die automatische Belegerfassung und -erkennung, einen SAPGenehmigungsworkflow im Web sowie die anschließende Verbuchung in SAP. Der Workflow wird vom daa-Partner CAS AG auf dem Messestand vorgestellt. Für die komfortable Archivierung von SAP-Belegen in scanview stehen die SAP-Connectoren zur Verfügung. www.daa.de/news.php3?id=123 FileNet (H1 1350) Zu guter Letzt in diesem redaktionellen Rundgang, aber nicht minder bedeutend im deutschen DMS-Markt, bietet sich ein kurzer Abstecher zu FileNet an. Das Unternehmen präsentiert auf der DMS Expo seine neueste Version des FileNet P8, in der Version 3.5. Mit dem Plattform-Upgrade können Unternehmen und Behörden ein breites Spektrum an Anforderungen für Content- und Process-Management sowie für Compliance erfüllen. Wesentliche neue Funktionalitäten stehen zur Verfügung, einschließlich der Content Federation Services (CFS), die eine Integration der FileNet P8 ECM-Plattform mit zahlreichen Content Repositories von FileNet sowie von anderen Anbietern ermöglichen. Den Unternehmen verspricht FileNet damit, dass sie mit einem einzigen Enterprise -Content-Katalog sämtliche Inhalte ihrer Organisationen verwalten und somit die Geschäftsprozesse verbessern, Compliance-Risiken entschärfen sowie die Komplexität und die Kosten der IT reduzieren können. www.filenet.com/Deutsch/News/Pressemitteilungen/FN_ DMS05.asp (1) Zentrales Thema der DMS Expo 2005 ist einmal mehr der unternehmensweit integrierende Informations- und Dokumentenmanagement-Ansatz unter dem Schlagwort Enterprise-Content-Management. Dazu werden die wesentlichen Potenziale der elektronischen Geschäftsprozesse gesehen. In der Realität stehen die Unternehmen hier aber noch ganz am Anfang eines weiten Weges. Nur wenige Großunternehmen haben bereits vollständig integrierende Lösungsimplementierungen. Der Mittelstandsbereich sucht vielmehr die integrierte als die integrierende Lösung. (2) Die weit reichenden Lösungsangebote für die Umsetzung zeichnen sich vor allem durch integrationsfähige Informations- und Dokumentenmanagement-Konzepte aus. Wirklich integrierende Lösungen, die den Dokumentenprozess über den gesamten Lebenszyklus und über alle Phasen hinweg abdecken können, sind derzeit nur vereinzelt zu finden. (3) Neben dem ECM-Thema bestimmen die ComplianceAnforderungen, die Entlastung der Mail-Systeme durch eine entsprechende Mail-Archivierung sowie die speziellen Anforderungen des Mittelstandes die Themenfahrpläne der berücksichtigten Anbietern. Fazit Insgesamt ist die DMS Expo natürlich wieder eine Reise nach Essen wert. Verschiedene Neuerscheinungen, Lösungsupdates wie die Themen der begleitenden Informations-, Foren- und Kongressveranstaltungen unterstreichen die inhaltliche Bedeutung der Messe und des begleitenden Kongresses. Aber auch hinsichtlich der Abdeckung des Lösungsmarktes muss festgestellt werden, dass die Messe einen kompakten, aber dennoch umfangreichen Einblick in die Branche bietet und der Bezeichnung als führende Veranstaltung in diesem Bereich durchaus gerecht wird. Von daher kann man Ihnen als Besucher nur einen informativen Messebesuch wünschen. Die wichtigsten Entwicklungen im Überblick Wie bei jedem Messebesuch beschränkt sich der Rundgang auf einen begrenzten Ausschnitt der Messeofferten. Am Ende des Besuchs steht man immer am selben Punkt: Eine Flut von Informationen will sortiert, tausend verschiedene Eindrücke bewertet werden. Sozusagen echtes Input-Management. Im Rahmen der Recherche lassen sich Aspekte als Entwicklungstrends und Merkmale des derzeitigen Status quo der ECM/DMS-Technologien festhalten. Das sind: Björn Negelmann Geschäftsführer [n:sight] market & technology research, analysiert IT-Systeme und unterstützt zahlreiche Unternehmen bei der Spezifikation und Auswahl von IT-Systemen. 046 Schwerpunkt • E-Learning in der Praxis Was vom „E“ übrig blieb Nach hochfliegenden Hoffnungen und deren Ernüchterung ist E-Learning im Alltag angekommen. Nicht der große Sprung zum Wissensmanagement ist heute gefragt. Es zählt, was funktioniert. Und da gibt es mittlerweile einiges. E-Commerce, E-Shops, E-Markets und so weiter – eine Menge „E´s“ haben das Licht der Welt erblickt, seit IBM seine „E-Business“-Kampagne startete. Eines der E-Schlagworte: E-Learning. E-Learning sollte irgendwie alles können: unternehmensweites Wissensmanagement , die Mitarbeiter mit Multimedia-Anwendungen an den entlegensten Orten schlau machen, überhaupt neue Wege der Lernens erschließen. Manchmal war E-Learning aber auch nichts weiter als ein blankes Fenster ins Web. Aus E-Learning wurde Blended Learning, als man erkannte, dass der Bildschirm allein nicht immer die Lösung ist. Blended war die Lösung: ein Mix aus Altbewährtem und Neuentwickeltem. Die Trends im Rückblick Lutz Goertz vom MBB Institut für Medien- und Kompetenzforschung hatte Anfang 2003 zehn Trends beim Thema E-Learning ausgemacht (www.ecin.de/state-of-theart/10elearningtrends/). Die Thesen waren als Summe der gerade abgelaufenen LearnTec in Karlsruhe formuliert worden. Beteiligt war das Adolf Grimme Institut mit aktuellen Marktbeobachtungen. Der Tenor damals: immer noch Verständnis- und Angebotslücken zwischen Markt und Anbietern, Marktbereinigung, fehlende „Killerapplikationen“ und mangelnde Akzeptanz durch die Nutzer. Und damit auch der Unternehmen. Was gilt davon heute noch, was hat sich verändert? Für Goertz am wichtigsten: „Dass es die Killerapplikation immer noch nicht gibt, weder in der Technik noch bei den Einsatzbereichen.“ E-Learning ist seiner Meinung nach bislang nicht in der Lebenswirklichkeit des Alltags angekommen. „Was brauchen Angestellte wirklich an Informationen über Rentenversicherungen? Oder, was ändert sich, wenn die Mehrwertsteuer um einen Prozentpunkt hochgeht? Das wären alles lupenreine Einsatzfelder für E-Learning, nur tut sich in diesem Bereich gar nichts.“ Ein weiterer Punkt: besser integrierte statt rein technische Lösungen. „Es gibt einen Trend in Richtung ‚Rapid E-Learning’ oder ‚Knowledge Management on Demand’. Also statt der tollen 100-Prozent-Lösung lieber eine Lösung, die sofort Unterstützung gewährt, dafür aber nicht komplett sein muss.“ An der anhaltenden Marktbereinigung auf Seiten der Hersteller sowie der ökonomisch schwierigen Situation der Weiterbildungsdienstleister hat sich hingegen nichts geändert. Positiv vermerkt Goertz, dass sich die Einstellung der Nutzer spürbar verbessert hat: E-Learning wird zunehmend als Chance gesehen. Die Motivation des Einzelnen zur Weiterbildung und zum Lernen steigt. Insgesamt konstatiert 047 nin n System g e ng atio ement Ler Ba se d ed We b abor ll d Co Manag Tr ai ni ng Base ng Con tent nd rni Lea E- Web Ble Learni Lern Goertz, dass der Hype um E-Learning definitiv vorbei ist und eher durch de Begriff „Lernlösungen“ ersetzt werde. In diesen Lösungen ist die E-Learning-Komponente integriert worden, ohne allerdings im Vordergrund zu stehen. Dort steht – wieder – das Lernen. „Der Computer ist nun einmal da, aber eine zeitlang haben die technischen Möglichkeiten wohl en Blick auf das Wesentliche verstellt. Co u mp ter s Ba ed in Tra ing en zur Professionalisierung von E-Learning. Auf nationaler und europäischer Ebene arbeiten Gremien daran, Rahmensysteme zu entwickeln, die Richtlinien für die Produktion von Inhalten und Einführung der Lernmethoden an die Hand geben sollen, zum Beispiel mit der DIN PAS 1032. Hier hat das DIN Institut von sich aus Initiative gezeigt. E-Learning in der Aus- und Weiterbildung Was gibt es Neues? Die interessantesten Entwicklungen sieht Goertz im Bereich des Content-Sharing sowie der Standardisierung von Inhalten. „Beim Content-Sharing gibt bereits die ersten Marktplätze. Dort können aus einem Pool einzelne Informationsmodule präsentiert und abgerufen werden, was gerade für Inhouse- oder freiberufliche Trainer in Zukunft interessant ist.“ Das MMB betreut bereits einen solchen Marktplatz, das Content Sharing Webkolleg in NordrheinWestfalen. Andere universitäre Marktplätze im Web wie das EducaNext Portal (www.educanext.org) oder die UPB, die „Universal Brokerage Platform for Learning Ressources“ (www.ist-universal.org), haben den Praxistest bestanden und werden aktiv genutzt. In der Standardisierung von Inhalten und deren „Normung“ sieht Goertz einen weiteren Trend Eine der funktionierenden Lösungen, die zugleich ein Aushängeschild für E-Learning ist, stammt aus der Zentralstelle für die Weiterbildung im Handwerk e.V. (ZWH): die „Meisterqualifizierung Online“. Der ZWH will E-Learning verstärkt bei den Bildungsträgern integrieren, um auch da flexible Lernangebote machen zu können. Gemeinsam mit dem Deutschen Industrie- und Handelskammertag (DIHK) macht der ZWH Qualifizierungen, die wiederum zu Fortbildungsprüfungen führen. Dr. Beate Kramer hat das Projekt von Anfang an betreut. „Die Akzeptanz der Nutzer, der Durchdringungsgrad in der Ausbildung, ist gewachsen. Wir sehen, dass sich diese Art zu lernen, Schritt für Schritt durchsetzt. Man braucht nur ein Stück weit Zeit, um diesen Lernweg in die Breite zu bringen.“ Die Nachfrage beim der ZWH nach derartigen Qualifizierungsangeboten steigt. 048 Schwerpunkt Ausschlaggebend dafür ist nach Meinung von Kramer „die Perspektive, mit der wir die kleinen und mittleren Unternehmen betrachten. Und daraus Strategien entwickeln, wie deren Mitarbeiter trotz stärkerer Anspannung im Beruf und finanziellen Einschränkungen motiviert werden können.“ Inhalte teilen stärkt Netzwerke Dr. Bernd Simon von der Wirtschaftsuniversität Wien bestätigt, dass E-Learning wiederkommt, durch die Hintertür, ohne das Etikett „E-Learning“. Und: was bislang weniger im Fokus von E-Learning stand, war Content Sharing. „Der Gebrauch von so genannten Open-Content-Lizenzen nimmt weiter zu. Hierbei will der Urheber kein Geld mit seinen Inhalte verdienen, jedoch gewisse Rechte daran wahren.“ Kontrollieren lässt sich die Verwendung letztlich aber nicht. Ein durchgängiges Digital Rights Management ist mit persönlichen Inhalten einfach nicht zu machen. Doch scheint sich im Netz eine neue Sicht auf Inhalte und den Umgang damit durchzusetzen. Die „Intellectual Property“ wird stärker im organsierten Rahmen wie beispielsweise der 2/05_Anz_DudKorr_21x14_4c 05.09.2005 16:47 Uhr Seite 1 ������������������������������ ��������������������� ������������������ ������� ������������� ���������������� �������������������������������������� ����������������������� ������������������ ���� ���������������������� ������������������ ������� �������������� ����������������� ������������������������������������������������������ ������������������������������������������������ ���������������������������������������� ���������� ���������������� ���������������������������������� ������������������������������������� ����������������������������� ���������������������������������������� ������������������������������������� ���������������������������������� �������������������������� ���������������� Universal Brokerage Plattform wahrgenommen. Die NetzOrganisation „Creative Commons“ (creativecommons.org) beschreibt, ähnlich wie die General Public Licence für lizenzfreie Software, den Umgang mit Inhalten und deren Gebrauch. Natürlich ebenfalls, ohne zu kontrollieren. Für Simon sind die Ideen von Content Sharing und Open Source artverwandt: „Es geht in beiden Fällen um Netzwerke von Personen. Inhalte sind Artefakte, mit denen sich die Personen austauschen, eigentlich eine soziale Handlung.“ Den stittigen Punkt der „Quality of Service“ bei Software-Modulen für E-Learning sieht Simon übrigens nicht: „Es gibt hier genauso eine Qualitätssicherung wie bei kommerziellen Sytemen. In vielen Fällen sogar auf einem höheren Level.“ In seinen Augen finden zukünftig die wesentlichen Entwicklungen im Bereich der technischen und inhaltlichen Standardisierung der Lerninhalte statt. „Die Standardisierung nach Vorschrift funktioniert nicht. Allenfalls die schrittweise Angleichung von Vorgehensweisen, von Dokumentationen und anderen Methoden, die aus dem Qualitätsmanagement kommen, werden eine Standardisierung von Inhalten nach sich ziehen.“ ������������������������������������� ���������������������������������������� ������������������� ������������������������������������������� ������������������������������������������� �������������������������� ������������������������������������� ���������� ��������������������������������������������� �������������������������������������������� ���������������������������������� ������������������� �������������������� ������������������ ������� ������ ������� ����������������� ������������������������ �������������������� ������������������ ������� ������ ������� ����������������� ��������������� ����� � � � � � � ��� ����� � � � � � � � ���� ���������������������������������������������������������� ��������������������������������������������������������� ������������������������������������������������������������� ����������������������������������������������������������� ����������������������� ��������������������������������������������������������� ������������������������������������������������������ ����������������������� ������������������������������������������� �������������������������� ������������������������������������������������� ������������������ ��������������������������������� � ����������������������������� � ������������������������� � ��������������������������������� � ���������������������� � �������������������� � ����������������������� � ������������������������ � ����������������������������������� ����������������������� � �������������������������� � ������������������ � ����������������� � �������������������������������������� ��������������� ��������������������������������� �������������������������������� ���������������������������������� ��������� ������������������������������ ��������������� ������������������������ ������� ��� ��� ����� ������� ��� ��� �������� ����������������� ��������������� ������������ 050 Schwerpunkt • Web-Technologien Von Ajax zu Backbase Im Internet machen Startup-Unternehmen wieder von sich reden. Die nächste Generation der Gründer versteht das Medium und seine Probleme besser als die Dotcoms. Überaschenderweise stammen die Technologien und Konzepte noch aus den Zeiten Mark Schiefelbein des Goldrausches. Dazu zählt auch BackBase. ue u 7 u Die Wartezeiten vor dem Browser, bis eine Seite geladen ist, sind kürzer geworden. Interaktive Webseiten oder Anwendungen werden in ihrer Leistungsfähigkeit dennoch ausgebremst. Ein Weg aus dem Dilemma: Den Datentransfer von Webseiten und Anwendungen sparsamer und effizienter machen.Um Daten zwischen Server und Browser auszutauschen, muss üblicherweise jede einzelne Webseite neu geladen werden. Frames waren ein früher Ansatz, nicht jedes Mal die komplette Datenmenge auf die Leitung zu schicken. Ajax geht einen Schritt weiter, indem nur ein Teil der Daten auf die Reise geschickt wird. Google war Vorreiter der Ajax-Bewegung mit Applikationen wie „Gmail”, „Google Suggests” und „Google Maps”: Web-Applikationen, deren Benutzeroberflächen extrem anwenderfreundlich, schnell und funktionsreich sind und dadurch denen von DesktopApplikationen ähneln. u 7 e 67 e r u e 7 6 e r u r7 7 6 Ajax ist DHTML. Jesse James Garret von der Beraterfirma Adaptive Path hat der Technologie den Namen Ajax gegeben: „Asynchronous JavaScript+XML”. Ajax-Applikationen verwenden ausschließlich DHTML. Garret führt drei wichtige technische Neuerungen des Modells an: (1) Eine „client-site engine”, das heißt, eine SoftwareBibliothek, die im Browser aktiv ist, fungiert als Vermittler zwischen Benutzeroberfläche und Server. (2) Aktionen des Anwenders werden von der „client-site engine” verwaltet, anstatt jedes Mal einen ServerZugriff zu benötigen. (3) Die Kommunikation zwischen der „client-site engine” und dem Server erfolgt durch XML-Daten. 051 zum Thema Die Backbase Ajax-Software arbeitet mit ca. 85 Tags und 200 Attributen die XHTML erweitern. BXML enthält unter anderem Tags für: • Die Definition des Applikations-Layouts (z. B. b:panel oder b:window) • Das Styling der Oberfläche (so genannte ‚Skins’ oder Themen) • Eine reichhaltige Sammlung von interaktiven Controls (z. B. b:menu oder b:slider) • Möglichkeit zum Einbinden von Multimedia-Elementen (Flash, Audio, SVG) • Abhandeln von Events und Ausführen von Commands • Formalisieren von „Behaviors“ (display, hide, loading data, animations etc.) • Form Felder und Validierung (konditionelle Felder, • • • • • • 6 e u 7 • e u • Feld-Validierung) Animation von UI-Elementen (FX System) Interaktion mit UI-Elementen (z.B. b:drag oder b:resize) Unterstützung der Browser-Funktionalität „back/forward“ und „bookmarking“ Funktionalität On-demand-Laden von UI-Code und -Daten Client-side targeting (XPath) Client-side transformations (XSLT) Erweitern von BXML mit kundenspezifischen Tags Implementieren von client-side business logic User erreichen mit Ajax zweierlei, was in herkömmlichen DHTML-Applikationen gegenseitig ausgeschlossen war. Zum einen sind Ajax-Applikationen extrem “reich”, das bedeutet, aus Anwendersicht voller Funktionen und einfach zu bedienen. Gleichzeitig bieten Ajax-Applikationen aber auch alle Vorteile von Web-Applikationen. Dass liegt daran, das ein Standard-Webbrowser die einzige Voraussetzung bildet. Es sind keine Plug-ins oder Applets auf dem Client nötig. plikationen in kurzer Zeit entwickeln können. Entwickler fordern daher eine neue Generation der Ajax-Software, die zwei wichtige Kriterien erfüllt: (1) Die Ajax-Software muss alle Funktionalitäten enthalten, die Web-Entwickler benötigen, um eine vollständige, benutzerfreundliche Oberfläche für komplexe WebApplikationen zu entwickeln. (2) Die AjaxSoftware muss es dem Entwickler erlauben, Ajax-Oberflächen schnell und einfach zu entwickeln. Eine Alternative kommt aus den Niederlanden Das Unternehmen Backbase wurde 2003 in Amsterdam mit der Zielsetzung gegründet, Entwicklern eine umfassende und entwicklerfreundliche Ajax-Plattform zu bieten. Seit 2005 wird Backbase von der holländischen Regierung mit Subventionen in Höhe von Euro 1,3 Millionen unterstützt. Das Team ist inzwischen auf 40 Mitarbeiter gewachsen. In den Niederlanden hat Backbase unter anderem ein Unterhaltungs-Portal für Heineken implementiert, das der jungen Zielgruppe des Unternehmens bislang ungekannte Interaktivität bietet. Auch die niederländische Presseagentur ANP setzt bei ihrem Live-Portal für Pressemitteilungen auf die Weiterentwicklung von Ajax Anfang Juni hat das Unternehmen sein Geschäft weltweit ausgebreitet und bietet Entwicklern seine „Community Edition“ für nicht kommerzielle Zwecke kostenlos an. Auf der Website www.backbase.com können Entwickler die Software herunterladen und sich in der Community mit anderen Entwicklern austauschen. Nicht alles ist Gold, was glänzt Neben viel Lob gibt es auch kritische Stimmen zum AjaxModell. Die Kritik zielt hauptsächlich auf Schwierigkeiten bei der Entwicklung und dem Unterhalt von Ajax-Benutzeroberflächen ab. Die Probleme ergeben sich durch umfangreichen Einsatz von JavaScript: (1) Kompatibilitätsprobleme zwischen verschiedenen Browsern erfordern Browser-spezifischen Code. (2) JavaScript ist nicht gut geeignet für komplexere Anwendungen. Zusammenfassend kann man sagen, dass die Richtung von Ajax stimmt. Allerdings muss die Ajax-Technologie weiter entwickelt werden, um zu der Plattform zu werden, mit der Web-Entwickler weltweit stabile und interaktive Web-Ap- Noch ein Beispiel eines „Single Page Interfaces“ (SPI). Alle Informationen sind übersichtlich auf einer Seite präsentiert: Die Forumauswahl als „Clamshell“ links. Die Forumbeiträge als Baum oben. Der ausgewählte Beitrag als Textareal unten. Und der Editor zum Erstellen der Antwort als Pop-up. 054 Schwerpunkt dem Server und dem BPC basiert auf XML-Dokumenten, die eine Kombination von reinen Daten (XML) und Oberflächendefinition (BXML) enthalten. Der optionale Backbase Server dient als Brücke zum Back-end. Der BPS hat eine äußerst flexible XMLArchitektur, mithilfe derer Daten aus vielfältigen System (Datenbanken, J2EE, .NET) und insbesondere auch aus Webservices geladen werden können, um dann an Controls in der Backbase-Oberfläche gebunden zu werden. Fazit wie Backbase funktioniert Backbase macht da weiter, wo Ajax aufhört Die Abbildung auf der folgenden Seite erläutert das Grundprinzip von der Lösung. Die Architektur enthält drei Grundkomponenten: (1) Den Backbase Presentation Client (BPC), eine AjaxEngine, die in den Browser geladen wird; (2) die Backbase eXtensible Markup Language (BXML), eine Erweiterung des HTML-Wortschatzes um zusätzliche GUI-Funktionalitäten und (3) den (optionalen) Backbase Presentation Server (BPS). Der Anwender öffnet seine System-Oberfläche wie üblich im Browser mit einem URL. Backbase-BXML-Seiten haben eine *.html-Erweiterung und werden vom Web Server wie normale HTML-Seiten behandelt. Im Browser wird dann als Erstes der BPC geladen, der im Weiteren BXML interpretiert und in ein DOM übersetzt, was durch den Browser gerendert wird. Der BPC übernimmt den weiteren asynchronen Datenaustausch. Daten werden direkt vom Server geladen, ohne eine neue Seite aufzubauen. Dadurch, dass nur die benötigten Daten geladen werden und die Oberfläche nur partiell verändert wird, bietet sich dem Endanwender eine extrem reaktionsschnelle Oberfläche. Der Datenaustausch zwischen Als Fortschreibung der Ajax-Software bleibt Backbase dem Ajax-Ansatz treu und macht dort weiter, wo Ajax aufhört. Die Lösung bedient sich einer Architektur, die die heutigen Web-Standards (W3C) unterstützt und keine weiteren Systemvoraussetzungen außer einem Webbrowser erfordert. Mit einem Umfang von weniger als 30 KB ist der BPC extrem Ressourcen-effizient. Wo eigene Ajax-Ansätze schnell zu unübersichtlichen Ansammlungen von JavaScript Widgets anwachsen, bietet Backbase eine robuste „client-site engine“, den „Backbase Presentation Client“ (BPC), mit der Entwickler ihre AjaxApplikationen programmieren. Der Ansatz einer horizontalen Erweiterung von DHTML macht BXML-Programmieren einfach. BXML ist wie XHTML deklarativ und bietet etwa 85 neue Tags als logische Erweiterung zur Entwicklung von interaktiven Benutzeroberflächen im Standard-Browser. Backbase bietet damit eine vollständige Ajax-Plattform, die das Präsentationstier für J2EE, .NET, PHP und andere Server-side Technologien darstellt. Mark Schiefelbein Abschluss Computer Science and Engineering, Universität von Arizona, Tucson und FriedrichAlexander-Universität, Erlangen. Seit Anfang 2005 Director Product Management, BackBase. ���������������������������������� ���������������������� ��� ���� ���� �������� ���� ��������������������������������������� ������������������ ����������������� ������������� ����������������������������� ���������� ��������������� ����������������� ���������������������� �������������� ���������������������� �������������������������� ������� ������ ����� ���� ������ �� � �� ��� ��� ����������� �� ����� ����� � ���� ����� ����� �������� ���� � � � � � � ��� ������������� ��������������������������������� ���������������������������� ������������������ ����������������������������������� ���������� ���������� � ��������������������������������������������������������������������������������� ������������ ������������������������� �������������������� � ���������������������������������������������������������������� � ������������������������������������������������������������ � ������������������������������������������������������������������������������ � ��������������������������������������������������������������������������������������� � ��������������������������������������������������������������������������� � ����������������������������������������������������������������������� ������������� �������������������������������� � ������������������������������������������������������������ � �������������������������������������������������������������������������� ����������������� ��������������������������� � ������������������������������������������������ � ������������������������������������������������������������� � �������������������������������������������������������������������������������������������� � ���������������������������������������������������������������������������� ����������������� ���������������������������� ��������� �������������� ������������������������������ �������������������������������� � ����������������������������������������������� � ���������������������������������������������������������������� �������������������� ���������������������������� ������������ ������������������������������������������������ � � �� � �� � � � �� � � �� �� � � � ������������� ������������ ����������������������������������� ������������������������ ��������������������� ������������������������������� ���������������������������������� �������������������������������� � ����������������������������������������������� ������������ ������������� ������������������� ������� ������������ 054 Schwerpunkt • Elektronische Signaturen Gut gemeint statt gut gemacht Sie sollte Großes leisten, die elektronische Signatur. So wurde mit deutscher Gründlichkeit ein Signaturgesetz verabschiedet. Eines, das mit Abstand die sicherste Lösung darstellt. So sicher, dass kaum jemand damit arbeiten will. Gut zwei Jahre, nachdem die elektronische Signatur rechtskräftig geworden ist, stehen die Software-Anbieter in den Startlöchern. Nach Branchenmeinungen sind zurzeit über 170 Anbieter international auf dem Markt, um Unternehmen Lösungen für die rechtskonforme Erstellung von Rechnungen und deren Versand zu verkaufen. Tendenz steigend. Denn nur wer - in Deutschland - nach dem Signaturgesetz handelt, ist vorsteuerabzugsberechtigt. Dass der Fiskus ein Auge auf die Rechnungen der Unternehmen geworfen hat, wundert nicht: Einige Mrd. Euro, so schätzt der Bund, beträgt allein in Deutschland der Schaden durch Karussellgeschäfte. Gemeint sind Geschäfte, bei denen es um den Missbrauch durch Abzug unberechtigt angegebener Vorsteuer im Geschäftsverkehr geht. Von Kanonen und Spatzen Die Anbieter wären bereit: Sind es die Unternehmen auch? Für Heiko Mehnen ist die Antwort klar. „Die Wirtschaft will das einfach nicht. Vielleicht gar nicht oder auch nur noch nicht.“ Der Geschäftsführer der GLI GmbH in Haar bei München war 1986 der einzige deutsche Teilnehmer im Gremium der Uno, in dem die Grundbausteine von EDIFACT entwickelt wurden. Es ist ein Verfahren, welches noch heute überwiegend für den b2b-Datenaustausch genutzt wird. Die Bausteine waren Basis für die Syntax eines EDI-Standards, die der ISO zur Normung als ISO-Standard 9735 übergeben wurden. Mehnen kennt die Wege des elektronischen Rechnungsversands seit den Anfängen von Electronic Data Interchange (EDI). Rund zehn Prozent der Unternehmen in Deutschland nutzen seiner Schätzung nach EDI, nur etwa 0,5 Prozent oder sogar weniger die elektronische Signatur. Alle anderen übermitteln die Rechnungen mit dem Fax und als Briefpost. Das, obwohl alle Dokumente wie Lieferscheine, Bestellungen oder Gutschriften längst digital verarbeitet und verschickt werden können. Das Fax wird von vielen als sicheres Dokument angesehen. Rechtlich ist es jedoch problematisch, sobald beim Versand oder Empfang ein Faxserver zum Einsatz kommt. Werden Rechnungen elektronisch verschickt, wird häufig als umständliche Notlösung die Sammelrechnung zur Ausweisung der monatlich zusammengefassten Umsatzsteuer eines Geschäftspartners genutzt. „Der Gesetzgeber hat in Deutschland sicher das Richtige gewollt, aber nicht die richtigen Mittel gewählt“, findet Mehnen. Die elektronische Signatur sei in den Augen vieler Unternehmen zu schwerfällig, zu kompliziert und zu teuer. Ihre Zukunft zu ungewiss. „Fast jedes Unternehmen, egal welcher Größe, will abwarten, in welche Richtung die Entwicklung geht. Ob die Finanzämter wirklich prüfen oder ob es preiswertere Lösungen gibt. Ob nicht doch irgendwann eine einfachere Signatur wie die „fortgeschrittene Signatur“ ausreicht. Der Umsatzsteuerbetrug könnte auch mit anderen Mitteln kontrolliert und unterbunden werden.“ 055 Halbwahrheiten statt Informationen Rolf Schmoldt ist einer der Fachleute, dessen Vorschläge bei den fortgeschrittenen Formulierungen des Signaturgesetzes mit aufgenommen wurden. Der Praktiker beschäftigt sich seit Jahren mit biometrischen Verfahren, Public-KeyInfrastrukturen (PKI) und der Elektronischen Signatur. Schmoldt kennt das Gesetz in- und auswendig. Er findet, dass zu viele Halbwahrheiten verbreitet werden, auch von Seiten der Hersteller und Berater. „Hier wird immer noch zu viel verwechselt: Geht es um den Nachweis eines unveränderten Dokuments? Um die sichere Übermittlung? Um die Authentizität von Urheber oder Empfänger? Der gesamte Themenkreis ist hochkomplex. Er wird nur von wenigen Anbietern in Gänze zu den Unternehmen kommuniziert.“ Die Sinnfrage der elektronischen Signatur stellt sich für Schmoldt allerdings nicht: „Der Gesetzgeber wollte eine Lösung, die die Authentizität von Personen und Integrität eines Dokumentes abdeckt.“ Dabei hätte weniger durchaus mehr sein können. Für die Authentizität, die Sicherstellung, dass es sich um eine bestimmte juristische oder natürliche Person handelt, braucht ein Unternehmen nicht zwingend die elektronische Signatur. Es geht auch anders und einfacher. Gerade am Point of Sale (PoS) bieten sich biometrische Verfahren wie die Unterschriftenerkennung an. Hier wird aus Druck und Geschwindigkeit des Stiftes auf einem Pad ein Algorythmus ermittelt und verschlüsselt, der genauso fälschungssicher ist wie beispielsweise die Iris-Erkennung. Zudem ließe sich die Unterschrift auch als juristische Willenserklärung nutzen. Was der Markt hergibt Mittlerweile wird eine ganze Reihe von Lösungsansätzen für die Unternehmen angeboten, die mitmachen wollen. Aus Herstellersicht werden, wieder einmal, auch die kleinen und mittleren Unternehmen adressiert. Gemeinsam mit 56 IHKs in Deutschland hat die DE-CODA GmbH so genannte Startpakete geschnürt. Die sollen Unternehmen den Einstieg in die elektronische Signatur erleichtern. Das Paket beinhaltet eine Smart-Card, ausgestellt von einem authorisierten Zertifizierungsdienstleister, ein Lesegerät sowie entsprechende Software. Ein anderer Anbieter wie die Task-IT, die im Herbst mit INEX auf den Markt kommt, positioniert sich mit Kampfpreisen von unter 100 Euro für die Grundausstattung. Oder es werden von einer Vielzahl von Unternehmen wie der PLANinterNET GmbH vergleichbar mit Online-Banking PIN und TAN-Nummern bestellt, womit sich die Benutzer über den Browser und zum Thema „Bei einer elektronischen Signatur handelt es sich um elektronische Daten, die die Authentizität und Integrität von elektronischen Informationen, meist elektronische Dokumente, sicherstellen sollen.“ [...] „Das Signaturgesetz unterscheidet zwischen der elektronischen Signatur an sich, die daher häufig als einfache elektronische Signatur bezeichnet wird, der fortgeschrittenen elektronischen Signatur und der qualifizierten elektronischen Signatur. Letztere erfordert ein gültiges Zertifikat und die Erzeugung mit einer sicheren Signaturerstellungseinheit (SSEE).“ (de.wikipedia.org) Billentis www.billentis.com • Bundesamt für Sicherheit in der Informationstechnik (BSI) www.bsi.de • Bundesministerium des Inneren www.staat-modern.de • Bundesnetzagentur www.bundesnetzagent ur.de • DFN-CERT Services GmbH www.dfn-pca.de • GLI GmbH www.gli.de • JurPC www.jurpc.de • pol-di.net e.V. www.politikdigital.de • SigLab e.V. Verein zür Förderung der elektr. Signatur www.siglab.de • Signature Perfect KG www.signature-perfect.com eine SSL-geschützte Verbindung anmelden. Die separate Signiereinheit, in der ein Webserver arbeitet, ist nicht größer als eine Zigarettenschachtel. Bruno Koch von Billentis aus der Schweiz ist unabhängiger Berater und beobachtet den Markt seit Jahren. „Seit 2004, wo in den EU-Ländern b2b-Rechnungen akzeptiert werden müssen, erleben wir einen echten Boom bei den elektronischen Rechnungen. Das Marktvolumen hierfür beträgt europaweit in diesem Jahr etwas 300 Mio. Euro.“ Koch legt Wert auf die begriffliche Unterscheidung zwischen der elektronischen Rechnung und der elektronischen Signatur. „Das eine ist ein digitales Dokument, das andere der gesetzliche Rahmen für ein Set von 4 verschiedenen Dateien“. Erst zusammen ergibt beides einen Sinn: „Eine digitalisierte Rechnung oder ein signiertes Dokument allein schafft ja noch keinen Mehrwert. Erst in der Kombination von beidem senken Unternehmen ihre Kosten und erfüllen die rechtlichen Anforderungen.“ International bedingt tauglich Die Probleme beim grenzüberschreitenden Rechnungsaustausch sind mit dem deutschen Weg der elektronischen Signatur keineswegs behoben. Allerdings vereinfacht die Ursprungslandregel den Datenverkehr deutlich: Bei elektronischen Rechnungen gelten, von allen EU-Ländern akzeptiert, die gesetzlichen Regelungen des Ursprungslandes, in dem die Rechnung gestellt wurde. Ein Umstand, der selbst in den Arbeitsgruppen der EU nicht immer bekannt ist. Auf EUEbene reicht mehrheitlich die so genannte „fortgeschrittene Signatur“ aus, im Gegensatz zu Deutschland, wo die „qualifizierte Signatur“ verlangt wird. Der Unterschied besteht in den Sicherheitsanforderungen: Bei fortgeschrittenen Signaturen können neben zertifikatsbasierten Identifizie- ������������������ ������������ ����������� �� �� �� ��� �� �� �� � �� � �� � rungsverfahren auch andere Verfahren verwendet werden. Im Klartext: Hier können entsprechend der EU-Signaturrichtlinie auch nur juristische Personen, also Unternehmen selbst, zur Identifizierung zum Zuge kommen. Die qualifizierte Signatur - mit höheren Anforderungen - wird außer von Deutschland von nur wenigen EU-Ländern wie Litauen, Tschechien oder Spanien unterstützt. Diese Länder spielen beim b2b-Datenaustausch international eine eher nachrangige Rolle. Dort geht es wahrscheinlich eher um Anwendungen im Bereich E-Government. Österreich hingegen, ein Land, in dem die elektronische Signatur bereits früh zur Anwendung kam, arbeitet mit der fortgeschrittenen Signatur. Wenn auch nicht bei der Signatur selbst, so doch zumindest beim Datenverkehr, bahnt sich eine grenzübergreifende Lösung an. Die Internet Engineering Task Force (IETF) wurde beauftragt, einen kostengünstigen und sicheren Weg für den Austausch von Daten zu beschreiben. Stand der Dinge sind die beiden auf Internetprokollen basierenden Spezifikationen AS1 (SMTP) und AS2 (HTTP). AS steht dabei für „Applicability Statement“. Dahinter steckt die Idee von EDI-INT, einem „EDI over Internet“. So können mit AS2 unterschiedliche Formate wie EDIFACT, XML oder CSV sicher übertragen werden, wobei sich eine Reihe von Sicherheitsoptionen spezifizieren lassen, beispielsweise Datenversand, sichere HTTPS-Verbindung, Verschlüsselung oder Verwendung digitaler Zertifikate. Fazit Führende Systemhersteller im Vergleich Basierend auf umfangreichem ECM Funktionsmodell Mit achtseitigen Lösungsprofilen zu jedem Anbieter Inkl. Fachartikel zu Merkmalen und Abgrenzung des Systemmarktes Unabhängiges Knowhow zu deutschen Systemmärkten Noch ist keinesfalls sicher, ob die Unternehmen, die jetzt die qualifizierte elektronische Signatur einführen, auch auf das richtige Pferd setzen. Zwar ist mit dem deutschen Signaturgesetz ein rechtsverbindlicher Standard etabliert worden, doch nur national. Ob sich irgendwann die flexiblere fortgeschrittene Signatur oder gar ein anderer Weg durchsetzen wird, bleibt offen. Zu viel ist auf nationaler und internationaler Ebene in Bewegung. Zu wenig hat sich der Gebrauch der Signatur bislang im Alltag etabliert. Dass die Unternehmen ihre Investitionsentscheidungen erst einmal zurückstellen, wundert nicht. Es wird noch eine Weile dauern, bis Unternehmen, Hersteller, Berater und Finanzämter alle denselben Wissens- und Ausrüstungsstand haben, den die elektronische Signatur verlangt. Falls es dann noch die elektronische Signatur in ihrer heutigen Form gibt. (uhe) Mehr Infos im Web: http:/www.n-sight.de oder per E-Mail:[email protected] 057 INEX GmbH AuthentiDate International AG Helmut Ohl, Vertriebsleiter der im September gegründeten INEX GmbH, über INEX-D und INEX-C. Mit diesen Lösungen steigen auch kleine und mittlerer Unternehmen in den elektronischen Rechnungsversand ein. Jan C. Wendenburg, Vorsitzender des Vorstands bei der AuthentiDate International AG über die Einsatzmöglichkeiten der elektronischen Signatur. Die elektronische Signatur für unter 100 EUR – geht das überhaupt? Ja, in der letzten Ausbaustufe werden zwei Alternativen angeboten: der Kauf eines SmartCard Readers inklusive Software bzw. die Signierung über einen Dienstleister. Welches Problem lösen Unternehmen mit dem Paket? Der Lieferant kann mit INEX-D Dokumente wie Lieferscheine oder Rechnungen papierlos erstellen und versenden. Man spart also die gesamte Versandlogistik. Der Besteller arbeitet mit INEX-C, womit die Integration der vom Lieferanten versendeten Daten ohne Medienbruch und ohne manuelle Erfassung möglich wird. Es geht also um eine Softwarelösung, die PDF-Dokumente ausgibt? Die Dokumente ausgibt, die im Nachhinein nicht mehr veränderbar sind? INEX-D gibt die Daten sowohl im PDF-Format als auch als csv-Datei aus. Letzteres ist notwendig, um die medienbruchfreie Integration in das EDV-System des Bestellers bzw. INEX-C zu realisieren. Letztendlich sind die Dokumente veränderbar. Sofern eine Veränderung vorgenommen wird, verliert aber die digitale Signatur ihre Gültigkeit. Ab welchem Rechnungsaufkommen lohnt sich die Installation? Eine Studie der Universität Frankfurt besagt, dass der Lieferant pro Rechnung ca. 4 EUR und der Besteller bis zu 30,00 EUR einsparen kann. Für den Lieferanten lohnt sich somit der Einsatz bei ca. 30 Rechnungen, für den Besteller ist der Einsatz ab ca. 1.000 Rechnungen rentabel. INEX kann aber nicht nur für Rechnungen eingesetzt werden. Wird es weitere INEX-Produkte oder Dienstleistungen in dem Bereich geben? Auf der Bestellerseite ist eine Erweiterung geplant, die den Nutzen noch weiter steigen lässt. Auch ist die INEX–Lösung nicht auf kaufmännische Anwendungen begrenzt, hier ergeben sich weitere Ansätze. Für welches Rechnungsaufkommen ist die AuthentiDateSignatur-Lösung gedacht? Für jedes Volumen. Ab ca. 10.000 Rechnungen jährlich sollte man den Einsatz einer Signaturlösung in der eigenen IT-Infrastruktur anstreben. Für kleinere Volumina bieten AuthentiDate und Partner die Signaturlösung im ASP-Betrieb an. Welchen Nutzen haben AuthentiDate-Kunden von der Partnerschaft mit StreamServe? Durch Kombination der StreamServe und AuthentiDate Lösung erhalten Kunden eine umfassende Lösung aus einer Hand, ohne Schnittstellenverluste und praktisch erprobt. Rechnungsprozesse können von der Erstellung über Konvertierung, Signatur, Signaturprüfung und Verarbeitung im ERP-System abgebildet werden. Für die Kunden ein schneller Weg, um Kosten zu senken. Ab welcher Unternehmensgröße? Dies richtet sich in erster Linie nicht nach der Größe des Unternehmens. Entscheidender ist der Faktor „Wie viele Rechnungen versendet oder empfängt das Unternehmen?“ Je höher das Volumen, desto höher der Aufwand für Druck oder Porto, desto größer die Einsparung. In welchem Bereich und ab wann senken Unternehmen damit ihre Kosten? Die Unternehmen können sofort nach Einsatz der Signaturlösung Kosten senken. Einzelne Prozesskosten werden sofort gesenkt oder ganz eleminiert, z.B. Portokosten. Wird die Signatur auch zukünftig streng gehandhabt? Ja, ich gehe davon aus. Nur die hohen Anforderungen garantieren für alle Unternehmen rechtssichere und geschützte elektronische Daten. Welche Rolle spielt hier die revisionssichere Archivierung? Eine sehr wichtige. Gerade Rechnungen müssen mindestens 10 Jahre archiviert werden, auch elektronische Rechnungen. Viele Archivsysteme wie z. B. Ceyoniq, Easy, GFT Hyparchiv, Saperion, SER, OCR u. a. bieten bereits die Möglichkeit, Signaturen im Archiv zu prüfen und so signierte Rechnungen langfristig zu archivieren. 058 Schwerpunkt • Hersteller-CMS versus Open Source Was ist dran am großen Run? Wie profitabel sind CMS-Lösungen? Wann lohnt sich ihr Einsatz? Ist die Funktionalität von Open-Source-Systemen eingeschränkt? Stefan Bauer Können Open-Source-Lösungen gegen kommerzielle ContentManagement-Systeme bestehen? Ein Überblick. Die Verlockung, von einem kostenlosen Softwaresystem zu profitieren, ist groß. Experten und Anwender loben die Systeme in den höchsten Tönen. Doch das Wissen darum, was dieser Schritt in der Praxis bedeutet und wann genau ein Open-Source-Content-Management-Systemen (CMS) die beste Wahl ist und wann nicht, ist eher gering. Neben dem Vorteil wegfallender Lizenzkosten bieten Open-Source-Systeme den Vorteil, bei Entwicklung und Anpassung an individuelle Lösungen besonders flexibel zu sein. Darüber hinaus wird Open Source ständig weiterentwickelt, verbessert und angepasst – von einer großen Zahl hoch qualifizierter Entwickler, die ihren Code unentgeltlich zur Verfügung stellen. Mit einer installierten Basis von 122.000 Anwendungen (von der Typo3 Association im März 2005 geschätzt) zählt Typo3 weltweit zu den am meisten verbreiteten Open Source CMS. Die große Zahl der Anwender spricht für Stabilität, Professionalität und Mehrwert von Typo3. Doch wie macht sich Typo3 im Vergleich zu kommerziellen Produkten? Stimmt die Qualität? Gibt es versteckte Risiken? Und wo liegen die wahren Einsparungspotenziale? Basiswissen Ob Internet, Intranet oder Extranet – Online-Kommunikation spielt sich auf einer Vielzahl von Plattformen ab. Für TYPO Unternehmen ergeben sich so nicht nur wirtschaftliche, sondern auch organisatorische Herausforderungen. Nicht wenige Firmen aktualisieren ihre Inhalte noch manuell und setzen Sitemaps, Übersichtsseiten oder zeitgesteuerte Inhalte ein, die direkt in den Code eingefügt werden. Insgesamt haben sich auf breiter Front Content-Management-Systeme durchgesetzt, die eine wirtschaftliche Pflege der Inhalte gewährleisten und den Verwaltungsaufwand für Webseiten reduzieren. Der Markt für CMS-Lösungen ist jedoch groß und wenig transparent: Die Spannbreite reicht von kostenlosen OpenSource-Lösungen über kleinen Out-of-the-Box-Angeboten bis hin zu hochpreisigen Systemen im Enterprise-Bereich. 059 Insgesant haben sich drei Arten von Systemen etabliert: individuell entwickelte CMS, Enterprise CMS, Open Source CMS. Individuell entwickelte CMS Agenturen entwickeln auf Basis unterschiedlicher Programmiersprachen und Datenbanken ein auf den jeweiligen Kunden zugeschnittenes CMS. Der Kunde bindet sich dabei eng an die ausführende Agentur. Meist sind die Systeme so komplex aufgebaut, dass andere Programmierer sich erst mit einem hohen Zeitaufwand einarbeiten müssen. Bei einem Agenturwechsel ist es dann nicht selten sinnvoller, ein komplett neues System entwickeln zu lassen, statt das bestehende anzupassen. Je nach Code-Umfang und Anforderungen ist ein individuell programmiertes System günstiger in der Anschaffung als eine kommerzielle Lösung. Doch Vorsicht: Dieser Kostenvorteil schwindet mit jeder nachträglichen Änderung. Zusätzliche Funktionen führen zu einem entsprechend hohen Aufwand bei der Programmierung. Gerade noch ein Schnäppchen kann auf diese Weise schnell ein Fass ohne Boden werden. Enterprise CMS Im EnterpriseSegment gibt es viele Anbieter - hier ist von der Ente bis zum Mercedes alles zu haben. Es handelt sich um fertige Lösungen, die gegen eine einmalige oder monatliche Lizenzgebühr erworben werden. Oft fallen zusätzliche Kosten für den Betrieb an. In der Regel bieten diese Systeme gute Basisfunktionen, die aber nicht zwingend die Anforderungen des Kunden komplett abdecken. Müssen zusätzliche Funktionen entwickelt und implementiert werden, so ist das oft nur über den Hersteller oder dessen Systemintegratoren möglich, woraus sich ebenfalls eine Einschränkung im Handlungsspielraum ergibt. Open Source CMS Wie die Bezeichnung Open Source schon sagt, liegen bei diesen Systemen die Quellen offen. Jeder kann den Code benutzen und sich an deren Weiterentwicklung beteiligen. Ein Open Source CMS wird nicht nur von kommerziellen Firmen, sondern von einer weltweiten Gemeinschaft freier Programmierer entwickelt. Für den Fortbestand der Systeme bedeutet das die ständige Weiterentwicklung. Sie hängt weniger von der Marktstrategie einzelner Firmen ab, als vielmehr von dem Interesse und dem Engagement weltweit verstreuter Entwickler. Ein Potenzial, mit dem einzelne zum Thema „TYPO3 ist ein Content Management Framework für kleine bis mittelgroße Unternehmen. Es vereint die Vorteile zweier Welten: Umfangreiche „Out-of-the-box“ Funktionalität mit einer großen Auswahl an frei definierten Standard-Modulen. Jede Funktion ist denkbar – es muss sich nur jemand finden, der die Anpassung programmiert.“ So beschreibt das Typo3-Netzwerk (www.typo3.de) den Gedanken der Open Source Software. Deutschland rtplan [21] webconcepts & Solution berlin www.artplan21.de • bgm business group munich typo3.bgm-gmbh.de • Colorcube – digital media lab www.colorcube.de • DIACC Content Computing www.diacc.de • pool/munich www.dpool.net • Target-E www.targete.com • punkt de GmbH - Baden/Karlsruhe www.punkt.de • Erichsen Digital GmbH www.pflegefall.biz • Skyfillers www.skyfillers.com Österreich Abaton GmbH www.abaton.at • Active Solution Software AG www.activesolution.at • Plan2net-Wien www.plan2net.at • Typoheads www.typoheads.com • Web consulting www.web-consulting.at Schweiz IC Surselva AG www.icsurselva.ch/intern • snowflake productions gmbh www.snowflake.ch Unternehmen schlichtweg nicht mithalten können. Die Akzeptanz von Open Source wird am Beispiel von Linux & Co deutlich: Spätestens seit der Empfehlung des Bundesrechnungshofes und des Bundesinnenministers Otto Schily wird Linux nicht nur in der Wirtschaft und im Deutschen Bundestag, sondern auch auf allen Ebenen der Verwaltung eingesetzt. Und da Linux wie die meisten Open-SourceSysteme der Gnu Public Licence unterliegt, fallen keine Lizenzgebühren an. Agenturen setzen verstärkt auf Typo3 Aufgrund seiner zahlreichen Vorteile wird Typo3 von WebAgenturen und anderen Internet-Dienstleistern vielfach eingesetzt. Zusätzliche Anwendungen, die so genannten Extensions von Typo3, sind je nach Anforderungen und bei Bedarf ohne großen Aufwand zu integrieren. Zu den Stärken von Typo3 zählt das breite Angebot an Entwicklungsressourcen. Es entsteht durch die einheitliche Architektur des Systems und wächst ständig weiter. Das spart im Vergleich zu kommerziellen Systemen Zeit und Geld: Ein Programmierer kann sofort loslegen, ohne sich in herstellerspezifische Anforderungen einarbeiten zu müssen. Ein anderer Vorteil ist die Unabhängigkeit von der Vertriebs-, Preis- und Supportpolitik kommerzieller Hersteller. Wie wertvoll die daraus entstehenden Gestaltungsspielräume sein können, wissen besonders die Unternehmen, die auf eine proprietäre Lösung gesetzt haben und deren Hersteller das Produkt nicht weiterentwickelt oder in einer 060 Schwerpunkt anderen Lösung versteckt hat, vom Markt weggekauft wurde oder ganz verschwand. Die weite Welt des Open Source Was die Funktionalität und die Entwicklungsmöglichkeiten angeht, kann man grundsätzlich sagen: Bei Typo3 gibt es nichts, was es nicht gibt. Neben der bereits sehr umfangreichen Basisinstallation entstehen ständig neue Erweiterungen und Module. Angefangen bei Newsletter-Tools über Shopsysteme bis hin zu Community-Modulen wie Chats und Foren finden Entwickler in den einschlägigen Foren alles. Mithilfe dieser Erweiterungen lässt sich eine asisinstallation leicht an die Kundenbedürfnisse anpassen, ohne Sondermodule selbst programmieren zu müssen. Fast ganz ausgeschlossen ist, dass Module bei kommerziellen Herstellern nachgekauft werden müssen. Bei der Vielfalt an Extensions ist aber eine gewissenhafte Prüfung der Module angeraten. Nicht alle Erweiterungen sind von gleich hoher Qualität. Der Entwickler muss wissen, was er tut. Preiskampf versus Qualität Jeder kann sich Typo3 herunterladen, testen und für die Erstellung von CMS-basierten Websites nutzen. Websites, die mit Typo3 gestaltet wurden, sind daher in der Regel günstiger. Vor allem, wenn es um kleine oder private Internetauftritte geht, ist Typo3 ein Geschenk: professionelle CMS-Technologie zum Nulltarif – auch wenn es sich nur um eine Basisinstallation von Typo3 handelt. Für diesen Anwendungsbereich ist Typo3 absolut empfehlenswert. Eine Art Volks-CMS, mit dem jeder - theoretisch - ohne besondere Vorkenntnisse unentgeltlich arbeiten kann. Was natürlich den ureigensten Intentionen von Open-SourceSoftware entspricht. Sobald Typo3 professionell eingesetzt wird, gelten andere Regeln. Etwa, dass sehr kleine Dienstleister oder Freelancer in der Regel nicht über die notwendigen Ressourcen verfügen, um das Potenzial von Typo3 umzusetzen. Denn wie die meisten Open-Source-Systeme verlangt Typo3 eine ständige und intensive Beschäftigung mit den neusten Entwicklungen: Die Teilnahme an Workshops und Seminaren, das Engagement in Typo3-Gremien oder gar die Vorstellung selbst programmierter Module. Nicht selten kommt es daher im Low-Budget-Segment zu einer unzureichenden Anpassung der Basisinstallation an die Bedürfnisse des Kunden. Auch die Extensions werden oft nicht eingehend genug geprüft. Renommierte Agenturen gehen mittlerweile sogar dazu über, Eigenentwicklungen mit dem eigenen Namen zu versehen und damit einen Qualitätsstandard zu etablieren, zu „branden“. Da Qualität eng mit Supportfragen und möglicherweise sogar mit Haftungsfragen verknüpft ist, sollte berücksichtigt werden, dass für diese im Zweifelsfall kein Softwarehaus, sondern die implementierende Agentur zuständig ist. Wo wird nun wirklich gespart? Zunächst schlägt zu Buche, dass keine Lizenzkosten anfallen. Das zahlt sich besonders dann aus, wenn weitere Domains auf demselben Kernsystem aufgebaut werden, z. B. für die multilingualen Länderversionen eines Online-Auftritts. Solche Zusatzdomains sind bei vielen kommerziellen CMSHerstellern oft mit zusätzlichen Kosten verbunden. Der Implementierungsaufwand durch den Dienstleister kostet erfahrungsgemäß nicht weniger als bei einem kommerziellen CMS, da sich die Art der Anpassungen grundsätzlich kaum unterscheidet: Auch hier wird ein Basissystem an individuelle Bedürfnisse angepasst. Berücksichtigt man den hohen und für ein wirklich vernünftiges Resultat notwendigen Aufwand an Wissen und Können, so sollte klar sein, dass anspruchsvolle Lösungen mit Typo3 ebenfalls ihr Geld kosten - und wert sind. Weitere Einsparungsmöglichkeiten gibt es im Projektmanagement und im Support. Durch den Einsatz von Typo3 hat ein Kunde nur einen Ansprechpartner. Die Zuständigkeiten für Supportfragen und Nachbesserungen sind klar definiert und gehen nicht im Bermuda-Dreieck von Hersteller, Integrator und Kunde unter. 061 Die größten Einsparpotenziale liegen jedoch bei den Extras. Für den Einsatz von Extensions muss kein weiterer Obolus an einen Software-Hersteller entrichtet werden. Hier fällt lediglich der obligatorische Anpassungsaufwand und ein gewisser Aufwand für die Auswahl des besten Moduls an. Es kann auch bei Typo3 durchaus vorkommen, dass keine adäquate Extension angeboten wird und diese Extension erst neu programmiert werden muss. Das hat natürlich höhere Kosten zur Folge. Anders als bei kommerziellen CMS-Herstellern, die ein neues Modul nach der Fertigstellung auch anderen Kunden anbieten können, freut sich in diesem Fall die Typo3-Community über die vom Kunden finanzierte Neuentwicklung. Natürlich nur, wenn die Extension auch freigegeben wird. In Projekten nicht verwendete Mittel werden so immer häufiger für Extra-Features verwendet, die bei der ersten Planung aus finanziellen Gründen nicht berücksichtigt worden sind. Oder fließen direkt ins Online-Marketing des Unternehmens. Fazit Flexibilität und Kostenersparnisse lassen immer mehr Unternehmen auf Typo3 aufmerksam werden. Dabei ist es aber nicht immer der Preis, der den Ausschlag gibt. Viel wichtiger ist Integratoren und Entwicklern, dass mit Typo3 ausreichend Entwicklungspotenzial und Flexibilität vorhanden ist. Am allerwichtigsten aber ist, dem Anwender begreiflich zu machen, dass Open Source nicht gleichzusetzen ist mit ‚kostenlos‘. Höchstens mit ‚flexibel‘, ‚billiger‘ und ‚unabhängig‘. Aber das ist ja schon eine ganze Menge. Stefan Bauer Diplom-Informatiker, Jahrgang 1969, Geschäftsführer TARGET-E GmbH. ���������������������������� ������������������������������������������������ �������������������������������������������������� ����������������������������������������������� �������������������������������������������������� ������������������������������������������������������� �������������������� 062 Firmenportrait Gut versteckt Die Gegend, in der wir uns befinden, sieht so gar nicht nach Hype aus. Von der Hauptverkehrsstraße geht es ab in ein Wohngebiet, Block um Block mit dem Traum des Mittelstands ausstaffiert: das Einfamilienhaus. Stimmt die Adresse überhaupt? An einer Ansammlung aufgebockter Bungalows die Hausnummer 3. Aha. Hier also ist arago. Stimmt, da steht ja „Eingang“. erst mal Papier Wir haben einen Termin mit Hans Christian Boos, 33 Jahre alt. Da liegt die Vermutung nahe, dass so einer noch New Economy ist. Oder zumindest war. Das alles hier sieht aber überhaupt nicht nach New Economy aus. Und richtig: Als wir später im Gespräch denVerdacht äußern, Boos sei trotz seiner jungen Jahre doch eher „old school“, grinst er verschmitzt und nickt. Boos pflegt seine ganz eigene Philosophie. „Ich verlange von meinen Mitarbeitern, das sie sich zuerst damit befassen, wie sie überhaupt von A nach B kommen. Was ist die Pre-Condition, was ist die Post-Condition. Und dass sie algorithmisch ihren Vektor auf Papier aufschreiben.“ Ob er dafür irgendwelche Methoden hat oder mit Tools arbeitet, frage ich. „Keine Tools – Papier! Denn die spannende Arbeit ist nicht das Coden selbst, sondern die Arbeit herauszufinden, welchen Code man schreibt. Erst dann wählt man die Sprache aus.“ 063 Zunächst aber beginnen wir unseren Termin mit einem Rundgang durch die Firma. arago, das sind rund 60 Mitarbeiter in Frankfurt in einem Gebäudecluster, wo hinter jeder Ecke noch eine weitere liegt. Ganz schön hier – schön verwinkelt und im Sommer wohl auch schön tropisch unter den Glasdächern. Dafür ist die Nidda in der Nähe, ein Flüsschen, das in den Main mündet und stromaufwärts durch die Wetterau führt, das Apfelreservoir für den gefürchteten Apfelwein. Alles in allem fühlt man sich hier weniger wie in einer Firmenzentrale als in einem weit verzweigten Wohnzimmer, in dem eine gesittete Dauer-LAN-Party stattfindet. Aber keine Bange, hier wird auch an Wochenenden gearbeitet. Drin im Code Dann sitzen wir im Garten, in einem lauschigen Häuschen, und Hans Christian Boos kommt. Die langen weißen Haare zum Pferdeschwanz gebunden, lila Sonnenbrille auf und einen stylischen Nadelstreifenanzug an. Cool. Das Erste, was man über Hans Christian Boos wissen und gleich darauf wieder vergessen sollte: Boos ist Albino und verfügt nur über einen Bruchteil der normalen Sehkraft. Und bedauert diejenigen, die ebenfalls ein Handikap haben, aber nur sich selbst bedauern. Nicht sein Ding. Der erste Rechner? Mit 10, ein Epson HX 20 mit 40Zeichen-Display. Programmiert wurde in – na- „Für einen wirklich logisch denkenden Menschen türlich – Basic. Dann kam ein Osbourne und gibt es nur fünf Operationen, und eine davon ist anschließend ein Sinclair ZX81, alles Geräte, die „tue nichts“. heute im Technikmuseum stehen. Der Sinclair hatte den Vorteil: Es gab keine Spiele, die musste man selbst programmieren. Also wurden Listings aus Magazinen abgetippt und nebenbei der Code verbessert. Als Boos 13 war, hat der Vater eines Freundes beschlossen, dass die Kids reif genug seien zu lernen, wie man einen Compiler baut. „Und dann haben wir bei einem kommerziellen Makroprozessor-Projekt mitgemacht: 50 Leute, und jeder ist besser als man selbst. Kann ich nur jedem Programmierer raten, so etwas mal mitzumachen.“ Oder mit einer Comparex zu arbeiten und dafür Lochkarten zu stanzen. „Man lernt, warum sich Dokumentation lohnt, spätestens dann, wenn der Stapel mal runtergeflogen ist.“ Online mit Barbara_ Preise bleiben da nicht aus, in diesem Fall bei „Jugend forscht“, für die Entwicklung einer ergonomischen Benutzeroberfläche. „Im Keller hatten wir einen CGA-Farbmonitor, mit 4 Farben. Damals waren Klimadiagramme angesagt, da haben wir einfach mal in Basic „Ich schätze diese alten IT-Hasen: Die stimmen losgemalt. Irgendwann hatten wir Spaghetticode vorher die Schnittstellen ab, und dann muss hin- und sagten: Jetzt fangen wir noch einmal an terher nichts mehr geändert werden.“ und zwar richtig. In Turbo Pascal.“ Die erste Version war auf Papier, damals schon. Das Ergebnis wurde prämiert und die Rechte des mittlerweile auch kommerziell erfolgreichen Programms später an den Vater zurückgereicht. Der hatte als Englisch- und Geografie-Lehrer das Ganze damals initiiert. 064 Firmenportrait Wie es sich gehört, hat sich Boos noch mit dem Akustik-Koppler und 300 Baud durch die Vorläufer des Internets gehangelt, durch US-Universitäten und das US-Wirtschaftsministerium. Das Fidonet war schon ein Messageboard, und wer etwas auf sich hielt, hatte seine eigene Mailbox. Die von Boos hieß „Tequilla Sunrise BBS“. Danach gab es den Internet Relay Chat (IRC), der immer nebenher mitlief. Auch an der FH Konstanz, wo Boos mit 16 die Unix-Rechner der Studenten admi„Ich möchte nicht altklug erscheinen, aber ich nistriert. „Es gab in Deutschland nur eine ganz glaube nicht, dass sich die IT so schnell bewegt, kleine Community, die immer online war. Wenn wie sie tut.“ man eine Frage ins IRC stellte, kam zehn Minuten später eine Antwort, weil alle anderen auch gerade in der Arbeit am Rechner saßen.“ Zur Hochzeit gab es dann das Original 24 Razormodem, mit dem Boos damals Tag und Nacht gechattet hat, wenn Barbara_ mal nicht in Zürich war. fast forward arago Sprung in die Neunziger. Die Dresdner Bank hat gerade Kleinwort-Benson gekauft, und Boos vernetzt die internationalen Standorte der ResearchTochter; als studentischer Praktikant. Und hat damit seinen ersten Kunden für arago, 1995 gegründet. Am Start steht erst einmal IT-Sicherheit im Mittelpunkt. Kein Wunder: Wer wie Boos Rechner und Systeme in- und auswendig kennt, kennt auch die Lücken. Mit den Jahren wird daraus Informationslogistik und –modellierung, und der Zusatz „Institut für komplexes Datenmanagement“ bewahrheitet sich immer mehr. arago wird 2002 zur AG, die Gesellschafter bleiben unverändert. Der Internet-Hype ist vorbei, arago ist immer noch da. Und zwar genau so, wie Boos es sich von Anfang an gewünscht hat: klein und fein – expandierend. Die Zeit ist vorbei, wir schalten die Geräte aus und verabschieden uns, nachdem die Assistentin schon mit bittender Miene auf den nächsten Termin von Hans-Christian Boos hinweist. Wir bekommen noch eine Präsentation, woran arago gerade arbeitet. Ein Tool, mit dem Unternehmen die Leistungsfähigkeit, die Auslastung und den aktuellen Betrieb ihrer IT messen können. Kein System, das beim Kunden läuft, sondern „einfach“ die Erhebung von Messdaten von Rechnern und Anwendungen, die an ein Cockpit gemeldet werden, in das sich der Kunde einwählt. Ein ASPModell mit klarer Preisgestaltung und einer technisch brillianten Lösung. Respekt. www.arago.de � � � ��������� �������������� ��������������������������������������������� �������������������������������������������������������������������������������� ���������������������������������������������������������������������������� ������������������������������������������������������������������������������ ����������������������������������������������������������������������������� ���� ���� ��������������� ������� ������ ���� ��������� ��������������� ���������� �������� ����������� ��������� ���� ����� ������� ��������� ����� ������� ����� ��������������������������������� �� � �� �� �� ��������������������� ������������������������������������������������ ��������������������������� ��������������������������������������������������������������������������������������������������������������������������������������������������������������������� ������������������������������������������������������������������������������������������������������������������������������������������������������������������� 066 Alltag News Unternehmen Google scant Bücher Im Kern geht es darum, das Wissen der Welt zu sichern und zu digitalisieren. Es ist ein Projekt von kaum zu fassendem Ausmaß. Ein Projekt, das Jahre dauert. Ein Vorhaben der Superlative: In einem Scan-Marathon will der Suchmaschinenbetreiber Google das Wissen der Welt digitalisieren - zumindest das der englischsprachigen. Die Bibliotheken von vier Universitäten (Michigan, Harvard, Stanford, Oxford) und die The New York Public Library beteiligen sich an der Erfassung. Eines Tages, so die Vision, soll alles Wissen über das Internet abrufbar sein. Dabei will Google auch aktuelle Veröffentlichungen als Volltext in seinen Suchindex aufnehmen - ähnlich wie Amazon. Surfer, die bei ihrer Google-Anfrage ein Buch finden, können direkt auf eine Seite weitergeleitet werden, auf der sie das Buch bestellen können. Symantec steigert Umsatz und Gewinn Dotcom-Fieber in China Der amerikanische Sicherheitsspezialist Symantec erzielt im ersten Quartal seines Geschäftsjahres 700 Millionen US-Dollar Umsatz. Nach Auskunft des Unternehmens entspricht das zum Vergleichsquartal des Vorjahrs einem Zuwachs von 26 Prozent: einem Nettogewinn von199 Millionen US-Dollar. Dem gegenüber stehen 128 Millionen US-Dollar ein Jahr zuvor. Der Umsatz mit Unternehmensprodukten wuchs um 23 Prozent. Er beträgt 49 Prozent des gesamten Umsatzes. Der Umsatz des mittlerweile übernommenen Herstellers von Backup-Lösungen Veritas betrug im vorigen Quartal 529 Millionen US-Dollar. Das entspricht einem Zuwachs von 9 Prozent. Eine Prognose mochte Symantec noch nicht abgeben. Keine Frage: Dass Storage und Security zusammenwachsen, ist in dieser Branche der Megatrend. Aber Veritas wurde schon sehr teuer eingekauft. Dass Symantec keine Prognose abgeben will, spricht Bände, obwohl man jetzt echten Einblick in die Bücher hat. Der Beweis, dass die Übernahme Sinn macht, wurde noch nicht erbracht. Ende der 90er Jahre des letzten Jahrhunderts genügte es schon, wenn eine neue Firma die Toplevel-Domain *.com im Namen trug. So kurios die Ideen waren: Capital Venture wurde locker gemacht. Jeder wollte teilhaben - an dem Boom. Die Geldgeber standen Schlange. Sorgfältig erstellte Bilanzen, real erwirtschaftete Gewinne und zahlende Kunden schienen überflüssig zu sein. Bestimmend für viele Geschäftsmodelle wurde die möglichst starke Internetpräsenz. Bekanntlich ist diese Internetblase ab 2000 zerplatzt. Doch mittlerweile zieht das Dotcom-Fieber wieder seine Kreise – im Reich der Mitte. In der Volksrepublik China. Verluste durch Pishing Zahlen von Open Text für IV. Quartal 2005 Open Text hat die vorläufigen Ergebnisse für das vierte Quartal 2005 bekannt gegeben. Danach erzielte das Unternehmen im dritten Quartal einen Umsatz zwischen 108-112 Mio. US-Dollar, im Vergleich zu erwarteten 115125 Mio US-Dollar. Im Vergleichszeitraum des Vorjahres erzielte das Unternehmen 105 Mio. US-Dollar. John Shackleton, President und CEO der Open Text Corporation, zeigte sich enttäuscht über das Ergebnis und kündigte Restrukturierungsmaßnahmen an. Mit etlichen Übernahmen, u. a. der hiesigen Ixos Software AG, hat sich Open Text wohl zu früh auf ein deutlicheres Anziehen des ECM-Marktes eingestellt. Ohne Akquisitionen hätte Open Text sogar Umsatzrückgänge zu verzeichnen. Das deutet auf größere interne Probleme hin. Das Unternehmen sollte das bald in den Griff bekommen – sonst zieht der Markt an, und Open Text sieht nur von der Seitenlinie aus zu, wie die Konkurrenten vorbeiziehen. Gartner untersucht Pishing-Attacken. Einer aktuellen Untersuchung nach haben Spionageangriffe auf Kredit- und Bankkarten in den letzten zwölf Monaten Schäden von 2,75 Milliarden Dollar verursacht. So genannte Pisher greifen sensible Daten wie PINs online ab, entwickeln gefälschte Kredit- oder Bankkarten und heben einfach Geld von fremden Konten ab - und gehen auf Shopping-Tour. Ingesamt befragte Gartner 5000 US-Bankkunden. Das Forschungsunternehmen geht davon aus, dass drei Millionen Amerikaner jeweils etwa 900 Dollar verloren haben. Kriminelle „haben Erfolg, wenn die Bank, die die Karten ausgibt, die Sicherheits-Codes auf dem Magnetstreifen während der Autorisierung von Transaktionen nicht validiert“, so Avivah Litan, Direktor von Gartner Research. Es sei Aufgabe der Banken, Schäden zu minimieren. Bankkarten speichern den Sicherheitscode auf dem Magnetstreifen und in zwei Spuren. Ein Code verknüpft die Karte mit der Kontonummer und bildet damit für den Nutzer neben der PIN eine weitere Sicherheitsschicht. Aber rund die Hälfte der Banken prüfe den Code nicht, so Litant - denn dann müssten die Banksinstitute die Hauptcomputer austauschen. Leichtsinn der Endkunden ist zweifelsohne eine Sicherheitslücke, die Betrug überhaupt erst ermöglicht. Aber dank Gartner wissen wir jetzt: Auch Banken hätten die Möglichkeiten, Betrügereien schwerer zu machen. Interne Schlampereien und zu wenig Investitionsbereitschaft werden letztendlich auf dem Rücken der Kunden ausgetragen Leserschaft von Weblogs legt zu Mit der Zahl der Blogs steigt weltweit der Traffic. Private wie kommerzielle Online-Journale freuen sich über den regen Besucherzustrom. Und immer mehr Internet-Nutzer widmen sich bei ihren privaten wie geschäftlichen Surf-Sessions dem Lesen von anderer Leute Weblogs. News it‘s what‘s different. Das führt zu einem rasant steigenden Traffic, berichtet der US-Marktforscher comScore. Im ersten Quartal 2005 hat ein Drittel aller US-User einen Blog besucht. Die 50 meistbesuchten Blog-Websites, inklusive Blog-Hosts wie Blogs.com und Blogspot.com, erreichen dabei ein Fünftel der aktiven Internet-User in den USA. kommentiert von Engelbert Hörmannsdorfer, Börsen-Infodienst BetaFaktor, www.betafaktor.de StorageTek gehört jetzt endgültig zu Sun Mit der Zustimmung der Aktionäre ist nun StorageTek seit 1. September offizieller Teil von Sun Microsystems. Die Vereinbarung sieht vor, dass StorageTek zu einer Sun-Tochtergesellschaft wird und komplett in den Besitz von Sun Microsystems übergeht. StorageTek-Aktionäre erhalten 37 US-Dollar in bar für jede öffentlich gehandelte StorageTek-Aktie. Der Gesamtwert der Transaktion beläuft sich auf 4,1 Milliarden US-Dollar. Es wird jetzt spannend zu sehen, welche Produkte aus den Sun- und StorageTek-Linien überleben. Suns Storage-Boss Mark Canepa meint, es werde jetzt einige Wochen dauern, bis klar sei, wie die zukünftige Roadmap aussehe. Auf jeden Fall werde das Thema Storage ein wichtiger Punkt auf dem quartalsweisen Sun-Produktankündigungstermin am 12. September in New York. Sun will mit StorageTek endlich aufrüsten. Obwohl der Storage-Markt insgesamt wuchs, hat Sun in den letzten zwei Jahren beständig Marktanteile verloren. Vor allem bringt StorageTek kaum Software in die Ehe mit, die Sun nicht auch schon (in anderer Form) hätte. Und für eine reine Hardware-Akquisition war der Deal relativ teuer. Dicom: Nein zum deutschen Aktienmarkt Und schon zeigt eine Auslandsgesellschaft dem deutschen Aktienmarkt den Rücken: Die in London notierte Dicom Group Plc hat zum Ende des Jahres das Delisting von der Frankfurter Börse beantragt. »Nachdem es uns in den letzten Jahren nicht gelungen ist, eine gute Basis institutioneller Investoren in Deutschland aufzubauen«, erläutert Dicom-IRSprecherin Dr. Bettina Moschner, »hat das Unternehmen den Entschluss gefasst, die Investor-Relations-Arbeit verstärkt auf Großbritannien zu fokussieren. Momentan gehen wir davon aus, dass 12 Prozent unserer gesamten Aktien in Europa ohne UK gehalten werden.« Immerhin waren die deutschen Anleger im Januar 2000 gut genug, eine Kapitalerhöhung im Rahmen eines Neuer-Markt-Listings mit einem Bruttoerlös von 75 Millionen Euro zu bedienen. Der Mohr hat seine Schuldigkeit getan, der Mohr kann gehen. Mit dem Geld akquirierte man seinerzeit endgültig das USUnternehmen Kofax Image Products, deren Produkte heute den größten Teil des Dicom-Technologie-Portfolios darstellen. KFZ-Kennzeichen mit RFID-Funkchips Das Projekt wird genau beäugt. Zum einen von den Befürwortern, die mit besser überwachbaren Fahrzeugen mögliche Terrorangriffe verhindern wollen, andererseits von den Kritikern, die den Einbau als einen weiteren Schritt zur totalen Überwachung von Privatpersonen sehen. Auch die Amerikaner beobachten nach Informationen des ORF sehr genau. Sie selbst unterstützen bereits ein ähnliches Projekt, bei dem die Technik zur Identifikation von Fahrzeugen im Teststadium ist. Die Chips in den ‚E-Plates‘ sind größer als die RFID-Tags, die auf Warenverpackungen zu finden sind. Sie verfügen über eine eigene Batterie, um Daten über größere Distanzen zu übertragen. Das bringt Vorteile für die Sicherheitskräfte, können die doch Mautprellern schnell auf die Spur kommen. Für die britische Hauptstadt besteht seit 2003 eine Mautpflicht, die mit einem Kamerasystem kontrolliert wird. Profitieren können davon grundsätzlich auch Autobesitzer. Anmeldung und Versicherung lassen sich mit den RFID-Tags schneller abwickeln. Aber auch die Nachteile sind nicht von der Hand zu weisen: Die Kennzeichen sind zehnmal teurer als herkömmliche Nummernschilder. IBM kauft Kundendaten-Integrationsspezialisten DWL Computergigant IBM kauft mit DWL einen Spezialisten für Customer Data Integration (CDI). DWL-Middleware auf Java-Grundlagen wie J2EE und EJB läuft im Hintergrund und integriert bei größeren Firmen die Kundendaten über angepasste Spezialsoftware in verschiedene Geschäftsbereiche. Den Kaufpreis gaben beide Firmen nicht bekannt. IT-Dienstleister GFT legt zu Stellent mit Rekordergebnis im ersten Quartal Der IT-Dienstleister GFT Technologies hat im ersten Halbjahr 2005 seinen Umsatz gesteigert. Vor Steuer erwirtschaftete das Unternehmen einen kleinen Gewinn. Der Umsatz habe im Halbjahr 58,3 Millionen Euro betragen, im zweiten Quartal 30,1 Millionen Euro, teilte das börsennotierte Unternehmen mit. In den gleichen Zeiträumen des Vorjahrs lag der Umsatz noch bei 57,4 beziehungsweise 28,9 Millionen Euro. Das Ergebnis vor Steuern (EBT) lag im Halbjahr bei 213.000 Euro, im gleichen Zeitraum des Vorjahrs war ein Verlust von 3,2 Millionen Euro entstanden. Im zweiten Quartal betrug das EBIT minus 52.000 Euro nach einem Minus von 1,6 Millionen Euro im gleichen Vorjahresquartal. Unter dem Strich steht ein Netto-Fehlbetrag von 527.071 Euro für das zweite Quartal nach einem Verlust von 1,9 Millionen Euro im gleichen Vorjahresquartal. Stellent, Inc. (Nasdaq: STEL) gibt seine Ergebnisse für das erste Fiskalquartal 2006 bekannt. Der Umsatz für das Quartal notiert US$ 28,6 Millionen, was einer Steigerung von 26 Prozent gegenüber demselben Vorjahresquartal entspricht. Auf Basis der allgemein anerkannten Grundsätze ordnungsgemäßer Buchführung nach GAAP beträgt der Nettogewinn für das erste Quartal US$ 1,1 Millionen oder US$ 0,04 pro Aktie verglichen mit einem Nettoverlust von US$ 3,8 Millionen im selben Vorjahreszeitraum. Der Proforma-Nettogewinn für das erste Quartal belief sich auf US$ 1,7 Millionen bzw. US$ 0,06 pro Aktie. Was nun Stellent? Im Geschäftsjahr 2006 (01.04.2005-31.03.2006) wollen wir etwa 15 Prozent wachsen. Profitabilität genießt höchste Priorität. Nur wenn wir weiter so arbeiten, können wir die mit der Version 8 geplanten Erweiterungen wie höhere Skalierbarkeit und verbesserte Integrationen mit Desktop-, E-Mail und ERP-Systemen finanzieren und in den Ausbau des Vertriebsnetzes nach Osteuropa investieren“, so Josef Huber, Managing Director Central and Eastern Europe Stellent GmbH. 068 Alltag • IT im Gesundheitswesen Wenn der Arzt sich selbst hilft Gesundheitsreformen und gesetzliche Vorgaben wie die Gesundheitskarte sind das eine. Das andere sind Ärzte und Heilberufler, die sich auf eigene Faust mit IT und Vernetzungsprozessen auseinandersetzen. Zum Beispiel mit Datenbanksystemen, die nicht gleich in die ganze Welt exportiert werden müssen, sondern einfach mal die tägliche Arbeit erleichtern. Welche Stolperstellen hält die Praxis parat, und wie nutzt der Betroffene die Erkenntnisse für den Arbeitsalltag? Selber machen oder Spezialisten beauftragen? Elektronische Abrechnung mit den Krankenkassen Die Spitzenverbände der gesetzlichen Krankenkassen optimierten die Leistungsabrechnung und ihre Kostenstruktur, indem sie beispielsweise für Heilberufe die elektronische Abrechnung von Leistungsdaten anordneten. Am Beispiel der Heilberufe wurde recherchiert, was das für Kassen und die betroffenen Leistungserbringer bedeutet. Exemplarischer Fall: eine logopädische Praxis. Sie zählt zu den sonstigen Leistungserbringern. Die Spitzenverbände der Krankenkassen haben für diese Gruppe auf Basis des Paragraphen § 302 Absatz 2 SGB 5 die elektronische Abrechnung angeordnet. Seit 2003 ist das Verfahren im Einsatz. Wer nach der festgelegten Frist noch analog abrechnet, dem werden 5 Prozent der Leistungssumme abgezogen. Das motiviert zum Wechsel. Bei der Recherche stellte sich heraus, dass die verantwortlichen Mitarbeiter bei den Krankenkassen sehr kooperativ sind; bei Detailfragen kostet das bislang so eindeutig festgelegte Procedere aber Zeit und Nerven. Theoretisch gibt es für die Abrechnung diverse Stufenprozesse: angefangen vom elektronischen Datenträger per CD bis hin zum Datenaustausch über das Internet. Die Internetabrechnung ist klar definiert und unter www.datenaustausch.de im Detail nachzulesen. Das Verfahren ist in allen Sicherheitsfragen durchdacht: Ix-Nummer, Schlüsselkennung, Anmeldung und Zertifizierung beim Trust Center; es gibt standardisierte Anbieter und Prozessabläufe. Spezialisierte Software- und Systemhäuser stehen als Kooperationspartner zur Auswahl. Kein Thema, solange das Verfahren über Abrechnungsfirmen abgewickelt wird. Sobald jedoch der Ehrgeiz erwacht, selbst zu organisieren und sich einzuarbeiten, werden Ärzte, die nach der geeigneten Software suchen, im Nebenberuf zum „ITler“. Diese Zeit haben nur wenige, zumal die Vorkenntnisse für den elektronischen Datenabgleich nicht vorausgesetzt werden können. Im Fall der hier beschriebenen logopädischen Praxis gab es den Anspruch, die Daten aus dem eigenentwickelten Verwaltungssystem selbst zu managen. Mit dem Ergebnis, dass mindestens 20 der zugelassenen Softwarehäuser angesprochen werden mussten, um eine Einzelplatzlizenz für die Generierung der Sicherheitsschlüssel zu erhalten. Von diesen Unternehmen waren nur drei wirklich kooperativ. De anderen bestanden auf „Full Service“. Nach fast sechs Monaten Vorbereitungszeit, erheblichem Aufwand bei der Auswahl geeigneter Anbieter, Reisekosten, Systemabstürzen läuft das internetbasierte elektronische Abrechnungssystem. Und wird von den verschiedenen Abrechnungsstellen der gesetzlichen Krankenkassen akzeptiert. Patientenverwaltung und Onlinetherapie im Alltag Um das Beispiel der logopädischen Praxis weiterzuführen: Die Patientenverwaltung ist die Basis eines erfolgreichen Managements. Sie bildet das Herzstück. Die Arztpraxis entwickelt seit 1999 Datenbanksysteme auf der Basis von relationalen Datenbanken. „Wir haben frühzeitig erkannt, dass Datenbanksysteme sowohl Zeit- als auch Patientenmanagement enorm erleichtern. Die Patientendatenbank ist die Grundlage für effektives Arbeiten, und ich kann 069 Logopädische Praxis André Eska, André Eska, [email protected] • FileMaker GmbH, Michael Valentin, [email protected] über Jahre den Verlauf von Krankheitsbildern des Patienten, die Art der Behandlung nachvollziehen. Nachdem wir diverse Datenbanken getestet haben, fiel die Wahl auf die plattformübergreifende Entwicklersoftware Filemaker (www.filemaker.de). Sie ist für Entwickler ohne klassische Programmierkenntnisse eine wunderbare Basis, denn ich kann Bild, Text und Audiodaten erstellen und diese maßgeschneidert miteinander kombinieren“, sagt André Eska, Leiter der Praxis. selbst ist der Arzt Der ausgebildete Logopäde behandelt Patienten mit Sprach-, Sprech- und Stimmstörungen und macht aus seiner Leidenschaft für das Programmieren kein Hehl. Er entwickelt in Zusammenarbeit mit Langzeit-Patienten Therapieprogramme für den Einsatz am heimischen PC. Diese kommen ergänzend zu der „Vor Ort“-Therapie zum Einsatz und erlauben ihm den Sofortzugriff auf die Basis- und Auswertungsdaten des Patienten. Mittlerweile sind die Lernprogramme und Anwender-Daten komplett webfähig aufbereitet worden. Das alles ohne fremde Programmierleistung, mit dem System Filemaker Server Advanced 7.0. Das Programm bietet diverse Web-Publishing- und Connectivity-Optionen zum effizienten Verwalten von Datenbank-Lösungen im Inter- und Intranet. Für den Nutzer, den Patienten, ist das sehr komfortabel. Er benötigt keine spezielle Lern-Software, muss keine besonderen Features auf dem heimischen PC installieren. Mit einem Klick auf den Browser findet er sofort alle Anleitungen patientengerecht aufbereitet. die Patienten „gehen online“ Bei der Onlinetherapie können bis zu 100 Patienten zeitgleich auf den geschützten Pool an Therapieübungen zugreifen. In Echtzeit weist der Therapeut mit einer E-Mail seinem Patienten eine individuelle Übung oder ein Auswertungsprogramm zu. Der Patient meldet sich beim System an und erhält seinen persönlichen Sicherheitsschlüssel in Form eines Passworts. Mit diesem Schlüssel hat er gleichzeitig die Berechtigung erhalten, das Übungs-Programm unbegrenzt oder für eine vom Therapeuten definierte Zeitspanne zu nutzen. Die Schwierigkeitsgrade können dabei variiert werden. Der Therapeut bekommt sofort nach der Rücksendung der Patienten-Ergebnisse als Mail einen Eindruck vom Erfolg und Misserfolg und kann reagieren. Alle Prozesse werden in einer zentralen Datenbank gespeichert. „Natürlich kann man einen Pool von Programmierern mit komplexen Modellen wie die der Onlinetherapie beauftragen. Aber zum Thema Technischer Hintergrund zum Praxismodell Onlinetherapie (www.eskalog.de): • Filemakeranwendungen, FM Server Advanced 7.0 2003 • bis zu 100 Anwenderpatienten haben den gleichzeitigen Zugriff auf die Datenbank • Lösungen und Programme werden dem Patienten webbasiert über den Browser angezeigt • Zusatzsoftware ist nicht mehr notwendig Procedere: Der Patient erhält seinen elektronischen Schlüssel zur Identifizierung; der Therapeut weist ihm eine bestimmte Übung zu, die Ergebnisdaten werden in Echtzeit in der zentralen Patientendatei abgespeichert. • Bausteinprinzip Therapie: Patienten-DB; Therapieübungen/ Lernprogramme, Auswertungs-DB, Patientenverwaltung, Statistik • Interaktion mit UI-Elementen (z.B. b:drag oder b:resize) • Unterstützung der Browser „back/forward“ und „bookmarking“ Funktionalität: • On-demand-Laden aus der Erfahrung heraus ist die inhaltliche Vermittlung der Schwerpunkte und vor allem der Zeit- und Kostenaufwand bei Anpassungs- und Kontrollprozessen nicht zu unterschätzen. Demzufolge haben wir kontinuierlich mit Filemaker und Filemaker Developer gearbeitet und jedes Programm immer wieder angepasst. Das braucht viel Zeit, Disziplin und Geduld, aber ich kann auf neue Situationen sofort reagieren und umprogrammieren“, beschreibt der Logopäde seine Strategie. Auswertung des Datenmaterials Ein wichtiger Aspekt bei der Onlinetherapie, die mittlerweile beträchtliche Mengen an Datenmaterial bereitstellt, ist der wissenschaftliche Nutzen, die Statistiken. Der Therapeut erhält einen guten Überblick, welche Zuordnungsübungen beispielsweise für Aphasiker (Patienten mit Wortfindungsstörungen) besonders häufig eingesetzt wurden, wie lange im Durchschnitt das Lösen der Aufgaben dauert, wie sowohl Frustrationsgrenzen als auch Erfolgserlebnisse eine Rolle spielen. Bestimmten Krankheitsbildern werden komplexe Programmmodule zugeordnet. Die Datenbank beinhaltet inzwischen Tausende von Patientendaten und ist für wissenschaftliche Erhebungen hochinteressant. Das kommt letztlich beiden zugute: dem Patienten und dem Therapeuten. Denn: Ohne Vertrauensbasis zwischen den beiden Seiten sind solche Programme nicht zu entwickeln. Claudia Burkhardt 070 Alltag • RFID-Lösung im Einsatz Vier Buchstaben für mehr Effizienz Jährlich kaufen rund sechs Milliarden Menschen weltweit Waren im Wert von mehr als 6.300 Milliarden Euro ein. Bevor der Handel die gewünschten Lebensmittel, Haushaltswaren, Elektronikprodukte und Textilien in den Regalen präsentiert, legen die Produkte einen weiten Weg zurück: Sobald die Bestellung eines Handelsunternehmens eingegangen ist, stellen in der Produktionsstätte Mitarbeiter des Herstellers die georderten Artikel zusammen und versehen Pakete und Paletten mit speziellen Etiketten für den Transport. Diese Etiketten enthalten die so genannte Nummer der Versandeinheit. Sie wird durch einen Barcode visualisiert. An verschiedenen Stationen entlang der Prozesskette erfassen Mitarbeiter mit einem Barcode-Scanner die Nummer der Versandeinheit. Ist kein Scanner zur Hand oder der Barcode nicht lesbar – das passiert des Öfteren auch beim Einkaufen im Supermarkt – gibt das Personal die Nummer manuell über die Tastatur eines PCs ein. Darüber hinaus wird jeder Karton und jede Palette sowohl beim Warenausgang des Lieferanten oder Logistikspezialisten als auch beim Wareneingang des Handelsunternehmens einer Feinkontrolle unterzogen. Stimmt die Lieferung in Art und Umfang mit der Bestellung überein? Dieses Vorgehen hat Schwachstellen: Zum einen ist es aufwändig, zeitraubend – und fehleranfällig. Zum anderen können Handel und Industrie nicht lückenlos nachvollziehen, an welcher Stelle der Prozesskette eine Lieferung sich gerade befindet. Bessere Zusammenarbeit dank innovativer Technologie Zur Optimierung der Lieferprozesse hat der Handel die Radiofrequenz-Identifikation, oder kurz RFID, für sich entdeckt. RFID ermöglicht es, Daten berührungslos zu übertragen. Dafür benötigen Hersteller und Industrie so genannte RFID-Transponder und -Lesegeräte sowie Systeme, die die gelesenen Daten weiterverarbeiten. Um Versandeinheiten unverwechselbar zu kennzeichnen, speichert der Lieferant auf dem Transponder eine Zahlenkombination, die einmalig vergeben wird. Den so genannten elektronischen Produktcode, kurz EPC. Er ist mit dem System der europäischen Artikelnummerierung (EAN) zu vergleichen. Er enthält zusätzlich eine Seriennummer, die die eindeutige Identifikation des Kartons oder der Palette ermöglicht. So lässt sich über den EPC eine Versandeinheit innerhalb der Prozesskette jederzeit lokalisieren und authentifizieren. Das ist besonders für die Warenrückverfolgung und bei Rückrufaktionen wichtig. Die hohe Transparenz in der Prozesskette erlaubt es Industrie und Handel, noch enger und effizienter zusammenzuarbeiten. Den Partnern ist es möglich, ihr Lagervolumen deutlich zu reduzieren und Kosten zu sparen. Die METRO Group hat die Potenziale der RFID-Technolo- 071 METRO Group, Antonia Voerste (Unternehmenskommunikation), [email protected], www.metrogroup.de gie frühzeitig erkannt. Seit November 2004 führt der weltweit drittgrößte Handelskonzern RFID schrittweise entlang der gesamten Prozesskette ein. Dabei liegt der Schwerpunkt der Einführung darauf, das Bestands- und Lagermanagement zu optimieren. Radio Frequency Identification (RFID) Radio Frequency Identification (RFID) (engl. für Funk-Erkennung) ist eine Methode, um Daten berührungslos und ohne Sichtkontakt lesen und speichern zu können. RFID wird als Oberbegriff für die komplette technische Infrastruktur verwendet. Ein RFID-System umfasst • den Transponder (auch RFID-Etikett, -Chip, -Tag, -Label, Funketikett oder -chip genannt), • die Sende-Empfangs-Einheit (auch Reader genannt) und, • die Integration mit Servern, Diensten und sonstigen Systemen wie z. B. Kassensystemen oder Warenwirtschaftssystemen (vgl. Middleware). Standards bringen Sicherheit Angesichts der rasanten Entwicklung der Technologie sind international gültige Standards und Richtlinien für den Einsatz von RFID essenziell wichtig. Denn nur auf der Basis von Standards haben die Unternehmen auch Investitionssicherheit. EPCglobal hat sich als internationales Gremium der Aufgabe angenommen, gemeinsam mit den Beteiligten solche Standards zu entwickeln. Die Daten werden auf dem RFID-Transponder gespeichert und per Radiowellen verfügbar gemacht. Bei niedrigen Frequenzen geschieht dies induktiv über ein Nahfeld, bei höheren über ein elektromagnetisches Fernfeld. Die Entfernung, über die ein RFID-Transponder ausgelesen werden kann, schwankt aufgrund der Ausführung (passiv/aktiv), benutzten Frequenzbands, Sendestärke und Umwelteinflüssen zwischen wenigen Zentimetern und mehr als einem Kilometer. (de.wikipedia.org) (Anm. d. Red.: Weltweit hat sich noch kein Standard durchgesetzt, sodass bei einem transatlantischen Handelsverkehr unterschiedliche Frequenzen zu bedienen sind.) Dr. Gerd Wolfram, METRO Group eige_RzCMM.fh 02.09.2005 9:27 Uhr Seite 1 C M Y CM MY CY CMY K ����������������������������� ���������������������������������� ������������������������������ ����������������������������������� ������������������� ����������������������������� ��������������������� ������������������������ ������������� ���������������������� ����������������� ������������������ ���������������������������������������������������������������������������������������� 072 nachgefragt [email protected] zu Gast bei STIEBEL ELTRON Nach der öffentlichen Ausschreibung stehen in dem so genannten Pitch sich nicht selten „unbekannte Größen“ gegenüber. Unternehmen wie RedDot oder CoreMedia zählen zu den „bekannten Größen“. Wie sieht es mit Systemen wie „additor“ oder „Open 2C Basic“ aus? Selbst Branchenkenner stoßen bei einem Pitch auf die ein oder andere Unbekannte - wie eben gelesen. In der Präsentation des Vertrieblers sieht alles dann ganz einfach aus. Und wenn der Kunde Funktionalität auf Funktionalität einfordert, heißt es: Können wir! Alles nur eine Frage der Schnittstellen oder so. Reihum zufriedene Gesichter, Problem gelöst. Schnitt. Wie sieht es nach Ablauf des Projektes aus? Pflichtenheft nur zur Hälfte erfüllt? Kostenrahmen gesprengt? Anwender entnervt? Wir fragen nach. Diesmal bei STIEBEL ELTRON. Dort war die Website bis 2003 von statischen Inhalten geprägt. Die Seiten wurden extern gehostet und gepflegt. Dadurch gab es für die Mitarbeiter nur sehr eingeschränkte Möglichkeiten, etwas zu ändern, ob nun bei Inhalten, Gestaltung oder Struktur. Was möglich war: Inhalte für die Website zu liefern. „Das Gerüst war einfach zu starr“, sagt Daniela Zbick, Leiterin der Internetabteilung bei STIEBEL ELTRON. Deshalb stand bei STIEBEL ELTRON der Wunsch, die Website selbst zu steuern, auf dem Wunschzettel an oberster Stelle. Das Internet nicht nur als Werbeplattform in das Tagesgeschäft mit einzubeziehen, sondern Synergien zwischen Information und Werbung herszustellen. Praktische Tipps aus der Themenwelt des Unternehmens mit Verkaufsförderung, Vermarktung, Beobachtung des Besucherverhaltens und Imageförderung zu verbinden. Und zwar ohne IT-Inseln und lokalen Excel-Sheeds, sondern im Rahmen der bestehenden EDV. Unter der Leitung von Norbert Weber, Leiter Zentrale Vertriebsorganisation, schrieb STIEBEL ELTRON einen Kunde... ... www.stiebel-eltron.com Lizenz... ... ECMS Imperia 6.5, Personalisierung Rule Based, Melin, uCrop Shopsystem... ... PHP-/Oracle-Lösung Datenbank... ... Oracle 0i Sonstige... ... SAP R/3, CRM VKIS, Workflow-Plug-Ins, Hardware Entwicklungs-/Liveserver, Dual PIII-Systeme Projektdauer... ... 6 Monate Anzahl Redakteure... ... 25 Wettbewerb aus. Das Ziel: die passende Agentur und das passende CMS zu finden. Die Gewinner: Cybay New Media, eine Agentur aus Hannover, und Imperia. Die wichtigsten, gemeinsam bestimmten Kriterien: (1) Flexible Abbildung vorhandener Unternehmensprozesse, (2) Produktkatalog mit SAP/R3-Anbindung, (3) ein CMS mit offener Architektur und einfacher Benutzerführung und (4) personalisierte Shops, Kataloge und Suchen für Partner und Presse-Vertreter. Im März 2003 begann Cybay New Media damit, die 6erVersion von Imperia bei Stiebel Eltron zu implementieren. Sechs Monate später spielte Cybay New Media das Update auf. Seitdem ist bei STIEBEL ELTRON die 7er-Version im Einsatz. vom großen Plan zum Alltag Mit der 7er-Version von Imperia ist das Unternehmen zufrieden. Norbert Weber findet, „wir haben mit dem CMS von Imperia die richtige Wahl getroffen. Unser Ziel, die Etablierung eines zentralen CMS mit intelligenten Schnittstellen zu unseren Backend-Systemen, haben wir mit der offenen Workflow-Engine des Systems erreicht. Auch die Fachabteilungen schätzen die neuen Möglichkeiten.“ Und Daniela Zbick hat in den letzten drei Jahren keine gravierenden Mängel festgestellt. Aus ihrer Sicht hat sich die Anschaffung des Systems bezahlt gemacht. Zbick hat aber auch einsehen müssen, dass ein CMS nicht so komfortabel ist wie eine lokale Dateiverwaltung mit dem Explorer unter Windows. Dateien zu verschieben, ist hier wesentlich aufwändiger. Kein drag & drop, und Benutzerfreundlichkeit, sondern eben „drin im System“. So betrachtet hat Imperia den Upload von Dateien nicht wirklich gut im Griff. Besonders wenn mehrere Dateien hochgeladen werden sollen. Das Hochladen und online Stellen von zehn Bildern kann schon einmal ein längerer Task werden. „Da klickt man sich schon mal einen wunden Finger und hat genug Zeit, sich einen Kaffee zu holen“, so die Abteilungsleiterin stellvertretend für die 25 Redakteure. Zbick würde es begrüßen, liefe der Prozess schneller automatsich. Ihr Traum: ein Massenupload von 10 Dateien mit einem Klick. „Doch daran gewöhnt man sich!“ Eine weitere wünschenswerte Funktion wäre die Anbindung an das bestehende Mail-System, so Norbert Weber, damals Projektleiter von STIEBEL ELTRON. ������������������������������������� �������������������������� ��������������� ���������������������������� ��������������� ���������������������� ������������� ������������������������������� ��� � ������� ��� � ����������� ������������������������������������������������������������������ ������ ������� ������ ������������ ������������������������������� ��������� ���� � � ������������ ������ � ��������������� ��������������� �������������������� ���� ���������������������������� 074 Alltag in die Nesseln [email protected] ten, breiten wir besser den Mantel des höflichen Schweigens. Ebenso über die ERP/CRM-Erfolge der Rotmonder. besser als jede Abk.: das Akronym die tun was ... Gehen Sie doch zu einem großen Anbieter, da wissen Sie gleich, was Sie bekommen. Wissen wir das wirklich? Hatte nicht die Deutsche Bank völlig andere Ansichten als IBM Global Services hinsichtlich des Leistungsumfangs des größten Outsorcing-Vorhabens in der Finanzwirtschaft? Und hat irgendjemand mal die von der Deutschen Bank hinter vorgehaltener Hand verbreitete Meinung aufgegriffen, wonach jetzt alles teurer und schlechter sei? kein Großprojekt ohne „Maut-Appeal“ War nicht die Website der Bundesagentur für Arbeit durch Accenture zu einem permanenten und sehr realen Witz mutiert, der gestandene CMS-Dienstleister monatlang ein Dauergrinsen ins Gesicht zwang? Und ist nicht T-Systems jetzt auch noch mit seiner kaum performanten und nur bedingt anpassbaren ALG2-Lösung auf Grund gelaufen? Die Bundesagentur erwägt, das gesamte Projekt vollsätndig neu entwickeln zu lassen. T-Systems besteht auf die Weiterentwicklung der Software und will die Mängel so schnell wie möglich beseitigen. Natürlich! Das würde ich anstelle der T-Systems auch wollen. Dort hat man ja bereits ausreichend Erfahrungen mit der Maut gesammelt. Dänemark, du hast es besser Was ist los im Staate Dänemark? Sind denn die Softwarehersteller besser dran? Eben haben sich noch alle vier erfolgsverwähnten Anbieter mit großem Markting- und PR-Aufwand auf kostenlose Suchlösungen gestürzt, da stampfen alle erfahrenen Suchanbieter ihre Marketingbudgets ein und ducken sich ins Gebüsch - in der Hoffnung, jemand ganz Großes würde den Laden übernehmen. Über Studien, die Microsoft als einen der größten ECM-Anbieter bewer- Dass ganze Akronymfamilien wie CRM, SCM oder gar der ewige Enterprise Service Bus der seeligen TIBCOs endlich praktischen Nutzwert nachweisen müssen, kam leider etwas zu spät. Da war die Abschreibung schon passiert. Dass aber auch die IT-Dienstleister mittlerweile einen echten Existenzbeweis schuldig bleiben, sollte zumindest den institutionellen Anlegern und den zukünftigen Rentnern zu denken geben. Denn spannend wird die ganze Sache, wenn in 8 bis 12 Jahren die ersten Probleme bei BfA und LVA auftauchen, denn die Mikrofilme sind längst entsorgt. Und wer nicht selbst vorgesorgt hat, wird den Taktstock der Digitalisierung ins Kreuz bekommen. Vor allem, wenn die Zusatzrente auch noch auf IT-Aktien basiert. des einen Leid, des anderen Freud Und wer schon heute lauffähige Systeme inklusive Betriebssystem und Anwendungsssoftware für die Zukunft bereitstellt, wird die Langzeitarchivierung revolutionieren. Der kann dann pro Stunde Datenbanknutzung aus dem Jahr 1997 15.000 Euro verlangen. Das ist eine Nische für all die abseits stehenden Spezialisten der AS/400, HP NonStop/ Tandem und für diverse Unix-Derivate mit Hang zur Hardwarefrickelei. Glücklicherweise machen die Dienstleister bei solch rückwärtsgewandtem Quatsch nicht mit und verdienen schon heute das meiste Geld mit Umgehungslösungen, die weder gestern noch heute noch morgen die Pflichtenhefte erfüllen ... aua. (ano) 075 populäre Irrtümer der Irrtum schlechthin „Nichts ist unmöglich ... Toyota.“ Der japanische Automobilkonzern erklärte den Werbeslogan zur Firmenphilosophie: und hat ihn in einer gelungenen Kampagne gekonnt umgesetzt. Wortspielerei. Genialer Schachzug. Wenig andere Botschaften haben einen ähnlich hohen Wiedererkennungseffekt geschaffen. Werden so häufig zitiert. I, täglichen Leben, in Sitcoms - sinnfrei oder als Floskel. Ähnlich kraftvoll benutzen Menschen populistische Aussagen und Zitate. Sie geben Rednern die Möglichkeit, sich zu der richtigen Zeit und mit den richtigen Worten in Szene zu setzen. Sich Gehör zu verschaffen. Spannungsbögen auf- und abzubauen. Je nach Auffassungsgabe der Zuhörer werden aus gewagten Aussagen Irrtümer. Zu „Schmarrn“, wie der Bayer sagen tät. In der Welt rund um High Tech und Computer gäbe es einen „Informationsschmarn“. Wohlbekömmlich garniert mit Zitaten von Bill Gates, Thomas Watson und anderen. Worte, die sich heute wie maßlose Übertreigungen lesen. Übertreibungen, die sich bewahrheitet haben. Die visionäre Botschaften waren oder nur strategisch platzierte pseudowissenschaftliche Aussagen. „Ich habe die Länge und Breite dieses Landes bereist und mit den besten Leuten geredet, und ich kann Ihnen versichern, daß Datenverarbeitung ein Tick ist, welcher dieses Jahr nicht überleben wird.“ Der Chef des US-Verlages Prentice Hall, 1957. „OS/2 wird die Plattform der 90er werden“, Bill Gates, 1989. „Ich denke, dass es vielleicht einen Weltmarkt für vielleicht fünf Computer gibt“, Thomas Watson, Vorsitzender vom IBM, 1944. Oder: „Computer der Zukunft werden mehr als 1,5 Tonnen wiegen“, die Zeitschrift Popular Mechanics, 1949. Hätte einer der Zitierten mit seinen Worten Recht behalten, nicht vorzustellen, wie und womit dieser Text hier entstünde. Gäbe es Microsoft Word? Gäbe es InDesign oder Quark? Gäbe es E-Mails? Nein. Texte entstünden auf gusseisernen Schreibmaschinen. Würden mit dem Pferd oder der Postkutsche in den Satz gebracht. Der Einsatz der Fortbewegungsmittel steht nicht in Frage. Damit verstärkt sich der Eindruck, dass die Aussagen der genannten Personen wohl doch eher blanke Propaganda waren. Und sind. Teil einer strategischen Firmenphilosophie. Oder von öffentlich ausgetragenen Privatfeden - hallo Larry. Zitate, die in Sinnund Zweifelsfragen gern benutzt werden, um Sachverhalte zu beschreiben. Um Werbung für das Unternehmen zu machen. Microsoft, IBM und Apple ist das an dieser Stelle gelungen. Andere wirken eher unbeholfen, zum Beispiel die vielen vielen Marktführer. (Anm. der Redaktion – Zitatetassen eines Unternehmens zeigen wir in einer der nächsten Ausgaben. Merke: News it’s was different.) 076 Alltag Ausblick [email protected] Ausgabe #2 05 Das Titelthema des nächsten Heftes: Langzeitarchivierung. Wie lange sind Daten auf welchem Speicher sicher? Ist Papier wirklich überholt? Wie sieht der Lebenszyklus von Daten aus? Wie funktioniert Datenrettung? c//mag fragt nach beim dem Unternehmen nach, das Daten von Festplatten aus dem World Trade Center wiederhergestellt hat. Zum Thema Usability und Barrierefreiheit klopft c//mag bei der tekom an. Der Verband steht für technische Innovation in Deutschland und kennt den Stand der Dinge. Die Max-Planck-Gesellschaft hat in Saarbrücken ein Institut für Software-Systeme gegründet. „Forschungsobjekt Software-Systeme“ - was wird erforscht? Eine neue ECM/CMS neue Studie zeigt die Entwicklungen im Markt auf. Ab Ausgabe #1 06 gibt es eine Serie im c//mag, die sich durch das ganze Jahr ziehen wird. Thema und Umfang werden im nächsten Heft vorgestellt. Bis zum nächsten Mal! Inserenten in dieser Ausgabe [n:sight] market & technology research 56 BARC - Business Application Research Center 7 Bibliographisches Institut und F.A. Brockhaus 48, 73 Canon Deutschland GmbH U2 d.velop U3 DMS Expo 49 Enterra Software 32 IBM U4 InterRed 32 Kwick-Box 61 mediamid digital Services 11 NOEO 32 Penton Media 15, 53 Seagate 65 Six Offene Systeme 32 Stellent 7 TOMORROW FOCUS Technologies 25, 32 VOI e.V. 31 Schwer korrekt. Die ersten 30 Abos gehen mit dem Duden Korrektor raus. Leser werben > Coupon abschicken > Prämie sichern Ja, ich habe einen Abonnenten geworben. Ich erhalte meine Prämie, selbst wenn ich kein c//mag Abonnement bin. Bitte schicken Sie meine Prämie, den Duden Korrektor, an folgende Adresse: Ja, ich abonniere das c//mag für mindestens 1 Jahr zum Preis von 42 Euro inklusive Versand. Das Abo verlängert sich automatisch um ein Jahr, wenn ich nicht 4 Wochen vor Ablauf der Bezugszeit schriftlich kündige. Ich zahle per Rechnung bequem per Bankeinzug als Fax an 01 80. 5 26 05 50 54 66 (12 Cent/min) als Post an hw medien OHG, Bernardstraße 47-49, 63067 Offenbach Der neue Abonnement darf innerhalb der letzten 6 Monate nicht Bezieher des c//mag gewesen sein. Sie erhalten die Werbeprämie innerhalb von 4 Wochen nach Bezahlung des neuen Abonnements. 078 Impressum Verlag hw medien OHG, Bernardstr. 47-49, 63067 Offenbach fon +69. 82 37 61 04, fax +69. 82 37 78 36, leo +69. 82 37 78 37 [email protected], www.c-mag.de Herausgeber Uwe Hentschel ([email protected]) Chefredaktion Volker Watschounek ([email protected]) redaktionelle Mitarbeit Ulrich Baumgärtner, Stefan Bauer, Claudia Burkhardt, Marion Freudenschuss, Jürg Häusermann, Engelbert Hörmanndorfer, Wolfgang Laier, Björn Negelmann, Katja Riefler, Mark Schiefelbein, Florian Stahl, Dr. Gerd Wolfram Schlussredaktion Jochen Wilhelm, www.kwick-box.de c//mag Abonnement Inland Inland: 6 Ausgaben jährlich 38,00 EUR inkl. Versandkosten zzgl. Mehrwertsteuer Ausland: 6 Ausgaben jährlich 47,00 EUR inkl. Versandkosten zzgl. Mehrwertsteuer Falls 4 Wochen vor Ablauf des Abonnements keine Kündigung eingeht, verlängert sich das Abonnement um ein weiteres Jahr. Design Stephanie Heck, FormSieben GmbH Sponsoren-Abonnements Beirat Aries GmbH & co.KG, Burda Ciscom GmbH, Coextant Systems International AG, MATERNA GmbH, Open Text AG,Red Dot Solutions AG, Six Offene Systeme Professor Harald Gerlach, Lehrstuhl „Technische Dokumentation“, Fachhochschule Neu-Ulm. Professor Jürg Häusermann, Lehrstuhl Medienpraxis Medienanalyse und Medienproduktion, Universität Tübingen. Wir bedanken uns für die freundliche Unterstützung Doktor Ulrich Kampffmeyer, Unternehmensberater, Analyst, Autor und langjähriger Vorstand von DMS-Branchenverbänden wie IMC, AIIM und VOI e.V. Firmen-Abonnements: Aries GmbH & co.KG, Burda Ciscom GmbH, Coextant Systems International AG, MATERNA GmbH, Open Text AG,Red Dot Solutions AG, Six Offene Systeme Prof. Dr. Hermann Maurer, Institut für Informationsverarbeitung und Computergestützte neue Medien (IICM), Technische Universität Graz. Kameraausstattung von Minolta. Prof. Dr. Bernd Reusch, Lehrstuhl 1 (Automaten- und Schaltwerktheorie, Computational Intelligence, Universität Dortmund. Vielen Dank für die redaktionelle Unterstützung von Projekt Consult und Jürg Häusermann. Disclaimer Die in dieser Ausgabe veröffentlichten Beiträge sind urheberrechtlich geschützt und liegen in der Verantwortung des betreffenden Autors. Die Haftung für die Richtigkekit der Veröffentlichung kann trotz Prüfung durch die Redaktion und vom Herausgeber nicht übernommen werden. Alle Angaben erfolgen nach bestem Wissen, jedoch ohne Gewähr. Nachdruck, auch auszugsweise, nur mit Genehmigung des Verlages gestattet. ������������������� ��� ������ �������� �������� ��� ���� ��������� ������� ��� ���� ������� ������ ��������������������� ��������������������� ������������������� ��� ��� ���������������������� �� ��������������������� �������� ������������������� ��������������������������������������������������������������������������������������������� ��������������� �������������������������������������������������������� ������������������������������������� �������������������������������������������������������������������������� ����������������������������������������������������������������������������������������������������������������������������������� ������������������������������������������������������������������������������������������������������������������������������������ ������������������������������������������ ���������������������������������������������� ���������������������������������������������������������������������������������������������������������������������������������������������������������������� ����������������������������������������������� ����������������